¿Quién es responsable de la IA responsable? (Es una pregunta complicada).
agosto 20, 2024 / Suzanne Taylor
¿Tiene poco tiempo? Lea las conclusiones clave:
- Todo el mundo en una organización, desde los ejecutivos de la alta dirección hasta el personal operativo, es responsable de garantizar que la IA se implemente y utilice de forma ética, segura y protegida.
- Las personas deben formarse en prácticas de IA responsables, y las organizaciones deben desarrollar e implementar directrices claras para el uso de la IA.
- La IA debe implementarse para mejorar las capacidades humanas en lugar de sustituirlas, buscando un equilibrio que conduzca a una alta adopción por parte de los usuarios, una mayor eficiencia e integridad ética.
- Sea un defensor de la IA responsable dentro de su organización, participando activamente en la creación y adopción de políticas y directrices de IA.
Parte dos de una serie de blogs de tres partes sobre IA responsable que se centra en “quién.” Lea la primera parte, que se centra en el “por qué.” Próximamente: Parte tres que se centra en el “cómo.”
El impulso de la IA responsable está ganando terreno en todas las industrias. Pero, ¿quién es responsable de la IA responsable? Psst: Esta es una pregunta complicada.
Muchas organizaciones se centran en la operacionalización de la IA generativa para alcanzar los objetivos empresariales. De hecho, un impresionante 73 % de las organizaciones esperan que la IA generativa sea significativa o extremadamente valiosa, según una encuesta reciente de Harvard Business Review patrocinada por Unisys. Pero con el poder de lograr más viene la responsabilidad de utilizar ese poder de forma ética.
Entonces, ¿quién es responsable de garantizar que la IA se implemente y utilice de forma responsable? Todos nosotros. Desde los miembros del equipo directivo que formulan la estrategia de IA hasta los profesionales que operan el uso de la IA, todos deben actuar como guardianes de la integridad, asegurándose de que la IA sea segura, ética y protegida, en todas las funciones.
No es casualidad que las personas estén en el corazón del éxito de la IA. Las organizaciones buscan implementar herramientas de IA de una manera que complemente las habilidades humanas, la creatividad y la inteligencia en lugar de sustituirlas. Lograr este equilibrio puede conducir a una alta adopción por parte de los usuarios, una mayor eficiencia operativa e integridad ética, todo lo cual requiere un esfuerzo comprometido por parte del equipo.
Todas las personas que trabajan con la IA son responsables y tienen la responsabilidad profesional de garantizar la seguridad, el uso ético y la seguridad. Puede demostrar su compromiso con la IA responsable tomando varias medidas.
#1: Infórmate sobre la IA responsable
Usted y cualquier otro profesional pueden defender prácticas de IA responsables dentro de sus organizaciones y tener una voz en la conversación continua sobre el equilibrio entre la innovación y la creatividad con el uso seguro y ético de la IA.
Con cualquier tecnología, hay una gran curva de aprendizaje. Si el concepto de IA responsable es nuevo para usted o desea un repaso, consulte nuestros recursos, incluida la publicación del blog "Cinco razones para priorizar la IA responsable: Su clave para el éxito en la era de la IA." Un número cada vez mayor de seminarios web y clases de formación sobre IA puede ofrecerle información sobre los retos que hacen necesaria una IA responsable. De hecho, es posible que su organización haya añadido la IA a su programa de formación de empleados a medida que el uso de herramientas como ChatGPT ha aumentado. Y el National Institute of Standards and Technology (NIST) ofrece una breve visión general de los principios de IA responsable.
Y si acaba contribuyendo al desarrollo o cumplimiento de las directrices de IA responsable de su organización, considere cómo reducir los riesgos. El NIST también desarrolla marcos como el Marco de gestión de riesgos de IA (AI RMF) y guías prácticas como la Guía práctica de IA RMF del NIST para obtener inspiración.
#2: Conozca las directrices de IA responsable de su organización
Para regular eficazmente el uso de la IA en su organización, evalúe sus políticas de seguridad, ética y privacidad. Identifique las áreas en las que estas políticas ya cubren la IA y en las que no lo hacen. Luego, apóyelos para abordar las preocupaciones específicas de la IA o cree directrices específicas de IA responsable. No pase por alto sus políticas éticas; actualícelas para incluir consideraciones de IA en general y principios de IA responsable en particular.
Entre otras cosas, puede fomentar la creación y adopción de políticas compartiendo cómo las directrices pueden proteger a su organización de posibles responsabilidades, pérdida de credibilidad pública y disminución de la reputación. La confianza es fundamental para fortalecer su relación con los que más desea impresionar: sus clientes, socios, empleados y clientes potenciales.
Si está interesado, póngase en contacto con los responsables de este esfuerzo en su organización para saber cómo puede participar en la creación de directrices y promover la adopción. Ambas son responsabilidades importantes en este esfuerzo, y la formación y la educación son un componente fundamental para una mayor adopción por parte de los usuarios. Este proceso es una responsabilidad interfuncional e involucra a personas de los departamentos jurídico, de TI, de RR. HH., de seguridad, de unidades de negocio individuales y más. Las directrices que elabore pueden ser una parte fundamental de sus esfuerzos de cumplimiento.
Una vez que su organización haya establecido directrices, políticas y mejores prácticas para un uso responsable de la IA, puede demostrar su apoyo. Entre ellas se incluyen:
- Estudiarlos atentamente y recibir formación para comprender a fondo los conceptos
- Tener cuidado de seguirlos y asegurarse de que sus equipos los sigan, poniéndose en contacto con expertos internos si tiene alguna pregunta
- Difundir la palabra entre los compañeros de trabajo para que los entiendan (más información sobre la formación en una futura publicación en el blog)
#3: Defender la IA responsable
Es más fácil seguir las directrices si las respetas. Para contribuir a una IA responsable, las personas de su organización deben tener claro el reto de poner en funcionamiento la IA de una manera fiable y responsable y que mejore la experiencia humana. Pero la motivación es clave. Esto incluye reconocer la importancia de utilizar la IA de forma responsable.
Este reconocimiento incluye apreciar la sinergia entre la IA y el talento humano. Ambos impulsan el éxito organizativo y fomentan el crecimiento colaborativo y el cumplimiento ético. El objetivo final es aprovechar la IA para reforzar las capacidades humanas y construir una base de confianza y fiabilidad en los resultados de la IA. Es un esfuerzo de equipo y, cuando se hace bien, la IA funciona como un compañero de equipo de apoyo.
Contribuya a una IA responsable
La IA responsable es fundamental y todos desempeñamos un papel fundamental a la hora de hacerla realidad. Puede demostrar su dedicación a este valor reconociendo la importancia de la IA responsable en el mundo actual, donde las herramientas de IA se están convirtiendo en algo común. Los titulares recientes demuestran que incluso las empresas más grandes pueden ser demandadas por infracciones de derechos de autor o privacidad, y que los empleados pueden liberar accidentalmente código propio sin tomar precauciones. Más allá de la IA generativa, los sesgos pueden penetrar en la atención sanitaria, la contratación y otros algoritmos.
Para obtener información sobre cómo los ejecutivos globales ven la operacionalización de la IA, lea el informe Harvard Business Review Analytic Services, patrocinado por Unisys. Si ve el valor de las iniciativas de IA para su organización, lea sobre cómo un proveedor líder de equipos de pruebas automatizadas y software de instrumentación virtual agilizó las operaciones y obtuvo agilidad empresarial con el marco de IA central de Unisys y explore las soluciones de IA ofrecidas por Unisys.