Quem é responsável pela IA responsável? (É uma pergunta complicada.)
agosto 20, 2024 / Suzanne Taylor
Pouco tempo? Leia as principais conclusões:
- Todo mundo em uma organização, desde executivos executivos até equipe operacional, é responsável por garantir que a IA seja implementada e usada de forma ética, segura e protegida.
- Os indivíduos precisam se educar sobre práticas de IA responsáveis, e as organizações precisam desenvolver e implementar diretrizes claras para o uso da IA.
- A IA deve ser implementada para melhorar as capacidades humanas em vez de substituí-las, visando um equilíbrio que leve a uma alta adoção do usuário, maior eficiência e integridade ética.
- Seja um defensor da IA responsável dentro de sua organização, participando ativamente da criação e adoção de políticas e diretrizes de IA.
Parte dois de uma série de blogs de três partes sobre IA responsável que se concentra em "quem." Leia a primeira parte, que se concentra no "porquê." Brevemente: Parte três que se concentra no "como."
O impulso para a IA responsável está ganhando força vertical em todos os setores. Mas quem é responsável pela IA responsável? Psst: Essa é uma pergunta truque.
Muitas organizações estão focadas na operacionalização da IA generativa para alcançar objetivos de negócios. Na verdade, 73% das organizações esperam que a IA generativa seja significativa ou extremamente valiosa, de acordo com uma recente pesquisa Harvard Business Review patrocinada pela Unisys. Mas com o poder de alcançar mais vem a responsabilidade de usar esse poder de forma ética.
Então, quem é responsável por garantir que a IA seja implementada e usada de forma responsável? Todos nós. Daqueles na suíte C que formulam a estratégia de IA aos profissionais que operacionalizam o uso da IA, todos têm que agir como guardiões da integridade, garantindo que a IA seja segura, ética e protegida — em todas as funções.
Não é por acaso que as pessoas estão no centro do sucesso da IA. As organizações procuram implementar ferramentas de IA de maneira que complementem as habilidades humanas, a criatividade e a inteligência, em vez de substituí-las. Alcançar esse equilíbrio pode levar a uma alta adoção do usuário, maior eficiência operacional e integridade ética — tudo isso requer um esforço comprometido da equipe.
Todas as pessoas que trabalham com IA são responsáveis e têm uma responsabilidade profissional para garantir a segurança, o uso ético e a segurança. Você pode demonstrar seu compromisso com a IA responsável tomando várias ações.
#1: Informe-se sobre a IA responsável
Você e todos os outros profissionais podem defender práticas de IA responsáveis dentro de suas organizações e ter uma voz na conversa contínua sobre o equilíbrio entre inovação e criatividade com o uso seguro e ético da IA.
Com qualquer tecnologia, há uma grande curva de aprendizagem. Se o conceito de IA responsável é novo para você ou você quer uma atualização, procure nossos recursos, incluindo a publicação do blog, "Cinco razões para priorizar a IA responsável: Sua chave para o sucesso na era da IA." Um número crescente de webinars e aulas de treinamento sobre IA pode fornecer informações sobre os desafios que tornam necessária a IA responsável. Na verdade, sua organização pode ter adicionado IA à sua agenda de treinamento de funcionários à medida que o uso de ferramentas como o ChatGPT aumentou. E o National Institute of Standards and Technology (NIST) oferece uma visão geral sucinta dos princípios de IA responsável.
E se você acabar contribuindo para o desenvolvimento — ou conformidade com — as diretrizes de IA responsável da sua organização, considere como reduzir os riscos. O NIST também desenvolve estruturas como a Estrutura de Gerenciamento de Risco de IA (AI RMF) e manuais como o NIST AI RMF Playbook para inspiração.
#2: Conheça as diretrizes de IA responsável da sua organização
Para governar eficazmente o uso da IA em sua organização, avalie suas políticas de segurança, ética e privacidade. Identifique as áreas em que essas políticas já cobrem a IA e onde elas não são suficientes. Em seguida, fortaleça-os para abordar preocupações específicas de IA ou crie diretrizes dedicadas de IA responsável. Não ignore suas políticas de ética; atualize-as para incluir considerações de IA em geral e princípios de IA responsável em particular.
Entre outras coisas, você pode incentivar a criação e a adoção de políticas compartilhando como as diretrizes podem proteger sua organização de potenciais responsabilidades, perda de credibilidade pública e diminuição da reputação. A confiança é fundamental para fortalecer seu relacionamento com aqueles que mais querem impressionar — seus clientes, parceiros, funcionários e potenciais clientes.
Se você estiver interessado, entre em contato com os responsáveis por esse esforço em sua organização para saber como você pode participar na criação de diretrizes e na promoção da adoção. Ambas são responsabilidades importantes neste esforço, com o treinamento e a educação sendo um componente fundamental para uma maior adoção pelo usuário. Esse processo é uma responsabilidade interfuncional e envolve pessoas dos departamentos jurídico, TI, RH, segurança, unidades de negócios individuais e muito mais. As diretrizes que você cria podem ser uma parte fundamental de seus esforços de conformidade.
Uma vez que sua organização tenha estabelecido diretrizes, políticas e melhores práticas para o uso responsável da IA, você pode mostrar seu apoio. Essas incluem:
- Estudando-os cuidadosamente e realizando treinamento para que você compreenda os conceitos minuciosamente
- Cuidar para segui-los e garantir que suas equipes os sigam, contatando especialistas internos se você tiver alguma dúvida
- Espalhando a palavra entre os colegas de trabalho para que eles os entendam (mais sobre treinamento em uma futura publicação no blog)
#3: Defender a IA responsável
É mais fácil seguir as diretrizes se as respeitar. Para contribuir para a IA responsável, as pessoas dentro da sua organização devem estar claras sobre o desafio de operacionalizar a IA de uma maneira que seja confiável e responsável e melhore a experiência humana. Mas a motivação é fundamental. Isso inclui reconhecer a importância de usar a IA de forma responsável.
Esse reconhecimento inclui apreciar a sinergia entre IA e talento humano. Ambos impulsionam o sucesso organizacional e incentivam o crescimento colaborativo e a conformidade ética. O objetivo final é alavancar a IA para reforçar as capacidades humanas e construir uma base de confiança e confiabilidade nos resultados da IA. É um esforço de equipe e, quando feito corretamente, a IA funciona como um companheiro de equipe de apoio.
Faça sua parte para uma IA responsável
A IA responsável é fundamental e todos nós desempenhamos um papel fundamental para torná-la uma realidade. Você pode demonstrar sua dedicação a esse valor reconhecendo a importância da IA responsável no mundo atual, onde as ferramentas de IA estão se tornando comuns. Títulos recentes demonstram que até a maior das empresas pode ser processada por violação de direitos autorais ou privacidade, e os funcionários podem inadvertidamente liberar código proprietário sem precauções. Além da IA generativa, o preconceito pode penetrar na saúde, no recrutamento e em outros algoritmos.
Para obter informações sobre como os executivos globais veem a operacionalização da IA, leia o relatório Harvard Business Review Analytic Services, patrocinado pela Unisys. Se você vê o valor das iniciativas de IA para sua organização, leia sobre como um fornecedor líder de equipamentos de teste automatizados e software de instrumentação virtual otimizou as operações e ganhou agilidade de negócios com a estrutura de IA Core da Unisys e explore as soluções de IA oferecidas pela Unisys.