Como implementar ferramentas generativas de IA com segurança e ética
A inteligência artificial está sendo usada de todas as maneiras, desde chatbots e assistentes virtuais até carros autônomos, e 97% dos proprietários de empresas acreditam que o ChatGPT ajudará seus negócios . Mas com qualquer nova tecnologia, existem preocupações sobre segurança e ética – e não é diferente com a IA.
Alguns líderes empresariais apelaram recentemente a uma pausa de seis meses no desenvolvimento de novos modelos mais poderosos que o GPT-4, alertando para “riscos profundos para a sociedade e a humanidade”. Com a introdução do roteiro da Administração Biden para promover a inovação responsável e concentrar o investimento na investigação e desenvolvimento da IA, é claro que estes riscos devem ser adequadamente mitigados para garantir que a segurança e o bem público permanecem no centro de toda a inovação.
Para as empresas que pretendem adotar a IA a nível empresarial, há hesitações quanto à longevidade e segurança das novas ferramentas generativas de IA, o que levanta uma questão necessária – toda a IA é má? De quais preocupações éticas precisamos estar cientes?
À medida que trabalhamos para identificar respostas a estas questões, existem medidas tangíveis que podem ser tomadas para evitar o risco de possíveis dilemas éticos provocados por distorções de dados. As empresas que utilizam IA generativa devem estar cientes dos danos potenciais que o preconceito pode causar e, embora os grandes modelos de linguagem (LLMs) sejam úteis, dependem de grandes conjuntos de dados que devem ser fiáveis e imparciais.
Desafios éticos da IA
Embora o ChatGPT e outras novas ferramentas geradas por IA sejam tentadores e as oportunidades pareçam infinitas, integrá-los em produtos existentes sem cautela e revisão cuidadosa pode reforçar os estereótipos e práticas discriminatórias existentes. Estes modelos generativos de IA baseiam-se em grandes conjuntos de dados para formar os seus raciocínios e explicações e, se esses conjuntos de dados apresentarem falhas, os preconceitos refletir-se-ão nas respostas e no trabalho que produzem.
O preconceito de dados utilizado para treinar estas ferramentas pode levar a resultados catastróficos, o que é uma das muitas razões pelas quais um código de ética deve ser desenvolvido e aplicado entre as organizações que criam, adoptam e integram estas ferramentas em produtos e plataformas existentes. Por exemplo, um estudo realizado por dois pesquisadores da Universidade de Washington descobriu que o ChatGPT perpetua estereótipos de gênero para ocupações em vários idiomas falados diferentes.
Como aproveitar os benefícios da IA – sem causar danos
Evite preconceitos
O passo mais óbvio na criação de ferramentas de IA que não sofram preconceitos é garantir que os dados nos quais a IA é treinada não sofram preconceitos. Isto está em desacordo com os modelos treinados na Internet pública; não há forma de garantir que os dados extraídos aleatoriamente da Internet possam estar isentos de preconceitos (e, de facto, praticamente garante que existirão preconceitos). No entanto, ao direcionar casos de uso muito específicos, você pode limitar os dados de entrada e, por sua vez, examinar os dados de treinamento quanto a tendências.
Escolha os casos de uso com sabedoria
Ao decidir se deve ou não usar IA em um caso de uso específico, pense se e como a IA pode ser afetada por preconceitos. Você pode encontrar casos de uso com muito menos probabilidade de sofrer preconceitos (por exemplo, no meu setor, gerar YAML do Kubernetes a partir de uma descrição em inglês de uma topologia de implantação) do que outros (por exemplo, escrever uma descrição de trabalho para um cargo de engenharia, que poderia acidentalmente introduzir pronomes de gênero indicando preconceito).
Proteja a privacidade do usuário
Estamos mais conscientes do que nunca de como os dados estão sendo usados – pense no número de vezes por dia que você é questionado sobre “cookies” em um site. A IA e os modelos de linguagem representam mais uma forma de utilização dos dados e, tal como aconteceu com as ondas de inovação que precederam esta, precisamos de garantir que estamos a proteger a privacidade dos dados.
Se você planeja usar conteúdo enviado por usuários como parte de seu conjunto de dados de treinamento, você deve pelo menos notificar seus usuários de que seus dados podem ser usados dessa forma. E, idealmente, você permitiria que os usuários cancelassem o uso de seus dados no treinamento.
Seja transparente sobre como a IA está sendo usada
Embora o ChatGPT possa ser uma ferramenta útil e facilitar muitas tarefas monótonas e rotineiras, é crucial ser transparente sobre o uso da IA – tanto interna quanto externamente. É necessária uma compreensão completa não apenas de como o trabalho foi criado, mas também do conjunto de dados que foi usado para informar o trabalho, para garantir que possam ser tomadas medidas adequadas de verificação de factos e de redução de preconceitos.
A transparência pode ajudar a policiar qualquer preconceito e construir a confiança dos utilizadores, partilhando abertamente informações para informar os funcionários, clientes e decisões dos utilizadores com base no seu conforto e incentivando um diálogo bidirecional sobre a utilização de tais ferramentas.
Artigo originalmente publicado por CNFC