22 de junho de 2023

As fronteiras éticas da inteligência artificial

A euforia e o entusiasmo em torno das possibilidades atuais e futuras da inteligência artificial generativa são inegáveis e justas. No entanto, junto com seu imenso potencial, a IA generativa apresenta novos riscos e desafios. Com a crescente incorporação de modelos generativos em nossas rotinas diárias pessoais e profissionais, torna-se fundamental abordar essas preocupações com cautela, porém com medidas eficazes.

A IA generativa refere-se à capacidade da tecnologia de produzir conteúdo diverso e aberto. Isso a diferencia das abordagens tradicionais de aprendizado de máquina que se concentram na solução de problemas preditivos específicos.

As limitações dos modelos tradicionais de aprendizado de máquina, projetados para tarefas específicas, como prever o pagamento de empréstimos, facilitam a gestão de alguns aspectos da IA responsável. Por exemplo, garantir igualdade de oportunidades em pedidos de empréstimo envolve minimizar os vieses inconscientes (como idade, gênero, raça, etnia, orientação sexual) nas previsões, definindo um critério justo durante o processo. Assim, auditar a adesão do modelo aos critérios de imparcialidade torna-se mais simples nessas tarefas, pois os dados de treinamento podem ser controlados.

No entanto, a IA generativa apresenta novos desafios em termos de definição, medição e aplicação da neutralidade. A natureza aberta do conteúdo produzido dificulta o estabelecimento de critérios claros de imparcialidade. A compensação pelo conteúdo rico e criativo gerado pela IA generativa é o aumento da dificuldade em abordar a equidade, bem como as preocupações éticas em comparação com os modelos preditivos tradicionais.

Embora muitas lideranças no setor tenham pedido uma pausa no treinamento de sistemas de IA mais poderosos, eles negligenciam um ponto crucial – os sistemas para criar padrões éticos estão sob nosso controle. Ou seja, não devemos interromper a evolução da tecnologia, mas sim nos concentrar em priorizar a ética e o desenvolvimento responsável da IA.

Minha colega Dana Daher, em recente artigo sobre o tema (AI Escapes Pandora’s Box: The Imperative for Ethical Control and Responsibility), listou algumas ações para mitigar esses riscos inerentes ao avassalador desenvolvimento da IA:

  1. Estabeleça diretrizes e padrões éticos claros: desenvolva e promova diretrizes e padrões éticos claros para o desenvolvimento e implantação da IA. Essas diretrizes devem abranger princípios como justiça, transparência, responsabilidade, privacidade e proteção dos direitos humanos.
  2. Promova práticas de dados responsáveis: garanta que os dados usados para treinar modelos de IA sejam representativos, imparciais e respeitem a privacidade e o consentimento. A seleção e o pré-processamento dos dados devem ter como objetivo minimizar os vieses e evitar a perpetuação da discriminação.
  3. Promova a colaboração e abordagens multidisciplinares: Incentive a colaboração entre os stakeholders de diversas origens, incluindo tecnólogos, especialistas em ética, legisladores e comunidades impactadas.
  4. Aumente a transparência e a explicabilidade: promova a transparência nos sistemas de IA, promovendo técnicas de IA explicável (XAI). Os usuários e indivíduos afetados devem ser capazes de entender como os sistemas de IA tomam decisões e por quê.

Como bem colocou Dana em seu artigo, “em vez de temer a IA, devemos enfatizar a necessidade de supervisão, responsabilidade e diretrizes humanas. O futuro da IA está em nossas mãos e é nossa responsabilidade coletiva guiá-la rumo a um caminho que beneficie a humanidade”.

Os artigos aqui apresentados não necessariamente refletem a opinião da Aberje e seu conteúdo é de exclusiva responsabilidade do autor.

Marcos Santos

Marcos Santos é Diretor de Marketing e Demand-Generation da Unisys para América Latina, responsável pelo planejamento e execução das iniciativas de brand awareness e geração de demanda na região. Antes de ingressar na Unisys em 2012, Marcos desempenhou funções seniores em agências de Relações Públicas, como Sing Comunicação, Fundamento Grupo de Comunicação e Andreoli MSL. Graduado em Jornalismo pela Universidade Metodista de São Paulo, Marcos possui MBA em Gestão da Comunicação Corporativa pela Aberje, curso de extensão (pós-graduação) em Análise de ROI em Programas de Marketing e Comunicação pela USP e completou o Programa MicroMaster em Digital Leadership pela Universidade de Boston.

  • COMPARTILHAR: