Connect with us

Colunistas

Vieses da Inteligência Artificial – Entendendo os desafios éticos das construções

Published

on

Vieses

A Inteligência Artificial (IA) se tornou uma ferramenta onipresente em nossa sociedade, permeando desde as recomendações de filmes até as decisões cruciais de concessão de crédito. Sua capacidade de processar vastas quantidades de dados e identificar padrões complexos a torna uma aliada poderosa em diversos campos, prometendo otimizar processos, automatizar tarefas e impulsionar a inovação.

Contudo, ao lado desse potencial transformador, surge um desafio ético crucial: os vieses que podem se infiltrar em algoritmos e dados, levando a resultados discriminatórios e injustos, com consequências significativas para indivíduos e para a sociedade como um todo.

O estudo “Gender Shades”, conduzido por Joy Buolamwini e Timnit Gebru do MIT Media Lab, analisou o desempenho de softwares de reconhecimento facial de empresas como Microsoft, IBM e Face++ e descobriu que eles eram significativamente menos precisos ao identificar rostos de mulheres negras em comparação com rostos de homens brancos.

Um outro estudo, conduzido por pesquisadores da Carnegie Mellon University, descobriu que o Google Ads exibia anúncios de empregos de alta remuneração com maior frequência para homens do que para mulheres.

Esses vieses não são intrínsecos à tecnologia em si, mas sim reflexos de vieses existentes na sociedade e nas estruturas que a moldam. Eles podem surgir de diversas fontes ao longo do ciclo de desenvolvimento e aplicação da IA.

Uma das principais origens são os dados utilizados para alimentar os algoritmos. Dados incompletos, desequilibrados ou enviesados historicamente podem perpetuar preconceitos sociais existentes, como discriminação de gênero, raça, classe social ou orientação sexual. Por exemplo, um sistema de IA treinado com dados predominantemente de homens brancos pode ter dificuldade em reconhecer e responder adequadamente às necessidades de mulheres ou pessoas de outras etnias, resultando em recomendações enviesadas, diagnósticos médicos imprecisos ou até mesmo decisões de contratação discriminatórias.

Outro ponto de atenção reside na própria estrutura dos algoritmos. A escolha do modelo, a definição dos parâmetros e as métricas de otimização utilizadas podem introduzir vieses, mesmo quando os dados de treinamento são aparentemente neutros. Algoritmos de aprendizado de máquina, por exemplo, podem ser otimizados para precisão geral, negligenciando o desempenho em grupos minoritários ou sub-representados. Isso pode levar a situações em que um sistema de IA seja altamente eficiente para a maioria da população, mas gere resultados injustos ou discriminatórios para grupos específicos.

Leia também: Dove se compromete a não usar modelos de IA no lugar de mulheres reais em publicidades

Além dos vieses presentes nos dados e algoritmos, é fundamental reconhecer o papel dos vieses humanos no desenvolvimento e aplicação da IA.

Desenvolvedores, cientistas de dados e usuários podem, mesmo inconscientemente, introduzir seus próprios preconceitos e perspectivas limitadas no processo, influenciando desde a escolha dos problemas a serem abordados pela IA até a interpretação dos resultados gerados.

Para combater esses desafios, é crucial adotar uma abordagem proativa. Promover a diversidade nas equipes de desenvolvimento de IA e utilizar dados de treinamento que sejam representativos da população em geral é essencial. Além disso, devemos desenvolver algoritmos transparentes e explicáveis, permitindo a compreensão de como as decisões são tomadas e a identificação de potenciais vieses.

A implementação de mecanismos para auditar e monitorar sistemas de IA regularmente é igualmente importante. Afinal, os algoritmos de IA são criados por humanos, e humanos estão sujeitos a vieses inconscientes que podem se infiltrar no código e se manifestar em resultados discriminatórios.

Por último, a educação e a conscientização sobre os vieses em IA devem ser promovidas entre desenvolvedores, usuários e a sociedade em geral.

Desenvolvedores e cientistas de dados precisam estar cientes dos diferentes tipos de vieses que podem surgir em sistemas de IA, desde vieses nos dados de treinamento até vieses nos algoritmos e modelos. Para os usuários, é importante desenvolver uma compreensão crítica de como esses sistemas funcionam e quais são suas limitações.

A ética e a justiça devem ser pilares centrais no desenvolvimento e aplicação da IA. Ao adotar uma abordagem proativa para mitigar vieses, podemos garantir que a IA seja uma força para a condução das melhorias de processo, eficiência, escalabilidade e dia a dia das operações.

 


(*) Patricia Cotti, Diretora Adjunta de Estudos de Varejo IBEVAR; Diretora de Modelagem de Negócios da DrivenCX; Embaixadora do Mulheres no Ecommerce; Palestrante e Professora da FIA, ESPM, USP e ESECOM

 

Imagem: Envato