Ir para o conteúdo PET Sistemas de Informação Ir para o menu PET Sistemas de Informação Ir para a busca no site PET Sistemas de Informação Ir para o rodapé PET Sistemas de Informação
  • International
  • Acessibilidade
  • Sítios da UFSM
  • Área restrita

Aviso de Conectividade Saber Mais

Início do conteúdo

Inteligência Artificial: Uma questão ética



A ascensão da inteligência artificial generativa, capaz de criar textos, sons e imagens com uma capacidade quase humana, marca uma nova fronteira tecnológica. Ferramentas como o ChatGPT e o Midjourney encantam pela sua capacidade de escrever, desenhar, programar, entre outras muitas atividades. No entanto, por trás dessa fachada de criatividade, existe uma verdade fundamental: a IA não “pensa” nem “cria” a partir do nada. Ela é uma máquina de reconhecimento de padrões, um intérprete gigantesco de dados que aprende ao receber grandes volumes de informação produzida por humanos. E é exatamente nessa fonte que reside seu maior desafio ético, pois ao aprender com o nosso mundo, a IA também aprende, reflete e automatiza os preconceitos e as desigualdades neles contidos.

A prova mais visível desse fenômeno está nos populares geradores de imagem. Em uma investigação detalhada de 2023, a agência de notícias Bloomberg analisou o modelo Stable Diffusion e revelou um viés sistêmico alarmante. Conforme documentado no artigo “Humans Are Biased. Generative AI Is Even Worse”, a pesquisa constatou que comandos como “pessoa de baixa renda” geravam imagens de indivíduos com tons de pele mais escuros, enquanto “pessoa bem-sucedida” produzia predominantemente homens brancos. Profissões de prestígio, como “juiz” ou “CEO”, eram principalmente associadas a homens, e as de cuidado a mulheres. Essa “imaginação artificial” não é criativa, é um eco dos estereótipos extraídos de bilhões de imagens da internet, que acaba por apagar a diversidade do mundo real e apresentar uma caricatura preconceituosa.

Quando esse viés migra de imagens ilustrativas para sistemas de aplicação da lei, as consequências tornam-se ainda mais preocupantes. Em fevereiro de 2023, Porcha Woodruff, uma mulher negra de Detroit, foi presa injustamente em frente aos seus filhos, acusada de roubo de carro. Ela se tornou a sexta pessoa a relatar uma prisão indevida baseada em uma correspondência facial algorítmica falha nos EUA e todas elas eram negras. O caso de Randal Reid, um homem negro da Geórgia erroneamente preso em novembro de 2022 por um roubo que ocorreu em outro estado, segue o mesmo padrão trágico. Esses incidentes não são mais hipóteses teóricas, são a prova de que tecnologias enviesadas, treinadas com bancos de dados que sub-representam certos grupos étnicos e sociais, estão sendo usadas para privar cidadãos de sua liberdade, transformando o código em uma sentença.

O grande perigo é que a IA parece ser totalmente neutra e imparcial. Enquanto podemos identificar e questionar o preconceito de uma pessoa, o preconceito do algoritmo fica escondido por trás de números e cálculos- o que o torna mais perigoso e disfarçado. Por isso, uma decisão injusta feita por um computador muitas vezes é aceita como correta e se torna mais difícil de ser contestada. Isso cria um efeito de bola de neve: o sistema toma uma decisão preconceituosa (como vigiar mais um bairro de minorias), o que gera mais dados que “provam” que a decisão estava certa (mais prisões acontecem ali). Esses novos dados, por sua vez, alimentam o sistema, que reforça ainda mais seu preconceito inicial. Desse modo, a desigualdade não só se repete, como se torna mais forte e passa a ser justificada por uma lógica que se alimenta de si mesma, tudo isso em uma velocidade e escala que nenhuma pessoa conseguiria atingir sozinha. 

Esses exemplos expõem a urgência de uma discussão profunda sobre o treinamento ético da inteligência artificial. O problema não está em uma falha de programação, mas em uma falha de concepção social refletida nos dados. Se um algoritmo é alimentado com um histórico de decisões humanas que, sutil ou abertamente, favoreceram um grupo em detrimento de outro, ele aprenderá essa discriminação como a norma a ser seguida. A tecnologia, nesse caso, age como um amplificador de injustiças estruturais, conferindo uma aura de objetividade e neutralidade a decisões que são, na verdade, profundamente enviesadas. A máquina não é racista ou sexista por si só, ela se torna um agente de preconceito ao aprender com uma sociedade que ainda luta contra esses mesmos demônios.

Para solucionar esse problema, são necessárias ações em várias frentes. A melhoria da tecnologia, por si só, é insuficiente; é preciso cuidar dos dados utilizados e das regras de controle. Tal abordagem significa selecionar dados com mais cuidado para assegurar diversidade e justiça, criar sistemas que permitam fiscalização contra preconceitos e estabelecer leis que obriguem as empresas à transparência e à responsabilidade. A constituição de equipes com profissionais de diversas áreas como tecnologia, sociologia e direitos humanos é crucial para prever e reduzir os problemas. Em resumo, a inteligência artificial reflete a sociedade. Se essa imagem é preconceituosa, a falha está na fonte, não na ferramenta. A correção dos defeitos sociais é uma tarefa urgente, para que não se tornem regras permanentes nos códigos que guiarão o futuro.

 

Autor(a): Leonardo Winch Dallanora

Referências:

Grávida é presa por engano: quem é a mulher acusada de roubo por erro em tecnologia de reconhecimento facial nos EUA. O Globo. Disponível em: https://oglobo.globo.com/mundo/epoca/noticia/2023/08/07/gravida-e-presa-por-engano-quem-e-a-mulher-acusada-de-roubo-por-erro-em-tecnologia-de-reconhecimento-facial-nos-eua.ghtml. Acesso em: 15 out. 2025.

NICOLETTI, Leonardo; BASS, Dina. Humans Are Biased. Generative AI Is Even Worse. Bloomberg. Disponível em: https://www.bloomberg.com/graphics/2023-generative-ai-bias. Acesso em: 15 out. 2025.

PEREIRA, Ivan. In lawsuit, man claims he was falsely arrested due to misuse of facial recognition. ABC News. Disponível em: https://abcnews.go.com/US/lawsuit-man-claims-falsely-arrested-misuse-facial-recognition/story?id=103687845. Acesso em: 15 out. 2025.

Divulgue este conteúdo:
https://ufsm.br/r-791-3660

Publicações Relacionadas

Publicações Recentes