Ir para o conteúdo UFSM Ir para o menu UFSM Ir para a busca no portal Ir para o rodapé UFSM
  • International
  • Acessibilidade
  • Sítios da UFSM
  • Área restrita

Aviso de Conectividade Saber Mais

Início do conteúdo

Palestra de abertura da 40ª JAI aborda o uso da inteligência artificial na academia

A professora Natacha Klein Käfer, da Universidade de Copenhague, apresentou pontos positivos e negativos do usa da IA



O Centro de Convenções da UFSM foi palco, na manhã desta segunda-feira (3), para a palestra de abertura da 40ª Jornada Acadêmica Integrada (JAI), com o tema “Inteligência artificial no mundo acadêmico: transformações em pesquisa, produção e ensino”. Ministrada pela professora Natacha Klein Käfer, da Universidade de Copenhague, a conversa tratou de como o meio acadêmico deve se preparar para o uso das inteligências artificiais em pesquisas e produções científicas.

Natacha é graduada em História (licenciatura e bacharelado) pela UFSM. Hoje é professora e pesquisadora no Centro de Estudos de Privacidade na Universidade de Copenhague. “Eu fiz o meu bacharelado na UFSM. Então, poder voltar agora, depois de ter apresentado o meu pôster na JAI, quando eu estava no bacharelado, e agora poder dar a palestra de abertura, foi maravilhoso”, comenta ela, sobre a experiência de proferir uma palestra em Santa Maria pela primeira vez.

Foto horizontal. Uma mulher branca de cabelos castanhos longos, vestida de preto, fala ao microfone. Ela aparece sobre um fundo escuro e, em frente dela, há um púlpito com o brasão da UFSM
Professora da Universidade de Copenhage, Natacha Klein Käfer é egressa do curso de História da UFSM

A pesquisa com a inteligência artificial (IA)

Durante a palestra, a pesquisadora apresentou aspectos positivos e negativos do uso de IA dentro da pesquisa científica. Para isso, mostrou uma pesquisa feita em 2023 com 1.600 pesquisadores, majoritariamente dos Estados Unidos, demonstrando que o maior ponto positivo do uso de IA em pesquisas é como ela fornece formas rápidas para processar dados. “Mas esse é o levantamento de 2023 e isso já é questão de décadas atrás, quando se fala de desenvolvimento com inteligência artificial”, comentou. Então, apresentou dados atuais que mostram que a IA tem sido usada, em sua maioria, para a formulação de escrita dos trabalhos acadêmicos. “O poder de resumo que essas tecnologias produzem, e escrever algo para leigos, é algo que está sendo muito usado”, complementou Natacha.

Esses aspectos refletem ainda negativamente dentro da metodologia de pesquisas. Um exemplo disso é como fazer a citação de uma IA, algo que ainda é discutido por algumas universidades. A principal complexidade disso, segundo Natacha, é como garantir que os avaliadores possam entender se o uso da IA foi adequado no trabalho. A pesquisadora também comentou sobre a importância de ter grandes volumes de dados para as pesquisas.

Honestidade, confiança e conduta ética

A integridade acadêmica também foi assunto na palestra. “A gente tem isso em geral: não colar nos testes, não pedir para outras pessoas escreverem o nosso texto. São questões que já estavam ali. O que muda é como essas questões agora estão sendo trazidas quando se tem acesso em massa a algo que é gratuito”, explicou Natacha.

O plágio é uma preocupação quando se trata do uso de informações em inteligência artificial. A pesquisadora contou que muitas vezes as informações dadas pelas IAs são de outros autores, que acabam, mesmo que não intencionalmente, não recebendo créditos.

A IA também pode ser vista como escritor fantasma. Não é permitido que uma pessoa seja paga para escrever o trabalho de outra, mas a IA pode fazer isso. Então, como a academia pode lidar com isso? Como creditar isso à IA? Para Natacha é importante que a IA não esteja atuando como autora dos trabalhos.

Preocupações que afetam os pesquisadores e os riscos da IA

Muitos pesquisadores ainda se veem resistentes em relação ao uso da IA. Segundo uma pesquisa da Nature, isso acontece, principalmente, por questões éticas. Outro ponto é a precisão. O que é perdido quando se usa essas tecnologias que, muitas vezes, têm alucinações e criam falsas informações?

Além disso, a transparência é um ponto questionado. Os usuários dessas tecnologias podem não saber os cálculos que são feitos para obter os resultados que pediram. Isso acontece porque as inteligências artificiais trabalham em formato de Black Box, no qual não é possível ver o que acontece para a concepção das informações. “A gente não sabe os vieses que estão sendo introduzidos”, argumentou a pesquisadora.

Os riscos da inteligência artificial também são discutidos pela academia. A introdução de vieses e a exacerbação de desigualdades em universidades, departamentos e organizações que têm acesso a tecnologias mais poderosas são os principais pontos vistos. Natacha reiterou que “a gente tem que planejar para o futuro ser mais igual e os modelos serem mais representativos de múltiplas realidades”.

Foto horizontal. No canto direito inferior da imagem, aparece uma mulher branca de cabelos castanhos longos, vestida de preto, que está falando ao microfone. Ao fundo, aparece um slide sobre inteligência artificial, tema de sua palestra.
Em sua palestra, Natacha falou de várias controvérsias que envolvem a utilização da inteligência artificial no ambiente acadêmico

Um gráfico feito pela Scopus and Web of Science mostrou um aumento de 47% no número de publicações entre 2016 e 2024. A quantidade de trabalhos que é produzida é mais do que os avaliadores podem avaliar. “E eu vi uma entrevista com o diretor da arXiv, que é um repositório de e-prints. E ele mencionou que, olhando nas publicações no campo de física quântica no início do século 20 (1900 a 1950), nós tivemos 1.600 publicações em física quântica. Do ano 2000 ao ano 2024, a gente teve quase um milhão. Então, para um pesquisador de física quântica ler as publicações no campo dele, por oito horas diárias ele levaria em torno de 200 anos”, exemplificou Natacha, sobre o impacto das inteligências artificiais na quantidade de produções acadêmicas.

Loop problemático

A dificuldade para ter a quantidade de avaliadores necessária para corrigir os trabalhos que são produzidos faz com que exista, como chama a pesquisadora, um loop problemático. “Achar avaliadores para todas elas é quase impossível. E é um trabalho que geralmente é feito gratuitamente, são pesquisadores que já estão sobrecarregados”. Assim se utilizam inteligências artificiais para avaliar os trabalhos. O loop é criado quando os acadêmicos usam a IA para produzir os trabalhos e a própria IA é usada para avaliar os mesmos. “É robô falando com robô”, ironizou a doutora. Nesse sentido, por causa da quantidade imensa, os trabalhos produzidos podem não ter boa qualidade nem podem ser avaliados de modo adequado.

A inteligência artificial no ensino

Um levantamento feito pela Exame com alunos de 166 universidades mostra que 85% já usaram IA generativa. Por isso, para Natacha, é necessário conversar sobre essas tecnologias com os alunos. O grupo de Copenhague encontrou quatro vieses para o uso da IA por alunos: o intrapessoal, o interpessoal, o institucional e o sociopolítico-ambiental. Para a pesquisadora, é importante que os acadêmicos ajudem os alunos a entender os usos da IA, para que decidam se vão usar ou não as tecnologias, incentivando o uso consciente e reflexivo delas.

Aponta, também, a relevância da formulação de diretrizes para o uso das inteligências artificiais. Guias e regulamentações podem facilitar a comunicação entre estudantes e docentes para entender qual é o uso adequado das tecnologias. As regulamentações podem ainda ser voltadas para pensar a proteção de dados dos usuários, a manutenção de políticas públicas e questões éticas e ambientais.

Natacha apontou algumas recomendações, como a criação de comissões sobre inteligência artificial nas universidades, no formato de um grupo multidisciplinar que permita discutir o melhor uso dela para diversas áreas. Apontou a importância da transparência (dizer quando a IA foi usada), da proteção de dados (avaliar quais dados podem ser trabalhados com as ferramentas), da autoria (a IA não pode ser autora), da clareza (é importante definir o que os estudantes podem ou não fazer com a IA) e da consciência dos vieses de cada tecnologia.

A inteligência artificial interpretativa

Um estudo feito pelo Alan Turing Institute propôs a formulação de uma nova IA, a interpretativa. Para o instituto, a inteligência artificial deve ser repensada em três pontos: a virada qualitativa, o problema da homogeneização e a transformação da cognição humana. Assim, propõe-se uma IA que tenha “sistemas projetados para lidar com a pluralidade, ambiguidade e significado contextual como capacidades essenciais”: a inteligência artificial interpretativa.

Texto: Jessica Mocellin, estudante de Jornalismo e bolsista da Agência de Notícias

Fotos: Felippe Richardt

Edição: Lucas Casali

Divulgue este conteúdo:
https://ufsm.br/r-1-71227

Publicações Recentes