Disfarçar falta de conhecimento com IA ameaça o futuro da ciência

Em 2022, eu organizei um painel para discutir esse tema durante o Fórum de Governança da Internet da ONU, com a participação da neurocientista Lisa Feldman Barrett, uma das maiores especialistas nos estudos das emoções humanas, a Microsoft e representantes da sociedade civil.

No fim do painel, o consenso estava estabelecido: é imprudente usar IA para inferir sobre a subjetividade humana. Naquele mesmo ano, a Microsoft, que tinha um dos principais modelos de reconhecimento de emoções por expressões faciais, aposentou seu sistema alegando falta de evidência científica.

Se você chegou até aqui, pode estar pensando: “que texto negativo”. É melhor a ciência abandonar o uso da IA.

A ideia não é essa. Eu super acredito que a IA pode trazer muitos benefícios para o avanço da ciência e novas descobertas. O caso do AlphaFold, que revoluciona as pesquisas sobre proteínas, é um exemplo.

O que precisamos é alertar a comunidade científica para um uso crítico das ferramentas e que possamos até mesmo repensar o fazer científico. O modelo de ciência hoje, em que tudo é avaliado pela quantidade de publicações, fortalece a tendência de uso da IA numa espécie de processo de terceirização. Outro modelo é possível?

Recentemente, o Matheus Petroni, meu aluno de mestrado, defendeu a sua dissertação sobre as possíveis consequências da IA na ciência. Usamos a abordagem de design especulativo para investigar os cenários futuros de uso de IA no fazer científico. Após entrevistas e workshops, dois cenários foram criados para os próximos 10 anos:




Fonte da notícia

Sair da versão mobile