(Reuters) – A OpenAI identificou uma série de tentativas em que seus modelos de IA foram usados para gerar conteúdo falso, incluindo artigos longos e comentários de redes sociais, com o objetivo de influenciar eleições, disse o fabricante do ChatGPT em um relatório nesta quarta-feira.
Criminosos cibernéticos estão usando cada vez mais ferramentas de IA, incluindo o ChatGPT, para auxiliar suas atividades maliciosas, como criar e depurar malware e gerar conteúdo falso para sites e plataformas de redes sociais, disse a startup.
Até o momento, neste ano, a empresa neutralizou mais de 20 dessas tentativas, incluindo um conjunto de contas do ChatGPT que foram usadas em agosto para produzir artigos sobre tópicos que incluíam as eleições nos Estados Unidos, segundo a empresa.