BBC conclui que inteligências artificiais estão distorcendo notícias
Vivaldo José Breternitz (*)
Um estudo da BBC procurou descobrir se o ChatGPT da OpenAI, o Google Gemini, o Microsoft Copilot e o Perplexity podem resumir notícias com precisão.
Ao pedir a essas ferramentas que fornecessem resumos de 100 notícias dadas pela organização, a BBC descobriu que 51% desses resumos traziam erros significativos. Os jornalistas que revisaram as respostas concluíram que esses erros se referiam principalmente a números, datas e fontes.
Alguns exemplos de erros foram explicitados: o Gemini afirmou que o Serviço Nacional de Saúde (NHS) do Reino Unido aconselha os fumantes que desejarem abandonar o vício a não usarem vaporizadores, sendo que o NHS faz exatamente o contrário - recomenda o uso de vaporizadores nesses casos. O estudo foi realizado em dezembro de 2024, mas o ChatGPT afirmou que Ismail Haniyeh era um dos líderes do Hamas, embora o mesmo tenha sido morto em julho de 2024.
O estudo chegou à conclusão de que as respostas do Gemini foram as que apresentaram o maior número de problemas.
No final de 2024, a BBC criticou um serviço de resumos de notícias da Apple, alimentado por inteligência artificial, por trazer erros similares a esses. A Apple reconheceu o problema e tirou o serviço do ar.
Em função dos resultados do estudo, Deborah Turness, executiva da BBC, pediu às empresas de tecnologia que abordem os problemas de imprecisão, dizendo que "Vivemos tempos conturbados, e quanto tempo levará até que uma manchete distorcida por inteligência artificial cause danos significativos no mundo real?" e também que "Gostaríamos que outras empresas de tecnologia levassem em conta nossas preocupações, assim como a Apple fez”.
O portal The Verge entrou em contato com a OpenAI, Google, Microsoft e Perplexity com pedidos de comentários, mas não obteve resposta.
(*) Vivaldo José Breternitz, Doutor em Ciências pela Universidade de São Paulo, é professor, consultor e diretor do Fórum Brasileiro de Internet das Coisas – vjnitz@gmail.com.