Jornal DR1

Nosso Planeta: Busca por IA tem problema com citações e pode prejudicar o jornalismo

cobertura jornalistica

As ferramentas de busca baseadas em inteligência artificial estão se tornando cada vez mais populares, mas uma nova pesquisa do Tow Center for Digital Journalism revelou um problema sério: esses sistemas falham na citação correta de fontes jornalísticas. Isso não apenas impacta a credibilidade da informação, mas também prejudica o tráfego e a monetização dos veículos de notícias. Além disso, usuários comuns podem ser induzidos ao erro ao confiar em respostas incorretas apresentadas com grande segurança pelos chatbots.

A análise avaliou oito plataformas de busca por IA, incluindo ChatGPT, Perplexity, Copilot e Gemini, para medir sua capacidade de recuperar e referenciar corretamente artigos originais. O resultado foi alarmante: mais de 60% das respostas foram incorretas. Além disso, os chatbots raramente admitiam incerteza ou recusavam responder. Pelo contrário, forneciam informações erradas com grande confiança, dificultando a checagem por parte dos usuários.

Outro problema identificado foi a violação do protocolo robots.txt, que deveria permitir que veículos bloqueassem rastreadores de IA. No entanto, algumas plataformas ignoraram essa restrição e acessaram conteúdos sem permissão. A Perplexity, por exemplo, citou trechos de artigos de sites que proibiram seu rastreamento, levantando questões sobre ética e respeito às diretrizes dos publishers.

Além das falhas nas respostas, o estudo apontou que muitos chatbots citam versões sindicadas de artigos, como aquelas publicadas em Yahoo News e AOL, ao invés das fontes originais. Isso prejudica os veículos, que perdem tráfego e, consequentemente, receita publicitária. Mesmo empresas que firmaram acordos de licenciamento com as IA, como Texas Tribune e San Francisco Chronicle, não tiveram suas fontes corretamente atribuídas.

Um exemplo prático dessa falha ocorreu com o chatbot DeepSeek, que atribuiu erroneamente a origem de um artigo em 115 das 200 consultas feitas, confundindo fontes jornalísticas. Além disso, ferramentas como Grok 3 e Gemini frequentemente forneceram links quebrados ou até mesmo URLs completamente inventadas, dificultando ainda mais a verificação das informações pelos usuários.

Para quem usa IA na busca por notícias, essas falhas representam um risco significativo. Se as respostas erradas forem aceitas como verdadeiras, a desinformação pode se espalhar rapidamente. Como as ferramentas de IA não indicam de forma clara quando uma resposta pode estar errada, os usuários podem ter dificuldades em distinguir entre informação confiável e erro fabricado.

O estudo conclui que, apesar do avanço tecnológico, as ferramentas de busca baseadas em IA ainda não são confiáveis para busca de notícias. Enquanto esses sistemas não forem aprimorados, seu uso para busca de informações representa um risco real de desinformação e pode minar a credibilidade do jornalismo profissional.

Confira também

Nosso canal