Estudo Revela Que Modelos de IA Raramente Citam Fontes Jornalísticas no Canadá
Uma pesquisa realizada por acadêmicos canadenses analisou quatro modelos de inteligência artificial – ChatGPT, Claude, Gemini e Grok – para verificar a atribuição de fontes jornalísticas em suas respostas sobre eventos noticiosos no Canadá. Os resultados mostram que a maioria dessas ferramentas não menciona as fontes de informação, a menos que solicitado explicitamente.
Os pesquisadores, liderados por Taylor Owen, professor da Universidade McGill, constataram que, embora os modelos demonstrassem um amplo conhecimento sobre a política e a atualidade canadense, 92% das respostas informadas não atribuíam qualquer fonte. O estudo foi baseado em 2.267 notícias canadenses em inglês e francês e não ativou a função de busca na web durante a análise.
Falta de Atribuição
A pesquisa revelou que, mesmo quando as respostas continham informações pertinentes, a falta de menção a fontes específicas é alarmante. Quando a busca na web foi ativada, os modelos geraram respostas que incluíam links para sites de notícias, mas apenas 28% das respostas mencionaram o veículo no texto. Isso significa que muitos consumidores podem não perceber de onde estão obtendo suas informações.
Os dados indicam que o ChatGPT, uma das ferramentas mais populares, cobriu conteúdo distintivo em 54% das respostas, mas raramente creditou as fontes. O Grok e o Gemini apresentaram números similares, com taxas de atribuição de apenas 7% e 6%, respectivamente.
Consumo e Atribuição de Fontes
Os pesquisadores observaram que a experiência do usuário com esses modelos tende a não incluir perguntas específicas sobre as fontes. Em situações em que os usuários não solicitam atribuições, os modelos frequentemente não mencionam a origem das informações. Quando solicitado explicitamente, no entanto, a atribuição melhora significativamente: Claude, por exemplo, citou o veículo em 97% das respostas quando recebeu um pedido claro.
Os resultados também mostraram que veículos de comunicação acessíveis, como CBC e CTV, são citados com mais frequência, enquanto jornais com paywalls ou de menor circulação têm menor visibilidade nas respostas geradas pelos modelos.
Implicações para o Jornalismo
O estudo levanta questões importantes sobre a ética e a responsabilidade na utilização de inteligência artificial para disseminar informações. Quando os modelos de IA não creditam as fontes corretamente, o risco de desinformação aumenta, e a qualidade do jornalismo pode ser comprometida.
O relatório completo, que inclui recomendações para políticas públicas relacionadas ao uso de IA no jornalismo, foi publicado pelo Center for Media, Technology and Democracy da Universidade McGill.
Conclusão
A pesquisa evidencia a necessidade de uma governança mais robusta e práticas éticas no desenvolvimento de tecnologias de IA. À medida que essas ferramentas se tornam cada vez mais integradas à forma como consumimos notícias, a atribuição correta de fontes se torna essencial para a preservação da integridade jornalística e para a formação de um público bem informado.
Para mais detalhes sobre o estudo e suas implicações, consulte o relatório completo.
Fonte: Link original
































