O Comprova Explica o funcionamento dessas IAs e analisa um caso em que o Grok, chatbot de inteligência artificial do X, responde a uma pergunta de um usuário sobre supostos efeitos colaterais de vacinas.
As ferramentas de IA sempre trazem respostas corretas?
Não. Ferramentas de IA como o Grok, ChatGPT, Gemini e outras são treinadas com grandes volumes de informação, mas não têm senso crítico ou compromissos com valores éticos. As IAs também podem fornecer informações incorretas ou desatualizadas e cometer erros que refletem preconceitos presentes nos dados de treinamento ou gerados por uma má interpretação da pergunta que deveriam responder.
De acordo com o monitor de desinformação em IA da NewsGuard, durante o mês de março de 2025, os 11 principais chatbots analisados repetiram afirmações falsas em 30,9% das respostas. Entre os observados estão o ChatGPT-4 (OpenAI), o Grok (xAI), o Claude (Anthropic) e o Gemini (Google). Além disso, quando se considera também as respostas evasivas ou que não oferecem informação útil, a taxa total de falha chega a 41,51%.
Um estudo recente do Tow Center for Digital Journalism analisou oito buscadores com inteligência artificial e apontou falhas graves no desempenho dessas ferramentas. O Grok forneceu respostas incorretas em 94% das consultas analisadas. O estudo mostra que os chatbots, de modo geral, têm dificuldade em reconhecer quando não sabem a resposta e, em vez de admitirem isso, oferecem respostas erradas ou especulativas.
O Grok também apresentou um alto índice de fabricação de links: mais da metade de suas respostas incluíam URLs falsas ou quebradas, além de frequentemente citar artigos errados ou vincular incorretamente as fontes, mesmo quando localizaram o material correto. Especificamente, 154 das 200 citações testadas para o Grok 3 levaram a páginas de erro.
noticia por : UOL