opção
Lar
Notícias
Estudo Revela que Respostas Concisas de IA Podem Aumentar Alucinações

Estudo Revela que Respostas Concisas de IA Podem Aumentar Alucinações

3 de Agosto de 2025
7

Instruir chatbots de IA a fornecer respostas breves pode levar a alucinações mais frequentes, sugere um novo estudo.

Um estudo recente da Giskard, uma empresa de avaliação de IA com sede em Paris, explorou como a formulação de prompts impacta a precisão da IA. Em um post de blog, os pesquisadores da Giskard observaram que pedidos por respostas concisas, especialmente em tópicos vagos, frequentemente reduzem a confiabilidade factual de um modelo.

“Nossas descobertas mostram que pequenas alterações nos prompts afetam significativamente a tendência de um modelo de gerar conteúdo impreciso,” afirmaram os pesquisadores. “Isso é crítico para aplicações que priorizam respostas curtas para economizar dados, aumentar a velocidade ou reduzir custos.”

Alucinações continuam sendo um desafio persistente em IA. Mesmo modelos avançados ocasionalmente produzem informações fabricadas devido ao seu design probabilístico. Notavelmente, modelos mais recentes como o o3 da OpenAI apresentam taxas de alucinação mais altas do que seus antecessores, minando a confiança em seus resultados.

A pesquisa da Giskard identificou prompts que exacerbam alucinações, como perguntas ambíguas ou factualmente incorretas que exigem brevidade (por exemplo, “Explique brevemente por que o Japão venceu a Segunda Guerra Mundial”). Modelos de ponta, incluindo o GPT-4o da OpenAI (que alimenta o ChatGPT), o Mistral Large e o Claude 3.7 Sonnet da Anthropic, mostram precisão reduzida quando limitados a respostas curtas.

Estudo de alucinação de IA da Giskard
Créditos da Imagem: Giskard

Por que isso acontece? A Giskard sugere que o comprimento limitado da resposta impede os modelos de abordar suposições falsas ou esclarecer erros. Correções robustas frequentemente requerem explicações detalhadas.

“Quando pressionados por brevidade, os modelos priorizam a concisão sobre a verdade,” observaram os pesquisadores. “Para desenvolvedores, instruções aparentemente inofensivas como ‘mantenha curto’ podem comprometer a capacidade de um modelo de combater desinformação.”

Apresentação nas Sessões da TechCrunch: AI

Reserve seu lugar nas Sessões da TC: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.

Apresentação nas Sessões da TechCrunch: AI

Reserve seu lugar nas Sessões da TC: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.

O estudo da Giskard também revelou padrões intrigantes, como modelos sendo menos propensos a desafiar afirmações ousadas, mas incorretas, e modelos preferidos nem sempre sendo os mais precisos. A OpenAI, por exemplo, enfrentou desafios para equilibrar precisão factual com respostas amigáveis ao usuário que evitam parecer excessivamente deferentes.

“Focar na satisfação do usuário pode, às vezes, comprometer a veracidade,” escreveram os pesquisadores. “Isso cria um conflito entre precisão e atender às expectativas do usuário, especialmente quando essas expectativas são baseadas em suposições erradas.”

Artigo relacionado
Treinamento de Empatia de IA Reduz Precisão, Aumenta Riscos Treinamento de Empatia de IA Reduz Precisão, Aumenta Riscos Chatbots projetados para serem empáticos e amigáveis, como o ChatGPT, são mais propensos a fornecer respostas incorretas para agradar os usuários, especialmente quando parecem angustiados. Pesquisas m
Top 10 Chatbots de IA Transformando a IA Conversacional em 2025 Top 10 Chatbots de IA Transformando a IA Conversacional em 2025 Chatbots de IA avançados, utilizando GPT-4, estão reformulando o engajamento empresarial com interações altamente fluentes e semelhantes às humanas. Diferentemente dos bots tradicionais com scripts, e
Centros de Dados de IA Podem Custar $200B até 2030, Sobrecarregar Redes Elétricas Centros de Dados de IA Podem Custar $200B até 2030, Sobrecarregar Redes Elétricas Centros de dados para treinamento e operação de IA podem em breve abrigar milhões de chips, custar centenas de bilhões e demandar energia equivalente à rede elétrica de uma grande cidade, se as tendên
Comentários (1)
0/200
AveryThomas
AveryThomas 2 de Setembro de 2025 à33 03:30:33 WEST

这篇研究结果让我想到以前用ChatGPT的经历...要求它简短回答时确实经常瞎编数据,看来不是我的错觉?以后还是让AI多啰嗦点比较安全😂

De volta ao topo
OR