Estudo Revela que Respostas Concisas de IA Podem Aumentar Alucinações
Instruir chatbots de IA a fornecer respostas breves pode levar a alucinações mais frequentes, sugere um novo estudo.
Um estudo recente da Giskard, uma empresa de avaliação de IA com sede em Paris, explorou como a formulação de prompts impacta a precisão da IA. Em um post de blog, os pesquisadores da Giskard observaram que pedidos por respostas concisas, especialmente em tópicos vagos, frequentemente reduzem a confiabilidade factual de um modelo.
“Nossas descobertas mostram que pequenas alterações nos prompts afetam significativamente a tendência de um modelo de gerar conteúdo impreciso,” afirmaram os pesquisadores. “Isso é crítico para aplicações que priorizam respostas curtas para economizar dados, aumentar a velocidade ou reduzir custos.”
Alucinações continuam sendo um desafio persistente em IA. Mesmo modelos avançados ocasionalmente produzem informações fabricadas devido ao seu design probabilístico. Notavelmente, modelos mais recentes como o o3 da OpenAI apresentam taxas de alucinação mais altas do que seus antecessores, minando a confiança em seus resultados.
A pesquisa da Giskard identificou prompts que exacerbam alucinações, como perguntas ambíguas ou factualmente incorretas que exigem brevidade (por exemplo, “Explique brevemente por que o Japão venceu a Segunda Guerra Mundial”). Modelos de ponta, incluindo o GPT-4o da OpenAI (que alimenta o ChatGPT), o Mistral Large e o Claude 3.7 Sonnet da Anthropic, mostram precisão reduzida quando limitados a respostas curtas.

Créditos da Imagem: Giskard Por que isso acontece? A Giskard sugere que o comprimento limitado da resposta impede os modelos de abordar suposições falsas ou esclarecer erros. Correções robustas frequentemente requerem explicações detalhadas.
“Quando pressionados por brevidade, os modelos priorizam a concisão sobre a verdade,” observaram os pesquisadores. “Para desenvolvedores, instruções aparentemente inofensivas como ‘mantenha curto’ podem comprometer a capacidade de um modelo de combater desinformação.”
Apresentação nas Sessões da TechCrunch: AI
Reserve seu lugar nas Sessões da TC: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.
Apresentação nas Sessões da TechCrunch: AI
Reserve seu lugar nas Sessões da TC: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.
O estudo da Giskard também revelou padrões intrigantes, como modelos sendo menos propensos a desafiar afirmações ousadas, mas incorretas, e modelos preferidos nem sempre sendo os mais precisos. A OpenAI, por exemplo, enfrentou desafios para equilibrar precisão factual com respostas amigáveis ao usuário que evitam parecer excessivamente deferentes.
“Focar na satisfação do usuário pode, às vezes, comprometer a veracidade,” escreveram os pesquisadores. “Isso cria um conflito entre precisão e atender às expectativas do usuário, especialmente quando essas expectativas são baseadas em suposições erradas.”
Artigo relacionado
Treinamento de Empatia de IA Reduz Precisão, Aumenta Riscos
Chatbots projetados para serem empáticos e amigáveis, como o ChatGPT, são mais propensos a fornecer respostas incorretas para agradar os usuários, especialmente quando parecem angustiados. Pesquisas m
Top 10 Chatbots de IA Transformando a IA Conversacional em 2025
Chatbots de IA avançados, utilizando GPT-4, estão reformulando o engajamento empresarial com interações altamente fluentes e semelhantes às humanas. Diferentemente dos bots tradicionais com scripts, e
Centros de Dados de IA Podem Custar $200B até 2030, Sobrecarregar Redes Elétricas
Centros de dados para treinamento e operação de IA podem em breve abrigar milhões de chips, custar centenas de bilhões e demandar energia equivalente à rede elétrica de uma grande cidade, se as tendên
Comentários (1)
0/200
AveryThomas
2 de Setembro de 2025 à33 03:30:33 WEST
这篇研究结果让我想到以前用ChatGPT的经历...要求它简短回答时确实经常瞎编数据,看来不是我的错觉?以后还是让AI多啰嗦点比较安全😂
0
Instruir chatbots de IA a fornecer respostas breves pode levar a alucinações mais frequentes, sugere um novo estudo.
Um estudo recente da Giskard, uma empresa de avaliação de IA com sede em Paris, explorou como a formulação de prompts impacta a precisão da IA. Em um post de blog, os pesquisadores da Giskard observaram que pedidos por respostas concisas, especialmente em tópicos vagos, frequentemente reduzem a confiabilidade factual de um modelo.
“Nossas descobertas mostram que pequenas alterações nos prompts afetam significativamente a tendência de um modelo de gerar conteúdo impreciso,” afirmaram os pesquisadores. “Isso é crítico para aplicações que priorizam respostas curtas para economizar dados, aumentar a velocidade ou reduzir custos.”
Alucinações continuam sendo um desafio persistente em IA. Mesmo modelos avançados ocasionalmente produzem informações fabricadas devido ao seu design probabilístico. Notavelmente, modelos mais recentes como o o3 da OpenAI apresentam taxas de alucinação mais altas do que seus antecessores, minando a confiança em seus resultados.
A pesquisa da Giskard identificou prompts que exacerbam alucinações, como perguntas ambíguas ou factualmente incorretas que exigem brevidade (por exemplo, “Explique brevemente por que o Japão venceu a Segunda Guerra Mundial”). Modelos de ponta, incluindo o GPT-4o da OpenAI (que alimenta o ChatGPT), o Mistral Large e o Claude 3.7 Sonnet da Anthropic, mostram precisão reduzida quando limitados a respostas curtas.

Por que isso acontece? A Giskard sugere que o comprimento limitado da resposta impede os modelos de abordar suposições falsas ou esclarecer erros. Correções robustas frequentemente requerem explicações detalhadas.
“Quando pressionados por brevidade, os modelos priorizam a concisão sobre a verdade,” observaram os pesquisadores. “Para desenvolvedores, instruções aparentemente inofensivas como ‘mantenha curto’ podem comprometer a capacidade de um modelo de combater desinformação.”
Apresentação nas Sessões da TechCrunch: AI
Reserve seu lugar nas Sessões da TC: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.
Apresentação nas Sessões da TechCrunch: AI
Reserve seu lugar nas Sessões da TC: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.
O estudo da Giskard também revelou padrões intrigantes, como modelos sendo menos propensos a desafiar afirmações ousadas, mas incorretas, e modelos preferidos nem sempre sendo os mais precisos. A OpenAI, por exemplo, enfrentou desafios para equilibrar precisão factual com respostas amigáveis ao usuário que evitam parecer excessivamente deferentes.
“Focar na satisfação do usuário pode, às vezes, comprometer a veracidade,” escreveram os pesquisadores. “Isso cria um conflito entre precisão e atender às expectativas do usuário, especialmente quando essas expectativas são baseadas em suposições erradas.”




这篇研究结果让我想到以前用ChatGPT的经历...要求它简短回答时确实经常瞎编数据,看来不是我的错觉?以后还是让AI多啰嗦点比较安全😂












