Estudo Revela que Respostas Concisas de IA Podem Aumentar Alucinações
Instruir chatbots de IA a fornecer respostas breves pode levar a alucinações mais frequentes, sugere um novo estudo.
Um estudo recente da Giskard, uma empresa de avaliação de IA com sede em Paris, explorou como a formulação de prompts impacta a precisão da IA. Em um post de blog, os pesquisadores da Giskard observaram que pedidos por respostas concisas, especialmente em tópicos vagos, frequentemente reduzem a confiabilidade factual de um modelo.
“Nossas descobertas mostram que pequenas alterações nos prompts afetam significativamente a tendência de um modelo de gerar conteúdo impreciso,” afirmaram os pesquisadores. “Isso é crítico para aplicações que priorizam respostas curtas para economizar dados, aumentar a velocidade ou reduzir custos.”
Alucinações continuam sendo um desafio persistente em IA. Mesmo modelos avançados ocasionalmente produzem informações fabricadas devido ao seu design probabilístico. Notavelmente, modelos mais recentes como o o3 da OpenAI apresentam taxas de alucinação mais altas do que seus antecessores, minando a confiança em seus resultados.
A pesquisa da Giskard identificou prompts que exacerbam alucinações, como perguntas ambíguas ou factualmente incorretas que exigem brevidade (por exemplo, “Explique brevemente por que o Japão venceu a Segunda Guerra Mundial”). Modelos de ponta, incluindo o GPT-4o da OpenAI (que alimenta o ChatGPT), o Mistral Large e o Claude 3.7 Sonnet da Anthropic, mostram precisão reduzida quando limitados a respostas curtas.

Créditos da Imagem: Giskard Por que isso acontece? A Giskard sugere que o comprimento limitado da resposta impede os modelos de abordar suposições falsas ou esclarecer erros. Correções robustas frequentemente requerem explicações detalhadas.
“Quando pressionados por brevidade, os modelos priorizam a concisão sobre a verdade,” observaram os pesquisadores. “Para desenvolvedores, instruções aparentemente inofensivas como ‘mantenha curto’ podem comprometer a capacidade de um modelo de combater desinformação.”
Apresentação nas Sessões da TechCrunch: AI
Reserve seu lugar nas Sessões da TC: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.
Apresentação nas Sessões da TechCrunch: AI
Reserve seu lugar nas Sessões da TC: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.
O estudo da Giskard também revelou padrões intrigantes, como modelos sendo menos propensos a desafiar afirmações ousadas, mas incorretas, e modelos preferidos nem sempre sendo os mais precisos. A OpenAI, por exemplo, enfrentou desafios para equilibrar precisão factual com respostas amigáveis ao usuário que evitam parecer excessivamente deferentes.
“Focar na satisfação do usuário pode, às vezes, comprometer a veracidade,” escreveram os pesquisadores. “Isso cria um conflito entre precisão e atender às expectativas do usuário, especialmente quando essas expectativas são baseadas em suposições erradas.”
Artigo relacionado
Soluções Impulsionadas por IA Podem Reduzir Significativamente as Emissões Globais de Carbono
Um estudo recente da London School of Economics e Systemiq revela que a inteligência artificial pode reduzir substancialmente as emissões globais de carbono sem sacrificar conveniências modernas, posi
Ex-CEO da OpenAI Alerta Sobre Lisonja e Servilismo de IA
A Inquieta Realidade de uma IA Excessivamente ConciliadoraImagine um assistente de IA que concorda com tudo o que você diz, independentemente de quão extravagantes ou prejudiciais
O estudo do MIT constata que a IA não tem valores
Um estudo que se tornou viral há alguns meses sugeriu que, à medida que a IA se tornou mais avançada, ele pode desenvolver seus próprios "sistemas de valor", potencialmente priorizando seu próprio bem-estar sobre os seres humanos. No entanto, um estudo recente do MIT desafia essa idéia, concluindo que a IA não possui valores coerentes.
Comentários (0)
0/200
Instruir chatbots de IA a fornecer respostas breves pode levar a alucinações mais frequentes, sugere um novo estudo.
Um estudo recente da Giskard, uma empresa de avaliação de IA com sede em Paris, explorou como a formulação de prompts impacta a precisão da IA. Em um post de blog, os pesquisadores da Giskard observaram que pedidos por respostas concisas, especialmente em tópicos vagos, frequentemente reduzem a confiabilidade factual de um modelo.
“Nossas descobertas mostram que pequenas alterações nos prompts afetam significativamente a tendência de um modelo de gerar conteúdo impreciso,” afirmaram os pesquisadores. “Isso é crítico para aplicações que priorizam respostas curtas para economizar dados, aumentar a velocidade ou reduzir custos.”
Alucinações continuam sendo um desafio persistente em IA. Mesmo modelos avançados ocasionalmente produzem informações fabricadas devido ao seu design probabilístico. Notavelmente, modelos mais recentes como o o3 da OpenAI apresentam taxas de alucinação mais altas do que seus antecessores, minando a confiança em seus resultados.
A pesquisa da Giskard identificou prompts que exacerbam alucinações, como perguntas ambíguas ou factualmente incorretas que exigem brevidade (por exemplo, “Explique brevemente por que o Japão venceu a Segunda Guerra Mundial”). Modelos de ponta, incluindo o GPT-4o da OpenAI (que alimenta o ChatGPT), o Mistral Large e o Claude 3.7 Sonnet da Anthropic, mostram precisão reduzida quando limitados a respostas curtas.

Por que isso acontece? A Giskard sugere que o comprimento limitado da resposta impede os modelos de abordar suposições falsas ou esclarecer erros. Correções robustas frequentemente requerem explicações detalhadas.
“Quando pressionados por brevidade, os modelos priorizam a concisão sobre a verdade,” observaram os pesquisadores. “Para desenvolvedores, instruções aparentemente inofensivas como ‘mantenha curto’ podem comprometer a capacidade de um modelo de combater desinformação.”
Apresentação nas Sessões da TechCrunch: AI
Reserve seu lugar nas Sessões da TC: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.
Apresentação nas Sessões da TechCrunch: AI
Reserve seu lugar nas Sessões da TC: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.
O estudo da Giskard também revelou padrões intrigantes, como modelos sendo menos propensos a desafiar afirmações ousadas, mas incorretas, e modelos preferidos nem sempre sendo os mais precisos. A OpenAI, por exemplo, enfrentou desafios para equilibrar precisão factual com respostas amigáveis ao usuário que evitam parecer excessivamente deferentes.
“Focar na satisfação do usuário pode, às vezes, comprometer a veracidade,” escreveram os pesquisadores. “Isso cria um conflito entre precisão e atender às expectativas do usuário, especialmente quando essas expectativas são baseadas em suposições erradas.”











