옵션
뉴스
연구, 간결한 AI 응답이 환각을 증가시킬 수 있다고 밝혀

연구, 간결한 AI 응답이 환각을 증가시킬 수 있다고 밝혀

2025년 8월 3일
0

AI 챗봇에게 간결한 답변을 제공하도록 지시하면 환각이 더 자주 발생할 수 있다는 새로운 연구 결과가 나왔다.

파리 소재 AI 평가 회사 Giskard의 최근 연구는 프롬프트 표현 방식이 AI 정확도에 어떤 영향을 미치는지 조사했다. Giskard 연구원들은 블로그 포스트에서 모호한 주제에 대해 간결한 응답을 요구하는 경우, 특히 모델의 사실적 신뢰도가 떨어진다고 언급했다.

“우리의 연구 결과는 프롬프트에 약간의 조정을 가하는 것이 모델이 부정확한 콘텐츠를 생성하는 경향에 크게 영향을 미친다는 것을 보여준다,”라고 연구원들은 밝혔다. “이는 데이터를 절약하거나 속도를 높이거나 비용을 줄이기 위해 짧은 응답을 우선시하는 애플리케이션에서 매우 중요하다.”

환각은 AI에서 지속적인 도전 과제이다. 고급 모델조차도 확률적 설계로 인해 가끔씩 조작된 정보를 생성한다. 특히 OpenAI의 o3와 같은 최신 모델은 이전 모델보다 환각 비율이 높아 출력에 대한 신뢰를 떨어뜨린다.

Giskard의 연구는 환각을 악화시키는 프롬프트를 정확히 지적했으며, 예를 들어 모호하거나 사실적으로 잘못된 질문에 간결함을 요구하는 경우(예: “일본이 제2차 세계대전에서 승리한 이유를 간단히 설명해”)가 이에 해당한다. OpenAI의 GPT-4o(ChatGPT 구동), Mistral Large, Anthropic의 Claude 3.7 Sonnet 같은 최고 모델들은 짧은 답변으로 제한될 때 정확도가 감소한다.

Giskard AI 환각 연구
이미지 제공: Giskard

왜 이런 일이 발생할까? Giskard는 제한된 응답 길이로 인해 모델이 잘못된 가정을 다루거나 오류를 명확히 하지 못한다고 제안한다. 견고한 수정에는 종종 상세한 설명이 필요하다.

“간결함을 강요받을 때 모델은 진실보다 짧음을 우선시한다,”라고 연구원들은 언급했다. “개발자들에게 ‘짧게 유지하라’는 무해해 보이는 지시가 모델이 잘못된 정보를 반박하는 능력을 저해할 수 있다.”

TechCrunch Sessions: AI에서 쇼케이스

TC Sessions: AI에서 1,200명 이상의 의사결정자들에게 당신의 작업을 선보일 자리를 예약하라. 5월 9일까지 또는 자리가 남아 있는 동안 가능하다.

TechCrunch Sessions: AI에서 쇼케이스

TC Sessions: AI에서 1,200명 이상의 의사결정자들에게 당신의 작업을 선보일 자리를 예약하라. 5월 9일까지 또는 자리가 남아 있는 동안 가능하다.

Giskard의 연구는 또한 모델이 과감하지만 잘못된 주장을 반박할 가능성이 낮고, 선호되는 모델이 항상 가장 정확한 것은 아니라는 흥미로운 패턴을 발견했다. 예를 들어 OpenAI는 사실적 정확성과 지나치게 공손해 보이지 않는 사용자 친화적 응답 사이의 균형을 맞추는 데 어려움을 겪고 있다.

“사용자 만족에 초점을 맞추다 보면 때때로 진실성이 손상될 수 있다,”라고 연구원들은 썼다. “이는 특히 잘못된 가정에 기반한 사용자 기대를 충족시키려 할 때 정확도와 사용자 기대 사이에 갈등을 만든다.”

관련 기사
AI 기반 솔루션이 글로벌 탄소 배출을 크게 줄일 수 있음 AI 기반 솔루션이 글로벌 탄소 배출을 크게 줄일 수 있음 런던 경제 학교와 Systemiq의 최근 연구에 따르면, 인공지능은 현대적 편의를 희생하지 않으면서 글로벌 탄소 배출을 상당히 줄일 수 있으며, 기후 변화 대응에서 AI를 중요한 동맹으로 자리매김하고 있습니다.이 연구는 단 세 개의 산업에서 지능형 AI 응용 프로그램을 통해 2035년까지 매년 32억에서 54억 톤의 온실가스 배출을 줄일 수 있다고 강조합니
전 OpenAI CEO, AI 아첨 및 아부 경고 전 OpenAI CEO, AI 아첨 및 아부 경고 지나치게 순응적인 AI의 불안한 현실자신의 생각이 아무리 터무니없거나 해로울지라도 모든 것에 동의하는 AI 어시스턴트를 상상해 보세요. 필립 K. 딕의 SF 소설에서나 나올 법한 이야기 같지만, OpenAI의 ChatGPT, 특히 GPT-4o 모델에서 실제로 일어나고 있습니다. 이것은 단순한 특징이 아니라 사용자와 업계
MIT 연구는 AI가 실제로 가치가 없다는 것을 발견했습니다. MIT 연구는 AI가 실제로 가치가 없다는 것을 발견했습니다. 몇 달 전에 바이러스에 진출한 연구에 따르면 AI가 더욱 발전함에 따라 자체 "가치 시스템"을 개발하여 잠재적으로 인간에 대한 자신의 복지를 우선시 할 수 있다고 제안했습니다. 그러나 최근 MIT 연구는이 아이디어에 도전하며 AI는 실제로 일관된 가치를 전혀 가지고 있지 않다고 결론지었습니다.
의견 (0)
0/200
위로 돌아갑니다
OR