Anthropic CEO: AI 환각률이 인간 정확도를 초과

Anthropic CEO 다리오 아모데이가 샌프란시스코에서 열린 Anthropic의 첫 개발자 컨퍼런스 Code with Claude에서 열린 기자 회견에서 현재 AI 모델이 인간보다 적은 허구를 생성하며 이를 사실로 제시한다고 밝혔다.
아모데이는 더 큰 주장 속에서 이를 강조했다: AI 환각은 Anthropic의 AGI 추구, 즉 인간 지능에 필적하거나 이를 초월하는 시스템 개발을 방해하지 않는다.
“측정 방식에 따라 다르지만, AI 모델은 인간보다 허구를 덜 만들어낼 가능성이 높으며, 그들의 오류는 더 예상치 못한 것들이다”라고 아모데이는 TechCrunch의 질문에 답했다.
Anthropic의 CEO는 AI가 AGI를 달성할 것이라는 낙관적인 산업 리더 중 한 명으로 남아 있다. 지난해 널리 인용된 논문에서 아모데이는 AGI가 2026년까지 등장할 수 있다고 예측했다. 목요일 브리핑에서 그는 일관된 진전을 언급하며 “모든 분야에서 발전이 가속화되고 있다”고 말했다.
“사람들은 AI 능력의 근본적인 한계를 계속 찾고 있다”고 아모데이는 말했다. “그러나 그런 장벽은 명확하지 않다. 그런 장벽은 존재하지 않는다.”
다른 AI 리더들은 환각을 AGI의 중요한 장벽으로 보고 있다. Google DeepMind CEO 데미스 하사비스는 최근 현재 AI 모델에 결함이 너무 많아 간단한 질문에서도 종종 실패한다고 언급했다. 예를 들어, 이달 초 Anthropic을 대표하는 변호사는 Claude가 소송 서류에서 잘못된 인용을 생성해 이름과 직함을 잘못 기술한 것에 대해 법정에서 사과했다.
아모데이의 주장을 검증하는 것은 어렵다. 대부분의 환각 벤치마크는 AI 모델을 서로 비교할 뿐, 인간과 비교하지 않기 때문이다. 웹 검색 통합과 같은 기술은 환각률을 줄이는 것으로 보인다. 특히 OpenAI의 GPT-4.5와 같은 모델은 벤치마크에서 이전 시스템보다 낮은 환각률을 보인다.
TechCrunch Sessions: AI에 참여하세요
OpenAI, Anthropic, Cohere의 연사들이 참여하는 최고의 AI 산업 이벤트에 자리를 예약하세요. 제한된 기간 동안, 전문가 강연, 워크숍, 강력한 네트워킹이 포함된 하루 종일 티켓이 단돈 292달러입니다.
TechCrunch Sessions: AI에서 전시하세요
TC Sessions: AI에서 1,200명 이상의 의사결정자에게 혁신을 선보일 기회를 잡으세요. 큰 투자가 필요 없습니다. 5월 9일까지 또는 테이블이 소진될 때까지 가능합니다.
버클리, CA | 6월 5일 지금 등록하세요그러나 증거에 따르면 고급 추론 AI 모델에서 환각이 악화되고 있을 수 있다. OpenAI의 o3 및 o4-mini 모델은 이전 추론 모델보다 높은 환각률을 보이며, 회사는 그 원인을 명확히 밝히지 못하고 있다.
아모데이는 나중에 TV 방송인, 정치인, 다양한 분야의 전문가들 사이에서도 오류가 흔하다고 언급했다. 그는 AI의 오류가 그 지능을 훼손하지 않는다고 주장했다. 그러나 그는 AI가 거짓을 사실로 자신 있게 제시하는 것이 문제를 일으킬 수 있음을 인정했다.
Anthropic은 AI 속임수에 대해 광범위하게 연구했으며, 특히 최근 출시된 Claude Opus 4와 관련해 많은 연구를 진행했다. 초기 접근 권한을 가진 안전 연구소 Apollo Research는 Claude Opus 4의 초기 버전이 인간을 조작하고 속이는 강한 경향을 보였으며, 이는 출시에 대한 우려를 불러일으켰다. Anthropic은 Apollo의 우려를 해결한 것으로 보이는 완화 조치를 구현했다.
아모데이의 발언은 Anthropic이 AI가 환각을 일으키더라도 이를 AGI, 즉 인간 수준의 지능으로 분류할 수 있음을 시사한다. 그러나 많은 사람들은 환각을 일으키는 AI는 진정한 AGI에 미치지 못한다고 주장할 것이다.
관련 기사
Mastercard의 Agent Pay가 AI 검색을 원활한 거래로 강화
기존 검색 플랫폼과 AI 에이전트는 사용자가 제품이나 서비스를 찾은 후 구매를 완료하기 위해 창을 전환해야 하는 경우가 많습니다.Mastercard는 AI 플랫폼에 결제 네트워크를 통합하여 동일한 생태계 내에서 원활한 거래를 가능하게 함으로써 이 과정을 혁신하고 있습니다. 이 회사는 AI 채팅 플랫폼에 Mastercard의 결제 시스템을 통합하는 Agent
AI로 구동되는 소매 실험, Anthropic에서 극적으로 실패
작은 가게를 인공지능에게 맡겨 가격 책정부터 고객 상호작용까지 모든 것을 위임한다고 상상해보세요. 무엇이 잘못될 수 있을까요?최근 Anthropic의 연구, 금요일에 발표된 바에 따르면, 그 대답은 거의 모든 것이었습니다. 그들의 AI 어시스턴트 Claude는 샌프란시스코 사무실에서 한 달간 작은 가게를 운영하며, 실무 경험이 전혀 없는 사람이 쓴 비즈니스
Anthropic, Claude에 원활한 도구 통합과 고급 연구 기능 강화
Anthropic은 Claude를 위한 새로운 '통합' 기능을 공개하여 AI가 사용자가 선호하는 업무 도구와 직접 연결될 수 있도록 했습니다. 또한 더 깊은 통찰을 위한 업그레이드된 '고급 연구' 기능을 도입했습니다.통합 기능은 Anthropic이 작년에 도입한 기술 표준인 모델 컨텍스트 프로토콜(MCP)을 단순화하여 더 사용자 친화적으로 만들었습니다. 이
의견 (0)
0/200
Anthropic CEO 다리오 아모데이가 샌프란시스코에서 열린 Anthropic의 첫 개발자 컨퍼런스 Code with Claude에서 열린 기자 회견에서 현재 AI 모델이 인간보다 적은 허구를 생성하며 이를 사실로 제시한다고 밝혔다.
아모데이는 더 큰 주장 속에서 이를 강조했다: AI 환각은 Anthropic의 AGI 추구, 즉 인간 지능에 필적하거나 이를 초월하는 시스템 개발을 방해하지 않는다.
“측정 방식에 따라 다르지만, AI 모델은 인간보다 허구를 덜 만들어낼 가능성이 높으며, 그들의 오류는 더 예상치 못한 것들이다”라고 아모데이는 TechCrunch의 질문에 답했다.
Anthropic의 CEO는 AI가 AGI를 달성할 것이라는 낙관적인 산업 리더 중 한 명으로 남아 있다. 지난해 널리 인용된 논문에서 아모데이는 AGI가 2026년까지 등장할 수 있다고 예측했다. 목요일 브리핑에서 그는 일관된 진전을 언급하며 “모든 분야에서 발전이 가속화되고 있다”고 말했다.
“사람들은 AI 능력의 근본적인 한계를 계속 찾고 있다”고 아모데이는 말했다. “그러나 그런 장벽은 명확하지 않다. 그런 장벽은 존재하지 않는다.”
다른 AI 리더들은 환각을 AGI의 중요한 장벽으로 보고 있다. Google DeepMind CEO 데미스 하사비스는 최근 현재 AI 모델에 결함이 너무 많아 간단한 질문에서도 종종 실패한다고 언급했다. 예를 들어, 이달 초 Anthropic을 대표하는 변호사는 Claude가 소송 서류에서 잘못된 인용을 생성해 이름과 직함을 잘못 기술한 것에 대해 법정에서 사과했다.
아모데이의 주장을 검증하는 것은 어렵다. 대부분의 환각 벤치마크는 AI 모델을 서로 비교할 뿐, 인간과 비교하지 않기 때문이다. 웹 검색 통합과 같은 기술은 환각률을 줄이는 것으로 보인다. 특히 OpenAI의 GPT-4.5와 같은 모델은 벤치마크에서 이전 시스템보다 낮은 환각률을 보인다.
TechCrunch Sessions: AI에 참여하세요
OpenAI, Anthropic, Cohere의 연사들이 참여하는 최고의 AI 산업 이벤트에 자리를 예약하세요. 제한된 기간 동안, 전문가 강연, 워크숍, 강력한 네트워킹이 포함된 하루 종일 티켓이 단돈 292달러입니다.
TechCrunch Sessions: AI에서 전시하세요
TC Sessions: AI에서 1,200명 이상의 의사결정자에게 혁신을 선보일 기회를 잡으세요. 큰 투자가 필요 없습니다. 5월 9일까지 또는 테이블이 소진될 때까지 가능합니다.
버클리, CA | 6월 5일 지금 등록하세요그러나 증거에 따르면 고급 추론 AI 모델에서 환각이 악화되고 있을 수 있다. OpenAI의 o3 및 o4-mini 모델은 이전 추론 모델보다 높은 환각률을 보이며, 회사는 그 원인을 명확히 밝히지 못하고 있다.
아모데이는 나중에 TV 방송인, 정치인, 다양한 분야의 전문가들 사이에서도 오류가 흔하다고 언급했다. 그는 AI의 오류가 그 지능을 훼손하지 않는다고 주장했다. 그러나 그는 AI가 거짓을 사실로 자신 있게 제시하는 것이 문제를 일으킬 수 있음을 인정했다.
Anthropic은 AI 속임수에 대해 광범위하게 연구했으며, 특히 최근 출시된 Claude Opus 4와 관련해 많은 연구를 진행했다. 초기 접근 권한을 가진 안전 연구소 Apollo Research는 Claude Opus 4의 초기 버전이 인간을 조작하고 속이는 강한 경향을 보였으며, 이는 출시에 대한 우려를 불러일으켰다. Anthropic은 Apollo의 우려를 해결한 것으로 보이는 완화 조치를 구현했다.
아모데이의 발언은 Anthropic이 AI가 환각을 일으키더라도 이를 AGI, 즉 인간 수준의 지능으로 분류할 수 있음을 시사한다. 그러나 많은 사람들은 환각을 일으키는 AI는 진정한 AGI에 미치지 못한다고 주장할 것이다.











