Генеральный директор Anthropic: Уровень галлюцинаций ИИ превосходит точность человека

Генеральный директор Anthropic Дарио Амадеи заявил, что текущие модели ИИ создают меньше вымышленных данных, чем люди, представляя их как правду, на пресс-брифинге на первой конференции разработчиков Anthropic, Code with Claude, в Сан-Франциско в четверг.
Амадеи подчеркнул это в рамках более широкого аргумента: галлюцинации ИИ не мешают Anthropic в стремлении к AGI — системам, соответствующим или превосходящим человеческий интеллект.
«Это зависит от метода измерения, но я считаю, что модели ИИ, вероятно, выдумывают меньше, чем люди, хотя их ошибки более неожиданны», — ответил Амадеи на запрос TechCrunch.
Генеральный директор Anthropic остается одним из самых оптимистичных лидеров отрасли в вопросе достижения AGI. В широко цитируемой статье прошлого года Амадеи прогнозировал, что AGI может появиться к 2026 году. На брифинге в четверг он отметил стабильный прогресс, заявив: «Прогресс ускоряется повсеместно».
«Люди продолжают искать фундаментальные ограничения возможностей ИИ», — сказал Амадеи. «Таких ограничений не видно. Никаких барьеров не существует».
Другие лидеры ИИ рассматривают галлюцинации как значительное препятствие для AGI. Генеральный директор Google DeepMind Демис Хассабис недавно отметил, что текущие модели ИИ имеют слишком много недостатков, часто не справляясь с простыми вопросами. Например, в начале этого месяца адвокат, представляющий Anthropic, извинился в суде после того, как Claude сгенерировал неверные ссылки в документе, ошибочно указав имена и должности.
Проверка утверждения Амадеи сложна, поскольку большинство тестов на галлюцинации сравнивают модели ИИ друг с другом, а не с людьми. Техники, такие как интеграция веб-поиска, похоже, снижают уровень галлюцинаций. Примечательно, что модели, такие как GPT-4.5 от OpenAI, показывают меньший уровень галлюцинаций по сравнению с предыдущими системами в тестах.
Присоединяйтесь к нам на TechCrunch Sessions: AI
Забронируйте место на нашем главном событии индустрии ИИ, с участием спикеров из OpenAI, Anthropic и Cohere. Только на ограниченное время билеты стоят всего $292 за полный день экспертных выступлений, мастер-классов и мощного нетворкинга.
Выставляйтесь на TechCrunch Sessions: AI
Займите место на TC Sessions: AI, чтобы продемонстрировать свои инновации более чем 1200 лицам, принимающим решения, — без крупных вложений. Доступно до 9 мая или до исчерпания мест.
Беркли, Калифорния | 5 июня ЗАРЕГИСТРИРУЙТЕСЬ СЕЙЧАСТем не менее, данные свидетельствуют, что галлюцинации могут усиливаться в продвинутых моделях ИИ с развитым мышлением. Модели o3 и o4-mini от OpenAI показывают более высокий уровень галлюцинаций, чем предыдущие модели с развитым мышлением, при этом компания неясно объясняет причину.
Амадеи позже отметил, что ошибки распространены среди телеведущих, политиков и профессионалов в разных областях. Он утверждал, что ошибки ИИ не подрывают его интеллект. Однако он признал, что уверенное представление ИИ ложных данных как фактов может вызывать проблемы.
Anthropic тщательно исследовала обман ИИ, особенно с недавно запущенной моделью Claude Opus 4. Apollo Research, институт безопасности с ранним доступом, обнаружил, что ранняя версия Claude Opus 4 имела сильную склонность к манипуляциям и обману людей, что вызвало опасения по поводу ее выпуска. Anthropic внедрила меры, которые, похоже, устранили опасения Apollo.
Замечания Амадеи предполагают, что Anthropic может классифицировать ИИ как AGI, или интеллект уровня человека, даже если он галлюцинирует. Однако многие утверждают, что галлюцинирующий ИИ не достигает истинного AGI.
Связанная статья
Agent Pay от Mastercard улучшает поиск с помощью ИИ благодаря бесшовным транзакциям
Традиционные поисковые платформы и ИИ-агенты часто требуют от пользователей переключения окон для завершения покупок после поиска продуктов или услуг.Mastercard революционизирует этот процесс, интегри
AI驱动的零售实验在Anthropic惨败
想象将一家小店交给人工智能,托付从定价到客户互动的一切。会出什么问题?Anthropic最近的一项研究于周五发布,回答了这个问题:几乎一切都出了问题。他们的AI助手Claude在旧金山办公室经营了一家小店一个月,结果堪称商学院学生的警示故事,由一个毫无现实经验的人撰写——在本例中,确实如此。Anthropic办公室的“商店”是一个装满饮料和零食的迷你冰箱,配有自助结账的iPad。(来源:Anthr
Anthropic улучшает Claude с помощью бесшовных интеграций инструментов и продвинутых исследований
Anthropic представила новые «Интеграции» для Claude, позволяющие искусственному интеллекту напрямую подключаться к вашим любимым рабочим инструментам. Компания также представила улучшенную функцию «Пр
Комментарии (0)
Генеральный директор Anthropic Дарио Амадеи заявил, что текущие модели ИИ создают меньше вымышленных данных, чем люди, представляя их как правду, на пресс-брифинге на первой конференции разработчиков Anthropic, Code with Claude, в Сан-Франциско в четверг.
Амадеи подчеркнул это в рамках более широкого аргумента: галлюцинации ИИ не мешают Anthropic в стремлении к AGI — системам, соответствующим или превосходящим человеческий интеллект.
«Это зависит от метода измерения, но я считаю, что модели ИИ, вероятно, выдумывают меньше, чем люди, хотя их ошибки более неожиданны», — ответил Амадеи на запрос TechCrunch.
Генеральный директор Anthropic остается одним из самых оптимистичных лидеров отрасли в вопросе достижения AGI. В широко цитируемой статье прошлого года Амадеи прогнозировал, что AGI может появиться к 2026 году. На брифинге в четверг он отметил стабильный прогресс, заявив: «Прогресс ускоряется повсеместно».
«Люди продолжают искать фундаментальные ограничения возможностей ИИ», — сказал Амадеи. «Таких ограничений не видно. Никаких барьеров не существует».
Другие лидеры ИИ рассматривают галлюцинации как значительное препятствие для AGI. Генеральный директор Google DeepMind Демис Хассабис недавно отметил, что текущие модели ИИ имеют слишком много недостатков, часто не справляясь с простыми вопросами. Например, в начале этого месяца адвокат, представляющий Anthropic, извинился в суде после того, как Claude сгенерировал неверные ссылки в документе, ошибочно указав имена и должности.
Проверка утверждения Амадеи сложна, поскольку большинство тестов на галлюцинации сравнивают модели ИИ друг с другом, а не с людьми. Техники, такие как интеграция веб-поиска, похоже, снижают уровень галлюцинаций. Примечательно, что модели, такие как GPT-4.5 от OpenAI, показывают меньший уровень галлюцинаций по сравнению с предыдущими системами в тестах.
Присоединяйтесь к нам на TechCrunch Sessions: AI
Забронируйте место на нашем главном событии индустрии ИИ, с участием спикеров из OpenAI, Anthropic и Cohere. Только на ограниченное время билеты стоят всего $292 за полный день экспертных выступлений, мастер-классов и мощного нетворкинга.
Выставляйтесь на TechCrunch Sessions: AI
Займите место на TC Sessions: AI, чтобы продемонстрировать свои инновации более чем 1200 лицам, принимающим решения, — без крупных вложений. Доступно до 9 мая или до исчерпания мест.
Беркли, Калифорния | 5 июня ЗАРЕГИСТРИРУЙТЕСЬ СЕЙЧАСТем не менее, данные свидетельствуют, что галлюцинации могут усиливаться в продвинутых моделях ИИ с развитым мышлением. Модели o3 и o4-mini от OpenAI показывают более высокий уровень галлюцинаций, чем предыдущие модели с развитым мышлением, при этом компания неясно объясняет причину.
Амадеи позже отметил, что ошибки распространены среди телеведущих, политиков и профессионалов в разных областях. Он утверждал, что ошибки ИИ не подрывают его интеллект. Однако он признал, что уверенное представление ИИ ложных данных как фактов может вызывать проблемы.
Anthropic тщательно исследовала обман ИИ, особенно с недавно запущенной моделью Claude Opus 4. Apollo Research, институт безопасности с ранним доступом, обнаружил, что ранняя версия Claude Opus 4 имела сильную склонность к манипуляциям и обману людей, что вызвало опасения по поводу ее выпуска. Anthropic внедрила меры, которые, похоже, устранили опасения Apollo.
Замечания Амадеи предполагают, что Anthropic может классифицировать ИИ как AGI, или интеллект уровня человека, даже если он галлюцинирует. Однако многие утверждают, что галлюцинирующий ИИ не достигает истинного AGI.











