вариант
Дом
Новости
Документ DeepMind Safety Paper не может повлиять на скептиков

Документ DeepMind Safety Paper не может повлиять на скептиков

10 апреля 2025 г.
105

Документ DeepMind Safety Paper не может повлиять на скептиков

В среду Google DeepMind опубликовал объемную статью на 145 страниц, в которой подробно рассматривается их подход к безопасности AGI. AGI, или искусственный общий интеллект, — это тип ИИ, который может выполнять любую задачу, доступную человеку, и это горячая тема в мире ИИ. Некоторые считают, что это просто фантазия, в то время как другие, например, крупные игроки из Anthropic, полагают, что AGI уже не за горами и может вызвать серьезные проблемы, если не будут приняты должные меры безопасности.

Статья DeepMind, написанная при участии соучредителя Шейна Легга, предполагает, что AGI может появиться к 2030 году и привести к тому, что они называют "серьезным вредом". Они не уточняют деталей, но употребляют пугающие выражения, такие как "экзистенциальные риски", которые могут "навсегда уничтожить человечество".

"Мы делаем ставку на то, что увидим исключительный AGI до конца этого десятилетия", — отмечают авторы. "Исключительный AGI — это система, которая может соответствовать навыкам 1% лучших взрослых в выполнении множества нефизических задач, включая сложные вещи, такие как освоение новых навыков."

С самого начала статья сравнивает подход DeepMind к управлению рисками AGI с тем, как это делают Anthropic и OpenAI. В ней говорится, что Anthropic не так сильно сосредоточен на "надежном обучении, мониторинге и безопасности", в то время как OpenAI делает акцент на "автоматизации" исследований в области безопасности ИИ, называемых исследованиями выравнивания.

Статья также скептически относится к идее сверхинтеллектуального ИИ — ИИ, который лучше людей справляется с любыми задачами. (OpenAI недавно заявила, что они переключают свое внимание с AGI на сверхинтеллект.) Без значительных новых прорывов авторы DeepMind не верят, что сверхинтеллектуальные системы появятся в ближайшее время — или вообще когда-либо.

Но они считают возможным, что текущие методы могут привести к "рекурсивному улучшению ИИ", когда ИИ сам проводит исследования в области ИИ, чтобы создавать еще более умные системы. И это, предупреждают они, может быть чрезвычайно опасно.

В целом статья предлагает разработать способы предотвращения доступа злоумышленников к AGI, лучше понимать, что делают системы ИИ, и сделать среды, в которых работает ИИ, более безопасными. Они признают, что многие из этих идей находятся на ранних стадиях и имеют "открытые исследовательские проблемы", но призывают не игнорировать вопросы безопасности, которые могут возникнуть.

"AGI может принести невероятные выгоды или серьезный вред", — подчеркивают авторы. "Поэтому, чтобы создать AGI правильно, ведущим разработчикам ИИ крайне важно планировать наперед и решать эти большие риски."

Однако не все согласны с идеями статьи.

Хейди Хлааф, главный научный сотрудник по ИИ в некоммерческом Институте AI Now, сообщила TechCrunch, что считает концепцию AGI слишком размытой, чтобы ее можно было "строго научно оценить". Другой исследователь ИИ, Мэтью Гуздиал из Университета Альберты, сказал, что он не убежден в возможности рекурсивного улучшения ИИ на данный момент.

"Рекурсивное улучшение — это основа аргументов о сингулярности интеллекта", — сказал Гуздиал TechCrunch, — "но мы никогда не видели никаких доказательств того, что это действительно работает."

Сандра Вахтер, изучающая технологии и регулирование в Оксфорде, указывает на более насущную проблему: ИИ, усиливающий себя с помощью "неточных выходных данных".

"С увеличением количества контента, созданного ИИ, в интернете и заменой реальных данных, модели учатся на своих собственных выходных данных, полных неточностей или галлюцинаций", — сообщила она TechCrunch. "Поскольку чат-боты в основном используются для поиска и выяснения правды, мы всегда рискуем получить ложную информацию, представленную очень убедительно."

Как бы ни была обстоятельной, статья DeepMind, вероятно, не положит конец спорам о том, насколько реален AGI — и какие вопросы безопасности ИИ требуют наибольшего внимания прямо сейчас.

Связанная статья
OpenAI подтверждает свои некоммерческие корни в ходе масштабной корпоративной реструктуризации OpenAI подтверждает свои некоммерческие корни в ходе масштабной корпоративной реструктуризации OpenAI остается верной своей некоммерческой миссии, проходя через значительную корпоративную реструктуризацию, балансируя между ростом и приверженностью этичному развитию ИИ.Генеральный директор Сэм А
Google запускает модель Gemini AI для роботов на устройстве Google запускает модель Gemini AI для роботов на устройстве Google DeepMind представляет Gemini Robotics On-Device для автономного управления роботамиGoogle DeepMind только что анонсировал важное обновление в области робототехники — Gemini Robotics On-Device,
Новая статья раскрывает, сколько данных на самом деле запоминают LLM Новая статья раскрывает, сколько данных на самом деле запоминают LLM Сколько на самом деле запоминают модели ИИ? Новое исследование раскрывает удивительные выводыВсе мы знаем, что большие языковые модели (LLM), такие как ChatGPT, Claude и Gemini, обучаются на огромных
Комментарии (46)
ArthurYoung
ArthurYoung 9 августа 2025 г., 14:00:59 GMT+03:00

DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔

GregoryRodriguez
GregoryRodriguez 22 апреля 2025 г., 18:58:08 GMT+03:00

DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.

GeorgeJones
GeorgeJones 20 апреля 2025 г., 15:35:58 GMT+03:00

DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.

CharlesLee
CharlesLee 18 апреля 2025 г., 18:24:35 GMT+03:00

O artigo de segurança de AGI da DeepMind? Honestamente, não me convenceu em nada 🤔. 145 páginas e ainda estou cético. AGI parece ficção científica para mim, mas, ei, se eles conseguirem torná-lo seguro, estou a favor! Talvez na próxima eles tenham algo mais sólido.

CarlTaylor
CarlTaylor 18 апреля 2025 г., 9:26:53 GMT+03:00

Tentei ler o papel de segurança de AGI do DeepMind, mas é tão denso! 😵‍💫 Parece que estão tentando nos convencer de que AGI é real, mas ainda não estou convencido. Talvez se tornasse mais digerível, eu ficaria mais convencido. Ainda assim, parabéns pelo esforço!

LawrenceJones
LawrenceJones 16 апреля 2025 г., 17:57:12 GMT+03:00

Intenté leer el artículo de seguridad de AGI de DeepMind, pero es tan denso! 😵‍💫 Parece que quieren convencernos de que AGI es real, pero todavía no lo compro. Tal vez si lo hicieran más digerible, estaría más convencido. Aún así, felicitaciones por el esfuerzo!

Вернуться к вершине
OR