Эрик Шмидт выступает против проекта Agi Manhattan

В документе, опубликованном в среду, бывший генеральный директор Google Эрик Шмидт, вместе с генеральным директором Scale AI Александром Ваном и директором Центра безопасности ИИ Дэном Хендриксом, предостерегли США от запуска инициативы в стиле Манхэттенского проекта для разработки систем ИИ с «сверхчеловеческим» интеллектом, широко известным как AGI.
Названный «Стратегия сверхинтеллекта», документ предупреждает, что попытка США монополизировать сверхинтеллектуальный ИИ может спровоцировать решительный ответ со стороны Китая, возможно, в виде кибератаки, что может нарушить глобальные отношения.
Соавторы утверждают: «Манхэттенский проект для AGI предполагает, что конкуренты смирятся с постоянным дисбалансом или уничтожением, вместо того чтобы предпринять меры для его предотвращения. То, что начинается как стремление к супероружию и глобальному контролю, рискует вызвать враждебные контрмеры и эскалацию напряженности, подрывая тем самым стабильность, которую стратегия якобы должна обеспечить».
Этот документ, написанный тремя ключевыми фигурами американского сектора ИИ, появился вскоре после того, как конгрессная комиссия США предложила инициативу в стиле «Манхэттенского проекта» для финансирования разработки AGI, проводя параллели с проектом США по созданию атомной бомбы в 1940-х годах. Министр энергетики США Крис Райт недавно заявил, что США находятся «в начале нового Манхэттенского проекта» в области ИИ, выступая на площадке суперкомпьютера вместе с сооснователем OpenAI Грегом Брокманом.
Документ «Стратегия сверхинтеллекта» бросает вызов недавнему стремлению ряда американских политических и промышленных лидеров, которые считают, что поддерживаемая государством программа AGI — лучший способ не отставать от Китая.
Шмидт, Ван и Хендрик видят США в ситуации, напоминающей противостояние из-за AGI, схожее с концепцией взаимного гарантированного уничтожения. Подобно тому, как нации избегают монополизации ядерного оружия, чтобы предотвратить упреждающие удары, авторы предлагают США быть осторожными в стремлении доминировать над высокоразвитыми системами ИИ.
Хотя сравнение ИИ с ядерным оружием может показаться преувеличенным, мировые лидеры уже рассматривают ИИ как ключевой военный актив. Пентагон отметил, что ИИ ускоряет военную цепочку уничтожения.
Авторы вводят концепцию Взаимного Гарантированного Сбоя ИИ (MAIM), при которой правительства могут предпринять упреждающие действия для отключения угрожающих проектов ИИ, вместо того чтобы ждать, пока противники вооружат AGI.
Шмидт, Ван и Хендрик рекомендуют США сместить акцент с «победы в гонке за сверхинтеллект» на разработку методов сдерживания других стран от создания сверхинтеллектуального ИИ. Они предлагают правительству «расширить арсенал кибератак для отключения угрожающих проектов ИИ», контролируемых другими странами, и ограничить доступ противников к передовым чипам ИИ и моделям с открытым исходным кодом.
Документ подчеркивает раскол в сообществе по политике ИИ между «пессимистами», которые считают катастрофические последствия ИИ неизбежными и выступают за замедление прогресса ИИ, и «страусами», которые настаивают на ускорении разработки ИИ и надеются на лучшее.
Авторы предлагают третий путь: осторожный подход к разработке AGI, который делает упор на оборонительные стратегии.
Эта позиция особенно примечательна со стороны Шмидта, который ранее подчеркивал необходимость для США агрессивно конкурировать с Китаем в разработке ИИ. Всего несколько месяцев назад Шмидт написал статью, в которой утверждал, что DeepSeek стал поворотным моментом в гонке ИИ между США и Китаем.
Несмотря на решимость администрации Трампа продвигать развитие ИИ в Америке, соавторы напоминают, что решения США по AGI имеют глобальные последствия.
Пока мир наблюдает за стремлением Америки в области ИИ, Шмидт и его соавторы предполагают, что более оборонительная стратегия может быть более мудрым выбором.
Связанная статья
Google представляет готовые к использованию модели ИИ Gemini 2.5 для конкуренции с OpenAI на корпоративном рынке
Google в понедельник усилила свою стратегию в области ИИ, запустив продвинутые модели Gemini 2.5 для корпоративного использования и представив экономичный вариант для конкуренции по цене и производите
Meta предлагает высокую зарплату для талантов в области ИИ, опровергая слухи о бонусах в $100 млн
Meta привлекает исследователей ИИ в свою новую лабораторию суперразума с многомиллионными компенсационными пакетами. Однако утверждения о бонусах за подписание контракта в размере $100 миллионов не со
Глава маркетинга OpenAI уходит в отпуск для лечения рака груди
Кейт Роуч, руководитель маркетинга OpenAI, берет трехмесячный отпуск, чтобы сосредоточиться на лечении инвазивного рака груди.В посте на LinkedIn Роуч объявила, что Гэри Бриггс, бывший директор по мар
Комментарии (27)
PaulLewis
28 июля 2025 г., 4:19:30 GMT+03:00
Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔
0
PeterRodriguez
23 июля 2025 г., 7:59:47 GMT+03:00
Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?
0
BruceSmith
20 апреля 2025 г., 20:32:22 GMT+03:00
La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔
0
MichaelDavis
18 апреля 2025 г., 21:29:08 GMT+03:00
A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚
0
MiaDavis
18 апреля 2025 г., 19:24:42 GMT+03:00
에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚
0
TerryPerez
18 апреля 2025 г., 16:20:43 GMT+03:00
एरिक श्मिट का AGI पर नज़रिया सही है! हमें सुपरह्यूमन AI के लिए मैनहट्टन प्रोजेक्ट जैसी जल्दबाजी की ज़रूरत नहीं है। हमें सावधान रहना चाहिए और प्रभावों के बारे में सोचना चाहिए। उनका पेपर वांग और हेंड्रिक्स के साथ ज़रूर पढ़ना चाहिए! 👀📚
0
В документе, опубликованном в среду, бывший генеральный директор Google Эрик Шмидт, вместе с генеральным директором Scale AI Александром Ваном и директором Центра безопасности ИИ Дэном Хендриксом, предостерегли США от запуска инициативы в стиле Манхэттенского проекта для разработки систем ИИ с «сверхчеловеческим» интеллектом, широко известным как AGI.
Названный «Стратегия сверхинтеллекта», документ предупреждает, что попытка США монополизировать сверхинтеллектуальный ИИ может спровоцировать решительный ответ со стороны Китая, возможно, в виде кибератаки, что может нарушить глобальные отношения.
Соавторы утверждают: «Манхэттенский проект для AGI предполагает, что конкуренты смирятся с постоянным дисбалансом или уничтожением, вместо того чтобы предпринять меры для его предотвращения. То, что начинается как стремление к супероружию и глобальному контролю, рискует вызвать враждебные контрмеры и эскалацию напряженности, подрывая тем самым стабильность, которую стратегия якобы должна обеспечить».
Этот документ, написанный тремя ключевыми фигурами американского сектора ИИ, появился вскоре после того, как конгрессная комиссия США предложила инициативу в стиле «Манхэттенского проекта» для финансирования разработки AGI, проводя параллели с проектом США по созданию атомной бомбы в 1940-х годах. Министр энергетики США Крис Райт недавно заявил, что США находятся «в начале нового Манхэттенского проекта» в области ИИ, выступая на площадке суперкомпьютера вместе с сооснователем OpenAI Грегом Брокманом.
Документ «Стратегия сверхинтеллекта» бросает вызов недавнему стремлению ряда американских политических и промышленных лидеров, которые считают, что поддерживаемая государством программа AGI — лучший способ не отставать от Китая.
Шмидт, Ван и Хендрик видят США в ситуации, напоминающей противостояние из-за AGI, схожее с концепцией взаимного гарантированного уничтожения. Подобно тому, как нации избегают монополизации ядерного оружия, чтобы предотвратить упреждающие удары, авторы предлагают США быть осторожными в стремлении доминировать над высокоразвитыми системами ИИ.
Хотя сравнение ИИ с ядерным оружием может показаться преувеличенным, мировые лидеры уже рассматривают ИИ как ключевой военный актив. Пентагон отметил, что ИИ ускоряет военную цепочку уничтожения.
Авторы вводят концепцию Взаимного Гарантированного Сбоя ИИ (MAIM), при которой правительства могут предпринять упреждающие действия для отключения угрожающих проектов ИИ, вместо того чтобы ждать, пока противники вооружат AGI.
Шмидт, Ван и Хендрик рекомендуют США сместить акцент с «победы в гонке за сверхинтеллект» на разработку методов сдерживания других стран от создания сверхинтеллектуального ИИ. Они предлагают правительству «расширить арсенал кибератак для отключения угрожающих проектов ИИ», контролируемых другими странами, и ограничить доступ противников к передовым чипам ИИ и моделям с открытым исходным кодом.
Документ подчеркивает раскол в сообществе по политике ИИ между «пессимистами», которые считают катастрофические последствия ИИ неизбежными и выступают за замедление прогресса ИИ, и «страусами», которые настаивают на ускорении разработки ИИ и надеются на лучшее.
Авторы предлагают третий путь: осторожный подход к разработке AGI, который делает упор на оборонительные стратегии.
Эта позиция особенно примечательна со стороны Шмидта, который ранее подчеркивал необходимость для США агрессивно конкурировать с Китаем в разработке ИИ. Всего несколько месяцев назад Шмидт написал статью, в которой утверждал, что DeepSeek стал поворотным моментом в гонке ИИ между США и Китаем.
Несмотря на решимость администрации Трампа продвигать развитие ИИ в Америке, соавторы напоминают, что решения США по AGI имеют глобальные последствия.
Пока мир наблюдает за стремлением Америки в области ИИ, Шмидт и его соавторы предполагают, что более оборонительная стратегия может быть более мудрым выбором.



Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔




Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?




La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔




A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚




에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚




एरिक श्मिट का AGI पर नज़रिया सही है! हमें सुपरह्यूमन AI के लिए मैनहट्टन प्रोजेक्ट जैसी जल्दबाजी की ज़रूरत नहीं है। हमें सावधान रहना चाहिए और प्रभावों के बारे में सोचना चाहिए। उनका पेपर वांग और हेंड्रिक्स के साथ ज़रूर पढ़ना चाहिए! 👀📚












