Эрик Шмидт выступает против проекта Agi Manhattan

В политическом документе, опубликованном в среду, бывший генеральный директор Google Эрик Шмидт вместе с генеральным директором AI Александра Ванга и Центром по безопасности ИИ Дэн Хендриккс консультировал против инициативы в стиле проекта в Манхэттене для разработки систем искусственного интеллекта с «сверхчеловеческим» интеллектом, который обычно называют AGI. Названная «Стратегия суперинтелтинга», газета предупреждает, что усилия США по монополизированию ИИ суперинтелтинганута могут вызвать сильный отклик со стороны Китая, возможно, в форме кибератаки, что может нарушить глобальные отношения. Соавторы утверждают: «Манхэттенский проект для AGI предполагает, что соперники согласится с устойчивым дисбалансом или омницидом, а не перемещаются, чтобы предотвратить его. То, что начинается как стремление к супер-неделю и глобальному контролю, побуждает враждебные контрмеры и эскалация напряженности, тем самым подчиняя очень стабильность стратегии, чтобы обеспечить безопасность». Этот документ, написанный тремя ключевыми фигурами в американском секторе ИИ, прибывает вскоре после того, как комиссия Конгресса США предложила инициативу «в стиле проекта Манхэттена» для финансирования развития AGI, проведя параллели с проектом атомной бомбы США 1940-х годов. Министр энергетики США Крис Райт недавно объявил, что США будут в «начале нового проекта Манхэттена» на ИИ, выступая на сайте суперкомпьютеров с соучредителем OpenAI Грегом Брокманом рядом с ним. Стратегия суперинтеллигентности бросает вызов недавнему толчке нескольких американских лидеров политики и отрасли, которые считают, что программа AGI, поддерживаемая правительством, является лучшим способом не отставать от Китая. Шмидт, Ван и Хендрики видят США в ситуации, сходной к противостоянию над AGI, аналогичной концепции взаимно уверенного разрушения. Подобно тому, как страны избегают монополизирования ядерного оружия для предотвращения упреждающих ударов, авторы предполагают, что США должны опасаться спешить доминировать в высокопроизводительных системах ИИ. В то время как сравнение ИИ с ядерным оружием может показаться сверху, глобальные лидеры уже рассматривают ИИ как важнейший военный актив. Пентагон отметил, что ИИ ускоряет цепь убийств военных. Авторы вводят идею взаимного гарантированного неисправности ИИ (MAIM), где правительства могут предпринять упреждающие действия, чтобы отключить угрожающие проекты ИИ, а не ждать противников, чтобы вооружить AGI. Schmidt, Wang и Hendrycks рекомендуют, чтобы США переключали свое внимание с «победы в гонке к суперинтеллигенции» к разработке методов, чтобы удержать другие страны от создания Superintelligent AI. Они предполагают, что правительство должно «расширить свой арсенал кибератак, чтобы отключить угрожающие проекты искусственного интеллекта», контролируемые другими странами, и ограничить доступ противников к передовым чипам ИИ и моделями с открытым исходным кодом. В документе подчеркивается раскол в политическом сообществе ИИ между «Doomers», которые считают, что катастрофические результаты ИИ неизбежны и выступают за замедление прогресса ИИ, а «страусы», которые стремятся к ускорению развития ИИ и надежды на лучшее. Авторы предлагают третий путь: осторожный подход к развитию AGI, который подчеркивает защитные стратегии. Эта позиция особенно заслуживает внимания Шмидта, который ранее подчеркивал необходимость того, чтобы США агрессивно конкурировали с Китаем в развитии ИИ. Всего несколько месяцев назад Шмидт написал статью, заявив, что Deepseek отметил ключевой момент в гонке AI-китайского AI. Несмотря на решимость администрации Трампа продвигать развитие ИИ Америки, соавторы напоминают нам, что решения США на AGI имеют глобальные последствия. Поскольку мир наблюдает за толчком Америки в ИИ, Шмидт и его соавторы предполагают, что более оборонительная стратегия может быть более разумным выбором.
Связанная статья
OpenAI升级其Operator Agent的AI模型
OpenAI将Operator智能体推向新高度OpenAI正为其自主AI智能体Operator进行重大升级。此次更新意味着Operator将很快采用基于o3模型的架构——这是OpenAI尖端o系列推理模型的最新成员。此前Operator一直基于定制版GPT-4o运行,但这次迭代将带来显著提升。o3模型的突破性意义在数学与逻辑推理任务中,o3几乎在所有指标上都
OpenAI的o3 AI模型在基准测试中的得分低于最初暗示的水平
为什么基准测试差异在人工智能领域很重要?在人工智能领域,数字往往能讲述故事——有时,这些数字并不能完全匹配。以OpenAI的o3模型为例。最初的声明令人震惊:o3据说能够处理超过25%的著名难题FrontierMath问题。作为对比,竞争对手的成绩停留在个位数。但快进到最近的发展情况,备受尊敬的研究机构Epoch AI对此提出了质疑。他们的研究结果显示,o3
Ziff Davis起诉OpenAI涉嫌侵犯版权
齐夫·戴维斯起诉OpenAI侵犯版权这一举动在科技界和出版界引起了轩然大波,Ziff Davis——旗下拥有《CNET》、《PCMag》、《IGN》和《Everyday Health》等品牌的庞大企业集团——已因涉嫌侵犯版权对OpenAI提起诉讼。据《纽约时报》报道,该诉讼声称OpenAI故意在其未获授权的情况下使用Ziff Davis的内容,创造了“完全复
Комментарии (20)
LawrenceLee
10 апреля 2025 г., 0:00:00 GMT
Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!
0
DouglasRodriguez
10 апреля 2025 г., 0:00:00 GMT
エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!
0
HenryJackson
10 апреля 2025 г., 0:00:00 GMT
에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!
0
NicholasThomas
10 апреля 2025 г., 0:00:00 GMT
A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!
0
KennethRoberts
10 апреля 2025 г., 0:00:00 GMT
एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!
0
BruceWilson
16 апреля 2025 г., 0:00:00 GMT
Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀
0




Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!




エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!




에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!




A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!




एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!




Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀












