Дом Новости Эрик Шмидт выступает против проекта Agi Manhattan

Эрик Шмидт выступает против проекта Agi Manhattan

10 апреля 2025 г.
BrianMartinez
5

Эрик Шмидт выступает против проекта Agi Manhattan

В политическом документе, опубликованном в среду, бывший генеральный директор Google Эрик Шмидт вместе с генеральным директором AI Александра Ванга и Центром по безопасности ИИ Дэн Хендриккс консультировал против инициативы в стиле проекта в Манхэттене для разработки систем искусственного интеллекта с «сверхчеловеческим» интеллектом, который обычно называют AGI. Названная «Стратегия суперинтелтинга», газета предупреждает, что усилия США по монополизированию ИИ суперинтелтинганута могут вызвать сильный отклик со стороны Китая, возможно, в форме кибератаки, что может нарушить глобальные отношения. Соавторы утверждают: «Манхэттенский проект для AGI предполагает, что соперники согласится с устойчивым дисбалансом или омницидом, а не перемещаются, чтобы предотвратить его. То, что начинается как стремление к супер-неделю и глобальному контролю, побуждает враждебные контрмеры и эскалация напряженности, тем самым подчиняя очень стабильность стратегии, чтобы обеспечить безопасность». Этот документ, написанный тремя ключевыми фигурами в американском секторе ИИ, прибывает вскоре после того, как комиссия Конгресса США предложила инициативу «в стиле проекта Манхэттена» для финансирования развития AGI, проведя параллели с проектом атомной бомбы США 1940-х годов. Министр энергетики США Крис Райт недавно объявил, что США будут в «начале нового проекта Манхэттена» на ИИ, выступая на сайте суперкомпьютеров с соучредителем OpenAI Грегом Брокманом рядом с ним. Стратегия суперинтеллигентности бросает вызов недавнему толчке нескольких американских лидеров политики и отрасли, которые считают, что программа AGI, поддерживаемая правительством, является лучшим способом не отставать от Китая. Шмидт, Ван и Хендрики видят США в ситуации, сходной к противостоянию над AGI, аналогичной концепции взаимно уверенного разрушения. Подобно тому, как страны избегают монополизирования ядерного оружия для предотвращения упреждающих ударов, авторы предполагают, что США должны опасаться спешить доминировать в высокопроизводительных системах ИИ. В то время как сравнение ИИ с ядерным оружием может показаться сверху, глобальные лидеры уже рассматривают ИИ как важнейший военный актив. Пентагон отметил, что ИИ ускоряет цепь убийств военных. Авторы вводят идею взаимного гарантированного неисправности ИИ (MAIM), где правительства могут предпринять упреждающие действия, чтобы отключить угрожающие проекты ИИ, а не ждать противников, чтобы вооружить AGI. Schmidt, Wang и Hendrycks рекомендуют, чтобы США переключали свое внимание с «победы в гонке к суперинтеллигенции» к разработке методов, чтобы удержать другие страны от создания Superintelligent AI. Они предполагают, что правительство должно «расширить свой арсенал кибератак, чтобы отключить угрожающие проекты искусственного интеллекта», контролируемые другими странами, и ограничить доступ противников к передовым чипам ИИ и моделями с открытым исходным кодом. В документе подчеркивается раскол в политическом сообществе ИИ между «Doomers», которые считают, что катастрофические результаты ИИ неизбежны и выступают за замедление прогресса ИИ, а «страусы», которые стремятся к ускорению развития ИИ и надежды на лучшее. Авторы предлагают третий путь: осторожный подход к развитию AGI, который подчеркивает защитные стратегии. Эта позиция особенно заслуживает внимания Шмидта, который ранее подчеркивал необходимость того, чтобы США агрессивно конкурировали с Китаем в развитии ИИ. Всего несколько месяцев назад Шмидт написал статью, заявив, что Deepseek отметил ключевой момент в гонке AI-китайского AI. Несмотря на решимость администрации Трампа продвигать развитие ИИ Америки, соавторы напоминают нам, что решения США на AGI имеют глобальные последствия. Поскольку мир наблюдает за толчком Америки в ИИ, Шмидт и его соавторы предполагают, что более оборонительная стратегия может быть более разумным выбором.
Связанная статья
A análise revela as respostas da IA ​​na China variam de acordo com a linguagem A análise revela as respostas da IA ​​na China variam de acordo com a linguagem Explorando a censura da IA: uma análise baseada em idiomas não é segredo de que os modelos de IA dos laboratórios chineses, como Deepseek, estão sujeitos a regras estritas de censura. Uma regulamentação de 2023 do partido no poder da China proíbe explicitamente esses modelos de gerar conteúdo que poderia minar a unidade nacional ou mais
O uso não solicitado dos nomes de usuário do ChatGPT gera preocupações O uso não solicitado dos nomes de usuário do ChatGPT gera preocupações "assustadoras" entre alguns Alguns usuários do ChatGPT encontraram recentemente um novo recurso ímpar: o chatbot ocasionalmente usa seu nome enquanto trabalha com problemas. Isso não fazia parte de seu comportamento habitual antes, e muitos usuários relatam que o ChatGPT menciona seus nomes sem nunca ser informado de como chamá -los. Opiniões sobre
O OpenAI aprimora o chatgpt para recordar conversas anteriores O OpenAI aprimora o chatgpt para recordar conversas anteriores O Openai fez um grande anúncio na quinta -feira sobre o lançamento de um novo recurso no Chatgpt chamado "Memory". Esta ferramenta bacana foi projetada para fazer suas conversas com a IA mais personalizadas, lembrando do que você falou antes. Imagine não ter que se repetir toda vez que você inicia um novo Conve
Комментарии (20)
LawrenceLee 10 апреля 2025 г., 15:01:10 GMT

Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!

DouglasRodriguez 10 апреля 2025 г., 15:01:10 GMT

エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!

HenryJackson 10 апреля 2025 г., 15:01:10 GMT

에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!

NicholasThomas 10 апреля 2025 г., 15:01:10 GMT

A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!

KennethRoberts 10 апреля 2025 г., 15:01:10 GMT

एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!

BruceWilson 16 апреля 2025 г., 1:34:13 GMT

Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀

OR