Eric Schmidt lehnt das Agi Manhattan -Projekt ab
10. April 2025
BrianMartinez
5

In einem am Mittwoch veröffentlichten Richtlinienpapier, der ehemalige Google-CEO Eric Schmidt, zusammen mit dem CEO Alexandr Wang und dem Center for AI-Sicherheitsdirektor Dan Hendrycks, der sich gegen die US-amerikanischen Einführung einer Initiative im Projektstil in Manhattan zur Entwicklung von AI-Systemen mit "übermenschlichen" Intelligenz, die allgemein als AGI bezeichnet wurden, geraten wurde. Mit dem Titel "Superintelligence -Strategie" warnt die Zeitung, dass ein US -amerikanischer Bemühungen zur Monopolisierung der Superintelligent -KI eine starke Reaktion aus China in Form eines Cyberangriffs provozieren könnte, was die globalen Beziehungen stören könnte. Die Co-Autoren argumentieren: "Ein Manhattan-Projekt für AGI geht davon aus, dass Rivalen ein dauerhaftes Ungleichgewicht oder einen Omnizid, anstatt sich zu verhindern, um dies zu verhindern. Was beginnt als Vorstoß für eine Superwaffe und globale Kontrollrisiken, die feindliche Gegenmaßnahmen veranlassen und die Strategie zu eskalieren, um die Strategie zu untergraben. Dieses Papier, das von drei wichtigen Zahlen im amerikanischen KI-Sektor geschrieben wurde, kommt kurz nachdem eine US-Kongresskommission eine Initiative "Manhattan Project-Art" vorgeschlagen hat, um die AGI-Entwicklung zu finanzieren, die Parallelen zum US-Atombombenprojekt der 1940er Jahre entspricht. Der US-Energieminister Chris Wright erklärte kürzlich die USA zum "Beginn eines neuen Manhattan-Projekts" auf KI und sprach auf einem Supercomputer-Standort mit OpenAI-Mitbegründer Greg Brockman an seiner Seite. Die Superintelligence Strategy Paper stellt den jüngsten Vorstoß mehrerer amerikanischer Politik- und Branchenführer in Frage, die glauben, dass ein von der Regierung unterstütztes AGI-Programm der beste Weg ist, um mit China Schritt zu halten. Schmidt, Wang und Hendrycks sehen die USA in einer Situation, die einer Pattsituation gegenüber AGI ähnelt, ähnlich dem Konzept der gegenseitig gesicherten Zerstörung. So wie Nationen die Monopolisierung von Atomwaffen vermeiden, um präventive Streiks zu verhindern, schlagen die Autoren vor, dass die USA vorsichtig sein sollten, um hoch fortgeschrittene KI -Systeme zu dominieren. Während der Vergleich von KI mit Atomwaffen übertrieben scheint, sehen die globalen Führungskräfte KI bereits als entscheidendes militärisches Gut. Das Pentagon hat festgestellt, dass KI die Kill -Kette des Militärs beschleunigt. Die Autoren stellen die Idee der gegenseitigen versicherten KI -Fehlfunktion (MAIM) vor, bei der Regierungen möglicherweise präventive Maßnahmen ergreifen, um bedrohliche KI -Projekte zu deaktivieren, anstatt darauf zu warten, dass die Gegner AGI waffen. Schmidt, Wang und Hendrycks empfehlen, dass die USA ihren Fokus vom "Gewinn des Rennens bis zur Superintelligence" über die Entwicklung von Methoden verlagern, um andere Länder von der Schaffung von Superintelligent -KI abzuhalten. Sie schlagen vor, dass die Regierung "ihr Arsenal an Cyberangriffe erweitern sollte, um bedrohliche KI-Projekte zu deaktivieren", die von anderen Nationen kontrolliert werden, und den Zugang der Gegner auf fortschrittliche AI-Chips und Open-Source-Modelle einschränken. Das Papier beleuchtet eine Spaltung der KI -Politikgemeinschaft zwischen den "Doomern", die glauben, dass katastrophale KI -Ergebnisse unvermeidlich sind und sich für die Verlangsamung der KI -Fortschritte befassen, und die "Strauße", die auf die Beschleunigung der KI -Entwicklung und die Hoffnung auf die Besten drängen. Die Autoren schlagen einen dritten Weg vor: einen vorsichtigen Ansatz zur AGI -Entwicklung, der die Verteidigungsstrategien hervorhebt. Diese Haltung ist besonders bemerkenswert von Schmidt, der zuvor die Notwendigkeit betont hat, dass die USA in der KI -Entwicklung aggressiv mit China konkurrieren müssen. Vor wenigen Monaten schrieb Schmidt eine Op-Ed, dass Deepseek einen entscheidenden Moment im AI-Rennen der USA-China markierte. Trotz der Entschlossenheit der Trump-Administration, Amerikas KI-Entwicklung voranzutreiben, erinnern die Mitautoren uns daran, dass die US-Entscheidungen über AGI globale Auswirkungen haben. Als die Welt Amerikas Vorstoß in die KI beobachtet, schlagen Schmidt und seine Co-Autoren vor, dass eine defensivere Strategie die klügere Wahl sein könnte.
Verwandter Artikel
A análise revela as respostas da IA na China variam de acordo com a linguagem
Explorando a censura da IA: uma análise baseada em idiomas não é segredo de que os modelos de IA dos laboratórios chineses, como Deepseek, estão sujeitos a regras estritas de censura. Uma regulamentação de 2023 do partido no poder da China proíbe explicitamente esses modelos de gerar conteúdo que poderia minar a unidade nacional ou mais
O uso não solicitado dos nomes de usuário do ChatGPT gera preocupações "assustadoras" entre alguns
Alguns usuários do ChatGPT encontraram recentemente um novo recurso ímpar: o chatbot ocasionalmente usa seu nome enquanto trabalha com problemas. Isso não fazia parte de seu comportamento habitual antes, e muitos usuários relatam que o ChatGPT menciona seus nomes sem nunca ser informado de como chamá -los. Opiniões sobre
O OpenAI aprimora o chatgpt para recordar conversas anteriores
O Openai fez um grande anúncio na quinta -feira sobre o lançamento de um novo recurso no Chatgpt chamado "Memory". Esta ferramenta bacana foi projetada para fazer suas conversas com a IA mais personalizadas, lembrando do que você falou antes. Imagine não ter que se repetir toda vez que você inicia um novo Conve
Kommentare (20)
0/200
LawrenceLee
10. April 2025 15:01:10 GMT
Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!
0
DouglasRodriguez
10. April 2025 15:01:10 GMT
エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!
0
HenryJackson
10. April 2025 15:01:10 GMT
에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!
0
NicholasThomas
10. April 2025 15:01:10 GMT
A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!
0
KennethRoberts
10. April 2025 15:01:10 GMT
एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!
0
BruceWilson
16. April 2025 01:34:13 GMT
Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀
0










Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!




エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!




에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!




A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!




एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!




Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀












