Eric Schmidt se opõe ao projeto AGI Manhattan

Em um documento de política divulgado na quarta-feira, o ex-CEO do Google, Eric Schmidt, juntamente com o CEO da IA, Alexandr Wang e o Centro do Diretor de Segurança da AI, Dan Hendrycks, aconselhou contra os EUA lançar uma iniciativa de estilo de projeto de Manhattan para desenvolver sistemas de IA com inteligência "super-humana", comumente referida como AGI. Intitulado "Estratégia de Superintelligência", o artigo alerta que um esforço dos EUA para monopolizar a IA superinteligente poderia provocar uma forte resposta da China, possivelmente na forma de um ataque cibernético, o que pode atrapalhar as relações globais. Os co-autores argumentam: "Um projeto de Manhattan para a AGI assume que os rivais concordarão com um desequilíbrio duradouro ou omnicida, em vez de se mover para evitá-lo. O que começa como um impulso por uma superweapen e o controle global riscos que levam a uma estratégia hostil e a escala de tensões, que está submetindo a uma estabilidade da estratégia. Este artigo, escrito por três figuras-chave no setor americano de IA, chega logo após a Comissão do Congresso dos EUA sugerir uma iniciativa de "estilo de projeto de Manhattan" para financiar o desenvolvimento da AGI, atraindo paralelos ao projeto de bombas atômicas dos EUA da década de 1940. O secretário de Energia dos EUA, Chris Wright, declarou recentemente que os EUA estavam em "O início de um novo projeto de Manhattan" na IA, falando em um local do supercomputador com o co-fundador do Openai, Greg Brockman, ao seu lado. O artigo da Estratégia da Superintelligência desafia o recente impulso de vários líderes de políticas americanas e da indústria que acreditam que um programa AGI apoiado pelo governo é a melhor maneira de acompanhar a China. Schmidt, Wang e Hendrycks veem os EUA em uma situação semelhante a um impasse sobre a AGI, semelhante ao conceito de destruição mutuamente garantida. Assim como as nações evitam monopolizar armas nucleares para evitar ataques preventivos, os autores sugerem que os EUA devem ter cuidado ao correr para dominar sistemas de IA altamente avançados. Enquanto comparar a IA com armas nucleares pode parecer exagerado, os líderes globais já veem a IA como um ativo militar crucial. O Pentágono observou que a IA está acelerando a cadeia de mortes dos militares. Os autores introduzem a idéia de mau funcionamento da IA Mutual garantido (MAIM), onde os governos podem tomar medidas preventivas para desativar os projetos ameaçadores de IA, em vez de esperar que os adversários armassem a AGI. Schmidt, Wang e Hendrycks recomendam que os EUA mudem seu foco de "vencer a corrida para a superinteligência" para o desenvolvimento de métodos para impedir outros países de criar a IA superinteligente. Eles sugerem que o governo deve "expandir seu arsenal de ataques cibernéticos para desativar projetos de IA ameaçadores" controlados por outras nações e restringir o acesso dos adversários a chips avançados de IA e modelos de código aberto. O artigo destaca uma divisão na comunidade de políticas de IA entre os "Doomers", que acreditam que os resultados catastróficos da IA são inevitáveis e defendem a desaceleração do progresso da IA e dos "avestruzes", que pressionam por acelerar o desenvolvimento da IA e a esperança do melhor. Os autores propõem um terceiro caminho: uma abordagem cautelosa ao desenvolvimento da AGI que enfatiza estratégias defensivas. Essa postura é particularmente digna de nota de Schmidt, que anteriormente enfatizou a necessidade de os EUA competirem agressivamente com a China no desenvolvimento da IA. Apenas alguns meses atrás, Schmidt escreveu um artigo informando que a Deepseek marcou um momento crucial na corrida EUA-China AI. Apesar da determinação do governo Trump em promover o desenvolvimento da IA da América, os co-autores nos lembram que as decisões dos EUA sobre a AGI têm implicações globais. Enquanto o mundo observa o empurrão da América na IA, Schmidt e seus co-autores sugerem que uma estratégia mais defensiva pode ser a escolha mais sábia.
Artigo relacionado
OpenAI升级其Operator Agent的AI模型
OpenAI将Operator智能体推向新高度OpenAI正为其自主AI智能体Operator进行重大升级。此次更新意味着Operator将很快采用基于o3模型的架构——这是OpenAI尖端o系列推理模型的最新成员。此前Operator一直基于定制版GPT-4o运行,但这次迭代将带来显著提升。o3模型的突破性意义在数学与逻辑推理任务中,o3几乎在所有指标上都
OpenAI的o3 AI模型在基准测试中的得分低于最初暗示的水平
为什么基准测试差异在人工智能领域很重要?在人工智能领域,数字往往能讲述故事——有时,这些数字并不能完全匹配。以OpenAI的o3模型为例。最初的声明令人震惊:o3据说能够处理超过25%的著名难题FrontierMath问题。作为对比,竞争对手的成绩停留在个位数。但快进到最近的发展情况,备受尊敬的研究机构Epoch AI对此提出了质疑。他们的研究结果显示,o3
Ziff Davis起诉OpenAI涉嫌侵犯版权
齐夫·戴维斯起诉OpenAI侵犯版权这一举动在科技界和出版界引起了轩然大波,Ziff Davis——旗下拥有《CNET》、《PCMag》、《IGN》和《Everyday Health》等品牌的庞大企业集团——已因涉嫌侵犯版权对OpenAI提起诉讼。据《纽约时报》报道,该诉讼声称OpenAI故意在其未获授权的情况下使用Ziff Davis的内容,创造了“完全复
Comentários (20)
0/200
LawrenceLee
10 de Abril de 2025 à0 00:00:00 GMT
Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!
0
DouglasRodriguez
10 de Abril de 2025 à0 00:00:00 GMT
エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!
0
HenryJackson
10 de Abril de 2025 à0 00:00:00 GMT
에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!
0
NicholasThomas
10 de Abril de 2025 à0 00:00:00 GMT
A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!
0
KennethRoberts
10 de Abril de 2025 à0 00:00:00 GMT
एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!
0
BruceWilson
16 de Abril de 2025 à0 00:00:00 GMT
Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀
0




Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!




エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!




에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!




A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!




एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!




Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀












