Eric Schmidt se opone al Proyecto Agi Manhattan

En un documento de política publicado el miércoles, el ex CEO de Google, Eric Schmidt, junto con el CEO de AI de Scale, Alexandr Wang, y el Director de Seguridad del Centro para la IA, Dan Hendrycks, aconsejaron contra los Estados Unidos que lanzaron una iniciativa de estilo de proyecto Manhattan para desarrollar sistemas de IA con inteligencia "sobrehumana", comúnmente referida a AGI. Titulado "Estrategia de superinteligencia", el documento advierte que un esfuerzo de los Estados Unidos para monopolizar la IA superinteligente podría provocar una fuerte respuesta de China, posiblemente en forma de ciberataque, que podría interrumpir las relaciones globales. Los coautores argumentan: "Un proyecto de Manhattan para AGI asume que los rivales adquirirán un desequilibrio duradero u omnicuro en lugar de moverse para evitarlo. Lo que comienza como un impulso para una supervisión y el control global se arriesga a las contramedidas hostiles y las tensiones recalentadoras, lo que se mueve a la mínimo de la estabilidad de la estrategia para asegurar". Este documento, escrito por tres figuras clave en el sector de IA estadounidense, llega poco después de que una comisión del Congreso de los Estados Unidos sugirió una iniciativa "estilo del Proyecto Manhattan" para financiar el desarrollo de AGI, recurriendo al proyecto de bomba atómica de los Estados Unidos de la década de 1940. El Secretario de Energía de los Estados Unidos, Chris Wright, declaró recientemente que Estados Unidos estaba en "el comienzo de un nuevo proyecto de Manhattan" en AI, hablando en un sitio de supercomputador con el cofundador de Operai Greg Brockman a su lado. El documento de estrategia de superinteligencia desafía el reciente impulso de varios líderes estadounidenses de políticas e industrias que creen que un programa AGI respaldado por el gobierno es la mejor manera de mantenerse al día con China. Schmidt, Wang y Hendrycks ven a los EE. UU. En una situación similar a un enfrentamiento sobre AGI, similar al concepto de destrucción mutuamente asegurada. Así como las naciones evitan monopolizar armas nucleares para evitar ataques preventivos, los autores sugieren que los EE. UU. Deberían tener cuidado de apresurarse para dominar los sistemas de IA altamente avanzados. Si bien comparar la IA con las armas nucleares puede parecer exagerada, los líderes globales ya ven la IA como un activo militar crucial. El Pentágono ha notado que AI está acelerando la cadena de matar del ejército. Los autores introducen la idea del mal funcionamiento de la IA asegurada por mutuo (MAIM), donde los gobiernos podrían tomar medidas preventivas para deshabilitar los proyectos de IA amenazantes en lugar de esperar a que los adversarios armen AGI. Schmidt, Wang y Hendrycks recomiendan que Estados Unidos cambie su enfoque de "ganar la carrera a la superinteligencia" a desarrollar métodos para disuadir a otros países de crear una IA superinteligente. Sugieren que el gobierno debería "expandir su arsenal de ataques cibernéticos para deshabilitar los proyectos de IA amenazantes" controlados por otras naciones y restringir el acceso de los adversarios a chips de IA avanzados y modelos de código abierto. El documento destaca una división en la comunidad de políticas de IA entre los "doomers", que creen que los resultados catastróficos de la IA son inevitables y abogan por desacelerar el progreso de la IA, y las "avestruces", que presionan para acelerar el desarrollo de la IA y la esperanza de lo mejor. Los autores proponen un tercer camino: un enfoque cauteloso para el desarrollo de AGI que enfatiza las estrategias defensivas. Esta postura es particularmente notable por Schmidt, quien previamente ha enfatizado la necesidad de que Estados Unidos compite agresivamente con China en el desarrollo de la IA. Hace solo unos meses, Schmidt escribió un artículo de opinión que indicaba que Deepseek marcó un momento crucial en la carrera de IA de US-China. A pesar de la determinación de la administración Trump de avanzar en el desarrollo de la IA de Estados Unidos, los coautores nos recuerdan que las decisiones estadounidenses sobre AGI tienen implicaciones globales. Mientras el mundo observa el impulso de Estados Unidos hacia la IA, Schmidt y sus coautores sugieren que una estrategia más defensiva podría ser la elección más sabia.
Artículo relacionado
OpenAI升级其Operator Agent的AI模型
OpenAI将Operator智能体推向新高度OpenAI正为其自主AI智能体Operator进行重大升级。此次更新意味着Operator将很快采用基于o3模型的架构——这是OpenAI尖端o系列推理模型的最新成员。此前Operator一直基于定制版GPT-4o运行,但这次迭代将带来显著提升。o3模型的突破性意义在数学与逻辑推理任务中,o3几乎在所有指标上都
OpenAI的o3 AI模型在基准测试中的得分低于最初暗示的水平
为什么基准测试差异在人工智能领域很重要?在人工智能领域,数字往往能讲述故事——有时,这些数字并不能完全匹配。以OpenAI的o3模型为例。最初的声明令人震惊:o3据说能够处理超过25%的著名难题FrontierMath问题。作为对比,竞争对手的成绩停留在个位数。但快进到最近的发展情况,备受尊敬的研究机构Epoch AI对此提出了质疑。他们的研究结果显示,o3
Ziff Davis起诉OpenAI涉嫌侵犯版权
齐夫·戴维斯起诉OpenAI侵犯版权这一举动在科技界和出版界引起了轩然大波,Ziff Davis——旗下拥有《CNET》、《PCMag》、《IGN》和《Everyday Health》等品牌的庞大企业集团——已因涉嫌侵犯版权对OpenAI提起诉讼。据《纽约时报》报道,该诉讼声称OpenAI故意在其未获授权的情况下使用Ziff Davis的内容,创造了“完全复
comentario (20)
0/200
LawrenceLee
10 de abril de 2025 00:00:00 GMT
Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!
0
DouglasRodriguez
10 de abril de 2025 00:00:00 GMT
エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!
0
HenryJackson
10 de abril de 2025 00:00:00 GMT
에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!
0
NicholasThomas
10 de abril de 2025 00:00:00 GMT
A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!
0
KennethRoberts
10 de abril de 2025 00:00:00 GMT
एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!
0
BruceWilson
16 de abril de 2025 00:00:00 GMT
Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀
0




Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!




エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!




에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!




A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!




एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!




Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀












