Eric Schmidt se opõe ao projeto AGI Manhattan

Em um documento de política divulgado na quarta-feira, o ex-CEO do Google, Eric Schmidt, junto com o CEO da Scale AI, Alexandr Wang, e o Diretor do Centro para Segurança de IA, Dan Hendrycks, desaconselharam os EUA a lançarem uma iniciativa no estilo do Projeto Manhattan para desenvolver sistemas de IA com inteligência "sobre-humana", comumente referida como AGI.
Intitulado "Estratégia de Superinteligência", o documento alerta que um esforço dos EUA para monopolizar a IA superinteligente poderia provocar uma forte resposta da China, possivelmente na forma de um ciberataque, o que poderia perturbar as relações globais.
Os coautores argumentam: "Um Projeto Manhattan para AGI assume que os rivais aceitarão um desequilíbrio duradouro ou um omnicídio em vez de agirem para preveni-lo. O que começa como uma busca por uma superarma e controle global arrisca provocar contramedidas hostis e escalar tensões, minando assim a própria estabilidade que a estratégia pretende garantir."
Este documento, redigido por três figuras-chave no setor de IA americano, chega logo após uma comissão congressional dos EUA sugerir uma iniciativa no estilo do "Projeto Manhattan" para financiar o desenvolvimento de AGI, traçando paralelos com o projeto da bomba atômica dos EUA na década de 1940. O Secretário de Energia dos EUA, Chris Wright, declarou recentemente que os EUA estão "no início de um novo Projeto Manhattan" em IA, falando em um local de supercomputadores ao lado do cofundador da OpenAI, Greg Brockman.
O documento Estratégia de Superinteligência desafia a recente pressão de vários líderes políticos e industriais americanos que acreditam que um programa de AGI apoiado pelo governo é a melhor maneira de acompanhar a China.
Schmidt, Wang e Hendrycks veem os EUA em uma situação semelhante a um impasse sobre AGI, similar ao conceito de destruição mutuamente assegurada. Assim como as nações evitam monopolizar armas nucleares para prevenir ataques preemptivos, os autores sugerem que os EUA devem ser cautelosos ao buscar dominar sistemas de IA altamente avançados.
Embora comparar IA a armas nucleares possa parecer exagerado, líderes globais já veem a IA como um ativo militar crucial. O Pentágono observou que a IA está acelerando a cadeia de eliminação militar.
Os autores introduzem a ideia de Mau Funcionamento Mutuamente Assegurado de IA (MAIM), onde governos podem tomar ações preemptivas para desativar projetos de IA ameaçadores em vez de esperar que adversários weaponizem AGI.
Schmidt, Wang e Hendrycks recomendam que os EUA mudem seu foco de "vencer a corrida para a superinteligência" para desenvolver métodos para dissuadir outros países de criar IA superinteligente. Eles sugerem que o governo deveria "expandir seu arsenal de ciberataques para desativar projetos de IA ameaçadores" controlados por outras nações e restringir o acesso de adversários a chips de IA avançados e modelos de código aberto.
O documento destaca uma divisão na comunidade de políticas de IA entre os "catastrofistas", que acreditam que resultados catastróficos de IA são inevitáveis e defendem a desaceleração do progresso da IA, e os "avestruzes", que pressionam por acelerar o desenvolvimento de IA e esperam pelo melhor.
Os autores propõem um terceiro caminho: uma abordagem cautelosa ao desenvolvimento de AGI que enfatiza estratégias defensivas.
Essa postura é particularmente notável vinda de Schmidt, que anteriormente destacou a necessidade dos EUA competirem agressivamente com a China no desenvolvimento de IA. Apenas meses atrás, Schmidt escreveu um artigo de opinião afirmando que o DeepSeek marcou um momento crucial na corrida de IA entre EUA e China.
Apesar da determinação do governo Trump em avançar o desenvolvimento de IA da América, os coautores lembram que as decisões dos EUA sobre AGI têm implicações globais.
Enquanto o mundo observa o avanço da América em IA, Schmidt e seus coautores sugerem que uma estratégia mais defensiva pode ser a escolha mais sábia.
Artigo relacionado
Organização sem fins lucrativos utiliza agentes de IA para aumentar os esforços de arrecadação de fundos para instituições de caridade
Enquanto as grandes corporações de tecnologia promovem "agentes" de IA como impulsionadores de produtividade para as empresas, uma organização sem fins lucrativos está demonstrando seu potencial para
Os principais laboratórios de IA alertam que a humanidade está perdendo o controle sobre a compreensão dos sistemas de IA
Em uma demonstração de união sem precedentes, pesquisadores da OpenAI, Google DeepMind, Anthropic e Meta deixaram de lado as diferenças competitivas para emitir um alerta coletivo sobre o desenvolvime
A AGI está pronta para revolucionar o pensamento humano com um avanço na linguagem universal
O surgimento da Inteligência Artificial Geral apresenta um potencial transformador para remodelar a comunicação humana por meio da criação de uma estrutura de linguagem universal. Diferentemente dos s
Comentários (28)
0/200
WillieLee
23 de Agosto de 2025 à25 02:01:25 WEST
Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the AI race, right? 🐢
0
PaulLewis
28 de Julho de 2025 à30 02:19:30 WEST
Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔
0
PeterRodriguez
23 de Julho de 2025 à47 05:59:47 WEST
Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?
0
BruceSmith
20 de Abril de 2025 à22 18:32:22 WEST
La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔
0
MichaelDavis
18 de Abril de 2025 à8 19:29:08 WEST
A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚
0
MiaDavis
18 de Abril de 2025 à42 17:24:42 WEST
에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚
0
Em um documento de política divulgado na quarta-feira, o ex-CEO do Google, Eric Schmidt, junto com o CEO da Scale AI, Alexandr Wang, e o Diretor do Centro para Segurança de IA, Dan Hendrycks, desaconselharam os EUA a lançarem uma iniciativa no estilo do Projeto Manhattan para desenvolver sistemas de IA com inteligência "sobre-humana", comumente referida como AGI.
Intitulado "Estratégia de Superinteligência", o documento alerta que um esforço dos EUA para monopolizar a IA superinteligente poderia provocar uma forte resposta da China, possivelmente na forma de um ciberataque, o que poderia perturbar as relações globais.
Os coautores argumentam: "Um Projeto Manhattan para AGI assume que os rivais aceitarão um desequilíbrio duradouro ou um omnicídio em vez de agirem para preveni-lo. O que começa como uma busca por uma superarma e controle global arrisca provocar contramedidas hostis e escalar tensões, minando assim a própria estabilidade que a estratégia pretende garantir."
Este documento, redigido por três figuras-chave no setor de IA americano, chega logo após uma comissão congressional dos EUA sugerir uma iniciativa no estilo do "Projeto Manhattan" para financiar o desenvolvimento de AGI, traçando paralelos com o projeto da bomba atômica dos EUA na década de 1940. O Secretário de Energia dos EUA, Chris Wright, declarou recentemente que os EUA estão "no início de um novo Projeto Manhattan" em IA, falando em um local de supercomputadores ao lado do cofundador da OpenAI, Greg Brockman.
O documento Estratégia de Superinteligência desafia a recente pressão de vários líderes políticos e industriais americanos que acreditam que um programa de AGI apoiado pelo governo é a melhor maneira de acompanhar a China.
Schmidt, Wang e Hendrycks veem os EUA em uma situação semelhante a um impasse sobre AGI, similar ao conceito de destruição mutuamente assegurada. Assim como as nações evitam monopolizar armas nucleares para prevenir ataques preemptivos, os autores sugerem que os EUA devem ser cautelosos ao buscar dominar sistemas de IA altamente avançados.
Embora comparar IA a armas nucleares possa parecer exagerado, líderes globais já veem a IA como um ativo militar crucial. O Pentágono observou que a IA está acelerando a cadeia de eliminação militar.
Os autores introduzem a ideia de Mau Funcionamento Mutuamente Assegurado de IA (MAIM), onde governos podem tomar ações preemptivas para desativar projetos de IA ameaçadores em vez de esperar que adversários weaponizem AGI.
Schmidt, Wang e Hendrycks recomendam que os EUA mudem seu foco de "vencer a corrida para a superinteligência" para desenvolver métodos para dissuadir outros países de criar IA superinteligente. Eles sugerem que o governo deveria "expandir seu arsenal de ciberataques para desativar projetos de IA ameaçadores" controlados por outras nações e restringir o acesso de adversários a chips de IA avançados e modelos de código aberto.
O documento destaca uma divisão na comunidade de políticas de IA entre os "catastrofistas", que acreditam que resultados catastróficos de IA são inevitáveis e defendem a desaceleração do progresso da IA, e os "avestruzes", que pressionam por acelerar o desenvolvimento de IA e esperam pelo melhor.
Os autores propõem um terceiro caminho: uma abordagem cautelosa ao desenvolvimento de AGI que enfatiza estratégias defensivas.
Essa postura é particularmente notável vinda de Schmidt, que anteriormente destacou a necessidade dos EUA competirem agressivamente com a China no desenvolvimento de IA. Apenas meses atrás, Schmidt escreveu um artigo de opinião afirmando que o DeepSeek marcou um momento crucial na corrida de IA entre EUA e China.
Apesar da determinação do governo Trump em avançar o desenvolvimento de IA da América, os coautores lembram que as decisões dos EUA sobre AGI têm implicações globais.
Enquanto o mundo observa o avanço da América em IA, Schmidt e seus coautores sugerem que uma estratégia mais defensiva pode ser a escolha mais sábia.



Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the AI race, right? 🐢




Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔




Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?




La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔




A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚




에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚












