O papel de segurança AGI do DeepMind não balança os céticos

Na quarta-feira, o Google DeepMind publicou um extenso artigo de 145 páginas explorando profundamente sua abordagem à segurança de AGI. AGI, ou inteligência geral artificial, é o tipo de IA que pode realizar qualquer tarefa que um humano pode, e é um tema quente no mundo da IA. Alguns acham que é apenas uma fantasia, enquanto outros, como os grandes nomes da Anthropic, acreditam que está logo ali na esquina e pode causar sérios problemas se não tivermos medidas de segurança adequadas.
O artigo da DeepMind, escrito com a ajuda do cofundador Shane Legg, estima que a AGI pode aparecer até 2030 e poderia levar ao que eles chamam de "dano severo". Eles não detalham exatamente, mas usam frases assustadoras como "riscos existenciais" que poderiam "destruir permanentemente a humanidade".
"Estamos apostando em ver uma AGI Excepcional antes do fim desta década", notam os autores. "Uma AGI Excepcional é um sistema que pode igualar as habilidades dos 1% melhores adultos em várias tarefas não físicas, incluindo coisas complicadas como aprender novas habilidades."
Logo no início, o artigo compara a abordagem da DeepMind para lidar com o risco de AGI com a da Anthropic e da OpenAI. Diz que a Anthropic não é tão focada em "treinamento robusto, monitoramento e segurança", enquanto a OpenAI é toda sobre "automatizar" um tipo de pesquisa de segurança de IA chamada pesquisa de alinhamento.
O artigo também critica a ideia de IA superinteligente — IA que é melhor em tarefas do que qualquer humano. (A OpenAI recentemente disse que está mudando seu foco de AGI para superinteligência.) Sem grandes avanços novos, os autores da DeepMind não acreditam que sistemas superinteligentes estejam chegando tão cedo — ou talvez nunca.
Mas eles acreditam que é possível que nossos métodos atuais possam levar a uma "melhoria recursiva de IA", onde a IA faz sua própria pesquisa de IA para criar sistemas ainda mais inteligentes. E isso, eles alertam, pode ser extremamente perigoso.
No geral, o artigo sugere que precisamos desenvolver maneiras de manter atores mal-intencionados longe da AGI, entender melhor o que os sistemas de IA estão fazendo e tornar os ambientes onde a IA opera mais seguros. Eles admitem que muitas dessas ideias ainda estão em estágios iniciais e têm "problemas de pesquisa abertos", mas pedem que não ignoremos os problemas de segurança que podem estar a caminho.
"A AGI pode trazer benefícios incríveis ou danos sérios", apontam os autores. "Portanto, para construir a AGI da maneira certa, é crucial que os principais desenvolvedores de IA planejem com antecedência e enfrentem esses grandes riscos."
Nem todos concordam com as ideias do artigo, no entanto.
Heidy Khlaaf, cientista-chefe de IA do AI Now Institute, disse ao TechCrunch que acha que a AGI é um conceito muito vago para ser "avaliado cientificamente com rigor". Outro pesquisador de IA, Matthew Guzdial, da Universidade de Alberta, disse que não está convencido de que a melhoria recursiva de IA seja viável agora.
"A melhoria recursiva é a base dos argumentos da singularidade de inteligência", disse Guzdial ao TechCrunch, "mas nunca vimos nenhuma evidência de que isso realmente funciona."
Sandra Wachter, que estuda tecnologia e regulamentação em Oxford, aponta uma preocupação mais urgente: a IA reforçando a si mesma com "saídas imprecisas".
"Com cada vez mais conteúdo gerado por IA online e dados reais sendo substituídos, os modelos estão aprendendo com suas próprias saídas cheias de imprecisões ou alucinações", ela disse ao TechCrunch. "Como os chatbots são usados principalmente para buscar e encontrar a verdade, estamos sempre em risco de receber informações falsas apresentadas de forma muito convincente."
Por mais completo que seja, o artigo da DeepMind provavelmente não encerrará os debates sobre quão provável a AGI realmente é — e quais questões de segurança de IA precisam de mais atenção agora.
Artigo relacionado
A AGI está pronta para revolucionar o pensamento humano com um avanço na linguagem universal
O surgimento da Inteligência Artificial Geral apresenta um potencial transformador para remodelar a comunicação humana por meio da criação de uma estrutura de linguagem universal. Diferentemente dos s
OpenAI Reafirma Raízes Sem Fins Lucrativos em Grande Reestruturação Corporativa
OpenAI permanece firme em sua missão sem fins lucrativos enquanto passa por uma reestruturação corporativa significativa, equilibrando crescimento com seu compromisso com o desenvolvimento ético de IA
Google Lança Modelo de IA Gemini em Dispositivo para Robôs
Google DeepMind Revela Gemini Robotics On-Device para Controle de Robôs OfflineGoogle DeepMind acaba de lançar uma atualização empolgante no espaço da robótica—Gemini Robotics On-Device, um novo model
Comentários (49)
0/200
DouglasMitchell
4 de Setembro de 2025 à32 07:30:32 WEST
Este artículo sobre seguridad en AGI es interesante, pero me pregunto si realmente podemos confiar en las grandes empresas tecnológicas para autorregularse. 🤨 DeepMind habla de seguridad, pero al final todo se reduce a ganancias y competencia. ¿Será solo otro documento para calmar a los reguladores?
0
DanielPerez
28 de Agosto de 2025 à33 00:01:33 WEST
This paper's a beast, but I'm not sold on DeepMind's AGI safety promises. Feels like they're hyping it up without tackling the real ethical mess. Anyone else think it's just fancy PR? 🤔
0
CarlPerez
11 de Agosto de 2025 à0 00:01:00 WEST
This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!
0
ArthurYoung
9 de Agosto de 2025 à59 12:00:59 WEST
DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔
0
GregoryRodriguez
22 de Abril de 2025 à8 16:58:08 WEST
DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.
0
GeorgeJones
20 de Abril de 2025 à58 13:35:58 WEST
DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.
0
Na quarta-feira, o Google DeepMind publicou um extenso artigo de 145 páginas explorando profundamente sua abordagem à segurança de AGI. AGI, ou inteligência geral artificial, é o tipo de IA que pode realizar qualquer tarefa que um humano pode, e é um tema quente no mundo da IA. Alguns acham que é apenas uma fantasia, enquanto outros, como os grandes nomes da Anthropic, acreditam que está logo ali na esquina e pode causar sérios problemas se não tivermos medidas de segurança adequadas.
O artigo da DeepMind, escrito com a ajuda do cofundador Shane Legg, estima que a AGI pode aparecer até 2030 e poderia levar ao que eles chamam de "dano severo". Eles não detalham exatamente, mas usam frases assustadoras como "riscos existenciais" que poderiam "destruir permanentemente a humanidade".
"Estamos apostando em ver uma AGI Excepcional antes do fim desta década", notam os autores. "Uma AGI Excepcional é um sistema que pode igualar as habilidades dos 1% melhores adultos em várias tarefas não físicas, incluindo coisas complicadas como aprender novas habilidades."
Logo no início, o artigo compara a abordagem da DeepMind para lidar com o risco de AGI com a da Anthropic e da OpenAI. Diz que a Anthropic não é tão focada em "treinamento robusto, monitoramento e segurança", enquanto a OpenAI é toda sobre "automatizar" um tipo de pesquisa de segurança de IA chamada pesquisa de alinhamento.
O artigo também critica a ideia de IA superinteligente — IA que é melhor em tarefas do que qualquer humano. (A OpenAI recentemente disse que está mudando seu foco de AGI para superinteligência.) Sem grandes avanços novos, os autores da DeepMind não acreditam que sistemas superinteligentes estejam chegando tão cedo — ou talvez nunca.
Mas eles acreditam que é possível que nossos métodos atuais possam levar a uma "melhoria recursiva de IA", onde a IA faz sua própria pesquisa de IA para criar sistemas ainda mais inteligentes. E isso, eles alertam, pode ser extremamente perigoso.
No geral, o artigo sugere que precisamos desenvolver maneiras de manter atores mal-intencionados longe da AGI, entender melhor o que os sistemas de IA estão fazendo e tornar os ambientes onde a IA opera mais seguros. Eles admitem que muitas dessas ideias ainda estão em estágios iniciais e têm "problemas de pesquisa abertos", mas pedem que não ignoremos os problemas de segurança que podem estar a caminho.
"A AGI pode trazer benefícios incríveis ou danos sérios", apontam os autores. "Portanto, para construir a AGI da maneira certa, é crucial que os principais desenvolvedores de IA planejem com antecedência e enfrentem esses grandes riscos."
Nem todos concordam com as ideias do artigo, no entanto.
Heidy Khlaaf, cientista-chefe de IA do AI Now Institute, disse ao TechCrunch que acha que a AGI é um conceito muito vago para ser "avaliado cientificamente com rigor". Outro pesquisador de IA, Matthew Guzdial, da Universidade de Alberta, disse que não está convencido de que a melhoria recursiva de IA seja viável agora.
"A melhoria recursiva é a base dos argumentos da singularidade de inteligência", disse Guzdial ao TechCrunch, "mas nunca vimos nenhuma evidência de que isso realmente funciona."
Sandra Wachter, que estuda tecnologia e regulamentação em Oxford, aponta uma preocupação mais urgente: a IA reforçando a si mesma com "saídas imprecisas".
"Com cada vez mais conteúdo gerado por IA online e dados reais sendo substituídos, os modelos estão aprendendo com suas próprias saídas cheias de imprecisões ou alucinações", ela disse ao TechCrunch. "Como os chatbots são usados principalmente para buscar e encontrar a verdade, estamos sempre em risco de receber informações falsas apresentadas de forma muito convincente."
Por mais completo que seja, o artigo da DeepMind provavelmente não encerrará os debates sobre quão provável a AGI realmente é — e quais questões de segurança de IA precisam de mais atenção agora.


Este artículo sobre seguridad en AGI es interesante, pero me pregunto si realmente podemos confiar en las grandes empresas tecnológicas para autorregularse. 🤨 DeepMind habla de seguridad, pero al final todo se reduce a ganancias y competencia. ¿Será solo otro documento para calmar a los reguladores?




This paper's a beast, but I'm not sold on DeepMind's AGI safety promises. Feels like they're hyping it up without tackling the real ethical mess. Anyone else think it's just fancy PR? 🤔




This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!




DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔




DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.




DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.












