opção
Lar Notícias O papel de segurança AGI do DeepMind não balança os céticos

O papel de segurança AGI do DeepMind não balança os céticos

Data de lançamento Data de lançamento 10 de Abril de 2025
Autor Autor KevinBrown
visualizações visualizações 33

O papel de segurança AGI do DeepMind não balança os céticos

Na quarta-feira, o Google Deepmind lançou um elegante papel de 145 páginas mergulhando profundamente em sua abordagem à segurança da AGI. AGI, ou inteligência geral artificial, é o tipo de IA que pode enfrentar qualquer tarefa que uma lata humana possa, e é um tópico quente no mundo da IA. Algumas pessoas acham que é apenas uma fantasia, enquanto outras, como as grandes fotos em antropia, acreditam que está ao redor da curva e pode causar alguns problemas sérios se não tivermos nossas medidas de segurança sob controle. O artigo de Deepmind, escrito com a ajuda do co-fundador Shane Legg, calcula que a AGI pode aparecer até 2030 e pode levar ao que eles chamam de "danos severos". Eles não soletram exatamente isso, mas jogam frases assustadoras como "riscos existenciais" que poderiam "destruir permanentemente a humanidade". "Estamos apostando em ver uma AGI excepcional antes da saída desta década", observam os autores. "Uma AGI excepcional é um sistema que pode corresponder às habilidades dos 1% dos adultos em várias tarefas não físicas, incluindo coisas complicadas como aprender novas habilidades". Desde o início, o artigo compara a maneira do DeepMind de lidar com o risco de AGI com a forma como o Antrópico e o Openai o fazem. Ele diz que o Antrópico não é tão grande em "treinamento, monitoramento e segurança robustos", enquanto o OpenAI é "automatizar" um tipo de pesquisa de segurança de IA chamada pesquisa de alinhamento. O jornal também lança um pouco de sombra sobre a idéia de ai superinteligente - ai que é melhor em empregos do que qualquer humano. (O Openai disse recentemente que está mudando de foco da AGI para a Superintelligência.) Sem alguns novos avanços importantes, os autores da DeepMind não estão comprando que os sistemas superinteligentes estão chegando tão cedo - ou talvez nunca. Mas eles acham que é possível que nossos métodos atuais possam levar a "melhorias recursivas de IA", onde a IA faz sua própria pesquisa de IA para fazer sistemas de IA ainda mais inteligentes. E isso, eles advertem, podem ser super perigosos. No geral, o artigo sugere que precisamos desenvolver maneiras de manter os maus atores afastados da AGI, entender melhor o que os sistemas de IA estão fazendo e tornar os ambientes onde a IA opera mais segura. Eles admitem que muitas dessas idéias ainda estão em seus estágios iniciais e têm "problemas de pesquisa aberta", mas nos pedem que não ignorem os problemas de segurança que podem estar chegando em nosso caminho. "A AGI pode trazer benefícios surpreendentes ou danos graves", apontam os autores. "Então, para construir a AGI da maneira certa, é crucial para os principais desenvolvedores de IA planejarem com antecedência e enfrentar esses grandes riscos". Nem todo mundo está a bordo com as idéias do jornal, no entanto. Heidy Khlaaf, cientista -chefe da IA ​​do Instituto AI agora sem fins lucrativos, disse ao TechCrunch que acha que AGI é um conceito muito confuso para ser "rigorosamente avaliado cientificamente". Outro pesquisador de IA, Matthew Guzdial, da Universidade de Alberta, disse que não está convencido de que a melhoria recursiva da IA ​​é factível agora. "A melhoria recursiva é o que os argumentos de singularidade de inteligência se baseiam", disse Guzdial ao TechCrunch, "mas nunca vimos nenhuma evidência de que ele realmente funcione". Sandra Wachter, que estuda tecnologia e regulamentação em Oxford, aponta uma preocupação mais premente: a IA se reforçando com "saídas imprecisas". "Com o conteúdo cada vez mais gerado por IA e dados reais sendo substituídos, os modelos estão aprendendo com seus próprios resultados cheios de imprecisões ou alucinações", disse ela ao TechCrunch. "Como os chatbots são usados ​​principalmente para pesquisar e encontrar a verdade, sempre corremos o risco de serem alimentados com informações falsas apresentadas de uma maneira muito convincente". Por mais completa que seja, o artigo de DeepMind provavelmente não terminará os debates sobre a probabilidade de AGI realmente - e quais problemas de segurança da IA ​​precisam mais de atenção no momento.
Artigo relacionado
OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor OpenAI has launched a fierce legal counterattack against its co-founder, Elon Musk, and his competing AI company, xAI. In a dramatic escalation of their ongoing feud, OpenAI accuses Musk of waging a "relentless" and "malicious" campaign to undermine the company he helped start. According to court d
Law of Accelerating Returns Explained: Pathway to AGI Development Law of Accelerating Returns Explained: Pathway to AGI Development In a recent interview, Elon Musk shared his optimistic view on the timeline for the advent of Artificial General Intelligence (AGI), stating it could be as soon as *“3 to 6 years”*. Similarly, Demis Hassabis, CEO of Google's DeepMind, expressed at The Wall Street Journal’s Future of Everything Festi
Google Believes AI Can Simplify Electrical Grid's Bureaucracy Google Believes AI Can Simplify Electrical Grid's Bureaucracy The tech world is buzzing with concern over a potential power crisis, fueled by the skyrocketing demand from AI. Yet, amidst this worry, there's a glimmer of hope: a massive amount of new power capacity, measured in terawatts, is just waiting to be connected to the grid. The key? Cutting through the
Comentários (45)
0/200
DouglasHarris
DouglasHarris 10 de Abril de 2025 à6 08:10:06 GMT

DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!

WilliamYoung
WilliamYoung 10 de Abril de 2025 à6 08:10:06 GMT

ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!

SamuelEvans
SamuelEvans 10 de Abril de 2025 à6 08:10:06 GMT

딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!

NicholasThomas
NicholasThomas 10 de Abril de 2025 à6 08:10:06 GMT

O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!

KennethJones
KennethJones 10 de Abril de 2025 à6 08:10:06 GMT

¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!

JoseAdams
JoseAdams 10 de Abril de 2025 à37 11:27:37 GMT

DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!

De volta ao topo
OR