DeepMinds AGI -Sicherheitspapier beeinflusst Skeptiker nicht
10. April 2025
KevinBrown
33

Am Mittwoch ließ Google DeepMind ein kräftiges 145-seitiges Papier fallen, die tief in ihre Herangehensweise an die AGI-Sicherheit eintauchten. Agi oder künstliche allgemeine Intelligenz ist die Art von KI, die jede Aufgabe, die ein Mensch kann, in Angriff nehmen kann, und es ist ein heißes Thema in der KI -Welt. Einige Leute denken, es sei nur eine Fantasie, während andere, wie die großen Aufnahmen bei Anthropic, glauben, dass es direkt in der Kurve ist und ernsthafte Probleme verursachen könnte, wenn wir unsere Sicherheitsmaßnahmen nicht in Schach bekommen. DeepMinds Papier, die mit Hilfe von Shane Legg, Mitbegründerin Shane Legg, geschrieben wurde, richtet sich, dass Agi bis 2030 auftauchen könnte und zu dem führen könnte, was sie als "schweren Schaden" bezeichnen. Sie buchstabieren es nicht genau, aber sie werfen beängstigende Phrasen wie "existenzielle Risiken" herum, die "die Menschheit dauerhaft zerstören" könnten. "Wir setzen darauf, vor diesem Jahrzehnt eine außergewöhnliche AGI zu sehen", so die Autoren. "Eine außergewöhnliche AGI ist ein System, das den Fähigkeiten der Top-1% der Erwachsenen bei einer Reihe nicht-physischer Aufgaben entsprechen kann, einschließlich kniffliger Dinge wie dem Erlernen neuer Fähigkeiten." Von Anfang an vergleicht das Papier DeepMinds Art und Weise, mit dem AGI -Risiko umzugehen, wie anthropisch und openai dies tun. Es heißt, Anthropic ist nicht so groß in Bezug auf "robustes Training, Überwachung und Sicherheit", während OpenAI alles über die "Automatisierung" einer Art von KI -Sicherheitsforschung namens Alignment Research geht. Das Papier verleiht der Idee der Superintelligent AI auch einen Schatten - KI, der besser in Jobs als jeder andere Menschen ist. (OpenAI sagte kürzlich, dass sie ihren Fokus von Agi auf die Superintelligenz verlagern.) Ohne einige große neue Durchbrüche kaufen die Autoren von DeepMind nicht, dass Superintelligent -Systeme bald - oder vielleicht jemals. Sie denken jedoch, dass es möglich ist, dass unsere aktuellen Methoden zu einer "rekursiven KI -Verbesserung" führen können, wobei KI ihre eigene KI -Forschung durchführt, um noch schlauer KI -Systeme zu erstellen. Und das, warnen sie, könnte super gefährlich sein. Insgesamt schlägt das Papier vor, Wege zu entwickeln, um schlechte Akteure von AGI fernzuhalten, besser zu verstehen, welche KI -Systeme vorhanden sind, und die Umgebungen, in denen KI sicherer ist, sicherer zu machen. Sie geben zu, dass viele dieser Ideen noch im frühen Stadium stehen und "offene Forschungsprobleme" haben, aber sie fordern uns auf, die Sicherheitsprobleme, die auf uns zukommen könnten, nicht zu ignorieren. "AGI könnte erstaunliche Vorteile oder schwerwiegende Schäden bringen", betonen die Autoren. "Um Agi auf die richtige Weise aufzubauen, ist es für die Top -KI -Entwickler von entscheidender Bedeutung, im Voraus zu planen und diese großen Risiken anzugehen." Nicht jeder ist mit den Ideen der Zeitung an Bord. Heidy Khlaaf, die Chef -AI -Wissenschaftlerin am Nonprofit AI Now Institute, sagte TechCrunch, sie halte AGI für zu verschwommen ein Konzept, um "wissenschaftlich streng bewertet" zu werden. Ein anderer KI -Forscher, Matthew Guzdial von der University of Alberta, sagte, er sei nicht überzeugt, dass rekursive KI -Verbesserungen momentan machbar sei. "Rekursive Verbesserung ist das, worauf die Argumente für die Singularität der Intelligenz basieren", sagte Guzdial gegenüber TechCrunch, "aber wir haben noch nie Beweise dafür gesehen, dass es tatsächlich funktioniert." Sandra Wachter, der in Oxford Tech und Regulierung untersucht, weist auf eine dringlichere Sorge hin: KI verstärkt sich mit "ungenauen Ausgaben". "Wenn immer mehr Ai-generierte Inhalte online und echte Daten ersetzt werden, lernen Modelle aus ihren eigenen Ausgaben, die voller Ungenauigkeiten oder Halluzinationen sind", sagte sie gegenüber TechCrunch. "Da Chatbots hauptsächlich zum Suchen und Finden der Wahrheit verwendet werden, haben wir immer die Gefahr, falsche Informationen zu erhalten, die auf sehr überzeugende Weise präsentiert werden." So gründlich es auch ist, DeepMinds Papier wird die Debatten wahrscheinlich nicht beenden, wie wahrscheinlich AGI wirklich ist - und welche KI -Sicherheitsprobleme derzeit die größte Aufmerksamkeit benötigen.
Verwandter Artikel
OpenAI -Streik zurück: verklagt Elon Musk wegen mutmaßlicher Bemühungen, den AI -Konkurrenten zu untergraben
OpenAI hat einen heftigen Rechtsangriff gegen seinen Mitbegründer Elon Musk und seine konkurrierende KI-Firma XAI gestartet. In einer dramatischen Eskalation ihrer anhaltenden Fehde beschuldigt OpenAI Musk, eine "unerbittliche" und "bösartige" Kampagne durchzuführen, um das Unternehmen zu untergraben, das er beibehalten hat. Nach Gericht d
Gesetz der Beschleunigung von Renditen erklärt: Weg zur AGI -Entwicklung
In einem kürzlichen Interview teilte Elon Musk seine optimistische Sicht auf die Zeitleiste für den Aufkommen der künstlichen allgemeinen Intelligenz (AGI) mit und erklärte, dass es sobald *„3 bis 6 Jahre“ *sein könnte. In ähnlicher Weise drückte Demis Hassabis, CEO von Google's DeepMind, in der Zukunft des Wall Street Journal von allem Fest aus
Google glaubt, dass KI die Bürokratie von Electrical Grid vereinfachen kann
Die Tech -Welt summt sich über eine potenzielle Stromkrise, die durch die springende Nachfrage der KI angeheizt wird. Inmitten dieser Sorge gibt es jedoch einen Hoffnungsschimmer: Eine große Menge an neuer Leistungskapazität, gemessen in Terawatts, wartet nur darauf, mit dem Netz verbunden zu sein. Der Schlüssel? Durch das durchschneiden
Kommentare (45)
0/200
DouglasHarris
10. April 2025 08:10:06 GMT
DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!
0
WilliamYoung
10. April 2025 08:10:06 GMT
ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!
0
SamuelEvans
10. April 2025 08:10:06 GMT
딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!
0
NicholasThomas
10. April 2025 08:10:06 GMT
O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!
0
KennethJones
10. April 2025 08:10:06 GMT
¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!
0
JoseAdams
10. April 2025 11:27:37 GMT
DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!
0









DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!




ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!




딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!




O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!




¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!




DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!












