Option
Heim
Nachricht
DeepMinds AGI -Sicherheitspapier beeinflusst Skeptiker nicht

DeepMinds AGI -Sicherheitspapier beeinflusst Skeptiker nicht

10. April 2025
116

DeepMinds AGI -Sicherheitspapier beeinflusst Skeptiker nicht

Am Mittwoch veröffentlichte Google DeepMind ein umfangreiches 145-seitiges Papier, das sich intensiv mit ihrem Ansatz zur Sicherheit von AGI beschäftigt. AGI, oder künstliche allgemeine Intelligenz, ist die Art von KI, die jede Aufgabe bewältigen kann, die auch ein Mensch bewältigen kann, und ist ein heißes Thema in der KI-Welt. Manche halten es für pure Fantasie, während andere, wie die führenden Köpfe bei Anthropic, glauben, dass es kurz bevorsteht und ernsthafte Probleme verursachen könnte, wenn wir unsere Sicherheitsmaßnahmen nicht im Griff haben.

Das Papier von DeepMind, verfasst mit Unterstützung des Mitgründers Shane Legg, geht davon aus, dass AGI bis 2030 auftauchen könnte und zu dem führen könnte, was sie als „schweren Schaden“ bezeichnen. Sie spezifizieren es nicht genau, verwenden aber beängstigende Begriffe wie „existenzielle Risiken“, die die Menschheit „dauerhaft zerstören“ könnten.

„Wir setzen darauf, dass wir vor Ende dieses Jahrzehnts eine außergewöhnliche AGI sehen werden“, stellen die Autoren fest. „Eine außergewöhnliche AGI ist ein System, das die Fähigkeiten der besten 1 % der Erwachsenen bei einer Vielzahl nicht-physischer Aufgaben erreichen kann, einschließlich kniffliger Dinge wie dem Erlernen neuer Fähigkeiten.“

Gleich zu Beginn vergleicht das Papier DeepMinds Ansatz zur Bewältigung von AGI-Risiken mit dem von Anthropic und OpenAI. Es heißt, Anthropic setze nicht so stark auf „robuste Schulung, Überwachung und Sicherheit“, während OpenAI darauf fokussiert sei, eine Art von KI-Sicherheitsforschung namens „Alignment-Forschung“ zu „automatisieren“.

Das Papier übt auch Kritik an der Idee einer superintelligenten KI — einer KI, die besser in Berufen ist als jeder Mensch. (OpenAI hat kürzlich erklärt, ihren Fokus von AGI auf Superintelligenz zu verlagern.) Ohne große neue Durchbrüche glauben die Autoren von DeepMind nicht, dass superintelligente Systeme bald kommen — oder vielleicht jemals.

Sie halten es jedoch für möglich, dass unsere aktuellen Methoden zu einer „rekursiven KI-Verbesserung“ führen könnten, bei der KI ihre eigene KI-Forschung betreibt, um noch intelligentere KI-Systeme zu entwickeln. Und das, warnen sie, könnte extrem gefährlich sein.

Insgesamt schlägt das Papier vor, dass wir Wege entwickeln müssen, um böswillige Akteure von AGI fernzuhalten, besser zu verstehen, was KI-Systeme tun, und die Umgebungen, in denen KI operiert, sicherer zu machen. Sie geben zu, dass viele dieser Ideen noch in den Anfängen stecken und „offene Forschungsprobleme“ aufweisen, fordern aber dazu auf, die Sicherheitsfragen, die auf uns zukommen könnten, nicht zu ignorieren.

„AGI könnte erstaunliche Vorteile oder schweren Schaden bringen“, betonen die Autoren. „Um AGI richtig zu entwickeln, ist es entscheidend, dass die führenden KI-Entwickler vorausplanen und diese großen Risiken angehen.“

Nicht jeder teilt die Ideen des Papiers.

Heidy Khlaaf, die leitende KI-Wissenschaftlerin am gemeinnützigen AI Now Institute, sagte gegenüber TechCrunch, sie halte AGI für ein zu vages Konzept, um „wissenschaftlich rigoros bewertet“ zu werden. Ein anderer KI-Forscher, Matthew Guzdial von der University of Alberta, erklärte, er sei nicht überzeugt, dass rekursive KI-Verbesserung derzeit machbar sei.

„Rekursive Verbesserung ist die Grundlage für die Argumente zur Intelligenz-Singularität“, sagte Guzdial gegenüber TechCrunch, „aber wir haben noch nie Beweise dafür gesehen, dass sie tatsächlich funktioniert.“

Sandra Wachter, die Technologie und Regulierung an der Universität Oxford untersucht, weist auf eine dringlichere Sorge hin: KI, die sich selbst mit „ungenauen Ausgaben“ verstärkt.

„Mit immer mehr KI-generierten Inhalten online und echten Daten, die ersetzt werden, lernen Modelle aus ihren eigenen Ausgaben, die voller Ungenauigkeiten oder Halluzinationen sind“, sagte sie gegenüber TechCrunch. „Da Chatbots hauptsächlich zum Suchen und Finden der Wahrheit verwendet werden, besteht immer die Gefahr, dass uns falsche Informationen geliefert werden, die sehr überzeugend präsentiert werden.“

So gründlich es auch ist, das Papier von DeepMind wird wahrscheinlich die Debatten darüber, wie wahrscheinlich AGI wirklich ist — und welche KI-Sicherheitsfragen derzeit am dringendsten Aufmerksamkeit benötigen — nicht beenden.

Verwandter Artikel
OpenAI bekräftigt gemeinnützige Wurzeln in großer Unternehmensumstrukturierung OpenAI bekräftigt gemeinnützige Wurzeln in großer Unternehmensumstrukturierung OpenAI bleibt seiner gemeinnützigen Mission treu, während es eine bedeutende Unternehmensumstrukturierung durchläuft und Wachstum mit dem Engagement für ethische KI-Entwicklung in Einklang bringt.CEO
Google Startet Geräteinterne Gemini AI-Modell für Roboter Google Startet Geräteinterne Gemini AI-Modell für Roboter Google DeepMind Enthüllt Gemini Robotics On-Device für Offline-RobotersteuerungGoogle DeepMind hat gerade ein aufregendes Update im Bereich Robotik veröffentlicht—Gemini Robotics On-Device, ein neues
Neue Studie enthüllt, wie viel Daten LLMs tatsächlich speichern Neue Studie enthüllt, wie viel Daten LLMs tatsächlich speichern Wie viel speichern AI-Modelle tatsächlich? Neue Forschung enthüllt überraschende ErkenntnisseWir alle wissen, dass große Sprachmodelle (LLMs) wie ChatGPT, Claude und Gemini auf riesigen Datensätzen tr
Kommentare (47)
0/200
CarlPerez
CarlPerez 11. August 2025 01:01:00 MESZ

This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!

ArthurYoung
ArthurYoung 9. August 2025 13:00:59 MESZ

DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔

GregoryRodriguez
GregoryRodriguez 22. April 2025 17:58:08 MESZ

DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.

GeorgeJones
GeorgeJones 20. April 2025 14:35:58 MESZ

DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.

CharlesLee
CharlesLee 18. April 2025 17:24:35 MESZ

O artigo de segurança de AGI da DeepMind? Honestamente, não me convenceu em nada 🤔. 145 páginas e ainda estou cético. AGI parece ficção científica para mim, mas, ei, se eles conseguirem torná-lo seguro, estou a favor! Talvez na próxima eles tenham algo mais sólido.

CarlTaylor
CarlTaylor 18. April 2025 08:26:53 MESZ

Tentei ler o papel de segurança de AGI do DeepMind, mas é tão denso! 😵‍💫 Parece que estão tentando nos convencer de que AGI é real, mas ainda não estou convencido. Talvez se tornasse mais digerível, eu ficaria mais convencido. Ainda assim, parabéns pelo esforço!

Zurück nach oben
OR