Option
Heim
Nachricht
Die Gruppe von Fei-Fei Li fordert die vorbeugende KI-Sicherheitsgesetzgebung auf

Die Gruppe von Fei-Fei Li fordert die vorbeugende KI-Sicherheitsgesetzgebung auf

10. April 2025
124

Die Gruppe von Fei-Fei Li fordert die vorbeugende KI-Sicherheitsgesetzgebung auf

Ein neuer Bericht einer kalifornischen Politikgruppe, geleitet von der KI-Pionierin Fei-Fei Li, schlägt vor, dass Gesetzgeber bei der Erstellung von KI-Regulierungspolitiken auch KI-Risiken berücksichtigen sollten, die in der realen Welt noch nicht aufgetreten sind. Dieser 41-seitige Zwischenbericht, am Dienstag veröffentlicht, stammt von der Joint California Policy Working Group on AI Frontier Models, die von Gouverneur Gavin Newsom eingerichtet wurde, nachdem er das umstrittene kalifornische KI-Sicherheitsgesetz SB 1047 abgelehnt hatte. Newsom war der Ansicht, dass SB 1047 nicht ganz ins Schwarze traf, erkannte jedoch die Notwendigkeit einer tiefergehenden Untersuchung von KI-Risiken, um die Gesetzgeber zu leiten.

In dem Bericht fordern Li, zusammen mit den Mitautoren Jennifer Chayes, Dekanin des College of Computing der UC Berkeley, und Mariano-Florentino Cuéllar, Präsident der Carnegie Endowment for International Peace, Gesetze, die klarer machen, was KI-Labore wie OpenAI tun. Vor der Veröffentlichung des Berichts wurde er von Branchenvertretern aus verschiedenen Bereichen geprüft, darunter starke Befürworter der KI-Sicherheit wie der Turing-Preisträger Yoshua Bengio und Gegner von SB 1047 wie der Databricks-Mitgründer Ion Stoica.

Der Bericht weist darauf hin, dass neue Risiken von KI-Systemen Gesetze erforderlich machen könnten, die Entwickler von KI-Modellen dazu verpflichten, ihre Sicherheitstests, Datenquellen und Sicherheitsmaßnahmen öffentlich zu teilen. Er fordert zudem bessere Standards für unabhängige Überprüfungen dieser Aspekte und Unternehmensrichtlinien sowie mehr Schutz für Mitarbeiter und Auftragnehmer von KI-Unternehmen, die Missstände melden.

Li und ihre Mitautoren erwähnen, dass es noch nicht genügend Beweise für das Potenzial von KI gibt, Cyberangriffe zu unterstützen, biologische Waffen herzustellen oder andere „extreme“ Gefahren zu verursachen. Sie betonen jedoch, dass KI-Politik nicht nur auf aktuelle Ereignisse reagieren sollte, sondern auch zukünftige Risiken berücksichtigen muss, wenn keine ausreichenden Sicherheitsmaßnahmen vorhanden sind.

Der Bericht verwendet das Beispiel einer Atomwaffe und sagt: „Wir müssen keine Atomwaffe explodieren sehen, um zu wissen, dass sie großen Schaden anrichten könnte.“ Er fährt fort: „Wenn diejenigen, die von den schlimmsten Risiken sprechen, recht haben – und wir sind uns nicht sicher, ob sie es sein werden –, dann könnte es sehr kostspielig sein, jetzt nichts in Bezug auf Frontier-KI zu unternehmen.“

Um die Entwicklung von KI-Modellen transparenter zu gestalten, schlägt der Bericht einen „Vertrauen, aber überprüfen“-Ansatz vor. Er besagt, dass KI-Modellentwickler und ihre Mitarbeiter Möglichkeiten haben sollten, über für die Öffentlichkeit relevante Dinge wie interne Sicherheitstests zu berichten, und dass ihre Testaussagen von Dritten überprüft werden müssen.

Obwohl der Bericht, der im Juni 2025 abgeschlossen wird, keine spezifischen Gesetze unterstützt, wurde er von Experten auf beiden Seiten der KI-Politikdebatte positiv aufgenommen.

Dean Ball, ein auf KI fokussierter Forschungsfellow an der George Mason University, der SB 1047 ablehnte, sagte auf X, dass der Bericht ein guter Schritt für die KI-Sicherheitsregeln Kaliforniens sei. Es ist auch ein Erfolg für KI-Sicherheitsbefürworter, laut dem kalifornischen Staatssenator Scott Wiener, der SB 1047 im letzten Jahr eingebracht hatte. Wiener sagte in einer Pressemitteilung, dass der Bericht zu den „dringenden Gesprächen über KI-Governance beiträgt, die wir 2024 im Gesetzgeber begonnen haben.“

Der Bericht stimmt teilweise mit SB 1047 und Wieners nächstem Gesetz, SB 53, überein, wie der Forderung, dass KI-Modellentwickler ihre Sicherheitstestresultate berichten. Insgesamt scheint es ein dringend benötigter Erfolg für KI-Sicherheitsbefürworter zu sein, deren Ideen im vergangenen Jahr an Boden verloren haben.

Verwandter Artikel
Erhöhen Sie die Qualität Ihrer Bilder mit HitPaw AI Photo Enhancer: Ein umfassender Leitfaden Erhöhen Sie die Qualität Ihrer Bilder mit HitPaw AI Photo Enhancer: Ein umfassender Leitfaden Möchten Sie Ihre Bildbearbeitung revolutionieren? Dank modernster künstlicher Intelligenz ist die Verbesserung Ihrer Bilder nun mühelos. Dieser detaillierte Leitfaden stellt den HitPaw AI Photo Enhanc
KI-gestützte Musikerstellung: Songs und Videos mühelos erstellen KI-gestützte Musikerstellung: Songs und Videos mühelos erstellen Musikerstellung kann komplex sein und erfordert Zeit, Ressourcen und Fachwissen. Künstliche Intelligenz hat diesen Prozess revolutioniert und ihn einfach und zugänglich gemacht. Dieser Leitfaden zeigt
Erstellung KI-gestützter Malbücher: Ein umfassender Leitfaden Erstellung KI-gestützter Malbücher: Ein umfassender Leitfaden Das Gestalten von Malbüchern ist ein lohnendes Unterfangen, das künstlerischen Ausdruck mit beruhigenden Erlebnissen für Nutzer verbindet. Der Prozess kann jedoch arbeitsintensiv sein. Glücklicherweis
Kommentare (35)
0/200
MichaelDavis
MichaelDavis 17. April 2025 14:14:46 MESZ

O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅

JasonRoberts
JasonRoberts 16. April 2025 18:17:56 MESZ

¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅

AnthonyJohnson
AnthonyJohnson 16. April 2025 06:13:53 MESZ

El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚

WillieRodriguez
WillieRodriguez 16. April 2025 01:01:01 MESZ

Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚

RalphWalker
RalphWalker 15. April 2025 19:16:25 MESZ

Fei-Fei Li's group is really pushing for proactive AI safety laws, which is great. But man, that 41-page report? A bit much to digest, don't you think? Still, it's important to consider unseen AI risks. Maybe they could've made it a bit more concise? 🤓📚

EricRoberts
EricRoberts 15. April 2025 07:46:36 MESZ

Fei-Fei Li 그룹의 AI 안전 보고서는 눈을 뜨게 하지만, 읽기에는 조금 어려워요. 미래의 위험을 생각하는 것은 중요하지만, 더 읽기 쉽게 만들어졌으면 좋겠어요. 그래도 생각할 거리를 주네요! 🤔

Zurück nach oben
OR