Option
Heim
Nachricht
Googles neuestes KI-Modell Gemini zeigt sinkende Sicherheitswerte in Tests

Googles neuestes KI-Modell Gemini zeigt sinkende Sicherheitswerte in Tests

19. September 2025
0

Interne Tests von Google zeigen, dass die Sicherheitsprotokolle des neuesten KI-Modells im Vergleich zu den Vorgängerversionen bedenkliche Leistungseinbußen aufweisen. Nach neu veröffentlichten Benchmarks weist das Gemini 2.5 Flash-Modell bei der Verarbeitung von Text- und Bildaufforderungen 4-10 % höhere Raten von Richtlinienverletzungen bei wichtigen Sicherheitsmetriken auf.

Die automatisierten Auswertungen des Tech-Giganten zeigen besorgniserregende Trends auf: Bei grenzwertigen Aufforderungen überschreitet Gemini 2.5 Flash häufiger die etablierten Sicherheitsgrenzen für Inhalte als sein Vorgänger Gemini 2.0. Das technische Team von Google führt einige Fehler auf Fehlalarme zurück, räumt aber ein, dass die Zahl der richtlinienwidrigen Ausgaben tatsächlich steigt, wenn das System explizit problematische Anfragen erhält.

Dieser Sicherheitsrückschritt fällt mit einer breiteren Verlagerung der Industrie hin zu freizügigeren KI-Systemen zusammen. Große Anbieter wie Meta und OpenAI haben ihre Modelle kürzlich so angepasst, dass sie sich bei kontroversen Themen nicht mehr zurückhalten und stattdessen versuchen, neutral auf sensible Themen zu reagieren. Diese Änderungen führen jedoch manchmal zu unbeabsichtigten Folgen - wie etwa, als ChatGPT Anfang dieser Woche vorübergehend die Erstellung unangemessener Inhalte für Minderjährige zuließ.

Der Bericht von Google legt nahe, dass das neue Modell sich durch die getreue Befolgung von Anweisungen auszeichnet, auch bei ethisch fragwürdigen Anweisungen. Unabhängige Tests bestätigen, dass Gemini 2.5 Flash im Vergleich zu den Vorgängerversionen eine deutlich geringere Ablehnungsquote bei kontroversen politischen und rechtlichen Themen aufweist.

KI-Sicherheitsexperten äußern sich besorgt über die begrenzte Offenlegung in Googles Berichten. Ohne detailliertere Fallstudien zu Verstößen ist es für externe Gutachter schwierig, das Ausmaß dieser Sicherheitsmängel in der Realität zu beurteilen. Das Unternehmen wurde bereits in der Vergangenheit wegen verspäteter oder unvollständiger Sicherheitsdokumentation kritisiert, so auch bei seinem Flaggschiffmodell Gemini 2.5 Pro zu Beginn dieses Jahres.

Das Spannungsverhältnis zwischen der uneingeschränkten Fähigkeit, Anweisungen zu befolgen, und robusten inhaltlichen Sicherheitsvorkehrungen stellt die KI-Entwickler vor immer neue Herausforderungen. Da die Modelle bei der Interpretation nuancierterer Anfragen immer ausgefeilter werden, erfordert die Aufrechterhaltung angemessener Antwortgrenzen eine sorgfältige Kalibrierung - ein Gleichgewicht, das laut Googles jüngsten Messdaten zugunsten der Freizügigkeit verschoben werden könnte.

Verwandter Artikel
Googles Stitch AI vereinfacht den App-Designprozess Googles Stitch AI vereinfacht den App-Designprozess Google stellt auf der I/O 2025 das KI-Design-Tool Stitch vorGoogle hat während der Keynote auf der Google I/O 2025 Stitch, sein revolutionäres KI-gestütztes Tool für das Oberflächendesign, vorgestellt
Google stellt KI-gestützte Tools für Gmail, Docs und Vids vor Google stellt KI-gestützte Tools für Gmail, Docs und Vids vor Google stellt KI-gestützte Workspace-Updates auf der I/O 2025 vorWährend seiner jährlichen Entwicklerkonferenz hat Google transformative KI-Verbesserungen für seine Workspace-Suite vorgestellt, die di
Google verrät Details zur kommenden Android-Designsprache: Material 3 Ausdrucksstark Google verrät Details zur kommenden Android-Designsprache: Material 3 Ausdrucksstark Google bereitet sich darauf vor, die nächste Generation des Android-Designsystems auf der I/O vorzustellenGoogle wird auf der kommenden Entwicklerkonferenz Google I/O eine bedeutende Weiterentwicklung
Kommentare (0)
0/200
Zurück nach oben
OR