Nach Ansicht von Experten fehlen die neuesten KI -Modellbericht von Google wichtige Sicherheitsdetails, so Experten
Am Donnerstag, Wochen nach der Einführung seines neuesten und fortschrittlichsten KI-Modells, Gemini 2.5 Pro, veröffentlichte Google einen technischen Bericht, der die Ergebnisse seiner internen Sicherheitsbewertungen detailliert beschreibt. Experten haben den Bericht jedoch für seinen Mangel an Details kritisiert, was es schwierig macht, die potenziellen Risiken, die mit dem Modell verbunden sind, vollständig zu verstehen.
Technische Berichte sind in der KI-Welt von entscheidender Bedeutung und bieten Einblicke – auch wenn diese manchmal wenig schmeichelhaft sind –, die Unternehmen normalerweise nicht öffentlich teilen würden. Diese Berichte werden von der KI-Community im Allgemeinen als genuine Bemühungen angesehen, unabhängige Forschung zu fördern und Sicherheitsbewertungen zu verbessern.
Googles Ansatz bei der Sicherheitsberichterstattung unterscheidet sich von dem einiger seiner Wettbewerber. Das Unternehmen veröffentlicht technische Berichte erst, wenn ein Modell die „experimentelle“ Phase hinter sich gelassen hat. Darüber hinaus lässt Google bestimmte Bewertungsergebnisse zu „gefährlichen Fähigkeiten“ in diesen Berichten aus und hebt sie für eine separate Prüfung auf.
Trotzdem äußerten mehrere Experten gegenüber TechCrunch ihre Enttäuschung über den Bericht zu Gemini 2.5 Pro und wiesen auf die spärliche Berichterstattung über Googles vorgeschlagenes Frontier Safety Framework (FSF) hin. Google stellte das FSF letztes Jahr vor, mit dem Ziel, zukünftige KI-Fähigkeiten zu identifizieren, die zu „schwerwiegenden Schäden“ führen könnten.
„Dieser Bericht ist sehr knapp, enthält minimale Informationen und wurde Wochen nach der öffentlichen Verfügbarkeit des Modells veröffentlicht“, sagte Peter Wildeford, Mitbegründer des Institute for AI Policy and Strategy, gegenüber TechCrunch. „Es ist unmöglich zu überprüfen, ob Google seinen öffentlichen Verpflichtungen nachkommt, und somit unmöglich, die Sicherheit und den Schutz ihrer Modelle zu bewerten.“
Thomas Woodside, Mitbegründer des Secure AI Project, anerkannte die Veröffentlichung des Berichts für Gemini 2.5 Pro, stellte jedoch Googles Engagement für zeitnahe ergänzende Sicherheitsbewertungen infrage. Er bemerkte, dass Google zuletzt im Juni 2024 Ergebnisse von Tests zu gefährlichen Fähigkeiten veröffentlicht habe, für ein Modell, das im Februar desselben Jahres angekündigt wurde.
Hinzu kommt die Sorge, dass Google noch keinen Bericht für Gemini 2.5 Flash veröffentlicht hat, ein kleineres, effizienteres Modell, das letzte Woche angekündigt wurde. Ein Sprecher informierte TechCrunch, dass ein Bericht für Flash „demnächst“ erscheinen werde.
„Ich hoffe, dies ist ein Versprechen von Google, häufiger Updates zu veröffentlichen“, sagte Woodside gegenüber TechCrunch. „Diese Updates sollten die Ergebnisse von Bewertungen für Modelle enthalten, die noch nicht öffentlich eingesetzt wurden, da diese Modelle ebenfalls ernsthafte Risiken bergen könnten.“
Während Google zu den ersten KI-Laboren gehörte, die standardisierte Berichte für Modelle vorschlugen, ist es nicht allein mit der Kritik an mangelnder Transparenz konfrontiert. Meta veröffentlichte eine ähnlich kurze Sicherheitsbewertung für seine neuen Llama 4 Open-Modelle, und OpenAI entschied sich, keinen Bericht für seine GPT-4.1-Serie zu veröffentlichen.
Googles Zusicherungen gegenüber Regulierungsbehörden, hohe Standards bei KI-Sicherheitstests und Berichterstattung einzuhalten, erhöhen den Druck. Vor zwei Jahren versprach Google der US-Regierung, Sicherheitsberichte für alle „maßgeblichen“ öffentlichen KI-Modelle „im Rahmen“ zu veröffentlichen, gefolgt von ähnlichen Zusagen an andere Länder, die „öffentliche Transparenz“ rund um KI-Produkte zusicherten.
Kevin Bankston, ein leitender Berater für KI-Governance am Center for Democracy and Technology, beschrieb den Trend sporadischer und vager Berichte als „Wettlauf nach unten“ in Bezug auf KI-Sicherheit.
„In Kombination mit Berichten, dass konkurrierende Labore wie OpenAI ihre Sicherheitsprüfungszeiten vor der Veröffentlichung von Monaten auf Tage reduziert haben, erzählt diese magere Dokumentation für Googles Top-KI-Modell eine besorgniserregende Geschichte eines Wettlaufs nach unten in Bezug auf KI-Sicherheit und Transparenz, während Unternehmen ihre Modelle eilig auf den Markt bringen“, sagte er gegenüber TechCrunch.
Google hat angegeben, dass es, obwohl dies nicht in seinen technischen Berichten detailliert beschrieben wird, vor der Veröffentlichung von Modellen Sicherheitstests und „adversariales Red Teaming“ durchführt.
Aktualisiert am 22. April um 12:58 Uhr Pazifische Zeit: Geänderte Formulierung bezüglich der Referenz des technischen Berichts auf Googles FSF.
Verwandter Artikel
Google stellt produktionsreife Gemini 2.5 KI-Modelle vor, um mit OpenAI im Unternehmensmarkt zu konkurrieren
Google hat am Montag seine KI-Strategie intensiviert und seine fortschrittlichen Gemini 2.5 Modelle für den Unternehmenseinsatz gestartet sowie eine kosteneffiziente Variante eingeführt, um bei Preis
Google stellt KI-gestütztes Simplify-Tool für einfacheres Lesen im Web vor
Die iOS-App von Google enthält jetzt eine „Simplify“-Funktion, die KI nutzt, um komplexe Webtexte in klare, verständliche Inhalte umzuwandeln, ohne die Seite zu verlassen.Das Simplify-Tool, entwickelt
Gemini Chatbot verbessert Bildbearbeitungsfunktionen
Googles Gemini-Chatbot-App ermöglicht es Nutzern nun, KI-generierte und hochgeladene Bilder von Telefonen oder Computern zu bearbeiten, wie das Unternehmen in einem Blogbeitrag am Mittwoch ankündigte.
Kommentare (6)
0/200
MarkSanchez
1. August 2025 15:47:34 MESZ
Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.
0
WalterKing
29. April 2025 17:19:22 MESZ
Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔
0
CharlesThomas
29. April 2025 03:17:55 MESZ
ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅
0
AlbertWalker
29. April 2025 01:15:07 MESZ
Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔
0
JimmyGarcia
28. April 2025 22:01:42 MESZ
O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔
0
BillyThomas
28. April 2025 01:41:33 MESZ
El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔
0
Am Donnerstag, Wochen nach der Einführung seines neuesten und fortschrittlichsten KI-Modells, Gemini 2.5 Pro, veröffentlichte Google einen technischen Bericht, der die Ergebnisse seiner internen Sicherheitsbewertungen detailliert beschreibt. Experten haben den Bericht jedoch für seinen Mangel an Details kritisiert, was es schwierig macht, die potenziellen Risiken, die mit dem Modell verbunden sind, vollständig zu verstehen.
Technische Berichte sind in der KI-Welt von entscheidender Bedeutung und bieten Einblicke – auch wenn diese manchmal wenig schmeichelhaft sind –, die Unternehmen normalerweise nicht öffentlich teilen würden. Diese Berichte werden von der KI-Community im Allgemeinen als genuine Bemühungen angesehen, unabhängige Forschung zu fördern und Sicherheitsbewertungen zu verbessern.
Googles Ansatz bei der Sicherheitsberichterstattung unterscheidet sich von dem einiger seiner Wettbewerber. Das Unternehmen veröffentlicht technische Berichte erst, wenn ein Modell die „experimentelle“ Phase hinter sich gelassen hat. Darüber hinaus lässt Google bestimmte Bewertungsergebnisse zu „gefährlichen Fähigkeiten“ in diesen Berichten aus und hebt sie für eine separate Prüfung auf.
Trotzdem äußerten mehrere Experten gegenüber TechCrunch ihre Enttäuschung über den Bericht zu Gemini 2.5 Pro und wiesen auf die spärliche Berichterstattung über Googles vorgeschlagenes Frontier Safety Framework (FSF) hin. Google stellte das FSF letztes Jahr vor, mit dem Ziel, zukünftige KI-Fähigkeiten zu identifizieren, die zu „schwerwiegenden Schäden“ führen könnten.
„Dieser Bericht ist sehr knapp, enthält minimale Informationen und wurde Wochen nach der öffentlichen Verfügbarkeit des Modells veröffentlicht“, sagte Peter Wildeford, Mitbegründer des Institute for AI Policy and Strategy, gegenüber TechCrunch. „Es ist unmöglich zu überprüfen, ob Google seinen öffentlichen Verpflichtungen nachkommt, und somit unmöglich, die Sicherheit und den Schutz ihrer Modelle zu bewerten.“
Thomas Woodside, Mitbegründer des Secure AI Project, anerkannte die Veröffentlichung des Berichts für Gemini 2.5 Pro, stellte jedoch Googles Engagement für zeitnahe ergänzende Sicherheitsbewertungen infrage. Er bemerkte, dass Google zuletzt im Juni 2024 Ergebnisse von Tests zu gefährlichen Fähigkeiten veröffentlicht habe, für ein Modell, das im Februar desselben Jahres angekündigt wurde.
Hinzu kommt die Sorge, dass Google noch keinen Bericht für Gemini 2.5 Flash veröffentlicht hat, ein kleineres, effizienteres Modell, das letzte Woche angekündigt wurde. Ein Sprecher informierte TechCrunch, dass ein Bericht für Flash „demnächst“ erscheinen werde.
„Ich hoffe, dies ist ein Versprechen von Google, häufiger Updates zu veröffentlichen“, sagte Woodside gegenüber TechCrunch. „Diese Updates sollten die Ergebnisse von Bewertungen für Modelle enthalten, die noch nicht öffentlich eingesetzt wurden, da diese Modelle ebenfalls ernsthafte Risiken bergen könnten.“
Während Google zu den ersten KI-Laboren gehörte, die standardisierte Berichte für Modelle vorschlugen, ist es nicht allein mit der Kritik an mangelnder Transparenz konfrontiert. Meta veröffentlichte eine ähnlich kurze Sicherheitsbewertung für seine neuen Llama 4 Open-Modelle, und OpenAI entschied sich, keinen Bericht für seine GPT-4.1-Serie zu veröffentlichen.
Googles Zusicherungen gegenüber Regulierungsbehörden, hohe Standards bei KI-Sicherheitstests und Berichterstattung einzuhalten, erhöhen den Druck. Vor zwei Jahren versprach Google der US-Regierung, Sicherheitsberichte für alle „maßgeblichen“ öffentlichen KI-Modelle „im Rahmen“ zu veröffentlichen, gefolgt von ähnlichen Zusagen an andere Länder, die „öffentliche Transparenz“ rund um KI-Produkte zusicherten.
Kevin Bankston, ein leitender Berater für KI-Governance am Center for Democracy and Technology, beschrieb den Trend sporadischer und vager Berichte als „Wettlauf nach unten“ in Bezug auf KI-Sicherheit.
„In Kombination mit Berichten, dass konkurrierende Labore wie OpenAI ihre Sicherheitsprüfungszeiten vor der Veröffentlichung von Monaten auf Tage reduziert haben, erzählt diese magere Dokumentation für Googles Top-KI-Modell eine besorgniserregende Geschichte eines Wettlaufs nach unten in Bezug auf KI-Sicherheit und Transparenz, während Unternehmen ihre Modelle eilig auf den Markt bringen“, sagte er gegenüber TechCrunch.
Google hat angegeben, dass es, obwohl dies nicht in seinen technischen Berichten detailliert beschrieben wird, vor der Veröffentlichung von Modellen Sicherheitstests und „adversariales Red Teaming“ durchführt.
Aktualisiert am 22. April um 12:58 Uhr Pazifische Zeit: Geänderte Formulierung bezüglich der Referenz des technischen Berichts auf Googles FSF.




Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.




Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔




ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅




Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔




O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔




El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔












