

Nach Ansicht von Experten fehlen die neuesten KI -Modellbericht von Google wichtige Sicherheitsdetails, so Experten
27. April 2025
ChristopherThomas
0
Am Donnerstag, Wochen nach dem Start seines neuesten und fortschrittlichsten KI -Modells, Gemini 2.5 Pro, veröffentlichte Google einen technischen Bericht, in dem die Ergebnisse seiner internen Sicherheitsbewertungen beschrieben wurden. Experten haben den Bericht jedoch wegen seiner mangelnden Details kritisiert, was es schwierig macht, die potenziellen Risiken, die mit dem Modell verbunden sind, vollständig zu verstehen.
Technische Berichte sind in der KI -Welt von entscheidender Bedeutung und bieten Erkenntnisse - selbst wenn sie manchmal nicht schmeichelhaft sind -, dass Unternehmen in der Regel nicht öffentlich teilen. Diese Berichte werden im Allgemeinen von der KI -Community als echte Bemühungen angesehen, unabhängige Forschung zu fördern und Sicherheitsbewertungen zu verbessern.
Der Ansatz von Google zur Sicherheitsberichterstattung unterscheidet sich von einigen seiner Konkurrenten. Das Unternehmen veröffentlicht nur technische Berichte, sobald ein Modell über die "experimentelle" Phase hinausgeht. Darüber hinaus lässt Google bestimmte Ergebnisse der "gefährlichen Fähigkeit" aus diesen Berichten aus und speichern sie für eine separate Prüfung.
Trotzdem äußerten sich mehrere Experten enttäuscht über den Gemini 2.5 Pro -Bericht zu TechCrunch und wies auf die geringe Berichterstattung über Googles vorgeschlagene Frontier Safety Framework (FSF) hin. Google hat die FSF im vergangenen Jahr vorgestellt, um zukünftige KI -Funktionen zu bestimmen, die zu "schweren Schäden" führen könnten.
"Dieser Bericht ist sehr spärlich, enthält minimale Informationen und wurde wochenlang veröffentlicht, nachdem das Modell bereits veröffentlicht wurde", sagte Peter Wildeford, Mitbegründer des Instituts für KI-Richtlinien und Strategie, gegenüber TechCrunch. "Es ist unmöglich zu überprüfen, ob Google seinen öffentlichen Verpflichtungen erfüllt und daher unmöglich die Sicherheit und Sicherheit ihrer Modelle beurteilen kann."
Thomas Woodside, Mitbegründer des Secure AI Project, bestätigte die Veröffentlichung des Berichts für Gemini 2.5 Pro, stellte jedoch Googles Engagement für die Bereitstellung zeitnaher ergänzender Sicherheitsbewertungen in Frage. Er stellte fest, dass Google zuletzt im Juni 2024 gefährliche Fähigkeitstestergebnisse für ein im Februar dieses Jahres angekündigter Modell veröffentlicht habe.
Zu den Bedenken hat Google noch keinen Bericht für Gemini 2.5 Flash veröffentlicht, ein kleineres, effizienteres Modell, das letzte Woche angekündigt wurde. Ein Sprecher teilte TechCrunch mit, dass ein Bericht für Flash "bald" kommt.
"Ich hoffe, dies ist ein Versprechen von Google, häufigere Updates zu veröffentlichen", sagte Woodside gegenüber TechCrunch. "Diese Updates sollten die Ergebnisse von Bewertungen für Modelle enthalten, die noch nicht öffentlich eingesetzt wurden, da diese Modelle auch schwerwiegende Risiken darstellen könnten."
Während Google zu den ersten KI -Labors gehörte, die standardisierte Berichte für Modelle vorgeschlagen haben, ist es nicht allein, weil es wegen mangelnder Transparenz kritisiert wird. Meta veröffentlichte eine ähnlich kurze Sicherheitsbewertung für seine neuen Lama 4 Open-Modelle, und OpenAI entschied sich, keinen Bericht für seine GPT-4.1-Serie zu veröffentlichen.
Die Zusicherungen von Google gegenüber den Aufsichtsbehörden über die Aufrechterhaltung hoher Standards bei KI -Sicherheitstests und Berichterstattung erhöhen die Situation. Vor zwei Jahren versprach Google der US -Regierung, Sicherheitsberichte für alle "bedeutenden" öffentlichen KI -Modelle "innerhalb des Umfangs" zu veröffentlichen, gefolgt von ähnlichen Verpflichtungen für andere Länder, die "öffentliche Transparenz" in Bezug auf AI -Produkte versprachen.
Kevin Bankston, ein hochrangiger Berater für KI -Governance am Center for Democracy and Technology, beschrieb den Trend der sporadischen und vagen Berichte als "Rennen nach unten" zur KI -Sicherheit.
"In Kombination mit Berichten, dass konkurrierende Labors wie OpenAI ihre Sicherheitstestzeit vor der Veröffentlichung von Monaten bis Tagen verkürzt haben, erzählt diese magere Dokumentation für Googles Top -KI -Modell eine beunruhigende Geschichte eines Rennens auf KI -Sicherheit und -transparenz, während Unternehmen ihre Modelle auf den Markt bringen", sagte er gegenüber TechCrunch.
Google hat erklärt, dass es vor ihrer Veröffentlichung, obwohl sie in seinen technischen Berichten nicht in den technischen Berichten detailliert sind, Sicherheitstests und "kontroverses rotes Teaming" für Modelle durchführt.
Aktualisiert 4/22 um 12:58 Pazifik: Modifizierte Sprache um den Verweis des technischen Berichts auf die FSF von Google.
Verwandter Artikel
Google’s latest AI model report lacks key safety details, experts say
On Thursday, weeks after launching its latest and most advanced AI model, Gemini 2.5 Pro, Google released a technical report detailing the results of its internal safety assessments. However, experts have criticized the report for its lack of detail, making it challenging to fully understand the pot
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries
Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models
In a recent episode of the podcast Possible, co-hosted by LinkedIn co-founder Reid Hoffman, Google DeepMind CEO Demis Hassabis shared some exciting news about Google's plans. He revealed that Google is looking to merge its Gemini AI models with the Veo video-generating models. This fusion aims to en
Kommentare (0)
0/200






Am Donnerstag, Wochen nach dem Start seines neuesten und fortschrittlichsten KI -Modells, Gemini 2.5 Pro, veröffentlichte Google einen technischen Bericht, in dem die Ergebnisse seiner internen Sicherheitsbewertungen beschrieben wurden. Experten haben den Bericht jedoch wegen seiner mangelnden Details kritisiert, was es schwierig macht, die potenziellen Risiken, die mit dem Modell verbunden sind, vollständig zu verstehen.
Technische Berichte sind in der KI -Welt von entscheidender Bedeutung und bieten Erkenntnisse - selbst wenn sie manchmal nicht schmeichelhaft sind -, dass Unternehmen in der Regel nicht öffentlich teilen. Diese Berichte werden im Allgemeinen von der KI -Community als echte Bemühungen angesehen, unabhängige Forschung zu fördern und Sicherheitsbewertungen zu verbessern.
Der Ansatz von Google zur Sicherheitsberichterstattung unterscheidet sich von einigen seiner Konkurrenten. Das Unternehmen veröffentlicht nur technische Berichte, sobald ein Modell über die "experimentelle" Phase hinausgeht. Darüber hinaus lässt Google bestimmte Ergebnisse der "gefährlichen Fähigkeit" aus diesen Berichten aus und speichern sie für eine separate Prüfung.
Trotzdem äußerten sich mehrere Experten enttäuscht über den Gemini 2.5 Pro -Bericht zu TechCrunch und wies auf die geringe Berichterstattung über Googles vorgeschlagene Frontier Safety Framework (FSF) hin. Google hat die FSF im vergangenen Jahr vorgestellt, um zukünftige KI -Funktionen zu bestimmen, die zu "schweren Schäden" führen könnten.
"Dieser Bericht ist sehr spärlich, enthält minimale Informationen und wurde wochenlang veröffentlicht, nachdem das Modell bereits veröffentlicht wurde", sagte Peter Wildeford, Mitbegründer des Instituts für KI-Richtlinien und Strategie, gegenüber TechCrunch. "Es ist unmöglich zu überprüfen, ob Google seinen öffentlichen Verpflichtungen erfüllt und daher unmöglich die Sicherheit und Sicherheit ihrer Modelle beurteilen kann."
Thomas Woodside, Mitbegründer des Secure AI Project, bestätigte die Veröffentlichung des Berichts für Gemini 2.5 Pro, stellte jedoch Googles Engagement für die Bereitstellung zeitnaher ergänzender Sicherheitsbewertungen in Frage. Er stellte fest, dass Google zuletzt im Juni 2024 gefährliche Fähigkeitstestergebnisse für ein im Februar dieses Jahres angekündigter Modell veröffentlicht habe.
Zu den Bedenken hat Google noch keinen Bericht für Gemini 2.5 Flash veröffentlicht, ein kleineres, effizienteres Modell, das letzte Woche angekündigt wurde. Ein Sprecher teilte TechCrunch mit, dass ein Bericht für Flash "bald" kommt.
"Ich hoffe, dies ist ein Versprechen von Google, häufigere Updates zu veröffentlichen", sagte Woodside gegenüber TechCrunch. "Diese Updates sollten die Ergebnisse von Bewertungen für Modelle enthalten, die noch nicht öffentlich eingesetzt wurden, da diese Modelle auch schwerwiegende Risiken darstellen könnten."
Während Google zu den ersten KI -Labors gehörte, die standardisierte Berichte für Modelle vorgeschlagen haben, ist es nicht allein, weil es wegen mangelnder Transparenz kritisiert wird. Meta veröffentlichte eine ähnlich kurze Sicherheitsbewertung für seine neuen Lama 4 Open-Modelle, und OpenAI entschied sich, keinen Bericht für seine GPT-4.1-Serie zu veröffentlichen.
Die Zusicherungen von Google gegenüber den Aufsichtsbehörden über die Aufrechterhaltung hoher Standards bei KI -Sicherheitstests und Berichterstattung erhöhen die Situation. Vor zwei Jahren versprach Google der US -Regierung, Sicherheitsberichte für alle "bedeutenden" öffentlichen KI -Modelle "innerhalb des Umfangs" zu veröffentlichen, gefolgt von ähnlichen Verpflichtungen für andere Länder, die "öffentliche Transparenz" in Bezug auf AI -Produkte versprachen.
Kevin Bankston, ein hochrangiger Berater für KI -Governance am Center for Democracy and Technology, beschrieb den Trend der sporadischen und vagen Berichte als "Rennen nach unten" zur KI -Sicherheit.
"In Kombination mit Berichten, dass konkurrierende Labors wie OpenAI ihre Sicherheitstestzeit vor der Veröffentlichung von Monaten bis Tagen verkürzt haben, erzählt diese magere Dokumentation für Googles Top -KI -Modell eine beunruhigende Geschichte eines Rennens auf KI -Sicherheit und -transparenz, während Unternehmen ihre Modelle auf den Markt bringen", sagte er gegenüber TechCrunch.
Google hat erklärt, dass es vor ihrer Veröffentlichung, obwohl sie in seinen technischen Berichten nicht in den technischen Berichten detailliert sind, Sicherheitstests und "kontroverses rotes Teaming" für Modelle durchführt.
Aktualisiert 4/22 um 12:58 Pazifik: Modifizierte Sprache um den Verweis des technischen Berichts auf die FSF von Google.











