Option
Heim
Nachricht
Nach Ansicht von Experten fehlen die neuesten KI -Modellbericht von Google wichtige Sicherheitsdetails, so Experten

Nach Ansicht von Experten fehlen die neuesten KI -Modellbericht von Google wichtige Sicherheitsdetails, so Experten

28. April 2025
58

Am Donnerstag, Wochen nach dem Start seines neuesten und fortschrittlichsten KI -Modells, Gemini 2.5 Pro, veröffentlichte Google einen technischen Bericht, in dem die Ergebnisse seiner internen Sicherheitsbewertungen beschrieben wurden. Experten haben den Bericht jedoch wegen seiner mangelnden Details kritisiert, was es schwierig macht, die potenziellen Risiken, die mit dem Modell verbunden sind, vollständig zu verstehen.

Technische Berichte sind in der KI -Welt von entscheidender Bedeutung und bieten Erkenntnisse - selbst wenn sie manchmal nicht schmeichelhaft sind -, dass Unternehmen in der Regel nicht öffentlich teilen. Diese Berichte werden im Allgemeinen von der KI -Community als echte Bemühungen angesehen, unabhängige Forschung zu fördern und Sicherheitsbewertungen zu verbessern.

Der Ansatz von Google zur Sicherheitsberichterstattung unterscheidet sich von einigen seiner Konkurrenten. Das Unternehmen veröffentlicht nur technische Berichte, sobald ein Modell über die "experimentelle" Phase hinausgeht. Darüber hinaus lässt Google bestimmte Ergebnisse der "gefährlichen Fähigkeit" aus diesen Berichten aus und speichern sie für eine separate Prüfung.

Trotzdem äußerten sich mehrere Experten enttäuscht über den Gemini 2.5 Pro -Bericht zu TechCrunch und wies auf die geringe Berichterstattung über Googles vorgeschlagene Frontier Safety Framework (FSF) hin. Google hat die FSF im vergangenen Jahr vorgestellt, um zukünftige KI -Funktionen zu bestimmen, die zu "schweren Schäden" führen könnten.

"Dieser Bericht ist sehr spärlich, enthält minimale Informationen und wurde wochenlang veröffentlicht, nachdem das Modell bereits veröffentlicht wurde", sagte Peter Wildeford, Mitbegründer des Instituts für KI-Richtlinien und Strategie, gegenüber TechCrunch. "Es ist unmöglich zu überprüfen, ob Google seinen öffentlichen Verpflichtungen erfüllt und daher unmöglich die Sicherheit und Sicherheit ihrer Modelle beurteilen kann."

Thomas Woodside, Mitbegründer des Secure AI Project, bestätigte die Veröffentlichung des Berichts für Gemini 2.5 Pro, stellte jedoch Googles Engagement für die Bereitstellung zeitnaher ergänzender Sicherheitsbewertungen in Frage. Er stellte fest, dass Google zuletzt im Juni 2024 gefährliche Fähigkeitstestergebnisse für ein im Februar dieses Jahres angekündigter Modell veröffentlicht habe.

Zu den Bedenken hat Google noch keinen Bericht für Gemini 2.5 Flash veröffentlicht, ein kleineres, effizienteres Modell, das letzte Woche angekündigt wurde. Ein Sprecher teilte TechCrunch mit, dass ein Bericht für Flash "bald" kommt.

"Ich hoffe, dies ist ein Versprechen von Google, häufigere Updates zu veröffentlichen", sagte Woodside gegenüber TechCrunch. "Diese Updates sollten die Ergebnisse von Bewertungen für Modelle enthalten, die noch nicht öffentlich eingesetzt wurden, da diese Modelle auch schwerwiegende Risiken darstellen könnten."

Während Google zu den ersten KI -Labors gehörte, die standardisierte Berichte für Modelle vorgeschlagen haben, ist es nicht allein, weil es wegen mangelnder Transparenz kritisiert wird. Meta veröffentlichte eine ähnlich kurze Sicherheitsbewertung für seine neuen Lama 4 Open-Modelle, und OpenAI entschied sich, keinen Bericht für seine GPT-4.1-Serie zu veröffentlichen.

Die Zusicherungen von Google gegenüber den Aufsichtsbehörden über die Aufrechterhaltung hoher Standards bei KI -Sicherheitstests und Berichterstattung erhöhen die Situation. Vor zwei Jahren versprach Google der US -Regierung, Sicherheitsberichte für alle "bedeutenden" öffentlichen KI -Modelle "innerhalb des Umfangs" zu veröffentlichen, gefolgt von ähnlichen Verpflichtungen für andere Länder, die "öffentliche Transparenz" in Bezug auf AI -Produkte versprachen.

Kevin Bankston, ein hochrangiger Berater für KI -Governance am Center for Democracy and Technology, beschrieb den Trend der sporadischen und vagen Berichte als "Rennen nach unten" zur KI -Sicherheit.

"In Kombination mit Berichten, dass konkurrierende Labors wie OpenAI ihre Sicherheitstestzeit vor der Veröffentlichung von Monaten bis Tagen verkürzt haben, erzählt diese magere Dokumentation für Googles Top -KI -Modell eine beunruhigende Geschichte eines Rennens auf KI -Sicherheit und -transparenz, während Unternehmen ihre Modelle auf den Markt bringen", sagte er gegenüber TechCrunch.

Google hat erklärt, dass es vor ihrer Veröffentlichung, obwohl sie in seinen technischen Berichten nicht in den technischen Berichten detailliert sind, Sicherheitstests und "kontroverses rotes Teaming" für Modelle durchführt.

Aktualisiert 4/22 um 12:58 Pazifik: Modifizierte Sprache um den Verweis des technischen Berichts auf die FSF von Google.

Verwandter Artikel
Imagen 4:谷歌最新AI圖像生成器 Imagen 4:谷歌最新AI圖像生成器 Google近日發表最新圖像生成AI模型「Imagen 4」,宣稱將為用戶帶來比前代Imagen 3更出色的視覺體驗。本週稍早在Google I/O 2025大會亮相的這款新模型,被譽為在畫質與多樣性方面取得重大突破。Google表示,Imagen 4特別擅長處理織物質感、水珠反光與動物毛髮等精細紋理,同時能輕鬆駕馭寫實與抽象風格。其輸出解析度最高可達2K,
谷歌Gemini代碼助手強化AI編程代理功能 谷歌Gemini代碼助手強化AI編程代理功能 Google旗下AI程式開發助手Gemini Code Assist近期推出全新「代理模式」功能,目前開放預覽體驗。在最新Cloud Next大會上,Google展示這些AI代理如何突破性處理複雜編程任務——從Google文件規格書直接生成完整應用程式,或輕鬆實現跨語言程式碼轉換。更令人驚豔的是,開發者現可在Android Studio等整合開發環境中直接啟
谷歌的人工智慧未來基金可能需要謹慎行事 谷歌的人工智慧未來基金可能需要謹慎行事 Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
Kommentare (5)
0/200
AlbertWalker
AlbertWalker 29. April 2025 00:00:00 GMT

Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔

CharlesThomas
CharlesThomas 29. April 2025 00:00:00 GMT

ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅

BillyThomas
BillyThomas 28. April 2025 00:00:00 GMT

El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔

JimmyGarcia
JimmyGarcia 29. April 2025 00:00:00 GMT

O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔

WalterKing
WalterKing 29. April 2025 00:00:00 GMT

Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔

Zurück nach oben
OR