opção
Lar
Notícias
O mais recente relatório do modelo de AI do Google não possui detalhes importantes de segurança, dizem os especialistas

O mais recente relatório do modelo de AI do Google não possui detalhes importantes de segurança, dizem os especialistas

28 de Abril de 2025
58

Na quinta -feira, semanas após o lançamento do seu mais recente e mais avançado modelo de IA, Gemini 2.5 Pro, o Google divulgou um relatório técnico detalhando os resultados de suas avaliações de segurança interna. No entanto, os especialistas criticaram o relatório por sua falta de detalhes, tornando difícil entender completamente os riscos potenciais associados ao modelo.

Os relatórios técnicos são cruciais no mundo da IA, oferecendo informações - mesmo que às vezes sejam desagradáveis ​​- que as empresas geralmente não compartilham publicamente. Esses relatórios são geralmente vistos pela comunidade de IA como esforços genuínos para promover pesquisas independentes e aprimorar as avaliações de segurança.

A abordagem do Google para os relatórios de segurança difere de alguns de seus concorrentes. A empresa publica apenas relatórios técnicos quando um modelo vai além da fase "experimental". Além disso, o Google omite certos resultados de avaliação de "capacidade perigosa" desses relatórios, salvando -os para uma auditoria separada.

Apesar disso, vários especialistas expressaram decepção com o relatório Gemini 2.5 Pro para o TechCrunch, apontando sua pouca cobertura da estrutura de segurança de fronteira proposta do Google (FSF). O Google apresentou o FSF no ano passado, com o objetivo de identificar futuros recursos de IA que possam levar a "danos graves".

"Este relatório é muito escasso, contém informações mínimas e foi divulgado semanas depois que o modelo já foi tornado público", disse Peter Wildford, co-fundador do Instituto de Política e Estratégia de IA, à TechCrunch. "É impossível verificar se o Google está cumprindo seus compromissos públicos e, portanto, impossível avaliar a segurança de seus modelos".

Thomas Woodside, co-fundador do projeto de IA seguro, reconheceu a liberação do relatório para Gemini 2.5 Pro, mas questionou a dedicação do Google em fornecer avaliações de segurança suplementares oportunas. Ele observou que o Google publicou os resultados de testes de capacidade perigosos pela última vez em junho de 2024, para um modelo anunciado em fevereiro daquele ano.

Além das preocupações, o Google ainda não divulgou um relatório para o Gemini 2.5 Flash, um modelo menor e mais eficiente anunciado na semana passada. Um porta -voz informou a TechCrunch que um relatório para o Flash está "chegando em breve".

"Espero que seja uma promessa do Google para começar a publicar atualizações mais frequentes", disse Woodside ao TechCrunch. "Essas atualizações devem incluir os resultados das avaliações para modelos que ainda não foram implantados publicamente, pois esses modelos também podem representar riscos sérios".

Embora o Google estivesse entre os primeiros laboratórios de IA a propor relatórios padronizados para modelos, ele não está sozinho em enfrentar críticas por falta de transparência. A Meta divulgou uma avaliação de segurança igualmente breve para seus novos modelos abertos LLAMA 4 e o OpenAI optou por não publicar nenhum relatório para sua série GPT-4.1.

As garantias do Google aos reguladores sobre a manutenção de altos padrões nos testes e relatórios de segurança da IA ​​adicionam pressão à situação. Dois anos atrás, o Google prometeu ao governo dos EUA que publicasse relatórios de segurança para todos os modelos públicos de IA "significativos" dentro do escopo ", seguidos de compromissos semelhantes com outros países, comprometendo a" transparência pública "em torno dos produtos de IA.

Kevin Bankston, consultor sênior de governança de IA no Centro de Democracia e Tecnologia, descreveu a tendência dos relatórios esporádicos e vagos como uma "corrida para o fundo" na segurança da IA.

"Combinados com relatos de que laboratórios concorrentes como o OpenAI reduziram seu tempo de teste de segurança antes do lançamento de meses para dias, essa escassa documentação para o principal modelo de IA do Google conta uma história preocupante de uma corrida para o fundo da segurança e transparência da IA, à medida que as empresas apressam seus modelos para o mercado", disse ele ao TechCrunch.

O Google afirmou que, embora não seja detalhado em seus relatórios técnicos, realiza testes de segurança e "equipes vermelhas adversárias" para modelos antes de seu lançamento.

Atualizado em 22/4 às 12:58 Pacífico: linguagem modificada em torno da referência do relatório técnico ao FSF do Google.

Artigo relacionado
Imagen 4:谷歌最新AI圖像生成器 Imagen 4:谷歌最新AI圖像生成器 Google近日發表最新圖像生成AI模型「Imagen 4」,宣稱將為用戶帶來比前代Imagen 3更出色的視覺體驗。本週稍早在Google I/O 2025大會亮相的這款新模型,被譽為在畫質與多樣性方面取得重大突破。Google表示,Imagen 4特別擅長處理織物質感、水珠反光與動物毛髮等精細紋理,同時能輕鬆駕馭寫實與抽象風格。其輸出解析度最高可達2K,
谷歌Gemini代碼助手強化AI編程代理功能 谷歌Gemini代碼助手強化AI編程代理功能 Google旗下AI程式開發助手Gemini Code Assist近期推出全新「代理模式」功能,目前開放預覽體驗。在最新Cloud Next大會上,Google展示這些AI代理如何突破性處理複雜編程任務——從Google文件規格書直接生成完整應用程式,或輕鬆實現跨語言程式碼轉換。更令人驚豔的是,開發者現可在Android Studio等整合開發環境中直接啟
谷歌的人工智慧未來基金可能需要謹慎行事 谷歌的人工智慧未來基金可能需要謹慎行事 Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
Comentários (5)
0/200
AlbertWalker
AlbertWalker 29 de Abril de 2025 à0 00:00:00 GMT

Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔

CharlesThomas
CharlesThomas 29 de Abril de 2025 à0 00:00:00 GMT

ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅

BillyThomas
BillyThomas 28 de Abril de 2025 à0 00:00:00 GMT

El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔

JimmyGarcia
JimmyGarcia 29 de Abril de 2025 à0 00:00:00 GMT

O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔

WalterKing
WalterKing 29 de Abril de 2025 à0 00:00:00 GMT

Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔

De volta ao topo
OR