O mais recente relatório do modelo de AI do Google não possui detalhes importantes de segurança, dizem os especialistas
Na quinta-feira, semanas após o lançamento de seu modelo de IA mais recente e avançado, Gemini 2.5 Pro, o Google publicou um relatório técnico detalhando os resultados de suas avaliações internas de segurança. No entanto, especialistas criticaram o relatório por sua falta de detalhes, dificultando a compreensão completa dos riscos potenciais associados ao modelo.
Relatórios técnicos são cruciais no mundo da IA, oferecendo insights — mesmo que às vezes pouco lisonjeiros — que as empresas geralmente não compartilham publicamente. Esses relatórios são geralmente vistos pela comunidade de IA como esforços genuínos para promover a pesquisa independente e aprimorar as avaliações de segurança.
A abordagem do Google para relatórios de segurança difere de alguns de seus concorrentes. A empresa só publica relatórios técnicos quando um modelo ultrapassa a fase "experimental". Além disso, o Google omite certos resultados de avaliações de "capacidades perigosas" desses relatórios, reservando-os para uma auditoria separada.
Apesar disso, vários especialistas expressaram decepção com o relatório do Gemini 2.5 Pro ao TechCrunch, apontando sua cobertura escassa do Quadro de Segurança de Fronteira (FSF) proposto pelo Google. O Google apresentou o FSF no último ano, com o objetivo de identificar futuras capacidades de IA que possam levar a "danos graves".
"Este relatório é muito escasso, contém informações mínimas e foi lançado semanas após o modelo já ter sido tornado público", disse Peter Wildeford, cofundador do Instituto para Política e Estratégia de IA, ao TechCrunch. "É impossível verificar se o Google está cumprindo seus compromissos públicos e, portanto, impossível avaliar a segurança e a proteção de seus modelos."
Thomas Woodside, cofundador do Projeto de IA Segura, reconheceu a publicação do relatório para o Gemini 2.5 Pro, mas questionou a dedicação do Google em fornecer avaliações suplementares de segurança em tempo hábil. Ele observou que o Google publicou pela última vez resultados de testes de capacidades perigosas em junho de 2024, para um modelo anunciado em fevereiro daquele ano.
Acrescentando às preocupações, o Google ainda não lançou um relatório para o Gemini 2.5 Flash, um modelo menor e mais eficiente anunciado na última semana. Um porta-voz informou ao TechCrunch que um relatório para o Flash está "chegando em breve".
"Espero que isso seja uma promessa do Google de começar a publicar atualizações mais frequentes", disse Woodside ao TechCrunch. "Essas atualizações devem incluir os resultados de avaliações para modelos que ainda não foram implantados publicamente, já que esses modelos também podem representar riscos sérios."
Embora o Google tenha sido um dos primeiros laboratórios de IA a propor relatórios padronizados para modelos, não está sozinho ao enfrentar críticas por falta de transparência. A Meta publicou uma avaliação de segurança igualmente breve para seus novos modelos abertos Llama 4, e a OpenAI optou por não publicar nenhum relatório para sua série GPT-4.1.
As garantias do Google aos reguladores sobre a manutenção de altos padrões em testes e relatórios de segurança de IA aumentam a pressão sobre a situação. Há dois anos, o Google prometeu ao governo dos EUA publicar relatórios de segurança para todos os modelos de IA públicos "significativos" dentro do escopo, seguido por compromissos semelhantes a outros países, prometendo "transparência pública" em torno dos produtos de IA.
Kevin Bankston, consultor sênior em governança de IA no Centro para Democracia e Tecnologia, descreveu a tendência de relatórios esporádicos e vagos como uma "corrida para o fundo" em segurança de IA.
"Combinado com relatos de que laboratórios concorrentes como a OpenAI reduziram o tempo de teste de segurança antes do lançamento de meses para dias, esta documentação escassa para o principal modelo de IA do Google conta uma história preocupante de uma corrida para o fundo em segurança e transparência de IA enquanto as empresas apressam seus modelos para o mercado", ele disse ao TechCrunch.
O Google afirmou que, embora não detalhado em seus relatórios técnicos, realiza testes de segurança e "equipes vermelhas adversariais" para modelos antes de seu lançamento.
Atualizado em 22/04 às 12:58 p.m. Pacífico: Modificada a linguagem em torno da referência do relatório técnico ao FSF do Google.
Artigo relacionado
Google Revela Modelos de IA Gemini 2.5 Prontos para Produção para Competir com a OpenAI no Mercado Empresarial
A Google intensificou sua estratégia de IA na segunda-feira, lançando seus modelos avançados Gemini 2.5 para uso empresarial e introduzindo uma variante econômica para competir em preço e desempenho.A
Google Revela Ferramenta Simplificar Alimentada por IA para Leitura na Web Mais Fácil
O aplicativo iOS do Google agora inclui um recurso “Simplificar”, utilizando IA para transformar textos complexos da web em conteúdo claro e compreensível sem sair da página.A ferramenta Simplificar,
Chatbot Gemini Melhora Capacidades de Edição de Imagens
O aplicativo de chatbot Gemini do Google agora permite que os usuários editem imagens geradas por IA e imagens enviadas a partir de telefones ou computadores, anunciou a empresa em um post de blog na
Comentários (6)
0/200
MarkSanchez
1 de Agosto de 2025 à34 14:47:34 WEST
Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.
0
WalterKing
29 de Abril de 2025 à22 16:19:22 WEST
Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔
0
CharlesThomas
29 de Abril de 2025 à55 02:17:55 WEST
ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅
0
AlbertWalker
29 de Abril de 2025 à7 00:15:07 WEST
Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔
0
JimmyGarcia
28 de Abril de 2025 à42 21:01:42 WEST
O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔
0
BillyThomas
28 de Abril de 2025 à33 00:41:33 WEST
El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔
0
Na quinta-feira, semanas após o lançamento de seu modelo de IA mais recente e avançado, Gemini 2.5 Pro, o Google publicou um relatório técnico detalhando os resultados de suas avaliações internas de segurança. No entanto, especialistas criticaram o relatório por sua falta de detalhes, dificultando a compreensão completa dos riscos potenciais associados ao modelo.
Relatórios técnicos são cruciais no mundo da IA, oferecendo insights — mesmo que às vezes pouco lisonjeiros — que as empresas geralmente não compartilham publicamente. Esses relatórios são geralmente vistos pela comunidade de IA como esforços genuínos para promover a pesquisa independente e aprimorar as avaliações de segurança.
A abordagem do Google para relatórios de segurança difere de alguns de seus concorrentes. A empresa só publica relatórios técnicos quando um modelo ultrapassa a fase "experimental". Além disso, o Google omite certos resultados de avaliações de "capacidades perigosas" desses relatórios, reservando-os para uma auditoria separada.
Apesar disso, vários especialistas expressaram decepção com o relatório do Gemini 2.5 Pro ao TechCrunch, apontando sua cobertura escassa do Quadro de Segurança de Fronteira (FSF) proposto pelo Google. O Google apresentou o FSF no último ano, com o objetivo de identificar futuras capacidades de IA que possam levar a "danos graves".
"Este relatório é muito escasso, contém informações mínimas e foi lançado semanas após o modelo já ter sido tornado público", disse Peter Wildeford, cofundador do Instituto para Política e Estratégia de IA, ao TechCrunch. "É impossível verificar se o Google está cumprindo seus compromissos públicos e, portanto, impossível avaliar a segurança e a proteção de seus modelos."
Thomas Woodside, cofundador do Projeto de IA Segura, reconheceu a publicação do relatório para o Gemini 2.5 Pro, mas questionou a dedicação do Google em fornecer avaliações suplementares de segurança em tempo hábil. Ele observou que o Google publicou pela última vez resultados de testes de capacidades perigosas em junho de 2024, para um modelo anunciado em fevereiro daquele ano.
Acrescentando às preocupações, o Google ainda não lançou um relatório para o Gemini 2.5 Flash, um modelo menor e mais eficiente anunciado na última semana. Um porta-voz informou ao TechCrunch que um relatório para o Flash está "chegando em breve".
"Espero que isso seja uma promessa do Google de começar a publicar atualizações mais frequentes", disse Woodside ao TechCrunch. "Essas atualizações devem incluir os resultados de avaliações para modelos que ainda não foram implantados publicamente, já que esses modelos também podem representar riscos sérios."
Embora o Google tenha sido um dos primeiros laboratórios de IA a propor relatórios padronizados para modelos, não está sozinho ao enfrentar críticas por falta de transparência. A Meta publicou uma avaliação de segurança igualmente breve para seus novos modelos abertos Llama 4, e a OpenAI optou por não publicar nenhum relatório para sua série GPT-4.1.
As garantias do Google aos reguladores sobre a manutenção de altos padrões em testes e relatórios de segurança de IA aumentam a pressão sobre a situação. Há dois anos, o Google prometeu ao governo dos EUA publicar relatórios de segurança para todos os modelos de IA públicos "significativos" dentro do escopo, seguido por compromissos semelhantes a outros países, prometendo "transparência pública" em torno dos produtos de IA.
Kevin Bankston, consultor sênior em governança de IA no Centro para Democracia e Tecnologia, descreveu a tendência de relatórios esporádicos e vagos como uma "corrida para o fundo" em segurança de IA.
"Combinado com relatos de que laboratórios concorrentes como a OpenAI reduziram o tempo de teste de segurança antes do lançamento de meses para dias, esta documentação escassa para o principal modelo de IA do Google conta uma história preocupante de uma corrida para o fundo em segurança e transparência de IA enquanto as empresas apressam seus modelos para o mercado", ele disse ao TechCrunch.
O Google afirmou que, embora não detalhado em seus relatórios técnicos, realiza testes de segurança e "equipes vermelhas adversariais" para modelos antes de seu lançamento.
Atualizado em 22/04 às 12:58 p.m. Pacífico: Modificada a linguagem em torno da referência do relatório técnico ao FSF do Google.




Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.




Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔




ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅




Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔




O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔




El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔












