Lar Notícias O mais recente relatório do modelo de AI do Google não possui detalhes importantes de segurança, dizem os especialistas

O mais recente relatório do modelo de AI do Google não possui detalhes importantes de segurança, dizem os especialistas

27 de Abril de 2025
ChristopherThomas
0

Na quinta -feira, semanas após o lançamento do seu mais recente e mais avançado modelo de IA, Gemini 2.5 Pro, o Google divulgou um relatório técnico detalhando os resultados de suas avaliações de segurança interna. No entanto, os especialistas criticaram o relatório por sua falta de detalhes, tornando difícil entender completamente os riscos potenciais associados ao modelo.

Os relatórios técnicos são cruciais no mundo da IA, oferecendo informações - mesmo que às vezes sejam desagradáveis ​​- que as empresas geralmente não compartilham publicamente. Esses relatórios são geralmente vistos pela comunidade de IA como esforços genuínos para promover pesquisas independentes e aprimorar as avaliações de segurança.

A abordagem do Google para os relatórios de segurança difere de alguns de seus concorrentes. A empresa publica apenas relatórios técnicos quando um modelo vai além da fase "experimental". Além disso, o Google omite certos resultados de avaliação de "capacidade perigosa" desses relatórios, salvando -os para uma auditoria separada.

Apesar disso, vários especialistas expressaram decepção com o relatório Gemini 2.5 Pro para o TechCrunch, apontando sua pouca cobertura da estrutura de segurança de fronteira proposta do Google (FSF). O Google apresentou o FSF no ano passado, com o objetivo de identificar futuros recursos de IA que possam levar a "danos graves".

"Este relatório é muito escasso, contém informações mínimas e foi divulgado semanas depois que o modelo já foi tornado público", disse Peter Wildford, co-fundador do Instituto de Política e Estratégia de IA, à TechCrunch. "É impossível verificar se o Google está cumprindo seus compromissos públicos e, portanto, impossível avaliar a segurança de seus modelos".

Thomas Woodside, co-fundador do projeto de IA seguro, reconheceu a liberação do relatório para Gemini 2.5 Pro, mas questionou a dedicação do Google em fornecer avaliações de segurança suplementares oportunas. Ele observou que o Google publicou os resultados de testes de capacidade perigosos pela última vez em junho de 2024, para um modelo anunciado em fevereiro daquele ano.

Além das preocupações, o Google ainda não divulgou um relatório para o Gemini 2.5 Flash, um modelo menor e mais eficiente anunciado na semana passada. Um porta -voz informou a TechCrunch que um relatório para o Flash está "chegando em breve".

"Espero que seja uma promessa do Google para começar a publicar atualizações mais frequentes", disse Woodside ao TechCrunch. "Essas atualizações devem incluir os resultados das avaliações para modelos que ainda não foram implantados publicamente, pois esses modelos também podem representar riscos sérios".

Embora o Google estivesse entre os primeiros laboratórios de IA a propor relatórios padronizados para modelos, ele não está sozinho em enfrentar críticas por falta de transparência. A Meta divulgou uma avaliação de segurança igualmente breve para seus novos modelos abertos LLAMA 4 e o OpenAI optou por não publicar nenhum relatório para sua série GPT-4.1.

As garantias do Google aos reguladores sobre a manutenção de altos padrões nos testes e relatórios de segurança da IA ​​adicionam pressão à situação. Dois anos atrás, o Google prometeu ao governo dos EUA que publicasse relatórios de segurança para todos os modelos públicos de IA "significativos" dentro do escopo ", seguidos de compromissos semelhantes com outros países, comprometendo a" transparência pública "em torno dos produtos de IA.

Kevin Bankston, consultor sênior de governança de IA no Centro de Democracia e Tecnologia, descreveu a tendência dos relatórios esporádicos e vagos como uma "corrida para o fundo" na segurança da IA.

"Combinados com relatos de que laboratórios concorrentes como o OpenAI reduziram seu tempo de teste de segurança antes do lançamento de meses para dias, essa escassa documentação para o principal modelo de IA do Google conta uma história preocupante de uma corrida para o fundo da segurança e transparência da IA, à medida que as empresas apressam seus modelos para o mercado", disse ele ao TechCrunch.

O Google afirmou que, embora não seja detalhado em seus relatórios técnicos, realiza testes de segurança e "equipes vermelhas adversárias" para modelos antes de seu lançamento.

Atualizado em 22/4 às 12:58 Pacífico: linguagem modificada em torno da referência do relatório técnico ao FSF do Google.

Artigo relacionado
Google’s latest AI model report lacks key safety details, experts say Google’s latest AI model report lacks key safety details, experts say On Thursday, weeks after launching its latest and most advanced AI model, Gemini 2.5 Pro, Google released a technical report detailing the results of its internal safety assessments. However, experts have criticized the report for its lack of detail, making it challenging to fully understand the pot
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models In a recent episode of the podcast Possible, co-hosted by LinkedIn co-founder Reid Hoffman, Google DeepMind CEO Demis Hassabis shared some exciting news about Google's plans. He revealed that Google is looking to merge its Gemini AI models with the Veo video-generating models. This fusion aims to en
Comentários (0)
0/200
Back to Top
OR