opção
Lar
Notícias
OpenAI lança GPT-4.1 sem relatório de segurança

OpenAI lança GPT-4.1 sem relatório de segurança

3 de Julho de 2025
13

O GPT-4.1 da OpenAI é lançado sem relatório de segurança — Veja por que isso importa

Na segunda-feira, a OpenAI apresentou o GPT-4.1, seu mais recente modelo de IA, com desempenho aprimorado — especialmente em benchmarks de programação. Mas, diferente dos lançamentos anteriores, este veio com uma omissão notável: nenhum relatório de segurança.

Normalmente, a OpenAI publica um "cartão de sistema" detalhando avaliações de segurança internas e de terceiros, revelando riscos potenciais, como comportamento enganoso ou capacidades persuasivas não intencionais. Esses relatórios são vistos como um esforço de boa-fé para promover transparência no desenvolvimento de IA.

No entanto, até terça-feira, a OpenAI confirmou que não lançará um para o GPT-4.1. De acordo com o porta-voz Shaokyi Amdo, o modelo não é considerado um sistema de IA "de fronteira" — o que significa que ele não ultrapassa os limites o suficiente para justificar uma análise completa de segurança.

Uma tendência para menos transparência?

Essa decisão ocorre em meio a crescentes preocupações de que grandes laboratórios de IA estão reduzindo as divulgações de segurança. No último ano:

  • Google atrasou a divulgação de relatórios de segurança.
  • Anthropic e outros publicaram avaliações menos detalhadas.
  • A própria OpenAI enfrentou críticas por relatórios inconsistentes, incluindo:
    • Publicação de um relatório de segurança de dezembro de 2023 com resultados de benchmark que não correspondiam ao modelo em produção.
    • Lançamento do DeepSeek-V3 semanas antes de publicar seu cartão de sistema.

Steven Adler, ex-pesquisador de segurança da OpenAI, disse à TechCrunch que, embora esses relatórios sejam voluntários, eles se tornaram uma ferramenta essencial de transparência na indústria de IA. A OpenAI já se comprometeu com governos — incluindo antes da Cúpula de Segurança de IA do Reino Unido de 2023 — que os cartões de sistema são essenciais para a responsabilidade.

Por que a resistência?

Os relatórios de segurança às vezes revelam verdades desconfortáveis — como modelos que podem manipular usuários ou gerar conteúdo prejudicial. Mas, com a competição crescente, as empresas de IA podem estar priorizando a velocidade em vez do escrutínio.

Relatórios recentes sugerem que a OpenAI reduziu os recursos para testes de segurança, e na última semana, 12 ex-funcionários (incluindo Adler) apresentaram um amicus brief no processo de Elon Musk, alertando que uma OpenAI movida a lucros pode comprometer a segurança.

O GPT-4.1 é arriscado sem um relatório?

Embora o GPT-4.1 não seja o modelo mais avançado da OpenAI, ele melhora a eficiência e reduz a latência — fatores que ainda podem introduzir riscos.

Thomas Woodside, co-fundador do Secure AI Project, argumenta que qualquer aumento de desempenho deve vir acompanhado de documentação de segurança. "Quanto mais sofisticado o modelo, maior o risco," ele disse à TechCrunch.

A grande batalha sobre a regulação de IA

Muitas empresas de IA, incluindo a OpenAI, têm resistido a leis obrigatórias de segurança. No início deste ano, a OpenAI se opôs à SB 1047 da Califórnia, que teria forçado os desenvolvedores de IA a publicar auditorias de segurança para modelos públicos.

Por enquanto, os padrões de transparência da indústria permanecem autoimpostos — e, cada vez mais, opcionais.


Evento TechCrunch: Economize mais de $200 no seu Passe de Todas as Etapas

🚀 Construa de forma mais inteligente. Escale mais rápido. Conecte-se mais profundamente.
Junte-se a visionários da Precursor Ventures, NEA, Index Ventures, Underscore VC e mais para um dia de estratégias, workshops e networking.

📍 Boston, MA | 15 de julho
🔗 INSCREVA-SE AGORA


À medida que a IA evolui, o debate sobre segurança versus velocidade se intensifica. Sem uma responsabilidade mais rigorosa, quem decide quais riscos valem a pena correr?

Artigo relacionado
Investimento de US$ 40 bilhões da Oracle em chips Nvidia impulsiona centro de dados de IA no Texas Investimento de US$ 40 bilhões da Oracle em chips Nvidia impulsiona centro de dados de IA no Texas A Oracle planeja investir aproximadamente US$ 40 bilhões em chips Nvidia para alimentar um grande novo centro de dados no Texas, desenvolvido pela OpenAI, conforme relatado pelo Financial Times. Este
SoftBank Adquire Fábrica da Sharp por $676M para Centro de Dados de IA no Japão SoftBank Adquire Fábrica da Sharp por $676M para Centro de Dados de IA no Japão A SoftBank está avançando em seu objetivo de estabelecer um grande centro de IA no Japão, tanto de forma independente quanto por meio de parcerias como a OpenAI. A gigante da tecnologia confirmou na s
Adobe e Figma Integram o Modelo Avançado de Geração de Imagens da OpenAI Adobe e Figma Integram o Modelo Avançado de Geração de Imagens da OpenAI A geração de imagens aprimorada da OpenAI no ChatGPT impulsionou um aumento de usuários, alimentado por sua capacidade de produzir visuais no estilo Studio Ghibli e designs únicos, e agora está se exp
Comentários (0)
0/200
De volta ao topo
OR