opção
Lar
Notícias
OpenAI lança GPT-4.1 sem relatório de segurança

OpenAI lança GPT-4.1 sem relatório de segurança

3 de Julho de 2025
14

O GPT-4.1 da OpenAI é lançado sem relatório de segurança — Veja por que isso importa

Na segunda-feira, a OpenAI apresentou o GPT-4.1, seu mais recente modelo de IA, com desempenho aprimorado — especialmente em benchmarks de programação. Mas, diferente dos lançamentos anteriores, este veio com uma omissão notável: nenhum relatório de segurança.

Normalmente, a OpenAI publica um "cartão de sistema" detalhando avaliações de segurança internas e de terceiros, revelando riscos potenciais, como comportamento enganoso ou capacidades persuasivas não intencionais. Esses relatórios são vistos como um esforço de boa-fé para promover transparência no desenvolvimento de IA.

No entanto, até terça-feira, a OpenAI confirmou que não lançará um para o GPT-4.1. De acordo com o porta-voz Shaokyi Amdo, o modelo não é considerado um sistema de IA "de fronteira" — o que significa que ele não ultrapassa os limites o suficiente para justificar uma análise completa de segurança.

Uma tendência para menos transparência?

Essa decisão ocorre em meio a crescentes preocupações de que grandes laboratórios de IA estão reduzindo as divulgações de segurança. No último ano:

  • Google atrasou a divulgação de relatórios de segurança.
  • Anthropic e outros publicaram avaliações menos detalhadas.
  • A própria OpenAI enfrentou críticas por relatórios inconsistentes, incluindo:
    • Publicação de um relatório de segurança de dezembro de 2023 com resultados de benchmark que não correspondiam ao modelo em produção.
    • Lançamento do DeepSeek-V3 semanas antes de publicar seu cartão de sistema.

Steven Adler, ex-pesquisador de segurança da OpenAI, disse à TechCrunch que, embora esses relatórios sejam voluntários, eles se tornaram uma ferramenta essencial de transparência na indústria de IA. A OpenAI já se comprometeu com governos — incluindo antes da Cúpula de Segurança de IA do Reino Unido de 2023 — que os cartões de sistema são essenciais para a responsabilidade.

Por que a resistência?

Os relatórios de segurança às vezes revelam verdades desconfortáveis — como modelos que podem manipular usuários ou gerar conteúdo prejudicial. Mas, com a competição crescente, as empresas de IA podem estar priorizando a velocidade em vez do escrutínio.

Relatórios recentes sugerem que a OpenAI reduziu os recursos para testes de segurança, e na última semana, 12 ex-funcionários (incluindo Adler) apresentaram um amicus brief no processo de Elon Musk, alertando que uma OpenAI movida a lucros pode comprometer a segurança.

O GPT-4.1 é arriscado sem um relatório?

Embora o GPT-4.1 não seja o modelo mais avançado da OpenAI, ele melhora a eficiência e reduz a latência — fatores que ainda podem introduzir riscos.

Thomas Woodside, co-fundador do Secure AI Project, argumenta que qualquer aumento de desempenho deve vir acompanhado de documentação de segurança. "Quanto mais sofisticado o modelo, maior o risco," ele disse à TechCrunch.

A grande batalha sobre a regulação de IA

Muitas empresas de IA, incluindo a OpenAI, têm resistido a leis obrigatórias de segurança. No início deste ano, a OpenAI se opôs à SB 1047 da Califórnia, que teria forçado os desenvolvedores de IA a publicar auditorias de segurança para modelos públicos.

Por enquanto, os padrões de transparência da indústria permanecem autoimpostos — e, cada vez mais, opcionais.


Evento TechCrunch: Economize mais de $200 no seu Passe de Todas as Etapas

🚀 Construa de forma mais inteligente. Escale mais rápido. Conecte-se mais profundamente.
Junte-se a visionários da Precursor Ventures, NEA, Index Ventures, Underscore VC e mais para um dia de estratégias, workshops e networking.

📍 Boston, MA | 15 de julho
🔗 INSCREVA-SE AGORA


À medida que a IA evolui, o debate sobre segurança versus velocidade se intensifica. Sem uma responsabilidade mais rigorosa, quem decide quais riscos valem a pena correr?

Artigo relacionado
O entusiasmo com a IA da Nvidia encontra a realidade à medida que as margens de 70% são examinadas em meio a batalhas de inferência O entusiasmo com a IA da Nvidia encontra a realidade à medida que as margens de 70% são examinadas em meio a batalhas de inferência Guerras de chips de IA eclodem na VB Transform 2025As linhas de batalha foram traçadas durante um painel de discussão inflamado na VB Transform 2025, onde os desafiantes em ascensão miraram diretamen
A OpenAI atualiza o ChatGPT Pro para o3, aumentando o valor da assinatura mensal de US$ 200 A OpenAI atualiza o ChatGPT Pro para o3, aumentando o valor da assinatura mensal de US$ 200 Esta semana testemunhou desenvolvimentos significativos de IA de gigantes da tecnologia, incluindo Microsoft, Google e Anthropic. A OpenAI conclui a enxurrada de anúncios com suas próprias atualizaçõe
Organização sem fins lucrativos utiliza agentes de IA para aumentar os esforços de arrecadação de fundos para instituições de caridade Organização sem fins lucrativos utiliza agentes de IA para aumentar os esforços de arrecadação de fundos para instituições de caridade Enquanto as grandes corporações de tecnologia promovem "agentes" de IA como impulsionadores de produtividade para as empresas, uma organização sem fins lucrativos está demonstrando seu potencial para
Comentários (0)
0/200
De volta ao topo
OR