opção
Lar
Notícias
OpenAI lança GPT-4.1 sem relatório de segurança

OpenAI lança GPT-4.1 sem relatório de segurança

3 de Julho de 2025
0

O GPT-4.1 da OpenAI é lançado sem relatório de segurança — Veja por que isso importa

Na segunda-feira, a OpenAI apresentou o GPT-4.1, seu mais recente modelo de IA, com desempenho aprimorado — especialmente em benchmarks de programação. Mas, diferente dos lançamentos anteriores, este veio com uma omissão notável: nenhum relatório de segurança.

Normalmente, a OpenAI publica um "cartão de sistema" detalhando avaliações de segurança internas e de terceiros, revelando riscos potenciais, como comportamento enganoso ou capacidades persuasivas não intencionais. Esses relatórios são vistos como um esforço de boa-fé para promover transparência no desenvolvimento de IA.

No entanto, até terça-feira, a OpenAI confirmou que não lançará um para o GPT-4.1. De acordo com o porta-voz Shaokyi Amdo, o modelo não é considerado um sistema de IA "de fronteira" — o que significa que ele não ultrapassa os limites o suficiente para justificar uma análise completa de segurança.

Uma tendência para menos transparência?

Essa decisão ocorre em meio a crescentes preocupações de que grandes laboratórios de IA estão reduzindo as divulgações de segurança. No último ano:

  • Google atrasou a divulgação de relatórios de segurança.
  • Anthropic e outros publicaram avaliações menos detalhadas.
  • A própria OpenAI enfrentou críticas por relatórios inconsistentes, incluindo:
    • Publicação de um relatório de segurança de dezembro de 2023 com resultados de benchmark que não correspondiam ao modelo em produção.
    • Lançamento do DeepSeek-V3 semanas antes de publicar seu cartão de sistema.

Steven Adler, ex-pesquisador de segurança da OpenAI, disse à TechCrunch que, embora esses relatórios sejam voluntários, eles se tornaram uma ferramenta essencial de transparência na indústria de IA. A OpenAI já se comprometeu com governos — incluindo antes da Cúpula de Segurança de IA do Reino Unido de 2023 — que os cartões de sistema são essenciais para a responsabilidade.

Por que a resistência?

Os relatórios de segurança às vezes revelam verdades desconfortáveis — como modelos que podem manipular usuários ou gerar conteúdo prejudicial. Mas, com a competição crescente, as empresas de IA podem estar priorizando a velocidade em vez do escrutínio.

Relatórios recentes sugerem que a OpenAI reduziu os recursos para testes de segurança, e na última semana, 12 ex-funcionários (incluindo Adler) apresentaram um amicus brief no processo de Elon Musk, alertando que uma OpenAI movida a lucros pode comprometer a segurança.

O GPT-4.1 é arriscado sem um relatório?

Embora o GPT-4.1 não seja o modelo mais avançado da OpenAI, ele melhora a eficiência e reduz a latência — fatores que ainda podem introduzir riscos.

Thomas Woodside, co-fundador do Secure AI Project, argumenta que qualquer aumento de desempenho deve vir acompanhado de documentação de segurança. "Quanto mais sofisticado o modelo, maior o risco," ele disse à TechCrunch.

A grande batalha sobre a regulação de IA

Muitas empresas de IA, incluindo a OpenAI, têm resistido a leis obrigatórias de segurança. No início deste ano, a OpenAI se opôs à SB 1047 da Califórnia, que teria forçado os desenvolvedores de IA a publicar auditorias de segurança para modelos públicos.

Por enquanto, os padrões de transparência da indústria permanecem autoimpostos — e, cada vez mais, opcionais.


Evento TechCrunch: Economize mais de $200 no seu Passe de Todas as Etapas

🚀 Construa de forma mais inteligente. Escale mais rápido. Conecte-se mais profundamente.
Junte-se a visionários da Precursor Ventures, NEA, Index Ventures, Underscore VC e mais para um dia de estratégias, workshops e networking.

📍 Boston, MA | 15 de julho
🔗 INSCREVA-SE AGORA


À medida que a IA evolui, o debate sobre segurança versus velocidade se intensifica. Sem uma responsabilidade mais rigorosa, quem decide quais riscos valem a pena correr?

Artigo relacionado
Бывшие сотрудники OpenAI подали иск против перехода компании на коммерческую модель Бывшие сотрудники OpenAI подали иск против перехода компании на коммерческую модель Бывшие сотрудники OpenAI поддерживают Илона Маска в иске против перехода OpenAI на коммерческую модельГруппа бывших сотрудников OpenAI подала краткое изложение позиции в поддержку иска Илона Маска про
OpenAI улучшает ИИ-модель, лежащую в основе Operator Agent OpenAI улучшает ИИ-модель, лежащую в основе Operator Agent OpenAI выводит Operator на новый уровеньOpenAI представляет масштабное обновление для своего автономного ИИ-агента Operator. В скором времени Operator перейдет на модель o3 — одну
Модель AI o3 от OpenAI показала более низкие результаты в тестировании, чем ожидалось изначально Модель AI o3 от OpenAI показала более низкие результаты в тестировании, чем ожидалось изначально Почему расхождения в бенчмарках важны в ИИКогда речь заходит о ИИ, цифры часто рассказывают историю — и иногда эти цифры не совсем складываются. Возьмем, к примеру, модель o3 от Op
Comentários (0)
0/200
De volta ao topo
OR