OpenAI lança GPT-4.1 sem relatório de segurança
O GPT-4.1 da OpenAI é lançado sem relatório de segurança — Veja por que isso importa
Na segunda-feira, a OpenAI apresentou o GPT-4.1, seu mais recente modelo de IA, com desempenho aprimorado — especialmente em benchmarks de programação. Mas, diferente dos lançamentos anteriores, este veio com uma omissão notável: nenhum relatório de segurança.
Normalmente, a OpenAI publica um "cartão de sistema" detalhando avaliações de segurança internas e de terceiros, revelando riscos potenciais, como comportamento enganoso ou capacidades persuasivas não intencionais. Esses relatórios são vistos como um esforço de boa-fé para promover transparência no desenvolvimento de IA.
No entanto, até terça-feira, a OpenAI confirmou que não lançará um para o GPT-4.1. De acordo com o porta-voz Shaokyi Amdo, o modelo não é considerado um sistema de IA "de fronteira" — o que significa que ele não ultrapassa os limites o suficiente para justificar uma análise completa de segurança.
Uma tendência para menos transparência?
Essa decisão ocorre em meio a crescentes preocupações de que grandes laboratórios de IA estão reduzindo as divulgações de segurança. No último ano:
- Google atrasou a divulgação de relatórios de segurança.
- Anthropic e outros publicaram avaliações menos detalhadas.
- A própria OpenAI enfrentou críticas por relatórios inconsistentes, incluindo:
- Publicação de um relatório de segurança de dezembro de 2023 com resultados de benchmark que não correspondiam ao modelo em produção.
- Lançamento do DeepSeek-V3 semanas antes de publicar seu cartão de sistema.
Steven Adler, ex-pesquisador de segurança da OpenAI, disse à TechCrunch que, embora esses relatórios sejam voluntários, eles se tornaram uma ferramenta essencial de transparência na indústria de IA. A OpenAI já se comprometeu com governos — incluindo antes da Cúpula de Segurança de IA do Reino Unido de 2023 — que os cartões de sistema são essenciais para a responsabilidade.
Por que a resistência?
Os relatórios de segurança às vezes revelam verdades desconfortáveis — como modelos que podem manipular usuários ou gerar conteúdo prejudicial. Mas, com a competição crescente, as empresas de IA podem estar priorizando a velocidade em vez do escrutínio.
Relatórios recentes sugerem que a OpenAI reduziu os recursos para testes de segurança, e na última semana, 12 ex-funcionários (incluindo Adler) apresentaram um amicus brief no processo de Elon Musk, alertando que uma OpenAI movida a lucros pode comprometer a segurança.
O GPT-4.1 é arriscado sem um relatório?
Embora o GPT-4.1 não seja o modelo mais avançado da OpenAI, ele melhora a eficiência e reduz a latência — fatores que ainda podem introduzir riscos.
Thomas Woodside, co-fundador do Secure AI Project, argumenta que qualquer aumento de desempenho deve vir acompanhado de documentação de segurança. "Quanto mais sofisticado o modelo, maior o risco," ele disse à TechCrunch.
A grande batalha sobre a regulação de IA
Muitas empresas de IA, incluindo a OpenAI, têm resistido a leis obrigatórias de segurança. No início deste ano, a OpenAI se opôs à SB 1047 da Califórnia, que teria forçado os desenvolvedores de IA a publicar auditorias de segurança para modelos públicos.
Por enquanto, os padrões de transparência da indústria permanecem autoimpostos — e, cada vez mais, opcionais.
Evento TechCrunch: Economize mais de $200 no seu Passe de Todas as Etapas
🚀 Construa de forma mais inteligente. Escale mais rápido. Conecte-se mais profundamente.
Junte-se a visionários da Precursor Ventures, NEA, Index Ventures, Underscore VC e mais para um dia de estratégias, workshops e networking.
📍 Boston, MA | 15 de julho
🔗 INSCREVA-SE AGORA
À medida que a IA evolui, o debate sobre segurança versus velocidade se intensifica. Sem uma responsabilidade mais rigorosa, quem decide quais riscos valem a pena correr?
Artigo relacionado
Бывшие сотрудники OpenAI подали иск против перехода компании на коммерческую модель
Бывшие сотрудники OpenAI поддерживают Илона Маска в иске против перехода OpenAI на коммерческую модельГруппа бывших сотрудников OpenAI подала краткое изложение позиции в поддержку иска Илона Маска про
OpenAI улучшает ИИ-модель, лежащую в основе Operator Agent
OpenAI выводит Operator на новый уровеньOpenAI представляет масштабное обновление для своего автономного ИИ-агента Operator. В скором времени Operator перейдет на модель o3 — одну
Модель AI o3 от OpenAI показала более низкие результаты в тестировании, чем ожидалось изначально
Почему расхождения в бенчмарках важны в ИИКогда речь заходит о ИИ, цифры часто рассказывают историю — и иногда эти цифры не совсем складываются. Возьмем, к примеру, модель o3 от Op
Comentários (0)
0/200
O GPT-4.1 da OpenAI é lançado sem relatório de segurança — Veja por que isso importa
Na segunda-feira, a OpenAI apresentou o GPT-4.1, seu mais recente modelo de IA, com desempenho aprimorado — especialmente em benchmarks de programação. Mas, diferente dos lançamentos anteriores, este veio com uma omissão notável: nenhum relatório de segurança.
Normalmente, a OpenAI publica um "cartão de sistema" detalhando avaliações de segurança internas e de terceiros, revelando riscos potenciais, como comportamento enganoso ou capacidades persuasivas não intencionais. Esses relatórios são vistos como um esforço de boa-fé para promover transparência no desenvolvimento de IA.
No entanto, até terça-feira, a OpenAI confirmou que não lançará um para o GPT-4.1. De acordo com o porta-voz Shaokyi Amdo, o modelo não é considerado um sistema de IA "de fronteira" — o que significa que ele não ultrapassa os limites o suficiente para justificar uma análise completa de segurança.
Uma tendência para menos transparência?
Essa decisão ocorre em meio a crescentes preocupações de que grandes laboratórios de IA estão reduzindo as divulgações de segurança. No último ano:
- Google atrasou a divulgação de relatórios de segurança.
- Anthropic e outros publicaram avaliações menos detalhadas.
- A própria OpenAI enfrentou críticas por relatórios inconsistentes, incluindo:
- Publicação de um relatório de segurança de dezembro de 2023 com resultados de benchmark que não correspondiam ao modelo em produção.
- Lançamento do DeepSeek-V3 semanas antes de publicar seu cartão de sistema.
Steven Adler, ex-pesquisador de segurança da OpenAI, disse à TechCrunch que, embora esses relatórios sejam voluntários, eles se tornaram uma ferramenta essencial de transparência na indústria de IA. A OpenAI já se comprometeu com governos — incluindo antes da Cúpula de Segurança de IA do Reino Unido de 2023 — que os cartões de sistema são essenciais para a responsabilidade.
Por que a resistência?
Os relatórios de segurança às vezes revelam verdades desconfortáveis — como modelos que podem manipular usuários ou gerar conteúdo prejudicial. Mas, com a competição crescente, as empresas de IA podem estar priorizando a velocidade em vez do escrutínio.
Relatórios recentes sugerem que a OpenAI reduziu os recursos para testes de segurança, e na última semana, 12 ex-funcionários (incluindo Adler) apresentaram um amicus brief no processo de Elon Musk, alertando que uma OpenAI movida a lucros pode comprometer a segurança.
O GPT-4.1 é arriscado sem um relatório?
Embora o GPT-4.1 não seja o modelo mais avançado da OpenAI, ele melhora a eficiência e reduz a latência — fatores que ainda podem introduzir riscos.
Thomas Woodside, co-fundador do Secure AI Project, argumenta que qualquer aumento de desempenho deve vir acompanhado de documentação de segurança. "Quanto mais sofisticado o modelo, maior o risco," ele disse à TechCrunch.
A grande batalha sobre a regulação de IA
Muitas empresas de IA, incluindo a OpenAI, têm resistido a leis obrigatórias de segurança. No início deste ano, a OpenAI se opôs à SB 1047 da Califórnia, que teria forçado os desenvolvedores de IA a publicar auditorias de segurança para modelos públicos.
Por enquanto, os padrões de transparência da indústria permanecem autoimpostos — e, cada vez mais, opcionais.
Evento TechCrunch: Economize mais de $200 no seu Passe de Todas as Etapas
🚀 Construa de forma mais inteligente. Escale mais rápido. Conecte-se mais profundamente.
Junte-se a visionários da Precursor Ventures, NEA, Index Ventures, Underscore VC e mais para um dia de estratégias, workshops e networking.
📍 Boston, MA | 15 de julho
🔗 INSCREVA-SE AGORA
À medida que a IA evolui, o debate sobre segurança versus velocidade se intensifica. Sem uma responsabilidade mais rigorosa, quem decide quais riscos valem a pena correr?












