OpenAI Revela Modelos Avançados de Raciocínio de IA, o3 e o4-mini

OpenAI apresentou o3 e o4-mini na quarta-feira, novos modelos de IA projetados para pausar e analisar perguntas antes de responder.
OpenAI destaca o3 como seu modelo de raciocínio mais sofisticado até agora, superando modelos anteriores em testes de matemática, codificação, raciocínio, ciência e compreensão visual. Enquanto isso, o4-mini equilibra custo, velocidade e desempenho, tornando-o uma forte escolha para desenvolvedores construindo aplicações impulsionadas por IA.
Diferentemente dos modelos anteriores, o3 e o4-mini utilizam ferramentas do ChatGPT como navegação na web, execução de código Python, processamento de imagens e geração de imagens. A partir de hoje, esses modelos, junto com o4-mini-high, que leva mais tempo para melhorar a precisão das respostas, estão disponíveis para assinantes dos planos Pro, Plus e Team da OpenAI.
Os modelos fazem parte do esforço da OpenAI para superar rivais como Google, Meta, xAI, Anthropic e DeepSeek na corrida global de IA. Embora a OpenAI tenha pioneirado o raciocínio de IA com o1, concorrentes desde então lançaram modelos comparáveis ou superiores, tornando os modelos de raciocínio um foco principal para laboratórios de IA.
Inicialmente, o3 não estava planejado para lançamento no ChatGPT. O CEO da OpenAI, Sam Altman, sugeriu em fevereiro focar em uma alternativa mais avançada usando a tecnologia do o3. No entanto, pressões competitivas provavelmente levaram a OpenAI a lançá-lo.
A OpenAI relata que o3 alcança desempenho de alto nível no SWE-bench verificado (sem scaffoldings personalizados), obtendo 69,1% em tarefas de codificação. O4-mini marca 68,1%, enquanto o3-mini marca 49,3%, em comparação com 62,3% do Claude 3.7 Sonnet.
A OpenAI afirma que o3 e o4-mini são seus primeiros modelos a processar imagens efetivamente. Os usuários podem fazer upload de imagens como esboços em quadros brancos ou diagramas em PDF, e os modelos as analisam durante o processo de raciocínio, lidando com imagens desfocadas ou de baixa qualidade e realizando tarefas como zoom ou rotação.
Além de imagens, o3 e o4-mini executam código Python no navegador por meio do recurso Canvas do ChatGPT e pesquisam na web por consultas de eventos em tempo real.
Todos os três modelos—o3, o4-mini e o4-mini-high—são acessíveis através das APIs Chat Completions e Responses da OpenAI, permitindo que desenvolvedores os integrem em aplicações com precificação baseada em uso.
A OpenAI precifica o3 em $10 por milhão de tokens de entrada (cerca de 750.000 palavras) e $40 por milhão de tokens de saída. O4-mini tem o mesmo preço do o3-mini, a $1,10 por milhão de tokens de entrada e $4,40 por milhão de tokens de saída.
Nas próximas semanas, a OpenAI planeja lançar o3-pro, uma versão intensiva em computação do o3, exclusivamente para assinantes do ChatGPT Pro.
O CEO Sam Altman sugeriu que o3 e o4-mini podem ser os últimos modelos de raciocínio independentes da OpenAI no ChatGPT antes do GPT-5, que integrará capacidades de modelos tradicionais e de raciocínio.
Artigo relacionado
Sam Altman: A consulta ChatGPT usa o mínimo de água - equivalente a 1/15 colher de chá
Em uma postagem de blog na terça-feira, explorando o impacto global da IA, o CEO da OpenAI, Sam Altman, revelou estatísticas surpreendentes sobre o consumo de recursos do ChatGPT, observando que a con
Senado dos EUA retira moratória de IA do projeto de lei orçamentária em meio a controvérsias
Senado revoga por esmagadora maioria a moratória da regulamentação da IAEm uma rara demonstração de unidade bipartidária, os legisladores dos EUA votaram quase por unanimidade na terça-feira para el
OpenAI Apresenta Dois Modelos Avançados de IA de Peso Aberto
A OpenAI anunciou na terça-feira o lançamento de dois modelos de raciocínio de IA de peso aberto, com capacidades comparáveis à sua série o. Ambos os modelos estão disponíveis para download gratuito n
Comentários (3)
0/200
NicholasWalker
4 de Setembro de 2025 à32 19:30:32 WEST
OpenAI又出新模型了,但這次的o3和o4-mini真的能突破現有的推理限制嗎?還是只是換個名字的老套路?🤔 每次聽到『最先進』這種標語就讓人半信半疑...
0
TimothyEvans
25 de Agosto de 2025 à49 06:33:49 WEST
Wow, OpenAI's o3 sounds like a game-changer! Pausing to think before answering? That's some next-level AI. Can't wait to see how it stacks up against other models in real-world tasks! 🤯
0
TimothyHill
21 de Agosto de 2025 à16 16:01:16 WEST
The new o3 model sounds like a game-changer! Pausing to think before answering? That's like giving AI a moment to sip coffee and ponder. Can't wait to see how it tackles complex questions! 😎
0
OpenAI apresentou o3 e o4-mini na quarta-feira, novos modelos de IA projetados para pausar e analisar perguntas antes de responder.
OpenAI destaca o3 como seu modelo de raciocínio mais sofisticado até agora, superando modelos anteriores em testes de matemática, codificação, raciocínio, ciência e compreensão visual. Enquanto isso, o4-mini equilibra custo, velocidade e desempenho, tornando-o uma forte escolha para desenvolvedores construindo aplicações impulsionadas por IA.
Diferentemente dos modelos anteriores, o3 e o4-mini utilizam ferramentas do ChatGPT como navegação na web, execução de código Python, processamento de imagens e geração de imagens. A partir de hoje, esses modelos, junto com o4-mini-high, que leva mais tempo para melhorar a precisão das respostas, estão disponíveis para assinantes dos planos Pro, Plus e Team da OpenAI.
Os modelos fazem parte do esforço da OpenAI para superar rivais como Google, Meta, xAI, Anthropic e DeepSeek na corrida global de IA. Embora a OpenAI tenha pioneirado o raciocínio de IA com o1, concorrentes desde então lançaram modelos comparáveis ou superiores, tornando os modelos de raciocínio um foco principal para laboratórios de IA.
Inicialmente, o3 não estava planejado para lançamento no ChatGPT. O CEO da OpenAI, Sam Altman, sugeriu em fevereiro focar em uma alternativa mais avançada usando a tecnologia do o3. No entanto, pressões competitivas provavelmente levaram a OpenAI a lançá-lo.
A OpenAI relata que o3 alcança desempenho de alto nível no SWE-bench verificado (sem scaffoldings personalizados), obtendo 69,1% em tarefas de codificação. O4-mini marca 68,1%, enquanto o3-mini marca 49,3%, em comparação com 62,3% do Claude 3.7 Sonnet.
A OpenAI afirma que o3 e o4-mini são seus primeiros modelos a processar imagens efetivamente. Os usuários podem fazer upload de imagens como esboços em quadros brancos ou diagramas em PDF, e os modelos as analisam durante o processo de raciocínio, lidando com imagens desfocadas ou de baixa qualidade e realizando tarefas como zoom ou rotação.
Além de imagens, o3 e o4-mini executam código Python no navegador por meio do recurso Canvas do ChatGPT e pesquisam na web por consultas de eventos em tempo real.
Todos os três modelos—o3, o4-mini e o4-mini-high—são acessíveis através das APIs Chat Completions e Responses da OpenAI, permitindo que desenvolvedores os integrem em aplicações com precificação baseada em uso.
A OpenAI precifica o3 em $10 por milhão de tokens de entrada (cerca de 750.000 palavras) e $40 por milhão de tokens de saída. O4-mini tem o mesmo preço do o3-mini, a $1,10 por milhão de tokens de entrada e $4,40 por milhão de tokens de saída.
Nas próximas semanas, a OpenAI planeja lançar o3-pro, uma versão intensiva em computação do o3, exclusivamente para assinantes do ChatGPT Pro.
O CEO Sam Altman sugeriu que o3 e o4-mini podem ser os últimos modelos de raciocínio independentes da OpenAI no ChatGPT antes do GPT-5, que integrará capacidades de modelos tradicionais e de raciocínio.




OpenAI又出新模型了,但這次的o3和o4-mini真的能突破現有的推理限制嗎?還是只是換個名字的老套路?🤔 每次聽到『最先進』這種標語就讓人半信半疑...




Wow, OpenAI's o3 sounds like a game-changer! Pausing to think before answering? That's some next-level AI. Can't wait to see how it stacks up against other models in real-world tasks! 🤯




The new o3 model sounds like a game-changer! Pausing to think before answering? That's like giving AI a moment to sip coffee and ponder. Can't wait to see how it tackles complex questions! 😎












