OpenAI apresenta modelo de raciocínio avançado o3 no final do 'Shipmas'

À medida que a temporada de festas se aproxima, as empresas estão aderindo ao clima festivo com ofertas e promoções especiais. A OpenAI não é exceção, lançando sua empolgante série de eventos "12 dias de OpenAI". Anunciado por meio de uma postagem no X, a empresa deu início a este evento em 5 de dezembro, prometendo 12 dias de transmissões ao vivo e uma série de novos lançamentos, grandes e pequenos. O grande final ocorreu em 20 de dezembro, com a OpenAI revelando seu anúncio mais significativo da série.
Então, o que exatamente é o '12 dias de OpenAI'?
O que são os '12 dias de OpenAI'?
O CEO da OpenAI, Sam Altman, foi ao X para compartilhar os detalhes deste evento tão aguardado. Começando às 10h da manhã, horário do Pacífico, em 5 de dezembro, o evento ocorreu diariamente durante 12 dias úteis, com transmissões ao vivo apresentando lançamentos e demonstrações. Altman descreveu os lançamentos como uma mistura de "grandes novidades" e "mimos", garantindo que havia algo para todos.
🎄🎅começando amanhã às 10h, horário do Pacífico, faremos 12 dias de OpenAI.
cada dia útil, teremos uma transmissão ao vivo com um lançamento ou demonstração, alguns grandes e alguns mimos.
temos coisas ótimas para compartilhar, esperamos que você goste! Feliz Natal.
— Sam Altman (@sama) 4 de dezembro de 2024
O que foi lançado?
Sexta-feira, 20 de dezembro
No último dia do evento, a OpenAI revelou seus mais recentes modelos, coletivamente conhecidos como o3, que inclui o3 e o3 mini. O nome "o3" foi escolhido para evitar confusão com a marca de telecomunicações O2 da Telefonica. Embora esses modelos ainda não estejam disponíveis para o público em geral, eles mostram avanços promissores. O o3 supera seu antecessor, o1, em vários benchmarks, incluindo matemática e ciências, conforme demonstrado em seu desempenho no AIME 2024 e GPQA. Além disso, o o3 alcançou uma nova pontuação de ponta no benchmark ARC-AGI, aproximando-se do AGI, embora ainda não tenha chegado lá. O o3 mini oferece três opções de raciocínio: baixo, médio e alto, com desempenho variando com base no tempo de pensamento. A OpenAI também está abrindo esses modelos para testes de segurança externos, com pesquisadores podendo solicitar acesso antecipado até 10 de janeiro. Sam Altman concluiu a transmissão ao vivo anunciando o lançamento planejado do modelo o3 no final de janeiro, seguido pelo modelo o3 completo. A empresa também apresentou o "alinhamento deliberativo", um novo paradigma de treinamento para LLMs.
Quinta-feira, 19 de dezembro
O penúltimo dia focou no aplicativo de desktop MacOS e sua interoperabilidade com outros aplicativos. Os usuários agora podem automatizar seu trabalho com o ChatGPT no MacOS, com novos recursos suportando uma variedade de aplicativos de codificação e escrita. O aplicativo de desktop também suporta o Modo de Voz Avançado, e esses recursos já estão disponíveis com a versão mais recente do aplicativo e uma assinatura adequada. A OpenAI enfatizou a privacidade, garantindo que o ChatGPT só interage com outros aplicativos quando solicitado manualmente. A empresa provocou um anúncio empolgante para o último dia.
Quarta-feira, 18 de dezembro
Já desejou usar o ChatGPT sem Wi-Fi? Agora, você pode simplesmente ligar para 1-800-ChatGPT para acessar. A OpenAI incentiva os usuários a salvar esse número em seus contatos. O serviço está disponível em todo os EUA, e internacionalmente, os usuários podem enviar mensagens para o ChatGPT no WhatsApp, com 15 minutos de chamadas gratuitas por mês. Esse recurso visa tornar o ChatGPT mais acessível a um público mais amplo.
Terça-feira, 17 de dezembro
O nono dia foi um "Mini Dev Day", focado em recursos e atualizações para desenvolvedores. O modelo o1 agora está fora da pré-visualização na API, suportando chamadas de função, saídas estruturadas e mais. Um novo parâmetro de "esforço de raciocínio" ajuda na eficiência de custos, enquanto o suporte ao WebRTC aprimora a API em Tempo Real. A API de ajuste fino agora inclui Ajuste Fino de Preferência, e novos SDKs Go e Java estão disponíveis em beta. Uma sessão de AMA foi realizada na plataforma GitHub da OpenAI após a transmissão ao vivo.
Segunda-feira, 16 de dezembro
A segunda segunda-feira focou na Pesquisa no ChatGPT, agora disponível para todos os usuários, não apenas assinantes do ChatGPT Plus. A experiência de pesquisa foi aprimorada, especialmente em dispositivos móveis, com uma experiência de mapa enriquecida e resultados visuais ricos em imagens. A pesquisa também está integrada ao Modo de Voz Avançado, permitindo que os usuários pesquisem na web verbalmente. A OpenAI provocou os desenvolvedores sobre o próximo "mini Dev Day".
Sexta-feira, 13 de dezembro
Um dos recursos mais solicitados foi entregue neste dia: "Projetos", uma nova maneira de organizar e personalizar conversas no ChatGPT. Os usuários podem criar Projetos com títulos, cores de pastas personalizadas e arquivos relevantes, facilitando o gerenciamento de conversas e a retomada de onde pararam. Esse recurso está sendo implementado para usuários Plus, Pro e Teams, com planos de expansão para usuários gratuitos em breve.
Quinta-feira, 12 de dezembro
Após se desculpar por um problema em uma transmissão ao vivo anterior, a OpenAI anunciou que o Modo de Voz Avançado agora inclui compartilhamento de tela e capacidades visuais. Isso permite que o ChatGPT forneça assistência contextualmente relevante com base no que vê. Uma voz especial de Papai Noel também foi introduzida para a temporada de festas, disponível em todas as plataformas onde o modo de voz do ChatGPT está acessível. Vídeo e compartilhamento de tela estão sendo implementados para usuários Team e a maioria dos assinantes Pro e Plus, com planos para acesso mais amplo no futuro.
Quarta-feira, 11 de dezembro
Com o lançamento do iOS 18.2, a OpenAI detalhou sua integração com o ecossistema da Apple. A Siri agora pode usar o ChatGPT para consultas fora de seu escopo, com permissão do usuário. A Inteligência Visual no iPhone 16 permite que os usuários apontem sua câmera para objetos e usem o ChatGPT para obter informações ou realizar tarefas como tradução. As Ferramentas de Escrita agora incluem uma ferramenta "Compor", permitindo a criação de texto e geração de imagens usando DALL-E. Todos os recursos estão sujeitos aos limites de uso diário do ChatGPT.
Terça-feira, 10 de dezembro
O Canvas, um favorito entre os usuários avançados do ChatGPT, agora está disponível para todos os usuários da web no GPT-4o, não mais limitado aos usuários beta do ChatGPT Plus. Integrado nativamente ao GPT-4o, o Canvas fornece uma interface perfeita para gerenciar trocas de perguntas e respostas e edições de projetos. Ele também pode ser usado com GPTs personalizados e até executar código Python diretamente, aumentando a produtividade em tarefas de codificação.
Segunda-feira, 9 de dezembro
A OpenAI provocou o lançamento muito aguardado de seu modelo de vídeo, Sora Turbo, que é mais inteligente e acessível do que a pré-visualização de fevereiro. Disponível para usuários ChatGPT Plus e Pro nos EUA, o Sora pode gerar conteúdo de vídeo para vídeo e texto para vídeo. O modelo apresenta uma página de exploração para visualizar criações, e uma demonstração ao vivo mostrou suas capacidades impressionantes. A OpenAI também introduziu o Storyboard, uma ferramenta para gerar entradas para sequências de vídeo.
Sexta-feira, 6 de dezembro
No segundo dia, a OpenAI expandiu o acesso ao seu Programa de Pesquisa de Ajuste Fino por Reforço, permitindo que desenvolvedores e engenheiros de aprendizado de máquina ajustem modelos para tarefas específicas. O programa incentiva candidaturas de institutos de pesquisa, universidades e empresas, com planos de torná-lo publicamente disponível no início de 2025.
Quinta-feira, 5 de dezembro
A OpenAI deu início ao evento com força, revelando o ChatGPT Pro, um novo nível de assinatura para superusuários, e a versão completa de seu modelo o1. O modelo o1 oferece desempenho e velocidade aprimorados, substituindo o o1-preview para usuários ChatGPT Plus e Pro. O ChatGPT Pro fornece acesso ilimitado aos melhores modelos da OpenAI, incluindo o1-mini, GPT-4o e Modo Avançado, a um custo de $200 por mês.
Onde você pode acessar a transmissão ao vivo?
Onde você pode acessar a transmissão ao vivo?
As transmissões ao vivo foram hospedadas no site da OpenAI e imediatamente carregadas em seu canal no YouTube. Se você perdeu algum dos 12 dias de OpenAI, pode acompanhar assistindo às gravações no canal do YouTube da empresa.
Artigo relacionado
Salesforce Apresenta Companheiros Digitais de IA no Slack para Rivalizar com o Microsoft Copilot
A Salesforce lançou uma nova estratégia de IA para o local de trabalho, introduzindo “companheiros digitais” especializados integrados às conversas do Slack, revelou a empresa na segunda-feira.A nova
Papel da IA no Hip Hop: Ferramenta para Inovação ou Atalho Criativo?
A inteligência artificial está remodelando a vida cotidiana, e a cena musical também sente essa mudança. No hip hop, novos sistemas de IA buscam transformar a construção de faixas, a criação de versos
Investimento de US$ 40 bilhões da Oracle em chips Nvidia impulsiona centro de dados de IA no Texas
A Oracle planeja investir aproximadamente US$ 40 bilhões em chips Nvidia para alimentar um grande novo centro de dados no Texas, desenvolvido pela OpenAI, conforme relatado pelo Financial Times. Este
Comentários (6)
0/200
ScottGarcía
31 de Julho de 2025 à20 02:41:20 WEST
This o3 model sounds like a game-changer! 🤯 Can't wait to see how it stacks up against other AI reasoning models out there.
0
ElijahCollins
28 de Maio de 2025 à33 00:14:33 WEST
OpenAI's o3 model launch was super cool! It felt like Christmas came early. Watching their live sessions over these 12 days was engaging, though sometimes the tech glitches were frustrating. Overall, it's a huge leap forward in AI reasoning capabilities. 🎅🌟
0
BrianMartinez
27 de Maio de 2025 à22 17:55:22 WEST
¡La presentación del modelo o3 de OpenAI fue impresionante! Las sesiones en vivo durante los 12 días fueron muy interesantes, aunque hubo algunos problemas técnicos. Sin embargo, es un gran avance en la capacidad de razonamiento de IA. 🎅🌟
0
StephenMartinez
27 de Maio de 2025 à13 16:49:13 WEST
OpenAI推出的o3推理模型发布真是令人兴奋!12天的直播活动也很有趣,不过偶尔技术问题让人头疼。总体来说,这是AI能力的一大进步!🎉🌟
0
GaryWalker
27 de Maio de 2025 à54 10:48:54 WEST
オープンAIのo3モデルの発表は興奮しました!12日間のライブセッションも楽しかったけど、たまに技術的な問題が起こるのが残念でした。でも、AIの推論能力が向上したのは間違いありません!🎄✨
0
StevenGonzalez
27 de Maio de 2025 à47 08:37:47 WEST
오픈AI의 o3 모델 공개 정말 대박이야! 12일간의 라이브 세션도 재밌었는데, 기술적인 문제는 좀 아쉬웠어. 그래도 AI 추론 능력 엄청나게 좋아졌네! 🎄🌟
0
À medida que a temporada de festas se aproxima, as empresas estão aderindo ao clima festivo com ofertas e promoções especiais. A OpenAI não é exceção, lançando sua empolgante série de eventos "12 dias de OpenAI". Anunciado por meio de uma postagem no X, a empresa deu início a este evento em 5 de dezembro, prometendo 12 dias de transmissões ao vivo e uma série de novos lançamentos, grandes e pequenos. O grande final ocorreu em 20 de dezembro, com a OpenAI revelando seu anúncio mais significativo da série.
Então, o que exatamente é o '12 dias de OpenAI'?
O que são os '12 dias de OpenAI'?
O CEO da OpenAI, Sam Altman, foi ao X para compartilhar os detalhes deste evento tão aguardado. Começando às 10h da manhã, horário do Pacífico, em 5 de dezembro, o evento ocorreu diariamente durante 12 dias úteis, com transmissões ao vivo apresentando lançamentos e demonstrações. Altman descreveu os lançamentos como uma mistura de "grandes novidades" e "mimos", garantindo que havia algo para todos.
🎄🎅começando amanhã às 10h, horário do Pacífico, faremos 12 dias de OpenAI.
cada dia útil, teremos uma transmissão ao vivo com um lançamento ou demonstração, alguns grandes e alguns mimos.
temos coisas ótimas para compartilhar, esperamos que você goste! Feliz Natal.— Sam Altman (@sama) 4 de dezembro de 2024
O que foi lançado?
Sexta-feira, 20 de dezembro
No último dia do evento, a OpenAI revelou seus mais recentes modelos, coletivamente conhecidos como o3, que inclui o3 e o3 mini. O nome "o3" foi escolhido para evitar confusão com a marca de telecomunicações O2 da Telefonica. Embora esses modelos ainda não estejam disponíveis para o público em geral, eles mostram avanços promissores. O o3 supera seu antecessor, o1, em vários benchmarks, incluindo matemática e ciências, conforme demonstrado em seu desempenho no AIME 2024 e GPQA. Além disso, o o3 alcançou uma nova pontuação de ponta no benchmark ARC-AGI, aproximando-se do AGI, embora ainda não tenha chegado lá. O o3 mini oferece três opções de raciocínio: baixo, médio e alto, com desempenho variando com base no tempo de pensamento. A OpenAI também está abrindo esses modelos para testes de segurança externos, com pesquisadores podendo solicitar acesso antecipado até 10 de janeiro. Sam Altman concluiu a transmissão ao vivo anunciando o lançamento planejado do modelo o3 no final de janeiro, seguido pelo modelo o3 completo. A empresa também apresentou o "alinhamento deliberativo", um novo paradigma de treinamento para LLMs.
Quinta-feira, 19 de dezembro
O penúltimo dia focou no aplicativo de desktop MacOS e sua interoperabilidade com outros aplicativos. Os usuários agora podem automatizar seu trabalho com o ChatGPT no MacOS, com novos recursos suportando uma variedade de aplicativos de codificação e escrita. O aplicativo de desktop também suporta o Modo de Voz Avançado, e esses recursos já estão disponíveis com a versão mais recente do aplicativo e uma assinatura adequada. A OpenAI enfatizou a privacidade, garantindo que o ChatGPT só interage com outros aplicativos quando solicitado manualmente. A empresa provocou um anúncio empolgante para o último dia.
Quarta-feira, 18 de dezembro
Já desejou usar o ChatGPT sem Wi-Fi? Agora, você pode simplesmente ligar para 1-800-ChatGPT para acessar. A OpenAI incentiva os usuários a salvar esse número em seus contatos. O serviço está disponível em todo os EUA, e internacionalmente, os usuários podem enviar mensagens para o ChatGPT no WhatsApp, com 15 minutos de chamadas gratuitas por mês. Esse recurso visa tornar o ChatGPT mais acessível a um público mais amplo.
Terça-feira, 17 de dezembro
O nono dia foi um "Mini Dev Day", focado em recursos e atualizações para desenvolvedores. O modelo o1 agora está fora da pré-visualização na API, suportando chamadas de função, saídas estruturadas e mais. Um novo parâmetro de "esforço de raciocínio" ajuda na eficiência de custos, enquanto o suporte ao WebRTC aprimora a API em Tempo Real. A API de ajuste fino agora inclui Ajuste Fino de Preferência, e novos SDKs Go e Java estão disponíveis em beta. Uma sessão de AMA foi realizada na plataforma GitHub da OpenAI após a transmissão ao vivo.
Segunda-feira, 16 de dezembro
A segunda segunda-feira focou na Pesquisa no ChatGPT, agora disponível para todos os usuários, não apenas assinantes do ChatGPT Plus. A experiência de pesquisa foi aprimorada, especialmente em dispositivos móveis, com uma experiência de mapa enriquecida e resultados visuais ricos em imagens. A pesquisa também está integrada ao Modo de Voz Avançado, permitindo que os usuários pesquisem na web verbalmente. A OpenAI provocou os desenvolvedores sobre o próximo "mini Dev Day".
Sexta-feira, 13 de dezembro
Um dos recursos mais solicitados foi entregue neste dia: "Projetos", uma nova maneira de organizar e personalizar conversas no ChatGPT. Os usuários podem criar Projetos com títulos, cores de pastas personalizadas e arquivos relevantes, facilitando o gerenciamento de conversas e a retomada de onde pararam. Esse recurso está sendo implementado para usuários Plus, Pro e Teams, com planos de expansão para usuários gratuitos em breve.
Quinta-feira, 12 de dezembro
Após se desculpar por um problema em uma transmissão ao vivo anterior, a OpenAI anunciou que o Modo de Voz Avançado agora inclui compartilhamento de tela e capacidades visuais. Isso permite que o ChatGPT forneça assistência contextualmente relevante com base no que vê. Uma voz especial de Papai Noel também foi introduzida para a temporada de festas, disponível em todas as plataformas onde o modo de voz do ChatGPT está acessível. Vídeo e compartilhamento de tela estão sendo implementados para usuários Team e a maioria dos assinantes Pro e Plus, com planos para acesso mais amplo no futuro.
Quarta-feira, 11 de dezembro
Com o lançamento do iOS 18.2, a OpenAI detalhou sua integração com o ecossistema da Apple. A Siri agora pode usar o ChatGPT para consultas fora de seu escopo, com permissão do usuário. A Inteligência Visual no iPhone 16 permite que os usuários apontem sua câmera para objetos e usem o ChatGPT para obter informações ou realizar tarefas como tradução. As Ferramentas de Escrita agora incluem uma ferramenta "Compor", permitindo a criação de texto e geração de imagens usando DALL-E. Todos os recursos estão sujeitos aos limites de uso diário do ChatGPT.
Terça-feira, 10 de dezembro
O Canvas, um favorito entre os usuários avançados do ChatGPT, agora está disponível para todos os usuários da web no GPT-4o, não mais limitado aos usuários beta do ChatGPT Plus. Integrado nativamente ao GPT-4o, o Canvas fornece uma interface perfeita para gerenciar trocas de perguntas e respostas e edições de projetos. Ele também pode ser usado com GPTs personalizados e até executar código Python diretamente, aumentando a produtividade em tarefas de codificação.
Segunda-feira, 9 de dezembro
A OpenAI provocou o lançamento muito aguardado de seu modelo de vídeo, Sora Turbo, que é mais inteligente e acessível do que a pré-visualização de fevereiro. Disponível para usuários ChatGPT Plus e Pro nos EUA, o Sora pode gerar conteúdo de vídeo para vídeo e texto para vídeo. O modelo apresenta uma página de exploração para visualizar criações, e uma demonstração ao vivo mostrou suas capacidades impressionantes. A OpenAI também introduziu o Storyboard, uma ferramenta para gerar entradas para sequências de vídeo.
Sexta-feira, 6 de dezembro
No segundo dia, a OpenAI expandiu o acesso ao seu Programa de Pesquisa de Ajuste Fino por Reforço, permitindo que desenvolvedores e engenheiros de aprendizado de máquina ajustem modelos para tarefas específicas. O programa incentiva candidaturas de institutos de pesquisa, universidades e empresas, com planos de torná-lo publicamente disponível no início de 2025.
Quinta-feira, 5 de dezembro
A OpenAI deu início ao evento com força, revelando o ChatGPT Pro, um novo nível de assinatura para superusuários, e a versão completa de seu modelo o1. O modelo o1 oferece desempenho e velocidade aprimorados, substituindo o o1-preview para usuários ChatGPT Plus e Pro. O ChatGPT Pro fornece acesso ilimitado aos melhores modelos da OpenAI, incluindo o1-mini, GPT-4o e Modo Avançado, a um custo de $200 por mês.
Onde você pode acessar a transmissão ao vivo?
Onde você pode acessar a transmissão ao vivo?
As transmissões ao vivo foram hospedadas no site da OpenAI e imediatamente carregadas em seu canal no YouTube. Se você perdeu algum dos 12 dias de OpenAI, pode acompanhar assistindo às gravações no canal do YouTube da empresa.



This o3 model sounds like a game-changer! 🤯 Can't wait to see how it stacks up against other AI reasoning models out there.




OpenAI's o3 model launch was super cool! It felt like Christmas came early. Watching their live sessions over these 12 days was engaging, though sometimes the tech glitches were frustrating. Overall, it's a huge leap forward in AI reasoning capabilities. 🎅🌟




¡La presentación del modelo o3 de OpenAI fue impresionante! Las sesiones en vivo durante los 12 días fueron muy interesantes, aunque hubo algunos problemas técnicos. Sin embargo, es un gran avance en la capacidad de razonamiento de IA. 🎅🌟




OpenAI推出的o3推理模型发布真是令人兴奋!12天的直播活动也很有趣,不过偶尔技术问题让人头疼。总体来说,这是AI能力的一大进步!🎉🌟




オープンAIのo3モデルの発表は興奮しました!12日間のライブセッションも楽しかったけど、たまに技術的な問題が起こるのが残念でした。でも、AIの推論能力が向上したのは間違いありません!🎄✨




오픈AI의 o3 모델 공개 정말 대박이야! 12일간의 라이브 세션도 재밌었는데, 기술적인 문제는 좀 아쉬웠어. 그래도 AI 추론 능력 엄청나게 좋아졌네! 🎄🌟












