opção
Lar Notícias OpenAI aprimora modelo de IA por trás do seu Operator Agent

OpenAI aprimora modelo de IA por trás do seu Operator Agent

Data de lançamento Data de lançamento 7 de Junho de 2025
visualizações visualizações 0

OpenAI aprimora modelo de IA por trás do seu Operator Agent

OpenAI Leva o Operator para o Próximo Nível

A OpenAI está dando um grande upgrade ao seu agente de IA autônomo, o Operator. As próximas atualizações significam que o Operator passará a usar um modelo baseado no o3, um dos mais recentes membros da avançada série "o" de modelos de raciocínio da OpenAI. Até agora, o Operator funcionava com uma versão personalizada do GPT-4o. Mas não se engane — esta nova versão trará melhorias significativas.

Por que o o3 é importante

Em quase todos os aspectos, o o3 supera seu antecessor em tarefas que envolvem matemática e raciocínio lógico. A própria OpenAI reconhece o salto: "Estamos substituindo o modelo atual baseado no GPT-4o do Operator por uma versão baseada no OpenAI o3", afirmaram em um post recente. No entanto, acrescentaram que a versão em API do Operator continuará baseada no GPT-4o por enquanto.

Uma Nova Era de Ferramentas Autônomas

O Operator não está sozinho na corrida por agentes autônomos ultra-sofisticados. O Google entrou no jogo com um agente de "uso de computador" via sua API Gemini, capaz de navegar na web e executar tarefas do usuário. Eles também lançaram o Mariner, uma ferramenta mais voltada para o consumidor. Enquanto isso, a Anthropic desenvolveu modelos que podem lidar com gerenciamento de arquivos e navegação web. Claramente, este mercado está se aquecendo rapidamente.

Segurança e Proteção

Um dos destaques do novo Operator com o3 são seus protocolos de segurança aprimorados. A OpenAI ajustou o modelo especificamente para tarefas computacionais, incorporando dados adicionais de segurança e conjuntos de dados projetados para ensinar limites adequados ao modelo em confirmações e recusas. Um relatório técnico da OpenAI destaca que o o3 Operator tem melhor desempenho em avaliações de segurança específicas em comparação com seu antecessor. Por exemplo, é menos propenso a realizar atividades ilícitas ou buscar dados pessoais sensíveis e é mais resistente a ataques de injeção de prompt — uma preocupação comum em sistemas de IA.

O que o o3 oferece

Apesar desses avanços, a OpenAI garante que o o3 Operator mantém as mesmas medidas de segurança robustas da versão anterior. Curiosamente, embora o o3 Operator aproveite a capacidade de codificação do modelo o3, ele não tem acesso direto a um ambiente de programação ou terminal. Isso garante um equilíbrio entre funcionalidade e segurança, permitindo que os usuários aproveitem o desempenho aprimorado sem riscos desnecessários.

Mantenha-se à Frente

Para quem está ansioso para explorar o futuro da autonomia impulsionada por IA, fique de olho nas atualizações da OpenAI. Seja você um entusiasta de tecnologia ou uma empresa buscando integrar ferramentas avançadas em suas operações, a evolução do Operator representa um momento crucial no desenvolvimento da IA. Quem sabe aonde essa tecnologia nos levará a seguir?

Eventos Futuros: Aprofunde-se em IA

  • TechCrunch Sessions: AI — Junte-se a nós em Berkeley, CA, no dia 5 de junho para um dia repleto de palestras, workshops e oportunidades de networking. Garanta seu lugar hoje!
  • Exposição no TechCrunch Sessions: AI — Mostre suas inovações para mais de 1.200 tomadores de decisão. Vagas limitadas até 9 de maio.
Artigo relacionado
OpenAI的o3 AI模型在基準測試中的得分低於最初暗示的水準 OpenAI的o3 AI模型在基準測試中的得分低於最初暗示的水準 為什麼 AI 基準測試的差異很重要?提到 AI 時,數字往往能說明一切——有時,這些數字並不一定完全相符。以 OpenAI 的 o3 模型為例。最初的聲稱簡直令人驚嘆:據報導,o3 可以處理超過 25% 的 notoriously tough FrontierMath 問題。作為參考,競爭對手還停留在個位數。但隨著近期的發展,受人尊敬的研究機構 Epoch
Ziff Davis指控OpenAI涉嫌侵權 Ziff Davis指控OpenAI涉嫌侵權 Ziff Davis控告OpenAI版權侵權訴訟這起事件在科技和出版界掀起了軒然大波,Ziff Davis——旗下擁有CNET、PCMag、IGN和Everyday Health等品牌的龐大企業聯盟——已對OpenAI提起版權侵權訴訟。根據《紐約時報》的報導,該訴訟聲稱OpenAI故意未經許可使用Ziff Davis的內容,製作了其作品的「精確副本」。這是截
訪問OpenAI API中的未來AI模型可能需要驗證身份 訪問OpenAI API中的未來AI模型可能需要驗證身份 OpenAI 推出「已驗證組織」計劃以獲取進階人工智慧訪問權上週,OpenAI 宣布對其開發者政策進行重大更新,推出了新的驗證過程稱為「已驗證組織」。此舉旨在增強安全性並確保公司最進階的人工智慧模型和工具得到負責的使用。雖然該計劃代表著更廣泛的可用性,但它也表明了 OpenAI 認識到管理與日益強大的人工智慧技術相關潛在風險的方式發生了變化。根據 OpenA
Comentários (0)
0/200
De volta ao topo
OR