Lar Notícias Ex -Deepseeker e Collaborators lançam um novo método para treinar agentes de IA confiáveis: Ragen

Ex -Deepseeker e Collaborators lançam um novo método para treinar agentes de IA confiáveis: Ragen

4 de Maio de 2025
DavidMartínez
0

Ex -Deepseeker e Collaborators lançam um novo método para treinar agentes de IA confiáveis: Ragen

O ano dos agentes da IA: uma olhada mais de perto nas expectativas e realidades de 2025

2025 foi anunciado por muitos especialistas como o ano em que os agentes da IA ​​- sistemas especializados em IA, alimentados por grandes idiomas avançados e modelos multimodais de empresas como Openai, Anthropic, Google e Deepseek - finalmente chegaria ao centro do palco. No entanto, de acordo com uma recente pesquisa de VentureBeat na rede social X, a maioria dos agentes de IA ainda está definhando em estágios experimentais, capturados em uma espécie de limbo corporativo.

Mas há um vislumbre de esperança no horizonte. Um esforço colaborativo de pesquisadores da Northwestern University, Microsoft, Stanford e Universidade de Washington, incluindo Zihan Wang, um ex -pesquisador da Deepseek que agora faz um doutorado em ciência da computação no Northwestern, introduziu Ragen. Este novo sistema tem como objetivo treinar e avaliar os agentes de IA para torná-los mais confiáveis ​​e adaptáveis ​​para uso corporativo do mundo real.

Ragen: Uma nova abordagem para treinar agentes de IA

Ao contrário de tarefas estáticas, como resolução de matemática ou geração de código, Ragen se concentra em interações dinâmicas e múltiplas, onde os agentes precisam se adaptar, lembrar e raciocinar em meio à incerteza. O sistema é construído sobre uma estrutura de aprendizado de reforço personalizado (RL), chamado Starpo (otimização de políticas de recompensa-de-pensamento do estado), que enfatiza o aprendizado por meio da experiência, em vez de memorização rotineira. O Starpo analisa sequências inteiras de tomada de decisão, não apenas respostas de uma etapa.

O Starpo opera em duas fases: um estágio de lançamento em que o LLM gera sequências completas de interação guiadas pelo raciocínio e um estágio de atualização em que o modelo é otimizado usando recompensas cumulativas normalizadas. Essa abordagem oferece um loop de aprendizado mais estável e interpretável em comparação com os métodos tradicionais de otimização de políticas.

Os pesquisadores testaram essa estrutura usando versões de ajuste fino dos modelos QWEN do Alibaba, especificamente QWEN 1.5 e QWEN 2.5, escolhidos por seus pesos abertos e fortes recursos de seguidores de instruções. Essa escolha facilitou a reprodutibilidade e as comparações de linha de base consistentes em tarefas simbólicas.

A armadilha do eco: um desafio no aprendizado de reforço

Zihan Wang destacou uma questão crítica no treinamento de RL em um tópico x amplamente compartilhado: * Por que seu treinamento de RL sempre entra em colapso? * A equipe identificou que, enquanto os agentes da LLM inicialmente produzem respostas bem fundamentadas, os sistemas de RL geralmente recompensam os atalhos, levando a comportamentos repetitivos que degradam o desempenho-um fenômeno que duravam.

Essa regressão é alimentada por loops de feedback, onde certas frases ou estratégias ganham altas recompensas desde o início, incentivando o uso excessivo e sufocando a exploração. Os sintomas são claros: penhascos de variação de recompensa, picos de gradiente e traços de raciocínio que desaparecem.

Ambientes de teste de Ragen

Para estudar esses comportamentos em um ambiente controlado, Ragen avalia os agentes em três ambientes simbólicos:

  • Bandit: uma tarefa estocástica e de volta única que testa o raciocínio simbólico de recompensa de risco.
  • Sokoban: Um quebra-cabeça determinístico e multifuncional envolvendo decisões irreversíveis.
  • Lago Frozen: uma tarefa estocástica e de várias turnos que requer planejamento adaptativo.

Cada ambiente foi projetado para minimizar os anteriores do mundo real e se concentrar apenas nas estratégias de tomada de decisão desenvolvidas durante o treinamento. Por exemplo, no ambiente de bandidos, os agentes devem raciocinar simbolicamente sobre os braços de dragão e phoenix, representando diferentes distribuições de recompensas, interpretando -as como "força" e "esperança" para prever resultados.

Estabilizar o aprendizado de reforço com Starpo-S

Para combater o colapso do treinamento, os pesquisadores introduziram o Starpo-S, uma versão estabilizada da estrutura original. Starpo-s ​​inclui três intervenções principais:

  1. Filtragem de lançamento baseada em incerteza: priorizando os lançamentos onde o agente mostra a incerteza dos resultados.
  2. Remoção de penalidade de KL: permitindo que o modelo se desvie mais livremente de sua política original e explore novos comportamentos.
  3. Rio PPO assimétrico: amplificando as trajetórias de alta recompensa mais do que as de baixa recompensa para aumentar o aprendizado.

Essas mudanças ajudam a atrasar ou eliminar o colapso do treinamento e a melhorar o desempenho nas três tarefas. Como Wang disse: "Starpo-s… funciona em todas as três tarefas. Atenda colapso. Melhor recompensa".

O que faz um bom modelo de IA Agentic?

O sucesso do treinamento de RL depende não apenas da arquitetura, mas também da qualidade dos dados gerados pelos agentes. A equipe identificou três dimensões cruciais que afetam significativamente o treinamento:

  • Diversidade de tarefas: expor o modelo a uma ampla gama de cenários iniciais melhora a generalização.
  • Granularidade de interação: permitir várias ações por turno permite um planejamento mais significativo.
  • Freshness Dreshness: manter os dados de treinamento alinhados com a política de modelo atual evita sinais de aprendizagem desatualizados.

Esses fatores contribuem para um processo de treinamento mais estável e eficaz. Um site de demonstração interativo no GitHub visualiza os lançamentos de agentes como o diálogo completo, incluindo não apenas ações, mas o processo de pensamento passo a passo que os precede. Por exemplo, ao resolver um problema de matemática, um agente pode primeiro 'pensar' em isolar uma variável antes de enviar uma resposta como 'x = 5'. Esses pensamentos intermediários são visíveis e rastreáveis, acrescentando transparência a como os agentes tomam decisões.

Quando o raciocínio acaba

Embora o raciocínio explícito aprimore o desempenho em tarefas simples e de volta única, como o Bandit, ele tende a deteriorar-se durante o treinamento com várias turnos. Apesar de usar instruções e tokens estruturados, traços de raciocínio geralmente encolhem ou desaparecem, a menos que diretamente recompensados. Isso destaca uma limitação sobre como as recompensas são normalmente projetadas: o foco na conclusão da tarefa pode negligenciar a qualidade do processo por trás dele. A equipe experimentou penalidades baseadas em formato para incentivar o raciocínio mais bem estruturado, mas reconhece que é necessária uma mais refinada modelagem de recompensa.

Ferramentas abertas e direções futuras

A Ragen, juntamente com suas estruturas Starpo e Starpo-S, agora está disponível como um projeto de código aberto em https://github.com/ragen-ai/ragen . No entanto, no momento da redação deste artigo, nenhuma licença explícita está listada no repositório do GitHub, que pode limitar seu uso ou redistribuição por outros.

O sistema fornece uma base valiosa para os interessados ​​em desenvolver agentes de IA que não apenas completam tarefas, mas também pensam, planejam e evoluam. À medida que a IA se move em direção a uma maior autonomia, projetos como Ragen ajudam a iluminar o que é preciso para treinar modelos que aprendem com as consequências de suas próprias ações.

Perguntas excelentes para adoção corporativa do mundo real

Enquanto o Ragen Paper oferece um roteiro técnico detalhado, várias questões práticas permanecem para quem procura aplicar esses métodos em ambientes corporativos. Por exemplo, quão transferível é a abordagem de Ragen além das tarefas estilizadas e simbólicas? As empresas precisariam projetar ambientes totalmente novos e recompensar funções para usar esse sistema em fluxos de trabalho como processamento de faturas ou suporte ao cliente?

Wang, em uma mensagem direta para o VentureBeat em X, sugeriu que melhorar a diversidade de tarefas poderia ajudar, pois as tarefas atuais de jogos têm apenas representações de grade semelhantes, mas não têm informações semânticas. Ele também expressou otimismo sobre as empresas projetando seus próprios exercícios de treinamento para agentes de IA usando Ragen, observando que o link do Github fornece uma introdução simples à adição de novos ambientes.

Outra área crítica é a escalabilidade. Mesmo com os aprimoramentos fornecidos pelo Starpo-S, o artigo reconhece que o treinamento ainda acaba em colapso em horizontes mais longos. Isso levanta a questão: existe um caminho teórico ou prático para sustentar o raciocínio sobre sequências de tarefas em aberto ou em constante evolução?

No momento da redação. No entanto, Ragen se destaca não apenas como uma contribuição técnica, mas como um passo conceitual em direção a agentes de IA mais autônomos e com capacidade para raciocínio. Ainda não se sabe se ela se torna parte da pilha de IA corporativa, mas suas idéias sobre a dinâmica de aprendizado de agentes já estão ajudando a redefinir a fronteira do treinamento do LLM.

Artigo relacionado
GAIA Introduces New Benchmark in Quest for True Intelligence Beyond ARC-AGI GAIA Introduces New Benchmark in Quest for True Intelligence Beyond ARC-AGI Intelligence is everywhere, yet gauging it accurately feels like trying to catch a cloud with your bare hands. We use tests and benchmarks, like college entrance exams, to get a rough idea. Each year, students cram for these tests, sometimes even scoring a perfect 100%. But does that perfect score m
Open Deep Search arrives to challenge Perplexity and ChatGPT Search Open Deep Search arrives to challenge Perplexity and ChatGPT Search If you're in the tech world, you've likely heard about the buzz surrounding Open Deep Search (ODS), the new open-source framework from the Sentient Foundation. ODS is making waves by offering a robust alternative to proprietary AI search engines like Perplexity and ChatGPT Search, and it's all about
MCP Standardizes AI Connectivity with Tools and Data: A New Protocol Emerges MCP Standardizes AI Connectivity with Tools and Data: A New Protocol Emerges If you're diving into the world of artificial intelligence (AI), you've probably noticed how crucial it is to get different AI models, data sources, and tools to play nicely together. That's where the Model Context Protocol (MCP) comes in, acting as a game-changer in standardizing AI connectivity. T
Comentários (0)
0/200
Back to Top
OR