option
Maison
Nouvelles
L'IA ZeroSearch d'Alibaba réduit les coûts de formation de 88 % grâce à l'apprentissage autonome

L'IA ZeroSearch d'Alibaba réduit les coûts de formation de 88 % grâce à l'apprentissage autonome

19 septembre 2025
2

L

ZeroSearch d'Alibaba : Un changement de donne pour l'efficacité de l'apprentissage de l'IA

Les chercheurs du groupe Alibaba ont mis au point une méthode innovante qui pourrait révolutionner la manière dont les systèmes d'intelligence artificielle apprennent à rechercher des informations, en contournant complètement les API coûteuses des moteurs de recherche commerciaux. Leur technologie ZeroSearch permet aux grands modèles de langage de cultiver des capacités de recherche sophistiquées à travers des environnements simulés au lieu des interactions conventionnelles avec les moteurs de recherche pendant les phases de formation.

"L'apprentissage par renforcement traditionnel nécessite de nombreuses requêtes de recherche qui accumulent des coûts d'API substantiels et entravent l'évolutivité", expliquent les chercheurs dans leur article arXiv récemment publié. "ZeroSearch représente un cadre d'apprentissage par renforcement rentable qui améliore les capacités de recherche du LLM indépendamment des moteurs de recherche actuels.

Les mécanismes de la formation sans recherche

Les méthodes actuelles d'apprentissage de l'IA sont confrontées à deux contraintes principales : la qualité incohérente des documents provenant des moteurs de recherche commerciaux pendant les cycles d'apprentissage et les dépenses prohibitives liées aux volumes massifs d'appels d'API à des services tels que Google Search.

ZeroSearch met en œuvre une approche innovante en deux phases :

  1. La mise au point initiale supervisée convertit un LLM en un module de génération de documents
  2. Un renforcement avancé basé sur un programme d'études fait varier progressivement la qualité des résultats.

"Notre découverte fondamentale révèle que les LLM pré-entraînés possèdent intrinsèquement une connaissance du monde suffisante pour générer des documents appropriés au contexte", notent les chercheurs. "La principale distinction entre les résultats de recherche simulés et réels implique des différences textuelles stylistiques plutôt que des lacunes de contenu substantielles".

Les tests de performance montrent des avantages significatifs

Des tests rigoureux effectués sur sept ensembles de données distincts ont démontré l'avantage concurrentiel de ZeroSearch :

  • 7B modèles de paramètres correspondent à la précision de Google Search
  • 14B configurations de paramètres ont dépassé les performances des recherches commerciales

Les implications financières sont particulièrement frappantes :

  • Formation traditionnelle avec 64 000 requêtes : 586,70 $ via SerpAPI
  • Équivalent ZeroSearch : 70,80 $ en utilisant quatre GPU A100
  • Réduction totale des coûts : 88%.

"Ces résultats valident les LLM en tant que remplaçants viables des moteurs de recherche conventionnels dans les implémentations d'apprentissage par renforcement", conclut l'équipe de recherche.

Implications plus larges pour le développement de l'IA

ZeroSearch représente un changement de paradigme dans les méthodologies de formation à l'intelligence artificielle en démontrant un développement autonome des capacités sans dépendance à l'égard d'outils externes.

La technologie promet plusieurs impacts transformateurs :

  • Démocratisation des coûts : Réduction des barrières financières pour les startups en éliminant les dépendances API coûteuses.
  • Contrôle de la formation : Permet une régulation précise des entrées informationnelles pendant le développement du modèle.
  • Flexibilité architecturale : Compatible avec les principales familles de modèles, y compris Qwen-2.5 et LLaMA-3.2

Alibaba a mis en libre accès l'ensemble de la mise en œuvre - y compris les bases de code, les ensembles de données d'entraînement et les modèles pré-entraînés - par le biais des dépôts GitHub et Hugging Face.

Cette innovation préfigure l'émergence d'un paysage de développement de l'IA où les capacités avancées émergent grâce à des simulations sophistiquées plutôt qu'en s'appuyant sur des services externes. Au fur et à mesure que ces techniques d'entraînement autonomes arrivent à maturité, elles peuvent modifier considérablement les dépendances actuelles de l'écosystème technologique à l'égard des principales API des plateformes.

Article connexe
La personnalisation par l'IA améliore-t-elle la réalité ou la déforme-t-elle ? Les risques cachés explorés La personnalisation par l'IA améliore-t-elle la réalité ou la déforme-t-elle ? Les risques cachés explorés La civilisation humaine a déjà été témoin de révolutions cognitives : l'écriture manuscrite a externalisé la mémoire, les calculatrices ont automatisé le calcul, les systèmes GPS ont remplacé l'orient
TreeQuest de Sakana AI améliore les performances de l'IA grâce à la collaboration multi-modèle TreeQuest de Sakana AI améliore les performances de l'IA grâce à la collaboration multi-modèle Le laboratoire d'IA japonais Sakana AI a dévoilé une technique permettant à plusieurs grands modèles de langage (LLM) de travailler ensemble pour former une équipe d'IA très efficace. Baptisée Multi-L
ByteDance Dévoile le Modèle d'IA Seed-Thinking-v1.5 pour Améliorer les Capacités de Raisonnement ByteDance Dévoile le Modèle d'IA Seed-Thinking-v1.5 pour Améliorer les Capacités de Raisonnement La course à l'IA avancée en raisonnement a commencé avec le modèle o1 d'OpenAI en septembre 2024, gagnant en élan avec le lancement de R1 par DeepSeek en janvier 2025.Les principaux développeurs d'IA
commentaires (0)
0/200
Retour en haut
OR