Les chercheurs développent un rival open source au modèle de «raisonnement» de 50 $ d'Openai pour moins de 50 $

Vendredi dernier, un article de recherche révolutionnaire d'experts en IA de Stanford et de l'Université de Washington a fait sensation, révélant qu'ils ont réussi à développer un modèle d'IA de "raisonnement", baptisé s1, pour moins de 50 $ en crédits de calcul cloud. Cette révélation secoue le monde de l'IA, car s1 tient tête aux modèles de premier plan comme l'o1 d'OpenAI et le R1 de DeepSeek lorsqu'il s'agit de relever des défis en mathématiques et en codage.
Le modèle s1, accompagné de tous les détails croustillants de ses données d'entraînement et de son code, est désormais disponible sur GitHub. L'équipe a commencé avec un modèle de base ordinaire, puis l'a soumis à une technique appelée distillation. Ce processus consiste à extraire le "jus" du raisonnement d'un autre modèle d'IA en s'entraînant sur ses réponses. Dans ce cas, s1 a acquis son intelligence grâce au modèle expérimental Gemini 2.0 Flash Thinking de Google. C'est une tactique similaire à celle utilisée par des chercheurs de Berkeley pour créer leur propre modèle de raisonnement IA pour environ 450 $ le mois dernier.
Pour certains, l'idée qu'une petite équipe de chercheurs puisse encore faire des vagues dans le domaine de l'IA sans un budget colossal est exaltante. Mais l'émergence de s1 soulève aussi des questions sérieuses sur l'avenir du développement des modèles d'IA. Si un modèle rivalisant avec ceux construits avec des millions peut être reproduit avec un budget limité, qu'est-ce qui empêche tout le monde de faire de même ?
Sans surprise, les grands acteurs de l'IA ne sont pas ravis. OpenAI, par exemple, a pointé du doigt DeepSeek, les accusant d'utiliser leurs données d'API pour alimenter la distillation de modèles. Pendant ce temps, l'équipe de s1 s'est concentrée sur la recherche de la manière la plus simple d'obtenir des performances de raisonnement solides et quelque chose appelé "mise à l'échelle au moment du test", où un modèle d'IA dispose de plus de temps pour réfléchir avant de répondre. Ce sont les mêmes innovations que le modèle o1 d'OpenAI a apportées, que d'autres comme DeepSeek ont tenté d'imiter avec leurs propres méthodes.
L'article sur s1 suggère que vous pouvez distiller des modèles de raisonnement avec un ensemble de données relativement petit en utilisant une technique connue sous le nom de réglage fin supervisé (SFT). Cela implique d'entraîner le modèle d'IA à copier des comportements spécifiques à partir d'un ensemble de données, et c'est moins cher que l'apprentissage par renforcement à grande échelle utilisé par DeepSeek pour leur modèle R1, qui rivalise avec l'o1 d'OpenAI.
Google rend le Gemini 2.0 Flash Thinking Experimental disponible gratuitement via sa plateforme Google AI Studio, bien qu'avec des limites quotidiennes. Mais il y a un hic : les conditions de Google n'autorisent pas l'ingénierie inverse de ses modèles pour créer des services concurrents. Nous attendons une réponse de Google à ce sujet.
Le modèle s1 lui-même a commencé sa vie comme un modèle d'IA modeste, prêt à l'emploi, provenant du laboratoire Qwen d'Alibaba, que n'importe qui peut télécharger gratuitement. Pour entraîner s1, les chercheurs ont rassemblé un ensemble de données de seulement 1 000 questions soigneusement choisies, accompagnées de réponses et du processus de "réflexion" derrière chacune, grâce au Gemini 2.0 de Google. L'ensemble du processus d'entraînement a pris moins de 30 minutes sur 16 GPU Nvidia H100. Selon Niklas Muennighoff, un chercheur de Stanford impliqué dans le projet, vous pourriez réaliser cela aujourd'hui pour environ 20 $ en coûts de calcul.
Les chercheurs ont également réalisé une astuce intelligente pour faire vérifier à s1 son travail et prolonger son temps de "réflexion" : ils lui ont simplement dit d'"attendre". Ajouter ce mot pendant le processus de raisonnement de s1 l'a aidé à fournir des réponses légèrement plus précises, selon l'article.
En regardant vers 2025, des géants technologiques comme Meta, Google et Microsoft sont prêts à investir des centaines de milliards dans l'infrastructure de l'IA, dont une grande partie ira à l'entraînement de la prochaine vague de modèles d'IA. Bien que la distillation s'avère être un moyen efficace de recréer des capacités d'IA à moindre coût, elle ne conduira pas à la création de modèles d'IA nouveaux et révolutionnaires de sitôt.
Article connexe
Un organisme à but non lucratif s'appuie sur des agents d'intelligence artificielle pour stimuler la collecte de fonds à des fins caritatives
Alors que les grandes entreprises technologiques promeuvent les "agents" d'IA comme des stimulants de la productivité pour les entreprises, une organisation à but non lucratif démontre leur potentiel
Les plus grands laboratoires d'IA avertissent que l'humanité est en train de perdre le contrôle de la compréhension des systèmes d'IA
Dans une démonstration d'unité sans précédent, des chercheurs d'OpenAI, de Google DeepMind, d'Anthropic et de Meta ont mis de côté leurs divergences pour lancer un avertissement collectif sur le dével
ChatGPT ajoute l'intégration de Google Drive et Dropbox pour l'accès aux fichiers
ChatGPT améliore la productivité avec de nouvelles fonctionnalités d'entrepriseOpenAI a dévoilé deux nouvelles fonctionnalités puissantes qui transforment ChatGPT en un outil de productivité complet
commentaires (8)
0/200
RalphSmith
23 septembre 2025 10:30:42 UTC+02:00
Это просто невероятно! 🚀 Создать аналог OpenAI за $50 — это настоящий прорыв. Интересно, какие возможности откроются для небольших стартапов и исследователей? Может, скоро мы увидим взлет новых AI-проектов без гигантских бюджетов.
0
StevenWilson
8 août 2025 11:00:59 UTC+02:00
Wow, $50 to rival OpenAI’s model? That’s wild! Makes me wonder how many garage startups are gonna jump on this to build their own AI. Super cool, but I’m curious if it’s as reliable as they claim. 🤔
0
BenRoberts
1 août 2025 04:48:18 UTC+02:00
Wow, $50 to rival a $50 OpenAI model? That's some serious bang for the buck! Loving how open-source is shaking up the AI game. 🚀
0
DonaldGonzález
23 avril 2025 01:45:55 UTC+02:00
s1モデルが50ドル未満で開発されたなんて信じられない!OpenAIのモデルに匹敵するなんて、これはAI業界に革命をもたらすかもしれないね。早く試してみたい!🚀
0
HarryRoberts
23 avril 2025 00:38:34 UTC+02:00
This s1 model is insane! For under $50, you get a reasoning model that rivals OpenAI's? That's a game changer for sure. I'm excited to see how this shakes up the AI world. Can't wait to try it out myself! 🚀
0
HenryWalker
23 avril 2025 00:34:07 UTC+02:00
Модель s1 за менее чем 50 долларов - это безумие! Соперничать с моделью OpenAI за такую цену - это революция. Жду не дождусь увидеть, как это изменит мир ИИ. Хочу попробовать! 🚀
0
Vendredi dernier, un article de recherche révolutionnaire d'experts en IA de Stanford et de l'Université de Washington a fait sensation, révélant qu'ils ont réussi à développer un modèle d'IA de "raisonnement", baptisé s1, pour moins de 50 $ en crédits de calcul cloud. Cette révélation secoue le monde de l'IA, car s1 tient tête aux modèles de premier plan comme l'o1 d'OpenAI et le R1 de DeepSeek lorsqu'il s'agit de relever des défis en mathématiques et en codage.
Le modèle s1, accompagné de tous les détails croustillants de ses données d'entraînement et de son code, est désormais disponible sur GitHub. L'équipe a commencé avec un modèle de base ordinaire, puis l'a soumis à une technique appelée distillation. Ce processus consiste à extraire le "jus" du raisonnement d'un autre modèle d'IA en s'entraînant sur ses réponses. Dans ce cas, s1 a acquis son intelligence grâce au modèle expérimental Gemini 2.0 Flash Thinking de Google. C'est une tactique similaire à celle utilisée par des chercheurs de Berkeley pour créer leur propre modèle de raisonnement IA pour environ 450 $ le mois dernier.
Pour certains, l'idée qu'une petite équipe de chercheurs puisse encore faire des vagues dans le domaine de l'IA sans un budget colossal est exaltante. Mais l'émergence de s1 soulève aussi des questions sérieuses sur l'avenir du développement des modèles d'IA. Si un modèle rivalisant avec ceux construits avec des millions peut être reproduit avec un budget limité, qu'est-ce qui empêche tout le monde de faire de même ?
Sans surprise, les grands acteurs de l'IA ne sont pas ravis. OpenAI, par exemple, a pointé du doigt DeepSeek, les accusant d'utiliser leurs données d'API pour alimenter la distillation de modèles. Pendant ce temps, l'équipe de s1 s'est concentrée sur la recherche de la manière la plus simple d'obtenir des performances de raisonnement solides et quelque chose appelé "mise à l'échelle au moment du test", où un modèle d'IA dispose de plus de temps pour réfléchir avant de répondre. Ce sont les mêmes innovations que le modèle o1 d'OpenAI a apportées, que d'autres comme DeepSeek ont tenté d'imiter avec leurs propres méthodes.
L'article sur s1 suggère que vous pouvez distiller des modèles de raisonnement avec un ensemble de données relativement petit en utilisant une technique connue sous le nom de réglage fin supervisé (SFT). Cela implique d'entraîner le modèle d'IA à copier des comportements spécifiques à partir d'un ensemble de données, et c'est moins cher que l'apprentissage par renforcement à grande échelle utilisé par DeepSeek pour leur modèle R1, qui rivalise avec l'o1 d'OpenAI.
Google rend le Gemini 2.0 Flash Thinking Experimental disponible gratuitement via sa plateforme Google AI Studio, bien qu'avec des limites quotidiennes. Mais il y a un hic : les conditions de Google n'autorisent pas l'ingénierie inverse de ses modèles pour créer des services concurrents. Nous attendons une réponse de Google à ce sujet.
Le modèle s1 lui-même a commencé sa vie comme un modèle d'IA modeste, prêt à l'emploi, provenant du laboratoire Qwen d'Alibaba, que n'importe qui peut télécharger gratuitement. Pour entraîner s1, les chercheurs ont rassemblé un ensemble de données de seulement 1 000 questions soigneusement choisies, accompagnées de réponses et du processus de "réflexion" derrière chacune, grâce au Gemini 2.0 de Google. L'ensemble du processus d'entraînement a pris moins de 30 minutes sur 16 GPU Nvidia H100. Selon Niklas Muennighoff, un chercheur de Stanford impliqué dans le projet, vous pourriez réaliser cela aujourd'hui pour environ 20 $ en coûts de calcul.
Les chercheurs ont également réalisé une astuce intelligente pour faire vérifier à s1 son travail et prolonger son temps de "réflexion" : ils lui ont simplement dit d'"attendre". Ajouter ce mot pendant le processus de raisonnement de s1 l'a aidé à fournir des réponses légèrement plus précises, selon l'article.
En regardant vers 2025, des géants technologiques comme Meta, Google et Microsoft sont prêts à investir des centaines de milliards dans l'infrastructure de l'IA, dont une grande partie ira à l'entraînement de la prochaine vague de modèles d'IA. Bien que la distillation s'avère être un moyen efficace de recréer des capacités d'IA à moindre coût, elle ne conduira pas à la création de modèles d'IA nouveaux et révolutionnaires de sitôt.




Это просто невероятно! 🚀 Создать аналог OpenAI за $50 — это настоящий прорыв. Интересно, какие возможности откроются для небольших стартапов и исследователей? Может, скоро мы увидим взлет новых AI-проектов без гигантских бюджетов.




Wow, $50 to rival OpenAI’s model? That’s wild! Makes me wonder how many garage startups are gonna jump on this to build their own AI. Super cool, but I’m curious if it’s as reliable as they claim. 🤔




Wow, $50 to rival a $50 OpenAI model? That's some serious bang for the buck! Loving how open-source is shaking up the AI game. 🚀




s1モデルが50ドル未満で開発されたなんて信じられない!OpenAIのモデルに匹敵するなんて、これはAI業界に革命をもたらすかもしれないね。早く試してみたい!🚀




This s1 model is insane! For under $50, you get a reasoning model that rivals OpenAI's? That's a game changer for sure. I'm excited to see how this shakes up the AI world. Can't wait to try it out myself! 🚀




Модель s1 за менее чем 50 долларов - это безумие! Соперничать с моделью OpenAI за такую цену - это революция. Жду не дождусь увидеть, как это изменит мир ИИ. Хочу попробовать! 🚀












