Pruna Ai dévoile
Pruna AI, une startup européenne axée sur le développement d'algorithmes de compression pour les modèles d'IA, est défini pour publier son cadre d'optimisation en tant que open source ce jeudi. La société a travaillé sur un cadre qui intègre diverses techniques d'efficacité telles que la mise en cache, l'élagage, la quantification et la distillation pour améliorer les performances du modèle d'IA.
John Rachwan, co-fondateur et CTO de Pruna AI, a expliqué à TechCrunch que leur cadre applique non seulement ces méthodes, mais également standardisant le processus d'économie, de chargement et d'évaluation des modèles compressés. Cela permet aux utilisateurs d'évaluer toute perte de qualité potentielle et les améliorations des performances réalisées grâce à la compression.
Rachwan a comparé le rôle de Pruna Ai à celui de l'étreinte Face, ce qui normalisé l'utilisation de transformateurs et de diffuseurs. "Nous faisons de même, mais pour les méthodes d'efficacité", a-t-il déclaré, soulignant la normalisation de la façon dont ces méthodes sont appliquées et gérées.
Les principaux laboratoires AI ont déjà adopté des techniques de compression similaires. Par exemple, OpenAI a utilisé la distillation pour développer des versions plus rapides de ses modèles, tels que GPT-4 Turbo. De même, Black Forest Labs a créé Flux.1-Schnell, une version distillée de leur modèle Flux.1. La distillation implique une approche «enseignante-élève» où les sorties d'un modèle plus grandes sont utilisées pour former un modèle plus petit et plus efficace.
Rachwan a souligné que si les grandes entreprises développent souvent ces outils en interne, la communauté open source se concentre généralement sur des méthodes uniques. "Mais vous ne pouvez pas trouver un outil qui les regroupe tous, les rend tous faciles à utiliser et à combiner", a-t-il déclaré, mettant en évidence la proposition de valeur unique de Pruna AI.

De gauche à droite: Rayan Nait Mazi, Bertrand Charpentier, John Rachwan, Stephan Günnemannimage Crédits: Pruna Ai Bien que le cadre de Pruna AI prenne en charge un large éventail de modèles, y compris des modèles de grands langues, des modèles de diffusion, des modèles de parole et du texte et des modèles de vision par ordinateur, la société se concentre actuellement sur les modèles d'image et de génération de vidéos. Les utilisateurs existants de Pruna AI incluent un scénario et un photoroom.
En plus de la version open source, Pruna AI propose une édition d'entreprise avec des fonctionnalités d'optimisation avancées, y compris un prochain agent de compression. Rachwan a décrit cet agent comme un outil qui trouve automatiquement la meilleure combinaison de compression pour un modèle basé sur les exigences de performances et de précision spécifiées par l'utilisateur.
La version pro de Pruna AI est facturée par l'heure, similaire à la location d'un GPU sur des services cloud comme AWS. En optimisant les modèles, les utilisateurs peuvent réduire considérablement les coûts d'inférence. Par exemple, Pruna AI a réussi à comprimer un modèle de lama à un huitième de sa taille d'origine avec une perte de qualité minimale, démontrant les économies de coûts potentielles.
La société a récemment obtenu un cycle de financement des semences de 6,5 millions de dollars auprès d'investisseurs, notamment EQT Ventures, Daphni, Motier Ventures et Kima Ventures. Pruna AI considère son cadre de compression comme un investissement stratégique qui peut se payer pour une réduction des coûts opérationnels.
Article connexe
Résumé alimenté par l'IA : Guide complet pour résumer les vidéos YouTube
Dans le monde rapide d'aujourd'hui, la capacité à traiter et comprendre rapidement l'information est plus importante que jamais. YouTube, avec son vaste éventail de vidéos, est une mine de connaissanc
AI Révolutionne l'Échographie pour les Évaluations au Point de Soin
L'intelligence artificielle bouleverse le monde des soins de santé, et la technologie de l'échographie suit cette vague de changement. Cet article explore comment l'IA transforme les évaluations par é
Feuilles de triche en apprentissage automatique : Guide de référence rapide essentiel pour l'IA
Dans le monde dynamique de la technologie, où l'IA et l'informatique en nuage stimulent l'innovation, rester à jour et prêt est crucial. Que vous discutiez de stratégies avec un collègue, créiez du co
commentaires (30)
0/200
NicholasLewis
11 avril 2025 00:00:00 UTC
Pruna AI's open-source framework sounds promising, but it's a bit too technical for me. I appreciate the effort to make AI more efficient, but I wish there was a simpler way to use it. Maybe they'll add a user-friendly interface in the future. Still, it's cool they're sharing it for free!
0
PeterMartinez
11 avril 2025 00:00:00 UTC
El marco de código abierto de Pruna AI suena prometedor, pero es un poco demasiado técnico para mí. Aprecio el esfuerzo por hacer que la IA sea más eficiente, pero desearía que hubiera una forma más sencilla de usarlo. Tal vez en el futuro agreguen una interfaz más amigable para el usuario. Aún así, es genial que lo compartan gratis!
0
BenBrown
11 avril 2025 00:00:00 UTC
Pruna AIのオープンソースフレームワークは有望に聞こえますが、私には少し技術的すぎます。AIをより効率的にする努力は評価しますが、もっと簡単に使える方法があればいいのにと思います。将来、ユーザーフレンドリーなインターフェースが追加されるかもしれません。それでも、無料で共有してくれるのは素晴らしいですね!
0
DouglasMartínez
11 avril 2025 00:00:00 UTC
Das Open-Source-Framework von Pruna AI klingt vielversprechend, aber es ist ein bisschen zu technisch für mich. Ich schätze den Aufwand, die KI effizienter zu machen, aber ich wünschte, es gäbe eine einfachere Möglichkeit, es zu nutzen. Vielleicht fügen sie in Zukunft eine benutzerfreundlichere Oberfläche hinzu. Trotzdem ist es cool, dass sie es kostenlos teilen!
0
DanielWalker
11 avril 2025 00:00:00 UTC
Le cadre open-source de Pruna AI semble prometteur, mais c'est un peu trop technique pour moi. J'apprécie l'effort pour rendre l'IA plus efficace, mais j'aimerais qu'il y ait une manière plus simple de l'utiliser. Peut-être qu'ils ajouteront une interface plus conviviale à l'avenir. C'est quand même cool qu'ils le partagent gratuitement !
0
TimothyGonzález
13 avril 2025 00:00:00 UTC
Pruna AI's open-source framework sounds promising, but I'm not sure how to use it yet. The idea of optimizing AI models with caching, pruning, and quantization is cool, but it's a bit over my head. Hopefully, they'll release some tutorials soon!
0
Pruna AI, une startup européenne axée sur le développement d'algorithmes de compression pour les modèles d'IA, est défini pour publier son cadre d'optimisation en tant que open source ce jeudi. La société a travaillé sur un cadre qui intègre diverses techniques d'efficacité telles que la mise en cache, l'élagage, la quantification et la distillation pour améliorer les performances du modèle d'IA.
John Rachwan, co-fondateur et CTO de Pruna AI, a expliqué à TechCrunch que leur cadre applique non seulement ces méthodes, mais également standardisant le processus d'économie, de chargement et d'évaluation des modèles compressés. Cela permet aux utilisateurs d'évaluer toute perte de qualité potentielle et les améliorations des performances réalisées grâce à la compression.
Rachwan a comparé le rôle de Pruna Ai à celui de l'étreinte Face, ce qui normalisé l'utilisation de transformateurs et de diffuseurs. "Nous faisons de même, mais pour les méthodes d'efficacité", a-t-il déclaré, soulignant la normalisation de la façon dont ces méthodes sont appliquées et gérées.
Les principaux laboratoires AI ont déjà adopté des techniques de compression similaires. Par exemple, OpenAI a utilisé la distillation pour développer des versions plus rapides de ses modèles, tels que GPT-4 Turbo. De même, Black Forest Labs a créé Flux.1-Schnell, une version distillée de leur modèle Flux.1. La distillation implique une approche «enseignante-élève» où les sorties d'un modèle plus grandes sont utilisées pour former un modèle plus petit et plus efficace.
Rachwan a souligné que si les grandes entreprises développent souvent ces outils en interne, la communauté open source se concentre généralement sur des méthodes uniques. "Mais vous ne pouvez pas trouver un outil qui les regroupe tous, les rend tous faciles à utiliser et à combiner", a-t-il déclaré, mettant en évidence la proposition de valeur unique de Pruna AI.
En plus de la version open source, Pruna AI propose une édition d'entreprise avec des fonctionnalités d'optimisation avancées, y compris un prochain agent de compression. Rachwan a décrit cet agent comme un outil qui trouve automatiquement la meilleure combinaison de compression pour un modèle basé sur les exigences de performances et de précision spécifiées par l'utilisateur.
La version pro de Pruna AI est facturée par l'heure, similaire à la location d'un GPU sur des services cloud comme AWS. En optimisant les modèles, les utilisateurs peuvent réduire considérablement les coûts d'inférence. Par exemple, Pruna AI a réussi à comprimer un modèle de lama à un huitième de sa taille d'origine avec une perte de qualité minimale, démontrant les économies de coûts potentielles.
La société a récemment obtenu un cycle de financement des semences de 6,5 millions de dollars auprès d'investisseurs, notamment EQT Ventures, Daphni, Motier Ventures et Kima Ventures. Pruna AI considère son cadre de compression comme un investissement stratégique qui peut se payer pour une réduction des coûts opérationnels.




Pruna AI's open-source framework sounds promising, but it's a bit too technical for me. I appreciate the effort to make AI more efficient, but I wish there was a simpler way to use it. Maybe they'll add a user-friendly interface in the future. Still, it's cool they're sharing it for free!




El marco de código abierto de Pruna AI suena prometedor, pero es un poco demasiado técnico para mí. Aprecio el esfuerzo por hacer que la IA sea más eficiente, pero desearía que hubiera una forma más sencilla de usarlo. Tal vez en el futuro agreguen una interfaz más amigable para el usuario. Aún así, es genial que lo compartan gratis!




Pruna AIのオープンソースフレームワークは有望に聞こえますが、私には少し技術的すぎます。AIをより効率的にする努力は評価しますが、もっと簡単に使える方法があればいいのにと思います。将来、ユーザーフレンドリーなインターフェースが追加されるかもしれません。それでも、無料で共有してくれるのは素晴らしいですね!




Das Open-Source-Framework von Pruna AI klingt vielversprechend, aber es ist ein bisschen zu technisch für mich. Ich schätze den Aufwand, die KI effizienter zu machen, aber ich wünschte, es gäbe eine einfachere Möglichkeit, es zu nutzen. Vielleicht fügen sie in Zukunft eine benutzerfreundlichere Oberfläche hinzu. Trotzdem ist es cool, dass sie es kostenlos teilen!




Le cadre open-source de Pruna AI semble prometteur, mais c'est un peu trop technique pour moi. J'apprécie l'effort pour rendre l'IA plus efficace, mais j'aimerais qu'il y ait une manière plus simple de l'utiliser. Peut-être qu'ils ajouteront une interface plus conviviale à l'avenir. C'est quand même cool qu'ils le partagent gratuitement !




Pruna AI's open-source framework sounds promising, but I'm not sure how to use it yet. The idea of optimizing AI models with caching, pruning, and quantization is cool, but it's a bit over my head. Hopefully, they'll release some tutorials soon!












