Pruna AI enthüllt Open-Source-AI-Modelloptimierungsrahmen
Pruna AI, ein europäisches Startup, das sich auf die Entwicklung von Kompressionsalgorithmen für KI-Modelle konzentriert, wird am Donnerstag sein Optimierungs-Framework als Open Source veröffentlichen. Das Unternehmen hat an einem Framework gearbeitet, das verschiedene Effizienztechniken wie Caching, Pruning, Quantisierung und Destillation integriert, um die Leistung von KI-Modellen zu verbessern.
John Rachwan, Mitbegründer und CTO von Pruna AI, erklärte gegenüber TechCrunch, dass ihr Framework diese Methoden nicht nur anwendet, sondern auch den Prozess des Speicherns, Ladens und Evaluierens komprimierter Modelle standardisiert. Dies ermöglicht es Nutzern, mögliche Qualitätsverluste und die durch Kompression erzielten Leistungsverbesserungen zu bewerten.
Rachwan verglich die Rolle von Pruna AI mit der von Hugging Face, das die Nutzung von Transformern und Diffusoren standardisiert hat. „Wir tun dasselbe, aber für Effizienzmethoden“, betonte er und hob die Standardisierung der Anwendung und Verwaltung dieser Methoden hervor.
Große KI-Labore haben bereits ähnliche Kompressionstechniken übernommen. Zum Beispiel hat OpenAI Destillation genutzt, um schnellere Versionen seiner Modelle wie GPT-4 Turbo zu entwickeln. Ebenso hat Black Forest Labs Flux.1-schnell erschaffen, eine destillierte Version ihres Flux.1-Modells. Destillation folgt einem „Lehrer-Schüler“-Ansatz, bei dem die Ausgaben eines größeren Modells genutzt werden, um ein kleineres, effizienteres Modell zu trainieren.
Rachwan wies darauf hin, dass große Unternehmen solche Tools oft intern entwickeln, während die Open-Source-Community sich in der Regel auf einzelne Methoden konzentriert. „Aber man findet kein Tool, das alle zusammenführt, sie einfach nutzbar macht und miteinander kombiniert“, sagte er und unterstrich den einzigartigen Mehrwert von Pruna AI.

Von links nach rechts: Rayan Nait Mazi, Bertrand Charpentier, John Rachwan, Stephan GünnemannBildnachweis: Pruna AI Obwohl das Framework von Pruna AI eine Vielzahl von Modellen unterstützt, darunter große Sprachmodelle, Diffusionsmodelle, Sprach-zu-Text-Modelle und Computervisionsmodelle, konzentriert sich das Unternehmen derzeit auf Modelle für die Bild- und Videogenerierung. Zu den bestehenden Nutzern von Pruna AI gehören Scenario und PhotoRoom.Zusätzlich zur Open-Source-Version bietet Pruna AI eine Enterprise-Edition mit erweiterten Optimierungsfunktionen an, einschließlich eines kommenden Kompressionsagenten. Rachwan beschrieb diesen Agenten als ein Tool, das automatisch die beste Kompressionskombination für ein Modell basierend auf den vom Nutzer spezifizierten Leistungs- und Genauigkeitsanforderungen findet.
Die Pro-Version von Pruna AI wird stundenweise abgerechnet, ähnlich wie die Anmietung einer GPU auf Cloud-Diensten wie AWS. Durch die Optimierung von Modellen können Nutzer die Inferenzkosten erheblich senken. Zum Beispiel gelang es Pruna AI, ein Llama-Modell auf ein Achtel seiner ursprünglichen Größe zu komprimieren, mit minimalem Qualitätsverlust, was das Potenzial für Kosteneinsparungen verdeutlicht.
Das Unternehmen sicherte sich kürzlich eine Seed-Finanzierung in Höhe von 6,5 Millionen US-Dollar von Investoren wie EQT Ventures, Daphni, Motier Ventures und Kima Ventures. Pruna AI betrachtet sein Kompressions-Framework als strategische Investition, die sich durch reduzierte Betriebskosten selbst amortisieren kann.
Verwandter Artikel
Rationalisieren Sie Friseursalons-Buchungen mit kostenlosen KI-Tools
In der heutigen schnelllebigen Welt ist Automatisierung der Schlüssel zur Effizienz. Stellen Sie sich vor, Sie nutzen KI, um Ihre Friseursalons-Termine mühelos zu verwalten. Dieser Leitfaden untersuch
Audible steigert KI-gesprochene Hörbuchangebote mit neuen Verlags Partnerschaften
Audible, die Hörbuchplattform von Amazon, gab am Dienstag eine Zusammenarbeit mit ausgewählten Verlagen bekannt, um gedruckte Bücher und E-Books in KI-gesprochene Hörbücher umzuwandeln. Dieser Schritt
AI-gestützte Musikerstellung: Erkundung von Britney Spears und Michael Jacksons "Circus"
Die Musikindustrie erlebt eine transformative Veränderung, bei der künstliche Intelligenz (KI) Innovationen in der Musikerstellung vorantreibt. Vom Erstellen von Gesang bis hin zum Komponieren komplet
Kommentare (30)
0/200
PaulRoberts
25. April 2025 06:04:39 MESZ
O framework de código aberto da Pruna AI é uma bênção para nós entusiastas de AI DIY! É como ter uma faca suíça para otimizar modelos. Consegui reduzir meus modelos sem perder muita precisão, o que é incrível. O único problema? A documentação poderia ser mais detalhada. Ainda assim, mal posso esperar para ver o que mais eles vão lançar! 🚀
0
DouglasMitchell
24. April 2025 19:25:23 MESZ
El marco de código abierto de Pruna AI es un regalo para nosotros los entusiastas del AI DIY. ¡Es como tener un cuchillo suizo para optimizar modelos! He podido reducir mis modelos sin perder mucha precisión, lo cual es genial. El único inconveniente es que la documentación podría ser más completa. ¡Aun así, no puedo esperar a ver qué más sacan! 🚀
0
WillieMartinez
20. April 2025 03:20:47 MESZ
Pruna AI's open-source framework sounds promising, but the setup was a bit of a headache. Once I got it running, the optimization really sped up my models. Just wish the documentation was clearer. Still, it's a solid tool for anyone looking to optimize AI models! 🤓
0
JamesLopez
19. April 2025 00:46:00 MESZ
Pruna AI's open-source framework is a godsend for us DIY AI enthusiasts! It's like having a Swiss Army knife for optimizing models. I've been able to shrink my models without losing much accuracy, which is just awesome. The only hiccup? The documentation could use a bit more love. Still, can't wait to see what else they roll out! 🚀
0
CharlesNelson
18. April 2025 21:07:22 MESZ
Pruna AI's open-source framework sounds promising, but I'm not a tech whiz, so I'm a bit lost. The idea of optimizing AI models is cool, but I wish they had more user-friendly tutorials. Maybe they'll release something simpler soon? 🤔🧠
0
JerryMoore
17. April 2025 11:56:48 MESZ
Pruna AI의 오픈소스 프레임워크는 promising하지만, 기술에 밝지 않아서 좀 헷갈려. AI 모델 최적화는 흥미로운데, 좀 더 사용자 친화적인 튜토리얼이 있었으면 좋겠어. 곧 더 간단한 걸 내놓을까? 🤔🧠
0
Pruna AI, ein europäisches Startup, das sich auf die Entwicklung von Kompressionsalgorithmen für KI-Modelle konzentriert, wird am Donnerstag sein Optimierungs-Framework als Open Source veröffentlichen. Das Unternehmen hat an einem Framework gearbeitet, das verschiedene Effizienztechniken wie Caching, Pruning, Quantisierung und Destillation integriert, um die Leistung von KI-Modellen zu verbessern.
John Rachwan, Mitbegründer und CTO von Pruna AI, erklärte gegenüber TechCrunch, dass ihr Framework diese Methoden nicht nur anwendet, sondern auch den Prozess des Speicherns, Ladens und Evaluierens komprimierter Modelle standardisiert. Dies ermöglicht es Nutzern, mögliche Qualitätsverluste und die durch Kompression erzielten Leistungsverbesserungen zu bewerten.
Rachwan verglich die Rolle von Pruna AI mit der von Hugging Face, das die Nutzung von Transformern und Diffusoren standardisiert hat. „Wir tun dasselbe, aber für Effizienzmethoden“, betonte er und hob die Standardisierung der Anwendung und Verwaltung dieser Methoden hervor.
Große KI-Labore haben bereits ähnliche Kompressionstechniken übernommen. Zum Beispiel hat OpenAI Destillation genutzt, um schnellere Versionen seiner Modelle wie GPT-4 Turbo zu entwickeln. Ebenso hat Black Forest Labs Flux.1-schnell erschaffen, eine destillierte Version ihres Flux.1-Modells. Destillation folgt einem „Lehrer-Schüler“-Ansatz, bei dem die Ausgaben eines größeren Modells genutzt werden, um ein kleineres, effizienteres Modell zu trainieren.
Rachwan wies darauf hin, dass große Unternehmen solche Tools oft intern entwickeln, während die Open-Source-Community sich in der Regel auf einzelne Methoden konzentriert. „Aber man findet kein Tool, das alle zusammenführt, sie einfach nutzbar macht und miteinander kombiniert“, sagte er und unterstrich den einzigartigen Mehrwert von Pruna AI.
Zusätzlich zur Open-Source-Version bietet Pruna AI eine Enterprise-Edition mit erweiterten Optimierungsfunktionen an, einschließlich eines kommenden Kompressionsagenten. Rachwan beschrieb diesen Agenten als ein Tool, das automatisch die beste Kompressionskombination für ein Modell basierend auf den vom Nutzer spezifizierten Leistungs- und Genauigkeitsanforderungen findet.
Die Pro-Version von Pruna AI wird stundenweise abgerechnet, ähnlich wie die Anmietung einer GPU auf Cloud-Diensten wie AWS. Durch die Optimierung von Modellen können Nutzer die Inferenzkosten erheblich senken. Zum Beispiel gelang es Pruna AI, ein Llama-Modell auf ein Achtel seiner ursprünglichen Größe zu komprimieren, mit minimalem Qualitätsverlust, was das Potenzial für Kosteneinsparungen verdeutlicht.
Das Unternehmen sicherte sich kürzlich eine Seed-Finanzierung in Höhe von 6,5 Millionen US-Dollar von Investoren wie EQT Ventures, Daphni, Motier Ventures und Kima Ventures. Pruna AI betrachtet sein Kompressions-Framework als strategische Investition, die sich durch reduzierte Betriebskosten selbst amortisieren kann.




O framework de código aberto da Pruna AI é uma bênção para nós entusiastas de AI DIY! É como ter uma faca suíça para otimizar modelos. Consegui reduzir meus modelos sem perder muita precisão, o que é incrível. O único problema? A documentação poderia ser mais detalhada. Ainda assim, mal posso esperar para ver o que mais eles vão lançar! 🚀




El marco de código abierto de Pruna AI es un regalo para nosotros los entusiastas del AI DIY. ¡Es como tener un cuchillo suizo para optimizar modelos! He podido reducir mis modelos sin perder mucha precisión, lo cual es genial. El único inconveniente es que la documentación podría ser más completa. ¡Aun así, no puedo esperar a ver qué más sacan! 🚀




Pruna AI's open-source framework sounds promising, but the setup was a bit of a headache. Once I got it running, the optimization really sped up my models. Just wish the documentation was clearer. Still, it's a solid tool for anyone looking to optimize AI models! 🤓




Pruna AI's open-source framework is a godsend for us DIY AI enthusiasts! It's like having a Swiss Army knife for optimizing models. I've been able to shrink my models without losing much accuracy, which is just awesome. The only hiccup? The documentation could use a bit more love. Still, can't wait to see what else they roll out! 🚀




Pruna AI's open-source framework sounds promising, but I'm not a tech whiz, so I'm a bit lost. The idea of optimizing AI models is cool, but I wish they had more user-friendly tutorials. Maybe they'll release something simpler soon? 🤔🧠




Pruna AI의 오픈소스 프레임워크는 promising하지만, 기술에 밝지 않아서 좀 헷갈려. AI 모델 최적화는 흥미로운데, 좀 더 사용자 친화적인 튜토리얼이 있었으면 좋겠어. 곧 더 간단한 걸 내놓을까? 🤔🧠












