Pruna AI presenta el marco de optimización del modelo de IA de código abierto
Pruna AI, una startup europea enfocada en desarrollar algoritmos de compresión para modelos de IA, lanzará su marco de optimización como código abierto este jueves. La empresa ha estado trabajando en un marco que incorpora diversas técnicas de eficiencia como almacenamiento en caché, poda, cuantización y destilación para mejorar el rendimiento de los modelos de IA.
John Rachwan, cofundador y CTO de Pruna AI, explicó a TechCrunch que su marco no solo aplica estos métodos, sino que también estandariza el proceso de guardado, carga y evaluación de modelos comprimidos. Esto permite a los usuarios evaluar cualquier pérdida potencial de calidad y las mejoras de rendimiento logradas a través de la compresión.
Rachwan comparó el rol de Pruna AI con el de Hugging Face, que estandarizó el uso de transformadores y difusores. "Estamos haciendo lo mismo, pero para métodos de eficiencia," afirmó, destacando la estandarización de cómo se aplican y gestionan estos métodos.
Los principales laboratorios de IA ya han adoptado técnicas de compresión similares. Por `
Por ejemplo, OpenAI ha utilizado la destilación para desarrollar versiones más rápidas de sus modelos, como GPT-4 Turbo. De manera similar, Black Forest Labs creó Flux.1-schnell, una versión destilada de su modelo Flux.1. La destilación implica un enfoque de "maestro-alumno" donde las salidas de un modelo más grande se utilizan para entrenar un modelo más pequeño y eficiente.
Rachwan señaló que, mientras las grandes empresas a menudo desarrollan estas herramientas internamente, la comunidad de código abierto suele centrarse en métodos individuales. "Pero no puedes encontrar una herramienta que los combine todos, los haga fáciles de usar y combinar," dijo, destacando la propuesta de valor única de Pruna AI.

De izquierda a derecha: Rayan Nait Mazi, Bertrand Charpentier, John Rachwan, Stephan Günnemann Créditos de la imagen: Pruna AI Aunque el marco de Pruna AI soporta una amplia gama de modelos, incluyendo modelos de lenguaje grandes, modelos de difusión, modelos de voz a texto y modelos de visión por computadora, la empresa actualmente se centra en modelos de generación de imágenes y videos. Los usuarios existentes de Pruna AI incluyen Scenario y PhotoRoom.Además de la versión de código abierto, Pruna AI ofrece una edición empresarial con funciones de optimización avanzadas, incluyendo un agente de compresión próximo a lanzarse. Rachwan describió este agente como una herramienta que encuentra automáticamente la mejor combinación de compresión para un modelo basado en los requisitos de rendimiento y precisión especificados por el usuario.
La versión pro de Pruna AI se factura por hora, similar al alquiler de una GPU en servicios en la nube como AWS. Al optimizar los modelos, los usuarios pueden reducir significativamente los costos de inferencia. Por ejemplo, Pruna AI logró comprimir un modelo Llama a un octavo de su tamaño original con una pérdida mínima de calidad, demostrando el potencial de ahorro de costos.
La empresa recientemente aseguró una ronda de financiación inicial de 6.5 millones de dólares de inversores como EQT Ventures, Daphni, Motier Ventures y Kima Ventures. Pruna AI ve su marco de compresión como una inversión estratégica que puede autofinanciarse a través de la reducción de costos operativos.
Artículo relacionado
Creación de canciones infantiles impulsadas por IA para obtener ganancias en 2025
En 2025, la inteligencia artificial está transformando el entretenimiento infantil. Producir canciones infantiles creadas con IA no es solo un concepto visionario; es una oportunidad práctica para gen
Amazon Lanza Alexa+ Mejorada con Capacidades Avanzadas de IA
En un evento en Nueva York el miércoles, Amazon presentó una experiencia avanzada de Alexa+, impulsada por tecnología de inteligencia artificial generativa de vanguardia. Panos Panay, jefe de disposit
Guía para Crear Videos de Historias de Chat Virales con Herramientas de IA en 2025
En el dinámico mundo de las redes sociales, producir contenido cautivador es esencial para captar el interés de la audiencia y establecer una fuerte presencia en línea. Los videos de historias de chat
comentario (30)
0/200
PaulRoberts
25 de abril de 2025 06:04:39 GMT+02:00
O framework de código aberto da Pruna AI é uma bênção para nós entusiastas de AI DIY! É como ter uma faca suíça para otimizar modelos. Consegui reduzir meus modelos sem perder muita precisão, o que é incrível. O único problema? A documentação poderia ser mais detalhada. Ainda assim, mal posso esperar para ver o que mais eles vão lançar! 🚀
0
DouglasMitchell
24 de abril de 2025 19:25:23 GMT+02:00
El marco de código abierto de Pruna AI es un regalo para nosotros los entusiastas del AI DIY. ¡Es como tener un cuchillo suizo para optimizar modelos! He podido reducir mis modelos sin perder mucha precisión, lo cual es genial. El único inconveniente es que la documentación podría ser más completa. ¡Aun así, no puedo esperar a ver qué más sacan! 🚀
0
WillieMartinez
20 de abril de 2025 03:20:47 GMT+02:00
Pruna AI's open-source framework sounds promising, but the setup was a bit of a headache. Once I got it running, the optimization really sped up my models. Just wish the documentation was clearer. Still, it's a solid tool for anyone looking to optimize AI models! 🤓
0
JamesLopez
19 de abril de 2025 00:46:00 GMT+02:00
Pruna AI's open-source framework is a godsend for us DIY AI enthusiasts! It's like having a Swiss Army knife for optimizing models. I've been able to shrink my models without losing much accuracy, which is just awesome. The only hiccup? The documentation could use a bit more love. Still, can't wait to see what else they roll out! 🚀
0
CharlesNelson
18 de abril de 2025 21:07:22 GMT+02:00
Pruna AI's open-source framework sounds promising, but I'm not a tech whiz, so I'm a bit lost. The idea of optimizing AI models is cool, but I wish they had more user-friendly tutorials. Maybe they'll release something simpler soon? 🤔🧠
0
JerryMoore
17 de abril de 2025 11:56:48 GMT+02:00
Pruna AI의 오픈소스 프레임워크는 promising하지만, 기술에 밝지 않아서 좀 헷갈려. AI 모델 최적화는 흥미로운데, 좀 더 사용자 친화적인 튜토리얼이 있었으면 좋겠어. 곧 더 간단한 걸 내놓을까? 🤔🧠
0
Pruna AI, una startup europea enfocada en desarrollar algoritmos de compresión para modelos de IA, lanzará su marco de optimización como código abierto este jueves. La empresa ha estado trabajando en un marco que incorpora diversas técnicas de eficiencia como almacenamiento en caché, poda, cuantización y destilación para mejorar el rendimiento de los modelos de IA.
John Rachwan, cofundador y CTO de Pruna AI, explicó a TechCrunch que su marco no solo aplica estos métodos, sino que también estandariza el proceso de guardado, carga y evaluación de modelos comprimidos. Esto permite a los usuarios evaluar cualquier pérdida potencial de calidad y las mejoras de rendimiento logradas a través de la compresión.
Rachwan comparó el rol de Pruna AI con el de Hugging Face, que estandarizó el uso de transformadores y difusores. "Estamos haciendo lo mismo, pero para métodos de eficiencia," afirmó, destacando la estandarización de cómo se aplican y gestionan estos métodos.
Los principales laboratorios de IA ya han adoptado técnicas de compresión similares. Por `
Por ejemplo, OpenAI ha utilizado la destilación para desarrollar versiones más rápidas de sus modelos, como GPT-4 Turbo. De manera similar, Black Forest Labs creó Flux.1-schnell, una versión destilada de su modelo Flux.1. La destilación implica un enfoque de "maestro-alumno" donde las salidas de un modelo más grande se utilizan para entrenar un modelo más pequeño y eficiente.
Rachwan señaló que, mientras las grandes empresas a menudo desarrollan estas herramientas internamente, la comunidad de código abierto suele centrarse en métodos individuales. "Pero no puedes encontrar una herramienta que los combine todos, los haga fáciles de usar y combinar," dijo, destacando la propuesta de valor única de Pruna AI.
Además de la versión de código abierto, Pruna AI ofrece una edición empresarial con funciones de optimización avanzadas, incluyendo un agente de compresión próximo a lanzarse. Rachwan describió este agente como una herramienta que encuentra automáticamente la mejor combinación de compresión para un modelo basado en los requisitos de rendimiento y precisión especificados por el usuario.
La versión pro de Pruna AI se factura por hora, similar al alquiler de una GPU en servicios en la nube como AWS. Al optimizar los modelos, los usuarios pueden reducir significativamente los costos de inferencia. Por ejemplo, Pruna AI logró comprimir un modelo Llama a un octavo de su tamaño original con una pérdida mínima de calidad, demostrando el potencial de ahorro de costos.
La empresa recientemente aseguró una ronda de financiación inicial de 6.5 millones de dólares de inversores como EQT Ventures, Daphni, Motier Ventures y Kima Ventures. Pruna AI ve su marco de compresión como una inversión estratégica que puede autofinanciarse a través de la reducción de costos operativos.




O framework de código aberto da Pruna AI é uma bênção para nós entusiastas de AI DIY! É como ter uma faca suíça para otimizar modelos. Consegui reduzir meus modelos sem perder muita precisão, o que é incrível. O único problema? A documentação poderia ser mais detalhada. Ainda assim, mal posso esperar para ver o que mais eles vão lançar! 🚀




El marco de código abierto de Pruna AI es un regalo para nosotros los entusiastas del AI DIY. ¡Es como tener un cuchillo suizo para optimizar modelos! He podido reducir mis modelos sin perder mucha precisión, lo cual es genial. El único inconveniente es que la documentación podría ser más completa. ¡Aun así, no puedo esperar a ver qué más sacan! 🚀




Pruna AI's open-source framework sounds promising, but the setup was a bit of a headache. Once I got it running, the optimization really sped up my models. Just wish the documentation was clearer. Still, it's a solid tool for anyone looking to optimize AI models! 🤓




Pruna AI's open-source framework is a godsend for us DIY AI enthusiasts! It's like having a Swiss Army knife for optimizing models. I've been able to shrink my models without losing much accuracy, which is just awesome. The only hiccup? The documentation could use a bit more love. Still, can't wait to see what else they roll out! 🚀




Pruna AI's open-source framework sounds promising, but I'm not a tech whiz, so I'm a bit lost. The idea of optimizing AI models is cool, but I wish they had more user-friendly tutorials. Maybe they'll release something simpler soon? 🤔🧠




Pruna AI의 오픈소스 프레임워크는 promising하지만, 기술에 밝지 않아서 좀 헷갈려. AI 모델 최적화는 흥미로운데, 좀 더 사용자 친화적인 튜토리얼이 있었으면 좋겠어. 곧 더 간단한 걸 내놓을까? 🤔🧠












