Red Hat on Open, modelos de lenguaje pequeño para la IA responsable y práctica
24 de abril de 2025
JasonRoberts
0
Influencias geopolíticas en el desarrollo y uso de la IA
A medida que los eventos globales continúan dando forma a nuestro mundo, es inevitable que afecten el sector tecnológico, particularmente el mercado de IA. Esta influencia se extiende a cómo se desarrolla la IA, sus metodologías y su aplicación dentro de las empresas. El panorama actual de la IA es una mezcla de emoción y escepticismo, y algunos adoptan su potencial, mientras que otros siguen siendo cautelosos debido a sus primeras etapas de desarrollo.
Los modelos tradicionales de lenguaje grande (LLMS) como los de los proveedores conocidos enfrentan la competencia de modelos más nuevos y más abiertos como Llama, Deepseek y Ernie X1 de Baidu. En contraste, el desarrollo de código abierto ofrece transparencia y la oportunidad de contribución de la comunidad, alineándose con el concepto de "IA responsable". Este enfoque considera los impactos ambientales, la ética de uso, las fuentes de datos de aprendizaje y los problemas relacionados con la soberanía de los datos, el lenguaje y la política.
Red Hat, una compañía conocida por su exitoso modelo de negocio de código abierto, está interesada en aplicar su enfoque colaborativo y transparente para la IA. En una conversación reciente con Julio Guijarro, el CTO de Red Hat para EMEA, discutimos su estrategia para aprovechar el poder de la IA generativa de una manera que agrega valor a las empresas de manera responsable y de manera sostenible.
La necesidad de educación y transparencia
Julio enfatizó la necesidad de más educación en torno a la IA, señalando que su naturaleza compleja a menudo lo convierte en una "caja negra" para muchos. "El funcionamiento interno de la IA, profundamente arraigado en la ciencia y las matemáticas complejas, siguen siendo en gran medida desconocidos", dijo. "Esta falta de transparencia se exacerba cuando la IA se desarrolla en entornos cerrados".
Los desafíos adicionales incluyen la subrepresentación de ciertos idiomas, preocupaciones de soberanía de datos y problemas de confianza. Julio señaló: "Los datos son el activo más valioso de una organización, y las empresas deben ser conscientes de los riesgos de exponer datos confidenciales a plataformas públicas con diferentes políticas de privacidad".
El enfoque de Red Hat a la IA
La respuesta de Red Hat a la demanda global de IA se centra en brindar beneficios a los usuarios finales mientras aborda las dudas y limitaciones asociadas con los servicios tradicionales de IA. Julio destacó el potencial de los modelos de lenguaje pequeño (SLMS) como una solución. Estos modelos pueden ejecutarse localmente o en nubes híbridas utilizando hardware no especialista y pueden acceder a datos comerciales locales. Los SLM son eficientes y específicos de tareas, lo que requiere menos recursos que las LLM.
Una de las ventajas clave de SLM es su capacidad para mantenerse actualizado con datos comerciales que cambian rápidamente. "Los modelos de idiomas grandes pueden volverse obsoletos rápidamente porque la generación de datos ocurre fuera de las grandes nubes, justo al lado de sus procesos comerciales", explicó Julio.
El costo es otro factor crítico. "Las consultas de servicio al cliente que usan un LLM pueden incurrir en costos ocultos significativos", dijo Julio. "Antes de la IA, las consultas de datos tenían un alcance y un costo predecible. Con LLMS, cada interacción puede aumentar los costos porque operan en un modelo iterativo. Ejecutar modelos en el centro permite un mayor control sobre los costos, ya que están vinculados a su infraestructura, no por tarifas por quería".
F Afortunadamente, las organizaciones no necesitan invertir mucho en hardware especializado como GPU. Red Hat está trabajando en la optimización de modelos para ejecutarse en hardware estándar, centrándose en los modelos específicos que las empresas necesitan en lugar de procesar grandes conjuntos de datos de propósito general con cada consulta.
La importancia de los modelos más pequeños y localizados
Al usar y hacer referencia a datos locales, los resultados se pueden adaptar a necesidades específicas. Julio hizo referencia a proyectos en regiones como los mundos de habla árabe y portugués, que no están bien atendidos por los LLM centrados en inglés.
Existen desafíos prácticos con LLM, incluidos los problemas de latencia que pueden afectar las aplicaciones sensibles al tiempo o orientados al cliente. Mantener recursos y resultados cercanos al usuario puede mitigar estos problemas.
La confianza es otro aspecto crucial de la IA responsable. Red Hat aboga por plataformas abiertas, herramientas y modelos para aumentar la transparencia y permitir una participación de la comunidad más amplia. "Es fundamental para todos", dijo Julio. "Estamos construyendo capacidades para democratizar la IA, no solo al publicar modelos sino también proporcionando herramientas para que los usuarios los replicen, sintonicen y sirvan".
La reciente adquisición de Red Hat de Magia Neural tiene como objetivo ayudar a las empresas a escalar IA más fácilmente, mejorar el rendimiento de la inferencia y ofrecer más opciones para construir e implementar cargas de trabajo de IA a través del proyecto VLLM. Además, en colaboración con IBM Research, Red Hat lanzó InstructLab, abriendo el desarrollo de IA a los científicos que no son de datos que poseen conocimientos comerciales valiosos.
El futuro de la IA
Si bien hay mucha especulación sobre la burbuja de IA, Red Hat cree en un futuro donde la IA se adapta a casos de uso específicos y sigue siendo de código abierto. Este enfoque será económicamente viable y accesible para todos. Como Matt Hicks, CEO de Red Hat, declaró: "El futuro de la IA está abierto".

Artículo relacionado
Reclamar horas con AI Time Management Automation
¿Luchando con interminables listas de tareas y plazos perdidos? ¿La IA podría ser su respuesta que se siente como si estuviera ahogándose en un mar de tareas y plazos que siguen deslizándose a través de sus dedos? En nuestro mundo acelerado, el tiempo es una mercancía preciosa, y manejarlo de manera efectiva puede parecer imposible
La primera reunión del gabinete de Trump: una mirada en profundidad al caos
La primera reunión del gabinete de Donald Trump de su nuevo término fue cualquier cosa menos ordinaria, marcada por una serie de momentos inusuales y una ráfaga de información errónea que dejó a los observadores desconcertados y preocupados por el estado de la economía y la confianza del consumidor. Este artículo se sumerge en los momentos clave de la M
El cuaderno de Google ahora reúne fuentes de investigación de forma gratuita
Google's NotebookLM es una herramienta fantástica para cualquier persona que se sumerja en un proyecto pesado de investigación. Por lo general, necesitaría cazar y agregar manualmente todas sus fuentes, pero ahora, Notebooklm está configurado para optimizar su proceso de investigación aún más al hacer el trabajo pesado para usted. El miércoles, Google reveló
Comentario (0)
0/200






Influencias geopolíticas en el desarrollo y uso de la IA
A medida que los eventos globales continúan dando forma a nuestro mundo, es inevitable que afecten el sector tecnológico, particularmente el mercado de IA. Esta influencia se extiende a cómo se desarrolla la IA, sus metodologías y su aplicación dentro de las empresas. El panorama actual de la IA es una mezcla de emoción y escepticismo, y algunos adoptan su potencial, mientras que otros siguen siendo cautelosos debido a sus primeras etapas de desarrollo.
Los modelos tradicionales de lenguaje grande (LLMS) como los de los proveedores conocidos enfrentan la competencia de modelos más nuevos y más abiertos como Llama, Deepseek y Ernie X1 de Baidu. En contraste, el desarrollo de código abierto ofrece transparencia y la oportunidad de contribución de la comunidad, alineándose con el concepto de "IA responsable". Este enfoque considera los impactos ambientales, la ética de uso, las fuentes de datos de aprendizaje y los problemas relacionados con la soberanía de los datos, el lenguaje y la política.
Red Hat, una compañía conocida por su exitoso modelo de negocio de código abierto, está interesada en aplicar su enfoque colaborativo y transparente para la IA. En una conversación reciente con Julio Guijarro, el CTO de Red Hat para EMEA, discutimos su estrategia para aprovechar el poder de la IA generativa de una manera que agrega valor a las empresas de manera responsable y de manera sostenible.
La necesidad de educación y transparencia
Julio enfatizó la necesidad de más educación en torno a la IA, señalando que su naturaleza compleja a menudo lo convierte en una "caja negra" para muchos. "El funcionamiento interno de la IA, profundamente arraigado en la ciencia y las matemáticas complejas, siguen siendo en gran medida desconocidos", dijo. "Esta falta de transparencia se exacerba cuando la IA se desarrolla en entornos cerrados".
Los desafíos adicionales incluyen la subrepresentación de ciertos idiomas, preocupaciones de soberanía de datos y problemas de confianza. Julio señaló: "Los datos son el activo más valioso de una organización, y las empresas deben ser conscientes de los riesgos de exponer datos confidenciales a plataformas públicas con diferentes políticas de privacidad".
El enfoque de Red Hat a la IA
La respuesta de Red Hat a la demanda global de IA se centra en brindar beneficios a los usuarios finales mientras aborda las dudas y limitaciones asociadas con los servicios tradicionales de IA. Julio destacó el potencial de los modelos de lenguaje pequeño (SLMS) como una solución. Estos modelos pueden ejecutarse localmente o en nubes híbridas utilizando hardware no especialista y pueden acceder a datos comerciales locales. Los SLM son eficientes y específicos de tareas, lo que requiere menos recursos que las LLM.
Una de las ventajas clave de SLM es su capacidad para mantenerse actualizado con datos comerciales que cambian rápidamente. "Los modelos de idiomas grandes pueden volverse obsoletos rápidamente porque la generación de datos ocurre fuera de las grandes nubes, justo al lado de sus procesos comerciales", explicó Julio.
El costo es otro factor crítico. "Las consultas de servicio al cliente que usan un LLM pueden incurrir en costos ocultos significativos", dijo Julio. "Antes de la IA, las consultas de datos tenían un alcance y un costo predecible. Con LLMS, cada interacción puede aumentar los costos porque operan en un modelo iterativo. Ejecutar modelos en el centro permite un mayor control sobre los costos, ya que están vinculados a su infraestructura, no por tarifas por quería".
F Afortunadamente, las organizaciones no necesitan invertir mucho en hardware especializado como GPU. Red Hat está trabajando en la optimización de modelos para ejecutarse en hardware estándar, centrándose en los modelos específicos que las empresas necesitan en lugar de procesar grandes conjuntos de datos de propósito general con cada consulta.
La importancia de los modelos más pequeños y localizados
Al usar y hacer referencia a datos locales, los resultados se pueden adaptar a necesidades específicas. Julio hizo referencia a proyectos en regiones como los mundos de habla árabe y portugués, que no están bien atendidos por los LLM centrados en inglés.
Existen desafíos prácticos con LLM, incluidos los problemas de latencia que pueden afectar las aplicaciones sensibles al tiempo o orientados al cliente. Mantener recursos y resultados cercanos al usuario puede mitigar estos problemas.
La confianza es otro aspecto crucial de la IA responsable. Red Hat aboga por plataformas abiertas, herramientas y modelos para aumentar la transparencia y permitir una participación de la comunidad más amplia. "Es fundamental para todos", dijo Julio. "Estamos construyendo capacidades para democratizar la IA, no solo al publicar modelos sino también proporcionando herramientas para que los usuarios los replicen, sintonicen y sirvan".
La reciente adquisición de Red Hat de Magia Neural tiene como objetivo ayudar a las empresas a escalar IA más fácilmente, mejorar el rendimiento de la inferencia y ofrecer más opciones para construir e implementar cargas de trabajo de IA a través del proyecto VLLM. Además, en colaboración con IBM Research, Red Hat lanzó InstructLab, abriendo el desarrollo de IA a los científicos que no son de datos que poseen conocimientos comerciales valiosos.
El futuro de la IA
Si bien hay mucha especulación sobre la burbuja de IA, Red Hat cree en un futuro donde la IA se adapta a casos de uso específicos y sigue siendo de código abierto. Este enfoque será económicamente viable y accesible para todos. Como Matt Hicks, CEO de Red Hat, declaró: "El futuro de la IA está abierto".



5 Pasos sencillos para reclamar su privacidad de datos en línea: comience hoy
Los ajustes a los centros de datos de EE. UU. Podrían desbloquear 76 GW de nueva capacidad de potencia El organismo de IA del Reino Unido renombra al Instituto de Seguridad, firma a Mou con antrópico Nvidia presenta GPU de próxima generación: Blackwell Ultra, Vera Rubin, Feynman Telli, un alumbre de YC, asegura fondos previos a las semillas para agentes de voz de IA








