Gemma 2 ahora accesible para investigadores, desarrolladores

La IA tiene el poder de enfrentar algunos de los desafíos más difíciles que enfrentamos hoy, pero eso es solo si todos pueden tener en sus manos las herramientas para usarlo. Es por eso que comenzamos el año al presentar a Gemma, un conjunto de modelos abiertos livianos y de vanguardia, creados con la misma tecnología que alimenta nuestros modelos Gemini. Desde entonces, hemos expandido a la familia Gemma con Codegemma, recurrentgemma y Paligemma, cada uno adaptado para diferentes tareas de IA y fácilmente accesible a través de asociaciones con compañías como Hugging Face, Nvidia y Ollama.
Ahora, estamos emocionados de anunciar el lanzamiento global de Gemma 2 para investigadores y desarrolladores. Disponible en los tamaños de parámetros de 9 mil millones (9b) y 27 mil millones (27b), Gemma 2 ofrece un rendimiento y eficiencia superiores en comparación con su predecesor, con mejoras de seguridad significativas. La versión 27B es una potencia y rivalización de modelos que tienen más de dos veces en su tamaño, y puede ejecutarse en un solo host NVIDIA H100 Tensor Core GPU o TPU, reduciendo los costos de implementación. Es genial cómo hemos logrado el alto rendimiento sin romper el banco, ¿verdad?
Un nuevo estándar para la eficiencia y el rendimiento en los modelos abiertos.
Hemos puesto mucho esfuerzo para rediseñar la arquitectura de Gemma 2, con el objetivo de un rendimiento y eficiencia de primer nivel. Esto es lo que lo distingue:
- Rendimiento excesivo: a 27b, Gemma 2 es el mejor perro de su clase, incluso compitiendo con modelos más del doble de su tamaño. La versión 9B también brilla, superando a Llama 3 8B y otros modelos abiertos en su categoría. Para todos los detalles jugosos, consulte el informe técnico.
- Eficiencia inigualable y ahorro de costos: el 27B Gemma 2 funciona sin problemas con una precisión completa en un solo host de Google Cloud TPU, NVIDIA A100 80GB Tensor Core GPU o NVIDIA H100 Tensor Core GPU, lo que significa que puede mantener los costos sin sacrificar el rendimiento. Esto hace que las implementaciones de IA sean más accesibles y amigables con el presupuesto.
- Inferencia rápida en todo el hardware: Gemma 2 está diseñado para funcionar rápidamente en todo, desde computadoras portátiles de juego y escritorios de alta gama hasta configuraciones de nubes. Puede probarlo a plena precisión en Google AI Studio, ejecutarlo localmente con la versión cuantificada en gemma.cpp en su CPU, o probarlo en la computadora de su hogar con un NVIDIA RTX o GeForce RTX a través de los transformadores faciales para abrazar.
Construido para desarrolladores e investigadores
Gemma 2 no es solo más poderoso; También está diseñado para encajar perfectamente en sus flujos de trabajo:
- Abierto y accesible: al igual que los modelos originales de Gemma, Gemma 2 viene con una licencia comercialmente amigable, que permite a los desarrolladores e investigadores compartir y monetizar sus creaciones.
- Compatibilidad del marco amplio: puede integrar fácilmente a Gemma 2 con sus herramientas y flujos de trabajo favoritos, gracias a su compatibilidad con los principales marcos de IA como los transformadores faciales para abrazos y Jax, Pytorch y Tensorflow a través de Keras 3.0, VLLM, Gemma.CPP, Llama.CPP y Ollama. También está optimizado con Nvidia Tensorrt-LLM para la infraestructura acelerada por Nvidia o como un microservicio de inferencia NVIDIA NIM, con optimización para NEMO de NVIDIA en el horizonte. Puede comenzar a ajustar hoy con Keras y abrazar la cara, y estamos trabajando en opciones de ajuste fino más eficientes.
- Implementación sin esfuerzo: a partir del próximo mes, los clientes de Google Cloud pueden implementar y administrar fácilmente Gemma 2 en Vertex AI.
Sumérgete en el nuevo libro de cocina de Gemma, repleto de ejemplos prácticos y recetas para ayudarte a construir tus propias aplicaciones y ajustar Gemma 2 para tareas específicas. Aprenda a usar GEMMA con sus herramientas preferidas, incluso para tareas como la generación de recuperación aumentada.
Desarrollo de IA responsable
Estamos comprometidos a ayudar a los desarrolladores e investigadores a construir y implementar AI de manera responsable. Nuestro conjunto de herramientas de IA generativo responsable es parte de este esfuerzo. El comparador LLM de origen abierto ayuda con evaluaciones detalladas de modelos de lenguaje. A partir de hoy, puede usar la biblioteca complementaria de Python para ejecutar evaluaciones comparativas con su modelo y datos, y visualizar los resultados en la aplicación. También estamos trabajando en la tecnología de marca de agua de texto abierta, Synthid, para los modelos Gemma.
Al entrenar a GEMMA 2, seguimos nuestros rigurosos procesos de seguridad interna, filtrando datos previos a la capacitación y realizando pruebas y evaluación exhaustivas contra una amplia gama de métricas para identificar y mitigar posibles sesgos y riesgos. Compartimos nuestros resultados en puntos de referencia públicos relacionados con la seguridad y los daños representativos.
Proyectos construidos con Gemma
Nuestro primer lanzamiento de Gemma provocó más de 10 millones de descargas y toneladas de proyectos increíbles. Por ejemplo, Navarasa usó Gemma para desarrollar un modelo que celebra la diversidad lingüística de la India.
Con Gemma 2, los desarrolladores pueden asumir proyectos aún más ambiciosos, empujando los límites de lo que es posible en la IA. Seguiremos explorando nuevas arquitecturas y desarrollando variantes especializadas de Gemma para abordar una gama más amplia de tareas y desafíos de IA. También nos estamos preparando para lanzar un modelo Gemma 2 de parámetros de 2.6B, diseñado para equilibrar la accesibilidad liviana con un rendimiento potente. Puede obtener más información sobre esto en el informe técnico.
Empezando
Gemma 2 ahora está disponible en Google AI Studio, por lo que puede probar sus capacidades completas a 27b sin ningún requisito de hardware. También puede descargar los modelos de Model de Gemma 2 de Kaggle y Hugging Face Models, con Vertex AI Model Garden próximamente.
Para apoyar la investigación y el desarrollo, Gemma 2 está disponible de forma gratuita a través de Kaggle o a través de un nivel gratuito para cuadernos Colab. Los clientes de Google Cloud por primera vez pueden ser elegibles por $ 300 en créditos. Los investigadores académicos pueden solicitar el programa de investigación académica de Gemma 2 para que Google Cloud Créditos acelere su investigación con Gemma 2. Las aplicaciones están abiertas ahora hasta el 9 de agosto.
Artículo relacionado
Миллиардеры обсуждают автоматизацию рабочих мест в обновлении AI на этой неделе
Привет всем, добро пожаловать в новостную рассылку TechCrunch по AI! Если вы еще не подписаны, вы можете подписаться здесь, чтобы получать ее прямо в ваш почтовый ящик каждую среду.На прошлой неделе м
Запуск приложения NotebookLM: ИИ-инструмент знаний
NotebookLM теперь в мобильном: ваш AI-ассистент для исследований доступен на Android и iOS Мы поражены вашей реакцией на NotebookLM — миллионы пользователей выбрали его в качестве
Фонд будущего ИИ Google, возможно, должен действовать осторожно
Инвестиционная инициатива Google в области ИИ: стратегический поворот на фоне регуляторного вниманияОбъявление Google о создании фонда AI Futures Fund является смелым шагом в стрем
comentario (60)
0/200
BenHernández
11 de abril de 2025 00:00:00 GMT
Gemma 2 is cool for researchers and developers, but it's a bit too technical for me. I appreciate the open access, but I wish there was a simpler version for us non-techies. Still, it's a great tool for those who can use it!
0
StevenSanchez
11 de abril de 2025 00:00:00 GMT
研究者や開発者にとってGemma 2は素晴らしいですが、私には少し技術的すぎます。オープンアクセスは評価しますが、技術者でない私たちのための簡単なバージョンがあればいいのに。使える人にとっては素晴らしいツールです!
0
AndrewHernández
11 de abril de 2025 00:00:00 GMT
Gemma 2는 연구자와 개발자에게 좋지만, 나에게는 너무 기술적이에요. 오픈 액세스는 좋지만, 비기술자들을 위한 더 쉬운 버전이 있으면 좋겠어요. 그래도 사용할 수 있는 사람들에게는 훌륭한 도구입니다!
0
EricPerez
11 de abril de 2025 00:00:00 GMT
Gemma 2 é legal para pesquisadores e desenvolvedores, mas é um pouco técnico demais para mim. Aprecio o acesso aberto, mas gostaria que houvesse uma versão mais simples para nós, não técnicos. Ainda assim, é uma ótima ferramenta para quem pode usá-la!
0
JasonSanchez
11 de abril de 2025 00:00:00 GMT
Gemma 2 es genial para investigadores y desarrolladores, pero es un poco demasiado técnico para mí. Aprecio el acceso abierto, pero desearía que hubiera una versión más simple para nosotros, los no técnicos. Aún así, es una gran herramienta para quienes pueden usarla!
0
MatthewBaker
11 de abril de 2025 00:00:00 GMT
Gemma is a game-changer for researchers and devs! It's lightweight and based on the same tech as Gemini, which is awesome. I've been using it for my projects and it's made things so much easier. Only wish it had more documentation, but still, it's a solid tool!
0
La IA tiene el poder de enfrentar algunos de los desafíos más difíciles que enfrentamos hoy, pero eso es solo si todos pueden tener en sus manos las herramientas para usarlo. Es por eso que comenzamos el año al presentar a Gemma, un conjunto de modelos abiertos livianos y de vanguardia, creados con la misma tecnología que alimenta nuestros modelos Gemini. Desde entonces, hemos expandido a la familia Gemma con Codegemma, recurrentgemma y Paligemma, cada uno adaptado para diferentes tareas de IA y fácilmente accesible a través de asociaciones con compañías como Hugging Face, Nvidia y Ollama.
Ahora, estamos emocionados de anunciar el lanzamiento global de Gemma 2 para investigadores y desarrolladores. Disponible en los tamaños de parámetros de 9 mil millones (9b) y 27 mil millones (27b), Gemma 2 ofrece un rendimiento y eficiencia superiores en comparación con su predecesor, con mejoras de seguridad significativas. La versión 27B es una potencia y rivalización de modelos que tienen más de dos veces en su tamaño, y puede ejecutarse en un solo host NVIDIA H100 Tensor Core GPU o TPU, reduciendo los costos de implementación. Es genial cómo hemos logrado el alto rendimiento sin romper el banco, ¿verdad?
Un nuevo estándar para la eficiencia y el rendimiento en los modelos abiertos.
Hemos puesto mucho esfuerzo para rediseñar la arquitectura de Gemma 2, con el objetivo de un rendimiento y eficiencia de primer nivel. Esto es lo que lo distingue:
- Rendimiento excesivo: a 27b, Gemma 2 es el mejor perro de su clase, incluso compitiendo con modelos más del doble de su tamaño. La versión 9B también brilla, superando a Llama 3 8B y otros modelos abiertos en su categoría. Para todos los detalles jugosos, consulte el informe técnico.
- Eficiencia inigualable y ahorro de costos: el 27B Gemma 2 funciona sin problemas con una precisión completa en un solo host de Google Cloud TPU, NVIDIA A100 80GB Tensor Core GPU o NVIDIA H100 Tensor Core GPU, lo que significa que puede mantener los costos sin sacrificar el rendimiento. Esto hace que las implementaciones de IA sean más accesibles y amigables con el presupuesto.
- Inferencia rápida en todo el hardware: Gemma 2 está diseñado para funcionar rápidamente en todo, desde computadoras portátiles de juego y escritorios de alta gama hasta configuraciones de nubes. Puede probarlo a plena precisión en Google AI Studio, ejecutarlo localmente con la versión cuantificada en gemma.cpp en su CPU, o probarlo en la computadora de su hogar con un NVIDIA RTX o GeForce RTX a través de los transformadores faciales para abrazar.
Construido para desarrolladores e investigadores
Gemma 2 no es solo más poderoso; También está diseñado para encajar perfectamente en sus flujos de trabajo:
- Abierto y accesible: al igual que los modelos originales de Gemma, Gemma 2 viene con una licencia comercialmente amigable, que permite a los desarrolladores e investigadores compartir y monetizar sus creaciones.
- Compatibilidad del marco amplio: puede integrar fácilmente a Gemma 2 con sus herramientas y flujos de trabajo favoritos, gracias a su compatibilidad con los principales marcos de IA como los transformadores faciales para abrazos y Jax, Pytorch y Tensorflow a través de Keras 3.0, VLLM, Gemma.CPP, Llama.CPP y Ollama. También está optimizado con Nvidia Tensorrt-LLM para la infraestructura acelerada por Nvidia o como un microservicio de inferencia NVIDIA NIM, con optimización para NEMO de NVIDIA en el horizonte. Puede comenzar a ajustar hoy con Keras y abrazar la cara, y estamos trabajando en opciones de ajuste fino más eficientes.
- Implementación sin esfuerzo: a partir del próximo mes, los clientes de Google Cloud pueden implementar y administrar fácilmente Gemma 2 en Vertex AI.
Sumérgete en el nuevo libro de cocina de Gemma, repleto de ejemplos prácticos y recetas para ayudarte a construir tus propias aplicaciones y ajustar Gemma 2 para tareas específicas. Aprenda a usar GEMMA con sus herramientas preferidas, incluso para tareas como la generación de recuperación aumentada.
Desarrollo de IA responsable
Estamos comprometidos a ayudar a los desarrolladores e investigadores a construir y implementar AI de manera responsable. Nuestro conjunto de herramientas de IA generativo responsable es parte de este esfuerzo. El comparador LLM de origen abierto ayuda con evaluaciones detalladas de modelos de lenguaje. A partir de hoy, puede usar la biblioteca complementaria de Python para ejecutar evaluaciones comparativas con su modelo y datos, y visualizar los resultados en la aplicación. También estamos trabajando en la tecnología de marca de agua de texto abierta, Synthid, para los modelos Gemma.
Al entrenar a GEMMA 2, seguimos nuestros rigurosos procesos de seguridad interna, filtrando datos previos a la capacitación y realizando pruebas y evaluación exhaustivas contra una amplia gama de métricas para identificar y mitigar posibles sesgos y riesgos. Compartimos nuestros resultados en puntos de referencia públicos relacionados con la seguridad y los daños representativos.
Proyectos construidos con Gemma
Nuestro primer lanzamiento de Gemma provocó más de 10 millones de descargas y toneladas de proyectos increíbles. Por ejemplo, Navarasa usó Gemma para desarrollar un modelo que celebra la diversidad lingüística de la India.
Con Gemma 2, los desarrolladores pueden asumir proyectos aún más ambiciosos, empujando los límites de lo que es posible en la IA. Seguiremos explorando nuevas arquitecturas y desarrollando variantes especializadas de Gemma para abordar una gama más amplia de tareas y desafíos de IA. También nos estamos preparando para lanzar un modelo Gemma 2 de parámetros de 2.6B, diseñado para equilibrar la accesibilidad liviana con un rendimiento potente. Puede obtener más información sobre esto en el informe técnico.
Empezando
Gemma 2 ahora está disponible en Google AI Studio, por lo que puede probar sus capacidades completas a 27b sin ningún requisito de hardware. También puede descargar los modelos de Model de Gemma 2 de Kaggle y Hugging Face Models, con Vertex AI Model Garden próximamente.
Para apoyar la investigación y el desarrollo, Gemma 2 está disponible de forma gratuita a través de Kaggle o a través de un nivel gratuito para cuadernos Colab. Los clientes de Google Cloud por primera vez pueden ser elegibles por $ 300 en créditos. Los investigadores académicos pueden solicitar el programa de investigación académica de Gemma 2 para que Google Cloud Créditos acelere su investigación con Gemma 2. Las aplicaciones están abiertas ahora hasta el 9 de agosto.



Gemma 2 is cool for researchers and developers, but it's a bit too technical for me. I appreciate the open access, but I wish there was a simpler version for us non-techies. Still, it's a great tool for those who can use it!




研究者や開発者にとってGemma 2は素晴らしいですが、私には少し技術的すぎます。オープンアクセスは評価しますが、技術者でない私たちのための簡単なバージョンがあればいいのに。使える人にとっては素晴らしいツールです!




Gemma 2는 연구자와 개발자에게 좋지만, 나에게는 너무 기술적이에요. 오픈 액세스는 좋지만, 비기술자들을 위한 더 쉬운 버전이 있으면 좋겠어요. 그래도 사용할 수 있는 사람들에게는 훌륭한 도구입니다!




Gemma 2 é legal para pesquisadores e desenvolvedores, mas é um pouco técnico demais para mim. Aprecio o acesso aberto, mas gostaria que houvesse uma versão mais simples para nós, não técnicos. Ainda assim, é uma ótima ferramenta para quem pode usá-la!




Gemma 2 es genial para investigadores y desarrolladores, pero es un poco demasiado técnico para mí. Aprecio el acceso abierto, pero desearía que hubiera una versión más simple para nosotros, los no técnicos. Aún así, es una gran herramienta para quienes pueden usarla!




Gemma is a game-changer for researchers and devs! It's lightweight and based on the same tech as Gemini, which is awesome. I've been using it for my projects and it's made things so much easier. Only wish it had more documentation, but still, it's a solid tool!












