Google dévoile un modèle Gemini AI efficace

Google est défini pour dévoiler un nouveau modèle d'IA, Gemini 2.5 Flash, qui promet des performances robustes tout en hiérarchisant l'efficacité. Ce modèle sera intégré à Vertex AI, la plate-forme de Google pour le développement de l'IA. Selon Google, Gemini 2.5 Flash offre des capacités informatiques "dynamiques et contrôlables", permettant aux développeurs de modifier les temps de traitement en fonction de la complexité de leurs requêtes.
Dans un article de blog partagé avec TechCrunch, Google a déclaré: "Vous pouvez régler la vitesse, la précision et l'équilibre des coûts pour vos besoins spécifiques. Cette flexibilité est essentielle pour optimiser les performances du flash dans des applications à volume élevé et sensibles aux coûts." Cette approche arrive à un moment où les coûts associés aux modèles d'IA de niveau supérieur sont en augmentation. Des modèles comme Gemini 2.5 Flash, qui sont plus favorables à un budget tout en offrant des performances solides, servent d'alternative attrayante aux options plus chères, bien qu'avec un léger compromis de précision.
Gemini 2.5 Flash est classé comme un modèle de "raisonnement", similaire à O3-Mini d'Openai et à R1 de Deepseek. Ces modèles prennent un peu plus de temps pour réagir car ils vérifient leurs réponses, assurant la fiabilité. Google souligne que 2.5 Flash est particulièrement adapté aux applications "à haut volume" et "en temps réel", telles que le service client et l'analyse des documents.
Google décrit 2.5 Flash comme un "modèle de cheval de travail" dans leur article de blog, en déclarant: "Il est optimisé spécifiquement pour une faible latence et un coût réduit. C'est le moteur idéal pour les assistants virtuels réactifs et les outils de résumé en temps réel où l'efficacité à grande échelle est essentielle." Cependant, Google n'a pas publié de rapport de sécurité ou technique pour ce modèle, ce qui rend plus difficile de déterminer ses forces et ses faiblesses. La société avait précédemment mentionné à TechCrunch qu'elle ne publie pas de rapports pour les modèles qu'il juge "expérimental".
Mercredi, Google a également révélé des plans pour étendre les modèles Gemini, dont 2.5 Flash, dans des environnements locaux à partir du troisième trimestre. Ces modèles seront disponibles sur Google Distributed Cloud (GDC), la solution sur site de Google conçue pour les clients ayant des besoins stricts de gouvernance des données. Google collabore avec NVIDIA pour rendre les modèles Gemini compatibles avec les systèmes NVIDIA Blackwell conformes au GDC, que les clients peuvent acheter directement auprès de Google ou via d'autres canaux préférés.
Article connexe
Imagen 4 is Google’s newest AI image generator
Google has just unveiled its latest image-generating AI model, Imagen 4, promising users an even better visual experience than its predecessor, Imagen 3. Announced at Google I/O 20
Google's Gemini Code Assist Enhances AI Coding with New Agentic Capabilities
Gemini Code Assist, Google's AI-powered coding companion, is rolling out exciting new "agentic" features in a preview mode. At the recent Cloud Next conference, Google unveiled how
Google’s AI Futures Fund may have to tread carefully
Google’s New AI Investment Initiative: A Strategic Shift Amid Regulatory ScrutinyGoogle's recent announcement of an AI Futures Fund marks a bold move in the tech giant's ongoing qu
commentaires (0)
0/200
Google est défini pour dévoiler un nouveau modèle d'IA, Gemini 2.5 Flash, qui promet des performances robustes tout en hiérarchisant l'efficacité. Ce modèle sera intégré à Vertex AI, la plate-forme de Google pour le développement de l'IA. Selon Google, Gemini 2.5 Flash offre des capacités informatiques "dynamiques et contrôlables", permettant aux développeurs de modifier les temps de traitement en fonction de la complexité de leurs requêtes.
Dans un article de blog partagé avec TechCrunch, Google a déclaré: "Vous pouvez régler la vitesse, la précision et l'équilibre des coûts pour vos besoins spécifiques. Cette flexibilité est essentielle pour optimiser les performances du flash dans des applications à volume élevé et sensibles aux coûts." Cette approche arrive à un moment où les coûts associés aux modèles d'IA de niveau supérieur sont en augmentation. Des modèles comme Gemini 2.5 Flash, qui sont plus favorables à un budget tout en offrant des performances solides, servent d'alternative attrayante aux options plus chères, bien qu'avec un léger compromis de précision.
Gemini 2.5 Flash est classé comme un modèle de "raisonnement", similaire à O3-Mini d'Openai et à R1 de Deepseek. Ces modèles prennent un peu plus de temps pour réagir car ils vérifient leurs réponses, assurant la fiabilité. Google souligne que 2.5 Flash est particulièrement adapté aux applications "à haut volume" et "en temps réel", telles que le service client et l'analyse des documents.
Google décrit 2.5 Flash comme un "modèle de cheval de travail" dans leur article de blog, en déclarant: "Il est optimisé spécifiquement pour une faible latence et un coût réduit. C'est le moteur idéal pour les assistants virtuels réactifs et les outils de résumé en temps réel où l'efficacité à grande échelle est essentielle." Cependant, Google n'a pas publié de rapport de sécurité ou technique pour ce modèle, ce qui rend plus difficile de déterminer ses forces et ses faiblesses. La société avait précédemment mentionné à TechCrunch qu'elle ne publie pas de rapports pour les modèles qu'il juge "expérimental".
Mercredi, Google a également révélé des plans pour étendre les modèles Gemini, dont 2.5 Flash, dans des environnements locaux à partir du troisième trimestre. Ces modèles seront disponibles sur Google Distributed Cloud (GDC), la solution sur site de Google conçue pour les clients ayant des besoins stricts de gouvernance des données. Google collabore avec NVIDIA pour rendre les modèles Gemini compatibles avec les systèmes NVIDIA Blackwell conformes au GDC, que les clients peuvent acheter directement auprès de Google ou via d'autres canaux préférés.











