option
Maison Nouvelles Comprendre les longs fenêtres de contexte: les informations clés

Comprendre les longs fenêtres de contexte: les informations clés

date de sortie date de sortie 10 avril 2025
vues vues 97

Hier, nous avons dévoilé notre dernière percée dans la technologie AI avec le modèle Gemini 1.5. Cette nouvelle itération apporte des améliorations importantes de la vitesse et de l'efficacité, mais le véritable changeur de jeu est sa fenêtre de contexte long innovante. Cette fonctionnalité permet au modèle de traiter un nombre sans précédent de jetons - les unités fondamentales qui composent des mots, des images ou des vidéos - en une seule fois. Pour faire la lumière sur cette progression, nous nous sommes tournés vers l'équipe de projet Google DeepMind pour obtenir des informations sur les longues fenêtres de contexte et comment ils peuvent révolutionner la façon dont les développeurs fonctionnent.

La compréhension des fenêtres longues du contexte est cruciale car elles permettent aux modèles d'IA de maintenir et de rappeler des informations tout au long d'une session. Imaginez essayer de vous souvenir d'un nom quelques minutes après qu'il soit mentionné dans une conversation, ou de vous précipiter pour écrire un numéro de téléphone avant qu'il ne vous glisse. Les modèles d'IA sont confrontés à des défis similaires, «oubliant souvent» les détails après quelques interactions. Les fenêtres du contexte long abordent ce problème en permettant au modèle de conserver plus d'informations dans sa «mémoire».

Auparavant, le modèle Gemini pouvait gérer jusqu'à 32 000 jetons simultanément. Cependant, avec la publication de 1,5 Pro pour les tests précoces, nous avons repoussé les limites à des jetons stupéfiants de 1 million - la plus grande fenêtre de contexte de tout modèle de fondation à grande échelle à ce jour. Nos recherches sont même allées au-delà de cela, testant avec succès jusqu'à 10 millions de jetons. Plus la fenêtre de contexte est grande, plus les données sont diverses et étendues - texte, images, audio, code ou vidéo - le modèle peut traiter.

Nikolay Savinov, un chercheur de Google Deepmind et l'un des pistes du projet de contexte long, a partagé: "Notre objectif initial était d'atteindre 128 000 jetons, mais je pensais que la visée plus élevée serait bénéfique, donc j'ai proposé 1 million de jetons. Et maintenant, nos recherches ont dépassé cela de 10 fois."

La réalisation de ce saut a nécessité une série d'innovations d'apprentissage en profondeur. Les premières explorations de Pranav Shyam ont fourni des informations cruciales qui ont guidé nos recherches. Denis Teplyashin, un ingénieur Google Deepmind, a expliqué: "Chaque percée a conduit à une autre, ouvrant de nouvelles possibilités. Lorsque ces innovations se sont combinées, nous avons été étonnés des résultats, passant de 128 000 jetons à 512 000, puis 1 million, et récemment, 10 millions de jetons dans notre recherche interne."

La capacité élargie de 1,5 Pro ouvre de nouvelles applications passionnantes. Par exemple, au lieu de résumer un document qui fait des dizaines de pages, il peut désormais gérer des documents des milliers de pages. Lorsque le modèle précédent pourrait analyser des milliers de lignes de code, 1,5 Pro peut désormais traiter des dizaines de milliers de lignes à la fois.

Machel Reid, un autre chercheur de Google Deepmind, a partagé des résultats fascinants de tests: "Dans un test, nous avons nourri toute la base de code dans le modèle, et cela a généré une documentation complète pour cela, ce qui était incroyable. Dans un autre, il a répondu avec précision aux questions sur le film 1924 Sherlock Jr. après avoir` `regardé 'le film de 45 minutes."

1.5 Pro excelle également au raisonnement sur les données dans une invite. Machel a souligné un exemple impliquant la langue rare Kalamang, parlée par moins de 200 personnes dans le monde. "Le modèle ne peut pas se traduire par Kalamang seul, mais avec la longue fenêtre de contexte, nous pourrions inclure l'intégralité du manuel de grammaire et des phrases d'exemples. Le modèle a ensuite appris à traduire de l'anglais à Kalamang à un niveau comparable à quelqu'un qui apprend du même matériel."

Gemini 1.5 Pro est livré avec une fenêtre de contexte standard de 128k-token, mais un groupe restreint de développeurs et de clients d'entreprise peut accéder à une fenêtre de contexte de 1 million de jetons via AI Studio et Vertex AI en aperçu privé. La gestion d'une fenêtre de contexte aussi importante est à forte intensité de calcul, et nous travaillons activement sur les optimisations pour réduire la latence à mesure que nous l'évalonnons.

Pour l'avenir, l'équipe se concentre sur la renforcement du modèle plus rapide et plus efficace, avec la sécurité en priorité. Ils explorent également des moyens d'élargir davantage la longue fenêtre de contexte, d'améliorer les architectures sous-jacentes et de tirer parti de nouvelles améliorations matérielles. Nikolay a noté: "10 millions de jetons à la fois approchent de la limite thermique de nos unités de traitement du tenseur. Nous ne savons pas encore où se situe la limite, et le modèle pourrait être encore plus capable car le matériel continue d'évoluer."

L'équipe est impatient de voir les applications innovantes que les développeurs et la communauté plus large créeront avec ces nouvelles capacités. Machel a réfléchi: "Quand j'ai vu pour la première fois que nous avions un million de jetons en contexte, je me suis demandé:" Pourquoi utilisez-vous cela? " Mais maintenant, je crois que l'imagination des gens se développera, conduisant à des utilisations plus créatives de ces nouvelles capacités. "

[TTPP] [YYXX]

Article connexe
गूगल के AI भविष्य फंड को धीरे-धीरे चलने पड़ सकता है गूगल के AI भविष्य फंड को धीरे-धीरे चलने पड़ सकता है गूगल का नया AI निवेश इनिशिएटिव: नियंत्रण के अध्ययन के बीच स्ट्रैटेजिक शिफ्ट गूगल के हाल के AI फ्यूचर्स फंड के बारे में घोषणा ने इंटरनेट के जादूगर कंपनी की लगातार प्रयासों को देखा
Oura, AI समान्य ग्लूकोज ट्रैकिंग और मेल लॉगिंग जोड़ता है Oura, AI समान्य ग्लूकोज ट्रैकिंग और मेल लॉगिंग जोड़ता है ओरा, अपनी पाचन व्यवस्था स्वास्थ्य पर अपनी प्रतिबद्धता को मजबूत कर रहा है दो नई आकर्षक विशेषताओं के साथओरा, पाचन व्यवस्था स्वास्थ्य के विश्व में अपनी खेल को बढ़ा रहा है: ग्लूकोज ट्र
न्यायाधीश ने झूठी AI संशोधन पर कानूनियों की आलोचना की न्यायाधीश ने झूठी AI संशोधन पर कानूनियों की आलोचना की कैलिफोर्निया के न्यायाधीश माइकल विलनर ने एक récent फैसले में दो प्रमुख कानूनी फर्मों को एक नागरिक मुकदमे के दौरान किसी भी खबर नहीं देने पर आधारित मिथ्या जानकारी का उपयोग करने के का
commentaires (25)
0/200
NicholasRoberts
NicholasRoberts 14 avril 2025 22:59:46 UTC

Gemini 1.5's long context window is a game-changer, no doubt! But sometimes it feels like it's trying to do too much at once, which can slow things down. Still, for processing huge chunks of data, it's unbeatable. Worth checking out! 🚀

HenryJackson
HenryJackson 13 avril 2025 17:36:58 UTC

Gemini 1.5の長いコンテキストウィンドウは本当に革新的!でも、時々一度にたくさんのことをしようとして遅くなることがあるよね。それでも、大量のデータを処理するには最強だと思う。試してみる価値あり!🚀

ScottJackson
ScottJackson 12 avril 2025 16:31:28 UTC

Gemini 1.5의 긴 컨텍스트 윈도우는 정말 혁신적이에요! 하지만 때때로 너무 많은 일을 한꺼번에 하려다 느려지는 것 같아요. 그래도 대량의 데이터를 처리하는 데는 최고예요. 한번 써보세요! 🚀

MatthewGonzalez
MatthewGonzalez 16 avril 2025 15:41:59 UTC

A janela de contexto longo do Gemini 1.5 é revolucionária, sem dúvida! Mas às vezes parece que está tentando fazer muito de uma vez, o que pode atrasar as coisas. Ainda assim, para processar grandes quantidades de dados, é imbatível. Vale a pena conferir! 🚀

StevenGreen
StevenGreen 10 avril 2025 14:12:10 UTC

La ventana de contexto largo de Gemini 1.5 es un cambio de juego, sin duda. Pero a veces parece que intenta hacer demasiado a la vez, lo que puede ralentizar las cosas. Aún así, para procesar grandes cantidades de datos, es insuperable. ¡Vale la pena probarlo! 🚀

DouglasMartinez
DouglasMartinez 14 avril 2025 16:35:33 UTC

Gemini 1.5's long context window is a game-changer! It's amazing how much more it can process compared to older models. Just wish it was a bit faster. Still, a big step forward! 💪

Retour en haut
OR