Long Context Windows verstehen: wichtige Erkenntnisse
Gestern haben wir unseren neuesten Durchbruch in der AI -Technologie mit dem Gemini 1.5 -Modell vorgestellt. Diese neue Iteration bringt erhebliche Verbesserungen in Geschwindigkeit und Effizienz mit sich, aber der wirkliche Game-Changer ist sein innovatives langes Kontextfenster. Diese Funktion ermöglicht es dem Modell, eine beispiellose Anzahl von Token - die grundlegenden Einheiten, die Wörter, Bilder oder Videos ausmachen - auf einmal verarbeiten. Um diesen Fortschritt zu beleuchten, haben wir uns an das Google DeepMind -Projektteam gewandt, um Einblicke in die langen Kontextfenster zu machen und wie sie die Funktionsweise der Entwickler revolutionieren können.
Das Verständnis des langen Kontextfensters ist von entscheidender Bedeutung, da sie es AI -Modellen ermöglichen, Informationen während einer Sitzung aufrechtzuerhalten und abzurufen. Stellen Sie sich vor, Sie versuchen, sich nur wenige Minuten nach dem erwähnten Gespräch an einen Namen zu erinnern oder sich zu beeilen, eine Telefonnummer aufzuschreiben, bevor Sie sich in den Sinn bringen. KI -Modelle stehen vor ähnlichen Herausforderungen, die nach einigen Interaktionen häufig Details "vergessen". Long Context Windows adressiert dieses Problem, indem es dem Modell erlaubt, weitere Informationen in seinem "Speicher" zu behalten.
Zuvor konnte das Gemini -Modell bis zu 32.000 Token gleichzeitig verarbeiten. Mit der Veröffentlichung von 1,5 Pro für frühzeitige Tests haben wir die Grenzen jedoch auf erstaunliche 1 Million Token überschritten-das größte Kontextfenster eines bisherigen groß angelegten Fundamentmodells. Unsere Forschung ist sogar darüber hinausgegangen und hat erfolgreich bis zu 10 Millionen Token getestet. Je größer das Kontextfenster ist, desto vielfältiger und umfangreicher die Daten - Text, Bilder, Audio, Code oder Video - das Modell verarbeiten.
Nikolay Savinov, ein Forschungswissenschaftler von Google Deepmind und einer der Vorführungen für das lange Kontextprojekt, teilte: "Unser ursprüngliches Ziel war es, 128.000 Token zu erreichen, aber ich dachte, das Zielen höher wäre vorteilhaft, also habe ich 1 Million Token vorgeschlagen. Und jetzt hat unsere Forschung dies zu zehnmal überschritten."
Um diesen Sprung zu erreichen, erforderte eine Reihe von Deep -Learning -Innovationen. Die frühen Erkundungen von Pranav Shyam lieferten wichtige Erkenntnisse, die unsere Forschung leiteten. Denis Teplyashin, ein Ingenieur von Google DeepMind, erklärte: "Jeder Durchbruch führte zu einer anderen, die neue Möglichkeiten eröffnete. Als diese Innovationen zusammen waren, waren wir erstaunt über die Ergebnisse, die von 128.000 Token auf 512.000, dann 1 Million und kürzlich 10 Millionen Token in unserer internen Forschung skaliert wurden."
Die erweiterte Kapazität von 1,5 Pro eröffnet aufregende neue Anwendungen. Anstatt ein Dokument zusammenzufassen, das dutzende Seiten lang ist, kann es jetzt mit Dokumenten mit Tausenden von Seiten umgehen. Wenn das Vorgängermodell Tausende von Codezeilen analysieren könnte, kann 1,5 Pro jetzt Zehntausende von Zeilen gleichzeitig verarbeiten.
Machel Reid, ein weiterer Forschungswissenschaftler von Google DeepMind, teilte einige faszinierende Testergebnisse mit: "In einem Test haben wir die gesamte Codebasis in das Modell gefüttert und eine umfassende Dokumentation dafür generiert, was unglaublich war.
1.5 Pro zeichnet sich auch in der Eingabeaufforderung über Daten hinweg. Machel betonte ein Beispiel mit der seltenen Sprache Kalamang, die von weniger als 200 Menschen weltweit gesprochen wurde. "Das Modell kann nicht alleine in Kalamang übersetzen, aber mit dem langen Kontextfenster konnten wir das gesamte Grammatikhandbuch und Beispielsätze einbeziehen. Das Modell lernte dann, auf einer Ebene, die mit jemandem, der aus demselben Material lernt, von Englisch nach Kalamang zu übersetzen, übersetzt."
Gemini 1.5 Pro verfügt über ein Standardfenster mit einem Standardfenster von 128 k-gequerdigten Kontext, aber eine ausgewählte Gruppe von Entwicklern und Unternehmenskunden kann über AI Studio und Vertex AI in der privaten Vorschau auf ein 1-Million-Token-Kontextfenster zugreifen. Das Verwalten eines so großen Kontextfensters ist rechnerisch intensiv, und wir arbeiten aktiv an Optimierungen, um die Latenz zu verringern, wenn wir sie skalieren.
Mit Blick auf die Zukunft konzentriert sich das Team darauf, das Modell schneller und effizienter zu gestalten, mit Sicherheit. Sie untersuchen auch Möglichkeiten, das lange Kontextfenster weiter zu erweitern, die zugrunde liegenden Architekturen zu verbessern und neue Hardwareverbesserungen zu nutzen. Nikolay bemerkte: "10 Millionen Token auf einmal stehen der Wärmegrenze unserer Tensor -Verarbeitungseinheiten. Wir sind uns nicht sicher, wo sich die Grenze noch befindet, und das Modell könnte noch mehr in der Lage sein, noch mehr Hardware zu entwickeln."
Das Team ist bestrebt, die innovativen Anwendungen zu sehen, die Entwickler und die breitere Gemeinschaft mit diesen neuen Funktionen schaffen werden. Machel dachte: "Als ich zum ersten Mal sah, dass wir eine Million Token im Kontext hatten, fragte ich mich:" Wofür benutzt du das überhaupt? " Aber jetzt glaube ich, dass sich die Vorstellungen der Menschen erweitern werden, was zu kreativeren Nutzungen dieser neuen Fähigkeiten führt. "
[TTPP] [yyxx]

Verwandter Artikel
Google’s AI Futures Fund may have to tread carefully
Google’s New AI Investment Initiative: A Strategic Shift Amid Regulatory ScrutinyGoogle's recent announcement of an AI Futures Fund marks a bold move in the tech giant's ongoing qu
Oura adds AI-powered glucose tracking and meal logging
Oura Reinforces Its Commitment to Metabolic Health with Two Exciting New FeaturesOura is stepping up its game in the world of metabolic health with two cutting-edge, AI-driven feat
Judge slams lawyers for ‘bogus AI-generated research’
Judge Penalizes Law Firms for Using AI Without DisclosureIn a recent ruling, California Judge Michael Wilner slapped two prominent law firms with a hefty fine of $31,000 for secret
Kommentare (25)
0/200
NicholasRoberts
14. April 2025 22:59:46 GMT
Gemini 1.5's long context window is a game-changer, no doubt! But sometimes it feels like it's trying to do too much at once, which can slow things down. Still, for processing huge chunks of data, it's unbeatable. Worth checking out! 🚀
0
HenryJackson
13. April 2025 17:36:58 GMT
Gemini 1.5の長いコンテキストウィンドウは本当に革新的!でも、時々一度にたくさんのことをしようとして遅くなることがあるよね。それでも、大量のデータを処理するには最強だと思う。試してみる価値あり!🚀
0
ScottJackson
12. April 2025 16:31:28 GMT
Gemini 1.5의 긴 컨텍스트 윈도우는 정말 혁신적이에요! 하지만 때때로 너무 많은 일을 한꺼번에 하려다 느려지는 것 같아요. 그래도 대량의 데이터를 처리하는 데는 최고예요. 한번 써보세요! 🚀
0
MatthewGonzalez
16. April 2025 15:41:59 GMT
A janela de contexto longo do Gemini 1.5 é revolucionária, sem dúvida! Mas às vezes parece que está tentando fazer muito de uma vez, o que pode atrasar as coisas. Ainda assim, para processar grandes quantidades de dados, é imbatível. Vale a pena conferir! 🚀
0
StevenGreen
10. April 2025 14:12:10 GMT
La ventana de contexto largo de Gemini 1.5 es un cambio de juego, sin duda. Pero a veces parece que intenta hacer demasiado a la vez, lo que puede ralentizar las cosas. Aún así, para procesar grandes cantidades de datos, es insuperable. ¡Vale la pena probarlo! 🚀
0
DouglasMartinez
14. April 2025 16:35:33 GMT
Gemini 1.5's long context window is a game-changer! It's amazing how much more it can process compared to older models. Just wish it was a bit faster. Still, a big step forward! 💪
0
Gestern haben wir unseren neuesten Durchbruch in der AI -Technologie mit dem Gemini 1.5 -Modell vorgestellt. Diese neue Iteration bringt erhebliche Verbesserungen in Geschwindigkeit und Effizienz mit sich, aber der wirkliche Game-Changer ist sein innovatives langes Kontextfenster. Diese Funktion ermöglicht es dem Modell, eine beispiellose Anzahl von Token - die grundlegenden Einheiten, die Wörter, Bilder oder Videos ausmachen - auf einmal verarbeiten. Um diesen Fortschritt zu beleuchten, haben wir uns an das Google DeepMind -Projektteam gewandt, um Einblicke in die langen Kontextfenster zu machen und wie sie die Funktionsweise der Entwickler revolutionieren können.
Das Verständnis des langen Kontextfensters ist von entscheidender Bedeutung, da sie es AI -Modellen ermöglichen, Informationen während einer Sitzung aufrechtzuerhalten und abzurufen. Stellen Sie sich vor, Sie versuchen, sich nur wenige Minuten nach dem erwähnten Gespräch an einen Namen zu erinnern oder sich zu beeilen, eine Telefonnummer aufzuschreiben, bevor Sie sich in den Sinn bringen. KI -Modelle stehen vor ähnlichen Herausforderungen, die nach einigen Interaktionen häufig Details "vergessen". Long Context Windows adressiert dieses Problem, indem es dem Modell erlaubt, weitere Informationen in seinem "Speicher" zu behalten.
Zuvor konnte das Gemini -Modell bis zu 32.000 Token gleichzeitig verarbeiten. Mit der Veröffentlichung von 1,5 Pro für frühzeitige Tests haben wir die Grenzen jedoch auf erstaunliche 1 Million Token überschritten-das größte Kontextfenster eines bisherigen groß angelegten Fundamentmodells. Unsere Forschung ist sogar darüber hinausgegangen und hat erfolgreich bis zu 10 Millionen Token getestet. Je größer das Kontextfenster ist, desto vielfältiger und umfangreicher die Daten - Text, Bilder, Audio, Code oder Video - das Modell verarbeiten.
Nikolay Savinov, ein Forschungswissenschaftler von Google Deepmind und einer der Vorführungen für das lange Kontextprojekt, teilte: "Unser ursprüngliches Ziel war es, 128.000 Token zu erreichen, aber ich dachte, das Zielen höher wäre vorteilhaft, also habe ich 1 Million Token vorgeschlagen. Und jetzt hat unsere Forschung dies zu zehnmal überschritten."
Um diesen Sprung zu erreichen, erforderte eine Reihe von Deep -Learning -Innovationen. Die frühen Erkundungen von Pranav Shyam lieferten wichtige Erkenntnisse, die unsere Forschung leiteten. Denis Teplyashin, ein Ingenieur von Google DeepMind, erklärte: "Jeder Durchbruch führte zu einer anderen, die neue Möglichkeiten eröffnete. Als diese Innovationen zusammen waren, waren wir erstaunt über die Ergebnisse, die von 128.000 Token auf 512.000, dann 1 Million und kürzlich 10 Millionen Token in unserer internen Forschung skaliert wurden."
Die erweiterte Kapazität von 1,5 Pro eröffnet aufregende neue Anwendungen. Anstatt ein Dokument zusammenzufassen, das dutzende Seiten lang ist, kann es jetzt mit Dokumenten mit Tausenden von Seiten umgehen. Wenn das Vorgängermodell Tausende von Codezeilen analysieren könnte, kann 1,5 Pro jetzt Zehntausende von Zeilen gleichzeitig verarbeiten.
Machel Reid, ein weiterer Forschungswissenschaftler von Google DeepMind, teilte einige faszinierende Testergebnisse mit: "In einem Test haben wir die gesamte Codebasis in das Modell gefüttert und eine umfassende Dokumentation dafür generiert, was unglaublich war.
1.5 Pro zeichnet sich auch in der Eingabeaufforderung über Daten hinweg. Machel betonte ein Beispiel mit der seltenen Sprache Kalamang, die von weniger als 200 Menschen weltweit gesprochen wurde. "Das Modell kann nicht alleine in Kalamang übersetzen, aber mit dem langen Kontextfenster konnten wir das gesamte Grammatikhandbuch und Beispielsätze einbeziehen. Das Modell lernte dann, auf einer Ebene, die mit jemandem, der aus demselben Material lernt, von Englisch nach Kalamang zu übersetzen, übersetzt."
Gemini 1.5 Pro verfügt über ein Standardfenster mit einem Standardfenster von 128 k-gequerdigten Kontext, aber eine ausgewählte Gruppe von Entwicklern und Unternehmenskunden kann über AI Studio und Vertex AI in der privaten Vorschau auf ein 1-Million-Token-Kontextfenster zugreifen. Das Verwalten eines so großen Kontextfensters ist rechnerisch intensiv, und wir arbeiten aktiv an Optimierungen, um die Latenz zu verringern, wenn wir sie skalieren.
Mit Blick auf die Zukunft konzentriert sich das Team darauf, das Modell schneller und effizienter zu gestalten, mit Sicherheit. Sie untersuchen auch Möglichkeiten, das lange Kontextfenster weiter zu erweitern, die zugrunde liegenden Architekturen zu verbessern und neue Hardwareverbesserungen zu nutzen. Nikolay bemerkte: "10 Millionen Token auf einmal stehen der Wärmegrenze unserer Tensor -Verarbeitungseinheiten. Wir sind uns nicht sicher, wo sich die Grenze noch befindet, und das Modell könnte noch mehr in der Lage sein, noch mehr Hardware zu entwickeln."
Das Team ist bestrebt, die innovativen Anwendungen zu sehen, die Entwickler und die breitere Gemeinschaft mit diesen neuen Funktionen schaffen werden. Machel dachte: "Als ich zum ersten Mal sah, dass wir eine Million Token im Kontext hatten, fragte ich mich:" Wofür benutzt du das überhaupt? " Aber jetzt glaube ich, dass sich die Vorstellungen der Menschen erweitern werden, was zu kreativeren Nutzungen dieser neuen Fähigkeiten führt. "
[TTPP] [yyxx]



Gemini 1.5's long context window is a game-changer, no doubt! But sometimes it feels like it's trying to do too much at once, which can slow things down. Still, for processing huge chunks of data, it's unbeatable. Worth checking out! 🚀




Gemini 1.5の長いコンテキストウィンドウは本当に革新的!でも、時々一度にたくさんのことをしようとして遅くなることがあるよね。それでも、大量のデータを処理するには最強だと思う。試してみる価値あり!🚀




Gemini 1.5의 긴 컨텍스트 윈도우는 정말 혁신적이에요! 하지만 때때로 너무 많은 일을 한꺼번에 하려다 느려지는 것 같아요. 그래도 대량의 데이터를 처리하는 데는 최고예요. 한번 써보세요! 🚀




A janela de contexto longo do Gemini 1.5 é revolucionária, sem dúvida! Mas às vezes parece que está tentando fazer muito de uma vez, o que pode atrasar as coisas. Ainda assim, para processar grandes quantidades de dados, é imbatível. Vale a pena conferir! 🚀




La ventana de contexto largo de Gemini 1.5 es un cambio de juego, sin duda. Pero a veces parece que intenta hacer demasiado a la vez, lo que puede ralentizar las cosas. Aún así, para procesar grandes cantidades de datos, es insuperable. ¡Vale la pena probarlo! 🚀




Gemini 1.5's long context window is a game-changer! It's amazing how much more it can process compared to older models. Just wish it was a bit faster. Still, a big step forward! 💪












