Modelleinführung
Gemini 1.5 Pro führt eine bahnbrechende Kontextfenstergröße von bis zu zwei Millionen Tokens ein – die längste Kontextfenstergröße von jedem großen Grundmodell bisher. Es erreicht nahezu perfekte Erinnerungsleistung bei langkontextuellen Abruffaufgaben in verschiedenen Modalitäten, wodurch die Fähigkeit freigeschaltet wird, große Dokumente, Tausende von Codezeilen, Stunden von Audio-, Video- und vielem mehr genau zu verarbeiten.