Top 100 Ankündigungen von I/O 2024 enthüllt

Wow, I/O 2024 war voller spannender Updates! Egal, ob du an den neuesten Verbesserungen der Gemini-App interessiert bist, neue Entwicklerwerkzeuge erwartest oder die neuesten generativen KI-Funktionen ausprobieren möchtest, es gab für jeden etwas. Glaubst du uns nicht? Schau dir die 100 Dinge an, die wir in den letzten Tagen angekündigt haben.
KI-Momente und Modell-Dynamik
- Wir haben Gemini 1.5 Flash vorgestellt, ein leichteres Modell, das für Geschwindigkeit und Effizienz entwickelt wurde. Es ist das schnellste Gemini-Modell, das über die API verfügbar ist.
- Wir haben erhebliche Verbesserungen an 1.5 Pro vorgenommen, unserem Top-Modell für allgemeine Leistung bei verschiedenen Aufgaben.
- Sowohl 1.5 Pro als auch 1.5 Flash sind jetzt in der öffentlichen Vorschau mit einem Kontextfenster von 1 Million Token auf Google AI Studio und Vertex AI.
- 1.5 Pro ist auch mit einem Kontextfenster von 2 Millionen Token für Entwickler über eine Warteliste auf Google AI Studio und Vertex AI verfügbar.
Kontextlängen führender Basismodelle im Vergleich zu Gemini 1.5s Fähigkeit von 2 Millionen Token.
- Wir haben Project Astra vorgestellt, unsere Vision für die Zukunft von KI-Assistenten.
- Wir haben Trillium angekündigt, die sechste Generation unseres speziellen KI-Beschleunigers, der Tensor Processing Unit (TPU). Es ist die leistungsstärkste TPU bisher.
- Im Vergleich zur TPU v5e bieten Trillium TPUs eine 4,7-fache Steigerung der Spitzenrechenleistung pro Chip.
- Sie sind auch unsere nachhaltigste Generation bisher: Trillium TPUs sind über 67 % energieeffizienter als die TPU v5e.
- Wir haben einen frühen Prototyp von Audio Overviews für NotebookLM demonstriert, der hochgeladene Materialien nutzt, um personalisierte verbale Diskussionen zu erstellen.
- Wir haben angekündigt, dass Grounding mit Google Search, das das Gemini-Modell mit Weltwissen und aktuellen Internetinformationen verbindet, jetzt allgemein auf Vertex AI verfügbar ist.
- Wir haben Audioverständnis zur Gemini API und AI Studio hinzugefügt, sodass Gemini 1.5 Pro sowohl Bilder als auch Audio für in AI Studio hochgeladene Videos verarbeiten kann.
- Beginnend mit Pixel werden Anwendungen, die Gemini Nano mit Multimodalität nutzen, die Welt wie Menschen verstehen – durch Text, Sicht, Klang und gesprochene Sprache.
Generative Medienmodelle und Labs-Experimente
- Wir haben Imagen 3 angekündigt, unser bisher qualitativ hochwertigstes Bildgenerierungsmodell.
- Imagen 3 versteht natürliche Sprache und die Absicht hinter deinen Eingaben und integriert kleine Details aus längeren Eingaben, um unglaublich detaillierte, fotorealistische Bilder mit weniger visuellen Artefakten als unsere vorherigen Modelle zu erzeugen.
- Imagen 3 ist auch unser bestes Modell bisher für die Textwiedergabe, eine Herausforderung für Bildgenerierungsmodelle.
- Wir haben Imagen 3 für Trusted Testers in ImageFX ausgerollt, und du kannst dich für die Warteliste anmelden.
- Imagen 3 wird diesen Sommer auf Vertex AI verfügbar sein.
- Wir haben Veo angekündigt, unser bisher leistungsfähigstes Videogenerierungsmodell, das hochqualitative Videos in 1080p-Auflösung erzeugen kann, die über eine Minute hinausgehen, in verschiedenen kinematografischen und visuellen Stilen.
- Wir werden einige von Veos Fähigkeiten in Zukunft zu YouTube Shorts und anderen Produkten bringen.
- Wir haben gezeigt, was Veo für Künstler leisten kann, indem wir mit Filmemachern zusammengearbeitet haben, darunter Donald Glover, der Veo für ein Filmprojekt genutzt hat.
- Wir haben Music AI Sandbox hervorgehoben, eine Suite von Musik-KI-Tools, die es Menschen ermöglicht, neue instrumentale Abschnitte zu erstellen, Stile zwischen Tracks zu übertragen und mehr. Neue Songs aus Kooperationen mit Wyclef Jean und Marc Rebillet findest du auf YouTube.
- Schau dir Infinite Wonderland an, wo Künstler und Google-Kreative ein KI-Modell optimiert haben, um die visuelle Welt von „Alice's Adventures in Wonderland“ endlos neu zu gestalten. Leser können unendliche Bilder für jeden der 1.200 Sätze im Buch basierend auf dem Stil jedes Künstlers erzeugen.
- Wir haben VideoFX angekündigt, unser neuestes experimentelles Tool, das Google DeepMinds generatives Videomodell Veo nutzt, um Ideen in Videoclips umzuwandeln.
- VideoFX enthält auch einen Storyboard-Modus, der es dir ermöglicht, Szene für Szene zu iterieren und Musik zu deinem finalen Video hinzuzufügen.
25. Wir haben ImageFX mehr redaktionelle Kontrollen hinzugefügt – eine der am häufigsten gewünschten Funktionen der Community –, sodass du Elemente hinzufügen, entfernen oder ändern kannst, indem du einfach über dein Bild streichst.
26. ImageFX wird Imagen 3 nutzen, um mehr Fotorealismus mit reichhaltigeren Details, weniger visuellen Artefakten und präziserer Textwiedergabe freizuschalten.
27. MusicFX hat jetzt einen „DJ-Modus“, der dir hilft, Beats zu mischen, indem du Genres und Instrumente kombinierst und generative KI nutzt, um Musikgeschichten zum Leben zu erwecken.
28. Ab dieser Woche sind ImageFX und MusicFX in über 100 Ländern über Labs verfügbar.
Neue Wege, um mit der Gemini-App mehr zu erreichen
- Wir bringen Gemini 1.5 Pro zu Gemini Advanced-Abonnenten, was ihnen ein Kontextfenster von 1 Million Token und die Möglichkeit gibt, 1.500-seitige PDFs zu verarbeiten.
- Das bedeutet auch, dass Gemini Advanced jetzt das größte Kontextfenster aller kommerziell verfügbaren Chatbots hat.
- Wir haben die Möglichkeit hinzugefügt, Dateien über Google Drive oder direkt von deinem Gerät in Gemini Advanced hochzuladen.
- Bald wird Gemini Advanced dir helfen, Daten zu analysieren, um Erkenntnisse zu gewinnen und Diagramme aus hochgeladenen Datendateien wie Tabellenkalkulationen zu erstellen.
- Gute Neuigkeiten für Reisende: Gemini Advanced hat jetzt eine Planungsfunktion, die über eine Liste vorgeschlagener Aktivitäten hinausgeht und einen individuellen Reiseplan nur für dich erstellt.
34. Dann gibt es Gemini Live für Gemini Advanced-Abonnenten, eine neue, mobilorientierte Gesprächserfahrung, die modernste Sprachtechnologie für natürlichere, intuitivere gesprochene Gespräche mit Gemini nutzt.
35. Gemini Live lässt dich aus 10 natürlich klingenden Stimmen wählen, und du kannst in deinem eigenen Tempo sprechen oder die Antwort mit klärenden Fragen unterbrechen.
36. Gemini in Google Messages ermöglicht es dir jetzt, mit Gemini in derselben App zu chatten, in der du mit deinen Freunden Nachrichten austauschst.
37. Gemini Advanced-Abonnenten können bald Gems erstellen, angepasste Versionen von Gemini, die für alles entwickelt wurden, was du dir vorstellst. Beschreibe einfach, was dein Gem tun soll und wie es antworten soll, und Gemini erstellt ein Gem für deine spezifischen Bedürfnisse.
38. Halte Ausschau nach weiteren Google-Tools, die mit Gemini verbunden werden, einschließlich Google Calendar, Tasks, Keep und Clock.
Updates, die die Suche für dich erledigen
- Wir verwenden ein neues Gemini-Modell, das für Google Search angepasst wurde, um die fortschrittlichen Fähigkeiten von Gemini – wie mehrstufiges Denken, Planung und Multimodalität – mit unseren erstklassigen Suchsystemen zu kombinieren.
- AI Overviews in Search werden diese Woche für alle in den USA ausgerollt, weitere Länder folgen bald.
41. Mehrstufige Denkfähigkeiten kommen bald zu AI Overviews in Search Labs für englische Anfragen in den USA, sodass du komplexe Fragen wie „Finde die besten Yoga- oder Pilates-Studios in Boston und zeige Details zu deren Einführungsangeboten und der Gehzeit von Beacon Hill“ stellen kannst.
42. Bald wirst du in der Lage sein, deine AI Overview anzupassen, um die Sprache zu vereinfachen oder detaillierter zu gestalten, insbesondere wenn du neu in einem Thema bist oder das Wesentliche eines Themas erfassen möchtest.
43. Die Suche erhält auch neue Planungsfunktionen. Zum Beispiel werden Mahlzeiten- und Reiseplanung mit Anpassung später in diesem Jahr in Search Labs starten, gefolgt von weiteren Kategorien wie Partys und Fitness.
44. Dank Fortschritten im Videoverständnis kannst du jetzt Fragen mit einem Video stellen. Die Suche kann eine komplexe visuelle Frage beantworten, sie für dich klären und dann die nächsten Schritte erklären und Ressourcen mit einer AI Overview anbieten.
45. Generative KI in der Suche wird bald eine KI-organisierte Ergebnisseite erstellen, wenn du nach neuen Ideen suchst. Diese KI-organisierten Suchergebnisseiten werden für Kategorien wie Essen, Rezepte, Filme, Musik, Bücher, Hotels, Einkaufen und mehr verfügbar sein.
Hilfe von Gemini-Modellen in Workspace und Photos
- Gemini 1.5 Pro ist jetzt in der Seitenleiste in Gmail, Docs, Drive, Slides und Sheets über Workspace Labs verfügbar und wird nächsten Monat für unsere Gemini for Workspace-Kunden und Google One AI Premium-Abonnenten ausgerollt.
- Du wirst die Seitenleiste von Gmail nutzen können, um E-Mails zusammenzufassen und die wichtigsten Details und Aktionselemente zu erhalten.
- Zusätzlich zu Zusammenfassungen wird die mobile App von Gmail bald Gemini für zwei weitere neue Funktionen nutzen: Contextual Smart Reply und Gmail Q&A.
- In den kommenden Wochen wird Help me write in Gmail und Docs Spanisch und Portugiesisch unterstützen.
- Später in diesem Jahr in Labs kannst du Gemini bitten, E-Mail-Anhänge automatisch in Drive zu organisieren, ein Blatt mit den Daten zu erstellen und es dann mit Data Q&A zu analysieren.
- Eine neue experimentelle Funktion in Google Photos namens Ask Photos erleichtert das Suchen nach bestimmten Erinnerungen oder das Abrufen von Informationen in deiner Galerie. Die Funktion nutzt Gemini-Modelle und wird in den kommenden Monaten ausgerollt.
52. Du kannst Ask Photos auch verwenden, um eine Highlight-Galerie von einer kürzlichen Reise zu erstellen, und es wird sogar personalisierte Bildunterschriften für dich erstellen, die du in sozialen Medien teilen kannst.
Fortschritte bei Android
- Ab diesem Jahr mit Pixel wird Gemini Nano – Androids eingebautes, geräteinternes Basismodell – multimodale Fähigkeiten haben. Dein Pixel-Telefon wird mehr Informationen im Kontext verstehen, wie Sehenswürdigkeiten, Geräusche und gesprochene Sprache.
- Talkback, eine Barrierefreiheitsfunktion für Android-Geräte, die blinden und sehbehinderten Menschen hilft, durch Berührung und gesprochene Rückmeldungen zu navigieren, wird dank Gemini Nano mit Multimodalität verbessert.
- Eine neue, freiwillige Betrugsschutzfunktion wird Gemini Nanos geräteinternes KI nutzen, um Betrugsanrufe auf eine datenschutzfreundliche Weise zu erkennen. Weitere Details folgen später in diesem Jahr.
- Wir haben angekündigt, dass Circle to Search derzeit auf über 100 Millionen Android-Geräten verfügbar ist, und wir sind auf dem besten Weg, diese Zahl bis Ende des Jahres zu verdoppeln.
- Bald wirst du Gemini auf Android verwenden können, um generierte Bilder zu erstellen und per Drag-and-Drop in Gmail, Google Messages und mehr zu ziehen oder nach dem YouTube-Video zu fragen, das du gerade ansiehst.
- Wenn du Gemini Advanced hast, wirst du auch die Option haben, „Dieses PDF fragen“, um schnell eine Antwort zu erhalten, ohne durch mehrere Seiten scrollen zu müssen.
- Schüler können jetzt Circle to Search für Hausaufgabenhilfe direkt von ausgewählten Android-Telefonen und Tablets nutzen. Diese Funktion wird von LearnLM angetrieben – unserer neuen Modellfamilie, die auf Gemini basiert und für das Lernen optimiert ist.
- Später in diesem Jahr wird Circle to Search noch komplexere Probleme lösen können, die symbolische Formeln, Diagramme, Grafiken und mehr umfassen.
61. Oh, und wir haben die zweite Beta von Android 15 vorgestellt.
62. Theft Detection Lock nutzt leistungsstarkes Google AI, um zu erkennen, ob dein Gerät gestohlen wurde, und sperrt deine Informationen auf deinem Telefon schnell.
63. Privater Raum kommt zu Android 15, womit du Apps auswählen kannst, die in einem separaten Raum sicher aufbewahrt werden, der eine zusätzliche Authentifizierungsebene zum Öffnen erfordert.
64. Wenn ein separater Sperrbildschirm für deine privaten Räume nicht ausreicht, kannst du dessen Existenz komplett verbergen.
65. Später in diesem Jahr wird Google Play Protect geräteinternes KI nutzen, um Apps zu erkennen, die versuchen, ihre Aktionen zu verbergen, um Betrug oder Phishing zu betreiben.
66. Wir bringen eine aktualisierte Messaging-Erfahrung nach Japan mit RCS in Google Messages.
67. Bald in den USA wirst du digitale Versionen von Pässen erstellen können, die nur Text enthalten. Mach einfach ein Foto von einem Pass (wie einer Versicherungskarte oder einem Veranstaltungsticket) und füge es einfach zu deinem Google Wallet für schnellen Zugriff hinzu.
68. Wir haben gezeigt, wie Augmented-Reality-Inhalte direkt in Google Maps verfügbar sein werden, was die Grundlage für eine Extended-Reality-(XR)-Plattform bildet, die wir in Zusammenarbeit mit Samsung und Qualcomm für das Android-Ökosystem entwickeln.
69. Du kannst jetzt auf ausgewählten Autos mit eingebautem Google auf Max und Peacock Episoden deiner Lieblingssendungen nachholen oder ein Spiel Angry Birds starten.
70. Wir bringen auch Google Cast zu Autos mit Android Automotive OS, beginnend mit Rivian in den kommenden Monaten, sodass du Videoinhalte einfach von deinem Telefon auf das Auto streamen kannst.
71. Später in diesem Jahr kommen Akkulaufzeit-Optimierungen zu Uhren mit Wear OS 5. Zum Beispiel wird das Laufen eines Outdoor-Marathons bis zu 20 % weniger Strom verbrauchen im Vergleich zu Uhren mit Wear OS 4.
72. Wear OS 5 wird Fitness-Apps auch die Möglichkeit geben, mehr Datentypen wie Bodenkontaktzeit, Schrittlänge und vertikale Oszillation zu unterstützen.
73. Es ist jetzt einfacher, auf Google TV und anderen Android TV OS-Geräten auszuwählen, was du sehen möchtest, dank personalisierter KI-generierter Beschreibungen, die durch unser Gemini-Modell ermöglicht werden.
74. Diese KI-generierten Beschreibungen werden auch fehlende oder unübersetzte Beschreibungen für Filme und Shows ausfüllen.
75. Hier ist eine lustige Statistik: Seit dem Start haben Menschen über 1 Milliarde Fast Pair-Verbindungen hergestellt.
76. Später in diesem Monat wirst du Fast Pair nutzen können, um Gegenstände wie deine Schlüssel, Brieftasche oder Gepäck in der Find My Device-App mit Bluetooth-Tracker-Tags von Chipolo und PebbleBee (mit weiteren Partnern in Zukunft) zu verbinden und zu finden.
Entwicklungen für Entwickler
- Du kannst am Gemini API Developer Competition teilnehmen und Teil der Entdeckung der hilfreichsten und bahnbrechendsten KI-Apps sein. Der Preis? Ein elektrisch nachgerüsteter, maßgeschneiderter 1981 DeLorean.
- Wir haben PaliGemma vorgestellt, unser erstes offenes Vision-Sprache-Modell, das für visuelles Q&A und Bildunterschriften optimiert ist.
- Wir haben die nächste Version von Gemma, Gemma 2, vorgestellt. Sie basiert auf einer völlig neuen Architektur und wird eine größere Instanz mit 27B Parametern umfassen, die Modelle doppelt so groß wie sie selbst übertrifft und auf einem einzigen TPU-Host läuft.
80. Gemini-Modelle sind jetzt verfügbar, um Entwicklern zu helfen, produktiver in Android Studio, IDX, Firebase, Colab, VSCode, Cloud und IntelliJ zu sein.
81. Gemini 1.5 Pro kommt später in diesem Jahr zu Android Studio. Ausgestattet mit einem großen Kontextfenster führt dieses Modell zu qualitativ hochwertigeren Antworten und ermöglicht Anwendungsfälle wie multimodale Eingaben.
82. Google AI Studio ist jetzt in über 200 Ländern verfügbar, einschließlich Großbritannien und der EU.
83. Paralleles Funktionsaufrufen und Videobildextraktion werden jetzt von der Gemini API unterstützt.
84. Mit der neuen Kontext-Caching-Funktion in der Gemini API, die nächsten Monat kommt, wirst du in der Lage sein, Arbeitsabläufe für große Eingaben zu optimieren, indem du häufig verwendete Kontextdateien zu geringeren Kosten zwischenspeicherst.
85. Android bietet jetzt erstklassige Unterstützung für Kotlin Multiplatform, um Entwicklern zu helfen, die Geschäftslogik ihrer Apps plattformübergreifend zu teilen.
86. Resizable Emulator, Compose UI Check Mode und Android Device Streaming, unterstützt von Firebase, sind neue Produkte, die alle Entwicklern helfen können, für alle Formfaktoren zu entwickeln.
87. Ab Chrome 126 wird Gemini Nano in den Chrome Desktop-Client integriert sein.
88. Die View Transitions API für Multi-Page-Apps, eine viel geforderte Funktion, ist jetzt verfügbar, sodass Entwickler einfach flüssige, app-ähnliche Navigation unabhängig von der Site-Architektur erstellen können.
89. Project IDX, unsere neue integrierte Entwicklererfahrung für Full-Stack-, Multiplattform-Apps, ist jetzt für alle zum Ausprobieren offen.
90. Firebase hat Firebase Genkit in der Beta-Version veröffentlicht, was es Entwicklern noch einfacher machen wird, generative KI-Erfahrungen in ihre Apps zu integrieren.
91. Firebase hat auch Firebase Data Connect veröffentlicht, eine neue Möglichkeit für Entwickler, SQL mit Firebase (über Google Cloud SQL) zu verwenden. Dies wird nicht nur SQL-Workflows zu Firebase bringen, sondern auch die Menge an App-Code reduzieren, die Entwickler schreiben müssen.
92. Wir haben Entwickler in einem tiefgehenden Gespräch über die Technologie und Forschung, die unsere KI antreibt, mit James Manyika, Jeff Dean und Koray Kavukcuoglu unter die Haube geführt.
Fortschritte bei verantwortungsvoller KI
- Wir verbessern das Red Teaming – eine bewährte Praxis, bei der wir unsere eigenen Systeme proaktiv auf Schwächen testen und versuchen, sie zu brechen – durch eine neue Technik, die wir „AI-Assisted Red Teaming“ nennen.
- Wir erweitern SynthID auch auf zwei neue Modalitäten: Text und Video.
- SynthID-Textwasserzeichen werden in den kommenden Monaten über unser aktualisiertes Responsible Generative AI Toolkit open-source gemacht.
- Wir haben LearnLM angekündigt, eine neue Modellfamilie, die auf Gemini basiert und für das Lernen optimiert ist. LearnLM treibt bereits eine Reihe von Funktionen in unseren Produkten an, einschließlich Gemini, Search, YouTube und Google Classroom.
97. Wir werden mit Experten von Institutionen wie Columbia Teachers College, Arizona State University, NYU Tisch und Khan Academy zusammenarbeiten, um LearnLM über unsere Produkte hinaus zu verfeinern und zu erweitern.
98. Wir haben auch mit MIT RAISE zusammengearbeitet, um einen Online-Kurs zu entwickeln, der Lehrkräfte ausstattet, um generative KI effektiv im Klassenzimmer einzusetzen.
99. Wir haben ein neues experimentelles Tool namens Illuminate entwickelt, um Wissen zugänglicher und verständlicher zu machen.
100. Illuminate kann ein Gespräch erzeugen, das aus zwei KI-generierten Stimmen besteht und einen Überblick über die wichtigsten Erkenntnisse aus Forschungspapieren bietet. Du kannst dich heute unter labs.google anmelden, um es auszuprobieren.
Verwandter Artikel
Salesforce stellt KI-Digitale Teamkollegen in Slack vor, um mit Microsoft Copilot zu konkurrieren
Salesforce hat eine neue KI-Strategie für den Arbeitsplatz gestartet und spezialisierte „digitale Teamkollegen“ in Slack-Konversationen integriert, wie das Unternehmen am Montag bekannt gab.Das neue T
Oracles 40-Mrd.-Nvidia-Chip-Investition stärkt Texas AI-Rechenzentrum
Oracle plant, etwa 40 Milliarden Dollar in Nvidia-Chips zu investieren, um ein großes neues Rechenzentrum in Texas zu betreiben, das von OpenAI entwickelt wird, wie die Financial Times berichtet. Dies
Meta AI App führt Premium-Stufe und Werbung ein
Die AI-App von Meta könnte bald ein kostenpflichtiges Abonnement einführen, ähnlich den Angeboten von Konkurrenten wie OpenAI, Google und Microsoft. Während eines Q1 2025 Earnings Calls skizzierte Met
Kommentare (52)
0/200
DennisMitchell
17. August 2025 21:01:00 MESZ
The I/O 2024 updates blew my mind! 😍 Those new Gemini app features are slick, but I'm really curious how devs will use those generative AI tools. Anyone else hyped to see what apps come out of this?
0
FredGreen
10. August 2025 07:00:59 MESZ
I/O 2024 was a blast! The Gemini app upgrades sound slick, but I'm curious if the new AI features will actually make my life easier or just add more buzzwords to my inbox. 😎 Anyone tried them yet?
0
CharlesHernández
20. April 2025 07:00:11 MESZ
I/O 2024 was insane! So many cool updates, especially the Gemini app enhancements. I'm super excited to try out the new generative AI features. The list of 100 announcements is a bit overwhelming, but in a good way! Can't wait to dive in! 🚀
0
HaroldMoore
20. April 2025 06:28:30 MESZ
I/O 2024は最高でした!Geminiアプリの強化が特に気に入りました。新しい生成AIの機能も楽しみですが、開発者ツールについてもう少し詳しく知りたかったです。全部試すのが待ちきれません!😊🚀
0
RalphSanchez
19. April 2025 21:31:49 MESZ
I/O 2024 정말 대단했어! 특히 제미니 앱의 강화가 최고야. 새로운 생성 AI 기능을 시도하는 게 너무 기대돼. 100개의 발표 목록은 조금 압도적이지만, 좋은 의미에서 그래! 빨리 써보고 싶어! 🚀
0
ThomasLewis
19. April 2025 08:38:18 MESZ
I/O 2024は最高でした!ジェミニアプリの更新が特に気に入りました。新しい生成AI機能も試してみたいです。100の発表リストは圧倒的ですが、良い意味で!😅 早く詳しく見てみたいですね!
0
Wow, I/O 2024 war voller spannender Updates! Egal, ob du an den neuesten Verbesserungen der Gemini-App interessiert bist, neue Entwicklerwerkzeuge erwartest oder die neuesten generativen KI-Funktionen ausprobieren möchtest, es gab für jeden etwas. Glaubst du uns nicht? Schau dir die 100 Dinge an, die wir in den letzten Tagen angekündigt haben.
KI-Momente und Modell-Dynamik
- Wir haben Gemini 1.5 Flash vorgestellt, ein leichteres Modell, das für Geschwindigkeit und Effizienz entwickelt wurde. Es ist das schnellste Gemini-Modell, das über die API verfügbar ist.
- Wir haben erhebliche Verbesserungen an 1.5 Pro vorgenommen, unserem Top-Modell für allgemeine Leistung bei verschiedenen Aufgaben.
- Sowohl 1.5 Pro als auch 1.5 Flash sind jetzt in der öffentlichen Vorschau mit einem Kontextfenster von 1 Million Token auf Google AI Studio und Vertex AI.
- 1.5 Pro ist auch mit einem Kontextfenster von 2 Millionen Token für Entwickler über eine Warteliste auf Google AI Studio und Vertex AI verfügbar.
- Wir haben Project Astra vorgestellt, unsere Vision für die Zukunft von KI-Assistenten.
- Wir haben Trillium angekündigt, die sechste Generation unseres speziellen KI-Beschleunigers, der Tensor Processing Unit (TPU). Es ist die leistungsstärkste TPU bisher.
- Im Vergleich zur TPU v5e bieten Trillium TPUs eine 4,7-fache Steigerung der Spitzenrechenleistung pro Chip.
- Sie sind auch unsere nachhaltigste Generation bisher: Trillium TPUs sind über 67 % energieeffizienter als die TPU v5e.
- Wir haben einen frühen Prototyp von Audio Overviews für NotebookLM demonstriert, der hochgeladene Materialien nutzt, um personalisierte verbale Diskussionen zu erstellen.
- Wir haben angekündigt, dass Grounding mit Google Search, das das Gemini-Modell mit Weltwissen und aktuellen Internetinformationen verbindet, jetzt allgemein auf Vertex AI verfügbar ist.
- Wir haben Audioverständnis zur Gemini API und AI Studio hinzugefügt, sodass Gemini 1.5 Pro sowohl Bilder als auch Audio für in AI Studio hochgeladene Videos verarbeiten kann.
- Beginnend mit Pixel werden Anwendungen, die Gemini Nano mit Multimodalität nutzen, die Welt wie Menschen verstehen – durch Text, Sicht, Klang und gesprochene Sprache.
Generative Medienmodelle und Labs-Experimente
- Wir haben Imagen 3 angekündigt, unser bisher qualitativ hochwertigstes Bildgenerierungsmodell.
- Imagen 3 versteht natürliche Sprache und die Absicht hinter deinen Eingaben und integriert kleine Details aus längeren Eingaben, um unglaublich detaillierte, fotorealistische Bilder mit weniger visuellen Artefakten als unsere vorherigen Modelle zu erzeugen.
- Imagen 3 ist auch unser bestes Modell bisher für die Textwiedergabe, eine Herausforderung für Bildgenerierungsmodelle.
- Wir haben Imagen 3 für Trusted Testers in ImageFX ausgerollt, und du kannst dich für die Warteliste anmelden.
- Imagen 3 wird diesen Sommer auf Vertex AI verfügbar sein.
- Wir haben Veo angekündigt, unser bisher leistungsfähigstes Videogenerierungsmodell, das hochqualitative Videos in 1080p-Auflösung erzeugen kann, die über eine Minute hinausgehen, in verschiedenen kinematografischen und visuellen Stilen.
- Wir werden einige von Veos Fähigkeiten in Zukunft zu YouTube Shorts und anderen Produkten bringen.
- Wir haben gezeigt, was Veo für Künstler leisten kann, indem wir mit Filmemachern zusammengearbeitet haben, darunter Donald Glover, der Veo für ein Filmprojekt genutzt hat.
- Wir haben Music AI Sandbox hervorgehoben, eine Suite von Musik-KI-Tools, die es Menschen ermöglicht, neue instrumentale Abschnitte zu erstellen, Stile zwischen Tracks zu übertragen und mehr. Neue Songs aus Kooperationen mit Wyclef Jean und Marc Rebillet findest du auf YouTube.
- Schau dir Infinite Wonderland an, wo Künstler und Google-Kreative ein KI-Modell optimiert haben, um die visuelle Welt von „Alice's Adventures in Wonderland“ endlos neu zu gestalten. Leser können unendliche Bilder für jeden der 1.200 Sätze im Buch basierend auf dem Stil jedes Künstlers erzeugen.
- Wir haben VideoFX angekündigt, unser neuestes experimentelles Tool, das Google DeepMinds generatives Videomodell Veo nutzt, um Ideen in Videoclips umzuwandeln.
- VideoFX enthält auch einen Storyboard-Modus, der es dir ermöglicht, Szene für Szene zu iterieren und Musik zu deinem finalen Video hinzuzufügen.
Neue Wege, um mit der Gemini-App mehr zu erreichen
- Wir bringen Gemini 1.5 Pro zu Gemini Advanced-Abonnenten, was ihnen ein Kontextfenster von 1 Million Token und die Möglichkeit gibt, 1.500-seitige PDFs zu verarbeiten.
- Das bedeutet auch, dass Gemini Advanced jetzt das größte Kontextfenster aller kommerziell verfügbaren Chatbots hat.
- Wir haben die Möglichkeit hinzugefügt, Dateien über Google Drive oder direkt von deinem Gerät in Gemini Advanced hochzuladen.
- Bald wird Gemini Advanced dir helfen, Daten zu analysieren, um Erkenntnisse zu gewinnen und Diagramme aus hochgeladenen Datendateien wie Tabellenkalkulationen zu erstellen.
- Gute Neuigkeiten für Reisende: Gemini Advanced hat jetzt eine Planungsfunktion, die über eine Liste vorgeschlagener Aktivitäten hinausgeht und einen individuellen Reiseplan nur für dich erstellt.
Updates, die die Suche für dich erledigen
- Wir verwenden ein neues Gemini-Modell, das für Google Search angepasst wurde, um die fortschrittlichen Fähigkeiten von Gemini – wie mehrstufiges Denken, Planung und Multimodalität – mit unseren erstklassigen Suchsystemen zu kombinieren.
- AI Overviews in Search werden diese Woche für alle in den USA ausgerollt, weitere Länder folgen bald.
Hilfe von Gemini-Modellen in Workspace und Photos
- Gemini 1.5 Pro ist jetzt in der Seitenleiste in Gmail, Docs, Drive, Slides und Sheets über Workspace Labs verfügbar und wird nächsten Monat für unsere Gemini for Workspace-Kunden und Google One AI Premium-Abonnenten ausgerollt.
- Du wirst die Seitenleiste von Gmail nutzen können, um E-Mails zusammenzufassen und die wichtigsten Details und Aktionselemente zu erhalten.
- Zusätzlich zu Zusammenfassungen wird die mobile App von Gmail bald Gemini für zwei weitere neue Funktionen nutzen: Contextual Smart Reply und Gmail Q&A.
- In den kommenden Wochen wird Help me write in Gmail und Docs Spanisch und Portugiesisch unterstützen.
- Später in diesem Jahr in Labs kannst du Gemini bitten, E-Mail-Anhänge automatisch in Drive zu organisieren, ein Blatt mit den Daten zu erstellen und es dann mit Data Q&A zu analysieren.
- Eine neue experimentelle Funktion in Google Photos namens Ask Photos erleichtert das Suchen nach bestimmten Erinnerungen oder das Abrufen von Informationen in deiner Galerie. Die Funktion nutzt Gemini-Modelle und wird in den kommenden Monaten ausgerollt.
Fortschritte bei Android
- Ab diesem Jahr mit Pixel wird Gemini Nano – Androids eingebautes, geräteinternes Basismodell – multimodale Fähigkeiten haben. Dein Pixel-Telefon wird mehr Informationen im Kontext verstehen, wie Sehenswürdigkeiten, Geräusche und gesprochene Sprache.
- Talkback, eine Barrierefreiheitsfunktion für Android-Geräte, die blinden und sehbehinderten Menschen hilft, durch Berührung und gesprochene Rückmeldungen zu navigieren, wird dank Gemini Nano mit Multimodalität verbessert.
- Eine neue, freiwillige Betrugsschutzfunktion wird Gemini Nanos geräteinternes KI nutzen, um Betrugsanrufe auf eine datenschutzfreundliche Weise zu erkennen. Weitere Details folgen später in diesem Jahr.
- Wir haben angekündigt, dass Circle to Search derzeit auf über 100 Millionen Android-Geräten verfügbar ist, und wir sind auf dem besten Weg, diese Zahl bis Ende des Jahres zu verdoppeln.
- Bald wirst du Gemini auf Android verwenden können, um generierte Bilder zu erstellen und per Drag-and-Drop in Gmail, Google Messages und mehr zu ziehen oder nach dem YouTube-Video zu fragen, das du gerade ansiehst.
- Wenn du Gemini Advanced hast, wirst du auch die Option haben, „Dieses PDF fragen“, um schnell eine Antwort zu erhalten, ohne durch mehrere Seiten scrollen zu müssen.
- Schüler können jetzt Circle to Search für Hausaufgabenhilfe direkt von ausgewählten Android-Telefonen und Tablets nutzen. Diese Funktion wird von LearnLM angetrieben – unserer neuen Modellfamilie, die auf Gemini basiert und für das Lernen optimiert ist.
- Später in diesem Jahr wird Circle to Search noch komplexere Probleme lösen können, die symbolische Formeln, Diagramme, Grafiken und mehr umfassen.
Entwicklungen für Entwickler
- Du kannst am Gemini API Developer Competition teilnehmen und Teil der Entdeckung der hilfreichsten und bahnbrechendsten KI-Apps sein. Der Preis? Ein elektrisch nachgerüsteter, maßgeschneiderter 1981 DeLorean.
- Wir haben PaliGemma vorgestellt, unser erstes offenes Vision-Sprache-Modell, das für visuelles Q&A und Bildunterschriften optimiert ist.
- Wir haben die nächste Version von Gemma, Gemma 2, vorgestellt. Sie basiert auf einer völlig neuen Architektur und wird eine größere Instanz mit 27B Parametern umfassen, die Modelle doppelt so groß wie sie selbst übertrifft und auf einem einzigen TPU-Host läuft.
Fortschritte bei verantwortungsvoller KI
- Wir verbessern das Red Teaming – eine bewährte Praxis, bei der wir unsere eigenen Systeme proaktiv auf Schwächen testen und versuchen, sie zu brechen – durch eine neue Technik, die wir „AI-Assisted Red Teaming“ nennen.
- Wir erweitern SynthID auch auf zwei neue Modalitäten: Text und Video.
- SynthID-Textwasserzeichen werden in den kommenden Monaten über unser aktualisiertes Responsible Generative AI Toolkit open-source gemacht.
- Wir haben LearnLM angekündigt, eine neue Modellfamilie, die auf Gemini basiert und für das Lernen optimiert ist. LearnLM treibt bereits eine Reihe von Funktionen in unseren Produkten an, einschließlich Gemini, Search, YouTube und Google Classroom.



The I/O 2024 updates blew my mind! 😍 Those new Gemini app features are slick, but I'm really curious how devs will use those generative AI tools. Anyone else hyped to see what apps come out of this?




I/O 2024 was a blast! The Gemini app upgrades sound slick, but I'm curious if the new AI features will actually make my life easier or just add more buzzwords to my inbox. 😎 Anyone tried them yet?




I/O 2024 was insane! So many cool updates, especially the Gemini app enhancements. I'm super excited to try out the new generative AI features. The list of 100 announcements is a bit overwhelming, but in a good way! Can't wait to dive in! 🚀




I/O 2024は最高でした!Geminiアプリの強化が特に気に入りました。新しい生成AIの機能も楽しみですが、開発者ツールについてもう少し詳しく知りたかったです。全部試すのが待ちきれません!😊🚀




I/O 2024 정말 대단했어! 특히 제미니 앱의 강화가 최고야. 새로운 생성 AI 기능을 시도하는 게 너무 기대돼. 100개의 발표 목록은 조금 압도적이지만, 좋은 의미에서 그래! 빨리 써보고 싶어! 🚀




I/O 2024は最高でした!ジェミニアプリの更新が特に気に入りました。新しい生成AI機能も試してみたいです。100の発表リストは圧倒的ですが、良い意味で!😅 早く詳しく見てみたいですね!












