Verpflichtung zur verantwortungsbewussten KI -Entwicklung
Wir bei Google sind fest davon überzeugt, dass KI die Kraft hat, Leben zu verändern und zu einer besseren Welt beizutragen, vorausgesetzt, sie wird mit Mut und Verantwortung entwickelt. Unsere KI-Technologien machen bereits einen Unterschied, indem sie Menschen bei alltäglichen Aufgaben helfen und sie in ihren ambitioniertesten, kreativsten und produktivsten Unternehmungen unterstützen.
Für uns bedeutet verantwortungsvolle KI-Entwicklung, potenzielle Risiken anzugehen und gleichzeitig die Vorteile für Einzelpersonen und die Gesellschaft insgesamt zu maximieren. Wir lassen uns von unseren KI-Prinzipien, unserer fortlaufenden Forschung und wertvollen Beiträgen von Experten, Nutzern und Partnern leiten.
KI zum Wohle der Gesellschaft mit LearnLM entwickeln
Jeden Tag wenden sich Milliarden von Menschen an Google, um zu lernen. Mit dem Aufkommen generativer KI erschließen wir neue, personalisierte, hilfreiche und zugängliche Wege, um das Lernen zu verbessern.
Wir freuen uns, LearnLM vorzustellen, eine neue Modellfamilie, die auf der Grundlage von Gemini entwickelt und speziell für Bildungszwecke optimiert wurde. LearnLM integriert wissenschaftlich fundierte Lernprinzipien und akademische Grundsätze in unsere Produkte, um die kognitive Belastung zu managen und sich an die individuellen Ziele, Bedürfnisse und Motivationen jedes Lernenden anzupassen. Dies führt zu einem personalisierten Lernerlebnis.
[ttpp]LearnLM treibt eine Reihe von Funktionen in unseren Produkten an, einschließlich Gemini, Search, YouTube und Google Classroom. In der Gemini-App bietet der neue Lerncoach Gem schrittweise Studienanleitungen, die darauf ausgelegt sind, Verständnis zu fördern, anstatt nur Antworten zu liefern. In der YouTube-App für Android können Nutzer nun auf neue Weise mit Bildungsinhalten interagieren, wie etwa Folgefragen stellen oder Quizze absolvieren. Dank der Langkontext-Fähigkeit des Gemini-Modells funktionieren diese Funktionen auch bei langen Vorträgen und Seminaren nahtlos.[yyxx]
Zusammenarbeit ist der Schlüssel, um das volle Potenzial generativer KI in der Bildung auszuschöpfen. Wir arbeiten mit führenden Bildungsinstitutionen wie dem Columbia Teachers College, der Arizona State University, der NYU Tisch und der Khan Academy zusammen, um unsere Modelle zu verfeinern. Unser Ziel ist es, die Reichweite von LearnLM über unsere eigenen Produkte hinaus auszudehnen. Wenn Sie an einer Partnerschaft mit uns interessiert sind, können Sie sich hier anmelden. Wir haben uns auch mit MIT RAISE zusammengeschlossen, um einen Online-Kurs zu entwickeln, der Pädagogen mit Werkzeugen ausstattet, um generative KI effektiv in ihren Unterricht zu integrieren.
Langkontext nutzen, um Wissen zugänglich zu machen
Wir haben ein experimentelles Tool namens Illuminate entwickelt, das die Langkontext-Fähigkeiten von Gemini 1.5 Pro nutzt, um komplexe Forschungspapiere in prägnante Audiodialoge umzuwandeln. In nur wenigen Minuten kann Illuminate einen Dialog zwischen zwei KI-generierten Stimmen erzeugen, der eine Zusammenfassung und wichtige Erkenntnisse aus Forschungspapieren bietet. Für diejenigen, die tiefer eintauchen möchten, werden Folgefragen unterstützt. Alle Audios sind mit SynthID wasserzeichenversehen, und die Originalpapiere werden für weitere Erkundungen referenziert. Sie können sich heute bei labs.google anmelden, um Illuminate auszuprobieren.
[ttpp]Während diese Innovationen uns helfen, unsere Mission auf neue Weise zu erfüllen, entwickelt sich generative KI weiter, und mit ihr kommen Risiken und Fragen, die angegangen werden müssen.
Wir verpflichten uns zu einem verantwortungsvollen Umgang mit KI, geleitet von unseren KI-Prinzipien. Wir teilen regelmäßig Updates zu unseren Erkenntnissen und Praktiken.
Heute heben wir einige neue Wege hervor, wie wir unsere Modelle wie Gemini verbessern und vor Missbrauch schützen:
KI-unterstütztes Red Teaming und Experten-Feedback: Wir verbessern unsere Red-Teaming-Praktiken, die proaktives Testen unserer Systeme auf Schwachstellen beinhalten, mit einer neuen Technik namens „KI-unterstütztes Red Teaming“. Inspiriert von Google DeepMinds Durchbrüchen im Gaming wie AlphaGo trainieren wir KI-Agenten, um zu konkurrieren und ihre Red-Teaming-Fähigkeiten zu erweitern. Dies hilft, gegnerisches Prompting anzugehen und problematische Ausgaben zu begrenzen. Wir berücksichtigen auch Feedback von Tausenden internen Sicherheitsspezialisten und unabhängigen Experten aus Wissenschaft und Zivilgesellschaft, um die Genauigkeit und Zuverlässigkeit unserer Modelle zu verbessern.
SynthID für Text und Video: Da unsere Modellausgaben realistischer werden, erweitern wir SynthID auf Text und Video, zusätzlich zu Bildern und Audio. Diese Technologie fügt unsichtbare Wasserzeichen hinzu, um KI-generierte Inhalte zu identifizieren und Missbrauch zu verhindern. Wir sind bestrebt, Menschen dabei zu helfen, den Ursprung digitaler Inhalte zu verstehen.
Zusammenarbeit an Schutzmaßnahmen: Wir arbeiten mit dem breiteren Ecosystem zusammen, um unsere Fortschritte zu teilen und zu verbessern. In den kommenden Monaten werden wir die SynthID-Textwasserzeichen über unser aktualisiertes Responsible Generative AI Toolkit open-source bereitstellen. Wir sind auch Teil der Coalition for Content Provenance and Authenticity (C2PA) und arbeiten mit Adobe, Microsoft, Startups und anderen zusammen, um die Transparenz in digitalen Medien zu verbessern.[yyxx]
Beitrag zur Lösung realer Probleme
Unsere KI-Fortschritte helfen bereits, reale Herausforderungen anzugehen und wissenschaftliche Durchbrüche voranzutreiben. Kürzlich haben wir mehrere spannende Meilensteine angekündigt:
In Zusammenarbeit mit der Harvard University hat Google Research die größte synapsenauflösende 3D-Rekonstruktion des menschlichen Kortex veröffentlicht, die unser Verständnis der Gehirnfunktion revolutionieren könnte.
Wir haben AlphaFold 3 vorgestellt, eine Aktualisierung unseres Modells, das nun die Struktur und Wechselwirkungen von DNA, RNA und Liganden zusätzlich zu Proteinen vorhersagt. Dieser Fortschritt könnte unser Verständnis von Biologie und Wirkstoffforschung verändern.
Wir haben Med-Gemini vorgestellt, eine Familie von Forschungmodellen, die die Fähigkeiten von Gemini in fortgeschrittenem Denken, multimodalem Verständnis und Langkontext-Verarbeitung nutzt. Diese Modelle könnten Kliniker bei administrativen Aufgaben unterstützen, verschiedene medizinische Daten analysieren und bei der Risikovorhersage helfen.
Diese Errungenschaften ergänzen die gesellschaftlichen Vorteile, die wir bei Projekten wie der Hochwasserprognose und den UN Data Commons für die SDGs gesehen haben. Wir haben kürzlich einen Bericht veröffentlicht, der detailliert beschreibt, wie KI dazu beitragen kann, unsere Fortschritte bei den gemeinsamen nachhaltigen Entwicklungszielen der Welt voranzutreiben. Wir stehen erst am Anfang und sind begeistert von der Zukunft und dem potenziellen Einfluss unserer gemeinsamen Anstrengungen.
[ttpp]



Erhalten Sie mehr Geschichten von Google in Ihren Posteingang.
E-Mail-AdresseIhre Informationen werden gemäß der Datenschutzrichtlinie von Google verwendet.
AbonnierenFertig. Nur noch ein Schritt.
Überprüfen Sie Ihren Posteingang, um Ihr Abonnement zu bestätigen.
Sie sind bereits für unseren Newsletter angemeldet.
Sie können sich auch mit einer anderen E-Mail-Adresse anmelden.[yyxx]
Verwandter Artikel
Adobe und Figma Integrieren OpenAIs Fortschrittliches Bildgenerierungsmodell
OpenAIs verbesserte Bildgenerierung in ChatGPT hat einen Anstieg der Nutzerzahlen ausgelöst, angetrieben durch die Fähigkeit, Visuals im Stil von Studio Ghibli und einzigartige Designs zu erstellen, u
Tech-Giganten gespalten über EU-KI-Kodex, da Frist für Einhaltung naht
Der EU-KI-Allgemeinkodex hat deutliche Unterschiede zwischen führenden Technologieunternehmen offenbart. Microsoft hat seine Absicht bekundet, den freiwilligen KI-Konformitätsrahmen der Europäischen U
Meta verbessert KI-Sicherheit mit fortschrittlichen Llama-Tools
Meta hat neue Llama-Sicherheitstools veröffentlicht, um die KI-Entwicklung zu stärken und vor neuen Bedrohungen zu schützen.Diese verbesserten Llama-KI-Modell-Sicherheitstools werden mit neuen Ressour
Kommentare (38)
0/200
SamuelWilson
13. August 2025 23:00:59 MESZ
Google's focus on responsible AI is cool, but I wonder how they balance innovation with ethics in practice. Sounds like a tightrope walk! 😅
0
DonaldYoung
7. August 2025 11:00:59 MESZ
Super cool to see Google's focus on responsible AI! It's wild how AI's already simplifying daily tasks. Hope they keep ethics first! 😊
0
AnthonyMiller
2. August 2025 17:07:14 MESZ
Google's take on responsible AI sounds promising, but I wonder how they balance bold innovation with ethical concerns. Exciting yet tricky! 🤔
0
RogerGonzalez
21. April 2025 21:35:28 MESZ
El compromiso de Google con el desarrollo responsable de IA está bien y todo, pero a veces parece que solo se están felicitando a sí mismos. Quiero decir, que la IA ayude con las tareas diarias es genial, pero veamos algún impacto real en el mundo, no solo promesas! 🤔🌍
0
CarlTaylor
19. April 2025 04:12:38 MESZ
O compromisso do Google com o desenvolvimento responsável de IA é legal e tal, mas às vezes parece que eles estão apenas se elogiando. Quer dizer, IA ajudando com tarefas diárias é ótimo, mas vamos ver algum impacto real no mundo, não apenas promessas! 🤔🌍
0
JohnYoung
15. April 2025 15:06:21 MESZ
구글의 책임 있는 AI 개발 약속 정말 멋지네요! AI가 일상의 일을 도와주는 건 좋지만, 더 야심찬 사용이 가능할지 궁금해요. 구글, 계속해서 한계에 도전하세요! 🚀
0
Wir bei Google sind fest davon überzeugt, dass KI die Kraft hat, Leben zu verändern und zu einer besseren Welt beizutragen, vorausgesetzt, sie wird mit Mut und Verantwortung entwickelt. Unsere KI-Technologien machen bereits einen Unterschied, indem sie Menschen bei alltäglichen Aufgaben helfen und sie in ihren ambitioniertesten, kreativsten und produktivsten Unternehmungen unterstützen.
Für uns bedeutet verantwortungsvolle KI-Entwicklung, potenzielle Risiken anzugehen und gleichzeitig die Vorteile für Einzelpersonen und die Gesellschaft insgesamt zu maximieren. Wir lassen uns von unseren KI-Prinzipien, unserer fortlaufenden Forschung und wertvollen Beiträgen von Experten, Nutzern und Partnern leiten.
KI zum Wohle der Gesellschaft mit LearnLM entwickeln
Jeden Tag wenden sich Milliarden von Menschen an Google, um zu lernen. Mit dem Aufkommen generativer KI erschließen wir neue, personalisierte, hilfreiche und zugängliche Wege, um das Lernen zu verbessern.
Wir freuen uns, LearnLM vorzustellen, eine neue Modellfamilie, die auf der Grundlage von Gemini entwickelt und speziell für Bildungszwecke optimiert wurde. LearnLM integriert wissenschaftlich fundierte Lernprinzipien und akademische Grundsätze in unsere Produkte, um die kognitive Belastung zu managen und sich an die individuellen Ziele, Bedürfnisse und Motivationen jedes Lernenden anzupassen. Dies führt zu einem personalisierten Lernerlebnis.
[ttpp]LearnLM treibt eine Reihe von Funktionen in unseren Produkten an, einschließlich Gemini, Search, YouTube und Google Classroom. In der Gemini-App bietet der neue Lerncoach Gem schrittweise Studienanleitungen, die darauf ausgelegt sind, Verständnis zu fördern, anstatt nur Antworten zu liefern. In der YouTube-App für Android können Nutzer nun auf neue Weise mit Bildungsinhalten interagieren, wie etwa Folgefragen stellen oder Quizze absolvieren. Dank der Langkontext-Fähigkeit des Gemini-Modells funktionieren diese Funktionen auch bei langen Vorträgen und Seminaren nahtlos.[yyxx]
Zusammenarbeit ist der Schlüssel, um das volle Potenzial generativer KI in der Bildung auszuschöpfen. Wir arbeiten mit führenden Bildungsinstitutionen wie dem Columbia Teachers College, der Arizona State University, der NYU Tisch und der Khan Academy zusammen, um unsere Modelle zu verfeinern. Unser Ziel ist es, die Reichweite von LearnLM über unsere eigenen Produkte hinaus auszudehnen. Wenn Sie an einer Partnerschaft mit uns interessiert sind, können Sie sich hier anmelden. Wir haben uns auch mit MIT RAISE zusammengeschlossen, um einen Online-Kurs zu entwickeln, der Pädagogen mit Werkzeugen ausstattet, um generative KI effektiv in ihren Unterricht zu integrieren.
Langkontext nutzen, um Wissen zugänglich zu machen
Wir haben ein experimentelles Tool namens Illuminate entwickelt, das die Langkontext-Fähigkeiten von Gemini 1.5 Pro nutzt, um komplexe Forschungspapiere in prägnante Audiodialoge umzuwandeln. In nur wenigen Minuten kann Illuminate einen Dialog zwischen zwei KI-generierten Stimmen erzeugen, der eine Zusammenfassung und wichtige Erkenntnisse aus Forschungspapieren bietet. Für diejenigen, die tiefer eintauchen möchten, werden Folgefragen unterstützt. Alle Audios sind mit SynthID wasserzeichenversehen, und die Originalpapiere werden für weitere Erkundungen referenziert. Sie können sich heute bei labs.google anmelden, um Illuminate auszuprobieren.
[ttpp]Während diese Innovationen uns helfen, unsere Mission auf neue Weise zu erfüllen, entwickelt sich generative KI weiter, und mit ihr kommen Risiken und Fragen, die angegangen werden müssen.
Wir verpflichten uns zu einem verantwortungsvollen Umgang mit KI, geleitet von unseren KI-Prinzipien. Wir teilen regelmäßig Updates zu unseren Erkenntnissen und Praktiken.
Heute heben wir einige neue Wege hervor, wie wir unsere Modelle wie Gemini verbessern und vor Missbrauch schützen:
KI-unterstütztes Red Teaming und Experten-Feedback: Wir verbessern unsere Red-Teaming-Praktiken, die proaktives Testen unserer Systeme auf Schwachstellen beinhalten, mit einer neuen Technik namens „KI-unterstütztes Red Teaming“. Inspiriert von Google DeepMinds Durchbrüchen im Gaming wie AlphaGo trainieren wir KI-Agenten, um zu konkurrieren und ihre Red-Teaming-Fähigkeiten zu erweitern. Dies hilft, gegnerisches Prompting anzugehen und problematische Ausgaben zu begrenzen. Wir berücksichtigen auch Feedback von Tausenden internen Sicherheitsspezialisten und unabhängigen Experten aus Wissenschaft und Zivilgesellschaft, um die Genauigkeit und Zuverlässigkeit unserer Modelle zu verbessern.
SynthID für Text und Video: Da unsere Modellausgaben realistischer werden, erweitern wir SynthID auf Text und Video, zusätzlich zu Bildern und Audio. Diese Technologie fügt unsichtbare Wasserzeichen hinzu, um KI-generierte Inhalte zu identifizieren und Missbrauch zu verhindern. Wir sind bestrebt, Menschen dabei zu helfen, den Ursprung digitaler Inhalte zu verstehen.
Zusammenarbeit an Schutzmaßnahmen: Wir arbeiten mit dem breiteren Ecosystem zusammen, um unsere Fortschritte zu teilen und zu verbessern. In den kommenden Monaten werden wir die SynthID-Textwasserzeichen über unser aktualisiertes Responsible Generative AI Toolkit open-source bereitstellen. Wir sind auch Teil der Coalition for Content Provenance and Authenticity (C2PA) und arbeiten mit Adobe, Microsoft, Startups und anderen zusammen, um die Transparenz in digitalen Medien zu verbessern.[yyxx]
Beitrag zur Lösung realer Probleme
Unsere KI-Fortschritte helfen bereits, reale Herausforderungen anzugehen und wissenschaftliche Durchbrüche voranzutreiben. Kürzlich haben wir mehrere spannende Meilensteine angekündigt:
In Zusammenarbeit mit der Harvard University hat Google Research die größte synapsenauflösende 3D-Rekonstruktion des menschlichen Kortex veröffentlicht, die unser Verständnis der Gehirnfunktion revolutionieren könnte.
Wir haben AlphaFold 3 vorgestellt, eine Aktualisierung unseres Modells, das nun die Struktur und Wechselwirkungen von DNA, RNA und Liganden zusätzlich zu Proteinen vorhersagt. Dieser Fortschritt könnte unser Verständnis von Biologie und Wirkstoffforschung verändern.
Wir haben Med-Gemini vorgestellt, eine Familie von Forschungmodellen, die die Fähigkeiten von Gemini in fortgeschrittenem Denken, multimodalem Verständnis und Langkontext-Verarbeitung nutzt. Diese Modelle könnten Kliniker bei administrativen Aufgaben unterstützen, verschiedene medizinische Daten analysieren und bei der Risikovorhersage helfen.
Diese Errungenschaften ergänzen die gesellschaftlichen Vorteile, die wir bei Projekten wie der Hochwasserprognose und den UN Data Commons für die SDGs gesehen haben. Wir haben kürzlich einen Bericht veröffentlicht, der detailliert beschreibt, wie KI dazu beitragen kann, unsere Fortschritte bei den gemeinsamen nachhaltigen Entwicklungszielen der Welt voranzutreiben. Wir stehen erst am Anfang und sind begeistert von der Zukunft und dem potenziellen Einfluss unserer gemeinsamen Anstrengungen.
[ttpp]Erhalten Sie mehr Geschichten von Google in Ihren Posteingang.
E-Mail-AdresseIhre Informationen werden gemäß der Datenschutzrichtlinie von Google verwendet.
AbonnierenFertig. Nur noch ein Schritt.
Überprüfen Sie Ihren Posteingang, um Ihr Abonnement zu bestätigen.
Sie sind bereits für unseren Newsletter angemeldet.
Sie können sich auch mit einer anderen E-Mail-Adresse anmelden.[yyxx]


Google's focus on responsible AI is cool, but I wonder how they balance innovation with ethics in practice. Sounds like a tightrope walk! 😅




Super cool to see Google's focus on responsible AI! It's wild how AI's already simplifying daily tasks. Hope they keep ethics first! 😊




Google's take on responsible AI sounds promising, but I wonder how they balance bold innovation with ethical concerns. Exciting yet tricky! 🤔




El compromiso de Google con el desarrollo responsable de IA está bien y todo, pero a veces parece que solo se están felicitando a sí mismos. Quiero decir, que la IA ayude con las tareas diarias es genial, pero veamos algún impacto real en el mundo, no solo promesas! 🤔🌍




O compromisso do Google com o desenvolvimento responsável de IA é legal e tal, mas às vezes parece que eles estão apenas se elogiando. Quer dizer, IA ajudando com tarefas diárias é ótimo, mas vamos ver algum impacto real no mundo, não apenas promessas! 🤔🌍




구글의 책임 있는 AI 개발 약속 정말 멋지네요! AI가 일상의 일을 도와주는 건 좋지만, 더 야심찬 사용이 가능할지 궁금해요. 구글, 계속해서 한계에 도전하세요! 🚀












