Google schlägt entspannte KI -Urheberrechte, Exportregeln vor

Google, dicht auf den Fersen von OpenAI, hat sich mit einem Politikvorschlag ins Rennen geworfen, als Reaktion auf den Aufruf der Trump-Regierung nach einem nationalen „KI-Aktionsplan“. Der Technologieriese setzt sich für gelockerte Urheberrechtsbeschränkungen für das KI-Training und „ausgewogene“ Exportkontrollen ein, die „die nationale Sicherheit schützen, aber gleichzeitig US-Exporte und globale Geschäftsaktivitäten ermöglichen“.
In ihrem Dokument argumentiert Google, dass „die USA eine aktive internationale Wirtschaftspolitik verfolgen müssen, um amerikanische Werte zu vertreten und KI-Innovationen international zu unterstützen“. Sie scheuen sich nicht davor, darauf hinzuweisen, dass „die KI-Politikgestaltung zu lange unverhältnismäßig viel Aufmerksamkeit auf die Risiken gelegt hat, oft ohne die Kosten zu berücksichtigen, die eine fehlgeleitete Regulierung für Innovation, nationale Wettbewerbsfähigkeit und wissenschaftliche Führerschaft haben kann – eine Dynamik, die unter der neuen Regierung beginnt, sich zu ändern“.
Einer der auffälligeren Vorschläge von Google betrifft die Nutzung urheberrechtlich geschützter Materialien. Sie befürworten „Fair-Use- und Text- und Datenmining-Ausnahmen“, die sie als „maßgeblich“ für die KI-Entwicklung und KI-bezogene wissenschaftliche Innovation bezeichnen. Genau wie OpenAI möchte Google es legal machen, dass sie und ihre Konkurrenten KI mit öffentlich zugänglichen Daten trainieren – einschließlich urheberrechtlich geschütztem Material – ohne allzu viele Einschränkungen.
„Diese Ausnahmen ermöglichen die Nutzung urheberrechtlich geschützter, öffentlich zugänglicher Materialien für das KI-Training, ohne die Rechteinhaber wesentlich zu beeinträchtigen“, erklärt Google, „und vermeiden oft höchst unvorhersehbare, unausgewogene und langwierige Verhandlungen mit Dateninhabern während der Modellentwicklung oder wissenschaftlicher Experimente.“
Nun ist Google hier kein Unbekannter in Sachen Kontroversen. Sie haben Modelle mit öffentlichen, urheberrechtlich geschützten Daten trainiert und sind derzeit in Rechtsstreitigkeiten mit Dateninhabern verwickelt, die behaupten, Google habe sie weder vorab informiert noch entschädigt. US-Gerichte haben noch nicht entschieden, ob die Fair-Use-Doktrin KI-Entwickler vor diesen IP-Streitigkeiten schützen wird.
In ihrem KI-Politikvorschlag kritisiert Google auch bestimmte Exportkontrollen unter der Biden-Regierung, die „die Ziele der wirtschaftlichen Wettbewerbsfähigkeit untergraben könnten“, indem sie „unverhältnismäßige Belastungen für US-Cloud-Diensteanbieter auferlegen“. Dies unterscheidet sich etwas von dem, was Microsoft im Januar sagte – sie waren ziemlich sicher, dass sie die Regeln „vollständig einhalten“ könnten.
Die Exportregeln zielen darauf ab, fortschrittliche KI-Chips in Ländern zu begrenzen, die den USA nicht besonders wohlgesinnt sind, aber es gibt Ausnahmen für vertrauenswürdige Unternehmen, die große Chip-Cluster erwerben möchten.
Google fordert zudem „langfristige, nachhaltige“ Investitionen in nationale Forschung und Entwicklung, als Reaktion auf jüngste föderale Bemühungen, Ausgaben zu kürzen und Förderungen zu streichen. Sie möchten, dass die Regierung Datensätze freigibt, die beim kommerziellen KI-Training helfen könnten, und „frühphasige Forschung und Entwicklung“ finanziert, während sie sicherstellt, dass Rechenleistung und Modelle „breit verfügbar“ für Wissenschaftler und Institutionen sind.
Angesichts des regulatorischen Durcheinanders in den USA durch ein Flickwerk von staatlichen KI-Gesetzen fordert Google die Regierung auf, föderale Gesetze zu KI zu verabschieden, einschließlich eines umfassenden Rahmens für Datenschutz und Sicherheit. Bis Anfang 2025 gibt es laut einem Online-Tracking-Tool bereits 781 anhängige KI-Gesetzesvorlagen in den USA.
Google warnt die US-Regierung auch davor, ihrer Meinung nach zu strenge Verpflichtungen für KI-Systeme einzuführen, wie etwa Haftungsverpflichtungen für die Nutzung. Sie argumentieren, dass in vielen Fällen der Entwickler eines Modells „wenig bis keine Einsicht oder Kontrolle“ über dessen Nutzung hat und nicht für Missbrauch verantwortlich gemacht werden sollte.
Historisch gesehen hat sich Google gegen Gesetze wie das in Kalifornien gescheiterte SB 1047 ausgesprochen, das festlegte, welche Vorsichtsmaßnahmen KI-Entwickler vor der Veröffentlichung eines Modells treffen sollten und wann sie für Schäden haftbar gemacht werden könnten.
„Selbst in Fällen, in denen ein Entwickler ein Modell direkt an Einsatzkräfte liefert, sind die Einsatzkräfte oft am besten in der Lage, die Risiken nachgelagerter Nutzungen zu verstehen, effektives Risikomanagement umzusetzen und Nachmarktüberwachung und -protokollierung durchzuführen“, betont Google.
Google ist auch kein Freund von Offenlegungspflichten, wie sie in der EU in Betracht gezogen werden, und nennt sie „übermäßig weit gefasst“. Sie möchten, dass die US-Regierung Transparenzregeln ablehnt, die „die Offenlegung von Geschäftsgeheimnissen erfordern, Konkurrenten die Möglichkeit geben, Produkte zu kopieren, oder die nationale Sicherheit gefährden, indem sie Gegnern eine Anleitung geben, wie sie Schutzmaßnahmen umgehen oder Modelle manipulieren können.“
Immer mehr Länder und Staaten verabschieden Gesetze, die von KI-Entwicklern verlangen, Details zu ihren Systemen offenzulegen. Kaliforniens AB 2013 beispielsweise verpflichtet Unternehmen, die KI-Systeme entwickeln, eine allgemeine Zusammenfassung der für das Training verwendeten Datensätze zu veröffentlichen. In der EU müssen Unternehmen, sobald der AI Act in Kraft tritt, den Modellbereitstellern detaillierte Anweisungen zu Betrieb, Einschränkungen und Risiken des Modells geben.
Verwandter Artikel
Qodo Partnerschaft mit Google Cloud zur Bereitstellung kostenloser KI-Code-Review-Tools für Entwickler
Qodo, ein in Israel ansässiges KI-Startup für Codierung, das sich auf Codequalität konzentriert, hat eine Partnerschaft mit Google Cloud gestartet, um die Integrität von KI-generiertem Softwarecode zu
Google verpflichtet sich zum EU-Kodex für KI inmitten von Branchendiskussionen
Google hat sich verpflichtet, den freiwilligen KI-Kodex der Europäischen Union zu übernehmen, ein Rahmenwerk, das darauf abzielt, KI-Entwicklern zu helfen, mit dem EU-KI-Gesetz konforme Prozesse und S
Apple-Nutzer können Anteil an $95M Siri-Datenschutzvereinbarung fordern
Apple-Gerätebesitzer in den USA können nun einen Anteil an einer $95 Millionen Vereinbarung beantragen, die Datenschutzbedenken bezüglich Siri adressiert. Eine spezielle Website erleichtert die Vertei
Kommentare (42)
0/200
DouglasMitchell
18. August 2025 23:01:05 MESZ
¡Vaya, Google y OpenAI pidiendo menos restricciones para la IA! Me parece curioso que busquen libertad para entrenar modelos, pero ¿y los creadores de contenido? Creo que deberían equilibrar innovación con derechos de autor. 🧐
0
AnthonyHernández
28. Juli 2025 03:20:54 MESZ
Google's push for looser AI copyright rules is intriguing, but it feels like a double-edged sword. Sure, it could spark innovation, but what about creators getting shortchanged? 🤔 I wonder how they'll balance that with national security on exports.
0
JonathanNelson
20. April 2025 08:24:23 MESZ
Предложение Google по авторским правам на ИИ и правилам экспорта звучит интересно, но я не уверен, как это будет работать на практике. Всё про 'ослабление' того и 'баланс' этого. Посмотрим, поможет ли это или только усложнит ситуацию. 🤔
0
WillieHernández
19. April 2025 11:12:07 MESZ
GoogleのAI著作権と輸出規制の提案は興味深いけど、実際どうなるかわからないね。「緩和」だの「バランス」だのって言ってるけど、役立つのかそれとももっと複雑になるのか、見てみないとね。🤔
0
DouglasPerez
19. April 2025 08:37:41 MESZ
La propuesta de Google sobre derechos de autor de IA y reglas de exportación suena interesante, pero no estoy seguro de cómo se desarrollará. Todo es sobre 'relajado' esto y 'equilibrado' aquello. Supongo que veremos si ayuda o solo complica más las cosas. 🤔
0
RoyYoung
19. April 2025 06:44:27 MESZ
谷歌关于AI版权和出口规则的提案听起来挺有意思的,但我不确定实际效果会怎样。都是些“放宽”这个、“平衡”那个的说法。看看它是帮上忙还是让事情更复杂吧。🤔
0
Google, dicht auf den Fersen von OpenAI, hat sich mit einem Politikvorschlag ins Rennen geworfen, als Reaktion auf den Aufruf der Trump-Regierung nach einem nationalen „KI-Aktionsplan“. Der Technologieriese setzt sich für gelockerte Urheberrechtsbeschränkungen für das KI-Training und „ausgewogene“ Exportkontrollen ein, die „die nationale Sicherheit schützen, aber gleichzeitig US-Exporte und globale Geschäftsaktivitäten ermöglichen“.
In ihrem Dokument argumentiert Google, dass „die USA eine aktive internationale Wirtschaftspolitik verfolgen müssen, um amerikanische Werte zu vertreten und KI-Innovationen international zu unterstützen“. Sie scheuen sich nicht davor, darauf hinzuweisen, dass „die KI-Politikgestaltung zu lange unverhältnismäßig viel Aufmerksamkeit auf die Risiken gelegt hat, oft ohne die Kosten zu berücksichtigen, die eine fehlgeleitete Regulierung für Innovation, nationale Wettbewerbsfähigkeit und wissenschaftliche Führerschaft haben kann – eine Dynamik, die unter der neuen Regierung beginnt, sich zu ändern“.
Einer der auffälligeren Vorschläge von Google betrifft die Nutzung urheberrechtlich geschützter Materialien. Sie befürworten „Fair-Use- und Text- und Datenmining-Ausnahmen“, die sie als „maßgeblich“ für die KI-Entwicklung und KI-bezogene wissenschaftliche Innovation bezeichnen. Genau wie OpenAI möchte Google es legal machen, dass sie und ihre Konkurrenten KI mit öffentlich zugänglichen Daten trainieren – einschließlich urheberrechtlich geschütztem Material – ohne allzu viele Einschränkungen.
„Diese Ausnahmen ermöglichen die Nutzung urheberrechtlich geschützter, öffentlich zugänglicher Materialien für das KI-Training, ohne die Rechteinhaber wesentlich zu beeinträchtigen“, erklärt Google, „und vermeiden oft höchst unvorhersehbare, unausgewogene und langwierige Verhandlungen mit Dateninhabern während der Modellentwicklung oder wissenschaftlicher Experimente.“
Nun ist Google hier kein Unbekannter in Sachen Kontroversen. Sie haben Modelle mit öffentlichen, urheberrechtlich geschützten Daten trainiert und sind derzeit in Rechtsstreitigkeiten mit Dateninhabern verwickelt, die behaupten, Google habe sie weder vorab informiert noch entschädigt. US-Gerichte haben noch nicht entschieden, ob die Fair-Use-Doktrin KI-Entwickler vor diesen IP-Streitigkeiten schützen wird.
In ihrem KI-Politikvorschlag kritisiert Google auch bestimmte Exportkontrollen unter der Biden-Regierung, die „die Ziele der wirtschaftlichen Wettbewerbsfähigkeit untergraben könnten“, indem sie „unverhältnismäßige Belastungen für US-Cloud-Diensteanbieter auferlegen“. Dies unterscheidet sich etwas von dem, was Microsoft im Januar sagte – sie waren ziemlich sicher, dass sie die Regeln „vollständig einhalten“ könnten.
Die Exportregeln zielen darauf ab, fortschrittliche KI-Chips in Ländern zu begrenzen, die den USA nicht besonders wohlgesinnt sind, aber es gibt Ausnahmen für vertrauenswürdige Unternehmen, die große Chip-Cluster erwerben möchten.
Google fordert zudem „langfristige, nachhaltige“ Investitionen in nationale Forschung und Entwicklung, als Reaktion auf jüngste föderale Bemühungen, Ausgaben zu kürzen und Förderungen zu streichen. Sie möchten, dass die Regierung Datensätze freigibt, die beim kommerziellen KI-Training helfen könnten, und „frühphasige Forschung und Entwicklung“ finanziert, während sie sicherstellt, dass Rechenleistung und Modelle „breit verfügbar“ für Wissenschaftler und Institutionen sind.
Angesichts des regulatorischen Durcheinanders in den USA durch ein Flickwerk von staatlichen KI-Gesetzen fordert Google die Regierung auf, föderale Gesetze zu KI zu verabschieden, einschließlich eines umfassenden Rahmens für Datenschutz und Sicherheit. Bis Anfang 2025 gibt es laut einem Online-Tracking-Tool bereits 781 anhängige KI-Gesetzesvorlagen in den USA.
Google warnt die US-Regierung auch davor, ihrer Meinung nach zu strenge Verpflichtungen für KI-Systeme einzuführen, wie etwa Haftungsverpflichtungen für die Nutzung. Sie argumentieren, dass in vielen Fällen der Entwickler eines Modells „wenig bis keine Einsicht oder Kontrolle“ über dessen Nutzung hat und nicht für Missbrauch verantwortlich gemacht werden sollte.
Historisch gesehen hat sich Google gegen Gesetze wie das in Kalifornien gescheiterte SB 1047 ausgesprochen, das festlegte, welche Vorsichtsmaßnahmen KI-Entwickler vor der Veröffentlichung eines Modells treffen sollten und wann sie für Schäden haftbar gemacht werden könnten.
„Selbst in Fällen, in denen ein Entwickler ein Modell direkt an Einsatzkräfte liefert, sind die Einsatzkräfte oft am besten in der Lage, die Risiken nachgelagerter Nutzungen zu verstehen, effektives Risikomanagement umzusetzen und Nachmarktüberwachung und -protokollierung durchzuführen“, betont Google.
Google ist auch kein Freund von Offenlegungspflichten, wie sie in der EU in Betracht gezogen werden, und nennt sie „übermäßig weit gefasst“. Sie möchten, dass die US-Regierung Transparenzregeln ablehnt, die „die Offenlegung von Geschäftsgeheimnissen erfordern, Konkurrenten die Möglichkeit geben, Produkte zu kopieren, oder die nationale Sicherheit gefährden, indem sie Gegnern eine Anleitung geben, wie sie Schutzmaßnahmen umgehen oder Modelle manipulieren können.“
Immer mehr Länder und Staaten verabschieden Gesetze, die von KI-Entwicklern verlangen, Details zu ihren Systemen offenzulegen. Kaliforniens AB 2013 beispielsweise verpflichtet Unternehmen, die KI-Systeme entwickeln, eine allgemeine Zusammenfassung der für das Training verwendeten Datensätze zu veröffentlichen. In der EU müssen Unternehmen, sobald der AI Act in Kraft tritt, den Modellbereitstellern detaillierte Anweisungen zu Betrieb, Einschränkungen und Risiken des Modells geben.




¡Vaya, Google y OpenAI pidiendo menos restricciones para la IA! Me parece curioso que busquen libertad para entrenar modelos, pero ¿y los creadores de contenido? Creo que deberían equilibrar innovación con derechos de autor. 🧐




Google's push for looser AI copyright rules is intriguing, but it feels like a double-edged sword. Sure, it could spark innovation, but what about creators getting shortchanged? 🤔 I wonder how they'll balance that with national security on exports.




Предложение Google по авторским правам на ИИ и правилам экспорта звучит интересно, но я не уверен, как это будет работать на практике. Всё про 'ослабление' того и 'баланс' этого. Посмотрим, поможет ли это или только усложнит ситуацию. 🤔




GoogleのAI著作権と輸出規制の提案は興味深いけど、実際どうなるかわからないね。「緩和」だの「バランス」だのって言ってるけど、役立つのかそれとももっと複雑になるのか、見てみないとね。🤔




La propuesta de Google sobre derechos de autor de IA y reglas de exportación suena interesante, pero no estoy seguro de cómo se desarrollará. Todo es sobre 'relajado' esto y 'equilibrado' aquello. Supongo que veremos si ayuda o solo complica más las cosas. 🤔




谷歌关于AI版权和出口规则的提案听起来挺有意思的,但我不确定实际效果会怎样。都是些“放宽”这个、“平衡”那个的说法。看看它是帮上忙还是让事情更复杂吧。🤔












