Option
Heim Nachricht Studie: OpenAI -Modelle merkten aus dem urheberrechtlich geschützten Inhalt aus

Studie: OpenAI -Modelle merkten aus dem urheberrechtlich geschützten Inhalt aus

Veröffentlichungsdatum Veröffentlichungsdatum 10. April 2025
Autor Autor RonaldHernández
Ansichten Ansichten 44

Eine kürzlich durchgeführte Studie legt nahe, dass OpenAI tatsächlich urheberrechtlich geschütztes Material verwendet hat, um einige seiner KI -Modelle auszubilden, und die laufenden Rechtsstreitigkeiten, mit denen das Unternehmen konfrontiert ist, Kraftstoff verleiht. Autoren, Programmierer und andere Inhaltsersteller haben Openai beschuldigt, ihre Werke - wie Bücher und Code - ohne Erlaubnis zur Entwicklung seiner KI -Modelle zu verwenden. Während Openai sich durch den fairen Gebrauch verteidigt hat, argumentieren die Kläger, dass das US -Urheberrechtsgesetz keine Ausnahme für Schulungsdaten darstellt.

Die Studie, eine Zusammenarbeit zwischen Forschern der University of Washington, der University of Copenhagen und Stanford, führt eine neue Technik zum Erkennen von "auswendig gelernten" Trainingsdaten in Modellen vor, auf die über eine API zugegriffen wird, wie die von OpenAI. KI -Modelle lernen im Wesentlichen aus großen Mengen an Daten, um Muster zu erkennen, sodass sie Aufsätze, Bilder und mehr erstellen können. Obwohl die meisten Ausgaben keine direkten Kopien der Trainingsdaten sind, sind einige unweigerlich auf den Lernprozess zurückzuführen. Zum Beispiel sind Bezeichnungsmodelle bekannt, dass sie Filmscreenshots reproduzieren, während Sprachmodelle im Wesentlichen Nachrichtenartikel plagiieren.

Die in der Studie beschriebene Methode konzentriert sich auf "hochübergreifende" Wörter-Wörter, die in einem bestimmten Kontext ungewöhnlich sind. In dem Satz "Jack und ich saßen zum Beispiel mit dem Radar-Summen perfekt still", wäre "Radar" ein hochübergreifendes Wort, weil es weniger erwartet wird als Wörter wie "Engine" oder "Radio", um "Summing" vorauszugehen.

Die Forscher testeten mehrere OpenAI-Modelle, darunter GPT-4 und GPT-3,5, indem sie hochübergreifende Wörter von Auszügen von Fiction-Büchern und Artikeln der New York Times entfernen und die Modelle bitten, diese fehlenden Wörter vorherzusagen. Wenn die Modelle die Wörter genau erraten haben, schlug dies vor, dass sie den Text während des Trainings auswendig gelernt hatten.

OpenAI Copyright Study

Ein Beispiel für ein Modell „Raten“ ein hochübergreifendes Wort. Image Credits: OpenAI
Die Ergebnisse zeigten, dass GPT-4 wahrscheinlich Teile populärer Fiktionsbücher auswendig gelernt hatte, einschließlich derjenigen im Bookmia-Datensatz von urheberrechtlich geschützten eBooks. Es schien auch einige Artikel von New York Times auswendig gelernt zu haben, obwohl es bei einer geringeren Frequenz.

Abhilasha Ravichander, Doktorand an der Universität von Washington und Co-Autor der Studie, betonte TechCrunch, dass diese Ergebnisse die "umstrittenen Daten" hervorheben, die möglicherweise zur Ausbildung dieser Modelle verwendet wurden. "Um große Sprachmodelle zu haben, die vertrauenswürdig sind, müssen wir Modelle haben, die wir untersuchen und prüfen und wissenschaftlich prüfen können", erklärte Ravichander. "Unsere Arbeit zielt darauf ab, ein Instrument zur Prüfung von großartigen Modellen zu liefern, aber es besteht ein echter Bedarf an mehr Datentransparenz im gesamten Ökosystem."

OpenAI hat nach entspannteren Regeln für die Verwendung von urheberrechtlich geschützten Daten zur Entwicklung von KI -Modellen gedrängt. Obwohl das Unternehmen über einige Inhaltslizenzvereinbarungen verfügt und Opt-out-Optionen für Urheberrechtsinhaber anbietet, hat es verschiedene Regierungen dafür eingesetzt, Regeln für die "faire Nutzung" speziell für die KI-Schulung festzulegen.

Verwandter Artikel
Google搜索引入了複雜的多部分查詢的“ AI模式” Google搜索引入了複雜的多部分查詢的“ AI模式” Google推出了“ AI模式”,以搜索與競爭對手的困惑AI和ChatgptGoogle在AI Arena中加強遊戲,並在其搜索引擎中啟動了實驗性的“ AI模式”功能。旨在進行困惑AI和Openai的Chatgpt搜索之類
Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題 Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題 Chatgpt的一些用戶最近遇到了一個奇怪的新功能:聊天機器人偶爾在解決問題時使用他們的名字。這不是以前其通常行為的一部分,許多用戶報告Chatgpt提到了他們的名字,而沒有被告知該怎麼稱呼。意見
Openai增強了Chatgpt,以回憶以前的對話 Openai增強了Chatgpt,以回憶以前的對話 Openai在周四發表了一項重大宣布,內容涉及在Chatgpt中推出一個名為“ Memory”的新功能。這種漂亮的工具旨在通過記住您以前談論的內容來使您與AI的聊天更為個性化。想像一下,每次開始新的轉換時都不必重複自己
Kommentare (20)
0/200
AlbertHernández
AlbertHernández 14. April 2025 21:39:34 GMT

This study about OpenAI using copyrighted material is pretty eye-opening! I mean, it's kind of a bummer for creators, but also fascinating to see how AI is trained. It makes you wonder what else is out there that we don't know about. Maybe OpenAI should start being more transparent? 🤔

TimothyMitchell
TimothyMitchell 22. April 2025 00:12:42 GMT

OpenAIが著作権付きの資料を使ってAIを訓練しているという研究は本当に驚きですね!クリエイターにとっては残念ですが、AIの訓練方法について知るのは面白いです。もっと透明性が必要かもしれませんね?🤔

WillLopez
WillLopez 21. April 2025 11:49:05 GMT

오픈AI가 저작권 있는 자료를 사용해 AI를 훈련했다는 연구는 정말 충격적이에요! 창작자들에게는 안타까운 일이지만, AI가 어떻게 훈련되는지 아는 건 흥미로워요. 오픈AI가 더 투명해져야 할까요? 🤔

JamesMiller
JamesMiller 10. April 2025 18:07:57 GMT

Esse estudo sobre a OpenAI usando material com direitos autorais é bem revelador! É uma pena para os criadores, mas também fascinante ver como o AI é treinado. Faz você se perguntar o que mais está por aí que não sabemos. Talvez a OpenAI devesse ser mais transparente? 🤔

BruceSmith
BruceSmith 13. April 2025 01:01:58 GMT

Este estudio sobre OpenAI usando material con derechos de autor es bastante revelador. Es una lástima para los creadores, pero también fascinante ver cómo se entrena la IA. Te hace preguntarte qué más hay por ahí que no sabemos. ¿Quizás OpenAI debería ser más transparente? 🤔

JohnWilson
JohnWilson 17. April 2025 17:16:23 GMT

This study on OpenAI's models using copyrighted content is kinda scary! 😱 I mean, it's cool how smart AI is getting, but it feels wrong if they're just copying books and code without asking. Hope they sort it out soon! 🤞

Zurück nach oben
OR