Исследование: модели OpenAI запомнили контент, защищенные авторским правом
Недавнее исследование предполагает, что OpenAI, возможно, действительно использовал материалы, защищенные авторским правом, для обучения некоторых моделей ИИ, добавив топливо в текущие юридические сражения, с которыми сталкивается компания. Авторы, программисты и другие создатели контента обвинили Openai в использовании своих работ - таких как книги и код - без разрешения на разработку своих моделей ИИ. В то время как OpenAI защищался, претендуя на справедливое использование, истцы утверждают, что Закон США об авторском праве не является исключением для данных обучения.
Исследование, сотрудничество между исследователями из Университета Вашингтона, Университета Копенгагена и Стэнфорда, представляет новый метод обнаружения «запоминающихся» данных обучения в моделях, доступных через API, например, от OpenAI. Модели ИИ по существу учатся из огромных объемов данных для распознавания шаблонов, позволяя им создавать эссе, изображения и многое другое. Хотя большинство результатов не являются прямыми копиями учебных данных, некоторые неизбежно связаны с процессом обучения. Например, было известно, что модели изображений воспроизводят экраны фильма, в то время как языковые модели были пойманы по существу запланированные новостные статьи.
Метод, описанный в исследовании, фокусируется на «высоких схемах» словах-слова, которые необычны в данном контексте. Например, в предложении «Джек и я совершенно сидели с трудом радара,« радар »будет словом с высоким содержанием, потому что оно менее ожидается, чем такие слова, как« двигатель »или« радио », предшествовать« колибри ».
Исследователи проверили несколько моделей OpenAI, в том числе GPT-4 и GPT-3.5, путем удаления высоких слов из выдержек из художественных книг и статьи «Нью-Йорк Таймс» и прося моделей предсказать эти пропущенные слова. Если модели точно угадали слова, это предполагало, что они запомнили текст во время обучения.

Пример наличия модели «угадайте» высококачественное слово. Результаты показали, что GPT-4, вероятно, запомнил части популярных художественных книг, в том числе в наборе данных книги в книге, защищенных авторским правом. Похоже, это также запомнило некоторые статьи «Нью -Йорк Таймс», хотя и на более низкой частоте.
Абхилаша Равичандер, докторант в Вашингтонском университете и соавтор исследования, подчеркнул TechCrunch, что эти результаты подчеркивают «спорные данные», которые могли бы быть использованы для обучения этих моделей. «Чтобы иметь большие языковые модели, которые заслуживают доверия, мы должны иметь модели, которые мы можем исследовать, проверять и исследовать научно», - заявил Равичандер. «Наша работа направлена на то, чтобы предоставить инструмент для исследования больших языковых моделей, но существует реальная потребность в большей прозрачности данных во всей экосистеме».
OpenAI настаивал на более расслабленных правилах использования защищенных авторским правом данных для разработки моделей искусственного интеллекта. Хотя компания имеет некоторые соглашения о лицензировании контента и предлагает варианты отказа для владельцев авторских прав, она лоббировала различные правительства, чтобы установить правила «справедливого использования» специально для обучения искусственному интеллекту.
Связанная статья
OpenAI升級其Operator Agent的AI模型
OpenAI將Operator推向全新境界OpenAI正為其自主AI代理Operator進行重大升級。這項變革意味著Operator即將採用基於o3模型的架構,這是OpenAI尖端o系列推理模型的最新成員。此前Operator一直使用客製化版本的GPT-4o驅動,但這次迭代將帶來顯著改進。o3的突破性意義在數學與邏輯推理任務方面,o3幾乎在所有指標上都超越前
OpenAI的o3 AI模型在基準測試中的得分低於最初暗示的水準
為什麼 AI 基準測試的差異很重要?提到 AI 時,數字往往能說明一切——有時,這些數字並不一定完全相符。以 OpenAI 的 o3 模型為例。最初的聲稱簡直令人驚嘆:據報導,o3 可以處理超過 25% 的 notoriously tough FrontierMath 問題。作為參考,競爭對手還停留在個位數。但隨著近期的發展,受人尊敬的研究機構 Epoch
Ziff Davis指控OpenAI涉嫌侵權
Ziff Davis控告OpenAI版權侵權訴訟這起事件在科技和出版界掀起了軒然大波,Ziff Davis——旗下擁有CNET、PCMag、IGN和Everyday Health等品牌的龐大企業聯盟——已對OpenAI提起版權侵權訴訟。根據《紐約時報》的報導,該訴訟聲稱OpenAI故意未經許可使用Ziff Davis的內容,製作了其作品的「精確副本」。這是截
Комментарии (30)
AlbertHernández
15 апреля 2025 г., 0:00:00 GMT
This study about OpenAI using copyrighted material is pretty eye-opening! I mean, it's kind of a bummer for creators, but also fascinating to see how AI is trained. It makes you wonder what else is out there that we don't know about. Maybe OpenAI should start being more transparent? 🤔
0
TimothyMitchell
22 апреля 2025 г., 0:00:00 GMT
OpenAIが著作権付きの資料を使ってAIを訓練しているという研究は本当に驚きですね!クリエイターにとっては残念ですが、AIの訓練方法について知るのは面白いです。もっと透明性が必要かもしれませんね?🤔
0
WillLopez
21 апреля 2025 г., 0:00:00 GMT
오픈AI가 저작권 있는 자료를 사용해 AI를 훈련했다는 연구는 정말 충격적이에요! 창작자들에게는 안타까운 일이지만, AI가 어떻게 훈련되는지 아는 건 흥미로워요. 오픈AI가 더 투명해져야 할까요? 🤔
0
JamesMiller
11 апреля 2025 г., 0:00:00 GMT
Esse estudo sobre a OpenAI usando material com direitos autorais é bem revelador! É uma pena para os criadores, mas também fascinante ver como o AI é treinado. Faz você se perguntar o que mais está por aí que não sabemos. Talvez a OpenAI devesse ser mais transparente? 🤔
0
BruceSmith
13 апреля 2025 г., 0:00:00 GMT
Este estudio sobre OpenAI usando material con derechos de autor es bastante revelador. Es una lástima para los creadores, pero también fascinante ver cómo se entrena la IA. Te hace preguntarte qué más hay por ahí que no sabemos. ¿Quizás OpenAI debería ser más transparente? 🤔
0
JohnWilson
18 апреля 2025 г., 0:00:00 GMT
This study on OpenAI's models using copyrighted content is kinda scary! 😱 I mean, it's cool how smart AI is getting, but it feels wrong if they're just copying books and code without asking. Hope they sort it out soon! 🤞
0
Недавнее исследование предполагает, что OpenAI, возможно, действительно использовал материалы, защищенные авторским правом, для обучения некоторых моделей ИИ, добавив топливо в текущие юридические сражения, с которыми сталкивается компания. Авторы, программисты и другие создатели контента обвинили Openai в использовании своих работ - таких как книги и код - без разрешения на разработку своих моделей ИИ. В то время как OpenAI защищался, претендуя на справедливое использование, истцы утверждают, что Закон США об авторском праве не является исключением для данных обучения.
Исследование, сотрудничество между исследователями из Университета Вашингтона, Университета Копенгагена и Стэнфорда, представляет новый метод обнаружения «запоминающихся» данных обучения в моделях, доступных через API, например, от OpenAI. Модели ИИ по существу учатся из огромных объемов данных для распознавания шаблонов, позволяя им создавать эссе, изображения и многое другое. Хотя большинство результатов не являются прямыми копиями учебных данных, некоторые неизбежно связаны с процессом обучения. Например, было известно, что модели изображений воспроизводят экраны фильма, в то время как языковые модели были пойманы по существу запланированные новостные статьи.
Метод, описанный в исследовании, фокусируется на «высоких схемах» словах-слова, которые необычны в данном контексте. Например, в предложении «Джек и я совершенно сидели с трудом радара,« радар »будет словом с высоким содержанием, потому что оно менее ожидается, чем такие слова, как« двигатель »или« радио », предшествовать« колибри ».
Исследователи проверили несколько моделей OpenAI, в том числе GPT-4 и GPT-3.5, путем удаления высоких слов из выдержек из художественных книг и статьи «Нью-Йорк Таймс» и прося моделей предсказать эти пропущенные слова. Если модели точно угадали слова, это предполагало, что они запомнили текст во время обучения.
Абхилаша Равичандер, докторант в Вашингтонском университете и соавтор исследования, подчеркнул TechCrunch, что эти результаты подчеркивают «спорные данные», которые могли бы быть использованы для обучения этих моделей. «Чтобы иметь большие языковые модели, которые заслуживают доверия, мы должны иметь модели, которые мы можем исследовать, проверять и исследовать научно», - заявил Равичандер. «Наша работа направлена на то, чтобы предоставить инструмент для исследования больших языковых моделей, но существует реальная потребность в большей прозрачности данных во всей экосистеме».
OpenAI настаивал на более расслабленных правилах использования защищенных авторским правом данных для разработки моделей искусственного интеллекта. Хотя компания имеет некоторые соглашения о лицензировании контента и предлагает варианты отказа для владельцев авторских прав, она лоббировала различные правительства, чтобы установить правила «справедливого использования» специально для обучения искусственному интеллекту.




This study about OpenAI using copyrighted material is pretty eye-opening! I mean, it's kind of a bummer for creators, but also fascinating to see how AI is trained. It makes you wonder what else is out there that we don't know about. Maybe OpenAI should start being more transparent? 🤔




OpenAIが著作権付きの資料を使ってAIを訓練しているという研究は本当に驚きですね!クリエイターにとっては残念ですが、AIの訓練方法について知るのは面白いです。もっと透明性が必要かもしれませんね?🤔




오픈AI가 저작권 있는 자료를 사용해 AI를 훈련했다는 연구는 정말 충격적이에요! 창작자들에게는 안타까운 일이지만, AI가 어떻게 훈련되는지 아는 건 흥미로워요. 오픈AI가 더 투명해져야 할까요? 🤔




Esse estudo sobre a OpenAI usando material com direitos autorais é bem revelador! É uma pena para os criadores, mas também fascinante ver como o AI é treinado. Faz você se perguntar o que mais está por aí que não sabemos. Talvez a OpenAI devesse ser mais transparente? 🤔




Este estudio sobre OpenAI usando material con derechos de autor es bastante revelador. Es una lástima para los creadores, pero también fascinante ver cómo se entrena la IA. Te hace preguntarte qué más hay por ahí que no sabemos. ¿Quizás OpenAI debería ser más transparente? 🤔




This study on OpenAI's models using copyrighted content is kinda scary! 😱 I mean, it's cool how smart AI is getting, but it feels wrong if they're just copying books and code without asking. Hope they sort it out soon! 🤞












