Estudo: Modelos OpenAI memorizou conteúdo protegido por direitos autorais
Um estudo recente sugere que o OpenAI pode realmente ter usado material protegido por direitos autorais para treinar alguns de seus modelos de IA, adicionando combustível às batalhas legais em andamento que a empresa enfrenta. Autores, programadores e outros criadores de conteúdo acusaram o OpenAI de usar seus trabalhos - como livros e código - sem permissão para desenvolver seus modelos de IA. Enquanto o OpenAI se defendeu ao reivindicar uso justo, os demandantes argumentam que a lei de direitos autorais dos EUA não fornece uma exceção para o treinamento de dados.
O estudo, uma colaboração entre pesquisadores da Universidade de Washington, da Universidade de Copenhague e Stanford, apresenta uma nova técnica para detectar dados de treinamento "memorizados" em modelos acessados por meio de uma API, como os do OpenAI. Os modelos de IA aprendem essencialmente com vastas quantidades de dados para reconhecer padrões, permitindo que eles criem ensaios, imagens e muito mais. Embora a maioria dos resultados não seja cópia direta dos dados de treinamento, alguns inevitavelmente se devem ao processo de aprendizado. Por exemplo, são conhecidos modelos de imagens por reproduzir capturas de tela de filmes, enquanto os modelos de idiomas foram pegos essencialmente plagiando artigos de notícias.
O método descrito no estudo concentra-se em palavras "de alta sobrevivência"-palavras incomuns em um determinado contexto. Por exemplo, na frase "Jack e eu nos sentamos perfeitamente imóveis com o zumbido do radar", "Radar" seria uma palavra de alta sobrevivência, porque é menos esperada do que palavras como "mecanismo" ou "rádio" para preceder "zumbido".
Os pesquisadores testaram vários modelos Openai, incluindo GPT-4 e GPT-3.5, removendo palavras de alta sobrevivência de trechos de livros de ficção e artigos do New York Times e pedindo aos modelos que prevejam essas palavras que faltam. Se os modelos adivinhassem com precisão as palavras, sugeriu que elas haviam memorizado o texto durante o treinamento.

Um exemplo de ter um modelo "adivinhe" uma palavra de alta sobrevivência. Os resultados indicaram que o GPT-4 provavelmente memorizou partes de livros de ficção popular, incluindo os do conjunto de dados do Bookmia de eBooks protegidos por direitos autorais. Também parecia ter memorizado alguns artigos do New York Times, embora em uma frequência mais baixa.
Abhilasha Ravichander, estudante de doutorado da Universidade de Washington e co-autora do estudo, enfatizou a TechCrunch que essas descobertas destacam os "dados controversos" que poderiam ter sido usados para treinar esses modelos. "Para ter grandes modelos de idiomas confiáveis, precisamos ter modelos que possamos investigar e auditar e examinar cientificamente", afirmou Ravichander. "Nosso trabalho visa fornecer uma ferramenta para investigar grandes modelos de linguagem, mas há uma necessidade real de maior transparência de dados em todo o ecossistema".
O OpenAI pressionou para regras mais relaxadas sobre o uso de dados protegidos por direitos autorais para desenvolver modelos de IA. Embora a empresa possua alguns acordos de licenciamento de conteúdo e ofereça opções de exclusão para detentores de direitos autorais, ela fez vários governos para estabelecer regras de "uso justo" especificamente para o treinamento de IA.
Artigo relacionado
OpenAI升級其Operator Agent的AI模型
OpenAI將Operator推向全新境界OpenAI正為其自主AI代理Operator進行重大升級。這項變革意味著Operator即將採用基於o3模型的架構,這是OpenAI尖端o系列推理模型的最新成員。此前Operator一直使用客製化版本的GPT-4o驅動,但這次迭代將帶來顯著改進。o3的突破性意義在數學與邏輯推理任務方面,o3幾乎在所有指標上都超越前
OpenAI的o3 AI模型在基準測試中的得分低於最初暗示的水準
為什麼 AI 基準測試的差異很重要?提到 AI 時,數字往往能說明一切——有時,這些數字並不一定完全相符。以 OpenAI 的 o3 模型為例。最初的聲稱簡直令人驚嘆:據報導,o3 可以處理超過 25% 的 notoriously tough FrontierMath 問題。作為參考,競爭對手還停留在個位數。但隨著近期的發展,受人尊敬的研究機構 Epoch
Ziff Davis指控OpenAI涉嫌侵權
Ziff Davis控告OpenAI版權侵權訴訟這起事件在科技和出版界掀起了軒然大波,Ziff Davis——旗下擁有CNET、PCMag、IGN和Everyday Health等品牌的龐大企業聯盟——已對OpenAI提起版權侵權訴訟。根據《紐約時報》的報導,該訴訟聲稱OpenAI故意未經許可使用Ziff Davis的內容,製作了其作品的「精確副本」。這是截
Comentários (30)
0/200
AlbertHernández
15 de Abril de 2025 à0 00:00:00 GMT
This study about OpenAI using copyrighted material is pretty eye-opening! I mean, it's kind of a bummer for creators, but also fascinating to see how AI is trained. It makes you wonder what else is out there that we don't know about. Maybe OpenAI should start being more transparent? 🤔
0
TimothyMitchell
22 de Abril de 2025 à0 00:00:00 GMT
OpenAIが著作権付きの資料を使ってAIを訓練しているという研究は本当に驚きですね!クリエイターにとっては残念ですが、AIの訓練方法について知るのは面白いです。もっと透明性が必要かもしれませんね?🤔
0
WillLopez
21 de Abril de 2025 à0 00:00:00 GMT
오픈AI가 저작권 있는 자료를 사용해 AI를 훈련했다는 연구는 정말 충격적이에요! 창작자들에게는 안타까운 일이지만, AI가 어떻게 훈련되는지 아는 건 흥미로워요. 오픈AI가 더 투명해져야 할까요? 🤔
0
JamesMiller
11 de Abril de 2025 à0 00:00:00 GMT
Esse estudo sobre a OpenAI usando material com direitos autorais é bem revelador! É uma pena para os criadores, mas também fascinante ver como o AI é treinado. Faz você se perguntar o que mais está por aí que não sabemos. Talvez a OpenAI devesse ser mais transparente? 🤔
0
BruceSmith
13 de Abril de 2025 à0 00:00:00 GMT
Este estudio sobre OpenAI usando material con derechos de autor es bastante revelador. Es una lástima para los creadores, pero también fascinante ver cómo se entrena la IA. Te hace preguntarte qué más hay por ahí que no sabemos. ¿Quizás OpenAI debería ser más transparente? 🤔
0
JohnWilson
18 de Abril de 2025 à0 00:00:00 GMT
This study on OpenAI's models using copyrighted content is kinda scary! 😱 I mean, it's cool how smart AI is getting, but it feels wrong if they're just copying books and code without asking. Hope they sort it out soon! 🤞
0
Um estudo recente sugere que o OpenAI pode realmente ter usado material protegido por direitos autorais para treinar alguns de seus modelos de IA, adicionando combustível às batalhas legais em andamento que a empresa enfrenta. Autores, programadores e outros criadores de conteúdo acusaram o OpenAI de usar seus trabalhos - como livros e código - sem permissão para desenvolver seus modelos de IA. Enquanto o OpenAI se defendeu ao reivindicar uso justo, os demandantes argumentam que a lei de direitos autorais dos EUA não fornece uma exceção para o treinamento de dados.
O estudo, uma colaboração entre pesquisadores da Universidade de Washington, da Universidade de Copenhague e Stanford, apresenta uma nova técnica para detectar dados de treinamento "memorizados" em modelos acessados por meio de uma API, como os do OpenAI. Os modelos de IA aprendem essencialmente com vastas quantidades de dados para reconhecer padrões, permitindo que eles criem ensaios, imagens e muito mais. Embora a maioria dos resultados não seja cópia direta dos dados de treinamento, alguns inevitavelmente se devem ao processo de aprendizado. Por exemplo, são conhecidos modelos de imagens por reproduzir capturas de tela de filmes, enquanto os modelos de idiomas foram pegos essencialmente plagiando artigos de notícias.
O método descrito no estudo concentra-se em palavras "de alta sobrevivência"-palavras incomuns em um determinado contexto. Por exemplo, na frase "Jack e eu nos sentamos perfeitamente imóveis com o zumbido do radar", "Radar" seria uma palavra de alta sobrevivência, porque é menos esperada do que palavras como "mecanismo" ou "rádio" para preceder "zumbido".
Os pesquisadores testaram vários modelos Openai, incluindo GPT-4 e GPT-3.5, removendo palavras de alta sobrevivência de trechos de livros de ficção e artigos do New York Times e pedindo aos modelos que prevejam essas palavras que faltam. Se os modelos adivinhassem com precisão as palavras, sugeriu que elas haviam memorizado o texto durante o treinamento.
Abhilasha Ravichander, estudante de doutorado da Universidade de Washington e co-autora do estudo, enfatizou a TechCrunch que essas descobertas destacam os "dados controversos" que poderiam ter sido usados para treinar esses modelos. "Para ter grandes modelos de idiomas confiáveis, precisamos ter modelos que possamos investigar e auditar e examinar cientificamente", afirmou Ravichander. "Nosso trabalho visa fornecer uma ferramenta para investigar grandes modelos de linguagem, mas há uma necessidade real de maior transparência de dados em todo o ecossistema".
O OpenAI pressionou para regras mais relaxadas sobre o uso de dados protegidos por direitos autorais para desenvolver modelos de IA. Embora a empresa possua alguns acordos de licenciamento de conteúdo e ofereça opções de exclusão para detentores de direitos autorais, ela fez vários governos para estabelecer regras de "uso justo" especificamente para o treinamento de IA.




This study about OpenAI using copyrighted material is pretty eye-opening! I mean, it's kind of a bummer for creators, but also fascinating to see how AI is trained. It makes you wonder what else is out there that we don't know about. Maybe OpenAI should start being more transparent? 🤔




OpenAIが著作権付きの資料を使ってAIを訓練しているという研究は本当に驚きですね!クリエイターにとっては残念ですが、AIの訓練方法について知るのは面白いです。もっと透明性が必要かもしれませんね?🤔




오픈AI가 저작권 있는 자료를 사용해 AI를 훈련했다는 연구는 정말 충격적이에요! 창작자들에게는 안타까운 일이지만, AI가 어떻게 훈련되는지 아는 건 흥미로워요. 오픈AI가 더 투명해져야 할까요? 🤔




Esse estudo sobre a OpenAI usando material com direitos autorais é bem revelador! É uma pena para os criadores, mas também fascinante ver como o AI é treinado. Faz você se perguntar o que mais está por aí que não sabemos. Talvez a OpenAI devesse ser mais transparente? 🤔




Este estudio sobre OpenAI usando material con derechos de autor es bastante revelador. Es una lástima para los creadores, pero también fascinante ver cómo se entrena la IA. Te hace preguntarte qué más hay por ahí que no sabemos. ¿Quizás OpenAI debería ser más transparente? 🤔




This study on OpenAI's models using copyrighted content is kinda scary! 😱 I mean, it's cool how smart AI is getting, but it feels wrong if they're just copying books and code without asking. Hope they sort it out soon! 🤞












