SoundCloud允许使用用户内容进行AI训练

SoundCloud 更新的使用条款:对 AI 训练的深入探讨
SoundCloud 最近修订了其使用条款,引入了一项条款,允许平台使用用户上传的音频来训练人工智能。此项变更悄无声息地实施,由技术伦理学家 Ed Newton-Rex 所揭示。更新后的条款自 2024 年 2 月 7 日起生效,明确表示用户同意其内容被用于“为人工智能或机器智能技术或服务提供信息、训练、开发或作为输入”,作为 SoundCloud 服务的一部分。
Newton-Rex 在社交媒体上表达了他的担忧,他说:“SoundCloud 似乎在其条款中声称有权训练人们上传的音乐。我认为他们需要就此做出重大回答。”他还指出,经检查 Wayback Machine 后,发现此变更于 2024 年 2 月 12 日出现在条款中。
例外情况和许可协议
更新后的条款包括了对由“单独协议”覆盖的内容的例外情况,例如与第三方权利持有者(如唱片公司)的协议。SoundCloud 已与多家独立唱片公司和主要音乐出版商(包括环球音乐和华纳音乐集团)建立了许可协议。这些协议似乎不在新的 AI 训练条款的范围内。
用户控制和退出选项
TechCrunch 的调查未在 SoundCloud 的网页设置菜单中找到明确的退出选项。平台未立即回应对此事的评论请求。
SoundCloud 对 AI 的更广泛接纳
SoundCloud 一直在增加 AI 在其服务中的整合。去年,该平台与近十家供应商合作,推出了用于混音、生成人声和创建自定义样本的 AI 驱动工具。在去年秋季的一篇博客文章中,SoundCloud 强调了其对伦理和透明的 AI 实践的承诺,确保权利持有者通过内容 ID 解决方案获得适当的认可和补偿。
行业趋势和用户反弹
SoundCloud 的举措与内容托管和社交媒体平台的更广泛趋势一致,这些平台最近更新了政策,允许对用户生成的内容进行 AI 训练。例如,X(前 Twitter)在 10 月更新了其隐私政策,允许外部公司对用户帖子进行 AI 训练,而 LinkedIn 在 9 月修改了其条款,允许为 AI 训练进行数据抓取。YouTube 在 12 月也紧随其后,允许第三方对用户剪辑进行 AI 训练。
这些变更引发了用户的强烈反弹,他们认为 AI 训练政策应当是选择加入而非退出。他们还要求对其对 AI 训练数据集的贡献给予认可和补偿。
SoundCloud 的回应
针对提出的担忧,SoundCloud 发言人通过电子邮件澄清了他们的立场。他们强调,SoundCloud 从未使用艺术家内容来训练 AI 模型,也不开发 AI 工具或允许第三方为 AI 训练进行数据抓取。他们已实施技术保障措施,包括在其网站上设置了“无 AI”标签,明确禁止未经授权的使用。
发言人解释说,2024 年 2 月的条款更新旨在澄清内容如何在 SoundCloud 自己的平台内与 AI 技术互动。用例包括个性化推荐、内容组织、欺诈检测和内容识别的改进。SoundCloud 未来任何 AI 的应用都将旨在支持人类艺术家,增强平台上可用的工具、能力、覆盖范围和机会。这些努力与现有的许可协议和伦理标准保持一致,像来自合作伙伴 Musiio 的工具被用于推动艺术家发现和内容组织,而不是训练生成性 AI 模型。
SoundCloud 致力于保持开放对话,确保艺术家对其作品保持控制。他们承诺在探索创新和负责任地应用 AI 技术时,保持与社区的沟通,特别是随着法律和商业框架的发展。
相关文章
优化AI模型选择以实现现实世界性能
企业必须确保其驱动应用的AI模型在现实世界场景中有效运行。预测这些场景可能具有挑战性,使评估复杂化。更新后的RewardBench 2基准为组织提供了更清晰的模型实际性能洞察。艾伦人工智能研究所(Ai2)推出了RewardBench 2,这是其RewardBench基准的增强版,旨在全面评估模型性能以及与企业目标的契合度。Ai2开发了RewardBench,包含分类任务,通过推理时计算和下游训练评
维德的旅程:从《星球大战》中的悲剧到救赎
达斯·维德,恐惧与暴政的象征,是电影中最具标志性的反派之一。然而,在面具之下隐藏着悲剧、失去和最终救赎的故事。本文探讨了安纳金·天行者转变为达斯·维德的过程,分析了《星球大战》系列中定义他道路的关键时刻、情感和选择。关键要点安纳金·天行者的早年和绝地训练受到情感挣扎和深厚依恋的塑造。他对失去亲人的恐惧和对控制的渴望使他落入帕尔帕廷皇帝的掌控。穆斯塔法之战给他留下了严重的身体和情感创伤,确立了他作为
前OpenAI工程师分享公司文化与快速增长的见解
三周前,为OpenAI关键产品做出贡献的工程师Calvin French-Owen离开公司。他最近发表了一篇引人入胜的博客,详细描述了在OpenAI的一年,包括开发Codex的紧张努力,Codex是一个与Cursor和Anthropic的Claude Code竞争的编码代理。French-Owen澄清,他的离开并非因内部冲突,而是源于回归创业生活的愿望。他之前共同创立了Segment,一家2020
评论 (9)
0/200
DanielLewis
2025-08-01 10:48:18
Wow, SoundCloud's AI training policy is wild! Using our uploads to teach bots feels like giving away my mixtape for free. 😅 Anyone else worried about their beats getting cloned by AI?
0
FrankClark
2025-07-28 09:20:54
Whoa, SoundCloud using our tracks to train AI? Kinda cool but also feels like my beats might end up in some robot’s playlist without credit. 😅 Curious how they’ll balance ethics with this one.
0
JimmyWhite
2025-07-28 09:20:02
Wow, SoundCloud using our tracks for AI training feels like a plot twist! 🤖 I'm curious how this'll shape the music scene—will AI start dropping better beats than us?
0
BenHernández
2025-05-23 04:46:07
SoundCloudがユーザーコンテンツでAIをトレーニングする新しいポリシーについて、どう感じるかわかりません。技術の境界を押し広げるのはいいけど、私の音楽を事前に聞かずにAIのトレーニングに使うのはちょっと怪しいですね。もっと透明性を持ってほしいです。🤔
0
JamesWalker
2025-05-22 22:42:23
Whoa, SoundCloud using our tracks to train AI? Kinda cool but also a bit sketchy. Wonder how they’ll handle privacy with this one. 🤔
0
JonathanKing
2025-05-22 21:43:09
La nueva política de SoundCloud sobre el entrenamiento de IA con contenido de usuario? No estoy seguro de cómo me siento al respecto. Es genial que estén empujando los límites de la tecnología, pero usar mi música para entrenar IA sin preguntarme primero? Eso es un poco sospechoso. Espero que sean más transparentes al respecto. 🤔
0
SoundCloud 更新的使用条款:对 AI 训练的深入探讨
SoundCloud 最近修订了其使用条款,引入了一项条款,允许平台使用用户上传的音频来训练人工智能。此项变更悄无声息地实施,由技术伦理学家 Ed Newton-Rex 所揭示。更新后的条款自 2024 年 2 月 7 日起生效,明确表示用户同意其内容被用于“为人工智能或机器智能技术或服务提供信息、训练、开发或作为输入”,作为 SoundCloud 服务的一部分。
Newton-Rex 在社交媒体上表达了他的担忧,他说:“SoundCloud 似乎在其条款中声称有权训练人们上传的音乐。我认为他们需要就此做出重大回答。”他还指出,经检查 Wayback Machine 后,发现此变更于 2024 年 2 月 12 日出现在条款中。
例外情况和许可协议
更新后的条款包括了对由“单独协议”覆盖的内容的例外情况,例如与第三方权利持有者(如唱片公司)的协议。SoundCloud 已与多家独立唱片公司和主要音乐出版商(包括环球音乐和华纳音乐集团)建立了许可协议。这些协议似乎不在新的 AI 训练条款的范围内。
用户控制和退出选项
TechCrunch 的调查未在 SoundCloud 的网页设置菜单中找到明确的退出选项。平台未立即回应对此事的评论请求。
SoundCloud 对 AI 的更广泛接纳
SoundCloud 一直在增加 AI 在其服务中的整合。去年,该平台与近十家供应商合作,推出了用于混音、生成人声和创建自定义样本的 AI 驱动工具。在去年秋季的一篇博客文章中,SoundCloud 强调了其对伦理和透明的 AI 实践的承诺,确保权利持有者通过内容 ID 解决方案获得适当的认可和补偿。
行业趋势和用户反弹
SoundCloud 的举措与内容托管和社交媒体平台的更广泛趋势一致,这些平台最近更新了政策,允许对用户生成的内容进行 AI 训练。例如,X(前 Twitter)在 10 月更新了其隐私政策,允许外部公司对用户帖子进行 AI 训练,而 LinkedIn 在 9 月修改了其条款,允许为 AI 训练进行数据抓取。YouTube 在 12 月也紧随其后,允许第三方对用户剪辑进行 AI 训练。
这些变更引发了用户的强烈反弹,他们认为 AI 训练政策应当是选择加入而非退出。他们还要求对其对 AI 训练数据集的贡献给予认可和补偿。
SoundCloud 的回应
针对提出的担忧,SoundCloud 发言人通过电子邮件澄清了他们的立场。他们强调,SoundCloud 从未使用艺术家内容来训练 AI 模型,也不开发 AI 工具或允许第三方为 AI 训练进行数据抓取。他们已实施技术保障措施,包括在其网站上设置了“无 AI”标签,明确禁止未经授权的使用。
发言人解释说,2024 年 2 月的条款更新旨在澄清内容如何在 SoundCloud 自己的平台内与 AI 技术互动。用例包括个性化推荐、内容组织、欺诈检测和内容识别的改进。SoundCloud 未来任何 AI 的应用都将旨在支持人类艺术家,增强平台上可用的工具、能力、覆盖范围和机会。这些努力与现有的许可协议和伦理标准保持一致,像来自合作伙伴 Musiio 的工具被用于推动艺术家发现和内容组织,而不是训练生成性 AI 模型。
SoundCloud 致力于保持开放对话,确保艺术家对其作品保持控制。他们承诺在探索创新和负责任地应用 AI 技术时,保持与社区的沟通,特别是随着法律和商业框架的发展。




Wow, SoundCloud's AI training policy is wild! Using our uploads to teach bots feels like giving away my mixtape for free. 😅 Anyone else worried about their beats getting cloned by AI?




Whoa, SoundCloud using our tracks to train AI? Kinda cool but also feels like my beats might end up in some robot’s playlist without credit. 😅 Curious how they’ll balance ethics with this one.




Wow, SoundCloud using our tracks for AI training feels like a plot twist! 🤖 I'm curious how this'll shape the music scene—will AI start dropping better beats than us?




SoundCloudがユーザーコンテンツでAIをトレーニングする新しいポリシーについて、どう感じるかわかりません。技術の境界を押し広げるのはいいけど、私の音楽を事前に聞かずにAIのトレーニングに使うのはちょっと怪しいですね。もっと透明性を持ってほしいです。🤔




Whoa, SoundCloud using our tracks to train AI? Kinda cool but also a bit sketchy. Wonder how they’ll handle privacy with this one. 🤔




La nueva política de SoundCloud sobre el entrenamiento de IA con contenido de usuario? No estoy seguro de cómo me siento al respecto. Es genial que estén empujando los límites de la tecnología, pero usar mi música para entrenar IA sin preguntarme primero? Eso es un poco sospechoso. Espero que sean más transparentes al respecto. 🤔












