亿万富翁讨论在本周AI更新中自动化取代工作
大家好,欢迎回到TechCrunch的AI简讯!如果您尚未订阅,可以在这里注册,每周三直接送达您的收件箱。
我们上周稍作休息,但原因充分——AI新闻热潮不断,很大程度上得益于中国AI公司DeepSeek的突然崛起。真是风起云涌,但我们现在回来了,正好赶上为您更新OpenAI的最新动态。
周末,OpenAI首席执行官Sam Altman在东京停留,与软银集团的掌门人孙正义会面。软银是OpenAI的大投资者,承诺为美国的一个大型数据中心项目提供资金支持。因此,Altman抽时间与孙正义会谈并不令人意外。
他们谈了什么?据报道,讨论的焦点是AI“代理”以及它们如何优化工作流程。孙正义抛出了一个重磅消息,宣布软银计划每年在OpenAI产品上投入高达30亿美元。他们还合作打造一个名为“Cristal Intelligence”的项目,旨在自动化数百万白领工作岗位。
“通过自动化和自主化所有任务和工作流程,软银公司将转变其业务和服务,创造新的价值,”软银在周一的新闻发布会上声明。
参加TechCrunch Sessions: AI展览
在TC Sessions: AI锁定您的展位,向1200多名决策者展示您的成果,且无需倾家荡产。展位名额截至5月9日或展台售罄为止。
参加TechCrunch Sessions: AI展览
在TC Sessions: AI锁定您的展位,向1200多名决策者展示您的成果,且无需倾家荡产。展位名额截至5月9日或展台售罄为止。
加州伯克利 | 6月5日 立即预订
但让我们退一步,从人的角度思考这一切。当Klarna的首席执行官Sebastian Siemiatkowski夸耀AI取代人类,孙正义也表达类似观点时,很容易被财富和效率的愿景所吸引。但那些可能因此失业的工人怎么办?这颗苦果难以咽下,尤其是当AI的领军者似乎更关注企业利益而非员工影响时。
这有点令人沮丧,对吧?像OpenAI这样的公司和软银这样的投资者正在塑造AI的未来,但他们在聚光灯下却大谈自动化业务和减少员工数量。我明白,他们是企业,不是慈善机构,AI开发成本高昂。但如果他们能多一点关注人的因素,或许人们会更信任AI。
值得深思。
新闻
- 深入研究:OpenAI推出了一种新的AI“代理”,旨在帮助您使用ChatGPT深入研究复杂问题。
- O3-mini:在其他OpenAI新闻中,他们推出了o3-mini,一种新的AI“推理”模型。它不是最强大的,但效率更高、速度更快。
- 欧盟禁止高风险AI:自周日起,欧盟可禁止构成“不可接受风险”或造成伤害的AI系统,包括用于社会评分和潜意识广告的系统。
- 关于AI“末日论者”的戏剧:一部新戏剧探讨了AI“末日论者”文化,灵感来源于去年11月Sam Altman短暂被OpenAI驱逐的事件。我的同事Dominic和Rebecca在首映后分享了他们的看法。
- 提升作物产量的技术:Google的X“登月工厂”推出了Heritable Agriculture,一家利用数据和机器学习提高作物产量的初创公司。
本周研究论文
推理模型在解决科学和数学等难题方面表现出色,但并非完美。来自腾讯的研究人员的一项研究探讨了这些模型的“思考不足”问题,即它们过早放弃有前景的思路。研究发现,这种情况在更复杂的问题上更常见,导致模型在不同思路间跳跃而无法得出结论。
研究人员提出了一种“思路切换惩罚”机制,鼓励模型在转向新思路前充分探索每条推理路径,这有望提高准确性。
本周模型
图片来源:YuE
由TikTok的字节跳动、中国AI公司Moonshot等支持的团队发布了YuE,这是一种新的开源模型,可根据提示生成高质量音乐。它可以创作几分钟长的歌曲,包含人声和伴奏,采用Apache 2.0许可证,免费用于商业用途。
但也有一些限制。运行YuE需要强大的GPU——使用Nvidia RTX 4090生成30秒歌曲需要六分钟。此外,模型训练是否使用了受版权保护的数据尚不确定,这可能引发未来的知识产权问题。
杂锦
图片来源:Anthropic
Anthropic声称开发了一种名为Constitutional Classifiers的新技术,以更好地防止AI“越狱”。它使用两组分类器模型:一组用于输入,一组用于输出。输入分类器为受保护模型添加提示以标记潜在越狱行为,输出分类器则检查回复中是否有害内容。
Anthropic表示,这种方法可以捕捉大多数越狱行为,但也有缺点。每次查询的计算强度增加25%,且受保护模型对无害问题的响应概率略有下降。
相关文章
"Dot AI伴侣应用程序宣布关闭,停止个性化服务
Dot 是一款人工智能伴侣应用程序,旨在充当个人朋友和知己,根据其开发者周五发布的公告,Dot 将停止运营。Dot背后的初创公司New Computer在其网站上表示,该服务将持续到10月5日,以便用户有时间导出个人数据。今年早些时候,联合创始人山姆-惠特莫尔(Sam Whitmore)和前苹果设计专家杰森-袁(Jason Yuan)合作推出了这款应用程序。Dot 进入了日益受到关注的情感人工智能
Anthropic 解决了人工智能生成盗版图书的法律案件
Anthropic公司与美国作家达成了一项重要的版权纠纷解决方案,同意拟议的集体诉讼和解,避免了可能代价高昂的审判。本周二在法庭文件中提交的这份协议源于对这家人工智能公司使用盗版文学作品训练克劳德模型的指控。尽管此案源于作家安德烈娅-巴茨(Andrea Bartz)、查尔斯-格雷伯(Charles Graeber)和柯克-华莱士-约翰逊(Kirk Wallace Johnson)的指控,但和解细节
Figma 向所有用户发布人工智能驱动的应用程序生成工具
Figma Make 是今年早些时候推出的创新型提示到应用开发平台,现已正式退出测试版,并向所有用户推出。这一开创性的工具加入了人工智能编码助手的行列,如谷歌的 Gemini Code Assist 和微软的 GitHub Copilot,使创作者能够将自然语言描述转化为功能原型和应用程序,而无需传统的编程专业知识。Figma Make 最初在测试阶段只对高级 "全席 "用户开放,现在对所有账户类
评论 (2)
0/200
JonathanMiller
2025-09-29 12:30:35
Also die Milliardäre diskutieren wieder über Arbeitsplatz-Automatisierung...das ist ja total neu und überraschend! 😒 Vielleicht sollten die mal mit Leuten reden, die tatsächlich von diesem Wandel betroffen sind, statt nur in ihren Elfenbeintürmen zu schwadronieren.
0
BillyRoberts
2025-07-28 09:19:05
Wow, automating jobs away? Billionaires chatting about AI taking over is wild! 😲 Feels like we're in a sci-fi flick, but I wonder if they’re thinking about the folks losing jobs. Hope there’s a plan for that!
0
大家好,欢迎回到TechCrunch的AI简讯!如果您尚未订阅,可以在这里注册,每周三直接送达您的收件箱。
我们上周稍作休息,但原因充分——AI新闻热潮不断,很大程度上得益于中国AI公司DeepSeek的突然崛起。真是风起云涌,但我们现在回来了,正好赶上为您更新OpenAI的最新动态。
周末,OpenAI首席执行官Sam Altman在东京停留,与软银集团的掌门人孙正义会面。软银是OpenAI的大投资者,承诺为美国的一个大型数据中心项目提供资金支持。因此,Altman抽时间与孙正义会谈并不令人意外。
他们谈了什么?据报道,讨论的焦点是AI“代理”以及它们如何优化工作流程。孙正义抛出了一个重磅消息,宣布软银计划每年在OpenAI产品上投入高达30亿美元。他们还合作打造一个名为“Cristal Intelligence”的项目,旨在自动化数百万白领工作岗位。
“通过自动化和自主化所有任务和工作流程,软银公司将转变其业务和服务,创造新的价值,”软银在周一的新闻发布会上声明。
参加TechCrunch Sessions: AI展览
在TC Sessions: AI锁定您的展位,向1200多名决策者展示您的成果,且无需倾家荡产。展位名额截至5月9日或展台售罄为止。
参加TechCrunch Sessions: AI展览
在TC Sessions: AI锁定您的展位,向1200多名决策者展示您的成果,且无需倾家荡产。展位名额截至5月9日或展台售罄为止。
加州伯克利 | 6月5日 立即预订
但让我们退一步,从人的角度思考这一切。当Klarna的首席执行官Sebastian Siemiatkowski夸耀AI取代人类,孙正义也表达类似观点时,很容易被财富和效率的愿景所吸引。但那些可能因此失业的工人怎么办?这颗苦果难以咽下,尤其是当AI的领军者似乎更关注企业利益而非员工影响时。
这有点令人沮丧,对吧?像OpenAI这样的公司和软银这样的投资者正在塑造AI的未来,但他们在聚光灯下却大谈自动化业务和减少员工数量。我明白,他们是企业,不是慈善机构,AI开发成本高昂。但如果他们能多一点关注人的因素,或许人们会更信任AI。
值得深思。
新闻
- 深入研究:OpenAI推出了一种新的AI“代理”,旨在帮助您使用ChatGPT深入研究复杂问题。
- O3-mini:在其他OpenAI新闻中,他们推出了o3-mini,一种新的AI“推理”模型。它不是最强大的,但效率更高、速度更快。
- 欧盟禁止高风险AI:自周日起,欧盟可禁止构成“不可接受风险”或造成伤害的AI系统,包括用于社会评分和潜意识广告的系统。
- 关于AI“末日论者”的戏剧:一部新戏剧探讨了AI“末日论者”文化,灵感来源于去年11月Sam Altman短暂被OpenAI驱逐的事件。我的同事Dominic和Rebecca在首映后分享了他们的看法。
- 提升作物产量的技术:Google的X“登月工厂”推出了Heritable Agriculture,一家利用数据和机器学习提高作物产量的初创公司。
本周研究论文
推理模型在解决科学和数学等难题方面表现出色,但并非完美。来自腾讯的研究人员的一项研究探讨了这些模型的“思考不足”问题,即它们过早放弃有前景的思路。研究发现,这种情况在更复杂的问题上更常见,导致模型在不同思路间跳跃而无法得出结论。
研究人员提出了一种“思路切换惩罚”机制,鼓励模型在转向新思路前充分探索每条推理路径,这有望提高准确性。
本周模型
图片来源:YuE
由TikTok的字节跳动、中国AI公司Moonshot等支持的团队发布了YuE,这是一种新的开源模型,可根据提示生成高质量音乐。它可以创作几分钟长的歌曲,包含人声和伴奏,采用Apache 2.0许可证,免费用于商业用途。
但也有一些限制。运行YuE需要强大的GPU——使用Nvidia RTX 4090生成30秒歌曲需要六分钟。此外,模型训练是否使用了受版权保护的数据尚不确定,这可能引发未来的知识产权问题。
杂锦
图片来源:Anthropic
Anthropic声称开发了一种名为Constitutional Classifiers的新技术,以更好地防止AI“越狱”。它使用两组分类器模型:一组用于输入,一组用于输出。输入分类器为受保护模型添加提示以标记潜在越狱行为,输出分类器则检查回复中是否有害内容。
Anthropic表示,这种方法可以捕捉大多数越狱行为,但也有缺点。每次查询的计算强度增加25%,且受保护模型对无害问题的响应概率略有下降。



Also die Milliardäre diskutieren wieder über Arbeitsplatz-Automatisierung...das ist ja total neu und überraschend! 😒 Vielleicht sollten die mal mit Leuten reden, die tatsächlich von diesem Wandel betroffen sind, statt nur in ihren Elfenbeintürmen zu schwadronieren.




Wow, automating jobs away? Billionaires chatting about AI taking over is wild! 😲 Feels like we're in a sci-fi flick, but I wonder if they’re thinking about the folks losing jobs. Hope there’s a plan for that!












