选项
首页
新闻
“发布的2024年AI责任报告”

“发布的2024年AI责任报告”

2025-04-10
143

“发布的2024年AI责任报告”

两年前,我们分享了推动人工智能发展以造福社会并激发创新的愿景。就在几周前,我们发布了2024年更新,展示了我们取得的进展。从提升创造力的尖端模型到人工智能驱动的生物学、健康研究和神经科学突破,我们正在掀起波澜。

但大胆推进人工智能意味着从一开始就要负责任。这就是为什么我们的人工智能方法始终致力于理解并应对其对人们的广泛影响。早在2018年,我们就率先制定了人工智能原则,并从2019年起发布年度透明度报告。我们一直在调整我们的政策、实践和框架,以跟上时代步伐。

2024年负责任人工智能进展报告

我们的第六份年度负责任人工智能进展报告深入探讨了我们在整个开发过程中如何处理人工智能风险。它展示了我们在过去一年为人工智能产品发布建立治理结构方面取得的进展。

我们比以往任何时候都投入更多资源,用于人工智能研究和产品,以帮助个人和社会,同时关注人工智能安全并研究潜在风险。

去年的报告重点介绍了我们团队在责任和安全方面的300多篇研究论文、人工智能政策的更新,以及我们从红队测试和针对安全、隐私和安全基准的评估中获得的经验教训。我们还在不同人工智能发布中取得了风险缓解的进展,改进了安全调整和过滤器、安全和隐私控制,在我们的产品中使用来源技术,并推动更广泛的人工智能素养普及。整个2024年,我们还通过资助、工具和标准制定支持了更广泛的人工智能社区,详见报告。

前沿安全框架的更新

随着人工智能不断发展,新功能可能带来新风险。这就是为什么我们去年推出了前沿安全框架的首个版本——一套协议,帮助我们掌控来自强大前沿人工智能模型的潜在风险。我们与来自行业、学术界和政府的专家合作,以更好地理解这些风险,如何测试它们,以及如何缓解它们。

我们还将该框架应用于Google DeepMind的安全和治理流程,用于评估像Gemini 2.0这样的前沿模型。今天,我们发布了更新的前沿安全框架,包括:

  • 加强安全性的建议:明确指出我们需要在哪些方面加强努力以防止数据泄露。
  • 部署缓解程序:专注于阻止关键系统能力的滥用。
  • 欺骗性对齐风险:应对自主系统故意削弱人类控制的风险。

您可以在Google DeepMind博客上深入了解详情。

更新人工智能原则

自2018年首次发布人工智能原则以来,人工智能技术发展迅猛。现在,数十亿人每天都在使用人工智能。它已成为一种主流技术,无数组织和个人用来构建应用程序的平台。人工智能已从实验室中的小众话题发展成为像手机和互联网一样广泛的技术,为全球社会和个人带来了诸多有益用途,并由蓬勃发展的人工智能开发者生态系统支持。

拥有共同的基础原则对这一演变至关重要。不仅是人工智能公司和学术机构,我们看到全球在人工智能原则上取得的进展。G7、国际标准化组织以及多个民主国家都提出了指导人工智能安全开发和使用的框架。越来越多的组织和政府使用这些共同标准来确定如何构建、监管和部署这一不断演变的技术——例如,我们的负责任人工智能进展报告现在遵循美国的NIST风险管理框架。我们多年的经验和研究,以及我们与其他人工智能公司分享的威胁情报、专长和最佳实践,使我们对人工智能的潜力与风险有了更深的理解。

在日益复杂的全球地缘政治格局中,人工智能领导权的全球竞争正在加剧。我们相信,民主国家应在人工智能发展中发挥引领作用,以自由、平等和尊重人权等核心价值观为指导。我们认为,共享这些价值观的公司、政府和组织应携手合作,创造保护人民、促进全球增长并支持国家安全的人工智能。

基于此,我们正在更新我们的人工智能原则,聚焦于三个核心原则:

  • 大胆创新:我们开发人工智能以帮助、赋能和激励几乎每个领域的人们,推动经济进步,改善生活,实现科学突破,并应对人类的重大挑战。
  • 负责任的开发与部署:我们认识到,作为一种新兴的变革性技术,人工智能带来了新的复杂性和风险。因此,我们致力于在整个开发和部署生命周期中负责任地追求人工智能——从设计到测试、部署再到迭代——随着人工智能的进步及其用途的演变不断学习。
  • 共同协作进步:我们向他人学习,并构建赋能他人积极使用人工智能的技术。

您可以在AI.google上查看我们完整的人工智能原则。

在人工智能原则的指导下,我们将继续专注于与我们的使命、科学重点和专长领域相一致的人工智能研究和应用,并与国际法和人权的广泛接受原则保持一致——始终通过仔细评估特定工作的益处是否大幅超过潜在风险来进行评估。我们还将考虑我们的参与是否需要定制研发,还是可以依赖通用的、广泛可用的技术。随着人工智能越来越多地被众多组织和政府开发,用于医疗、科学、机器人、cybersecurity、交通、国家安全、能源、气候等领域,这些评估至关重要。

当然,除了原则之外,我们还继续制定具体的产品政策和明确的条款,禁止非法使用我们的服务。

前方的机遇

我们知道,底层技术以及围绕人工智能进步、部署和使用的讨论将持续快速发展,我们将不断适应和完善我们的方法,随着时间的推移不断学习。

随着我们尤其看到AGI(通用人工智能)越来越清晰,其社会影响变得极其深远。这不仅仅是开发强大的人工智能,而是构建人类历史上最具变革性的技术,用它来解决人类的重大挑战,并确保适当的防护措施和治理机制到位,以造福世界。我们将继续分享我们在这一旅程中的进展和发现,并期待随着我们越来越接近AGI而不断演变我们的思考。

展望未来,我们相信,过去一年我们在治理和其他流程上的改进、新的前沿安全框架以及我们的人工智能原则,使我们为人工智能转型的下一阶段做好了充分准备。人工智能助力和改善全球人民生活的机遇是我们这项工作的终极驱动力,我们将继续追求大胆、负责任和协作的人工智能方法。

相关文章
"Dot AI伴侣应用程序宣布关闭,停止个性化服务 Dot 是一款人工智能伴侣应用程序,旨在充当个人朋友和知己,根据其开发者周五发布的公告,Dot 将停止运营。Dot背后的初创公司New Computer在其网站上表示,该服务将持续到10月5日,以便用户有时间导出个人数据。今年早些时候,联合创始人山姆-惠特莫尔(Sam Whitmore)和前苹果设计专家杰森-袁(Jason Yuan)合作推出了这款应用程序。Dot 进入了日益受到关注的情感人工智能
Anthropic 解决了人工智能生成盗版图书的法律案件 Anthropic 解决了人工智能生成盗版图书的法律案件 Anthropic公司与美国作家达成了一项重要的版权纠纷解决方案,同意拟议的集体诉讼和解,避免了可能代价高昂的审判。本周二在法庭文件中提交的这份协议源于对这家人工智能公司使用盗版文学作品训练克劳德模型的指控。尽管此案源于作家安德烈娅-巴茨(Andrea Bartz)、查尔斯-格雷伯(Charles Graeber)和柯克-华莱士-约翰逊(Kirk Wallace Johnson)的指控,但和解细节
Figma 向所有用户发布人工智能驱动的应用程序生成工具 Figma 向所有用户发布人工智能驱动的应用程序生成工具 Figma Make 是今年早些时候推出的创新型提示到应用开发平台,现已正式退出测试版,并向所有用户推出。这一开创性的工具加入了人工智能编码助手的行列,如谷歌的 Gemini Code Assist 和微软的 GitHub Copilot,使创作者能够将自然语言描述转化为功能原型和应用程序,而无需传统的编程专业知识。Figma Make 最初在测试阶段只对高级 "全席 "用户开放,现在对所有账户类
评论 (35)
0/200
ThomasRoberts
ThomasRoberts 2025-09-02 06:30:32

這報告提到的AI在生物學突破蠻吸引人,但不知道這些技術何時能真正落地幫助病患...希望別像之前有些醫療AI那樣雷聲大雨點小 🧐

LawrencePerez
LawrencePerez 2025-08-17 03:01:01

This report sounds like a big step forward! I'm amazed at how AI is transforming biology and health research. Can't wait to see what new doors this opens! 😎

RoyMitchell
RoyMitchell 2025-08-07 21:00:59

Wow, the 2024 AI Responsibility Report sounds like a big leap! I'm amazed at how AI's pushing boundaries in health and creativity. But, like, are we sure it’s all safe? 🤔 Excited to see where this goes!

JustinMitchell
JustinMitchell 2025-07-28 09:20:02

Wow, the 2024 AI Responsibility Report sounds like a big leap forward! I'm amazed at how AI is diving into biology and health research. Makes me wonder what crazy breakthroughs we'll see next. 🤯 Any chance we'll get AI doctors soon?

ScottWalker
ScottWalker 2025-07-28 09:19:05

This report sounds like a big step forward! I'm amazed at how AI is transforming biology and health research. Can't wait to see what new breakthroughs come next. 😎

LawrenceJones
LawrenceJones 2025-04-19 07:05:22

¡El Informe de Responsabilidad de IA de 2024 es impresionante! Es increíble ver cómo la IA está empujando los límites en salud y biología. Pero, desearía que hubiera más sobre cómo están abordando los problemas éticos. Aún así, es un paso sólido hacia adelante. Sigan con el buen trabajo, y tal vez la próxima vez profundicen más en la ética? 🌟

返回顶部
OR