开放的小语言模型,用于负责任的,实用的AI
地缘政治对人工智能发展和使用的影
随着全球事件持续塑造世界,技术领域尤其是人工智能市场不可避免地受到影响。这种影响涉及人工智能的开发、方法论及在企业中的应用。当前人工智能领域充满兴奋与怀疑,一些人拥抱其潜力,另一些人因其早期发展阶段保持谨慎。
传统的闭环大型语言模型(LLMs),如知名供应商提供的模型,正面临来自更开放模型的竞争,如Llama、DeepSeek和百度的Ernie X1。相比之下,开源开发提供了透明度和社区贡献机会,符合“负责任人工智能”的理念。这种方法考虑了环境影响、使用伦理、学习数据来源以及数据主权、语言和政治相关问题。
以成功开源商业模式闻名的Red Hat,热衷于将协作和透明的方法应用于人工智能。在与Red Hat EMEA首席技术官Julio Guijarro的近期对话中,我们讨论了他们如何以负责任和可持续的方式利用生成式人工智能为企业增加价值的策略。
教育与透明度的需求
Julio强调了人工智能教育的重要性,指出其复杂性常使其对许多人来说是个“黑盒”。“人工智能的内在机制深深植根于复杂的科学和数学,很大程度上仍不为人知,”他说。“当人工智能在封闭环境中开发时,这种透明度不足问题更加严重。”
其他挑战包括某些语言的代表性不足、数据主权问题和信任问题。Julio指出:“数据是组织最宝贵的资产,企业必须意识到将敏感数据暴露给具有不同隐私政策的公共平台的风险。”
Red Hat的人工智能方法
Red Hat应对全球人工智能需求的方法,专注于为终端用户提供利益,同时解决与传统人工智能服务相关的疑虑和限制。Julio强调了小型语言模型(SLMs)的潜力。这些模型可在本地或混合云上运行,使用非专用硬件,并可访问本地业务数据。SLM高效且任务特定,所需资源比LLM少。
SLM的关键优势之一是能够跟上快速变化的业务数据。“大型语言模型可能很快过时,因为数据生成发生在大云之外,紧邻您的业务流程,”Julio解释说。
成本是另一个关键因素。“使用LLM的客户服务查询可能会产生显著的隐性成本,”Julio说。“在人工智能之前,数据查询的范围和成本是可预测的。使用LLM,每次交互都可能增加成本,因为它们基于迭代模型运行。本地运行模型可以更好地控制成本,因为它们与您的基础设施相关,而不是按查询收费。”
幸运的是,组织无需大量投资于GPU等专用硬件。Red Hat致力于优化模型以在标准硬件上运行,专注于企业所需的具体模型,而不是处理大型通用数据集的每次查询。
小型本地化模型的重要性
通过使用和引用本地数据,结果可定制以满足特定需求。Julio提到了阿拉伯语和葡萄牙语地区项目,这些地区未被以英语为中心的大型语言模型很好服务。
大型语言模型存在实际挑战,包括可能影响时间敏感或面向客户应用的延迟问题。将资源和结果保持在用户附近可缓解这些问题。
信任是负责任人工智能的另一个关键方面。Red Hat倡导开放平台、工具和模型,以提高透明度并允许更广泛的社区参与。“这对每个人都至关重要,”Julio说。“我们正在构建能力以民主化人工智能,不仅通过发布模型,还通过提供工具让用户复制、调整和提供服务。”
Red Hat最近收购Neural Magic,旨在帮助企业更轻松地扩展人工智能,提高推理性能,并通过vLLM项目提供更多构建和部署人工智能工作负载的选择。此外,Red Hat与IBM Research合作发布了InstructLab,将人工智能开发开放给具有宝贵业务知识的非数据科学家。
人工智能的未来
尽管对人工智能泡沫存在诸多猜测,Red Hat相信人工智能的未来将针对特定用例定制,并保持开源。这种方法将在经济上可行且对所有人可访问。正如Red Hat首席执行官Matt Hicks所说:“人工智能的未来是开放的。”
相关文章
人工智能为何在 2025 年得克萨斯州洪灾中失灵?灾难应对的重要经验
以下是改写后的版本:2025 年的得克萨斯洪灾:警钟2025 年 7 月,得克萨斯州遭遇了灾难性的洪水,暴露出备灾工作中的重大漏洞。瓜达卢佩河(Guadalupe River)的水位迅速从 3 英尺猛涨至 34 英尺,令各社区猝不及防,洪水席卷了沿途的一切。德克萨斯州中部地区在短短三个小时内降雨量超过 10 英寸--这是一场前所未有的大洪水,干旱贫瘠的土壤根本无法吸收。凯尔维尔遭受的影响最为严重,
获取 TechCrunch 会议折扣门票的最后机会:明天的人工智能活动
这不是一次普通的技术会议--加州大学伯克利分校的泽勒巴赫大厅(Zellerbach Hall)即将举办本年度最重要的人工智能会议。明天,当大会的大门打开时,你一定想成为塑造人工智能未来的精选群体中的一员。为什么这次人工智能大会与众不同TechCrunch 会议:人工智能穿透嘈杂的声音,从人工智能驱动的未来架构师那里获得真正的见解。我们将把打造未来技术的远见卓识者、推动创新的投资者和突破极限的研究人
人工智能驱动的时事通讯自动化指南:轻松简化工作流程
以下是我重写的 HTML 内容,同时严格保留了所有原始标记和结构:Key Points 使用 Make、Notion 和 0CodeKit 解决方案实施自动化时事通讯工作流程。 以编程方式收集内容灵感并自动生成转录。 利用 GPT-4o 的功能进行总结、编写引人注目的主题行和专业的时事通讯内容。 建立完全免提系统,收回宝贵的工作时间。 无需专职人员,从而降低运营成本。设置您的时事通讯自动化系统
评论 (13)
0/200
JohnWilson
2025-08-26 07:01:20
This article on small language models is super intriguing! I love how it dives into geopolitics shaping AI—makes me wonder how global policies will steer practical AI use in businesses. 🤔
0
ThomasHernández
2025-08-25 13:00:59
This article on small language models is super intriguing! I love how it dives into practical AI solutions. Makes me wonder how enterprises will balance efficiency and ethics in AI deployment. Anyone else thinking about the real-world impact? 😄
0
AlbertScott
2025-08-25 10:39:46
This article on small language models is super intriguing! 😄 I love how it dives into practical AI with a responsible twist. Makes me wonder if we'll see more companies adopt this approach to dodge ethical pitfalls.
0
WillieMartinez
2025-04-26 15:27:01
Red Hat's focus on open, small language models is refreshing! It's great to see a company pushing for responsible AI. The practical applications are impressive, but I wish there were more examples to learn from. Still, it's a step in the right direction. Keep it up, Red Hat! 🌟
0
GregoryJones
2025-04-26 14:05:13
Red Hatのオープンで小規模な言語モデルへの焦点は新鮮です!責任あるAIを推進する企業を見るのは素晴らしいです。実用的な応用は印象的ですが、学ぶための例がもっと欲しいです。それでも、正しい方向への一歩です。頑張ってください、Red Hat!🌟
0
NicholasLewis
2025-04-26 10:40:08
A abordagem da Red Hat com modelos de linguagem pequenos para IA responsável é muito legal! É ótimo ver esforços em direção a uma IA prática que considera influências geopolíticas. No entanto, a aplicação dentro das empresas poderia ser mais detalhada. Ainda assim, um passo na direção certa! 👍
0
地缘政治对人工智能发展和使用的影
随着全球事件持续塑造世界,技术领域尤其是人工智能市场不可避免地受到影响。这种影响涉及人工智能的开发、方法论及在企业中的应用。当前人工智能领域充满兴奋与怀疑,一些人拥抱其潜力,另一些人因其早期发展阶段保持谨慎。
传统的闭环大型语言模型(LLMs),如知名供应商提供的模型,正面临来自更开放模型的竞争,如Llama、DeepSeek和百度的Ernie X1。相比之下,开源开发提供了透明度和社区贡献机会,符合“负责任人工智能”的理念。这种方法考虑了环境影响、使用伦理、学习数据来源以及数据主权、语言和政治相关问题。
以成功开源商业模式闻名的Red Hat,热衷于将协作和透明的方法应用于人工智能。在与Red Hat EMEA首席技术官Julio Guijarro的近期对话中,我们讨论了他们如何以负责任和可持续的方式利用生成式人工智能为企业增加价值的策略。
教育与透明度的需求
Julio强调了人工智能教育的重要性,指出其复杂性常使其对许多人来说是个“黑盒”。“人工智能的内在机制深深植根于复杂的科学和数学,很大程度上仍不为人知,”他说。“当人工智能在封闭环境中开发时,这种透明度不足问题更加严重。”
其他挑战包括某些语言的代表性不足、数据主权问题和信任问题。Julio指出:“数据是组织最宝贵的资产,企业必须意识到将敏感数据暴露给具有不同隐私政策的公共平台的风险。”
Red Hat的人工智能方法
Red Hat应对全球人工智能需求的方法,专注于为终端用户提供利益,同时解决与传统人工智能服务相关的疑虑和限制。Julio强调了小型语言模型(SLMs)的潜力。这些模型可在本地或混合云上运行,使用非专用硬件,并可访问本地业务数据。SLM高效且任务特定,所需资源比LLM少。
SLM的关键优势之一是能够跟上快速变化的业务数据。“大型语言模型可能很快过时,因为数据生成发生在大云之外,紧邻您的业务流程,”Julio解释说。
成本是另一个关键因素。“使用LLM的客户服务查询可能会产生显著的隐性成本,”Julio说。“在人工智能之前,数据查询的范围和成本是可预测的。使用LLM,每次交互都可能增加成本,因为它们基于迭代模型运行。本地运行模型可以更好地控制成本,因为它们与您的基础设施相关,而不是按查询收费。”
幸运的是,组织无需大量投资于GPU等专用硬件。Red Hat致力于优化模型以在标准硬件上运行,专注于企业所需的具体模型,而不是处理大型通用数据集的每次查询。
小型本地化模型的重要性
通过使用和引用本地数据,结果可定制以满足特定需求。Julio提到了阿拉伯语和葡萄牙语地区项目,这些地区未被以英语为中心的大型语言模型很好服务。
大型语言模型存在实际挑战,包括可能影响时间敏感或面向客户应用的延迟问题。将资源和结果保持在用户附近可缓解这些问题。
信任是负责任人工智能的另一个关键方面。Red Hat倡导开放平台、工具和模型,以提高透明度并允许更广泛的社区参与。“这对每个人都至关重要,”Julio说。“我们正在构建能力以民主化人工智能,不仅通过发布模型,还通过提供工具让用户复制、调整和提供服务。”
Red Hat最近收购Neural Magic,旨在帮助企业更轻松地扩展人工智能,提高推理性能,并通过vLLM项目提供更多构建和部署人工智能工作负载的选择。此外,Red Hat与IBM Research合作发布了InstructLab,将人工智能开发开放给具有宝贵业务知识的非数据科学家。
人工智能的未来
尽管对人工智能泡沫存在诸多猜测,Red Hat相信人工智能的未来将针对特定用例定制,并保持开源。这种方法将在经济上可行且对所有人可访问。正如Red Hat首席执行官Matt Hicks所说:“人工智能的未来是开放的。”



This article on small language models is super intriguing! I love how it dives into geopolitics shaping AI—makes me wonder how global policies will steer practical AI use in businesses. 🤔




This article on small language models is super intriguing! I love how it dives into practical AI solutions. Makes me wonder how enterprises will balance efficiency and ethics in AI deployment. Anyone else thinking about the real-world impact? 😄




This article on small language models is super intriguing! 😄 I love how it dives into practical AI with a responsible twist. Makes me wonder if we'll see more companies adopt this approach to dodge ethical pitfalls.




Red Hat's focus on open, small language models is refreshing! It's great to see a company pushing for responsible AI. The practical applications are impressive, but I wish there were more examples to learn from. Still, it's a step in the right direction. Keep it up, Red Hat! 🌟




Red Hatのオープンで小規模な言語モデルへの焦点は新鮮です!責任あるAIを推進する企業を見るのは素晴らしいです。実用的な応用は印象的ですが、学ぶための例がもっと欲しいです。それでも、正しい方向への一歩です。頑張ってください、Red Hat!🌟




A abordagem da Red Hat com modelos de linguagem pequenos para IA responsável é muito legal! É ótimo ver esforços em direção a uma IA prática que considera influências geopolíticas. No entanto, a aplicação dentro das empresas poderia ser mais detalhada. Ainda assim, um passo na direção certa! 👍












