开放的小语言模型,用于负责任的,实用的AI
地缘政治对人工智能发展和使用的影
随着全球事件持续塑造世界,技术领域尤其是人工智能市场不可避免地受到影响。这种影响涉及人工智能的开发、方法论及在企业中的应用。当前人工智能领域充满兴奋与怀疑,一些人拥抱其潜力,另一些人因其早期发展阶段保持谨慎。
传统的闭环大型语言模型(LLMs),如知名供应商提供的模型,正面临来自更开放模型的竞争,如Llama、DeepSeek和百度的Ernie X1。相比之下,开源开发提供了透明度和社区贡献机会,符合“负责任人工智能”的理念。这种方法考虑了环境影响、使用伦理、学习数据来源以及数据主权、语言和政治相关问题。
以成功开源商业模式闻名的Red Hat,热衷于将协作和透明的方法应用于人工智能。在与Red Hat EMEA首席技术官Julio Guijarro的近期对话中,我们讨论了他们如何以负责任和可持续的方式利用生成式人工智能为企业增加价值的策略。
教育与透明度的需求
Julio强调了人工智能教育的重要性,指出其复杂性常使其对许多人来说是个“黑盒”。“人工智能的内在机制深深植根于复杂的科学和数学,很大程度上仍不为人知,”他说。“当人工智能在封闭环境中开发时,这种透明度不足问题更加严重。”
其他挑战包括某些语言的代表性不足、数据主权问题和信任问题。Julio指出:“数据是组织最宝贵的资产,企业必须意识到将敏感数据暴露给具有不同隐私政策的公共平台的风险。”
Red Hat的人工智能方法
Red Hat应对全球人工智能需求的方法,专注于为终端用户提供利益,同时解决与传统人工智能服务相关的疑虑和限制。Julio强调了小型语言模型(SLMs)的潜力。这些模型可在本地或混合云上运行,使用非专用硬件,并可访问本地业务数据。SLM高效且任务特定,所需资源比LLM少。
SLM的关键优势之一是能够跟上快速变化的业务数据。“大型语言模型可能很快过时,因为数据生成发生在大云之外,紧邻您的业务流程,”Julio解释说。
成本是另一个关键因素。“使用LLM的客户服务查询可能会产生显著的隐性成本,”Julio说。“在人工智能之前,数据查询的范围和成本是可预测的。使用LLM,每次交互都可能增加成本,因为它们基于迭代模型运行。本地运行模型可以更好地控制成本,因为它们与您的基础设施相关,而不是按查询收费。”
幸运的是,组织无需大量投资于GPU等专用硬件。Red Hat致力于优化模型以在标准硬件上运行,专注于企业所需的具体模型,而不是处理大型通用数据集的每次查询。
小型本地化模型的重要性
通过使用和引用本地数据,结果可定制以满足特定需求。Julio提到了阿拉伯语和葡萄牙语地区项目,这些地区未被以英语为中心的大型语言模型很好服务。
大型语言模型存在实际挑战,包括可能影响时间敏感或面向客户应用的延迟问题。将资源和结果保持在用户附近可缓解这些问题。
信任是负责任人工智能的另一个关键方面。Red Hat倡导开放平台、工具和模型,以提高透明度并允许更广泛的社区参与。“这对每个人都至关重要,”Julio说。“我们正在构建能力以民主化人工智能,不仅通过发布模型,还通过提供工具让用户复制、调整和提供服务。”
Red Hat最近收购Neural Magic,旨在帮助企业更轻松地扩展人工智能,提高推理性能,并通过vLLM项目提供更多构建和部署人工智能工作负载的选择。此外,Red Hat与IBM Research合作发布了InstructLab,将人工智能开发开放给具有宝贵业务知识的非数据科学家。
人工智能的未来
尽管对人工智能泡沫存在诸多猜测,Red Hat相信人工智能的未来将针对特定用例定制,并保持开源。这种方法将在经济上可行且对所有人可访问。正如Red Hat首席执行官Matt Hicks所说:“人工智能的未来是开放的。”
相关文章
在娱乐室学习使用墙壁碰撞构建基本人工智能(2024 指南)
在 Rec Room 中开发人工智能系统可为身临其境的游戏体验带来无限可能。本综合教程将演示如何构建具有碰撞检测功能的基本人工智能,让您的作品与周围环境进行逼真的互动。无论您是经验丰富的 Rec Room 设计师,还是探索游戏机制的初学者,本教程都将让您掌握实施反应灵敏的人工智能系统的基本技术。主要特点核心组件:了解实现人工智能所需的基本要素碰撞检测:建立牢固的边界,防止人工智能穿墙电路逻辑利用事
沃尔玛通过统一框架实现企业人工智能规模化,推动数千个使用案例的发展
沃尔玛通过工程驱动的信任架构方法,率先在企业级实施自主人工智能系统。沃尔玛新兴技术副总裁 Desirée Gosby 在 VB Transform 2025 大会上揭示了这家零售业领导者如何在其支持每周 2.55 亿顾客的生态系统中实施信任建设。四支柱人工智能架构沃尔玛采用以利益相关者为中心的人工智能框架,为每个用户群定制解决方案,而不是通用平台。这种有针对性的方法确保每个团队都能获得专门构建的功
Windows 新增对人工智能应用互联标准的支持
微软正在加倍推进其针对 Windows 的人工智能战略,并取得了两项重大进展:模型上下文协议(MCP)的本地集成和 Windows AI Foundry 的引入。这些基础性举措为微软实现智能人工智能助手在操作系统中无缝工作的愿景铺平了道路。人工智能集成的新标准MCP最初由Anthropic公司开发,现已成为人工智能应用的通用连接器,其标准化不同服务之间通信的能力可与USB-C相媲美。微软的采用有望
评论 (13)
0/200
JohnWilson
2025-08-26 07:01:20
This article on small language models is super intriguing! I love how it dives into geopolitics shaping AI—makes me wonder how global policies will steer practical AI use in businesses. 🤔
0
ThomasHernández
2025-08-25 13:00:59
This article on small language models is super intriguing! I love how it dives into practical AI solutions. Makes me wonder how enterprises will balance efficiency and ethics in AI deployment. Anyone else thinking about the real-world impact? 😄
0
AlbertScott
2025-08-25 10:39:46
This article on small language models is super intriguing! 😄 I love how it dives into practical AI with a responsible twist. Makes me wonder if we'll see more companies adopt this approach to dodge ethical pitfalls.
0
WillieMartinez
2025-04-26 15:27:01
Red Hat's focus on open, small language models is refreshing! It's great to see a company pushing for responsible AI. The practical applications are impressive, but I wish there were more examples to learn from. Still, it's a step in the right direction. Keep it up, Red Hat! 🌟
0
GregoryJones
2025-04-26 14:05:13
Red Hatのオープンで小規模な言語モデルへの焦点は新鮮です!責任あるAIを推進する企業を見るのは素晴らしいです。実用的な応用は印象的ですが、学ぶための例がもっと欲しいです。それでも、正しい方向への一歩です。頑張ってください、Red Hat!🌟
0
NicholasLewis
2025-04-26 10:40:08
A abordagem da Red Hat com modelos de linguagem pequenos para IA responsável é muito legal! É ótimo ver esforços em direção a uma IA prática que considera influências geopolíticas. No entanto, a aplicação dentro das empresas poderia ser mais detalhada. Ainda assim, um passo na direção certa! 👍
0
地缘政治对人工智能发展和使用的影
随着全球事件持续塑造世界,技术领域尤其是人工智能市场不可避免地受到影响。这种影响涉及人工智能的开发、方法论及在企业中的应用。当前人工智能领域充满兴奋与怀疑,一些人拥抱其潜力,另一些人因其早期发展阶段保持谨慎。
传统的闭环大型语言模型(LLMs),如知名供应商提供的模型,正面临来自更开放模型的竞争,如Llama、DeepSeek和百度的Ernie X1。相比之下,开源开发提供了透明度和社区贡献机会,符合“负责任人工智能”的理念。这种方法考虑了环境影响、使用伦理、学习数据来源以及数据主权、语言和政治相关问题。
以成功开源商业模式闻名的Red Hat,热衷于将协作和透明的方法应用于人工智能。在与Red Hat EMEA首席技术官Julio Guijarro的近期对话中,我们讨论了他们如何以负责任和可持续的方式利用生成式人工智能为企业增加价值的策略。
教育与透明度的需求
Julio强调了人工智能教育的重要性,指出其复杂性常使其对许多人来说是个“黑盒”。“人工智能的内在机制深深植根于复杂的科学和数学,很大程度上仍不为人知,”他说。“当人工智能在封闭环境中开发时,这种透明度不足问题更加严重。”
其他挑战包括某些语言的代表性不足、数据主权问题和信任问题。Julio指出:“数据是组织最宝贵的资产,企业必须意识到将敏感数据暴露给具有不同隐私政策的公共平台的风险。”
Red Hat的人工智能方法
Red Hat应对全球人工智能需求的方法,专注于为终端用户提供利益,同时解决与传统人工智能服务相关的疑虑和限制。Julio强调了小型语言模型(SLMs)的潜力。这些模型可在本地或混合云上运行,使用非专用硬件,并可访问本地业务数据。SLM高效且任务特定,所需资源比LLM少。
SLM的关键优势之一是能够跟上快速变化的业务数据。“大型语言模型可能很快过时,因为数据生成发生在大云之外,紧邻您的业务流程,”Julio解释说。
成本是另一个关键因素。“使用LLM的客户服务查询可能会产生显著的隐性成本,”Julio说。“在人工智能之前,数据查询的范围和成本是可预测的。使用LLM,每次交互都可能增加成本,因为它们基于迭代模型运行。本地运行模型可以更好地控制成本,因为它们与您的基础设施相关,而不是按查询收费。”
幸运的是,组织无需大量投资于GPU等专用硬件。Red Hat致力于优化模型以在标准硬件上运行,专注于企业所需的具体模型,而不是处理大型通用数据集的每次查询。
小型本地化模型的重要性
通过使用和引用本地数据,结果可定制以满足特定需求。Julio提到了阿拉伯语和葡萄牙语地区项目,这些地区未被以英语为中心的大型语言模型很好服务。
大型语言模型存在实际挑战,包括可能影响时间敏感或面向客户应用的延迟问题。将资源和结果保持在用户附近可缓解这些问题。
信任是负责任人工智能的另一个关键方面。Red Hat倡导开放平台、工具和模型,以提高透明度并允许更广泛的社区参与。“这对每个人都至关重要,”Julio说。“我们正在构建能力以民主化人工智能,不仅通过发布模型,还通过提供工具让用户复制、调整和提供服务。”
Red Hat最近收购Neural Magic,旨在帮助企业更轻松地扩展人工智能,提高推理性能,并通过vLLM项目提供更多构建和部署人工智能工作负载的选择。此外,Red Hat与IBM Research合作发布了InstructLab,将人工智能开发开放给具有宝贵业务知识的非数据科学家。
人工智能的未来
尽管对人工智能泡沫存在诸多猜测,Red Hat相信人工智能的未来将针对特定用例定制,并保持开源。这种方法将在经济上可行且对所有人可访问。正如Red Hat首席执行官Matt Hicks所说:“人工智能的未来是开放的。”




This article on small language models is super intriguing! I love how it dives into geopolitics shaping AI—makes me wonder how global policies will steer practical AI use in businesses. 🤔




This article on small language models is super intriguing! I love how it dives into practical AI solutions. Makes me wonder how enterprises will balance efficiency and ethics in AI deployment. Anyone else thinking about the real-world impact? 😄




This article on small language models is super intriguing! 😄 I love how it dives into practical AI with a responsible twist. Makes me wonder if we'll see more companies adopt this approach to dodge ethical pitfalls.




Red Hat's focus on open, small language models is refreshing! It's great to see a company pushing for responsible AI. The practical applications are impressive, but I wish there were more examples to learn from. Still, it's a step in the right direction. Keep it up, Red Hat! 🌟




Red Hatのオープンで小規模な言語モデルへの焦点は新鮮です!責任あるAIを推進する企業を見るのは素晴らしいです。実用的な応用は印象的ですが、学ぶための例がもっと欲しいです。それでも、正しい方向への一歩です。頑張ってください、Red Hat!🌟




A abordagem da Red Hat com modelos de linguagem pequenos para IA responsável é muito legal! É ótimo ver esforços em direção a uma IA prática que considera influências geopolíticas. No entanto, a aplicação dentro das empresas poderia ser mais detalhada. Ainda assim, um passo na direção certa! 👍












