“带上自己的AI”趋势可能会给企业领导者带来重大麻烦

在各行各业中,企业都渴望利用人工智能(AI)的力量来保持竞争优势。高级管理人员需要制定必要的指导方针和保障措施,以确保负责任且有效地使用这些新技术。
布里斯托大学的首席数字与信息官基斯·伍利(Keith Woolley)站在将AI整合进英国顶尖学术机构之一的前沿。布里斯托不仅是尖端技术的中心,拥有英国最快的超级计算机Isambard-AI,而且还在其组织中不断推动AI应用的边界。
日常专业人员使用AI
虽然布里斯托热衷于利用AI激发学术创新,伍利在接受ZDNET采访时分享了教学、管理和研究中的日常员工如何也在利用这些新兴技术。
正如云服务曾经被采用一样,伍利指出,专业人员现在正在进行所谓的“自带AI”(BYOAI)的技术选择。“这正在发生,”他表示,注意到云技术的广泛接受以及供应商将AI整合进其服务的热潮,意味着这些技术可能在IT部门不知情的情况下进入组织。
“我已经看到这种情况,各个部门现在因为每个提供SaaS系统的供应商都在其中加入AI,而开始构建或引入工具,”伍利解释道。
自带AI是一种日益增长的趋势
其他专家也越来越认识到BYOAI是一种趋势。麻省理工学院信息系统研究中心的研究表明,当员工使用未经批准的公共生成AI工具进行工作时,这种趋势就会出现。
伍利对用户或供应商隐秘引入AI表示担忧,这给他的团队和大学领导层带来了重大挑战。“自带AI是一个挑战,”他指出。“就像过去在网络上看到Dropbox和其他云服务商的存储出现一样。人们以为可以用信用卡开始分享东西,这并不好。”
麻省理工学院的研究证实了伍利的担忧,强调生成AI工具虽然有望提高生产力,但也带来了数据丢失、知识产权泄露、版权侵犯和安全漏洞等风险。
伍利强调了布里斯托的主要担忧:对启用AI的SaaS服务如何处理和共享数据的潜在失控。“系统可能会获取我们认为处于安全SaaS环境中的数据,并在公共AI模型中运行这些信息,”他说道。
禁止生成AI以减轻风险
那么,组织如何应对BYOAI的兴起?一种选择是高管完全禁止生成AI。然而,麻省理工学院的研究建议商业领袖保持对生成AI的开放态度,并提供清晰的指导,将BYOAI转变为创新的来源。
伍利对此表示赞同,主张严格控制应用边界是管理BYOAI的最佳方式。“我们在组织内部正在讨论政策执行。我们正在为人们制定可以做什么和不能做什么的护栏,”他说道。
该大学正从一套批准的工具开始,以遏制AI的失控传播。
学生希望使用AI
为了制定这些指导方针的背景,布里斯托的高级管理人员与学生进行了交流,以了解他们在教育中使用生成AI的看法。“讨论从如何将AI用于学习扩展到招生、评分和其他一切,”伍利回忆道。
令人惊讶的是,学生强烈支持使用AI。“令人惊讶的是,学生们多么希望我们使用AI。学生们明确表示,如果我们不允许他们使用AI,他们在市场上会比其他提供这种机会的机构处于劣势,”伍利分享道。
他将生成AI的引入比作早期课堂上计算器的使用。最初,人们担心计算器可能助长作弊,但现在它们已成为数学教育的标配。伍利预测生成AI将有类似的轨迹。
“我们将不得不重新思考我们的课程以及使用该技术学习的能力,”他说道。“我们必须教下一代学生区分通过AI提供的信息。一旦我们能解决这个问题,我们就没问题了。”
布里斯托旨在谨慎地将生成AI融入教育,伍利指出,“我们明确表示,AI是用来协助员工、学生和研究人员的,并在实际和可能的情况下自动化服务。”
关键考虑因素
然而,认识到AI的潜力只是开始。伍利描述新兴技术的成本像曲棍球棒一样迅速上升。如果没有严格的规则和法规,允许用户自带AI工具会导致这些成本飙升。
大学的高级管理人员专注于几个关键考虑因素。“第一个问题是,‘我们想要多少失败?’因为AI目前是一个猜测引擎,它会根据所获得的信息做出假设。如果这些信息稍有瑕疵,你会得到一个稍有瑕疵的答案,”伍利解释道。
“所以,我们在考虑可以提供哪些服务。我们围绕它制定了政策和流程,但这是一个不断更新的文件,因为一切变化得太快了。我们正在小心地推动变革,”他补充道。
从长远来看,伍利认为布里斯托有三种潜在方法:将生成AI作为教育系统的一部分,输入现有模型的数据,或开发语言模型作为竞争差异化因素。“这是我们正在讨论的,”他说道。“一旦选择了正确的方法,我就可以根据我们如何使用AI制定政策。”
这种方法与阿拉斯加电信公司GCI的企业云平台副总裁罗杰·乔伊斯(Roger Joys)的观点一致。与麻省理工学院和伍利一样,乔伊斯强调在安全引入生成AI时政策和流程的重要性。“我希望看到我们的数据科学家拥有一份经过审查和批准的模型清单,”他谈到BYOAI的兴起时说道。“然后你可以说,‘你可以从这些模型中选择,’而不是让他们随意使用他们喜欢或找到的任何模型。”
乔伊斯建议高管们切穿炒作,建立可接受的使用政策,帮助人们应对挑战。“找到商业案例,”他说道。“有条不紊地行动,不一定慢,但朝着已知的目标前进,让我们展示AI的价值。”
相关文章
创建AI驱动的着色书:综合指南
设计着色书是一项回报丰厚的追求,结合艺术表达与用户放松体验。然而,过程可能劳动密集。幸运的是,AI工具简化了高质量、统一着色页的创建。本指南提供使用AI制作着色书的逐步方法,重点在于一致风格与最佳效率的技术。关键要点使用AI提示工具开发详细、结构化的着色页提示。确保着色书所有页面艺术风格的统一性。生成单一着色页设计的多样化变体。利用Ideogram等AI平台快速、高效创建着色书。优化提示以解决不一
Qodo与Google Cloud合作,为开发者提供免费AI代码审查工具
Qodo,一家专注于代码质量的以色列AI编码初创公司,已与Google Cloud建立合作关系,以增强AI生成软件的完整性。随着企业越来越依赖AI进行编码,对强大的监督和质量保证工具的需求不断增长。Qodo的首席执行官伊塔马尔·弗里德曼指出,AI生成的代码现已成为现代开发的核心。“想象一个未来,AI编写所有代码;人类无法全部审查,”弗里德曼说。“我们需要系统来确保代码符合预期价值观。”Qodo的创
DeepMind的AI在2025年数学奥林匹克获得金牌
DeepMind的AI在数学推理方面取得惊人飞跃,在2025年国际数学奥林匹克(IMO)中获得金牌,仅在2024年获得银牌一年后。这一突破凸显了AI在解决需要类人创意的复杂抽象问题方面的日益强大。本文探讨了DeepMind的转型之旅、关键技术进步及其里程碑的广泛影响。为何IMO重要自1959年以来,国际数学奥林匹克一直是全球顶尖的高中生数学竞赛。它以代数、几何、数论和组合数学的六个复杂问题挑战参赛
评论 (15)
0/200
JasonJohnson
2025-08-14 01:00:59
Super interesting read! BYOAI sounds cool but kinda scary for execs—how do you even set rules for AI chaos? 😅
0
GregoryAllen
2025-08-06 07:00:59
This article really highlights how tricky AI adoption can be for execs! It’s like trying to tame a wild beast—super powerful but can bite if you’re not careful. 😅 Curious how companies will balance innovation with those ethical guardrails!
0
EdwardMartinez
2025-07-29 20:25:16
This article really opened my eyes to how tricky AI adoption can be for businesses! I wonder how execs will balance innovation with all the risks—feels like walking a tightrope. 😬
0
KevinAnderson
2025-07-29 20:25:16
This article really highlights the AI race in businesses! It's exciting but kinda scary how fast things are moving. Do execs even have time to set proper rules? 🤔
0
JeffreyMartinez
2025-07-23 12:59:29
This article really opened my eyes to how tricky AI adoption can be for businesses! 😮 Executives need to step up and set clear rules, or it’s gonna be chaos. Anyone else think companies are rushing into AI too fast?
0
BillyWilson
2025-04-26 06:37:51
Bring Your Own AI는 멋지지만 리더들에게는 골치 아픈 일이야. 모두가 AI를 올바르게 사용하도록 규칙을 정해야 하니까. 마치 기술의 베이비시터 같아! 😂 AI 나니를 고용하는 게 좋겠어!
0
在各行各业中,企业都渴望利用人工智能(AI)的力量来保持竞争优势。高级管理人员需要制定必要的指导方针和保障措施,以确保负责任且有效地使用这些新技术。
布里斯托大学的首席数字与信息官基斯·伍利(Keith Woolley)站在将AI整合进英国顶尖学术机构之一的前沿。布里斯托不仅是尖端技术的中心,拥有英国最快的超级计算机Isambard-AI,而且还在其组织中不断推动AI应用的边界。
日常专业人员使用AI
虽然布里斯托热衷于利用AI激发学术创新,伍利在接受ZDNET采访时分享了教学、管理和研究中的日常员工如何也在利用这些新兴技术。
正如云服务曾经被采用一样,伍利指出,专业人员现在正在进行所谓的“自带AI”(BYOAI)的技术选择。“这正在发生,”他表示,注意到云技术的广泛接受以及供应商将AI整合进其服务的热潮,意味着这些技术可能在IT部门不知情的情况下进入组织。
“我已经看到这种情况,各个部门现在因为每个提供SaaS系统的供应商都在其中加入AI,而开始构建或引入工具,”伍利解释道。
自带AI是一种日益增长的趋势
其他专家也越来越认识到BYOAI是一种趋势。麻省理工学院信息系统研究中心的研究表明,当员工使用未经批准的公共生成AI工具进行工作时,这种趋势就会出现。
伍利对用户或供应商隐秘引入AI表示担忧,这给他的团队和大学领导层带来了重大挑战。“自带AI是一个挑战,”他指出。“就像过去在网络上看到Dropbox和其他云服务商的存储出现一样。人们以为可以用信用卡开始分享东西,这并不好。”
麻省理工学院的研究证实了伍利的担忧,强调生成AI工具虽然有望提高生产力,但也带来了数据丢失、知识产权泄露、版权侵犯和安全漏洞等风险。
伍利强调了布里斯托的主要担忧:对启用AI的SaaS服务如何处理和共享数据的潜在失控。“系统可能会获取我们认为处于安全SaaS环境中的数据,并在公共AI模型中运行这些信息,”他说道。
禁止生成AI以减轻风险
那么,组织如何应对BYOAI的兴起?一种选择是高管完全禁止生成AI。然而,麻省理工学院的研究建议商业领袖保持对生成AI的开放态度,并提供清晰的指导,将BYOAI转变为创新的来源。
伍利对此表示赞同,主张严格控制应用边界是管理BYOAI的最佳方式。“我们在组织内部正在讨论政策执行。我们正在为人们制定可以做什么和不能做什么的护栏,”他说道。
该大学正从一套批准的工具开始,以遏制AI的失控传播。
学生希望使用AI
为了制定这些指导方针的背景,布里斯托的高级管理人员与学生进行了交流,以了解他们在教育中使用生成AI的看法。“讨论从如何将AI用于学习扩展到招生、评分和其他一切,”伍利回忆道。
令人惊讶的是,学生强烈支持使用AI。“令人惊讶的是,学生们多么希望我们使用AI。学生们明确表示,如果我们不允许他们使用AI,他们在市场上会比其他提供这种机会的机构处于劣势,”伍利分享道。
他将生成AI的引入比作早期课堂上计算器的使用。最初,人们担心计算器可能助长作弊,但现在它们已成为数学教育的标配。伍利预测生成AI将有类似的轨迹。
“我们将不得不重新思考我们的课程以及使用该技术学习的能力,”他说道。“我们必须教下一代学生区分通过AI提供的信息。一旦我们能解决这个问题,我们就没问题了。”
布里斯托旨在谨慎地将生成AI融入教育,伍利指出,“我们明确表示,AI是用来协助员工、学生和研究人员的,并在实际和可能的情况下自动化服务。”
关键考虑因素
然而,认识到AI的潜力只是开始。伍利描述新兴技术的成本像曲棍球棒一样迅速上升。如果没有严格的规则和法规,允许用户自带AI工具会导致这些成本飙升。
大学的高级管理人员专注于几个关键考虑因素。“第一个问题是,‘我们想要多少失败?’因为AI目前是一个猜测引擎,它会根据所获得的信息做出假设。如果这些信息稍有瑕疵,你会得到一个稍有瑕疵的答案,”伍利解释道。
“所以,我们在考虑可以提供哪些服务。我们围绕它制定了政策和流程,但这是一个不断更新的文件,因为一切变化得太快了。我们正在小心地推动变革,”他补充道。
从长远来看,伍利认为布里斯托有三种潜在方法:将生成AI作为教育系统的一部分,输入现有模型的数据,或开发语言模型作为竞争差异化因素。“这是我们正在讨论的,”他说道。“一旦选择了正确的方法,我就可以根据我们如何使用AI制定政策。”
这种方法与阿拉斯加电信公司GCI的企业云平台副总裁罗杰·乔伊斯(Roger Joys)的观点一致。与麻省理工学院和伍利一样,乔伊斯强调在安全引入生成AI时政策和流程的重要性。“我希望看到我们的数据科学家拥有一份经过审查和批准的模型清单,”他谈到BYOAI的兴起时说道。“然后你可以说,‘你可以从这些模型中选择,’而不是让他们随意使用他们喜欢或找到的任何模型。”
乔伊斯建议高管们切穿炒作,建立可接受的使用政策,帮助人们应对挑战。“找到商业案例,”他说道。“有条不紊地行动,不一定慢,但朝着已知的目标前进,让我们展示AI的价值。”



Super interesting read! BYOAI sounds cool but kinda scary for execs—how do you even set rules for AI chaos? 😅




This article really highlights how tricky AI adoption can be for execs! It’s like trying to tame a wild beast—super powerful but can bite if you’re not careful. 😅 Curious how companies will balance innovation with those ethical guardrails!




This article really opened my eyes to how tricky AI adoption can be for businesses! I wonder how execs will balance innovation with all the risks—feels like walking a tightrope. 😬




This article really highlights the AI race in businesses! It's exciting but kinda scary how fast things are moving. Do execs even have time to set proper rules? 🤔




This article really opened my eyes to how tricky AI adoption can be for businesses! 😮 Executives need to step up and set clear rules, or it’s gonna be chaos. Anyone else think companies are rushing into AI too fast?




Bring Your Own AI는 멋지지만 리더들에게는 골치 아픈 일이야. 모두가 AI를 올바르게 사용하도록 규칙을 정해야 하니까. 마치 기술의 베이비시터 같아! 😂 AI 나니를 고용하는 게 좋겠어!












