“帶上自己的AI”趨勢可能會給企業領導者帶來重大麻煩

在各行各業中,企業都渴望利用人工智慧(AI)的力量來保持競爭優勢。高階主管需要制定必要的指導方針和防護措施,以確保這些新技術的負責任且有效使用。
布里斯托大學的首席數位與資訊官Keith Woolley,正處於將AI整合到英國頂尖學術機構之一的前沿。布里斯托不僅是尖端技術的中心,擁有英國最快的超級電腦Isambard-AI,還在整個組織中推動AI應用的邊界。
日常專業人士使用AI
雖然布里斯托熱衷於利用AI來激發學術領域的創新,Woolley在接受ZDNET採訪時分享了教學、行政和研究中的日常員工如何也在運用這些新興技術。
正如雲端服務曾被採納一樣,Woolley指出,專業人士現在正在進行所謂的「自帶AI」(BYOAI)的技術選擇。「這正在發生,」他表示,雲端技術的廣泛接受以及供應商急於將AI整合到其服務中,意味著這些技術可能在IT部門不知情的情況下進入組織。
「我已經看到,現在有些部門正在構建或引入工具到機構中,因為每個提供SaaS系統的供應商都在其中加入AI,」Woolley解釋道。
自帶AI是一種成長趨勢
BYOAI也越來越被其他專家視為一種趨勢。麻省理工學院資訊系統研究中心的研究顯示,當員工使用未經批准的公共生成式AI工具進行工作時,這一趨勢便會出現。
Woolley對這種由用戶或供應商隱秘引入的AI表示擔憂,這為他的團隊和大學領導層帶來了重大挑戰。「自帶AI是一個挑戰,」他指出。「就像過去你會看到Dropbox和其他雲端提供者在網絡上出現儲存空間。人們以為可以用信用卡開始分享東西,這並不好。」
麻省理工的硏究驗證了Woolley的擔憂,強調雖然生成式AI工具承諾提升生產力,但也帶來了數據丟失、知識產權洩露、版權侵犯和安全漏洞等風險。
Woolley強調布里斯托的主要擔憂:對AI啟用的SaaS服務如何處理和分享數據的控制可能會喪失。「系統可能會拿走我們的數據,我們認為這些數據在安全的SaaS環境中,卻在公開的AI模型中運行這些信息,」他說。
禁止生成式AI以減輕風險
那麼,組織如何應對BYOAI的興起?一個選項是高階主管完全禁止生成式AI。然而,麻省理工的硏究建議企業領導者保持對生成式AI的開放態度,並提供清晰的指導,將BYOAI轉化為創新的來源。
Woolley贊同此觀點,主張對應用邊界的嚴格控制是管理BYOAI的最佳方式。「我們在組織內部正在討論政策執行。我們正在為人們提供他們可以做和不能做的護欄,」他說。
大學正從一組經批准的工具開始,以遏制AI的無控制擴散。
學生想要使用AI
為了制定這些指導方針的背景,布里斯托的高階主管與學生互動,了解他們對在教育中使用生成式AI的看法。「討論從如何使用AI進行學習,延伸到招生、評分和其他一切,」Woolley回憶道。
令人驚訝的是,學生強烈支持使用AI。「令人意外的是,學生多麼希望我們使用AI。學生明確表示,如果我們不允許他們使用AI,他們在市場上將會比其他提供這種機會的機構處於劣勢,」Woolley分享道。
他將生成式AI的引入比作早期教室中的計算器。最初,人們擔心計算器可能會鼓勵作弊,但現在它們已成為數學教育的常用品。Woolley預測生成式AI也將有類似的發展軌跡。
「我們將需要重新思考我們的課程以及使用這些技術學習的能力,」他說。「我們必須教導下一代學生區分AI提供的資訊。一旦我們能解決這部分問題,我們就沒問題了。」
布里斯托旨在謹慎地將生成式AI整合到教育中,Woolley指出,「我們已經明確表示,AI是為了協助勞動力、學生和研究人員,並在實際且可能的情況下自動化服務。」
關鍵考量
然而,認識到AI的潛力只是開始。Woolley描述新興技術的成本像曲棍球棒一樣迅速上升。如果沒有嚴格的規則和法規,允許用戶自帶AI工具可能會導致成本飆升。
大學的高階主管專注於幾個關鍵考量。「第一個問題是,『我們想要多少失敗?』因為AI目前是一個猜測引擎,它會根據獲得的資訊作出假設。如果這些資訊略有瑕疵,你就會得到一個略有瑕疵的答案,」Woolley解釋道。
「所以,我們正在研究我們可以提供哪些服務。我們已經制定了相關政策和流程,但這是一個不斷更新的文件,因為一切都在快速變化。我們正試圖謹慎地推動變革,」他補充說。
從長遠來看,Woolley認為布里斯托有三種潛在方法:將生成式AI作為教育系統的一部分、將數據輸入現有模型,或開發語言模型作為競爭優勢。「這是我們正在進行的辯論,」他說。「然後,一旦選擇了正確的方法,我就可以根據我們如何使用AI制定政策。」
這種方法與阿拉斯加電信公司GCI的企業雲端平台副總裁Roger Joys的觀點一致。與麻省理工和Woolley一樣,Joys強調安全引入生成式AI的政策和流程的重要性。「我希望我們的數據科學家能有一個經過審查和批准的模型清單,」他談到BYOAI的興起時說。「然後你就可以說,『你可以從這些模型中選擇,』而不是讓他們隨意使用他們喜歡或找到的任何東西。」
Joys建議高階主管剝去炒作,建立可接受的使用政策,幫助人們應對挑戰。「找到商業案例,」他說。「有條不紊地前進,不一定要慢,但朝著已知的目標前進,讓我們展示AI的價值。」
相關文章
創建AI驅動的著色書:全面指南
設計著色書是一項有益的追求,結合藝術表達與為使用者提供平靜的體驗。然而,此過程可能相當勞力密集。幸運的是,AI工具能輕鬆簡化高品質、一致的著色頁創建。本指南提供使用AI製作著色書的逐步方法,專注於保持一致風格和最佳效率的技術。關鍵要點使用AI提示工具開發詳細、結構化的著色頁提示。確保著色書中所有頁面的藝術風格一致。生成單一著色頁設計的多樣變化。利用Ideogram等AI平台快速高效創建著色書。精煉
Qodo與Google Cloud合作為開發者提供免費AI程式碼審查工具
Qodo,一家專注於程式碼品質的以色列AI編碼新創公司,與Google Cloud合作推出夥伴關係,以提升AI生成軟體的完整性。隨著企業越來越依賴AI進行編碼,對強大監督和品質保證工具的需求日益增長。Qodo執行長Itamar Friedman指出,AI生成程式碼現已成為現代開發的核心。「想像一個未來,AI撰寫所有程式碼;人類無法全部審查,」Friedman說。「我們需要系統確保程式碼符合預期價值
DeepMind的AI在2025年數學奧林匹克奪金
DeepMind的AI在數學推理上實現驚人突破,在2025年國際數學奧林匹克(IMO)奪得金牌,僅一年後即從2024年的銀牌躍升。此突破凸顯AI在解決需要人類創意的複雜抽象問題上的成長實力。本文探討DeepMind的轉型歷程、關鍵技術進展及此里程碑的廣泛影響。國際數學奧林匹克的重要性自1959年起,國際數學奧林匹克一直是全球頂尖的高中生數學競賽。它以代數、幾何、數論及組合數學的六道複雜題目挑戰參賽
評論 (15)
0/200
JasonJohnson
2025-08-14 01:00:59
Super interesting read! BYOAI sounds cool but kinda scary for execs—how do you even set rules for AI chaos? 😅
0
GregoryAllen
2025-08-06 07:00:59
This article really highlights how tricky AI adoption can be for execs! It’s like trying to tame a wild beast—super powerful but can bite if you’re not careful. 😅 Curious how companies will balance innovation with those ethical guardrails!
0
EdwardMartinez
2025-07-29 20:25:16
This article really opened my eyes to how tricky AI adoption can be for businesses! I wonder how execs will balance innovation with all the risks—feels like walking a tightrope. 😬
0
KevinAnderson
2025-07-29 20:25:16
This article really highlights the AI race in businesses! It's exciting but kinda scary how fast things are moving. Do execs even have time to set proper rules? 🤔
0
JeffreyMartinez
2025-07-23 12:59:29
This article really opened my eyes to how tricky AI adoption can be for businesses! 😮 Executives need to step up and set clear rules, or it’s gonna be chaos. Anyone else think companies are rushing into AI too fast?
0
BillyWilson
2025-04-26 06:37:51
Bring Your Own AI는 멋지지만 리더들에게는 골치 아픈 일이야. 모두가 AI를 올바르게 사용하도록 규칙을 정해야 하니까. 마치 기술의 베이비시터 같아! 😂 AI 나니를 고용하는 게 좋겠어!
0
在各行各業中,企業都渴望利用人工智慧(AI)的力量來保持競爭優勢。高階主管需要制定必要的指導方針和防護措施,以確保這些新技術的負責任且有效使用。
布里斯托大學的首席數位與資訊官Keith Woolley,正處於將AI整合到英國頂尖學術機構之一的前沿。布里斯托不僅是尖端技術的中心,擁有英國最快的超級電腦Isambard-AI,還在整個組織中推動AI應用的邊界。
日常專業人士使用AI
雖然布里斯托熱衷於利用AI來激發學術領域的創新,Woolley在接受ZDNET採訪時分享了教學、行政和研究中的日常員工如何也在運用這些新興技術。
正如雲端服務曾被採納一樣,Woolley指出,專業人士現在正在進行所謂的「自帶AI」(BYOAI)的技術選擇。「這正在發生,」他表示,雲端技術的廣泛接受以及供應商急於將AI整合到其服務中,意味著這些技術可能在IT部門不知情的情況下進入組織。
「我已經看到,現在有些部門正在構建或引入工具到機構中,因為每個提供SaaS系統的供應商都在其中加入AI,」Woolley解釋道。
自帶AI是一種成長趨勢
BYOAI也越來越被其他專家視為一種趨勢。麻省理工學院資訊系統研究中心的研究顯示,當員工使用未經批准的公共生成式AI工具進行工作時,這一趨勢便會出現。
Woolley對這種由用戶或供應商隱秘引入的AI表示擔憂,這為他的團隊和大學領導層帶來了重大挑戰。「自帶AI是一個挑戰,」他指出。「就像過去你會看到Dropbox和其他雲端提供者在網絡上出現儲存空間。人們以為可以用信用卡開始分享東西,這並不好。」
麻省理工的硏究驗證了Woolley的擔憂,強調雖然生成式AI工具承諾提升生產力,但也帶來了數據丟失、知識產權洩露、版權侵犯和安全漏洞等風險。
Woolley強調布里斯托的主要擔憂:對AI啟用的SaaS服務如何處理和分享數據的控制可能會喪失。「系統可能會拿走我們的數據,我們認為這些數據在安全的SaaS環境中,卻在公開的AI模型中運行這些信息,」他說。
禁止生成式AI以減輕風險
那麼,組織如何應對BYOAI的興起?一個選項是高階主管完全禁止生成式AI。然而,麻省理工的硏究建議企業領導者保持對生成式AI的開放態度,並提供清晰的指導,將BYOAI轉化為創新的來源。
Woolley贊同此觀點,主張對應用邊界的嚴格控制是管理BYOAI的最佳方式。「我們在組織內部正在討論政策執行。我們正在為人們提供他們可以做和不能做的護欄,」他說。
大學正從一組經批准的工具開始,以遏制AI的無控制擴散。
學生想要使用AI
為了制定這些指導方針的背景,布里斯托的高階主管與學生互動,了解他們對在教育中使用生成式AI的看法。「討論從如何使用AI進行學習,延伸到招生、評分和其他一切,」Woolley回憶道。
令人驚訝的是,學生強烈支持使用AI。「令人意外的是,學生多麼希望我們使用AI。學生明確表示,如果我們不允許他們使用AI,他們在市場上將會比其他提供這種機會的機構處於劣勢,」Woolley分享道。
他將生成式AI的引入比作早期教室中的計算器。最初,人們擔心計算器可能會鼓勵作弊,但現在它們已成為數學教育的常用品。Woolley預測生成式AI也將有類似的發展軌跡。
「我們將需要重新思考我們的課程以及使用這些技術學習的能力,」他說。「我們必須教導下一代學生區分AI提供的資訊。一旦我們能解決這部分問題,我們就沒問題了。」
布里斯托旨在謹慎地將生成式AI整合到教育中,Woolley指出,「我們已經明確表示,AI是為了協助勞動力、學生和研究人員,並在實際且可能的情況下自動化服務。」
關鍵考量
然而,認識到AI的潛力只是開始。Woolley描述新興技術的成本像曲棍球棒一樣迅速上升。如果沒有嚴格的規則和法規,允許用戶自帶AI工具可能會導致成本飆升。
大學的高階主管專注於幾個關鍵考量。「第一個問題是,『我們想要多少失敗?』因為AI目前是一個猜測引擎,它會根據獲得的資訊作出假設。如果這些資訊略有瑕疵,你就會得到一個略有瑕疵的答案,」Woolley解釋道。
「所以,我們正在研究我們可以提供哪些服務。我們已經制定了相關政策和流程,但這是一個不斷更新的文件,因為一切都在快速變化。我們正試圖謹慎地推動變革,」他補充說。
從長遠來看,Woolley認為布里斯托有三種潛在方法:將生成式AI作為教育系統的一部分、將數據輸入現有模型,或開發語言模型作為競爭優勢。「這是我們正在進行的辯論,」他說。「然後,一旦選擇了正確的方法,我就可以根據我們如何使用AI制定政策。」
這種方法與阿拉斯加電信公司GCI的企業雲端平台副總裁Roger Joys的觀點一致。與麻省理工和Woolley一樣,Joys強調安全引入生成式AI的政策和流程的重要性。「我希望我們的數據科學家能有一個經過審查和批准的模型清單,」他談到BYOAI的興起時說。「然後你就可以說,『你可以從這些模型中選擇,』而不是讓他們隨意使用他們喜歡或找到的任何東西。」
Joys建議高階主管剝去炒作,建立可接受的使用政策,幫助人們應對挑戰。「找到商業案例,」他說。「有條不紊地前進,不一定要慢,但朝著已知的目標前進,讓我們展示AI的價值。」



Super interesting read! BYOAI sounds cool but kinda scary for execs—how do you even set rules for AI chaos? 😅




This article really highlights how tricky AI adoption can be for execs! It’s like trying to tame a wild beast—super powerful but can bite if you’re not careful. 😅 Curious how companies will balance innovation with those ethical guardrails!




This article really opened my eyes to how tricky AI adoption can be for businesses! I wonder how execs will balance innovation with all the risks—feels like walking a tightrope. 😬




This article really highlights the AI race in businesses! It's exciting but kinda scary how fast things are moving. Do execs even have time to set proper rules? 🤔




This article really opened my eyes to how tricky AI adoption can be for businesses! 😮 Executives need to step up and set clear rules, or it’s gonna be chaos. Anyone else think companies are rushing into AI too fast?




Bring Your Own AI는 멋지지만 리더들에게는 골치 아픈 일이야. 모두가 AI를 올바르게 사용하도록 규칙을 정해야 하니까. 마치 기술의 베이비시터 같아! 😂 AI 나니를 고용하는 게 좋겠어!












