“帶上自己的AI”趨勢可能會給企業領導者帶來重大麻煩

在各行各業中,企業都渴望利用人工智慧(AI)的力量來保持競爭優勢。高階主管需要制定必要的指導方針和防護措施,以確保這些新技術的負責任且有效使用。
布里斯托大學的首席數位與資訊官Keith Woolley,正處於將AI整合到英國頂尖學術機構之一的前沿。布里斯托不僅是尖端技術的中心,擁有英國最快的超級電腦Isambard-AI,還在整個組織中推動AI應用的邊界。
日常專業人士使用AI
雖然布里斯托熱衷於利用AI來激發學術領域的創新,Woolley在接受ZDNET採訪時分享了教學、行政和研究中的日常員工如何也在運用這些新興技術。
正如雲端服務曾被採納一樣,Woolley指出,專業人士現在正在進行所謂的「自帶AI」(BYOAI)的技術選擇。「這正在發生,」他表示,雲端技術的廣泛接受以及供應商急於將AI整合到其服務中,意味著這些技術可能在IT部門不知情的情況下進入組織。
「我已經看到,現在有些部門正在構建或引入工具到機構中,因為每個提供SaaS系統的供應商都在其中加入AI,」Woolley解釋道。
自帶AI是一種成長趨勢
BYOAI也越來越被其他專家視為一種趨勢。麻省理工學院資訊系統研究中心的研究顯示,當員工使用未經批准的公共生成式AI工具進行工作時,這一趨勢便會出現。
Woolley對這種由用戶或供應商隱秘引入的AI表示擔憂,這為他的團隊和大學領導層帶來了重大挑戰。「自帶AI是一個挑戰,」他指出。「就像過去你會看到Dropbox和其他雲端提供者在網絡上出現儲存空間。人們以為可以用信用卡開始分享東西,這並不好。」
麻省理工的硏究驗證了Woolley的擔憂,強調雖然生成式AI工具承諾提升生產力,但也帶來了數據丟失、知識產權洩露、版權侵犯和安全漏洞等風險。
Woolley強調布里斯托的主要擔憂:對AI啟用的SaaS服務如何處理和分享數據的控制可能會喪失。「系統可能會拿走我們的數據,我們認為這些數據在安全的SaaS環境中,卻在公開的AI模型中運行這些信息,」他說。
禁止生成式AI以減輕風險
那麼,組織如何應對BYOAI的興起?一個選項是高階主管完全禁止生成式AI。然而,麻省理工的硏究建議企業領導者保持對生成式AI的開放態度,並提供清晰的指導,將BYOAI轉化為創新的來源。
Woolley贊同此觀點,主張對應用邊界的嚴格控制是管理BYOAI的最佳方式。「我們在組織內部正在討論政策執行。我們正在為人們提供他們可以做和不能做的護欄,」他說。
大學正從一組經批准的工具開始,以遏制AI的無控制擴散。
學生想要使用AI
為了制定這些指導方針的背景,布里斯托的高階主管與學生互動,了解他們對在教育中使用生成式AI的看法。「討論從如何使用AI進行學習,延伸到招生、評分和其他一切,」Woolley回憶道。
令人驚訝的是,學生強烈支持使用AI。「令人意外的是,學生多麼希望我們使用AI。學生明確表示,如果我們不允許他們使用AI,他們在市場上將會比其他提供這種機會的機構處於劣勢,」Woolley分享道。
他將生成式AI的引入比作早期教室中的計算器。最初,人們擔心計算器可能會鼓勵作弊,但現在它們已成為數學教育的常用品。Woolley預測生成式AI也將有類似的發展軌跡。
「我們將需要重新思考我們的課程以及使用這些技術學習的能力,」他說。「我們必須教導下一代學生區分AI提供的資訊。一旦我們能解決這部分問題,我們就沒問題了。」
布里斯托旨在謹慎地將生成式AI整合到教育中,Woolley指出,「我們已經明確表示,AI是為了協助勞動力、學生和研究人員,並在實際且可能的情況下自動化服務。」
關鍵考量
然而,認識到AI的潛力只是開始。Woolley描述新興技術的成本像曲棍球棒一樣迅速上升。如果沒有嚴格的規則和法規,允許用戶自帶AI工具可能會導致成本飆升。
大學的高階主管專注於幾個關鍵考量。「第一個問題是,『我們想要多少失敗?』因為AI目前是一個猜測引擎,它會根據獲得的資訊作出假設。如果這些資訊略有瑕疵,你就會得到一個略有瑕疵的答案,」Woolley解釋道。
「所以,我們正在研究我們可以提供哪些服務。我們已經制定了相關政策和流程,但這是一個不斷更新的文件,因為一切都在快速變化。我們正試圖謹慎地推動變革,」他補充說。
從長遠來看,Woolley認為布里斯托有三種潛在方法:將生成式AI作為教育系統的一部分、將數據輸入現有模型,或開發語言模型作為競爭優勢。「這是我們正在進行的辯論,」他說。「然後,一旦選擇了正確的方法,我就可以根據我們如何使用AI制定政策。」
這種方法與阿拉斯加電信公司GCI的企業雲端平台副總裁Roger Joys的觀點一致。與麻省理工和Woolley一樣,Joys強調安全引入生成式AI的政策和流程的重要性。「我希望我們的數據科學家能有一個經過審查和批准的模型清單,」他談到BYOAI的興起時說。「然後你就可以說,『你可以從這些模型中選擇,』而不是讓他們隨意使用他們喜歡或找到的任何東西。」
Joys建議高階主管剝去炒作,建立可接受的使用政策,幫助人們應對挑戰。「找到商業案例,」他說。「有條不紊地前進,不一定要慢,但朝著已知的目標前進,讓我們展示AI的價值。」
相關文章
AI Powered Cover Letters:期刊投稿專家指南
在現今競爭激烈的學術出版環境中,撰寫一封有效的求職信對您的稿件能否被接受起著舉足輕重的作用。探索像 ChatGPT 之類的人工智能工具如何簡化這項重要任務,幫助您撰寫出精緻、專業的求職信,吸引期刊編輯的注意。我們的全面指南揭示了逐步優化您的投稿包並最大化出版成功率的策略。重點必要的研究準備:彙整所有稿件細節和期刊規格。AI 輔助撰稿:使用 ChatGPT 生成初始求職信模板。個人客製化:完善 AI
美國將因社交媒體法規制裁外國官員
美國站出來反對全球數位內容法規美國國務院本周針對歐洲的數位治理政策發出尖銳的外交譴責,顯示在網路平台控制權上的緊張關係正不斷升級。國務卿 Marco Rubio 公布了一項新的簽證限制政策,針對參與美國認為影響美國數位空間的過度審查的外國官員。新簽證限制說明根據週三公佈的政策,美國將拒絕被判定為正在執行影響美國受保護言論的海外內容規定的外國公民入境。Rubio 強調兩項主要的違法行為:
AI 驅動的 YouTube 影片摘要器終極指南
在資訊豐富的數位環境中,AI 驅動的 YouTube 影片摘要器已成為有效率內容消費不可或缺的工具。本深入指南將探討如何使用尖端的 NLP 技術,特別是 Hugging Face 的 BART 模型結合 YouTube 的 Transcript API,建立精密的摘要工具。無論您是要開發生產力工具、增強可及性解決方案,或是創造教育資源,本指南都能提供您所需的一切,讓您能以文字與音訊輸出功能來實作專
評論 (15)
0/200
JasonJohnson
2025-08-14 01:00:59
Super interesting read! BYOAI sounds cool but kinda scary for execs—how do you even set rules for AI chaos? 😅
0
GregoryAllen
2025-08-06 07:00:59
This article really highlights how tricky AI adoption can be for execs! It’s like trying to tame a wild beast—super powerful but can bite if you’re not careful. 😅 Curious how companies will balance innovation with those ethical guardrails!
0
EdwardMartinez
2025-07-29 20:25:16
This article really opened my eyes to how tricky AI adoption can be for businesses! I wonder how execs will balance innovation with all the risks—feels like walking a tightrope. 😬
0
KevinAnderson
2025-07-29 20:25:16
This article really highlights the AI race in businesses! It's exciting but kinda scary how fast things are moving. Do execs even have time to set proper rules? 🤔
0
JeffreyMartinez
2025-07-23 12:59:29
This article really opened my eyes to how tricky AI adoption can be for businesses! 😮 Executives need to step up and set clear rules, or it’s gonna be chaos. Anyone else think companies are rushing into AI too fast?
0
BillyWilson
2025-04-26 06:37:51
Bring Your Own AI는 멋지지만 리더들에게는 골치 아픈 일이야. 모두가 AI를 올바르게 사용하도록 규칙을 정해야 하니까. 마치 기술의 베이비시터 같아! 😂 AI 나니를 고용하는 게 좋겠어!
0
在各行各業中,企業都渴望利用人工智慧(AI)的力量來保持競爭優勢。高階主管需要制定必要的指導方針和防護措施,以確保這些新技術的負責任且有效使用。
布里斯托大學的首席數位與資訊官Keith Woolley,正處於將AI整合到英國頂尖學術機構之一的前沿。布里斯托不僅是尖端技術的中心,擁有英國最快的超級電腦Isambard-AI,還在整個組織中推動AI應用的邊界。
日常專業人士使用AI
雖然布里斯托熱衷於利用AI來激發學術領域的創新,Woolley在接受ZDNET採訪時分享了教學、行政和研究中的日常員工如何也在運用這些新興技術。
正如雲端服務曾被採納一樣,Woolley指出,專業人士現在正在進行所謂的「自帶AI」(BYOAI)的技術選擇。「這正在發生,」他表示,雲端技術的廣泛接受以及供應商急於將AI整合到其服務中,意味著這些技術可能在IT部門不知情的情況下進入組織。
「我已經看到,現在有些部門正在構建或引入工具到機構中,因為每個提供SaaS系統的供應商都在其中加入AI,」Woolley解釋道。
自帶AI是一種成長趨勢
BYOAI也越來越被其他專家視為一種趨勢。麻省理工學院資訊系統研究中心的研究顯示,當員工使用未經批准的公共生成式AI工具進行工作時,這一趨勢便會出現。
Woolley對這種由用戶或供應商隱秘引入的AI表示擔憂,這為他的團隊和大學領導層帶來了重大挑戰。「自帶AI是一個挑戰,」他指出。「就像過去你會看到Dropbox和其他雲端提供者在網絡上出現儲存空間。人們以為可以用信用卡開始分享東西,這並不好。」
麻省理工的硏究驗證了Woolley的擔憂,強調雖然生成式AI工具承諾提升生產力,但也帶來了數據丟失、知識產權洩露、版權侵犯和安全漏洞等風險。
Woolley強調布里斯托的主要擔憂:對AI啟用的SaaS服務如何處理和分享數據的控制可能會喪失。「系統可能會拿走我們的數據,我們認為這些數據在安全的SaaS環境中,卻在公開的AI模型中運行這些信息,」他說。
禁止生成式AI以減輕風險
那麼,組織如何應對BYOAI的興起?一個選項是高階主管完全禁止生成式AI。然而,麻省理工的硏究建議企業領導者保持對生成式AI的開放態度,並提供清晰的指導,將BYOAI轉化為創新的來源。
Woolley贊同此觀點,主張對應用邊界的嚴格控制是管理BYOAI的最佳方式。「我們在組織內部正在討論政策執行。我們正在為人們提供他們可以做和不能做的護欄,」他說。
大學正從一組經批准的工具開始,以遏制AI的無控制擴散。
學生想要使用AI
為了制定這些指導方針的背景,布里斯托的高階主管與學生互動,了解他們對在教育中使用生成式AI的看法。「討論從如何使用AI進行學習,延伸到招生、評分和其他一切,」Woolley回憶道。
令人驚訝的是,學生強烈支持使用AI。「令人意外的是,學生多麼希望我們使用AI。學生明確表示,如果我們不允許他們使用AI,他們在市場上將會比其他提供這種機會的機構處於劣勢,」Woolley分享道。
他將生成式AI的引入比作早期教室中的計算器。最初,人們擔心計算器可能會鼓勵作弊,但現在它們已成為數學教育的常用品。Woolley預測生成式AI也將有類似的發展軌跡。
「我們將需要重新思考我們的課程以及使用這些技術學習的能力,」他說。「我們必須教導下一代學生區分AI提供的資訊。一旦我們能解決這部分問題,我們就沒問題了。」
布里斯托旨在謹慎地將生成式AI整合到教育中,Woolley指出,「我們已經明確表示,AI是為了協助勞動力、學生和研究人員,並在實際且可能的情況下自動化服務。」
關鍵考量
然而,認識到AI的潛力只是開始。Woolley描述新興技術的成本像曲棍球棒一樣迅速上升。如果沒有嚴格的規則和法規,允許用戶自帶AI工具可能會導致成本飆升。
大學的高階主管專注於幾個關鍵考量。「第一個問題是,『我們想要多少失敗?』因為AI目前是一個猜測引擎,它會根據獲得的資訊作出假設。如果這些資訊略有瑕疵,你就會得到一個略有瑕疵的答案,」Woolley解釋道。
「所以,我們正在研究我們可以提供哪些服務。我們已經制定了相關政策和流程,但這是一個不斷更新的文件,因為一切都在快速變化。我們正試圖謹慎地推動變革,」他補充說。
從長遠來看,Woolley認為布里斯托有三種潛在方法:將生成式AI作為教育系統的一部分、將數據輸入現有模型,或開發語言模型作為競爭優勢。「這是我們正在進行的辯論,」他說。「然後,一旦選擇了正確的方法,我就可以根據我們如何使用AI制定政策。」
這種方法與阿拉斯加電信公司GCI的企業雲端平台副總裁Roger Joys的觀點一致。與麻省理工和Woolley一樣,Joys強調安全引入生成式AI的政策和流程的重要性。「我希望我們的數據科學家能有一個經過審查和批准的模型清單,」他談到BYOAI的興起時說。「然後你就可以說,『你可以從這些模型中選擇,』而不是讓他們隨意使用他們喜歡或找到的任何東西。」
Joys建議高階主管剝去炒作,建立可接受的使用政策,幫助人們應對挑戰。「找到商業案例,」他說。「有條不紊地前進,不一定要慢,但朝著已知的目標前進,讓我們展示AI的價值。」




Super interesting read! BYOAI sounds cool but kinda scary for execs—how do you even set rules for AI chaos? 😅




This article really highlights how tricky AI adoption can be for execs! It’s like trying to tame a wild beast—super powerful but can bite if you’re not careful. 😅 Curious how companies will balance innovation with those ethical guardrails!




This article really opened my eyes to how tricky AI adoption can be for businesses! I wonder how execs will balance innovation with all the risks—feels like walking a tightrope. 😬




This article really highlights the AI race in businesses! It's exciting but kinda scary how fast things are moving. Do execs even have time to set proper rules? 🤔




This article really opened my eyes to how tricky AI adoption can be for businesses! 😮 Executives need to step up and set clear rules, or it’s gonna be chaos. Anyone else think companies are rushing into AI too fast?




Bring Your Own AI는 멋지지만 리더들에게는 골치 아픈 일이야. 모두가 AI를 올바르게 사용하도록 규칙을 정해야 하니까. 마치 기술의 베이비시터 같아! 😂 AI 나니를 고용하는 게 좋겠어!












