「あなた自身のAIをもたらす」トレンドは、ビジネスリーダーにとって大きなトラブルを綴る可能性があります

すべての業界において、企業は競争に勝つために人工知能(AI)の力を活用することに熱心です。シニアエグゼクティブには、これらの新しい技術を責任を持って効果的に使用するための必要なガイドラインと保護策を確立する責任があります。
ブリストル大学の主任デジタルおよび情報責任者であるキース・ウーリーは、英国を代表する学術機関の一つでAIの統合を先導しています。ブリストルは、英国最速のスーパーコンピュータであるIsambard-AIをホストする最先端技術のハブであるだけでなく、組織全体でのAI応用の限界を押し広げています。
日常の専門家がAIを使用
ブリストルが学術的な取り組み全体でイノベーションを促進するためにAIを活用することに熱心である一方、ウーリーはZDNETに対し、教学、管理、研究の日常スタッフもこれらの新興技術を活用していると共有しました。
クラウドサービスがかつて採用されたように、ウーリーは、専門家が「Bring Your Own AI(BYOAI)」として知られる独自の技術選択を行っていると指摘しました。「それが起こっています」と彼は述べ、クラウド技術の広範な受け入れと、プロバイダーがサービスにAIを統合する急激な動きにより、IT部門の知らないうちにこれらの技術が組織に潜入する可能性があると指摘しました。
「すでにそれが見られています。部門が今、SaaSシステムを提供するすべてのサプライヤーがそこにAIを組み込んでいるため、機関にツールを構築したり持ち込んだりしています」とウーリーは説明しました。
Bring Your Own AIは成長傾向
BYOAIは他の専門家にもトレンドとして認識されています。MIT情報システム研究センターの研究によると、従業員が承認されていない公開生成AIツールを業務に使用する際にこのトレンドが現れます。
ウーリーは、ユーザーやベンダーによるAIの隠れた導入が、彼のチームや大学の領導にとって重大な課題をもたらすと懸念を表明しました。「Bring Your Own AIは課題です」と彼は述べ、「Dropboxや他のクラウドプロバイダーからネットワーク上にストレージが現れるのを見ていた頃のようです。人々はクレジットカードで共有を始められると考え、それはあまり良くありません」と付け加えました。
MITの研究はウーリーの懸念を裏付け、生成AIツールが生産性向上を約束する一方で、データ損失、知的財産の漏洩、著作権侵害、セキュリティ違反などのリスクももたらすと強調しています。
ウーリーはブリストルの主な懸念として、AI対応SaaSサービスがデータをどのように処理し共有するかについての制御の喪失の可能性を強調しました。「システムが我々のデータを取得し、我々が安全なSaaS環境にあると思っている情報を公開AIモデルで実行する可能性があります」と彼は述べました。
リスク軽減のための生成AIの禁止
では、BYOAIの台頭に組織はどう対処すべきでしょうか?一つの選択肢は、エグゼクティブが生成AIを完全に禁止することです。しかし、MITの研究は、ビジネスリーダーに生成AIに対してオープンであり続け、BYOAIをイノベーションの源に変えるための明確なガイダンスを提供するよう助言しています。
ウーリーはこれに同意し、BYOAIを管理する最善の方法としてアプリケーションの境界に対する厳格な制御を主張しています。「ポリシーの執行は、組織内で議論しているテーマです。人々が何をできて何ができないかについてのガードレールを設けています」と彼は述べました。
大学は、AIの制御されない拡散を抑えるために、承認されたツールセットから始めています。
学生はAIを使いたい
これらのガイドラインの背景を設定するために、ブリストルのシニアエグゼクティブは、学生が教育における生成AIの使用についてどのように考えているかを理解するために学生と対話しました。「AIを学習にどう使うかから、入学、採点、その他すべてに至るまでの会話でした」とウーリーは振り返りました。
驚くことに、学生たちはAIの使用を強く支持しました。「驚くべきことに、学生たちがどれだけ我々にAIを使ってほしいと思っているかでした。学生たちから明確に示されたのは、もし我々がAIの使用を許可しない場合、機会を提供する他の機関と比較して市場で不利になるということでした」とウーリーは共有しました。
彼は、生成AIの導入を教室での電卓の初期に例えました。当初、電卓が不正を助長する恐れがありましたが、今では数学教育の定番です。ウーリーは生成AIにも同様の軌跡を予測しています。
「我々はカリキュラムとその技術を使った学習能力を再考する必要があります」と彼は述べ、「次世代の学生にAIを通じて提供される情報を区別する能力を教える必要があります。その部分を解決できれば、問題ありません」と付け加えました。
ブリストルは、ウーリーが述べたように、「AIは労働力、学生、研究者を支援し、実際的かつ可能であればサービスを自動化することについて明確です」と、生成AIを教育に慎重に統合することを目指しています。
主要な考慮事項
しかし、AIの可能性を認識することは始まりに過ぎません。ウーリーは、新興技術に関連するコストがホッケースティックのように急激に上昇していると説明しました。厳格な規則や規制がなければ、ユーザーが独自のAIツールを持ち込むことを許せば、これらのコストは急上昇する可能性があります。
大学のシニアエグゼクティブはいくつかの主要な考慮事項に焦点を当てています。「最初の質問は、『どれだけの失敗を許容するか?』です。なぜなら、AIは現在推測エンジンであり、入手した情報に基づいて仮定を行う状況の一つだからです。情報が少しでも不完全であれば、少し不完全な答えが得られます」とウーリーは説明しました。
「だから、我々は提供できるサービスを検討しています。それに関するポリシーとプロセスを設けていますが、それは変化が速いため生きている文書です。我々は慎重に変化を推進しようとしています」と彼は付け加えました。
長期的には、ウーリーはブリストルにとって3つの潜在的なアプローチを見ています:教育システムの一部として生成AIを消費する、既存のモデルにデータを供給する、または競争上の差別化要因として言語モデルを開発する。「それが我々が議論しているテーマです」と彼は述べ、「適切なアプローチが選ばれたら、AIの使用方法に基づいてポリシーを作成できます」と付け加えました。
このアプローチは、アラスカの通信会社GCIのエンタープライズクラウドプラットフォーム副社長であるロジャー・ジョイズの意見と一致しています。MITやウーリーと同様に、ジョイズは生成AIを安全に導入する上でポリシーとプロセスの重要性を強調しました。「データサイエンティストに、レビューされ承認されたモデルのキュレーションリストを持ってほしい」と彼は述べ、BYOAIの台頭に対処しました。「そうすれば、『これらのモデルから選べる』と言えるのではなく、彼らが好きなものや見つけたものを使うだけになってしまいます」と付け加えました。
ジョイズは、エグゼクティブに対して、誇大広告を切り抜け、課題を乗り越えるための許容可能な使用ポリシーを確立するよう助言しました。「ビジネスケースを見つけなさい」と彼は述べ、「必ずしもゆっくりではなく、既知のターゲットに向かって体系的に動き、AIの価値を示しましょう」と付け加えました。
関連記事
AI駆動の塗り絵ブック作成:包括的ガイド
塗り絵ブックのデザインは、芸術的表現とユーザーのリラックス体験を組み合わせた報われる追求です。しかし、そのプロセスは労働集約的です。幸い、AIツールは高品質で均一な塗り絵ページを簡単に作成できます。このガイドは、AIを使用して一貫したスタイルと最適な効率に焦点を当てた塗り絵ブック作成のステップごとのアプローチを提供します。主なポイントAIプロンプトツールを使用して、詳細で構造化された塗り絵ページの
QodoがGoogle Cloudと提携し、開発者向け無料AIコードレビューを提供
Qodo、イスラエル拠点のAIコーディングスタートアップは、コード品質に焦点を当て、Google Cloudと提携し、AI生成ソフトウェアの完全性を強化。企業がコーディングにAIをますます活用する中、堅牢な監視と品質保証ツールの需要が増加。QodoのCEOイタマール・フリードマンは、AI生成コードが現代の開発の中心であると指摘。「AIがすべてのコードを書く未来を想像してください。人間がすべてをレビ
DeepMindのAIが2025年数学オリンピックで金メダルを獲得
DeepMindのAIは、数学的推論において驚くべき飛躍を遂げ、2024年に銀メダルを獲得したわずか1年後の2025年国際数学オリンピック(IMO)で金メダルを獲得しました。このブレークスルーは、AIが人間のような創造性を必要とする複雑で抽象的な問題を解く能力の向上を強調しています。この記事では、DeepMindの変革的な軌跡、主要な技術的進歩、そしてこのマイルストーンの広範な影響を探ります。IM
コメント (15)
0/200
JasonJohnson
2025年8月14日 2:00:59 JST
Super interesting read! BYOAI sounds cool but kinda scary for execs—how do you even set rules for AI chaos? 😅
0
GregoryAllen
2025年8月6日 8:00:59 JST
This article really highlights how tricky AI adoption can be for execs! It’s like trying to tame a wild beast—super powerful but can bite if you’re not careful. 😅 Curious how companies will balance innovation with those ethical guardrails!
0
EdwardMartinez
2025年7月29日 21:25:16 JST
This article really opened my eyes to how tricky AI adoption can be for businesses! I wonder how execs will balance innovation with all the risks—feels like walking a tightrope. 😬
0
KevinAnderson
2025年7月29日 21:25:16 JST
This article really highlights the AI race in businesses! It's exciting but kinda scary how fast things are moving. Do execs even have time to set proper rules? 🤔
0
JeffreyMartinez
2025年7月23日 13:59:29 JST
This article really opened my eyes to how tricky AI adoption can be for businesses! 😮 Executives need to step up and set clear rules, or it’s gonna be chaos. Anyone else think companies are rushing into AI too fast?
0
BillyWilson
2025年4月26日 7:37:51 JST
Bring Your Own AI는 멋지지만 리더들에게는 골치 아픈 일이야. 모두가 AI를 올바르게 사용하도록 규칙을 정해야 하니까. 마치 기술의 베이비시터 같아! 😂 AI 나니를 고용하는 게 좋겠어!
0
すべての業界において、企業は競争に勝つために人工知能(AI)の力を活用することに熱心です。シニアエグゼクティブには、これらの新しい技術を責任を持って効果的に使用するための必要なガイドラインと保護策を確立する責任があります。
ブリストル大学の主任デジタルおよび情報責任者であるキース・ウーリーは、英国を代表する学術機関の一つでAIの統合を先導しています。ブリストルは、英国最速のスーパーコンピュータであるIsambard-AIをホストする最先端技術のハブであるだけでなく、組織全体でのAI応用の限界を押し広げています。
日常の専門家がAIを使用
ブリストルが学術的な取り組み全体でイノベーションを促進するためにAIを活用することに熱心である一方、ウーリーはZDNETに対し、教学、管理、研究の日常スタッフもこれらの新興技術を活用していると共有しました。
クラウドサービスがかつて採用されたように、ウーリーは、専門家が「Bring Your Own AI(BYOAI)」として知られる独自の技術選択を行っていると指摘しました。「それが起こっています」と彼は述べ、クラウド技術の広範な受け入れと、プロバイダーがサービスにAIを統合する急激な動きにより、IT部門の知らないうちにこれらの技術が組織に潜入する可能性があると指摘しました。
「すでにそれが見られています。部門が今、SaaSシステムを提供するすべてのサプライヤーがそこにAIを組み込んでいるため、機関にツールを構築したり持ち込んだりしています」とウーリーは説明しました。
Bring Your Own AIは成長傾向
BYOAIは他の専門家にもトレンドとして認識されています。MIT情報システム研究センターの研究によると、従業員が承認されていない公開生成AIツールを業務に使用する際にこのトレンドが現れます。
ウーリーは、ユーザーやベンダーによるAIの隠れた導入が、彼のチームや大学の領導にとって重大な課題をもたらすと懸念を表明しました。「Bring Your Own AIは課題です」と彼は述べ、「Dropboxや他のクラウドプロバイダーからネットワーク上にストレージが現れるのを見ていた頃のようです。人々はクレジットカードで共有を始められると考え、それはあまり良くありません」と付け加えました。
MITの研究はウーリーの懸念を裏付け、生成AIツールが生産性向上を約束する一方で、データ損失、知的財産の漏洩、著作権侵害、セキュリティ違反などのリスクももたらすと強調しています。
ウーリーはブリストルの主な懸念として、AI対応SaaSサービスがデータをどのように処理し共有するかについての制御の喪失の可能性を強調しました。「システムが我々のデータを取得し、我々が安全なSaaS環境にあると思っている情報を公開AIモデルで実行する可能性があります」と彼は述べました。
リスク軽減のための生成AIの禁止
では、BYOAIの台頭に組織はどう対処すべきでしょうか?一つの選択肢は、エグゼクティブが生成AIを完全に禁止することです。しかし、MITの研究は、ビジネスリーダーに生成AIに対してオープンであり続け、BYOAIをイノベーションの源に変えるための明確なガイダンスを提供するよう助言しています。
ウーリーはこれに同意し、BYOAIを管理する最善の方法としてアプリケーションの境界に対する厳格な制御を主張しています。「ポリシーの執行は、組織内で議論しているテーマです。人々が何をできて何ができないかについてのガードレールを設けています」と彼は述べました。
大学は、AIの制御されない拡散を抑えるために、承認されたツールセットから始めています。
学生はAIを使いたい
これらのガイドラインの背景を設定するために、ブリストルのシニアエグゼクティブは、学生が教育における生成AIの使用についてどのように考えているかを理解するために学生と対話しました。「AIを学習にどう使うかから、入学、採点、その他すべてに至るまでの会話でした」とウーリーは振り返りました。
驚くことに、学生たちはAIの使用を強く支持しました。「驚くべきことに、学生たちがどれだけ我々にAIを使ってほしいと思っているかでした。学生たちから明確に示されたのは、もし我々がAIの使用を許可しない場合、機会を提供する他の機関と比較して市場で不利になるということでした」とウーリーは共有しました。
彼は、生成AIの導入を教室での電卓の初期に例えました。当初、電卓が不正を助長する恐れがありましたが、今では数学教育の定番です。ウーリーは生成AIにも同様の軌跡を予測しています。
「我々はカリキュラムとその技術を使った学習能力を再考する必要があります」と彼は述べ、「次世代の学生にAIを通じて提供される情報を区別する能力を教える必要があります。その部分を解決できれば、問題ありません」と付け加えました。
ブリストルは、ウーリーが述べたように、「AIは労働力、学生、研究者を支援し、実際的かつ可能であればサービスを自動化することについて明確です」と、生成AIを教育に慎重に統合することを目指しています。
主要な考慮事項
しかし、AIの可能性を認識することは始まりに過ぎません。ウーリーは、新興技術に関連するコストがホッケースティックのように急激に上昇していると説明しました。厳格な規則や規制がなければ、ユーザーが独自のAIツールを持ち込むことを許せば、これらのコストは急上昇する可能性があります。
大学のシニアエグゼクティブはいくつかの主要な考慮事項に焦点を当てています。「最初の質問は、『どれだけの失敗を許容するか?』です。なぜなら、AIは現在推測エンジンであり、入手した情報に基づいて仮定を行う状況の一つだからです。情報が少しでも不完全であれば、少し不完全な答えが得られます」とウーリーは説明しました。
「だから、我々は提供できるサービスを検討しています。それに関するポリシーとプロセスを設けていますが、それは変化が速いため生きている文書です。我々は慎重に変化を推進しようとしています」と彼は付け加えました。
長期的には、ウーリーはブリストルにとって3つの潜在的なアプローチを見ています:教育システムの一部として生成AIを消費する、既存のモデルにデータを供給する、または競争上の差別化要因として言語モデルを開発する。「それが我々が議論しているテーマです」と彼は述べ、「適切なアプローチが選ばれたら、AIの使用方法に基づいてポリシーを作成できます」と付け加えました。
このアプローチは、アラスカの通信会社GCIのエンタープライズクラウドプラットフォーム副社長であるロジャー・ジョイズの意見と一致しています。MITやウーリーと同様に、ジョイズは生成AIを安全に導入する上でポリシーとプロセスの重要性を強調しました。「データサイエンティストに、レビューされ承認されたモデルのキュレーションリストを持ってほしい」と彼は述べ、BYOAIの台頭に対処しました。「そうすれば、『これらのモデルから選べる』と言えるのではなく、彼らが好きなものや見つけたものを使うだけになってしまいます」と付け加えました。
ジョイズは、エグゼクティブに対して、誇大広告を切り抜け、課題を乗り越えるための許容可能な使用ポリシーを確立するよう助言しました。「ビジネスケースを見つけなさい」と彼は述べ、「必ずしもゆっくりではなく、既知のターゲットに向かって体系的に動き、AIの価値を示しましょう」と付け加えました。



Super interesting read! BYOAI sounds cool but kinda scary for execs—how do you even set rules for AI chaos? 😅




This article really highlights how tricky AI adoption can be for execs! It’s like trying to tame a wild beast—super powerful but can bite if you’re not careful. 😅 Curious how companies will balance innovation with those ethical guardrails!




This article really opened my eyes to how tricky AI adoption can be for businesses! I wonder how execs will balance innovation with all the risks—feels like walking a tightrope. 😬




This article really highlights the AI race in businesses! It's exciting but kinda scary how fast things are moving. Do execs even have time to set proper rules? 🤔




This article really opened my eyes to how tricky AI adoption can be for businesses! 😮 Executives need to step up and set clear rules, or it’s gonna be chaos. Anyone else think companies are rushing into AI too fast?




Bring Your Own AI는 멋지지만 리더들에게는 골치 아픈 일이야. 모두가 AI를 올바르게 사용하도록 규칙을 정해야 하니까. 마치 기술의 베이비시터 같아! 😂 AI 나니를 고용하는 게 좋겠어!












