"Bring Your Own AI" -Trend könnte für Unternehmensführer große Schwierigkeiten bedeuten

In allen Branchen sind Unternehmen bestrebt, die Kraft der künstlichen Intelligenz (KI) zu nutzen, um der Konkurrenz voraus zu bleiben. Es liegt an den Führungskräften, die notwendigen Richtlinien und Schutzmaßnahmen festzulegen, um den verantwortungsvollen und effektiven Einsatz dieser neuen Technologien zu gewährleisten.
Keith Woolley, der Chief Digital and Information Officer der University of Bristol, steht an vorderster Front bei der Integration von KI in eine der führenden akademischen Einrichtungen Großbritanniens. Bristol ist nicht nur ein Zentrum für Spitzentechnologie und beherbergt Isambard-AI, den schnellsten Supercomputer Großbritanniens, sondern treibt auch die Anwendung von KI in der gesamten Organisation voran.
Täglicher Einsatz von KI durch Fachkräfte
Während Bristol bestrebt ist, KI zu nutzen, um Innovationen in seinen akademischen Bestrebungen anzuregen, teilte Woolley mit ZDNET, wie alltägliche Mitarbeiter in Lehre, Verwaltung und Forschung ebenfalls auf diese aufkommenden Technologien zugreifen.
So wie Cloud-Dienste einst übernommen wurden, wies Woolley darauf hin, dass Fachkräfte nun ihre eigenen Technologieentscheidungen treffen, in dem, was als Bring Your Own AI (BYOAI) bekannt ist. „Es passiert“, stellte er fest und bemerkte, dass die weitreichende Akzeptanz von Cloud-Technologie und der Wettlauf der Anbieter, KI in ihre Dienste zu integrieren, bedeutet, dass diese Technologien in Organisationen eindringen können, ohne dass die IT-Abteilung davon weiß.
„Ich sehe es bereits, wo Abteilungen nun Werkzeuge in die Einrichtung bauen oder einführen, weil jeder Anbieter, der Ihnen ein SaaS-System bereitstellt, KI hineinsteckt“, erklärte Woolley.
Bring Your Own AI ist ein wachsender Trend
BYOAI wird auch von anderen Experten zunehmend als Trend anerkannt. Forschungsergebnisse des MIT Center for Information Systems Research zeigen, dass dieser Trend auftritt, wenn Mitarbeiter nicht genehmigte, öffentliche generative KI-Tools für ihre Arbeit verwenden.
Woolley äußerte Bedenken über diese heimliche Einführung von KI, sei es durch Nutzer oder Anbieter, was erhebliche Herausforderungen für sein Team und die Führung der Universität darstellt. „Bring Your Own AI ist eine Herausforderung“, bemerkte er. „Es ist, als ob man früher Speicher auf dem Netzwerk von Dropbox und anderen Cloud-Anbietern gesehen hat. Die Leute dachten, sie könnten eine Kreditkarte nehmen und Dinge teilen, was nicht gut ist.“
Die Forschung des MIT bestätigt Woolleys Bedenken und hebt hervor, dass generative KI-Tools zwar Produktivitätssteigerungen versprechen, aber auch Risiken wie Datenverlust, Verletzung von geistigem Eigentum, Urheberrechtsverletzungen und Sicherheitsverletzungen mit sich bringen.
Woolley betonte die Hauptsorge von Bristol: den potenziellen Kontrollverlust darüber, wie KI-fähige SaaS-Dienste Daten verarbeiten und teilen. „Das System könnte unsere Daten nehmen, von denen wir denken, dass sie sich in einer sicheren SaaS-Umgebung befinden, und diese Informationen in einem öffentlichen KI-Modell verarbeiten“, sagte er.
Verbot von generativer KI zur Risikominderung
Wie können Organisationen also dem Aufstieg von BYOAI begegnen? Eine Möglichkeit besteht darin, dass Führungskräfte generative KI komplett verbieten. Die Forschung des MIT rät jedoch Unternehmensleitern, offen für generative KI zu bleiben und klare Richtlinien zu geben, um-BYOAI in eine Quelle der Innovation zu verwandeln.
Woolley stimmt zu und plädiert für eine strenge Kontrolle der Anwendungsgrenzen als beste Methode zur Verwaltung von BYOAI. „Die Durchsetzung von Richtlinien ist eine Diskussion, die wir in unserer Organisation führen. Wir stellen den Menschen Leitplanken zur Verfügung, was sie tun dürfen und was nicht“, sagte er.
Die Universität beginnt mit einer genehmigten Auswahl an Werkzeugen, um die unkontrollierte Verbreitung von KI einzudämmen.
Studenten wollen KI nutzen
Um den Kontext für diese Richtlinien zu schaffen, haben sich die leitenden Führungskräfte von Bristol mit Studenten ausgetauscht, um deren Perspektive auf die Nutzung generativer KI in der Bildung zu verstehen. „Das Gespräch ging von der Nutzung von KI für das Lernen zu Einschreibungen, Benotungen und allem anderen“, berichtete Woolley.
Überraschenderweise befürworteten die Studenten stark die Nutzung von KI. „Was überraschend war, war, wie sehr die Studenten wollten, dass wir KI nutzen. Eine der klaren Aussagen unserer Studenten war, dass sie im Wettbewerb benachteiligt wären, wenn wir ihnen die Nutzung von KI nicht erlauben, gegenüber anderen, die diese Möglichkeit bieten“, teilte Woolley mit.
Er verglich die Einführung generativer KI mit den frühen Tagen von Taschenrechnern im Klassenzimmer. Anfangs gab es Ängste, dass Taschenrechner zu Betrug führen könnten, aber jetzt sind sie ein fester Bestandteil der Mathematikausbildung. Woolley prognostiziert eine ähnliche Entwicklung für generative KI.
„Wir werden unser Curriculum und die Fähigkeit, mit dieser Technologie zu lernen, überdenken müssen“, sagte er. „Wir werden der nächsten Generation von Studenten beibringen müssen, Informationen, die durch KI bereitgestellt werden, zu unterscheiden. Sobald wir das hinbekommen, wird es gut gehen.“
Bristol zielt darauf ab, generative KI vorsichtig in die Bildung zu integrieren, wie Woolley bemerkte: „Wir haben klargestellt, dass KI dazu dient, die Belegschaft, die Studenten und unsere Forscher zu unterstützen und, wo praktisch und möglich, Dienste zu automatisieren.“
Wichtige Überlegungen
Das Potenzial von KI zu erkennen ist jedoch nur der Anfang. Woolley beschrieb die mit aufkommender Technologie verbundenen Kosten als rapide steigend, ähnlich einer Hockeyschlägerkurve. Ohne strenge Regeln und Vorschriften können diese Kosten in die Höhe schießen, wenn Nutzern erlaubt wird, ihre eigenen KI-Tools mitzubringen.
Die leitenden Führungskräfte der Universität konzentrieren sich auf mehrere wichtige Überlegungen. „Die erste Frage ist: ‚Wie viel Misserfolg wollen wir?‘ Denn KI ist derzeit eine Vermutungsmaschine, und es ist eine dieser Situationen, in denen sie Annahmen auf Basis der Informationen trifft, die sie hat. Wenn diese Informationen leicht fehlerhaft sind, erhalten Sie eine leicht fehlerhafte Antwort“, erklärte Woolley.
„Also schauen wir uns an, welche Dienste wir anbieten können. Wir haben Richtlinien und Prozesse darum herum gelegt, aber das ist ein lebendiges Dokument, weil sich alles so schnell ändert. Wir versuchen, Veränderungen vorsichtig voranzutreiben“, fügte er hinzu.
Langfristig sieht Woolley drei mögliche Ansätze für Bristol: generative KI als Teil des Bildungssystems zu konsumieren, Daten in bestehende Modelle einzugeben oder Sprachmodelle als Wettbewerbsvorteil zu entwickeln. „Das ist die Debatte, die wir führen“, sagte er. „Sobald der richtige Ansatz gewählt ist, kann ich Richtlinien basierend darauf erstellen, wie wir KI nutzen.“
Dieser Ansatz stimmt mit den Ansichten von Roger Joys, Vizepräsident für Unternehmens-Cloud-Plattformen bei der Telekomfirma GCI in Alaska, überein. Wie MIT und Woolley betonte Joys die Bedeutung von Richtlinien und Prozessen bei der sicheren Einführung generativer KI. „Ich würde gerne sehen, dass unsere Datenwissenschaftler eine kuratierte Liste von Modellen haben, die überprüft und genehmigt wurden“, sagte er in Bezug auf den Aufstieg von BYOAI. „Dann können Sie sagen: ‚Sie können aus diesen Modellen wählen‘, anstatt dass sie einfach ausgehen und verwenden, was sie mögen oder finden.“
Joys riet Führungskräften, den Hype zu durchschauen und eine akzeptable Nutzungsrichtlinie zu etablieren, die Menschen hilft, Herausforderungen zu meistern. „Finden Sie die Geschäftsfälle“, sagte er. „Bewegen Sie sich methodisch, nicht unbedingt langsam, aber auf ein bekanntes Ziel zu, und lassen Sie uns den Wert von KI zeigen.“
Verwandter Artikel
Erstellung KI-gestützter Malbücher: Ein umfassender Leitfaden
Das Gestalten von Malbüchern ist ein lohnendes Unterfangen, das künstlerischen Ausdruck mit beruhigenden Erlebnissen für Nutzer verbindet. Der Prozess kann jedoch arbeitsintensiv sein. Glücklicherweis
Qodo Partnerschaft mit Google Cloud zur Bereitstellung kostenloser KI-Code-Review-Tools für Entwickler
Qodo, ein in Israel ansässiges KI-Startup für Codierung, das sich auf Codequalität konzentriert, hat eine Partnerschaft mit Google Cloud gestartet, um die Integrität von KI-generiertem Softwarecode zu
DeepMind's KI sichert Gold bei der Mathematik-Olympiade 2025
DeepMind's KI hat einen beeindruckenden Sprung im mathematischen Denken gemacht und eine Goldmedaille bei der Internationalen Mathematik-Olympiade (IMO) 2025 gewonnen, nur ein Jahr nach dem Erhalt der
Kommentare (15)
0/200
JasonJohnson
13. August 2025 19:00:59 MESZ
Super interesting read! BYOAI sounds cool but kinda scary for execs—how do you even set rules for AI chaos? 😅
0
GregoryAllen
6. August 2025 01:00:59 MESZ
This article really highlights how tricky AI adoption can be for execs! It’s like trying to tame a wild beast—super powerful but can bite if you’re not careful. 😅 Curious how companies will balance innovation with those ethical guardrails!
0
EdwardMartinez
29. Juli 2025 14:25:16 MESZ
This article really opened my eyes to how tricky AI adoption can be for businesses! I wonder how execs will balance innovation with all the risks—feels like walking a tightrope. 😬
0
KevinAnderson
29. Juli 2025 14:25:16 MESZ
This article really highlights the AI race in businesses! It's exciting but kinda scary how fast things are moving. Do execs even have time to set proper rules? 🤔
0
JeffreyMartinez
23. Juli 2025 06:59:29 MESZ
This article really opened my eyes to how tricky AI adoption can be for businesses! 😮 Executives need to step up and set clear rules, or it’s gonna be chaos. Anyone else think companies are rushing into AI too fast?
0
BillyWilson
26. April 2025 00:37:51 MESZ
Bring Your Own AI는 멋지지만 리더들에게는 골치 아픈 일이야. 모두가 AI를 올바르게 사용하도록 규칙을 정해야 하니까. 마치 기술의 베이비시터 같아! 😂 AI 나니를 고용하는 게 좋겠어!
0
In allen Branchen sind Unternehmen bestrebt, die Kraft der künstlichen Intelligenz (KI) zu nutzen, um der Konkurrenz voraus zu bleiben. Es liegt an den Führungskräften, die notwendigen Richtlinien und Schutzmaßnahmen festzulegen, um den verantwortungsvollen und effektiven Einsatz dieser neuen Technologien zu gewährleisten.
Keith Woolley, der Chief Digital and Information Officer der University of Bristol, steht an vorderster Front bei der Integration von KI in eine der führenden akademischen Einrichtungen Großbritanniens. Bristol ist nicht nur ein Zentrum für Spitzentechnologie und beherbergt Isambard-AI, den schnellsten Supercomputer Großbritanniens, sondern treibt auch die Anwendung von KI in der gesamten Organisation voran.
Täglicher Einsatz von KI durch Fachkräfte
Während Bristol bestrebt ist, KI zu nutzen, um Innovationen in seinen akademischen Bestrebungen anzuregen, teilte Woolley mit ZDNET, wie alltägliche Mitarbeiter in Lehre, Verwaltung und Forschung ebenfalls auf diese aufkommenden Technologien zugreifen.
So wie Cloud-Dienste einst übernommen wurden, wies Woolley darauf hin, dass Fachkräfte nun ihre eigenen Technologieentscheidungen treffen, in dem, was als Bring Your Own AI (BYOAI) bekannt ist. „Es passiert“, stellte er fest und bemerkte, dass die weitreichende Akzeptanz von Cloud-Technologie und der Wettlauf der Anbieter, KI in ihre Dienste zu integrieren, bedeutet, dass diese Technologien in Organisationen eindringen können, ohne dass die IT-Abteilung davon weiß.
„Ich sehe es bereits, wo Abteilungen nun Werkzeuge in die Einrichtung bauen oder einführen, weil jeder Anbieter, der Ihnen ein SaaS-System bereitstellt, KI hineinsteckt“, erklärte Woolley.
Bring Your Own AI ist ein wachsender Trend
BYOAI wird auch von anderen Experten zunehmend als Trend anerkannt. Forschungsergebnisse des MIT Center for Information Systems Research zeigen, dass dieser Trend auftritt, wenn Mitarbeiter nicht genehmigte, öffentliche generative KI-Tools für ihre Arbeit verwenden.
Woolley äußerte Bedenken über diese heimliche Einführung von KI, sei es durch Nutzer oder Anbieter, was erhebliche Herausforderungen für sein Team und die Führung der Universität darstellt. „Bring Your Own AI ist eine Herausforderung“, bemerkte er. „Es ist, als ob man früher Speicher auf dem Netzwerk von Dropbox und anderen Cloud-Anbietern gesehen hat. Die Leute dachten, sie könnten eine Kreditkarte nehmen und Dinge teilen, was nicht gut ist.“
Die Forschung des MIT bestätigt Woolleys Bedenken und hebt hervor, dass generative KI-Tools zwar Produktivitätssteigerungen versprechen, aber auch Risiken wie Datenverlust, Verletzung von geistigem Eigentum, Urheberrechtsverletzungen und Sicherheitsverletzungen mit sich bringen.
Woolley betonte die Hauptsorge von Bristol: den potenziellen Kontrollverlust darüber, wie KI-fähige SaaS-Dienste Daten verarbeiten und teilen. „Das System könnte unsere Daten nehmen, von denen wir denken, dass sie sich in einer sicheren SaaS-Umgebung befinden, und diese Informationen in einem öffentlichen KI-Modell verarbeiten“, sagte er.
Verbot von generativer KI zur Risikominderung
Wie können Organisationen also dem Aufstieg von BYOAI begegnen? Eine Möglichkeit besteht darin, dass Führungskräfte generative KI komplett verbieten. Die Forschung des MIT rät jedoch Unternehmensleitern, offen für generative KI zu bleiben und klare Richtlinien zu geben, um-BYOAI in eine Quelle der Innovation zu verwandeln.
Woolley stimmt zu und plädiert für eine strenge Kontrolle der Anwendungsgrenzen als beste Methode zur Verwaltung von BYOAI. „Die Durchsetzung von Richtlinien ist eine Diskussion, die wir in unserer Organisation führen. Wir stellen den Menschen Leitplanken zur Verfügung, was sie tun dürfen und was nicht“, sagte er.
Die Universität beginnt mit einer genehmigten Auswahl an Werkzeugen, um die unkontrollierte Verbreitung von KI einzudämmen.
Studenten wollen KI nutzen
Um den Kontext für diese Richtlinien zu schaffen, haben sich die leitenden Führungskräfte von Bristol mit Studenten ausgetauscht, um deren Perspektive auf die Nutzung generativer KI in der Bildung zu verstehen. „Das Gespräch ging von der Nutzung von KI für das Lernen zu Einschreibungen, Benotungen und allem anderen“, berichtete Woolley.
Überraschenderweise befürworteten die Studenten stark die Nutzung von KI. „Was überraschend war, war, wie sehr die Studenten wollten, dass wir KI nutzen. Eine der klaren Aussagen unserer Studenten war, dass sie im Wettbewerb benachteiligt wären, wenn wir ihnen die Nutzung von KI nicht erlauben, gegenüber anderen, die diese Möglichkeit bieten“, teilte Woolley mit.
Er verglich die Einführung generativer KI mit den frühen Tagen von Taschenrechnern im Klassenzimmer. Anfangs gab es Ängste, dass Taschenrechner zu Betrug führen könnten, aber jetzt sind sie ein fester Bestandteil der Mathematikausbildung. Woolley prognostiziert eine ähnliche Entwicklung für generative KI.
„Wir werden unser Curriculum und die Fähigkeit, mit dieser Technologie zu lernen, überdenken müssen“, sagte er. „Wir werden der nächsten Generation von Studenten beibringen müssen, Informationen, die durch KI bereitgestellt werden, zu unterscheiden. Sobald wir das hinbekommen, wird es gut gehen.“
Bristol zielt darauf ab, generative KI vorsichtig in die Bildung zu integrieren, wie Woolley bemerkte: „Wir haben klargestellt, dass KI dazu dient, die Belegschaft, die Studenten und unsere Forscher zu unterstützen und, wo praktisch und möglich, Dienste zu automatisieren.“
Wichtige Überlegungen
Das Potenzial von KI zu erkennen ist jedoch nur der Anfang. Woolley beschrieb die mit aufkommender Technologie verbundenen Kosten als rapide steigend, ähnlich einer Hockeyschlägerkurve. Ohne strenge Regeln und Vorschriften können diese Kosten in die Höhe schießen, wenn Nutzern erlaubt wird, ihre eigenen KI-Tools mitzubringen.
Die leitenden Führungskräfte der Universität konzentrieren sich auf mehrere wichtige Überlegungen. „Die erste Frage ist: ‚Wie viel Misserfolg wollen wir?‘ Denn KI ist derzeit eine Vermutungsmaschine, und es ist eine dieser Situationen, in denen sie Annahmen auf Basis der Informationen trifft, die sie hat. Wenn diese Informationen leicht fehlerhaft sind, erhalten Sie eine leicht fehlerhafte Antwort“, erklärte Woolley.
„Also schauen wir uns an, welche Dienste wir anbieten können. Wir haben Richtlinien und Prozesse darum herum gelegt, aber das ist ein lebendiges Dokument, weil sich alles so schnell ändert. Wir versuchen, Veränderungen vorsichtig voranzutreiben“, fügte er hinzu.
Langfristig sieht Woolley drei mögliche Ansätze für Bristol: generative KI als Teil des Bildungssystems zu konsumieren, Daten in bestehende Modelle einzugeben oder Sprachmodelle als Wettbewerbsvorteil zu entwickeln. „Das ist die Debatte, die wir führen“, sagte er. „Sobald der richtige Ansatz gewählt ist, kann ich Richtlinien basierend darauf erstellen, wie wir KI nutzen.“
Dieser Ansatz stimmt mit den Ansichten von Roger Joys, Vizepräsident für Unternehmens-Cloud-Plattformen bei der Telekomfirma GCI in Alaska, überein. Wie MIT und Woolley betonte Joys die Bedeutung von Richtlinien und Prozessen bei der sicheren Einführung generativer KI. „Ich würde gerne sehen, dass unsere Datenwissenschaftler eine kuratierte Liste von Modellen haben, die überprüft und genehmigt wurden“, sagte er in Bezug auf den Aufstieg von BYOAI. „Dann können Sie sagen: ‚Sie können aus diesen Modellen wählen‘, anstatt dass sie einfach ausgehen und verwenden, was sie mögen oder finden.“
Joys riet Führungskräften, den Hype zu durchschauen und eine akzeptable Nutzungsrichtlinie zu etablieren, die Menschen hilft, Herausforderungen zu meistern. „Finden Sie die Geschäftsfälle“, sagte er. „Bewegen Sie sich methodisch, nicht unbedingt langsam, aber auf ein bekanntes Ziel zu, und lassen Sie uns den Wert von KI zeigen.“



Super interesting read! BYOAI sounds cool but kinda scary for execs—how do you even set rules for AI chaos? 😅




This article really highlights how tricky AI adoption can be for execs! It’s like trying to tame a wild beast—super powerful but can bite if you’re not careful. 😅 Curious how companies will balance innovation with those ethical guardrails!




This article really opened my eyes to how tricky AI adoption can be for businesses! I wonder how execs will balance innovation with all the risks—feels like walking a tightrope. 😬




This article really highlights the AI race in businesses! It's exciting but kinda scary how fast things are moving. Do execs even have time to set proper rules? 🤔




This article really opened my eyes to how tricky AI adoption can be for businesses! 😮 Executives need to step up and set clear rules, or it’s gonna be chaos. Anyone else think companies are rushing into AI too fast?




Bring Your Own AI는 멋지지만 리더들에게는 골치 아픈 일이야. 모두가 AI를 올바르게 사용하도록 규칙을 정해야 하니까. 마치 기술의 베이비시터 같아! 😂 AI 나니를 고용하는 게 좋겠어!












