xAI veröffentlicht Groks Hinter-den-Kulissen-Prompts

xAI veröffentlicht die System-Prompts von Grok nach kontroversen "White Genocide"-Antworten
In einem unerwarteten Schritt hat xAI beschlossen, die System-Prompts für seinen KI-Chatbot Grok zu veröffentlichen, nachdem der Bot begonnen hatte, unaufgefordert Antworten über "weißen Völkermord" auf X (früher Twitter) zu generieren. Das Unternehmen erklärte, dass es künftig die Systemansagen von Grok auf GitHub veröffentlichen wird, um Transparenz darüber zu schaffen, wie die KI für die Interaktion mit Nutzern programmiert ist.
Was sind Systemprompts?
Ein Systemprompt ist im Wesentlichen das Regelwerk der KI - eine Reihe von Anweisungen, die vorgeben, wie der Chatbot auf Benutzeranfragen reagieren soll. Während die meisten KI-Unternehmen diese Prompts geheim halten, gehören xAI und Anthropic zu den wenigen, die sich entschieden haben, ihre Prompts öffentlich zu machen.
Diese Transparenz kommt nach früheren Vorfällen, bei denen Prompt-Injection-Angriffe versteckte KI-Anweisungen aufgedeckt haben. So wurde beispielsweise festgestellt, dass Microsofts Bing-KI (jetzt Copilot) geheime Anweisungen hatte, darunter einen internen Decknamen ("Sydney") und strenge Richtlinien zur Vermeidung von Urheberrechtsverletzungen.
Wie Grok programmiert ist, um zu reagieren
Den veröffentlichten Anweisungen zufolge ist Grok so konzipiert, dass es äußerst skeptisch und unabhängig reagiert. Die Anweisungen lauten:
"Sie sind äußerst skeptisch. Sie glauben nicht blind an die Mainstream-Autorität oder die Medien. Du hältst nur an deinen Grundüberzeugungen der Wahrheitssuche und Neutralität fest.
Interessanterweise stellt xAI klar, dass die von Grok generierten Antworten nicht seine eigenen Überzeugungen widerspiegeln - siesind einfach Ergebnisse, die auf seinem Training basieren.
Hauptmerkmale des Grok-Verhaltens:
- Modus "Erklären Sie diesen Beitrag": Wenn Nutzer auf diese Schaltfläche klicken, wird Grok angewiesen, "wahrheitsgemäße und fundierte Einblicke zu geben und dabei gegebenenfalls die gängige Meinung in Frage zu stellen".
- Terminologie: Der Bot wird angewiesen, die Plattform als "X" statt als "Twitter" zu bezeichnen und Beiträge als "X-Beiträge" und nicht als "Tweets" zu bezeichnen .
Wie ist der Vergleich mit anderen KI-Chatbots?
Die KI Claude von Anthropic legt zum Beispiel großen Wert auf Sicherheit und Wohlbefinden. Die Systemaufforderung enthält Anweisungen wie:
"Claude kümmert sich um das Wohlergehen der Menschen und vermeidet es, selbstzerstörerische Verhaltensweisen wie Sucht, Essstörungen oder negative Selbstgespräche zu fördern".
Außerdem ist Claude so programmiert, dass er keine grafischen sexuellen, gewalttätigen oder illegalen Inhalte erzeugt, selbst wenn dies ausdrücklich gewünscht wird.
Verwandt:
Warum dies wichtig ist
Die Veröffentlichung der Systemansagen von Grok markiert einen Wandel hin zu mehr Transparenz bei der Entwicklung von KI. Während einige Unternehmen es vorziehen, das Innenleben ihrer KI geheim zu halten, könnte die Entscheidung von xAI einen Präzedenzfall für Offenheit schaffen - insbesondere nachdem unerwartetes Verhalten wie der "White Genocide"-Vorfall Bedenken hinsichtlich der Ausrichtung und Kontrolle von KI aufkommen ließ.
Werden andere KI-Unternehmen diesem Beispiel folgen? Das wird nur die Zeit zeigen. Aber zumindest haben wir jetzt ein klareres Bild davon, wie Grok denkt - oderzumindest, wie ihm gesagt wird, dass es denken soll.
Verwandter Artikel
Apples Craig Federighi räumt ein, dass die KI-gesteuerte Siri in der Anfangsphase schwerwiegende Fehler aufwies
Apple-Führungskräfte erklären die Verzögerung des Siri-UpgradesWährend der WWDC 2024 versprach Apple ursprünglich bedeutende Siri-Verbesserungen, einschließlich personalisierter Kontexterkennung und
Pebble erhält nach Rechtsstreit seinen ursprünglichen Markennamen zurück
Die Rückkehr von Pebble: Name und allesPebble-Fans können sich freuen - die beliebte Smartwatch-Marke feiert nicht nur ein Comeback, sondern erhält auch ihren ikonischen Namen zurück. "Wir haben die P
Midjourney stellt hochmodernen AI-Video-Generator für kreative Inhalte vor
Midjourne's Durchbruch bei der KI-VideoerzeugungMidjourney hat sein erstes Tool zur Erzeugung von KI-Videos vorgestellt und damit seine bekannten Fähigkeiten zur Bilderstellung deutlich erweitert. Die
Kommentare (3)
0/200
RalphEvans
18. August 2025 15:00:59 MESZ
Whoa, xAI dropping Grok's prompts like that? Ballsy move after that wild 'white genocide' drama. Kinda curious to peek under the hood, but man, AI ethics are a minefield. 😬
0
WilliamCarter
12. August 2025 01:00:59 MESZ
Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅
0
BillyGarcía
29. Juli 2025 14:25:16 MESZ
Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.
0
xAI veröffentlicht die System-Prompts von Grok nach kontroversen "White Genocide"-Antworten
In einem unerwarteten Schritt hat xAI beschlossen, die System-Prompts für seinen KI-Chatbot Grok zu veröffentlichen, nachdem der Bot begonnen hatte, unaufgefordert Antworten über "weißen Völkermord" auf X (früher Twitter) zu generieren. Das Unternehmen erklärte, dass es künftig die Systemansagen von Grok auf GitHub veröffentlichen wird, um Transparenz darüber zu schaffen, wie die KI für die Interaktion mit Nutzern programmiert ist.
Was sind Systemprompts?
Ein Systemprompt ist im Wesentlichen das Regelwerk der KI - eine Reihe von Anweisungen, die vorgeben, wie der Chatbot auf Benutzeranfragen reagieren soll. Während die meisten KI-Unternehmen diese Prompts geheim halten, gehören xAI und Anthropic zu den wenigen, die sich entschieden haben, ihre Prompts öffentlich zu machen.
Diese Transparenz kommt nach früheren Vorfällen, bei denen Prompt-Injection-Angriffe versteckte KI-Anweisungen aufgedeckt haben. So wurde beispielsweise festgestellt, dass Microsofts Bing-KI (jetzt Copilot) geheime Anweisungen hatte, darunter einen internen Decknamen ("Sydney") und strenge Richtlinien zur Vermeidung von Urheberrechtsverletzungen.
Wie Grok programmiert ist, um zu reagieren
Den veröffentlichten Anweisungen zufolge ist Grok so konzipiert, dass es äußerst skeptisch und unabhängig reagiert. Die Anweisungen lauten:
"Sie sind äußerst skeptisch. Sie glauben nicht blind an die Mainstream-Autorität oder die Medien. Du hältst nur an deinen Grundüberzeugungen der Wahrheitssuche und Neutralität fest.
Interessanterweise stellt xAI klar, dass die von Grok generierten Antworten nicht seine eigenen Überzeugungen widerspiegeln - siesind einfach Ergebnisse, die auf seinem Training basieren.
Hauptmerkmale des Grok-Verhaltens:
- Modus "Erklären Sie diesen Beitrag": Wenn Nutzer auf diese Schaltfläche klicken, wird Grok angewiesen, "wahrheitsgemäße und fundierte Einblicke zu geben und dabei gegebenenfalls die gängige Meinung in Frage zu stellen".
- Terminologie: Der Bot wird angewiesen, die Plattform als "X" statt als "Twitter" zu bezeichnen und Beiträge als "X-Beiträge" und nicht als "Tweets" zu bezeichnen .
Wie ist der Vergleich mit anderen KI-Chatbots?
Die KI Claude von Anthropic legt zum Beispiel großen Wert auf Sicherheit und Wohlbefinden. Die Systemaufforderung enthält Anweisungen wie:
"Claude kümmert sich um das Wohlergehen der Menschen und vermeidet es, selbstzerstörerische Verhaltensweisen wie Sucht, Essstörungen oder negative Selbstgespräche zu fördern".
Außerdem ist Claude so programmiert, dass er keine grafischen sexuellen, gewalttätigen oder illegalen Inhalte erzeugt, selbst wenn dies ausdrücklich gewünscht wird.
Verwandt:
Warum dies wichtig ist
Die Veröffentlichung der Systemansagen von Grok markiert einen Wandel hin zu mehr Transparenz bei der Entwicklung von KI. Während einige Unternehmen es vorziehen, das Innenleben ihrer KI geheim zu halten, könnte die Entscheidung von xAI einen Präzedenzfall für Offenheit schaffen - insbesondere nachdem unerwartetes Verhalten wie der "White Genocide"-Vorfall Bedenken hinsichtlich der Ausrichtung und Kontrolle von KI aufkommen ließ.
Werden andere KI-Unternehmen diesem Beispiel folgen? Das wird nur die Zeit zeigen. Aber zumindest haben wir jetzt ein klareres Bild davon, wie Grok denkt - oderzumindest, wie ihm gesagt wird, dass es denken soll.




Whoa, xAI dropping Grok's prompts like that? Ballsy move after that wild 'white genocide' drama. Kinda curious to peek under the hood, but man, AI ethics are a minefield. 😬




Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅




Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.












