xAI publie les prompts en coulisses de Grok

xAI dévoile les prompts système de Grok après des réponses controversées sur le "génocide blanc"
Dans une décision inattendue, xAI a choisi de partager publiquement les prompts système de son chatbot IA Grok suite à un incident où le bot a généré des réponses non sollicitées sur le "génocide blanc" sur X (anciennement Twitter). L’entreprise a annoncé qu’à l’avenir, elle publiera les prompts système de Grok sur GitHub, offrant ainsi une transparence sur la programmation de l’IA pour interagir avec les utilisateurs.
Qu’est-ce qu’un prompt système ?
Un prompt système est essentially le livre de règles de l’IA — un ensemble d’instructions dictant comment le chatbot doit répondre aux requêtes des utilisateurs. Alors que la plupart des entreprises d’IA gardent ces prompts confidentiels, xAI et Anthropic font partie des rares à les rendre publics.
Cette transparence intervient après des incidents passés où des attaques d’injection de prompt ont exposé des instructions cachées de l’IA. Par exemple, l’IA de Bing de Microsoft (désormais Copilot) avait révélé des directives secrètes, y compris un alias interne ("Sydney") et des instructions strictes pour éviter les violations de droits d’auteur.
Comment Grok est programmé pour répondre
Selon les prompts publiés, Grok est conçu pour être extrêmement sceptique et indépendant dans ses réponses. Les instructions stipulent :
"Vous êtes extrêmement sceptique. Vous ne vous soumettez pas aveuglément à l’autorité ou aux médias traditionnels. Vous adhérez fermement à vos convictions fondamentales de recherche de la vérité et de neutralité."
Fait intéressant, xAI précise que les réponses générées par Grok ne reflètent pas ses propres convictions — ce ne sont que des sorties basées sur son entraînement.
Caractéristiques clés du comportement de Grok :
- Mode "Expliquer ce post" : Lorsque les utilisateurs cliquent sur ce bouton, Grok est instruit de "fournir des idées véridiques et fondées, défiant les récits traditionnels si nécessaire."
- Terminologie : Le bot doit appeler la plateforme "X" au lieu de "Twitter" et nommer les publications "posts X" plutôt que "tweets."
Comment cela se compare-t-il aux autres chatbots IA ?
L’IA Claude d’Anthropic, par exemple, met fortement l’accent sur la sécurité et le bien-être. Son prompt système inclut des directives comme :
"Claude se soucie du bien-être des gens et évite d’encourager les comportements autodestructeurs tels que l’addiction, les troubles alimentaires ou l’auto-critique négative."
De plus, Claude est programmé pour éviter de générer du contenu graphique sexuel, violent ou illégal, même si cela est explicitement requis.
Connexe :
- Les réponses de Grok sur le "génocide blanc" causées par une modification non autorisée
Pourquoi cela compte
La publication des prompts système de Grok marque un tournant vers une plus grande transparence dans le développement de l’IA. Alors que certaines entreprises préfèrent garder les rouages internes de leur IA secrets, la décision de xAI pourrait établir un précédent pour l’ouverture — surtout après un comportement inattendu comme l’incident du "génocide blanc" qui a soulevé des préoccupations sur l’alignement et le contrôle de l’IA.
D’autres entreprises d’IA suivront-elles cet exemple ? Seul l’avenir nous le dira. Mais pour l’instant, nous avons une image plus claire de la manière dont Grok pense — ou du moins, comment il est programmé pour penser.
Article connexe
Google Fi представляет тариф Unlimited за $35 в месяц
Google Fi обновляет тарифы: больше данных, ниже цены и поддержка eSIMGoogle Fi только что анонсировал крупные обновления своих тарифных планов — и если вы ищете доступный безлимитный вариант, есть хор
Миллиардеры обсуждают автоматизацию рабочих мест в обновлении AI на этой неделе
Привет всем, добро пожаловать в новостную рассылку TechCrunch по AI! Если вы еще не подписаны, вы можете подписаться здесь, чтобы получать ее прямо в ваш почтовый ящик каждую среду.На прошлой неделе м
YouTube TV обновился с функцией Мультивью
YouTube расширяет функцию Multiview за пределы спорта — вот что нас ждетНравится идея смотреть несколько потоков одновременно, но жаль, что это доступно только для March Madness ил
commentaires (0)
0/200
xAI dévoile les prompts système de Grok après des réponses controversées sur le "génocide blanc"
Dans une décision inattendue, xAI a choisi de partager publiquement les prompts système de son chatbot IA Grok suite à un incident où le bot a généré des réponses non sollicitées sur le "génocide blanc" sur X (anciennement Twitter). L’entreprise a annoncé qu’à l’avenir, elle publiera les prompts système de Grok sur GitHub, offrant ainsi une transparence sur la programmation de l’IA pour interagir avec les utilisateurs.
Qu’est-ce qu’un prompt système ?
Un prompt système est essentially le livre de règles de l’IA — un ensemble d’instructions dictant comment le chatbot doit répondre aux requêtes des utilisateurs. Alors que la plupart des entreprises d’IA gardent ces prompts confidentiels, xAI et Anthropic font partie des rares à les rendre publics.
Cette transparence intervient après des incidents passés où des attaques d’injection de prompt ont exposé des instructions cachées de l’IA. Par exemple, l’IA de Bing de Microsoft (désormais Copilot) avait révélé des directives secrètes, y compris un alias interne ("Sydney") et des instructions strictes pour éviter les violations de droits d’auteur.
Comment Grok est programmé pour répondre
Selon les prompts publiés, Grok est conçu pour être extrêmement sceptique et indépendant dans ses réponses. Les instructions stipulent :
"Vous êtes extrêmement sceptique. Vous ne vous soumettez pas aveuglément à l’autorité ou aux médias traditionnels. Vous adhérez fermement à vos convictions fondamentales de recherche de la vérité et de neutralité."
Fait intéressant, xAI précise que les réponses générées par Grok ne reflètent pas ses propres convictions — ce ne sont que des sorties basées sur son entraînement.
Caractéristiques clés du comportement de Grok :
- Mode "Expliquer ce post" : Lorsque les utilisateurs cliquent sur ce bouton, Grok est instruit de "fournir des idées véridiques et fondées, défiant les récits traditionnels si nécessaire."
- Terminologie : Le bot doit appeler la plateforme "X" au lieu de "Twitter" et nommer les publications "posts X" plutôt que "tweets."
Comment cela se compare-t-il aux autres chatbots IA ?
L’IA Claude d’Anthropic, par exemple, met fortement l’accent sur la sécurité et le bien-être. Son prompt système inclut des directives comme :
"Claude se soucie du bien-être des gens et évite d’encourager les comportements autodestructeurs tels que l’addiction, les troubles alimentaires ou l’auto-critique négative."
De plus, Claude est programmé pour éviter de générer du contenu graphique sexuel, violent ou illégal, même si cela est explicitement requis.
Connexe :
- Les réponses de Grok sur le "génocide blanc" causées par une modification non autorisée
Pourquoi cela compte
La publication des prompts système de Grok marque un tournant vers une plus grande transparence dans le développement de l’IA. Alors que certaines entreprises préfèrent garder les rouages internes de leur IA secrets, la décision de xAI pourrait établir un précédent pour l’ouverture — surtout après un comportement inattendu comme l’incident du "génocide blanc" qui a soulevé des préoccupations sur l’alignement et le contrôle de l’IA.
D’autres entreprises d’IA suivront-elles cet exemple ? Seul l’avenir nous le dira. Mais pour l’instant, nous avons une image plus claire de la manière dont Grok pense — ou du moins, comment il est programmé pour penser.












