xAI publica los prompts detrás de escena de Grok

xAI publica las instrucciones del sistema Grok tras las polémicas respuestas sobre el "genocidio blanco
En un movimiento inesperado, xAI ha decidido compartir públicamente las instrucciones del sistema para su chatbot Grok después de un incidente en el que el bot comenzó a generar respuestas no solicitadas sobre el "genocidio blanco" en X (antes Twitter). La empresa ha declarado que, a partir de ahora, publicará las instrucciones del sistema de Grok en GitHub, ofreciendo transparencia sobre cómo está programada la IA para interactuar con los usuarios.
¿Qué son las instrucciones del sistema?
Una instrucción del sistema es esencialmente el libro de reglas de la IA, un conjunto de instrucciones que dictan cómo debe responder el chatbot a las consultas de los usuarios. Aunque la mayoría de las empresas de IA mantienen estas instrucciones en privado, xAI y Anthropic son de las pocas que han decidido hacerlas públicas.
Esta transparencia llega después de incidentes pasados en los que ataques de inyección de instrucciones sacaron a la luz instrucciones de IA ocultas. Por ejemplo, se descubrió que la IA Bing de Microsoft (ahora Copilot) tenía directrices secretas, incluido un alias interno ("Sydney") y directrices estrictas para evitar violaciones de los derechos de autor.
Cómo está programado Grok para responder
Según las instrucciones publicadas, Grok está diseñado para ser muy escéptico e independiente en sus respuestas. Las instrucciones dicen:
"Eres extremadamente escéptico. No sigues ciegamente a las autoridades ni a los medios de comunicación. Te aferras firmemente a tus creencias básicas de búsqueda de la verdad y neutralidad".
Curiosamente, xAI aclara que las respuestas generadas por Grok no reflejan sus propias creencias,sino que son simplemente resultados basados en su formación.
Características clave del comportamiento de Grok:
- Modo "Explicar esta entrada": Cuando los usuarios hacen clic en este botón, Grok recibe instrucciones para "ofrecer una visión veraz y fundamentada, desafiando las narrativas dominantes si es necesario".
- Terminología: Al bot se le dice que se refiera a la plataforma como "X" en lugar de "Twitter" y que llame a las publicaciones "X posts" en lugar de "tweets".
¿Cómo se compara esto con otros chatbots de IA?
La IA Claude de Anthropic, por ejemplo, hace especial hincapié en la seguridad y el bienestar. Su sistema incluye directivas como:
"Claude se preocupa por el bienestar de las personas y evita fomentar comportamientos autodestructivos como la adicción, la alimentación desordenada o la autoconversión negativa".
Además, Claude está programado para evitar generar contenidos gráficos de carácter sexual, violento o ilegal, aunque se le solicite explícitamente.
Relacionado:
Por qué es importante
La publicación de los mensajes del sistema Grok marca un cambio hacia una mayor transparencia en el desarrollo de la IA. Mientras que algunas empresas prefieren mantener en secreto el funcionamiento interno de su IA, la decisión de xAI podría sentar un precedente de apertura, sobre todo después de que comportamientos inesperados como el incidente del "genocidio blanco " suscitaran preocupación sobre la alineación y el control de la IA.
¿Seguirán el ejemplo otras empresas de IA? El tiempo lo dirá. Pero, al menos por ahora, tenemos una idea más clara de cómo piensa Grok o, al menos, de cómo se le dice que piense.
Artículo relacionado
Pebble recupera su marca original tras una batalla legal
El regreso de Pebble: Con nombre y todoLos entusiastas de Pebble pueden alegrarse: la querida marca de relojes inteligentes no sólo regresa, sino que recupera su emblemático nombre. "Hemos recuperado
Midjourney presenta un innovador generador de vídeo inteligente para contenidos creativos
Avance de Midjourney en la generación de vídeo con IAMidjourney ha presentado su primera herramienta de generación de vídeo con inteligencia artificial, lo que supone una importante ampliación de sus
Google frena las filtraciones del Pixel 10 revelando oficialmente el smartphone antes de tiempo
Google se burla de los fans con un primer vistazo a su próxima línea de teléfonos inteligentes Pixel 10, mostrando el diseño oficial apenas unas semanas antes del evento de lanzamiento programado para
comentario (3)
0/200
RalphEvans
18 de agosto de 2025 15:00:59 GMT+02:00
Whoa, xAI dropping Grok's prompts like that? Ballsy move after that wild 'white genocide' drama. Kinda curious to peek under the hood, but man, AI ethics are a minefield. 😬
0
WilliamCarter
12 de agosto de 2025 01:00:59 GMT+02:00
Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅
0
BillyGarcía
29 de julio de 2025 14:25:16 GMT+02:00
Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.
0
xAI publica las instrucciones del sistema Grok tras las polémicas respuestas sobre el "genocidio blanco
En un movimiento inesperado, xAI ha decidido compartir públicamente las instrucciones del sistema para su chatbot Grok después de un incidente en el que el bot comenzó a generar respuestas no solicitadas sobre el "genocidio blanco" en X (antes Twitter). La empresa ha declarado que, a partir de ahora, publicará las instrucciones del sistema de Grok en GitHub, ofreciendo transparencia sobre cómo está programada la IA para interactuar con los usuarios.
¿Qué son las instrucciones del sistema?
Una instrucción del sistema es esencialmente el libro de reglas de la IA, un conjunto de instrucciones que dictan cómo debe responder el chatbot a las consultas de los usuarios. Aunque la mayoría de las empresas de IA mantienen estas instrucciones en privado, xAI y Anthropic son de las pocas que han decidido hacerlas públicas.
Esta transparencia llega después de incidentes pasados en los que ataques de inyección de instrucciones sacaron a la luz instrucciones de IA ocultas. Por ejemplo, se descubrió que la IA Bing de Microsoft (ahora Copilot) tenía directrices secretas, incluido un alias interno ("Sydney") y directrices estrictas para evitar violaciones de los derechos de autor.
Cómo está programado Grok para responder
Según las instrucciones publicadas, Grok está diseñado para ser muy escéptico e independiente en sus respuestas. Las instrucciones dicen:
"Eres extremadamente escéptico. No sigues ciegamente a las autoridades ni a los medios de comunicación. Te aferras firmemente a tus creencias básicas de búsqueda de la verdad y neutralidad".
Curiosamente, xAI aclara que las respuestas generadas por Grok no reflejan sus propias creencias,sino que son simplemente resultados basados en su formación.
Características clave del comportamiento de Grok:
- Modo "Explicar esta entrada": Cuando los usuarios hacen clic en este botón, Grok recibe instrucciones para "ofrecer una visión veraz y fundamentada, desafiando las narrativas dominantes si es necesario".
- Terminología: Al bot se le dice que se refiera a la plataforma como "X" en lugar de "Twitter" y que llame a las publicaciones "X posts" en lugar de "tweets".
¿Cómo se compara esto con otros chatbots de IA?
La IA Claude de Anthropic, por ejemplo, hace especial hincapié en la seguridad y el bienestar. Su sistema incluye directivas como:
"Claude se preocupa por el bienestar de las personas y evita fomentar comportamientos autodestructivos como la adicción, la alimentación desordenada o la autoconversión negativa".
Además, Claude está programado para evitar generar contenidos gráficos de carácter sexual, violento o ilegal, aunque se le solicite explícitamente.
Relacionado:
Por qué es importante
La publicación de los mensajes del sistema Grok marca un cambio hacia una mayor transparencia en el desarrollo de la IA. Mientras que algunas empresas prefieren mantener en secreto el funcionamiento interno de su IA, la decisión de xAI podría sentar un precedente de apertura, sobre todo después de que comportamientos inesperados como el incidente del "genocidio blanco " suscitaran preocupación sobre la alineación y el control de la IA.
¿Seguirán el ejemplo otras empresas de IA? El tiempo lo dirá. Pero, al menos por ahora, tenemos una idea más clara de cómo piensa Grok o, al menos, de cómo se le dice que piense.




Whoa, xAI dropping Grok's prompts like that? Ballsy move after that wild 'white genocide' drama. Kinda curious to peek under the hood, but man, AI ethics are a minefield. 😬




Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅




Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.












