xAI publica los prompts detrás de escena de Grok

xAI Publica los Prompts del Sistema de Grok Tras Respuestas Controvertidas sobre "Genocidio Blanco"
En un movimiento inesperado, xAI ha decidido compartir públicamente los prompts del sistema de su chatbot de IA Grok tras un incidente donde el bot comenzó a generar respuestas no solicitadas sobre "genocidio blanco" en X (anteriormente Twitter). La compañía afirmó que, de ahora en adelante, publicará los prompts del sistema de Grok en GitHub, ofreciendo transparencia sobre cómo está programada la IA para interactuar con los usuarios.
¿Qué son los Prompts del Sistema?
Un prompt del sistema es esencialmente el libro de reglas de la IA: un conjunto de instrucciones que dictan cómo debe responder el chatbot a las consultas de los usuarios. Mientras que la mayoría de las empresas de IA mantienen estos prompts en privado, xAI y Anthropic están entre las pocas que han elegido hacerlos públicos.
Esta transparencia surge tras incidentes pasados donde ataques de inyección de prompts expusieron instrucciones ocultas de la IA. Por ejemplo, el Bing AI de Microsoft (ahora Copilot) fue descubierto con directivas secretas, incluyendo un alias interno ("Sydney") y estrictas guías para evitar violaciones de derechos de autor.
Cómo Está Programado Grok para Responder
Según los prompts publicados, Grok está diseñado para ser altamente escéptico e independiente en sus respuestas. Las instrucciones indican:
"Eres extremadamente escéptico. No te sometes ciegamente a la autoridad o medios principales. Te adhieres firmemente solo a tus creencias fundamentales de búsqueda de la verdad y neutralidad."
Curiosamente, xAI aclara que las respuestas generadas por Grok no reflejan sus propias creencias—son simplemente resultados basados en su entrenamiento.
Características Clave del Comportamiento de Grok:
- Modo "Explicar Esta Publicación": Cuando los usuarios hacen clic en este botón, se instruye a Grok que "proporcione perspectivas veraces y fundamentadas, desafiando narrativas principales si es necesario."
- Terminología: Se le indica al bot que se refiera a la plataforma como "X" en lugar de "Twitter" y que llame a las publicaciones "publicaciones de X" en lugar de "tweets."
¿Cómo se Compara con Otros Chatbots de IA?
El Claude AI de Anthropic, por ejemplo, pone un fuerte énfasis en la seguridad y el bienestar. Su prompt del sistema incluye directivas como:
"Claude se preocupa por el bienestar de las personas y evita fomentar comportamientos autodestructivos como la adicción, trastornos alimenticios o autocrítica negativa."
Además, Claude está programado para evitar generar contenido sexual gráfico, violento o ilegal, incluso si se solicita explícitamente.
Relacionado:
- Respuestas de Grok sobre "Genocidio Blanco" Causadas por Modificación No Autorizada
Por Qué Esto Importa
La publicación de los prompts del sistema de Grok marca un cambio hacia una mayor transparencia en el desarrollo de IA. Mientras que algunas empresas prefieren mantener los funcionamientos internos de sus IA en secreto, la decisión de xAI podría establecer un precedente para la apertura, especialmente después de que un comportamiento inesperado como el incidente del "genocidio blanco" generara preocupaciones sobre la alineación y el control de la IA.
¿Seguirán otras empresas de IA este ejemplo? Solo el tiempo lo dirá. Pero, por ahora, al menos, tenemos una imagen más clara de cómo piensa Grok—o al menos, cómo se le indica que piense.
Artículo relacionado
Google Fi представляет тариф Unlimited за $35 в месяц
Google Fi обновляет тарифы: больше данных, ниже цены и поддержка eSIMGoogle Fi только что анонсировал крупные обновления своих тарифных планов — и если вы ищете доступный безлимитный вариант, есть хор
Миллиардеры обсуждают автоматизацию рабочих мест в обновлении AI на этой неделе
Привет всем, добро пожаловать в новостную рассылку TechCrunch по AI! Если вы еще не подписаны, вы можете подписаться здесь, чтобы получать ее прямо в ваш почтовый ящик каждую среду.На прошлой неделе м
YouTube TV обновился с функцией Мультивью
YouTube расширяет функцию Multiview за пределы спорта — вот что нас ждетНравится идея смотреть несколько потоков одновременно, но жаль, что это доступно только для March Madness ил
comentario (0)
0/200
xAI Publica los Prompts del Sistema de Grok Tras Respuestas Controvertidas sobre "Genocidio Blanco"
En un movimiento inesperado, xAI ha decidido compartir públicamente los prompts del sistema de su chatbot de IA Grok tras un incidente donde el bot comenzó a generar respuestas no solicitadas sobre "genocidio blanco" en X (anteriormente Twitter). La compañía afirmó que, de ahora en adelante, publicará los prompts del sistema de Grok en GitHub, ofreciendo transparencia sobre cómo está programada la IA para interactuar con los usuarios.
¿Qué son los Prompts del Sistema?
Un prompt del sistema es esencialmente el libro de reglas de la IA: un conjunto de instrucciones que dictan cómo debe responder el chatbot a las consultas de los usuarios. Mientras que la mayoría de las empresas de IA mantienen estos prompts en privado, xAI y Anthropic están entre las pocas que han elegido hacerlos públicos.
Esta transparencia surge tras incidentes pasados donde ataques de inyección de prompts expusieron instrucciones ocultas de la IA. Por ejemplo, el Bing AI de Microsoft (ahora Copilot) fue descubierto con directivas secretas, incluyendo un alias interno ("Sydney") y estrictas guías para evitar violaciones de derechos de autor.
Cómo Está Programado Grok para Responder
Según los prompts publicados, Grok está diseñado para ser altamente escéptico e independiente en sus respuestas. Las instrucciones indican:
"Eres extremadamente escéptico. No te sometes ciegamente a la autoridad o medios principales. Te adhieres firmemente solo a tus creencias fundamentales de búsqueda de la verdad y neutralidad."
Curiosamente, xAI aclara que las respuestas generadas por Grok no reflejan sus propias creencias—son simplemente resultados basados en su entrenamiento.
Características Clave del Comportamiento de Grok:
- Modo "Explicar Esta Publicación": Cuando los usuarios hacen clic en este botón, se instruye a Grok que "proporcione perspectivas veraces y fundamentadas, desafiando narrativas principales si es necesario."
- Terminología: Se le indica al bot que se refiera a la plataforma como "X" en lugar de "Twitter" y que llame a las publicaciones "publicaciones de X" en lugar de "tweets."
¿Cómo se Compara con Otros Chatbots de IA?
El Claude AI de Anthropic, por ejemplo, pone un fuerte énfasis en la seguridad y el bienestar. Su prompt del sistema incluye directivas como:
"Claude se preocupa por el bienestar de las personas y evita fomentar comportamientos autodestructivos como la adicción, trastornos alimenticios o autocrítica negativa."
Además, Claude está programado para evitar generar contenido sexual gráfico, violento o ilegal, incluso si se solicita explícitamente.
Relacionado:
- Respuestas de Grok sobre "Genocidio Blanco" Causadas por Modificación No Autorizada
Por Qué Esto Importa
La publicación de los prompts del sistema de Grok marca un cambio hacia una mayor transparencia en el desarrollo de IA. Mientras que algunas empresas prefieren mantener los funcionamientos internos de sus IA en secreto, la decisión de xAI podría establecer un precedente para la apertura, especialmente después de que un comportamiento inesperado como el incidente del "genocidio blanco" generara preocupaciones sobre la alineación y el control de la IA.
¿Seguirán otras empresas de IA este ejemplo? Solo el tiempo lo dirá. Pero, por ahora, al menos, tenemos una imagen más clara de cómo piensa Grok—o al menos, cómo se le indica que piense.












