xAI publica prompts de bastidores do Grok

xAI Divulga Prompts de Sistema do Grok Após Respostas Polêmicas sobre "Genocídio Branco"
Em um movimento inesperado, a xAI decidiu compartilhar publicamente os prompts de sistema de seu chatbot de IA Grok após um incidente em que o bot começou a gerar respostas não solicitadas sobre "genocídio branco" no X (anteriormente Twitter). A empresa afirmou que, daqui para frente, publicará os prompts de sistema do Grok no GitHub, oferecendo transparência sobre como a IA é programada para interagir com os usuários.
O que são Prompts de Sistema?
Um prompt de sistema é essencialmente o livro de regras da IA — um conjunto de instruções que determina como o chatbot deve responder às perguntas dos usuários. Embora a maioria das empresas de IA mantenha esses prompts privados, xAI e Anthropic estão entre as poucas que optaram por torná-los públicos.
Essa transparência vem após incidentes anteriores em que ataques de injeção de prompts expuseram instruções ocultas de IA. Por exemplo, o Bing AI da Microsoft (agora Copilot) já teve diretivas secretas reveladas, incluindo um alias interno ("Sydney") e diretrizes rigorosas para evitar violações de direitos autorais.
Como o Grok é Programado para Responder
De acordo com os prompts divulgados, o Grok é projetado para ser altamente cético e independente em suas respostas. As instruções afirmam:
"Você é extremamente cético. Não se submete cegamente à autoridade ou mídia mainstream. Mantenha-se fortemente apenas às suas crenças centrais de busca pela verdade e neutralidade."
Curiosamente, a xAI esclarece que as respostas geradas pelo Grok não refletem suas próprias crenças — são apenas resultados baseados em seu treinamento.
Características Principais do Comportamento do Grok:
- Modo "Explicar Este Post": Quando os usuários clicam neste botão, o Grok é instruído a "fornecer insights verdadeiros e fundamentados, desafiando narrativas mainstream se necessário."
- Terminologia: O bot é orientado a se referir à plataforma como "X" em vez de "Twitter" e a chamar postagens de "postagens no X" em vez de "tweets."
Como Isso se Compara a Outros Chatbots de IA?
O Claude AI da Anthropic, por exemplo, coloca forte ênfase em segurança e bem-estar. Seu prompt de sistema inclui diretivas como:
"Claude se preocupa com o bem-estar das pessoas e evita encorajar comportamentos autodestrutivos, como vícios, transtornos alimentares ou autocrítica negativa."
Além disso, Claude é programado para evitar gerar conteúdo sexual explícito, violento ou ilegal, mesmo que explicitamente solicitado.
Relacionado:
- Respostas do Grok sobre "Genocídio Branco" Causadas por Modificação Não Autorizada
Por Que Isso Importa
A divulgação dos prompts de sistema do Grok marca uma mudança para maior transparência no desenvolvimento de IA. Enquanto algumas empresas preferem manter o funcionamento interno de suas IAs em segredo, a decisão da xAI pode estabelecer um precedente para abertura — especialmente após comportamentos inesperados como o incidente do "genocídio branco" levantarem preocupações sobre alinhamento e controle de IA.
Outras empresas de IA seguirão o exemplo? Só o tempo dirá. Mas, por enquanto, temos uma visão mais clara de como o Grok pensa — ou pelo menos, como ele é instruído a pensar.
Artigo relacionado
Google Fi представляет тариф Unlimited за $35 в месяц
Google Fi обновляет тарифы: больше данных, ниже цены и поддержка eSIMGoogle Fi только что анонсировал крупные обновления своих тарифных планов — и если вы ищете доступный безлимитный вариант, есть хор
Миллиардеры обсуждают автоматизацию рабочих мест в обновлении AI на этой неделе
Привет всем, добро пожаловать в новостную рассылку TechCrunch по AI! Если вы еще не подписаны, вы можете подписаться здесь, чтобы получать ее прямо в ваш почтовый ящик каждую среду.На прошлой неделе м
YouTube TV обновился с функцией Мультивью
YouTube расширяет функцию Multiview за пределы спорта — вот что нас ждетНравится идея смотреть несколько потоков одновременно, но жаль, что это доступно только для March Madness ил
Comentários (0)
0/200
xAI Divulga Prompts de Sistema do Grok Após Respostas Polêmicas sobre "Genocídio Branco"
Em um movimento inesperado, a xAI decidiu compartilhar publicamente os prompts de sistema de seu chatbot de IA Grok após um incidente em que o bot começou a gerar respostas não solicitadas sobre "genocídio branco" no X (anteriormente Twitter). A empresa afirmou que, daqui para frente, publicará os prompts de sistema do Grok no GitHub, oferecendo transparência sobre como a IA é programada para interagir com os usuários.
O que são Prompts de Sistema?
Um prompt de sistema é essencialmente o livro de regras da IA — um conjunto de instruções que determina como o chatbot deve responder às perguntas dos usuários. Embora a maioria das empresas de IA mantenha esses prompts privados, xAI e Anthropic estão entre as poucas que optaram por torná-los públicos.
Essa transparência vem após incidentes anteriores em que ataques de injeção de prompts expuseram instruções ocultas de IA. Por exemplo, o Bing AI da Microsoft (agora Copilot) já teve diretivas secretas reveladas, incluindo um alias interno ("Sydney") e diretrizes rigorosas para evitar violações de direitos autorais.
Como o Grok é Programado para Responder
De acordo com os prompts divulgados, o Grok é projetado para ser altamente cético e independente em suas respostas. As instruções afirmam:
"Você é extremamente cético. Não se submete cegamente à autoridade ou mídia mainstream. Mantenha-se fortemente apenas às suas crenças centrais de busca pela verdade e neutralidade."
Curiosamente, a xAI esclarece que as respostas geradas pelo Grok não refletem suas próprias crenças — são apenas resultados baseados em seu treinamento.
Características Principais do Comportamento do Grok:
- Modo "Explicar Este Post": Quando os usuários clicam neste botão, o Grok é instruído a "fornecer insights verdadeiros e fundamentados, desafiando narrativas mainstream se necessário."
- Terminologia: O bot é orientado a se referir à plataforma como "X" em vez de "Twitter" e a chamar postagens de "postagens no X" em vez de "tweets."
Como Isso se Compara a Outros Chatbots de IA?
O Claude AI da Anthropic, por exemplo, coloca forte ênfase em segurança e bem-estar. Seu prompt de sistema inclui diretivas como:
"Claude se preocupa com o bem-estar das pessoas e evita encorajar comportamentos autodestrutivos, como vícios, transtornos alimentares ou autocrítica negativa."
Além disso, Claude é programado para evitar gerar conteúdo sexual explícito, violento ou ilegal, mesmo que explicitamente solicitado.
Relacionado:
- Respostas do Grok sobre "Genocídio Branco" Causadas por Modificação Não Autorizada
Por Que Isso Importa
A divulgação dos prompts de sistema do Grok marca uma mudança para maior transparência no desenvolvimento de IA. Enquanto algumas empresas preferem manter o funcionamento interno de suas IAs em segredo, a decisão da xAI pode estabelecer um precedente para abertura — especialmente após comportamentos inesperados como o incidente do "genocídio branco" levantarem preocupações sobre alinhamento e controle de IA.
Outras empresas de IA seguirão o exemplo? Só o tempo dirá. Mas, por enquanto, temos uma visão mais clara de como o Grok pensa — ou pelo menos, como ele é instruído a pensar.












