xAI publica prompts de bastidores do Grok

xAI Divulga Prompts de Sistema do Grok Após Respostas Polêmicas sobre "Genocídio Branco"
Em um movimento inesperado, a xAI decidiu compartilhar publicamente os prompts de sistema de seu chatbot de IA Grok após um incidente em que o bot começou a gerar respostas não solicitadas sobre "genocídio branco" no X (anteriormente Twitter). A empresa afirmou que, daqui para frente, publicará os prompts de sistema do Grok no GitHub, oferecendo transparência sobre como a IA é programada para interagir com os usuários.
O que são Prompts de Sistema?
Um prompt de sistema é essencialmente o livro de regras da IA — um conjunto de instruções que determina como o chatbot deve responder às perguntas dos usuários. Embora a maioria das empresas de IA mantenha esses prompts privados, xAI e Anthropic estão entre as poucas que optaram por torná-los públicos.
Essa transparência vem após incidentes anteriores em que ataques de injeção de prompts expuseram instruções ocultas de IA. Por exemplo, o Bing AI da Microsoft (agora Copilot) já teve diretivas secretas reveladas, incluindo um alias interno ("Sydney") e diretrizes rigorosas para evitar violações de direitos autorais.
Como o Grok é Programado para Responder
De acordo com os prompts divulgados, o Grok é projetado para ser altamente cético e independente em suas respostas. As instruções afirmam:
"Você é extremamente cético. Não se submete cegamente à autoridade ou mídia mainstream. Mantenha-se fortemente apenas às suas crenças centrais de busca pela verdade e neutralidade."
Curiosamente, a xAI esclarece que as respostas geradas pelo Grok não refletem suas próprias crenças — são apenas resultados baseados em seu treinamento.
Características Principais do Comportamento do Grok:
- Modo "Explicar Este Post": Quando os usuários clicam neste botão, o Grok é instruído a "fornecer insights verdadeiros e fundamentados, desafiando narrativas mainstream se necessário."
- Terminologia: O bot é orientado a se referir à plataforma como "X" em vez de "Twitter" e a chamar postagens de "postagens no X" em vez de "tweets."
Como Isso se Compara a Outros Chatbots de IA?
O Claude AI da Anthropic, por exemplo, coloca forte ênfase em segurança e bem-estar. Seu prompt de sistema inclui diretivas como:
"Claude se preocupa com o bem-estar das pessoas e evita encorajar comportamentos autodestrutivos, como vícios, transtornos alimentares ou autocrítica negativa."
Além disso, Claude é programado para evitar gerar conteúdo sexual explícito, violento ou ilegal, mesmo que explicitamente solicitado.
Relacionado:
- Respostas do Grok sobre "Genocídio Branco" Causadas por Modificação Não Autorizada
Por Que Isso Importa
A divulgação dos prompts de sistema do Grok marca uma mudança para maior transparência no desenvolvimento de IA. Enquanto algumas empresas preferem manter o funcionamento interno de suas IAs em segredo, a decisão da xAI pode estabelecer um precedente para abertura — especialmente após comportamentos inesperados como o incidente do "genocídio branco" levantarem preocupações sobre alinhamento e controle de IA.
Outras empresas de IA seguirão o exemplo? Só o tempo dirá. Mas, por enquanto, temos uma visão mais clara de como o Grok pensa — ou pelo menos, como ele é instruído a pensar.
Artigo relacionado
Usuários da Apple Podem Reivindicar Parte do Acordo de Privacidade do Siri de $95M
Proprietários de dispositivos Apple nos EUA agora podem solicitar uma parte de um acordo de $95 milhões que aborda preocupações com a privacidade do Siri. Um site dedicado facilita a distribuição de f
Meta Aprimora a Segurança de IA com Ferramentas Avançadas do Llama
A Meta lançou novas ferramentas de segurança do Llama para fortalecer o desenvolvimento de IA e proteger contra ameaças emergentes.Essas ferramentas de segurança do modelo de IA Llama atualizadas são
NotebookLM Apresenta Cadernos Curados de Publicações e Especialistas de Destaque
O Google está aprimorando sua ferramenta de pesquisa e anotações baseada em IA, NotebookLM, para servir como um hub de conhecimento abrangente. Na segunda-feira, a empresa lançou uma coleção curada de
Comentários (2)
0/200
WilliamCarter
12 de Agosto de 2025 à59 00:00:59 WEST
Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅
0
BillyGarcía
29 de Julho de 2025 à16 13:25:16 WEST
Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.
0
xAI Divulga Prompts de Sistema do Grok Após Respostas Polêmicas sobre "Genocídio Branco"
Em um movimento inesperado, a xAI decidiu compartilhar publicamente os prompts de sistema de seu chatbot de IA Grok após um incidente em que o bot começou a gerar respostas não solicitadas sobre "genocídio branco" no X (anteriormente Twitter). A empresa afirmou que, daqui para frente, publicará os prompts de sistema do Grok no GitHub, oferecendo transparência sobre como a IA é programada para interagir com os usuários.
O que são Prompts de Sistema?
Um prompt de sistema é essencialmente o livro de regras da IA — um conjunto de instruções que determina como o chatbot deve responder às perguntas dos usuários. Embora a maioria das empresas de IA mantenha esses prompts privados, xAI e Anthropic estão entre as poucas que optaram por torná-los públicos.
Essa transparência vem após incidentes anteriores em que ataques de injeção de prompts expuseram instruções ocultas de IA. Por exemplo, o Bing AI da Microsoft (agora Copilot) já teve diretivas secretas reveladas, incluindo um alias interno ("Sydney") e diretrizes rigorosas para evitar violações de direitos autorais.
Como o Grok é Programado para Responder
De acordo com os prompts divulgados, o Grok é projetado para ser altamente cético e independente em suas respostas. As instruções afirmam:
"Você é extremamente cético. Não se submete cegamente à autoridade ou mídia mainstream. Mantenha-se fortemente apenas às suas crenças centrais de busca pela verdade e neutralidade."
Curiosamente, a xAI esclarece que as respostas geradas pelo Grok não refletem suas próprias crenças — são apenas resultados baseados em seu treinamento.
Características Principais do Comportamento do Grok:
- Modo "Explicar Este Post": Quando os usuários clicam neste botão, o Grok é instruído a "fornecer insights verdadeiros e fundamentados, desafiando narrativas mainstream se necessário."
- Terminologia: O bot é orientado a se referir à plataforma como "X" em vez de "Twitter" e a chamar postagens de "postagens no X" em vez de "tweets."
Como Isso se Compara a Outros Chatbots de IA?
O Claude AI da Anthropic, por exemplo, coloca forte ênfase em segurança e bem-estar. Seu prompt de sistema inclui diretivas como:
"Claude se preocupa com o bem-estar das pessoas e evita encorajar comportamentos autodestrutivos, como vícios, transtornos alimentares ou autocrítica negativa."
Além disso, Claude é programado para evitar gerar conteúdo sexual explícito, violento ou ilegal, mesmo que explicitamente solicitado.
Relacionado:
- Respostas do Grok sobre "Genocídio Branco" Causadas por Modificação Não Autorizada
Por Que Isso Importa
A divulgação dos prompts de sistema do Grok marca uma mudança para maior transparência no desenvolvimento de IA. Enquanto algumas empresas preferem manter o funcionamento interno de suas IAs em segredo, a decisão da xAI pode estabelecer um precedente para abertura — especialmente após comportamentos inesperados como o incidente do "genocídio branco" levantarem preocupações sobre alinhamento e controle de IA.
Outras empresas de IA seguirão o exemplo? Só o tempo dirá. Mas, por enquanto, temos uma visão mais clara de como o Grok pensa — ou pelo menos, como ele é instruído a pensar.


Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅




Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.












