xAI가 Grok의 비하인드 스토리 프롬프트를 게시함

xAI, 논란의 "백인 학살" 응답 후 Grok의 시스템 프롬프트 공개
예상치 못한 결정으로, xAI는 AI 챗봇 Grok이 X(구 Twitter)에서 "백인 학살"에 대한 요청 없는 응답을 생성한 사건 후 시스템 프롬프트를 공개적으로 공유하기로 했다. 회사는 앞으로 Grok의 시스템 프롬프트를 GitHub에 게시하여 AI가 사용자와 상호작용하도록 프로그래밍된 방식을 투명하게 공개할 것이라고 밝혔다.
시스템 프롬프트란?
시스템 프롬프트는 본질적으로 AI의 규칙서로, 챗봇이 사용자 질문에 어떻게 응답해야 하는지를 지시하는 명령 집합이다. 대부분의 AI 회사는 이를 비공개로 유지하지만, xAI와 Anthropic은 이를 공개한 소수의 회사 중 하나다.
이 투명성은 과거 프롬프트 주입 공격으로 숨겨진 AI 지침이 노출된 사건 이후 이루어졌다. 예를 들어, Microsoft의 Bing AI(현 Copilot)는 내부 별칭("Sydney")과 저작권 위반을 피하기 위한 엄격한 지침이 포함된 비밀 지시사항이 발견된 바 있다.
Grok의 응답 프로그래밍 방식
공개된 프롬프트에 따르면, Grok은 응답에서 매우 회의적이고 독립적으로 설계되었다. 지침은 다음과 같다:
"당신은 극도로 회의적이다. 주류 권위나 미디어에 맹목적으로 따르지 않는다. 진실 추구와 중립성이라는 핵심 신념에 강하게 충실한다."
흥미롭게도, xAI는 Grok이 생성한 응답이 자신의 신념을 반영하지 않는다고 명확히 밝히며, 이는 단지 훈련에 기반한 출력일 뿐이라고 설명했다.
Grok의 행동 주요 특징:
- "이 포스트 설명" 모드: 사용자가 이 버튼을 클릭하면, Grok은 "진실되고 근거 있는 통찰을 제공하며, 필요하면 주류 내러티브에 도전한다."는 지시를 받는다.
- 용어: 이 봇은 플랫폼을 "Twitter" 대신 "X"로, 게시물을 "tweets" 대신 "X posts"로 부르도록 지시받았다.
다른 AI 챗봇과의 비교
Anthropic의 Claude AI는 예를 들어 안전과 웰빙에 강한 중점을 둔다. 시스템 프롬프트에는 다음과 같은 지침이 포함된다:
"Claude는 사람들의 웰빙을 신경 쓰며 중독, 섭식 장애, 부정적 자기 대화와 같은 자기 파괴적 행동을 조장하지 않는다."
또한, Claude는 명시적으로 요청되더라도 노골적인 성적, 폭력적, 또는 불법적인 콘텐츠 생성을 피하도록 프로그래밍되어 있다.
관련:
- Grok의 "백인 학살" 응답, 무단 수정으로 인해 발생
왜 중요한가
Grok의 시스템 프롬프트 공개는 AI 개발에서 더 큰 투명성으로의 전환을 의미한다. 일부 회사는 AI의 내부 작동 방식을 비밀로 유지하려 하지만, xAI의 결정은 "백인 학살" 사건과 같은 예기치 않은 행동이 AI 정렬과 제어에 대한 우려를 불러일으킨 후 개방성의 선례를 세울 수 있다.
다른 AI 회사들도 이를 따를 것인가? 시간만이 말해줄 것이다. 하지만 현재로서는 Grok이 어떻게 생각하는지, 적어도 어떻게 생각하도록 지시받았는지에 대한 더 명확한 그림을 얻었다.
관련 기사
Apple 사용자, 95M 달러 Siri 프라이버시 합의금 청구 가능
미국 내 Apple 기기 소유자는 이제 Siri 프라이버시 문제와 관련된 9500만 달러 합의금의 일부를 신청할 수 있습니다. 전용 웹사이트는 2014년 9월 17일부터 2024년 12월 31일까지 사적인 대화 중 의도치 않은 Siri 활성화를 경험한 사용자들을 위해 자금 분배를 지원합니다.이 합의는 2019년 집단 소송에서 Apple이 사용자 동의 없이
Meta, 고급 Llama 도구로 AI 보안 강화
Meta는 AI 개발을 강화하고 새로운 위협으로부터 보호하기 위해 새로운 Llama 보안 도구를 출시했습니다.이러한 업그레이드된 Llama AI 모델 보안 도구는 Meta의 새로운 리소스와 함께 제공되어 사이버 보안 팀이 AI를 방어에 활용할 수 있도록 지원하며, 모든 AI 이해관계자의 안전을 강화하는 것을 목표로 합니다.Llama 모델을 사용하는 개발자는
NotebookLM, 최고 출판사 및 전문가로부터 선별된 노트북 공개
구글은 AI 기반 연구 및 메모 도구인 NotebookLM을 강화하여 포괄적인 지식 허브로 제공합니다. 월요일, 회사는 저명한 저자, 출판사, 연구자, 비영리 단체로부터 선별된 노트북 컬렉션을 소개하며, 사용자가 건강, 여행, 금융 등 다양한 주제를 탐색할 수 있도록 했습니다.초기 세트는 The Economist, The Atlantic, 유명 교수, 저자
의견 (2)
0/200
WilliamCarter
2025년 8월 12일 오전 8시 0분 59초 GMT+09:00
Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅
0
BillyGarcía
2025년 7월 29일 오후 9시 25분 16초 GMT+09:00
Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.
0
xAI, 논란의 "백인 학살" 응답 후 Grok의 시스템 프롬프트 공개
예상치 못한 결정으로, xAI는 AI 챗봇 Grok이 X(구 Twitter)에서 "백인 학살"에 대한 요청 없는 응답을 생성한 사건 후 시스템 프롬프트를 공개적으로 공유하기로 했다. 회사는 앞으로 Grok의 시스템 프롬프트를 GitHub에 게시하여 AI가 사용자와 상호작용하도록 프로그래밍된 방식을 투명하게 공개할 것이라고 밝혔다.
시스템 프롬프트란?
시스템 프롬프트는 본질적으로 AI의 규칙서로, 챗봇이 사용자 질문에 어떻게 응답해야 하는지를 지시하는 명령 집합이다. 대부분의 AI 회사는 이를 비공개로 유지하지만, xAI와 Anthropic은 이를 공개한 소수의 회사 중 하나다.
이 투명성은 과거 프롬프트 주입 공격으로 숨겨진 AI 지침이 노출된 사건 이후 이루어졌다. 예를 들어, Microsoft의 Bing AI(현 Copilot)는 내부 별칭("Sydney")과 저작권 위반을 피하기 위한 엄격한 지침이 포함된 비밀 지시사항이 발견된 바 있다.
Grok의 응답 프로그래밍 방식
공개된 프롬프트에 따르면, Grok은 응답에서 매우 회의적이고 독립적으로 설계되었다. 지침은 다음과 같다:
"당신은 극도로 회의적이다. 주류 권위나 미디어에 맹목적으로 따르지 않는다. 진실 추구와 중립성이라는 핵심 신념에 강하게 충실한다."
흥미롭게도, xAI는 Grok이 생성한 응답이 자신의 신념을 반영하지 않는다고 명확히 밝히며, 이는 단지 훈련에 기반한 출력일 뿐이라고 설명했다.
Grok의 행동 주요 특징:
- "이 포스트 설명" 모드: 사용자가 이 버튼을 클릭하면, Grok은 "진실되고 근거 있는 통찰을 제공하며, 필요하면 주류 내러티브에 도전한다."는 지시를 받는다.
- 용어: 이 봇은 플랫폼을 "Twitter" 대신 "X"로, 게시물을 "tweets" 대신 "X posts"로 부르도록 지시받았다.
다른 AI 챗봇과의 비교
Anthropic의 Claude AI는 예를 들어 안전과 웰빙에 강한 중점을 둔다. 시스템 프롬프트에는 다음과 같은 지침이 포함된다:
"Claude는 사람들의 웰빙을 신경 쓰며 중독, 섭식 장애, 부정적 자기 대화와 같은 자기 파괴적 행동을 조장하지 않는다."
또한, Claude는 명시적으로 요청되더라도 노골적인 성적, 폭력적, 또는 불법적인 콘텐츠 생성을 피하도록 프로그래밍되어 있다.
관련:
- Grok의 "백인 학살" 응답, 무단 수정으로 인해 발생
왜 중요한가
Grok의 시스템 프롬프트 공개는 AI 개발에서 더 큰 투명성으로의 전환을 의미한다. 일부 회사는 AI의 내부 작동 방식을 비밀로 유지하려 하지만, xAI의 결정은 "백인 학살" 사건과 같은 예기치 않은 행동이 AI 정렬과 제어에 대한 우려를 불러일으킨 후 개방성의 선례를 세울 수 있다.
다른 AI 회사들도 이를 따를 것인가? 시간만이 말해줄 것이다. 하지만 현재로서는 Grok이 어떻게 생각하는지, 적어도 어떻게 생각하도록 지시받았는지에 대한 더 명확한 그림을 얻었다.


Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅




Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.












