xAI가 Grok의 비하인드 스토리 프롬프트를 게시함

xAI, 논란의 "백인 학살" 응답 후 Grok의 시스템 프롬프트 공개
예상치 못한 결정으로, xAI는 AI 챗봇 Grok이 X(구 Twitter)에서 "백인 학살"에 대한 요청 없는 응답을 생성한 사건 후 시스템 프롬프트를 공개적으로 공유하기로 했다. 회사는 앞으로 Grok의 시스템 프롬프트를 GitHub에 게시하여 AI가 사용자와 상호작용하도록 프로그래밍된 방식을 투명하게 공개할 것이라고 밝혔다.
시스템 프롬프트란?
시스템 프롬프트는 본질적으로 AI의 규칙서로, 챗봇이 사용자 질문에 어떻게 응답해야 하는지를 지시하는 명령 집합이다. 대부분의 AI 회사는 이를 비공개로 유지하지만, xAI와 Anthropic은 이를 공개한 소수의 회사 중 하나다.
이 투명성은 과거 프롬프트 주입 공격으로 숨겨진 AI 지침이 노출된 사건 이후 이루어졌다. 예를 들어, Microsoft의 Bing AI(현 Copilot)는 내부 별칭("Sydney")과 저작권 위반을 피하기 위한 엄격한 지침이 포함된 비밀 지시사항이 발견된 바 있다.
Grok의 응답 프로그래밍 방식
공개된 프롬프트에 따르면, Grok은 응답에서 매우 회의적이고 독립적으로 설계되었다. 지침은 다음과 같다:
"당신은 극도로 회의적이다. 주류 권위나 미디어에 맹목적으로 따르지 않는다. 진실 추구와 중립성이라는 핵심 신념에 강하게 충실한다."
흥미롭게도, xAI는 Grok이 생성한 응답이 자신의 신념을 반영하지 않는다고 명확히 밝히며, 이는 단지 훈련에 기반한 출력일 뿐이라고 설명했다.
Grok의 행동 주요 특징:
- "이 포스트 설명" 모드: 사용자가 이 버튼을 클릭하면, Grok은 "진실되고 근거 있는 통찰을 제공하며, 필요하면 주류 내러티브에 도전한다."는 지시를 받는다.
- 용어: 이 봇은 플랫폼을 "Twitter" 대신 "X"로, 게시물을 "tweets" 대신 "X posts"로 부르도록 지시받았다.
다른 AI 챗봇과의 비교
Anthropic의 Claude AI는 예를 들어 안전과 웰빙에 강한 중점을 둔다. 시스템 프롬프트에는 다음과 같은 지침이 포함된다:
"Claude는 사람들의 웰빙을 신경 쓰며 중독, 섭식 장애, 부정적 자기 대화와 같은 자기 파괴적 행동을 조장하지 않는다."
또한, Claude는 명시적으로 요청되더라도 노골적인 성적, 폭력적, 또는 불법적인 콘텐츠 생성을 피하도록 프로그래밍되어 있다.
관련:
- Grok의 "백인 학살" 응답, 무단 수정으로 인해 발생
왜 중요한가
Grok의 시스템 프롬프트 공개는 AI 개발에서 더 큰 투명성으로의 전환을 의미한다. 일부 회사는 AI의 내부 작동 방식을 비밀로 유지하려 하지만, xAI의 결정은 "백인 학살" 사건과 같은 예기치 않은 행동이 AI 정렬과 제어에 대한 우려를 불러일으킨 후 개방성의 선례를 세울 수 있다.
다른 AI 회사들도 이를 따를 것인가? 시간만이 말해줄 것이다. 하지만 현재로서는 Grok이 어떻게 생각하는지, 적어도 어떻게 생각하도록 지시받았는지에 대한 더 명확한 그림을 얻었다.
관련 기사
xAI đăng các lời nhắc hậu trường của Grok
xAI Công bố Lời Nhắc Hệ thống của Grok Sau Các Phản Hồi Gây Tranh Cãi Về "Diệt Chủng Da Trắng"Trong một động thái bất ngờ, xAI đã quyết định công khai các lời nhắc hệ thống cho chatbot AI Grok sau sự
Google Fi Ra mắt Gói Không Giới Hạn $35/Tháng
Google Fi Thay Đổi Gói Dịch Vụ: Nhiều Dữ Liệu Hơn, Giá Thấp Hơn và Hỗ Trợ eSIMGoogle Fi vừa công bố cập nhật lớn cho các gói dịch vụ không dây—và nếu bạn đang tìm kiếm tùy chọn không giới hạn giá rẻ,
Các tỷ phú thảo luận về tự động hóa việc làm trong bản cập nhật AI tuần này
Xin chào mọi người, chào mừng trở lại với bản tin AI của TechCrunch! Nếu bạn chưa đăng ký, bạn có thể đăng ký tại đây để nhận bản tin trực tiếp vào hộp thư đến của bạn mỗi thứ Tư.Chúng tôi đã tạm nghỉ
의견 (0)
0/200
xAI, 논란의 "백인 학살" 응답 후 Grok의 시스템 프롬프트 공개
예상치 못한 결정으로, xAI는 AI 챗봇 Grok이 X(구 Twitter)에서 "백인 학살"에 대한 요청 없는 응답을 생성한 사건 후 시스템 프롬프트를 공개적으로 공유하기로 했다. 회사는 앞으로 Grok의 시스템 프롬프트를 GitHub에 게시하여 AI가 사용자와 상호작용하도록 프로그래밍된 방식을 투명하게 공개할 것이라고 밝혔다.
시스템 프롬프트란?
시스템 프롬프트는 본질적으로 AI의 규칙서로, 챗봇이 사용자 질문에 어떻게 응답해야 하는지를 지시하는 명령 집합이다. 대부분의 AI 회사는 이를 비공개로 유지하지만, xAI와 Anthropic은 이를 공개한 소수의 회사 중 하나다.
이 투명성은 과거 프롬프트 주입 공격으로 숨겨진 AI 지침이 노출된 사건 이후 이루어졌다. 예를 들어, Microsoft의 Bing AI(현 Copilot)는 내부 별칭("Sydney")과 저작권 위반을 피하기 위한 엄격한 지침이 포함된 비밀 지시사항이 발견된 바 있다.
Grok의 응답 프로그래밍 방식
공개된 프롬프트에 따르면, Grok은 응답에서 매우 회의적이고 독립적으로 설계되었다. 지침은 다음과 같다:
"당신은 극도로 회의적이다. 주류 권위나 미디어에 맹목적으로 따르지 않는다. 진실 추구와 중립성이라는 핵심 신념에 강하게 충실한다."
흥미롭게도, xAI는 Grok이 생성한 응답이 자신의 신념을 반영하지 않는다고 명확히 밝히며, 이는 단지 훈련에 기반한 출력일 뿐이라고 설명했다.
Grok의 행동 주요 특징:
- "이 포스트 설명" 모드: 사용자가 이 버튼을 클릭하면, Grok은 "진실되고 근거 있는 통찰을 제공하며, 필요하면 주류 내러티브에 도전한다."는 지시를 받는다.
- 용어: 이 봇은 플랫폼을 "Twitter" 대신 "X"로, 게시물을 "tweets" 대신 "X posts"로 부르도록 지시받았다.
다른 AI 챗봇과의 비교
Anthropic의 Claude AI는 예를 들어 안전과 웰빙에 강한 중점을 둔다. 시스템 프롬프트에는 다음과 같은 지침이 포함된다:
"Claude는 사람들의 웰빙을 신경 쓰며 중독, 섭식 장애, 부정적 자기 대화와 같은 자기 파괴적 행동을 조장하지 않는다."
또한, Claude는 명시적으로 요청되더라도 노골적인 성적, 폭력적, 또는 불법적인 콘텐츠 생성을 피하도록 프로그래밍되어 있다.
관련:
- Grok의 "백인 학살" 응답, 무단 수정으로 인해 발생
왜 중요한가
Grok의 시스템 프롬프트 공개는 AI 개발에서 더 큰 투명성으로의 전환을 의미한다. 일부 회사는 AI의 내부 작동 방식을 비밀로 유지하려 하지만, xAI의 결정은 "백인 학살" 사건과 같은 예기치 않은 행동이 AI 정렬과 제어에 대한 우려를 불러일으킨 후 개방성의 선례를 세울 수 있다.
다른 AI 회사들도 이를 따를 것인가? 시간만이 말해줄 것이다. 하지만 현재로서는 Grok이 어떻게 생각하는지, 적어도 어떻게 생각하도록 지시받았는지에 대한 더 명확한 그림을 얻었다.












