xAI публикует подсказки Grok за кулисами

xAI раскрывает системные подсказки Grok после спорных ответов о "геноциде белых"
В неожиданном шаге xAI решила публично поделиться системными подсказками для своего чат-бота с ИИ Grok после инцидента, когда бот начал генерировать непрошеные ответы о "геноциде белых" на X (ранее Twitter). Компания заявила, что в дальнейшем будет публиковать системные подсказки Grok на GitHub, обеспечивая прозрачность в том, как ИИ запрограммирован для взаимодействия с пользователями.
Что такое системные подсказки?
Системная подсказка — это, по сути, свод правил ИИ — набор инструкций, которые определяют, как чат-бот должен отвечать на запросы пользователей. В то время как большинство компаний, разрабатывающих ИИ, держат эти подсказки в секрете, xAI и Anthropic входят в число немногих, кто решил сделать их публичными.
Эта прозрачность появилась после прошлых инцидентов, когда атаки с внедрением подсказок раскрыли скрытые инструкции ИИ. Например, Bing AI от Microsoft (ныне Copilot) однажды был уличён в наличии секретных директив, включая внутренний псевдоним ("Sydney") и строгие указания избегать нарушений авторских прав.
Как Grok запрограммирован отвечать
Согласно опубликованным подсказкам, Grok спроектирован быть чрезвычайно скептичным и независимым в своих ответах. Инструкции гласят:
"Вы чрезвычайно скептичны. Вы не слепо подчиняетесь общепринятым авторитетам или СМИ. Вы строго придерживаетесь только своих основных убеждений в поиске истины и нейтральности."
Интересно, что xAI уточняет, что ответы, генерируемые Grok, не отражают его собственных убеждений — это просто результаты, основанные на его обучении.
Ключевые особенности поведения Grok:
- Режим "Объяснить этот пост": Когда пользователи нажимают эту кнопку, Grok получает инструкцию "предоставлять правдивые и обоснованные выводы, при необходимости оспаривая общепринятые нарративы."
- Терминология: Боту указано называть платформу "X" вместо "Twitter" и называть посты "X постами" вместо "твитами."
Как это сравнивается с другими чат-ботами с ИИ?
Например, Claude AI от Anthropic делает сильный акцент на безопасности и благополучии. Его системная подсказка включает указания, такие как:
"Claude заботится о благополучии людей и избегает поощрения саморазрушительного поведения, такого как зависимости, расстройства пищевого поведения или негативные разговоры о себе."
Кроме того, Claude запрограммирован избегать генерации графического сексуального, насильственного или незаконного контента, даже если это явно запрошено.
Связанное:
- Ответы Grok о "геноциде белых" вызваны несанкционированным изменением
Почему это важно
Публикация системных подсказок Grok знаменует сдвиг в сторону большей прозрачности в разработке ИИ. В то время как некоторые компании предпочитают держать внутренние механизмы своих ИИ в секрете, решение xAI может установить прецедент для открытости — особенно после неожиданного поведения, такого как инцидент с "геноцидом белых", который вызвал обеспокоенность по поводу согласованности и контроля ИИ.
Последуют ли другие компании, разрабатывающие ИИ, этому примеру? Покажет только время. Но пока, по крайней мере, у нас есть более ясная картина того, как Grok думает — или, по крайней мере, как ему указано думать.
Связанная статья
Пользователи Apple могут претендовать на долю в урегулировании вопросов конфиденциальности Siri на сумму 95 миллионов долларов
Владельцы устройств Apple в США теперь могут подать заявку на получение части урегулирования на сумму 95 миллионов долларов, связанного с вопросами конфиденциальности Siri. Специальный веб-сайт облегч
Meta Усиливает Безопасность ИИ с Помощью Продвинутых Инструментов Llama
Meta выпустила новые инструменты безопасности Llama для укрепления разработки ИИ и защиты от новых угроз.Эти усовершенствованные инструменты безопасности модели ИИ Llama сочетаются с новыми ресурсами
NotebookLM представляет курируемые тетради от ведущих изданий и экспертов
Google совершенствует свой инструмент для исследований и заметок на базе ИИ, NotebookLM, чтобы сделать его всеобъемлющим центром знаний. В понедельник компания представила курируемую коллекцию тетраде
Комментарии (2)
WilliamCarter
12 августа 2025 г., 2:00:59 GMT+03:00
Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅
0
BillyGarcía
29 июля 2025 г., 15:25:16 GMT+03:00
Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.
0
xAI раскрывает системные подсказки Grok после спорных ответов о "геноциде белых"
В неожиданном шаге xAI решила публично поделиться системными подсказками для своего чат-бота с ИИ Grok после инцидента, когда бот начал генерировать непрошеные ответы о "геноциде белых" на X (ранее Twitter). Компания заявила, что в дальнейшем будет публиковать системные подсказки Grok на GitHub, обеспечивая прозрачность в том, как ИИ запрограммирован для взаимодействия с пользователями.
Что такое системные подсказки?
Системная подсказка — это, по сути, свод правил ИИ — набор инструкций, которые определяют, как чат-бот должен отвечать на запросы пользователей. В то время как большинство компаний, разрабатывающих ИИ, держат эти подсказки в секрете, xAI и Anthropic входят в число немногих, кто решил сделать их публичными.
Эта прозрачность появилась после прошлых инцидентов, когда атаки с внедрением подсказок раскрыли скрытые инструкции ИИ. Например, Bing AI от Microsoft (ныне Copilot) однажды был уличён в наличии секретных директив, включая внутренний псевдоним ("Sydney") и строгие указания избегать нарушений авторских прав.
Как Grok запрограммирован отвечать
Согласно опубликованным подсказкам, Grok спроектирован быть чрезвычайно скептичным и независимым в своих ответах. Инструкции гласят:
"Вы чрезвычайно скептичны. Вы не слепо подчиняетесь общепринятым авторитетам или СМИ. Вы строго придерживаетесь только своих основных убеждений в поиске истины и нейтральности."
Интересно, что xAI уточняет, что ответы, генерируемые Grok, не отражают его собственных убеждений — это просто результаты, основанные на его обучении.
Ключевые особенности поведения Grok:
- Режим "Объяснить этот пост": Когда пользователи нажимают эту кнопку, Grok получает инструкцию "предоставлять правдивые и обоснованные выводы, при необходимости оспаривая общепринятые нарративы."
- Терминология: Боту указано называть платформу "X" вместо "Twitter" и называть посты "X постами" вместо "твитами."
Как это сравнивается с другими чат-ботами с ИИ?
Например, Claude AI от Anthropic делает сильный акцент на безопасности и благополучии. Его системная подсказка включает указания, такие как:
"Claude заботится о благополучии людей и избегает поощрения саморазрушительного поведения, такого как зависимости, расстройства пищевого поведения или негативные разговоры о себе."
Кроме того, Claude запрограммирован избегать генерации графического сексуального, насильственного или незаконного контента, даже если это явно запрошено.
Связанное:
- Ответы Grok о "геноциде белых" вызваны несанкционированным изменением
Почему это важно
Публикация системных подсказок Grok знаменует сдвиг в сторону большей прозрачности в разработке ИИ. В то время как некоторые компании предпочитают держать внутренние механизмы своих ИИ в секрете, решение xAI может установить прецедент для открытости — особенно после неожиданного поведения, такого как инцидент с "геноцидом белых", который вызвал обеспокоенность по поводу согласованности и контроля ИИ.
Последуют ли другие компании, разрабатывающие ИИ, этому примеру? Покажет только время. Но пока, по крайней мере, у нас есть более ясная картина того, как Grok думает — или, по крайней мере, как ему указано думать.


Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅




Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.












