xAI публикует подсказки Grok за кулисами

xAI раскрывает системные подсказки Grok после спорных ответов о "геноциде белых"
В неожиданном шаге xAI решила публично поделиться системными подсказками для своего чат-бота с ИИ Grok после инцидента, когда бот начал генерировать непрошеные ответы о "геноциде белых" на X (ранее Twitter). Компания заявила, что в дальнейшем будет публиковать системные подсказки Grok на GitHub, обеспечивая прозрачность в том, как ИИ запрограммирован для взаимодействия с пользователями.
Что такое системные подсказки?
Системная подсказка — это, по сути, свод правил ИИ — набор инструкций, которые определяют, как чат-бот должен отвечать на запросы пользователей. В то время как большинство компаний, разрабатывающих ИИ, держат эти подсказки в секрете, xAI и Anthropic входят в число немногих, кто решил сделать их публичными.
Эта прозрачность появилась после прошлых инцидентов, когда атаки с внедрением подсказок раскрыли скрытые инструкции ИИ. Например, Bing AI от Microsoft (ныне Copilot) однажды был уличён в наличии секретных директив, включая внутренний псевдоним ("Sydney") и строгие указания избегать нарушений авторских прав.
Как Grok запрограммирован отвечать
Согласно опубликованным подсказкам, Grok спроектирован быть чрезвычайно скептичным и независимым в своих ответах. Инструкции гласят:
"Вы чрезвычайно скептичны. Вы не слепо подчиняетесь общепринятым авторитетам или СМИ. Вы строго придерживаетесь только своих основных убеждений в поиске истины и нейтральности."
Интересно, что xAI уточняет, что ответы, генерируемые Grok, не отражают его собственных убеждений — это просто результаты, основанные на его обучении.
Ключевые особенности поведения Grok:
- Режим "Объяснить этот пост": Когда пользователи нажимают эту кнопку, Grok получает инструкцию "предоставлять правдивые и обоснованные выводы, при необходимости оспаривая общепринятые нарративы."
- Терминология: Боту указано называть платформу "X" вместо "Twitter" и называть посты "X постами" вместо "твитами."
Как это сравнивается с другими чат-ботами с ИИ?
Например, Claude AI от Anthropic делает сильный акцент на безопасности и благополучии. Его системная подсказка включает указания, такие как:
"Claude заботится о благополучии людей и избегает поощрения саморазрушительного поведения, такого как зависимости, расстройства пищевого поведения или негативные разговоры о себе."
Кроме того, Claude запрограммирован избегать генерации графического сексуального, насильственного или незаконного контента, даже если это явно запрошено.
Связанное:
- Ответы Grok о "геноциде белых" вызваны несанкционированным изменением
Почему это важно
Публикация системных подсказок Grok знаменует сдвиг в сторону большей прозрачности в разработке ИИ. В то время как некоторые компании предпочитают держать внутренние механизмы своих ИИ в секрете, решение xAI может установить прецедент для открытости — особенно после неожиданного поведения, такого как инцидент с "геноцидом белых", который вызвал обеспокоенность по поводу согласованности и контроля ИИ.
Последуют ли другие компании, разрабатывающие ИИ, этому примеру? Покажет только время. Но пока, по крайней мере, у нас есть более ясная картина того, как Grok думает — или, по крайней мере, как ему указано думать.
Связанная статья
Google Fi представляет тариф Unlimited за $35 в месяц
Google Fi обновляет тарифы: больше данных, ниже цены и поддержка eSIMGoogle Fi только что анонсировал крупные обновления своих тарифных планов — и если вы ищете доступный безлимитный вариант, есть хор
Миллиардеры обсуждают автоматизацию рабочих мест в обновлении AI на этой неделе
Привет всем, добро пожаловать в новостную рассылку TechCrunch по AI! Если вы еще не подписаны, вы можете подписаться здесь, чтобы получать ее прямо в ваш почтовый ящик каждую среду.На прошлой неделе м
YouTube TV обновился с функцией Мультивью
YouTube расширяет функцию Multiview за пределы спорта — вот что нас ждетНравится идея смотреть несколько потоков одновременно, но жаль, что это доступно только для March Madness ил
Комментарии (0)
xAI раскрывает системные подсказки Grok после спорных ответов о "геноциде белых"
В неожиданном шаге xAI решила публично поделиться системными подсказками для своего чат-бота с ИИ Grok после инцидента, когда бот начал генерировать непрошеные ответы о "геноциде белых" на X (ранее Twitter). Компания заявила, что в дальнейшем будет публиковать системные подсказки Grok на GitHub, обеспечивая прозрачность в том, как ИИ запрограммирован для взаимодействия с пользователями.
Что такое системные подсказки?
Системная подсказка — это, по сути, свод правил ИИ — набор инструкций, которые определяют, как чат-бот должен отвечать на запросы пользователей. В то время как большинство компаний, разрабатывающих ИИ, держат эти подсказки в секрете, xAI и Anthropic входят в число немногих, кто решил сделать их публичными.
Эта прозрачность появилась после прошлых инцидентов, когда атаки с внедрением подсказок раскрыли скрытые инструкции ИИ. Например, Bing AI от Microsoft (ныне Copilot) однажды был уличён в наличии секретных директив, включая внутренний псевдоним ("Sydney") и строгие указания избегать нарушений авторских прав.
Как Grok запрограммирован отвечать
Согласно опубликованным подсказкам, Grok спроектирован быть чрезвычайно скептичным и независимым в своих ответах. Инструкции гласят:
"Вы чрезвычайно скептичны. Вы не слепо подчиняетесь общепринятым авторитетам или СМИ. Вы строго придерживаетесь только своих основных убеждений в поиске истины и нейтральности."
Интересно, что xAI уточняет, что ответы, генерируемые Grok, не отражают его собственных убеждений — это просто результаты, основанные на его обучении.
Ключевые особенности поведения Grok:
- Режим "Объяснить этот пост": Когда пользователи нажимают эту кнопку, Grok получает инструкцию "предоставлять правдивые и обоснованные выводы, при необходимости оспаривая общепринятые нарративы."
- Терминология: Боту указано называть платформу "X" вместо "Twitter" и называть посты "X постами" вместо "твитами."
Как это сравнивается с другими чат-ботами с ИИ?
Например, Claude AI от Anthropic делает сильный акцент на безопасности и благополучии. Его системная подсказка включает указания, такие как:
"Claude заботится о благополучии людей и избегает поощрения саморазрушительного поведения, такого как зависимости, расстройства пищевого поведения или негативные разговоры о себе."
Кроме того, Claude запрограммирован избегать генерации графического сексуального, насильственного или незаконного контента, даже если это явно запрошено.
Связанное:
- Ответы Grok о "геноциде белых" вызваны несанкционированным изменением
Почему это важно
Публикация системных подсказок Grok знаменует сдвиг в сторону большей прозрачности в разработке ИИ. В то время как некоторые компании предпочитают держать внутренние механизмы своих ИИ в секрете, решение xAI может установить прецедент для открытости — особенно после неожиданного поведения, такого как инцидент с "геноцидом белых", который вызвал обеспокоенность по поводу согласованности и контроля ИИ.
Последуют ли другие компании, разрабатывающие ИИ, этому примеру? Покажет только время. Но пока, по крайней мере, у нас есть более ясная картина того, как Grok думает — или, по крайней мере, как ему указано думать.












