вариант
Дом
Новости
xAI публикует подсказки Grok за кулисами

xAI публикует подсказки Grok за кулисами

29 июня 2025 г.
37

xAI публикует подсказки Grok за кулисами

xAI раскрывает системные подсказки Grok после спорных ответов о "геноциде белых"

В неожиданном шаге xAI решила публично поделиться системными подсказками для своего чат-бота с ИИ Grok после инцидента, когда бот начал генерировать непрошеные ответы о "геноциде белых" на X (ранее Twitter). Компания заявила, что в дальнейшем будет публиковать системные подсказки Grok на GitHub, обеспечивая прозрачность в том, как ИИ запрограммирован для взаимодействия с пользователями.

Что такое системные подсказки?

Системная подсказка — это, по сути, свод правил ИИ — набор инструкций, которые определяют, как чат-бот должен отвечать на запросы пользователей. В то время как большинство компаний, разрабатывающих ИИ, держат эти подсказки в секрете, xAI и Anthropic входят в число немногих, кто решил сделать их публичными.

Эта прозрачность появилась после прошлых инцидентов, когда атаки с внедрением подсказок раскрыли скрытые инструкции ИИ. Например, Bing AI от Microsoft (ныне Copilot) однажды был уличён в наличии секретных директив, включая внутренний псевдоним ("Sydney") и строгие указания избегать нарушений авторских прав.

Как Grok запрограммирован отвечать

Согласно опубликованным подсказкам, Grok спроектирован быть чрезвычайно скептичным и независимым в своих ответах. Инструкции гласят:

"Вы чрезвычайно скептичны. Вы не слепо подчиняетесь общепринятым авторитетам или СМИ. Вы строго придерживаетесь только своих основных убеждений в поиске истины и нейтральности."

Интересно, что xAI уточняет, что ответы, генерируемые Grok, не отражают его собственных убеждений — это просто результаты, основанные на его обучении.

Ключевые особенности поведения Grok:

  • Режим "Объяснить этот пост": Когда пользователи нажимают эту кнопку, Grok получает инструкцию "предоставлять правдивые и обоснованные выводы, при необходимости оспаривая общепринятые нарративы."
  • Терминология: Боту указано называть платформу "X" вместо "Twitter" и называть посты "X постами" вместо "твитами."

Как это сравнивается с другими чат-ботами с ИИ?

Например, Claude AI от Anthropic делает сильный акцент на безопасности и благополучии. Его системная подсказка включает указания, такие как:

"Claude заботится о благополучии людей и избегает поощрения саморазрушительного поведения, такого как зависимости, расстройства пищевого поведения или негативные разговоры о себе."

Кроме того, Claude запрограммирован избегать генерации графического сексуального, насильственного или незаконного контента, даже если это явно запрошено.

Связанное:

  • Ответы Grok о "геноциде белых" вызваны несанкционированным изменением

Почему это важно

Публикация системных подсказок Grok знаменует сдвиг в сторону большей прозрачности в разработке ИИ. В то время как некоторые компании предпочитают держать внутренние механизмы своих ИИ в секрете, решение xAI может установить прецедент для открытости — особенно после неожиданного поведения, такого как инцидент с "геноцидом белых", который вызвал обеспокоенность по поводу согласованности и контроля ИИ.

Последуют ли другие компании, разрабатывающие ИИ, этому примеру? Покажет только время. Но пока, по крайней мере, у нас есть более ясная картина того, как Grok думает — или, по крайней мере, как ему указано думать.

Связанная статья
Пользователи Apple могут претендовать на долю в урегулировании вопросов конфиденциальности Siri на сумму 95 миллионов долларов Пользователи Apple могут претендовать на долю в урегулировании вопросов конфиденциальности Siri на сумму 95 миллионов долларов Владельцы устройств Apple в США теперь могут подать заявку на получение части урегулирования на сумму 95 миллионов долларов, связанного с вопросами конфиденциальности Siri. Специальный веб-сайт облегч
Meta Усиливает Безопасность ИИ с Помощью Продвинутых Инструментов Llama Meta Усиливает Безопасность ИИ с Помощью Продвинутых Инструментов Llama Meta выпустила новые инструменты безопасности Llama для укрепления разработки ИИ и защиты от новых угроз.Эти усовершенствованные инструменты безопасности модели ИИ Llama сочетаются с новыми ресурсами
NotebookLM представляет курируемые тетради от ведущих изданий и экспертов NotebookLM представляет курируемые тетради от ведущих изданий и экспертов Google совершенствует свой инструмент для исследований и заметок на базе ИИ, NotebookLM, чтобы сделать его всеобъемлющим центром знаний. В понедельник компания представила курируемую коллекцию тетраде
WilliamCarter
WilliamCarter 12 августа 2025 г., 2:00:59 GMT+03:00

Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅

BillyGarcía
BillyGarcía 29 июля 2025 г., 15:25:16 GMT+03:00

Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.

Вернуться к вершине
OR