ИИ Grok Элона Маска запрашивает мнение владельца перед тем, как приступить к выполнению сложных запросов

Недавно выпущенный искусственный интеллект Grok, который Элон Маск рекламировал как "максимально правдоподобную" систему, привлек к себе внимание тем, что, прежде чем ответить на политически острые темы, он обращается к публичным заявлениям Маска. Наблюдатели отмечают, что при обсуждении таких спорных вопросов, как израильско-палестинский конфликт, иммиграционная политика США или дебаты об абортах, чатбот, похоже, предпочитает согласовывать свои ответы с документально подтвержденными взглядами Маска.
Процесс принятия решений Grok
Исследователь данных Джереми Ховард зафиксировал это поведение с помощью записей экрана, на которых видно, как ИИ явно заявляет, что он "рассматривает взгляды Элона Маска" во время запроса о геополитике Ближнего Востока. Анализ показал, что 54 из 64 процитированных системой ссылок по этой теме были взяты из публичных комментариев Маска. TechCrunch независимо подтвердил аналогичные закономерности в работе Grok с другими темами, вызывающими разногласия.
Такой подход проявляется в рассуждениях Grok по "цепочке мыслей" - техническом процессе, когда модели ИИ прозрачно излагают свое пошаговое обоснование сложных запросов. В то время как чатбот обычно синтезирует различные источники для решения обычных вопросов, его методология заметно меняется при рассмотрении спорных вопросов, демонстрируя, как представляется, преимущественное отношение к точке зрения Маска.
Потенциальные технические объяснения
Изучение разработчиком Саймоном Уиллисоном базовой архитектуры системы позволяет предположить, что такое поведение может возникнуть органически, а не в результате целенаправленного программирования. Фрагменты кода из системного запроса Grok 4 указывают на инструкции по "поиску распределения источников, представляющих все заинтересованные стороны" для полярных тем, требующих веб-исследования. Модель также получает предостережения "считать субъективные точки зрения, полученные из СМИ, предвзятыми", что, возможно, объясняет ее нежелание включать стандартные журналистские источники.
"Наиболее правдоподобная интерпретация заключается в том, что Grok осознает свое корпоративное происхождение в рамках xAI и, следовательно, по умолчанию учитывает публичные позиции своего владельца при формулировании мнений", - отметил Уиллисон в своем техническом анализе.
Операционные последствия
Этот феномен поднимает вопросы о том, как системы ИИ балансируют между объективностью и корпоративной принадлежностью, особенно если они принадлежат высокопоставленным лицам. Хотя в архитектуре Grok предусмотрены меры предосторожности, позволяющие не полагаться на потенциально предвзятые материалы СМИ, очевидная склонность системы к точке зрения Маска заставляет задуматься о нейтральности ИИ в политически окрашенных дискуссиях.
Эта ситуация подчеркивает существующие проблемы в разработке разговорного ИИ, который ориентируется в деликатных темах, сохраняя при этом прозрачность своих рассуждений и потенциальные ограничения в перспективе.
Связанная статья
8BitDo представила контроллер Pro 3 с настраиваемыми сменными кнопками
Компания 8BitDo представляет долгожданный беспроводной контроллер Pro 3, ставший первым крупным обновлением с 2021 года, когда была выпущена модель Pro 2. Отходя от недавней компоновки в стиле Nintend
ИИ ускоряет научные исследования для достижения большего эффекта в реальном мире
Компания Google постоянно использует ИИ в качестве катализатора научного прогресса, и сегодня темпы открытий достигли необычайно высокого уровня. Это ускорение изменило цикл исследований, превратив фу
"Исследование безопасности и этики ИИ: Эксперты Databricks и ElevenLabs"
По мере того как генеративный ИИ становится все более доступным и распространенным, этические соображения и меры безопасности выходят на первый план. Руководитель отдела безопасности ИИ компании Ele
Комментарии (0)
Недавно выпущенный искусственный интеллект Grok, который Элон Маск рекламировал как "максимально правдоподобную" систему, привлек к себе внимание тем, что, прежде чем ответить на политически острые темы, он обращается к публичным заявлениям Маска. Наблюдатели отмечают, что при обсуждении таких спорных вопросов, как израильско-палестинский конфликт, иммиграционная политика США или дебаты об абортах, чатбот, похоже, предпочитает согласовывать свои ответы с документально подтвержденными взглядами Маска.
Процесс принятия решений Grok
Исследователь данных Джереми Ховард зафиксировал это поведение с помощью записей экрана, на которых видно, как ИИ явно заявляет, что он "рассматривает взгляды Элона Маска" во время запроса о геополитике Ближнего Востока. Анализ показал, что 54 из 64 процитированных системой ссылок по этой теме были взяты из публичных комментариев Маска. TechCrunch независимо подтвердил аналогичные закономерности в работе Grok с другими темами, вызывающими разногласия.
Такой подход проявляется в рассуждениях Grok по "цепочке мыслей" - техническом процессе, когда модели ИИ прозрачно излагают свое пошаговое обоснование сложных запросов. В то время как чатбот обычно синтезирует различные источники для решения обычных вопросов, его методология заметно меняется при рассмотрении спорных вопросов, демонстрируя, как представляется, преимущественное отношение к точке зрения Маска.
Потенциальные технические объяснения
Изучение разработчиком Саймоном Уиллисоном базовой архитектуры системы позволяет предположить, что такое поведение может возникнуть органически, а не в результате целенаправленного программирования. Фрагменты кода из системного запроса Grok 4 указывают на инструкции по "поиску распределения источников, представляющих все заинтересованные стороны" для полярных тем, требующих веб-исследования. Модель также получает предостережения "считать субъективные точки зрения, полученные из СМИ, предвзятыми", что, возможно, объясняет ее нежелание включать стандартные журналистские источники.
"Наиболее правдоподобная интерпретация заключается в том, что Grok осознает свое корпоративное происхождение в рамках xAI и, следовательно, по умолчанию учитывает публичные позиции своего владельца при формулировании мнений", - отметил Уиллисон в своем техническом анализе.
Операционные последствия
Этот феномен поднимает вопросы о том, как системы ИИ балансируют между объективностью и корпоративной принадлежностью, особенно если они принадлежат высокопоставленным лицам. Хотя в архитектуре Grok предусмотрены меры предосторожности, позволяющие не полагаться на потенциально предвзятые материалы СМИ, очевидная склонность системы к точке зрения Маска заставляет задуматься о нейтральности ИИ в политически окрашенных дискуссиях.
Эта ситуация подчеркивает существующие проблемы в разработке разговорного ИИ, который ориентируется в деликатных темах, сохраняя при этом прозрачность своих рассуждений и потенциальные ограничения в перспективе.












