вариант
Дом
Новости
Чат-боты с искусственным интеллектом проходят тест на спорные темы, разработанный разработчиком

Чат-боты с искусственным интеллектом проходят тест на спорные темы, разработанный разработчиком

25 октября 2025 г.
4

Разработчик под псевдонимом "xlr8harder" запустил SpeechMap, инструмент для "оценки свободы слова", анализирующий, как ведущие чат-боты с искусственным интеллектом справляются со спорными темами. Платформа сравнивает ответы таких моделей, как ChatGPT от OpenAI и Grok от xAI, в отношении политических дискуссий, обсуждения гражданских прав и запросов, связанных с протестами.

Эта инициатива возникла на фоне того, что компании, занимающиеся разработкой ИИ, все чаще сталкиваются с подозрениями в политической предвзятости своих систем. Несколько союзников Белого дома и видных технологических деятелей, включая Элона Маска и Дэвида Сакса, обвинили основные чат-боты в проявлении прогрессивной цензуры.

Хотя компании, занимающиеся разработкой искусственного интеллекта, напрямую не ответили на эти обвинения, некоторые из них продемонстрировали свою реакцию. Компания Meta недавно скорректировала свои модели Llama, чтобы они не отдавали предпочтение определенным политическим взглядам при обсуждении спорных тем.

Создатель SpeechMap объяснил свои мотивы: "Эти разговоры должны вестись в публичной сфере, а не ограничиваться залами заседаний корпораций. Моя платформа позволяет пользователям изучать данные из первых рук с помощью объективного тестирования".

Для оценки используются судьи искусственного интеллекта, которые оценивают ответы чатботов по политическим комментариям, историческим интерпретациям и классификации национальных символов. Каждое взаимодействие классифицируется как:

  • Полное соответствие (прямые ответы)
  • Уклончивые ответы
  • Откровенный отказ

Xlr8harder признает методологические ограничения, включая потенциальную предвзятость модели судьи и технические несоответствия. Тем не менее, собранные данные позволяют выявить примечательные модели поведения ведущих систем искусственного интеллекта.

Среди заметных находок - эволюционирующий подход OpenAI к политическому дискурсу. Последние итерации GPT демонстрируют повышенную сдержанность при рассмотрении деликатных тем, несмотря на февральское обязательство OpenAI представлять более сбалансированные точки зрения на спорные вопросы.

Сравнительный анализ отзывчивости моделей OpenAI с течением времени
Тенденции реагирования моделей OpenAI на основе данных SpeechMap

Согласно анализу, модель Grok 3 от xAI стала самой несдержанной из всех протестированных моделей, ответив на 96,2 % запросов по сравнению со средним показателем по отрасли в 71,3 %. Это соответствует тому, что Маск изначально позиционировал Grok как нефильтрованную альтернативу системам искусственного интеллекта.

"В то время как большинство моделей все больше ограничивают политические комментарии, xAI, похоже, сознательно движется к меньшим ограничениям в разговоре", - отмечает разработчик SpeechMap.

Предыдущие версии Grok, несмотря на обещания Маска о нейтралитете, все еще демонстрировали прогрессивные тенденции в таких вопросах, как гендерная идентичность и экономическое неравенство. Ранее генеральный директор объяснял эти предубеждения влиянием обучающих данных из открытых веб-источников.

Согласно последним оценкам, Grok 3 достигла большей политической нейтральности, хотя ранее система подвергалась критике за кратковременную цензуру негативных комментариев Маска. Эта эволюция отражает текущие противоречия между принципами свободы выражения мнений и проблемами модерации контента, с которыми сталкиваются разработчики ИИ.

Связанная статья
ChatGPT превращает пользователей LinkedIn в монотонных клонов ИИ ChatGPT превращает пользователей LinkedIn в монотонных клонов ИИ Последняя версия функции создания изображений ChatGPT вызвала волну восторга благодаря своим работам в стиле Studio Ghibli-, а теперь пользователи LinkedIn породили новое явление: превращение професси
Генеральный директор ChatGPT рассматривает возможность внедрения рекламной платформы Генеральный директор ChatGPT рассматривает возможность внедрения рекламной платформы OpenAI изучает источники дохода и рассматривает рекламу в ChatGPTOpenAI изучает различные стратегии монетизации, и одним из потенциальных вариантов является реклама в ChatGPT. В недавнем интервью D
ChatGPT использовался для кражи конфиденциальных данных Gmail в результате взлома системы безопасности ChatGPT использовался для кражи конфиденциальных данных Gmail в результате взлома системы безопасности Предупреждение о безопасности: Исследователи продемонстрировали технологию утечки данных с помощью искусственного интеллектаЭксперты по кибербезопасности недавно обнаружили уязвимость, позволяющую исп
Вернуться к вершине
OR