OpenAI выпускает GPT-4.1 без отчета о безопасности
OpenAI запускает GPT-4.1 без отчета о безопасности — вот почему это важно
В понедельник OpenAI представила GPT-4.1, свою последнюю модель ИИ, демонстрирующую улучшенные характеристики — особенно в программистских тестах. Но в отличие от предыдущих релизов, этот запуск сопровождался заметным упущением: отсутствием отчета о безопасности.
Обычно OpenAI публикует "системную карту", в которой подробно описываются внутренние и сторонние оценки безопасности, раскрывающие потенциальные риски, такие как обманчивое поведение или непреднамеренные способности к убеждению. Эти отчеты рассматриваются как добросовестная попытка повысить прозрачность в разработке ИИ.
Однако, по состоянию на вторник, OpenAI подтвердила, что не будет публиковать отчет для GPT-4.1. По словам представителя Shaokyi Amdo, модель не считается "передовой" системой ИИ — то есть она недостаточно расширяет границы, чтобы оправдать полный анализ безопасности.
Тенденция к снижению прозрачности?
Этот шаг происходит на фоне нарастающих опасений, что ведущие лаборатории ИИ сокращают раскрытие информации о безопасности. За последний год:
- Google задерживает публикацию отчетов о безопасности.
- Anthropic и другие публикуют менее подробные оценки.
- OpenAI сама столкнулась с критикой за непоследовательные отчеты, включая:
- Публикацию отчета о безопасности за декабрь 2023 года с результатами тестов, которые не соответствовали производственной модели.
- Запуск DeepSeek-V3 за недели до публикации его системной карты.
Steven Adler, бывший исследователь безопасности OpenAI, рассказал TechCrunch, что, хотя эти отчеты являются добровольными, они стали ключевым инструментом прозрачности в индустрии ИИ. OpenAI ранее обещала правительствам — в том числе перед Саммитом по безопасности ИИ в Великобритании 2023 года — что системные карты необходимы для подотчетности.
Почему такое сопротивление?
Отчеты о безопасности иногда выявляют неудобные истины — например, модели, которые могут манипулировать пользователями или генерировать вредоносный контент. Но с растущей конкуренцией компании, занимающиеся ИИ, могут отдавать приоритет скорости перед тщательным анализом.
Недавние сообщения указывают, что OpenAI сократила ресурсы на тестирование безопасности, а на прошлой неделе 12 бывших сотрудников (включая Adler) подали краткое заявление в поддержку иска Илона Маска, предупреждая, что ориентированная на прибыль OpenAI может поставить под угрозу безопасность.
Опасен ли GPT-4.1 без отчета?
Хотя GPT-4.1 не является самой продвинутой моделью OpenAI, она улучшает эффективность и снижает задержки — факторы, которые все еще могут создавать риски.
Thomas Woodside, сооснователь Secure AI Project, утверждает, что любое улучшение производительности должно сопровождаться документацией по безопасности. "Чем сложнее модель, тем выше риск," сказал он TechCrunch.
Больший спор о регулировании ИИ
Многие компании, занимающиеся ИИ, включая OpenAI, сопротивляются обязательным законам о безопасности. Ранее в этом году OpenAI выступила против SB 1047 в Калифорнии, который обязал бы разработчиков ИИ публиковать аудиты безопасности для публичных моделей.
Пока стандарты прозрачности в отрасли остаются саморегулируемыми — и все чаще необязательными.
Мероприятие TechCrunch: Сэкономьте более $200 на вашем билете All Stage Pass
🚀 Создавайте умнее. Масштабируйтесь быстрее. Стройте связи глубже.
Присоединяйтесь к визионерам из Precursor Ventures, NEA, Index Ventures, Underscore VC и других для дня стратегий, мастер-классов и нетворкинга.
📍 Бостон, Массачусетс | 15 июля
🔗 РЕГИСТРИРУЙТЕСЬ СЕЙЧАС
По мере развития ИИ спор о безопасности против скорости усиливается. Без более строгой подотчетности, кто решает, какие риски стоит принимать?
Связанная статья
Бывшие сотрудники OpenAI подали иск против перехода компании на коммерческую модель
Бывшие сотрудники OpenAI поддерживают Илона Маска в иске против перехода OpenAI на коммерческую модельГруппа бывших сотрудников OpenAI подала краткое изложение позиции в поддержку иска Илона Маска про
OpenAI улучшает ИИ-модель, лежащую в основе Operator Agent
OpenAI выводит Operator на новый уровеньOpenAI представляет масштабное обновление для своего автономного ИИ-агента Operator. В скором времени Operator перейдет на модель o3 — одну
Модель AI o3 от OpenAI показала более низкие результаты в тестировании, чем ожидалось изначально
Почему расхождения в бенчмарках важны в ИИКогда речь заходит о ИИ, цифры часто рассказывают историю — и иногда эти цифры не совсем складываются. Возьмем, к примеру, модель o3 от Op
Комментарии (0)
OpenAI запускает GPT-4.1 без отчета о безопасности — вот почему это важно
В понедельник OpenAI представила GPT-4.1, свою последнюю модель ИИ, демонстрирующую улучшенные характеристики — особенно в программистских тестах. Но в отличие от предыдущих релизов, этот запуск сопровождался заметным упущением: отсутствием отчета о безопасности.
Обычно OpenAI публикует "системную карту", в которой подробно описываются внутренние и сторонние оценки безопасности, раскрывающие потенциальные риски, такие как обманчивое поведение или непреднамеренные способности к убеждению. Эти отчеты рассматриваются как добросовестная попытка повысить прозрачность в разработке ИИ.
Однако, по состоянию на вторник, OpenAI подтвердила, что не будет публиковать отчет для GPT-4.1. По словам представителя Shaokyi Amdo, модель не считается "передовой" системой ИИ — то есть она недостаточно расширяет границы, чтобы оправдать полный анализ безопасности.
Тенденция к снижению прозрачности?
Этот шаг происходит на фоне нарастающих опасений, что ведущие лаборатории ИИ сокращают раскрытие информации о безопасности. За последний год:
- Google задерживает публикацию отчетов о безопасности.
- Anthropic и другие публикуют менее подробные оценки.
- OpenAI сама столкнулась с критикой за непоследовательные отчеты, включая:
- Публикацию отчета о безопасности за декабрь 2023 года с результатами тестов, которые не соответствовали производственной модели.
- Запуск DeepSeek-V3 за недели до публикации его системной карты.
Steven Adler, бывший исследователь безопасности OpenAI, рассказал TechCrunch, что, хотя эти отчеты являются добровольными, они стали ключевым инструментом прозрачности в индустрии ИИ. OpenAI ранее обещала правительствам — в том числе перед Саммитом по безопасности ИИ в Великобритании 2023 года — что системные карты необходимы для подотчетности.
Почему такое сопротивление?
Отчеты о безопасности иногда выявляют неудобные истины — например, модели, которые могут манипулировать пользователями или генерировать вредоносный контент. Но с растущей конкуренцией компании, занимающиеся ИИ, могут отдавать приоритет скорости перед тщательным анализом.
Недавние сообщения указывают, что OpenAI сократила ресурсы на тестирование безопасности, а на прошлой неделе 12 бывших сотрудников (включая Adler) подали краткое заявление в поддержку иска Илона Маска, предупреждая, что ориентированная на прибыль OpenAI может поставить под угрозу безопасность.
Опасен ли GPT-4.1 без отчета?
Хотя GPT-4.1 не является самой продвинутой моделью OpenAI, она улучшает эффективность и снижает задержки — факторы, которые все еще могут создавать риски.
Thomas Woodside, сооснователь Secure AI Project, утверждает, что любое улучшение производительности должно сопровождаться документацией по безопасности. "Чем сложнее модель, тем выше риск," сказал он TechCrunch.
Больший спор о регулировании ИИ
Многие компании, занимающиеся ИИ, включая OpenAI, сопротивляются обязательным законам о безопасности. Ранее в этом году OpenAI выступила против SB 1047 в Калифорнии, который обязал бы разработчиков ИИ публиковать аудиты безопасности для публичных моделей.
Пока стандарты прозрачности в отрасли остаются саморегулируемыми — и все чаще необязательными.
Мероприятие TechCrunch: Сэкономьте более $200 на вашем билете All Stage Pass
🚀 Создавайте умнее. Масштабируйтесь быстрее. Стройте связи глубже.
Присоединяйтесь к визионерам из Precursor Ventures, NEA, Index Ventures, Underscore VC и других для дня стратегий, мастер-классов и нетворкинга.
📍 Бостон, Массачусетс | 15 июля
🔗 РЕГИСТРИРУЙТЕСЬ СЕЙЧАС
По мере развития ИИ спор о безопасности против скорости усиливается. Без более строгой подотчетности, кто решает, какие риски стоит принимать?












