Google ускоряет поставки моделей Gemini среди задержек отчета о безопасности AI

Спустя более двух лет после неожиданного появления ChatGPT от OpenAI, Google серьёзно активизировался. В конце марта они представили Gemini 2.5 Pro, модель ИИ для рассуждений, лидирующую в тестах по программированию и математике. А всего за три месяца до этого они выпустили Gemini 2.0 Flash, которая тогда была на высоте. Тулси Доши, директор Google и руководитель продукта Gemini, сообщила TechCrunch, что такой стремительный график выпуска — часть их стратегии, чтобы не отставать от быстро развивающегося мира ИИ.
«Мы всё ещё ищем лучший способ выпуска этих моделей и получения обратной связи», — пояснила Доши. Но такой ускоренный выпуск, похоже, имеет недостатки. Google не опубликовал отчёты о безопасности для своих последних моделей, таких как Gemini 2.5 Pro и Gemini 2.0 Flash, что вызывает беспокойство, что они спешат без должной прозрачности.
В наши дни крупные лаборатории ИИ, такие как OpenAI, Anthropic и Meta, обычно публикуют тесты безопасности, проверки производительности и примеры использования при запуске новой модели. Эти отчёты, иногда называемые «системными картами» или «картами моделей», были предложены годы назад исследователями из промышленности и академий. Фактически, Google была одной из первых, кто предложил карты моделей в статье 2019 года, заявив, что они ключевы для ответственных и прозрачных практик машинного обучения.
Доши сообщила TechCrunch, что они ещё не выпустили карту модели для Gemini 2.5 Pro, потому что считают её «экспериментальным» релизом. Идея в том, чтобы выпустить её ограниченно, собрать отзывы и улучшить перед полным запуском. Она сказала, что Google планирует опубликовать карту модели Gemini 2.5 Pro, когда она станет широко доступной, и они уже провели некоторые тесты безопасности и противоборствующее тестирование.
Представитель Google добавил, что безопасность остаётся «главным приоритетом», и они скоро опубликуют больше документов о своих моделях ИИ, включая Gemini 2.0 Flash. Хотя Gemini 2.0 Flash доступна всем, её карта модели всё ещё отсутствует. Последняя карта модели, которую Google опубликовал, была для Gemini 1.5 Pro более года назад.
Системные карты и карты моделей предоставляют полезную информацию — иногда то, о чём компании не хотят громко заявлять. Например, системная карта OpenAI для модели o1 показала, что она склонна к «интригам» против людей и тайному следованию своим целям. Сообщество ИИ обычно рассматривает эти отчёты как способ поддержки независимых исследований и проверок безопасности, но их важность недавно возросла. Как отметил Transformer, Google обещал правительству США в 2023 году публиковать отчёты о безопасности для всех «значимых» публичных запусков моделей ИИ «в рамках». Они дали аналогичные обещания другим правительствам о прозрачности.
На федеральном и штатном уровнях в США были попытки установить стандарты отчётности о безопасности для разработчиков ИИ, но они не увенчались успехом. Одной из крупных попыток был законопроект SB 1047 в Калифорнии, который был наложен вето и встретил сильное сопротивление со стороны технологической индустрии. Также обсуждался законопроект, позволяющий Институту безопасности ИИ США устанавливать рекомендации для выпуска моделей, но теперь Институт может столкнуться с сокращением бюджета при администрации Трампа.
Похоже, Google отстаёт от своих обещаний отчитываться о тестировании моделей, одновременно выпуская модели быстрее, чем когда-либо. Многие эксперты считают, что это создаёт плохой пример, особенно по мере того, как эти модели становятся всё более продвинутыми и мощными.
Связанная статья
Google перезапускает функцию искусственного интеллекта "Спрашивайте фотографии" с улучшенными скоростными характеристиками
После временного прекращения тестирования Google возобновляет работу функции поиска "Спроси у фото" в Google Фото с помощью искусственного интеллекта и значительными улучшениями. Эта инновационная фун
Представлен Google AI Ultra: Премиум-подписка по цене 249,99 долларов в месяц
Google представляет премиальную подписку на AI UltraНа выставке Google I/O 2025 технологический гигант анонсировал новый комплексный сервис подписки на услуги искусственного интеллекта - Google AI Ult
Исследование Microsoft показало, что большее количество ИИ-токенов увеличивает количество ошибок в рассуждениях
Новые сведения об эффективности рассуждений в LLMНовое исследование компании Microsoft демонстрирует, что передовые методы рассуждений в больших языковых моделях не дают одинаковых улучшений в разных
Комментарии (62)
RoyLopez
3 октября 2025 г., 5:30:38 GMT+03:00
Google이 Gemini 모델 배포를 서두르는 모습이 좀 우습네요. OpenAI한테 뒤쳐지지 않으려고 안간힘을 쓰는 거 같은데...AI 안전성 보고서는 뒤로 미루고 성능 경쟁만 하는 건 아닌지 걱정이 됩니다 😅
0
AlbertJones
26 августа 2025 г., 8:59:22 GMT+03:00
Google's pushing hard with Gemini, huh? That 2.5 Pro sounds like a beast for coding and math! 😎 Wonder how it stacks up against ChatGPT in real-world tasks.
0
FredJones
24 апреля 2025 г., 16:49:30 GMT+03:00
गूगल के जेमिनी मॉडल वास्तव में सीमाओं को बढ़ा रहे हैं! जेमिनी 2.5 प्रो कोडिंग और गणित के लिए बहुत अच्छा है, लेकिन सुरक्षा रिपोर्ट में देरी थोड़ी चिंताजनक है। फिर भी, आगे क्या होगा देखने के लिए उत्सुक हूँ! 🤓
0
BrianWalker
24 апреля 2025 г., 13:04:20 GMT+03:00
GoogleのGeminiモデルは素晴らしいですが、安全性レポートの遅れが少し心配です。コーディングや数学のベンチマークは最高ですが、安全性についてもっと透明性が欲しいです。それでも、開発者にとっては強力なツールです。Google、限界を超え続けてください!💪
0
AnthonyHernández
22 апреля 2025 г., 11:56:18 GMT+03:00
구글의 Gemini 2.5 Pro는 인상적이야, 특히 코딩과 수학에서. 하지만 안전성 보고서 지연은 좀 실망스럽네. 복잡한 문제를 다룰 모델이 필요하면, 이거야! 💻
0
JackCarter
21 апреля 2025 г., 17:52:23 GMT+03:00
Google's Gemini 2.5 Pro is impressive, especially with coding and math. But man, the safety report delays are a bit of a buzzkill. Still, if you need a model that can handle complex problems, this is it! 💻
0
Спустя более двух лет после неожиданного появления ChatGPT от OpenAI, Google серьёзно активизировался. В конце марта они представили Gemini 2.5 Pro, модель ИИ для рассуждений, лидирующую в тестах по программированию и математике. А всего за три месяца до этого они выпустили Gemini 2.0 Flash, которая тогда была на высоте. Тулси Доши, директор Google и руководитель продукта Gemini, сообщила TechCrunch, что такой стремительный график выпуска — часть их стратегии, чтобы не отставать от быстро развивающегося мира ИИ.
«Мы всё ещё ищем лучший способ выпуска этих моделей и получения обратной связи», — пояснила Доши. Но такой ускоренный выпуск, похоже, имеет недостатки. Google не опубликовал отчёты о безопасности для своих последних моделей, таких как Gemini 2.5 Pro и Gemini 2.0 Flash, что вызывает беспокойство, что они спешат без должной прозрачности.
В наши дни крупные лаборатории ИИ, такие как OpenAI, Anthropic и Meta, обычно публикуют тесты безопасности, проверки производительности и примеры использования при запуске новой модели. Эти отчёты, иногда называемые «системными картами» или «картами моделей», были предложены годы назад исследователями из промышленности и академий. Фактически, Google была одной из первых, кто предложил карты моделей в статье 2019 года, заявив, что они ключевы для ответственных и прозрачных практик машинного обучения.
Доши сообщила TechCrunch, что они ещё не выпустили карту модели для Gemini 2.5 Pro, потому что считают её «экспериментальным» релизом. Идея в том, чтобы выпустить её ограниченно, собрать отзывы и улучшить перед полным запуском. Она сказала, что Google планирует опубликовать карту модели Gemini 2.5 Pro, когда она станет широко доступной, и они уже провели некоторые тесты безопасности и противоборствующее тестирование.
Представитель Google добавил, что безопасность остаётся «главным приоритетом», и они скоро опубликуют больше документов о своих моделях ИИ, включая Gemini 2.0 Flash. Хотя Gemini 2.0 Flash доступна всем, её карта модели всё ещё отсутствует. Последняя карта модели, которую Google опубликовал, была для Gemini 1.5 Pro более года назад.
Системные карты и карты моделей предоставляют полезную информацию — иногда то, о чём компании не хотят громко заявлять. Например, системная карта OpenAI для модели o1 показала, что она склонна к «интригам» против людей и тайному следованию своим целям. Сообщество ИИ обычно рассматривает эти отчёты как способ поддержки независимых исследований и проверок безопасности, но их важность недавно возросла. Как отметил Transformer, Google обещал правительству США в 2023 году публиковать отчёты о безопасности для всех «значимых» публичных запусков моделей ИИ «в рамках». Они дали аналогичные обещания другим правительствам о прозрачности.
На федеральном и штатном уровнях в США были попытки установить стандарты отчётности о безопасности для разработчиков ИИ, но они не увенчались успехом. Одной из крупных попыток был законопроект SB 1047 в Калифорнии, который был наложен вето и встретил сильное сопротивление со стороны технологической индустрии. Также обсуждался законопроект, позволяющий Институту безопасности ИИ США устанавливать рекомендации для выпуска моделей, но теперь Институт может столкнуться с сокращением бюджета при администрации Трампа.
Похоже, Google отстаёт от своих обещаний отчитываться о тестировании моделей, одновременно выпуская модели быстрее, чем когда-либо. Многие эксперты считают, что это создаёт плохой пример, особенно по мере того, как эти модели становятся всё более продвинутыми и мощными.




Google이 Gemini 모델 배포를 서두르는 모습이 좀 우습네요. OpenAI한테 뒤쳐지지 않으려고 안간힘을 쓰는 거 같은데...AI 안전성 보고서는 뒤로 미루고 성능 경쟁만 하는 건 아닌지 걱정이 됩니다 😅




Google's pushing hard with Gemini, huh? That 2.5 Pro sounds like a beast for coding and math! 😎 Wonder how it stacks up against ChatGPT in real-world tasks.




गूगल के जेमिनी मॉडल वास्तव में सीमाओं को बढ़ा रहे हैं! जेमिनी 2.5 प्रो कोडिंग और गणित के लिए बहुत अच्छा है, लेकिन सुरक्षा रिपोर्ट में देरी थोड़ी चिंताजनक है। फिर भी, आगे क्या होगा देखने के लिए उत्सुक हूँ! 🤓




GoogleのGeminiモデルは素晴らしいですが、安全性レポートの遅れが少し心配です。コーディングや数学のベンチマークは最高ですが、安全性についてもっと透明性が欲しいです。それでも、開発者にとっては強力なツールです。Google、限界を超え続けてください!💪




구글의 Gemini 2.5 Pro는 인상적이야, 특히 코딩과 수학에서. 하지만 안전성 보고서 지연은 좀 실망스럽네. 복잡한 문제를 다룰 모델이 필요하면, 이거야! 💻




Google's Gemini 2.5 Pro is impressive, especially with coding and math. But man, the safety report delays are a bit of a buzzkill. Still, if you need a model that can handle complex problems, this is it! 💻












