По словам экспертов, в последнем отчете Google в области моделя искусственного интеллекта не хватает ключевых деталей безопасности
В четверг, спустя недели после запуска своей последней и наиболее продвинутой модели ИИ, Gemini 2.5 Pro, Google опубликовала технический отчет, в котором подробно описаны результаты внутренних оценок безопасности. Однако эксперты раскритиковали отчет за недостаток деталей, что затрудняет полное понимание потенциальных рисков, связанных с моделью.
Технические отчеты имеют решающее значение в мире ИИ, предоставляя информацию — даже если она иногда не слишком лестная, — которую компании обычно не делятся публично. Эти отчеты, как правило, рассматриваются сообществом ИИ как искренние усилия по содействию независимым исследованиям и улучшению оценок безопасности.
Подход Google к отчетам о безопасности отличается от подходов некоторых конкурентов. Компания публикует технические отчеты только после того, как модель выходит за рамки "экспериментальной" фазы. Более того, Google исключает из этих отчетов результаты оценки "опасных возможностей", сохраняя их для отдельного аудита.
Несмотря на это, несколько экспертов выразили разочарование отчетом о Gemini 2.5 Pro в беседе с TechCrunch, указывая на его скудное освещение предложенной Google Рамочной структуры безопасности Frontier (FSF). Google представила FSF в прошлом году, стремясь определить будущие возможности ИИ, которые могут привести к "серьезному вреду".
"Этот отчет очень скуден, содержит минимум информации и был опубликован спустя недели после того, как модель уже стала общедоступной", — сказал Питер Уилдефорд, соучредитель Института политики и стратегии в области ИИ, в беседе с TechCrunch. "Невозможно проверить, выполняет ли Google свои публичные обязательства, и, следовательно, невозможно оценить безопасность и надежность их моделей".
Томас Вудсайд, соучредитель проекта Secure AI, признал выпуск отчета по Gemini 2.5 Pro, но усомнился в приверженности Google предоставлению своевременных дополнительных оценок безопасности. Он отметил, что Google в последний раз публиковала результаты тестов на опасные возможности в июне 2024 года для модели, анонсированной в феврале того же года.
К этим опасениям добавляется то, что Google еще не опубликовала отчет по Gemini 2.5 Flash, меньшей и более эффективной модели, анонсированной на прошлой неделе. Представитель сообщил TechCrunch, что отчет по Flash "скоро появится".
"Я надеюсь, что это обещание Google начать публиковать более частые обновления", — сказал Вудсайд TechCrunch. "Эти обновления должны включать результаты оценок для моделей, которые еще не были публично развернуты, поскольку эти модели также могут представлять серьезные риски".
Хотя Google была одной из первых лабораторий ИИ, предложивших стандартизированные отчеты для моделей, она не единственная, кто сталкивается с критикой за недостаток прозрачности. Meta опубликовала аналогично краткую оценку безопасности для своих новых открытых моделей Llama 4, а OpenAI решила не публиковать отчет для своей серии GPT-4.1.
Заверения Google перед регуляторами о поддержании высоких стандартов в тестировании и отчетности по безопасности ИИ добавляют давления к ситуации. Два года назад Google пообещала правительству США публиковать отчеты о безопасности для всех "значимых" публичных моделей ИИ "в рамках", за чем последовали аналогичные обязательства перед другими странами, обещающие "публичную прозрачность" в отношении продуктов ИИ.
Кевин Бэнкстон, старший советник по управлению ИИ в Центре демократии и технологий, описал тенденцию спорадических и неясных отчетов как "гонку ко дну" в области безопасности ИИ.
"В сочетании с сообщениями о том, что конкурирующие лаборатории, такие как OpenAI, сократили время тестирования безопасности перед выпуском с месяцев до дней, эта скудная документация для ведущей модели ИИ Google рассказывает тревожную историю о гонке ко дну в области безопасности и прозрачности ИИ, поскольку компании спешат вывести свои модели на рынок", — сказал он TechCrunch.
Google заявила, что, хотя это и не подробно описано в ее технических отчетах, она проводит тестирование безопасности и "противоборствующее красное тестирование" для моделей перед их выпуском.
Обновлено 22 апреля в 12:58 по тихоокеанскому времени: Изменена формулировка в отношении ссылки технического отчета на FSF Google.
Связанная статья
Google представляет готовые к использованию модели ИИ Gemini 2.5 для конкуренции с OpenAI на корпоративном рынке
Google в понедельник усилила свою стратегию в области ИИ, запустив продвинутые модели Gemini 2.5 для корпоративного использования и представив экономичный вариант для конкуренции по цене и производите
Google представляет инструмент Simplify на базе ИИ для упрощения чтения веб-страниц
Приложение Google для iOS теперь включает функцию “Simplify”, использующую ИИ для преобразования сложного веб-текста в ясный и понятный контент без необходимости покидать страницу.Инструмент Simplify,
Чат-бот Gemini улучшает возможности редактирования изображений
Приложение чат-бота Gemini от Google теперь позволяет пользователям редактировать изображения, сгенерированные ИИ или загруженные с телефонов или компьютеров, сообщила компания в блоге в среду.Встроен
Комментарии (6)
MarkSanchez
1 августа 2025 г., 16:47:34 GMT+03:00
Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.
0
WalterKing
29 апреля 2025 г., 18:19:22 GMT+03:00
Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔
0
CharlesThomas
29 апреля 2025 г., 4:17:55 GMT+03:00
ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅
0
AlbertWalker
29 апреля 2025 г., 2:15:07 GMT+03:00
Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔
0
JimmyGarcia
28 апреля 2025 г., 23:01:42 GMT+03:00
O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔
0
BillyThomas
28 апреля 2025 г., 2:41:33 GMT+03:00
El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔
0
В четверг, спустя недели после запуска своей последней и наиболее продвинутой модели ИИ, Gemini 2.5 Pro, Google опубликовала технический отчет, в котором подробно описаны результаты внутренних оценок безопасности. Однако эксперты раскритиковали отчет за недостаток деталей, что затрудняет полное понимание потенциальных рисков, связанных с моделью.
Технические отчеты имеют решающее значение в мире ИИ, предоставляя информацию — даже если она иногда не слишком лестная, — которую компании обычно не делятся публично. Эти отчеты, как правило, рассматриваются сообществом ИИ как искренние усилия по содействию независимым исследованиям и улучшению оценок безопасности.
Подход Google к отчетам о безопасности отличается от подходов некоторых конкурентов. Компания публикует технические отчеты только после того, как модель выходит за рамки "экспериментальной" фазы. Более того, Google исключает из этих отчетов результаты оценки "опасных возможностей", сохраняя их для отдельного аудита.
Несмотря на это, несколько экспертов выразили разочарование отчетом о Gemini 2.5 Pro в беседе с TechCrunch, указывая на его скудное освещение предложенной Google Рамочной структуры безопасности Frontier (FSF). Google представила FSF в прошлом году, стремясь определить будущие возможности ИИ, которые могут привести к "серьезному вреду".
"Этот отчет очень скуден, содержит минимум информации и был опубликован спустя недели после того, как модель уже стала общедоступной", — сказал Питер Уилдефорд, соучредитель Института политики и стратегии в области ИИ, в беседе с TechCrunch. "Невозможно проверить, выполняет ли Google свои публичные обязательства, и, следовательно, невозможно оценить безопасность и надежность их моделей".
Томас Вудсайд, соучредитель проекта Secure AI, признал выпуск отчета по Gemini 2.5 Pro, но усомнился в приверженности Google предоставлению своевременных дополнительных оценок безопасности. Он отметил, что Google в последний раз публиковала результаты тестов на опасные возможности в июне 2024 года для модели, анонсированной в феврале того же года.
К этим опасениям добавляется то, что Google еще не опубликовала отчет по Gemini 2.5 Flash, меньшей и более эффективной модели, анонсированной на прошлой неделе. Представитель сообщил TechCrunch, что отчет по Flash "скоро появится".
"Я надеюсь, что это обещание Google начать публиковать более частые обновления", — сказал Вудсайд TechCrunch. "Эти обновления должны включать результаты оценок для моделей, которые еще не были публично развернуты, поскольку эти модели также могут представлять серьезные риски".
Хотя Google была одной из первых лабораторий ИИ, предложивших стандартизированные отчеты для моделей, она не единственная, кто сталкивается с критикой за недостаток прозрачности. Meta опубликовала аналогично краткую оценку безопасности для своих новых открытых моделей Llama 4, а OpenAI решила не публиковать отчет для своей серии GPT-4.1.
Заверения Google перед регуляторами о поддержании высоких стандартов в тестировании и отчетности по безопасности ИИ добавляют давления к ситуации. Два года назад Google пообещала правительству США публиковать отчеты о безопасности для всех "значимых" публичных моделей ИИ "в рамках", за чем последовали аналогичные обязательства перед другими странами, обещающие "публичную прозрачность" в отношении продуктов ИИ.
Кевин Бэнкстон, старший советник по управлению ИИ в Центре демократии и технологий, описал тенденцию спорадических и неясных отчетов как "гонку ко дну" в области безопасности ИИ.
"В сочетании с сообщениями о том, что конкурирующие лаборатории, такие как OpenAI, сократили время тестирования безопасности перед выпуском с месяцев до дней, эта скудная документация для ведущей модели ИИ Google рассказывает тревожную историю о гонке ко дну в области безопасности и прозрачности ИИ, поскольку компании спешат вывести свои модели на рынок", — сказал он TechCrunch.
Google заявила, что, хотя это и не подробно описано в ее технических отчетах, она проводит тестирование безопасности и "противоборствующее красное тестирование" для моделей перед их выпуском.
Обновлено 22 апреля в 12:58 по тихоокеанскому времени: Изменена формулировка в отношении ссылки технического отчета на FSF Google.




Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.




Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔




ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅




Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔




O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔




El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔












