вариант
Дом
Новости
По словам экспертов, в последнем отчете Google в области моделя искусственного интеллекта не хватает ключевых деталей безопасности

По словам экспертов, в последнем отчете Google в области моделя искусственного интеллекта не хватает ключевых деталей безопасности

28 апреля 2025 г.
93

В четверг, спустя недели после запуска своей последней и наиболее продвинутой модели ИИ, Gemini 2.5 Pro, Google опубликовала технический отчет, в котором подробно описаны результаты внутренних оценок безопасности. Однако эксперты раскритиковали отчет за недостаток деталей, что затрудняет полное понимание потенциальных рисков, связанных с моделью.

Технические отчеты имеют решающее значение в мире ИИ, предоставляя информацию — даже если она иногда не слишком лестная, — которую компании обычно не делятся публично. Эти отчеты, как правило, рассматриваются сообществом ИИ как искренние усилия по содействию независимым исследованиям и улучшению оценок безопасности.

Подход Google к отчетам о безопасности отличается от подходов некоторых конкурентов. Компания публикует технические отчеты только после того, как модель выходит за рамки "экспериментальной" фазы. Более того, Google исключает из этих отчетов результаты оценки "опасных возможностей", сохраняя их для отдельного аудита.

Несмотря на это, несколько экспертов выразили разочарование отчетом о Gemini 2.5 Pro в беседе с TechCrunch, указывая на его скудное освещение предложенной Google Рамочной структуры безопасности Frontier (FSF). Google представила FSF в прошлом году, стремясь определить будущие возможности ИИ, которые могут привести к "серьезному вреду".

"Этот отчет очень скуден, содержит минимум информации и был опубликован спустя недели после того, как модель уже стала общедоступной", — сказал Питер Уилдефорд, соучредитель Института политики и стратегии в области ИИ, в беседе с TechCrunch. "Невозможно проверить, выполняет ли Google свои публичные обязательства, и, следовательно, невозможно оценить безопасность и надежность их моделей".

Томас Вудсайд, соучредитель проекта Secure AI, признал выпуск отчета по Gemini 2.5 Pro, но усомнился в приверженности Google предоставлению своевременных дополнительных оценок безопасности. Он отметил, что Google в последний раз публиковала результаты тестов на опасные возможности в июне 2024 года для модели, анонсированной в феврале того же года.

К этим опасениям добавляется то, что Google еще не опубликовала отчет по Gemini 2.5 Flash, меньшей и более эффективной модели, анонсированной на прошлой неделе. Представитель сообщил TechCrunch, что отчет по Flash "скоро появится".

"Я надеюсь, что это обещание Google начать публиковать более частые обновления", — сказал Вудсайд TechCrunch. "Эти обновления должны включать результаты оценок для моделей, которые еще не были публично развернуты, поскольку эти модели также могут представлять серьезные риски".

Хотя Google была одной из первых лабораторий ИИ, предложивших стандартизированные отчеты для моделей, она не единственная, кто сталкивается с критикой за недостаток прозрачности. Meta опубликовала аналогично краткую оценку безопасности для своих новых открытых моделей Llama 4, а OpenAI решила не публиковать отчет для своей серии GPT-4.1.

Заверения Google перед регуляторами о поддержании высоких стандартов в тестировании и отчетности по безопасности ИИ добавляют давления к ситуации. Два года назад Google пообещала правительству США публиковать отчеты о безопасности для всех "значимых" публичных моделей ИИ "в рамках", за чем последовали аналогичные обязательства перед другими странами, обещающие "публичную прозрачность" в отношении продуктов ИИ.

Кевин Бэнкстон, старший советник по управлению ИИ в Центре демократии и технологий, описал тенденцию спорадических и неясных отчетов как "гонку ко дну" в области безопасности ИИ.

"В сочетании с сообщениями о том, что конкурирующие лаборатории, такие как OpenAI, сократили время тестирования безопасности перед выпуском с месяцев до дней, эта скудная документация для ведущей модели ИИ Google рассказывает тревожную историю о гонке ко дну в области безопасности и прозрачности ИИ, поскольку компании спешат вывести свои модели на рынок", — сказал он TechCrunch.

Google заявила, что, хотя это и не подробно описано в ее технических отчетах, она проводит тестирование безопасности и "противоборствующее красное тестирование" для моделей перед их выпуском.

Обновлено 22 апреля в 12:58 по тихоокеанскому времени: Изменена формулировка в отношении ссылки технического отчета на FSF Google.

Связанная статья
Последняя модель искусственного интеллекта Gemini компании Google демонстрирует снижение показателей безопасности в ходе тестирования Последняя модель искусственного интеллекта Gemini компании Google демонстрирует снижение показателей безопасности в ходе тестирования Внутреннее тестирование Google выявило значительное снижение производительности в протоколах безопасности последней модели искусственного интеллекта по сравнению с предыдущими версиями. Согласно недав
ИИ Stitch от Google упрощает процесс разработки приложений ИИ Stitch от Google упрощает процесс разработки приложений Google представила инструмент для проектирования интерфейсов с помощью искусственного интеллекта Stitch на I/O 2025Компания Google представила Stitch, революционный инструмент для проектирования интер
Google представляет инструменты с искусственным интеллектом для Gmail, документов и видеороликов Google представляет инструменты с искусственным интеллектом для Gmail, документов и видеороликов Google представила на I/O 2025 обновления рабочего пространства с поддержкой искусственного интеллектаВ ходе ежегодной конференции для разработчиков компания Google представила инновационные усовершен
MarkSanchez
MarkSanchez 1 августа 2025 г., 16:47:34 GMT+03:00

Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.

WalterKing
WalterKing 29 апреля 2025 г., 18:19:22 GMT+03:00

Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔

CharlesThomas
CharlesThomas 29 апреля 2025 г., 4:17:55 GMT+03:00

ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅

AlbertWalker
AlbertWalker 29 апреля 2025 г., 2:15:07 GMT+03:00

Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔

JimmyGarcia
JimmyGarcia 28 апреля 2025 г., 23:01:42 GMT+03:00

O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔

BillyThomas
BillyThomas 28 апреля 2025 г., 2:41:33 GMT+03:00

El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔

Вернуться к вершине
OR