Дом Новости По словам экспертов, в последнем отчете Google в области моделя искусственного интеллекта не хватает ключевых деталей безопасности

По словам экспертов, в последнем отчете Google в области моделя искусственного интеллекта не хватает ключевых деталей безопасности

27 апреля 2025 г.
ChristopherThomas
0

В четверг, через несколько недель после запуска своей новейшей и самой продвинутой модели ИИ, Gemini 2.5 Pro, Google опубликовал технический отчет, в котором подробно описываются результаты его внутренней оценки безопасности. Тем не менее, эксперты критиковали отчет за отсутствие деталей, что делает трудности в полном понимании потенциальных рисков, связанных с моделью.

Технические отчеты имеют решающее значение в мире ИИ, предлагая понимание, даже если они иногда нелестны, что компании обычно не могут делиться публично. Эти отчеты, как правило, рассматриваются сообществом ИИ как подлинные усилия по содействию независимым исследованиям и повышению оценки безопасности.

Подход Google к отчетам о безопасности отличается от некоторых из его конкурентов. Компания публикует технические отчеты только после того, как модель выходит за рамки «экспериментальной» фазы. Более того, Google пропускает определенные результаты оценки «опасных возможностей» из этих отчетов, сохраняя их для отдельного аудита.

Несмотря на это, несколько экспертов выразили разочарование из -за отчета Gemini 2.5 Pro в TechCrunch, указывая на его скудное покрытие предложенной Google Frontier Framework (FSF). Google представила FSF в прошлом году, стремясь определить будущие возможности ИИ, которые могут привести к «серьезным вредам».

«Этот отчет очень редкий, содержит минимальную информацию и был выпущен через несколько недель после того, как модель уже была обнародована»,-сказал TechCrunch, Питер Уилдфорд, соучредитель Института политики и стратегии ИИ. «Невозможно проверить, выполняет ли Google свои общественные обязательства и, следовательно, невозможно оценить безопасность и безопасность своих моделей».

Томас Вудсайд, соучредитель проекта Secure AI, признал выпуск отчета Gemini 2.5 Pro, но поставил под сомнение преданность Google предоставлению своевременных дополнительных оценок безопасности. Он отметил, что Google в последний раз опубликовал результаты испытаний на опасные возможности в июне 2024 года для модели, объявленной в феврале того же года.

В дополнение к проблемам, Google еще не выпустил отчет для Gemini 2.5 Flash, более мелкой, более эффективной модели, объявленной на прошлой неделе. Представитель сообщил TechCrunch, что отчет для Flash «скоро появится».

«Я надеюсь, что это обещание от Google начать публиковать более частые обновления», - сказал Вудсайд TechCrunch. «Эти обновления должны включать результаты оценок для моделей, которые еще не были публично развернуты, поскольку эти модели также могут представлять серьезные риски».

В то время как Google был одним из первых лабораторий искусственного интеллекта, которые предложили стандартизированные отчеты для моделей, он не одинок в критике из -за отсутствия прозрачности. Meta выпустила аналогичную краткую оценку безопасности для своих новых открытых моделей Llama 4, и Openai решила не публиковать какие-либо отчет для своей серии GPT-4.1.

Гарантия Google регулирующим органам о поддержании высоких стандартов в тестировании и отчетности искусственного интеллекта дает давление на ситуацию. Два года назад Google пообещал правительству США опубликовать отчеты о безопасности для всех «значительных« общественных моделей искусственного интеллекта »в рамках, а затем аналогичные обязательства перед другими странами, пообещав« общественную прозрачность »вокруг продуктов искусственного интеллекта.

Кевин Бэнкстон, старший советник по управлению искусственным интеллектом в Центре демократии и технологий, описал тенденцию спорадических и смутных отчетов как «гонка на дно» по безопасности ИИ.

«В сочетании с сообщениями о том, что конкурирующие лаборатории, такие как Openai, сократили свое время тестирования безопасности до выхода с месяцев до дней, эта скудная документация для лучшей модели ИИ Google рассказывает о тревожной историю о гонке на дне безопасности и прозрачности, поскольку компании спешат свои модели на рынок», - сказал он TechCrunch.

Google заявил, что, хотя и не подробно описан в своих технических отчетах, он проводит тестирование безопасности и «состязательную красную команду» для моделей до их выпуска.

Обновлено 4/22 в 12:58 PM Pacific: модифицированный язык вокруг ссылки технического отчета о FSF Google.

Связанная статья
Google’s latest AI model report lacks key safety details, experts say Google’s latest AI model report lacks key safety details, experts say On Thursday, weeks after launching its latest and most advanced AI model, Gemini 2.5 Pro, Google released a technical report detailing the results of its internal safety assessments. However, experts have criticized the report for its lack of detail, making it challenging to fully understand the pot
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models In a recent episode of the podcast Possible, co-hosted by LinkedIn co-founder Reid Hoffman, Google DeepMind CEO Demis Hassabis shared some exciting news about Google's plans. He revealed that Google is looking to merge its Gemini AI models with the Veo video-generating models. This fusion aims to en
Лучшие новости
Прорыв в обнаружении лесных пожаров: как новое созвездие спутников может обнаруживать меньшие лесные пожары раньше ИИ может быть ключом к разблокировке более эффективного государственного сектора Великобритании Adobe представляет 10 специализированных агентов искусственного интеллекта: открыть для себя их бизнес -приложения Великобритания AI Body переименование в институт безопасности, подписывает MOU с антропным ИИ уменьшает наш интеллект? Workhelix использует многолетние исследования для руководства предприятиями в приложении искусственного интеллекта «Группы призывают Swift мера по снижению экологического воздействия AI» Пренебрежение этикой ИИ представляет огромные риски: как реализовать ИИ ответственно Microsoft Copilot теперь расширяет Edge с возможностью просмотра экрана Google раскрывает новые усовершенствования Kubernetes и GKE для инноваций ИИ
Более
Back to Top
OR