Google의 최신 AI 모델 보고서는 주요 안전 세부 사항이 부족하다고 전문가들은 말합니다.
목요일, 구글이 최신이자 가장 진보된 AI 모델인 제미나이 2.5 프로를 출시한 지 몇 주 만에, 내부 안전성 평가 결과를 자세히 설명한 기술 보고서를 발표했습니다. 그러나 전문가들은 이 보고서가 세부 사항이 부족해 모델과 관련된 잠재적 위험을 완전히 이해하기 어렵다고 비판했습니다.
기술 보고서는 AI 세계에서 중요한 역할을 하며, 기업이 일반적으로 공개적으로 공유하지 않을 수 있는, 때로는 불리한 통찰력을 제공합니다. 이러한 보고서는 AI 커뮤니티에서 독립적인 연구를 촉진하고 안전성 평가를 강화하려는 진정한 노력으로 간주됩니다.
구글의 안전성 보고 접근 방식은 일부 경쟁사와 다릅니다. 이 회사는 모델이 "실험적" 단계를 넘어설 때만 기술 보고서를 발표합니다. 또한, 구글은 이러한 보고서에서 특정 "위험한 기능" 평가 결과를 제외하고, 이를 별도의 감사에 보관합니다.
그럼에도 불구하고, 여러 전문가들은 제미나이 2.5 프로 보고서가 구글의 제안된 프론티어 안전 프레임워크(FSF)에 대한 설명이 부족하다고 테크크런치에 실망을 표했습니다. 구글은 지난해 FSF를 공개하며, 미래의 AI 기능이 "심각한 피해"를 초래할 수 있는 지점을 식별하는 것을 목표로 했습니다.
"이 보고서는 매우 빈약하고 최소한의 정보만을 담고 있으며, 모델이 이미 공개된 후 몇 주가 지나서야 발표되었습니다,"라고 AI 정책 및 전략 연구소의 공동 설립자인 피터 윌드포드가 테크크런치에 말했습니다. "구글이 공개적으로 약속한 바를 지키고 있는지 확인할 수 없으며, 따라서 그들의 모델의 안전성과 보안성을 평가하는 것이 불가능합니다."
시큐어 AI 프로젝트의 공동 설립자인 토마스 우드사이드는 제미나이 2.5 프로 보고서의 발표를 인정했지만, 구글이 적시에 보완적인 안전성 평가를 제공하려는 헌신에 의문을 제기했습니다. 그는 구글이 마지막으로 위험한 기능 테스트 결과를 발표한 것이 2024년 6월, 그해 2월에 발표된 모델에 대한 것이라고 언급했습니다.
우려를 더하는 점은, 구글이 지난주 발표한 더 작고 효율적인 모델인 제미나이 2.5 플래시에 대한 보고서를 아직 발표하지 않았다는 것입니다. 대변인은 테크크런치에 플래시에 대한 보고서가 "곧 나올 것"이라고 전했습니다.
"구글이 더 자주 업데이트를 발표하기 시작하겠다는 약속이길 바랍니다,"라고 우드사이드가 테크크런치에 말했습니다. "그 업데이트에는 아직 공개적으로 배포되지 않은 모델에 대한 평가 결과도 포함되어야 합니다. 왜냐하면 그러한 모델도 심각한 위험을 초래할 수 있기 때문입니다."
구글이 모델에 대한 표준화된 보고서를 제안한 최초의 AI 연구소 중 하나였지만, 투명성 부족에 대한 비판을 받는 것은 구글만이 아닙니다. 메타는 새로운 라마 4 오픈 모델에 대해 유사하게 간략한 안전성 평가를 발표했으며, 오픈AI는 GPT-4.1 시리즈에 대해 어떤 보고서도 발표하지 않기로 결정했습니다.
구글이 AI 안전 테스트 및 보고에서 높은 기준을 유지하겠다고 규제 당국에 보장한 것은 상황에 압박을 더합니다. 2년 전, 구글은 미국 정부에 모든 "중요한" 공개 AI 모델에 대해 "범위 내"에서 안전 보고서를 발표하겠다고 약속했으며, 이후 다른 국가들과도 유사한 약속을 하며 AI 제품에 대한 "공공 투명성"을 약속했습니다.
민주주의와 기술 센터의 AI 거버넌스 선임 고문인 케빈 뱅크스턴은 산발적이고 모호한 보고서의 경향을 AI 안전에 있어서 "최저로의 경쟁"이라고 묘사했습니다.
"오픈AI와 같은 경쟁 연구소들이 출시 전 안전 테스트 시간을 몇 달에서 며칠로 줄였다는 보고서와 함께, 구글의 최고 AI 모델에 대한 이 빈약한 문서화는 기업들이 모델을 시장에 서둘러 내놓으면서 AI 안전과 투명성에 있어서 최저로의 경쟁을 벌이고 있다는 우려스러운 이야기를 전합니다,"라고 그는 테크크런치에 말했습니다.
구글은 기술 보고서에 자세히 설명되지 않았지만, 모델 출시 전에 안전 테스트와 "적대적 레드 팀" 활동을 수행한다고 밝혔습니다.
4월 22일 오후 12:58 태평양 시간 업데이트: 구글의 FSF에 대한 기술 보고서의 언급과 관련된 언어를 수정했습니다.
관련 기사
구글의 최신 제미니 AI 모델은 테스트에서 안전 점수가 하락하고 있습니다.
Google의 내부 테스트 결과 최신 AI 모델의 안전 프로토콜이 이전 버전에 비해 성능이 저하된 것으로 나타났습니다. 새로 발표된 벤치마크에 따르면 Gemini 2.5 플래시 모델은 텍스트와 이미지 프롬프트를 모두 처리할 때 주요 안전 지표에서 가이드라인 위반 비율이 4~10% 더 높은 것으로 나타났습니다.이 기술 대기업의 자동화된 평가는 우려스러운 경향
앱 디자인 프로세스를 간소화하는 구글의 스티치 AI
구글, I/O 2025에서 AI 디자인 도구 Stitch 공개Google은 Google I/O 2025 기조연설에서 혁신적인 AI 기반 인터페이스 디자인 도구인 Stitch를 소개했습니다. 이 혁신적인 솔루션은 자연어 프롬프트나 참조 이미지를 프로덕션에 바로 사용할 수 있는 HTML 및 CSS 코드가 포함된 완전한 기능의 UI 디자인으로 변환합니다.Stit
Google, Gmail, 문서 및 동영상용 AI 기반 도구 출시
Google, I/O 2025에서 AI 기반 Workspace 업데이트 공개Google은 연례 개발자 컨퍼런스에서 사용자가 Gmail, 문서도구, 동영상과 상호작용하는 방식을 근본적으로 변화시키는 혁신적인 AI 기능을 Workspace 제품군에 도입한다고 발표했습니다. 이번 업데이트는 생산성 애플리케이션 전반의 지능형 자동화와 간소화된 워크플로우에 중점을
의견 (6)
0/200
MarkSanchez
2025년 8월 1일 오후 10시 47분 34초 GMT+09:00
Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.
0
WalterKing
2025년 4월 30일 오전 12시 19분 22초 GMT+09:00
Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔
0
CharlesThomas
2025년 4월 29일 오전 10시 17분 55초 GMT+09:00
ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅
0
AlbertWalker
2025년 4월 29일 오전 8시 15분 7초 GMT+09:00
Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔
0
JimmyGarcia
2025년 4월 29일 오전 5시 1분 42초 GMT+09:00
O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔
0
BillyThomas
2025년 4월 28일 오전 8시 41분 33초 GMT+09:00
El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔
0
목요일, 구글이 최신이자 가장 진보된 AI 모델인 제미나이 2.5 프로를 출시한 지 몇 주 만에, 내부 안전성 평가 결과를 자세히 설명한 기술 보고서를 발표했습니다. 그러나 전문가들은 이 보고서가 세부 사항이 부족해 모델과 관련된 잠재적 위험을 완전히 이해하기 어렵다고 비판했습니다.
기술 보고서는 AI 세계에서 중요한 역할을 하며, 기업이 일반적으로 공개적으로 공유하지 않을 수 있는, 때로는 불리한 통찰력을 제공합니다. 이러한 보고서는 AI 커뮤니티에서 독립적인 연구를 촉진하고 안전성 평가를 강화하려는 진정한 노력으로 간주됩니다.
구글의 안전성 보고 접근 방식은 일부 경쟁사와 다릅니다. 이 회사는 모델이 "실험적" 단계를 넘어설 때만 기술 보고서를 발표합니다. 또한, 구글은 이러한 보고서에서 특정 "위험한 기능" 평가 결과를 제외하고, 이를 별도의 감사에 보관합니다.
그럼에도 불구하고, 여러 전문가들은 제미나이 2.5 프로 보고서가 구글의 제안된 프론티어 안전 프레임워크(FSF)에 대한 설명이 부족하다고 테크크런치에 실망을 표했습니다. 구글은 지난해 FSF를 공개하며, 미래의 AI 기능이 "심각한 피해"를 초래할 수 있는 지점을 식별하는 것을 목표로 했습니다.
"이 보고서는 매우 빈약하고 최소한의 정보만을 담고 있으며, 모델이 이미 공개된 후 몇 주가 지나서야 발표되었습니다,"라고 AI 정책 및 전략 연구소의 공동 설립자인 피터 윌드포드가 테크크런치에 말했습니다. "구글이 공개적으로 약속한 바를 지키고 있는지 확인할 수 없으며, 따라서 그들의 모델의 안전성과 보안성을 평가하는 것이 불가능합니다."
시큐어 AI 프로젝트의 공동 설립자인 토마스 우드사이드는 제미나이 2.5 프로 보고서의 발표를 인정했지만, 구글이 적시에 보완적인 안전성 평가를 제공하려는 헌신에 의문을 제기했습니다. 그는 구글이 마지막으로 위험한 기능 테스트 결과를 발표한 것이 2024년 6월, 그해 2월에 발표된 모델에 대한 것이라고 언급했습니다.
우려를 더하는 점은, 구글이 지난주 발표한 더 작고 효율적인 모델인 제미나이 2.5 플래시에 대한 보고서를 아직 발표하지 않았다는 것입니다. 대변인은 테크크런치에 플래시에 대한 보고서가 "곧 나올 것"이라고 전했습니다.
"구글이 더 자주 업데이트를 발표하기 시작하겠다는 약속이길 바랍니다,"라고 우드사이드가 테크크런치에 말했습니다. "그 업데이트에는 아직 공개적으로 배포되지 않은 모델에 대한 평가 결과도 포함되어야 합니다. 왜냐하면 그러한 모델도 심각한 위험을 초래할 수 있기 때문입니다."
구글이 모델에 대한 표준화된 보고서를 제안한 최초의 AI 연구소 중 하나였지만, 투명성 부족에 대한 비판을 받는 것은 구글만이 아닙니다. 메타는 새로운 라마 4 오픈 모델에 대해 유사하게 간략한 안전성 평가를 발표했으며, 오픈AI는 GPT-4.1 시리즈에 대해 어떤 보고서도 발표하지 않기로 결정했습니다.
구글이 AI 안전 테스트 및 보고에서 높은 기준을 유지하겠다고 규제 당국에 보장한 것은 상황에 압박을 더합니다. 2년 전, 구글은 미국 정부에 모든 "중요한" 공개 AI 모델에 대해 "범위 내"에서 안전 보고서를 발표하겠다고 약속했으며, 이후 다른 국가들과도 유사한 약속을 하며 AI 제품에 대한 "공공 투명성"을 약속했습니다.
민주주의와 기술 센터의 AI 거버넌스 선임 고문인 케빈 뱅크스턴은 산발적이고 모호한 보고서의 경향을 AI 안전에 있어서 "최저로의 경쟁"이라고 묘사했습니다.
"오픈AI와 같은 경쟁 연구소들이 출시 전 안전 테스트 시간을 몇 달에서 며칠로 줄였다는 보고서와 함께, 구글의 최고 AI 모델에 대한 이 빈약한 문서화는 기업들이 모델을 시장에 서둘러 내놓으면서 AI 안전과 투명성에 있어서 최저로의 경쟁을 벌이고 있다는 우려스러운 이야기를 전합니다,"라고 그는 테크크런치에 말했습니다.
구글은 기술 보고서에 자세히 설명되지 않았지만, 모델 출시 전에 안전 테스트와 "적대적 레드 팀" 활동을 수행한다고 밝혔습니다.
4월 22일 오후 12:58 태평양 시간 업데이트: 구글의 FSF에 대한 기술 보고서의 언급과 관련된 언어를 수정했습니다.



Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.




Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔




ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅




Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔




O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔




El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔












