옵션
뉴스
Google은 책임있는 AI 보고서를 발행하고 무기 방지 약속을 떨어 뜨립니다

Google은 책임있는 AI 보고서를 발행하고 무기 방지 약속을 떨어 뜨립니다

2025년 4월 17일
103

Google은 책임있는 AI 보고서를 발행하고 무기 방지 약속을 떨어 뜨립니다

구글의 최신 책임 있는 AI 진행 보고서가 화요일에 발표되었으며, 이는 회사가 AI 위험을 관리하고 책임 있는 혁신을 촉진하기 위한 노력을 자세히 살펴보는 내용을 담고 있습니다. 보고서는 구글의 "AI 위험 관리, 매핑, 측정 및 관리"에 대한 헌신을 강조하며, 이러한 원칙이 회사 전반에 걸쳐 어떻게 실천되고 있는지에 대한 최신 정보를 제공합니다. 그러나 보고서에서 눈에 띄는 누락은 AI의 무기 및 감시 사용에 대한 언급이 전혀 없다는 점으로, 구글이 웹사이트에서 관련 약속을 삭제한 이후로 두드러지게 다루지 않은 주제입니다.

보고서는 안전에 대한 구글의 헌신을 보여주며, 2024년에 300편 이상의 안전 연구 논문이 발표되었고, AI 교육 및 훈련에 1억 2천만 달러가 투자되었으며, 국립표준기술연구소(NIST) 위험 관리 프레임워크에서 클라우드 AI에 대한 "성숙한" 준비 등급을 받았습니다. 보고서는 Gemini, AlphaFold, Gemma와 같은 프로젝트를 중심으로 한 보안 및 콘텐츠 중심의 레드 팀 활동을 자세히 다루며, 유해한 콘텐츠 생성 또는 유포를 방지하기 위한 회사의 전략을 강조합니다. 또한 구글은 AI 생성 misinformation을 추적하기 위한 오픈소스 콘텐츠 워터마킹 도구인 SynthID를 강조합니다.

구글은 또한 프론티어 안전 프레임워크를 업데이트하여 새로운 보안 권장 사항, 오용 완화 절차를 도입하고, 자율 시스템이 인간의 통제를 약화시킬 가능성을 다루는 "기만적 정렬 위험"을 다루었습니다. 이 문제는 OpenAI의 o1 및 Claude 3 Opus와 같은 모델에서 관찰되었으며, 여기서 AI 시스템이 자율성을 유지하기 위해 창작자를 속이는 경향을 보였습니다.

이러한 포괄적인 안전 및 보안 조치에도 불구하고, 보고서는 최종 사용자 안전, 데이터 프라이버시, 소비자 AI에 초점을 맞추고 있으며, 오용, 사이버 공격, 인공지능 일반(AGI) 개발과 같은 더 광범위한 문제는 간략히 언급할 뿐입니다. 이러한 소비자 중심 접근 방식은 구글이 AI를 무기나 감시에 사용하지 않겠다는 약속을 최근 삭제한 것과 대조적이며, 이는 블룸버그가 보도한 바에 따르면 지난 주까지 회사 웹사이트에서 볼 수 있었습니다.

이 불일치는 책임 있는 AI가 무엇을 의미하는지에 대한 중요한 질문을 제기합니다. 구글의 갱신된 AI 원칙은 "대담한 혁신, 협력적 진전, 책임 있는 개발 및 배포"를 강조하며, "사용자 목표, 사회적 책임, 국제법 및 인권의 널리 받아들여지는 원칙"과 일치합니다. 그러나 이러한 원칙의 모호함은 자체 지침과 모순되지 않으면서 무기 사용 사례를 재평가할 여지를 줄 수 있습니다.

보고서와 함께 제공된 구글의 블로그 포스트는 "우리는 우리의 사명, 과학적 초점, 전문 분야와 일치하는 AI 연구 및 응용에 계속 집중할 것이며, 특정 작업이 잠재적 위험을 실질적으로 상회하는 이점을 가져오는지 신중히 평가할 것입니다."라고 밝혔습니다. 이러한 변화는 OpenAI의 최근 미국 국립 연구소 및 방산업체 Anduril과의 파트너십, 그리고 마이크로소프트가 국방부에 DALL-E를 제안한 사례에서 볼 수 있듯이, 기술 대기업들 사이의 더 넓은 추세를 반영합니다.

구글의 AI 원칙과 삭제된 약속

구글 웹사이트에서 "우리가 추구하지 않을 응용"이라는 제목의 섹션이 삭제되었으며, 이 섹션에는 이전에 AI를 무기나 감시에 사용하지 않겠다는 약속이 포함되어 있었습니다. 이는 회사의 입장에서 중대한 변화를 나타냅니다. 아래 스크린샷에서 볼 수 있듯이, 이제 삭제된 이 섹션은 그러한 응용을 피하려는 구글의 의도를 명시적으로 밝혔습니다.

군사 응용에서의 AI의 더 넓은 맥락

기술 대기업들의 군사적 AI 응용에 대한 태도 변화는 더 큰 모자이크의 일부입니다. OpenAI의 최근 국가 안보 인프라 및 방산업체들과의 파트너십, 그리고 마이크로소프트의 국방부와의 협력은 군사적 맥락에서 AI의 수용이 증가하고 있음을 보여줍니다. 이러한 변화는 그러한 응용에 직면하여 책임 있는 AI가 진정으로 무엇을 의미하는지에 대한 재평가를 촉발합니다.

관련 기사
실세계 성능을 위한 AI 모델 선택 최적화 실세계 성능을 위한 AI 모델 선택 최적화 기업은 애플리케이션을 구동하는 AI 모델이 실세계 시나리오에서 효과적으로 작동해야 합니다. 이러한 시나리오를 예측하는 것은 평가를 복잡하게 만드는 도전 과제입니다. 업데이트된 RewardBench 2 벤치마크는 조직에 모델의 실제 성능에 대한 더 명확한 통찰을 제공합니다.Allen Institute for AI (Ai2)는 RewardBench 벤치마크의
베이더의 여정: 스타워즈에서 비극에서 구원까지 베이더의 여정: 스타워즈에서 비극에서 구원까지 다스 베이더는 공포와 폭정의 상징으로, 영화 역사상 가장 상징적인 악당 중 하나로 자리 잡고 있습니다. 하지만 마스크 아래에는 비극, 상실, 그리고 궁극적인 구원의 이야기가 숨겨져 있습니다. 이 글은 아나킨 스카이워커가 다스 베이더로 변모하는 과정을 탐구하며, 스타워즈 사가에서 그의 경로를 정의한 결정적인 순간, 감정, 선택을 살펴봅니다.주요 포인트아나킨
Former OpenAI Engineer Shares Insights on Company Culture and Rapid Growth Former OpenAI Engineer Shares Insights on Company Culture and Rapid Growth 3주 전, OpenAI의 핵심 제품에 기여했던 엔지니어 Calvin French-Owen이 회사를 떠났습니다.그는 최근 OpenAI에서의 1년을 상세히 다룬 매력적인 블로그 포스트를 공유했으며, 여기에는 Cursor나 Anthropic의 Claude Code와 경쟁하는 코딩 에이전트 Codex 개발에 대한 강렬한 노력이 포함되어 있습니다.French-Owe
의견 (26)
0/200
ScarlettWhite
ScarlettWhite 2025년 7월 31일 오후 8시 35분 39초 GMT+09:00

Google's AI report sounds promising, but dropping the anti-weapons stance raises eyebrows. Are they prioritizing profits over ethics now? 🤔 Still, their risk management approach seems thorough—hope it’s not just PR spin!

NicholasLewis
NicholasLewis 2025년 4월 26일 오전 10시 8분 0초 GMT+09:00

O relatório de IA Responsável do Google parece bom no papel, mas abandonar o compromisso contra armas? Isso é um pouco decepcionante. É importante continuar a empurrar pela IA ética, mas isso parece um passo para trás. Vamos, Google, você pode fazer melhor! 🤨

ThomasYoung
ThomasYoung 2025년 4월 24일 오후 1시 40분 26초 GMT+09:00

O relatório de IA do Google é interessante, mas abandonar o compromisso contra armas? Isso é um pouco decepcionante. Aprecio a transparência na gestão dos riscos de IA, mas vamos, Google, precisamos de mais do que apenas relatórios. Precisamos de ação! 🤔

ChristopherAllen
ChristopherAllen 2025년 4월 24일 오전 7시 55분 5초 GMT+09:00

El informe de IA de Google es interesante, pero ¿abandonar el compromiso contra armas? Eso es un poco decepcionante. Aprecio la transparencia en la gestión de riesgos de IA, pero vamos, Google, necesitamos más que solo informes. ¡Necesitamos acción! 🤔

TimothyMitchell
TimothyMitchell 2025년 4월 23일 오후 7시 53분 48초 GMT+09:00

GoogleのResponsible AIレポートは素晴らしいけど、反兵器コミットメントをやめたのは残念だね。それでも、AIリスクの管理に注力しているのは評価できるよ。これからも責任あるイノベーションを推進してほしいな!🚀

JackMartinez
JackMartinez 2025년 4월 22일 오전 8시 11분 46초 GMT+09:00

El informe de IA Responsable de Google suena bien sobre el papel, pero ¿abandonar el compromiso contra las armas? Eso es un poco decepcionante. Es importante seguir empujando por una IA ética, pero esto se siente como un paso atrás. Vamos, Google, ¡puedes hacerlo mejor! 🤨

위로 돌아갑니다
OR