Fei-Fei Li의 그룹은 선제 적 AI 안전법을 촉구합니다

캘리포니아 정책 그룹의 새로운 보고서에 따르면, AI 개척자 페이-페이 리(Fei-Fei Li)가 공동으로 이끄는 이 그룹은 법률 제정자들이 AI 규제 정책을 만들 때 아직 실세계에서 관찰되지 않은 AI 위험을 고려해야 한다고 제안했다. 화요일에 발표된 이 41페이지 분량의 중간 보고서는 캘리포니아 주지사 개빈 뉴섬(Gavin Newsom)이 논란이 되었던 캘리포니아 AI 안전 법안 SB 1047을 거부한 후 설립한 AI 프론티어 모델에 관한 캘리포니아 정책 워킹 그룹(Joint California Policy Working Group on AI Frontier Models)에서 나왔다. 뉴섬은 SB 1047이 목표에 정확히 부합하지 않는다고 느꼈지만, 입법자들을 안내하기 위해 AI 위험에 대한 더 깊은 조사가 필요하다는 점을 인식했다.
보고서에서 리는 UC 버클리 컴퓨팅 학부 학장 제니퍼 체이스(Jennifer Chayes)와 카네기 국제평화재단 회장 마리아노-플로렌티노 쿠에야르(Mariano-Florentino Cuéllar)와 함께, OpenAI 같은 프론티어 AI 연구소들이 무엇을 하고 있는지 더 명확히 하기 위한 법률을 추진했다. 보고서가 공개되기 전에, 튜링상 수상자 요슈아 벤지오(Yoshua Bengio)와 같은 강력한 AI 안전 지지자들과 Databricks 공동 설립자 이온 스토이카(Ion Stoica)처럼 SB 1047에 반대한 다양한 업계 관계자들이 보고서를 검토했다.
보고서는 AI 시스템의 새로운 위험으로 인해 AI 모델 개발자들이 안전 테스트, 데이터 획득 방법, 보안 조치를 대중과 공유하도록 하는 법률이 필요할 수 있다고 지적했다. 또한, 이에 대한 제3자 검증과 회사 정책에 대한 더 나은 기준, 그리고 AI 회사 직원 및 계약자들이 내부 고발을 할 때 더 많은 보호를 요구했다.
리와 공동 저자들은 AI가 사이버 공격을 돕거나, 생물학 무기를 만들거나, 기타 "극단적인" 위험을 초래할 가능성에 대한 증거가 아직 충분하지 않다고 언급했다. 하지만 그들은 AI 정책이 현재 일어나고 있는 일만 다루는 것이 아니라, 충분한 안전 조치가 마련되지 않을 경우 미래에 일어날 수 있는 일도 고려해야 한다고 말했다.
보고서는 핵무기를 예로 들며, "핵무기가 터지는 것을 보지 않아도 그것이 큰 해를 끼칠 수 있다는 것을 안다"고 밝혔다. 이어서, "최악의 위험을 이야기하는 사람들이 옳다면 — 그리고 그들이 옳을지 확실하지 않지만 — 지금 프론티어 AI에 대해 아무 조치도 취하지 않는다면 매우 큰 대가를 치를 수 있다"고 덧붙였다.
AI 모델 개발을 더 투명하게 하기 위해 보고서는 "신뢰하되 검증하라"는 접근 방식을 제안했다. AI 모델 개발자와 그들의 직원들이 내부 안전 테스트와 같은 대중에게 중요한 사항을 보고할 수 있는 방법을 마련해야 하며, 테스트 주장도 제3자에 의해 검증받아야 한다고 밝혔다.
2025년 6월에 최종화될 이 보고서는 특정 법률을 지지하지 않지만, AI 정책 논쟁의 양측 전문가들에게 좋은 평가를 받았다.
SB 1047을 좋아하지 않았던 조지 메이슨 대학교의 AI 중심 연구원 딘 볼(Dean Ball)은 X에서 이 보고서가 캘리포니아의 AI 안전 규칙에 좋은 진전이라고 말했다. 또한, 작년에 SB 1047을 발의한 캘리포니아 주 상원의원 스콧 위너(Scott Wiener)에 따르면, 이는 AI 안전 옹호자들에게도 승리라고 한다. 위너는 보도자료에서 이 보고서가 "2024년에 주의회에서 시작한 AI 거버넌스에 대한 긴급한 논의를 강화한다"고 말했다.
보고서는 SB 1047과 위너의 다음 법안 SB 53의 일부, 예를 들어 AI 모델 개발자들이 안전 테스트 결과를 보고하도록 하는 부분과 일치하는 것으로 보인다. 더 큰 그림을 보면, 이는 지난 1년 동안 지지를 잃어왔던 AI 안전 옹호자들에게 매우 필요한 승리로 보인다.
관련 기사
AI로 구동되는 색칠공기놀이 책 제작: 종합 가이드
색칠공기놀이 책 디자인은 예술적 표현과 사용자에게 차분한 경험을 결합한 보람 있는 활동입니다. 하지만 이 과정은 노동 집약적일 수 있습니다. 다행히 AI 도구를 사용하면 고품질의 균일한 색칠 페이지를 쉽게 만들 수 있습니다. 이 가이드는 AI를 사용해 색칠공기놀이 책을 제작하는 단계별 접근법을 제공하며, 일관된 스타일과 최적의 효율성을 위한 기술에 초점을
Qodo, Google Cloud와 협력하여 개발자를 위한 무료 AI 코드 리뷰 도구 제공
코드 품질에 초점을 맞춘 이스라엘 기반 AI 코딩 스타트업 Qodo가 Google Cloud와 파트너십을 시작하여 AI로 생성된 소프트웨어의 무결성을 강화했습니다.기업들이 코딩에 AI를 점점 더 많이 의존함에 따라, 강력한 감독 및 품질 보증 도구에 대한 수요가 증가하고 있습니다.Qodo의 CEO Itamar Friedman은 AI로 생성된 코드가 현대 개
DeepMind의 AI가 2025 수학 올림피아드에서 금메달 획득
DeepMind의 AI는 수학적 추론에서 놀라운 도약을 이루어, 2024년에 은메달을 획득한 지 불과 1년 만에 2025 국제수학올림피아드(IMO)에서 금메달을 차지했습니다. 이 돌파구는 인간과 같은 창의력이 요구되는 복잡하고 추상적인 문제를 해결하는 AI의 성장하는 능력을 강조합니다. 이 기사에서는 DeepMind의 변혁적 여정, 주요 기술적 발전, 그리
의견 (35)
0/200
MichaelDavis
2025년 4월 17일 오후 9시 14분 46초 GMT+09:00
O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅
0
JasonRoberts
2025년 4월 17일 오전 1시 17분 56초 GMT+09:00
¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅
0
AnthonyJohnson
2025년 4월 16일 오후 1시 13분 53초 GMT+09:00
El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚
0
WillieRodriguez
2025년 4월 16일 오전 8시 1분 1초 GMT+09:00
Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚
0
RalphWalker
2025년 4월 16일 오전 2시 16분 25초 GMT+09:00
Fei-Fei Li's group is really pushing for proactive AI safety laws, which is great. But man, that 41-page report? A bit much to digest, don't you think? Still, it's important to consider unseen AI risks. Maybe they could've made it a bit more concise? 🤓📚
0
EricRoberts
2025년 4월 15일 오후 2시 46분 36초 GMT+09:00
Fei-Fei Li 그룹의 AI 안전 보고서는 눈을 뜨게 하지만, 읽기에는 조금 어려워요. 미래의 위험을 생각하는 것은 중요하지만, 더 읽기 쉽게 만들어졌으면 좋겠어요. 그래도 생각할 거리를 주네요! 🤔
0
캘리포니아 정책 그룹의 새로운 보고서에 따르면, AI 개척자 페이-페이 리(Fei-Fei Li)가 공동으로 이끄는 이 그룹은 법률 제정자들이 AI 규제 정책을 만들 때 아직 실세계에서 관찰되지 않은 AI 위험을 고려해야 한다고 제안했다. 화요일에 발표된 이 41페이지 분량의 중간 보고서는 캘리포니아 주지사 개빈 뉴섬(Gavin Newsom)이 논란이 되었던 캘리포니아 AI 안전 법안 SB 1047을 거부한 후 설립한 AI 프론티어 모델에 관한 캘리포니아 정책 워킹 그룹(Joint California Policy Working Group on AI Frontier Models)에서 나왔다. 뉴섬은 SB 1047이 목표에 정확히 부합하지 않는다고 느꼈지만, 입법자들을 안내하기 위해 AI 위험에 대한 더 깊은 조사가 필요하다는 점을 인식했다.
보고서에서 리는 UC 버클리 컴퓨팅 학부 학장 제니퍼 체이스(Jennifer Chayes)와 카네기 국제평화재단 회장 마리아노-플로렌티노 쿠에야르(Mariano-Florentino Cuéllar)와 함께, OpenAI 같은 프론티어 AI 연구소들이 무엇을 하고 있는지 더 명확히 하기 위한 법률을 추진했다. 보고서가 공개되기 전에, 튜링상 수상자 요슈아 벤지오(Yoshua Bengio)와 같은 강력한 AI 안전 지지자들과 Databricks 공동 설립자 이온 스토이카(Ion Stoica)처럼 SB 1047에 반대한 다양한 업계 관계자들이 보고서를 검토했다.
보고서는 AI 시스템의 새로운 위험으로 인해 AI 모델 개발자들이 안전 테스트, 데이터 획득 방법, 보안 조치를 대중과 공유하도록 하는 법률이 필요할 수 있다고 지적했다. 또한, 이에 대한 제3자 검증과 회사 정책에 대한 더 나은 기준, 그리고 AI 회사 직원 및 계약자들이 내부 고발을 할 때 더 많은 보호를 요구했다.
리와 공동 저자들은 AI가 사이버 공격을 돕거나, 생물학 무기를 만들거나, 기타 "극단적인" 위험을 초래할 가능성에 대한 증거가 아직 충분하지 않다고 언급했다. 하지만 그들은 AI 정책이 현재 일어나고 있는 일만 다루는 것이 아니라, 충분한 안전 조치가 마련되지 않을 경우 미래에 일어날 수 있는 일도 고려해야 한다고 말했다.
보고서는 핵무기를 예로 들며, "핵무기가 터지는 것을 보지 않아도 그것이 큰 해를 끼칠 수 있다는 것을 안다"고 밝혔다. 이어서, "최악의 위험을 이야기하는 사람들이 옳다면 — 그리고 그들이 옳을지 확실하지 않지만 — 지금 프론티어 AI에 대해 아무 조치도 취하지 않는다면 매우 큰 대가를 치를 수 있다"고 덧붙였다.
AI 모델 개발을 더 투명하게 하기 위해 보고서는 "신뢰하되 검증하라"는 접근 방식을 제안했다. AI 모델 개발자와 그들의 직원들이 내부 안전 테스트와 같은 대중에게 중요한 사항을 보고할 수 있는 방법을 마련해야 하며, 테스트 주장도 제3자에 의해 검증받아야 한다고 밝혔다.
2025년 6월에 최종화될 이 보고서는 특정 법률을 지지하지 않지만, AI 정책 논쟁의 양측 전문가들에게 좋은 평가를 받았다.
SB 1047을 좋아하지 않았던 조지 메이슨 대학교의 AI 중심 연구원 딘 볼(Dean Ball)은 X에서 이 보고서가 캘리포니아의 AI 안전 규칙에 좋은 진전이라고 말했다. 또한, 작년에 SB 1047을 발의한 캘리포니아 주 상원의원 스콧 위너(Scott Wiener)에 따르면, 이는 AI 안전 옹호자들에게도 승리라고 한다. 위너는 보도자료에서 이 보고서가 "2024년에 주의회에서 시작한 AI 거버넌스에 대한 긴급한 논의를 강화한다"고 말했다.
보고서는 SB 1047과 위너의 다음 법안 SB 53의 일부, 예를 들어 AI 모델 개발자들이 안전 테스트 결과를 보고하도록 하는 부분과 일치하는 것으로 보인다. 더 큰 그림을 보면, 이는 지난 1년 동안 지지를 잃어왔던 AI 안전 옹호자들에게 매우 필요한 승리로 보인다.



O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅




¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅




El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚




Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚




Fei-Fei Li's group is really pushing for proactive AI safety laws, which is great. But man, that 41-page report? A bit much to digest, don't you think? Still, it's important to consider unseen AI risks. Maybe they could've made it a bit more concise? 🤓📚




Fei-Fei Li 그룹의 AI 안전 보고서는 눈을 뜨게 하지만, 읽기에는 조금 어려워요. 미래의 위험을 생각하는 것은 중요하지만, 더 읽기 쉽게 만들어졌으면 좋겠어요. 그래도 생각할 거리를 주네요! 🤔












