AI 안전 이야기 변경을위한 전주 정책 리드 슬램 회사

전직 OpenAI 정책 연구원 인 Miles Brundage는 최근 소셜 미디어를 방문하여 잠재적으로 위험한 AI 시스템을 배치하려는 접근 방식의 "역사를 다시 작성하려는 시도"로 보는 것에 대해 OpenAI를 불러 냈습니다. 이번 주 Openai는 AI 시스템이 예측 가능하고 유익한 방식으로 작용하도록하는 과정 인 AI 안전 및 정렬에 대한 현재의 입장을 자세히 설명하는 문서를 발표했습니다. OpenAI는 AI Technologies에서 "반복적으로 배포하고 학습"하는 "연속 경로"로 인간이 할 수있는 모든 작업을 수행 할 수있는 AGI 또는 AI 시스템의 개발을 설명했습니다. Openai는 "불연속적인 세상에서 [...] 안전 수업은 오늘날의 시스템을 명백한 힘과 비교하여 큰주의로 대우하는 데있어 왔습니다. "우리는 이제 첫 번째 AGI를 연속 세계에서 유용성이 증가하는 일련의 시스템을 따라 한 지점으로 간주합니다. 다음 시스템을 안전하고 유익하게 만드는 방법은 현재 시스템에서 배우는 것입니다." 그러나 Brundage는 GPT-2로 취한 신중한 접근 방식이 OpenAI의 현재 반복 배포 전략과 전적으로 일치한다고 주장합니다. Brundage는 "내가 관여했던 GPT-2의 OpenAi 릴리스는 OpenAI의 현재 반복 배포 철학과 100% 일관되었다"고 Brundage는 X에 게시했다. 2018 년에 연구 과학자로 OpenAI에 합류 한 후 나중에 회사의 정책 연구 책임자가 된 Brundage는 OpenAI의 "AGI Readiness"팀에서 ChatGPT와 같은 언어 생성 시스템의 책임있는 배치에 중점을 두었습니다. 2019 년 OpenAI가 발표 한 GPT-2는 ChatGpt 뒤의 AI 시스템의 선구자였습니다. 질문에 대답하고 기사를 요약하며 때로는 인간의 글쓰기와 구별 할 수없는 텍스트를 생성 할 수 있습니다. GPT-2는 현재 기본적으로 보일지 모르지만 당시에는 획기적이었습니다. 잠재적 오용에 대한 우려로 인해 OpenAi는 처음에 모델의 소스 코드를 보류했으며 대신 선택된 뉴스 매체가 데모에 대한 액세스를 제한 할 수 있습니다. 이 결정은 AI 커뮤니티로부터 혼합 된 피드백을 받았습니다. 일부는 GPT-2와 관련된 위험이 과장되었으며 오용에 대한 Openai의 우려를 뒷받침 할 증거는 없다고 주장했다. AI 중심 간행물 Gradient는 심지어 OpenAi가 기술의 중요성을 인용하여 모델을 발표 할 것을 촉구하는 공개 서한을 발표했습니다. OpenAi는 결국 발표 후 6 개월 후 GPT-2의 부분 버전을 발표 한 후 몇 달 후 전체 시스템을 발표했습니다. Brundage는 이것이 올바른 접근법이라고 생각합니다. "[GPT-2 릴리스]의 어느 부분이 AGI를 불연속적인 것으로 생각하는 데 동기를 부여했거나 전제로 전제 되었는가?"그는 X에 대해 언급했다. Brundage는 Openai의 문서가 임박한 위험에 대한 압도적 인 증거가 없다면 우려가 경보로 기각되는 높은 증거 부담을 확립하는 것을 목표로합니다. 그는이 사고 방식이 고급 AI 시스템에 대해 "매우 위험한"것을 발견했습니다. Brundage는 "OpenAi에서 여전히 일하고 있다면이 [문서]가 왜 그 방식대로 작성되었는지, 그리고 멍청한 방식으로 똥을 뿌려서 달성하기를 바라는 이유를 묻습니다."라고 Brundage는 덧붙였습니다. Openai는 과거에 안전에 대한 "반짝이는 제품"을 우선 순위를 정하고 경쟁 업체를 능가하기위한 돌진 릴리스에 대한 비판에 직면했습니다. 작년 에이 회사는 AGI 준비 팀을 해산했으며 몇몇 AI 안전 및 정책 연구원들은 라이벌 회사를 떠났다. 중국 AI Lab DeepSeek의 R1 모델을 통해 경쟁 환경이 강화되었습니다.이 모델은 공개적으로 이용 가능하며 주요 벤치 마크의 OpenAi의 O1 "추론"모델과 일치하여 글로벌 관심을 끌었습니다. Openai CEO Sam Altman은 DeepSeek이 OpenAi의 기술 책임자를 좁히고 OpenAI가 출시 일정을 가속화하도록 고려했음을 인정했습니다. OpenAi는 2026 년까지 매년 수십억 달러를 잃고 손실을 140 억 달러로 3 배로 돌파하면서 더 빠른 제품 출시주기는 단기 이익을 늘릴 수 있지만 장기 안전성을 손상시킬 수 있습니다. Brundage와 같은 전문가들은이 트레이드 오프가 가치가 있는지 의문을 제기하고 있습니다.
관련 기사
OpenAI, ChatGPT Pro를 o3로 업그레이드하고 월 구독료 $200로 가치 증대
이번 주에는 마이크로소프트, 구글, 앤트로픽을 비롯한 거대 기술 기업들의 중요한 AI 개발이 있었습니다. OpenAI는 코드명 "io"라는 야심찬 하드웨어 이니셔티브를 위해 65억 달러에 인수한 조니 아이브의 디자인 회사를 넘어서는 획기적인 업데이트를 발표하며 활발한 발표를 마무리했습니다.이 회사는 이전의 GPT-4o 프레임워크에서 고급 추론 모델인 o3로
AI 에이전트를 활용하여 자선 기금 모금 활동을 강화하는 비영리 단체
주요 기술 기업들이 AI '에이전트'를 기업의 생산성을 높여주는 도구로 홍보하는 가운데, 한 비영리 단체는 사회적 공익을 위한 AI의 잠재력을 입증하고 있습니다. 오픈 필란트로피의 지원을 받는 자선 연구 단체인 세이지 퓨처는 최근 AI 모델이 자선 기금 모금에 어떻게 협력할 수 있는지 보여주는 혁신적인 실험을 진행했습니다.이 비영리 단체는 자선 단체를
최고의 AI 연구소, 인류가 AI 시스템에 대한 이해력을 잃어가고 있다고 경고하다
전례 없는 단결력을 보여준 OpenAI, Google DeepMind, Anthropic, Meta의 연구원들은 경쟁적 차이를 제쳐두고 책임감 있는 AI 개발에 대한 공동의 경고를 발표했습니다. 일반적으로 라이벌 관계에 있는 이들 조직의 40여 명의 선도적인 과학자들은 AI 의사결정 과정의 투명성을 보장하기 위해 빠르게 닫혀가는 창을 강조하는 획기적인 연구
의견 (36)
0/200
LiamCarter
2025년 8월 5일 오후 4시 0분 59초 GMT+09:00
It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?
0
TimothyMitchell
2025년 4월 21일 오전 2시 18분 15초 GMT+09:00
マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍
0
JackPerez
2025년 4월 17일 오전 8시 40분 6초 GMT+09:00
A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍
0
StevenGonzalez
2025년 4월 17일 오전 5시 38분 43초 GMT+09:00
마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏
0
AlbertWilson
2025년 4월 17일 오전 4시 7분 30초 GMT+09:00
Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏
0
DonaldBrown
2025년 4월 16일 오후 4시 5분 24초 GMT+09:00
Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨
0




It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?




マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍




A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍




마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏




Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏




Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨












