AI 리더들이 AGI 논의: 현실에 근거하여
2025년 5월 9일
DanielThomas
0

최근 샌프란시스코에서 열린 비즈니스 리더들과의 만찬에서 던진 질문 하나가 방 안을 얼어붙게 했습니다: 오늘날의 AI가 인간 수준의 지능이나 그 이상에 도달할 수 있을까요? 이 주제는 예상보다 더 많은 논쟁을 불러일으킵니다.
2025년, 기술 CEO들은 ChatGPT와 Gemini 같은 대규모 언어 모델(LLM)에 대해 낙관적인 견해를 가지고 있습니다. 그들은 이러한 모델들이 곧 인간 수준 또는 초인간적인 지능에 도달할 수 있다고 확신합니다. 예를 들어, Anthropic의 다리오 아모데이는 여러 분야에서 노벨상 수상자보다 더 똑똑한 AI가 2026년까지 나타날 수 있다고 주장하는 에세이를 작성했습니다. 한편, OpenAI의 샘 알트먼은 "초지능" AI를 구축하는 방법을 알고 있다고 공개적으로 말하며, 그것이 과학적 발견을 급진적으로 가속화할 수 있다고 예측했습니다.
그러나 이러한 장밋빛 전망을 모두가 받아들이는 것은 아닙니다. 일부 AI 리더들은 LLM이 AGI에 도달하거나, 심지어 초지능에 도달하려면 중요한 돌파구가 필요하다고 회의적입니다. 한때 조용했던 이 회의론자들은 이제 더 목소리를 내고 있습니다.
AI 커뮤니티의 회의주의
허깅페이스의 공동 창립자이자 수석 과학 책임자인 토마스 울프를 예로 들어보겠습니다. 최근 기사에서 그는 아모데이의 비전 중 일부를 "최선의 경우에도 소망에 불과한 생각"이라고 불렀습니다. 통계 및 양자 물리학 박사 학위를 바탕으로, 울프는 노벨상 수준의 돌파구는 새로운 질문을 던지는 데서 나오는 것이지, 알려진 질문에 답하는 데서 나오는 것이 아니라고 주장합니다. 이것은 AI가 잘하는 일이지만, 새로운 아이디어를 개척하는 데는 큰 도움이 되지 않습니다.
"저는 '아인슈타인 모델'을 보고 싶습니다만, 그곳에 도달하는 방법에 대한 세부 사항을 파악해야 합니다," 울프는 테크크런치와의 인터뷰에서 말했습니다. 그는 AGI에 대한 과도한 홍보가 그것을 달성하는 방법에 대한 심각한 논의를 가리고 있다고 느껴서 글을 썼습니다. 울프는 AI가 세상을 변화시킬 미래를 보고 있지만, 반드시 인간 수준의 지능이나 초지능에 도달하는 것은 아니라고 봅니다.
AI 커뮤니티는 종종 AGI를 믿는 사람들과 그렇지 않은 사람들로 나뉘며, 후자는 종종 "기술 반대" 또는 단순히 비관적이라고 레이블링됩니다. 그러나 울프는 자신을 "정보에 입각한 낙관주의자"로 간주하며, 현실에 기반한 채로 AI 발전을 추진합니다.
AI 논쟁의 다른 목소리
구글 딥마인드의 CEO 데미스 하사비스는 AGI가 아직 10년은 더 걸릴 수 있다고 팀에게 말했다고 합니다. 현재 AI가 처리할 수 없는 많은 작업을 지적했습니다. 메타의 수석 AI 과학자인 얀 르쿤도 LLM이 AGI를 달성할 수 있다는 생각을 " nonsense"라고 불렀으며, Nvidia GTC에서 초지능을 뒷받침할 새로운 아키텍처를 요구했습니다.
OpenAI의 전 수석 연구원이자 현재 Lila Sciences의 임원인 케네스 스탠리는 고급 AI를 구축하는 세부 사항을 연구하고 있습니다. 최근 2억 달러를 투자받은 그의 스타트업은 과학적 혁신을 자동화하는 데 중점을 두고 있습니다. 스탠리의 연구는 AI가 독창적이고 창의적인 아이디어를 생성하는 능력, 즉 개방성(open-endedness) 분야를 탐구합니다.
"울프의 에세이를 썼으면 좋겠다는 생각이 들었습니다, 왜냐하면 그것이 제 감정을 정말로 반영하고 있기 때문입니다," 스탠리는 테크크런치에 말했습니다. 그는 울프와 동의하여, 지식을 많이 가진다고 해서 자동적으로 독창적인 아이디어가 나오는 것은 아니라고 봅니다.
AI에서의 창의성의 역할
스탠리는 AGI에 있어 창의성이 필수적이라고 믿지만, 그것이 쉽게 해결될 문제는 아니라고 인정합니다. 아모데이 같은 낙관론자들은 AI "추론" 모델이 AGI로 가는 단계라고 강조하지만, 스탠리는 창의성이 다른 종류의 지능을 필요로 한다고 주장합니다. "추론은 거의 창의성과는 반대입니다," 그는 설명했습니다. "추론 모델은 특정 목표를 달성하는 데 집중하기 때문에, 창의성에 필요한 기회주의적 사고를 제한할 수 있습니다."
스탠리는 진정으로 지능적인 AI를 구축하려면 인간이 새로운 아이디어에 대한 취향을 알고리즘적으로 복제해야 한다고 제안합니다. AI는 수학과 프로그래밍과 같은 영역에서 뛰어나지만, "정답"이 없는 더 주관적이고 창의적인 작업에는 어려움을 겪습니다.
"사람들은 과학에서 주관성을 피합니다 - 이 단어는 거의 독성이 있습니다," 스탠리는 말했습니다. "그러나 주관성을 알고리즘적으로 다루는 것을 막는 것은 아무것도 없습니다. 그것은 단지 데이터 스트림의 일부일 뿐입니다."
그는 Lila Sciences, 구글 딥마인드, AI 스타트업 사카나와 같은 연구소에서 개방성에 대한 관심이 증가하고 있는 것에 고무되고 있습니다. 스탠리는 AI에서 창의성에 대해 더 많은 사람들이 이야기하고 있지만, 앞으로도 많은 작업이 필요하다고 믿습니다.
AI의 현실주의자들
울프와 르쿤은 "AI 현실주의자"로 간주될 수 있습니다: AGI와 초지능의 실현 가능성에 대해 현실적인 질문을 제기하는 리더들입니다.他们的目标不是否定AI的进步,而是引发关于AI无法达到AGI和超级智能的更广泛的讨论,并直接面对这些挑战。
관련 기사
OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor
OpenAI has launched a fierce legal counterattack against its co-founder, Elon Musk, and his competing AI company, xAI. In a dramatic escalation of their ongoing feud, OpenAI accuses Musk of waging a "relentless" and "malicious" campaign to undermine the company he helped start.
According to court d
Law of Accelerating Returns Explained: Pathway to AGI Development
In a recent interview, Elon Musk shared his optimistic view on the timeline for the advent of Artificial General Intelligence (AGI), stating it could be as soon as *“3 to 6 years”*. Similarly, Demis Hassabis, CEO of Google's DeepMind, expressed at The Wall Street Journal’s Future of Everything Festi
New AGI Test Proves Challenging, Stumps Majority of AI Models
The Arc Prize Foundation, co-founded by renowned AI researcher François Chollet, recently unveiled a new benchmark called ARC-AGI-2 in a blog post. This test aims to push the boundaries of AI's general intelligence, and so far, it's proving to be a tough nut to crack for most AI models.According to
의견 (0)
0/200






최근 샌프란시스코에서 열린 비즈니스 리더들과의 만찬에서 던진 질문 하나가 방 안을 얼어붙게 했습니다: 오늘날의 AI가 인간 수준의 지능이나 그 이상에 도달할 수 있을까요? 이 주제는 예상보다 더 많은 논쟁을 불러일으킵니다.
2025년, 기술 CEO들은 ChatGPT와 Gemini 같은 대규모 언어 모델(LLM)에 대해 낙관적인 견해를 가지고 있습니다. 그들은 이러한 모델들이 곧 인간 수준 또는 초인간적인 지능에 도달할 수 있다고 확신합니다. 예를 들어, Anthropic의 다리오 아모데이는 여러 분야에서 노벨상 수상자보다 더 똑똑한 AI가 2026년까지 나타날 수 있다고 주장하는 에세이를 작성했습니다. 한편, OpenAI의 샘 알트먼은 "초지능" AI를 구축하는 방법을 알고 있다고 공개적으로 말하며, 그것이 과학적 발견을 급진적으로 가속화할 수 있다고 예측했습니다.
그러나 이러한 장밋빛 전망을 모두가 받아들이는 것은 아닙니다. 일부 AI 리더들은 LLM이 AGI에 도달하거나, 심지어 초지능에 도달하려면 중요한 돌파구가 필요하다고 회의적입니다. 한때 조용했던 이 회의론자들은 이제 더 목소리를 내고 있습니다.
AI 커뮤니티의 회의주의
허깅페이스의 공동 창립자이자 수석 과학 책임자인 토마스 울프를 예로 들어보겠습니다. 최근 기사에서 그는 아모데이의 비전 중 일부를 "최선의 경우에도 소망에 불과한 생각"이라고 불렀습니다. 통계 및 양자 물리학 박사 학위를 바탕으로, 울프는 노벨상 수준의 돌파구는 새로운 질문을 던지는 데서 나오는 것이지, 알려진 질문에 답하는 데서 나오는 것이 아니라고 주장합니다. 이것은 AI가 잘하는 일이지만, 새로운 아이디어를 개척하는 데는 큰 도움이 되지 않습니다.
"저는 '아인슈타인 모델'을 보고 싶습니다만, 그곳에 도달하는 방법에 대한 세부 사항을 파악해야 합니다," 울프는 테크크런치와의 인터뷰에서 말했습니다. 그는 AGI에 대한 과도한 홍보가 그것을 달성하는 방법에 대한 심각한 논의를 가리고 있다고 느껴서 글을 썼습니다. 울프는 AI가 세상을 변화시킬 미래를 보고 있지만, 반드시 인간 수준의 지능이나 초지능에 도달하는 것은 아니라고 봅니다.
AI 커뮤니티는 종종 AGI를 믿는 사람들과 그렇지 않은 사람들로 나뉘며, 후자는 종종 "기술 반대" 또는 단순히 비관적이라고 레이블링됩니다. 그러나 울프는 자신을 "정보에 입각한 낙관주의자"로 간주하며, 현실에 기반한 채로 AI 발전을 추진합니다.
AI 논쟁의 다른 목소리
구글 딥마인드의 CEO 데미스 하사비스는 AGI가 아직 10년은 더 걸릴 수 있다고 팀에게 말했다고 합니다. 현재 AI가 처리할 수 없는 많은 작업을 지적했습니다. 메타의 수석 AI 과학자인 얀 르쿤도 LLM이 AGI를 달성할 수 있다는 생각을 " nonsense"라고 불렀으며, Nvidia GTC에서 초지능을 뒷받침할 새로운 아키텍처를 요구했습니다.
OpenAI의 전 수석 연구원이자 현재 Lila Sciences의 임원인 케네스 스탠리는 고급 AI를 구축하는 세부 사항을 연구하고 있습니다. 최근 2억 달러를 투자받은 그의 스타트업은 과학적 혁신을 자동화하는 데 중점을 두고 있습니다. 스탠리의 연구는 AI가 독창적이고 창의적인 아이디어를 생성하는 능력, 즉 개방성(open-endedness) 분야를 탐구합니다.
"울프의 에세이를 썼으면 좋겠다는 생각이 들었습니다, 왜냐하면 그것이 제 감정을 정말로 반영하고 있기 때문입니다," 스탠리는 테크크런치에 말했습니다. 그는 울프와 동의하여, 지식을 많이 가진다고 해서 자동적으로 독창적인 아이디어가 나오는 것은 아니라고 봅니다.
AI에서의 창의성의 역할
스탠리는 AGI에 있어 창의성이 필수적이라고 믿지만, 그것이 쉽게 해결될 문제는 아니라고 인정합니다. 아모데이 같은 낙관론자들은 AI "추론" 모델이 AGI로 가는 단계라고 강조하지만, 스탠리는 창의성이 다른 종류의 지능을 필요로 한다고 주장합니다. "추론은 거의 창의성과는 반대입니다," 그는 설명했습니다. "추론 모델은 특정 목표를 달성하는 데 집중하기 때문에, 창의성에 필요한 기회주의적 사고를 제한할 수 있습니다."
스탠리는 진정으로 지능적인 AI를 구축하려면 인간이 새로운 아이디어에 대한 취향을 알고리즘적으로 복제해야 한다고 제안합니다. AI는 수학과 프로그래밍과 같은 영역에서 뛰어나지만, "정답"이 없는 더 주관적이고 창의적인 작업에는 어려움을 겪습니다.
"사람들은 과학에서 주관성을 피합니다 - 이 단어는 거의 독성이 있습니다," 스탠리는 말했습니다. "그러나 주관성을 알고리즘적으로 다루는 것을 막는 것은 아무것도 없습니다. 그것은 단지 데이터 스트림의 일부일 뿐입니다."
그는 Lila Sciences, 구글 딥마인드, AI 스타트업 사카나와 같은 연구소에서 개방성에 대한 관심이 증가하고 있는 것에 고무되고 있습니다. 스탠리는 AI에서 창의성에 대해 더 많은 사람들이 이야기하고 있지만, 앞으로도 많은 작업이 필요하다고 믿습니다.
AI의 현실주의자들
울프와 르쿤은 "AI 현실주의자"로 간주될 수 있습니다: AGI와 초지능의 실현 가능성에 대해 현실적인 질문을 제기하는 리더들입니다.他们的目标不是否定AI的进步,而是引发关于AI无法达到AGI和超级智能的更广泛的讨论,并直接面对这些挑战。











