Лидеры ИИ основывают дискуссию об AGI на реальности

На недавнем ужине с бизнес-лидерами в Сан-Франциско я задал вопрос, который, казалось, заставил зал замереть: может ли современный ИИ когда-либо достичь интеллекта, подобного человеческому, или даже превзойти его? Эта тема вызывает больше споров, чем можно было бы ожидать.
В 2025 году технические директора полны оптимизма относительно больших языковых моделей (LLMs), таких как те, что стоят за ChatGPT и Gemini. Они убеждены, что эти модели скоро достигнут человеческого уровня интеллекта или даже сверхчеловеческого. Например, Дарио Амодеи из Anthropic написал эссе, в которых предположил, что к 2026 году мы можем увидеть ИИ, превосходящий лауреатов Нобелевской премии в различных областях. Тем временем Сэм Альтман из OpenAI открыто заявлял, что знает, как создать "сверхинтеллектуальный" ИИ, предсказывая, что он может значительно ускорить научные открытия.
Но не все разделяют эту радужную картину. Некоторые лидеры в области ИИ скептически относятся к тому, что LLM достигнут AGI, не говоря уже о сверхинтеллекте, без значительных прорывов. Эти скептики, ранее молчавшие, теперь начинают высказываться активнее.
Скептицизм в сообществе ИИ
Возьмем, к примеру, Томаса Вольфа, сооснователя и главного научного директора Hugging Face. В недавней статье он назвал некоторые аспекты видения Амодеи "наивными мечтаниями в лучшем случае". Опираясь на свою докторскую степень в области статистической и квантовой физики, Вольф утверждает, что прорывы уровня Нобелевской премии происходят от постановки новых вопросов, а не только от ответа на уже известные — в этом ИИ хорош, но не выдающийся в создании новых идей.
"Я бы хотел увидеть эту ‘модель Эйнштейна’ в деле, но нам нужно углубиться в детали того, как этого достичь", — поделился Вольф в интервью TechCrunch. Он написал свою статью, потому что считал, что ажиотаж вокруг AGI затмевает необходимость серьезного обсуждения путей его достижения. Вольф видит будущее, в котором ИИ преобразует мир, но не обязательно достигает человеческого уровня интеллекта или сверхинтеллекта.
Сообщество ИИ часто разделяется на тех, кто верит в AGI, и тех, кто не верит, причем последних иногда называют "анти-технологичными" или просто пессимистами. Однако Вольф считает себя "информированным оптимистом", выступая за прогресс ИИ, но оставаясь при этом реалистом.
Другие голоса в дебатах об ИИ
Генеральный директор Google DeepMind Демис Хассабис, как сообщается, сказал своей команде, что AGI может быть достигнута только через десятилетие, указывая на множество задач, которые ИИ пока не может выполнить. Главный научный сотрудник по ИИ в Meta Янн ЛеКун также выразил сомнения в том, что LLM достигнут AGI, назвав эту идею "нонсенсом" на Nvidia GTC и выступая за новые архитектуры для создания сверхинтеллекта.
Кеннет Стэнли, бывший ведущий исследователь OpenAI, а ныне руководитель в Lila Sciences, работает над деталями создания передового ИИ. Его стартап, недавно привлекший 200 миллионов долларов, сосредоточен на автоматизации научных инноваций. Работа Стэнли посвящена способности ИИ генерировать оригинальные, креативные идеи — области, известной как открытость.
"Я бы хотел сам написать [эссе Вольфа], потому что оно действительно отражает мои чувства", — сказал Стэнли в интервью TechCrunch. Он согласен с Вольфом, что обладание знаниями не автоматически приводит к оригинальным идеям.
Роль креативности в ИИ
Стэнли считает, что креативность критически важна для AGI, но признает, что это сложная задача. В то время как оптимисты, такие как Амодеи, выделяют модели ИИ с "рассуждениями" как шаг к AGI, Стэнли утверждает, что креативность требует другого типа интеллекта. "Рассуждение почти противоположно [креативности]", — объяснил он. "Модели рассуждений сосредоточены на достижении конкретной цели, что может ограничивать тот тип оппортунистического мышления, который необходим для креативности".
Стэнли предлагает, чтобы для создания действительно интеллектуального ИИ нам нужно алгоритмически воспроизвести человеческий вкус к новым идеям. Хотя ИИ преуспевает в таких областях, как математика и программирование, где ответы четкие, он испытывает трудности с более субъективными, креативными задачами, у которых нет "правильного" ответа.
"Люди избегают [субъективности] в науке — это слово почти токсично", — отметил Стэнли. "Но ничто не мешает нам работать с субъективностью [алгоритмически]. Это просто часть потока данных".
Его воодушевляет нарастающий интерес к открытости, с исследовательскими лабораториями в Lila Sciences, Google DeepMind и стартапе Sakana, занимающихся этой проблемой. Стэнли видит, что все больше людей говорят о креативности в ИИ, но считает, что впереди еще много работы.
Реалисты ИИ
Вольф и ЛеКун могут считаться "реалистами ИИ": лидерами, которые подходят к AGI и сверхинтеллекту с обоснованными вопросами о их осуществимости. Их цель — не отрицать достижения ИИ, а инициировать более широкую дискуссию о том, что сдерживает ИИ от достижения AGI и сверхинтеллекта — и решать эти вызовы напрямую.
Связанная статья
AGI совершит революцию в человеческом мышлении благодаря прорыву в области универсального языка
Появление искусственного интеллекта общего назначения несет в себе трансформационный потенциал для изменения человеческой коммуникации путем создания универсальной языковой базы. В отличие от узкоспец
OpenAI подтверждает свои некоммерческие корни в ходе масштабной корпоративной реструктуризации
OpenAI остается верной своей некоммерческой миссии, проходя через значительную корпоративную реструктуризацию, балансируя между ростом и приверженностью этичному развитию ИИ.Генеральный директор Сэм А
Лидеры ИИ основывают дискуссию об AGI на реальности
На недавнем ужине с бизнес-лидерами в Сан-Франциско я задал вопрос, который, казалось, заставил всех замолчать: сможет ли сегодняшний ИИ когда-нибудь достичь уровня человеческого и
Комментарии (8)
StevenGonzalez
12 сентября 2025 г., 21:30:43 GMT+03:00
기사 보니까 인공지능이 인간 수준의 지능에 도달할 수 있을지에 대한 토론이 뜨겁네요 🧐 하지만 솔직히 말해서, 우리는 아직도 기본적인 감정 인식도 제대로 못하는 AI를 보고 있는데 AGI는 너무 먼 이야기 아닌가요? ㅋㅋ
0
RichardHarris
2 августа 2025 г., 18:07:14 GMT+03:00
That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.
0
FrankJackson
28 июля 2025 г., 4:19:30 GMT+03:00
This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!
0
MarkRoberts
11 мая 2025 г., 1:50:03 GMT+03:00
La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.
0
CharlesRoberts
10 мая 2025 г., 21:06:40 GMT+03:00
A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.
0
StevenNelson
10 мая 2025 г., 16:16:38 GMT+03:00
AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。
0
На недавнем ужине с бизнес-лидерами в Сан-Франциско я задал вопрос, который, казалось, заставил зал замереть: может ли современный ИИ когда-либо достичь интеллекта, подобного человеческому, или даже превзойти его? Эта тема вызывает больше споров, чем можно было бы ожидать.
В 2025 году технические директора полны оптимизма относительно больших языковых моделей (LLMs), таких как те, что стоят за ChatGPT и Gemini. Они убеждены, что эти модели скоро достигнут человеческого уровня интеллекта или даже сверхчеловеческого. Например, Дарио Амодеи из Anthropic написал эссе, в которых предположил, что к 2026 году мы можем увидеть ИИ, превосходящий лауреатов Нобелевской премии в различных областях. Тем временем Сэм Альтман из OpenAI открыто заявлял, что знает, как создать "сверхинтеллектуальный" ИИ, предсказывая, что он может значительно ускорить научные открытия.
Но не все разделяют эту радужную картину. Некоторые лидеры в области ИИ скептически относятся к тому, что LLM достигнут AGI, не говоря уже о сверхинтеллекте, без значительных прорывов. Эти скептики, ранее молчавшие, теперь начинают высказываться активнее.
Скептицизм в сообществе ИИ
Возьмем, к примеру, Томаса Вольфа, сооснователя и главного научного директора Hugging Face. В недавней статье он назвал некоторые аспекты видения Амодеи "наивными мечтаниями в лучшем случае". Опираясь на свою докторскую степень в области статистической и квантовой физики, Вольф утверждает, что прорывы уровня Нобелевской премии происходят от постановки новых вопросов, а не только от ответа на уже известные — в этом ИИ хорош, но не выдающийся в создании новых идей.
"Я бы хотел увидеть эту ‘модель Эйнштейна’ в деле, но нам нужно углубиться в детали того, как этого достичь", — поделился Вольф в интервью TechCrunch. Он написал свою статью, потому что считал, что ажиотаж вокруг AGI затмевает необходимость серьезного обсуждения путей его достижения. Вольф видит будущее, в котором ИИ преобразует мир, но не обязательно достигает человеческого уровня интеллекта или сверхинтеллекта.
Сообщество ИИ часто разделяется на тех, кто верит в AGI, и тех, кто не верит, причем последних иногда называют "анти-технологичными" или просто пессимистами. Однако Вольф считает себя "информированным оптимистом", выступая за прогресс ИИ, но оставаясь при этом реалистом.
Другие голоса в дебатах об ИИ
Генеральный директор Google DeepMind Демис Хассабис, как сообщается, сказал своей команде, что AGI может быть достигнута только через десятилетие, указывая на множество задач, которые ИИ пока не может выполнить. Главный научный сотрудник по ИИ в Meta Янн ЛеКун также выразил сомнения в том, что LLM достигнут AGI, назвав эту идею "нонсенсом" на Nvidia GTC и выступая за новые архитектуры для создания сверхинтеллекта.
Кеннет Стэнли, бывший ведущий исследователь OpenAI, а ныне руководитель в Lila Sciences, работает над деталями создания передового ИИ. Его стартап, недавно привлекший 200 миллионов долларов, сосредоточен на автоматизации научных инноваций. Работа Стэнли посвящена способности ИИ генерировать оригинальные, креативные идеи — области, известной как открытость.
"Я бы хотел сам написать [эссе Вольфа], потому что оно действительно отражает мои чувства", — сказал Стэнли в интервью TechCrunch. Он согласен с Вольфом, что обладание знаниями не автоматически приводит к оригинальным идеям.
Роль креативности в ИИ
Стэнли считает, что креативность критически важна для AGI, но признает, что это сложная задача. В то время как оптимисты, такие как Амодеи, выделяют модели ИИ с "рассуждениями" как шаг к AGI, Стэнли утверждает, что креативность требует другого типа интеллекта. "Рассуждение почти противоположно [креативности]", — объяснил он. "Модели рассуждений сосредоточены на достижении конкретной цели, что может ограничивать тот тип оппортунистического мышления, который необходим для креативности".
Стэнли предлагает, чтобы для создания действительно интеллектуального ИИ нам нужно алгоритмически воспроизвести человеческий вкус к новым идеям. Хотя ИИ преуспевает в таких областях, как математика и программирование, где ответы четкие, он испытывает трудности с более субъективными, креативными задачами, у которых нет "правильного" ответа.
"Люди избегают [субъективности] в науке — это слово почти токсично", — отметил Стэнли. "Но ничто не мешает нам работать с субъективностью [алгоритмически]. Это просто часть потока данных".
Его воодушевляет нарастающий интерес к открытости, с исследовательскими лабораториями в Lila Sciences, Google DeepMind и стартапе Sakana, занимающихся этой проблемой. Стэнли видит, что все больше людей говорят о креативности в ИИ, но считает, что впереди еще много работы.
Реалисты ИИ
Вольф и ЛеКун могут считаться "реалистами ИИ": лидерами, которые подходят к AGI и сверхинтеллекту с обоснованными вопросами о их осуществимости. Их цель — не отрицать достижения ИИ, а инициировать более широкую дискуссию о том, что сдерживает ИИ от достижения AGI и сверхинтеллекта — и решать эти вызовы напрямую.


기사 보니까 인공지능이 인간 수준의 지능에 도달할 수 있을지에 대한 토론이 뜨겁네요 🧐 하지만 솔직히 말해서, 우리는 아직도 기본적인 감정 인식도 제대로 못하는 AI를 보고 있는데 AGI는 너무 먼 이야기 아닌가요? ㅋㅋ




That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.




This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!




La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.




A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.




AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。












