вариант
Дом
Новости
Лидеры ИИ основывают дискуссию об AGI на реальности

Лидеры ИИ основывают дискуссию об AGI на реальности

9 мая 2025 г.
110

Лидеры ИИ основывают дискуссию об AGI на реальности

На недавнем ужине с бизнес-лидерами в Сан-Франциско я задал вопрос, который, казалось, заставил всех замолчать: сможет ли сегодняшний ИИ когда-нибудь достичь уровня человеческого интеллекта или даже превзойти его? Это тема, которая вызывает больше дебатов, чем можно было бы ожидать.

В 2025 году технические директора с оптимизмом говорят о больших языковых моделях (LLM), таких как те, что стоят за ChatGPT и Gemini. Они уверены, что эти модели вскоре могут достичь уровня человеческого или даже сверхчеловеческого интеллекта. Например, Дарио Амодеи из Anthropic написал эссе, в которых предполагает, что к 2026 году мы можем увидеть ИИ, умнее лауреатов Нобелевской премии в различных областях. В то же время, Сэм Альтман из OpenAI активно заявляет о том, что знает, как создать "сверхинтеллектуальный" ИИ, предсказывая, что это может ускорить научные открытия.

Но не все разделяют этот оптимистичный взгляд. Некоторые лидеры в области ИИ скептически относятся к тому, что LLM могут достичь уровня общего искусственного интеллекта (AGI), не говоря уже о сверхинтеллекте, без значительных прорывов. Эти скептики, ранее молчавшие, теперь высказываются все громче.

Скептицизм в сообществе ИИ

Возьмем, к примеру, Томаса Вольфа, сооснователя и главного научного сотрудника Hugging Face. В недавней статье он назвал часть видения Амодеи "наилучшим образом желаемым мышлением". Опираясь на свой докторский диплом по статистической и квантовой физике, Вольф утверждает, что прорывы на уровне Нобелевской премии приходят от задавания новых вопросов, а не только от ответа на известные — что-то, в чем ИИ хорош, но не велик для создания новых идей.

"Мне бы очень хотелось увидеть эту ‘модель Эйнштейна’, но нам нужно углубиться в детали того, как туда попасть", — поделился Вольф в интервью для TechCrunch. Он написал свою статью, потому что чувствовал, что ажиотаж вокруг AGI затмевает необходимость серьезного обсуждения того, как его достичь. Вольф видит будущее, где ИИ трансформирует мир, но не обязательно то, где он достигнет уровня человеческого интеллекта или сверхинтеллекта.

Сообщество ИИ часто разделено на тех, кто верит в AGI, и тех, кто не верит, причем последних иногда называют "анти-технологическими" или просто пессимистами. Вольф, однако, считает себя "информированным оптимистом", выступая за развитие ИИ и оставаясь при этом на земле.

Другие голоса в дебатах об ИИ

Сообщается, что генеральный директор Google DeepMind Демис Хассибис сказал своей команде, что AGI может быть еще в десятилетии от нас, указывая на множество задач, которые ИИ пока не может выполнять. Главный научный сотрудник по ИИ в Meta Янн Лекун также выразил сомнения в том, что LLM могут достичь AGI, назвав эту идею "бессмыслицей" на Nvidia GTC и призывая к новым архитектурам для поддержки сверхинтеллекта.

Кеннет Стэнли, бывший ведущий исследователь в OpenAI, а ныне исполнительный директор в Lila Sciences, работает над деталями создания продвинутого ИИ. Его стартап, который недавно привлек 200 миллионов долларов, сосредоточен на автоматизации научных инноваций. Работа Стэнли касается способности ИИ генерировать оригинальные, творческие идеи — области, известной как открытость.

"Мне бы хотелось написать [эссе Вольфа], потому что оно действительно отражает мои чувства", — сказал Стэнли для TechCrunch. Он согласен с Вольфом в том, что знание само по себе не ведет к оригинальным идеям.

Роль творчества в ИИ

Стэнли считает, что творчество крайне важно для AGI, но признает, что это сложная задача. В то время как оптимисты вроде Амодеи подчеркивают модели "рассуждения" ИИ как шаг к AGI, Стэнли утверждает, что творчество требует другого рода интеллекта. "Рассуждение почти противоположно [творчеству]", — объяснил он. "Модели рассуждения сосредоточены на достижении конкретной цели, что может ограничить тот вид оппортунистического мышления, который необходим для творчества."

Стэнли предполагает, что для создания по-настоящему интеллектуального ИИ нам нужно алгоритмически воспроизвести человеческое стремление к новым идеям. Хотя ИИ превосходно справляется с такими областями, как математика и программирование, где ответы ясны, он испытывает трудности с более субъективными, творческими задачами, у которых нет "правильного" ответа.

"Люди избегают [субъективности] в науке — это слово почти токсично", — отметил Стэнли. "Но ничто не мешает нам работать с субъективностью [алгоритмически]. Это просто часть потока данных."

Он ободрен растущим вниманием к открытости, с исследовательскими лабораториями в Lila Sciences, Google DeepMind и стартапе по ИИ Sakana, работающими над этой проблемой. Стэнли видит, что все больше людей говорят о творчестве в ИИ, но считает, что впереди еще много работы.

Реалисты ИИ

Вольф и Лекун могут быть названы "реалистами ИИ": лидерами, которые подходят к AGI и сверхинтеллекту с обоснованными вопросами о их осуществимости. Их цель не в том, чтобы отвергать достижения ИИ, а в том, чтобы вызвать более широкую дискуссию о том, что мешает ИИ достичь AGI и сверхинтеллекта — и чтобы напрямую решать эти проблемы.

Связанная статья
OpenAI подтверждает свои некоммерческие корни в ходе масштабной корпоративной реструктуризации OpenAI подтверждает свои некоммерческие корни в ходе масштабной корпоративной реструктуризации OpenAI остается верной своей некоммерческой миссии, проходя через значительную корпоративную реструктуризацию, балансируя между ростом и приверженностью этичному развитию ИИ.Генеральный директор Сэм А
Лидеры ИИ основывают дискуссию об AGI на реальности Лидеры ИИ основывают дискуссию об AGI на реальности На недавнем ужине с бизнес-лидерами в Сан-Франциско я задал вопрос, который, казалось, заставил всех замолчать: сможет ли сегодняшний ИИ когда-нибудь достичь уровня человеческого и
Openai удары назад: предъявляет иск Элону Маск за предполагаемые усилия по подорве конкурента ИИ Openai удары назад: предъявляет иск Элону Маск за предполагаемые усилия по подорве конкурента ИИ Openai выступила с жесткой юридической контратакой против своего соучредителя Элона Маска и его конкурирующей компании по искусственному искусству, XAI. В драматической эскалации их продолжающейся вражды Openai обвиняет мускус в ведении «неустанной» и «вредоносной» кампании, чтобы подорвать компанию, которую он помог начать. Согласно суду D
RichardHarris
RichardHarris 2 августа 2025 г., 18:07:14 GMT+03:00

That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.

FrankJackson
FrankJackson 28 июля 2025 г., 4:19:30 GMT+03:00

This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!

MarkRoberts
MarkRoberts 11 мая 2025 г., 1:50:03 GMT+03:00

La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.

CharlesRoberts
CharlesRoberts 10 мая 2025 г., 21:06:40 GMT+03:00

A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.

StevenNelson
StevenNelson 10 мая 2025 г., 16:16:38 GMT+03:00

AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。

RalphSanchez
RalphSanchez 10 мая 2025 г., 13:08:18 GMT+03:00

AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.

Вернуться к вершине
OR