вариант
Дом Новости Документ DeepMind Safety Paper не может повлиять на скептиков

Документ DeepMind Safety Paper не может повлиять на скептиков

Дата выпуска Дата выпуска 10 апреля 2025 г.
Автор Автор KevinBrown
виды виды 33

Документ DeepMind Safety Paper не может повлиять на скептиков

В среду Google DeepMind сбросил огромную 145-страничную бумагу, погрузившись в свой подход к безопасности AGI. AGI, или искусственный общий интеллект, - это вид искусственного искусства, который может решать любую задачу, которую человек может, и это горячая тема в мире ИИ. Некоторые люди думают, что это просто фантазия, в то время как другие, такие как большие снимки в Антропике, полагают, что это прямо вокруг изгиба и может вызвать серьезные проблемы, если мы не получим наши меры безопасности под контролем. Бумага DeepMind, написанная с помощью соучредителя Шейна Легга, считает, что Agi может появиться к 2030 году и может привести к тому, что они называют «сильным вредом». Они не публикуют это точно, но они бросают в страшные фразы, такие как «экзистенциальные риски», которые могли бы «постоянно уничтожить человечество». «Мы ставим пари на то, чтобы увидеть исключительный AGI до этого десятилетия», - отмечают авторы. «Исключительная AGI-это система, которая может соответствовать навыкам лучших 1% взрослых на куче нефизических задач, в том числе сложные вещи, такие как изучение новых навыков». С самого начала газета сравнивает способ DeepMind обращаться с риском AGI с тем, как это делают антроп и Openai. В нем говорится, что антроп не так большой в «надежной подготовке, мониторинге и безопасности», в то время как Openai - это «автоматизация» тип исследований безопасности ИИ, называемых исследованием выравнивания. Бумага также бросает некоторый оттенок на идею Superintelligent AI - ИИ, который лучше на работе, чем любой человек. (Openai недавно сказал, что они смещают свое внимание с Agi к Superintelligence.) Без некоторых крупных новых прорывов, авторы DeepMind не покупают эти суперинтелтингантные системы в ближайшее время - или, может быть, когда -либо. Но они думают, что возможно, что наши текущие методы могут привести к «рекурсивному улучшению ИИ», где ИИ проводит свои собственные исследования ИИ, чтобы сделать еще более умные системы ИИ. И это, как они предупреждают, может быть очень опасным. В целом, в статье предполагается, что нам нужно разработать способы удержать плохих участников от AGI, лучше понять, чем занимаются системы ИИ, и сделать среды, где ИИ работает более безопасным. Они признают, что многие из этих идей все еще находятся на ранних стадиях и имеют «проблемы с открытыми исследованиями», но они призывают нас не игнорировать проблемы безопасности, которые могут появиться на нашем пути. «AGI может принести удивительные преимущества или серьезный вред», - отмечают авторы. «Таким образом, чтобы построить AGI правильно, для лучших разработчиков ИИ очень важно планировать заранее и справиться с этими большими рисками». Не все на борту с идеями газеты. Хайди Хлааф, главный ученый ИИ в Институте некоммерческого ИИ, сказала TechCrunch, что, по ее мнению, Agi слишком нечеткая концепция, чтобы «тщательно оцениваться научно». Другой исследователь ИИ, Мэтью Гусдиал из Университета Альберты, сказал, что он не убежден, что рекурсивное улучшение ИИ сейчас выполнимо. «Рекурсивное улучшение - это то, на чем основаны аргументы в области интеллекта, - сказал Гусдиал TechCrunch, - но мы никогда не видели никаких доказательств того, что это действительно работает». Сандра Вахтер, которая изучает технологии и регулирование в Оксфорде, указывает на более насущное беспокойство: ИИ усиливает себя «неточными выходами». «Благодаря все большему количеству контента, сгенерированного AI в Интернете, и реальными данными заменяются, модели участвуют на своих собственных результатах, которые полны неточностей или галлюцинаций»,-сказала она TechCrunch. «Поскольку чат -боты в основном используются для поиска и поиска истины, мы всегда рискуем кормить ложную информацию, которая представлена ​​очень убедительным образом». Как бы он ни был тщательным, газета DeepMind, вероятно, не прекратит дебаты о том, насколько вероятно, что на самом деле AGI - и какие проблемы безопасности ИИ требуют наибольшего внимания прямо сейчас.
Связанная статья
OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor OpenAI has launched a fierce legal counterattack against its co-founder, Elon Musk, and his competing AI company, xAI. In a dramatic escalation of their ongoing feud, OpenAI accuses Musk of waging a "relentless" and "malicious" campaign to undermine the company he helped start. According to court d
Law of Accelerating Returns Explained: Pathway to AGI Development Law of Accelerating Returns Explained: Pathway to AGI Development In a recent interview, Elon Musk shared his optimistic view on the timeline for the advent of Artificial General Intelligence (AGI), stating it could be as soon as *“3 to 6 years”*. Similarly, Demis Hassabis, CEO of Google's DeepMind, expressed at The Wall Street Journal’s Future of Everything Festi
Google Believes AI Can Simplify Electrical Grid's Bureaucracy Google Believes AI Can Simplify Electrical Grid's Bureaucracy The tech world is buzzing with concern over a potential power crisis, fueled by the skyrocketing demand from AI. Yet, amidst this worry, there's a glimmer of hope: a massive amount of new power capacity, measured in terawatts, is just waiting to be connected to the grid. The key? Cutting through the
Комментарии (45)
DouglasHarris
DouglasHarris 10 апреля 2025 г., 8:10:06 GMT

DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!

WilliamYoung
WilliamYoung 10 апреля 2025 г., 8:10:06 GMT

ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!

SamuelEvans
SamuelEvans 10 апреля 2025 г., 8:10:06 GMT

딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!

NicholasThomas
NicholasThomas 10 апреля 2025 г., 8:10:06 GMT

O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!

KennethJones
KennethJones 10 апреля 2025 г., 8:10:06 GMT

¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!

JoseAdams
JoseAdams 10 апреля 2025 г., 11:27:37 GMT

DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!

Вернуться к вершине
OR