вариант
Дом
Новости
Документ DeepMind Safety Paper не может повлиять на скептиков

Документ DeepMind Safety Paper не может повлиять на скептиков

10 апреля 2025 г.
86

Документ DeepMind Safety Paper не может повлиять на скептиков

В среду Google DeepMind сбросил огромную 145-страничную бумагу, погрузившись в свой подход к безопасности AGI. AGI, или искусственный общий интеллект, - это вид искусственного искусства, который может решать любую задачу, которую человек может, и это горячая тема в мире ИИ. Некоторые люди думают, что это просто фантазия, в то время как другие, такие как большие снимки в Антропике, полагают, что это прямо вокруг изгиба и может вызвать серьезные проблемы, если мы не получим наши меры безопасности под контролем. Бумага DeepMind, написанная с помощью соучредителя Шейна Легга, считает, что Agi может появиться к 2030 году и может привести к тому, что они называют «сильным вредом». Они не публикуют это точно, но они бросают в страшные фразы, такие как «экзистенциальные риски», которые могли бы «постоянно уничтожить человечество». «Мы ставим пари на то, чтобы увидеть исключительный AGI до этого десятилетия», - отмечают авторы. «Исключительная AGI-это система, которая может соответствовать навыкам лучших 1% взрослых на куче нефизических задач, в том числе сложные вещи, такие как изучение новых навыков». С самого начала газета сравнивает способ DeepMind обращаться с риском AGI с тем, как это делают антроп и Openai. В нем говорится, что антроп не так большой в «надежной подготовке, мониторинге и безопасности», в то время как Openai - это «автоматизация» тип исследований безопасности ИИ, называемых исследованием выравнивания. Бумага также бросает некоторый оттенок на идею Superintelligent AI - ИИ, который лучше на работе, чем любой человек. (Openai недавно сказал, что они смещают свое внимание с Agi к Superintelligence.) Без некоторых крупных новых прорывов, авторы DeepMind не покупают эти суперинтелтингантные системы в ближайшее время - или, может быть, когда -либо. Но они думают, что возможно, что наши текущие методы могут привести к «рекурсивному улучшению ИИ», где ИИ проводит свои собственные исследования ИИ, чтобы сделать еще более умные системы ИИ. И это, как они предупреждают, может быть очень опасным. В целом, в статье предполагается, что нам нужно разработать способы удержать плохих участников от AGI, лучше понять, чем занимаются системы ИИ, и сделать среды, где ИИ работает более безопасным. Они признают, что многие из этих идей все еще находятся на ранних стадиях и имеют «проблемы с открытыми исследованиями», но они призывают нас не игнорировать проблемы безопасности, которые могут появиться на нашем пути. «AGI может принести удивительные преимущества или серьезный вред», - отмечают авторы. «Таким образом, чтобы построить AGI правильно, для лучших разработчиков ИИ очень важно планировать заранее и справиться с этими большими рисками». Не все на борту с идеями газеты. Хайди Хлааф, главный ученый ИИ в Институте некоммерческого ИИ, сказала TechCrunch, что, по ее мнению, Agi слишком нечеткая концепция, чтобы «тщательно оцениваться научно». Другой исследователь ИИ, Мэтью Гусдиал из Университета Альберты, сказал, что он не убежден, что рекурсивное улучшение ИИ сейчас выполнимо. «Рекурсивное улучшение - это то, на чем основаны аргументы в области интеллекта, - сказал Гусдиал TechCrunch, - но мы никогда не видели никаких доказательств того, что это действительно работает». Сандра Вахтер, которая изучает технологии и регулирование в Оксфорде, указывает на более насущное беспокойство: ИИ усиливает себя «неточными выходами». «Благодаря все большему количеству контента, сгенерированного AI в Интернете, и реальными данными заменяются, модели участвуют на своих собственных результатах, которые полны неточностей или галлюцинаций»,-сказала она TechCrunch. «Поскольку чат -боты в основном используются для поиска и поиска истины, мы всегда рискуем кормить ложную информацию, которая представлена ​​очень убедительным образом». Как бы он ни был тщательным, газета DeepMind, вероятно, не прекратит дебаты о том, насколько вероятно, что на самом деле AGI - и какие проблемы безопасности ИИ требуют наибольшего внимания прямо сейчас.
Связанная статья
AI領導者討論AGI:基於現實 AI領導者討論AGI:基於現實 在最近一次與舊金山商業領袖的晚餐上,我提出了一個似乎讓現場冷場的問題:今天的人工智能是否能達到或超越人類的智能?這是一個比你預期的更能引發爭議的話題。到了2025年,科技CEO們對像ChatGPT和Gemini背後的大型語言模型(LLM)充滿了樂觀情緒。他們相信這些模型很快就能達到人類級別甚至超人類的智能。以Anthropic的Dario Amodei為例,
Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手 Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手 Openai對其聯合創始人Elon Musk及其競爭的AI公司Xai發起了激烈的法律反擊。在他們正在進行的爭執的戲劇性升級中,Openai指責馬斯克發動了一場“無情”和“惡意”運動,破壞了他幫助創辦的公司。根據法院D
加速回報定律解釋了:AGI開發途徑 加速回報定律解釋了:AGI開發途徑 在最近的一次採訪中,埃隆·馬斯克(Elon Musk)分享了他對人工通用情報(AGI)的時間表的樂觀觀點(AGI),並指出它可能是 *“ 3至6年” *。同樣,Google DeepMind的首席執行官Demis Hassabis在《華爾街日報》的《一切事物》上表達了
Комментарии (45)
DouglasHarris
DouglasHarris 10 апреля 2025 г., 0:00:00 GMT

DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!

WilliamYoung
WilliamYoung 10 апреля 2025 г., 0:00:00 GMT

ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!

SamuelEvans
SamuelEvans 10 апреля 2025 г., 0:00:00 GMT

딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!

NicholasThomas
NicholasThomas 10 апреля 2025 г., 0:00:00 GMT

O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!

KennethJones
KennethJones 10 апреля 2025 г., 0:00:00 GMT

¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!

JoseAdams
JoseAdams 10 апреля 2025 г., 0:00:00 GMT

DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!

Вернуться к вершине
OR