вариант
Дом Новости Ex-Openai Policy Lead Company для изменения повествования о безопасности ИИ

Ex-Openai Policy Lead Company для изменения повествования о безопасности ИИ

Дата выпуска Дата выпуска 10 апреля 2025 г.
Автор Автор BruceMitchell
виды виды 23

Ex-Openai Policy Lead Company для изменения повествования о безопасности ИИ

Бывший исследователь политики Openai, Майлз Брандадж, недавно отправился в социальные сети, чтобы вызвать Openai за то, что он считает попыткой «переписать историю» своего подхода к развертыванию потенциально рискованных систем ИИ. На этой неделе Openai опубликовал документ, в котором подробно описывается его текущая позиция по безопасности и выравниванию ИИ, процесс обеспечения обеспечения действия систем искусственного интеллекта действует предсказуемым и полезным способом. В нем OpenAI описал разработку AGI или систем ИИ, способных выполнять любую задачу, которую человек может выполнить, как «непрерывный путь», который включает в себя «итеративное развертывание и обучение» из технологий ИИ. «В прерывистых уроках [...] []] поступают из-за обращения с сегодняшними систем с огромной осторожностью по сравнению с их очевидной силой, [который]-это подход, который мы использовали для [нашей модели ИИ] GPT-2»,-заявил Openai в документе. «Теперь мы рассматриваем первый AGI как только один пункт вдоль ряда систем растущей полезности [...] в непрерывном мире, способ сделать следующую систему безопасной и полезной, чтобы учиться у текущей системы». Тем не менее, Брандадж утверждает, что осторожный подход, взятый с GPT-2, полностью соответствовал текущей стратегии итеративного развертывания Openai. «Выпуск GPT-2 Openai, в котором я участвовал, был на 100% последовательным [с и] предвещающей текущей философией итерационного развертывания Openai»,-опубликовал Брундаж на X. «Модель была выпущена постепенно, с уроками, разделившимися на каждом шаге. Многие эксперты по безопасности поблагодарили нас за такую ​​осторожность». Брандадж, который присоединился к Openai в качестве научного сотрудника в 2018 году, а затем стал руководителем политических исследований компании, сосредоточившись на ответственном развертывании систем генерации языка, таких как CHATGPT, в то время как в команде Openai "Agi Rekeysiness". GPT-2, объявленный Openai в 2019 году, был предшественником систем ИИ, стоящих за CHATGPT. Это могло бы ответить на вопросы, суммировать статьи и генерировать текст, который иногда был неотличим от человеческого письма. Хотя GPT-2 может показаться основным сейчас, в то время это было новаторским. Из -за опасений по поводу потенциального неправильного использования, OpenAI первоначально удержал исходный код модели, вместо этого позволив Select Newlets ограничить доступ к демонстрации. Решение получило смешанную обратную связь от сообщества ИИ. Некоторые утверждали, что риски, связанные с GPT-2, были завышены, и не было никаких доказательств, подтверждающих озабоченность OpenAI по поводу неправильного использования. Публикация, ориентированная на AI, градиент даже опубликовал открытое письмо, призывающее Openai выпустить модель, сославшись на ее технологическое значение. Openai в конечном итоге выпустила частичную версию GPT-2 через шесть месяцев после объявления, после чего через несколько месяцев появилась полная система. Брандадж считает, что это был правильный подход. «Какая часть [выпуска GPT-2] была мотивирована или предполагала, что я считаю, что это прерывистое?»,-заявил он о X. «Каковы доказательства, что это предупреждение было« непропорциональным ». Брандадж обеспокоен тем, что документ Openai стремится установить высокое бремя доказывания, где опасения отклоняются как панихистские, если нет огромных доказательств неизбежных опасностей. Он находит это мышление «очень опасным» для продвинутых систем ИИ. «Если бы я все еще работал в Openai, я бы спросил, почему этот [документ] был написан так, как он, и что именно надеется Openai, надеясь достичь, осторожно осторожно осторожность»,-добавил Брундаж. В прошлом OpenAI сталкивался с критикой за то, что они приоритет «блестящим продуктам» из -за безопасности и спешных выпусков для опережающих конкурентов. В прошлом году компания распустила свою команду по готовности AGI, и несколько исследователей по безопасности и политике ИИ уехали для конкурирующих фирм. Конкурентный ландшафт усилился, благодаря китайской модели AI Lab Deepseek R1, которая открыто доступна и соответствует модели Openai O1 «Рассуждения» на ключевых критериях, привлекая внимание глобального внимания. Генеральный директор Openai Сэм Альтман признал, что DeepSeek сузил технологический лидер Openai, побудив Openai рассмотреть вопрос о ускорении графика выпуска. Поскольку Openai, как сообщается, теряет миллиарды ежегодно, а к 2026 году прогнозируют убытки до 14 миллиардов долларов, более быстрый цикл выпуска продукта может увеличить краткосрочную прибыль, но потенциально поставить под угрозу долгосрочную безопасность. Такие эксперты, как Brundage, задают вопрос, стоит ли этот компромисс.
Связанная статья
Google搜索引入了复杂的多部分查询的“ AI模式” Google搜索引入了复杂的多部分查询的“ AI模式” Google推出了“ AI模式”,以搜索与竞争对手的困惑AI和ChatgptGoogle在AI Arena中加强游戏,并在其搜索引擎中启动了实验性的“ AI模式”功能。旨在进行困惑AI和Openai的Chatgpt搜索之类
YouTube Backs“ No Fakes Act”来对抗未经授权的AI复制品 YouTube Backs“ No Fakes Act”来对抗未经授权的AI复制品 参议员克里斯·库恩斯(Chris Coons)(D-de)和玛莎·布莱克本(R-TN)再次推动他们的养育原始作品,培养艺术,并保持娱乐安全,或者没有假货。该立法旨在制定有关创建AI生成的人脸,名称或声音的明确规定。介绍后
Microsoft终止将AI高管标记为“战争Profiteer”的员工 Microsoft终止将AI高管标记为“战争Profiteer”的员工 在该公司50周年纪念庆祝活动的中断之后,Microsoft在50周年纪念活动的中断后终止了雇员。根据The Verge收到的电子邮件,Microsoft引用了“不当行为”
Комментарии (30)
RoySmith
RoySmith 12 апреля 2025 г., 20:02:03 GMT

OpenAI's attempt to rewrite history on AI safety is just shady. Miles Brundage spilling the tea on social media? Love it! But seriously, OpenAI needs to be more transparent about their safety measures. It's important, guys!

WillieHernández
WillieHernández 11 апреля 2025 г., 19:32:08 GMT

OpenAIがAI安全性の歴史を書き換えようとするのは怪しいね。Miles Brundageがソーシャルメディアで暴露するなんて、最高!でも本当に、OpenAIは安全対策についてもっと透明性を持つべきだよ。重要なことなんだから!

LunaYoung
LunaYoung 10 апреля 2025 г., 18:39:41 GMT

A tentativa da OpenAI de reescrever a história sobre segurança em IA é simplesmente suspeita. Miles Brundage revelando tudo nas redes sociais? Adoro! Mas sério, a OpenAI precisa ser mais transparente sobre suas medidas de segurança. É importante, pessoal!

WillMitchell
WillMitchell 12 апреля 2025 г., 1:02:18 GMT

El intento de OpenAI de reescribir la historia sobre la seguridad en IA es simplemente sospechoso. ¿Miles Brundage revelando todo en las redes sociales? ¡Me encanta! Pero en serio, OpenAI necesita ser más transparente sobre sus medidas de seguridad. ¡Es importante, chicos!

AlbertGarcía
AlbertGarcía 11 апреля 2025 г., 15:56:49 GMT

OpenAIs Versuch, die Geschichte der KI-Sicherheit umzuschreiben, ist einfach dubios. Miles Brundage, der das Ganze in den sozialen Medien aufdeckt? Liebe es! Aber im Ernst, OpenAI muss transparenter über ihre Sicherheitsmaßnahmen sein. Das ist wichtig, Leute!

CharlesWhite
CharlesWhite 12 апреля 2025 г., 14:56:18 GMT

I'm kinda torn on this one. On one hand, it's cool that someone's calling out OpenAI for changing their story on AI safety. On the other, it feels a bit like sour grapes from a former employee. Still, it's an interesting read! 🤔

Вернуться к вершине
OR