Ex-Openai Policy Lead Company для изменения повествования о безопасности ИИ

Бывший исследователь политики Openai, Майлз Брандадж, недавно отправился в социальные сети, чтобы вызвать Openai за то, что он считает попыткой «переписать историю» своего подхода к развертыванию потенциально рискованных систем ИИ. На этой неделе Openai опубликовал документ, в котором подробно описывается его текущая позиция по безопасности и выравниванию ИИ, процесс обеспечения обеспечения действия систем искусственного интеллекта действует предсказуемым и полезным способом. В нем OpenAI описал разработку AGI или систем ИИ, способных выполнять любую задачу, которую человек может выполнить, как «непрерывный путь», который включает в себя «итеративное развертывание и обучение» из технологий ИИ. «В прерывистых уроках [...] []] поступают из-за обращения с сегодняшними систем с огромной осторожностью по сравнению с их очевидной силой, [который]-это подход, который мы использовали для [нашей модели ИИ] GPT-2»,-заявил Openai в документе. «Теперь мы рассматриваем первый AGI как только один пункт вдоль ряда систем растущей полезности [...] в непрерывном мире, способ сделать следующую систему безопасной и полезной, чтобы учиться у текущей системы». Тем не менее, Брандадж утверждает, что осторожный подход, взятый с GPT-2, полностью соответствовал текущей стратегии итеративного развертывания Openai. «Выпуск GPT-2 Openai, в котором я участвовал, был на 100% последовательным [с и] предвещающей текущей философией итерационного развертывания Openai»,-опубликовал Брундаж на X. «Модель была выпущена постепенно, с уроками, разделившимися на каждом шаге. Многие эксперты по безопасности поблагодарили нас за такую осторожность». Брандадж, который присоединился к Openai в качестве научного сотрудника в 2018 году, а затем стал руководителем политических исследований компании, сосредоточившись на ответственном развертывании систем генерации языка, таких как CHATGPT, в то время как в команде Openai "Agi Rekeysiness". GPT-2, объявленный Openai в 2019 году, был предшественником систем ИИ, стоящих за CHATGPT. Это могло бы ответить на вопросы, суммировать статьи и генерировать текст, который иногда был неотличим от человеческого письма. Хотя GPT-2 может показаться основным сейчас, в то время это было новаторским. Из -за опасений по поводу потенциального неправильного использования, OpenAI первоначально удержал исходный код модели, вместо этого позволив Select Newlets ограничить доступ к демонстрации. Решение получило смешанную обратную связь от сообщества ИИ. Некоторые утверждали, что риски, связанные с GPT-2, были завышены, и не было никаких доказательств, подтверждающих озабоченность OpenAI по поводу неправильного использования. Публикация, ориентированная на AI, градиент даже опубликовал открытое письмо, призывающее Openai выпустить модель, сославшись на ее технологическое значение. Openai в конечном итоге выпустила частичную версию GPT-2 через шесть месяцев после объявления, после чего через несколько месяцев появилась полная система. Брандадж считает, что это был правильный подход. «Какая часть [выпуска GPT-2] была мотивирована или предполагала, что я считаю, что это прерывистое?»,-заявил он о X. «Каковы доказательства, что это предупреждение было« непропорциональным ». Брандадж обеспокоен тем, что документ Openai стремится установить высокое бремя доказывания, где опасения отклоняются как панихистские, если нет огромных доказательств неизбежных опасностей. Он находит это мышление «очень опасным» для продвинутых систем ИИ. «Если бы я все еще работал в Openai, я бы спросил, почему этот [документ] был написан так, как он, и что именно надеется Openai, надеясь достичь, осторожно осторожно осторожность»,-добавил Брундаж. В прошлом OpenAI сталкивался с критикой за то, что они приоритет «блестящим продуктам» из -за безопасности и спешных выпусков для опережающих конкурентов. В прошлом году компания распустила свою команду по готовности AGI, и несколько исследователей по безопасности и политике ИИ уехали для конкурирующих фирм. Конкурентный ландшафт усилился, благодаря китайской модели AI Lab Deepseek R1, которая открыто доступна и соответствует модели Openai O1 «Рассуждения» на ключевых критериях, привлекая внимание глобального внимания. Генеральный директор Openai Сэм Альтман признал, что DeepSeek сузил технологический лидер Openai, побудив Openai рассмотреть вопрос о ускорении графика выпуска. Поскольку Openai, как сообщается, теряет миллиарды ежегодно, а к 2026 году прогнозируют убытки до 14 миллиардов долларов, более быстрый цикл выпуска продукта может увеличить краткосрочную прибыль, но потенциально поставить под угрозу долгосрочную безопасность. Такие эксперты, как Brundage, задают вопрос, стоит ли этот компромисс.
Связанная статья
Бывший инженер OpenAI делится впечатлениями о культуре компании и быстром росте
Три недели назад Келвин Френч-Оуэн, инженер, работавший над ключевым продуктом OpenAI, покинул компанию.Недавно он опубликовал увлекательный пост в блоге, описывающий его год в OpenAI, включая интенси
Пользователи Apple могут претендовать на долю в урегулировании вопросов конфиденциальности Siri на сумму 95 миллионов долларов
Владельцы устройств Apple в США теперь могут подать заявку на получение части урегулирования на сумму 95 миллионов долларов, связанного с вопросами конфиденциальности Siri. Специальный веб-сайт облегч
Google представляет готовые к использованию модели ИИ Gemini 2.5 для конкуренции с OpenAI на корпоративном рынке
Google в понедельник усилила свою стратегию в области ИИ, запустив продвинутые модели Gemini 2.5 для корпоративного использования и представив экономичный вариант для конкуренции по цене и производите
Комментарии (36)
LiamCarter
5 августа 2025 г., 10:00:59 GMT+03:00
It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?
0
TimothyMitchell
20 апреля 2025 г., 20:18:15 GMT+03:00
マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍
0
JackPerez
17 апреля 2025 г., 2:40:06 GMT+03:00
A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍
0
StevenGonzalez
16 апреля 2025 г., 23:38:43 GMT+03:00
마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏
0
AlbertWilson
16 апреля 2025 г., 22:07:30 GMT+03:00
Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏
0
DonaldBrown
16 апреля 2025 г., 10:05:24 GMT+03:00
Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨
0




It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?




マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍




A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍




마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏




Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏




Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨












