Ex-Openai Policy Lead Slams Company para alterar a narrativa de segurança da IA

Um ex -pesquisador de políticas do Openai, Miles Brundage, foi recentemente às mídias sociais para chamar o OpenAI para o que ele vê como uma tentativa de "reescrever a história" de sua abordagem para implantar sistemas de IA potencialmente arriscados. Nesta semana, o OpenAI divulgou um documento detalhando sua posição atual sobre a segurança e o alinhamento da IA, o processo de garantir a Lei de Sistemas de IA de maneiras previsíveis e benéficas. Nele, o OpenAI descreveu o desenvolvimento da AGI, ou sistemas de IA capazes de qualquer tarefa que um humano possa executar, como um "caminho contínuo" que envolve "implantação e aprendizado iterativamente" da IA Technologies. "Em um mundo descontínuo [...] as aulas de segurança vêm do tratamento dos sistemas de hoje com cautela enorme em relação ao seu poder aparente, [que] é a abordagem que adotamos para o [modelo de IA] GPT-2", afirmou o Openai no documento. "Agora vemos o primeiro AGI como apenas um ponto ao longo de uma série de sistemas de utilidade crescente [...] no mundo contínuo, a maneira de tornar o próximo sistema seguro e benéfico é aprender com o sistema atual". No entanto, Brundage argumenta que a abordagem cautelosa adotada com o GPT-2 estava inteiramente alinhada com a atual estratégia de implantação iterativa do OpenAI. "O lançamento do GPT-2 pelo Openai, em que eu estava envolvido, foi 100% consistente [com e] prenunciou a filosofia atual da implantação iterativa do OpenAI", publicou Brundage em X. "O modelo foi lançado de forma incremental, com as lições compartilhadas em cada etapa. Muitos especialistas em segurança na época nos agradeceram por essa cautela". Brundage, que ingressou no OpenAi como cientista de pesquisa em 2018 e mais tarde se tornou o chefe de pesquisa de políticas da empresa, focou na implantação responsável de sistemas de geração de idiomas como o ChatGPT enquanto estava na equipe de "prontidão AGI" do OpenAi. O GPT-2, anunciado pelo Openai em 2019, foi um precursor dos sistemas de IA por trás do ChatGPT. Ele poderia responder a perguntas, resumir artigos e gerar texto que às vezes era indistinguível da escrita humana. Embora o GPT-2 possa parecer básico agora, era inovador na época. Devido a preocupações sobre o uso indevido em potencial, o OpenAI retomou inicialmente o código -fonte do modelo, permitindo o acesso selecionado de lojas limitadas a uma demonstração. A decisão recebeu feedback misto da comunidade de IA. Alguns argumentaram que os riscos associados ao GPT-2 foram exagerados e não havia evidências para apoiar as preocupações do OpenAI sobre o uso indevido. A publicação focada na IA, o gradiente, até publicou uma carta aberta pedindo ao OpenAI que divulgue o modelo, citando seu significado tecnológico. O OpenAI acabou lançando uma versão parcial do GPT-2 seis meses após o seu anúncio, seguida pelo sistema completo vários meses depois. Brundage acredita que essa foi a abordagem correta. "Que parte do [lançamento do GPT-2] foi motivada ou premissa a pensar em AGI como descontínuos? Nada disso", afirmou ele em X. "Qual é a evidência de que esse cautela foi" desproporcional "ex ante? Ex post, é provável." O Brundage está preocupado com o fato de o documento da OpenAi ter como objetivo estabelecer um alto ônus da prova, onde as preocupações são descartadas como alarmistas, a menos que haja evidências esmagadoras de perigos iminentes. Ele acha essa mentalidade "muito perigosa" para os sistemas avançados de IA. "Se eu ainda estivesse trabalhando no OpenAI, estaria perguntando por que esse [documento] foi escrito da maneira que era e o que exatamente o Openai espera alcançar, com cautela de cocô de uma maneira tão lop-lidada", acrescentou Brundage. O Openai enfrentou críticas no passado por priorizar "produtos brilhantes" sobre os lançamentos de segurança e apreensão para ultrapassar os concorrentes. No ano passado, a empresa dissolveu sua equipe de prontidão da AGI e vários pesquisadores de segurança e políticas de IA foram para empresas rivais. O cenário competitivo se intensificou, com o modelo R1 do Chinese Ai Lab, que está disponível abertamente e corresponde ao modelo de "raciocínio" da OpenAI em benchmarks -chave, chamando a atenção global. O CEO da Openai, Sam Altman, reconheceu que a Deepseek reduziu o líder tecnológico da Openai, levando o OpenAI a considerar acelerar seu cronograma de lançamento. Com o OpenAI perdendo bilhões anualmente e projetando perdas para triplicar para US $ 14 bilhões até 2026, um ciclo de liberação de produtos mais rápido pode aumentar os lucros de curto prazo, mas potencialmente comprometer a segurança a longo prazo. Especialistas como Brundage estão questionando se essa troca vale a pena.
Artigo relacionado
Ex-Engenheiro da OpenAI Compartilha Percepções sobre Cultura da Empresa e Crescimento Rápido
Há três semanas, Calvin French-Owen, um engenheiro que contribuiu para um produto chave da OpenAI, deixou a empresa.Ele recentemente compartilhou um post de blog cativante detalhando seu ano na OpenAI
Usuários da Apple Podem Reivindicar Parte do Acordo de Privacidade do Siri de $95M
Proprietários de dispositivos Apple nos EUA agora podem solicitar uma parte de um acordo de $95 milhões que aborda preocupações com a privacidade do Siri. Um site dedicado facilita a distribuição de f
Google Revela Modelos de IA Gemini 2.5 Prontos para Produção para Competir com a OpenAI no Mercado Empresarial
A Google intensificou sua estratégia de IA na segunda-feira, lançando seus modelos avançados Gemini 2.5 para uso empresarial e introduzindo uma variante econômica para competir em preço e desempenho.A
Comentários (36)
0/200
LiamCarter
5 de Agosto de 2025 à59 08:00:59 WEST
It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?
0
TimothyMitchell
20 de Abril de 2025 à15 18:18:15 WEST
マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍
0
JackPerez
17 de Abril de 2025 à6 00:40:06 WEST
A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍
0
StevenGonzalez
16 de Abril de 2025 à43 21:38:43 WEST
마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏
0
AlbertWilson
16 de Abril de 2025 à30 20:07:30 WEST
Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏
0
DonaldBrown
16 de Abril de 2025 à24 08:05:24 WEST
Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨
0




It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?




マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍




A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍




마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏




Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏




Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨












