opção
Lar Notícias Ex-Openai Policy Lead Slams Company para alterar a narrativa de segurança da IA

Ex-Openai Policy Lead Slams Company para alterar a narrativa de segurança da IA

Data de lançamento Data de lançamento 10 de Abril de 2025
Autor Autor BruceMitchell
visualizações visualizações 23

Ex-Openai Policy Lead Slams Company para alterar a narrativa de segurança da IA

Um ex -pesquisador de políticas do Openai, Miles Brundage, foi recentemente às mídias sociais para chamar o OpenAI para o que ele vê como uma tentativa de "reescrever a história" de sua abordagem para implantar sistemas de IA potencialmente arriscados. Nesta semana, o OpenAI divulgou um documento detalhando sua posição atual sobre a segurança e o alinhamento da IA, o processo de garantir a Lei de Sistemas de IA de maneiras previsíveis e benéficas. Nele, o OpenAI descreveu o desenvolvimento da AGI, ou sistemas de IA capazes de qualquer tarefa que um humano possa executar, como um "caminho contínuo" que envolve "implantação e aprendizado iterativamente" da IA ​​Technologies. "Em um mundo descontínuo [...] as aulas de segurança vêm do tratamento dos sistemas de hoje com cautela enorme em relação ao seu poder aparente, [que] é a abordagem que adotamos para o [modelo de IA] GPT-2", afirmou o Openai no documento. "Agora vemos o primeiro AGI como apenas um ponto ao longo de uma série de sistemas de utilidade crescente [...] no mundo contínuo, a maneira de tornar o próximo sistema seguro e benéfico é aprender com o sistema atual". No entanto, Brundage argumenta que a abordagem cautelosa adotada com o GPT-2 estava inteiramente alinhada com a atual estratégia de implantação iterativa do OpenAI. "O lançamento do GPT-2 pelo Openai, em que eu estava envolvido, foi 100% consistente [com e] prenunciou a filosofia atual da implantação iterativa do OpenAI", publicou Brundage em X. "O modelo foi lançado de forma incremental, com as lições compartilhadas em cada etapa. Muitos especialistas em segurança na época nos agradeceram por essa cautela". Brundage, que ingressou no OpenAi como cientista de pesquisa em 2018 e mais tarde se tornou o chefe de pesquisa de políticas da empresa, focou na implantação responsável de sistemas de geração de idiomas como o ChatGPT enquanto estava na equipe de "prontidão AGI" do OpenAi. O GPT-2, anunciado pelo Openai em 2019, foi um precursor dos sistemas de IA por trás do ChatGPT. Ele poderia responder a perguntas, resumir artigos e gerar texto que às vezes era indistinguível da escrita humana. Embora o GPT-2 possa parecer básico agora, era inovador na época. Devido a preocupações sobre o uso indevido em potencial, o OpenAI retomou inicialmente o código -fonte do modelo, permitindo o acesso selecionado de lojas limitadas a uma demonstração. A decisão recebeu feedback misto da comunidade de IA. Alguns argumentaram que os riscos associados ao GPT-2 foram exagerados e não havia evidências para apoiar as preocupações do OpenAI sobre o uso indevido. A publicação focada na IA, o gradiente, até publicou uma carta aberta pedindo ao OpenAI que divulgue o modelo, citando seu significado tecnológico. O OpenAI acabou lançando uma versão parcial do GPT-2 seis meses após o seu anúncio, seguida pelo sistema completo vários meses depois. Brundage acredita que essa foi a abordagem correta. "Que parte do [lançamento do GPT-2] foi motivada ou premissa a pensar em AGI como descontínuos? Nada disso", afirmou ele em X. "Qual é a evidência de que esse cautela foi" desproporcional "ex ante? Ex post, é provável." O Brundage está preocupado com o fato de o documento da OpenAi ter como objetivo estabelecer um alto ônus da prova, onde as preocupações são descartadas como alarmistas, a menos que haja evidências esmagadoras de perigos iminentes. Ele acha essa mentalidade "muito perigosa" para os sistemas avançados de IA. "Se eu ainda estivesse trabalhando no OpenAI, estaria perguntando por que esse [documento] foi escrito da maneira que era e o que exatamente o Openai espera alcançar, com cautela de cocô de uma maneira tão lop-lidada", acrescentou Brundage. O Openai enfrentou críticas no passado por priorizar "produtos brilhantes" sobre os lançamentos de segurança e apreensão para ultrapassar os concorrentes. No ano passado, a empresa dissolveu sua equipe de prontidão da AGI e vários pesquisadores de segurança e políticas de IA foram para empresas rivais. O cenário competitivo se intensificou, com o modelo R1 do Chinese Ai Lab, que está disponível abertamente e corresponde ao modelo de "raciocínio" da OpenAI em benchmarks -chave, chamando a atenção global. O CEO da Openai, Sam Altman, reconheceu que a Deepseek reduziu o líder tecnológico da Openai, levando o OpenAI a considerar acelerar seu cronograma de lançamento. Com o OpenAI perdendo bilhões anualmente e projetando perdas para triplicar para US $ 14 bilhões até 2026, um ciclo de liberação de produtos mais rápido pode aumentar os lucros de curto prazo, mas potencialmente comprometer a segurança a longo prazo. Especialistas como Brundage estão questionando se essa troca vale a pena.
Artigo relacionado
Google搜索引入了复杂的多部分查询的“ AI模式” Google搜索引入了复杂的多部分查询的“ AI模式” Google推出了“ AI模式”,以搜索与竞争对手的困惑AI和ChatgptGoogle在AI Arena中加强游戏,并在其搜索引擎中启动了实验性的“ AI模式”功能。旨在进行困惑AI和Openai的Chatgpt搜索之类
YouTube Backs“ No Fakes Act”来对抗未经授权的AI复制品 YouTube Backs“ No Fakes Act”来对抗未经授权的AI复制品 参议员克里斯·库恩斯(Chris Coons)(D-de)和玛莎·布莱克本(R-TN)再次推动他们的养育原始作品,培养艺术,并保持娱乐安全,或者没有假货。该立法旨在制定有关创建AI生成的人脸,名称或声音的明确规定。介绍后
Microsoft终止将AI高管标记为“战争Profiteer”的员工 Microsoft终止将AI高管标记为“战争Profiteer”的员工 在该公司50周年纪念庆祝活动的中断之后,Microsoft在50周年纪念活动的中断后终止了雇员。根据The Verge收到的电子邮件,Microsoft引用了“不当行为”
Comentários (30)
0/200
RoySmith
RoySmith 12 de Abril de 2025 à3 20:02:03 GMT

OpenAI's attempt to rewrite history on AI safety is just shady. Miles Brundage spilling the tea on social media? Love it! But seriously, OpenAI needs to be more transparent about their safety measures. It's important, guys!

WillieHernández
WillieHernández 11 de Abril de 2025 à8 19:32:08 GMT

OpenAIがAI安全性の歴史を書き換えようとするのは怪しいね。Miles Brundageがソーシャルメディアで暴露するなんて、最高!でも本当に、OpenAIは安全対策についてもっと透明性を持つべきだよ。重要なことなんだから!

LunaYoung
LunaYoung 10 de Abril de 2025 à41 18:39:41 GMT

A tentativa da OpenAI de reescrever a história sobre segurança em IA é simplesmente suspeita. Miles Brundage revelando tudo nas redes sociais? Adoro! Mas sério, a OpenAI precisa ser mais transparente sobre suas medidas de segurança. É importante, pessoal!

WillMitchell
WillMitchell 12 de Abril de 2025 à18 01:02:18 GMT

El intento de OpenAI de reescribir la historia sobre la seguridad en IA es simplemente sospechoso. ¿Miles Brundage revelando todo en las redes sociales? ¡Me encanta! Pero en serio, OpenAI necesita ser más transparente sobre sus medidas de seguridad. ¡Es importante, chicos!

AlbertGarcía
AlbertGarcía 11 de Abril de 2025 à49 15:56:49 GMT

OpenAIs Versuch, die Geschichte der KI-Sicherheit umzuschreiben, ist einfach dubios. Miles Brundage, der das Ganze in den sozialen Medien aufdeckt? Liebe es! Aber im Ernst, OpenAI muss transparenter über ihre Sicherheitsmaßnahmen sein. Das ist wichtig, Leute!

CharlesWhite
CharlesWhite 12 de Abril de 2025 à18 14:56:18 GMT

I'm kinda torn on this one. On one hand, it's cool that someone's calling out OpenAI for changing their story on AI safety. On the other, it feels a bit like sour grapes from a former employee. Still, it's an interesting read! 🤔

De volta ao topo
OR