opción
Hogar
Noticias
Ex-Openai Policy Lead Slams Company por alterar la narrativa de seguridad de la IA

Ex-Openai Policy Lead Slams Company por alterar la narrativa de seguridad de la IA

10 de abril de 2025
98

Ex-Openai Policy Lead Slams Company por alterar la narrativa de seguridad de la IA

Un ex investigador de políticas de Operai, Miles Brundage, recientemente acudió a las redes sociales para llamar a OpenAi por lo que él ve como un intento de "reescribir la historia" de su enfoque para desplegar sistemas de IA potencialmente riesgosos. Esta semana, Openai lanzó un documento que detalla su postura actual sobre la seguridad y la alineación de la IA, el proceso de garantizar que los sistemas de IA actúen de manera predecible y beneficiosa. En él, OpenAi describió el desarrollo de sistemas AGI o AI capaces de cualquier tarea que un humano pueda hacer, como un "camino continuo" que implica "implementar y aprender iterativamente" de las tecnologías de IA. "En un mundo discontinuo [...] lecciones de seguridad provienen del tratamiento de los sistemas de hoy con precaución excesiva en relación con su poder aparente, [cuál es el enfoque que adoptamos para [nuestro modelo de IA] GPT-2", declaró OpenAi en el documento. "Ahora vemos el primer AGI como solo un punto a lo largo de una serie de sistemas de utilidad creciente [...] en el mundo continuo, la forma de hacer que el próximo sistema sea seguro y beneficioso es aprender del sistema actual". Sin embargo, Brundage argumenta que el enfoque cauteloso adoptado con GPT-2 estaba completamente en línea con la estrategia de implementación iterativa actual de OpenAI. "El lanzamiento de OpenAI de GPT-2, en el que estuve involucrado, fue 100% consistente [con] presagio de la filosofía actual de despliegue iterativo de OpenAI", publicó Brundage en X. "El modelo se lanzó de forma incremental, con lecciones compartidas en cada paso. Muchos expertos de seguridad en ese momento nos agradecieron por esta precaución". Brundage, quien se unió a Openai como científico de investigación en 2018 y luego se convirtió en el jefe de investigación de políticas de la compañía, se centró en el despliegue responsable de sistemas de generación de idiomas como ChatGPT, mientras que en el equipo de "AGI preparación" de OpenAI. GPT-2, anunciado por Openai en 2019, fue un precursor de los sistemas de IA detrás de ChatGPT. Podría responder preguntas, resumir artículos y generar texto que a veces era indistinguible de la escritura humana. Aunque GPT-2 podría parecer básico ahora, era innovador en ese momento. Debido a las preocupaciones sobre el mal uso potencial, OpenAI inicialmente retuvo el código fuente del modelo, en su lugar, lo que permite el acceso limitado de los medios de comunicación seleccionados a una demostración. La decisión recibió comentarios mixtos de la comunidad de IA. Algunos argumentaron que los riesgos asociados con GPT-2 fueron exagerados, y no había evidencia que respalde las preocupaciones de OpenAI sobre el mal uso. La publicación centrada en AI The Gradient incluso publicó una carta abierta que instaba a OpenAI a lanzar el modelo, citando su importancia tecnológica. Operai finalmente lanzó una versión parcial de GPT-2 seis meses después de su anuncio, seguido del sistema completo varios meses después. Brundage cree que este fue el enfoque correcto. "¿Qué parte de [la versión GPT-2] fue motivada o basada en pensar en AGI como discontinua? Nada de eso", declaró en X. "¿Cuál es la evidencia que esta precaución fue 'desproporcionada' ex ante? Ex Post, Prob. Habría estado bien, pero eso no significa que fuera responsable de Yolo [Sic] dada información en el momento". A Brundage le preocupa que el documento de OpenAI tenga como objetivo establecer una alta carga de prueba, donde las preocupaciones se desestiman como alarmistas a menos que haya evidencia abrumadora de peligros inminentes. Encuentra esta mentalidad "muy peligrosa" para los sistemas AI avanzados. "Si todavía estuviera trabajando en Operai, estaría preguntando por qué este [documento] fue escrito de la manera en que era, y qué exactamente Operai espera lograr con la precaución de poo-poo de una manera tan costerial", agregó Brundage. Operai ha enfrentado críticas en el pasado por priorizar los "productos brillantes" sobre la seguridad y los lanzamientos de apresuración a los competidores superados. El año pasado, la compañía disolvió su equipo de preparación AGI, y varios investigadores de seguridad y políticas de IA se fueron a las empresas rivales. El panorama competitivo se ha intensificado, con el modelo R1 de AI Lab Deepseek, que está disponible abiertamente y coincide con el modelo de "razonamiento" de O1 de OpenAI en puntos de referencia clave, atrayendo la atención global. El CEO de Operai, Sam Altman, ha reconocido que Deepseek ha reducido el líder tecnológico de Openai, lo que le ha llevado a OpenAi a considerar acelerar su calendario de lanzamiento. Según los informes, Operai perdió miles de millones anuales y proyectando pérdidas para triplicar a $ 14 mil millones para 2026, un ciclo de liberación de productos más rápido podría aumentar las ganancias a corto plazo, pero potencialmente comprometer la seguridad a largo plazo. Expertos como Brundage cuestionan si esta compensación vale la pena.
Artículo relacionado
Antigua ingeniera de OpenAI comparte perspectivas sobre la cultura de la empresa y su rápido crecimiento Antigua ingeniera de OpenAI comparte perspectivas sobre la cultura de la empresa y su rápido crecimiento Hace tres semanas, Calvin French-Owen, un ingeniero que contribuyó a un producto clave de OpenAI, dejó la empresa.Recientemente compartió una publicación de blog convincente detallando su año en OpenA
Usuarios de Apple Pueden Reclamar Parte del Acuerdo de Privacidad de Siri de $95M Usuarios de Apple Pueden Reclamar Parte del Acuerdo de Privacidad de Siri de $95M Los propietarios de dispositivos Apple en los EE. UU. ahora pueden solicitar una parte de un acuerdo de $95 millones que aborda preocupaciones de privacidad de Siri. Un sitio web dedicado facilita la
Google Presenta Modelos de IA Gemini 2.5 Listos para Producción para Competir con OpenAI en el Mercado Empresarial Google Presenta Modelos de IA Gemini 2.5 Listos para Producción para Competir con OpenAI en el Mercado Empresarial Google intensificó su estrategia de IA el lunes, lanzando sus avanzados modelos Gemini 2.5 para uso empresarial e introduciendo una variante rentable para competir en precio y rendimiento.La empresa p
comentario (36)
0/200
LiamCarter
LiamCarter 5 de agosto de 2025 09:00:59 GMT+02:00

It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?

TimothyMitchell
TimothyMitchell 20 de abril de 2025 19:18:15 GMT+02:00

マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍

JackPerez
JackPerez 17 de abril de 2025 01:40:06 GMT+02:00

A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍

StevenGonzalez
StevenGonzalez 16 de abril de 2025 22:38:43 GMT+02:00

마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏

AlbertWilson
AlbertWilson 16 de abril de 2025 21:07:30 GMT+02:00

Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏

DonaldBrown
DonaldBrown 16 de abril de 2025 09:05:24 GMT+02:00

Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨

Volver arriba
OR