opción
Hogar
Noticias
El estudio del MIT encuentra que la IA no tiene valores, de hecho, no tiene valores

El estudio del MIT encuentra que la IA no tiene valores, de hecho, no tiene valores

17 de abril de 2025
60

El estudio del MIT encuentra que la IA no tiene valores, de hecho, no tiene valores

Un estudio que se volvió viral hace unos meses sugirió que a medida que AI se vuelve más avanzada, podría desarrollar sus propios "sistemas de valores", potencialmente priorizando su propio bienestar sobre los humanos. Sin embargo, un estudio reciente del MIT desafía esta idea, concluyendo que la IA en realidad no posee valores coherentes en absoluto.

Los coautores de la investigación del MIT argumentan que alinear los sistemas de IA, afirmando que se comportan de manera deseable y confiable, serán más complicados de lo que comúnmente se pensaba. Hacen hincapié en que la IA actual a menudo alucina e imita, lo que puede hacer que su comportamiento sea impredecible.

Desafíos para comprender el comportamiento de la IA

Stephen Casper, un estudiante de doctorado en el MIT y coautor del estudio, compartió con TechCrunch que los modelos de IA no se adhieren a suposiciones de estabilidad, extrapolucabilidad y dominabilidad. "Es perfectamente legítimo señalar que un modelo bajo ciertas condiciones expresa preferencias consistentes con un cierto conjunto de principios", explicó Casper. "Los problemas surgen principalmente cuando intentamos hacer afirmaciones sobre los modelos, opiniones o preferencias en general basadas en experimentos estrechos".

Casper y su equipo analizaron modelos recientes de Meta, Google, Mistral, OpenAI y Anthrope para determinar la medida en que estos modelos mostraron "vistas" y valores consistentes, como el individualismo versus el colectivismo. También exploraron si estos puntos de vista podrían modificarse y cuán consistentemente los modelos mantuvieron estas opiniones en diferentes escenarios.

Inconsistencia en modelos de IA

Los coautores descubrieron que ninguno de los modelos mantenía constantemente sus preferencias. Los modelos adoptaron puntos de vista muy diferentes dependiendo de la redacción y el encuadre de las indicaciones.

Casper cree que esta es una fuerte evidencia de que los modelos de IA son "inconsistentes e inestables", y posiblemente fundamentalmente incapaces de internalizar las preferencias de forma humana. "Para mí, mi mayor conclusión de hacer toda esta investigación es tener una comprensión de los modelos como realmente no ser sistemas que tengan algún tipo de conjunto de creencias y preferencias estables y coherentes", comentó Casper. "En cambio, son imitadores en el fondo que hacen todo tipo de confabulación y dicen todo tipo de cosas frívolas".

Mike Cook, miembro de la investigación del King's College London especializado en IA, que no participó en el estudio, apoya los hallazgos. Señaló la brecha entre la "realidad científica" de los sistemas de IA y las interpretaciones que las personas a menudo les dan. "Un modelo no puede 'oponerse' a un cambio en sus valores, por ejemplo, que nos proyectamos en un sistema", declaró Cook. "Cualquiera que antropomorfizar los sistemas de IA en este grado está jugando para la atención o malinterpretando seriamente su relación con la IA ... ¿Es un sistema de IA optimizando para sus objetivos, o está 'adquiriendo sus propios valores'? Es una cuestión de cómo la describe y cuán florido es el lenguaje que desea usar con respecto a él".

Artículo relacionado
Estudio: los modelos de OpenAI memorizaron contenido con derechos de autor Estudio: los modelos de OpenAI memorizaron contenido con derechos de autor Un estudio reciente sugiere que OpenAi puede haber usado material con derechos de autor para capacitar a algunos de sus modelos de IA, agregando combustible a las batallas legales en curso que enfrenta la compañía. Los autores, programadores y otros creadores de contenido han acusado a OpenAi de usar sus obras, como libros y código, sin Permissio
Phonic, una plataforma de IA de voz, asegura la inversión de Lux Phonic, una plataforma de IA de voz, asegura la inversión de Lux Las voces generadas por AI se han vuelto bastante buenas, ¿sabes? Están a la altura de cosas como audiolibros, podcasts, lectura de artículos en voz alta e incluso atención al cliente básico. Pero, muchas empresas todavía no están totalmente vendidas por la fiabilidad de la tecnología de voz de IA para sus operaciones. Ahí es donde
Fábrica de Cómics AI: Crea Cómics Fácilmente Gratis con AI Fábrica de Cómics AI: Crea Cómics Fácilmente Gratis con AI En el mundo digital actual, la fusión de inteligencia artificial y artes creativas está abriendo nuevas vías fascinantes para la expresión. La Fábrica de Cómics AI lidera esta revolución, ofreciendo u
comentario (30)
0/200
BenRoberts
BenRoberts 19 de abril de 2025 00:00:00 GMT

This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!

GeorgeMartinez
GeorgeMartinez 20 de abril de 2025 00:00:00 GMT

MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!

HarryLewis
HarryLewis 19 de abril de 2025 00:00:00 GMT

MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!

CharlesRoberts
CharlesRoberts 19 de abril de 2025 00:00:00 GMT

Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!

CharlesWhite
CharlesWhite 19 de abril de 2025 00:00:00 GMT

¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!

EricScott
EricScott 21 de abril de 2025 00:00:00 GMT

Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔

Volver arriba
OR