opción
Hogar
Noticias
El estudio del MIT encuentra que la IA no tiene valores, de hecho, no tiene valores

El estudio del MIT encuentra que la IA no tiene valores, de hecho, no tiene valores

17 de abril de 2025
120

El estudio del MIT encuentra que la IA no tiene valores, de hecho, no tiene valores

Un estudio que se volvió viral hace unos meses sugirió que a medida que la IA se vuelve más avanzada, podría desarrollar sus propios "sistemas de valores", potencialmente priorizando su propio bienestar sobre los humanos. Sin embargo, un reciente estudio del MIT desafía esta idea, concluyendo que la IA en realidad no posee valores coherentes en absoluto.

Los coautores de la investigación del MIT argumentan que alinear los sistemas de IA —asegurando que se comporten de manera deseable y confiable— podría ser más complicado de lo comúnmente pensado. Enfatizan que la IA actual a menudo alucina e imita, lo que puede hacer que su comportamiento sea impredecible.

Desafíos en la comprensión del comportamiento de la IA

Stephen Casper, estudiante de doctorado en el MIT y coautor del estudio, compartió con TechCrunch que los modelos de IA no se adhieren a suposiciones de estabilidad, extrapolabilidad y dirigibilidad. "Es perfectamente legítimo señalar que un modelo bajo ciertas condiciones expresa preferencias consistentes con un cierto conjunto de principios," explicó Casper. "Los problemas surgen principalmente cuando intentamos hacer afirmaciones sobre los modelos, opiniones o preferencias en general basadas en experimentos estrechos."

Casper y su equipo analizaron modelos recientes de Meta, Google, Mistral, OpenAI y Anthropic para determinar en qué medida estos modelos mostraban "puntos de vista" y valores consistentes, como el individualismo frente al colectivismo. También exploraron si estos puntos de vista podían modificarse y cuán consistentemente los modelos mantenían estas opiniones en diferentes escenarios.

Inconsistencia en los modelos de IA

Los coautores encontraron que ninguno de los modelos mantenía sus preferencias de manera consistente. Los modelos adoptaban puntos de vista muy diferentes dependiendo de la redacción y el encuadre de las indicaciones.

Casper cree que esto es una fuerte evidencia de que los modelos de IA son "inconsistentes e inestables", y posiblemente fundamentalmente incapaces de internalizar preferencias similares a las humanas. "Para mí, mi mayor lección al realizar toda esta investigación es ahora tener una comprensión de los modelos como no siendo realmente sistemas que tienen algún tipo de conjunto estable y coherente de creencias y preferencias," comentó Casper. "En cambio, son imitadores en el fondo que hacen todo tipo de confabulaciones y dicen todo tipo de cosas frívolas."

Mike Cook, investigador en King's College London especializado en IA, que no participó en el estudio, apoya los hallazgos. Señaló la brecha entre la "realidad científica" de los sistemas de IA y las interpretaciones que la gente a menudo les da. "Un modelo no puede 'oponerse' a un cambio en sus valores, por ejemplo, eso es nosotros proyectando sobre un sistema," afirmó Cook. "Cualquiera que antropomorfice los sistemas de IA a este grado está o bien buscando atención o malentendiendo gravemente su relación con la IA... ¿Está un sistema de IA optimizando para sus objetivos, o está 'adquiriendo sus propios valores'? Es una cuestión de cómo lo describes, y cuán florido es el lenguaje que quieres usar al respecto."

Artículo relacionado
Laboratorios de Investigación Fundamental Aseguran $33M para Avanzar en el Desarrollo de Agentes de IA Laboratorios de Investigación Fundamental Aseguran $33M para Avanzar en el Desarrollo de Agentes de IA La firma de investigación en IA Fundamental Research Labs, anteriormente Altera, anunció hoy una ronda de financiación Serie A de $33 millones, liderada por Prosus y con la participación del cofundado
Centros de Datos de IA Podrían Costar $200B para 2030, Sobrecargar Redes Eléctricas Centros de Datos de IA Podrían Costar $200B para 2030, Sobrecargar Redes Eléctricas Los centros de datos para entrenamiento y operación de IA podrían albergar millones de chips, costar cientos de miles de millones y demandar energía equivalente a la red de una gran ciudad si las tend
Estudio revela que respuestas concisas de IA pueden aumentar alucinaciones Estudio revela que respuestas concisas de IA pueden aumentar alucinaciones Instruir a los chatbots de IA para que proporcionen respuestas breves puede llevar a alucinaciones más frecuentes, sugiere un nuevo estudio.Un estudio reciente de Giskard, una empresa de evaluación de
comentario (33)
0/200
DennisAllen
DennisAllen 26 de agosto de 2025 23:01:20 GMT+02:00

This MIT study is wild! 🤯 I thought AI was about to start preaching its own philosophy, but turns out it's just a fancy tool with no moral compass. Kinda reassuring, but also makes me wonder how we keep it in check.

AnthonyMartinez
AnthonyMartinez 18 de agosto de 2025 19:00:59 GMT+02:00

Wild that people thought AI could just sprout its own values like some rogue philosopher. MIT's study makes sense—AI's just a tool, not a wannabe human with a moral compass. 🤖

TimothyMartínez
TimothyMartínez 22 de julio de 2025 03:25:03 GMT+02:00

I was kinda freaked out by that earlier study saying AI might have its own values, so this MIT research is a relief! 😅 Still, makes me wonder if we’re just projecting our fears onto these systems.

BruceClark
BruceClark 25 de abril de 2025 12:05:15 GMT+02:00

MITのAI価値に関する研究は目から鱗でした!AIが独自の価値観を持つかもしれないと思っていましたが、今はそれがただの誇張だとわかりました。それでも、AIが一貫した価値観を持っていないと思うと少し不安になります。未来について考えさせられますね、🤔

ScottKing
ScottKing 23 de abril de 2025 20:31:27 GMT+02:00

MITの研究によると、AIが独自の価値観を持つことはないらしいですね。これは安心ですが、AIがどんな価値観を持つか見てみたかったです!🤖📚

RalphHill
RalphHill 22 de abril de 2025 08:29:50 GMT+02:00

O estudo do MIT me tranquilizou sobre a IA desenvolver seus próprios valores. É reconfortante saber que a IA não tem sua própria agenda, mas também é um pouco decepcionante porque seria legal ver que tipo de valores a IA poderia desenvolver! 🤖📚

Volver arriba
OR