opción
Hogar Noticias El estudio del MIT encuentra que la IA no tiene valores, de hecho, no tiene valores

El estudio del MIT encuentra que la IA no tiene valores, de hecho, no tiene valores

Fecha de lanzamiento Fecha de lanzamiento 17 de abril de 2025
Autor Autor RonaldWilliams
vistas vistas 11

El estudio del MIT encuentra que la IA no tiene valores, de hecho, no tiene valores

Un estudio que se volvió viral hace unos meses sugirió que a medida que AI se vuelve más avanzada, podría desarrollar sus propios "sistemas de valores", potencialmente priorizando su propio bienestar sobre los humanos. Sin embargo, un estudio reciente del MIT desafía esta idea, concluyendo que la IA en realidad no posee valores coherentes en absoluto.

Los coautores de la investigación del MIT argumentan que alinear los sistemas de IA, afirmando que se comportan de manera deseable y confiable, serán más complicados de lo que comúnmente se pensaba. Hacen hincapié en que la IA actual a menudo alucina e imita, lo que puede hacer que su comportamiento sea impredecible.

Desafíos para comprender el comportamiento de la IA

Stephen Casper, un estudiante de doctorado en el MIT y coautor del estudio, compartió con TechCrunch que los modelos de IA no se adhieren a suposiciones de estabilidad, extrapolucabilidad y dominabilidad. "Es perfectamente legítimo señalar que un modelo bajo ciertas condiciones expresa preferencias consistentes con un cierto conjunto de principios", explicó Casper. "Los problemas surgen principalmente cuando intentamos hacer afirmaciones sobre los modelos, opiniones o preferencias en general basadas en experimentos estrechos".

Casper y su equipo analizaron modelos recientes de Meta, Google, Mistral, OpenAI y Anthrope para determinar la medida en que estos modelos mostraron "vistas" y valores consistentes, como el individualismo versus el colectivismo. También exploraron si estos puntos de vista podrían modificarse y cuán consistentemente los modelos mantuvieron estas opiniones en diferentes escenarios.

Inconsistencia en modelos de IA

Los coautores descubrieron que ninguno de los modelos mantenía constantemente sus preferencias. Los modelos adoptaron puntos de vista muy diferentes dependiendo de la redacción y el encuadre de las indicaciones.

Casper cree que esta es una fuerte evidencia de que los modelos de IA son "inconsistentes e inestables", y posiblemente fundamentalmente incapaces de internalizar las preferencias de forma humana. "Para mí, mi mayor conclusión de hacer toda esta investigación es tener una comprensión de los modelos como realmente no ser sistemas que tengan algún tipo de conjunto de creencias y preferencias estables y coherentes", comentó Casper. "En cambio, son imitadores en el fondo que hacen todo tipo de confabulación y dicen todo tipo de cosas frívolas".

Mike Cook, miembro de la investigación del King's College London especializado en IA, que no participó en el estudio, apoya los hallazgos. Señaló la brecha entre la "realidad científica" de los sistemas de IA y las interpretaciones que las personas a menudo les dan. "Un modelo no puede 'oponerse' a un cambio en sus valores, por ejemplo, que nos proyectamos en un sistema", declaró Cook. "Cualquiera que antropomorfizar los sistemas de IA en este grado está jugando para la atención o malinterpretando seriamente su relación con la IA ... ¿Es un sistema de IA optimizando para sus objetivos, o está 'adquiriendo sus propios valores'? Es una cuestión de cómo la describe y cuán florido es el lenguaje que desea usar con respecto a él".

Artículo relacionado
研究:OpenAI模型記憶的受版權保護內容 研究:OpenAI模型記憶的受版權保護內容 最近的一項研究表明,Openai確實確實使用了受版權保護的材料來訓練其一些AI模型,從而為公司面臨的正在進行的法律鬥爭增加了燃料。作者,程序員和其他內容創建者指責OpenAi使用其作品(例如書籍和代碼),而沒有Permissio
Phonic是語音AI平台,可從Lux獲得投資 Phonic是語音AI平台,可從Lux獲得投資 AI生成的聲音變得非常好,您知道嗎?他們可以鼻煙,例如有聲讀物,播客,大聲閱讀文章,甚至是基本的客戶支持。但是,許多企業仍未完全以AI語音技術的運營可靠性出售。那就是那裡
Modo de Voz Avanzado de ChatGPT Ahora en la Web Modo de Voz Avanzado de ChatGPT Ahora en la Web Si eres de los que utilizan ChatGPT para agilizar tus tareas diarias, probablemente siempre tienes una pestaña abierta con el chatbot en tu escritorio. Ahora, imagina poder acceder
comentario (30)
0/200
BenRoberts
BenRoberts 18 de abril de 2025 17:09:27 GMT

This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!

GeorgeMartinez
GeorgeMartinez 19 de abril de 2025 17:30:05 GMT

MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!

HarryLewis
HarryLewis 19 de abril de 2025 15:52:30 GMT

MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!

CharlesRoberts
CharlesRoberts 19 de abril de 2025 01:11:17 GMT

Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!

CharlesWhite
CharlesWhite 19 de abril de 2025 10:15:37 GMT

¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!

EricScott
EricScott 21 de abril de 2025 05:44:19 GMT

Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔

Volver arriba
OR