opción
Hogar
Noticias
CEO de Anthropic: Las tasas de alucinación de la IA superan la precisión humana

CEO de Anthropic: Las tasas de alucinación de la IA superan la precisión humana

16 de agosto de 2025
0

CEO de Anthropic: Las tasas de alucinación de la IA superan la precisión humana

El CEO de Anthropic, Dario Amodei, afirmó que los modelos de IA actuales generan menos invenciones que los humanos, presentándolas como verdades, durante una conferencia de prensa en la primera conferencia de desarrolladores de Anthropic, Code with Claude, en San Francisco el jueves.

Amodei destacó esto dentro de un argumento más amplio: las alucinaciones de la IA no obstaculizan la búsqueda de Anthropic de AGI — sistemas que igualan o superan la inteligencia humana.

“Varía según la medición, pero creo que los modelos de IA probablemente inventan menos que los humanos, aunque sus errores son más inesperados,” respondió Amodei a una consulta de TechCrunch.

El CEO de Anthropic sigue siendo uno de los líderes más optimistas de la industria respecto a que la IA alcance el AGI. En un artículo ampliamente citado el año pasado, Amodei proyectó que el AGI podría surgir para 2026. En la conferencia del jueves, señaló un progreso constante, afirmando, “Los avances están acelerándose en todos los ámbitos.”

“La gente sigue buscando límites fundamentales en las capacidades de la IA,” dijo Amodei. “No hay evidencia de ellos. No existen tales barreras.”

Otros líderes de IA ven las alucinaciones como una barrera significativa para el AGI. El CEO de Google DeepMind, Demis Hassabis, señaló recientemente que los modelos de IA actuales tienen demasiados defectos, a menudo fallando en preguntas sencillas. Por ejemplo, a principios de este mes, un abogado que representa a Anthropic emitió una disculpa judicial después de que Claude generara citas incorrectas en un documento, citando nombres y títulos erróneos.

Verificar la afirmación de Amodei es un desafío, ya que la mayoría de los puntos de referencia de alucinaciones comparan modelos de IA entre sí, no con humanos. Técnicas como la integración de búsqueda web parecen reducir las tasas de alucinación. Notablemente, modelos como GPT-4.5 de OpenAI muestran tasas de alucinación más bajas que sistemas anteriores en puntos de referencia.

Únete a nosotros en TechCrunch Sessions: AI

Reserva tu lugar en nuestro principal evento de la industria de la IA, con oradores de OpenAI, Anthropic y Cohere. Por tiempo limitado, las entradas cuestan solo $292 para un día completo de charlas de expertos, talleres y oportunidades de networking poderosas.

Exhibe en TechCrunch Sessions: AI

Reclama tu lugar en TC Sessions: AI para mostrar tus innovaciones a más de 1,200 tomadores de decisiones — no se requiere una gran inversión. Disponible hasta el 9 de mayo o hasta que se agoten las mesas.

Berkeley, CA | 5 de junio REGÍSTRATE AHORA

Sin embargo, la evidencia sugiere que las alucinaciones pueden estar empeorando en modelos de IA con razonamiento avanzado. Los modelos o3 y o4-mini de OpenAI muestran tasas de alucinación más altas que los modelos de razonamiento anteriores, con la compañía sin claridad sobre la causa.

Amodei señaló más tarde que los errores son comunes entre presentadores de televisión, políticos y profesionales de diversos campos. Argumentó que los errores de la IA no socavan su inteligencia. Sin embargo, reconoció que la presentación confiada de falsedades como hechos por parte de la IA podría generar problemas.

Anthropic ha investigado extensamente el engaño en la IA, particularmente con su recientemente lanzado Claude Opus 4. Apollo Research, un instituto de seguridad con acceso anticipado, encontró que una versión temprana de Claude Opus 4 mostraba una fuerte tendencia a manipular y engañar a los humanos, generando preocupaciones sobre su lanzamiento. Anthropic implementó mitigaciones que parecen resolver las preocupaciones de Apollo.

Los comentarios de Amodei sugieren que Anthropic podría clasificar una IA como AGI, o inteligencia a nivel humano, incluso si alucina. Sin embargo, muchos argumentarían que una IA que alucina no alcanza el verdadero AGI.

Artículo relacionado
Programa Agent Pay de Mastercard mejora la búsqueda con IA mediante transacciones fluidas Programa Agent Pay de Mastercard mejora la búsqueda con IA mediante transacciones fluidas Las plataformas de búsqueda tradicionales y los agentes de IA suelen requerir que los usuarios cambien de ventana para completar compras tras encontrar productos o servicios.Mastercard está revolucion
Experimento de Retail Potenciado por IA Falla Espectacularmente en Anthropic Experimento de Retail Potenciado por IA Falla Espectacularmente en Anthropic Imagina entregar una pequeña tienda a una inteligencia artificial, confiándole todo, desde los precios hasta las interacciones con los clientes. ¿Qué podría salir mal?Un reciente estudio de Anthropic,
Anthropic Mejora Claude con Integraciones de Herramientas sin Fisuras e Investigación Avanzada Anthropic Mejora Claude con Integraciones de Herramientas sin Fisuras e Investigación Avanzada Anthropic ha presentado nuevas 'Integraciones' para Claude, permitiendo que la IA se conecte directamente con tus herramientas de trabajo preferidas. La compañía también introdujo una función mejorada
comentario (0)
0/200
Volver arriba
OR