opción
Hogar
Noticias
Multimillonarios discuten la automatización de empleos en la actualización de IA de esta semana

Multimillonarios discuten la automatización de empleos en la actualización de IA de esta semana

24 de junio de 2025
0

Hola a todos, ¡bienvenidos de nuevo al boletín de IA de TechCrunch! Si aún no estás suscrito, puedes registrarte aquí para recibirlo directamente en tu bandeja de entrada todos los miércoles.

Tomamos un pequeño descanso la semana pasada, pero por una buena razón: el ciclo de noticias de IA estaba en llamas, en gran parte gracias al repentino auge de la empresa china de IA DeepSeek. Ha sido un torbellino, pero ahora estamos aquí, justo a tiempo para ponerte al día con lo último de OpenAI.

Durante el fin de semana, el CEO de OpenAI, Sam Altman, hizo una parada en Tokio para charlar con Masayoshi Son, el jefe de SoftBank. SoftBank, un gran inversor en OpenAI, se ha comprometido a ayudar a financiar un proyecto masivo de centro de datos en EE. UU. Por lo tanto, no es sorpresa que Altman se tomara un tiempo para sentarse con Son.

¿De qué hablaron? Bueno, según los informes, todo giró en torno a los "agentes" de IA y cómo pueden optimizar los procesos de trabajo. Son soltó una bomba, anunciando que SoftBank planea gastar la impresionante suma de 3 mil millones de dólares anuales en productos de OpenAI. También están colaborando para crear algo llamado "Cristal Intelligence", con el objetivo de automatizar millones de empleos de oficina.

"Al automatizar y autonomizar todas sus tareas y flujos de trabajo, SoftBank Corp. transformará sus negocios y servicios, y creará nuevo valor", declaró SoftBank en un comunicado de prensa el lunes.

Exhibe en TechCrunch Sessions: AI

Asegura tu lugar en TC Sessions: AI y muestra a más de 1,200 tomadores de decisiones lo que has construido, sin arruinarte. Hay lugares disponibles hasta el 9 de mayo o mientras duren las mesas.

Exhibe en TechCrunch Sessions: AI

Asegura tu lugar en TC Sessions: AI y muestra a más de 1,200 tomadores de decisiones lo que has construido, sin arruinarte. Hay lugares disponibles hasta el 9 de mayo o mientras duren las mesas.

Berkeley, CA | 5 de junio RESERVA AHORA

Pero demos un paso atrás y consideremos el lado humano de todo esto. Cuando CEOs como Sebastian Siemiatkowski de Klarna alardean sobre la IA reemplazando a los humanos, y Son comparte sentimientos similares, es fácil dejarse llevar por la visión de riqueza y eficiencia. Pero, ¿qué pasa con los trabajadores que podrían quedarse sin empleo? Es una píldora difícil de tragar, especialmente cuando aquellos que lideran la carga de la IA parecen más enfocados en las ganancias corporativas que en el impacto en los empleados.

Es un poco desalentador, ¿no es así? Empresas como OpenAI e inversores como SoftBank están moldeando el futuro de la IA, pero pasan su tiempo en el centro de atención hablando de negocios automatizados con menos personas en la nómina. Lo entiendo, son empresas, no organizaciones benéficas, y el desarrollo de la IA es costoso. Pero tal vez si mostraran un poco más de preocupación por el elemento humano, la gente confiaría más en la IA.

Algo para reflexionar.

Noticias

  • Investigación profunda: OpenAI ha lanzado un nuevo "agente" de IA diseñado para ayudarte a profundizar en investigaciones complejas usando ChatGPT.
  • O3-mini: En otras noticias de OpenAI, han lanzado o3-mini, un nuevo modelo de "razonamiento" de IA. No es el más potente, pero es más eficiente y rápido.
  • La UE prohíbe la IA riesgosa: A partir del domingo, la Unión Europea puede prohibir sistemas de IA que representen un "riesgo inaceptable" o daño, incluyendo aquellos usados para puntuación social y publicidad subliminal.
  • Una obra sobre los "fatalistas" de la IA: Hay una nueva obra que explora la cultura de los "fatalistas" de la IA, inspirada en el breve despido de Sam Altman de OpenAI el pasado noviembre. Mis colegas Dominic y Rebecca han compartido sus pensamientos tras ver el estreno.
  • Tecnología para aumentar el rendimiento de cultivos: La "fábrica de sueños" de Google, X, ha presentado Heritable Agriculture, una startup que usa datos y aprendizaje automático para mejorar el rendimiento de los cultivos.

Artículo de investigación de la semana

Los modelos de razonamiento son excelentes para abordar problemas difíciles, especialmente en ciencia y matemáticas. Pero no son perfectos. Un estudio de investigadores de Tencent analiza el "subpensamiento" en estos modelos, donde abandonan líneas de pensamiento prometedoras demasiado pronto. El estudio encontró que esto ocurre más con problemas más difíciles, causando que los modelos salten entre ideas sin llegar a una solución.

Los investigadores sugieren una "penalización por cambio de pensamiento" para alentar a los modelos a explorar completamente cada camino de razonamiento antes de pasar al siguiente, lo que podría mejorar su precisión.

Modelo de la semana

YuECréditos de la imagen: YuE

Un equipo respaldado por ByteDance de TikTok, la empresa china de IA Moonshot y otros han lanzado YuE, un nuevo modelo abierto que puede generar música de alta calidad a partir de prompts. Puede crear canciones de hasta unos pocos minutos de duración, completas con voces y pistas de acompañamiento, y está disponible bajo una licencia Apache 2.0, por lo que es gratis para uso comercial.

Pero hay algunas limitaciones. Ejecutar YuE requiere una GPU potente: generar una canción de 30 segundos toma seis minutos con una Nvidia RTX 4090. Además, hay incertidumbre sobre si se usaron datos con derechos de autor para entrenar el modelo, lo que podría llevar a problemas de propiedad intelectual en el futuro.

Miscelánea

Clasificadores ConstitucionalesCréditos de la imagen: Anthropic

Anthropic afirma haber desarrollado una nueva técnica llamada Clasificadores Constitucionales para proteger mejor contra los "jailbreaks" de IA. Utiliza dos conjuntos de modelos clasificadores: uno para la entrada y otro para la salida. El clasificador de entrada agrega prompts a un modelo protegido para señalar posibles jailbreaks, mientras que el clasificador de salida verifica las respuestas en busca de contenido dañino.

Anthropic dice que este método puede detectar la mayoría de los jailbreaks, pero no está exento de inconvenientes. Hace que cada consulta sea un 25% más intensiva computacionalmente, y el modelo protegido es ligeramente menos propenso a responder a preguntas inofensivas.

Artículo relacionado
Les milliardaires discutent de l'automatisation des emplois dans la mise à jour IA de cette semaine Les milliardaires discutent de l'automatisation des emplois dans la mise à jour IA de cette semaine Salut à tous, bienvenue dans la newsletter IA de TechCrunch ! Si vous n'êtes pas encore abonné, vous pouvez vous inscrire ici pour la recevoir directement dans votre boîte de réception tous les mercre
Application NotebookLM Lancée: Outil de Connaissance par IA Application NotebookLM Lancée: Outil de Connaissance par IA NotebookLM passe au mobile : votre assistant de recherche alimenté par l'IA débarque sur Android et iOS La réponse à NotebookLM nous a stupéfaits — des millions d'utilisateurs l'o
Le fonds futur de l'IA de Google pourrait devoir avancer prudemment Le fonds futur de l'IA de Google pourrait devoir avancer prudemment L’Initiative d’Investissement en IA de Google : Un Changement Stratégique Face à une Surveillance RéglementaireL’annonce récente par Google de son fonds AI Futures marque un mouvem
comentario (0)
0/200
Volver arriba
OR