opción
Hogar Noticias Deepseek Shakes AI Industria: el próximo salto de IA puede depender del aumento de la inferencia, no más datos

Deepseek Shakes AI Industria: el próximo salto de IA puede depender del aumento de la inferencia, no más datos

Fecha de lanzamiento Fecha de lanzamiento 17 de abril de 2025
Autor Autor AlbertWalker
vistas vistas 48

Deepseek Shakes AI Industria: el próximo salto de IA puede depender del aumento de la inferencia, no más datos

La industria de la IA se encuentra en un estado de flujo constante, con 2025 trayendo algunos desarrollos que cambian el juego que están sacudiendo las cosas. Una gran sacudida se produjo cuando el laboratorio de IA chino, Deepseek, dejó caer una bomba con un nuevo modelo que causó una caída del 17% en las acciones de Nvidia y afectó a otras acciones de Centro de datos de IA. ¿El rumor alrededor del modelo de Deepseek? Está ofreciendo un rendimiento de primer nivel a una fracción de lo que cuesta a otros competidores estadounidenses, provocando una tormenta sobre lo que esto significa para el futuro de los centros de datos de IA.

Pero para obtener realmente lo que está haciendo Deepseek, tenemos que alejarnos y mirar el panorama general. El mundo de la IA está lidiando con la escasez de datos de entrenamiento. Los grandes jugadores ya han masticado la mayoría de los datos públicos de Internet, lo que significa que estamos llegando a un muro en mejoras previas al entrenamiento. Como resultado, los engranajes cambiantes de la industria hacia "Computación de tiempo de prueba" (TTC). Piense en ello como modelos de IA que toman un momento para "pensar" antes de responder, como con la serie "O" de OpenAi. Existe la esperanza de que TTC pueda ofrecer el mismo tipo de mejoras de escala que lo hicieron previamente la capacitación, potencialmente marcando el comienzo de la próxima gran ola de avances de IA.

Estos cambios están señalando dos grandes cambios: primero, los laboratorios de presupuesto más pequeño están ahora en el juego, lo que pone modelos de vanguardia. En segundo lugar, TTC se está convirtiendo en la nueva frontera para impulsar la IA hacia adelante. Desglosemos estas tendencias y lo que podrían significar para el panorama y el mercado de IA.

Implicaciones para la industria de la IA

Creemos que el movimiento a TTC y el aumento de la competencia entre los modelos de razonamiento podría remodelar el panorama de IA en varios frentes: hardware, plataformas en la nube, modelos de cimientos y software empresarial.

1. Hardware (GPU, chips dedicados e infraestructura de cálculo)

El cambio a TTC podría cambiar lo que necesitan las compañías de IA de hardware y cómo lo administran. En lugar de verter dinero en grupos de GPU en siempre para el entrenamiento, podrían comenzar a centrarse más en reforzar sus capacidades de inferencia para manejar las demandas de TTC. Si bien las GPU seguirán siendo cruciales para la inferencia, la diferencia entre las cargas de trabajo de entrenamiento e inferencia podría afectar la forma en que se configuran y usan estos chips. Con las cargas de trabajo de inferencia son más impredecibles y "Spikey", la planificación para la capacidad puede ser más complicada.

También creemos que este cambio podría aumentar el mercado de hardware diseñado específicamente para una inferencia de baja latencia, como ASICS. A medida que TTC se vuelve más crucial que la capacidad de entrenamiento, el reinado de las GPU de uso general podría comenzar a disminuir, abriendo puertas para fabricantes de chips de inferencia especializados.

2. Plataformas en la nube: hiperscalers (AWS, Azure, GCP) y Cloud Compute

Un obstáculo importante para la adopción de IA en las empresas, aparte de los problemas de precisión, es la falta de fiabilidad de las API de inferencia. Cosas como tiempos de respuesta inconsistentes, límites de velocidad y problemas con las solicitudes concurrentes pueden ser un verdadero dolor de cabeza. TTC podría empeorar estos problemas. En este escenario, un proveedor de la nube que puede garantizar una alta calidad de servicio (QoS) para abordar estos problemas podría tener una gran ventaja.

Curiosamente, a pesar de que los nuevos métodos pueden hacer que la IA sea más eficiente, es posible que no reduzcan la demanda de hardware. Después de la paradoja de Jevons, donde más eficiencia conduce a un mayor consumo, los modelos de inferencia más eficientes podrían llevar a más desarrolladores a usar modelos de razonamiento, aumentando la necesidad de la alimentación informática. Creemos que las mejoras recientes del modelo podrían estimular más demanda de cálculo de IA en la nube, tanto para la inferencia como para el entrenamiento de modelos más pequeño y especializado.

3. Proveedores de modelos de la Fundación (OpenAi, Anthrope, Cohere, Deepseek, Mistral)

Si los nuevos participantes como Deepseek pueden enfrentarse cara a cara con las grandes armas a una fracción del costo, la fortaleza de los modelos prevenidos patentados podría comenzar a desmoronarse. También podemos esperar más innovaciones en TTC para los modelos de transformadores, y como lo ha demostrado Deepseek, estas innovaciones pueden provenir de lugares inesperados fuera de los sospechosos habituales en la IA.

4. Enterprise AI Adoption y SaaS (capa de aplicación)

Dadas las raíces de Deepseek en China, seguramente habrá un escrutinio continuo de sus productos desde el punto de vista de seguridad y privacidad. Es poco probable que sus servicios de API y chatbot con sede en China se dan cuenta con los clientes de IA empresariales en los Estados Unidos, Canadá u otros países occidentales. Muchas compañías ya están bloqueando el sitio web y las aplicaciones de Deepseek. Incluso cuando se organizan por terceros en los centros de datos occidentales, los modelos de Deepseek podrían enfrentar el escrutinio, lo que podría limitar su adopción en la empresa. Los investigadores están marcando problemas como JailBreaking, Sesgo y Generación de contenido dañino. Si bien algunas empresas pueden experimentar con los modelos de Deepseek, la adopción generalizada parece poco probable debido a estas preocupaciones.

En otra nota, la especialización vertical está ganando terreno. En el pasado, las aplicaciones verticales construidas en los modelos de base se trataban de crear flujos de trabajo personalizados. Las técnicas como la generación de recuperación aumentada (RAG), el enrutamiento de modelos, las llamadas de funciones y las barandillas han sido clave para ajustar modelos generalizados para estos casos de uso específicos. Pero siempre ha habido la preocupación de que las principales mejoras en los modelos subyacentes puedan hacer que estas aplicaciones sean obsoletas. Sam Altman advirtió una vez que un gran salto en las capacidades modelo podría "vaporizar" estas innovaciones.

Sin embargo, si estamos viendo una meseta en las ganancias de tiempo de cálculo en el tiempo, la amenaza de ser rápidamente superado disminuye. En un mundo donde las mejoras en el rendimiento del modelo provienen de las optimizaciones de TTC, pueden surgir nuevas oportunidades para los jugadores de capas de aplicaciones. Las innovaciones como la optimización rápida estructurada, las estrategias de razonamiento consciente de la latencia y las técnicas de muestreo eficientes podrían ofrecer grandes aumentos de rendimiento en verticales específicas.

Estas mejoras son particularmente relevantes para modelos centrados en el razonamiento como GPT-4O de OpenAI y Deepseek-R1, que puede tardar varios segundos en responder. En aplicaciones en tiempo real, reducir la latencia y mejorar la calidad de la inferencia dentro de un dominio específico podría dar una ventaja competitiva. Como resultado, las empresas con conocimiento profundo del dominio podrían desempeñar un papel crucial en la optimización de la eficiencia de inferencia y los resultados ajustados.

El trabajo de Deepseek muestra que nos estamos alejando de confiar únicamente en una mayor previa para mejorar la calidad del modelo. En cambio, TTC se está volviendo cada vez más importante. Si bien no está claro si los modelos de Deepseek se adoptarán ampliamente en el software empresarial debido al escrutinio, su influencia en la mejora de otros modelos es cada vez más evidente.

Creemos que las innovaciones de Deepseek están impulsando los laboratorios de IA establecidos para adoptar técnicas similares, complementando sus ventajas de hardware existentes. La caída prevista en los costos del modelo parece estar impulsando más uso del modelo, ajustando el patrón de paradoja de Jevons.

Pashootan Vaezipoor es líder técnico en Georgian.

Artículo relacionado
前Deepseeker和合作者發布了新的培訓可靠AI代理的方法:Ragen 前Deepseeker和合作者發布了新的培訓可靠AI代理的方法:Ragen 人工智能代理年度:仔細研究2025年的期望和現實2025年被許多專家預示為當年的AI代理商(由高級大型語言和多式聯運公司提供支持的AI代理商),來自OpenAI,Anthropic,Google和Google和Deepseek等公司,最終將帶上中心中心中心中心。
DeepSeek的AIS發現了真正的人類慾望 DeepSeek的AIS發現了真正的人類慾望 DeepSeek在AI獎勵模型中的突破性:加強AI推理和響應中國AI初創公司DeepSeek與Tsinghua University合作,在AI研究中取得了重要的里程碑。他們對AI獎勵模型的創新方法有望徹底改變AI系統的學習方式
研究人員以低於50美元的價格開發了OpenAI $ 50“推理”模型的開源競爭對手 研究人員以低於50美元的價格開發了OpenAI $ 50“推理”模型的開源競爭對手 上週五,斯坦福大學和華盛頓大學的AI專家的一份開創性的研究論文襲擊了現場,透露,他們設法開發了一種被稱為S1的AI“推理”模型,以低於50美元的雲計算學分。 S1擁有自己的AI世界,這種啟示正在震撼AI世界
comentario (30)
0/200
JohnRoberts
JohnRoberts 18 de abril de 2025 12:09:37 GMT

DeepSeek's new model is shaking things up, but I'm not sure if it's all that. It's interesting how they're focusing on compute at inference, but I'm still waiting to see real-world results. 🤔💻

WalterWhite
WalterWhite 18 de abril de 2025 12:09:37 GMT

DeepSeekの新しいモデルは話題になっていますが、正直よくわかりません。推論時の計算に焦点を当てているのは面白いですが、実際の結果を見るまで待ちます。🤔💻

RogerPerez
RogerPerez 18 de abril de 2025 12:09:37 GMT

DeepSeek의 새로운 모델이 화제가 되고 있지만, 솔직히 잘 모르겠어요. 추론 시의 계산에 집중하는 건 흥미롭지만, 실제 결과를 보기 전까지는 기다려야 할 것 같아요. 🤔💻

PatrickMartinez
PatrickMartinez 18 de abril de 2025 12:09:37 GMT

O novo modelo da DeepSeek está causando um impacto, mas não tenho certeza se é tudo isso. É interessante focar no cálculo durante a inferência, mas ainda estou esperando pelos resultados reais. 🤔💻

ScottPerez
ScottPerez 18 de abril de 2025 12:09:37 GMT

El nuevo modelo de DeepSeek está dando que hablar, pero no estoy seguro de que sea para tanto. Es interesante que se enfoquen en el cálculo durante la inferencia, pero aún espero ver resultados reales. 🤔💻

SophiaCampbell
SophiaCampbell 18 de abril de 2025 17:57:57 GMT

DeepSeek really shook the AI world with their new model! Nvidia's stock took a hit, but honestly, it's exciting to see such big moves. It's like watching a sci-fi movie unfold in real-time. Can't wait to see where this leads, but more compute at inference? Sounds pricey! 🚀

Volver arriba
OR