La startup china de IA DeepSeek ha presentado su nuevo modelo de lenguaje experimental, V3.2-exp, diseñado para reducir los costos de inferencia para tareas de contexto largo casi a la mitad.
El modelo, anunciado el lunes, tiene como objetivo abordar uno de los desafíos más apremiantes en la adopción de IA a gran escala: el gasto de manejar entradas extensas.
V3.2-exp aprovecha un nuevo sistema llamado DeepSeek Sparse Attention, que combina un "indexador relámpago" con un módulo secundario para la selección detallada de tokens.
Juntas, estas innovaciones permiten que el modelo se centre en los extractos más relevantes mientras gestiona los detalles a nivel de token con precisión. Las pruebas internas iniciales sugieren que el sistema puede reducir significativamente la carga de los servidores, con costos de API potencialmente reduciéndose en un 50% para operaciones de contexto largo.
A diferencia de muchos lanzamientos comerciales de IA que permanecen cerrados, V3.2-exp ha sido lanzado como un modelo de peso abierto. Ahora está accesible en Hugging Face, dando a investigadores, desarrolladores y empresas la oportunidad de realizar evaluaciones independientes.
Esta decisión destaca el continuo impulso de DeepSeek hacia la transparencia y la colaboración, especialmente cuando las empresas examinan cada vez más las afirmaciones sobre eficiencia y rendimiento.
El lanzamiento abierto del modelo también se alinea con la estrategia anterior de DeepSeek con su modelo R1 a principios de este año, donde las pruebas comparativas abiertas permitieron a la comunidad verificar sus capacidades de razonamiento. Al adoptar el mismo enfoque para V3.2-exp, DeepSeek está señalando confianza en sus avances de eficiencia.
El lanzamiento de V3.2-exp llega después de una serie de actualizaciones y experimentos de DeepSeek en los últimos meses. A principios de septiembre, la compañía introdujo DeepSeek-V3.1-Terminus, un refinamiento destinado a mejorar el rendimiento del Agente de IA y abordar problemas reportados como símbolos ilegibles y cambios inconsistentes de idioma.
Aunque esa actualización proporcionó pequeñas mejoras en puntos de referencia como el Último Examen de la Humanidad y tareas de codificación, algunos desafíos permanecieron, particularmente en el rendimiento del idioma chino.
Mientras tanto, informes de la industria han revelado que DeepSeek está trabajando en un modelo de próxima generación centrado en agentes, programado para ser presentado en el cuarto trimestre de 2025. El proyecto refleja un cambio más amplio de la industria hacia sistemas de IA autónomos, capaces de ejecutar tareas de múltiples pasos con mínima supervisión humana. El lanzamiento de V3.2-exp parece complementar esta trayectoria al fortalecer la base tecnológica de la empresa en eficiencia antes de que se implementen características de agente más avanzadas.
La innovación de DeepSeek llega en un momento en que la competencia en el sector de IA chino se está intensificando. Empresas rivales como Alibaba y Tencent están aumentando dramáticamente sus inversiones en IA, con Alibaba comprometiendo más de 380 mil millones de RMB (52.9 mil millones de dólares) en infraestructura de computación en la nube e IA.
Aunque DeepSeek ha sido elogiado por lograr resultados rentables con recursos comparativamente modestos, los analistas advierten que la empresa debe mantener el impulso para evitar ser eclipsada por sus rivales con abundantes recursos económicos.
La publicación Nuevo Modelo DeepSeek Reduce a la Mitad los Costos de API para Contextos Extendidos apareció primero en CoinCentral.

