A startup chinesa de IA DeepSeek revelou seu mais recente modelo de linguagem experimental, V3.2-exp, projetado para reduzir os custos de inferência para tarefas de contexto longo em quase metade.
O modelo, anunciado na segunda-feira, visa abordar um dos desafios mais prementes na adoção de IA em larga escala: o custo de processamento de entradas extensas.
O V3.2-exp aproveita um novo sistema chamado DeepSeek Sparse Attention, que combina um "indexador relâmpago" com um módulo secundário para seleção refinada de tokens.
Juntas, essas inovações permitem que o modelo se concentre nos trechos mais relevantes enquanto gerencia detalhes no nível de token com precisão. Os primeiros testes internos sugerem que o sistema pode reduzir significativamente as cargas do servidor, com custos de API potencialmente caindo em 50% para operações de contexto longo.
Ao contrário de muitos lançamentos comerciais de IA que permanecem fechados, o V3.2-exp foi lançado como um modelo de peso aberto. Agora está acessível no Hugging Face, dando a pesquisadores, desenvolvedores e empresas a oportunidade de realizar avaliações independentes.
Esta decisão destaca o contínuo impulso da DeepSeek em direção à transparência e colaboração, especialmente à medida que as empresas escrutinam cada vez mais as alegações sobre eficiência e desempenho.
O lançamento aberto do modelo também se alinha com a estratégia anterior da DeepSeek com seu modelo R1 no início deste ano, onde o benchmarking aberto permitiu que a comunidade verificasse suas capacidades de raciocínio. Ao adotar a mesma abordagem para o V3.2-exp, a DeepSeek está sinalizando confiança em seus avanços de eficiência.
O lançamento do V3.2-exp vem após uma série de atualizações e experimentos da DeepSeek nos últimos meses. No início de setembro, a empresa introduziu o DeepSeek-V3.1-Terminus, um refinamento destinado a melhorar o desempenho do agente e abordar problemas relatados, como símbolos ilegíveis e alternância inconsistente de idiomas.
Embora essa atualização tenha proporcionado pequenas melhorias em benchmarks como o Último Exame da Humanidade e tarefas de codificação, alguns desafios permaneceram, particularmente no desempenho em língua chinesa.
Enquanto isso, relatórios da indústria revelaram que a DeepSeek está trabalhando em um modelo de próxima geração focado em agentes, programado para ser revelado no quarto trimestre de 2025. O projeto reflete uma mudança mais ampla da indústria em direção a sistemas de IA autônomos, capazes de executar tarefas de múltiplas etapas com supervisão humana mínima. O lançamento do V3.2-exp parece complementar essa trajetória, fortalecendo a base tecnológica da empresa em eficiência antes que recursos de agente mais avançados sejam implementados.
A inovação da DeepSeek surge em um momento em que a competição no setor de IA chinês está se intensificando. Empresas rivais como Alibaba e Tencent estão aumentando drasticamente seus investimentos em IA, com a Alibaba prometendo mais de 380 bilhões de RMB (52,9 bilhões de dólares) em infraestrutura de nuvem e IA.
Embora a DeepSeek tenha sido elogiada por alcançar resultados eficientes em termos de custos com recursos comparativamente modestos, analistas alertam que a empresa deve manter o impulso para evitar ser ofuscada por seus rivais ricos em capital.
O post Novo Modelo DeepSeek Reduz pela Metade os Custos de API para Contextos Estendidos apareceu primeiro no CoinCentral.


