A startup de IA chinesa DeepSeek atualizou seu modelo de IA insignia V3 e removeu a menção à rede neural de raciocínio R1 no chatbot. Isso é relatado pelo SCMP.
A empresa anunciou o lançamento da V3.1 no WeChat. A atualização expande a janela de contexto do modelo para 128.000 tokens, permitindo que ele armazene mais informações ao interagir com o usuário. Esse volume corresponde a um livro de cerca de 300 páginas.
Também é destacada a alta eficiência na utilização de tokens.
Dados: X.No benchmark Aider Polyglot, que avalia LLM na resolução de problemas complexos de programação em várias linguagens, o DeepSeek V3.1 supera o Claude 4 Opus.
DeepSeek V3.1 supera Claude 4 Opus no Aider Polyglot
Isso faz dele o melhor modelo de codificação não-TTC e tudo isso por ~$1 pic.twitter.com/QyJZnVRdVK
— Lisan al Gaib (@scaling01) 19 de agosto de 2025
A V3.1 mantém o equilíbrio entre velocidade e qualidade de geração. Contém 685 bilhões de parâmetros e é baseada em uma arquitetura híbrida, garantindo alto desempenho em tarefas de diálogo, raciocínio e programação.
A DeepSeek removeu a menção a R1 da função de pensamento profundo. No SCMP, foi sugerido que isso pode indicar dificuldades no desenvolvimento da versão R2 esperada.
A startup de IA DeepSeek chamou a atenção em janeiro com o lançamento do modelo R1, voltado para raciocínio. Ele demonstrou alta eficiência com baixos investimentos, o que gerou dúvidas entre os especialistas sobre a necessidade de injeções bilionárias no setor de IA e a supervalorização da indústria.
Recordamos que, em junho, uma startup chinesa começou a recrutar estagiários para rotular dados médicos com o objetivo de melhorar a aplicação da inteligência artificial nos hospitais.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
DeepSeek lançou um novo modelo de IA V3.1
A startup de IA chinesa DeepSeek atualizou seu modelo de IA insignia V3 e removeu a menção à rede neural de raciocínio R1 no chatbot. Isso é relatado pelo SCMP.
A empresa anunciou o lançamento da V3.1 no WeChat. A atualização expande a janela de contexto do modelo para 128.000 tokens, permitindo que ele armazene mais informações ao interagir com o usuário. Esse volume corresponde a um livro de cerca de 300 páginas.
Também é destacada a alta eficiência na utilização de tokens.
A V3.1 mantém o equilíbrio entre velocidade e qualidade de geração. Contém 685 bilhões de parâmetros e é baseada em uma arquitetura híbrida, garantindo alto desempenho em tarefas de diálogo, raciocínio e programação.
A DeepSeek removeu a menção a R1 da função de pensamento profundo. No SCMP, foi sugerido que isso pode indicar dificuldades no desenvolvimento da versão R2 esperada.
A startup de IA DeepSeek chamou a atenção em janeiro com o lançamento do modelo R1, voltado para raciocínio. Ele demonstrou alta eficiência com baixos investimentos, o que gerou dúvidas entre os especialistas sobre a necessidade de injeções bilionárias no setor de IA e a supervalorização da indústria.
Recordamos que, em junho, uma startup chinesa começou a recrutar estagiários para rotular dados médicos com o objetivo de melhorar a aplicação da inteligência artificial nos hospitais.