Startup AI asal Tiongkok DeepSeek telah memperbarui model AI flagship-nya V3 dan menghapus penyebutan jaringan saraf yang berpikir R1 dalam chatbot. Hal ini dilaporkan oleh SCMP.
Perusahaan mengumumkan peluncuran V3.1 di WeChat. Pembaruan ini memperluas jendela konteks model hingga 128.000 token, memungkinkan model untuk menyimpan lebih banyak informasi saat berinteraksi dengan pengguna. Jumlah tersebut setara dengan buku sekitar 300 halaman.
Juga dicatat efisiensi tinggi dalam penggunaan token.
Data: X. Dalam benchmark Aider Polyglot, yang mengevaluasi LLM dalam menyelesaikan tugas pemrograman yang kompleks sekaligus dalam beberapa bahasa, DeepSeek V3.1 mengungguli Claude 4 Opus.
DeepSeek V3.1 mengalahkan Claude 4 Opus di Aider Polyglot
Ini menjadikannya model pengkodean non-TTC terbaik dan semua itu seharga ~$1 pic.twitter.com/QyJZnVRdVK
— Lisan al Gaib (@scaling01) 19 Agustus 2025
V3.1 menjaga keseimbangan antara kecepatan dan kualitas generasi. Ini mengandung 685 miliar parameter dan didasarkan pada arsitektur hibrida yang memastikan kinerja tinggi dalam tugas dialog, penalaran, dan pemrograman.
DeepSeek menghapus penyebutan R1 dari fungsi pemikiran mendalam. Di SCMP, diduga bahwa ini dapat menunjukkan kesulitan dalam pengembangan versi R2 yang diharapkan.
Startup AI DeepSeek menarik perhatian pada bulan Januari dengan peluncuran model R1 yang fokus pada penalaran. Model ini menunjukkan efisiensi tinggi dengan investasi yang rendah, yang menyebabkan keraguan di kalangan para ahli mengenai kebutuhan untuk investasi miliaran di sektor AI dan pembengkakan industri.
Sebagai pengingat, pada bulan Juni, sebuah startup asal China mulai merekrut magang untuk menandai data medis dengan tujuan meningkatkan penerapan kecerdasan buatan di rumah sakit.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
DeepSeek telah merilis model AI baru V3.1
Startup AI asal Tiongkok DeepSeek telah memperbarui model AI flagship-nya V3 dan menghapus penyebutan jaringan saraf yang berpikir R1 dalam chatbot. Hal ini dilaporkan oleh SCMP.
Perusahaan mengumumkan peluncuran V3.1 di WeChat. Pembaruan ini memperluas jendela konteks model hingga 128.000 token, memungkinkan model untuk menyimpan lebih banyak informasi saat berinteraksi dengan pengguna. Jumlah tersebut setara dengan buku sekitar 300 halaman.
Juga dicatat efisiensi tinggi dalam penggunaan token.
V3.1 menjaga keseimbangan antara kecepatan dan kualitas generasi. Ini mengandung 685 miliar parameter dan didasarkan pada arsitektur hibrida yang memastikan kinerja tinggi dalam tugas dialog, penalaran, dan pemrograman.
DeepSeek menghapus penyebutan R1 dari fungsi pemikiran mendalam. Di SCMP, diduga bahwa ini dapat menunjukkan kesulitan dalam pengembangan versi R2 yang diharapkan.
Startup AI DeepSeek menarik perhatian pada bulan Januari dengan peluncuran model R1 yang fokus pada penalaran. Model ini menunjukkan efisiensi tinggi dengan investasi yang rendah, yang menyebabkan keraguan di kalangan para ahli mengenai kebutuhan untuk investasi miliaran di sektor AI dan pembengkakan industri.
Sebagai pengingat, pada bulan Juni, sebuah startup asal China mulai merekrut magang untuk menandai data medis dengan tujuan meningkatkan penerapan kecerdasan buatan di rumah sakit.