DeepSeek-V3.2-Exp adalah model eksperimental terbaru dari DeepSeek yang bertujuan untuk meningkatkan efisiensi dan kemampuan AI dalam memproses informasi dalam jumlah besar dengan biaya yang lebih rendah. Model ini merupakan pengembangan dari model sebelumnya, DeepSeek-V3.1-Terminus.
Peluncuran model pertama mereka, R1, tahun lalu, sempat mengejutkan Silicon Valley. DeepSeek membuktikan bahwa model bahasa besar (LLMs) dapat dilatih dengan cepat, menggunakan chip yang kurang bertenaga, dan sumber daya yang lebih sedikit.
Menurut Adina Yakefu, pimpinan komunitas Tiongkok di AI forum Hugging Face, DeepSeek V3.2 terus berfokus pada efisiensi, pengurangan biaya, dan berbagi open-source. Peningkatan terbesar adalah fitur baru yang disebut DSA (DeepSeek Sparse Attention), yang membuat AI lebih baik dalam menangani dokumen dan percakapan panjang. Fitur ini juga memangkas biaya operasional AI hingga separuh dibandingkan versi sebelumnya.
Nick Patience, wakil presiden dan pimpinan praktik AI di The Futurum Group, menyatakan bahwa hal ini signifikan karena akan membuat model lebih cepat dan lebih hemat biaya tanpa penurunan kinerja yang signifikan. Ini membuat AI yang kuat menjadi lebih mudah diakses oleh pengembang, peneliti, dan perusahaan kecil, yang berpotensi memicu gelombang aplikasi baru dan inovatif.
Kelebihan dan Kekurangan Sparse Attention
Mekanisme Sparse Attention memungkinkan model AI untuk membuat keputusan dengan hanya mempertimbangkan data yang dianggap penting untuk tugas yang sedang dikerjakan, berbeda dengan model lain yang memproses semua data. Cara ini dapat meningkatkan efisiensi dan skalabilitas AI karena sumber daya yang dibutuhkan lebih sedikit.
Namun, mekanisme ini juga menimbulkan kekhawatiran terkait keandalan model. Ekaterina Almasque, salah satu pendiri BlankPage Capital, mengatakan bahwa dengan menyaring data, model ini berisiko kehilangan banyak nuansa penting. Muncul pertanyaan apakah mekanisme tersebut benar-benar berhasil mengecualikan data yang tidak penting atau justru data yang sangat penting. Hal ini bisa menjadi masalah, terutama dalam hal keamanan dan inklusivitas AI, karena model ini mungkin bukan yang paling optimal atau teraman untuk digunakan dibandingkan dengan pesaing atau arsitektur tradisional.

Comments
Post a Comment