Meta Luncurkan Dua Model AI Baru: Llama 4 Scout dan Llama 4 Maverick

https://profheshamsalaheldin.com/ Meta telah mengumumkan dua anggota baru dalam keluarga model bahasa besar (LLM), Llama 4, yang diberi nama Llama 4 Scout dan Llama 4 Maverick pada Sabtu (5/4/2025). Dalam pengumuman resminya, Meta menyatakan, “Hari ini, kami memperkenalkan Llama 4 Scout dan Llama 4 Maverick, model natif open-weight yang mampu memproses lebih banyak teks dibandingkan dengan model sebelumnya, serta dikembangkan menggunakan arsitektur Mixture of Experts (MoE).”

Apa Itu Model Natif Open-Weight dan MoE?

Model natif open-weight mengacu pada parameter model yang dapat diakses publik, memberikan fleksibilitas lebih dalam pengembangannya. Sementara itu, Mixture of Experts (MoE) adalah teknik yang mengandalkan beberapa submodel khusus atau “experts” untuk menangani bagian-bagian berbeda dari input teks, memungkinkan pemrosesan yang lebih efisien.

Fokus pada Pemrosesan Teks, Gambar, dan Data Video

Meta menjelaskan bahwa model-model terbaru ini dirancang untuk memproses teks, gambar, dan data video tanpa label untuk memperluas pemahaman visual. Dengan menggunakan arsitektur MoE, kedua model ini, Maverick dan Scout, diharapkan lebih efisien dalam pelatihan dan respons terhadap perintah atau pertanyaan.

Spesifikasi Llama 4 Scout dan Maverick

Llama 4 Maverick

Maverick, model yang lebih besar dan lebih kuat, membutuhkan satu sistem Nvidia H100 DGX atau model setara untuk operasionalnya, serta memiliki total 400 miliar parameter. Namun, hanya 17 parameter yang aktif dan 128 experts yang digunakan. Model ini dirancang untuk menjadi asisten virtual dan sangat cocok untuk menangani tugas penulisan kreatif, pemecahan masalah, penalaran, serta pengkodean yang lebih kompleks.
Maverick juga terbukti unggul dalam berbagai pengujian internal seperti Chart QA (nilai 90) dan DocVQA (nilai 94,4), serta penalaran pada MathVista (nilai 73,7) dan MMLU Pro (nilai 80,5).

Llama 4 Scout

Sementara itu, Llama 4 Scout adalah model dengan skala lebih kecil dan fokus pada tugas yang lebih ringan. Scout bisa berjalan menggunakan satu GPU Nvidia H100 dan memiliki total 109 miliar parameter, dengan 17 miliar parameter aktif dan 16 experts. Meskipun ukurannya lebih kecil, Scout dapat mengerjakan tugas seperti meringkas dokumen dan penalaran berbasis kode besar dengan baik. Selain itu, Scout memiliki jendela konteks besar hingga 10 juta token, memungkinkan model ini untuk merespons dokumen panjang secara efektif.

Keunggulan Masing-Masing Model

Maverick

Dalam pengujian, Maverick menunjukkan kemampuan luar biasa dalam pemrosesan visual dan tugas-tugas penalaran yang kompleks. Bahkan, model ini mengungguli GPT-40 dan Gemini 2.0 Flash dalam berbagai pengujian, termasuk pemrograman dengan nilai 43,4 di LiveCodeBench, lebih tinggi daripada GPT-4o dan Gemini 2.0 Flash. Namun, hasilnya masih sedikit di bawah DeepSeek v.31. Maverick juga dikenal memiliki efisiensi daya yang cukup tinggi dengan biaya sekitar $0,19 hingga $0,49 per juta token.

Scout

Meskipun lebih kecil, Scout tetap menunjukkan kinerja yang solid dalam tugas penalaran dan pemrosesan gambar. Dalam pengujian ChatQA dan DocVQA, Scout mencatatkan skor 88,8 dan 94,4, serta 74,3 di MMLU Pro. Ini menandakan bahwa meskipun ukurannya lebih kecil, Scout dapat memproses dan merespons dokumen panjang dengan baik, serta efisien dalam penggunaan GPU tunggal.

Behemoth: Model AI Masa Depan

Meta juga tengah mengembangkan model Llama 4 Behemoth, yang lebih unggul dari Maverick dan Scout. Meskipun masih dalam tahap pengembangan, Behemoth diprediksi akan membawa 2 triliun parameter dengan 288 miliar parameter aktif dan 16 experts. Keunggulan Behemoth terlihat dari kemampuannya yang lebih baik dalam penalaran multibahasa dan STEM (Sains, Teknologi, Teknik, Matematika), serta mampu mengalahkan model pesaing seperti GPT-4.5, Claude 3.7 Sonnet, dan Gemini 2.0 Pro dalam berbagai pengujian.

Kebijakan Meta tentang Jawaban yang Lebih Seimbang

Meta juga mengungkapkan bahwa seluruh model Llama ini didesain untuk memberikan jawaban yang lebih seimbang, menghindari respons terhadap topik kontroversial atau sensitif seperti masalah sosial dan politik. Sebagai tambahan, model-model ini bukan termasuk model penalaran seperti o1 atau o3-mini milik OpenAI, yang lebih terfokus pada verifikasi fakta dan memberikan jawaban lebih cepat.

Dengan perkembangan ini, Meta terus berupaya menciptakan model AI yang tidak hanya unggul dalam kemampuan teknis, tetapi juga dalam etika penggunaan dan aplikasi praktis di dunia nyata.

Leave a Reply

Your email address will not be published. Required fields are marked *