Kolaborasi Mistral AI dan NVIDIA Meluncurkan Mistral NeMo 12B: Kecerdasan Buatan Tingkat Lanjut untuk Aplikasi Perusahaan

Kukuh T Wicaksono
2 min readJul 21, 2024

--

Sumber Berita: 18 july 2024

Mistral AI dan NVIDIA hari ini meluncurkan model bahasa generatif terbaru, Mistral NeMo 12B, yang memudahkan para pengembang untuk menyesuaikan dan menerapkannya dalam aplikasi perusahaan yang mendukung chatbot, tugas multibahasa, pemrograman, dan ringkasan.

Dengan menggabungkan keahlian Mistral AI dalam data pelatihan dan ekosistem perangkat keras serta perangkat lunak yang dioptimalkan oleh NVIDIA, model Mistral NeMo menawarkan kinerja tinggi untuk berbagai aplikasi.

“Kami sangat beruntung bisa berkolaborasi dengan tim NVIDIA, memanfaatkan perangkat keras dan perangkat lunak mereka yang terbaik,” ujar Guillaume Lample, salah satu pendiri sekaligus ilmuwan utama Mistral AI. “Bersama, kami telah mengembangkan model dengan akurasi, fleksibilitas, efisiensi tinggi, dan dukungan keamanan kelas perusahaan berkat penerapan NVIDIA AI Enterprise.”

Mistral NeMo dilatih menggunakan platform NVIDIA DGX Cloud AI, yang menyediakan akses yang dapat diskalakan ke arsitektur NVIDIA terbaru.

NVIDIA TensorRT-LLM untuk kinerja inferensi yang dipercepat pada model bahasa besar dan platform pengembangan NVIDIA NeMo untuk membangun model AI generatif kustom juga digunakan untuk memajukan dan mengoptimalkan proses ini.

Kolaborasi ini menekankan komitmen NVIDIA untuk mendukung ekosistem pembuat model.

Model ini unggul dalam percakapan bergilir, matematika, penalaran sehat, pengetahuan dunia, dan pemrograman, menyajikan kinerja yang tepat dan dapat diandalkan di berbagai tugas.

Dengan panjang konteks 128K, Mistral NeMo memproses informasi yang luas dan kompleks dengan lebih koheren dan akurat, memastikan output yang relevan kontekstual.

Dirilis di bawah lisensi Apache 2.0, yang mendorong inovasi dan mendukung komunitas AI yang lebih luas, Mistral NeMo adalah model dengan 12 miliar parameter. Selain itu, model menggunakan format data FP8 untuk inferensi model, yang mengurangi ukuran memori dan mempercepat pengerjaan tanpa mengurangi akurasi.

Model ini dipaket sebagai layanan inferensi NVIDIA NIM, menawarkan inferensi yang dioptimalkan kinerja dengan mesin NVIDIA TensorRT-LLM.

Format terkemas ini memungkinkan penyebaran yang mudah di mana saja, menyediakan fleksibilitas yang ditingkatkan untuk berbagai aplikasi.

Sebagai hasilnya, model dapat diterapkan di mana saja dalam hitungan menit, bukan beberapa hari.

NIM mencakup perangkat lunak kelas perusahaan yang merupakan bagian dari NVIDIA AI Enterprise, dengan cabang fitur khusus, proses validasi yang ketat, dan keamanan serta dukungan kelas perusahaan.

Didesain untuk muat di memori NVIDIA L40S tunggal, NVIDIA GeForce RTX 4090, atau GPU NVIDIA RTX 4500, Mistral NeMo NIM menawarkan efisiensi tinggi, biaya komputasi rendah, dan keamanan serta privasi yang ditingkatkan.

Dengan fleksibilitas untuk beroperasi di mana saja — cloud, pusat data, atau stasiun kerja RTX — Mistral NeMo siap merevolusi aplikasi AI di berbagai platform.

Anda bisa mencoba Mistral NeMo sebagai NVIDIA NIM hari ini melalui ai.nvidia.com, dengan NIM yang dapat diunduh segera hadir.

--

--