TutorialAI Translated Content

Self-Hosted LLM untuk Enterprise #1

Tim Float16
2 min read
Self-Hosted LLM untuk Enterprise #1

Di era dimana Generative AI telah menjadi asisten harian bagi banyak orang, baik untuk menulis kode, menjawab pertanyaan, atau merangkum laporan, banyak organisasi menjadi tertarik untuk menginstal dan menggunakan LLM secara internal untuk privasi, fleksibilitas, dan kontrol biaya. Seri ini akan memandu Anda melalui setup sistem langkah demi langkah, dari menginstal driver hingga menjalankan LLM melalui API di mesin Ubuntu Anda sendiri.

Infrastructure yang dipilih dalam artikel ini akan dari AWS, dan kita akan menggunakan EC2 sebagai mesin untuk Demo kita.

Untuk Instance Type, kita akan menggunakan g5g.xlarge yang memiliki GPU.

1. Temukan nilai $distro dan $arch yang cocok dengan sistem kita

Buka tabel perbandingan dari Official Document

Dari contoh mesin demo kita:

  • Ubuntu 24.04 LTS
  • Architecture: arm64

Kita mendapatkan nilai:

  • $distro = ubuntu2404
  • $arch = sbsa
  • $arch_ext = sbsa

Jika menggunakan spesifikasi mesin berbeda, periksa nilai untuk mencocokkan mesin Anda.

2. Instal NVIDIA keyring dengan nilai $distro dan $arch dari langkah sebelumnya

# Example: If using Ubuntu 24.04 + ARM64 (from step 1)
wget  https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/sbsa/cuda-keyring_1.1-1_all.deb
# Install keyring
sudo dpkg -i cuda-keyring_1.1-1_all.deb
# Update apt index
sudo apt update

3. Instal NVIDIA Proprietary Driver dan CUDA Toolkit

sudo apt install cuda-drivers
sudo apt install cuda-toolkit

4. Periksa Operasi Driver

nvidia-smi

Ringkasan Bagian 1

Di bagian ini, Anda akan memiliki:

  • Memeriksa informasi sistem untuk memilih versi driver yang benar
  • Menghubungkan Ubuntu ke NVIDIA Repository
  • Menginstal NVIDIA proprietary GPU driver dengan mudah menggunakan perintah apt
  • Memverifikasi operasi GPU dengan nvidia-smi

Jika Anda mengikuti ini, mesin Anda sekarang siap untuk penggunaan GPU.


Selanjutnya: Menggunakan GPU dengan Docker Container

Di bagian selanjutnya, kita akan melihat cara:

  • Mengkonfigurasi Docker untuk menggunakan GPU dengan benar
  • Menginstal nvidia-container-toolkit
  • Menyiapkan environment untuk menjalankan LLM API Work-from-Home atau dalam organisasi

Jangan lewatkan bagian selanjutnya!