TutorialAI Translated Content

Self-Hosted LLM untuk Enterprise #1

Pasukan Float16
2 min read
Self-Hosted LLM untuk Enterprise #1

Dalam era di mana Generative AI telah menjadi pembantu harian bagi ramai orang, sama ada untuk menulis kod, menjawab soalan, atau merumuskan laporan, ramai organisasi menjadi berminat untuk memasang dan menggunakan LLM secara dalaman untuk privasi, fleksibiliti, dan kawalan kos. Siri ini akan membimbing anda melalui setup sistem langkah demi langkah, daripada memasang driver sehingga menjalankan LLM melalui API di mesin Ubuntu anda sendiri.

Infrastructure yang dipilih dalam artikel ini akan daripada AWS, dan kita akan menggunakan EC2 sebagai mesin untuk Demo kita.

Untuk Instance Type, kita akan menggunakan g5g.xlarge yang mempunyai GPU.

1. Cari nilai $distro dan $arch yang sesuai dengan sistem kita

Buka jadual perbandingan daripada Official Document

Daripada contoh mesin demo kita:

  • Ubuntu 24.04 LTS
  • Architecture: arm64

Kita mendapat nilai:

  • $distro = ubuntu2404
  • $arch = sbsa
  • $arch_ext = sbsa

Jika menggunakan spesifikasi mesin berbeza, periksa nilai untuk menyesuaikan mesin anda.

2. Pasang NVIDIA keyring dengan nilai $distro dan $arch daripada langkah sebelumnya

# Example: If using Ubuntu 24.04 + ARM64 (from step 1)
wget  https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/sbsa/cuda-keyring_1.1-1_all.deb
# Install keyring
sudo dpkg -i cuda-keyring_1.1-1_all.deb
# Update apt index
sudo apt update

3. Pasang NVIDIA Proprietary Driver dan CUDA Toolkit

sudo apt install cuda-drivers
sudo apt install cuda-toolkit

4. Periksa Operasi Driver

nvidia-smi

Ringkasan Bahagian 1

Di bahagian ini, anda akan mempunyai:

  • Memeriksa maklumat sistem untuk memilih versi driver yang betul
  • Menghubungkan Ubuntu ke NVIDIA Repository
  • Memasang NVIDIA proprietary GPU driver dengan mudah menggunakan arahan apt
  • Mengesahkan operasi GPU dengan nvidia-smi

Jika anda mengikuti ini, mesin anda kini sedia untuk penggunaan GPU.


Seterusnya: Menggunakan GPU dengan Docker Container

Di bahagian seterusnya, kita akan melihat cara:

  • Mengkonfigurasi Docker untuk menggunakan GPU dengan betul
  • Memasang nvidia-container-toolkit
  • Menyediakan persekitaran untuk menjalankan LLM API Work-from-Home atau dalam organisasi

Jangan lepaskan bahagian seterusnya!