教程AI Translated Content
企业自托管 LLM #2
Float16 团队
2 min read
在上一部分中,我们在运行 Ubuntu 24.04 LTS 的 EC2 机器(g5g.xlarge)上安装了 NVIDIA GPU 驱动程序,可供使用。在这一部分中,我们将启用已安装的 GPU 在 Docker 容器中工作,以准备使用 llama.cpp 创建 LLM API。
阅读第一部分:第 1 部分
安装 Docker Engine
1. 添加 Docker 的 GPG 密钥
sudo apt-get update
sudo apt-get install -y ca-certificates curl
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc
2. 将 Docker 存储库添加到 apt 源
echo \
  "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
  $(. /etc/os-release && echo "${UBUNTU_CODENAME:-$VERSION_CODENAME}") stable" | \
  sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
# 再次更新存储库
sudo apt-get update
3. 安装 Docker Engine 和 Docker CLI
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
测试安装:
sudo docker run hello-world
安装 NVIDIA Container Toolkit
1. 添加 NVIDIA Container Toolkit 存储库
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | \
  sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
  sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
  sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
2. 更新包
sudo apt-get update
3. 安装 NVIDIA Container Toolkit
sudo apt-get install -y nvidia-container-toolkit
4. 配置 Docker 以识别 GPU
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
5. 使用 Docker 测试
sudo docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi
第 2 部分总结
- 从官方存储库安装 Docker Engine
 - 安装 NVIDIA Container Toolkit 以启用 Docker GPU 访问
 - 测试容器可以成功运行 
nvidia-smi 
在下一部分中,我们将开始通过容器运行 LLM,如 llama.cpp,并将它们公开为 API。