ollama镜像包(图1)Ollama Docker映像

ollama镜像包(图2)

Ollama十二可以轻松地在本地启动和运行大型语言模型。

仅CPU
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
Nvidia GPU

安装NVIDIA容器工具包十二

使用Apt安装

  1. 配置存储库
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \
    | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpgcurl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
    | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
    | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.listsudo apt-get update
  1. 安装NVIDIA Container Toolkit软件包
sudo apt-get install -y nvidia-container-toolkit

使用Yum或Dnf安装

  1. 配置存储库
curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo \
    | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
  1. 安装NVIDIA Container Toolkit软件包
sudo yum install -y nvidia-container-toolkit

配置Docker以使用Nvidia驱动程序

sudo nvidia-ctk runtime configure --runtime=dockersudo systemctl restart docker

启动容器

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
AMD GPU

要使用带有AMD gpu的Docker运行Ollama,请使用rocm标记和以下命令:

docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm
在本地运行模型

现在你可以运行一个模型:

docker exec -it ollama ollama run llama3
尝试不同的模型


1、本站目前拥有近 1000+ 精品收费资源,现在加入VIP会员即可全部下载。
2、本资源部分来源其他付费资源平台或互联网收集,如有侵权请联系及时处理。
SEA模板网 » ollama镜像包

加入本站VIP会员订阅计划,海量资源免费查看

目前为止共有 3654 位优秀的VIP会员加入! 立刻加入VIP会员