Ollama

简介

Ollama 是一个本地运行的 LLM(大语言模型)管理工具,允许用户在本地设备上下载、运行和微调各种开源大模型,如 LLaMA、Mistral 和 Gemma,而无需依赖云端计算资源。

安装环境

序号

集群

平台

版本

位置

安装方式

1

hpckapok1

gpu

ollama 0.6.2

/share/software/ollama/

安装包

使用方法

hpckapok1

1、申请节点

salloc -N 1 -n 9 -p gpuA800 --gres=gpu:1 -t 120:00

2、登录节点

ssh -Y 计算节点

3、指定models位置(默认/share/software/ollama/models,需要自己指定可用export OLLAMA_MODELS=~/models:$OLLAMA_MODELS),然后加载ollama服务,

module load ollama/0.6.2
nohup ollama serve &

4、查看并用ollama加载deepseek模型

ollama list                          #查看可用模型
ollama run deepseek-r1:32b           #加载模型

5、开始大模型对话

../../../_images/ollama.png

作业提交

1、创建作业脚本ollama.sh

#!/bin/bash
#SBATCH --job-name=deepseek
#SBATCH --partition=gpuA800
#SBATCH --ntasks-per-node=9
#SBATCH --gres=gpu:1
#SBATCH --time=06:00:00
#SBATCH --output=output.log
#SBATCH --error=error.log

module load anaconda/3-2023.09
source activare your_env         #激活自己的虚拟环境
module load ollama/0.6.2          #默认models文件位置/share/software/ollama/models
#  export OLLAMA_MODELS=~/models     #指定自己的models文件路径
nohub ollama serve &              #打开ollama服务
python your_ollama_script.py

2、提交作业

sbatch  ollama.sh

参考资料

1、自定义模型下载

2、Ollama模型导入

Contributor:qbxie


最后更新: 2025 年 06 月 30 日