在人工智能开发和部署过程中,高效地管理和运行不同模型是提高工作效率的关键环节。Ollama 作为一个强大的模型管理工具,结合 Windows 批处理文件,可以实现快速、自动化的模型部署。本教程将详细指导你如何通过一个简单的批处理脚本,创建和运行多种 AI 模型。教程假设你已经安装了 Ollama,并且你的系统支持运行批处理文件(Windows 环境)。
教程:使用批处理文件创建和运行模型
1. 准备工作
- 安装 Ollama
如果你还没有安装 Ollama,请访问 Ollama 官方网站,按照指南安装 Ollama。 - 创建文件夹和文件
- 在你的硬盘上创建一个文件夹,例如
G:\Ollama。 - 在
G:\Ollama文件夹中创建一个子文件夹models,用于存放模型文件。 - 在
G:\Ollama文件夹中创建Modelfile文件,用于指定模型的来源。这些文件的名称和内容如下:
- 在你的硬盘上创建一个文件夹,例如
2. 创建 Modelfile 文件
根据你的需求,创建以下文件:
- 模型文件-7b
内容:FROM models\DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf - 模型文件-14b
内容:FROM models\DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf - 模型文件-qwen
内容:FROM models\qwen2.5-7b-instruct-q4_k_m.gguf - 模型文件-phi
内容:FROM models\phi-4-Q6_K.gguf - 模型文件-gemma
内容:FROM models\gemma-2-27b-it-Q5_K_M.gguf - 模型文件-llama
内容:FROM models\Llama-3.3-70B-Instruct-Q4_K_M.gguf
注意:确保 .gguf 模型文件已经下载并放置在 G:\Ollama\models 文件夹中。
3. 创建批处理文件
将以下代码保存为一个批处理文件,例如 run_model.bat,并将其放置在 G:\Ollama 文件夹中:
@echo off
REM 设置路径
set MODEL_PATH=G:\Ollama
set MODEL_FOLDER=%MODEL_PATH%\models
REM 显示菜单,供用户选择模型
echo ============================================================
echo 请选择要创建和运行的模型:
echo 1. DeepSeek-R1 7B 模型
echo 2. DeepSeek-R1 14B 模型
echo 3. Qwen 2.5 7B Instruct 模型
echo 4. Phi 4 模型
echo 5. Gemma 2 27B Instruct 模型
echo 6. Llama 3.3 70B Instruct 模型
echo 7. 退出
echo ============================================================
set /p choice="请输入选择 [1-7]:"
REM 根据用户选择执行不同的操作
if "%choice%"=="1" (
echo 创建并运行 DeepSeek-R1 7B 模型...
ollama create deepseek-r1:7b -f "%MODEL_PATH%\Modelfile-7b"
ollama run deepseek-r1:7b
)
if "%choice%"=="2" (
echo 创建并运行 DeepSeek-R1 14B 模型...
ollama create deepseek-r1:14b -f "%MODEL_PATH%\Modelfile-14b"
ollama run deepseek-r1:14b
)
if "%choice%"=="3" (
echo 创建并运行 Qwen 2.5 7B Instruct 模型...
ollama create qwen2.5-7b-instruct -f "%MODEL_PATH%\Modelfile-qwen"
ollama run qwen2.5-7b-instruct
)
if "%choice%"=="4" (
echo 创建并运行 Phi 4 模型...
ollama create phi-4 -f "%MODEL_PATH%\Modelfile-phi"
ollama run phi-4
)
if "%choice%"=="5" (
echo 创建并运行 Gemma 2 27B Instruct 模型...
ollama create gemma-2-27b-it -f "%MODEL_PATH%\Modelfile-gemma"
ollama run gemma-2-27b-it
)
if "%choice%"=="6" (
echo 创建并运行 Llama 3.3 70B Instruct 模型...
ollama create llama-3.3-70b-instruct -f "%MODEL_PATH%\Modelfile-llama"
ollama run llama-3.3-70b-instruct
)
if "%choice%"=="7" (
echo 退出程序...
exit
)
REM 如果输入无效选择
echo 无效选择,请重新运行脚本。
pause
exit
4. 运行批处理文件
- 打开文件资源管理器,导航到
G:\Ollama文件夹。 - 双击
run_model.bat文件,运行批处理脚本。 - 在弹出的命令提示符窗口中,根据提示选择要运行的模型编号(1-6),或者输入
7退出。
5. 检查模型运行
- 模型运行后,你可以在 Ollama 的 Web 界面(通常是
http://localhost:11434)中查看模型的运行状态。 - 如果模型运行成功,你可以在 Ollama 的界面中与模型进行交互。
常见问题
- 模型文件未找到
确保.gguf文件已经正确放置在G:\Ollama\models文件夹中,并且Modelfile文件中的路径正确。 - 权限问题
如果运行时提示权限不足,请以管理员身份运行批处理文件。 - Ollama 未安装
如果提示ollama命令未找到,请确保 Ollama 已正确安装,并且其可执行文件路径已添加到系统的环境变量中。
通过以上步骤,你可以轻松地使用批处理文件创建和运行不同的模型。