1. 教程概述
本教程将指导您在 Windows 系统上自动安装 Ollama(用于运行本地大模型)、DeepSeek-R1(一个 AI 语言模型)和 Open WebUI(用于管理 Ollama 模型的 Web 界面)。
通过 批处理脚本,您可以一键完成以下任务:
- 检查 Ollama 是否已安装,若未安装则自动安装
- 检查 DeepSeek-R1 模型是否已下载,若未下载则自动拉取
- 检查 Open WebUI 是否已安装,若未安装则自动安装
- 启动 Open WebUI 服务,方便在浏览器中访问
2. 运行环境要求
- Windows 10 / 11
- WinGet(Windows 包管理器,默认已安装)
- Python 3.x & pip(用于安装 Open WebUI)
依赖项检查
在运行脚本前,确保系统满足以下条件:
- 在 终端(CMD 或 PowerShell) 中运行
winget --version,若成功显示版本号,表示已安装 - 在 终端 中运行
python --version和pip --version,确保 Python 及 pip 可用
如果系统未满足这些条件,请手动安装相应的依赖项。
3. 批处理脚本解析
脚本文件:install_ollama_and_openwebui.bat
@echo off
echo 检查 Ollama 是否已安装...
where ollama >nul 2>nul
if %errorlevel% neq 0 (
echo Ollama 未安装,正在安装...
winget install Ollama --silent --accept-package-agreements --accept-source-agreements
) else (
echo Ollama 已安装,跳过安装步骤。
)
echo 检查 Deepseek-r1 模型是否已下载...
ollama list | findstr /I "deepseek-r1" >nul
if %errorlevel% neq 0 (
echo Deepseek-r1 模型未安装,正在下载...
ollama pull deepseek-r1
) else (
echo Deepseek-r1 模型已存在,跳过下载。
)
echo 检查 Open WebUI 是否已安装...
pip show open-webui >nul 2>nul
if %errorlevel% neq 0 (
echo Open WebUI 未安装,正在安装...
pip install open-webui
) else (
echo Open WebUI 已安装,跳过安装步骤。
)
echo 正在启动 Open WebUI 服务...
open-webui serve
echo Open WebUI 已启动,访问 http://localhost:8080
pause
4. 运行步骤
- 下载并运行脚本
- 在 Windows 电脑上,新建一个文本文件,将上述代码复制进去,并保存为
install_ollama_and_openwebui.bat - 右键点击脚本 → 以管理员身份运行
- 在 Windows 电脑上,新建一个文本文件,将上述代码复制进去,并保存为
- 执行流程解析
- 第一步:检查 Ollama 是否已安装,若未安装则通过
winget进行静默安装 - 第二步:检查 DeepSeek-R1 模型是否已下载,若未下载则通过
ollama pull获取 - 第三步:检查 Open WebUI 是否已安装,若未安装则通过
pip install安装 - 第四步:启动 Open WebUI,提供基于 Web 的 AI 模型管理界面
- 第五步:启动完成后,在浏览器中访问 http://localhost:8080
- 第一步:检查 Ollama 是否已安装,若未安装则通过
5. 故障排除
| 问题 | 解决方案 |
|---|---|
执行脚本时 winget 命令找不到 | 请确保 Windows 版本支持 WinGet(运行 winget --version 检查) |
python 或 pip 命令未找到 | 请安装 Python,并添加到系统环境变量 |
ollama 未成功安装 | 可能需要手动安装,访问 Ollama 官网 下载 |
open-webui 启动失败 | 尝试 pip install --upgrade open-webui 进行更新 |
6. 结论
通过该 批处理脚本,可以快速自动化 Ollama、DeepSeek-R1 以及 Open WebUI 的安装与配置。安装完成后,您可以直接在 Web 界面上管理本地 AI 模型,提高使用效率。
如果您对 AI 本地推理感兴趣,可以继续探索 Ollama 支持的更多模型,并使用 Open WebUI 进行可视化操作! 🚀