AutoDL 部署 Ollama 和 OpenWebUI
在这篇文章中将说一下啊在AutoDL中部署 Ollama 和 OpenWebUI
参考链接: - Ollama : https://github.com/ollama/ollama - OpenWebUI : https://github.com/open-webui/open-webui
1. 首先安装Ollama
最开始可以打开AutoDL的资源加速
使用一键安装脚本,安装Ollama
不得不说 Ollama 的作者实在是太强了,兼容性和易安装性这块无敌,我在Discord 里面问问题管理也很热情的回答
2. 然后安装 OpenWebUI
如果有 docker 安装起来会很方便,但是很遗憾,AutoDL的容器已经是Docker 开启的了,嵌套Docker 这个好像不是很方便, 如果仅仅使用 Ollama API 而使用其他机器中的 Docker 安装UI也可以,不过 好像Ollama API 没有加密和认证功能,它默认也是工作在本地,可以使用WireGuard等其他组网工具组网来保证安全的只使用OllamaAPI
算了,不写下去了,OpenWebUI 被搞得非常大,我安装半天也没安装好,反正原则上如此
git clone https://github.com/open-webui/open-webui.git
cd open-webui/
# Copying required .env file
cp -RPp .env.example .env
# Building Frontend Using Node
# 当然默认的容器中没有nodejs 还需要自己安装,安装nodejs这里省略了
npm i
npm run build
# Serving Frontend with the Backend
cd ./backend
pip install -r requirements.txt -U
bash start.sh