Skip to content

AutoDL 部署 Ollama 和 OpenWebUI

在这篇文章中将说一下啊在AutoDL中部署 Ollama 和 OpenWebUI

参考链接: - Ollama : https://github.com/ollama/ollama - OpenWebUI : https://github.com/open-webui/open-webui

1. 首先安装Ollama

最开始可以打开AutoDL的资源加速

source /etc/network_turbo

使用一键安装脚本,安装Ollama

curl -fsSL https://ollama.com/install.sh | sh

不得不说 Ollama 的作者实在是太强了,兼容性和易安装性这块无敌,我在Discord 里面问问题管理也很热情的回答

2. 然后安装 OpenWebUI

如果有 docker 安装起来会很方便,但是很遗憾,AutoDL的容器已经是Docker 开启的了,嵌套Docker 这个好像不是很方便, 如果仅仅使用 Ollama API 而使用其他机器中的 Docker 安装UI也可以,不过 好像Ollama API 没有加密和认证功能,它默认也是工作在本地,可以使用WireGuard等其他组网工具组网来保证安全的只使用OllamaAPI

算了,不写下去了,OpenWebUI 被搞得非常大,我安装半天也没安装好,反正原则上如此

git clone https://github.com/open-webui/open-webui.git  
cd open-webui/  

# Copying required .env file  
cp -RPp .env.example .env  

# Building Frontend Using Node 
# 当然默认的容器中没有nodejs 还需要自己安装,安装nodejs这里省略了
npm i  
npm run build  

# Serving Frontend with the Backend  
cd ./backend  
pip install -r requirements.txt -U  
bash start.sh

更多资料

https://mp.weixin.qq.com/s/EonqaZIKvT7vd9Yavp4tAw