ai - 自行搭建huggingface deepseek r1 ollama openwebui chatbox siliconflow.cn 硅基流动

访问量: 31

refer to:

https://www.bilibili.com/video/BV1ux4y1Q7zN/?spm_id_from=333.337.search-card.all.click

https://www.bilibili.com/video/BV1ux4y1Q7zN/  轻松搭建本地大模型 ollama + openwebui

前提:你的机器需要有一个gpu, 否则会有问题,最好是n卡 . 起步是 2060, 也可以用 p40这样的计算卡。

ollama : 用来运行大模型的,跟docker比较像. https://github.com/ollama/ollama

openwebui: 用来运行大预言模型的交互端。 一个web应用。https://github.com/open-webui/open-webui

deepseek: 国产的大模型,特别牛逼。 r1 是最新版本。https://www.deepseek.com/

不同的参数: 越大越厉害。 不过需要消耗的资源也越多. , 17b, 7b, 80b

本地化部署:可以问平时不方便问的问题,例如黄堵独。

蒸馏,nsfw: not safe for work. 对于工作不安全,意思是啥都可以问,不限制

线上服务: 硅基流动 , 注册后申请个api,使用chatbox 即可使用。

硅基流动:siliconflow: https://cloud.siliconflow.cn/models

https://ollama.com/download/linux

对于Linux,貌似安装起来麻烦。

1. 使用 api + web ui 的形式(最简单,不需要任何硬件)

1.1 注册硅基流动:

1.2 获得api

1.3 打开 chatbox的web端版本

https://web.chatboxai.app/

1.4  设置相关的api, 供应商,大模型等。 人家都帮我们调整好了。


2. 在本地运行大模型(我使用了windows )  OLLAMA

https://ollama.com/download/linux

2.1 下载  ollama 的windows版本

2.2.a 安装之。(简单的点一下install就好了)

2.2.b linux下面也是一样。

2.3 这个东西安装好之后,就是个命令行,用起来跟docker是一样的。

>>> Installing ollama to /usr/local
>>> Downloading Linux amd64 bundle
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.

2.4 ollama上找到你想要的模型,例如   https://ollama.com/library/qwq   qwq 推理模型

选择这个deep-seek 7b的

因为我只有4G显存

2.5 运行ollama

ollama run deepseek-r1:7b 

我这里下载速度很快(11MB以上)


2.6 可以在命令行中使用了:

2.7 使用 openwebui 来作为web客户端:

我的windows下的docker, 只能运行这个命令:

docker run -p 3030:8080 -e WEBUI_AUTH=False -v /c/workspace/docker_folder/openwebui:/app/backend/data --name open-webui4 ghcr.io/open-webui/open-webui:main

如果加上了 --gpus all ,就会报错。

C:\Users\siwei>docker run -p 3030:8080 --gpus all -e WEBUI_AUTH=False -v /c/workspace/docker_folder/openwebui:/app/backend/data --name open-webui4 ghcr.io/open-webui/open-webui:main
docker: Error response from daemon: failed to create task for container: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: error running hook #0: error running hook: exit status 1, stdout: , stderr: Auto-detected mode as 'legacy'
nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown.

所以我就索性不加了,一样可以运行 openwebui

2.8 就可以使用了:

docker 命令行中,看到这一句,就表示可以使用了:

这个是打开深度思考的开关:

订阅/RSS Feed

Subscribe