前言
最近国产AI大模型Deepseek的爆火让大家都想尝试用一下来看看它到底有多好用,但是随着使用的人越来越多,大家也经常会发现提问时会得到服务器繁忙,请稍后再试的回复。其实我们完全可以在自己的Windows电脑上本地部署Deepseek大模型,并在浏览器中添加一个Page Assist插件来快速使用Web UI页面来与模型聊天,与之前介绍过的Open Web UI或Anything LLM相比,使用这款插件的门槛更低,新手也能立刻上手。
Page Assist浏览器插件,不用安装 Docker 环境,也不用安装 Python 环境。可以在Chrome浏览器的应用商店中在线安装,也可以下载应用程序后离线安装。然后再结合cpolar内网穿透工具就能轻松实现在任何有网络的设备中使用浏览器与DeepSeek在网页中对话,享受更方便快捷的AI交互体验。无需公网IP也不用准备云服务器那么麻烦。搭建过程非常简单,下面就来具体演示一下!
1. 本地部署Ollama+DeepSeek
如果您的Windows设备中还没有安装Ollama与DeepSeek,这篇教程:《Windows本地部署deepseek-r1大模型并使用web界面远程交互》 中有详细的安装步骤。
简单总结:
首先要访问Ollama的官网,下载适配你的操作系统的客户端,安装后用cmd
打开Windows系统自带的终端界面:
然后回到Ollama的官网,找到你想要下载的各种量级的模型对应的模型下载命令:
比如我这里下载1.5b的轻量级deepseek模型,就在cmd终端中执行这个命令就能安装了:
ollama run deepseek-r1:1.5b
现在我们就已经能够在本地Windows电脑上通过ollama正常使用deepseek-r1模型与AI进行聊天了!
2. Page Assist浏览器插件安装与配置
Github 官网:https://github.com/n4ze3m/page-assist
首先打开Chrome浏览器,进入应用商店:
在顶部搜索框中搜索Page Assist:
点击添加至Chrome:
在弹出的提示框中点击添加扩展程序:
添加后在浏览器右上角的扩展程序图标中打开它即可看到Web UI界面了:
点击右上角设置,可以修改界面语言显示:
PS:如果访问不了chrome应用商店添加插件,我已打包插件文件到网盘,需要的可以自取:
链接: https://pan.baidu.com/s/1gzrgj1os64-VDOm1oWO0dA?pwd=6666 提取码: 6666
下载好插件文件后,在chrome浏览器中输入:
chrome://extensions/
进入扩展程序安装界面将插件文件拖入这个界面,点击安装扩展程序即可。
![]()
3. 简单使用演示
回到Page Assist的Web UI主界面,点击上方模型选择可以看到刚才本地部署的deepseek-r1:1.5b:
选择好模型后即可在下方输入框中与deepseek聊天啦!
底部联网开关打开,还可以进行联网搜索:
点击左上角展开侧边栏图标可以看到聊天历史记录:
点击右上角三个点按钮,可以复制与下载回答,支持多种格式:
复制与下载按钮旁边是当前聊天模型设置
功能,在这里可以添加临时系统提示,控制请求后模型在内存中保持的时间,温度值,随机种子值,上下文数量,最大令牌数等参数信息。
点击最右侧的设置按钮,可以看到这款插件虽然只是一个webui服务,但支持的功能真的非常多,而且非常实用:
除了一些常规使用设置,还可对网络搜索
进行管理:
支持对文本转语音
进行设置:
进入ollama设置
,还可以对模型地址进行修改,这样就能实现同一局域网内的其他小伙伴如果在浏览器中安装了Page Assist插件后,也可以直接访问你在本地部署的DeepSeek大模型了!
4. 远程调用大模型
同一局域网内其他人使用Page Assist浏览器插件和Anything LLM远程调用你在本地部署DeepSeek大模型的方法几乎一样,首先也需要对ollama进行一下环境变量设置!
打开cmd终端,执行下面两个命令:
setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"
然后点击电脑桌面右下角的ollama图标退出并重启服务:
重新开启ollama服务后,同一局域网下的小伙伴在Page Assist插件的ollama设置中将地址改为你的电脑IP加上端口号11434,点击保存后,就能使用你在本地部署的大模型进行网页聊天了。
PS:如何查询我的本机IP?打开cmd终端,输入ipconfig,回车!
5. 安装内网穿透
不过我们目前只能在同一个局域网内多人使用安装了Page Assist插件的浏览器远程访问本地部署的deepseek大模型,如果想让异地好友也能使用你在部署的deepseek大模型应该怎么办呢?很简单,只要安装一个cpolar内网穿透工具就能轻松实现远程访问内网主机中部署的服务了,接下来介绍一下如何安装cpolar内网穿透。
首先进入cpolar官网:
cpolar官网地址: https://www.cpolar.com
点击免费使用
注册一个账号,并下载最新版本的cpolar:
登录成功后,点击下载cpolar到本地并安装(一路默认安装即可)本教程选择下载Windows版本。
cpolar安装成功后,在浏览器上访问http://localhost:9200,使用cpolar账号登录,登录后即可看到配置界面,结下来在WebUI管理界面配置即可。
接下来配置一下 Ollama 的公网地址,
登录后,点击左侧仪表盘的隧道管理——创建隧道,
- 隧道名称:ollamads(可自定义命名,注意不要与已有的隧道名称重复)
- 协议:选择 http
- 本地地址:11434
- 域名类型:选择随机域名
- 地区:选择China Top
隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是http 和https:
现在你的好友在安装了Page Assist插件的Chrome浏览器的ollama设置中使用上面的任意一个公网地址替换刚才IP加端口号的地址,点击保存按钮后,就可以实现随时随地远程访问你在本地部署的deepseek大模型聊天了!使用了cpolar的公网域名,无需自己购买云服务器,轻松搞定跨网络环境远程访问本地服务!
小结
为了方便演示,我们在上边的操作过程中使用cpolar生成的HTTP公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在24小时内会发生随机变化,更适合于临时使用。
如果有长期使用Chrome浏览器远程访问本地部署的DeepSeek等大模型,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来配置公网地址。
6. 配置固定公网地址
接下来演示如何为ollama服务配置固定的HTTP公网地址,该地址不会变化,方便分享给别人长期访问你部署的大模型,而无需每天重复修改服务器地址。
配置固定http端口地址需要将cpolar升级到专业版套餐或以上。
登录cpolar官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留,保留成功后复制保留的二级子域名名称:
保留成功后复制保留成功的二级子域名的名称:myolds,大家也可以设置自己喜欢的名称。
返回Cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:ollamads,点击右侧的编辑:
修改隧道信息,将保留成功的二级子域名配置到隧道中
- 域名类型:选择二级子域名
- Sub Domain:填写保留成功的二级子域名:
myolds
点击更新
(注意,点击一次更新即可,不需要重复提交)
更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:
最后,我们在Chrome浏览器的Page Assist插件ollama设置界面中使用上面的任意一个固定的二级子域名公网地址替换刚才的随机公网地址,现在开始就不用每天都更换公网地址来远程访问本地部署的大模型了。
以上就是如何在Windows系统本地安装Ollama大模型工具与deepseek r1模型,使用Chrome浏览器安装Page Assist插件快速搭建web页面,然后结合cpolar内网穿透工具实现随时随地远程访问本地部署的大模型,并配置固定不变的二级子域名公网地址与AI聊天的全部流程,感谢您的观看,有任何问题欢迎留言交流。