满血性能+稳定联网,这才是极空间NAS上DeepSeek的正确打开方式
哈喽小伙伴们好,我是Stark-C~
作为25年的开年王炸,DeepSeek火爆程度至今仍在递增。有一说一,DeepSeek的AI能力确实足够惊艳,以至于大家的过分热情,导致大家每次使用的时候都会提示“服务器繁忙”。
然后就有小伙伴准备本地部署DeepSeek,但是大家所不知道的是,DeepSeek本地部署基本都是大幅缩减的蒸馏模型不说,采用的MoE 架构对硬件要求极高,哪怕是RTX 4090 也只能正常部署到DeepSeek-R1 32B(这里说的正常是指流畅运行),所以想要在NAS本地部署,能流畅1.5B就已经很不错了,满血更是天方夜谭。
那么有没有能在NAS上流畅体验满血性能+稳定联网的DeepSeek方案呢?答案当然是肯定的,要不然就不会有今天的教程了不是~。
既然本地部署满血行不通,我们可以从另一方面来解决这个问题。
现在很多互联网公司都接入了 DeepSeek 模型,并且都是满血性能的 671B 版本,而我们仅需要一个AI前端,在调用了这些互联网公司的API,就能选择 DeepSeek 模型进行对话了。
所以今天为大家分享的思路很简单:就是在极空间NAS上部署LobeChat AI前端,然后通过LobeChat调用硅基流动(SiliconFlow)公司的API密钥,最后就能选择 DeepSeek 模型对话。
关于LobeChat:
LobeChat 是一个现代化设计的开源 AI 聊天框架,旨在整合市面上众多主流的 AI 大模型(如 DeepSeek 、ChatGPT、Gemini Pro、Claude3、Mistral、LLaMA2 等),为用户提供统一的平台管理与使用体验。
关于硅基流动(SiliconFlow):
简单来说,硅基流动是一家做AI基础设施的公司,它不直接做AI产品,但它给AI提供了一个流畅运行的平台(也就是中转平台)。就比如说DeepSeek,前面说了本地部署成本奇高,但是硅基流动则高价部署了满血的DeepSeek,然后有偿的拿出来给需要的客户使用(说白了就是收割token费用)。
既然这样,市面那么多AI中转平台的公司我为什么给大家推荐它?主要是它目前为所有新用户提供了14元的体验金,差不多2000万Tokens,足够我们免费使用很长一段时间了。
🔺先直接度娘“硅基流动”,第一个“统一登录”便是,进去后使用自己的手机号注册一个账户就可以了。注册很简单,手机号和验证码就可以,没什么其它要求。
🔺注册完毕后进入后台,在【余额充值】就能看到赠送的14元余额,约等于2000万Tokens,这也足够我们使用很长一段时间了。
🔺然后咱们点击“API秘钥”,选择“新建API秘钥”。
🔺随意为该秘钥添加一个描述(命名),比如我这里是为了在LobeChat上使用,所以就描述为“LobeChat”。
🔺完成后就得到了一个待用的API秘钥,稍后需要的时候直接过来复制即可。
然后来到极空间这边部署LobeChat。因为LobeChat需要独立的子网,极空间的Docker管理器部署比较麻烦,所以直接启用命令的方式一键部署。
🔺首先开启极空间的SSH,位置在“系统设置--远程协助/SSH”。
🔺然后使用终端工具连接极空间NAS,进来之后先输入命令“sudo -i”,再输入一遍管理员的密码(输入密码没有显示,输入完成直接回车即可),就可以切换到root账户了。
如有是新手在这不可以参考我之前发的教程:
🔺接着就可以直接输入以下部署命令:
docker run -d -p 3210:3210
-e ACCESS_CODE=123456
--name lobe-chat
lobehub/lobe-chat
以上代码只要本地端口不冲突即可,同时因为众所周知的网络原因,拉取镜像的时候需要提前配置好可用网络。
🔺如果没什么问题,回到极空间的Docker管理器,可以看到LobeChat容器已经正常运行中。
🔺接着浏览器访问【极空间 IP:端口】的方式打开LobeChat容器后台,进来之后点击右上角的“会话设置”。
🔺选择“语言模型”,将不需要的模型直接手动关闭了。
🔺只开启硅基流动(SiliconFlow)的模型,然后将前面我们在硅基流动后台得到的API秘钥复制粘贴到API key方框内,其它的默认即可。完成后点击右下角的“检查”按钮,如果检查通过就说明没问题了。
🔺这个时候可以顺便在“系统助手”这里将所有的模型都更改为“DeepSeek-R1”。
🔺这个时候就能回到LobeChat首页,点击聊天方框的“模型”图标,选择需要的DeepSeek模型,就可以直接使用了。
🔺最后我们就可以直接聊天了,选择“随便聊聊”,可以看到它目前显示的模型便是DeepSeek-R1。
🔺随便问个问题,比如问它是谁?它确实是“深度思考”了4.9s,回答自己是深度求索(DeepSeek)。有个细节是它还在聊天框位置有个Tokens统计。
🔺然后问它极空间NAS怎么样,它“深度思考” 的时间略长,达到102s,好在没有直接使用DeepSeek服务端的“服务器繁忙”。
🔺当然,咱们今天文章的重点是体验满血性能+稳定联网的DeepSeek,因为我们使用是硅基流动AI中转平台,所以它可选的AI模型其实是非常多的。
🔺至于LobeChat其实还不限于聊天,还有很多其它功能,比如支持文件管理,但是需要域名模式才可以启用。
PS:因为今天的场景主要是个人使用,部署的时候我为了方便部署的是端口模式,所以这里显示的是不支持文件管理。
🔺同时它还有很多助手、插件、模型、模型服务商可以提供更多个性化的选择,有兴趣的小伙伴可以自行挖掘。
🔺如果想要外网访问也非常简单,直接将LobeChat容器的后台放到极空间的【远程访问】中即可。
🔺然后不管是外网的手机或者电脑,直接打开极空间【远程访问】就能直接使用。但是不知为什么,它并没有保存我们本地端的设置,我们还需要和前面一样,在“会话设置”中选择硅基流动模型,贴上API才可以。
🔺最后就能正常使用了。
不可否认,DeepSeek的横空出世确实为AI领域带来巨大的冲击,DeepSeek的出现确实为我们生活和工作带来极大便利,但是想要流畅无障碍使用目前看来确实不易,至于本地原生部署说实话折腾玩玩可以,效果和性能完全就是大打折扣,上万配置也只能跑个 32B残血版,完全没必要。
所以咱们使用今天的方案,在极空间NAS中部署AI前端接入DeepSeek模型,能体验到满血性能+稳定联网不说,还能随时随地外网使用。所以说,这才是DeepSeek的正确打开方式没毛病吧~。
随着极空间不久前正式发布高性能四盘位NAS私有云Q4与随身智能魔盒T2S两款新品,极空间的产品线也是再次扩大,继续为用户带来更易用、更智能、更安全、更强大的私有云产品与智能存储解决方案。如果你近期有入手NAS的计划,不妨关注下极空间。
好了,以上就是今天给大家分享的内容,我是爱分享的Stark-C,如果今天的内容对你有帮助请记得收藏,顺便点点关注,咱们下期再见!谢谢大家~
值友8919671839
校验提示文案
jueze
校验提示文案
jueze
校验提示文案
值友8919671839
校验提示文案