博海拾贝 文摘 本地部署DeepSeek-R1模型示例

本地部署DeepSeek-R1模型示例

1.1 DeepSeek用户快速增长,官方服务器拥挤严重

自2025年1月DeepSeek R1模型上线以来,引发了大量的关注和讨论,1月最后一周用户数呈现爆发式增长,仅仅7天即完成了1亿用户增长,成为超越ChatGPT的另一现象级产品。特别是春节假期期间,DeepSeek由于其低成本、高性能、开源的特点快速出圈,并在春节后迅速引发了各行业的加速部署,国产AI进程快速推进。

与此同时,DeepSeek相关板块在春节后出现了大幅上涨,Wind DeepSeek指数在春节后的一周半时间累计涨幅达48.32%,同时也带动了上下游产业链公司的大幅上涨。

我们认为,DeepSeek对各行业的影响才刚刚开始。对大型企业而言,由于数据敏感性以及需要微调模型等原因,普遍会进行私有化部署。就证券基金行业来看,华安基金、汇添富基金等多家头部公募基金公司,以及中信建投、国泰君安等多家头部证券公司,都已完成了DeepSeek私有化部署,将赋能数字化转型与业务效率提升。

1.2 本地部署DeepSeek-R1模型示例

高速增长的用户使得DeepSeek官网访问量激增,同时由于其自身算力限制,近期DeepSeek官网及APP频繁出现服务繁忙的提示。

由于DeepSeek系列模型已开源并附有详细的文档说明,理论上任何人都可以进行私有化部署。然而由于高性能版本的DeepSeek模型对本地算力的要求极高,对普通用户而言难以实现高配版本模型落地。对于私密性要求较高且模型性能要求没那么高的用户,可以尝试通过如下步骤来进行私有化部署低配版模型:

1)准备工作:安装Ollama

首先需要根据个人电脑来选择合适的Ollama版本,通过Ollama官网直接下载对应的版本并安装,安装完成之后启动运行Ollama。

2)安装部署:安装DeepSeek R1

回到Ollama官网,找到DeepSeek-R1模型,打开之后即可看到DeepSeek-R1模型的1.5b-671b不同量级的版本,此时需要特别注意要部署的电脑配置,如果配置较为普通,建议选择1.5b或7B版本。
打开电脑命令行,输入Ollama提供的对应模型的部署命令,运行并等待即可,待全部运行结束之后即已完成部署。部署完成的DeepSeek R1模型以命令行的方式运行,用户可以直接进行文字交互。

以上步骤部署的DeepSeek模型无法进行联网测试,且命令行交互方式不够友好,用户可以通过多种方式为其安装图形用户界面。此处我们以Page Assist为例,Page Assist是一款开源的浏览器扩展程序,旨在通过本地AI模型提供直观的交互界面,使用户能够在任何网页上与AI模型进行对话和交互,支持Chrome、Edge、Firefox等主流浏览器。以Firefox为例,直接在浏览器扩展窗口搜索Page Assist,添加扩展即可。添加完成之后我们打开Firefox浏览器扩展标签,即可自动关联到我们本地的Ollama,选择嵌入本地模型,选择部署的DeepSeek-R1,即可在浏览器内进行交互,同时也可进行联网搜索。

1.3 相较而言云厂商提供的高配版DeepSeek模型性价比更高

本地部署模型固然有非常多的好处,但其对资源的消耗非常明显,特别是参数相对较大的模型,需要专业级显卡支持,如中等模型32b,微调显存需求达到128-160GB,可能需要两块A100显卡搭配才能满足,对于普通用户来说本地部署的意义并不大。

此外,随着DeepSeek关注度的不断提升,国内云厂商如阿里云、百度智能云、腾讯云、硅基流动与华为云等都迅速接入了DeepSeek全系列模型。对于普通个人用户,在DeepSeek算力大幅提升之前,仍然有非常多的途径来使用高配版的DeepSeek R1模型。

来源:春晓量化

本文来自网络,不代表博海拾贝立场,转载请注明出处:https://www.bohaishibei.com/post/97691/
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
Telegram
返回顶部