专栏名称: 新技术法学
究新技术法理,铸未来法基石
目录
相关文章推荐
元素和同位素地球化学  ·  《人类简史》人性的底层逻辑及其与文明发展的悖论 ·  15 小时前  
元素和同位素地球化学  ·  《人类简史》人性的底层逻辑及其与文明发展的悖论 ·  15 小时前  
文汇学人  ·  张巍 | 史家修昔底德的“艺术散文” ·  5 天前  
为你读诗  ·  平生不读《道德经》,读书万卷也枉然 ·  3 天前  
为你读诗  ·  中国书法的智慧所在,不止坐落笔端 ·  3 天前  
51好读  ›  专栏  ›  新技术法学

法律AI基础|(一)DeepSeek R1 PC端本地化部署全攻略

新技术法学  · 公众号  ·  · 2025-02-04 19:32

正文

AI&LAW

法律人的

DeepSeek使用指南

# AI界的“新晋顶流”,你还没上车?

最近,AI圈又双叒叕炸锅了!

这次的主角不是ChatGPT,也不是Sora,

而是咱们国产的“新晋顶流”——DeepSeek R1!

这匹黑马横空出世,瞬间引爆全网,

成为科技圈和吃瓜群众们热议的焦点。

(一)PC端本地化部署全攻略


DeepSeek为什么这么火?

・实力派选手,功能强大

DeepSeek R1性能对标OPEN AI o1正式版,拥有强大的自然语言处理能力,能写代码、写文案、翻译、问答…几乎无所不能!

・亲民路线,人人都能用得起

DeepSeek R1不仅功能强大,而且价格实惠,甚至还能免费体验!凭借128K上下文窗口和每百万token仅2.19美元的运营成本,先进的AI能力变得更加平易近人。

・开源精神,开发者们的福音

开放了部分代码和模型,赋能AI社区,支持众多开发者基于DeepSeek R1进行二次开发,创造出更多有趣、实用的个性化应用。


对于法律人意味着什么?

让我们试举三例:

面对一份复杂的合同,DeepSeek R1能够帮你完成合同审查,并标注潜在的风险点;

面对堆积的案卷材料,DeepSeek R1能够帮你快速提取关键信息生成案件摘要;

面对法律论文的研究,DeepSeek R1能够帮你瞬间生成相关案例和文献综述。

法律科技正在以前所未有的速度融入法律行业。 它既是机遇,也是挑战,关键在于我们如何把握。还在等什么?赶紧上车,一起探索法律科技的未来吧!


01

为什么选择本地化部署?

数据安全

运行环境和数据存储都置于本地服务器或个人电脑上,无需将数据上传至云端,从根本上杜绝了数据泄露的风险。

性能提升

无需依赖网络传输,规避网络环境影响,发挥本地硬件的性能优势获得更快的响应速度和更流畅的使用体验。

定制化开发

更大的二次开发自由度。可以根据自身需求,对模型进行微调或开发新的功能模块,打造符合自身业务场景的AI应用。

成本可控

相比于按使用量付费的云端服务,本地化部署可以避免长期使用带来的较高费用,尤其适合需要频繁使用模型的用户。

02

选择合适的模型

在正式开启部署之旅之前,我们还需要解决一个关键问题: 选择适合PC的模型。 DeepSeek R1提供了多种模型版本,我们既要保证模型能够流畅运行,又要充分发挥PC的性能,避免资源浪费。

模型版本对比

入门级(1.5b版本):适合初步测试

中端(7b,8b和14b版本):平衡的性能

高性能(32b和70b版本):最大能力


硬件配置评估

CPU: 建议选择主频较高、核心数较多的CPU,例如Intel i5及以上或AMD Ryzen 5及以上。

内存: 建议至少配备16GB内存,以确保模型能够流畅运行。

显卡: 如果您的PC配备独立显卡,建议选择显存较大的显卡,例如NVIDIA GTX 1060及以上,可以加速模型推理速度。


需求评估

如果您只是需要进行一些简单的文本处理,那么基础版(1.5b)可能就足够了;如果您需要进行更复杂的任务,例如法律文书撰写、案件分析等,那么建议选择标准版或高级版。本系列推文将以入门级(1.5b版本)为例进行部署。


03

快速上手部署体验

这里我们将介绍一种官方推荐且简单易用的部署方法——Ollama部署法,零基础也能轻松上手。

Ollama下载与管理模型

在Ollama官网https://ollama.com/下载对应操作系统的安装包。Ollama是一款开源的模型部署工具,它可以帮助用户快速将各种机器学习模型部署到本地环境中。

Ollama具有轻量级、易操作和跨平台的优点,支持多种操作系统。(本教程中mac与windows系统只有配置OllamaAPI设置环境变量时不同,其余步骤均相同)

下载完成后进行解压安装。

安装完成后,mac设备在本地打开终端;

windows设备,可以按win+R快捷键,输入cmd,打开命令提示符,后续二者的操作相同。

在终端输入:

ollama --version

能输出版本号(如ollama version is 0.5.7)说明安装成功。

在终端执行:

ollama pull deepseek-r1:1.5b

获取模型文件。

如果你选择的是其他模型(例如7b),将上方命令中的 1.5b 对应修改为 7b 即可。

下载完成之后,可通过输入:

ollama list

命令来管理本地的所有模型。

在终端执行:

ollama run deepseek-r1:1.5b

如果部署的其他版本的大模型(如7b),需将这里的 1.5b 对应修改。

命令执行完成之后,就可以通过命令行和大模型进行交互。这里我们用中文输入“你好”,可以看到已经得到了回复。

退出可输入: /bye

常见问题汇总及解决方法:

・显示 max retries exceeded: EOF

解决方法:网络问题导致模型拉取失败,可多次运行命令:

ollama run deepseek-r1:1.5b

直至模型下载完成。

・Ollama 启动失败

解决方法:检查模型文件路径是否正确,并确保模型文件完整无损。

・模型加载速度慢

解决方法:关闭其他占用系统资源的程序,或者升级硬件配置。

・模型响应速度慢

解决方法:尝试使用更小的模型版本,或者优化模型参数。

使用ChatboxAI进行网页交互

在成功部署DeepSeek R1之后,您可能希望更加可视化、用户交互友好地使用模型,此时,ChatboxAI便是一个理想的选择。访问ChatboxAI官网并选择网页版:

https://chatboxai.app/zh

初次使用可能会遇到这样的界面,我们选择下方的选项即可。

之后选择Ollama。

此时进入了设置界面,我们可以先将语言设置为中文,再继续其他配置。

回到模型界面,确认我们选择了Ollama API。

之后不同系统的操作略有不同!

Mac上我们需要再次打开终端,逐次输入4行 命令并回车:

pkill ollama

launchctl setenv OLLAMA_HOST "0.0.0.0"

launchctl setenv OLLAMA_ORIGINS "*"

ollama serve

重新打开Ollama 应用,使配置生效。







请到「今天看啥」查看全文