专栏名称: 程序员鱼皮
鹅厂全栈开发,持续分享编程技法和实用项目
目录
相关文章推荐
鲁中晨报  ·  柴清林被查!刚刚,山东省纪委监委通报 ·  11 小时前  
山东省交通运输厅  ·  两会受权发布|政府工作报告 ·  12 小时前  
鲁中晨报  ·  突发!5.0级地震 ·  13 小时前  
51好读  ›  专栏  ›  程序员鱼皮

2分钟学会 DeepSeek API,竟然比官方更好用!

程序员鱼皮  · 公众号  ·  · 2025-02-21 11:49

正文

大家好,我是程序员鱼皮。最近 DeepSeek AI 太火了,效果也很强,但致命问题是 不稳定 , 经常给我返回 服务器繁忙,请稍后再试 ,甚至让我怀疑自己被杀熟了。

也有网友说,第一次使用成功率很高,第二次可能就繁忙了。。。

那有什么办法稳定使用 DeepSeek 么?

作为一名程序员,首先想到的是:既然 DeepSeek 都开源了,那我直接本地部署一个不就行了吗?

可是满血版的 DeepSeek-R1 光模型就占了 404GB 空间,个人电脑根本负担不起呀!我就要稳定使用满血版 DeepSeek,怎么办呢?

我们可以使用第三方平台提供的接口服务,大公司帮我们部署了满血版 DeepSeek,我们直接通过 API 调用就行。下面只需 2 分钟,教你如何使用 API 来调用满血版的 DeepSeek!

学会之后,可以接入 DeepSeek AI 到自己项目中、写到简历上,面试官看到也会眼前一亮~

建议观看视频版教程:https://bilibili.com/video/BV1zVAHesEv7

第三方平台选择

目前支持 DeepSeek 的主流第三方平台有硅基流动、OpenRouter、腾讯云、阿里云、百度云、火山引擎等等,看来各大厂都积极入局了。接下来我会以其中 2 个平台为例,用 Java 来调用 AI 完成智能问答,学会之后换个平台也是易如反掌。

最后我还会给大家分享一个详细的第三方平台对比表格,大家可以按需选择。

硅基流动

汇集了很多类 AI 大模型的云服务平台。进入模型广场,选择满血版的 DeepSeek-R1 模型:

注意,调用 AI 大模型通常是按照消耗的 token 数计费的,不过新用户会赠送一定额度,也够我们学习和日常使用了。

查看模型对应的 API 文档,选择对应的编程语言,就能看到发送请求的示例代码了,可以直接复制使用:

随便新建一个干净的 Java Maven 项目,引入发送请求所需的 Unirest 库:

<dependency>
    <groupId>com.konghqgroupId>
    <artifactId>unirest-javaartifactId>
    <version>3.14.1version>
dependency>

然后粘贴示例代码到主类中。我们首先需要修改代码中的鉴权 token,在官网找到 API 密钥,新建一个 API 密钥,注意不要暴露出去哦!然后复制到代码中。

接下来就可以指定想用的模型、要输入给 AI 的提示词,最后打印出 AI 响应的结果即可。就这么几行代码:

HttpResponse response = Unirest.post("https://api.siliconflow.cn/v1/chat/completions")
        .header("Authorization""Bearer " + "你自己的 APIKey")
        .header("Content-Type""application/json")
        .body("{\n  \"model\": \"deepseek-ai/DeepSeek-V3\",\n  \"messages\": [\n    {\n      \"role\": \"user\",\n      \"content\": \"程序员鱼皮是谁?\"\n    }\n  ],\n  \"stream\": false,\n  \"max_tokens\": 512,\n  \"stop\": [\n    \"null\"\n  ],\n  \"temperature\": 0.7,\n  \"top_p\": 0.7,\n  \"top_k\": 50,\n  \"frequency_penalty\": 0.5,\n  \"n\": 1,\n  \"response_format\": {\n    \"type\": \"text\"\n  },\n  \"tools\": [\n    {\n      \"type\": \"function\",\n      \"function\": {\n        \"description\": \"\",\n        \"name\": \"\",\n        \"parameters\": {},\n        \"strict\": false\n      }\n    }\n  ]\n}")
        .asString();
System.out.println(response.getBody());

我们来 Debug 一下,稍等一会儿,就能看到 AI 的回复了:

不过我尝试的这段时间,这个平台输出速度比较慢、也不是很稳定吧。

火山引擎

我们再换一个平台 —— 火山,首先进入模型广场,选择满血版的 DeepSeek-R1 模型:

点击立即体验,就可以和 AI 对话了,新用户也会赠送一定 tokens 额度。我们选择 API 接入:

创建一个接入点:

注意,如果还没有开通模型,需要选择 DeepSeek-R1 模型,点击立即开通:

开通成功后,回到之前的页面,确认接入。然后就进入到了 API 调用页面,先创建一个自己的 API Key,保存好等下会用到。

然后我们选择官方的 SDK 调用示例,获取到对应编程语言的示例代码:

首先在项目中引入 SDK 和相关依赖,注意要修改依赖的版本号(不要直接用 "LATEST"):

<dependency>
    <groupId>com.volcenginegroupId>
    <artifactId>volcengine-java-sdk-ark-runtimeartifactId>
    <version>0.1.151version>
dependency>

然后复制示例代码,修改 API Key 和输入给 AI 的提示词,然后运行一下试试:

浇给!很快,AI 就给出了回复,实际测试下来比较稳定、响应速度也比较快。







请到「今天看啥」查看全文