DeepSeek-V4终于来了,一手实测看看有多强

作者: admin 分类: 评论分析 发布时间: 2026-04-25 10:02

今天上午,DeepSeek终于发布了DeepSeek-V4预览版,比坊间传闻预想的春节期间发布,晚了差不多三个月。

不过就像卡兹克说的,AI行业真不是人干的,一周之内发布7到8个新模型,一天之内发布3个,卷得要死,根本学不完。

其实今天还发布了GPT-5.5,老马实在测不过来了,先体验一下咱们的国产新模型到底如何。

DeepSeek-V4已经在国产芯片华为昇腾AI处理器上完成适配和部署,完全基于国产显卡训练,这意味着国产模型+国产算力已经成为了标志性的组合。

B站的昇腾CANN华为账号,今天晚上7点还有一场关于DeepSeek-V4首发的直播,感兴趣的小伙伴可以去下面地址准时围观:

space.bilibili.com/1190614918

说回DeepSeek-V4,主要上线了两个版本,分别是DeepSeek-V4-Pro和DeepSeek-V4-Flash,两个版本均支持非思考模式和思考模式。

DeepSeek-V4目前已经可以在DeepSeek的官网:https://chat.deepseek.com,以及官方APP中进行免费体验使用。

API已同步更新,支持OpenAI Chat Completions和Anthropic接口。调用时需将model参数改为deepseek-v4-pro或deepseek-v4-flash,API调用价格如下:

模型调用与参数调整方法请参考 API 文档:
https://api-docs.deepseek.com/zh-cn/guides/thinking_mode

DeepSeek-V4-Pro:参数量1.6T,激活参数量49B,预训练数据33T,上下文长度1M(百万字)。在官网和App中对应“专家模式”。

DeepSeek-V4-Flash:参数量284B,激活参数量13B,预训练数据32T,上下文长度1M。对应“快速模式”。

DeepSeek-V4主要核心性能亮点有以下:

1、Agent能力:V4-Pro的Agent能力(特别是Agentic Coding)相比前代显著增强,达到开源模型最佳水平。

DeepSeek内部员工实际真实使用评测反馈,其体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。

2、世界知识:V4-Pro在世界知识测评中大幅领先其他开源模型,稍逊于顶尖闭源模型Gemini-Pro-3.1。

3、推理性能:在数学、STEM、竞赛代码等推理评测中,V4-Pro超越所有已公开评测的开源模型,比肩世界顶级闭源模型。

4、结构创新与长上下文: 模型采用了一种全新的注意力机制(在token维度进行压缩,结合DSA稀疏注意力),实现了全球领先的百万字长上下文能力,并大幅降低了计算和显存需求。

1M(1百万)上下文将成为DeepSeek所有官方服务的标配。

5、其它方面:模型针对Claude Code、OpenClaw等主流Agent产品进行了适配和优化,在代码、文档生成等任务上表现提升。

模型权重已在Hugging Face和ModelScope平台开源,技术报告也已发布。

DeepSeek-V4 模型开源链接:

https://huggingface.co/collections/deepseek-ai/deepseek-v4

https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4

DeepSeek-V4 技术报告:

https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

DeepSeek-V4两个版本的定位如下:

V4-Pro:定位为性能旗舰,在Agent、知识和推理方面表现全面领先。

V4-Flash:定位为更快捷、高效的经济之选。在世界知识方面稍逊于Pro版,但推理能力接近。

由于参数和激活更小,能提供更快速、经济的API服务。在简单Agent任务上与Pro版相当,高难度任务有差距。

以上就是DeepSeek-V4的全部信息,下面老马将通过DeepSeek官网的实际案例演示,以及API调用方面做一些体验。

DeepSeek-V4实例体验

首先打开DeepSeek的电脑官网,切换到专家模式,输入“你是什么模型”,可以看到显示已经是最新版模型DeepSeek-V4:

接着开启深度思考模式,我们让DeepSeek-V4开发一个自己的版本官网。使用的参考资料是DeepSeek-V4的技术报告pdf文档:

实际体验来看,目前在DeepSeek的官网上使用DeepSeek-V4还是比较流畅的。本以为今天发布新模型,服务会被挤爆,但并没有出现服务异常或者崩掉的情况:

编写后的网页html文件,可以直接在代码窗口右上角点击运行进行预览。下面是生成后的网页效果,大家可以看看感觉如何:

由于截图看不出来网页的动态效果,所以老马也下载了代码部署到线上,可以电脑浏览器打开:
https://www.majiabin.com/AI/deepseek-v4.html 进行预览。

总体来说网页的效果还是可以的,下一个测试继续用DeepSeek-V4的技术报告pdf文档,让它生成一份PPT:

同样的,DeepSeek-V4还是用编写网页的形式去呈现这份PPT,并非生成图片,整体风格效果跟前面官网的设计差不多:

PPT的预览地址:
https://www.majiabin.com/AI/deepseek-v4-ppt.html

还有大家比较关心的多模态问题,DeepSeek-V4属于纯文本模型。在DeepSeek的官网测试下来,DeepSeek-V4并不支持普通图片识别,且无法上传音频跟视频文件。

除非你上传的图片是带文字的,可以被正常识别出来。但这应该是采用OCR提取了文字,再丢给模型去处理,并非模型本身支持多模态。:

其它复杂性的任务老马就没有继续测了,其实如果能达到Claude Sonnet 4.5,甚至优于Sonnet 4.5,接近Sonnet 4.6水平。

那DeepSeek-V4简直是性价比爆棚了,要知道天下苦Claude久矣。所以小伙伴们在处理复杂性任务,或者复杂项目的开发,不妨可以试试API去调用DeepSeek-V4,本身官方价格也不贵。

DeepSeek-V4 API调用

老马在DeepSeek的官方API平台充了一波额度,下面使用Cherry Studio工具调用一下看看。其它Agent工具的调用都是一样的,官方的接口文档有详细的说明:

DeepSeek官方接口文档地址:
https://api-docs.deepseek.com/zh-cn/

在Cherry Studio的模型服务列表中找到深度求索,输入API key,API地址默认是不用管的。获取一下新模型,选择deepseek-v4-pro即可:

启用成功后,随便发一条“你是什么模型”,得到的回复是最新版的DeepSeek-V4:

末了还是补充一下DeepSeek-V4输入接入OpenClaw跟Hermes Agent的说明,免得有些小伙伴还是搞不懂。

首先你得去DeepSeek的官方API平台:
https://platform.deepseek.com,注册登录账号,并进行实名认证。

认证后就可以去充值余额,DeepSeek是按消耗的token进行计费的,具体计费方式看文章开头的那个表格,然后根据产生的费用扣除你充值的余额。

在接入小龙虾和爱马仕时,默认的API地址用OpenAI的兼容格式:https://api.deepseek.com,API key就在DeepSeek的官方API平台上创建一个。模型的ID可以写deepseek-v4-flash或者deepseek-v4-pro。

最后把API地址,API Key和模型ID,一起发给你的小龙虾和爱马仕,让它修改默认配置的大模型信息即可,或者你自己手动去修改配置文件。

好了,以上就是今天的分享,欢迎关注、点赞、转发一键三连。有任何问题和需求,请在评论区留言,回见!

对了,老马最近刚创建了一个AI学习交流群,有兴趣进群的小伙伴可以添加老马微信号:immajiabin,添加好友时备注:进群(不备注不通过)。

如果觉得我的文章对您有用,请随意赞赏。您的支持将鼓励我继续创作!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

Protected by WP Anti Spam