专栏名称: 数字生命卡兹克
反复横跳于不同的AI领域,努力分享一些很酷的AI干货
目录
相关文章推荐
笔吧评测室  ·  英伟达 RTX 50 系列 GPU 放弃对 ... ·  13 小时前  
半月谈  ·  蒋超良被查! ·  2 天前  
中国政府网  ·  事关资本市场,最高检、证监会重磅发声! ·  2 天前  
长安街知事  ·  王汉青被查 ·  2 天前  
51好读  ›  专栏  ›  数字生命卡兹克

我花了13999买了人生第一台AIPC,然后把你想知道的全测了

数字生命卡兹克  · 公众号  ·  · 2024-05-24 11:31

正文

我从很久以前,就一直是一个AI手机或者AIPC坚定的信念者。

前端时间把我的手机,从小米的MixFold2,换成了搭载 骁龙8 Gen3的小米14 Ultra。

再加上我一直想把我那个破天选2的游戏本现在干一天活就死3次,跑个啥都崩,所以我就诞生了想换一个笔记本,换一台AIPC的念头。

我在网上搜刮了很久,看了一圈的评测,最后选了当时还没开售的联想 YOGA Pro 16s AI元启
毕竟我要的是一个轻薄的全能本,既能在国内跑AI、有专属AI助手、还能做设计、还能打游戏,续航还高背着不重的。所以对CPU、软件、屏幕、重量等等都还有挺高要求的。
但是说实话,不便宜,13999的售价。但是设计我是真喜欢,反正脑袋一热,就冲了。
在5月20号那天早上,他们10点08开售的那一瞬间,我就进去,花了13999,抢了一台我人生中的第一台AIPC。

速度贼快,第二天也就是5月21号的早上,这台心心念念的的电脑就放在了我的家门口,真的吹爆京东的配送速度。。。

我也第一时间进行了开箱。这个设计就很符合我的审美,我就好一口磨砂。

有一说一,这个屏幕是真的屌, 3200×2000的分辨率, 165Hz刷新率, 色彩极好,还能180度翻折,还有触控。

不过说实话,我也不是很懂硬件,具体的硬件跑分啥的交给硬件区的博主吧,我就放个图给大家简单看下。

坦率的讲,AIPC在我的理解里其实很简单,软硬件两个部分:

软件:因为众所周知的原因,Windows的 Copilot在国内是没法用的。所以 至少需要提供一个 基于你们 厂家的优化版集成式AI来当你的智能体助理。

硬件:搭载英特尔的Ultra系列芯片。毕竟这里面塞了NPU,专为AI新增的处理单元,这个Ultra里塞了 CPU+GPU(集显)+NPU 三个单元,这是硬件最大的不同。
用通俗的话说就是,能让你低功耗、低要求的直接做一些AI推理加速,而不用每次都召唤4060这种高功耗的独显去跑。降低功耗、降低散热、降低重量,这几点还是非常非常重要的。毕竟,我要买的是一个能随身背着跟着我各地出差的笔记本,而不是一个台式机。

毕竟我自己的能力圈,还有整个AIPC的定位,最核心的自然还是那个单词:

AI。

所以,再深度用了三天之后,我决定来写一篇评测文章,好好聊聊他们的AI功能。

毕竟,这样才算对的起我花出去的Money,你说对吧。


一. 联想小天

因为一些众所周知的原因,国内的windows电脑,是没办法直接用微软的 Copilot的,而且Windows Copilot也不是端侧大模型,全部是接的GPT4o云端推理,这个肯定是不行的。

而联想的 YOGA Pro 16s AI元启,自带了一个AI的综合体,专属助理联想小天。

本质上,就是一个内置的AI应用,里面集成了大模型和和各种应用,是一个非常典型的智能体助理的定位。

也可以说,联想小天就是整个联想AIPC的核心,所以,先看看它的设计。

1. 本地与云端双模型

最核心的一点就是,联想小天可以切换本地和云端双模式。

非常容易理解。

本地个人模式,就是直接用内置在本地的端侧大模型用CPU去做推理。

云端模式,就是用云上的大模型去做推理。

云端的大模型参数,肯定是要比本地大很多的,但是我翻了很多资料,并没有看到具体的模型数据,只知道是联想自己的天禧大模型。

我用一个测试标杆弱智吧的问题,来让大家看看本地和云端的区别。

我自己测下来,体感上感觉端侧应该是一个几B左右能到GPT3.5左右水平的小模型,云端是一个GPT3.5~GPT4之间水平的大模型。

这个端侧模型是直接用CPU跑的,而且功耗很低,大模型常驻在后台,大概只吃4G左右的内存,在推理的时候,也不怎么吃CPU。

而且推理速度还是可以的。我录屏给大家感受一下。

其实坦率的讲,在很多的时候,比如写写合同,写写邮件,搞搞总结等等的场景下,约等于GPT3.5水平的端侧大模型,已经完全够用了。

然后在AIPC的场景下,其实我们很看跟系统的集成,一个优秀的智能体助理 ,其实应该是能调用系统的各项能力的。

联想小天集成了很多,但是我觉得还是初期,还不够。现在能达到的水平是,用自然语言调用一些联想系统的级别的应用,以及修改基本的设置项,比如看硬件配置,开启护眼模式,下APP等等。

但是其实在我的心中,一个优秀完美的 智能体 助理 ,应该具备一些复杂的系统级别的任务拆解以及调用能力。

比如我说: 把我视频格式的默认应用全部调整成腾讯视频 。理论上它可以直接在系统层面帮我调整完,而不是给我打开一个入口,还需要我自己去手动调整。

不过这种问题其实就是工程能力的迭代与优化了,给点时间,我觉得问题不大。

当然,还有我预期的更复杂的场景,比如我说: 我想看今晚更新的最新的庆余年2。 理论上他会打开腾讯视频,打开庆余年2,自动定位到今晚更新的集数上,但是这种需要跟腾讯视频这种第三方接口打通,我觉得...就...还是想一想就算了。

2. 本地知识库

这个可能是我最看重的AIPC的功能了。

举个例子, 我朋友是做HR的,手上一堆公司内部规定和章程,她自己也天天记不住,也不敢扔到大模型上,每次都是别人问她以后她先查,如果有端侧大模型,其实就方便很多了。

再比如我,我自己有一份文件,里面都是我自己各种公司资料和各种密码,还有一堆比如我自己的敏感信息、身份证号、啥的,这个文件是我的命根子,要是泄露出去可能就炸了。

但是我经常需要跟别人签各种合同、写邮件、对接入库、发工资,还有一堆乱七八糟的琐事,需要极度频繁的用到这些信息。而AI其实可以大大的帮我减轻这些工作量的,比如直接跟我的信息和银行卡号,给对面发个打款邮件。但是我肯定不敢把这些信息传给ChatGPT或者Kimi之类的,所以每次我都是直接生成一个模板,然后我去手动填。

但是能端侧的话,那就不太一样了。

再比如我还有一个我自己的比较详细的介绍文档,里面有很多跟其他公司合作的一些核心数据,这个肯定不敢传云端的,但是我在端侧,就敢随便问答了。比如以前经常有人问我:方便简单给一下您的介绍吗?现在我就敢直接把这个文档扔进去然后直接生成。

这就是端侧大模型的魅力。无拘无束,自由自在。

你也可以点击个人知识库,把一些文件直接扔进来向量化处理。

但是坦率的讲,现在知识库的体验还不是特别的好,产品还需要迭代。

因为我自己理解的知识库,是把文件传上去之后,就可以不用管了,直接在对话里面提问题就行。

但是联想小天现在还需要先进知识库,勾选文件后进行提问,而且一次最多有3个文件的限制。

我觉得端侧模型这个方向肯定是没问题,但是这个产品的交互体验设计,还需要迭代优化。

3. 本地文件搜索

直接用大模型搜本地文件,还是一个挺刚需的功能的,因为有一说一,过往的文件搜索,实在太难用了,而且我自己的管理习惯其实不是很好,经常各种文件散落在各地,所以大模型加持下的AI搜索,还是一个我挺期待的功能的。

所以我直接在小天里面试了下,比如: 找出我公司的营业执照文件

可以看到还是做了一些AI加持的,有语义理解了。我搜的虽然是公司营业执照,但是把银行证明、公司资料啥的都搜出来了,不过那个公司法还是略有一点抽象。

除了文件外,也能搜某个特定日期的。

在文本端还不错,但是一旦搜一些多模态的内容,比如图片、音频、视频,效果目前就还有点一般,经常会不准。

比如我让搜我电脑里的美女图片。

开什么玩笑= =我电脑里大把的,但是确实就没有搜出来。

4. 其他

除了上面的一些我比较关心的重点功能外,其他的跟AI的结合都是一些工具属性。

比如跟AIPPT合作,可以在电脑上直接调用AIPPT的能力,用文件直接生成大纲,然后挑选模板生成PPT。

比如有一个打电话的功能,可以跟一个拟人化的小天直接语音对话,说实话,音色和情绪居然意外的不错,聊起来还挺关心我。

在日常浏览各种文字的时候,选中后也会直接出小天的菜单,可以直接用大模型进行提问、润色、总结等等,这个还挺好用的。

总体来说,联想这个AIPC的 智能体 助理 联想小天还是OK的,跟系统有一些结合,也能在端侧处理一些工作事务,但是因为模型本身还是个非多模态能力的模型,跟用GPT4o当基座的微软肯定还是比不了,但是这毕竟是中国,GPT4o那套也没法用。

大方向是对的,后续就看软件层面,模型和产品的优化了。这块我觉得很快。


二. 本地部署的大模型

除了用联想小天之外,一些专业玩家肯定也想自己部署一些大模型玩玩。

我们现在有了Ultra9,所以也可以给大家看一下,这个专为AI打造的CPU,跑本地大模型的速度,再对比一下4060跑的速度。

我直接下了LM studio,一个给小白用的专门拿来部署本地模型的产品。嗯,很适合我。毕竟专业的测试环境不是我这种非专业用户能搞的。所以就看看大众化的东西~

我直接装了2个最火的开源模型,千问1.5 7B、LlaMa3 8B。

先看Ultra9直接跑本地大模型的效果。我直接把我的4060显卡给禁用了。

现在我的电脑里已经用不了4060的显卡了。

直接在LM Studio上加载 千问1.5 7B,用Ultra9推理。

千问的推理速度大概是这样的,我录了个屏,可以感受下。CPU的占用率直接干到了100%。

首字生成耗时5.30s,平均3.5Token/s。

跑LlaMa3,首字生成6.6s,平均每秒3.33Token/s。

比我之前的电脑快,之前的电脑每秒2个Token的蹦,这个从比例上来说提升了将近60%,但是绝对值太低了,也没有快很多。。

再对比一下联想小天的推理速度,只能说还是挺看优化的,自己家的产品果然体验还是好。

然后我再把我的4060启用回来,用显卡来推理看看效果。

首字生成耗时0.25s, 平均每秒33Token

跑LlaMa3 8B,首字生成0.56s, 平均每秒41Token

可以明显看到,显卡的推理速度,还是比CPU高太多太多了。

毕竟你要说算力,CPU+ NPU的算力显然远远不如GPU, 但是NPU的功耗非常低。同等功耗情况下,那GPU的算力肯定是赶不上NPU的,所以配一个NPU, 用极低的功耗换取一个差不多的性能, 承担日常的AI计算,比如图片视频处理等等。
别说功耗没用,这毕竟是笔记本= =


三. AI绘图

联想自己也内置了一个AI绘图工具,AI画师。

基本是用的SD微调的那一套。







请到「今天看啥」查看全文