今天分享的是
AI搜索专题系列
深度研究报告:《
AI搜索专题:怎么看Kimi的空间?
》
(报告出品方:
华福证券
)
报告共计:
43
页
摘要
一、Kimi核心竞争力:长文本能力
通过饼究Kimi技术核心基础论文《Transformer-XL: Attentive Language Models Beyond a fixed-Length Context》和《XLNet.Generalized Autoregressive Pretraining for Language Understanding》,发现Kimi在长文本能力上采用Transformer XL模型,使用分段级循环机制和相对位置编码技术,解决了Transform模型存在的问题;在整理能力方面,X-Net模型模型结合了置换语言建模机制和两流自注意力机$提高了推理的效率和准确度。
2、对Kimi、文心一言、通义千问和豆包进行搜索实测对比:在长文本能力的网络资源搜索方面,应用优缺表现不一,Kimi综合表现较好;在长文本能力的本地资源搜索方面,对比可以处理本地文件的kimi和文心一言,kimi搜索较为准确。
二、工程化能力比较:Kimi Vs Perplexity
和海外A1搜索引擎龙头Perplexity对比:资料检索能力方面,从资料来源方面、答案整理、推理能力来看,Kimi能力范围约为Perplexity免费版与付费版之间。同时,Kimi展示出较大进步,在不到一个月时间内,资料来源更多元化。
三、用户空间:Kimi的AI搜索市场需求
1、垂类搜索需求增加,逐渐代替传统搜索引擎;而通过内嵌AI搜索功能或开发AI搜索应用,AI搜索获得青睐。2、Kimi热度逐渐消失后,开始进入自然增长时期,自然增长仍然强劲。类比海外A!搜索应用Perplexity,kimi显示出APP端增长落后于网页端增长的规律。Kimi正在新一轮的广告投放,将流量导向APP下载,后续广告投放有效性还有待确认。
四、算力支持VS商业模式
阿里云对标中国版“微软云”,积极布局与第三方A!大模型的合作;Kimi获得阿里最新一轮参投,可对标海外“OpenAl+微软”模式。据IT桔子显示,目前阿里已投资Minimax、百川智能、零一万物、智谱Al和Kimi等AI创投公司。
Kimi商业化对标海外Pperplexity:目前perplexity的收入主要来自于会员收入,未来可能会引入广告模式。
长文本:Transformer XL模型--分段级循环机制和相对位置编码
传统的Transformer受制于输入的长度。这种模式带来了模块割裂、时间混乱、速度慢的问题,Transformer X模型对此提出了解决办法。
假设一个文本总共有12M的tokens,我们将其分成三个模块(S1、S2、S3),每个部分是4Mtoken,用Transformer去进行模型的跑动,模块按照S1、S2、S3逐个跑模型。