Grok-3 的DeepSearch还是免费使用,可以作为补充↓比如我让他分析昨天"DeepSeek Day1发布的FlashMLA,技术特点是什么?为什么会研究这个?开源这个项目会带来什么影响?"
结果里面还会有一章节叫「意外的细节」,应该是LLM从大量数据里挖掘出来的深层次信息,特别突出这个章节在设计上也是花了小心思了。
比如这个回答的意外的细节是:
一个值得注意的细节是,FlashMLA 的性能指标(如 3000 GB/s 内存带宽和 580 TFLOPS 计算吞吐量)在当前 AI 硬件上表现异常出色,这可能超出一般用户的预期。这不仅展示了 DeepSeek 在优化方面的技术实力,也暗示了 Hopper GPU 在 AI 推理中的潜力,可能对硬件选择产生深远影响。
#DeepSeek开源周第二日# #deepseek# #ai创造营#
结果里面还会有一章节叫「意外的细节」,应该是LLM从大量数据里挖掘出来的深层次信息,特别突出这个章节在设计上也是花了小心思了。
比如这个回答的意外的细节是:
一个值得注意的细节是,FlashMLA 的性能指标(如 3000 GB/s 内存带宽和 580 TFLOPS 计算吞吐量)在当前 AI 硬件上表现异常出色,这可能超出一般用户的预期。这不仅展示了 DeepSeek 在优化方面的技术实力,也暗示了 Hopper GPU 在 AI 推理中的潜力,可能对硬件选择产生深远影响。
#DeepSeek开源周第二日# #deepseek# #ai创造营#