|
一文掌握大模型微调与部署原理、方法和最佳实践 吃果冻不吐果冻皮 · 公众号 · · 5 月前 · |
|
|
如何估算LLM推理和训练所需的GPU内存? 吃果冻不吐果冻皮 · 公众号 · · 5 月前 · |
|
|
中国算力产业链全景图和重点企业 吃果冻不吐果冻皮 · 公众号 · · 5 月前 · |
|
|
关于post-training和一些思考 吃果冻不吐果冻皮 · 公众号 · · 5 月前 · |
|
|
国产GPU公司:传原地解散 吃果冻不吐果冻皮 · 公众号 · · 5 月前 · |
|
|
AMD英特尔高通与近30家中国力量同台!2024全球AI芯片峰会下周举行,议程公布 吃果冻不吐果冻皮 · 公众号 · · 5 月前 · |
|
|
大模型SFT的局限性 吃果冻不吐果冻皮 · 公众号 · · 5 月前 · |
|
|
【小白必备】Meta祭出三篇最详尽的LLaMA微调指南 吃果冻不吐果冻皮 · 公众号 · · 5 月前 · |
|
|
字节跳动成立大模型研究院,零一万物、面壁智能前核心成员已加入 吃果冻不吐果冻皮 · 公众号 · · 6 月前 · |
|
|
一文剖析模型压缩(量化、稀疏)经典算法 吃果冻不吐果冻皮 · 公众号 · · 6 月前 · |
|
|
国内AI芯片厂商的计算平台概述-昇腾、海光、天数智芯、寒武纪、燧原 吃果冻不吐果冻皮 · 公众号 · · 6 月前 · |
|
|
基于 NVIDIA TensorRT-LLM 的大语言模型调度方法 吃果冻不吐果冻皮 · 公众号 · · 6 月前 · |
|
|
李沐重返母校上海交大,从LLM聊到个人生涯 吃果冻不吐果冻皮 · 公众号 · · 6 月前 · |
|
|
从Qwen2、LLaMA3.1、Gemma2等谈LLM预训练和后训练新范式 吃果冻不吐果冻皮 · 公众号 · · 6 月前 · |
|
|
作者硬核,内容透彻接地气的多模态大模型通识读本!国家队大模型紫东太初负责人王金桥力作 吃果冻不吐果冻皮 · 公众号 · · 6 月前 · |
|
|
一文了解英伟达Nvlink的各类知识点 吃果冻不吐果冻皮 · 公众号 · · 6 月前 · |
|
|
大模型变小的秘密,如何软硬件齐抓,中国科学院10余年研究实践成果都在这本书里! 吃果冻不吐果冻皮 · 公众号 · · 6 月前 · |
|
|
十家国产AI芯片厂商产品大揭秘(阉割版)-昇腾、海光、天数智芯... 吃果冻不吐果冻皮 · 公众号 · · 6 月前 · |
|