|
Huggy Lingo: 利用机器学习改进 Hugging Face Hub 上的语言元数据 Hugging Face · 公众号 · · 1 年前 · |
|
|
欢迎 Mixtral - 当前 Hugging Face 上最先进的 MoE 模型 Hugging Face · 公众号 · · 1 年前 · |
|
|
社区供稿 | Hugging Face 王铁震:有人的地方就会有江湖,有开发者的地方就会有社区 Hugging Face · 公众号 · · 1 年前 · |
|
|
Hugging Face 年度回顾:2023,开源大模型之年 Hugging Face · 公众号 · · 1 年前 · |
|
|
社区供稿 | Mixtral-8x7B MoE 大模型微调实践,超越 Llama2-65B Hugging Face · 公众号 · · 1 年前 · |
|
|
Reformer 模型 - 突破语言建模的极限 Hugging Face · 公众号 · · 1 年前 · |
|
|
混合专家模型 (MoE) 详解 Hugging Face · 公众号 · · 1 年前 · |
|
|
3D 高斯点染简介 Hugging Face · 公众号 · · 1 年前 · |
|
|
社区供稿 | 聊聊推理加速 Hugging Face · 公众号 · · 1 年前 · |
|
|
Google Colab 环境现已无需手动登录 HF 账号 Hugging Face · 公众号 · · 1 年前 · |
|
|
社区供稿 | OpenBuddy 发布首款基于 DeepSeek 的跨语言模型 Hugging Face · 公众号 · · 1 年前 · |
|
|
在灾难推文分析场景上比较用 LoRA 微调 Roberta、Llama 2 和 Mistral 的过程及表现 Hugging Face · 公众号 · · 1 年前 · |
|
|
社区供稿 | 元象开源 XVERSE-65B 对话版,注册即可体验高性能大模型! Hugging Face · 公众号 · · 1 年前 · |
|
|
社区供稿 | LongQLoRA:单卡高效扩展 LLaMA2-13B 的上下文长度 Hugging Face · 公众号 · · 1 年前 · |
|
|
社区供稿 | 南方科技大学联合 IDEA 研究院CCNL 中心发布 34B Chat 模型 Hugging Face · 公众号 · · 1 年前 · |
|
|
社区供稿 | 面向通用决策场景的MCTS基准框架:LightZero Hugging Face · 公众号 · · 1 年前 · |
|
|
3D 高斯喷溅 🤗 为什么图形永远不会相同 Hugging Face · 公众号 · · 1 年前 · |
|
|
使用 PyTorch FSDP 微调 Llama 2 70B Hugging Face · 公众号 · · 1 年前 · |
|
|
社区供稿 | 4GB 显存单卡居然能跑 70B 大模型了! Hugging Face · 公众号 · · 1 年前 · |
|
|
社区供稿 | Transformers.js 2.9.0 发布, 新增深度估计、无标注物体检测和光学文档理解 Hugging Face · 公众号 · · 1 年前 · |
|