专栏名称: DataFunTalk
专注于大数据、人工智能领域的知识分享平台。
目录
相关文章推荐
生物学霸  ·  自然科学基金:同等条件下优先支持年轻人 ·  2 天前  
BioArt  ·  Nat Nanotech | ... ·  3 天前  
生信宝典  ·  iMeta | ... ·  3 天前  
51好读  ›  专栏  ›  DataFunTalk

电子书上新 |《LLM时代:技术演进与行业应用》

DataFunTalk  · 公众号  ·  · 2024-08-13 13:00

正文

领取方式如下:

点击下方标签,关注 DataFunSummit公众号

关注上方公众号,私信回复 『LLM』 获取领取方式

资料目录及介绍:

20 分钟带你搞懂 LLMOps !!
文章介绍了LLMOps,这是一种创新的生命周期管理工具,专为大语言模型设计。它通过微调技术如PEFT,优化了模型的适应性和效率。LLMOps还提供了架构解决方案,增强了模型的交互性,同时确保了应用的可靠性与成本效益。

揭秘NVIDIA大模型推理框架:TensorRT-LLM
介绍了NVIDIA的TensorRT-LLM,一个为大型语言模型打造的高效推理框架。它基于TensorRT,支持Tensor Parallelism和Pipeline Parallelism,并开源,提供丰富的模型支持和低精度推理特性,旨在提升AI应用的推理性能和实用性。

高性能 LLM 推理框架的设计与实现
图技术在金融反欺诈中日益关键,通过构建复杂关系网络,提升识别黑产欺诈的精准度与效率。应对黑产欺诈手段升级,图算法助力发现聚集性风险与隐藏模式,保障金融安全与用户体验。

使用 OpenLLM 构建和部署大模型应用

介绍了OpenLLM,一个开源的大语言模型开发框架,它支持多种开源模型并提供关键优化技术以提升内存效率。从简化的模型切换到高效的内存管理,OpenLLM为AI应用的开发和部署提供了强大支持。
从 Bert 到 LLM:360 广告推荐业务中语言模型的应用探索
分享了语言模型在推荐系统中的应用进展,包括特征提取、推荐预测和行为序列建模。重点讨论了BERT4Rec模型,Recformer方法,以及利用LLM进行内容特征提取和用户兴趣建模的实践。
阿里云 PAI 大语言模型微调训练实践

讨论了大模型的挑战、性能优化技术如检索增强生成(RAG),以及在微调实践中如何选择合适的模型、准备数据和评估模型。
当推荐遇见大模型,会碰撞出什么样的火花

讨论了LLM在预训练、微调和Prompting阶段的应用,以及如何影响用户和商品表征、召回匹配、排序生成等环节。同时,对多模态推荐、hallucination和bias问题解决、系统性能提升等未来发展方向进行了展望。
大语言模型在推荐系统中的探索与应用
介绍了两个项目:KAR利用LLM增强推荐系统,和Uni-CTR构建多场景推荐底座。展望了LLM在推荐系统协同信号、输入策略、动态数据融合和推理效率方面的挑战和未来发展。







请到「今天看啥」查看全文