专栏名称: 黄建同学
数码博主 超话主持人(ChatGPT超话) 头条文章作者 我的学习笔记,关注AI+新能源
目录
相关文章推荐
爱可可-爱生活  ·  从第一性原理解析强化学习的真正价值 ... ·  20 小时前  
爱可可-爱生活  ·  //@爱可可-爱生活:欢迎参与!//@爱可可 ... ·  20 小时前  
宝玉xp  ·  GPT-4.5 的多模态还是挺强的 ... ·  2 天前  
爱可可-爱生活  ·  从分布中提取判断:让AI评价更准确 ... ·  2 天前  
爱可可-爱生活  ·  SoftMatcha ... ·  2 天前  
51好读  ›  专栏  ›  黄建同学

好了,以后也不需要音乐🎶作家了NotaGen: 利用大型语言模-20250307224120

黄建同学  · 微博  · AI  · 2025-03-07 22:41

正文

2025-03-07 22:41

好了,以后也不需要音乐🎶作家了 [二哈]

NotaGen: 利用大型语言模型训练范式提升符号音乐生成中的音乐性(Advancing Musicality in Symbolic Music Generation with Large Language Model Training Paradigms)

摘要:
NotaGen,这是一种符号音乐生成模型,旨在探索制作高品质古典乐谱的潜力。受大型语言模型 (LLM) 成功的启发,NotaGen 采用了预训练、微调和强化学习范式(以下称为 LLM 训练范式)。

它先在 160 万首乐曲上进行预训练,然后根据“时期-作曲家-乐器”提示,在大约 9000 首高品质古典乐曲上进行微调。对于强化学习,我们提出了 CLaMP -DPO方法,该方法进一步提高了生成质量和可控性,而无需人工注释或预定义奖励。

我们的实验证明了 CLaMP-DPO 在具有不同架构和编码方案的符号音乐生成模型中的有效性。此外,主观 A/B 测试表明,NotaGen 在与人类作品的比较中优于基线模型,极大地提升了符号音乐生成的音乐美感。

访问:electricalexis.github.io/notagen-demo/

#ai创造营# #科技# #manus#






请到「今天看啥」查看全文