专栏名称: 人工智能学派
人工智能学派专注于分享:GPT、AIGC、AI大模型、AI算力、机器人、虚拟人、元宇宙等AI+160个细分行业!
目录
相关文章推荐
绝对现场  ·  再次增加500万!大庆市2025“汽车欢购季 ... ·  17 小时前  
绝对现场  ·  再次增加500万!大庆市2025“汽车欢购季 ... ·  17 小时前  
21世纪商业评论  ·  百万骑手上社保,美团跌去800亿 ·  昨天  
FT中文网  ·  年轻人为什么不结婚? ·  2 天前  
内江市市场监督管理局  ·  注意了!企业用工有风险,快来上经营主体入市第一课! ·  2 天前  
谷哥大叔  ·  经典代运营SEO案例分析 ·  5 天前  
51好读  ›  专栏  ›  人工智能学派

大模型专题:大规模语言模型中语言与知识报告

人工智能学派  · 公众号  ·  · 2024-11-14 19:57

正文

如何下载资料?

微信扫下方二维码加入星球平台

【老会员续费特惠】

今天分享的是:大模型专题:大规模语言模型中语言与知识报告

报告共计:47页

该报告主要探讨了大规模语言模型中语言与知识相关内容,包括多语言对齐、模型训练现象、语言与知识分区等方面。在多语言对齐方面,Multilingual BERT和大语言模型中都存在多语言在句法关系上的对齐现象,通过多语言模型预训练,多语言语义已完成对齐,且词性标注任务可通过跨语言训练取得高结果,但TOKEN扩展对模型影响大,使用中文二次预训练在知识层面提升模型能力有限,在低资源语言中表现类似。训练过程中存在CODING - SWITCH现象,大部分LLM迭代1轮后效果提升不明显。大语言模型参数中有明显语言核心区,通过对不同语言数据二次预训练并分析参数变化可确定,扰动核心区域会使PPL呈现爆炸趋势,模型具备一定“代偿”能力,仅修改1个参数就可能使模型混乱,二次预训练需注意数据配比,避免影响模型能力,针对少量数据多EPOCH训练会影响语言关键区域导致模型失效,微调时需注意保证关键区不被大幅调整。

以下为报告节选内容







请到「今天看啥」查看全文