如今的大模型逐渐以“个人助手”等应用形式融入到我们的日常生活中,为我们提供更精准的服务。
这种个性化其实是大模型发展的必然趋势。
但随之而来的,还有内容上的安全隐患,经过微调的大模型,不止更懂你,也能“人肉开盒”你,邮箱地址、电话号码这类身份识别信息一览无余,恶意内容随意生成...
因此,
“如何平衡大模型个性化与安全”这个主题已经成为了目前大模型研究的重点,也是所有入局大模型的科研er都必须面对的课题。
为了帮助同学们渡过难关,深度之眼本次邀请了
顶会审稿人John老师
为我们开发——
《大模型微调实战应用及其安全内容审核》
课程
,用
3
个小时时间、2大实战项目
,手把手带大家掌握如何高效微调大型语言模型以及如何进行安全内容审核。
3节课仅需
10元
👇
扫码下单立享多重福利
购买后记得添加课程老师领取资料哦~
课程大纲
本课程将结合理论与实践,从零开始带学员了解并实操大模型的微调和安全审核技术,确保学员能够独立完成相关任务。
第一节:高效微调LLM实战应用(上)
第二节:高效微调LLM实战应用(下)
第三节:大模型安全内容审核实战应用
-
-
-
完成微博评论和Wikidata安全内容审核的实际项目
-
老师介绍
John博士
✨在腾讯,阿里和微软亚洲研究院等公司进行NLP相关的项目,包括文本分类,情感分析,对话相关工作。
✨在国际会议和期刊发表论文20篇左右;担任ACL,AAAI,EMNLP等审稿人。
✨拥有多项专利和软件著作权;曾多次获得国家奖学金,专业竞赛TOP的成绩。