1. 候选人应至少在大模型安全或基础大模型的一个领域(pre-training和post-training)有充分的研究经验,能够在团队中承担相关研究工作并贡献创新解决方案,以确保大模型的可信赖性;
2. 对大语言模型、多模态大模型和文生图大模型的可解释性进行研究,解释大模型的推理逻辑,对模型内在表征进行解耦和归因,设计新型的适用于大模型的可解释方法和结构;
3. 对大语言模型、多模态大模型和文生图大模型的推理过程进行研究,监测模型的推理逻辑,研究大模型安全编辑算法,包括但不限于知识编辑、特征工程和模型遗忘;
4. 深入研究大语言模型、多模态大模型和文生图大模型的对齐问题,包括内对齐、外对齐、自对齐和推理时对齐等,和团队合作开发验证工具和技术,优化大模型训练和部署中的对齐问题,以及对前沿对齐路线研究;
5. 协助进行大语言模型、多模态大模型的复杂推理等数据构建或生成,提升大模型复杂推理和多模态感知能力。
岗位要求
1. 博士优先,计算机科学、电子信息、信息安全或相关专业背景;
2. 具备扎实的机器学习和深度学习基础知识和算法实践能力,了解大模型的设计和训练流程;
3. 熟悉常用的深度学习框架和工具,具备良好的编程能力,熟练使用Python、C/C++等编程语言;
4. 具有组织和项目管理经验,能够有效地组织和管理技术和工程攻关项目,具有良好的团队合作意识。
加分项
1. 在信息学奥赛、ACM 中获奖;
2. 有较强的数学功底;
3. 发表过相关论文。