1月11日,“数据赋能 AI助力”2025中小学人工智能与教育创新论坛暨人工智能⁺教育学院揭牌仪式举行,华东师范大学教师发展学院院长、上海市教育学会信息化专委会主任闫寒冰作“数智赋能育人模式变革”专家报告
。
以下内容根据闫寒冰现场讲话整理,有删节,经本人同意发布。
在教育领域中,要同时达到
高质量、大规模、可持续成本
这三个目标是非常困难的,因为它们之间存在内在矛盾,难以同时满足。技术在教育领域的核心价值在于破解这个不可能,尤其是当前教育对技术赋能面向核心素养的因材施教的需求。
人机协同将成为教学常态,从教师出发,在教学中使用
GenAI
有这样三个路径——GenAI赋能教师、
教师指导学生使用GenAI、教师赋能GenAI指导学生。
GenAI赋能教师有两把“钥匙”和一个“警惕”。
GenAI赋能育人模式变革中的教师遇到了诸多挑战:大模型是一个遇强则强、遇弱则弱的工具,需要正确使用才能发挥其优势;
许多教师在使用大模型时遇到了困难,认为模型的帮助不大,这可能是因为输入信息的质量问题;垃圾进垃圾出是使用大模型时常见的问题,这就强调了输入数据质量的重要性;通过提高提取信息的质量,可以有效提升大模型的输出质量,从而获得更好的使用体验;存在多种提示词公式帮助教师优化使用大模型的过程,提升教学和学习的效率。
首先,教师可以自己使用
GenAI
,并通过
“思考模型”
来提高输入信息的质量,以获得高质量的答案和辅助教学。例如,针对“教学评一体化”的作业题目,大模型能够根据设定的思考模型生成不同难度的问题,帮助学生理解透彻。
“流程思维”
是另外一把钥匙,“
流程思维”要求将长链条的工作分解为多个环节,并
让大模型协助处理合适的环节
。
比如在大单元教学设计中,可以将工作拆分成准备材料、设定任务、设计提示语等多个步骤,针对每个环节寻找合适的思考模型和提示语,从而提升整体工作质量和效果。
但在使用大模型时,要
警惕大模型“幻觉”现象
。“幻觉”是指大模型在某些情况下输出的信息虽然逻辑性强、自信满满,但实际上可能是基于错误的假设、不准确的数据,甚至完全是模型凭空生成的内容。出现这种问题的部分原因是模型缺乏自我怀疑的能力,不能像人类那样在不确定时表达疑问。
目前来看,大模型无法完全取代教师,教师也需要具备强大的本体知识来进行判断,并且要培养数据敏感度,时刻警惕模型可能产生的问题。同时,在
GenAI的
质量控制和最终决策制定中,人的参与不可或缺。
到底该不该让学生使用GenAI?在大模型刚刚问世的时候,有着非常鲜明的两个派别:支持派和反对派。
我们主要来看看反对派的观点:ChatGPT初问世,被国外多所高校限制使用。专家认为:ChatGPT内容的安全性和准确性无法完全保障,其以假乱真的程度可能会阻碍学习者和研究人员进行诚实的研究和深入的调查,从而造成学术不端行为;对学生学习或有负面影响,不利于培养学生的问题解决能力与批判性思维等学术能力;可能会对学术界造成威胁,因此有必要重新制定学术评估的政策;用ChatGPT生成的内容并不代表学生自己的原创作品,应根据大学的纪律程序进行处理等等。
西华盛顿大学的一位历史学教授表示,
仅仅因为有一台机器可以帮助我举起哑铃,并不意味着我的肌肉就会发达,同样地,有一台可以写论文的机器并不意味着我的思维就会发展。这也是GenAI赋能育人模式变革中的教师遇到的另外一个挑战:学生“有成果、无成长”。
因此,在教师指导学生使用GenAI中,必须强反思、重迁移、提难度、控节奏、强评价。
教师赋能
GenAI
,是指对通用大模型进行干预和定制,使其从唯命是从的助手转变为富有智慧的助教,以服务于学生的学习需求。
如,霍特国际商学院的管理学教授开发了一个数字营销模拟游戏,作为激励学生学习的工具。
在这个游戏中,大模型扮演虚拟客户,
与学生扮演的奢侈品销售经理互动
。
学生需要根据实际数据设置广告出价,并创建优化访问活动,模拟真实的营销挑战。
研究发现,使用这一工具的学生在相关主题的期末成绩比未使用该工具的学生高出40%。这一实证研究增强了支持派信心,证明了通过游戏和挑战促进学习的有效性。
这其实也是教师专属智能体的创建,进一步避免大模型“今天记,明天忘”。智能体扮演什么样的角色呢?总的来说是一位富有智慧的助教。当大模型能扮演这样的一个角色时,GenAI被逐渐允许并倡导使用。
全球各高校、各组织如联合国教科文组织等也纷纷出台
GenAI