专栏名称: 川大研究生
四川大学研究生会官方公众平台,致力于为全校研究生提供学术、就业、实习、文娱、生活资讯等信息。每日更新,邀您共赏。
目录
相关文章推荐
李楠或kkk  ·  discord ... ·  2 天前  
AffiliateMarketing大家族  ·  AI解说大师「独立小程序」抢先揭秘,只需一键 ... ·  5 天前  
AffiliateMarketing大家族  ·  AI解说大师「独立小程序」抢先揭秘,只需一键 ... ·  5 天前  
51好读  ›  专栏  ›  川大研究生

如何“善用”人工智能提升学习科研效率?

川大研究生  · 公众号  · 科技自媒体  · 2024-09-25 20:54

正文





自从2022年11月OpenAI公司推出GPT-3.5以来,我国国产AI大模型也呈现出“百模大战”的态势,文心一言、讯飞星火、通义千问等陆续投入教育垂直类模型的研发赛道。飞速发展的生成式人工智能技术(Generative Artificial Intelligence)在重塑科技生产力的同时,也深刻影响着高等教育的教学与科研场景。

然而,国内外大学对于是否允许以及如何指导学生“善用”生成式AI工具的问题,存在明显的政策差异。

第一阶段(2022年底至2023年2月),牛津大学、斯坦福大学等多所高校对生成式AI进入学校表达了支持态度,但也有大学持中立态度(即不禁止也不发布统一规定)。

第二阶段(GPT-4发布后),该技术在无需特定任务训练的前提下仅仅通过用户输入提示词即可生成内容,使得教师和学生用户数量激增。在此阶段,康奈尔、普林斯顿等越来越多的大学表示支持生成式AI使用并发布了学校政策指南;加州理工学院、密歇根等还提供免费的相关技术支持服务。

在2024年7月世界人工智能大会暨人工智能全球治理高级别会议上,教育部党组成员、副部长吴岩表示:“人工智能是一把金钥匙,它正深刻地影响着世界和中国教育的未来走向和发展。”清华大学、浙江大学、上海交通大学、上海大学等国内高校陆续开始推出“AI for Education”计划,为学生和教师提供AI技术服务。




人工智能在研究生学习与科研中的高频应用场景




目前,生成式AI在高校中的常见应用主要分布在教学、科研两大类场景。从应用方式来看,国内多数学生都是自发式使用AI,少有大学出台明确的官方使用指南和标准。
教学类场景中,学生使用生成式AI的高频应用主要包括:课前使用生成式AI查阅与课程内容相关的信息,生成个性化、自主化的学习建议和资源;课中使用生成式AI辅助小组研讨,回复教师提问、模拟考试练习;课后利用AI完成课程作业或报告,对报告进行智能评价等。从教师教学的角度来看,生成式AI可以发挥“智能助教”“智能伴学”“智能评测”等多种功能。
与学习场景有所不同,在研究生科研场景中,最常见的应用包括:科研初期的辅助文献检索、翻译外文文献、系统梳理与发现研究问题;在科研写作方面,辅助修改文献综述、科研论文、科研报告,也有部分师生利用 AI 直接生成研究报告等;在研究实验及数据分析方面,辅助生成实验设计、实验模拟与智能预测、数据分析等;研究成果可视化呈现、智能推广。



巧用“利器”,识别人工智能提升效率的关键要素




根据《科学》杂志以及哈佛、BCG咨询公司等的最新研究显示:当人类利用生成式AI工具完成知识型任务时,不同的任务类型、不同的人机协作模式,其得到的任务结果有所不同,AI既可能提升也可能降低人的效率。因而,在使用生成式AI完成学习或科研任务过程当中,找到正确的方式方法就尤为重要。
第一,正视人工智能的“双刃剑”效应,探索“人+AI”合作的最佳模式。
尽管生成式AI可以辅助学生进行学习与科研,但其也有明显的技术缺陷:准确度不足且存在虚假信息编造的问题;生成的内容可能隐藏着算法偏见与歧视风险,并且容易被虚假信息误导;不可解释性的“黑匣子”问题(即对于大多数用户来说,人工智能系统是复杂和不透明的),可能引发公众的信任障碍。
一方面,同学们可以选择重复度高、创新性要求较低的学习或科研任务使用生成式AI辅助;另一方面,对于创新性要求高、准确度要求高或者风险性高的任务,则要谨慎使用AI并进行人工复核。
第二,以提升自身能力为“初心”,谨防形成AI技术依赖。
笔者研究发现:如果长期依赖生成式AI工具完成课程报告及学习作业,不仅会损伤学生学习的主动性、批判性与发散性思维,而且会降低部分学生的人际交互意愿,甚至出现“学生在课堂中相互之间不直接交流,各自将讨论问题提交给大模型以获得答案”的情况。
对于同学们而言,巧用生成式AI工具的内涵在于:始终清晰地认识到学习目的是提高能力,而AI只是辅助学习的工具,并不能够完全替代学习过程。对于教师而言,如何改变传统的教学过程,设计适合人机协作学习环境下的教学与考核方法则是非常重要的问题。



学会“避坑”,谨慎处理使用人工智能的伦理问题




由于生成式AI本身存在的技术缺陷,联合国教科文组织在其报告中强调“用户要以负责任、合乎伦理道德的方式,合理且安全地使用生成式AI工具”。聚焦于科研与学习场景,以下使用策略可供同学参考。
第一,在课程学习过程中,遵循教学大纲对使用AI的规定,严格确认AI辅助生成内容的真实性及准确性。
剑桥大学、墨尔本大学都明确规定“直接使用生成式AI完成课程任务、课堂测试,或者未对AI输出内容进行实质性修改,均被视为学术不端行为”。目前,国内的众多大学将使用生成式AI辅助学习的规范下放至不同课程的教学团队,由教师根据课程特点在大纲中具体规定使用标准。同学们则需要了解不同课程对使用AI的要求,并在提交课程任务之前确认内容的真实性(防止生成式AI输出错误),标记使用AI的过程及具体内容以便教师做出判断。
第二,辅助科研论文撰写方面,在确保科研成果独创性与准确性的前提下,标识并公开使用AI辅助科研的过程,避免学术不端问题。
已有研究指出:在人工智能生成内容的背景下,学术写作中的不道德行为包括抄袭、署名、版权和作者身份(即人工智能剽窃)。美国心理协会刊物准则(APA格式)以及部分国际顶级期刊规定,投稿论文时须明确标注生成式AI的输出内容、辅助修改等,并确保作者成果的独创性。2024年《中华人民共和国学位法》将“学位论文或者实践成果被认定为存在代写”视为学术不端,并可依此撤销所授学位。
第三,在科学实验及数据分析部分,须关注对敏感信息和数据的隐私保护以及知识产权问题。
对于研究生而言,未经发表的实验设计、实验数据,以及敏感或不宜公开的经济或社会数据等,一旦输入生成式AI进行训练,则很难完全避免隐私泄露的风险。同时,一些大学也明确规定“不允许教师私自将学生作业导入生成式AI进行检测,因其侵犯了学生的知识产权”。为防止师生在使用生成式AI过程中可能遇到的隐私安全问题以及尽可能规避版权风险,已有一些大学开始尝试自主研发生成式AI工具(如密歇根大学、香港理工大学等),而使用学校的专有模型则可帮助师生平衡使用AI的效率和风险困境。
用户接受度是技术创新成功的关键,教师和学生是教育技术的核心用户。面向未来,如何综合考量生成式AI的技术优势与劣势,正视其在高校教学与科研场景中的“双刃剑”效应,制定关于负责任地使用AI的相关政策,无疑是AI赋能高等教育的关键步骤,亦是学校师生高效使用和信任AI工具的重要指南。

川大研究生



信息来源:中国研究生
编辑:毛泓霖 李子贇