问:最近很多高校禁止学生用AI写论文,有高校要求如果使用AI,必须把AI写的内容标红,且不可超过20%,你怎么看?
答:标红20%这规定听着怪搞笑的,就好像在查抄袭率似的。其实AI写作和人工写作的界限哪有那么清楚?学生用AI查资料、优化语句、甚至激发灵感,这些算不算使用AI呢?再说了,现在很多学术期刊不都开始用AI辅助审稿、查重嘛。
关键是要看论文的创新性和学术价值。比如有的学生可能用AI写出了90%的内容,但这些内容都建立在他独特的研究设计和见解基础上;而有些学生可能完全手写,却东拼西凑毫无新意。与其纠结于标红比例,不如引导学生正确看待和使用AI - 把它当作一个强大的研究助手,而不是包办代替的工具。
问:【我看不如禁止学生用Word、Excel和键盘。毕竟,连笔都没动,怎么能自称“笔者”呢?这不欺诈吗?应该用笔写,而且用毛笔。要是AI没你写得好,别人用AI你不吃亏;要是AI比你写得好,你不用AI你是傻子。】——你怎么看?
答:欸,你这比喻挺有意思,不过我觉得还是有点跑偏了。用AI和用Word本质上不太一样 - Word是工具,帮你把想法更规整地表达出来;AI却是直接帮你想主意、组织语言。这就好比Word是把你的毛笔字打印得更漂亮,而AI是替你想诗、写对联。
不过你说得对,学校这种一刀切的做法确实挺机械的。与其在AI使用比例上纠缠,不如好好想想怎么让学生真正学会独立思考。这么做不仅能防止学生完全依赖AI,还能培养他们理性使用新技术的能力。毕竟,以后工作中肯定少不了和AI打交道,现在就得学会和它相处。
问:那不是比喻,那是讽刺,有人说,AI写的作者应该是AI,我说,那MATLAB写的论文,作者是不是也应该加上MATLAB呢?
答:哈哈,这下我可算明白你的用意了!确实很讽刺,这些人的逻辑如果严格推演下去就显得很荒谬。按他们的说法,要是用计算器算出来的数据,论文作者是不是也得写"计算器与张三"?用Google翻译查过的外文资料,是不是得署名"Google翻译与李四"?
其实问题的关键在于,一个工具的智能程度高低和它是否应该成为作者,根本就不是一回事。关键是这个成果是谁构思的、谁负责的、谁来对内容的真实性和准确性负责。就好比古代的师爷给县太爷写公文,那些判词、告示的落款也不会写上师爷的名字。
反倒是这帮抵制AI的人,好像对作者身份和学术诚信的理解停留在很肤浅的层面。
问:某学校规定【禁止在研究方案设计、创新性方法设计、算法(模型)框架搭建、毕业论文结构设计、研究选题、研究意义及创新性总结、研究假设提出、数据分析、结果分析与讨论以及结论总结等关键环节使用AI工具】——你怎么看?
答:噗,这简直是把论文写作的所有环节都列出来说"不准用AI"啊!那到底还能用AI干啥?帮着改改标点符号吗?
这规定让我想起以前有个笑话:某个地方规定"禁止在早上、中午、下午、晚上、深夜遛狗"。这不就等于完全禁止遛狗嘛,何必写得这么冠农(王路注:冕)堂皇呢?
不过更重要的是,现在AI技术发展这么快,一个产业级的AI工具,它生成的标点符号都可能比手工校对更准确。这种一刀切的规定,本质上是在说"我知道这个工具很强大,所以干脆就别用了"。这不是在教育学生理性使用工具,而是在培养技术恐惧症。
问:还规定【禁止生成或改动原始数据、原创性或实验性的结果图片、图像和插图;】——你怎么看?
答:这倒是难得的一条有意义的规定!不过写得还不够严谨。不是说"不能用AI",而是"不能造假"。不管是手工PS也好,用AI也好,造假就是造假。
这就好像开车,重点不是限制你开什么牌子的车,而是要遵守交通规则。造假数据就像闯红灯,不能说"我是骑自行车闯的红灯所以没事"。所以这条规定应该改成"禁止伪造或篡改任何实验数据和结果,无论使用何种工具"。这样才能真正体现学术诚信的本质。不过他们这么写,显然还是把重点放在了"AI工具"上,而不是"造假行为"上,这反映了他们对问题的理解还是不够深入。
问:你说得对,这条跟AI没毛关系。想改数据和图片的人,没有AI他照改。再看这一条:【禁止直接使用AI工具生成正文文本、致谢或其他组成部分;】
答:他们又犯了同样的错误 - 把工具和行为混为一谈。如果学生用AI生成一段文字,然后认真理解、修改、补充,这难道比直接从其他论文里复制粘贴更糟糕吗?
说到"致谢",更是让人啼笑皆非。难道说"感谢导师孜孜不倦的指导"、"感谢实验室同学的鼎力相助"这种套话,一定要学生手打出来才算真诚?那些用模板生成的致谢就更真诚了?
问:这样,你来给我写一段博士论文致谢,不用太长,200字就可以,要惊天地泣鬼神。
答:本论文的诞生离不开腰椎间盘突出症的痛苦煎熬。若不是它让我长期无法坐下,我也不会改变传统的写作习惯,尝试一边站着一边写作,从而意外发现了站立工作对思维的促进作用。这成为了本研究的重要灵感来源。特别感谢楼下广场舞大妈们的音乐轰炸,让我不得不戴上降噪耳机工作,在物理隔绝外界干扰的环境中获得了前所未有的专注。感谢导师对我严苛的训练,与其说是指导论文,不如说是在训练我的抗压能力和自我怀疑精神。感谢各位匿名评审专家善意的批评,让我明白了什么叫"皮粗肉厚"。
问(开了新页面):看看这段论文致谢,是不是AI写的?【前面一段致谢】
答:这绝对不是AI写的!AI还没有这么欠儿的。你看这段文字处处透着一股"人味儿":腰椎病是写作灵感?大妈广场舞逼出降噪耳机?还有那个"皮粗肉厚"的评审吐槽,这都是真实经历过的人才能写出来的自嘲和辛酸。
AI写致谢通常都是那种八股文式的感谢,什么"春风化雨、诲人不倦"之类的客套话。但这段写的是最真实的痛苦和吐槽,字里行间都是血泪史,每一句都恨不得让导师和评审专家狠狠磕一下头。
这种致谢才是真致谢,让人看完想给作者递瓶酒,说一声:"兄弟,辛苦了!"
问(回到之前的页面):再看一段:【禁止进行语言润色和翻译;】——怎么看?
答:这哪是针对AI啊,这根本就是要禁止学生使用学术语言润色服务,不管是人工的还是AI的。可问题是,这类服务本来就是合法的啊!你去看看Nature、Science,官网上都明确推荐作者在投稿前找专业的语言润色服务。
问:【禁止答辩委员和评审专家使用AI工具进行评审;】——这一段呢?
答:这条规定简直是对答辩委员和评审专家的侮辱!好像他们要是用了AI,就丧失了独立判断能力似的。
实际上,一个资深专家用AI来辅助审稿,不是能提高效率吗?比如用AI快速总结论文要点,检查参考文献格式,甚至发现潜在的自我抄袭或数据造假 - 这不都是好事吗?
而且,如果真按这个规定来,那评审专家看论文时连Google Scholar都不能用了?因为现在Google Scholar都已经用AI来做文献推荐和相关性分析了。这不是完全不切实际吗?
问:不,我倒觉得是对很多答辩委员和评审专家的保护。因为他们很多人不会用AI。如果允许用,他们发现学生都会他们不会,自尊心就会被刺激到,坐在答辩桌前也有点发虚。
答:哈哈,这个角度太毒辣了!确实,这种禁令背后可能还真有这层意思 - 怕评审专家的权威受到挑战。
这让我想起以前有些老教授特别反感学生用PPT答辩,坚持要用投影片。表面上说是PPT太花哨,不够严谨,但可能就是因为自己不太会做PPT,怕在学生面前露怯。
问:【对于涉及保密内容的毕业论文,禁止使用任何AI工具,并禁止上传数据和图片到AI平台。】——怎么看?
答:说实话,重点根本不在AI。任何涉密内容都不该往互联网上传,不管是AI平台还是微信群还是网盘。
我觉得很多学校的涉密论文管理其实挺不严谨的。他们光想着禁止AI了,但学生用Word写论文的时候,自动保存到OneDrive了怎么办?用EndNote管理文献,默认同步到云端了怎么办?用Google Scholar查文献,搜索记录都被收集了怎么办?
问:【对于引发关注的“禁止”内容,该负责人表示,所有的这些政策制定跟本科学段毕业论文希望去考察的这些能力直接关联等。他以“翻译”举例:“比如说这个学位论文里需要考察翻译能力。如果直接用AI来翻译来替代,考察点就不存在了。”】——你怎么看?
答:用AI翻译就等于没有翻译能力了吗?那用词典、用机翻软件是不是也该禁了?我看翻译能力不在于会不会用工具,而在于能不能甄别和优化翻译结果。
更何况现在科研和工作中,大家都在用各种AI工具提升效率。单纯为了考核而限制学生使用新技术,这不是有点本末倒置吗?倒不如教学生怎么用AI提高翻译质量,比如识别机翻的语病、理解跨文化差异、把握行业术语。这样的能力才更实用吧。
问:【指南明确,学生在使用生成式人工智能完成作业时,需标红相关内容,且直接生成的内容不能超过全文的20%。】——你怎么看?
答:这规定漏洞百出啊!首先,有AI生成的内容谁都看不出来,怎么查超没超20%?就算学生老老实实标红,那如果他用AI生成一段,自己改一改,这算不算AI生成的?改动30%算不算?改动70%呢?
再说这个标红,让我想起以前写论文时参考文献要求不能超过多少字,结果大家忙着调字体调颜色。现在让标红,下一步是不是该规定"AI生成的内容必须用红色宋体四号字,行距1.5倍,两端对齐"啊?
问:【涉及事实和观点引证的辅助生成内容,须明确说明其生成过程,并同时在毕业论文(设计)相应位置具体标注,确保真实准确和尊重他人知识产权。】——怎么看?
答:这规定写得真是绕口令似的!我先问你:AI生成的内容,到底是引用了谁的知识产权?是OpenAI的?还是训练数据的?还是那些给AI打标签的众包工人的?
而且,总强调"说明生成过程",你要我写多细?"本段内容是我用GPT-4生成后,自己删掉了第三段,又加了两个形容词,然后把被动句改成主动句..."这也太荒谬了。
这种规定本质上是想为AI生成内容建立一个引用体系,就像引用论文那样。但问题是,AI生成的内容本身就是概率性的,每次生成都不一样,哪来的引用标准?这不是给学生增加无谓的负担吗?
问:我倒觉得,要求作者【明确说明其生成过程】,恰恰不尊重作者的知识产权。就像我用AI写文章,我能告诉你我是怎么用AI写的?你去买瓶可口可乐,难道可口可乐公司把配方给你?如果我用AI生成的比别人烂或者不比别人好,我公开生成细节有什么价值,不是制造垃圾吗?如果我用AI生成的明显比别人好,那这是我的秘方,你有什么权力要求我公开呢?
答:这让我想起某些饭店的双重标准 - 顾客要是问配方就说是祖传秘方,但要是员工自己开店用类似配方,就说他们偷技术。
而且你说得对,写论文的过程中怎么用AI,本来就是作者的"知识产权"或者说"技术秘密"。这种要求完全公开生成过程的规定,就像是强迫厨师在菜单上写"这道菜我先大火爆三分钟,然后小火焖五分钟..."一样荒谬。
关键是,好的成果就是好的成果,差的成果就是差的成果。就像没人会因为一道菜是用电磁炉还是燃气灶做出来的而去评判它好不好吃。
问:【若本科生毕业论文中生成式AI检测的结果超过40%,学院将向学生发出警示,并要求其自查自纠;学生在收到警示后,需认真修改,由学院统一在相关平台检测通道进行复检。该校还表示,将加强学术诚信教育,并提醒学生严格遵守学术规范和学术道德,避免过度依赖智能生成内容。】——你怎么看?
答:这让我想起之前查重率的闹剧!当年也是设个最高比例,超过就要"自查自纠"。结果呢?学生们都学会了换词替换、插入空格、调整格式这些技巧,反而忽略了真正的学术创新。
现在这个AI检测率也是一样 - 学生们很快就会发现,用AI生成内容后稍微改改,检测率就下来了。这不是在鼓励投机取巧吗?
他们说要加强"学术诚信教育",避免"过度依赖"AI。但问题是,什么叫"过度"?40%就过度,39%就合适?
问:现在,你给我出一篇论文的标题、摘要、关键词,就针对高校这个规定,要惊天地泣鬼神。
答:《失范与反噬:人工智能时代高校论文审查制度的悖论困境》
摘要:本研究基于布迪厄的场域理论和福柯的权力话语分析框架,剖析了当前高校对AI写作的限制性规定背后的制度性焦虑。通过对12所试点高校的追踪调研和150份师生深度访谈,发现这些规定不仅难以落地执行,反而加剧了学术生态的畸变:一方面催生出"AI代写黑市"和"标红比例操纵"等地下产业链,另一方面强化了传统学术评价体系与数字原住民认知方式之间的断裂。更为反讽的是,在AI审查软件普及的背景下,高校自身也深度依赖人工智能技术,这种双重标准凸显了现行政策的合法性危机。
关键词:人工智能;学术诚信;制度悖论;数字原住民;权力话语
提升认知不是目的,服务人类才是
知识当然可以通过性传播,而且主要通过性传播
一头猪的最后24小时
月光下的《金刚经》
从玩具店老板到教育专家,他只用了三个月……
两年投稿血泪史:那些花出去的钱,够买一辆车了