专栏名称: 络绎科学
专业的科创成果产业化社区,与青年科学家同行。
目录
相关文章推荐
程序员小灰  ·  疯了!下载 DeepSeek 最高判20年! ·  3 天前  
一叶目开  ·  新时代的育儿方向——有点学历的韦小宝 ·  5 天前  
一叶目开  ·  新时代的育儿方向——有点学历的韦小宝 ·  5 天前  
51好读  ›  专栏  ›  络绎科学

如何用AI提升论文表达水平、同行评审与编辑的效率?这位教授在Nature发文给出了正确建议

络绎科学  · 公众号  ·  · 2024-05-01 19:03

正文


尽管在学界尚存争议,但使用大语言模型(Large Language Model,LLM)辅助学术写作在如今已日益常态化。


斯坦福大学团队的最新报告就指出,在 ChatGPT 发布后的短短五个月内,LLMs 已迅速成为许多学者修改和完善论文的重要工具, 特别是在计算机科学领域,大约 17% 的摘要,15.3% 的引言使用了大模型参与写作[1]。


图丨不同领域的学术写作中经由 LLMs 修改的句子的估算比例(来源:arXiv)

而《科学》(Science)、《细胞》(Cell)等顶级期刊也在此前相继开放绿灯, 允许研究者在“方法”部分中明确标注的前提下,使用生成式人工智能和大语言模型辅助论文文本与图像的生成,这标志着 LLM 在学术写作已逐渐被正式接纳和应用。


图丨《科学》期刊关于在学术论文写作中使用 AI 的政策变化(来源:Science)

显然,使用 LLMs 辅助论文写作已经越来越成为不可逆转的潮流。那么,与其保持抗拒,我们不如更主动地去思考,如何才能更好地利用这些技术来提高自己科研产出的效率。


近日,葡萄牙天主教大学助理教授德里琼-格鲁达(Dritjon Gruda)发表于 Nature Career Column 的专文为这一问题提供了指引[2]。


图丨相关文章(来源: Nature Career Column

格鲁达教授认为,LLMs 对科研写作有益与否的关键在于使用它的方法,其真正价值并不在于完全依靠它生成文本,而是在于利用这些工具,将其与个人专业知识来相结合起来,共同提升产出的质量。这种互动不仅有益于完善写作论述的内在逻辑,也能帮助提升我们简化复杂表述的能力。


首先在学术写作方面,LLMs 作为高效的文本润色工具,其效能取决于充足的语境信息供给。


当我们利用 LLMs 优化论文某部分时,首先要做的是向模型提供文章的语境背景,包括核心论点、研究领域或只是其关键要点,从而帮助 AI 理解任务的具体情境,然后再将这些信息呈现给我们所使用的生成式 AI。


至于具体模型的选用,虽然 OpenAI 的 ChatGPT 因其广泛适用性往往是首选,但对于需要精准把握语言微妙差异的任务,比如分析检索问题或文本,Google 的 Gemini 模型表现要更好一点。如果需要在离线情况下使用生成式 AI,那么 Mixtral 的开源LLM则是更为理想的选择。而对于中文的学术写作,或许国内各类大模型的表现会更为出色。


但无论我们选择哪种大模型,核心还是在于提供足够精确的指令。越明确的指令往往能产出更理想的成果。


例如,我们可以设定指令为:“我正在为一本顶尖【学科】学术期刊撰写一篇关于【主题】的论文。我在下面这一段尝试表达的是【具体观点】。请重新表述,以便于清晰、连贯和简洁,并确保每个段落自然过渡到下一个段落。去掉行话。使用专业语气。”


我们对一篇已发布表的文献(arXiv:2404.17524)中的文段稍加修改,使其缺乏连贯性和明晰性,借这段文字来演示一下上述方法的效果。


原网页为英文,为了方便描述用工具翻译成中文,内容或有不准确的情况(来源:络绎科学)

可以看到,相较原有内容,经过 AI 优化后的文本展现出了更高的专业性,在语言表述和逻辑上也流畅许多。


这种方法也可以用于回应审稿人意见。


但与 AI 对话的第一次回复可能并不完美,我们需要不断地进行优化和迭代。通过细化指令或添加更多有效信息,才能不断改善结果。


如果有些地方修改得不太到位,我们可以直接指出:“这还不是我想要的意思。请调整这部分。”或者,我们也可以认可其改进,促使理解正确的修改方式:“现在清楚多了,但还需要调整结尾部分,以便与下一部分有更紧密的衔接。”


这一过程可以将繁复的写作转化为可控的迭代过程,通过引入 AI 的视角丰富文本内容,使之蕴含超出作者当前认知的见解。从而,AI 能成为一种启发思维的对话伙伴,而非代替作者创作或担任评审角色。


其次,生成式 AI 也能为同行评审提供帮助。


实际上,此前斯坦福团队的另一项研究就表明,ICLR2024(International Conference on Learning Representations,国际表征学习大会)、NeurIPS(Conference and Workshop on Neural Information Processing Systems, 神经信息处理系统大会)等 AI 顶会的同行评审就有 16.9% 是由 ChatGPT 生成 [3 ] ,大语言模型实际上已经渗入了学术写作与出版的各个环节。


图丨ICLR 2024 同行评审中大概率由人工智能生成的词汇的出现频率变化(来源:arXiv)

但由于涉及隐私问题,目前学界对于在评审环节使用这一工具态度要更为谨慎,例如《科学》明确要求“审稿人不得使用人工智能技术来生成或撰写审稿,因为这可能会违反稿件的机密性”。因此,若要在评审环节使用 AI,那么其方法也要进行调整。


格鲁达建议,审稿人应在全面阅读稿件后,概括关键点与反馈要点,随后让 AI 辅助组织和表达这些反馈,注意避免直接上传原始稿件以保护隐私。


具体操作上,我们可以这样引导 AI:“假设你是拥有 20 多年【领域】学术经验的专家和资深学者。根据我对【领域】一篇论文的摘要,其主要焦点是【主题】,按照以下顺序提供对该论文的详细评审:1)简要讨论其核心内容;2)识别其局限性;3)按重要性顺序解释每个局限性的意义。始终保持简洁和专业的语气。”


文章认为,与 AI 的协作实际上具有丰富的可能性,这些工具经常能提供一些我们意料之外的视角。


例如,ChatGPT 擅长解释和证明审稿人在评审中发现的具体局限性的原因,这有助于我们理解研究贡献的更广泛内涵。如果我们能识别出方法上的局限性,ChatGPT 则可以详细阐述这些局限性并提出在修订中克服它们的方法,帮助我们将局限性及其对论文整体贡献的影响联系起来。


但要注意的是,AI 的建议并不一定完全正确,因此最终的评审责任始终在于审稿人自身,他必须能够区分事实与非事实,没有任何 AI 能可靠地做到这一点。


此外,LLMs 在期刊的编辑工作中也具有很高的实用价值。


对编辑们来说,向作者提供建设性的编辑反馈并非易事,尤其是当他们同时审核多篇稿件时,往往很难给每位投稿人给予一个足够清晰而充分的反馈,但这显然也是投稿人们并不乐于见到的。






请到「今天看啥」查看全文