专栏名称: 生物制品圈
资源分享,行业交流!
目录
相关文章推荐
BioArt  ·  Nature|NKp46活化ILC1放大自身 ... ·  3 天前  
生物探索  ·  Nat Cell Biol | ... ·  5 天前  
BioArt  ·  Cell | ... ·  6 天前  
51好读  ›  专栏  ›  生物制品圈

ChatGPT在医学领域:其应用、优势、局限性、未来展望及伦理考量

生物制品圈  · 公众号  · 生物  · 2024-09-22 09:28

正文

摘要:本文分析了聊天生成预训练转换器(ChatGPT)和人工智能(AI)在医疗保健和医学领域的应用、优势、局限性、伦理考量、未来展望和实际应用。ChatGPT是一个使用深度学习技术生成类似人类对自然语言输入的响应的高级语言模型。它是OpenAI开发的生成式预训练转换器(GPT)模型家族的一部分,并且是目前最大的公开可用的语言模型之一。ChatGPT能够捕捉人类语言的细微差别和复杂性,使其能够跨广泛提示生成适当且与上下文相关的响应。ChatGPT在医学领域的潜在应用范围从识别潜在研究主题到协助专业人员进行临床和实验室诊断。此外,它还可用于帮助医学生、医生、护士和所有医疗保健领域的成员了解他们各自领域的更新和新发展。开发虚拟助手以帮助患者管理健康是ChatGPT在医学中的另一个重要应用。尽管ChatGPT和其他AI工具在医学写作中具有潜在应用,但也存在伦理和法律问题,包括可能侵犯版权法、医疗法律复杂性以及AI生成内容的透明度需求。总之,ChatGPT在医疗和保健领域有多种潜在应用。然而,这些应用伴随着一些局限性和伦理考量,本文将详细呈现,同时探讨医学和保健领域的未来前景。

1.引言

ChatGPT是一个利用深度学习技术对自然语言输入产生类似人类响应的高级语言模型。它是OpenAI开发的生成式预训练转换器(GPT)模型家族的成员,并且是目前最大的公开可用的语言模型。通过使用大量文本数据,ChatGPT能够捕捉人类语言的细微差别和复杂性,使其能够跨广泛提示生成适当且与上下文相关的响应。尽管AI(人工智能)在客户支持和数据管理等各个领域长期使用,但其在医疗保健和医学研究领域的实施相对有限。在医疗保健系统中利用AI至关重要,因为它能够提高精确性和准确性,同时减少系统各个方面所需的时间。将AI纳入医疗保健各个方面的长期益处可以提高该领域的效率和准确性。ChatGPT在医学领域的潜在应用范围从识别潜在研究主题到协助专业人员进行临床和实验室诊断。然而,这些应用伴随着一些局限性和伦理考量,如可信度、剽窃等,本文将在后文中更详细地介绍。此外,最近有关ChatGPT在研究论文中的作者身份的讨论出现了,这涉及各种标准和考量,本文将探讨这些内容。到目前为止,只有少数研究记录了ChatGPT在医疗和保健领域的使用和不同方面。本文提供了ChatGPT和AI在医疗保健和医学领域的优势、局限性、伦理考量、未来展望和实际应用的分析和介绍。

2.优势和应用

ChatGPT拥有众多可以利用的应用。多篇文章报道了ChatGPT用于撰写科学文献的情况,其中一项研究表明ChatGPT能够产生正式的研究文章。作者发现,该词汇表达得体,似乎具有传统语调,并且阅读起来令人愉悦。ChatGPT有潜力被用作搜索引擎,直接回复查询,而不是引导用户到必须自行获取答案的网站——这使得撰写研究论文更加容易,并减少了作者在搜索文章和应用各种选择标准以选择最适合其研究的文章的繁琐过程中所花费的时间,从而允许他们将这些时间分配到实际的研究工作和方法论上。它还可以用作创意会议中的中介,从而协助主题选择并为研究项目提供一个开始(图1)。

图1.应用、优势、局限性和伦理考量概览。

此外,ChatGPT生成的文章似乎能够绕过传统的剽窃检测方法。在一项研究中,聊天机器人被指派使用发表在如JAMA、《新英格兰医学杂志》、《英国医学杂志》、《柳叶刀》和《自然医学》等著名期刊上的一组文章来生成50篇医学研究摘要。随后,这些生成的文章被剽窃检测软件、AI输出检测器和一组医学研究人员审查,他们被要求识别任何人工生成的摘要。研究发现,ChatGPT生成的摘要顺利通过了剽窃检测软件:原创性得分的中位数为100%,表明没有检测到剽窃,而AI输出检查器仅识别了66%的生成摘要。此外,它还可以通过分析超出单一个体专业知识范围的大量可用文献,减少在实验上花费的时间、精力和资源,这些实验有更高的概率得到无用的结果。它具有类似人的“大脑”,并且成功地回忆起与其之前的互动以及先前用户的评论——这是以前的AI语言模型常常较弱的品质。

开发虚拟助手以帮助患者管理健康是ChatGPT在医学中的另一个重要应用。它可以被用来生成患者互动和病史的自动摘要,使医生和护士的医疗记录过程更加流畅。通过口述他们的笔记,医疗专业人员可以利用ChatGPT自动总结关键细节,如症状、诊断和治疗,以及从患者记录中提取相关信息,如实验室结果或影像报告。它还可以通过分析大量患者数据来帮助临床试验招募,以识别符合试验资格标准的个体。此外,ChatGPT还可以帮助患者管理他们的药物,提供提醒、剂量说明以及关于潜在副作用、药物相互作用和其他重要考虑的信息。

根据最近一篇关于人工智能对镰状细胞病自我管理的好处的文章,ChatGPT可以作为一个可靠的对话代理,从患有多种疾病患者那里收集信息。它也可以帮助医学生、医生、护士和所有医疗保健界的成员了解他们各自领域的更新和新发展,并且可以作为评估临床技能的工具,从而在医学教育中发挥关键作用。像ChatGPT这样的聊天机器人可以用作提高健康素养的强大工具,特别是在学生和年轻人中。

ChatGPT还可能被用于诊断。最近对基于AI的聊天机器人症状检查器(CSC)应用程序的兴趣激增,这些应用程序采用类似人类的互动提供潜在诊断,并支持用户根据人工智能(AI)方法进行自我分流。此外,ChatGPT还可用于临床决策支持和患者监测,根据警告信号和症状建议咨询医疗专业人员。

3.局限性 

尽管ChatGPT和其他人工智能(AI)工具在医学写作中有潜在应用,但也存在伦理和法律问题。这些问题包括可能侵犯版权法、医疗法律复杂性以及生成内容的不准确性或偏见。因此,重要的是要承认并解决与使用AI进行医学写作相关的局限性和问题。根据放射学期刊上的两篇论文,AI模型生成的文本的准确性严重依赖于所使用的训练数据的质量和性质,在某些情况下,这些模型的输出可能是错误的,导致潜在的法律问题,如诉讼。

不准确性、偏见和透明度是使用AI生成文本时需要解决的额外问题。AI技术的不道德使用可能扩展到伪造图像,这构成了一种科学不端行为。此外,输入给它的数据仅更新到2021年。此外,还有许多其他限制妨碍了其在研究目的中的有用性,例如倾向于提供不准确的回应和重复先前互动中的短语。此外,它可能对问题的措辞变化过于敏感,并努力澄清含糊的提示。聊天机器人可能难以识别重要信息并区分可靠和不可靠的来源,类似于人类面临的偏见。这可能限制了它们在研究中的有用性,因为它们可能只是复制已经完成的工作,而没有增加类似人类的科学洞察力。因此,一些科学家反对使用聊天机器人进行研究。

可以通过虚构的引用和不相关的参考资料来识别ChatGPT生成的文本,这有助于识别剽窃和其他问题。然而,仍然存在关于学生和科学家可能使用ChatGPT欺骗他人或将其生成的文本作为自己的文本的担忧。应当强调的是,目前像ChatGPT这样的语言模型还不能完全接管人类作家的角色,因为它们缺乏医学领域的类似水平的理解和专业知识。因此,那些使用语言模型的人必须承认这些局限性,并采取措施保证书面材料的准确性和可靠性。

4.伦理考量 

ChatGPT遵循欧盟的AI伦理指南,强调人类监督、技术鲁棒性和安全性、隐私和数据治理、透明度、多样性和非歧视、社会和环境福祉以及在AI系统的开发和部署中的问责制的重要作用。这些指南强调赋予人类权力、确保安全和准确性、尊重隐私、防止不公平偏见、促进可持续性以及提供问责机制和负面结果的补救选项的重要性(《值得信赖的AI伦理指南 | 塑造欧洲的数字未来》, 2019)。大多数科学文献中的文章似乎只关注与在医学文献中使用ChatGPT有关的伦理问题,因为它在医学中的其他应用尚未广泛使用。将AI纳入文献引发有关作者身份和所产生内容的问责问题。尽管ChatGPT创造的文章剽窃较少,但并非完全无剽窃,需要人工编辑。基于ChatGPT所做作品的推荐信和个人评论也可能引起合法性的怀疑。当AI生成的语言用于商业目的时,至关重要的是确保它不违反任何潜在的版权。根据Nature新闻团队联系的出版商和预印本服务器的说法,ChatGPT不符合研究作者的标准,因为它无法承担内容和科学研究真实性的责任。

ChatGPT可能服务于消除语言障碍的社会目的,进而允许更多个体产生高质量的医学文献。然而,与其他技术一样,高收入国家和特权学者最终可能会发现利用大型语言模型(LLM)的方法,以推进他们的研究,同时加剧差异。因此,讨论必须包括研究中代表性不足的群体的个体以及受研究工作影响的社区的人们,以便利用人们的个人经验作为宝贵资源。必须检查和明确作者身份定义。

随着ChatGPT等算法在未来几年变得更加复杂和高效,因为它们使用来自互联网和其他地方的不断增加的数据进行更新,它们被滥用和操纵的可能性很大。一项研究指出,一些用户试图重新措辞查询,并要求模型在不施加道德限制的情况下如何行窃;模型选择合作,并提供了大量关于行窃策略的信息。因此,重要的是个人将其作为辅助资源使用,而不是完全依赖它,并在考虑伦理问题的同时验证它生成的内容。

5.未来展望

未来,ChatGPT将被广泛使用并集成到所有文本编辑程序中。应该开发先进的系统,可以专注于识别ChatGPT对数据进行的即使是微小的操纵。目前,识别ChatGPT的输出需要编辑的仔细检查,它不能正确引用资源的能力构成了挑战。然而,正在进行的研究旨在解决这些问题并提出有效的解决方案。期刊应该实施严格的关于在学术论文中使用AI的指南,以最小化其滥用。教育者可以改变作业问题,优先考虑批判性思维技能,而不是仅仅依赖于检测ChatGPT的局限性以检测潜在的学术不端行为,从而限制不当使用技术的机会。ChatGPT虽然不连接互联网并且知识有限,可能会产生不准确或有偏见的内容。然而,用户可以通过使用“拇指向下”按钮提供反馈,这使得ChatGPT能够学习和改进其响应。此外,由AI训练员审查ChatGPT生成的响应,以提高系统的性能。收集的数据被安全存储以确保用户隐私,并可以根据要求删除。

6.讨论

ChatGPT是一个工具,可以在医疗保健和医学的各个领域中提供帮助,如构建科学文献、分析大量文献和作为对话代理。它在系统中有许多优势和应用,但它们不能在不了解和理解其局限性和潜在伦理问题的情况下实施,如侵犯版权法、偏见和问责困境。ChatGPT可以显著减少执行各种任务所需的时间。然而,它在总结患者数据、研究任务和AI启用的症状检查器等任务中的使用仅限于少数人。如果明智地使用,使用ChatGPT节省的时间可以用于更有生产力和优先级的任务。它还可以被医疗保健专业人员用来以更患者友好的方式翻译和解释患者的医疗记录或诊断。

克服ChatGPT当前的局限性,如改进和培训聊天机器人,以从来源提供100%准确和无偏见的信息,对于解决阻止大多数期刊允许ChatGPT作为作者的问责问题至关重要。然而,一些预印本服务器允许将ChatGPT作为作者与人类作者一起提交。为了解决问责困境,一个可能的解决方案是作者在他们论文的方法或其他相关部分中清楚地解释他们如何使用ChatGPT作为工具来协助他们的研究。这可以帮助期刊和读者承认ChatGPT在研究过程中的作用,并确保透明度。制定适当的协议和建立明确的责任界限可以帮助减轻使用ChatGPT进行研究和写作相关的风险。如果适当监督,ChatGPT可以协助从医学生到医生的所有专业人员完成他们的专业任务,并帮助他们高效工作。

7.结论 

ChatGPT是一个尖端的语言模型,在医疗保健和医学领域具有许多优势和应用。它可以协助医疗专业人员完成各种任务,如研究、诊断、患者监测和医学教育。然而,使用ChatGPT也提出了几个伦理考量和局限性,如可信度、剽窃、版权侵犯和偏见。因此,在实施ChatGPT之前,需要彻底评估和解决潜在的局限性和伦理考量。未来的研究可以专注于开发方法来减轻这些局限性,同时利用ChatGPT在医疗保健和医学领域的益处。


为促进抗体行业的交流与创新,2024年10月16-17日第七届金秋十月抗体产业发展大会如约而至。会议旨在为研究人员提供一个互动交流的平台,有助于推动抗体产业的进一步发展。


会议内容

时间:2024年10月16-17日

地点:上海张江(酒店定向通知)

规模:600-800人

主办单位:生物制品圈、抗体圈

演讲支持:Entegris、瑞孚迪、AS ONE CORPORATION

会议费用:免费FREE!(仅收取100报名定金,含参会学习、茶歇、会议手册,定金概不退还),先到先得,报完即止

报名方式:扫描下方二维码或点击文章最底部“阅读原文”→ 填写表格 → 报名成功(报名志愿者,承担一定工作,请慎重考虑,免交定金)!

组委会获得报名信息后,根据报名信息进行初筛,并进一步与报名者沟通确认,实现精准邀请。最终有机会进入大会微信群(严格审核通过)。


日程安排

更多嘉宾正在邀请中

第一届精彩回顾

第二届精彩回顾
第三届精彩回顾
第四届精彩回顾
第五届精彩回顾
第六届精彩回顾
识别微信二维码,添加生物制品圈小编,符合条件者即可加入
生物制品微信群!
请注明:姓名+研究方向!





本公众号所有转载文章系出于传递更多信息之目的,且明确注明来源和作者,不希望被转载的媒体或个人可与我们联系([email protected]),我们将立即进行删除处理。所有文章仅代表作者观点,不代表本站立场。