来源 | The Plant Cell
文:Patrick Hüther, Niklas Schandry, Katharina Jandrasits, Ilja Bezrukov and Claude Becker
译:Xiaohong Zhuang, TPC Assistant Features Editor
Hüther et al.在
The Plant Cell
在线发表了题为
ᴀʀᴀᴅᴇᴇᴘᴏᴘsɪs, an Automated Workflow for Top-View Plant Phenomics using Semantic Segmentation of Leaf States
的研究论文,
开发了一套基于植物图像数据库对图片深度学习的pipeline,从而可以智能提取分析植物表型。
背景:
为了研究基因的功能,我们需要将遗传信息和表型两者联系起来。准确测量植物的大小,形状和颜色,对于植物生物学中大部分的研究问题来说都是至关重要的。大部分情况下,对植物表型分析意味着需要收集大量图像,随后需要对其进行处理和分析以提取相关的植物表型信息。近年来,我们在解码基因组信息的效率和规模呈现出指数级增长的趋势。相比之下,当今进行大规模植物研究的一个瓶颈主要在于是否可以实现可靠的自动化图像处理。我们的目标是开发一条pipeline,使其在可视图像中准确识别植物并提取表型参数,同时只需极少的人力投入。
科学问题
:
我们着手建立一个基于无监督的机器学习的植物表型pipeline,该pipeline不仅可以从俯视图中提取出植物图像,而且还可以分析和反馈一系列表型性状的测量值。我们将该pipeline命名为ARADEEPOPSIS,旨在能够处理大量数据库,即使是非专业用户也可以访问,并且在普通计算机环境上也可以运行。
研究结果
:
我们的研究结果表明,可以使用相对较少数量的人工注释的拟南芥图像就可以成功地重新训练已经建立的深度神经网络,因此证明迁移学习(Transfer Learning)的方法可以解决研究植物表型中面临的挑战性问题。通过分析整个植物发育过程中收集的150,000张图像,我们不仅能够对莲座丛区域(rosette)正确分割,而且还可以根据叶子的健康状况自动对其进行评估分类,从而证明了该pipeline的多功能性。因此,我们的开发流程允许我们进一步对富含花青素的区域和衰老区域进行自动分割,从而我们可以在全基因组关联研究中将这些表型与物种中的常规遗传变异联系起来。