专栏名称: 硅发布
我们在硅谷,为您报道最前沿趋势。
目录
相关文章推荐
算法与数学之美  ·  Deepseek横空出世,打脸中科院孙院士团队! ·  12 小时前  
算法爱好者  ·  DeepSeek 下棋靠忽悠赢了 ... ·  昨天  
算法与数学之美  ·  二级教授、大学原副校长,国务院特殊津贴获得者 ... ·  2 天前  
51好读  ›  专栏  ›  硅发布

什么医疗项目是伪 AI?

硅发布  · 公众号  ·  · 2018-01-30 12:11

正文


以下为硅发布第 29 期跨境直播 什么医疗项目是伪AI? 里部分分享,分享嘉宾为美国非传统医疗器械孵化器TheraNova业务发展副总裁林源。此前林源就职于强生和巴德,林源也是TheraNova孵化器里唯一一位华人。



什么是真正的 AI +医疗硬件


如果说定义,维基百科会有一个,我觉得挺全面。实际应用中我自己有两方面感受: 第一,既然是 AI ,当你有一个输入时,你可以预测它输出,但这个输出,不会百分百和你预测的一样, 即你的输入和输出不会是一个一对一结果,而是一个黑匣子关系。


这个定义其实已经砍掉很多自称是 AI 的东西。举个例子:现在 AI 最流行应用是看病理片子,那如果我和你都是非常好医生,看出来结果可能一样,但如果你没那么多经验,看出来的也许就不同。所以 AI 能抓住本质,哪怕它表征不同,如果你是训练得很好的 AI,理论上它应该能看到很多东西。


再举一个例子:眼底筛查。实际上现在眼底 AI 的识别很多人已经不觉得是 AI。因为就是一个图像识别应用,关系相对简单直接,你有没问题?一个简单的图像识别就能看出来,不需要多层级变化。那在我定义里,这种我可能就会把它定义成不是 AI,或勉强是弱 AI。


第二,要有一个“持续性学习”过程 比方说我们有个项目要预测“急性肾损伤”的提前量(要预测 3 或 10 个小时后这个人可能发生急性肾损伤)。假设我模型是在不断学习,那么 30 天后数据量增加,它应该会算出比今天更好的结果,比方说现在能算出三小时后可能有问题,但如果是更好的 AI 计算假设过程,提前四小时可能就知道了。所以它是可持续学习的,有能够进步的空间(有自己思考空间)。反过来看,现在很多项目都没这个空间,它就一直恒定不变,现在训练是这个时间,以后也一直这样;或者说,它其实是拿一堆数据来得到一个结果,没有持续性学习过程。


我的观点:基本上上面两个条件都必须达到,才能称为医疗器械方面的 AI 项目。


“AI+医疗”最不可忽略的 3 个问题


第一,大家都在讨论 AI 的技术,但有时忽略了一个本质问题,即数据的来源和质量。现在看,数据来源是最重要的。我给大家看个图:


纵轴是附加值,横轴是产业组成部分。 现在附加值最多的是哪一块?其实是数据来源和应用场景 ,而算法都快变成一个“商品”,因为人才积累多了,谷歌、苹果等 AI 相关领域工作过的工程师,都有了一定技术积累,它附加值就慢慢变少,但高质量的数量来源仍然很少,必须从医院来,医院的数据还是稀缺,而且你得是有标识的数据,然后是标准化的数据。


但曾经有一段时间,AI 刚有时,图中这个钟是倒过来的,因为算法稀缺,只有那么几个人会,可能当年只有李飞飞、吴恩达这些牛人才真正掌握。那时在市面上还没有那么多自称 AI 的公司时,虽然数据也少,但至少还有,而这些人是稀缺的。现在反过来,探索数据源和应用场景的人附加了更多价值,因为聚焦在图上半部分,数据来源是他们找到的,当然也可能是在技术帮忙下找到的,应用也是他们去医院发现。这是我想表达的第一点。


有关数据来源的另一概念是:已经存在的很多数据来源,价值没有新来源的数据高。为什么?比方说,我们都想拿到心脏的压力数据,你是放个传感器进心脏里才能拿到,但我吹一口气就能拿到,后者这种低创伤性的数据来源,就一定要比前者数据来源价值更高。


第二,医疗不是数字游戏。 很多人说:假阴性 98.5%,假阳性 97.5%,模型运算上已经很好,可真正在医疗过程中会发生什么呢?我们跟医生有过很多探讨,尤其是假阴性,我举个例子。


比方说做影片识别。那么假阴性是什么?是这个人有癌症,但你没看出来,不管你是 98.5 还是 99.5,如果你是那 0.5,那就麻烦了。对人类来说,只要没达到 100%,就都一样有问题。我可能比较极端,在假阴性没达到 100% 前,我认为 AI 就只能辅助人。有人说人也有失误,但一个新事物要代替人时,你必须比我更好,否则我用你干嘛?


所以不能刻意去追求数据化,而是说:这个数据到临床到底是什么? 比如我一个朋友在做一个直肠癌项目,就是息肉的筛查,做肠镜,医生要一点点进去看肠壁,到底有没有东西?这一做就要做 20、30 分钟。医生很累,那如果有图像识别能帮医生更快,肯定更好。


我觉得这个事从数据来源和应用场景上,AI 都 OK。但医生不这么认为。因为这里最开始做出的模型,假阴性可能已经做到很好,都是 97% 多,但医生说:不行,你要反过来看:假阴性你要调到零,如果能到零,假阳性没关系,你告诉我这个是假阳性,可能是,这个也可能是,然后我看一眼,这个不是,那个不是,就没关系了,对吧?但如果你给我丢掉一个,那不行,我宁愿错杀一百,不能放过一个,这个逻辑是可以的。所以他们就要重新去调模型,把假阴性填得很高,那假阳性就变成 80% 多,但机器这样就至少能辅助医生。所以给到大家这个例子,如果我们只看数据游戏,第一个肯定更好,但实际应用场景下,要根据临床需求去判断。


第三,AlphaGo Zero打败AlphaGo。他们两个前者是没有用人类规则,我们只是告诉它围棋规则,但没告诉它人类怎么下,而后者是我们同时告诉它我们这么下,所以AlphaGo其实是人类的一个子集,它可能最后通过计算,也创造出了一些我们看不大懂的算法,但没有跑出人类思维方式,AlphaGo 打赢了人,是因为它计算能力比人强,反应更快,而且没有情绪,未必是它的思维比人强,因为它的思维来源是人给它训练进去的,就像你教小孩说话,TA 说的就是中国话,走不出更远,可能中国话比你强,或者唱歌比你更好。


而 Alpha zero 可怕地方在我只告诉你围棋规则是这样,至于你想怎么下,你自个儿玩去,所以它就走出了人的框架,跟人一样,你从没教过它下围棋,你只告诉它围棋规则和目的,它自个就不断试怎么能赢,慢慢下着下着,36 个小时后就把 AlphaGo 打败了。


而未来真正的 AI 在医疗中的本质上变化就会发生这样的事。比方说我告诉你这个片子是一个癌症病人,这个片子是一个健康的人,这个片子又是一个癌症病人,我都给你,然后我告诉你癌症定义是这样,你自己去学,最后你给我找出哪个片子是癌症,它也许就能做得比人强,因为能看到我看不到的东西,本质上已经真的做得比我们好。但医疗的规则比围棋的规则复杂得多,人类还都在不断探索,所以这条路还很长。


TheraNova里符合AI定义的项目







请到「今天看啥」查看全文