人工智能在医疗领域的应用风险很大
随着科学技术进步,在医疗健康领域已有不少AI应用成功案例,譬如:新药研发、辅助疾病诊断、辅助治疗、健康管理、医学影像、临床决策支持、医院管理、便携设备、康复医疗和生物医学研究。
人工智能的发展毫无疑问受到了人们极大的关注,医疗领域一直以来,都希望通过人工智能的发展来提高医疗技术,使得行业发展更上一层楼。
据统计,目前在新药研发、辅助疾病诊断、辅助治疗、健康管理、影像、临床决策支持、医院管理、便携设备、康复医疗和生物医学研究等十大领域,都有人工智能的实操案例。
虽然医学人工智能是发展的大趋势,但目前AI还有很多不成熟的地方,如果大规模在临床应用的话是很危险的。
人工智能要一分为二地看待。
一方面,从积极的态度看,医学人工智能目前是发展大趋势。大数据技术的发展使得AI已成为一个行业发展的必经之路和重要方向。
从需求上来说,无论是大医院的医生,还是基层医生,都需要一些辅助用具,都需要一些用以决策的数据依据。按照人的记忆能力,是没法完成数字化大规模运算和大规模记忆存储的,这是人脑的局限性,而机器正好弥补了人类的短板。
目前AI还处在非常初级的阶段,有很多不成熟的地方,包括数据模型的建立、数据的来源以及知识模型和知识标准等,这些方面都很初级。
而且,目前都是工程师在建立模型,很少有临床医学的专家参与这个过程。所以在这个阶段,AI还存在很多缺陷和风险,如果大规模临床应用的话是很危险的,因为医疗是不能出错的。
现在的AI是基于国际开源的一些公用的模型和算法,所以它局限在我们的语音识别、图像识别,对于很多其他逻辑数据的建立,目前还很难建造一个非常符合临床医学规律的数据模型。所以,这就需要更多的数学家参与到医学AI的开发中来。
在目前这个状态下,AI用在基层医疗上是不行的,是一个风险所在。或许很多大专家有判断能力,但是基层医生是没有判断能力的,你把这样一个机器给他,他无法判定是采取机器的建议还是拒绝机器的建议,这对诊断疾病来说就会有潜在风险。
同时,患者对医生的信任,不仅取决于医生的职业能力,还取决于其职业口碑。而口碑则与其服务患者的态度等个人特质相关。在这方面,人工智能显然还远远达不到医生的水平。
有经验的医生,会根据自己的经验,综合考虑病人的病情、病人本身的情况、家属的情况、甚至社会影响等因素,有选择性地给出诊断结果和治疗意见。而目前,人工智能则只能根据病人的数据分析给出“直接且冰冷”的通知。
即便用上更温和的声音和形象,还是很难达到病人的心里需求。因为患者除了想从医生那里的到专业诊断之外,还想从其诊疗过程中获得“能否治愈”等信息。而对于那些严重的、紧急的病人来说,由人工智能给出程式化的诊断结果,无形中可能降低其治疗信心。
现在AI的整个设计逻辑还存在短板,它是基于一种完全可控的、可知的、可预测的数学逻辑去建立的模型,换句话说,它是符合现代简单数学逻辑的,比如“1+1=2”的这种。
但我们的临床疾病很多情况下不是如此清楚的数学逻辑,它是因果关系,其中会涉及很多潜在的干扰因素,还有未知因素,所以目前建立起来的AI模型还无法模拟临床上的这种因果关系。
简单一句话就是,目前的AI不具备逻辑推理能力,因为人还不知道自己的逻辑推理是怎么算出来的。
从生物学上来说,我们对人的这些跳跃性思维还不完全掌握,我们看到科学界有很多报告也对AI的一些优点和弊端做了相关鉴定。一方面,AI具备大规模的运算能力、存储能力、深度搜索能力以及快速学习能力。
它目前解决的包括精确控制和远程操控,都是劳动密集型问题,也就是重复性的、简单逻辑很明确的工作关系。但是对临床诊断来说,它需要逻辑推理能力,这是AI的短板。所以目前整个AI的运用还有很大风险。
从思维方式上来说,积极的深度学习是一个连续性的学习,我们在人脑上叫连续性思维,但目前机器无法做到的是跳跃性思维。
比如,我们人类有个事情解决不了,睡了一觉后,第二天早上突然灵光一现,找到了解决方案,这种跳跃性思维目前从生理学上是怎么诞生的,我们并不知道,这是脑科学还没有解决的问题,所以无法用机器去模拟这种跳跃性思维,这时候就无法完成逻辑推理层面上的治病过程。
你不知道结果的可信性,你就无法判断这个结果在临床上是不是可以使用,这是目前AI最大的一个风险。所以我们要研究到底在医疗上采用什么样的方式去建立AI模型,这是当下科学界最紧迫的一个议题。
所以在医疗的AI应用上,不太建议从深度学习做起,不应该从过去发生的案例来进行深度学习,而是应该从我们已经确定的知识结构开始,这是两个方向。中国科学院的几名院士也提出,目前的AI深度学习不适合在医疗上应用。
相关文章:
相关推荐:
网友评论: