AI独立地诊断疾病 人类医生可以不用负责?
设想一下,你去一家医院看病,一进诊疗室的门就有一位护士不断地为你拍照,然后这些照片会上传到一台AI设备里,这个设备则会根据照片里你的模样来进行病情诊断……而在整个过程中,不会出现任何专业的人类医生。
是不是觉得不可思议?即使现在AI医疗发展得很快,一些AI在医疗领域实现了不同程度的落地,比如AI识别医学影像、药物研发、辅助诊断等,但这些AI起到的基本还是辅助作用,最终负责决断的依旧是人。让AI执证上岗,独立地做临床诊断,似乎从未见过。
然而,这样的“看病模式”可能已经开始了。
近日,美国食品和药物监管局(FDA)首次批准了一种人工智能诊断设备IDx-DR,该设备可以通过观察视网膜的照片来检测一种眼科疾病,并且不需要专家医生的参与。
也就是说,这个叫IDx-DR的AI设备竟然有了上岗证,成为了一名真正的“医生”!
科学家们不断攻破一个又一个的技术难关,我们高兴的同时,却也有隐忧。医疗AI之路越走越顺畅,但现在就出现独立的AI医生,合适吗?
AI医生要“独立”,还缺乏完整的产业链
智能相对论分析师颜璇认为,我们要想让AI医生独立起来,必须在一开始就深入研究产业布局和各产业链每个环节的协调和共生的发展,否则,只要里面有一个环节发展不良,就会导致智能医疗的结构出现上下游之间的断档,亦或被技术伦理问题所牵绊。
AI医生的落地还没有标准
从患者端或者是其它的医疗使用端来看,医疗AI其实在短时间内不会有特别大的变化。因为证批不下来,以及如何为一个AI医生去批证也是模糊的。AI医生合格的标准是什么?是器械的精密性,还是诊断的正确率?即使是FDA批准的IDx-Dr,在一项使用了900多张图像的临床试验中,检测到视网膜病变的正确率也仅是87%。
归根结底,AI医生能否落地,并不是要思考机器究竟算不算人的哲学问题,而是行政是否授权的问题。在医疗领域,一个产品的落地,必定包括许可证、医学严谨性的问题,聘用一个独立的AI医生,这可能还有比较长远的路要走。
“售后”服务不好办
在现实生活中,病人碰上了医生误诊,可以要求医院赔偿或者处分该医生;医生给你看病,5个里面治好3个可能就差不多了。然而AI给你看病,可能100个里就错了1个,那唯一被看错的那个会怎么想?遇到水平不够好的医生,还能自嘲一句“遇人不淑”,遇到误诊的AI呢,恐怕就没那么宽容了。
首先,追责医院和厂家肯定少不了。然后呢,要怎么办?“罪魁祸首”AI还没有受到任何处理呢。
销毁掉这个AI医生吗?或者把这个AI医生的“头脑”格式化,以示惩罚?但是,一把抹灭它看对了99个病人的功劳似乎不妥。而且,在医学方面,随着电子病历和数字胶片的积累,大量结构化病例被用于机器学习,对于AI医生,这个模型训练的大数据至少是以10万份为起点。
图片新闻
最新活动更多
-
11月30日立即试用>> 【有奖试用】爱德克IDEC-九大王牌安全产品
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-0120限时下载>>> 爱德克(IDEC)设备及工业现场安全解决方案
-
限时免费下载立即下载 >>> 2024“机器人+”行业应用创新发展蓝皮书
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 【线上&线下同步会议】领英 跃迁向新 年度管理者峰会
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论