侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

AI独立地诊断疾病 人类医生可以不用负责?

2018-04-29 01:11
来源: 亿欧网

设想一下,你去一家医院看病,一进诊疗室的门就有一位护士不断地为你拍照,然后这些照片会上传到一台AI设备里,这个设备则会根据照片里你的模样来进行病情诊断……而在整个过程中,不会出现任何专业的人类医生。

是不是觉得不可思议?即使现在AI医疗发展得很快,一些AI在医疗领域实现了不同程度的落地,比如AI识别医学影像、药物研发、辅助诊断等,但这些AI起到的基本还是辅助作用,最终负责决断的依旧是人。让AI执证上岗,独立地做临床诊断,似乎从未见过。

然而,这样的“看病模式”可能已经开始了。

近日,美国食品和药物监管局(FDA)首次批准了一种人工智能诊断设备IDx-DR,该设备可以通过观察视网膜的照片来检测一种眼科疾病,并且不需要专家医生的参与。

也就是说,这个叫IDx-DR的AI设备竟然有了上岗证,成为了一名真正的“医生”!

科学家们不断攻破一个又一个的技术难关,我们高兴的同时,却也有隐忧。医疗AI之路越走越顺畅,但现在就出现独立的AI医生,合适吗?

AI医生要“独立”,还缺乏完整的产业链

智能相对论分析师颜璇认为,我们要想让AI医生独立起来,必须在一开始就深入研究产业布局和各产业链每个环节的协调和共生的发展,否则,只要里面有一个环节发展不良,就会导致智能医疗的结构出现上下游之间的断档,亦或被技术伦理问题所牵绊。

AI医生的落地还没有标准

从患者端或者是其它的医疗使用端来看,医疗AI其实在短时间内不会有特别大的变化。因为证批不下来,以及如何为一个AI医生去批证也是模糊的。AI医生合格的标准是什么?是器械的精密性,还是诊断的正确率?即使是FDA批准的IDx-Dr,在一项使用了900多张图像的临床试验中,检测到视网膜病变的正确率也仅是87%。

归根结底,AI医生能否落地,并不是要思考机器究竟算不算人的哲学问题,而是行政是否授权的问题。在医疗领域,一个产品的落地,必定包括许可证、医学严谨性的问题,聘用一个独立的AI医生,这可能还有比较长远的路要走。

“售后”服务不好办

在现实生活中,病人碰上了医生误诊,可以要求医院赔偿或者处分该医生;医生给你看病,5个里面治好3个可能就差不多了。然而AI给你看病,可能100个里就错了1个,那唯一被看错的那个会怎么想?遇到水平不够好的医生,还能自嘲一句“遇人不淑”,遇到误诊的AI呢,恐怕就没那么宽容了。

首先,追责医院和厂家肯定少不了。然后呢,要怎么办?“罪魁祸首”AI还没有受到任何处理呢。

销毁掉这个AI医生吗?或者把这个AI医生的“头脑”格式化,以示惩罚?但是,一把抹灭它看对了99个病人的功劳似乎不妥。而且,在医学方面,随着电子病历和数字胶片的积累,大量结构化病例被用于机器学习,对于AI医生,这个模型训练的大数据至少是以10万份为起点。

1  2  下一页>  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    机器人 猎头职位 更多
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号