更新时间:2024-09-20
LeCun,批评这篇论文的实际价值。(后期,将对纽约大学的这篇论文展开编译器和理解)Hugh Harvey说道到,虽然我们要向谷歌表示祝贺,但是不要忘了,去年纽约大学的团队就获得了更佳的结果,有更加多的数据检验,和更加多的放射科医生展开了对比。并且,纽约大学的代码和数据都开源了。
上面的这些话都不算客气,不过Hugh Harvey最后一句可就不留情面了:“只是纽约大学的学者们没PR团队来引发公众的留意罢了。”当然,有人赞成,也就有人反对。巴塞罗那大学机器学习和CV领域的教授Gabriel Oliveira就回应,如果我们无法采访数据集或代码,我们应当如何再现结果或检验它?尽管如此,任何在协助抗击癌症方面获得的进展和代价的希望都是热门的,所以祝贺谷歌这个团队。“敢说、不敢怼”的批判者2019年,LeCun与Hinton教授以及Bengio教授三人联合取得了2019年图灵奖,将联合获得100万美元的奖金。
虽然名誉加剧,不过LeCun仍然以来就是一个批判者,常常不会公开发表有所不同的意见。在去年ISSCC(国际固态电路会议)学术会议上讲话时,这位“敢说、不敢怼”的AI大牛就偷偷地抨击了英特尔神经形态计算出来实验室主任Mike Davies在做的神经形态计算出来,后面大自然引发了一场“隔空对战”。不过,作为深度自学领域的领军人物,对于人工智能的未来,LeCun的措辞向来很慎重,“AI离我们的目标还十分近,还约将近我们想的效果”。所以,对于谷歌需要打败打败了6名放射科医生,坚信LeCun也不会有自己的观点。
打算亲率99%靠谱吗?拆台“著名”医疗AI论文的现象仍然不存在。(公众号:)了解到,2017年12月,吴恩达团队就宣告,利用CNN算法辨识肺炎的准确率上打破了人类专业医师。紧接着,阿德莱德大学的放射科在读博士LukeOakden-Rayner就发表文章,批评吴恩达团队医学影像数据集的可用性问题。
要告诉,当时的ChestX-ray14 早已是仅次于的开放式胸透照片数据集,包括 14 种疾病的 10 万张前视图 X-ray 图像。为了证明自己的观点,LukeOakden-Rayner博士依序对“标签的准确度”、“标签的医学意义”、“标签对于图像分析的重要性”等三个问题展开了阐述。
除了数据集,AI如何需要按照人类特别是在是医生的思维来得出结论,只不过更为最重要。斯坦福大学皮肤科的Novoa博士也荐了一个例子辩论过这个问题:当皮肤科医生查阅一种有可能是肿瘤的恶性肿瘤时,他们不会利用一把尺子——就是你在小学时用的那种——来精确测量它的大小。皮肤科医生这样做到是为了查阅病灶。
因此,在一组前列腺图像中,如果图像中有尺子,算法更加有可能将其辨别为恶性肿瘤,因为尺子的不存在与病症癌变的可能性涉及。意外的是,Novoa特别强调,该算法不告诉为什么这种相关性是有道理的,所以很更容易误会为一把随机的尺子是临床癌症的根据。
而就在上文中,谷歌此前提及的“晚期乳腺癌的人工智能检测系统,可以在99%的情况下正确区分转移性癌症”,也存在疑惑。我们要告诉,计算机工程界常用的评价指标有两个:Accuracy (准确率):辨别准确的样本数与总样本数之间的比例。计算方法为,系统准确辨别为阳性与准确辨别为阴性的数量之和除以总样本数量。
Precision (准确亲率):系统辨别为阳性的情况中准确的比例。计算方法为,系统准确的辨别为阳性的数量除以系统辨别为阳性的总数量。Recall (解任亲率):等同于敏感度。
可以找到,准确率Accuracy和准确亲率Precision相当严重依赖样本总数里阳性和阴性的用料,荐个极端的案例,设计一个系统,对于所有的输出都日报阳性,即敏感度为100%,特异度为0,这就是个没实际用处的系统,那么此时所取100个测试样本中,99个为阳性,1个为阴性,此时计算出来出有的准确率为99%,准确亲率也是99%。因此,现实中,作出一个敏感度低特异度不低,或者反之的系统是很更容易的,可以精彩的调整测试样本的阳性阴性比例来优化其准确率和准确率值。医学是谈证据的学科,如何证明一项临床成果的先进性,实用性和稳定性,必须工程团队得出充份的理由。
就“打败医生”这件事而言,在目前显然还很很远。“窥见一斑而见全豹”这样的方式,并不限于于以“循证”为特征的医学领域。
而数据集、思维方式、评价指标,这些都是医疗AI绕行不出的问题。所以,以后对于类似于的“准确率多达99%”、“多达医生水平”的话法术,我们想到就好。却是,AI想超过或者多达医生的水平,还有很多事情要做到。
原创文章,予以许可禁令刊登。下文闻刊登须知。
本文来源:Kaiyun·yunkai(中国)官方网站-www.matianchi.com