以前的医学AI,用起来很麻烦。你得先找一堆医生过来。让他们在成千上万张医学影像上,用鼠标把病灶的位置一个个圈出来。这个工作叫“人工标注”。AI看了这些医生圈好的图片,才能开始学习。它就像个学生,必须得有标准答案才能做题。没有医生画的圈,它什么也看不懂。
但是,这个方法问题很多。

01
学习能力强
首先,它太慢了。一个经验丰富的医生,一天也标注不了多少张图片。训练一个好模型,需要几十万甚至上百万张带标注的图片。这个过程要花掉好几个月,甚至好几年。
而且,这个成本非常高。请医生来做这种重复性劳动,费用很贵。整个项目算下来,光是数据处理的开销就大得惊人。很多研究机构和医院根本负担不起。
另外,还有一个问题是标准不统一。不同的医生,对同一个病灶的判断和圈画范围,可能会有细微差别。AI学习了这些略有不同的数据,最后得出的模型可能就不够稳定。
现在,中科院深圳先进技术研究院搞了一个新模型,叫AFLoc。它彻底不用人工标注了。
AFLoc的学习方式完全不同。它不需要医生提前画重点。它学习的材料只有两种:原始的医学影像,和医生为这张影像写的诊断报告。医院里每天都会产生大量的影像和报告,这些数据都是现成的。
这是它的工作原理:
第一步,研究人员把一张影像和对应的诊断报告,同时“喂”给AFLoc。比如,一张胸片和一份报告。报告里写着:“右肺下叶可见片状阴影,考虑是肺炎”。
第二步,AFLoc自己去分析这两样东西。它会看整张胸片的图像,也会读报告里的文字。一开始,它不知道报告里的“肺炎”到底对应图片上的哪个部分。
第三步,它不断重复这个过程。它看了成千上万份“影像+报告”的组合。慢慢地,它自己就发现了规律。它注意到,只要报告里出现“肺炎”这个词,影像里总有某个区域的像素模式长得很像。只要报告提到“气胸”,影像的某个边缘就会出现特定的线条。
通过这种反复的“对照学习”,AFLoc就自己搞明白了文字描述和图像特征之间的关系。它不再需要一个红圈来告诉它答案。它自己就能从上下文里,把答案推断出来。
这个学习能力很厉害。
研究团队在三种完全不同的医学影像上测试了AFLoc。这三种影像是胸部X光、眼底影像和组织病理图像。它们看起来差别很大,处理难度也各不相同。
结果显示,AFLoc在这些任务上都做得很好。
就拿胸部X光片来说,这是最常见的医学影像之一。AFLoc要识别的疾病有34种,包括肺炎、胸腔积液、肺结节、气胸等等。在好几个公开的数据集上,AFLoc定位病灶的效果,都比以前那些需要人工标注的模型要好。甚至在某些疾病的判断上,它的准确率超过了人类专家。
这说明,通过大量阅读报告,它学到的知识,比单纯看图学到的更扎实、更准确。
| 影像类型 | 测试疾病(部分) | 表现情况 |
| 胸部X光片 | 肺炎、胸腔积液、气胸等34种常见病 | 在多个数据集上,定位效果比现有方法好。 |
| 眼底影像 | 糖尿病视网膜病变等 | 能稳定、清晰、准确地找到病变区域。 |
| 组织病理图像 | 肿瘤细胞识别等 | 同样可以准确地定位病变区域。 |
而且,AFLoc还有一个更重要的能力,叫做“零样本”学习。
意思就是,就算一个疾病它从来没见过标注数据,它也能做出判断。这是因为它学到的是一种通用的“读图”能力,而不是死记硬背某几种病的特征。它理解了医学报告的描述方式,所以可以把这种理解能力,应用到新的、没见过的疾病上。
在多项测试中,AFLoc在零样本情况下的表现,甚至超过了一些经过大量人工数据训练的模型。这证明了它的学习方法是有效的。它学会了思考,而不是记忆。
02
打开“自学”新途径
AFLoc这个模型,最重要的不是它的准确率有多高。而是它证明了一件事:医学影像AI可以自己学习,不需要再依赖“人工画圈”了。
这一下就解决了很多根本性的问题。
第一个就是成本。过去研发一个AI模型,最大的开销可能就是数据标注。现在,医院现有的影像和报告就能直接用。这些数据本来就在那里,每天都在产生。这就让AI研发的门槛大大降低了。以前可能只有大公司和顶级研究机构才玩得起,现在,更多小团队、普通医院也有机会开发自己的AI应用了。
第二个是效率。省去了漫长的数据标注周期,模型的开发和迭代速度会快很多。研究人员可以把更多精力放在改进算法本身,而不是耗费在准备“教材”上。一个新想法,可以很快用现有数据进行验证,不行就马上调整。
第三个,也是最关键的一个,是模型的通用性。
以前的模型,很可能会“水土不服”。比如,一个用A医院的CT机数据训练出来的AI,换到B医院的另一台不同型号的CT机上,效果就可能变差。因为不同机器拍出来的图像,在亮度、对比度等细节上会有差异。AI学到的可能是A医院机器的“癖好”,而不是疾病本身。
但是AFLoc不一样。它学习的是图像特征和医生文字描述之间的关系。一个医生对“肺部结节”的描述,是有一套通用语言的。不管他在A医院还是B医院,不管用的是什么牌子的机器,他写下的诊断依据是相似的。AFLoc学习的是这种更本质的医学逻辑。所以,它能更好地适应不同的临床环境。它的知识是“活”的,不是“死”的。
这让AI在真实世界里的应用,变得更加可行。
我们可以想象一下具体的使用场景。
比如,在一个基层的乡镇卫生院,来了一位病人拍了胸片。年轻的医生经验可能不足,看不太准。他可以把胸片上传到系统里。AF-Loc马上就能运行。
系统会这样做:
第一步,AFLoc分析这张胸片。它不会给出最终诊断,因为诊断是医生的职责。
第二步,它会在图片上用高亮区域,标出所有它认为可疑的地方。
第三步,在每个高亮区域旁边,它会给出一个概率列表。比如,A区域有90%的可能是肺炎,有5%的可能是结节。B区域有80%的可能是胸膜增厚。
这样一来,年轻医生就有了明确的参考。他可以重点检查AI提示的区域,再结合病人的其他症状,做出更准确的判断。这个过程,就像有一个经验丰富的老专家在旁边指导他一样。这能帮他减少漏诊。
再比如,在体检中心,每天要处理海量的胸片。让医生一张张仔细看,工作量巨大,也容易疲劳。
有了AFLoc,流程可以优化成这样:
第一步,所有胸片先由AFLoc进行初步筛查。
第二步,AFLoc把所有它认为“完全正常”的片子筛掉。
第三步,它把所有检测到“异常”或者“可疑”的片子,整理出来,推送给人类医生。
这样,医生就不需要再看那些正常的片子了。他们可以把全部精力,都集中在少数有问题的影像上。工作效率能提高很多,也能确保筛查的质量。
总的来说,AFLoc这种“自学”能力,让医学影像AI从一个需要精心“喂养”的工具,变成了一个能主动“吸收知识”的助手。它不再需要昂贵的、手工制作的“精饲料”,医院里每天产生的“粗粮”就能让它不断成长。
当然,这项技术还需要在更多真实的临床场景里去验证和完善。但是,它指明了一个新的方向。未来,AI也许真的能成为医生的得力助手,帮他们看得更快、更准,把他们从重复劳动中解放出来。