We use cookies to improve your experience with our site.

基于卷积神经网络并融合边界信息的乳腺癌超声图像诊断

DG-CNN: Introducing Margin Information into Convolutional Neural Networks for Breast Cancer Diagnosis in Ultrasound Images

  • 摘要: 研究背景
    得益于深度学习的飞速发展,基于深度学习,尤其是卷积神经网络的计算机辅助诊断在过去的几年里取得了巨大的进步。然而,小规模的医学数据集仍然是制约这一领域发展的主要瓶颈。为了解决这个问题,研究人员开始尝试从医学数据集中寻找辅助信息。以前的工作主要通过迁移学习来利用自然图像中的信息。最近的研究工作则尝试引入医学从业者的先验知识,或让网络学习医生如何接受培训,如何阅读图像,或让网络使用医生标注的额外注释等。此类信息的引入极大地促进了网络的辅助诊断性能。
    目的
    我们尝试发现并使用另一种先验知识,并将其应用于乳腺癌超声图像辅助中。具体包括这种先验知识如何表征,如何融入到卷积神经网络中,并验证融入先验知识之后的诊断性能。
    方法
    在本文中,我们提出了一种称为Domain Guided-CNN(DG-CNN)的方案在基于超声图像的乳腺癌辅助诊断中融入医学先验信息,本文主要是病灶的边界信息。作为放射科医生在乳腺超声图像中诊断癌症的共识中描述的一个特征,边界信息对于最后的诊断结果起到至关重要的作用。在DG-CNN中,我们首先生成描述肿瘤边界区域的注意力图,然后通过不同的方法将其合并到网络中。具体地,我们首先使用不同的产生方式设计了三种不同的边界注意力图,然后设计了四种引入方法,三种直接融合模式和一种多任务学习模式来融入这一信息。
    结果
    我们分别在自己的数据集(1485幅超声图像)和公共数据集上测试了DG-CNN的性能。结果表明,DG-CNN可以应用于不同的网络结构,如VGG和ResNet,并可以不同程度上提高它们的诊断性能。其中,在我们的数据集上,基于某种特定的信息引入模式,DG-CNN在ResNet18框架上的乳腺癌诊断准确率提高了2.17%,敏感度提高了1.69%,特异度提高了2.64%,AUC值提高了0.0257。
    结论
    实验表明,从医学常识中提取的先验知识(边缘信息)有助于提升在超声图像中乳腺癌的诊断性能。据我们所知,这是第一次利用边缘信息来提高深度神经网络在超声图像中诊断乳腺癌的性能。同时,我们也相信,在更多的医学辅助诊断领域,若能有效利用先验知识,也将很大程度上提升其诊断效果。

     

    Abstract: Although using convolutional neural networks (CNN) for computer-aided diagnosis (CAD) has made tremendous progress in the last few years, the small medical datasets remain to be the major bottleneck in this area. To address this problem, researchers start looking for information out of the medical datasets. Previous efforts mainly leverage information from natural images via transfer learning. More recent research work focuses on integrating knowledge from medical practitioners, either letting networks resemble how practitioners are trained, how they view images, or using extra annotations. In this paper, we propose a scheme named Domain Guided-CNN (DG-CNN) to incorporate the margin information, a feature described in the consensus for radiologists to diagnose cancer in breast ultrasound (BUS) images. In DG-CNN, attention maps that highlight margin areas of tumors are first generated, and then incorporated via different approaches into the networks. We have tested the performance of DG-CNN on our own dataset (including 1485 ultrasound images) and on a public dataset. The results show that DG-CNN can be applied to different network structures like VGG and ResNet to improve their performance. For example, experimental results on our dataset show that with a certain integrating mode, the improvement of using DG-CNN over a baseline network structure ResNet18 is 2.17% in accuracy, 1.69% in sensitivity, 2.64% in specificity and 2.57% in AUC (Area Under Curve). To the best of our knowledge, this is the first time that the margin information is utilized to improve the performance of deep neural networks in diagnosing breast cancer in BUS images.

     

/

返回文章
返回