如何用深度学习进行ct影像肺结节探测(附有基于intel extended caffe的3d faster rcnn代码开源) -ag凯发k8国际
近期宜远智能参加阿里天池医疗ai大赛,用3d faster rcnn模型在ct影像的肺结节探测上,取得了较好的成绩,特别是在计算资源充足的情况下,模型效果表现优异。这是他们的经验分享(https://tianchi.aliyun.com/competition/new_articledetail.html?raceid=231601&postsid=2898&from=part ),末尾还附有代码开源地址。
1.数据预处理
首先用simpleitk把mhd图片读入,对每个切片使用gaussian filter然后使用阈值-600把肺部图片二值化,然后再分析该切片的面积,去掉面积小于30mm2的区域和离心率大于0.99的区域,找到3d的连通区域。
只保留0.68l到8.2l体积的区域,并且如果大于6000 mm2的区域到切片的中心区域的距离大于62mm也删除该连通区。最后只留下一个最大的连通区域。
左边是原始图,右边是切完肺的。
在实际中预处理中,我们可视化了每个肺的部分切片,存在一些bad case。主要有以下3种,我们也对这3种情况做了优化:
有些患者两个肺的大小差别比较大,需要调整阈值,放宽阈值标注,把大于6000 mm2的区域到切片的中心区域的距离大于62mm也删除该连通区,改为大于1500 mm2的区域到切片的中心区域的距离大于92mm也删除该连通区。并且在最后一步,不只保留最大的连通区,同时保留最大的两个连通区。
2.模型网络结构
我们的网络如图所示,整体上是采用unet resnet的思想。里面每个resnet block都是由多个卷积层和bn层和relu层组成的。我们只展示主体结构(整体深度大概150多层):
3.整体优化思路
3.1 数据优化
3.2 工业界优化思路:模型架构 > 模型网络
我们的优化思路非常的工业界,用更多的计算资源,和更复杂的模型架构,并不把大量的时间用在调模型网络上面。
3.3 层次化hard mining
业界两套网络的做法比较普遍,比如用unet切割或faster rcnn检测,用3d cnn分类,如下图所示。
我们用的是如下统一的一套模型架构,即3d faster rcnn的rpn网络,没有后续的全连接做分类,也并没有
再在后面接一套3d cnn来做降假阳。能减少需要调节的网络参数。
该hard mining的过程,其实就是用上一层的模型作为下一层的输入,每一层的训练数据都选取比上一层更难分的。
这套架构,无需2套网络,只需要选择一套较深的网络。
根据我们的经验,采取层次化模型训练,第二层模型froc能比第一层效果提升0.05,第三层能比第二层提升0.02。
3.4 loss 函数的设计
在计算loss函数的时候,我们做了2点优化。
1.在使用hard mining的时候,每个batchsize里面负例的个数会明显多于正例。为了防止算loss的时候被负例主导。我们将loss函数分成3个部分,负例的loss,正例的loss和边框的loss。
2.在上一节提到的层次化hard mining,我们在最后一层训练模型的时候,会修改loss函数的计算,对于分错的负例和正例,做加权。这个思路和focal loss是很像的。
比如:
红框里面的部分,本来是负例,却以很大的概率被分成正例,这部分在算loss的时候权值就大些。红框外面的部分权值就小些。
4.本次比赛的关键点总结:
1) 解决了基于intel extended caffe的150多层深度网络的 3d faster rcnn rpn网络收敛问题。
可以从2个方向来解决(线下phi卡平台均已验证过)。
a)将 drop out设置为 0.1。缺点是会容易过拟合。
b)先训练一个crop size为32的模型
用这个模型做pre train model,训练crop size 64的模型
依次类推。
直到完成crop size为128的模型训练
由于时间关系,我们并未比较这2种思路的效果。比赛中使用的是第1个思路,收敛的更快些。
2) 提出层次化hard mining的训练框架。并没有采用常见的,unet做分割+3d cnn降假阳 或者 2d faster rcnn做检测+3d cnn降假阳的思路。我们只用了一套网络。减少了需要调节的网络参数。
3) 重新设计了loss函数,防止负例主导loss的计算, 并且在降低loss的过程中,更聚焦于分错的训练样本。
5. 经验总结:
我们团队虽然过往深度学习架构经验多,但对医学影像处理的know how属于尚在探索之中。所以,我们的优化思路,是用更多的计算资源,和更复杂的模型架构,来弥补没有专用模型网络积累的短板。在第一轮比赛时通过调用比较充足的计算资源时效果比较显著,但在第二轮限定计算资源的多cpu的框架上,比较受限于计算资源及时间。
在计算资源比较充沛的情况下,选取比较深的resnet效果会明显。在资源受限的实际场合或者现实的生产环境,我们有两点启发:
代码开源说明:
我们在github (https://github.com/yiyuanintelligent/3dfasterrcnn_lungnoduledetector ) 开源了核心代码,特别是将我们基于intel extended caffe的3d faster rcnn rpn训练模块发布到社区,相信这也是业内首个intel extended caffe版的150层网络3d faster rcnn开源,希望对intel 的深度学习社区用户有帮助。
该代码对医学影像的处理也展示了有效性,相信对医学影像领域ai实践的发展,对技术如何造福大众,能起到一些帮助。
通过开源,希望有同行提出性能优化、功能扩充等的修改建议,互相促进。
宜远智能是一家专注于大健康领域的ai创新企业,团队由多名ai博士、来自腾讯的算法高手、医疗领域专家构成。目前提供医学影像图像分析平台及服务。还提供专业皮肤ai方案以及基于阿里云市场的测肤api平台。对我们的开源代码及相关医学影像处理有任何疑问、建议、合作与求职意向,可联系:
tkots_wu@sina.com johnnygambler
csshshi@comp.hkbu.edu.hk 施少怀
end.
诺蓝4 个月前近期宜远智能参加阿里天池医疗ai大赛,用3d faster rcnn模型在ct影像的肺结节探测上,取得了较好的成绩,特别是在计算资源充足的情况下,模型效果表现优异。这是他们的经验分享(https://tianchi.aliyun.com/competition/new_articledetail.html?raceid=231601&postsid=2898&from=part ),末尾还附有代码开源地址。
1.数据预处理
首先用simpleitk把mhd图片读入,对每个切片使用gaussian filter然后使用阈值-600把肺部图片二值化,然后再分析该切片的面积,去掉面积小于30mm2的区域和离心率大于0.99的区域,找到3d的连通区域。
只保留0.68l到8.2l体积的区域,并且如果大于6000 mm2的区域到切片的中心区域的距离大于62mm也删除该连通区。最后只留下一个最大的连通区域。
左边是原始图,右边是切完肺的。
在实际中预处理中,我们可视化了每个肺的部分切片,存在一些bad case。主要有以下3种,我们也对这3种情况做了优化:
有些患者两个肺的大小差别比较大,需要调整阈值,放宽阈值标注,把大于6000 mm2的区域到切片的中心区域的距离大于62mm也删除该连通区,改为大于1500 mm2的区域到切片的中心区域的距离大于92mm也删除该连通区。并且在最后一步,不只保留最大的连通区,同时保留最大的两个连通区。
2.模型网络结构
我们的网络如图所示,整体上是采用unet resnet的思想。里面每个resnet block都是由多个卷积层和bn层和relu层组成的。我们只展示主体结构(整体深度大概150多层):
3.整体优化思路
3.1 数据优化
3.2 工业界优化思路:模型架构 > 模型网络
我们的优化思路非常的工业界,用更多的计算资源,和更复杂的模型架构,并不把大量的时间用在调模型网络上面。
3.3 层次化hard mining
业界两套网络的做法比较普遍,比如用unet切割或faster rcnn检测,用3d cnn分类,如下图所示。
我们用的是如下统一的一套模型架构,即3d faster rcnn的rpn网络,没有后续的全连接做分类,也并没有
再在后面接一套3d cnn来做降假阳。能减少需要调节的网络参数。
该hard mining的过程,其实就是用上一层的模型作为下一层的输入,每一层的训练数据都选取比上一层更难分的。
这套架构,无需2套网络,只需要选择一套较深的网络。
根据我们的经验,采取层次化模型训练,第二层模型froc能比第一层效果提升0.05,第三层能比第二层提升0.02。
3.4 loss 函数的设计
在计算loss函数的时候,我们做了2点优化。
1.在使用hard mining的时候,每个batchsize里面负例的个数会明显多于正例。为了防止算loss的时候被负例主导。我们将loss函数分成3个部分,负例的loss,正例的loss和边框的loss。
2.在上一节提到的层次化hard mining,我们在最后一层训练模型的时候,会修改loss函数的计算,对于分错的负例和正例,做加权。这个思路和focal loss是很像的。
比如:
红框里面的部分,本来是负例,却以很大的概率被分成正例,这部分在算loss的时候权值就大些。红框外面的部分权值就小些。
4.本次比赛的关键点总结:
1) 解决了基于intel extended caffe的150多层深度网络的 3d faster rcnn rpn网络收敛问题。
可以从2个方向来解决(线下phi卡平台均已验证过)。
a)将 drop out设置为 0.1。缺点是会容易过拟合。
b)先训练一个crop size为32的模型
用这个模型做pre train model,训练crop size 64的模型
依次类推。
直到完成crop size为128的模型训练
由于时间关系,我们并未比较这2种思路的效果。比赛中使用的是第1个思路,收敛的更快些。
2) 提出层次化hard mining的训练框架。并没有采用常见的,unet做分割+3d cnn降假阳 或者 2d faster rcnn做检测+3d cnn降假阳的思路。我们只用了一套网络。减少了需要调节的网络参数。
3) 重新设计了loss函数,防止负例主导loss的计算, 并且在降低loss的过程中,更聚焦于分错的训练样本。
5. 经验总结:
我们团队虽然过往深度学习架构经验多,但对医学影像处理的know how属于尚在探索之中。所以,我们的优化思路,是用更多的计算资源,和更复杂的模型架构,来弥补没有专用模型网络积累的短板。在第一轮比赛时通过调用比较充足的计算资源时效果比较显著,但在第二轮限定计算资源的多cpu的框架上,比较受限于计算资源及时间。
在计算资源比较充沛的情况下,选取比较深的resnet效果会明显。在资源受限的实际场合或者现实的生产环境,我们有两点启发:
代码开源说明:
我们在github (https://github.com/yiyuanintelligent/3dfasterrcnn_lungnoduledetector ) 开源了核心代码,特别是将我们基于intel extended caffe的3d faster rcnn rpn训练模块发布到社区,相信这也是业内首个intel extended caffe版的150层网络3d faster rcnn开源,希望对intel 的深度学习社区用户有帮助。
该代码对医学影像的处理也展示了有效性,相信对医学影像领域ai实践的发展,对技术如何造福大众,能起到一些帮助。
通过开源,希望有同行提出性能优化、功能扩充等的修改建议,互相促进。
宜远智能是一家专注于大健康领域的ai创新企业,团队由多名ai博士、来自腾讯的算法高手、医疗领域专家构成。目前提供医学影像图像分析平台及服务。还提供专业皮肤ai方案以及基于阿里云市场的测肤api平台。对我们的开源代码及相关医学影像处理有任何疑问、建议、合作与求职意向,可联系:
tkots_wu@sina.com johnnygambler
csshshi@comp.hkbu.edu.hk 施少怀
end.
总结
以上是ag凯发k8国际为你收集整理的如何用深度学习进行ct影像肺结节探测(附有基于intel extended caffe的3d faster rcnn代码开源)的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇: caffe-fast-rcnn(caff
- 下一篇: