1. 骨髓细胞图像分割算法研究的意义
这个题目有几个元素
一是骨髓细胞.骨髓细胞内有多种细胞,识别,计数这些细胞对医学研究和临床诊断有重要意义--这个就不多说了吧?比如某种细胞形态异常/数量异常与某种疾病有联系,等等.
二是图像.以上的目的都是通过观察细胞来实现的.人工来看,很直观,但有几个问题:一是费时费力,随便一个样品就有成千上万个细胞,人工计数都是一个一个地数,重复性强,效率低;二是不同的人来看得到的结果相差可能很大,这跟经验有关,跟人的疲劳程度也有关.所以为了高效,稳定地,统一标准地识别计数骨髓细胞,最好是让电脑来做,这就是一个图像处理的问题.
三是分割算法.这是图像处理的一个基本技术,并不算生物学的范畴.大致意思是说为了识别图像中的有用信息,需要把图像分割成小块.哪里是目标物(在这里就是细胞啦),哪块是背景。更细的可能还需要分割细胞内部哪个区域是细胞核,以及其他的细胞器(为了识别细胞的种类)。
又想了想,其实同样的目的,把样品放到流式细胞仪来做,结果可能更可靠。但是样品的处理和染色都需要时间,自然没有直接做个涂片快,而且免疫荧光染色的抗体可是一大笔开销啊。。。。
2. 视觉算法和图像算法的区别
两者其实差别都不算很大,从专业本身来说,模式识别研发就比如汽车的车牌,你怎么去识别,图像算法主要研究目的就是比如车牌你怎么让他更清楚地被你采集后得到有用的信息,还原图片的原来面目等。都是算法类的研究,当然算法也是离不开程序的,如果你对软件不敢新区,那么这两个专业都不是适合你。
3. 图像分割算法总结
图像处理的很多任务都离不开图像分割。因为图像分割在cv中实在太重要(有用)了,就先把图像分割的常用算法做个总结。
接触机器学习和深度学习时间已经不短了。期间看过各种相关知识但从未总结过。本文过后我会尽可能详细的从工程角度来总结,从传统机器学习算法,传统计算机视觉库算法到深度学习目前常用算法和论文,以及模型在各平台的转化,量化,服务化部署等相关知识总结。
图像分割常用算法大致分为下面几类。由于图像的能量范函,边缘追踪等方法的效果往往只能解决特定问题,效果并不理想,这里不再阐述。当然二值化本身也可以分割一些简单图像的。但是二值化算法较多,我会专门做一个文章来总结。这里不再赘述。
1.基于边缘的图像分割算法:
有利用图像梯度的传统算法算子的sobel,roberts,prewitt,拉普拉斯以及canny等。
这些算法的基本思想都是采用合适的卷积算子,对图像做卷积。从而求出图像对应的梯度图像。(至于为什么通过如图1这样的算子卷积,即可得到图像的梯度图像,请读者复习下卷积和倒数的概念自行推导)由于图像的边缘处往往是图像像素差异较大,梯度较大地方。因此我们通过合适的卷积核得到图像的梯度图像,即得到了图像的边缘图像。至于二阶算子的推导,与一阶类似。优点:传统算子梯度检测,只需要用合适的卷积核做卷积,即可快速得出对应的边缘图像。缺点:图像边缘不一定准确,复杂图像的梯度不仅仅出现在图像边缘,可以能出现在图像内部的色彩和纹理上。
也有基于深度学习方法hed,rcf等。由于这类网络都有同一个比较严重的缺陷,这里只举例hed网络。hed是基于FCN和VGG改进,同时引出6个loss进行优化训练,通过多个层输出不同scale的粒度的边缘,然后通过一个训练权重融合各个层的边缘结果。hed网络结构如下:
可以得到一个比较完整的梯度图像,可参考github的hed实现。优点:图像的梯度细节和边缘完整性,相比传统的边缘算子要好很多。但是hed对于边缘的图像内部的边缘并不能很好的区分。当然我们可以自行更改loss来尝试只拟合外部的图像边缘。但最致命的问题在于,基于vgg的hed的网络表达能力有限,对于图像和背景接近,或者图像和背景部分相融的图片,hed似乎就有点无能为力了。
2.基于区域分割的算法:
区域分割比较常用的如传统的算法结合遗传算法,区域生长算法,区域分裂合并,分水岭算法等。这里传统算法的思路是比较简单易懂的,如果有无法理解的地方,欢迎大家一起讨论学习。这里不再做过多的分析。
基于区域和语意的深度学习分割算法,是目前图像分割成果较多和研究的主要方向。例如FCN系列的全卷积网络,以及经典的医学图像分割常用的unet系列,以及rcnn系列发展下的maskrcnn,以及18年底的PAnet。基于语意的图像分割技术,无疑会成为图像分割技术的主流。
其中,基于深度学习语意的其他相关算法也可以间接或直接的应用到图像分割。如经典的图像matting问题。18年又出现了许多非常优秀的算法和论文。如Deep-Image-Matting,以及效果非常优秀的MIT的 semantic soft segmentation(sss).
基于语意的图像分割效果明显要好于其他的传统算法。我在解决图像分割的问题时,首先尝试用了hed网络。最后的效果并不理想。虽然也参考github,做了hed的一些fine-tune,但是还是上面提到的原因,在我多次尝试后,最终放弃。转而适用FCN系列的网络。但是fcn也无法解决图像和背景相融的问题。图片相融的分割,感觉即需要大的感受野,又需要未相融部分原图像细节,所以单原FCN的网络,很难做出准确的分割。中间还测试过很多其他相关的网络,但都效果不佳。考虑到感受野和原图像细节,尝试了resnet和densenet作为图像特征提取的底层。最终我测试了unet系列的网络:
unet的原始模型如图所示。在自己拍照爬虫等手段采集了将近1000张图片。去掉了图片质量太差的,图片内容太过类似的。爬虫最终收集160多张,自己拍照收集200张图片后,又用ps手动p了边缘图像,采用图像增强变换,大约有300*24张图片。原生unet网络的表现比较一般。在将unet普通的卷积层改为resnet后,网络的表达能力明显提升。在将resnet改为resnet101,此时,即使对于部分相融的图像,也能较好的分割了。但是unet的模型体积已经不能接受。
在最后阶段,看到maskrcnn的实例分割。maskrcnn一路由rcnn,fasterrcnn发展过来。于是用maskrcnn来加入自己的训练数据和label图像进行训练。maskrcnn的结果表现并不令人满意,对于边缘的定位,相比于其他算法,略显粗糙。在产品应用中,明显还不合适。
3.基于图的分割算法
基于深度学习的deepgrab,效果表现并不是十分理想。deepgrab的git作者backbone采用了deeplabv2的网络结构。并没有完全安装原论文来做。
论文原地址参考: https://arxiv.org/pdf/1707.00243.pdf
整体结构类似于encode和decoder。并没有太仔细的研究,因为基于resent101的结构,在模型体积,速度以及deeplab的分割精度上,都不能满足当前的需求。之前大致总结过计算机视觉的相关知识点,既然目前在讨论移动端模型,那后面就分模块总结下移动端模型的应用落地吧。
由于时间实在有限。这里并没有针对每个算法进行详细的讲解。后续我会从基础的机器学习算法开始总结。
4. 医学图像处理是对什么成像方法及图像处理方法的研究
MRI
MRI 核磁共振成像技术作为二十世纪医学影像成像领域最重要的进展之一,在医学临床诊断中的应用日益广泛,因此研究磁共振成像及其图像处理方法具有很广泛的现实意义。
论文对MRI医学成像和图像处理方法的几个主要方面进行了相关研究。主要涉及三个子课题:基于化学位移的扩展两点Dixon水和脂肪分离算法研究,该算法同时包含特定成像脉冲序列设计和图像后处理;
基于非线性滤波的图像增强、去噪以及高分辨率图像重建算法研究;基于整数小波变换和改进零树编码的医学图像渐进无损压缩算法研究。
在文章中,作者首先系统回顾了MRI 磁共振成像的物理学基本原理,并在此基余镇础上对基于化学位移的扩展两点Dixon水和脂肪分离算法进行了研究,提出使用低通滤波代替多项式拟合迭代进行两维相位去卷绕,改进算法能够降低分离处理的计算复杂度和改善了水和脂肪的分离结果。
为改善MRI医学图像质量,论文对线性增强算法和非线性禅者滤波外推图像增强算法进行研究分析,指出整幅图像增强时导致马太效应的原因所在。
进而提出一种新的剪切策略包络阈值剪切策略改进非线性滤波算法,使得改进后的算法在外推新的高频分量进行图像增强时显着优于原有算法。运用改进的非线性滤波算法结合低通滤波对医学图像进行去噪处理,能有效消除高频噪声同时尽可能保留有用高频信号。
最后将改进的非线性滤波方法应用于高分辨率图像重建,获得了比线性插值更为理想的高分辨率重建图像。
论文对整数小波变换和 EZW零树编码算法做了简单回顾,研究了EZW零树编码策略应用于无损图像压竖袭粗缩时的缺点,提出基于整数小波变换和改进零树编码的医学图像渐进无损压缩框架。
对医学图像的无损压缩实验取得了较高的压缩比,有损渐进解码恢复时,较低的码率得到了较好的图像信噪比,同时良好的渐进解码特性,能够满足远程医疗等基于信道传输的图像解压缩应用。
5. 想研究图像处理算法应该考什么专业的研哪些学校比较好
如果想研究图像处理算法和应用,可以考虑考中科院自动化所,该所在图像处理、模式识别研究领域绝对前沿,至于专业,可以是计算机应用技术或者模式识别与智能科学,具体可以去看看每年招生专业目录,但是听说那边无论专业为何,大部分都搞图像处理或相关。
此外也可以考虑浙大等其他高校,其他具体情况不了解,就不误导你了,望采纳。