今天是:  | 网站首页 | 名校推荐 | 小学试卷 | 初中试卷 | 高中试卷 | 免费课件 | 免费教案 | 如何获点 | 
  | 教育教学 | 免费论文 | 网站留言
您现在的位置: 名校试卷网 >> 医学论文 >> 基础医学 >> 正文 用户登录 新用户注册
统计学方法在CT低对比度分辨力自动检测中的应用           ★★★ 【字体:
统计学方法在CT低对比度分辨力自动检测中的应用
作者:佚名    论文来源:本站原创    点击数:    更新时间:2008-10-4    
作者:余晓锷,占杰,李萍,李婵娟
 

【关键词】  低对比度分辨力;统计学方法;体模;CT
  Application of statistical method in automatic measurement of CT low contrast resolution
  【Abstract】 AIM: To measure low contrast resolution with statistical method. METHODS: The Catphan phantom and selfprepared experimental phantom were used to measure low contrast resolution based on the analyzing of measurement principle. RESULTS: The result of subjective method was basically consistent with that of the objective method. CONCLUSION: It is feasible to do the automatic measurement for CT low contrast resolution  using selfprepared experimental phantom.
  【Keywords】 low contrast resolution;statistical method;phantom;CT
  【摘要】 目的: 利用统计学方法测量CT低对比度分辨力. 方法:阐述了测试原理,采用Catphan体模和自制体模对CT低对比度分辨力进行了测量. 结果:主观法和客观法测试结果相近. 结论: 可以用自制体模采用统计学方法对CT的低对比度分辨力进行自动测量.
  【关键词】 低对比度分辨力;统计学方法;体模;CT
  【中图号】 R181.22
  0引言
  CT机的低对比度分辨力(LCR)一般采用标准低分体模来测量,通过视觉观察确定其分辨力大小. 这种方法直观方便,国际上广为应用. 但不足之处在于读数不连续,肉眼观察主观性较大. 这种对图像的主观评价就像对伪影的判断一样,它不可能精确的表示系统的对比度分辨力. 而且市场上不同的检测体模对同一系统会产生不同的评价结果,这是因为这些结果在一定程度上依赖于能谱和体模材料的温度,因此需要对低对比度测量进行标准化[1-3]. 我们借助统计学上的方法来分析均匀层上的数据从而得到低分的结果,具有的明显优点有:对体模的要求低,容易实现,摆放和定位容易,测量结果具有客观性且定量严格.
  1材料和方法
  1.1材料采用了一种统计学的方法,基于的原理是:如果我们在同样的条件下测量多个同样大小的低对比度物体的值,则这些随机变化的值也符合高斯分布. 同样的,多个与低对比度物体同样大小的感兴趣区域(ROI)上的背景CT值也符合高斯分布,并且与之具有相同的方差(图1),因为低对比度物体和背景是在相同的条件下扫描的,它们是一次扫描的结果,而且它们之间的衰减系数的差异非常小,这两个分布之间唯一的不同只在于它们的期望值. 如果我们采用两个分布之间的中点作为能将低分物质从背景中区别出来的域值,当两个分布的均值差异为3.29 σμ时,假阳性为5%(背景分布曲线下超过域值的部分),其中σμ为分布的标准差;同理,假阴性也是5%(低分物体的分布曲线下低于域值的部分). 当然,如果采用更高的置信度,两组分布的均值必须相差更大. 受检设备为GE  Lightspeed16;检测模块为CATPHAN体模的低分模块 CTP528(模块1)和自制均匀水模(模块2).
  图1统计学方法测CT低对比度分辨力的原理(水模的图像中心被划分为若干个ROI)(略)
  1.2方法通过前面的分析,低对比度分辨力可以通过计算机的分析得到,首先要在一定的剂量水平上扫描一个均匀水模(选择合适的管电压,管电流,层厚,扫描时间等. 表1). 然后重建体模,将重建图像的中心区域分为许多个小格子,格子的大小与感兴趣的低分物体的大小相同,取得每个格子中的CT均值(例如图中有49个均值). 然后计算出这些值的标准差σμ,基于我们前面的讨论,这些低对比度物体的对比度应该大于3.29 σμ才能以95%的置信度从背景中被区分出来. 这种分析方法可以重复进行以检验不同大小物体的对比度水平.
  表1实验扫描条件(标准算法)(略)

2结果
  改变层厚,kVp,mAs等参数测量模块,得到图像,用matlab程序计算得到结果. 要分辨与方格大小相同的目标物质时,可将所需要的CT值差异换成对比度,即乘以1‰就可与Catphan比照,如直径2 mm的目标物质需要5.5672×1‰,即0.55672%以上的对比度才能分辨,而直径3 mm的目标物质需要0.36817%以上的对比度才能分辨. 得出的结果与Catphan的结果基本吻合(表2).
  表2自制均匀模块的各直径大小的目标物质的低对比度测量结果(略)
  3讨论
  3.1测试方法分析由于噪声是影响CT中LCR最直接、最密切相关的因素,噪声的增大或减小,必然同时引起CT中LCR的增大或减小,所以可以借助噪声来分析CT机LCR的影响因素,IEC的CT标准就规定只测噪声,不测低对比度分辨力. 如果用噪声来衡量LCR,则只用简单的测量工具就能得到结果,不会有人为的误差,但其不足之处在于不符合低对比度分辨力的定义,噪声与低分之间的具体数据难以对应起来[3-4]. 传统的CT低对比度测试都是通过扫描标准体模得到的,需要在特定的扫描条件(kVp,mAs,层厚等)和重建算法下进行,并且需要多次扫描,通过人眼的观察来辨识最小的能分辨的尺寸,非常直观,但其偏重于体模的结构,因此对模块的要求非常高,不同的材料和排列的选择等都会影响测量结果,加上人为参与,这种方法的结果具有明显的主观性和不可重复性.
  本文提出的统计学的方法,只需要扫描均匀水模,然后通过计算机的计算和分析得出结果,在检测的过程中,可以减少机器的曝光次数,计算程序可以单独运行不占用CT运行时间,在运算的过程中,通过改变ROI的大小就可以得到不同大小的目标物质来区分所需要的对比度,该方法也符合LCR的定义,且ROI的大小选择可以连续也可以有小数,相比标准的LCR体模,适用的范围更广.
  3.2可比性分析低分模块的测试结果是可分辨的最小目标的尺寸,而统计学方法的测试结果是一定尺寸的物体能区分所需的最小对比度,所以他们的结果不能直接比较. 以Catphan低分模块为例,其上有三种对比度的目标物质,分别为1%,0.5%和0.3%,我们一般看0.5%对比度时所能分辨的最小尺寸,此时,目标物质与背景的CT值相差为5. 对应到数据中,可以在最后的结果中寻找最接近5的数值,然后看其对应的目标物质大小,从试验结果来看,存在一些差异,可能原因有两个,一是置信度95%与人眼的主观分辨力对应上存在误差;二是Catphan体模的目标物质是圆形,而本文编程中是用同直径大小的方格,这在面积和采样点上略有不同[4-5]. 总的说来,两种方法具有可比性.
  3.3置信度文中所采用的是95%置信度,这一般是广泛接受的认可区间,结果也证明,当置信度为95%时,结果与主观观察的结果(Catphan)比较一致. 当我们需要严格要求和定义而采用比较高的置信度时,最后的结果必然会增大,也就是说需要更高的对比度才能区分同样大小的物体,反之亦成立.
  【参考文献】
  [1] Chao EH, Toth TL, Bromberg NB, et al. A statistical method of defining low contrast detectability[J]. Radiology, 2000,217:162.
  [2] 余晓锷, 王志远, 洪德明. 多层面CT机的性能自动测试及评估[J].中国医学影像技术, 2002, 18(1):89-97.
  [3]   Chritoph S, Will A, Kalender JM. Low contrast resolution phantom for CT[J].Med Phys, 1999,6(2): 296-302.
  
  [4]   杨克柽, 林木炎, 林意群, 等. CT低对比度分辨力性能检测体模分析[J]. 中国医学物理学杂志, 2002, 19(1): 24-25.
  [5]   Hsieh J. Nonstationary noise characteristics of the helical scan and its impact on image quality and artifacts [J]. Med Phys, 1997, 24(9):137-142
论文录入:guoxingxing    责任编辑:guoxingxing 
  • 上一篇论文:

  • 下一篇论文:
  • 发表评论】【加入收藏】【告诉好友】【打印此文】【关闭窗口
      网友评论:(只显示最新10条。评论内容只代表网友观点,与本站立场无关!)