法医DNA分型

编辑:书房网互动百科 时间:2020-01-18 16:40:03
编辑 锁定
法医DNA分型是法医学法医物证学)的重要技术,在个人识别亲子鉴定,乃至国家法医DNA数据库等领域有着重要的应用价值。
中文名
法医DNA分型
外文名
Forensic DNA Typing
应用领域
个人识别亲子鉴定基因身份证
所属领域
法庭科学基因组学生物信息学

法医DNA分型法医DNA分型方法与计算机技术的对比

编辑
为了对近十年来法医DNA分型方法的进步有一较感性的认识,不妨将它与计算机技术做一比较。自20世纪80年代中期个人计算机普及以来,家庭和办公场所计算机的应用急剧增加,计算机的运行速度逐年加快,作用日益强大。而仅在几年前,几乎很难想象互联网会对我们的生活产生如此巨大的影响。
  在1985年,当首次报道多基因座RFLP探针的时候,计算机的平均运行速度还不到25MHz,大约20年后的2004年,计算机速度已普遍达到了2500MHz(2.5GHz).计算机的处理速度和性能每年都有大幅的提高。同样,由于生物学方法学的迅猛发展和对遗传理论理解的加深,实验室进行DNA分型的方法也取得了巨大的进展。另外,在20世纪90年代后期,DNA检测的个体识别力也得到稳定的提高。
  在引发了计算机革命的微软公司法医DNA分型领域之间,在各自的发展时间段上存在着一些有趣的巧合。1985年,Alec Jeffreys首次发表了他的多基因座RFLP探针研究结果,同年,微软开发出它的第一个Windows计算机操作系统;1986年,当Cellmark公司和Lifecodes公司开始多基因座RFLP探针研究而将DNA检测推向大众的同时,微软也成功将其产品大众化。
20世纪80年代后期,单基因座RFLP探针开始在FBI实验室检案中发挥作用,但由于群体遗传学统计分析法医学实验结果在质量保证上存在分歧,在1989年和20世纪90年代初,RFLP方法受到法律界的置疑,与此同时,微软公司由于Windows 3.0操作系统的质量问题也面临着困境。然而,随着1991年Windows 3.1产品的发布,他们走出了阴影。同期,DNA分型的改良方法也出台了,这就是荧光STR遗传标记和Chelex提取法。
  微软产品的声望随着1995年Windows 95的发布而得到提高。同年,法医DNA分型由于Simpson案件的审判家喻户晓。英国首创了国家DNA数据库,使得原来只是调查工具的DNA在应用方面发生了革命化的变化。美国在1998年建立了联合DNA检索系统(CO-DIS),而在同期,微软发布了Windows 98
  2000年,为了提高样本通量和处理速度,FBI实验室和其他的许多法医实验室停止了RFLP的检案工作;在2000年1月13日,Bill Gates为了使他的公司步入新的轨道而辞去了微软的首席执行官职务。
  Windows 2000Windows XP21世纪初研发并推出,作为多任务计算机操作系统其功能更加强劲。同样的,人类基因组中16个基因座复合扩增试剂盒的出现,提高了复合DNA鉴定信息的能力。
  我们认识到,由于法医DNA分型领域的快速发展,某些章节在本书出版时可能就已经过时了,就如同当买回计算机时,它就已经不是最新的型号一样。然而,读者应该能从本书中得到对法医DNA分型的基本理解。虽然我们不能确切地预测未来,但短串联重复序列DNA标记,由于其在DNA数据库中的使用,已经,并且将继续在法医DNA分型中扮演重要角色。[1] 

法医DNA分型统计学

编辑
统计学是研究不确定性及其测定方法的科学。当一种测定方法多次应用时,统计学还可检测此方法的可信度。它用样本指标推断群体特征。群体在本文中是指所研究的个体的总和,群体是无限大的整体。群体中可观察的集群称之为样本,其中统计参数是样本观察值。DNA鉴定中,“群体”指同一物种的所有个体(如全世界的几十亿人或者生活在同一国家或地域的个体)。“样本”是从群体中随机抽取的个体的集群(如100名男性个体),并且对此集群进行特定的遗传标记检测后可推断出整个群体的特征。得到的“统计参数”是所检测遗传标记等位基因基因型频率

法医DNA分型统计学之可信区间

另一个重要的统计学概念是可信区间。可信区间对于点估计精确性的确定非常有用。典型的95%可信区间由概率计算,反映的是检测的95%样本的实际值包含在可信区间中的概率。95%可信区间实际等于样本均数加减两个标准差。某一л值的可信区间是观察值的频率(p)和群体中所检测个体的数量或样本数(n)的函数。95%可信区间的上限用于DNA,解释框中用计数方法估计线粒体DNA频数

法医DNA分型统计学之随机化检验

为了证实数据的有效性,通常要应用计算机软件对数据进行随机化检验。研究者可以通过随机化检验提出一些问题,例如数据来源不同时,所有的结果是否存在显著性差异。排列组合检验,如“确切检验”,反复混合群体数据中获得的原始基因型以检验原有样本基因型是多么少见。反复混合的数据可产生新的基因型分布,这可与原始的相比较。
  再抽样检验,称为“自举法”或“jack-knifing法”,也可用于检验数据资料。自举法是一种计算机模拟实验,该法中原始的n个观察值通过替换重新抽样。另一方面,jack-knifing法的重新抽样是每次在原始n个观察值中减少一个,产生样本含量为n -1的n个样本。文献中描述群体数据的大部分论文使用确切检验重排数据2000次,尽管有些报道重排次数高达100 000次。
  因为在多数情况下对一个DNA型仅进行一次抽样,如果再进行检验,我们其实是使用统计学检验来估计期望值的变异。最后,对遗传学数据进行一系列统计学检验来估计基因型频率,因为许多基因型非常稀少,在检测的群体样本中无法观察到。
参考资料
词条标签:
法律书籍 出版物 书籍