法醫DNA分型

法醫DNA分型

法醫DNA分型是法醫學法醫物證學)的重要技術,在個人識別、親子鑑定、年齡性別,乃至國家法醫DNA資料庫等領域有著重要的套用價值。

基本介紹

發展歷程,統計學,可信區間,隨機化檢驗,

發展歷程

為了對近十年來法醫DNA分型方法的進步有一較感性的認識,不妨將它與計算機技術做一比較。自20世紀80年代中期個人計算機普及以來,家庭和辦公場所計算機的套用急劇增加,計算機的運行速度逐年加快,作用日益強大。而僅在幾年前,幾乎很難想像網際網路會對我們的生活產生如此巨大的影響。
在1985年,當首次報導多基因座RFLP探針的時候,計算機的平均運行速度還不到25MHz,大約20年後的2004年,計算機速度已普遍達到了2500MHz(2.5GHz).計算機的處理速度和性能每年都有大幅的提高。同樣,由於生物學方法學的迅猛發展和對遺傳理論理解的加深,實驗室進行DNA分型的方法也取得了巨大的進展。另外,在20世紀90年代後期,DNA檢測的個體識別力也得到穩定的提高。
在引發了計算機革命的微軟公司法醫DNA分型領域之間,在各自的發展時間段上存在著一些有趣的巧合。1985年,Alec Jeffreys首次發表了他的多基因座RFLP探針研究結果,同年,微軟開發出它的第一個Windows計算機作業系統;1986年,當Cellmark公司和Lifecodes公司開始多基因座RFLP探針研究而將DNA檢測推向大眾的同時,微軟也成功將其產品大眾化。
20世紀80年代後期,單基因座RFLP探針開始在FBI實驗室檢案中發揮作用,但由於群體遺傳學統計分析法醫學實驗結果在質量保證上存在分歧,在1989年和20世紀90年代初,RFLP方法受到法律界的置疑,與此同時,微軟公司由於Windows 3.0作業系統的質量問題也面臨著困境。然而,隨著1991年Windows 3.1產品的發布,他們走出了陰影。同期,DNA分型的改良方法也出台了,這就是螢光STR遺傳標記和Chelex提取法。
微軟產品的聲望隨著1995年Windows 95的發布而得到提高。同年,法醫DNA分型由於Simpson案件的審判家喻戶曉。英國首創了國家DNA資料庫,使得原來只是調查工具的DNA在套用方面發生了革命化的變化。美國在1998年建立了聯合DNA檢索系統(CO-DIS),而在同期,微軟發布了Windows 98
2000年,為了提高樣本通量和處理速度,FBI實驗室和其他的許多法醫實驗室停止了RFLP的檢案工作;在2000年1月13日,Bill Gates為了使他的公司步入新的軌道而辭去了微軟的執行長職務。
Windows 2000Windows XP21世紀初研發並推出,作為多任務計算機作業系統其功能更加強勁。同樣的,人類基因組中16個基因座複合擴增試劑盒的出現,提高了複合DNA鑑定信息的能力。
我們認識到,由於法醫DNA分型領域的快速發展,某些章節在本書出版時可能就已經過時了,就如同當買回計算機時,它就已經不是最新的型號一樣。然而,讀者應該能從本書中得到對法醫DNA分型的基本理解。雖然我們不能確切地預測未來,但短串聯重複序列DNA標記,由於其在DNA資料庫中的使用,已經,並且將繼續在法醫DNA分型中扮演重要角色。

統計學

統計學是研究不確定性及其測定方法的科學。當一種測定方法多次套用時,統計學還可檢測此方法的可信度。它用樣本指標推斷群體特徵。群體在本文中是指所研究的個體的總和,群體是無限大的整體。群體中可觀察的集群稱之為樣本,其中統計參數是樣本觀察值。DNA鑑定中,“群體”指同一物種的所有個體(如全世界的幾十億人或者生活在同一國家或地域的個體)。“樣本”是從群體中隨機抽取的個體的集群(如100名男性個體),並且對此集群進行特定的遺傳標記檢測後可推斷出整個群體的特徵。得到的“統計參數”是所檢測遺傳標記等位基因基因型頻率

可信區間

另一個重要的統計學概念是可信區間。可信區間對於點估計精確性的確定非常有用。典型的95%可信區間由機率計算,反映的是檢測的95%樣本的實際值包含在可信區間中的機率。95%可信區間實際等於樣本均數加減兩個標準差。某一л值的可信區間是觀察值的頻率(p)和群體中所檢測個體的數量或樣本數(n)的函式。95%可信區間的上限用於DNA,解釋框中用計數方法估計線粒體DNA頻數

隨機化檢驗

為了證實數據的有效性,通常要套用計算機軟體對數據進行隨機化檢驗。研究者可以通過隨機化檢驗提出一些問題,例如數據來源不同時,所有的結果是否存在顯著性差異。排列組合檢驗,如“確切檢驗”,反覆混合群體數據中獲得的原始基因型以檢驗原有樣本基因型是多么少見。反覆混合的數據可產生新的基因型分布,這可與原始的相比較。
抽樣檢驗,稱為“自舉法”或“jack-knifing法”,也可用於檢驗數據資料。自舉法是一種計算機模擬實驗,該法中原始的n個觀察值通過替換重新抽樣。另一方面,jack-knifing法的重新抽樣是每次在原始n個觀察值中減少一個,產生樣本含量為n -1的n個樣本。文獻中描述群體數據的大部分論文使用確切檢驗重排數據2000次,儘管有些報導重排次數高達100 000次。
因為在多數情況下對一個DNA型僅進行一次抽樣,如果再進行檢驗,我們其實是使用統計學檢驗來估計期望值的變異。最後,對遺傳學數據進行一系列統計學檢驗來估計基因型頻率,因為許多基因型非常稀少,在檢測的群體樣本中無法觀察到。

相關詞條

熱門詞條

聯絡我們