人工智能邏輯推理論文(2)
人工智能邏輯推理論文
人工智能邏輯推理論文篇二
人工智能中不確定性推理方法比較
一、引言
許多比較復(fù)雜的人工智能系統(tǒng)往往含有復(fù)雜性、不完全性、模糊性和不確定性。不確定性是智能系統(tǒng)開發(fā)實現(xiàn)中的一個本質(zhì)特征,不確定性推理是解決傳統(tǒng)的專家系統(tǒng)知識的脆弱性和推理的單調(diào)性的一個重要手段。眾所周知,確定性推理存在許多的缺點和不足,在運動的規(guī)律下,精確性往往是相對的;不精確性才是必然的。不確定理論是概率論、可信性理論、信賴性理論的統(tǒng)稱,目前專家學(xué)者在研究和實驗的基礎(chǔ)上提出不少確定推理的模型,如基于概率論的主觀Bayes方法、基于模糊集的可能性理論、Dem Pster-Shafer的證據(jù)理論方法、粗糙集方法、數(shù)據(jù)挖掘的方法、模糊邏輯推理等,本文對一些常用的基本理論,推理方法進(jìn)行了總結(jié)。
二、主觀bayes方法s
(一)簡介。主觀Bayes方法是由R.O.Duda等人在1976年提出的,是對Bayes公式修正形成的一種不確定推理模型,并在地礦勘探專家系統(tǒng)PROSPECTOR中得到了成功的應(yīng)用。
(二)優(yōu)勢與缺點。1.主觀bayes方法中的計算公式是在概率論的基礎(chǔ)上發(fā)展起來的,具有堅實的數(shù)學(xué)理論基礎(chǔ)。2.知識的靜態(tài)強度LS與LN是由專家根據(jù)自己的領(lǐng)域經(jīng)驗知識給出的,避免了大量的統(tǒng)計工作。它既用LS給出證據(jù)E對結(jié)論H的支持強度,還同時使用LN支持E對H的必要性程度,全面客觀的反映了證據(jù)與結(jié)論之間的因果聯(lián)系,提高了推出結(jié)論的正確性。3.主觀bayes方法不僅給出在證據(jù)E肯定存在和肯定不存在的前提條件下由H的先驗概率更新為后驗概率的方法,而且還給出了在證據(jù)E不確定的前提下將前驗概率更新為后驗概率的方法。
(三)缺點。1.Bayes公式的應(yīng)用條件是很嚴(yán)格的,它要求各事件相互獨立,若證據(jù)間存在依賴關(guān)系,此方法不成立。2.一個事件或命題的概率是在大量的統(tǒng)計數(shù)據(jù)的基礎(chǔ)上計算出來的,盡管有時 比 相對容易得到,但要想得到這些數(shù)據(jù)仍是一件相對困難的工作。
三、基于證據(jù)理論的證據(jù)推理方法
(一)簡介。證據(jù)理論最早是基于德姆斯特的研究,他試圖用一個概率范圍而不是單個的概率值去模擬不確定性。莎弗進(jìn)一步的研究方向用于處理不確定、不精確以及間或不準(zhǔn)確的信息。在證據(jù)理論中,引入信任函數(shù)來度量不確定性,并引用似然函數(shù)來處理由于“未知”引起的不準(zhǔn)確,并且不必事先得到所表示知識的先驗概率。
(二)不確定性的表示。1.概率分配函數(shù)。設(shè)函數(shù)m滿足
;
,則稱m是 上的概率分配函數(shù), 被稱為A的基本概率函數(shù)。
2.信任函數(shù)。對于任意的A包含于 有
表示在當(dāng)前的環(huán)境下,對假設(shè)集A的信任程度,也是其值為A的所有子集的基本概率之和。
3.似然函數(shù)。對任意的A包含于 有:
表示對A為非假的信任度。
4.類概率函數(shù)。
類概率函數(shù)可以用來度量證據(jù)A的不確定性。
(三)優(yōu)勢與缺點
Dempster-Shafer理論和主觀貝葉斯方法之間的基本區(qū)別就是在于對不確定的處理。在未知時,主觀貝葉斯方法必須按等量概率的原則進(jìn)行分配,也被稱為是無差別原理。應(yīng)用無差別原理在兩種前提條件下會發(fā)生極端情況,即必須為反面假設(shè)的情況分配一個概率,這樣最終會導(dǎo)致荒謬的結(jié)論,極大地影響了推
斷結(jié)果的準(zhǔn)確性。然而,Dempster-Shafer理論 并不強迫為未知或者反面假設(shè)分配一個信任概率。相反,只需要為那些信任的 環(huán)境中的子集分配一個m。對于沒有分配信任的特殊子集被認(rèn)為是不被信任的,它們只是僅僅與環(huán)境有關(guān)。從而極大的改善主觀bayes方法推出荒謬結(jié)論的情況。
四、結(jié)束語
不確定推理是高級智能系統(tǒng)開發(fā)實現(xiàn)中的一個重要研究領(lǐng)域,不確定性推理原理 應(yīng)用到科研和工業(yè)生產(chǎn)中都取得了初步的成效。另一方面,確定性推理也是解決傳統(tǒng)的專家系統(tǒng)知識的脆弱性和推理單調(diào)性的一個非常重要的手段,不確定性推理經(jīng)過多年的 發(fā)展已經(jīng)建立了完整的體系和成熟的研究方法,今后必然會有更廣闊的應(yīng)用場所。當(dāng)然,不確定性推理也存在著一些不足,對于不同的問題沒有通用的問題表示的方法,也沒有通用的問題計算的模型。這些都有待于今后的改進(jìn)和完善。
人工智能邏輯推理論文相關(guān)文章:
1.人工智能邏輯論文