人工智能導論每章課后習題答案_第1頁
人工智能導論每章課后習題答案_第2頁
人工智能導論每章課后習題答案_第3頁
人工智能導論每章課后習題答案_第4頁
人工智能導論每章課后習題答案_第5頁
已閱讀5頁,還剩10頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

第二章習題

1知識的含義是什么?有哪些分類?

知識是人們在長期的實踐中積累的,能夠反映客觀世界中事物之間關系的認知和經(jīng)驗。從不同的角度

和背景知識有不同的劃分。

按知識的作用范圍可以分為常識性知識和領域知識。按知識的作用效果來說可以分為敘述性知識、過

程性知識和控制性知識。按知識的結構及表現(xiàn)形式劃分為邏輯性知識和形象性知識。按知識的確定性劃分

為確定性知識和非確定性(模糊性)知識。

2什么是知識表示?有哪些知識表示方法?

在人工智能理論中,為使計算機能夠像人類一樣進行合理的思考推理,需要將自然語言所承載的知識

輸入到計算機,然后計算機才能根據(jù)已有的知識進行問題求解知識表示就是指將知識符號化并輸入給計算

機的過程和方法。

知識表示方法有,狀態(tài)空間表示法、謂詞邏輯表示法、語義網(wǎng)絡表示法、框架表示法等等。

3描述一個好的知識表示需要有哪些特征?

一個知識表示方法的優(yōu)劣應當在以下幾個方面考慮,表示能力、可利用性、可組織性與可維護性、可

理解性與可維護性。

4為以下事實開發(fā)一個語義網(wǎng)絡:

李華和王明是同學,他們在北京實驗中學上學。

5框架法和面向?qū)ο缶幊逃惺裁垂餐c?

框架(frame)是一種描述所論對象(一個事物、事件或概念)屬性的數(shù)據(jù)結構。

面向?qū)ο缶幊淌且环N編成方法。其本質(zhì)是以建立模型體現(xiàn)出來的抽象思維過程和面向?qū)ο蟮姆椒?。?/p>

型是用來反映現(xiàn)實世界中事物特征的。二者都是把相關環(huán)境中的相關物體描述為對象。

6假如要使用一種知識表示方法表示籃球賽,應該使用哪一種知識表示方法?(可以查閱

最新發(fā)展的一些方法)

使用語義網(wǎng)絡表示法:

第三章

1.什么是推理,請從多種角度闡述推理?

(1)推理:按照某種策略從已有事實和知識推出結論的過程。

(2)正向推理

正向推理(事實驅(qū)動推理)是由已知事實出發(fā)向結論方向的推理。

基本思想是:系統(tǒng)根據(jù)用戶提供的初始事實,在知識庫中搜索能與之匹配的規(guī)則即當前可用的規(guī)則,

構成可適用的規(guī)則集RS,然后按某種沖突解決策略從RS中選擇一條知識進行推理,并將推出的結論作為

中間結果加入到數(shù)據(jù)庫DB中作為下一步推理的事實,在此之后,再在知識庫中選擇可適用的知識進行推

理,如此重復進行這一過程,直到得出最終結論或者知識庫中沒有可適用的知識為止。

正向推理簡單、易實現(xiàn),但目的性不強,效率低。需要用啟發(fā)性知識解除沖突并控制中間結果的選取,

其中包括必要的回溯。由于不能反推,系統(tǒng)的解釋功能受到影響。

(3)反向推理

反向推理是以某個假設目標作為出發(fā)點的一種推理,又稱為目標驅(qū)動推理或逆向推理。

反向推理的基本思想是:首先提出一個假設目標,然后由此出發(fā),進一步尋找支持該假設的證據(jù),若

所需的證據(jù)都能找到,則該假設成立,推理成功:若無法找到支持該假設的所有證據(jù),則說明此假設不成

立,需要另作新的假設。

與正向推理相比,反向推理的主要優(yōu)點是不必使用與目標無關的知識,目的性強,同時它還有利于向

用戶提供解釋。反向推理的缺點是在選擇初始目標時具有很大的盲目性,若假設不正確,就有可能要多次

提出假設,影響了系統(tǒng)的效率。

反向推理比較適合結論單一或直接提出結論要求證實的系統(tǒng)。

(4)推理方式分類

演繹推理、歸納推理、默認推理

確定性推理、不精確推理

單調(diào)推理、非單調(diào)推理

啟發(fā)式推理、非啟發(fā)式推理

2.什么是逆向推理?它的基本過程是什么?

解:逆向推理是以某個假設目標作為出發(fā)點的推理方法過程:

(1)將問題的初始證據(jù)和要求證的目標(稱為假設)分別放入綜合數(shù)據(jù)庫和假設集;

(2)從假設集中選出一個假設,檢查該假設是否在綜合數(shù)據(jù)庫中,若在,則該假設成立。此時,若假

設集為空,則成功退出。否則,扔執(zhí)行(2)。若該假設不在數(shù)據(jù)庫中,則執(zhí)行下一步;

(3)檢查該假設是否可由知識庫的某個知識導出,若不能由某個知識導出,則詢問用戶尋找新的假設。

若不是,則轉(zhuǎn)(5),若能由某個知識導出,則執(zhí)行下一步;

(4)將知識庫中可以導出該假設的所有知識構成一個可用知識集;

(5)檢查可用知識集是否為空,若空,失敗退出。否則執(zhí)行下一步;

(6)按沖突消解策略從可用知識集中取出?個知識,繼續(xù)執(zhí)行下一步;

(7)將該知識的前提中的每個子條件都作為新的假設放入假設集,轉(zhuǎn)(2).

3.什么是置換?什么是合一?

解:在不同謂詞公式中,往往會出現(xiàn)多個謂詞的謂詞名相同但個體不同的情況,此時推理過程是不能

直接進行匹配的,需要先進行變元的替換。這種利用項對變元進行替換叫置換。

合一利用置換使兩個或多個謂詞的個體一致。

4.魯濱遜歸結原理的基本思想是什么?

解:魯濱遜歸結原理也稱為消解原理。其基本思想是把永真性的證明轉(zhuǎn)化為不可滿足性的證明。

即要證明P->Q永真,只要能夠證明PA-Q為不可滿足即可。

5.把下列謂詞公式化成子句集:

(1)(Vx)(Vy)(P(x,y)AQ(x,y))

(2)(Vx)(Vy)(P(x,y)-Q(x,y))

(3)(Vx)(3y)(P(x,y)V(Q(x,y)-R(x,y)))

解:(I)由于(Vx)(Vy)(P(x,y)八Q(x,y))已經(jīng)是Skolem標準型,且P(x,y)AQ(x,y)已經(jīng)是合取

范式,所以可直接消去全稱量詞、合取詞,得

{P(x,y),Q(x,y)}

再進行變元換名得子句集:

S={P(x,y),Q(u,v))

(2)對謂詞公式(Vx)(Vy)(P(x,y)~Q(x,y)),先消去連接詞得:

(Vx)(Vy)LP(x,y)VQ(x,y))

此公式已為Skolem標準型。

再消去全稱量詞得子句集:

S=「P(x,y)VQ(x,y)}

(3)對謂詞公式(Vx)(my)(P(x,y)V(Q(x,y)-R(x,y))),先消去連接詞“一”得:

(Vx)(3y)(P(x,y)V(p(x,y)VR(x,y)))

此公式已為前束范式。

再消去存在量詞,即用Skolem函數(shù)f(x)替換y得:

(Vx)(P(x,f(x))V-Q(x,f(x))VR(x,f(x)))

此公式已為Skolem標準型。

最后消去全稱量詞得子句集:

S={P(x,f(x))V-Q(x,f(x))VR(x,f(x)))

6.設已知:

(1)如果x是y的父親,y是z的父親,則x是z的祖父;

(2)每個人都有一個父親。

使用歸結演繹推理證明:對于某人u,一定存在一個人v,v是u的祖父。

解:先定義謂詞

F(x,y):x是y的父親

GF(x,z):x是z的祖父

P(x):x是一個人

再用謂詞把問題描述出來:

已知Fl:(Vx)(Vy)(Vz)(F(x,y)AF(y,z))fGF(x,z))

F2:(Vy)(P(x)fF(x,y))

求證結論G:Ou)(3v)(P(u)fGF(v,u))

然后再將Fl,F2和P化成子句集:

①fF(x,y)VrF(y,z)VGF(x,z)

②-P(r)VF(s,r)

③P(u)

?YF(v,u))

對上述擴充的子句集,其歸結推理過程如下:

由于導出了空子句,故結論得證。

7.設已知:

(I)能閱讀的人是識字的;

(2)小狗不識字;

(3)有些小狗是很聰明的。

請用歸結演繹推理證明:有些很聰明的人并不識字。

解:第一步,先定義謂詞,

設R(x)表示x是能閱讀的;

K(y)表示y是識字的;

W(z)表示z是很聰明的;

第二步,將己知事實和目標用謂詞公式表示出來

能閱讀的人是識字的:(Vx)(R(x))-K(x))

小狗不識字:(Vy)「K(y))

有些小狗是很聰明的:(3z)W(z)

有些很聰明的人并不識字:(三x)(W(z)A-K(x))

第三步,將上述已知事實和目標的否定化成子句集:

-R(x))VK(x)

*(y)

W(z)

「W(z)VK(x))

第四步,用歸結演繹推理進行證明

第四章習題

1什么是貝葉斯學派,它和頻率學派有什么區(qū)別?

頻率學派對事件本身建模,貝葉斯學派對自身的知識進行建模。

頻率派認為在大量重復進行同一實驗事件A發(fā)生的頻率總是接近某一個常數(shù),并在它附近進行擺動,

這時將這個常數(shù)叫事件A的概率,記作P(A)o

它有兩個含義:

(1)、事件A發(fā)生的概率是常數(shù)。

(2)、事件A發(fā)生的概率是重復多次進行同一實驗得到的。

頻率學派的局限性:

頻率學派評估可重復實驗事件發(fā)生的概率具有一定的現(xiàn)實意義。

但是假如評估全球溫度在本世紀內(nèi)上升亮度的概率,按照頻率學派的思想,首先需要創(chuàng)造無數(shù)個平行

世界,然后計算全球溫度在本世紀內(nèi)上升亮度的平行世界的頻率,記該頻率為全球溫度在本世紀內(nèi)上升亮

度的概率。而這種非可重復實驗不可實現(xiàn),因此頻率學派在評估不可重復實驗事件發(fā)生的概率具有很大的

限制性。

貝葉斯學派認為:評估事件A發(fā)生的概率帶有主觀性,且事件A發(fā)生的概率是當前觀測數(shù)據(jù)集D下

的概率,即條件概率P(A|D),當觀測數(shù)據(jù)集更新為D1時,則事件A發(fā)生的概率為P(A|D1),不同的數(shù)據(jù)

集預測A事件發(fā)生的概率不同。貝葉斯學派評估事件A發(fā)生的概率會引用先驗概率和后驗概率兩個概念,

貝葉斯定理是搭建先驗概率和后驗概率的橋梁。

它有三點含義:

(1)、事件A發(fā)生的概率是變化的,并非常數(shù)。

(2)、事件A發(fā)生的概率是特定數(shù)據(jù)集下的條件概率。

(3)、事件A發(fā)生的概率是后驗概率,且事件A發(fā)生的先驗概率已給定。

貝葉斯學派的難點在于如何設置合理反映事件A發(fā)生的先驗概率,不同的先驗概率得到的結果不一樣

2主觀貝葉斯推理相對于基本的概率推理有哪些優(yōu)點?

基本概率推理的缺點是要求給出結論的先驗概率及證據(jù)的條件概率,盡管

比相對容易得到,但是要想得到這些數(shù)據(jù)仍然是一件相當困難的工作。另外Bayes公式

的應用條件是很嚴格的,它要求各事件互相獨立等。如果各個證據(jù)間存在依賴關系,就不能直接使用這個

方法

主觀貝葉斯方法的主要優(yōu)點是基于概率發(fā)展而來,理論模型精確,靈敏度高,不僅能考慮證據(jù)間的關

系,還考慮了證據(jù)存在與否對假設的影響。缺點主要是需要的主觀概率太多,專家不易給出。

3可信度推理有什么特點,適用于哪”情況?舉一個適用情況的例子。

可信度方法直觀,非確定性測度的計算也比較簡便,因而在許多專家系統(tǒng)中

得到有效的應用。

4證據(jù)理論相對于貝葉斯推理有哪些優(yōu)點?

主觀貝葉斯推理的主要缺點是需要的主觀概率太多,也需要經(jīng)驗豐富的專家才能給出,或者很難由專

家給出。而證據(jù)理論可以處理由“不知道”引起的非確定性,并且不必事先給出知識的先驗概率,與主觀

貝葉斯推理相比,具有較大的靈活性。

5模糊推理中兩種匹配度的計算方法,語義距離和貼近度有“那些不同和特點?

語義距離刻畫的是兩個模糊概念之間的差異,有多種方法可以計算語義距離。貼近度是指兩個概念的

接近程度,可直接用來作為匹配度。

1.什么是搜索?有哪兩大類不同的搜索方法?兩者的區(qū)別是什么?

解:像這種根據(jù)問題的實際情況,不斷尋找可利用知識,從而構造一條最小的推理路線,使問題得以

解決的過程稱為搜索

可根據(jù)搜索過程是否使用啟發(fā)式信息分為盲目搜索和啟發(fā)式搜索,也可根據(jù)問題的表示方式分為狀態(tài)

空間搜索和與/或搜索

盲目搜索是按預定的控制策略進行搜索,在搜索過程中獲得的中間信息并不改變控制策略

啟發(fā)式搜索是在搜索中加入了與問題有關的啟發(fā)性信息,用于指導搜索朝著最有希望的方向前進,加

速問題的求解過程,并找到最優(yōu)解。

狀態(tài)空間搜索是指用狀態(tài)空間法來表示問題所進行的搜索。

與/或搜索是指用問題歸約法來表示問題時所進行的搜索。

2.深度優(yōu)先搜索與廣度優(yōu)先搜索的區(qū)別是什么?

解:深度優(yōu)先搜索與廣度優(yōu)先搜索的區(qū)別在于:在對節(jié)點n進行擴展時,其后繼節(jié)點在OPEN表中的

存放位置不同。廣度優(yōu)先搜索是將后繼節(jié)點放入OPEN表的末端,而深度優(yōu)先搜索則是將后繼節(jié)點放入

OPEN表的前端。廣度優(yōu)先搜索是一種完備搜索,即只要問題有解就一定能夠求出,而深度優(yōu)先搜索是不

完備搜索。

在不要求求解速度且目標節(jié)點的層次較深的情況下,廣度優(yōu)先搜索優(yōu)于深度優(yōu)先搜索;在要求求解速

度且目標節(jié)點的層次較淺的情況下,深度優(yōu)先搜索優(yōu)于廣度優(yōu)先搜索。

3.為什么說深度優(yōu)先搜索和代價樹的深度優(yōu)先搜索可以看成局部擇優(yōu)搜索的兩個特例?

解:深度優(yōu)先搜索、代價樹的深度優(yōu)先搜索以及局部優(yōu)先搜索都是以子節(jié)點作為考察范圍,但節(jié)點選

擇的標準不同。如果取估價函數(shù)f(n)=g(n),則它將退化為代價樹的深度優(yōu)先搜索。如果取估價函數(shù)f(n)=d(n),

則它將退化為深度優(yōu)先搜索。因此,深度優(yōu)先搜索和代價樹的深度優(yōu)先搜索是局部擇優(yōu)搜索的兩個特例。

4.局部擇優(yōu)搜索與全局擇優(yōu)搜索的相同之處與區(qū)別是什么?

解:根據(jù)搜索過程中選擇擴展節(jié)點的范圍,啟發(fā)式搜索算法可分為全局擇優(yōu)搜索算法和局部擇優(yōu)搜索

算法。其中,全局擇優(yōu)搜索算法每當需要擴展節(jié)點時,總是從Open表的所有節(jié)點中選擇一個估價函數(shù)值

最小的節(jié)點進行擴展,局部擇優(yōu)搜索算法每當需要擴展節(jié)點時,總是從剛生成的子節(jié)點中選擇一個估價函

數(shù)值最小的節(jié)點進行擴展。

5..關于“與/或”圖表示法的敘述中,正確的是(D).

A.“與/或”圖就是用“AND”和“OR”連續(xù)各個部分的圖形,用來描述各部分的因

果關系

B.“與/或”圖就是用“AND”和“OR”連續(xù)各個部分的圖形,用來描述各部分之間

的不確定關系

C.“與/或”圖就是用“與”節(jié)點和“或”節(jié)點組合起來的樹形圖,用來描述某類

問題的層次關系

D.“與/或”圖就是用“與”節(jié)點和“或”節(jié)點組合起來的樹形圖,用來描述某類

問題的求解過程

6.設有如下圖的與/或/樹,請分別按和代價法及最大代價法求解樹的代價。

解:若按和代價法,則該解樹的代價為:

h(A)=2+3+2+5+2+1+6=2I

若按最大代價法,則該解樹的代價為:

h(A)=max{h(B)+5,h(C)+6)=max{(h(E)+2)+5,h(C)+6)

=max{(max(2,3)+2)+5,max(2,1)+6}

=max((5+5,2+6)=10

7.有一農(nóng)夫帶一條狼,一只羊和?筐菜從河的左岸乘船到右岸,但受下列條件限制:

(1)船太小,農(nóng)夫每次只能帶一樣東西過河

(2)如果沒有農(nóng)夫看管,則狼要吃羊,羊要吃菜

請設計一個過河方案,使得農(nóng)夫、狼羊都能不受損失的過河。

有一農(nóng)夫帶一條狼,一只羊和?框青菜與從河的左岸乘船倒右岸,但受到下列條件的限制:

(1)船太小,農(nóng)夫每次只能帶一樣東西過河;

(2)如果沒有農(nóng)夫看管,則狼要吃羊,羊要吃菜。

請設計一個過河方案,使得農(nóng)夫、浪、羊都能不受損失的過河。

題示:

(I)用四元組(農(nóng)夫,狼,羊,菜)表示狀態(tài),其中每個元素都為?;?,用0表示在左岸,用1表

示在右岸。

(2)把每次過河的一種安排作為一種操作,每次過河都必須有農(nóng)夫,因為只有他可以劃船。

解:第一步,定義問題的描述形式

用四元組0=(f,w,s,v)表示問題狀態(tài),其中,f,w,s和v分別表示農(nóng)夫,狼,羊和青菜是否在

左岸,它們都可以取1或0,取1表示在左岸,取0表示在右岸。

第二步,用所定義的問題狀態(tài)表示方式,把所有可能的問題狀態(tài)表示出來,包括問題的初始狀態(tài)和口

標狀態(tài)。

由于狀態(tài)變量有4個,每個狀態(tài)變量都有2種取值,因此有以下16種可能的狀態(tài):

So=(O,OAO),Si=(0A0J),S2=(0,0,1,0),S3=(0,0,l,1)

S4=(O,1AO),S5=(0,l,0』),S6=(0,1,1,0),S7=(0,1,1,1)

S8=(l,0A0),S9=(l,0,0,1),S10=(1,0,1,0),S11=(1,0,1,1)

Sl2=(l,1,0,0),S13=(1,1,0,1),S14=(1,1,1,0),S15=(1,1,1,1)

其中,狀態(tài)S3,S6,S7,S8,S9,S12是不合法狀態(tài),So和Sl5分別是初始狀態(tài)和目標狀態(tài)。

第三步,定義操作,即用于狀態(tài)變換的算符組F

由于每次過河船上都必須有農(nóng)夫,且除農(nóng)夫外船上只能載狼,羊和菜中的i種,故算符定義如下:

L⑴表示農(nóng)夫從左岸將第i樣東西送到右岸(i二l表示狼,i=2表示羊,i=3表示菜,i=0表示船上除農(nóng)

夫外不載任何東西)。由于農(nóng)夫必須在船上,故對農(nóng)夫的表示省略。

R⑴表示農(nóng)夫從右岸將第i樣東西帶到左岸(i=l表示狼,i=2表示羊,i=3表示菜,i=0表示船上除農(nóng)

夫外不載任何東西)。同樣,對農(nóng)夫的表示省略。

這樣,所定義的算符組F可以有以下8種算符:

L(0),L(l),L(2),L(3)

R(0),R(l),R(2),R(3)

第四步,根據(jù)上述定義的狀態(tài)和操作進行求解。

第6章參考答案

1、睛是表示隨機變量不確定的度量,是對所有可能發(fā)生的事件產(chǎn)生的信息

量的期望。對于二分類來說,即一個隨機事件有兩種可能性:發(fā)生和不發(fā)生,設

發(fā)生的概率為P,則不發(fā)生的概率為i-p,于是其烯的計算公式為:

H=一0*log2p-(1-p)*log2(l-p)

假如一個隨機事件有三種可能的狀態(tài):狀態(tài)1、狀態(tài)2、狀態(tài)3,其概率分

別為PI、P2、P3,則有Pl+P2+P3=l,于是它的嫡的計算公式為:

H=—p、*log2p「p?*log2p2-p3*log2p3

嫡越大,不確定性就越大,嫡越小,不確定性就越小(即確定性越大1極

端的情況下,假如一個隨機事件必然要發(fā)生,即其概率為1,那么它就沒有不確

定性了,此時嫡最小為0.

條件嫡是給定某種條件的情況下重新計算的嫡假設給定的條件X有狀態(tài)1、

狀態(tài)2兩種可能性,則其概率分別為PxUPx2,則條件嫡的計算公式為

H、=P,\*%]+Px2*HR

其中Hxi,瓜2分別為X在狀態(tài)1和狀態(tài)2下計算的嫡。

很明顯,當給出一定的條件時,隨機事件的不確定性減小,即條件嫡要小于

嫡。嫡與條件嫡的差就是信息增益。信息增益表示的是當給出一定的條件時,事

件的不確定性減少的程度。

2、采用ID3算法,先計算總的嫡,再計算各個條件嫡,然后計算出信息增

益,選擇信息增益最大的那個屬性進行劃分,然后再對各個子樹進行同樣的步驟

劃分。參考決策樹如圖所示。

3、貝葉斯概率公式為:

P(B)PS|B)

P(B|J)=

P(A)

P(B)P(AB)

或者P<B|A)

iZP(B)P(A|B)

先驗概率是指根據(jù)以往經(jīng)驗和分析得到的概率;后驗概率是在事情已經(jīng)發(fā)生

的情況下,要求這件事情發(fā)生的原因是由某個因素引起的可能性的大小,即后驗

概率是已經(jīng)知道結果,來推斷該結果是由何種原因引起。

4、首先計算如下:

。(貸款)=—,尸(不貸款)=一

1515

?Q?

產(chǎn)(青年貸款)=£尸(中年貸款)=>尸(老年貸款)=:

777

4Q

尸(有工作I貸款)=3,尸(無工作貸款)=士

77

尸(有房子I貸款)=K2,尸(無房子|貸款)=49

77

產(chǎn)(信貸好I貸款)=3,0(信貸一般I貸款)=2

77

尸(青年I不貸款)=£〃(中年I貸不款)=」,P(老年I不貸款)=]

848

〃(有工作I不貸款)=L1,P(無工作I不貸款)=士Q

44

P(有房子I不貸款)=0,無房子I不貸款)=1

戶(信貸好I不貸款)=:,尸(信貸一般I不貸款)=:

有了以上模型,有新數(shù)據(jù)出現(xiàn)時,依據(jù)樸素貝葉斯,可以計算新狀態(tài)下貸

款的概率和不貸款的概率,比較其大小,就可以作出預測。

5、支持向量機的目的是尋找一個最優(yōu)分類面(分割超平面),這個超平面不

但能將兩類正確分開(訓練錯誤率為0),而且使分類間隔最大。即最優(yōu)分類面能

使訓練集中的點距離分類面盡可能的遠,也就是最優(yōu)分類面兩側(cè)的空白區(qū)域

(Margin)最大。距離分割超平面最近的那些點就叫做“支持向量"。

核方法的作用是通過選擇一個函數(shù),將數(shù)據(jù)映射到高維空間,在高維空間中

采用支持向量機實現(xiàn)超平面分割,以解決原樣本空間線性不可分的問題。

6、有一對多法、一對一法、層次分類法。具體參見6.4.4節(jié)。

7、(1)監(jiān)督學習方法必須要有訓練集與測試樣本,在訓練集中找規(guī)律,而

對測試樣本使用這種規(guī)律檢測效果;而非監(jiān)督學習沒有訓練集,只有一組數(shù)據(jù),

在該組數(shù)據(jù)集內(nèi)尋找規(guī)律。(2)監(jiān)督學習的訓練樣本集必須由帶標簽的樣本組成。

而非監(jiān)督學習方法只有要分析的數(shù)據(jù)集的本身,預先沒有什么標簽。

8、K-means算法,是基于距離的聚類算法。采用距離作為相似性的評價指

標,即認為兩個對象的距離越近,其相似度就越大。該算法認為類簇是由距離靠

近的對象組成的,因此把得到緊湊且獨立的簇作為最終目標。但難點是K的確

定,K設置不同,最后結果就不同。

層次聚類的思想:從各類只有一個樣本點開始,逐級合并,每級只合并兩

類,直到最后所有樣本都歸到一類。聚類過程中逐級考查類間相似度,依次決定

類別數(shù)。在聚類過程中把N個沒有標簽的樣本分成一些合理的類時,極端情況

下,最多可以分成N類,即每個樣本為一類;最少可以分成一類,即所有樣本

為一類。因此可以根據(jù)實際情況設定聚類的數(shù)目。

9、人工神經(jīng)網(wǎng)絡(簡稱神經(jīng)網(wǎng)絡)是一種模仿生物神經(jīng)網(wǎng)絡(動物的中樞

神經(jīng)系統(tǒng),特別是大腦)的結構和功能的數(shù)學模型或計算模型,用于對函數(shù)進行

估計或近似,神經(jīng)網(wǎng)絡由大量的人工神經(jīng)元聯(lián)結進行計算。

神經(jīng)元標準的數(shù)學模型由兩部分組成:線性變換和非線性變換,非線性變換

又叫激活處理(非線性變換函數(shù)叫激活函數(shù)1

10、BP反射傳播算法建立在損失函數(shù)梯度下降的基礎上,是由損失函數(shù)反

向求導計算所有節(jié)點偏導數(shù)的過程。根據(jù)復合函數(shù)的鏈式求導法則,前一層的偏

導數(shù)等于后一層的偏導數(shù)乘以后一層對前一層的偏導數(shù),由于后一層的偏導數(shù)在

計算時已經(jīng)求出,可以直接使用,減少了計算量。

11、徑向神經(jīng)網(wǎng)絡、Hopfield網(wǎng)絡、玻爾茲曼機、自組織映射網(wǎng)絡

12、區(qū)別于傳統(tǒng)的淺層學習,深度學習的不同在于:(1)強調(diào)了模型結構的

深度,可以有幾十層、上百層隱層節(jié)點。(2)明確突出了特征學習的重要性。

13、卷積神經(jīng)網(wǎng)絡(ConvolutionalNeuralNetwork,CNN)直接利用圖像像

素信息作為輸入,通過卷積操作,模型輸出直接結果。

卷積神經(jīng)網(wǎng)絡組件有卷積層、池化層、全連接層。

卷積層的作用:執(zhí)行卷積操作提取底層到高層的特征,發(fā)掘出輸入數(shù)據(jù)(圖

片)的局部關聯(lián)性質(zhì)和空間不變性質(zhì)。

卷積層由一系列參數(shù)可學習的濾波器集合構成,濾波器(Filter)又稱之為

卷積核(Kernel)o不同卷積核可以提取不同的特征,例如邊緣,線性,角等特

征。

卷積神經(jīng)網(wǎng)絡的兩個特點:(1)參數(shù)共享(ParameterSharing):卷積核在同一

張圖上的多個區(qū)域都適用。(2)局部連接(SparsityofConnection):每個神經(jīng)元的

輸出僅僅依賴小部分輸入神經(jīng)元的值。

14、循環(huán)神經(jīng)網(wǎng)絡是一類以序列數(shù)據(jù)為輸入,在序列的演進方向進行遞歸且

所有節(jié)點(循環(huán)單元)按鏈式連接的遞歸神經(jīng)網(wǎng)絡。循環(huán)神經(jīng)網(wǎng)絡具有記憶性、

參數(shù)共享等特性。循環(huán)神經(jīng)網(wǎng)絡結構也是由輸入層、隱藏層、輸出層組成。循環(huán)

神經(jīng)網(wǎng)絡的輸出不只是與輸入有關,還與時間有關,也就是說,循環(huán)神經(jīng)網(wǎng)絡的

輸出值,,是受前面歷次輸入值。I、。_2、。-3等影響的,這就是為什

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論