人工智能應(yīng)用基礎(chǔ)項目式教程 教案 任務(wù)3.3選擇算法訓(xùn)練模型_第1頁
人工智能應(yīng)用基礎(chǔ)項目式教程 教案 任務(wù)3.3選擇算法訓(xùn)練模型_第2頁
人工智能應(yīng)用基礎(chǔ)項目式教程 教案 任務(wù)3.3選擇算法訓(xùn)練模型_第3頁
人工智能應(yīng)用基礎(chǔ)項目式教程 教案 任務(wù)3.3選擇算法訓(xùn)練模型_第4頁
人工智能應(yīng)用基礎(chǔ)項目式教程 教案 任務(wù)3.3選擇算法訓(xùn)練模型_第5頁
已閱讀5頁,還剩6頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

《任務(wù)3.3選擇算法訓(xùn)練模型》教案課程名稱人工智能應(yīng)用基礎(chǔ)課題任務(wù)3.3選擇算法訓(xùn)練模型班級:授課時間2025.3.1授課時數(shù)1課時地點:教材分析內(nèi)容分析本課時將重點介紹機器學(xué)習(xí)的常用算法、損失函數(shù)設(shè)計和參數(shù)優(yōu)化方法。通過這些內(nèi)容的學(xué)習(xí),幫助學(xué)生理解機器學(xué)習(xí)算法的基本原理,掌握損失函數(shù)的設(shè)計方法和參數(shù)優(yōu)化的技術(shù)。課程內(nèi)容涵蓋了機器學(xué)習(xí)的常用算法(如線性回歸、決策樹、支持向量機等)、損失函數(shù)的設(shè)計原則和方法、參數(shù)優(yōu)化的基本技術(shù)和常用優(yōu)化算法。通過具體的案例和實踐操作,幫助學(xué)生掌握選擇算法訓(xùn)練模型的基本技能。學(xué)情分析學(xué)生對機器學(xué)習(xí)的基本概念和流程有一定的了解,但對常用算法的具體實現(xiàn)和優(yōu)化方法還不夠熟悉。學(xué)生對編程有較高的興趣,但需要通過更多的互動和實踐來鞏固所學(xué)知識。本課時將通過豐富的代碼示例和互動練習(xí),幫助學(xué)生深入理解機器學(xué)習(xí)算法的基本原理和優(yōu)化方法。課時教學(xué)目標(biāo)知識目標(biāo)1.了解機器學(xué)習(xí)的常用算法,包括線性回歸、決策樹、支持向量機等。2.掌握損失函數(shù)的設(shè)計原則和方法。3.掌握參數(shù)優(yōu)化的基本技術(shù)和常用優(yōu)化算法。能力目標(biāo)1.能夠選擇合適的機器學(xué)習(xí)算法進行模型訓(xùn)練。2.能夠設(shè)計合適的損失函數(shù)進行模型評估。3.能夠使用常用的優(yōu)化算法進行參數(shù)優(yōu)化。4.能夠編寫符合編程風(fēng)格規(guī)范的代碼。素質(zhì)目標(biāo)1.培養(yǎng)學(xué)生對編程的興趣和好奇心。2.提升學(xué)生的邏輯思維能力和問題解決能力。思政目標(biāo)1.培養(yǎng)學(xué)生的社會責(zé)任感,了解機器學(xué)習(xí)技術(shù)對社會經(jīng)濟發(fā)展的影響。2.引導(dǎo)學(xué)生關(guān)注科技進步對就業(yè)和社會生活的影響。教學(xué)重點、難點教學(xué)重點1.機器學(xué)習(xí)的常用算法,包括線性回歸、決策樹、支持向量機等。2.損失函數(shù)的設(shè)計原則和方法。3.參數(shù)優(yōu)化的基本技術(shù)和常用優(yōu)化算法。教學(xué)難點1.如何選擇合適的機器學(xué)習(xí)算法進行模型訓(xùn)練。2.如何設(shè)計合適的損失函數(shù)進行模型評估。3.如何使用常用的優(yōu)化算法進行參數(shù)優(yōu)化。4.如何編寫符合編程風(fēng)格規(guī)范的代碼。教學(xué)策略設(shè)計思路1.通過案例分析和互動練習(xí),幫助學(xué)生理解機器學(xué)習(xí)算法的基本原理和優(yōu)化方法。2.采用議題式教學(xué)法,引導(dǎo)學(xué)生探討機器學(xué)習(xí)算法的選擇和優(yōu)化方法。3.利用多媒體教學(xué)資源,增強學(xué)生的直觀感受和理解。4.通過小組合作學(xué)習(xí),培養(yǎng)學(xué)生的團隊合作能力和創(chuàng)新思維。5.設(shè)計實踐活動,讓學(xué)生親身體驗機器學(xué)習(xí)算法的選擇和優(yōu)化過程。6.通過即時評價反饋,及時調(diào)整教學(xué)策略,確保教學(xué)效果。教學(xué)過程設(shè)計教學(xué)環(huán)節(jié)教師活動學(xué)生活動設(shè)計意圖教學(xué)與信息化手段課前預(yù)習(xí)任務(wù)1.發(fā)布預(yù)習(xí)資料,包括機器學(xué)習(xí)的常用算法、損失函數(shù)設(shè)計和參數(shù)優(yōu)化的方法。2.布置預(yù)習(xí)任務(wù),要求學(xué)生閱讀相關(guān)資料并思考機器學(xué)習(xí)算法的選擇和優(yōu)化方法。3.提供預(yù)習(xí)指南,指導(dǎo)學(xué)生如何進行有效的預(yù)習(xí)。1.閱讀預(yù)習(xí)資料,了解機器學(xué)習(xí)的常用算法、損失函數(shù)設(shè)計和參數(shù)優(yōu)化的方法。2.思考機器學(xué)習(xí)算法的選擇和優(yōu)化方法。3.完成預(yù)習(xí)任務(wù),準(zhǔn)備課堂討論。幫助學(xué)生提前了解課程內(nèi)容,為課堂學(xué)習(xí)做好準(zhǔn)備。預(yù)習(xí)資料、在線閱讀平臺課前調(diào)查1.設(shè)計問卷,調(diào)查學(xué)生對機器學(xué)習(xí)算法和優(yōu)化方法的了解程度。2.收集問卷數(shù)據(jù),分析學(xué)生的學(xué)習(xí)起點。3.根據(jù)調(diào)查結(jié)果調(diào)整教學(xué)策略。1.完成問卷調(diào)查,反饋對機器學(xué)習(xí)算法和優(yōu)化方法的了解情況。2.反饋調(diào)查結(jié)果,提出自己的疑問。了解學(xué)生的學(xué)習(xí)起點,為課堂教學(xué)提供依據(jù)。在線問卷調(diào)查工具課中導(dǎo)入新課1.通過一段視頻或案例,引出機器學(xué)習(xí)算法的概念。2.提出問題,引導(dǎo)學(xué)生思考機器學(xué)習(xí)算法的選擇和優(yōu)化方法。3.簡要介紹本課時的學(xué)習(xí)目標(biāo)和內(nèi)容。1.觀看視頻或案例,初步了解機器學(xué)習(xí)算法的概念。2.回答教師提出的問題,積極參與討論。3.明確本課時的學(xué)習(xí)目標(biāo)和內(nèi)容。激發(fā)學(xué)生的學(xué)習(xí)興趣,明確學(xué)習(xí)目標(biāo)。視頻播放設(shè)備、PPT講解常用算法1.詳細(xì)講解機器學(xué)習(xí)的常用算法,包括線性回歸、決策樹、支持向量機等。2.通過實例,說明這些算法的基本原理和應(yīng)用場景。3.引導(dǎo)學(xué)生總結(jié)常用算法的特點和應(yīng)用場景。1.認(rèn)真聽講,做好筆記。2.觀看實例,加深理解。3.積極參與討論,總結(jié)常用算法的特點和應(yīng)用場景。幫助學(xué)生系統(tǒng)地了解機器學(xué)習(xí)的常用算法。PPT、案例視頻講解損失函數(shù)設(shè)計1.詳細(xì)講解損失函數(shù)的設(shè)計原則和方法,包括均方誤差、交叉熵等。2.通過實例,說明如何設(shè)計合適的損失函數(shù)進行模型評估。3.引導(dǎo)學(xué)生總結(jié)損失函數(shù)的設(shè)計原則和方法。1.認(rèn)真聽講,做好筆記。2.觀看實例,加深理解。3.積極參與討論,總結(jié)損失函數(shù)的設(shè)計原則和方法。幫助學(xué)生系統(tǒng)地了解損失函數(shù)的設(shè)計原則和方法。PPT、案例視頻講解參數(shù)優(yōu)化1.詳細(xì)講解參數(shù)優(yōu)化的基本技術(shù)和常用優(yōu)化算法,包括梯度下降、隨機梯度下降、Adam等。2.通過實例,說明如何使用這些優(yōu)化算法進行參數(shù)優(yōu)化。3.引導(dǎo)學(xué)生總結(jié)參數(shù)優(yōu)化的基本技術(shù)和常用優(yōu)化算法。1.認(rèn)真聽講,做好筆記。2.觀看實例,加深理解。3.積極參與討論,總結(jié)參數(shù)優(yōu)化的基本技術(shù)和常用優(yōu)化算法。幫助學(xué)生系統(tǒng)地了解參數(shù)優(yōu)化的基本技術(shù)和常用優(yōu)化算法。PPT、案例視頻實踐操作1.逐步演示如何在Python環(huán)境中選擇算法、設(shè)計損失函數(shù)和進行參數(shù)優(yōu)化。2.解釋每一步的注意事項和可能遇到的問題。3.提供常見錯誤的解決方案和示例。4.引導(dǎo)學(xué)生記錄實踐操作中的問題與解決方法。5.討論實踐操作時可能的安全設(shè)置。1.跟隨教師演示,嘗試在自己的Python環(huán)境中選擇算法、設(shè)計損失函數(shù)和進行參數(shù)優(yōu)化。2.記錄實踐操作中遇到的問題,準(zhǔn)備提問。3.互相幫助,分享實踐操作經(jīng)驗。4.在教師講解時做筆記,記錄關(guān)鍵步驟。5.參與討論,發(fā)表對實踐操作步驟的理解。6.嘗試解決自己遇到的問題,進行探索。幫助學(xué)生掌握選擇算法、設(shè)計損失函數(shù)和進行參數(shù)優(yōu)化的具體步驟。Python環(huán)境、JupyterNotebook總結(jié)與反饋1.匯總本課時的主要內(nèi)容,強調(diào)重點和難點。2.對學(xué)生的課堂表現(xiàn)進行評價,指出優(yōu)點和不足。3.布置課后作業(yè),鞏固所學(xué)知識。4.預(yù)告下節(jié)課的內(nèi)容,激發(fā)學(xué)生的學(xué)習(xí)興趣。1.認(rèn)真聽講,回顧本課時的主要內(nèi)容。2.接受教師的評價,反思自己的表現(xiàn)。3.記錄課后作業(yè),準(zhǔn)備完成。4.了解下節(jié)課的內(nèi)容,做好預(yù)習(xí)。通過總結(jié)與反饋,幫助學(xué)生鞏固所學(xué)知識,明確下一步的學(xué)習(xí)方向。PPT、課后作業(yè)課后課后作業(yè)1.寫一篇關(guān)于機器學(xué)習(xí)常用算法、損失函數(shù)設(shè)計和參數(shù)優(yōu)化的小論文。2.選擇一個數(shù)據(jù)集,使用線性回歸、決策樹和支持向量機進行模型訓(xùn)練,設(shè)計合適的損失函數(shù)并進行參數(shù)優(yōu)化。3.完成課后練習(xí)題,鞏固所學(xué)知識。1.完成課后作業(yè),認(rèn)真撰寫小論文。2.選擇一個數(shù)據(jù)集,使用線性回歸、決策樹和支持向量機進行模型訓(xùn)練,設(shè)計合適的損失函數(shù)并進行參數(shù)優(yōu)化。3.完成課后練習(xí)題,鞏固所學(xué)知識。通過課后作業(yè),幫助學(xué)生鞏固所學(xué)知識,提高寫作和實踐能力。課后作業(yè)資料、代碼編輯器復(fù)習(xí)與預(yù)習(xí)1.提供復(fù)習(xí)資料,幫助學(xué)生鞏固本課時的知識。2.布置預(yù)習(xí)任務(wù),要求學(xué)生閱讀下節(jié)課的預(yù)習(xí)資料。3.提供預(yù)習(xí)指南,指導(dǎo)學(xué)生如何進行有效的預(yù)習(xí)。1.認(rèn)真復(fù)習(xí)本課時的知識,完成復(fù)習(xí)資料。2.閱讀下節(jié)課的預(yù)習(xí)資料,做好預(yù)習(xí)。3.按照預(yù)習(xí)指南,進行有效的預(yù)習(xí)。通過復(fù)習(xí)與預(yù)習(xí),幫助學(xué)生鞏固所學(xué)知識,為下節(jié)課的學(xué)習(xí)做好準(zhǔn)備。復(fù)習(xí)資料、預(yù)習(xí)資料板書設(shè)計一、機器學(xué)習(xí)常用算法1.線性回歸回歸模型可以理解為:存在一個點集,用一條曲線去擬合它分布的過程。如果擬合曲線是一條直線,則稱為線性回歸。如果是一條二次曲線,則被稱為二次回歸。線性回歸是回歸模型中最簡單的一種。在線性回歸中:假設(shè)函數(shù)為Y’=wX+b+,其中,Y’表示模型的預(yù)測結(jié)果(見圖3.16),用來和真實的Y區(qū)分。模型訓(xùn)練的目標(biāo)就是學(xué)習(xí)參數(shù):w、b。圖3.16線性回歸算法fromsklearn.linear_modelimportLinearRegressionmodel=LinearRegression()2.邏輯回歸邏輯回歸是一種廣泛應(yīng)用于機器學(xué)習(xí)的分類算法。它將數(shù)據(jù)映射到一個數(shù)值范圍內(nèi),然后將其分為一個有限的離散類別。邏輯回歸與線性回歸的主要區(qū)別在于它將輸出映射到一個值域,這個值域通常是0~1(見圖3.17)。圖3.17邏輯回歸算法fromsklearn.linear_modelimportLogisticRegressionmodel=LogisticRegression()3.貝葉斯分類器貝葉斯分類器是各種分類器中分類錯誤概率最小或者在預(yù)先給定代價的情況下平均風(fēng)險最小的分類器。它的設(shè)計方法是一種最基本的統(tǒng)計分類方法。其分類原理是通過某對象的先驗概率,利用貝葉斯公式計算出其后驗概率,即該對象屬于某一類的概率,選擇具有最大后驗概率的類作為該對象所屬的類。設(shè)類別ω的取值來自于類集合(ω1,ω2,...,ωm),樣本X=(X1,X2,...,Xn)表示用于分類的特征。對于貝葉斯分類器,若某一待分類的樣本D,其分類特征值為x=(x1,x2,...,xn),則樣本D屬于類別ωi的概率P(ω=ωi

|X1

=x1,X2

=x2,...,Xn

=xn),(i=1,2,...,m)應(yīng)滿足下式:P(ω=ωi

|X=x)=Max{P(ω=ω1

|X=x),P(ω=ω2

|X=x),...,P(ω=ωm

|X=x)}而由貝葉斯公式:P(ω=ωi

|X=x)=P(X=x|ω=ωi)*P(ω=ωi)/P(X=x)其中,P(ω=ωi)可由領(lǐng)域?qū)<业慕?jīng)驗得到的先驗概率,而P(X=x|ω=ωi)和P(X=x)的計算則較困難。貝葉斯分類算法原理如圖3.18所示。圖3.18貝葉斯分類器fromsklearn.naive_bayesimportGaussianNBclf=GaussianNB()model=clf.fit(x_train,y_train)4.決策樹決策樹是一種使用樹結(jié)構(gòu)進行決策分析的算法。它通過對屬性取值劃分?jǐn)?shù)據(jù)集,直到劃分后數(shù)據(jù)集有確定的標(biāo)簽,并將它們組合起來形成一棵樹。決策樹每個分支形成一條規(guī)則,對新的數(shù)據(jù)使用規(guī)則進行預(yù)測(見圖3.19)。圖3.19決策樹算法fromsklearnimporttree

model=tree.DecisionTreeClassifier()5.隨機森林隨機森林是一種集成學(xué)習(xí)算法,它可以通過同時訓(xùn)練多個決策樹來增強預(yù)測準(zhǔn)確性。隨機森林的主要思想是將輸入數(shù)據(jù)同時讓N個決策樹分別得到一個預(yù)測結(jié)果,以投票的方式確定最終預(yù)測結(jié)果(見圖3.20)。6.K近鄰K近鄰算法是一種基于實例的學(xué)習(xí)算法,它可用于對未知樣本進行分類并將其與其最近鄰居相關(guān)聯(lián)(見圖3.21)。圖3.21KNN算法fromsklearnimportneighborsmodel=neighbors.KNeighborsClassifier(n_neighbors=5)其中,

n_neighbors為鄰居的數(shù)目7.K均值Kmeans算法是機器學(xué)習(xí)中一種常用的聚類方法,其基本思想和核心內(nèi)容就是在算法開始時隨機給定若干(K)個中心,按照最近距離原則將樣本點分配到各個簇,之后按平均法計算簇的中心點位置,從而重新確定新的中心點位置。這樣不斷地迭代下去直至聚類集內(nèi)的樣本滿足閾值為止。圖3.22展示了Kmeans算法過程。圖3.22Kmeans聚類算法fromsklearn.clusterimportKMeanscluster=KMeans(n_clusters=4)二、損失函數(shù)設(shè)計1.回歸損失1)均方誤差,二次型損失,L2損失均方誤差(MeanSquareError,MSE)是最常用的回歸損失函數(shù)。MSE是目標(biāo)變量與預(yù)測值之間距離的平方和。下面是一個MSE函數(shù)的圖(見圖3.24),其中真實目標(biāo)值為100,預(yù)測值為.10,000~10,000。MSE損失(y軸)在預(yù)測(x軸)=100時達到最小值。范圍是0到∞圖3.24MSE函數(shù)圖2)平均絕對誤差,L1損失平均絕對誤差(MAE)是回歸模型中使用的另一個損失函數(shù),如圖3.25所示。MAE是目標(biāo)變量和預(yù)測變量之間的絕對差值之和。所以它測量的是一組預(yù)測的平均誤差大小,而不考慮它們的方向。(如果也考慮方向,那就叫作平均偏差誤差(MeanBiasError,MBE),它是殘差/誤差的和)。范圍也是0到∞。圖3.25MAE函數(shù)圖2.分類損失交叉熵?fù)p失函數(shù)圖3.26y接近1時的誤差圖3.27y接近0時的誤差圖3.28選取y接近1時的誤差和y接近0時的誤差的交叉點其中J(w)為誤差

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論