基于機(jī)器學(xué)習(xí)算法的切削加工最終稿_第1頁(yè)
基于機(jī)器學(xué)習(xí)算法的切削加工最終稿_第2頁(yè)
基于機(jī)器學(xué)習(xí)算法的切削加工最終稿_第3頁(yè)
基于機(jī)器學(xué)習(xí)算法的切削加工最終稿_第4頁(yè)
基于機(jī)器學(xué)習(xí)算法的切削加工最終稿_第5頁(yè)
已閱讀5頁(yè),還剩47頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

北京理工大學(xué)珠海學(xué)院2020屆本科生畢業(yè)設(shè)計(jì)基于機(jī)器學(xué)習(xí)算法的切削加工摘要近幾年來(lái),諸如“中國(guó)制造2025”,“工業(yè)4.0”概念已逐漸成為制造業(yè)未來(lái)的導(dǎo)向,又伴隨著人工智能這幾年的火熱興起,智能與制造行業(yè)的關(guān)系不斷的緊密了起來(lái)。在保證產(chǎn)品質(zhì)量的前提下,如何使得生產(chǎn)效率提高,切削參數(shù)如何合理的選擇,許多研究者已經(jīng)開(kāi)始運(yùn)用機(jī)器學(xué)習(xí)來(lái)尋找答案。機(jī)器學(xué)習(xí)包含的一些重要的算法對(duì)于提高生產(chǎn)效率,減少制造成本是一種極優(yōu)的途徑。所以基于機(jī)器學(xué)習(xí)算法的切削加工過(guò)程的研究對(duì)于制造智能化有著巨大的意義。本文對(duì)目前常用的切削參數(shù)優(yōu)化的算法進(jìn)行了詳細(xì)的介紹,其中包括人工神經(jīng)網(wǎng)絡(luò)構(gòu)成及其原理進(jìn)行了闡述,并對(duì)其實(shí)現(xiàn)過(guò)程進(jìn)行說(shuō)明。遺傳算法的原理以及步驟也給出詳盡的介紹。最后針對(duì)兩種算法的優(yōu)缺點(diǎn)進(jìn)行比較,選擇神經(jīng)網(wǎng)絡(luò)算法作為本文的算法對(duì)象。其次,在了解了目前的切削加工原理后,對(duì)它進(jìn)行了探討,其中包括探討加工變形的主要原因,以及探究了影響切削力的主要因素,對(duì)本文的研究?jī)?nèi)容建立起到了良好的參考作用。學(xué)習(xí)了工件數(shù)值的取值規(guī)律,并利用該規(guī)律進(jìn)行模擬數(shù)據(jù)的生成。最后選取了輸入輸出層數(shù)和節(jié)點(diǎn)數(shù),包括設(shè)置合適訓(xùn)練函數(shù),學(xué)習(xí)速率,目標(biāo)精度等等網(wǎng)絡(luò)參數(shù),利用MATLAB進(jìn)行神經(jīng)網(wǎng)絡(luò)模型的建立,并將訓(xùn)練樣本放入模型訓(xùn)練,分析訓(xùn)練結(jié)果。關(guān)鍵詞:機(jī)器學(xué)習(xí);切削加工;神經(jīng)網(wǎng)絡(luò);鈦合金車(chē)削MachiningbasedonmachinelearningalgorithmAbstractInrecentyears,suchas"madeinChina2025",theconceptof"industry4.0"hasgraduallybecomethefuturedirectionofmanufacturingindustry,andwiththehotriseofartificialintelligenceinrecentyears,therelationshipbetweenintelligenceandmanufacturingindustryhasbecomeincreasinglyclose.Underthepremiseofensuringproductquality,manyresearchershavebeguntousemachinelearningtofindouthowtoimproveproductionefficiencyandhowtochoosecuttingparametersreasonably.Machinelearningcontainssomeimportantalgorithmsforimprovingproductionefficiencyandreducingmanufacturingcostsisanexcellentway.Inthispaper,thecommonlyusedalgorithmofcuttingparameteroptimizationisintroducedindetail,includingthestructureandprincipleofartificialneuralnetwork,anditsimplementationprocessisdescribed.Theprincipleandstepsofgeneticalgorithmarealsointroducedindetail.Secondly,afterunderstandingthecurrentcuttingprinciple,thispaperdiscussesit,includingthemaincausesofmachiningdeformation,aswellasthemainfactorsaffectingthecuttingforce,whichhasagoodreferencefortheestablishmentoftheresearchcontentofthispaper.Finally,theinputandoutputlayersandnodesareselected,includingsettingappropriatetrainingfunction,learningrate,targetaccuracyandothernetworkparameters.Keywords:Keywords:machinelearning;cutting;neuralnetwork;titaniumalloyturning目錄1緒論 61.1研究背景及意義 61.2國(guó)內(nèi)外研究現(xiàn)狀 71.2.1關(guān)于切削加工過(guò)程優(yōu)化技術(shù)的研究 71.2.2切削加工關(guān)于神經(jīng)網(wǎng)絡(luò)的研究 71.2.3在切削加工工程優(yōu)化中其他算法的研究 81.2.4利用專(zhuān)家系統(tǒng)對(duì)切削加工過(guò)程優(yōu)化的相關(guān)研究 91.3本文研究?jī)?nèi)容和章節(jié)安排 92機(jī)器學(xué)習(xí)算法理論概述 102.1神經(jīng)網(wǎng)絡(luò)模型(ANN,BPNN)概述 102.1.1神經(jīng)網(wǎng)絡(luò)及類(lèi)型介紹 102.1.2神經(jīng)元的介紹 112.1.3神經(jīng)網(wǎng)絡(luò) 122.2BPNN算法及原理 132.2.1BPNN算法流程 142.3遺傳算法原理 182.3.1遺傳算法的執(zhí)行過(guò)程 182.3.2程序?qū)嵭兄饕獌?nèi)容 192.4人工神經(jīng)網(wǎng)絡(luò)和遺傳算法分析 192.5總結(jié) 203加工過(guò)程基本問(wèn)題以及模擬數(shù)據(jù)生成 213.1加工工程問(wèn)題探討 213.1.1切削加工基本原理 213.1.2切削的變形 213.1.3影響切削力因素 233.2模擬數(shù)據(jù)生成 233.2.1工件材料模擬數(shù)據(jù)生成 233.2.2刀具模擬數(shù)據(jù)產(chǎn)生 243.2.3樣本數(shù)據(jù)生成 253.3本章小結(jié) 264基于神經(jīng)網(wǎng)絡(luò)切削加工過(guò)程仿真驗(yàn)證 274.1神經(jīng)網(wǎng)絡(luò)算法處理 274.1.1算法處理 274.1.2神經(jīng)網(wǎng)絡(luò)一般的訓(xùn)練順序 294.2基于神經(jīng)網(wǎng)絡(luò)算法對(duì)切削加工工程仿真驗(yàn)證 294.3訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型 324.3.1樣本數(shù)據(jù)挑選 324.3.2對(duì)起始值進(jìn)行歸一化 334.4本章小節(jié) 365總結(jié)與展望 375.1總結(jié) 375.2展望 37參考文獻(xiàn) 38謝辭 40附錄 411緒論1.1研究背景及意義《工業(yè)4.0》和《中國(guó)制造2025》指出,現(xiàn)代工業(yè)以制造智慧和智能為特征,其中機(jī)械化和智能數(shù)字化是重要的組成部分。在當(dāng)下的機(jī)械制造行業(yè)中,最復(fù)雜的過(guò)程是高度非線(xiàn)性的加工。作為一個(gè)既滿(mǎn)足非線(xiàn)性系統(tǒng)特征又滿(mǎn)足時(shí)變系統(tǒng)特征的系統(tǒng),如果想要完成計(jì)算機(jī)對(duì)加工過(guò)程進(jìn)行控制的結(jié)果,那么就得對(duì)加工過(guò)程進(jìn)行建模和仿真,展示出它的動(dòng)態(tài)特性和它的變化規(guī)則。設(shè)立一開(kāi)始的優(yōu)化目標(biāo),我們會(huì)選擇機(jī)床、刀具和加工條件這些加工過(guò)程中的主要加工資源。研究者一般來(lái)說(shuō)依賴(lài)于物理理論,也憑借著實(shí)驗(yàn)中所創(chuàng)建的切削資源和目標(biāo)構(gòu)成的模型,再對(duì)它們進(jìn)行優(yōu)化處理,就能完成這一目標(biāo)。不過(guò)值得注意的是,高度非線(xiàn)性,極高的材料變形量和切削區(qū)域溫度這些特征始終伴隨著切削過(guò)程。單單就只使用這兩種方法一般來(lái)說(shuō)不容易創(chuàng)建加工資源與加工目標(biāo)之間的全局模型。所以,研究人員把每種加工資源進(jìn)行一定的分解,劃分成了自然數(shù)個(gè)小單元來(lái)對(duì)其進(jìn)行研究,這樣做方便了模型的建立。分析建模在加工過(guò)程建模領(lǐng)域起著主導(dǎo)地位。因?yàn)榉治瞿P驮诶碚撗芯亢凸酵蒲萆弦话銇?lái)說(shuō)會(huì)比經(jīng)驗(yàn)?zāi)P透臃彪s,不過(guò)它能更好的從機(jī)理層面理解切削過(guò)程,并能夠研究每一種工藝參數(shù)對(duì)切削過(guò)程關(guān)聯(lián)物理量的影響規(guī)律,對(duì)理解切削過(guò)程非常有幫助。在機(jī)械制造領(lǐng)域,其主要的加工方式是切削加工,巨量重復(fù)的相同工作一直伴隨著加工的過(guò)程中。機(jī)器學(xué)習(xí)從最本質(zhì)來(lái)說(shuō)就是一組算法,為了能更準(zhǔn)確的預(yù)測(cè)結(jié)果,算法可以控制軟件和程序像人一樣在過(guò)去的經(jīng)驗(yàn)中學(xué)習(xí)。算法和生物一樣能夠不斷的進(jìn)化自己而且還能適應(yīng)自己,不需要編程手段,。因此,將機(jī)器學(xué)習(xí)算法應(yīng)用到切削過(guò)程中,對(duì)加工過(guò)程中的加工資源進(jìn)行一定的優(yōu)化,就能完成切削過(guò)程的優(yōu)化。本文研究如何利用機(jī)器學(xué)習(xí)算法對(duì)切削加工過(guò)程的切削參數(shù)進(jìn)行一定的優(yōu)化,為基于機(jī)器學(xué)習(xí)算法在切削加工過(guò)程中進(jìn)行優(yōu)化操作的更深的探討提供一定的幫助。1.2國(guó)內(nèi)外研究現(xiàn)狀本小節(jié)針對(duì)國(guó)內(nèi)和國(guó)外的研究員對(duì)優(yōu)化切削加工技術(shù)的探討進(jìn)行一定量的闡述,也包含了如何運(yùn)用神經(jīng)網(wǎng)絡(luò)來(lái)結(jié)合切削加工,中外研究員也有許多有趣的嘗試。還擴(kuò)展介紹了另外的一些機(jī)器學(xué)習(xí)算法與切削加工結(jié)合的研究和以過(guò)往的經(jīng)驗(yàn)?zāi)P团c數(shù)學(xué)模型構(gòu)成的專(zhuān)家系統(tǒng),用它來(lái)對(duì)切削加工進(jìn)行改善。1.2.1關(guān)于切削加工過(guò)程優(yōu)化技術(shù)的研究從上個(gè)世紀(jì)90年代末尾開(kāi)始按照數(shù)學(xué)建模的方法對(duì)切削過(guò)程的優(yōu)化研究流行了起來(lái)。Chua等人提出了關(guān)于切削條件優(yōu)化的數(shù)學(xué)公式,這些數(shù)學(xué)公式的目標(biāo)是想要縮短加工時(shí)間。如果想要計(jì)算出最優(yōu)經(jīng)濟(jì)的公差和尺寸,HE提出的最小加工成本目標(biāo)函數(shù)就能實(shí)現(xiàn)。Yeo等人提出了對(duì)每次的車(chē)削的切削深度進(jìn)行優(yōu)化,這樣便可以降低加工成本。,這是一種對(duì)數(shù)控車(chē)床較能夠使用的優(yōu)化方法。Akturk等人提出的方法是創(chuàng)建了系統(tǒng)表示的數(shù)學(xué)模型,用該模型來(lái)對(duì)總的生產(chǎn)成本進(jìn)行計(jì)算和改善,這種方法屬于數(shù)控機(jī)床的分層優(yōu)化方法。Kayacan等人提出了一個(gè)旋轉(zhuǎn)零件的工藝規(guī)劃系統(tǒng)也很有想法,它是由Kayacan等人提出的。這個(gè)系統(tǒng)利用知識(shí)庫(kù)和加工拓?fù)浣Y(jié)構(gòu)來(lái)對(duì)加工工藝和刀具進(jìn)行設(shè)置。Lazoglu和Liang等人建立了刀具-工件相互作用的數(shù)學(xué)表示模型,調(diào)整設(shè)置了加工過(guò)程,優(yōu)化了切削參數(shù)。汪朝軍等發(fā)表了變搜索域遺傳算法,雖然這個(gè)算法過(guò)于復(fù)雜,但是它容易計(jì)算,速度迅速且能保持很高的精度,這樣就解決了制造系統(tǒng)對(duì)優(yōu)化切削數(shù)值要求迅速做出響應(yīng)的問(wèn)題。潘永智等人通過(guò)使用了遺傳算法,創(chuàng)建了切削力的準(zhǔn)備模型,把模型設(shè)置為目標(biāo)函數(shù),使得各參數(shù)得到了優(yōu)化。1.2.2切削加工關(guān)于神經(jīng)網(wǎng)絡(luò)的研究神經(jīng)網(wǎng)絡(luò)通過(guò)大量的并行計(jì)算結(jié)構(gòu)解決了傳感器信號(hào)。它還能夠?qū)?fù)雜工況下的加工狀態(tài)進(jìn)行歸類(lèi),過(guò)濾掉加工過(guò)程中時(shí)常出現(xiàn)的狀態(tài)信號(hào)噪聲。barschorff通過(guò)使用神經(jīng)網(wǎng)絡(luò)這些優(yōu)點(diǎn)創(chuàng)建了具有代表性的BP網(wǎng)絡(luò)監(jiān)測(cè)模型。在此模型的基礎(chǔ)上,Monostori為了增強(qiáng)網(wǎng)絡(luò)的泛化能力,便將過(guò)程參數(shù)匯集到網(wǎng)絡(luò)的訓(xùn)練中,便于對(duì)漂移進(jìn)行濾波。Jammu使用了SCBC無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò)目的是保證分辨率,和實(shí)現(xiàn)在線(xiàn)監(jiān)測(cè),tarng的學(xué)習(xí)模型由一個(gè)由自回歸滑動(dòng)平均模型和ART2網(wǎng)絡(luò)所構(gòu)成。倪其民等依照加工過(guò)程原理創(chuàng)建了人工神經(jīng)網(wǎng)絡(luò)模型,為了對(duì)平面銑削加工切削參數(shù)的完成我適應(yīng)的改善優(yōu)化,借助了遺傳算法對(duì)神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)優(yōu)化了權(quán)重。這樣優(yōu)化在一般加工條件下,能夠獲得到最大材料去除率,不過(guò)優(yōu)化效率不是很高這個(gè)缺點(diǎn)也很突出。李小忠等為了構(gòu)造了切削加工參數(shù)優(yōu)化模型便借助了人工神經(jīng)網(wǎng)絡(luò)和遺傳算法。張玉周和劉菊東則運(yùn)用了不同于其他人的方法對(duì)切削參數(shù)進(jìn)行優(yōu)化,就是添加了模糊分析方法來(lái)實(shí)現(xiàn)這一過(guò)程。沈?yàn)榱藦浹a(bǔ)位置誤差,采用了BP網(wǎng)絡(luò)學(xué)習(xí)預(yù)行程誤差與位置坐標(biāo)的關(guān)系映射。一般來(lái)說(shuō)機(jī)床溫度場(chǎng)與熱變形之間的關(guān)系是非線(xiàn)性的,楊為了研究這一關(guān)系使用了cm-AC網(wǎng)絡(luò)對(duì)上述實(shí)行熱補(bǔ)償。雷克構(gòu)造了三層的BP網(wǎng)絡(luò),其主要作用是對(duì)數(shù)控立銑液壓冷卻系統(tǒng)的工作狀態(tài)進(jìn)行確認(rèn)。1.2.3在切削加工工程優(yōu)化中其他算法的研究為了尋求問(wèn)題解的答案,通過(guò)借助計(jì)算機(jī)的高性能,可以在問(wèn)題的解空間中提出一些或所有可能的情況,這種算法就叫做搜索算法。對(duì)加工過(guò)程優(yōu)化問(wèn)題視為是一個(gè)源于搜索算法的搜索問(wèn)題,國(guó)內(nèi)外研究者普遍是這樣做的,其中禁忌搜索是普遍使用的一種搜索算法。Rai等人確認(rèn)了箱體零件的加工工藝,是來(lái)源于約束的TS算法優(yōu)化加工資源的挑選。為了提高優(yōu)化效果,許多“遺傳基礎(chǔ)”算法在切削過(guò)程優(yōu)化中得到了寬廣的采用,在“遺傳基礎(chǔ)”算法中普遍采用的是遺傳算法。遺傳算法的問(wèn)世離不開(kāi)JohnHolland這個(gè)Michigan大學(xué)的著名學(xué)者。八十年代后期的開(kāi)拓性工作的初衷是在人工自適應(yīng)系統(tǒng)中設(shè)計(jì)查詢(xún)機(jī)制,達(dá)爾文的自然進(jìn)化原理誕生了這一方法。大自然的生物有著相當(dāng)復(fù)雜且強(qiáng)大的適應(yīng)周?chē)h(huán)境的能力,為了能解釋這一現(xiàn)象,研究員對(duì)生物進(jìn)化機(jī)制進(jìn)行了模擬因而創(chuàng)建了人工系統(tǒng)模型。遺傳算法挑選的對(duì)象是群體中的每一個(gè)個(gè)體,并且采用了隨機(jī)化技術(shù)來(lái)控制編碼參數(shù)空間進(jìn)行有效搜索。Chen和Tseng在加工條件的挑選中使用了浮點(diǎn)編碼算法。由于實(shí)際加工過(guò)程的局限性,單目標(biāo)優(yōu)化往往不能解決所有的目標(biāo)優(yōu)化問(wèn)題,研究者為了能夠?qū)υS多因素進(jìn)行優(yōu)化改善,利用了多目標(biāo)優(yōu)化的方法。Sardinas等人為了得到車(chē)削加工過(guò)程中所產(chǎn)生的最佳切削參數(shù),創(chuàng)建了采用遺傳算法的多目標(biāo)優(yōu)化方法來(lái)進(jìn)行試驗(yàn)。Solimanpur和ranjdoostfard創(chuàng)建的基于遺傳算法的多目標(biāo)優(yōu)化改善方法顧及到了生產(chǎn)所需要的時(shí)間和成本還有粗糙度等因素,并利用該方法確定了最優(yōu)切削參數(shù)。劉春靜等創(chuàng)建了一個(gè)灰色關(guān)聯(lián)度和主成分分析的車(chē)削優(yōu)化模型,該模型將評(píng)價(jià)指標(biāo)設(shè)置為表面粗糙度、切削力和刀具磨損,這個(gè)模型還依賴(lài)于田口法。1.2.4利用專(zhuān)家系統(tǒng)對(duì)切削加工過(guò)程優(yōu)化的相關(guān)研究Elsawy和Abdalla為了優(yōu)化加工過(guò)程,創(chuàng)建了一種基于專(zhuān)家系統(tǒng)的混合層次分析法(AHP)。以工程技術(shù)人員的實(shí)際經(jīng)驗(yàn)和數(shù)學(xué)分析模型的輸出相融合,可以得到更加準(zhǔn)確以及確定權(quán)重的知識(shí),能夠幫助工人對(duì)刀具和機(jī)床進(jìn)行挑選,這就是該系統(tǒng)顯著的特點(diǎn)。Ribeiro和coppini[56]開(kāi)發(fā)了用與對(duì)比,研究,和改進(jìn)各種刀具程序的一個(gè)加工數(shù)據(jù)庫(kù)系統(tǒng)。加工數(shù)據(jù)庫(kù)系統(tǒng)會(huì)依照工廠能夠完成的最大生產(chǎn)條件來(lái)進(jìn)行查找適合當(dāng)前生產(chǎn)條件的最佳加工帶。上述研究方法優(yōu)化了切削過(guò)程中的許多個(gè)局部目標(biāo),如常見(jiàn)的切削參數(shù)、切削路徑等。1.3本文研究?jī)?nèi)容和章節(jié)安排本研究課題主要目的是探究如何利用機(jī)器學(xué)習(xí)算法來(lái)對(duì)切削加工參數(shù)進(jìn)行改善優(yōu)化。實(shí)際生產(chǎn)是最好的例子,本文基于實(shí)際生產(chǎn),參考相關(guān)工件和刀具特性進(jìn)行模擬數(shù)據(jù)生成,并建立了預(yù)測(cè)模型,分析了結(jié)果。第一章緒論對(duì)研究背景進(jìn)行了闡述,包括國(guó)內(nèi)外研究者對(duì)本課題的研究狀況以及他們的主要研究?jī)?nèi)容等,同時(shí)最后說(shuō)明了了本文研究的內(nèi)容和章節(jié)布置。第二章介紹了研究?jī)?nèi)容涉及的機(jī)器學(xué)習(xí)算法各類(lèi)型的理論,分析了它們的實(shí)現(xiàn)過(guò)程,并闡述了選擇神經(jīng)網(wǎng)絡(luò)進(jìn)行研究的原因。第三章介紹切削加工的基本原理,分析了包括加工變形,切削力影響因素等等。另外分析了工件和刀具的特性,進(jìn)行了模擬數(shù)據(jù)的生成。第四章對(duì)神經(jīng)網(wǎng)絡(luò)的公式,構(gòu)造,訓(xùn)練方法進(jìn)行了探討和介紹,并且分析和選擇了參數(shù),構(gòu)建了神經(jīng)網(wǎng)絡(luò)模型。針對(duì)樣本進(jìn)行了訓(xùn)練,再探討了訓(xùn)練結(jié)果。第五章針對(duì)了本文所探討內(nèi)容進(jìn)行了總結(jié),并對(duì)本文所欠缺的部分進(jìn)行了展望。

2機(jī)器學(xué)習(xí)算法理論概述本章的主要內(nèi)容是介紹切削加工過(guò)程優(yōu)化可能所涉及的學(xué)習(xí)算法,為了挑選適合的算法進(jìn)行研究,需要對(duì)不同的機(jī)器學(xué)習(xí)算法和模型進(jìn)行探討學(xué)習(xí),使各算法進(jìn)行一定程度的結(jié)合。2.1神經(jīng)網(wǎng)絡(luò)模型(ANN,BPNN)概述從上個(gè)實(shí)際80年代初,人工神經(jīng)網(wǎng)絡(luò)(即ANN)就一直是作為人工智能研究領(lǐng)域關(guān)注度最高的算法。它是每一種神經(jīng)網(wǎng)絡(luò)模型的根基。本節(jié)除了對(duì)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行詳盡的說(shuō)明,也重點(diǎn)介紹神經(jīng)網(wǎng)絡(luò)的BPNN模型。2.1.1神經(jīng)網(wǎng)絡(luò)及類(lèi)型介紹相互連接的節(jié)點(diǎn)(或神經(jīng)元)組成的一種操作模型被叫做神經(jīng)網(wǎng)絡(luò)。激活函數(shù)(activationfunction)是指任一個(gè)節(jié)點(diǎn)所能表示的指定輸出函數(shù)。任意兩個(gè)節(jié)點(diǎn)之間存在著一個(gè)連接,信號(hào)在通過(guò)時(shí)連接只有滿(mǎn)足相應(yīng)的權(quán)值才能通過(guò),這個(gè)權(quán)值大多數(shù)人又叫它權(quán)重。權(quán)重和人工神經(jīng)網(wǎng)絡(luò)就好比與計(jì)算機(jī)和它的內(nèi)存的關(guān)系。網(wǎng)絡(luò)的輸出由很多因素決定,通常比較熟悉的因素是激勵(lì)函數(shù)、權(quán)等。目前已經(jīng)存在數(shù)十種神經(jīng)網(wǎng)絡(luò)模型,主要有以下幾種類(lèi)型:前向型、反饋型、隨機(jī)型和競(jìng)爭(zhēng)型。前反饋神經(jīng)網(wǎng)絡(luò)的特征是逐層排列的,它里面包含了輸入輸出層和隱形層。其中輸出輸入層有確定的層數(shù)而隱形層可以任意設(shè)置層數(shù)。該類(lèi)型的神經(jīng)網(wǎng)絡(luò)各層神經(jīng)元不會(huì)對(duì)前層進(jìn)行信號(hào)反饋,只是接受前層的輸入。各層在得到前層的輸入后將其轉(zhuǎn)換所得的輸出結(jié)果又作為后一層的輸入,一直行進(jìn)到最終輸出結(jié)果。值得一提的是,本文所要仔細(xì)探究運(yùn)用的BPNN就屬于這種網(wǎng)絡(luò)類(lèi)型?;貧w網(wǎng)絡(luò)一般來(lái)說(shuō)也被叫做反饋網(wǎng)絡(luò)。反饋系統(tǒng)的初始狀態(tài)一般來(lái)說(shuō)取決于輸入信號(hào)。系統(tǒng)如果想要達(dá)到平衡狀態(tài),就需要網(wǎng)絡(luò)系統(tǒng)不斷的經(jīng)過(guò)一系列的狀態(tài)轉(zhuǎn)換。因此,穩(wěn)定性是反饋網(wǎng)絡(luò)的重要指標(biāo)之一,比較熟知的是Hopfield神經(jīng)網(wǎng)絡(luò)就是該種類(lèi)型。隨機(jī)型是指具有隨機(jī)性的模擬退火算法解決了優(yōu)化過(guò)程中的局部極小問(wèn)題,并成功地應(yīng)用于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)和優(yōu)化中競(jìng)爭(zhēng)型比如自我組織神經(jīng)網(wǎng)絡(luò),它是一種沒(méi)有老師的學(xué)習(xí)網(wǎng)絡(luò),它一般模擬人腦的行為動(dòng)作,按照以往的結(jié)論自我適應(yīng)不能夠觀測(cè)的環(huán)境變化。由于沒(méi)有監(jiān)督,這種網(wǎng)絡(luò)通常采用競(jìng)爭(zhēng)的原則進(jìn)行網(wǎng)絡(luò)學(xué)習(xí)和自動(dòng)聚類(lèi)。目前,它廣泛應(yīng)用于自動(dòng)控制、故障診斷和其它類(lèi)型的模式識(shí)別中2.1.2神經(jīng)元的介紹為了更好理解所謂的神經(jīng)網(wǎng)絡(luò),見(jiàn)圖2-1最基本的神經(jīng)網(wǎng)絡(luò)開(kāi)始介紹。圖2-1的神經(jīng)網(wǎng)絡(luò)只有一個(gè)“神經(jīng)元”。圖2-1神經(jīng)元結(jié)構(gòu)這個(gè)神經(jīng)元是由x1,x2,x3和一個(gè)偏置b=+1作為輸入,w1,w2,w3是他們的權(quán)重,節(jié)點(diǎn)輸入后,經(jīng)過(guò)激活函數(shù)F,得到輸出:現(xiàn)在,我們用sigmoid函數(shù)作為激活函數(shù)f(x):其函數(shù)圖像見(jiàn)圖3-2所示:圖2-2sigmoid函數(shù)圖像其值范圍大于等于0小于等于1([0,1])。因此,當(dāng)一個(gè)數(shù)據(jù)輸入來(lái)到神經(jīng)元,我們的激活函數(shù)會(huì)對(duì)其采取轉(zhuǎn)換,轉(zhuǎn)換出來(lái)的就是輸出結(jié)果,這就是神經(jīng)元的一個(gè)過(guò)程。2.1.3神經(jīng)網(wǎng)絡(luò)所謂神經(jīng)網(wǎng)絡(luò)就是把有限個(gè)獨(dú)立的“神經(jīng)元”互相鏈接,值得一提的是在這個(gè)神經(jīng)網(wǎng)絡(luò)中,一個(gè)“神經(jīng)元”的輸出等于另一個(gè)“神經(jīng)元”的輸入。如圖2-3展示了一個(gè)神經(jīng)網(wǎng)絡(luò),方便我們?nèi)ダ斫膺@一過(guò)程。x1x1+1x3x2x1+1x3x2LayerL1LayerL2a1a3a2LayerL3h(x)圖2-3神經(jīng)網(wǎng)絡(luò)示意圖最左邊第一層是輸入層,其次是隱形層,最后一層是輸出層。在神經(jīng)網(wǎng)絡(luò)中節(jié)點(diǎn)就表示為神經(jīng)元,而圖中的輸入層和隱藏層就分別有三個(gè)節(jié)點(diǎn),輸入層有三個(gè)輸入節(jié)點(diǎn),x1、X2、X3和一個(gè)偏移節(jié)點(diǎn)(用+1圈起來(lái))。在每一層和下一層之間還有一個(gè)權(quán)重矩陣w。這樣一個(gè)的簡(jiǎn)單神經(jīng)網(wǎng)絡(luò),從輸入x開(kāi)始與所屬權(quán)值矩陣W相結(jié)合,以Wx+b的形式以輸入層開(kāi)始輸出傳遞到到隱形層L2到結(jié)束,它同樣是隱藏層的輸入。經(jīng)過(guò)激活函數(shù)f(x)的轉(zhuǎn)換后,a1,a2,a3這三個(gè)輸出將會(huì)得到,把這3個(gè)輸出與相應(yīng)的權(quán)值還有偏移量相結(jié)合,它們就是輸出層L3的輸入,它們?cè)偻ㄟ^(guò)激活函數(shù),最終輸出結(jié)果便獲得了。2.2BPNN算法及原理BPNN也被叫做后向傳播神經(jīng)網(wǎng)絡(luò)。在上面的小節(jié)已經(jīng)提到過(guò)它,BPNN屬于向前反饋型神經(jīng)網(wǎng)絡(luò)的一種。前饋型網(wǎng)絡(luò)的結(jié)構(gòu)加上朝后傳播算法就成為了BP神經(jīng)網(wǎng)絡(luò)。圖2-4BPNN示意前饋型神經(jīng)網(wǎng)絡(luò),就像百米賽跑一樣,從起點(diǎn)一直奔跑到終點(diǎn),不會(huì)向后跑。信號(hào)往前面?zhèn)鬟f就稱(chēng)為前饋。BPNN的前饋表現(xiàn)的意思是假如現(xiàn)在有個(gè)輸入信號(hào),這個(gè)輸入信號(hào)來(lái)到了輸入層,他會(huì)從輸入層出發(fā),它所走過(guò)的各層,神經(jīng)元會(huì)把本層的輸出計(jì)算出來(lái)后把輸出傳遞到下一層,這樣一直到最后,神經(jīng)網(wǎng)絡(luò)的結(jié)果就會(huì)被輸出層計(jì)算出來(lái)。。前饋一般來(lái)說(shuō)只計(jì)算網(wǎng)絡(luò)的輸出,不會(huì)調(diào)試網(wǎng)絡(luò)的參數(shù)。我們需要對(duì)一些在訓(xùn)練過(guò)程中利用反向傳播來(lái)調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值的網(wǎng)絡(luò)進(jìn)行監(jiān)督。當(dāng)你的網(wǎng)絡(luò)沒(méi)有得到很好的訓(xùn)練時(shí),輸出的結(jié)果必須與你所想的不同。然后我們會(huì)得到一個(gè)偏差,并逐級(jí)傳遞偏差,然后逐層得到反饋偏導(dǎo)數(shù)可以使得梯度下降,但依賴(lài)于反饋去尋找。想要最大可能的減少期望值和輸出值之間的誤差,可以使用梯度下降法求出成本函數(shù)的最小值來(lái)處理。2.2.1BPNN算法流程BPNN的算法流程如圖2-5所示。圖2-5BPNN流程總共分為五個(gè)步驟:將網(wǎng)絡(luò)權(quán)重和偏置進(jìn)行開(kāi)始設(shè)置。不同神經(jīng)元有不同的網(wǎng)絡(luò)權(quán)值。所以當(dāng)在開(kāi)始階段,如果給各個(gè)網(wǎng)絡(luò)連接權(quán)重一個(gè)相當(dāng)小的隨機(jī)數(shù),那么神經(jīng)元的偏置也會(huì)被設(shè)置為一個(gè)隨機(jī)的數(shù)。正向傳播。把樣本進(jìn)行輸入后會(huì)自動(dòng)算出神經(jīng)元的輸出。另外說(shuō)一下神經(jīng)元的計(jì)算方法是相同的。它是由其輸入的線(xiàn)性組合得到的,如圖2-6所示x1x1+1x3x2x1+1x3x2LayerL1LayerL2a1a3a2LayerL3h(x)圖2-6神經(jīng)網(wǎng)絡(luò)演示我們用Wijl表示第l層的第i個(gè)節(jié)點(diǎn)與第l+1層的第j個(gè)節(jié)點(diǎn)之間的權(quán)重,其中我們將第l層記為L(zhǎng)1,本圖中L1與L2層之間的權(quán)重即為Wij1,L2與我們用bil代表第l+1層第i個(gè)節(jié)點(diǎn)的偏置項(xiàng)。我們用sjl表示第l+1層第j個(gè)節(jié)點(diǎn)的輸入值。當(dāng)l=1時(shí),??我們用θ(sjl)代表第l那我們可以得到如下公式:s一次訓(xùn)練這樣就算實(shí)現(xiàn)了,我們得到了輸出結(jié)果hW,b計(jì)算誤差并進(jìn)行反饋回應(yīng)。這正是和人類(lèi)一樣的學(xué)習(xí)過(guò)程,算法也能這么做。不用懷疑的是,我們?cè)趯W(xué)習(xí)過(guò)程種希望我們的學(xué)習(xí)結(jié)果和最終測(cè)試成績(jī)達(dá)成一種一致,算法也是這樣,它的輸出要盡可能和實(shí)際值相同。如果兩個(gè)值之間不一致時(shí),就會(huì)存在誤差。顯然的是隨著誤差越小,算法的預(yù)測(cè)效果就會(huì)越優(yōu)秀。整個(gè)工程的變量只有權(quán)重,它們會(huì)影響輸出。

如果權(quán)重變化出現(xiàn)在在輸入層的第i個(gè)節(jié)點(diǎn)和隱形層的第j個(gè)節(jié)點(diǎn)之間,變化為Δwij,那么這個(gè)Δwij將對(duì)Sj產(chǎn)生影響,導(dǎo)致一個(gè)變化Δsj,然后生成Δθ(sjL(e)=有了誤差,為了最小化它們,使用梯度下降法。也就是說(shuō),每一個(gè)樣本的權(quán)重都會(huì)沿著其負(fù)梯度的方向變化。也可以這樣說(shuō),誤差l到權(quán)重W的梯度,對(duì)于從輸入層到隱藏層的權(quán)重,我們有?L?W由于sj1=所以?sj1帶入(1)中為?L?Wij1=?然后我們需要求?L?sj1,因?yàn)樗械膕i2=j=1n?我們可以將?L??L?sj又根據(jù)(5),我們得到:?si2帶入(6)可以得到:?L?現(xiàn)在,我們記δil我們有:δj1因?yàn)椋害脑谶@個(gè)階段,可以看到反向傳播在哪里了,也就是ei。在反向傳播的情況下,我們可以將輸出層視為輸入層,因此這里每個(gè)輸出層節(jié)點(diǎn)的ei實(shí)際上是我們的輸入。通過(guò)激活函數(shù)θ'(si2得到反向輸出后我們就可以計(jì)算第一層的權(quán)重梯度了:?以及第二層的權(quán)重梯度?可以看到一個(gè)規(guī)律:每一層的權(quán)重梯度都等于這一層權(quán)重所連的前一層的輸入乘以所連的后一層的反向輸出。比如輸入層與隱藏層之間所連的權(quán)重梯度就等于輸出層的輸入Xi乘以隱藏層的反向輸出δj1,網(wǎng)絡(luò)權(quán)值和神經(jīng)網(wǎng)絡(luò)元件的偏差調(diào)整。使用權(quán)重梯度,我們可以輕松更新權(quán)重

W結(jié)束網(wǎng)絡(luò)的判別。每個(gè)樣本的差異值小于我們?cè)O(shè)置的閾值,或者達(dá)到迭代次數(shù)。訓(xùn)練就完成了,或者返回到第二步繼續(xù)訓(xùn)練。以上就是BPNN的整個(gè)訓(xùn)練過(guò)程,訓(xùn)練結(jié)束了就可以使用該神經(jīng)網(wǎng)絡(luò).2.3遺傳算法原理模擬了達(dá)爾文生物進(jìn)化的自然選擇,和他最主要的遺傳機(jī)制后,按照它們所創(chuàng)建的數(shù)學(xué)模型,就是常說(shuō)的遺傳算法。遺傳算法尋求最佳解的手段是通過(guò)模擬自然進(jìn)化而得到的。通常來(lái)說(shuō)求導(dǎo)和函數(shù)連續(xù)性會(huì)對(duì)算法進(jìn)行一定的阻礙,但遺傳算法不會(huì)受到這些阻礙,遺傳算法能夠?qū)Y(jié)構(gòu)對(duì)象直接操作。遺傳算法也具有自身內(nèi)部的隱式并行性,和對(duì)大局有比較好的優(yōu)化能力。遺傳算法使用隨機(jī)處理技術(shù)來(lái)控制編碼參數(shù)空間以個(gè)體為目標(biāo)的搜索。遺傳算法的初始化種群設(shè)置,設(shè)計(jì)適應(yīng)度函數(shù)為它的關(guān)鍵函數(shù)。2.3.1遺傳算法的執(zhí)行過(guò)程遺傳算法按照問(wèn)題默認(rèn)解集的種群開(kāi)始進(jìn)行處理,個(gè)體在被基因編碼后形成了種群。個(gè)體其實(shí)都是一個(gè)具有特殊性能的染色體實(shí)體。染色體可以作為遺傳物質(zhì)的汽車(chē),它包含了多種基因。它的內(nèi)部表達(dá)決定著個(gè)體外形,內(nèi)部表達(dá)(即基因型)是一種基因組合。例如,之所以能長(zhǎng)出黑發(fā),離不開(kāi)其控制黑發(fā)這一特性的染色體的一種基因組合。因此,從表型到基因型的初步定位,即編碼必須實(shí)現(xiàn)。,我們之常常對(duì)模擬基因編碼進(jìn)行簡(jiǎn)化,是由于其復(fù)雜性,如二進(jìn)制編碼就需要簡(jiǎn)化。第一代種群出現(xiàn)后,依照達(dá)爾文的適者生存的原則,后代進(jìn)化會(huì)比前代更佳的近似解。在后代中,挑選個(gè)體要按照所在問(wèn)題的適應(yīng)度,利用自然遺傳學(xué)中的遺傳算子將交叉和變異相結(jié)合,產(chǎn)生一個(gè)代表新解集的種群。如同自然進(jìn)化一樣,一代比一代更適合環(huán)境。問(wèn)題的相似最優(yōu)解就是在最后一代種的最佳個(gè)體。圖2-7展示了遺傳算法過(guò)程。圖2-7遺傳算法過(guò)程圖2.3.2程序?qū)嵭兄饕獌?nèi)容根據(jù)遺傳算法思想來(lái)對(duì)其進(jìn)行程序?qū)崿F(xiàn)所需要的主要內(nèi)容:設(shè)置參數(shù):對(duì)遺傳算法的基本參數(shù)進(jìn)行設(shè)置,如規(guī)模和代數(shù)等。處理數(shù)據(jù):一般來(lái)說(shuō),我們用二進(jìn)制數(shù)來(lái)表示候選解,所以這一步我們需要對(duì)對(duì)隨機(jī)生成的十進(jìn)制種群轉(zhuǎn)變,使得種群個(gè)體的數(shù)據(jù)類(lèi)型是二進(jìn)制。適應(yīng)度計(jì)算:對(duì)種群中每個(gè)個(gè)體的適應(yīng)度進(jìn)行計(jì)算并作為遺傳的初始條件。進(jìn)化過(guò)程:在這個(gè)步驟中,將對(duì)生成的種群進(jìn)行遺傳操作并產(chǎn)生下一代全新種群。重復(fù)這一過(guò)程直到循環(huán)到我們所設(shè)定的設(shè)定值,將最后一代的最優(yōu)個(gè)體進(jìn)行轉(zhuǎn)化,使得它成為十進(jìn)制數(shù)。2.4人工神經(jīng)網(wǎng)絡(luò)和遺傳算法分析

通過(guò)上面的算法介紹,我們可以了解到神經(jīng)網(wǎng)絡(luò)和遺傳算法的原理和過(guò)程。事實(shí)上,兩種算法從提出到現(xiàn)在,人們?cè)缫验_(kāi)始了對(duì)它們和切削工程優(yōu)化的結(jié)合進(jìn)行研究。神經(jīng)網(wǎng)絡(luò)的映射優(yōu)化對(duì)象中輸入與輸出的關(guān)系可以被用來(lái)替換一直以來(lái)的有限元計(jì)算。通常來(lái)說(shuō)訓(xùn)練樣本保證了神經(jīng)網(wǎng)絡(luò)結(jié)果的精度。遺傳算法目前在切削優(yōu)化領(lǐng)域被更多人使用,因?yàn)樗苌瞄L(zhǎng)解決那些復(fù)雜的非線(xiàn)性問(wèn)題,且不依賴(lài)關(guān)于問(wèn)題所涉及的領(lǐng)域。但是遺傳算法通常在計(jì)算時(shí)需要巨量的初始個(gè)體組成的集合,并且需要進(jìn)行大規(guī)模的迭代和循環(huán)次數(shù),計(jì)算量過(guò)大會(huì)讓研究者對(duì)于數(shù)據(jù)的處理變得復(fù)雜,容易出現(xiàn)錯(cuò)誤。故本文選擇神經(jīng)網(wǎng)絡(luò)進(jìn)行加工過(guò)程優(yōu)化的研究。2.5總結(jié)這一章對(duì)可能要涉及的算法進(jìn)行介紹和實(shí)現(xiàn),完成對(duì)原理的探討,并結(jié)合兩種算法的比較,選擇神經(jīng)網(wǎng)絡(luò)進(jìn)行研究。介紹了人工神經(jīng)網(wǎng)絡(luò)及其類(lèi)型,包括算法流程,原理,結(jié)構(gòu),適用于本文所探討的方法。對(duì)遺傳算法GA原理和執(zhí)行過(guò)程進(jìn)行介紹。比價(jià)了兩種算法的優(yōu)缺點(diǎn),結(jié)合實(shí)際情況選擇神經(jīng)網(wǎng)絡(luò)進(jìn)行本文的研究。

3加工過(guò)程基本問(wèn)題以及模擬數(shù)據(jù)生成

本章主要內(nèi)容探討所涉及的切削加工過(guò)程的問(wèn)題和原理。以及基于實(shí)際加工過(guò)程的可能所面對(duì)的問(wèn)題和工件參數(shù)所涉及的物理幾何信息,以此來(lái)生成模擬數(shù)據(jù),為下一章節(jié)的神經(jīng)網(wǎng)絡(luò)模擬做數(shù)據(jù)準(zhǔn)備。3.1加工工程問(wèn)題探討3.1.1切削加工基本原理切削加工是指在確保消耗較少成本和維持高生產(chǎn)率的情況下,用刀具相對(duì)與工件運(yùn)動(dòng),工件部分會(huì)產(chǎn)生應(yīng)力引起內(nèi)部斷裂,沒(méi)有使用的工件部分會(huì)成為切屑脫離出來(lái),最后讓工件達(dá)到設(shè)計(jì)要求的精度,和形狀。而車(chē)削相對(duì)簡(jiǎn)單的確保工件所有的加工面的位置精度,切削過(guò)程比較穩(wěn)定,許可使用稍微大一點(diǎn)的切削用量,這些對(duì)生產(chǎn)率的上升很有用。3.1.2切削的變形切削的過(guò)程中,塑性變形是加工過(guò)程中的一種重要現(xiàn)象。由于遭受刀具的擠壓,通常會(huì)造成變形,變形是切削過(guò)程常見(jiàn)的物理現(xiàn)象。許多因素都與切削過(guò)程的工件材料變形有著重要的關(guān)聯(lián),例如切削力和熱,刀具的磨損等等。在切削加工過(guò)程中,一個(gè)塑性變形過(guò)程,就是除去多余的工件材料?;瞥霈F(xiàn)在刀具前刀面壓靠切削層,在高速和高溫的處境下,就很容易出現(xiàn)滑移。如圖3-1加工材料的滑移線(xiàn),由圖可知道,在加工過(guò)程中,金屬材料變形可分為3個(gè)區(qū)域圖3-1切削加工材料的滑移線(xiàn)第一變形區(qū)

?切削刃附近切削層,會(huì)有一個(gè)變形區(qū)這個(gè)變形區(qū)就是第一變形區(qū)。它是金屬的剪切滑移變形。切削層在到受刀具的影響后,在第一變形區(qū)塑性變形后形成切屑。受到刀具正面和切削刃的擠壓的切削層,會(huì)使得切削刃附近的金屬先產(chǎn)生彈性變形,緊接著塑性變形,金屬晶格會(huì)出現(xiàn)滑動(dòng)現(xiàn)象。第一變形區(qū)是切屑的變形區(qū),其特征是切削層的剪切滑移變形。第二變形區(qū)切屑層與前刀面相接所產(chǎn)生的變形區(qū),許多人也稱(chēng)它為第二變形區(qū),其內(nèi)部的金屬因?yàn)閿D壓摩擦而產(chǎn)生了變形。經(jīng)過(guò)第一變形區(qū)后,克服了前刀面切屑擠壓產(chǎn)生的摩擦力,成形的切屑將沿前刀面方向排出。值得留意的是,第一變形區(qū)和第二變形區(qū)是互相聯(lián)系的。前刀面摩擦力大時(shí),排屑不順暢,擠壓變形加劇,使第一變形區(qū)的剪切滑移變形增大。第三變形區(qū)

?切削刃附近加工表面產(chǎn)生的變形區(qū),又被叫做第三變形區(qū),里面的金屬是受到擠壓和摩擦變形。加工表面受到刃口鈍部和背面的擠壓和摩擦,導(dǎo)致纖維化和一定程度的加工硬化。上述三個(gè)變形區(qū)域在刀具刃口附近聚集,因此此處的應(yīng)力相對(duì)集中且復(fù)雜,待切割的切割層與共建材料分散在一起。切削速度方向和剪切面之間的角度稱(chēng)為剪切角。一般來(lái)說(shuō),剪切角與切削力有相當(dāng)大的關(guān)系。所以,通常剪切角是作為判斷切削過(guò)程的一個(gè)信號(hào)。相同的工件材料,在其他相關(guān)條件相同的情況下,隨著切削速度越高,剪切角就會(huì)越大,切削面積就會(huì)變小,切削力也隨之變小。通過(guò)以上探討,切削過(guò)程的工件材料塑性變形主要形式是剪切滑移。3.1.3影響切削力因素切削力會(huì)受到不同的因素帶來(lái)的影響,并且因素之間的影響規(guī)律都部相同,常見(jiàn)的影響因素如工件材料,切削參數(shù)等。工件材料對(duì)切削力的影響

工件材料有許多原因會(huì)導(dǎo)致切削力的大小受到影響,一般來(lái)說(shuō)其化學(xué)成分,物理性能,加工前狀態(tài)都是影響切削力的主要原因。值得注意的是,所產(chǎn)生的切削力的大小會(huì)隨著工件材料的硬度和強(qiáng)度的增大而增大。另外容易被忽視的一點(diǎn)就是工件的化學(xué)成分多少,它也會(huì)對(duì)切削力造成不小的影響,比如碳素鋼的碳元素和合金元素比例就對(duì)材料的強(qiáng)度和硬度有著影響,會(huì)對(duì)切削力造成影響。背吃刀量對(duì)切削力的影響

背吃刀量增加,相應(yīng)的切削面積也會(huì)增加,而單位切削力并不會(huì)出現(xiàn)變化,因而切削力會(huì)上升。通常來(lái)說(shuō),背吃刀量和切削力是正相關(guān)的關(guān)系,背吃刀量擴(kuò)大一倍,切削力也會(huì)擴(kuò)大一倍。進(jìn)給量對(duì)切削力的影響

如果進(jìn)給量增大,那么切削力也會(huì)增大。切小面積會(huì)上升,進(jìn)一步造成變形系數(shù)和摩擦系數(shù)下降,變形狀態(tài)下降,導(dǎo)致切削力下降。而此時(shí)它的切削功率會(huì)上升,切削力也就增大了。以上兩種作用結(jié)合造成的結(jié)果就是進(jìn)給量增大切削力也會(huì)增大,但是不構(gòu)成正比關(guān)系。3.2模擬數(shù)據(jù)生成我們知道切削加工過(guò)程是有一定規(guī)章律令的物理過(guò)程,這些規(guī)律就體現(xiàn)在數(shù)據(jù)中。模擬數(shù)據(jù)所具有的規(guī)律性遠(yuǎn)遠(yuǎn)大于真實(shí)數(shù)據(jù)。所以,本文所實(shí)驗(yàn)的方法如果能在模擬數(shù)據(jù)身上能夠進(jìn)行工作,那么不言而喻也可以對(duì)真實(shí)數(shù)據(jù)實(shí)現(xiàn)相同功能。按照上述理論觀點(diǎn),我們將對(duì)具體的加工實(shí)例進(jìn)行模擬數(shù)據(jù)產(chǎn)生。本文用鈦合金的車(chē)削加工作為實(shí)際的加工例子,根據(jù)以此來(lái)產(chǎn)生各種加工資源的模擬數(shù)據(jù)。本文中的數(shù)據(jù)包括參數(shù)。包含在工件、加工要求和機(jī)床中的數(shù)據(jù)稱(chēng)為參數(shù)數(shù)據(jù)。這種數(shù)據(jù)是在我們根據(jù)理論得到的數(shù)據(jù)范圍內(nèi)任意生成的。3.2.1工件材料模擬數(shù)據(jù)生成材料物理性能直接對(duì)金屬材料的切削性能起著重大的影響。舉個(gè)例子來(lái)說(shuō),我們所關(guān)心的材料的硬度、強(qiáng)度、導(dǎo)熱系數(shù)、線(xiàn)膨脹系數(shù)、摩擦系數(shù)和斷面收縮率等物理性能都會(huì)或多或少的影響著材料的切削性能。材料可以被那些常常用來(lái)測(cè)量金屬材料熱處理后的物理性能的測(cè)量設(shè)備所得的測(cè)量值來(lái)表示。顯而易見(jiàn)的是,這些可以直接用數(shù)來(lái)表示的物理性質(zhì)可以很非常簡(jiǎn)單地從不同種金屬材料手冊(cè)中得到??梢栽趲缀螌哟紊媳硎竟ぜ膮?shù),就是加工特征。然而,只是對(duì)加工特征的探討很難對(duì)切削過(guò)程進(jìn)行全面的標(biāo)定。一般來(lái)說(shuō),與切削層的6種刀具路徑聯(lián)合,一種工件可以被分成一組對(duì)應(yīng)的加工特征,進(jìn)一步的每一種加工特征又分解成一組刀具路徑。本文所使用的材料TC4鈦合金,具有優(yōu)異的綜合性能,它的切削加工性比高溫合金優(yōu)秀,切削變形系數(shù)小于等于1,根據(jù)文獻(xiàn)資料匯總,具體數(shù)值以鈦合金TC4為參考,切削層類(lèi)型為12種;工件體積根據(jù)實(shí)際情況來(lái)確定;密度和硬度為4.45e-9和37,具體的數(shù)據(jù)參數(shù)如表3-2所示,表3-2TC4數(shù)據(jù)屬性切削層類(lèi)型加工特征密度(tonne/mm^2)硬度(HRC)彈性模量(Mpa)12164.45e-93711200泊松比導(dǎo)熱系數(shù)(W/m.k)熱膨脹系數(shù)(e6/C)斷面收縮率0.348.89.625%

3.2.2刀具模擬數(shù)據(jù)產(chǎn)生鈦合金雖擁有非常棒的綜合性能,但鈦合金的彈性模量太小了,按照一般的加工過(guò)程來(lái)說(shuō),切削部分溫度會(huì)變得過(guò)高,使得工件很容易變形,切削加工十分艱難。用于對(duì)鈦合金加工的刀具一般來(lái)說(shuō)可以劃分為兩個(gè)種類(lèi):一種使用在鈦合金粗加工中的刀具,比如YG8這類(lèi)刀具,另外一類(lèi)是用在對(duì)鈦合金車(chē)削精加工的刀具類(lèi)型,比較熟悉的是硬質(zhì)合金刀具。一般來(lái)說(shuō),金屬切削刀具憑借幾何形狀和材料兩個(gè)角度就能夠?qū)λ鼈冞M(jìn)行數(shù)值化。刀具幾何參數(shù)能夠決定刀具切削的幾何形狀,比如前后角等等。一般幾何形狀會(huì)讓兩類(lèi)參數(shù)受到干擾:刀具自己身上的有關(guān)參數(shù)和切削部分有關(guān)的參數(shù)。以所選擇的刀具用它的參數(shù)數(shù)據(jù)范圍作為邊界,在邊界內(nèi)生成相關(guān)數(shù)據(jù)。本文選用的是硬質(zhì)合金YG8,數(shù)據(jù)參數(shù)如表3-2表3-3YG8數(shù)據(jù)屬性刀具直徑D刀具長(zhǎng)度L密度(tonne/mm^2)硬度(HRC)前角15-50mm45-90mm1.46e-8893-5°泊松比導(dǎo)熱系數(shù)(W/m.k)熱膨脹系數(shù)(x10^6/C)后角切入角0.2279.64.78-10°8-203.2.3樣本數(shù)據(jù)生成3.2.1和3.2.2與我們需要生成的樣本數(shù)據(jù)有著緊密的聯(lián)系,前者是自變量,而后者為因變量。本文為減小數(shù)據(jù)量,只選用切削力來(lái)成為優(yōu)化目標(biāo)的代表,其他加工參數(shù)也可用同樣的方法進(jìn)行論證。本文全部的樣本數(shù)據(jù)是根據(jù)現(xiàn)有的切削理論基礎(chǔ),規(guī)律來(lái)建立數(shù)據(jù)關(guān)系函數(shù),利用De-form來(lái)進(jìn)行仿真推演,產(chǎn)生了20條樣本數(shù)據(jù),如表3-4所示的部分?jǐn)?shù)據(jù),進(jìn)給量為0.2mm/r,背吃刀量2mm,切削應(yīng)力1690N為一組模擬分析的樣本數(shù)據(jù)。表3-4部分樣本數(shù)據(jù)進(jìn)給量(mm/r)背吃刀量mm等效切削應(yīng)力N0.2216900.3316800.4516803525321690170016801810170016903.3本章小結(jié)本章節(jié)對(duì)本文所涉及的問(wèn)題和原理進(jìn)行了闡述,以及模擬數(shù)據(jù)生成,涵蓋內(nèi)容如下:(1)闡述和學(xué)習(xí)金屬切削的原理,其中包含了加工過(guò)程中的變形過(guò)程,切削力的影響因素(2)針對(duì)本文所要進(jìn)行模擬的內(nèi)容進(jìn)行數(shù)據(jù)生成,為接下來(lái)的神經(jīng)網(wǎng)絡(luò)提供數(shù)據(jù)支持。

4基于神經(jīng)網(wǎng)絡(luò)切削加工過(guò)程仿真驗(yàn)證我們都知道切削加工是物理過(guò)程,并且它具有相對(duì)的規(guī)則性,我們常常用數(shù)據(jù)來(lái)對(duì)這些規(guī)則進(jìn)行體現(xiàn)。因而,本文所使用的的方法如果都能在模擬數(shù)據(jù)的基礎(chǔ)上成功實(shí)現(xiàn),那么對(duì)于那些沒(méi)那么具有規(guī)則性的真實(shí)數(shù)據(jù)也是相同的效果?;谝陨系耐普?,本章將與前章所提出的神經(jīng)網(wǎng)絡(luò)模型結(jié)合,對(duì)其算法進(jìn)行仿真驗(yàn)證。另外,本文用鈦合金的車(chē)削加工作為實(shí)例。4.1神經(jīng)網(wǎng)絡(luò)算法處理4.1.1算法處理前面的章節(jié)已經(jīng)介紹了神經(jīng)網(wǎng)絡(luò)算法及其原理,在這一小節(jié)將選擇所需要的函數(shù)和訓(xùn)練步驟。BP神經(jīng)網(wǎng)絡(luò)所運(yùn)用的學(xué)習(xí)算法是帶有指導(dǎo)的。通常一個(gè)訓(xùn)練樣本進(jìn)入到神經(jīng)網(wǎng)絡(luò)模型后,激活值從輸入層出發(fā)開(kāi)始傳遞模型里面,途中會(huì)進(jìn)過(guò)隱形層,通過(guò)它再傳遞到輸出層,最終一系列傳遞后處于輸入層的神經(jīng)元會(huì)得到網(wǎng)絡(luò)響應(yīng)。得到輸出值后,按照誤差和目標(biāo)輸入下降的傾向,對(duì)輸出層返回到前面的層更改的每一個(gè)的連接值來(lái)判別,一直回到輸入層。誤差信號(hào)的不斷逆向傳送,神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)正確率就會(huì)越高,使得模型合理性不斷上升。在神經(jīng)網(wǎng)絡(luò)中,最常用到的誤差函數(shù)由公式4.1所示。Ep=1(該函數(shù)中:tpl為第pOpl激活函數(shù)在神經(jīng)網(wǎng)絡(luò)的規(guī)則中必然是可以微分的,經(jīng)常使用的激活函數(shù)有三種類(lèi)型,分別是偏置型,S函數(shù)型,雙曲正切函數(shù)類(lèi)型。在前面的章節(jié)已經(jīng)介紹了S型函數(shù),也因?yàn)槠淦交院蜐u進(jìn)性比較良好,更能保持確定的單調(diào)性,所以在本文選用的是S型函數(shù),如公式3.2所示:f(x)=11+e-x因?yàn)樯窠?jīng)網(wǎng)路的激活函數(shù)是每一處都可以微分的,這就會(huì)引出它所具有的兩個(gè)特點(diǎn)。第一個(gè)特點(diǎn),非線(xiàn)性的地區(qū)將被區(qū)分出來(lái),這些地區(qū)還是由同樣非線(xiàn)性的超平面所構(gòu)成。它們是曲面,而且足夠光滑,這會(huì)讓神經(jīng)網(wǎng)絡(luò)的歸類(lèi)比線(xiàn)性劃分更加準(zhǔn)確合理,它的容錯(cuò)率也相對(duì)較優(yōu)秀。第二個(gè)特點(diǎn),我們的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)所使用的是梯度下降法,因而它修訂權(quán)值的解析式是比較明確的。誤差的反向傳送及其重要,所以我們需要誤差的反向傳送來(lái)調(diào)試每一層的權(quán)值和偏置。如果神經(jīng)網(wǎng)絡(luò)的層數(shù)為3層的話(huà),設(shè)定它的輸入節(jié)點(diǎn)為Xj,輸出節(jié)點(diǎn)為Oi,隱形層節(jié)點(diǎn)為yi,輸入層與隱形層節(jié)點(diǎn)之間的網(wǎng)絡(luò)權(quán)重為ωij,輸入層與隱形層之間的偏置為θi,隱形層與輸出層之間的網(wǎng)絡(luò)權(quán)重為T(mén)節(jié)點(diǎn)輸出計(jì)算公式隱形層節(jié)點(diǎn)yi=f(jwi公式中:ne輸出層節(jié)點(diǎn)

oi=f(jTiiy公式中:ne修訂公式輸出層

誤差公式:δl=tl-ol?ol?1-o修訂偏置的修訂值:θbk+1=θh隱形層

誤差公式:δi'=yi1-yiiδiTii修訂偏置的修訂值:θik+1=θi輸出層節(jié)點(diǎn)誤差修訂公式

E=12(it4.1.2神經(jīng)網(wǎng)絡(luò)一般的訓(xùn)練順序

神經(jīng)網(wǎng)絡(luò)的訓(xùn)練流程的順序如下:(1)需要設(shè)置訓(xùn)練樣本,學(xué)習(xí)速率,激勵(lì)函數(shù),權(quán)重等神經(jīng)網(wǎng)絡(luò)的參數(shù)。(2)對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行初始化設(shè)置,按照一開(kāi)始所設(shè)置的輸出或輸入步驟來(lái)規(guī)定這個(gè)神經(jīng)網(wǎng)絡(luò)每一層的節(jié)點(diǎn)數(shù),把每層之間相連接的權(quán)重和偏置進(jìn)行初始化設(shè)置,意思是把權(quán)重和偏置的值取隨機(jī)值,歸一化處理輸入輸出值。(3)設(shè)置神經(jīng)網(wǎng)絡(luò)的訓(xùn)練樣本數(shù)值,設(shè)定輸入值和期望輸出值。(4)工作信息的正向傳播,輸入層與隱形層之間的權(quán)重和偏置計(jì)算出來(lái)的結(jié)果,就是輸出層的輸入。然后按照同樣的方法計(jì)算出輸出層的輸出值,神經(jīng)網(wǎng)絡(luò)的實(shí)際輸出值就是這么得來(lái)的。(5)對(duì)實(shí)際輸出和期望輸出之間會(huì)存在數(shù)值的差異,我們要計(jì)算出這個(gè)差異。(6)誤差信號(hào)的逆向傳播反饋,將計(jì)算出來(lái)的誤差結(jié)果判斷是否達(dá)到所需要的精度要求,假如沒(méi)有達(dá)到精度所需要的結(jié)果,那就要根據(jù)誤差逆向傳播方向來(lái)調(diào)試每一層的權(quán)重和偏置。(7)把下一個(gè)需要訓(xùn)練的樣本輸入到這個(gè)神經(jīng)網(wǎng)絡(luò)模型中,又跳回第三個(gè)步驟進(jìn)行循環(huán),直到所有的樣本訓(xùn)練完畢。(8)一次訓(xùn)練結(jié)束后,循環(huán)往復(fù)的需要再一次隨機(jī)挑選一個(gè)樣本,返回到第三步驟進(jìn)行相同的工作,直到所有的樣本誤差都小于開(kāi)始設(shè)定的誤差需要或者練習(xí)次數(shù)達(dá)到所需要的最大訓(xùn)練次數(shù)后神經(jīng)網(wǎng)絡(luò)會(huì)自動(dòng)停止該模型的訓(xùn)練。4.2基于神經(jīng)網(wǎng)絡(luò)算法對(duì)切削加工工程仿真驗(yàn)證采用加工資源的刀具,機(jī)床,工件和加工條件的數(shù)值為神經(jīng)網(wǎng)絡(luò)模型的輸入值,用已經(jīng)加工表面的加工效率和表面粗糙度成為神經(jīng)網(wǎng)絡(luò)模型的輸出。接下來(lái)開(kāi)始設(shè)置參數(shù)和結(jié)構(gòu)。4.2.1構(gòu)建神經(jīng)網(wǎng)絡(luò)總體結(jié)構(gòu)對(duì)于神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)設(shè)計(jì)時(shí),神經(jīng)網(wǎng)絡(luò)的層數(shù)的設(shè)置是必不可少的,必不可少的還有每一層的神經(jīng)元數(shù)量,激活函數(shù),起始值設(shè)置以及學(xué)習(xí)速率這些關(guān)鍵要素。設(shè)置神經(jīng)網(wǎng)絡(luò)的層次數(shù)量通常情況,神經(jīng)網(wǎng)絡(luò)的輸入輸出層是按照需要分析的問(wèn)題和要求來(lái)進(jìn)行設(shè)計(jì)和確定的。神經(jīng)網(wǎng)絡(luò)所包括的隱形層決定著這個(gè)神經(jīng)網(wǎng)絡(luò)有多少層,如果樣本數(shù)據(jù)較少的時(shí)候,我們可以選擇取消隱形層的設(shè)置,顯然,如果樣本數(shù)據(jù)多的話(huà)我們就需要添加一個(gè)隱形層。就神經(jīng)網(wǎng)絡(luò)而言,想要提高選擇精度我們可以通過(guò)添加隱形層的數(shù)目來(lái)實(shí)現(xiàn),相對(duì)而言創(chuàng)建的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)就會(huì)繁瑣,消耗的訓(xùn)練時(shí)間會(huì)上升。通過(guò)理論分析,所有的函數(shù)都是靠隱形層投射出來(lái)的,通俗的講,可以實(shí)現(xiàn)所有從n維到m維的函數(shù)投射。因而,本文將采用輸入層,隱形層和輸出層各一個(gè)的3層神經(jīng)網(wǎng)絡(luò)。每一層的節(jié)點(diǎn)數(shù)的設(shè)置輸入層的節(jié)點(diǎn)數(shù)

確定了想要輸入的變量后,對(duì)應(yīng)的輸入層節(jié)點(diǎn)數(shù)也確定下來(lái)了。本文以刀具,工件,和加工條件的數(shù)值3個(gè)輸入變量,因此輸入層節(jié)點(diǎn)數(shù)為3。輸出層的節(jié)點(diǎn)數(shù)

神經(jīng)網(wǎng)絡(luò)的輸出層就是訓(xùn)練目標(biāo)層,就是輸出變量。本文設(shè)置已經(jīng)加工表面的加工效率和表面粗糙度,他們都是輸出變量,所以輸出層節(jié)點(diǎn)數(shù)設(shè)置為2。3)隱形層的節(jié)點(diǎn)數(shù)

隱形層節(jié)點(diǎn)數(shù)一般來(lái)說(shuō)它的選取是最復(fù)雜的。需要多次試驗(yàn)來(lái)確定,不能用一個(gè)明確的公式來(lái)表示,在確定隱形層節(jié)點(diǎn)數(shù)時(shí),要把輸入輸出層節(jié)點(diǎn)數(shù)涵蓋在里面。隱形層節(jié)點(diǎn)數(shù)太多,我們的訓(xùn)練時(shí)間就會(huì)長(zhǎng),產(chǎn)生的誤差不一定縮小;如果節(jié)點(diǎn)數(shù)過(guò)少,我們的訓(xùn)練樣本就得不到充分的訓(xùn)練,層與層之間權(quán)重質(zhì)量下降,神經(jīng)網(wǎng)絡(luò)的容錯(cuò)性和識(shí)別效率也會(huì)變得低效。

我們可以根據(jù)實(shí)際情況有針對(duì)的選擇指導(dǎo)原則和經(jīng)驗(yàn)公式來(lái)確立隱形層的節(jié)點(diǎn)數(shù)。選擇規(guī)矩是如果能正確合理的反映輸入輸出變量關(guān)系的前提條件下,盡最大可能減少隱形層的節(jié)點(diǎn)數(shù),使神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單化。由所查詢(xún)的其他資料可知,在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練語(yǔ)句中添加相應(yīng)的循環(huán)語(yǔ)句,根據(jù)節(jié)點(diǎn)數(shù)不相同的隱形層進(jìn)行訓(xùn)練,得到如表4-1的數(shù)據(jù)

表4-1不同隱形層節(jié)點(diǎn)數(shù)量對(duì)訓(xùn)練誤差的影響隱形層節(jié)點(diǎn)數(shù)逼近誤差訓(xùn)練誤差30.0010.462660.0010.242690.0010.8846190.0011.0101就上表而言,隱形層節(jié)點(diǎn)數(shù)為6時(shí)神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練誤差最小,但是由于我們的數(shù)據(jù)樣本數(shù)量不足,故改變隱形層節(jié)點(diǎn)數(shù)為3。(3)確定神經(jīng)網(wǎng)絡(luò)的傳遞函數(shù)神經(jīng)網(wǎng)絡(luò)每一層之間不管輸入還是輸出都是需要傳遞函數(shù)來(lái)映射的?;ゲ幌嗤挠成涫悄軌蛴膳c其對(duì)應(yīng)的傳遞函數(shù)來(lái)完成,例如任何一個(gè)輸入的對(duì)應(yīng)絕對(duì)值處于0~1這個(gè)范圍的輸出映射都可由S型函數(shù)來(lái)完成,值得一提的是關(guān)于S型的輸入值可以是隨機(jī)的,不過(guò)它的輸出范圍必須在0~1之間;另外雙曲正切S型函數(shù)輸入值也可以是隨機(jī)的,不過(guò)不同的是它的輸出值是在-1~+1范圍內(nèi)。輸入值和輸出值都可以是隨機(jī)指定的函數(shù)是線(xiàn)性傳遞函數(shù),它可以對(duì)數(shù)據(jù)進(jìn)行擴(kuò)大和縮小。

通過(guò)一定的比照和分析,本文的神經(jīng)網(wǎng)絡(luò)模型,隱形層使用雙曲正切S型函數(shù)來(lái)作為它的傳遞函數(shù),使用線(xiàn)性函數(shù)來(lái)成為輸出層的傳遞函數(shù)。隱形層接收來(lái)自輸入層的信號(hào)以及自身所發(fā)出的反饋信號(hào),輸出層的輸入數(shù)據(jù)由隱形層來(lái)提供,因此我們的神經(jīng)網(wǎng)絡(luò)不管是輸入還是輸出都可以取任何一個(gè)值。(4)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)速率的選擇學(xué)習(xí)速率的選擇很重要它往往決定著循環(huán)訓(xùn)練時(shí)的權(quán)重變化量,如果我們將學(xué)習(xí)速率設(shè)置得很大的話(huà)會(huì)得到一個(gè)不太穩(wěn)定的系統(tǒng),而設(shè)置得過(guò)于小的話(huà)盡管訓(xùn)練的誤差值會(huì)達(dá)到最小狀態(tài),然而相應(yīng)的所消耗的訓(xùn)練時(shí)間就會(huì)增加,收斂速度會(huì)變慢。為使得系統(tǒng)變得穩(wěn)定會(huì)決定設(shè)置小一點(diǎn)的學(xué)習(xí)速率,范圍為0.01~0.8,這里我們將學(xué)習(xí)速率設(shè)置為0.2.(5)初始權(quán)重設(shè)置神經(jīng)網(wǎng)絡(luò)并不是線(xiàn)性的,所以初始權(quán)重對(duì)于神經(jīng)網(wǎng)絡(luò)能否收斂,所消耗的訓(xùn)練時(shí)間長(zhǎng)短以及還有可能存在局部最小值都有巨大的波及。輸入值在由初始權(quán)重累加后盡力讓每個(gè)輸出值的狀態(tài)值趨向于零是挑選初始權(quán)重的一個(gè)確定要求。(6)期望誤差的相關(guān)設(shè)置通過(guò)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練情況我們可以用來(lái)確定期望誤差。相應(yīng)的隱形層節(jié)點(diǎn)數(shù)也被用來(lái)確定期望誤差。在同等的條件下可以設(shè)定不同的誤差,根據(jù)訓(xùn)練來(lái)對(duì)比設(shè)置一個(gè)比較好的期望誤差。4.3訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型4.3.1樣本數(shù)據(jù)挑選

通過(guò)瀏覽參看文獻(xiàn),神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練的時(shí)候,樣本數(shù)據(jù)不斷增加,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果就越能不斷的合理映射出數(shù)據(jù)的規(guī)律,也就是說(shuō),我們的網(wǎng)絡(luò)規(guī)模設(shè)置得越大,反映的關(guān)系就呈現(xiàn)出越復(fù)雜的趨勢(shì),我們所需要的數(shù)據(jù)樣本就要增加。誤差不是隨著我們的樣本數(shù)據(jù)的上升而減少,如果我們的樣本數(shù)達(dá)到一個(gè)定量值時(shí),誤差就很難再下降了,趨于穩(wěn)定了。數(shù)據(jù)樣本和誤差的關(guān)系如圖4-2所示圖4-2誤差與樣本數(shù)的關(guān)系我們?cè)谔暨x樣本一般會(huì)挑選有代表性的。根據(jù)第三章生成的模擬數(shù)據(jù),將切削參數(shù)和對(duì)應(yīng)的切削應(yīng)力作為我們網(wǎng)絡(luò)的樣本數(shù)據(jù),數(shù)據(jù)見(jiàn)表4-3所示。表4-3不同的切削參數(shù)和與之對(duì)應(yīng)的等效切削應(yīng)力進(jìn)給量(mm/r)背吃刀量mm等效切削應(yīng)力N0.2216900.3316800.4516803525321690170016801810170016904.3.2對(duì)起始值進(jìn)行歸一化一般來(lái)說(shuō),通過(guò)實(shí)驗(yàn)獲得的數(shù)據(jù)樣本不能夠立刻在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中使用的,我們要把數(shù)據(jù)通過(guò)處理來(lái)讓他們存在一個(gè)確定的范圍之內(nèi)。通常使用歸一化的方法來(lái)進(jìn)行設(shè)置的。采用歸一化處理有這么幾個(gè)理由:1)數(shù)據(jù)輸入的量綱與它的數(shù)量等級(jí)有一定的差值,我們把數(shù)據(jù)處理后轉(zhuǎn)變到0-1這個(gè)范圍內(nèi),能夠減輕由于量級(jí)的誤差而導(dǎo)致對(duì)神經(jīng)網(wǎng)絡(luò)識(shí)別精度的影響。

2)如果我們所輸入的數(shù)據(jù)都是大于0的值,那樣隱形層相連的權(quán)重就必須同時(shí)的上升和下降,會(huì)造成網(wǎng)絡(luò)模型的學(xué)習(xí)速度降低,時(shí)間成本便會(huì)增加。將這種類(lèi)型的數(shù)據(jù)樣本進(jìn)行歸一處理,讓它們的所有數(shù)據(jù)平均值接近到0,便能夠讓神經(jīng)網(wǎng)絡(luò)的收斂精度得到上升。

一般將數(shù)據(jù)歸一處理的公式有三種:

1)最值公式:(4.12)2)和值公式:

(4.13)

3)峰值公式:

(4.14)在本文所使用的是(4.12)所示的最值公式,下面列出其在Matlab中的語(yǔ)句:(4.15)其中:x———?dú)w一處理之前的數(shù)值:y———?dú)w一處理之后的數(shù)值;MaxValue————樣本最大值;MinValue————樣本最小值。由于進(jìn)給量已經(jīng)處于0-1范圍內(nèi),我們將其他數(shù)據(jù)進(jìn)行處理,歸一化處理后數(shù)據(jù)如表4-4所示。表4-4歸一化處理部分?jǐn)?shù)據(jù)項(xiàng)目數(shù)據(jù)等效切削應(yīng)力(N)16901700168018101720歸一化結(jié)果0.14290.21430.071410.3571(3)網(wǎng)絡(luò)仿真訓(xùn)練

神經(jīng)網(wǎng)絡(luò)訓(xùn)練實(shí)質(zhì)是使用實(shí)際輸出和期望輸出之間的差異值來(lái)進(jìn)行不斷的修改它的權(quán)重,使得修改后的權(quán)重和誤差都與網(wǎng)絡(luò)的誤差有著正相關(guān)的關(guān)系,并且使用誤差信號(hào)逆向傳遞到所有層,最終目的是讓實(shí)際輸出近似到期望輸出。

查閱網(wǎng)絡(luò)資料和對(duì)網(wǎng)絡(luò)模型每一個(gè)參數(shù)都分析比對(duì)后,參數(shù)如下:1)輸入層,隱形層以及輸出層都設(shè)置為1個(gè),輸入輸出層節(jié)點(diǎn)數(shù)設(shè)置為2,隱形層節(jié)點(diǎn)數(shù)為3,輸出層節(jié)點(diǎn)數(shù)為12)隱形層傳播函數(shù)設(shè)置為S型函數(shù),輸出層為線(xiàn)性傳遞函數(shù)。3)學(xué)習(xí)方法采用原始設(shè)置方式4)選取trainlm作為模型的訓(xùn)練函數(shù),mse為性能函數(shù)神經(jīng)網(wǎng)絡(luò)的程序部分見(jiàn)附錄,使用maltab構(gòu)造的的神經(jīng)網(wǎng)絡(luò)示意圖4-5如下:圖4-5構(gòu)造的神經(jīng)網(wǎng)絡(luò)預(yù)覽圖最后使用Maltab對(duì)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練后,到經(jīng)過(guò)了61步達(dá)到了我們?cè)O(shè)定的性能要求,得到的結(jié)果如圖4-6:圖4-6神經(jīng)網(wǎng)絡(luò)訓(xùn)練結(jié)果

得到了的訓(xùn)練結(jié)果需要去驗(yàn)證鈦合金車(chē)削模型的準(zhǔn)確性,我們使用SIM仿真函數(shù)對(duì)創(chuàng)立的神經(jīng)網(wǎng)絡(luò)來(lái)預(yù)測(cè),再將預(yù)測(cè)數(shù)據(jù)來(lái)和歸一化后的切削應(yīng)力輸出進(jìn)行對(duì)比分析,通常來(lái)說(shuō),兩者的模型如果誤差值不大于3%就是合理的,所以我們對(duì)該神經(jīng)網(wǎng)絡(luò)進(jìn)行了測(cè)試,結(jié)果比對(duì)發(fā)現(xiàn)它們的差值小于3%,結(jié)果比較如表4-7所示,可以發(fā)現(xiàn)所構(gòu)造的神經(jīng)網(wǎng)絡(luò)模型是正確的,使用神經(jīng)網(wǎng)絡(luò)可以很好的對(duì)切削加工參數(shù)優(yōu)化進(jìn)行很好的預(yù)測(cè)。表4-7神經(jīng)網(wǎng)絡(luò)輸出數(shù)據(jù)與歸一化處理的切削應(yīng)力輸出比較進(jìn)給量(mm/r)背吃刀量(mm)歸一化處理的切削應(yīng)力神經(jīng)網(wǎng)絡(luò)輸出誤差4290.14641.9%7140.08032.8%0.410.21430.21631.4%4.4本章小節(jié)(1)對(duì)神經(jīng)網(wǎng)絡(luò)的公式,構(gòu)造,訓(xùn)練方法進(jìn)行了探討和介紹,構(gòu)建了神經(jīng)網(wǎng)絡(luò)模型,確立了每一層節(jié)點(diǎn)的選取,每一層函數(shù)的選取,包括訓(xùn)練函數(shù),目標(biāo)精度等參數(shù)(2)對(duì)鈦合金切削模擬進(jìn)程中的不同參數(shù)狀態(tài)下的切削應(yīng)力為樣本數(shù)據(jù),對(duì)其進(jìn)行訓(xùn)練,對(duì)比原來(lái)的模擬數(shù)據(jù)分析網(wǎng)絡(luò)的正確性。

5總結(jié)與展望5.1總結(jié)我們都知道切削加工是機(jī)械制造領(lǐng)域不可或缺的一環(huán),如果想要提高生產(chǎn)效率,降低資源的浪費(fèi)和消耗成本的減少那么切削加工過(guò)程的優(yōu)化是非常重要的方法,主要得出以下總結(jié):研究了加工過(guò)程優(yōu)化的現(xiàn)狀,對(duì)于基于機(jī)器學(xué)習(xí)算法的參數(shù)優(yōu)化和原理展開(kāi)學(xué)習(xí),對(duì)比挑選了了神經(jīng)網(wǎng)絡(luò)算法對(duì)切削參數(shù)進(jìn)行了優(yōu)化和預(yù)測(cè)。通過(guò)學(xué)習(xí)了切削原理以及工件材料的數(shù)據(jù)屬性,根據(jù)它們的數(shù)值規(guī)律來(lái)模擬生成相關(guān)切削數(shù)據(jù)。基于神經(jīng)網(wǎng)絡(luò)模型對(duì)相應(yīng)的切削參數(shù)進(jìn)行了練習(xí),直到理想精度達(dá)到,還創(chuàng)建了預(yù)測(cè)模型,為切削參數(shù)優(yōu)化提供了基礎(chǔ)探討。5.2展望

基于機(jī)器學(xué)習(xí)算法的切削加工過(guò)程優(yōu)化遠(yuǎn)不止本文所呈現(xiàn)的這一點(diǎn),本文研究只是基礎(chǔ)探討,由于本人能力有限且經(jīng)驗(yàn)不足,本文內(nèi)容依然有許多不足之處,還可以從下面幾個(gè)方向進(jìn)行深入研究:(1)本文沒(méi)有進(jìn)行優(yōu)化算法對(duì)切削加工過(guò)程的對(duì)比研究,各算法的優(yōu)缺點(diǎn)并沒(méi)有很好的呈現(xiàn)出來(lái),各算法對(duì)切削加工過(guò)程的優(yōu)化效果沒(méi)有得到比較。(2)本文進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練的數(shù)據(jù)樣本不足,在訓(xùn)練結(jié)果分析中可能會(huì)存在誤差,導(dǎo)致結(jié)果準(zhǔn)確性降低。參考文獻(xiàn)[1]尹樹(shù)彬.基于大數(shù)據(jù)分析的切削加工過(guò)程優(yōu)化方法[D].哈爾濱理工大學(xué),2019.[2]董雪嬌.基于BP和GA的葉片加工切削用量?jī)?yōu)化選擇方法[D].西安工業(yè)大學(xué),2014.[3]劉忠和,鐘建琳.基于人工神經(jīng)網(wǎng)絡(luò)的銑削參數(shù)優(yōu)化[J].機(jī)械設(shè)計(jì)與制造,2007(07):103-104.[4]谷強(qiáng),汪叔淳.智能制造系統(tǒng)中機(jī)器學(xué)習(xí)的研究[J].計(jì)算機(jī)工程與科學(xué),2000(01):61-64+77.[5]唐柏清.鈦合金車(chē)削加工刀具磨損建模技術(shù)研究及預(yù)測(cè)分析[D].2019.[6]王倩.鈦合金TC4銑削加工物理仿真模型的研究[D].哈爾濱理工大學(xué),2013.[7]馮國(guó)勇.基于遺傳算法的金屬切削過(guò)程中最優(yōu)切削用量方法研究[J].世界有色金屬,2018.[8]馮錦春.基于遺傳算法的最大生產(chǎn)率的車(chē)削用量?jī)?yōu)化[D].西南交通大學(xué),2006.[9]劉春景,唐敦兵,何華,etal.基于Kriging插值和遺傳算法鈦合金車(chē)削加工參數(shù)優(yōu)化%TheOptimizationfortheTitaniumAlloysTurningBasedontheKrigingInterpolationandGeneticAlgorithm[J].機(jī)械科學(xué)與技術(shù),2013,032(004):469-474.[10]秦國(guó)華,謝文斌,王華敏.基于神經(jīng)網(wǎng)絡(luò)與遺傳算法的刀具磨損檢測(cè)與控制[J].光學(xué)精密工程,2015,23(5):1314-1321.[11]徐宏海,吳晚云,張超英.ModelingandSimulatingbyMATLABonTurningProcess%車(chē)削加工過(guò)程建模與MATLAB仿真分析[J].機(jī)床與液壓,2006,000(006):229-230.[12]聞霞,吳龍,晉芳偉.基于多目標(biāo)優(yōu)化遺傳搜索算法的切削條件合理選擇的研究[J].三明學(xué)院學(xué)報(bào),2013(02):48-54.[13]聞霞,吳龍,晉芳偉.基于多目標(biāo)優(yōu)化遺傳搜索算法的切削條件合理選擇的研究[J].三明學(xué)院學(xué)報(bào),2013(02):48-54.

謝辭為時(shí)一個(gè)學(xué)期的畢業(yè)設(shè)計(jì)即將結(jié)束了,這也意味者我在北京理工大學(xué)珠海學(xué)院的大學(xué)生涯也即將結(jié)束。在畢業(yè)設(shè)計(jì)這段時(shí)間里,我得到了很大的自身提高,其中包含了對(duì)切削加工過(guò)程的理解、以及機(jī)器學(xué)習(xí)算法基本人認(rèn)識(shí),這些都得益于老師和同學(xué)的大力幫助。從論文的研究方向,研究?jī)?nèi)容的確立,到選題,開(kāi)題論證,從具體理論研究方法到模型的實(shí)現(xiàn),再到論文的撰寫(xiě)修改,我自己在每一個(gè)環(huán)節(jié)都傾注了自己的汗水和心血。感謝李老師的指導(dǎo),對(duì)于我完成這篇論文給了相當(dāng)大的幫助,還有我的隊(duì)友給了我的數(shù)據(jù)支持和鼓勵(lì)!這篇論文的完成需要去感謝這些默默幫助我的人,在此表達(dá)濃重的謝意!附錄附錄1程序源代碼 [p1,ps]=mapminmax(p);[t1,ts]=mapminmax(t);dividerand(Q,trainRatio,valRatio,testRatio)[trainsample.p,valsample.p,testsample.p]=dividerand(p,0.7,0.15,0.15);[trainsample.t,valsample.t,testsample.t]=dividerand(t,0.7,0.15,0.15);TF1='tansig';TF2='purelin';net=newff(minmax(p),[10,1],{TF1TF2},'traingdm');net.trainParam.epochs=10000;net.trainParam.goal=1e-7;net.trainParam.lr=0.01;net.trainParam.mc=0.9;net.trainParam.show=25;net.trainFcn='trainlm';[net,tr]=train(net,trainsample.p,trainsample.t)[normtrainoutput,trainPerf]=sim(net,trainsample.p,[],[],trainsample.t);[normvalidateoutput,validatePerf]=sim(net,valsample.p,[],[],valsample.t);[normtestoutput,testPerf]=sim(net,testsample.p,[],[],testsample.t);trainoutput=mapminmax('reverse',normtrainoutput,ts);validateoutput=mapminmax('reverse',normvalidateoutput,ts);testoutput=mapminmax('reverse',normtestoutput,ts);trainvalue=mapminmax('reverse',trainsample.t,ts);validatevalue=mapminmax('reverse',valsample.t,ts);testvalue=mapminmax('reverse',testsample.t,ts);R2=corrcoef(testsample.t,testvalue);R2=R2(1,2)^2;figureplot(1:length(testvalue),testsample.t,'-or',1:length(testvalue),testvalue,'-*b');legend('真實(shí)值','預(yù)測(cè)值')xlabel('預(yù)測(cè)樣本')ylabel('strength')string={'BP網(wǎng)絡(luò)預(yù)測(cè)結(jié)果對(duì)比';['R^2='num2str(R2)]};title(string)pnew=[313,256,239]';pnewn=mapminmax(pnew);anewn=sim(net,pnewn);anew=mapminmax('reverse',anewn,ts);errors=trainvalue-trainoutput;figure,plotregression(trainvalue,trainoutput)figure,plot(1:length(errors),errors,'-b')title('誤差變化圖')figure,hist(errors);figure,normplot(errors);[muhat,sigmahat,muci,sigmaci]=normfit(errors);[h1,sig,ci]=ttest(errors,muhat);figure,ploterrcorr(errors);figure,parcorr(errors);

HYPERLINK電腦文件整理懶招從來(lái)都是不會(huì)經(jīng)常整理文件的,不過(guò)時(shí)間一長(zhǎng),眾多的文檔分布在硬盤(pán)的各個(gè)角落,用目錄進(jìn)行整理保存,工作量大、查看起來(lái)也不方便且還會(huì)浪費(fèi)不少的磁盤(pán)空聞;用壓縮工具打包,盡管可以節(jié)約空間但是卻無(wú)法直接編輯修改或查看壓縮包中的文件。這些招,懶人怎么會(huì)用,他們自有妙招!再多再亂的文件也能整理得井井有條,關(guān)鍵是不費(fèi)力哦!

懶招1,自動(dòng)提取亂中取勝

小張起初將照片、Office文檔、電影、音樂(lè)等文件一股腦地存放在某一個(gè)磁盤(pán)分區(qū),剛開(kāi)始文件少使用起來(lái)倒也方便,但隨著時(shí)間的推移,文件數(shù)量劇增,每次找所需的文件都要瞪大眼睛,不過(guò)有了MY文檔管理器(下載地址:)就不用擔(dān)心了。

第一步,下載MY文檔管理器,解壓到任意目錄,直接雙擊其中的可執(zhí)行性文件即可使用。依次單擊“節(jié)點(diǎn)操作→添加節(jié)點(diǎn)”,分別添加多個(gè)節(jié)點(diǎn),如“辦公文檔”、“電影”等分類(lèi),這樣做的目的是方便歸類(lèi)。

第二步,在小張的F盤(pán)中的TEST目錄下有眾多的RM、MP3、JPG、DOC、TXT格式的文件,現(xiàn)在他要把JPG格式的文件提取到“照片”類(lèi)別中。依次單擊“系統(tǒng)配置→文件過(guò)濾”選項(xiàng),打開(kāi)Dialog對(duì)話(huà)框,輸入“*.doc”,單擊“添加”按鈕,意思是過(guò)濾掉所有類(lèi)型為“.DOC”的文件。然后按照同樣的方法,將“*.txt”、“*.rm”、“*.MP3”一一添加進(jìn)來(lái)。

第三步,雙擊左側(cè)窗格中的“照片”節(jié)點(diǎn),然后依次單擊“記錄操作→導(dǎo)入記錄樹(shù)”命令,在打開(kāi)的對(duì)話(huà)框中單擊瀏覽按鈕,打開(kāi)“F:\test”目錄,單擊“確定”按鈕之后就可以將格式為JPG的文件提取出來(lái)并添加到“照片”節(jié)點(diǎn)中了。

懶招2,不同的電腦統(tǒng)一的管理

小張是電愛(ài)的Fans,工作之余常常為雜志寫(xiě)稿,他寫(xiě)完的和正在處理的稿件一般都存在一個(gè)稿件文件夾里。不過(guò)時(shí)間一長(zhǎng),家里的電腦(PC1)和單位的電腦(PC2)上都有這個(gè)文件夾。時(shí)常需要通過(guò)移動(dòng)硬盤(pán)(U盤(pán))在兩臺(tái)電腦之間傳遞,使用和管理都很不方便。不過(guò)他現(xiàn)在用優(yōu)盤(pán)就可以統(tǒng)一管理了。

第一步,將上文提到的那個(gè)MY文檔管理器解壓后直接拷貝到優(yōu)盤(pán)上。把優(yōu)盤(pán)插到PC1上,并運(yùn)行軟件,依次單擊“記錄操作→導(dǎo)入記錄樹(shù)”命令,在隨后彈出的對(duì)話(huà)框中設(shè)置好“稿件”文件夾的根目錄,將“導(dǎo)入深度”設(shè)置為“5”,單擊“確定”后,稍等片刻,軟件就把PC1上的“稿件”導(dǎo)入到MY文檔管理器中。

小提示:通過(guò)這種方式導(dǎo)入到程序中的僅僅是文件的路徑、文件名等屬性信息,并不是文件本身。

第二步,把優(yōu)盤(pán)插到PC2上,按照同樣的方法導(dǎo)入PC2上的“稿件”文件。以后要編輯“稿件”里的文件,你自己根本不用記住哪臺(tái)電腦的哪個(gè)路徑,只要把優(yōu)盤(pán)插入到電腦,運(yùn)行MY文檔管理器,就可以直接編輯了。

第三步,為方便在異地使用,小張決定為當(dāng)前正在處理的稿件增加一個(gè)副本。在需要異地處理的稿件上右鍵單擊,選擇“復(fù)制文件到(自動(dòng)添加副本)”命令,在彈出的對(duì)話(huà)框中將保存目錄設(shè)置為優(yōu)盤(pán)上的某個(gè)目錄即可。這樣,就可以在優(yōu)盤(pán)上編輯PC1或PC2的稿件了。

小提示:對(duì)于PC1、PC2上的同名文件,MY文檔管理器以不同的磁盤(pán)號(hào)+文件路徑來(lái)標(biāo)識(shí)文件記錄,因此,對(duì)于不同電腦上的同名文件,甚至是路徑和文件名完全相同的文件,程序也可以準(zhǔn)確識(shí)別哪個(gè)是哪個(gè)。

懶招3多種文件批量移動(dòng)

要將文件管理得井然有序,就免不了要進(jìn)行復(fù)制、刪除、移動(dòng)等等操作,如果一個(gè)個(gè)進(jìn)行操作,工作量是非常巨大的。這時(shí)我們就需要借助于BelvedereAutomated(下載地址:.com/assets/resources/2008/03/Belvedere%200.3.exe)進(jìn)行批量操作了。例如我們想把“F:\test”目錄中的所有照片移動(dòng)到F盤(pán)中的“北京游照片”目錄中,可以按以下方法進(jìn)行。

第一步,建立“F:\test”目錄后在“rule”一欄中,單擊“+”按鈕,建立一個(gè)規(guī)則。在“Descriptior”文本框中為當(dāng)前規(guī)則起一個(gè)名字如“批量整理移動(dòng)”。單擊第一個(gè)下拉列表,在這里可以選擇Name(文件名)、Extension(擴(kuò)展名)、Size(大小)等進(jìn)行操作,這里選擇擴(kuò)展名“Extension”。單擊第二個(gè)下拉列表,在這里設(shè)置的是操作條件,有is(是)、isnot(不是)、contains(包含)等操作可供選擇,這里選擇的是“is”。接下來(lái),在最后的文本框中輸入圖片文件的擴(kuò)展名,示例中是“JPG”。定義的規(guī)則合起來(lái)的意思就是“擴(kuò)展名是JPG”。

第二步,在“Dothefollowing”區(qū)域設(shè)置操作動(dòng)作,單擊第一個(gè)下拉列表進(jìn)行操作動(dòng)作的選擇,有“Movefile(移動(dòng))、Renamefile(重命名)、Deletefile(刪除)”等動(dòng)作可供選擇,我們要批量移動(dòng),那就選擇重命名“Movefile(移動(dòng)文件)”。接下來(lái),單擊后面的按鈕選擇“F:\北京游照片”目錄。

第三步,規(guī)則設(shè)置完畢,單擊“Test”按鈕應(yīng)用規(guī)則,程序即可一次性地將所有擴(kuò)展名為“JPG”的圖片文件移動(dòng)到“F:\北京游照片”目錄中了。

懶招4提綱挈領(lǐng)一點(diǎn)即得

在前面幾大懶招的幫助下,你電腦里的文件應(yīng)該已經(jīng)有點(diǎn)類(lèi)別了吧。如果從此想告別懶人的生活,那就要養(yǎng)成管理文件的好習(xí)慣了。

第一步,在你保存資料的電腦分區(qū)中,要接類(lèi)別建立多個(gè)文件夾,可以按用途分為:學(xué)習(xí)、娛樂(lè)、暫存、工作、下載,在娛樂(lè)下又可以建立二級(jí)目錄:電影、歌曲、動(dòng)畫(huà)等。也可以按照常見(jiàn)的文件性質(zhì)進(jìn)行分類(lèi),例如分為:圖片、電影、電子書(shū)、安裝文件等,當(dāng)然也可以按照你的需要再建立二級(jí)目錄,以后每有文件需要保存就按這個(gè)類(lèi)別保存到相應(yīng)的目錄。

第二步,雖然現(xiàn)在已經(jīng)把文件分門(mén)別類(lèi)存放了,但時(shí)間長(zhǎng)了,目錄太深,一層一層查找也很麻煩的,在EXCEL里建一個(gè)目錄就可以統(tǒng)一管理了。運(yùn)行EXCEL后,新建一個(gè)表格,然后按照我們的分類(lèi)方式隔行輸入:圖片、電影、電子書(shū),在圖片分類(lèi)下再建立二級(jí)目錄名,例如明星、汽車(chē)、壁紙等。

第三步,右鍵單擊“圖片文字”,選擇“超鏈接”,在彈出的對(duì)話(huà)框中選擇電腦里圖片目錄文件夾,單擊“確定”后EXCEL里的“圖片”文字就變成彩色。用同樣的方法為一級(jí)目錄的“電影、電子書(shū)”和二級(jí)目錄的“明星、汽車(chē)、壁紙”等添加超鏈接。然后將這個(gè)EXCEL文件命名為文件目錄,保存到桌面上,以后打開(kāi)這個(gè)文檔,直接單擊相應(yīng)的文字,比如單擊“壁紙”,就可以切換到壁紙文件夾了。

小提示:如果要更改某個(gè)超鏈接,直接右鍵單擊該文字,選擇“編輯超鏈接”就可以了。本人的電腦分類(lèi)原則簡(jiǎn)述如下。

硬盤(pán)的第一層(請(qǐng)?jiān)谧约旱募A中右鍵“按組排列”查看)

第一位字母表示A生活?yuàn)蕵?lè)B教學(xué)C工作D安裝程序

第二位字母表示只是流水號(hào)

AA影視

AB音樂(lè)

AC閱讀

AD圖片

AE相冊(cè)

生活?yuàn)蕵?lè)

BA計(jì)算機(jī)

BB英語(yǔ)

BC運(yùn)動(dòng)

BD游戲攻略

BE衣食住行

BF文藝

教學(xué)

CA管理制度

CB流程圖

CC程序文件

工作

DA娛樂(lè)

DB其它

安裝程序

硬盤(pán)的第二層(進(jìn)入“AA影視”的文件夾舉例)

第一位字母表示只是流水號(hào)

第二位字母表示只是流水號(hào)

AA電影

BA電視劇

CAMTV

硬盤(pán)的第三級(jí)(進(jìn)入“AA電影”的文件夾舉例)

第一位字母表示A動(dòng)作片B劇情片C動(dòng)畫(huà)片

第二位字母表示A未看過(guò)B已看過(guò)

AA導(dǎo)火線(xiàn)

AB尖峰時(shí)刻

動(dòng)作片

BA獨(dú)自等待

劇情片

CB機(jī)器貓

CB獅子王

動(dòng)畫(huà)片

利用“字母排序”和“按組排列查看”可以使文件查看和存放簡(jiǎn)潔明了,結(jié)合

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論