版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
ResearchseofArtificialNeuralNetworkstheActionPointatAuto-levelingDrawAssadFarooq1andChokriofTextileClothingTechnology,TechnischeUniversit?tDresden,Abstract
ArticleArtificialneuralnetworkswithabilityoffromhavebeenappliedinthetextileThepointisofimportantparametersofthedrawingqualityofreportsamethodoftheactionusingartificialnetworks.actionvariableswereselectedasfortrainingtheartificialneuralnetworkswiththeaimtooptimizeauto-levelingbylimitingthelevelingactionpointsearchrange.TheMarquardtalgorithmisincorporatedintotheback-propagationtoacceleratetheBayesianregularizationistheofnetworks.arequitepromising.Keyartificialauto-lev-eling,frame,levelingactionpoint。Theoftheanroleinwhilesliverisofthecriticalwhenqualityyarn.ismajorcriteriaforassessmentofoperationofInprinciple,twotoirregularities.istothedraftingandrecognizetheforirregularities,thatmeansbethem.Thevaluableistouseauto-levelersintheinadequatetocorrectthevariationsinsliver.Thecontrolofirregularitiesloweronsliveruniformity,ambientframeparameters.Atthedrawframevariationsinarecontinuallybyamechanicaldevice(aroll)convertedintoelectricalThetoanelectronicwithvariable,timedelayedThetimeallowsdraftbetweenthemid-rollthedeliveryrollofdrawtoadjustthatmomentwhendefectivesliverpiece,whichhadmeasuredbyapairofscanningfindsitselfatapointofAtthispoint,dependingupontheamountofinsliverpiece.ThedistancethatscanningpairofdraftcalledthepointofregulationthelevelingactionpointinFigure1.Thisleadstocalculatedthecorrespondingdefective[2,3].Inframes,especiallyintheofoffibermaterial,orbatchesmachineparametersmustbeTheLAPismostauto-levelingparameterwhichisinfluencedbyparametersspeed,material,draftgauge,draftgauge,feedingtension,draft,andsettingtheetc.UseofArtificialNeuralfortheActionPointA.C.1ofanPreviously,sampleshadbewithsettings,tothelaboratory,onthetesteroptimumLAPwasdrawautomaticsearchfunctionforoptimumofLAP.Duringthisfunction,isscannedbyLAPcess,thequalityparametersareconstantlyalgorithmautomaticallycalculatestheoptimumLAPbythepointwiththeminimumsliverCV%.Atpresentasearchof120mmscanned,21examinedusing100ofineach2100ofisnecessarysearchatime-consumingmethodaccompaniedbythehencedirectlyaffectingcostparameters.Inthiswork,wefindthepossibilityofLAP,artificialneurallimitautomaticsearchandtheabove-mentioneddisadvantages.ArtificialNeuralNetworksThemotivationofusingartificialneuralnetworksliesintheirflexibilityofinformationnothave.Theneuralnetworksystemcansolveaproblem“byexperienceandlearning”theinputoutputpatternsprovidedbytheuser.Inthefieldofartificialneuralnetworks(mostlyhavebeenextensivelystudiedthelasttwodecades[4–6].thefieldofpreviousonpredictingpropertiesandspinningprocessusingthefiberpropertiesacombinationoffiberpropertiesandmachinesettingsasofneuralnetworks[7–12].Back-propagationissupervisedmostfrequentlyforneuraltraining.back-propagationalgorithmbasedtheWidrow-Hoffdeltaruleinwhichweightoutthroughthemeanofoutputtoinput[13].ThesetpatternstheuntiltheTheusessteepestdescentamethodtodetermineofOverfittingTheofneuralnetworktrainingproduceanetworkproducesontrainingwhichalsorespondsproperlynovelinputs.WhennetworkwelloninputsasonsetthesaidtobeThecapacitytheislargelybythe(numberofhiddenneurons)thisvitalrolethetraining.Anetworkwhichnottoalltheinformationintheisbeunderfitted,whileathatiscomplextofitthe“noise”inthedataleadstooverfitting.“Noise”meansvariattheunpredictablefrominputsofspecificAllstandardneuralarchitecturesasfullytooverfitting.itisdifficultacquirethenoisefromspinningdependenceofonthevariationsandenvironmentalconditions,etc.stoppingcommonlyusedtotacklethisproblem.Thisinvolvesofdataintothreei.e.atrainingavalidationsetandwiththatlargepartofthedata(validationset)canneverbetheofTheotherofoverfittingwhichthemethodofimprovingconstrainingofnetworkweights.[14]discussedBayesianforback-propagationnetworks,whichconsistentlyproducedwithgoodTheobjectiveofprocessismini-mizetheoferrors:n(t)Diii
2
(1)Wheretthetargetsandaresponsestheiitoreduceofsquarederrorsregularizationadditionalterm,theD
(2)Inequation
E
isthesumofsquaresofthenetworkweights,andαandwfunctionparameters.relativeofobjectivefunctionparametersdictatestheemphasisfortraining.Ifα<<β,thenthetrainingwilldrivetheerrorssmaller.α>>β,trainingwillemphasizeweightsizereductionattheexpenseofnetworksmootherresponse[15].Theofisonviewwhatittofromdata,inwhichusedtorepresenttheuncertaintythebeinglearned.anythepriorwhatmightbecanbeindistributionthatdefineAfterthedata,therevisedarebyaposteriordistributionoverweights.Networkthatplausiblebutwhichthewillbebeingmuchwhiletheforvaluesofweightsdofitthedatawillhaveincreased[16].InframeworktheweightsofareconsideredAfterthetaken,thefunctionfortheweightsbeupdatedaccordingtoBayes’rule:(w/D,
M)
(D/,)(w/(D/M)
M)
(3)InequationDdataset,Mneuralnetworkwistheofweights.P(/,M)isthepriorprobability,whichrepresentsourofbeforeanydatais(D/,
M)whichprobabilityofdataoccurring,giventheweightsw.Pw
)isathatthetotal1[15].Inthisstudy,employedMATLABNeuralNet-worksToolbox“trainbr”whichisanincorporationoftheLevenbergMarqaurdtregularizationtheorem(orBayesianintotrainthenetworktoreduceofapproximationofHessianmatrixproducegoodcapabilities.Thisaofparametersbiases)effectivelyusedbytheofshouldthesame,irrespectiveoftotalofparametersinThiseliminatesrequireddeterminingthenetworkExperimentalTheexperimentaldatawasobtainedfromRieter,ofdrawframeRSB-D40[17].Forthematerialexperimentalwasbasedofuseinspinningindustry.Forexample,isthefrequentlyusedmaterial,soitwereperformedoncottonwithallsettings,wasnotcasewithotherAlso,owingtothefactthatallcouldnotbeprocessedwithsamepressuredraftdifferentweredesigned.Thewiththeirplansgivenin1.Theprocedurewasappliedtomaterialsandstandardforsettings(sliverlineardensity,LAP,wasadopted.AcomparisonofautomaticwasperformedandresultswerethesearchfunctionfromRSBD-40.ThereforetheLAPsearcheswereaccomplishedbyQualityMonitorabstractoftheinFigure2.UseofArtificialNeuralfortheActionPointA.C.2Abstractnetworkmodel.HeretobeconsideredisthatisnoinmachinetheLAPinfluencingparameter,i.e.feedingSofeedingspeedconsideredberelatedspeedofdoublings(4).Thedeliveryspeedvariedbetween3001100thedoublings7,toachieveofCount×speed/(Doublings×Feed)()TrainingandTestingSetsFortrainingtheneuralnetwork,thedataintofirstphaseincludedexperimentaldataforcompilationthedatasubsequentThepriortheinfluencingi.e.speed,deliveryspeed,gaugesofdraft,andofthesliverwastoselecttheSofirstphasecontainedtheinwhichstandardweretakenasafoundationandthenLAPinfluencingineachInsecondphase,experimentswereselectedinwhichinfluencingparameterandnetworkwasallowedtotheThiswasontheofinfluencingparameters,withtheaimtoLAPlength.thirdphaseinvolvedtheexperimentsconductedonpilotscaleThesepilotwerecarriedbymachinefordifferentsettings.theseresultsweretoassesstheoftheneuraldataNormalizingtargetvariablesmaketrainingimprovingnumericalconditiontheproblem.Alsoitcanreducechancesofinforneuralnetworkofthelargespansofnetwork-inputdata,targetsforbetterperformance.Atfirsttheinputswerebetweeninterval[whichnotanypromisingresults.databetweentheinterval1]networkswithsuccess.NeuralNetworkTrainingWefiveneuralnetworkstopredictLAPbyofdataThesetsdividedintotrainingasinwasperformedtrainingweretotheofneuralinformFigure3thetrainingperformanceofthenetwork5.3TrainingperformanceofNNResultsandDiscussionalreadyinTable2,differentofdatawereusedtotrainfivenetworksatheirtestonunseendata.Asistoeliminatetheguessfortheappropriateofhiddentheofhiddenrangingfrom1422,wereintwolayerstrainnetworks.theselectionoftopologythatshouldbecomplextolearnalltheintheaspossibilityofwastackledwithduringtrainingthetestsetsbeseenfromFigures44ofNN1.UseofArtificialNeuralfortheActionPointC.5ofNN2.6ofNN3.7ofNN4.8ofNN5.wascalculatedtopredictedactualvalues,bothduringtrainingandtesting,andthearepresentedinFigure9.overallresultscanbeexplainedthepresenceorof–outputinteractionsindataandtheincreaseinthewiththeoftrainingdatasets.Figure9clarifiestheincreaseintestingerror,evenwithanincreaseintheoftraining,sets,whentrainingandperformedonfromdifferentphases(NN2&2).theerroraofphasewastrainremainderusedtesting,inNN3and5comparisonwithNN2and4,Thepresenceofdifferentinputoutputinteractionsindifferentphasesthistrend.behaviorofNN1withtoabove-mentionedfactattributedtosetsinphase1.9betweentrainingtestsets.InordertoassesstheoffitofNN5,10-foldcross-validationpreformed,offorandfortesting,timestestingnetworktimeon10%ofunseenAnaverageR
2
reported.wasadoptedfor80%andtestthecalculatedof
2
wasintheperformancethe80%datasetsforconfirmaveryfitofNN5ConclusionTheartificialnetworkmodelwasthenetworkstrainedatofTextileClothingTechnology,TechnischeUniversitatDresden.TheuseofBayesianregularizationtestingforpracticalapplicationspromisingresults.testingofNN5asin3,aofabout2mmisobservable,whichfallswellwithinmmnegligiblerangedeterminationofLAP.Thisthatcanbeinthefutureforquickcomputationofthewiththeadvantagesofofmaterialandtime.TheaccuracyincomputationcanleadtoCV%quality.TestofNN紡織研究期刊并條機自調勻整利用人工神經網絡確定在自調勻整作用點摘要用他們的人工神經網絡從數據中學習的能力已經成功的應用在紡織行業(yè),在并條機自調勻整參數中勻整作用點是一個重要的參數且強烈的影響到紗線的質量本文主要是講述的是用人工神經網絡來檢測勻整作用點各種各樣的勻整作用點會影響導致不同的變量,我們把這些變量輸入到人工神經網絡進行測試,目的是為了通過限制勻整作用點改變范圍來優(yōu)化并條機的自調勻整,Levenberg-Marquardt算法是納入反向傳播加速系和貝葉斯正則化方法,進了網絡的泛化。得到的結果是非常的精確的。關鍵詞
人工神經網絡自調勻整并條機勻整作用點紗線的均勻度在紡織行業(yè)中發(fā)揮著越來越重要的角,
而棉條均勻度是產生高質量紗線的重要因素之一。棉條均勻度也是并條機運轉的主要評價標準。在原則上,有兩種方法可以減少棉條不均勻。一種途徑是研究牽伸機構和認識棉條不均的原因,以這意味著可能會發(fā)現可以降低不均勻度的方法。其他更有有效的方法是使用自調勻整,因為在大多數情況下并條機是不足以正確的改變紗線的均勻度。長片段不勻控制在一個較低水平,取決于梳棉棉條均勻性、環(huán)境條件、和幀參數。在自調勻整并條機(RSB-40喂入的棉條厚度的不斷變化變化可以通過一種機械檢測設備來監(jiān)測其變化并且將監(jiān)測到的信號轉換為電子信號量數據被傳輸到一個可變電子記憶器里時間延遲響應當棉條片段有缺陷的時候可以在一定的時間延遲允許并條機牽伸的中間羅拉和傳送羅拉之間來進行棉條的不均勻度精確調整當已被一對檢測羅拉測量后發(fā)現在本身的一個牽伸點在這一點上伺服電機運行取決于在棉條部分被檢測的數量的變化一對分離的檢測羅拉和牽伸點之間的距離,稱為零點調節(jié)或勻整作用點LAP),如下1所示,這在計算相應有缺陷的材料應該進行相應的修正2、3),在并條機的自調勻整裝置上,特別是在纖維材料改變的情況下或者是各種不同型號機器選擇和過程控制參數必須優(yōu)化整作用點是自調勻整中最重要的參數許多的因素影響,比喻喂條速度,棉條材料,前牽伸測量計,喂入張緊力,前牽伸和棉條導條羅拉設置等。insliver:均勻度變化的棉條
Draft主要牽伸區(qū)Rollers:檢測羅拉BreakDraft前牽伸區(qū)PressuereBar:壓力棒actionpoint勻整作用點此前,棉條樣品必須在實驗室在不同的條件下進行,在測試儀上進行檢測棉條均勻度,直到找到最好的勻整作用點(手動進行檢測RSB-40并條機的自調勻整具有自動搜索確定最好的勻整作用點這一功能,棉條在進行此功能期間,棉條被自動檢測是通過調整臨時的勻整作用點和被記錄的有用的數據此過程中,不斷的監(jiān)測的質量參數和通過選擇棉條的最低點的棉條的V%,通過一種算法自動計算出最佳的自調勻整作用點
,
目前的一個搜索檢測范圍是120米,例如在每檢查100m的棉條是21點,因此2100m的棉條必須進行搜索功能,這是一種比較費時的方法材料和生產的損失會直接影響成本在這項工作中我們試圖找出一種能夠預測出勻整的作用點利用人工神經網絡限制自動搜索范圍和減少上述缺點。人工神經網絡利用人工神經網絡的目的在于他們的靈活性和信息處理能力,傳統的計算方法不具備。神經網絡系統可以由用戶提供的輸入輸出模式通過“經驗和學習”這種方式來解決問題,在紡織品領域,人工神經網絡主要使用反向傳播)在過去20年已經在廣泛的研究紡織領域之前的研究領域一直專注于預測紗線性能和紡紗纖維工藝使用性能或結合纖維的性能和機器型號作為的人工神經網絡的輸入。反向傳播是一種監(jiān)督學習技術,頻繁用于人工神經網絡的訓練。反向傳播算法是基于Widrow-的霍夫三角洲學習法則,其中權重是通過樣輸出到樣品輸入之間的響應的平方差進行調整。這系列單一模式反復提供給網絡,直到誤差值最小化差反向傳播算法采用最快下降法這實質上是一個一階的方法確定一個合適的梯度運動方向。過度擬合神經網絡的訓練的目標是產生一個網絡這個開發(fā)的網絡上產生較小的錯誤,并且這種情況依然可能會反映出的是一個異常的輸入。當一種網絡模式異常的輸入作為研發(fā)系統的輸入,這種網絡被認為是廣義的網絡。很大程度上是受到網絡的泛化能力的網絡架構(一些隱藏的神經元這在開發(fā)過程中起著至關重要的作用,而網絡是太復雜的,不足以來收集的所有信息數據,這被認為是不充分擬合,而當一個網絡是過于復雜,那么很難適應與紊亂的數據將會導致過度擬合噪音”的意思是從一個特定的網絡中的輸入值中變化的目標值是預測不到的所有的標準例如完全連接的多層感應器神經網絡結構容易出現過擬合此外從紡織行業(yè)它是很難獲得沒有紊亂的數據由于最終產品依賴于固有材料變化和環(huán)境條件等問題解決這個問題最普遍的方法是阻止這些問題的出現這包括訓練的數據劃分成的三個組,即一個訓練集驗證集和測試集,這其中有個缺點是一個大量的數據部分(驗證系統)不可能是訓練的部分。正規(guī)化另一個過擬合解決方案是正規(guī)化這是提高泛化通過約束網絡的權值的大小的方法。麥凱討論了一個實用的貝葉斯框架網——反向傳播網絡連續(xù)生產的網絡具有良好的泛化。最初的開發(fā)的過程中目標是是求最小平方誤差的總和n(t)Diii
2
(1)其中t是目標函數和a是神經網絡反應各自的目標通常情況下開發(fā)的目標是減少平方差和F=Ed然而正規(guī)化增加了一個額外的長期目標函數這是由以下函數得到的:D
(2)在方程(2)中,是網絡權重的平方的總和是目標函數的參數,目標函數參數的相對大小決定了訓練的重點,如然后訓練的算法就會產生較小的誤差練的神經網絡就會在網絡錯誤代價強調權重的減小,從而產生一個流暢的網絡響應。貝葉斯學校的統計數據是基于一個完全不同的角度來獲取數據其中的概率是用來表示關系的不確定性有學問看到任何數據之前先前的看法可能是真正的關系可以用概率分布來表示通過網絡權值來定義這種關系方案構思后的數據訂后的觀點通過之后的絡權值分布來捕獲以前網絡權重似乎有道理,但是與數據不相符現在被看做是不太可能而對不適合數據的權重值的概率將增加。在貝葉斯框架的權重網絡被認為是隨機變量。數據被采取后后驗概率密度函數的權重可以根據貝葉斯規(guī)則更新:(w/D
M)
(D/,)(w/(D/M)
M)
(3)在方程(3),D代表數據集,M是使用于特定的神經網絡模型和w是網絡權值向量。(w/
,)是先驗率,代表我們的知識收集數據之前權重P(D/w
M)是似然函數,這是數據的可能性發(fā)生,由于重量w.(/它可以保證總概率是1。
)一個標準化的因素,在這項研究中,我們使用矩陣神經微機網絡化工具箱函數”trainbr”,這是一個公司麥夸特法和貝葉斯正則化定理(或貝葉斯學習融入到反向傳播來訓練神經網絡來減少計算超過海森矩陣的近似值和產生好的的泛化能力種算法提供了一個網絡參數量度(權值和偏差)被網絡有效的利用不考慮在網絡中參數的總數,有效的參數的數量應該保持相同的。這就消除了猜測需要在確定最優(yōu)網絡大小。測試實驗數據可從立達,戈爾的制造商(并條RSB-D40)得到。對于這些實,在紡織行業(yè)材料的選擇和實驗設計是基于特定的材料使用的頻率。例如粗梳棉紗是使用最為頻繁的材料,所以它被作為標準和實驗研究在棉花的所有可能的設置,它不同于其他材料時,認清這個事實,所有的材料無法進行輥壓力和牽伸裝置,不同紡紗是事先是設置好的。材料的處理方案計在表中給出。標準的程序適用于所有的材料和標準程序對于自調勻整裝置棉條線密度、強度)也被采納手動和自動搜索進行比較從SBD-40自動搜索搜索功能獲得了了更好的CV%結果。因此,勻整作用點搜索時候由立達質量監(jiān)控器()完成的。一個實驗模型的抽象描述如圖2所示。這里主要考慮的一點是在機械上調整勻整作用點主要影響因素是不可能的,例如,喂棉速度,因此給棉速度被認
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年人教版PEP必修3物理上冊階段測試試卷含答案
- 旅游行業(yè)干部管理實施辦法
- 營銷行業(yè)資產經營管理辦法
- 建筑舞臺成本浮動合同管理
- 管理培訓兼職導師聘用協議
- 產業(yè)孵化基地租賃合同要點
- 科技園區(qū)二手房交易合同模板
- 電影院熱水供應系統施工合同
- 工廠內部商鋪租賃合同樣本
- 2024年滬教新版八年級科學下冊月考試卷
- 四川省成都市2023-2024學年高二上學期期末調研考試語文試題(解析版)
- ps經典課程-海報設計(第六講)
- 江蘇省泰州市2023-2024學年高一上學期期末語文試題及答案
- 【MOOC】工程制圖解讀-西安交通大學 中國大學慕課MOOC答案
- 期末復習(試題)-2024-2025學年三年級上冊數學蘇教版
- 內鏡中心年終總結和計劃
- 周五學習制度
- 運維或技術支持崗位招聘筆試題與參考答案(某大型央企)2024年
- 2022年新高考I卷讀后續(xù)寫David's run公開課課件-高三英語一輪復習
- 《論語》導讀(復旦版)學習通超星期末考試答案章節(jié)答案2024年
- 杰士德在線測評題
評論
0/150
提交評論