機(jī)器學(xué)習(xí)與深度學(xué)習(xí)_第1頁
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)_第2頁
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)_第3頁
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)_第4頁
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)_第5頁
已閱讀5頁,還剩104頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí)與深度學(xué)習(xí)目錄機(jī)器學(xué)習(xí)的基礎(chǔ)神經(jīng)元網(wǎng)絡(luò)深層神經(jīng)元網(wǎng)絡(luò)延伸和應(yīng)用深層學(xué)習(xí)實(shí)現(xiàn)架構(gòu)未來和思考小學(xué)生解方程a3+b=10a8+b=30a=?b=?高中,大學(xué)---矩陣,矢量線性回歸及分類

機(jī)器學(xué)習(xí)背景Y是一個(gè)N維向量XT

是一轉(zhuǎn)置矩陣N*(p+1)

β

是一個(gè)p+1的向量線性回歸:,給定X,和Y,計(jì)算β

以最佳匹配X,Y的關(guān)系。N>>p+1。β

即為線性回歸模型的參數(shù)。

βk表明對(duì)應(yīng)的維度,Xk

的重要性什么為最佳匹配?參數(shù)估計(jì)方法一:最小化誤差平方和機(jī)器學(xué)習(xí)背景正則化L2

(Ridge)

Regularization限制參數(shù)的大小,以避免過擬合正則化L1

Regularization(Lasso)限制參數(shù)的大小,以避免過擬合Noclosedformforβ

邏輯回歸jG邏輯回歸-參數(shù)訓(xùn)練jG訓(xùn)練目標(biāo)函數(shù):最大似然對(duì)數(shù)概率牛頓迭代:目錄機(jī)器學(xué)習(xí)的基礎(chǔ)神經(jīng)元網(wǎng)絡(luò)深層神經(jīng)元網(wǎng)絡(luò)延伸和應(yīng)用深層學(xué)習(xí)實(shí)現(xiàn)架構(gòu)未來和思考神經(jīng)元網(wǎng)絡(luò)單層前向網(wǎng)絡(luò)兩階段回歸或分類K-Class分類最底層為數(shù)據(jù)層最上層為輸出層中間層為隱含層這種簡(jiǎn)單的NN稱為Perceptron神經(jīng)元網(wǎng)絡(luò)---輸入層到隱含層中間層為輸入層線性組合的某函數(shù)其中δ為激活函數(shù):sigmoid神經(jīng)元網(wǎng)絡(luò)-激活函數(shù)δ為激活(Activation)函數(shù)(紅線)0<δ<1δ(10v)δ(0.5v)δ(sv),s控制0點(diǎn)的激活強(qiáng)度

當(dāng)s0,

δ-->線性函數(shù)神經(jīng)元網(wǎng)絡(luò),隱含層到輸出層輸出層為中間層的線性組合回歸問題K-Class分類問題,softmax函數(shù)訓(xùn)練神經(jīng)元網(wǎng)絡(luò):參數(shù)集合及維度神經(jīng)元網(wǎng)絡(luò)參數(shù)集合θ訓(xùn)練神經(jīng)元網(wǎng)絡(luò)優(yōu)化參數(shù)求導(dǎo)

最小化目標(biāo)函數(shù):最小誤差平方和及求導(dǎo)訓(xùn)練神經(jīng)元網(wǎng)絡(luò)--BackPropagation

梯度下降迭代算法輸出層誤差:δki隱含層誤差:smiBP算法初始化參數(shù)θ

兩階段算法:Two-Pass前向Forward-Pass:

給定參數(shù),計(jì)算輸出值后向Backward-Pass:計(jì)算輸出層誤差,計(jì)算隱含層誤差,更新參數(shù)BP算法圖示(1985~)inputvectorhiddenlayersoutputsBack-propagateerrorsignaltogetderivativesforlearningCompareoutputswithcorrectanswertogeterrorsignal神經(jīng)元網(wǎng)絡(luò)小結(jié)目錄機(jī)器學(xué)習(xí)的基礎(chǔ)神經(jīng)元網(wǎng)絡(luò)深層神經(jīng)元網(wǎng)絡(luò)延伸和應(yīng)用深層學(xué)習(xí)實(shí)現(xiàn)架構(gòu)未來和思考BP算法在深層神經(jīng)元網(wǎng)絡(luò)中的問題依賴于標(biāo)注的訓(xùn)練數(shù)據(jù)目前大量數(shù)據(jù)為非標(biāo)注數(shù)據(jù)訓(xùn)練時(shí)間長,很難規(guī)模化多層神經(jīng)元網(wǎng)絡(luò)訓(xùn)練很慢會(huì)停駐在性能較差的本地優(yōu)化點(diǎn)淺層網(wǎng)絡(luò),該問題不明顯深層網(wǎng)絡(luò),問題顯著支持向量基(SVM)一個(gè)特殊的神經(jīng)元網(wǎng)絡(luò)StillPerceptron一個(gè)特殊的單隱含層網(wǎng)絡(luò)每個(gè)訓(xùn)練案例用于構(gòu)造一個(gè)特征,該特征用于測(cè)量改訓(xùn)練案例和測(cè)試案例的距離SVM訓(xùn)練選擇自由特征集以及特征的權(quán)重1990-2010很多讓放棄NN,選擇SVMnon-adaptivehand-codedfeaturesoutputunitse.g.classlabelsinputunitse.g.pixelsSketchofatypicalperceptronfromthe1960’sBombToy深層信任網(wǎng)絡(luò)(DeepBeliefNet,DBN)是部分解決了以上問題的神經(jīng)元網(wǎng)絡(luò)誰重新激活了神經(jīng)元網(wǎng)絡(luò)?GeoffreyHinton出生于:1947專業(yè):學(xué)士,心理學(xué),1970,博士,人工智能,1978多倫多大學(xué)教授Google研究中心1986:神經(jīng)元網(wǎng)絡(luò)BP算法發(fā)明人之一深度學(xué)習(xí)主要貢獻(xiàn)人IGETVERYEXCITEDWHENWEDISCOVERAWAYOFMAKINGNEURALNETWORKSBETTER—ANDWHENTHAT’SCLOSELYRELATEDTOHOWTHEBRAINWORKS.’誰重新激活了神經(jīng)元網(wǎng)絡(luò)?NCAP:神經(jīng)計(jì)算和自適應(yīng)感知項(xiàng)目2004

NCAPResearchersYoshuaBengioYannLecun(FaceBook)AndrewNg(Baidu)20~OthersCoreTeam深度學(xué)習(xí)的2006年,GeofferyHinton

Science發(fā)表DBN文章。2012年,Hinton,ImageNet,26%-15%。2012年,AndrewNg和分布式系統(tǒng)頂級(jí)專家JeffDean,GoogleBrain項(xiàng)目,16000個(gè)CPU核的并行,>10億個(gè)神經(jīng)元的深度神經(jīng)網(wǎng)絡(luò)2012年,微軟首席研究官RickRashid在21世紀(jì)的計(jì)算大會(huì)上演示了一套自動(dòng)同聲傳譯系統(tǒng)2013年,Hinton->>Google;YannLeCun

->>Facebook;用戶圖片信息提取2013年,百度成立了百度研究院及下屬的深度學(xué)習(xí)研究所(IDL),2014年,AndrewNg->>Badidu可信任網(wǎng)絡(luò)BeliefNets(BN)

一個(gè)BN是一個(gè)由隨機(jī)變量組成的有向非循環(huán)圖一部分變量為可觀察已知變量如何由已知變量推斷出非觀察變量的狀態(tài)調(diào)整變量之間連接的參數(shù)優(yōu)化:最大可能重新生成觀察變量stochastichiddencausevisibleeffectWewillusenetscomposedoflayersofstochasticbinaryvariableswithweightedconnections.Later,wewillgeneralizetoothertypesofvariable.可信任,信任什么?隨機(jī)的二元單元

(Bernoullivariables)隱含層的神經(jīng)元的狀態(tài)為0或1該神經(jīng)元激活的概率為輸入層加權(quán)和的sigmoid函數(shù)001RestrictedBoltzmannMachines(RBM)

限制神經(jīng)元之間的鏈接以簡(jiǎn)化參數(shù)學(xué)習(xí).只包含一個(gè)隱含層.多隱含層后期引入隱含層單元之間無鏈接.給定輸入可觀察矢量,隱含層單元之間獨(dú)立隱含層和輸入層之間為無向鏈接hiddenijvisibleRBM訓(xùn)練ijijijijt=0t=1t=2t=infinity從可觀察訓(xùn)練矢量開始,交替更新隱含層和可觀察矢量層單元afantasy小結(jié)一個(gè)基礎(chǔ)的DBN網(wǎng)絡(luò)

決定DBN的隱含層數(shù)以及隱含層的神經(jīng)元數(shù)

每兩層之間依據(jù)RBM單獨(dú)依次訓(xùn)練參數(shù)

訓(xùn)練完的兩層網(wǎng)絡(luò)簡(jiǎn)單疊加起來成為深層網(wǎng)絡(luò)

利用BP算法對(duì)疊加后的網(wǎng)絡(luò)連接參數(shù)進(jìn)一步優(yōu)化RBMPseudo代碼Fort=0ton:Vt-Ht

基于sigmoid函數(shù)和Gibbs采樣Ht-Vt+1

基于sigmoid函數(shù)和Gibbs采樣Vt+1-Ht+1

基于sigmoid函數(shù)和Gibbs采樣更新參數(shù)W:

RBMCode

目錄機(jī)器學(xué)習(xí)的基礎(chǔ)神經(jīng)元網(wǎng)絡(luò)深層神經(jīng)元網(wǎng)絡(luò)延伸和應(yīng)用深層學(xué)習(xí)實(shí)現(xiàn)架構(gòu)未來和思考

深度學(xué)習(xí)目前常用的架構(gòu)深度神經(jīng)元全連網(wǎng)絡(luò)DNN(DeepNeuralNets),Tensor-DNN卷積神經(jīng)元網(wǎng)絡(luò)CNN(ConvolutionalNeuralNets)深度疊拼神經(jīng)元網(wǎng)絡(luò)DSN(DeepStackingNets);Kernel-DSN,Tensor-DSN循環(huán)神經(jīng)元網(wǎng)絡(luò)RNNs(RecurrentandrecursiveNeuralNets)DNN在語音識(shí)別中的應(yīng)用DNN在語音識(shí)別中的應(yīng)用語音識(shí)別中的BottleNeck特征圖像識(shí)別中的神經(jīng)元網(wǎng)絡(luò)應(yīng)用卷積神經(jīng)元網(wǎng)絡(luò)ConvolutionNeuralNetwork(CNN)輸入層可以使多元的,也可以是一元的圖像識(shí)別中的神經(jīng)元網(wǎng)絡(luò)應(yīng)用:卷積層

輸入:維度的矩陣X

輸出:維度的矩陣

連接輸入和輸出的參數(shù):維度的矩陣W圖像識(shí)別中的神經(jīng)元網(wǎng)絡(luò)應(yīng)用:Pooling層

輸入:region,

矩陣

輸出:Asinglevalue,

連接輸入輸出層參數(shù):無

最大值pooling

均值pooling圖像識(shí)別中的神經(jīng)元網(wǎng)絡(luò)應(yīng)用:全連層

同DNN卷積神經(jīng)元網(wǎng)絡(luò)的架構(gòu)ImageNet2012年競(jìng)賽ImageNet2013年競(jìng)賽目前圖像中物體識(shí)別性能語音識(shí)別中CNN的使用(2013,Sainath@IEEE)循環(huán)神經(jīng)元網(wǎng)絡(luò)RNNRNN同DNN的比較BackPropagationThroughTime(BPTT)三類參數(shù)訓(xùn)練方式可等同于前向網(wǎng)絡(luò)在時(shí)域的組合雙向RNN實(shí)現(xiàn)訓(xùn)練算法:

RBM初始化每個(gè)時(shí)間點(diǎn)t的

網(wǎng)絡(luò)BPTT,BP算法的擴(kuò)展優(yōu)化參數(shù)訓(xùn)練神經(jīng)元網(wǎng)絡(luò)在自然語言處理中的應(yīng)用語言模型信息分類信息聚類信息提取搜索翻譯詞向量語義表示一批關(guān)鍵的文章YoshuaBengio,RejeanDucharme,PascalVincent,andChristianJauvin.

Aneuralprobabilisticlanguagemodel.JournalofMachineLearningResearch(JMLR),3:1137–1155,2003.[PDF]RonanCollobert,JasonWeston,LéonBottou,MichaelKarlen,KorayKavukcuogluandPavelKuksa.NaturalLanguageProcessing(Almost)fromScratch.JournalofMachineLearningResearch(JMLR),12:2493-2537,2011.[PDF]AndriyMnih&GeoffreyHinton.

Threenewgraphicalmodelsforstatisticallanguagemodelling.InternationalConferenceonMachineLearning(ICML).2007.[PDF]

AndriyMnih&GeoffreyHinton.

Ascalablehierarchicaldistributedlanguagemodel.TheConferenceonNeuralInformationProcessingSystems(NIPS)(pp.1081–1088).2008.[PDF]MikolovTomá?.

StatisticalLanguageModelsbasedonNeuralNetworks.PhDthesis,BrnoUniversityofTechnology.2012.[PDF]TurianJoseph,LevRatinov,andYoshuaBengio.

Wordrepresentations:asimpleandgeneralmethodforsemi-supervisedlearning.Proceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL).2010.[PDF]EricHuang,RichardSocher,ChristopherManningandAndrewNg.

Improvingwordrepresentationsviaglobalcontextandmultiplewordprototypes.Proceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics:LongPapers-Volume1.2012.[PDF]Mikolov,Tomas,Wen-tauYih,andGeoffreyZweig.

Linguisticregularitiesincontinuousspacewordrepresentations.ProceedingsofNAACL-HLT.2013.[PDF]DNN語言模型RNN語言模型沒有必要定義上下文長度沒有投影層(NoWordEmbedding)前一層的隱含鏈接下一個(gè)詞的隱含層其他的深度學(xué)習(xí)架構(gòu):DeepStackingNetwork(DSN)特點(diǎn)

線性和非線性層交替

訓(xùn)練更容易并行優(yōu)化目標(biāo)凸函數(shù)(convex)目錄機(jī)器學(xué)習(xí)的基礎(chǔ)神經(jīng)元網(wǎng)絡(luò)深層神經(jīng)元網(wǎng)絡(luò)延伸和應(yīng)用深層學(xué)習(xí)實(shí)現(xiàn)架構(gòu)未來和思考深度學(xué)習(xí)實(shí)現(xiàn)的物理架構(gòu)挑戰(zhàn):訓(xùn)練數(shù)據(jù)規(guī)模龐大計(jì)算開銷大訓(xùn)練過程收斂難訓(xùn)練用時(shí)久解決方案:GPU計(jì)算資源并行CPU集群幾萬神經(jīng)元,幾千萬參數(shù)工業(yè)界深度學(xué)習(xí)平臺(tái)架構(gòu)百度FacebookGoogle騰訊平臺(tái)名稱PaddleN/ADisbliefCotsMariana應(yīng)用模型&數(shù)據(jù)CPU/GPUGPUGPUCPUGPUGPU&CPU硬件規(guī)模1.6W3臺(tái)GPU服務(wù)器參數(shù)規(guī)模DownpourSGD和L-BFGS10億主要應(yīng)用人臉識(shí)別和提取語音識(shí)別圖形語音識(shí)別,圖像粗粒深度學(xué)習(xí)開源軟件KaldiCuda-CovnetCaffeTheanoTorch7OverFeat領(lǐng)域語音識(shí)別圖像分類Matlab免費(fèi)版圖像識(shí)別及特征提取GPU/CPUGPUGPUGPUGPU/CPUGPU算法SGDSGD設(shè)計(jì)者UniJohnHopkinsUivofToronto紐約大學(xué)功能GPUGPUCPUGPU&CPUGPU實(shí)現(xiàn)語言C++CudaC++CudaPython騰訊深度學(xué)習(xí)平臺(tái)MarianaDNN的GPU數(shù)據(jù)并行框架CNN的GPU數(shù)據(jù)并行和模型并行框架DNNCPU集群框架GPU服務(wù)器為主4-6

NvidiaTeslaGPUCards(系列高端科學(xué)計(jì)算用)>2000流處理器/GPUcard并行計(jì)算深度學(xué)習(xí)并行策略模型并行將訓(xùn)練數(shù)據(jù)劃分為多份,每份數(shù)據(jù)有一個(gè)模型實(shí)例進(jìn)行訓(xùn)練,再將多個(gè)模型實(shí)例產(chǎn)生的梯度合并后更新模型數(shù)據(jù)并行模型并行指將模型劃分為多個(gè)分片,每個(gè)分片在一臺(tái)服務(wù)器,全部分片協(xié)同對(duì)一份訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練流式控制DNNGPU的并行架構(gòu)

DNN的數(shù)據(jù)并行框架通過同步隨機(jī)梯度下降進(jìn)行訓(xùn)練。每個(gè)GPU卡各自訓(xùn)練,并各自產(chǎn)生一份梯度值,然后進(jìn)行參數(shù)交換。自適應(yīng)學(xué)習(xí)率算法,使得支持自適應(yīng)學(xué)習(xí)率所需交換的數(shù)據(jù)量降低了一個(gè)數(shù)量級(jí)。參數(shù)交換的成本CNN-GPU并行架構(gòu)---騰訊模型拆分?jǐn)?shù)據(jù)拆分流式控制GPU卡分組組內(nèi)兩個(gè)GPU卡做模型并行,組間做數(shù)據(jù)并行

CNN-GPU并行架構(gòu)---騰訊模型拆分?jǐn)?shù)據(jù)拆分流式控制GPU卡分組組內(nèi)兩個(gè)GPU卡做模型并行,組間做數(shù)據(jù)并行

DNNCPU并行架構(gòu)目錄機(jī)器學(xué)習(xí)的基礎(chǔ)神經(jīng)元網(wǎng)絡(luò)深層神經(jīng)元網(wǎng)絡(luò)延伸和應(yīng)用深層學(xué)習(xí)實(shí)現(xiàn)架構(gòu)未來和思考IBMSynapse自適應(yīng)塑料可伸縮電子神經(jīng)形態(tài)系統(tǒng)SyNAPSE

isa

DARPA-fundedprogramtodevelopelectronic

neuromorphic

machinetechnologythatscalestobiologicallevels.Moresimplystated,itisanattempttobuildanewkindofcomputerwithsimilarformandfunctiontothe

mammalianbrain.Suchartificialbrainswouldbeusedtobuildrobotswhoseintelligencematchesthatofmiceandcats.SyNAPSEisa

backronym

standingforSystemsofNeuromorphicAdaptivePlasticScalableElectronics.Itstartedin2008andasofJanuary2013hasreceived$102.6millioninfunding.Itisscheduledtorununtilaround2016.Theprojectisprimarilycontractedto

IBM

and

HRL

whointurnsubcontractpartsoftheresearchtovariousUSuniversities.IBMSynapse自適應(yīng)塑料可伸縮電子神經(jīng)形態(tài)系統(tǒng)2007Apr

-

ToddHylton

joinsDARPAtofoundtheproject2008Apr

-DARPApublishesa

solicitation

forapplications

May

-Duedateforinitialproposals

Oct

-Winningcontractorsannounced

Nov

-Phase0start2009Sep

-Phase1start

Nov

-Announcementofcat-scalebrainsimulation20102011Aug

-Announcementofneuromorphicchipimplementation

Sep

-Phase2start

Dec

-Announcementoffirst

memristorchip2012Feb

-ToddHyltonleavesDARPA,GillPratttakesoverasprogrammanager

May

-Neuromorphic

architecture

designpublished

Nov

-

TrueNorth/Compasssimulation

of530billionneuronsannounced2013Feb

-Expectedannouncementofmulti-coreneurosynapticchips(~1millionneuronsperchip)

Mar

-Phase3tobegin(estimateddate)2014Oct

-Phase4tobegin(estimateddate)20152016Programend貓腦機(jī)2009IBMDawn-theBlueGene/Psupercomputer150KCPU,144TMemory

模擬貓腦Corticalsimulationswith109

neurons,1013

synapses

,16億神經(jīng)元,8.9萬億鏈接CriticismofthecatbrainsimulationclaimBrainWallSyNAPSE(SystemsofNeuromorphicAdaptivePlasticScalableElectronics)TheBrainWall:ANeuralNetworkVisualizationToolbyIBMSyNAPSEResearchers

數(shù)字神經(jīng)元芯片,CMOS,MemristorSynapse的合作者

DARPA

-programmanagedby

GillPrattIBMResearch

-CognitiveComputinggroupledby

DharmendraModhaColumbiaUniversityMedicalCenter

-Theoreticalneuroscienceresearch,developmentofneuralnetworkmodels,ledby

StefanoFusiCornellUniversity

-AsynchronousVLSIcircuitdesign,the

neurosynapticcore,ledby

RajitManoharUniversityofCalifornia,Merced

-environmentresearch,ledby

ChristopherKelloUniversityofWisconsin-Madison

-Simulation,theoryofconsciousness,computermodels,ledby

GiulioTononiHRLLaboratories

-Memristor-basedprocessordevelopmentledby

NarayanSrinivasaBostonUniversity:

StephenGrossberg,

GailCarpenter,YongqiangCao,PraveenPillyGeorgeMasonUniversity:

GiorgioAscoli,AlexeiSamsonovichPortlandStateUniversity:

ChristofTeuscherSetCorporation:

ChrisLongStanfordUniversity:

MarkSchnitzerTheNeurosciencesInstitute:GeraldEdelman,EinarGall,

JasonFleischerUniversityofCalifornia-Irvine:

JeffKrichmarUniversityofMichigan:

WeiLuSynapse投入經(jīng)費(fèi)102MillionDollars

IBM&collaboratorsHRL&collaboratorsTotal(IBM+HRL)November2008(phase0)$4,879,333$5.9million$10.8millionAugust2009(phase1)$16.1million$10.7million$26.8millionAugust2011(phase2)~$21million$17.9million$38.9millionTotal$42million$34.5million$76.5million

WhyDBN為什么我們應(yīng)該探索深度學(xué)習(xí)?WhyDBN在多個(gè)領(lǐng)域中取得更好的準(zhǔn)確率WhyDBN跟其他機(jī)器學(xué)習(xí)的訓(xùn)練方法比需要人工投入少?WhyDBN天然特征的層次結(jié)構(gòu)WhyDBN符合仿生學(xué)結(jié)構(gòu)WhyDBN并行計(jì)算能力支撐WhyDBN大數(shù)據(jù)支撐你還不累,我累了!附錄資料:不需要的可以自行刪除日常設(shè)備點(diǎn)檢與潤滑點(diǎn)檢的定義:為了維持生產(chǎn)設(shè)備原有的機(jī)能、確保設(shè)備和生產(chǎn)的順利進(jìn)行,滿足客戶的要求,按照設(shè)備的特性,通過人的“五感”和簡(jiǎn)單的工具、儀器,對(duì)設(shè)備的規(guī)定部位(點(diǎn)),按照預(yù)先設(shè)定的技術(shù)標(biāo)準(zhǔn)和觀察周期,對(duì)該點(diǎn)進(jìn)行精心的、逐點(diǎn)的周密檢查,查找有無異狀的隱患和劣化,使設(shè)備的隱患和劣化能夠得到“早期發(fā)現(xiàn)、早期預(yù)防、早期修復(fù)的效果;2.點(diǎn)檢與傳統(tǒng)設(shè)備檢查的區(qū)別(1)點(diǎn)檢管理的特點(diǎn)設(shè)備點(diǎn)檢,完全改變了設(shè)備檢查的業(yè)務(wù)機(jī)構(gòu),改變了設(shè)備傳統(tǒng)性檢查的業(yè)務(wù)層次和業(yè)務(wù)流程,創(chuàng)造了基礎(chǔ)管理的新形勢(shì),點(diǎn)檢管理與傳統(tǒng)的設(shè)備檢查形式的不同之處做如下所述:1)體現(xiàn)了設(shè)備管理思想的更新,現(xiàn)代化的技術(shù)裝備擔(dān)負(fù)著社會(huì)大生產(chǎn)的重要使命,生產(chǎn)的產(chǎn)量、質(zhì)量和經(jīng)濟(jì)效益將完全借助與生產(chǎn)設(shè)備來實(shí)現(xiàn),往往一個(gè)小的故障,將會(huì)導(dǎo)致自動(dòng)化設(shè)備的全線停產(chǎn),其損失之大不可估計(jì);因此,實(shí)行設(shè)備點(diǎn)檢的主要目的,其實(shí)就是實(shí)現(xiàn)針對(duì)性維修;2)達(dá)到以管為主,全員參加管理的目的。3)實(shí)現(xiàn)了維修的最佳化目標(biāo);(通過點(diǎn)檢,將設(shè)備故障消滅在萌芽狀態(tài))4)成為了標(biāo)準(zhǔn)化的設(shè)備基礎(chǔ)管理作業(yè)方法;(2)傳統(tǒng)設(shè)備檢查的幾種形式1)事后檢查;設(shè)備在發(fā)生突發(fā)性故障以后,為恢復(fù)其故障部位的工作性能,以決定合理的修復(fù)方案和確定具體的內(nèi)容進(jìn)行的對(duì)應(yīng)性檢查;2)巡回檢查;按照預(yù)先設(shè)定的檢查部位和主要內(nèi)容實(shí)行粗劣的巡視工作;3)計(jì)劃檢查;根據(jù)預(yù)先設(shè)定的周期和檢查項(xiàng)目對(duì)設(shè)備進(jìn)行檢查或?qū)Σ考M(jìn)行解體檢查;4)特殊性檢查;零部件的品質(zhì)、精度等5)法定檢查;壓力容器、起重設(shè)備等(3)點(diǎn)檢與傳統(tǒng)設(shè)備檢查的區(qū)別;設(shè)備點(diǎn)檢完全區(qū)別于傳統(tǒng)的設(shè)備檢查,他使隱患和異常都能在故障發(fā)生前得到前當(dāng)?shù)锰幚恚龅郊冉?jīng)濟(jì),又正確,因此,設(shè)備點(diǎn)檢,其實(shí)就是預(yù)防性的主動(dòng)的設(shè)備檢查;另外“點(diǎn)檢”是一種管理制度,而傳統(tǒng)的設(shè)備檢查僅是一種進(jìn)行檢查的方法。(4)如何點(diǎn)檢?按照全員設(shè)備管理的要求,操作人員必須參與設(shè)備的維修活動(dòng),其活動(dòng)范圍及內(nèi)容,與管轄本區(qū)域設(shè)備的點(diǎn)檢員以協(xié)議的形式確定。因此,生產(chǎn)方在進(jìn)行生產(chǎn)操作、檢查的的同時(shí),要進(jìn)行設(shè)備的狀態(tài)檢查。日常點(diǎn)檢內(nèi)容:利用“五感”點(diǎn)檢:依靠人的五官,對(duì)運(yùn)轉(zhuǎn)中的設(shè)備進(jìn)行良否。通常對(duì)溫度、壓力、流量、振動(dòng)、異音、動(dòng)作狀態(tài)、松動(dòng)、龜裂、異常及電器線路的損壞、熔絲熔斷、異味、泄漏、腐蝕等內(nèi)容的點(diǎn)檢。邊檢查邊清掃:清除在生產(chǎn)運(yùn)行過程中產(chǎn)生的廢料(液),防止被掩埋了的設(shè)備性能劣化或損壞,此項(xiàng)工作應(yīng)在生產(chǎn)巡檢時(shí)及時(shí)進(jìn)行,按程序及時(shí)處理劣化的設(shè)備,防止故障的擴(kuò)大。做好緊固與調(diào)整:在五官點(diǎn)檢過程中,如已發(fā)現(xiàn)松動(dòng)和變化時(shí),在確認(rèn)可以實(shí)施恢復(fù)和力所能及的前提下,應(yīng)該給予緊固和調(diào)整,并記錄在案,及時(shí)的報(bào)告和傳遞信息。日常點(diǎn)檢的方法和技巧點(diǎn)檢表的確認(rèn):按設(shè)定的日常點(diǎn)檢表逐項(xiàng)檢查,逐項(xiàng)確認(rèn);點(diǎn)檢結(jié)果的處理:點(diǎn)檢結(jié)果,按照固定的符號(hào)記入日常點(diǎn)檢表內(nèi),在交接班時(shí)交代清楚并向上級(jí)匯報(bào),對(duì)發(fā)現(xiàn)的異常情況處理完畢,則要把處理過程、結(jié)果立即記入作業(yè)日志內(nèi);對(duì)正在觀察、未處理結(jié)束的項(xiàng)目,必須連續(xù)記入符號(hào),不能在未說明情況下自行取消記號(hào),每班的點(diǎn)檢結(jié)果,生產(chǎn)班組長、工段長都要認(rèn)真確認(rèn)、簽字;不同要求的三種點(diǎn)檢:根據(jù)不同崗位,不同要求,一般每個(gè)作業(yè)班,都要進(jìn)行三種點(diǎn)檢:靜態(tài)點(diǎn)檢:停機(jī)點(diǎn)檢,要求要做到逐項(xiàng)逐點(diǎn)進(jìn)行;動(dòng)態(tài)點(diǎn)檢:不停機(jī)點(diǎn)檢,要求要做到逐項(xiàng)逐點(diǎn)進(jìn)行;重點(diǎn)點(diǎn)檢:隨機(jī)進(jìn)行,重點(diǎn)部位認(rèn)真檢查;2)良否點(diǎn)檢在使用“五官點(diǎn)檢法”,需要判別檢查點(diǎn)良否的知識(shí)如下:振動(dòng):人體對(duì)振動(dòng)的感覺極限,一般在適當(dāng)?shù)霓D(zhuǎn)速下,振幅在5微米時(shí),就不容易感覺到。當(dāng)一臺(tái)19~90千瓦、3000r/min交流電機(jī),安裝在牢固的基礎(chǔ)上,其單振幅允許在50微米以下。用手判別振動(dòng)良否,可以用一只鉛筆,筆尖放在振動(dòng)體上,如果垂直放置的鉛筆,發(fā)生激烈的上下跳動(dòng),而且向前移動(dòng)時(shí),就有超值的可能,需要用專用的“振動(dòng)儀”測(cè)定振動(dòng)值。溫度:使用溫度計(jì)在設(shè)備點(diǎn)檢過程中,往往采用手指觸摸發(fā)熱體來判別溫升值是否屬于正常,用手指觸摸判別溫度的技巧是:用食指和中指放在被測(cè)的物體上,根據(jù)手指按放以后,人能忍受時(shí)間的長短,來大致判斷物體的溫度:具體參數(shù)如下,具體運(yùn)用過程要考慮到人的皮膚質(zhì)感,季節(jié)的不同:設(shè)備溫度(攝氏度)觸摸忍受時(shí)間(秒)設(shè)備溫度(攝氏度)觸摸忍受時(shí)間(秒)5060以上70253約30751.55510~12801605850.5653松動(dòng)知識(shí):用目視觀看螺栓是否松動(dòng),一般在緊固螺桿上總沾有油灰,在存在松動(dòng)螺栓上的油灰、形態(tài)有別于松動(dòng)的螺栓,往往會(huì)出現(xiàn)新色、脫落的痕跡;用手錘敲擊被檢查的螺栓,若敲擊聲出現(xiàn)低沉沙啞的情況,同時(shí)觀察螺栓周圍所積油灰出現(xiàn)崩落的現(xiàn)象,基本上能判斷出是否存在松動(dòng)現(xiàn)象,對(duì)存在懷疑的螺栓用扳手緊固確認(rèn);最好在緊固螺栓時(shí),用有色筆在螺栓和固定座之間劃一道直線,再次點(diǎn)檢時(shí),若發(fā)現(xiàn)直線對(duì)不準(zhǔn),說明螺栓已經(jīng)松動(dòng);聲音知識(shí):對(duì)傳動(dòng)設(shè)備是否存在缺油、斷油、精度損失,可以用側(cè)聽聲音的辦法來判別其狀態(tài),常用的是“聽音棒”,判斷的正確取決于各人的經(jīng)驗(yàn)。軸承:軸承的正常轉(zhuǎn)動(dòng)聲音是均勻、圓滑的轉(zhuǎn)動(dòng)聲,若出現(xiàn)周期性的金屬碰撞聲,則預(yù)示著軸承的滾道、保持架有異常,當(dāng)出現(xiàn)高頻聲,則往往是少油、缺油現(xiàn)象,結(jié)合溫升進(jìn)行綜合判斷。對(duì)電動(dòng)機(jī)的磁聲判別:正常的磁聲是連續(xù)的、輕微的、均勻的沙沙響聲,有異物進(jìn)入定轉(zhuǎn)子的間隙或偏心時(shí),這種連續(xù)聲被破壞,不在出現(xiàn);聽聲時(shí),一定要集中思想,腦子要專心捕捉特定頻率的聲音,這樣當(dāng)其它頻率的聲音進(jìn)入耳中時(shí)才會(huì)被濾掉。味覺知識(shí):通常不太常用“嘗”,因要進(jìn)入口中需要特別謹(jǐn)慎,除非在特殊的場(chǎng)合,如電化學(xué),急需鑒別酸性、堿性時(shí),在確保對(duì)身體無害時(shí),方可實(shí)施。引起設(shè)備故障原因分析1)造成設(shè)備性能劣化的原因;a:使用原因:設(shè)備的負(fù)荷運(yùn)行造成劣化,但運(yùn)行條件、操作方法的不同造成劣化程度不同;b:自然原因:潮濕生銹,天長日久的自然磨損、變形,時(shí)效老化等;C:災(zāi)害原因:天災(zāi)、狂風(fēng)暴雨、地震等等;上述的原因引起設(shè)備的結(jié)果就出現(xiàn)了由于磨損、腐蝕等的減損,由于沖擊、疲勞等的破壞,由于原料黏附灰塵引起的污損等現(xiàn)象,直至設(shè)備原有性能不能充分發(fā)揮,這就叫做設(shè)備性能劣化;2)機(jī)能劣化:a:轉(zhuǎn)動(dòng)和滑動(dòng)部分出現(xiàn)機(jī)能劣化:磨損:由于運(yùn)動(dòng)摩擦引起接觸面的磨損;如齒輪、軸承、軸套等;損壞:由于磨損或受力作用(彎曲、剪切)而斷裂等;旋轉(zhuǎn)不好:轉(zhuǎn)動(dòng)不靈活、滑動(dòng)面粗糙等造成運(yùn)動(dòng)不靈活;操作不良:操作不正確或不按操作規(guī)程操作設(shè)備,或誤操作而造成故障;異聲:由于潤滑不良或異物落入造成轉(zhuǎn)動(dòng)部位發(fā)生異聲;振動(dòng):轉(zhuǎn)動(dòng)或滑動(dòng)部位各種異常振動(dòng);漏油:潤滑部位出現(xiàn)泄漏;b:固定部分機(jī)能劣化現(xiàn)象和原因:松弛脫落:連接部位螺釘出現(xiàn)松弛和脫落;變形斷開:結(jié)構(gòu)或構(gòu)件變形或切斷、折損等現(xiàn)象;腐蝕、龜裂、受腐部位或構(gòu)件龜裂;c:電器部分劣化現(xiàn)象和原因:電器燒損、絕緣不良等;線路接點(diǎn)的短路或斷路;電器整流不良;電參數(shù)的漂移;設(shè)備出現(xiàn)劣化,原因較多,除了上述的原因,還可能有工藝熔損、機(jī)件或其它部分出現(xiàn)剝落或破斷造成設(shè)備故障;(3)上述原因從設(shè)備本體質(zhì)量、維修質(zhì)量、點(diǎn)檢質(zhì)量和操作保養(yǎng)等方面來分析,這些原因又可歸納為以下四個(gè)方面:1)設(shè)備本身原因:設(shè)備本體素質(zhì)不高,設(shè)計(jì)不合理,機(jī)件強(qiáng)度不夠,形狀結(jié)構(gòu)不良,使用材料不當(dāng),零部件性能低下,集體剛性欠佳造成斷裂、疲勞和蠕變等現(xiàn)象。2)日常維護(hù)的原因:點(diǎn)檢、維護(hù)質(zhì)量不高,污垢異物混入機(jī)內(nèi),設(shè)備潤滑不良。緊固不良、絕緣接觸不良,造成機(jī)件性能低下,機(jī)件配合松動(dòng),短路、得不到及時(shí)改善和調(diào)整等現(xiàn)象。3)修理質(zhì)量的原因:維修質(zhì)量低劣,修后設(shè)備安裝不好,零配件配合不良,裝配粗糙,組裝精度不高,選擇配合不合要求,造成偏心,中心失常、振動(dòng)、平衡不佳等現(xiàn)象;4)操作及其它原因:操作水平低、操作保養(yǎng)質(zhì)量差,超負(fù)荷運(yùn)轉(zhuǎn),工藝調(diào)整不良,誤操作,拼設(shè)備、不清掃、溫濕控制差,欠保養(yǎng),風(fēng)沙、浸水、地震,造成設(shè)備運(yùn)轉(zhuǎn)失常等現(xiàn)象。設(shè)備潤滑常識(shí)一、使用潤滑油過程中油品變黑是否正常?答:油品發(fā)黑原因有三:

(一)潤滑油變質(zhì),(二)零件磨損,(三)雜質(zhì)進(jìn)入油箱,如果使用過程中無雜質(zhì)進(jìn)入油箱,則可以認(rèn)為潤滑油本身質(zhì)量有問題,應(yīng)更換油的品牌,潤滑油使用一段時(shí)間后顏色略有加深屬正常,但不應(yīng)變得很黑。二、舊設(shè)備可以用差一些的油?

答:一般情況下,設(shè)備的磨損件是經(jīng)過表面處理的,因此零件表面硬度較高,不易磨損,但零件內(nèi)部較軟,舊設(shè)備有的零件表面已有磨損,因此用較差潤滑油更會(huì)加速零件的磨損。我們建議不要用較低級(jí)的或較差的潤滑油。三、為什么其他油品不能代替齒輪油?

答:我們發(fā)現(xiàn)個(gè)別用戶有用抗磨液壓油、導(dǎo)軌油、汽輪機(jī)油(透平油)或普通機(jī)械油代替齒輪油的現(xiàn)象。這都是不正確的,因?yàn)檎麄€(gè)機(jī)器的動(dòng)力都是通過齒輪變速傳動(dòng)的,齒輪齒面上的嚙合線承受了巨大的負(fù)荷,要求

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論