




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
基于人臉識(shí)別的動(dòng)態(tài)識(shí)別簽到系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)DesignandImplementationofDynamicRecognitionCheck-inSystemBasedonFaceRecognition內(nèi)容摘要目標(biāo)檢測(cè)(ObjectDetection)是近年來(lái)計(jì)算機(jī)科學(xué)的研究重點(diǎn),他可以通過(guò)識(shí)別目標(biāo)的幾何特征,將復(fù)雜的場(chǎng)景分割并針對(duì)特定的目標(biāo)進(jìn)行識(shí)別,關(guān)鍵點(diǎn)在于準(zhǔn)確度以及實(shí)時(shí)性。人臉識(shí)別(Facerecognition)則是目標(biāo)檢測(cè)中,讓人最為看重的一個(gè)子類(lèi)。一旦我們的人臉識(shí)別技術(shù)足夠成熟,意味著我們不再需要其他物理的鑰匙或者是數(shù)碼的密鑰,而是用一張臉,就可以滿(mǎn)足日常生活中的一切。世界上可能有很多相似的人臉,但是絕對(duì)沒(méi)有完全相同的兩個(gè)人。當(dāng)人臉識(shí)別技術(shù)足夠成熟,我們完全可以將人臉識(shí)別作為身份分類(lèi)的一個(gè)重要指標(biāo)。 在深度學(xué)習(xí)的刺激下,人臉識(shí)別有了巨大突破,機(jī)器也變得會(huì)“思考”。這意味著人臉識(shí)別的安全等級(jí)將會(huì)提高,可以適用于更多安全要求更高的場(chǎng)景,同時(shí)人臉識(shí)別的研究也可以推動(dòng)更多神經(jīng)網(wǎng)絡(luò)、圖像處理等的領(lǐng)域發(fā)展。關(guān)鍵詞:□目標(biāo)檢測(cè)□人臉識(shí)別□深度學(xué)習(xí)Abstract□ObjectdetectionistheresearchfocusofComputerScienceinrecentyears.Itcanrecognizethegeometriccharacteristicsofthetarget,segmentthecomplexsceneandrecognizethespecifictarget.Thekeypointistheaccuracyandreal-time.Facerecognitionisoneofthemostimportantsubcategoriesintargetdetection.Onceourfacerecognitiontechnologyismatureenough,itmeansthatwenolongerneedotherphysicalkeysordigitalkeys,butwithaface,wecanmeeteverythinginourdailylife.Theremaybemanysimilarfacesintheworld,butthereareabsolutelynotwoidenticalpeople.Whenfacerecognitiontechnologyismatureenough,wecantakefacerecognitionasanimportantindexofidentityclassification.Underthestimulationofdeeplearning,facerecognitionhasmadeagreatbreakthrough,andmachineshavebecome"thinking".Thismeansthatthesecurityleveloffacerecognitionwillbeimproved,whichcanbeappliedtomoresceneswithhighersecurityrequirements.Atthesametime,theresearchoffacerecognitioncanalsopromotethedevelopmentofmoreneuralnetworks,imageprocessingandotherfields.Keywords:□objectdetection□facerecognition□recognitionspeed目錄第一章:緒論 第一章:緒論1.1研究背景及意義傳統(tǒng)的目標(biāo)檢測(cè)技術(shù)主要是通過(guò)幾何特征對(duì)圖像進(jìn)行切割,進(jìn)而對(duì)切割出的素材進(jìn)行幾何分析,根據(jù)特征將其分類(lèi)。但是實(shí)際使用中,各種物品雜亂無(wú)章重疊擺放,部分物品特征會(huì)被覆蓋導(dǎo)致目標(biāo)檢測(cè)準(zhǔn)確率較低,實(shí)用型并不高。而人工智能的到來(lái),為我們展示了不一樣的世界。目前,各種人工智能設(shè)備早已被大眾所接受,各種IOT設(shè)備也已經(jīng)被量產(chǎn)。物聯(lián)網(wǎng)完全可以憑借AI這桿利刃,更上一層樓。人工智能所帶來(lái)的不僅僅是全新的人機(jī)交互體驗(yàn),同時(shí)他也帶來(lái)了更多技術(shù)工種的就業(yè)機(jī)會(huì),人工智能可以跨越多行業(yè)相結(jié)合,也就意味著需要更多的人才去進(jìn)行智能訓(xùn)練,人工智能就如同當(dāng)初的自動(dòng)化革命一般為我們的社會(huì)注入新的血液。人臉識(shí)別技術(shù)早在幾十年前的科幻電影中就已經(jīng)出現(xiàn),跟著機(jī)器學(xué)習(xí)的腳步,它也走出電影來(lái)到了我們的生活中。傳統(tǒng)的物理密鑰、密碼都存在被盜取的風(fēng)險(xiǎn),而人臉不一樣,就算是雙胞胎之間也不存在一摸一樣的五官角度,因此人臉識(shí)別是我們進(jìn)行身份管理最安全的一項(xiàng)技術(shù)。當(dāng)人臉識(shí)別技術(shù)越來(lái)越普及,我們的數(shù)據(jù)集會(huì)越來(lái)越豐富,通過(guò)更多的訓(xùn)練,可以讓機(jī)器更加的智能,更好的適應(yīng)我們的生活所需。在機(jī)器學(xué)習(xí)研究前期,機(jī)器算法都比較簡(jiǎn)單。在處理較為單一的場(chǎng)景下,有很優(yōu)秀的表現(xiàn)。但當(dāng)涉及到較為復(fù)雜的數(shù)據(jù)衍變時(shí),簡(jiǎn)單的算法結(jié)構(gòu)的輸出結(jié)果準(zhǔn)確率極低。例如處理自然信號(hào)。在1980年,深度學(xué)習(xí)出現(xiàn)了。它的概念是在對(duì)\t"/item/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0/_blank"人工神經(jīng)網(wǎng)絡(luò)的過(guò)程中所提出的,它的設(shè)計(jì)出發(fā)點(diǎn)在于建立一個(gè)機(jī)器人腦,通過(guò)模擬人體大腦的工作過(guò)程,來(lái)研發(fā)出一整套神經(jīng)網(wǎng)絡(luò)來(lái)處理和解析獲取的復(fù)雜數(shù)據(jù),例如影、視、音等。深度學(xué)習(xí)是通過(guò)對(duì)輸入信號(hào)分解并組合低層次的特征,然后用來(lái)表示目標(biāo)的特征或者是類(lèi)別,并將特征輸出。由于各種外界因素的影響,人臉識(shí)別的準(zhǔn)度和精度還是不能滿(mǎn)足所有場(chǎng)景的需求。人臉識(shí)別在二維上的發(fā)展可能比較完善,但是我們還可以通過(guò)三維圖像綜合識(shí)別,也可以通過(guò)引入時(shí)間概念,通過(guò)對(duì)不同時(shí)間段的識(shí)別來(lái)確定識(shí)別對(duì)象的身份。因此,人臉識(shí)別的道路,還有很長(zhǎng)。1.2如何實(shí)現(xiàn)人臉識(shí)別1.2.1基于幾何特征的人臉識(shí)別幾何特征主要為五官的模型差距以及五官之間的距離以及幾何關(guān)系。該算法在理論上容易理解,識(shí)別的速度快,原理簡(jiǎn)單,所占用的內(nèi)存相對(duì)較少,遺憾的是識(shí)別率較低,不夠準(zhǔn)確。1.2.2基于特征臉(PCA)的人臉識(shí)別方法 特征臉?lè)椒ㄊ腔贙-LT所提出的人臉識(shí)別方法,K-LT全稱(chēng)是Karhunen-Loèvetranslation,他是一個(gè)最優(yōu)正交變換,此前用于壓縮圖像文件。通過(guò)對(duì)N維圖像進(jìn)行K-LT變換,獲取到一組低次分量。在其中選取重要的分量,然后擴(kuò)張為線性空間并進(jìn)行投影,所投影出來(lái)空間的即為我們判定是否為相同人臉的一個(gè)特征量。特征臉?lè)椒ǖ娜秉c(diǎn)在于它需要大量的訓(xùn)練樣本,才能保證識(shí)別精度的一個(gè)準(zhǔn)確性,并且完全是通過(guò)圖像灰度對(duì)特征進(jìn)行統(tǒng)計(jì)的。特征臉?lè)椒ㄒ灿性S多不同的版本,適應(yīng)在不同要求的場(chǎng)景下,但大體上原理都是一致的。1.2.3神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法神經(jīng)網(wǎng)絡(luò)的特點(diǎn)在于輸入變量類(lèi)型更多,他會(huì)根據(jù)輸入值的不同,通過(guò)不同的智能算法進(jìn)行分析,不同于傳統(tǒng)的識(shí)別方法一般都需要完整的人臉,但是神經(jīng)網(wǎng)絡(luò)可以通過(guò)部分人臉進(jìn)行分析,并得出結(jié)論。當(dāng)然,結(jié)論可能無(wú)法直接利用,卻可以篩選掉一些不符合的人,從而減少我們投入的人工。同時(shí),缺點(diǎn)也十分明顯,需要較多的訓(xùn)練樣本來(lái)對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行適應(yīng)性學(xué)習(xí),訓(xùn)練樣本的數(shù)量跟識(shí)別的精準(zhǔn)度是成正比的。1.2.4彈性圖匹配的人臉識(shí)別方法彈性圖匹配的思路是從生物學(xué)的角度出發(fā),定義基本臉型,通過(guò)二維拓?fù)浔憩F(xiàn)出來(lái)。同時(shí),該拓?fù)渖蠄D像所有頂點(diǎn)都作為該臉圖的特征量,可以用來(lái)表示該點(diǎn)周?chē)木€性關(guān)系。其中彈性二字的意思是,允許圖像對(duì)比時(shí)具有一定的彈性變法,這樣可以克服微表情變化所帶來(lái)的識(shí)別障礙。通過(guò)幾何因素與灰度化特征相結(jié)合,彈性圖匹配被廣泛應(yīng)用在流式處理的在線識(shí)別產(chǎn)品上。更重要的是,它并不需要大量的訓(xùn)練樣品進(jìn)行適應(yīng)性訓(xùn)練。1.2.5LHD的人臉識(shí)別方法LHD是一群心理學(xué)家所提出的識(shí)別方法,他們認(rèn)為人類(lèi)對(duì)于輪廓線條的識(shí)別精準(zhǔn)度以及速度上并不差,因此他們提出了LHD。它從灰度化的人臉圖中,提取其中的輪廓線,用LDH來(lái)表示不同線條之間的距離關(guān)系。更重要的是,LDH沒(méi)有建議兩個(gè)線段之間的唯一對(duì)應(yīng)關(guān)系,因此它可以從多個(gè)方面驗(yàn)證單一線段是否發(fā)生了某種可容忍的變化,用來(lái)表示對(duì)不同人臉之間的相似程度。從結(jié)果來(lái)看,LHD繞過(guò)了光照條件以及姿態(tài)變化,因此在這方面他顯示了較良好的識(shí)別性能,但是由于輪廓無(wú)法體現(xiàn)人臉表情,因此它在表情處理方面識(shí)別效果并不如人所意。1.2.6SVM的人臉識(shí)別方法SVM中文名是支持向量機(jī),在近幾年,他也進(jìn)入了智能識(shí)別領(lǐng)域的研究者眼中。通過(guò)支持向量機(jī),用學(xué)習(xí)機(jī)的泛化能力換取更高的計(jì)算性能。SVM在識(shí)別過(guò)程中可以幫助我們將識(shí)別人臉?lè)纸鉃槎鄠€(gè)特征變量,進(jìn)而根據(jù)特征變量來(lái)對(duì)人臉特征進(jìn)行比對(duì)得出人臉識(shí)別的結(jié)果。通過(guò)SVM可以提高人臉識(shí)別的識(shí)別率,但同大多數(shù)識(shí)別方法一樣,SVM需要大量的訓(xùn)練樣本,而在實(shí)際應(yīng)用中訓(xùn)練樣本數(shù)量往往不足。并且SVM的訓(xùn)練過(guò)程耗時(shí)長(zhǎng),算法種類(lèi)也有各有千秋,因此該方法并沒(méi)有一個(gè)統(tǒng)一的定論。1.3本文的主要工作本文從目標(biāo)檢測(cè)出發(fā),針對(duì)人臉識(shí)別進(jìn)行研究,講述了人臉識(shí)別的研究意義以及發(fā)展方向。著重介紹了深度學(xué)習(xí)對(duì)于人臉識(shí)別研究的巨大幫助,深度學(xué)習(xí)讓人臉識(shí)別能夠更加智能的識(shí)別,增加識(shí)別的速度以及精度。人臉識(shí)別目前已經(jīng)廣泛應(yīng)用在企業(yè)打卡簽到以及部分智能家居產(chǎn)品上了,但部分特殊的場(chǎng)景還是沒(méi)有采用人臉識(shí)別,而是利用更精密的識(shí)別手段諸如瞳孔或者物理密鑰這種形式。這主要是由于人臉識(shí)別的缺點(diǎn)比較顯而易見(jiàn),它存在被欺騙的可能性。同時(shí),針對(duì)臉部豐富的表情變化以及外界環(huán)境光照等不可預(yù)見(jiàn)的因素,人臉識(shí)別可能會(huì)受到影響、或許是識(shí)別速度過(guò)慢或者是無(wú)法正常識(shí)別等問(wèn)題。 本文簡(jiǎn)單地實(shí)現(xiàn)了一個(gè)動(dòng)態(tài)人臉識(shí)別的簽到系統(tǒng),識(shí)別流程大抵是先對(duì)素材庫(kù)中的人臉預(yù)處理,以包含人臉特征的二維數(shù)組這種形式緩存下來(lái),在打開(kāi)攝像頭進(jìn)行識(shí)別的時(shí)候提取關(guān)鍵幀的人臉并處理為測(cè)試數(shù)據(jù),將其與緩存中的素材集進(jìn)行對(duì)比,根據(jù)相對(duì)應(yīng)的閾值找到素材庫(kù)中對(duì)應(yīng)的人名,保存在簽到名單中。當(dāng)攝像頭關(guān)閉時(shí)將簽到名單保存為T(mén)XT在項(xiàng)目根目錄中。對(duì)于預(yù)處理素材庫(kù)中的素材這一步,被處理過(guò)的素材會(huì)緩存在內(nèi)存中,因此當(dāng)素材過(guò)多時(shí)對(duì)內(nèi)存資源要求較高。本文一共分為四個(gè)章節(jié):第一章:緒論,針對(duì)人臉識(shí)別與深度學(xué)習(xí)的結(jié)合,人臉識(shí)別煥發(fā)了活力,介紹了人臉識(shí)別的多種方式及其效率以及人臉識(shí)別對(duì)科技生活的巨大幫助。第二章:擁有深度學(xué)習(xí)新特性的人臉識(shí)別與傳統(tǒng)的人臉識(shí)別相比的優(yōu)勢(shì)所在。第三章:通過(guò)face_recognition實(shí)現(xiàn)了一個(gè)動(dòng)態(tài)的人臉識(shí)別簽到系統(tǒng),擁有在線添加素材、實(shí)時(shí)人臉識(shí)別、導(dǎo)出簽到人員表等功能。第四章:如何突破現(xiàn)在人臉識(shí)別效率與準(zhǔn)確率無(wú)法并取的現(xiàn)狀。第五章:結(jié)論與展望。第二章:人臉識(shí)別的新特性-深度學(xué)習(xí)2.1深度學(xué)習(xí)我們將深度學(xué)習(xí)分為“深度”“學(xué)習(xí)”兩個(gè)過(guò)程來(lái)理解:學(xué)習(xí)的詞義解釋是指通過(guò)閱讀、聽(tīng)講、思考、研究、實(shí)踐等途徑獲得知識(shí)或技能的過(guò)程。在深度學(xué)習(xí)中,其實(shí)也差不多,只是我們的輸入值不再是通過(guò)聽(tīng)講、思考等動(dòng)作,而是換成了機(jī)器能夠讀取的一個(gè)個(gè)數(shù)據(jù)集。而深度的意思是,從輸入值到輸出值這個(gè)過(guò)程中,所要經(jīng)歷的各個(gè)計(jì)算過(guò)程,它們各自聯(lián)系,由淺入深,最終輸出我們想要的數(shù)據(jù)。而這個(gè)計(jì)算過(guò)程,有好有壞,有的效率高輸出值缺不準(zhǔn)確;有的效率低,輸出值卻準(zhǔn)確。因此,我們可以形象的稱(chēng)這個(gè)過(guò)程為“學(xué)習(xí)策略”,好的學(xué)習(xí)策略雖然需要花費(fèi)大量時(shí)間去規(guī)劃,但是他的結(jié)果是足夠準(zhǔn)確的;不好的學(xué)習(xí)策略會(huì)導(dǎo)致錯(cuò)誤,會(huì)讓學(xué)習(xí)過(guò)程走更多的彎路。學(xué)術(shù)界嘗試模擬人腦,完成一套計(jì)算機(jī)能夠理解的學(xué)習(xí)策略,他被稱(chēng)之為“神經(jīng)網(wǎng)絡(luò)”。在人的大腦皮層中,是由一個(gè)一個(gè)神經(jīng)元所組成的一個(gè)大的神經(jīng)網(wǎng),所以神經(jīng)網(wǎng)絡(luò)也是模仿這個(gè)概念去設(shè)計(jì)。如圖中的輸入值,x1、x2、x3,在經(jīng)過(guò)包括輸入層的四層結(jié)構(gòu)之后,輸出了我們所期望看到的結(jié)果,這就是一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。其中L1跟l4分別是輸入層和輸出層,l2、l3則是隱藏的處理層,越是復(fù)雜的運(yùn)算,所需要的處理層就越多,同時(shí)每個(gè)處理層所包含的參數(shù)也就越多,因此也就導(dǎo)致整個(gè)神經(jīng)網(wǎng)絡(luò)的規(guī)模呈現(xiàn)一個(gè)非線性的擴(kuò)大。總結(jié)一下,深度學(xué)習(xí)就是是通過(guò)多層次的計(jì)算以及分析,通過(guò)由淺入深,獲取所需要的輸出值的過(guò)程。而神經(jīng)網(wǎng)絡(luò),則是我們通過(guò)分析整個(gè)運(yùn)算,所規(guī)劃的由各種參數(shù)與處理層所組成的一個(gè)大型的計(jì)算網(wǎng)絡(luò),我們可以通過(guò)這個(gè)計(jì)算網(wǎng)絡(luò)實(shí)現(xiàn)輸入值到輸出值的一個(gè)轉(zhuǎn)變。2.2深度學(xué)習(xí)與人臉識(shí)別的二次結(jié)合傳統(tǒng)的人臉識(shí)別模型一般為圖2-2,通過(guò)對(duì)比提取到的cnn特征作為判斷的依據(jù),而當(dāng)深度學(xué)習(xí)與人臉識(shí)別二次結(jié)合,人臉識(shí)別走出了另一條全新的道路。深度學(xué)習(xí)可以在通過(guò)多次訓(xùn)練后,訓(xùn)練出一種類(lèi)人腦的一種思維方式,只要樣本數(shù)足夠多的,理論上可以像大腦一般準(zhǔn)確分析思考。他會(huì)根據(jù)多個(gè)數(shù)據(jù)集的結(jié)果,微調(diào)每個(gè)數(shù)據(jù)對(duì)于最后結(jié)果的判定占比。如圖2-2-2,圖像之間的數(shù)值就是歐式空間中的距離,該數(shù)據(jù)越低,證明兩張照片為同個(gè)人的可能性越高,訓(xùn)練的樣本數(shù)越高,照片之間的距離參數(shù)也會(huì)改變,趨近于真相。圖2-2-1圖2-2-22.2.1VGG模型最初VGG并不是用作為圖像分類(lèi)識(shí)別訓(xùn)練的神經(jīng)網(wǎng)絡(luò),它是由牛津大學(xué)科學(xué)工程系發(fā)布,用來(lái)探究圖像分類(lèi)過(guò)程中網(wǎng)絡(luò)深度是如何影響識(shí)別的準(zhǔn)確率以及精度的。最初的VGG-16(VGG-Very-Deep-16CNN),從全稱(chēng)中我們也可以看出發(fā)布者對(duì)于VGG-16的研究深度標(biāo)準(zhǔn)之高,VGG不同于傳統(tǒng)的卷積網(wǎng)絡(luò)模型,他的卷積層與池化層并不是一一對(duì)應(yīng)的關(guān)系,規(guī)定整個(gè)模型中有5個(gè)池化層,他們分別與一部分卷積層相關(guān)聯(lián),可以從圖2-2-3中看到池化層的分配關(guān)系。VGG按卷積層的數(shù)量劃分命名,最少的由3個(gè)全連接層+8個(gè)卷積層組成,命名為VGG11;最多則由3個(gè)全連接層+16個(gè)卷積層組成,命名為VGG19。圖2-2-3當(dāng)然,作為一個(gè)曾在ImageNet上大放光彩的模型,它并沒(méi)有那么簡(jiǎn)單。它的結(jié)構(gòu)設(shè)計(jì)也并不是一成不變,我們完全可以用全卷積網(wǎng)絡(luò)的概念對(duì)他進(jìn)行改造,將首個(gè)全連接層改為7x7其余的全連接層改為1x1。在VGG之前,沒(méi)有其他的神經(jīng)網(wǎng)絡(luò)模型能夠做到在突破10層的情況下,保證效果良好,不受影響。VGG雖然突破了網(wǎng)絡(luò)深度,卻沒(méi)有徹底解決網(wǎng)絡(luò)深度所帶來(lái)的一系列問(wèn)題。當(dāng)網(wǎng)絡(luò)層數(shù)過(guò)多以后,同樣會(huì)出現(xiàn)梯度性能下降等問(wèn)題??偟膩?lái)說(shuō)VGG在剛提出的時(shí)候也是受到推崇,但是隨著時(shí)間的流逝,越來(lái)越多的更加優(yōu)秀的訓(xùn)練模型被提出,VGG也就不那么耀眼了。2.2.2優(yōu)圖祖母模型祖母模型提出之初,就已經(jīng)決定了要成為一個(gè)百寶箱,它并不特別指代一種深層的神經(jīng)網(wǎng)絡(luò)模型,它是一個(gè)具有相同結(jié)構(gòu)特征的神經(jīng)網(wǎng)絡(luò)模型的集合。在不同的應(yīng)用場(chǎng)景下,優(yōu)圖祖母模型可以提供不同的神經(jīng)網(wǎng)絡(luò)模型,完成所需要實(shí)現(xiàn)的效果。因此,也有人叫它優(yōu)圖祖母模型族。目前,最流行的深層神經(jīng)網(wǎng)絡(luò)模型(圖2-2-4)從結(jié)構(gòu)上劃分一共有三種:1.單支型(如AlexNet,VGGNet);2.雙分支型(如ResNet);3.多分支型(如GoogleNet)。直線型結(jié)構(gòu)設(shè)計(jì)最為簡(jiǎn)單,但當(dāng)網(wǎng)絡(luò)深度過(guò)深會(huì)出現(xiàn)性能爆炸或性能消退等問(wèn)題,同時(shí)由于結(jié)構(gòu)單一,他也缺乏改造性。局部多分支型具有較強(qiáng)的計(jì)算能力和較高的計(jì)算效率,但其設(shè)計(jì)也最為復(fù)雜,設(shè)計(jì)所耗費(fèi)的人力物力較多。結(jié)合以上兩點(diǎn),祖優(yōu)圖最終采用雙分支型這種折中的架構(gòu)來(lái)構(gòu)建祖母模型族。雙分支型本身具有很強(qiáng)的學(xué)習(xí)能力,也有許多采用該結(jié)構(gòu)的訓(xùn)練集在比賽中獲獎(jiǎng);其次他的結(jié)構(gòu)設(shè)計(jì)較為簡(jiǎn)單,前期人力消耗可控,最大的特點(diǎn)之一就是識(shí)別能力與神經(jīng)網(wǎng)絡(luò)的深度是一個(gè)正相關(guān)的一個(gè)關(guān)系,這意味著我們?cè)卺槍?duì)不同的應(yīng)用場(chǎng)景的多個(gè)模型進(jìn)行識(shí)別訓(xùn)練的時(shí)候,完全可以通過(guò)控制網(wǎng)絡(luò)深度來(lái)應(yīng)對(duì)不同的需求。為了滿(mǎn)足用戶(hù)的識(shí)別需求,一般會(huì)要求獲取用戶(hù)最大的數(shù)據(jù)集進(jìn)行訓(xùn)練,以保證神經(jīng)網(wǎng)絡(luò)模型的可用性。圖2-2-4祖母模型在近期也在識(shí)別流程上進(jìn)行了一次較大的變動(dòng):流程的變更主要是由于遷移學(xué)習(xí)的提出,遷移學(xué)習(xí)是人工智能領(lǐng)域所提出,用來(lái)解決不同的處理場(chǎng)景下訓(xùn)練時(shí)長(zhǎng)過(guò)長(zhǎng)的問(wèn)題,而神經(jīng)網(wǎng)絡(luò)模型完全可以通過(guò)遷移學(xué)習(xí),減少訓(xùn)練所花費(fèi)的時(shí)間。簡(jiǎn)單點(diǎn)來(lái)講,就是將整個(gè)訓(xùn)練過(guò)程分為:1、預(yù)訓(xùn)練(pre-train);2、精細(xì)化調(diào)整(fine-tune)。針對(duì)人臉識(shí)別場(chǎng)景,咱們只要將已被訓(xùn)練完成的優(yōu)圖祖母模型針對(duì)新場(chǎng)景上的新數(shù)據(jù)進(jìn)行精細(xì)化調(diào)整,就滿(mǎn)足新場(chǎng)景的一個(gè)識(shí)別需求。2.3本章總結(jié)本章介紹了VGG以及優(yōu)圖祖母模型兩種人臉識(shí)別模型,VGG和優(yōu)圖祖母模型。VGG是由牛津大學(xué)科學(xué)工程系發(fā)布,用來(lái)探究圖像分類(lèi)過(guò)程中網(wǎng)絡(luò)深度是如何影響識(shí)別的準(zhǔn)確率以及精度的。在研究過(guò)程中,人們用其進(jìn)行識(shí)別訓(xùn)練,憑借著VGG結(jié)構(gòu)清晰簡(jiǎn)潔的優(yōu)點(diǎn),取得了不錯(cuò)的成效。同時(shí),通過(guò)使用多個(gè)小型濾波器代替正常的濾波器,獲得了更好的性能,這也就印證了:通過(guò)不斷加深網(wǎng)絡(luò)結(jié)構(gòu)可以提升性能。但是VGG對(duì)計(jì)算資源的要求是非常高的,由于使用了大量的參數(shù),它比其他的深度學(xué)習(xí)模型需要占用更多內(nèi)存。其中,大部分參數(shù)來(lái)自全連接層。但是,根據(jù)部分實(shí)驗(yàn)結(jié)果的效果看來(lái),就算去除掉所有的全連接層,他的性能也沒(méi)有太大的影響,這樣就顯著的降低了參數(shù)的數(shù)量。優(yōu)圖提出的祖母模型在我看來(lái),是未來(lái)深度學(xué)習(xí)的一個(gè)主流。優(yōu)圖祖母模型的核心,就是通過(guò)大量的,各式各樣的樣本,來(lái)訓(xùn)練出一個(gè)龐大的數(shù)據(jù)集集合。該集合可以用于多處使用(如人臉識(shí)別、目標(biāo)檢測(cè)、動(dòng)態(tài)跟蹤、自動(dòng)駕駛等),并且近年遷移學(xué)習(xí)提出讓祖母模型族成型的可能性大大提升,進(jìn)行基礎(chǔ)模型的預(yù)訓(xùn)練,在特定任務(wù)上對(duì)模型進(jìn)行精細(xì)化調(diào)整。這樣一來(lái),大大優(yōu)化了祖母模型對(duì)于特定場(chǎng)景訓(xùn)練的流程,減少訓(xùn)練時(shí)長(zhǎng),可以完成更多的訓(xùn)練。目前,優(yōu)圖祖母模型也已經(jīng)投入應(yīng)用中,并且取得了不錯(cuò)的成果,我們可以在騰訊云的AI人臉識(shí)別產(chǎn)品中對(duì)第三代優(yōu)圖祖母模型進(jìn)行測(cè)試。:動(dòng)態(tài)人臉識(shí)別簽到系統(tǒng)實(shí)現(xiàn)3.1實(shí)現(xiàn)思路首先,一個(gè)可以上線的簽到系統(tǒng)最少要有以下三個(gè)功能:1、人像素材上傳2、通過(guò)攝像頭設(shè)備對(duì)比素材庫(kù)進(jìn)行識(shí)別3、保存簽到成功的人像名單其中1、3我通過(guò)Python的一些自帶庫(kù)實(shí)現(xiàn)了,核心的識(shí)別功能我選擇了github上的一個(gè)開(kāi)源項(xiàng)目FaceRecognition,通過(guò)對(duì)其進(jìn)行二次開(kāi)發(fā)實(shí)現(xiàn)了動(dòng)態(tài)人臉識(shí)別簽到系統(tǒng)實(shí)現(xiàn)。3.2算法實(shí)現(xiàn)3.2.1環(huán)境依賴(lài) 根據(jù)FaceRecognition的開(kāi)發(fā)文檔,該項(xiàng)目的運(yùn)行環(huán)境支持linux/樹(shù)莓派,但是我的設(shè)備系統(tǒng)環(huán)境為win10,通過(guò)查找資料后,我找到了一個(gè)可以在win10上運(yùn)行的安裝方式:1、安裝Anaconda2、通過(guò)Anaconda安裝CMake3、安裝dilb4、成功安裝facerecognition3.2.2實(shí)現(xiàn)普通的人臉識(shí)別 想實(shí)現(xiàn)人臉識(shí)別,首先要解決的就是如何找到畫(huà)面上的所有人臉。在人臉識(shí)別的初期,這個(gè)問(wèn)題是第一個(gè)被提出的,一時(shí)間有出現(xiàn)了許多識(shí)別的算法。 根據(jù)不同的知識(shí)體系出發(fā),大抵上可以分為人工智能、神經(jīng)網(wǎng)絡(luò)、圖像處理、模式識(shí)別等多種識(shí)別方法,雖然出發(fā)點(diǎn)并不一致,但最終都是采用了特征臉?lè)椒▉?lái)實(shí)現(xiàn)人臉識(shí)別。 特征臉?lè)椒ɡ梅治龇ǎ瑢⑷四槇D像分解并提取特征樣本。它實(shí)際上就相當(dāng)于將人臉化為一組組向量,然后將提取的特征樣本與參考庫(kù)中所提取的特征樣本進(jìn)行比對(duì),根據(jù)匹配的特征樣本數(shù)取最高來(lái)找到識(shí)別度最高的人臉。由于特征樣本在返回時(shí),還具有人臉的一定特征,因此我們也叫特征樣本為“特征臉”。圖3-2-1 從圖3-2-1中我們可以看到,我們可以將一副人臉圖像分解成一組權(quán)值向量,然后利用向量為單位找到距離最小對(duì)應(yīng)的人臉圖像的身份作為測(cè)試人臉圖像的身份。這如同派出所使用的素描畫(huà)嫌疑人畫(huà)像的過(guò)程,以一個(gè)基礎(chǔ)臉型為出發(fā)點(diǎn),然后畫(huà)出不同的眼睛、嘴巴等五官給目擊者確認(rèn),逐漸拼湊出一張疑似嫌疑人的一張圖像。電腦實(shí)現(xiàn)的過(guò)程大抵是一致的,只是他的五官是以特征樣本的抽象形式體現(xiàn)的。 而在faceRecognition中,通過(guò)load_image_file()函數(shù),可以把實(shí)現(xiàn)圖片導(dǎo)入,而后只需要把導(dǎo)入的圖片數(shù)據(jù)傳入face_locations()識(shí)別圖片中的人臉的位置,該函數(shù)的返回值為一個(gè)列表,其包含多個(gè)元組,代表著人臉的位置信息。接下來(lái),我將展示演示所用到的圖片素材:素材3.2.1實(shí)現(xiàn)的代碼如下:importface_recognition
image=face_recognition.load_image_file("素材3.2.1.jpg")
face_locations=face_recognition.face_locations(image)
print(face_locations)讓我們來(lái)看下執(zhí)行的結(jié)果: 我們可以觀察到,執(zhí)行結(jié)果返回了六個(gè)元組,每個(gè)元組中的數(shù)據(jù)代表的正是每張臉的位置信息,四個(gè)像素級(jí)的位置點(diǎn)把人臉圈起來(lái)了。這樣一樣,我們也就成功的找到了所有的人臉。 接下來(lái)的問(wèn)題,就在于如何進(jìn)行人臉比對(duì)。而人臉識(shí)別的實(shí)現(xiàn)則是依賴(lài)“彈性圖匹配”這種方法。彈性圖匹配的思路是忽略人與人之間五官特征的角度和長(zhǎng)度,更多的將關(guān)注點(diǎn)放在圖像變換后的不變性,所以它還有另一個(gè)名字“橡皮泥幾何學(xué)”。它以一個(gè)人臉拓?fù)涓爬ㄋ械娜四?,根?jù)這個(gè)拓?fù)浣Y(jié)構(gòu)劃分基準(zhǔn)點(diǎn)。圖3-2-2 每次進(jìn)行識(shí)別,我們需要對(duì)識(shí)別圖像人臉進(jìn)行拓?fù)浣?,獲取特征向量。同時(shí),讀取素材庫(kù)中已有的人臉?biāo)鶎?duì)應(yīng)的特征向量進(jìn)行比對(duì),找到相似程度最高的一張圖。然后以此圖建立拓?fù)?,進(jìn)行更多特征向量的比對(duì),進(jìn)而找到測(cè)試人臉的身份。 在faceRecognition中,只需要將需要對(duì)比的兩張照片所對(duì)應(yīng)的編碼作為參數(shù)傳入face_pare_faces(),該函數(shù)會(huì)返回值的類(lèi)型為boolean,該值為T(mén)RUE則證明大概率為同個(gè)人,為FALSE則大概率不是同一個(gè)人。該函數(shù)的判定闕值可以在傳入編碼時(shí)使用tolerance關(guān)鍵字加上闕值限制作為第三個(gè)參數(shù)進(jìn)行修改,目前合理的闕值大概為0.73左右,可以盡可能的做出準(zhǔn)確的判斷。接下來(lái),我展示下演示所用的素材:實(shí)現(xiàn)的代碼如下:importface_recognition
known_image=face_recognition.load_image_file("素材3.2.2.jpg")known_image=face_recognition.load_image_file("unknown.jpg")
unknown2_image=face_recognition.load_image_file("unknown2.jpg")
lhf_encoding=face_recognition.face_encodings(known_image)[0]
unknown_encoding=face_recognition.face_encodings(unknown_image)[0]
unknown2_encoding=face_recognition.face_encodings(unknown2_image)[0]
results=face_pare_faces([lhf_encoding],unknown_encoding)
results2=face_pare_faces([lhf_encoding],unknown2_encoding)
print(results)
print(results2)執(zhí)行的結(jié)果如下:我們可以看到,第一次對(duì)比的結(jié)果集為T(mén)RUE素材的選取一張為我高二時(shí)的相片、一張為我大三時(shí)的照片,經(jīng)過(guò)五年時(shí)間的成長(zhǎng),依舊可以識(shí)別成功;而第二次對(duì)比的結(jié)果集為FALSE,素材的選取為明星吳彥祖,對(duì)比的結(jié)果也是正確的。 至此,已經(jīng)成功實(shí)現(xiàn)了靜態(tài)的人臉檢測(cè)、識(shí)別的功能。3.3完善動(dòng)態(tài)人臉識(shí)別簽到系統(tǒng)3.3.1從視頻流中取幀進(jìn)行識(shí)別 在這個(gè)方面,我選用了opencv處理視頻流流,之后通過(guò)獲取視頻流的每一幀通過(guò)3.2中的人臉識(shí)別相關(guān)代碼進(jìn)行識(shí)別,在原幀中圈出檢測(cè)到的人臉并且在框中標(biāo)出識(shí)別的結(jié)果,具體實(shí)現(xiàn)的代碼如下:defaction():
video_capture=cv2.VideoCapture(0)
#引用素材庫(kù)生成流
addpeople.Reading()
addpeople.change()#測(cè)試根據(jù)list生成流
known_face_encodings=addpeople.known_face_encodings#賦值
known_face_names=addpeople.known_face_names#賦值
#Initializesomevariables
face_locations=[]
face_encodings=[]
face_names=[]
process_this_frame=True
s=set()
arrivename=[]
whileTrue:
#Grabasingleframeofvideo
ret,frame=video_capture.read()
#Resizeframeofvideoto1/4sizeforfasterfacerecognitionprocessing
small_frame=cv2.resize(frame,(0,0),fx=0.25,fy=0.25)
#ConverttheimagefromBGRcolor(whichOpenCVuses)toRGBcolor(whichface_recognitionuses)
rgb_small_frame=small_frame[:,:,::-1]
#Onlyprocesseveryotherframeofvideotosavetime
ifprocess_this_frame:
#Findallthefacesandfaceencodingsinthecurrentframeofvideo
face_locations=face_recognition.face_locations(rgb_small_frame)
face_encodings=face_recognition.face_encodings(rgb_small_frame,face_locations)
face_names=[]
forface_encodinginface_encodings:
#闕值設(shè)置在這里
matches=face_pare_faces(known_face_encodings,face_encoding,tolerance=0.75)
name="Unknown"
ifTrueinmatches:
first_match_index=matches.index(True)
name=known_face_names[first_match_index]
face_names.append(name)
process_this_frame=notprocess_this_frame
#Displaytheresults
for(top,right,bottom,left),nameinzip(face_locations,face_names):
#Scalebackupfacelocationssincetheframewedetectedinwasscaledto1/4size
top*=4
right*=4
bottom*=4
left*=4
#Listidentifiedq
ifname!="Unknown":
s.add(name)
arrivename.append(name)
else:
pass
#Drawaboxaroundtheface
cv2.rectangle(frame,(left,top),(right,bottom),(0,0,255),2)
#Drawalabelwithanamebelowtheface
cv2.rectangle(frame,(left,bottom-35),(right,bottom),(0,0,255),cv2.FILLED)
font=cv2.FONT_HERSHEY_DUPLEX
cv2.putText(frame,name,(left+6,bottom-6),font,1.0,(255,255,255),1)
#Displaytheresultingimage
cv2.imshow('Video',frame)
#按Q推出ifcv2.waitKey(1)&0xFF==ord('q'):
print(s)
savelist.save(arrivename)
break
#Releasehandletothewebcam
video_capture.release()
cv2.destroyAllWindows()實(shí)現(xiàn)的效果如下:其中l(wèi)hf為我上傳的圖片名,通過(guò)掃描素材庫(kù)文件名獲取。3.3.2實(shí)現(xiàn)上傳素材、導(dǎo)出簽到表通過(guò)selectPath讀取素材的路徑之后通過(guò)提交按鈕對(duì)原素材進(jìn)行素材提交,相關(guān)代碼如下:defsubmit():
str=path.get()
addr2=str.replace('/',r'\\')
print(addr2)
f=open(addr2,'rb')
f_str=base64.b64encode(f.read())
f.close()
str=f_str
file_str=open('Materialbank\\%s.jpg'%TEXT.get(),'wb')
file_str.write(base64.b64decode(str))
file_str.close()將識(shí)別的列表進(jìn)行去重之后保存在TXT文件中,實(shí)現(xiàn)了簽到表的導(dǎo)出,相關(guān)代碼如下:defsave(arrivename):
arrivename2=list(set(arrivename))
data=open("text.txt",'w+')
print(arrivename2,file=data)
data.close()3.3.3使用演示 運(yùn)行項(xiàng)目,我們可以看到使用的UI界面(圖3-3-1),填寫(xiě)完上傳的資料后,可以通過(guò)路徑選擇按鈕對(duì)想要上傳的原圖像進(jìn)行上傳(圖3-3-2),上傳的新文件的名字為資料的名字,后綴為JPG格式,完成素材上傳后,點(diǎn)擊打開(kāi)攝像頭后即可開(kāi)始簽到過(guò)程,需在攝像頭前等待1~2s后在人像臉上標(biāo)注出名字后(圖3-3-3),完成簽到。等到所有成員完成簽到后,按“Q”退出攝像頭界面后,系統(tǒng)會(huì)將成功簽到的人員列表存放在根目錄中,名字為text.txt(圖3-3-4),至此整個(gè)程序的演示結(jié)束。圖3-3-1圖3-3-2圖3-3-3圖3-3-43.4本章小結(jié)本章主要展示了我在開(kāi)發(fā)過(guò)程中的思路以及所利用的一些demo測(cè)試,并最終實(shí)現(xiàn)了一個(gè)簡(jiǎn)單的人臉識(shí)別項(xiàng)目。程序是利用python進(jìn)行開(kāi)發(fā),使用了facerecognition項(xiàng)目。從最初的環(huán)境搭建到整個(gè)開(kāi)發(fā)過(guò)程中,所遇到的一些問(wèn)題以及解決方案都在本章中有體現(xiàn)。在視屏處理方面,我使用的是opencv,利用截取關(guān)鍵幀來(lái)實(shí)現(xiàn)從視屏流到人臉截圖這種形式的轉(zhuǎn)變,最終利用人臉圖進(jìn)行識(shí)別并返回結(jié)果,標(biāo)出人臉身份。整個(gè)流程思路好還是比較清晰的,最終實(shí)現(xiàn)的效果比較簡(jiǎn)陋,但基礎(chǔ)的功能也還可以。由于素材庫(kù)緩存的原因,該程序?qū)?nèi)存資源有一定的要求,因此如果有復(fù)現(xiàn)的需求,需要保證內(nèi)存在8G,并且素材庫(kù)素材不可過(guò)多;如果有大型應(yīng)用場(chǎng)景,建議采用分布式的架構(gòu),將素材分布于不同的節(jié)點(diǎn)上,這樣既能保證性能又能滿(mǎn)足使用的需求。目前,市面上的大型IT企業(yè)都有自己的人臉識(shí)別產(chǎn)品,并且已經(jīng)投入使用了。我的程序無(wú)法與他們相提并論,但是對(duì)于初學(xué)者來(lái)說(shuō),可以經(jīng)由這個(gè)項(xiàng)目入手,對(duì)于理解人臉識(shí)別或者是深入學(xué)習(xí)更多的物品識(shí)別等會(huì)有一定的好處。開(kāi)發(fā)所利用的Demo以及項(xiàng)目使用的代碼在本章中都有展示,UI界面較簡(jiǎn)陋,可以自行改進(jìn)。第四章:總結(jié)與展望4.1論文總結(jié)人臉識(shí)別技術(shù)是一種生物識(shí)別技術(shù),自二十多年前的科幻劇中就有了它的出現(xiàn),相對(duì)于其他生物識(shí)別技術(shù),他的效果更直觀、使用更簡(jiǎn)便,并且相對(duì)于物理密鑰或者是電子密鑰來(lái)說(shuō),他不具備有被盜竊的可能性。但人臉識(shí)別技術(shù)在提出之初也被種種問(wèn)題所環(huán)繞:1、相似的人臉是否會(huì)解鎖;2、拿著圖片解鎖;3、會(huì)不會(huì)因?yàn)榛瘖y或者年齡變大而無(wú)法解鎖等。這些問(wèn)題截至目前,也基本上已經(jīng)解決了。因此,現(xiàn)階段的研究方向更多的是從兩方面出發(fā):1、提高識(shí)別的精準(zhǔn)度;2、在復(fù)雜環(huán)境下保證識(shí)別可行性。目前的檢測(cè)方法有許多,但是整體的安全等級(jí)還是不足以滿(mǎn)足特定場(chǎng)景的需求,因此我們需要將更多的識(shí)別因素加入到人臉識(shí)別中,如:時(shí)間,空間等。更多的因素的加入會(huì)導(dǎo)致資源占用更高,但是隨著云計(jì)算的發(fā)展,計(jì)算資源并不是一個(gè)難以解決的問(wèn)題,通過(guò)深度學(xué)習(xí)模型來(lái)訓(xùn)練一套安全系數(shù)更高的人臉識(shí)別體系。我們的人臉識(shí)別系統(tǒng)會(huì)越來(lái)越智能,我們可以通過(guò)人臉識(shí)別完成更多的身份管理,在未來(lái)的世界中,我們不再需要一個(gè)身份證,臉就是我們的通行證。本文介紹了VGG模型,現(xiàn)在我們下載VGGface模型中,已經(jīng)具備有一個(gè)較為成熟的識(shí)別體系了,在經(jīng)過(guò)特定圖片集的訓(xùn)練后,其的識(shí)別準(zhǔn)確率也不低。但是我們?cè)谑褂脮r(shí),還是應(yīng)該根據(jù)自己的使用環(huán)境,對(duì)其進(jìn)行適應(yīng)性訓(xùn)練,這樣可以滿(mǎn)足我們更高的精準(zhǔn)度需求。本文還介紹了優(yōu)圖祖母模型族的宏圖,當(dāng)前優(yōu)圖祖母模型已經(jīng)第三代了,滿(mǎn)足大多數(shù)場(chǎng)景下的應(yīng)用了,我們可以在騰訊云的AI欄目里測(cè)試祖母模型,感受百寶袋的各種智能算法。本文使用了一個(gè)簡(jiǎn)單的開(kāi)源項(xiàng)目face_recognition,實(shí)現(xiàn)了一個(gè)動(dòng)態(tài)識(shí)別人臉的簽到系統(tǒng),通過(guò)攝像頭輸入視頻流,以幀為單位與素材庫(kù)中的圖片進(jìn)行對(duì)比,當(dāng)匹配幾率高于0.75時(shí),則系統(tǒng)認(rèn)證為同一個(gè)人。在素材庫(kù)不多時(shí),該系統(tǒng)在一定程度上是可信的。但是一旦素材庫(kù)過(guò)多,就會(huì)導(dǎo)致識(shí)別結(jié)果可信度降低。因此,在人臉識(shí)別的道路上,該項(xiàng)目還做不真正的普及使用,但是在機(jī)器學(xué)習(xí)的幫助下,我相信有朝一日可以真正的實(shí)現(xiàn)智能化識(shí)別人臉。4.2展望本文通過(guò)探討傳統(tǒng)目標(biāo)檢測(cè)和基于深度學(xué)習(xí)的人臉識(shí)別算法展開(kāi),在開(kāi)發(fā)過(guò)程中學(xué)習(xí)到了不少的東西,但程序還是存在不少的缺點(diǎn),為了解決這些問(wèn)題,今后將從以下幾個(gè)方面對(duì)程序進(jìn)行改進(jìn):1、尋找和替換更合理的算法,改善識(shí)別的精準(zhǔn)度以及速度。 2、嘗試替換視頻流的輸入格式,以2S為間隔,同時(shí)將在該區(qū)間內(nèi)的所有幀與素材庫(kù)進(jìn)行對(duì)比,當(dāng)所有對(duì)比的結(jié)果加起來(lái)達(dá)到某個(gè)閾值時(shí),才認(rèn)為兩者匹配。這樣一來(lái),可以大大加強(qiáng)識(shí)別的可信度。3、設(shè)計(jì)合理的UI界面,提升用戶(hù)的視覺(jué)效果體驗(yàn)。隨著云計(jì)算等計(jì)算平臺(tái)的發(fā)展,計(jì)算資源已經(jīng)不再成為難題,未來(lái)會(huì)有更多優(yōu)秀的識(shí)別算法被提出,一“臉”行天下,就在不遠(yuǎn)的未來(lái)。參考文獻(xiàn)基于深度學(xué)習(xí)的人臉識(shí)別技術(shù)研究錢(qián)程基于神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的統(tǒng)計(jì)機(jī)器翻譯研究楊南基于局部特征和進(jìn)化算法的人臉識(shí)別李根優(yōu)圖祖母模型的「進(jìn)化」/jjjndk1314/article/details/80579552VGG卷積神經(jīng)網(wǎng)絡(luò)模型解析/gloomyfish/2105427計(jì)算機(jī)到底是怎么識(shí)別人臉的騰訊科技致謝四年前,我對(duì)大學(xué)迷茫而恐懼;四年后,我如紅日初升,意氣風(fēng)發(fā);四年前,覺(jué)得求學(xué)異鄉(xiāng)是離親別友;四年后,我和志同道合的伙伴談笑風(fēng)生;四年前,我認(rèn)為小安是福、隨遇而安;四年后,我身似山河,敢問(wèn)天地試鋒芒;斗轉(zhuǎn)星移,大學(xué)四年似乎改變了一切。唯一不變的,是我對(duì)“改變”的追求。一謝師長(zhǎng),言傳身教。大學(xué)四年,學(xué)的東西雜且多,雖無(wú)法做到樣樣精通,時(shí)至今日也敢于出口說(shuō)自己大都有所涉獵。對(duì)我影響最大的是趙元成老師,是他引領(lǐng)我接觸到云計(jì)算這個(gè)行業(yè),并在我蹣跚學(xué)步的過(guò)程中引領(lǐng)我前行。時(shí)至今日,我也決定在這個(gè)行業(yè)繼續(xù)往下走。恩師于我,授我漁魚(yú),高山景行,師之范者。二謝親友,予我歡情。在我最不懂事的時(shí)候,家人的鼓勵(lì)讓我我成為一名大學(xué)生。我曾以為大學(xué)也不過(guò)是求學(xué)的四年,與六年小學(xué)三年初中三年高中并無(wú)大區(qū)別。但是,經(jīng)歷過(guò)才知道,大學(xué)四年求學(xué)并不是最重要的
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- Unit 1 More practice &Culture corner 教學(xué)設(shè)計(jì) 2023-2024學(xué)年滬教牛津版英語(yǔ)七年級(jí)下冊(cè)英語(yǔ)
- 乳腺結(jié)節(jié)診療規(guī)范
- 千圖網(wǎng)與人民幣知識(shí)普及
- 2025年河北省保定市徐水區(qū)中考一模語(yǔ)文試題(原卷版+解析版)
- 二零二四年11月種鴿交易電子合同防篡改水印標(biāo)準(zhǔn)
- 普通家庭住宅裝修合同
- 2025年網(wǎng)絡(luò)廣告投放合同模板
- 2025企業(yè)辦公租賃合同簡(jiǎn)易版
- 與銀行簽正式合同標(biāo)準(zhǔn)文本
- 保健器械租賃合同標(biāo)準(zhǔn)文本
- 企業(yè)模擬經(jīng)營(yíng)電子沙盤(pán)
- 手術(shù)安全核查制度
- 2023中華護(hù)理學(xué)會(huì)團(tuán)體標(biāo)準(zhǔn)-注射相關(guān)感染預(yù)防與控制
- 2024年北京電子科技職業(yè)學(xué)院高職單招筆試歷年職業(yè)技能測(cè)驗(yàn)典型例題與考點(diǎn)解析含答案
- 中藥學(xué)電子版教材
- 保潔服務(wù)禮儀培訓(xùn)(共55張)課件
- DB41∕T 1836-2019 礦山地質(zhì)環(huán)境恢復(fù)治理工程施工質(zhì)量驗(yàn)收規(guī)范
- 錫礦選廠生產(chǎn)承包合同
- 企業(yè)員工職務(wù)犯罪培訓(xùn)ppt課件
- 客房服務(wù)員績(jī)效考核表
- IATF16949監(jiān)視和測(cè)量資源控制程序
評(píng)論
0/150
提交評(píng)論