基于Tensorflow的人臉表情識別算法研究_第1頁
基于Tensorflow的人臉表情識別算法研究_第2頁
基于Tensorflow的人臉表情識別算法研究_第3頁
基于Tensorflow的人臉表情識別算法研究_第4頁
基于Tensorflow的人臉表情識別算法研究_第5頁
已閱讀5頁,還剩37頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

摘要隨著時代的發(fā)展,大數(shù)據(jù)已經(jīng)慢慢的成為互聯(lián)網(wǎng)時代的主流,以及機器學(xué)習(xí)、人工智能、計算機視覺逐漸廣布在大眾生活中,單一的人臉識別技術(shù)已經(jīng)比較成熟的應(yīng)用在軍事、醫(yī)療、公共社會等場所中,進而將人臉表情識別推向更高度的熱潮。每個人的人臉都是獨一無二的,人臉表情是當(dāng)人們面對面交流時很難被察覺的、帶有隱藏的情緒意義的人體情緒,經(jīng)常標(biāo)明人們極力壓制和暗藏的情緒情感,所以通過機器與軟件的結(jié)合進行表情識別可以清楚的得知該人的情緒。人臉表情辨別的研究還有很長的路要走,將以變化多端的模式不斷持續(xù)的影響我們的日常。本文題目為基于tensorflow的人臉表情識別算法的研究。科研學(xué)家把面部表情識別主要將表情劃分為七個種類,整個人臉表情識別研究將會劃分為四個過程:數(shù)據(jù)預(yù)處理、卷積神經(jīng)網(wǎng)絡(luò)的搭建、模型的訓(xùn)練與人臉表情的識別界面的設(shè)計,第一部分包括對數(shù)據(jù)集的預(yù)處理和利用卷積網(wǎng)絡(luò)搭建的神經(jīng)網(wǎng)絡(luò)與訓(xùn)練模型,第二部分為加載模型進行人臉表情識別測試,其中創(chuàng)新點就是使用pyqt5進行GUI界面設(shè)計封裝,增加系統(tǒng)的界面簡潔性與用戶體驗感。其中最大的難點就是搭建卷積神經(jīng)網(wǎng)絡(luò)與訓(xùn)練的過程花費的時間。關(guān)鍵詞:人臉表情識別深度學(xué)習(xí)人工智能AbstractWiththedevelopmentofthetimes,bigdatahasgraduallybecomethemainstreamoftheInternetera,aswellasmachinelearning,artificialintelligence,computervisiongraduallyspreadinpubliclife,asinglefacerecognitiontechnologyhasbeenmorematureinmilitary,medical,publicsocietyandotherplaces,andthenfaceexpressionrecognitiontoahigherupsurge.Everyone'sfaceisunique.Microexpressionisakindofsubtleexpressionwithcertainemotionalmeaningthatisdifficulttobedetectedfacetoface.Itoftenexpressesthedepressedandhiddenemotionalfeelings.Therefore,throughthecombinationofmachineandsoftwaretorecognizetheexpression,theemotionofthepersoncanbeclearlyknown.Facialexpressionrecognitiontechnologywillcontinuetoaffectourlivesinmanyways.Thisquestionistheresearchoffacialexpressionrecognitionalgorithmbasedontensorflow.Facialexpressionrecognitionmainlydividesexpressionintosevencategories,andthewholefacialexpressionrecognitionresearchismainlydividedintotwoprocesses:thetrainingofconvolutionalneuralnetworkmodelandtherecognitiontestoffacialexpression.Thefirstpartincludesthepreprocessingofdatasetandtheneuralnetworkandtrainingmodelbuiltbyconvolutionalnetwork.Thesecondpartistheloadingmodelforfacialexpressionrecognitiontest,inwhichinnovationPointistousepyqt5forGUIinterfacedesignandencapsulation,toincreasethesystem'sinterfacesimplicityanduserexperience.Thebiggestdifficultyistoprocessandanalyzethenumericalvalueoffaceimage.Keywords:facialexpressionrecognitiondeeplearningartificialintelligence第三章基于Tensorflow人臉表情識別3.1數(shù)據(jù)集與預(yù)處理3.1.1數(shù)據(jù)集的選擇本研究在數(shù)據(jù)集的選擇中,最終抉擇使用kaggle上被公開的數(shù)據(jù)集,這樣的選擇不但可以節(jié)省數(shù)據(jù)采集花費過多的時間,而且可以更加準(zhǔn)確、統(tǒng)一地評估同一個數(shù)據(jù)集以及人臉表情分類器通過不同方式測出的性能,即而采用人臉表情庫FER2013作為表情識別的數(shù)據(jù)集。這個數(shù)據(jù)集一共包含35887張不同人不同表情的圖片,并且標(biāo)注usage劃分為3個部分為測試部分(Training)共有28709條數(shù)據(jù),共同驗證部分和私自驗證部分一共由7178條數(shù)據(jù)組成,每條數(shù)據(jù)都是由48X48像素的灰色圖像轉(zhuǎn)化為不同數(shù)據(jù)點組成的,并且標(biāo)注emotion劃分為7種表情,用數(shù)字0-6標(biāo)簽分別對具體表情標(biāo)注中英文如下:0=生氣(angry),1=厭惡(disgust),2=恐懼(fear),3=快樂(happy),4=悲傷(sad),5=驚喜(surprised),6=正常(netrual)。所選擇的人臉表情庫(fer2013)是將表情圖片的數(shù)據(jù)與用途全部以數(shù)組的形式存放如fer2013.csv文件中而不是以圖片的形式保存的,fer2013.csv數(shù)據(jù)集的組成為由首行為表頭說明三列數(shù)據(jù)的具體含義與命名,首列為心情標(biāo)簽(即表明表情種類);第二列為圖片轉(zhuǎn)化成的所有數(shù)據(jù)(即像素值)以數(shù)組格式儲存;尾列為三類數(shù)據(jù)用途的標(biāo)注(即為訓(xùn)練集或測試集或驗證集)組成如圖3-1-1所示圖3-1-1fer2013.csv內(nèi)容圖3.1.2數(shù)據(jù)集的預(yù)處理若通過尋常的處理數(shù)據(jù)集的方法,若選擇直接將從網(wǎng)上收集到的圖片數(shù)據(jù)集全部載入內(nèi)存,再進行預(yù)處理將會花費許多時間,也沒有必要將csv文件數(shù)據(jù)集再轉(zhuǎn)為圖片集多此一舉的方法會使得每次訓(xùn)練全部數(shù)據(jù)載入的過程緩慢,耗時長,而且必然會造成內(nèi)存巨大的開銷。所以決定選擇將數(shù)據(jù)集(csv文件)直接轉(zhuǎn)化為TFRECORD的格式而不是圖片從而節(jié)省內(nèi)存與方便調(diào)用。選擇的TFRECORD格式是由Tensorflow提供的以一種獨特的格式將數(shù)據(jù)存儲起來。TFRECORD的格式結(jié)構(gòu)比較難理解作為一種二進制文件,沒法直接查看。但是它可以合理調(diào)配及運用內(nèi)存,便利于海量數(shù)據(jù)的讀取與運用而且不需要獨自的標(biāo)簽文件,優(yōu)點效率高、跨平臺,有助于降低學(xué)習(xí)成本;TFRECORD格式文件由字段(Features)與協(xié)議內(nèi)存塊(protocolbuffer)組成。并且可以輸入代碼從而獲得所需的數(shù)據(jù),再將數(shù)據(jù)寫入Example協(xié)議內(nèi)存塊(PB)中且將協(xié)議內(nèi)存塊序列轉(zhuǎn)化成一個字符串,并且通過TFRecordWriter將得到的數(shù)據(jù)寫入到TFRECORD格式文件中去。TFRecord只可以支持string,int64,float32三種格式進行存儲管理,本文通過以列表的形式選用Int64格式寫入Feature中。信息包含了圖片的標(biāo)簽(label),圖片的高度(height)與寬度(width)還有圖片的數(shù)據(jù)(raw),分別對應(yīng)了value為label,height,width,raw的feature如下圖3-1-2所示。圖3-1-2csv轉(zhuǎn)TFRecorf主要代碼圖最終將測試部分(Training)公共驗證部分(PublicTest)和私有驗證部分(PrivateTest)數(shù)據(jù)分別生成fer2013_train、fer2013_test、fer2013_eavl三個TFRECORD文件,如下圖3-1-3所示。圖3-1-3劃分?jǐn)?shù)據(jù)集圖3.2搭建卷積神經(jīng)網(wǎng)絡(luò)3.2.1GoogleNet原理Googlenet是于2014年與VGGNet并行被提出的深度卷積網(wǎng)絡(luò),在深度學(xué)習(xí)分類與識別方面的實驗中深受喜愛且對識別分類體現(xiàn)效果有著很大的作用,GoogleNet的特點與之前被熟知的網(wǎng)絡(luò)不一樣的是它主要考慮橫向的延伸而不是縱向。Googlenet在深度與寬度的領(lǐng)域中,選擇合并使用1*1與3*3與5*5與pooling層的聚集結(jié)合使用。主要選擇運用Inceptionmod來進行對特征映射厚度的減低作用。最大優(yōu)點是使用小計算量卻提高一層特征變化與非線性化屬于性價比較高的一類Inception模型如下圖3-2-1所示。圖3-2-1Inception模型圖3.2.2深度卷積神經(jīng)網(wǎng)絡(luò)模型一個完整的卷積神經(jīng)網(wǎng)絡(luò)(CNN)包括一個輸入層(INPUT)、一個卷積層(CONV)、激活函數(shù)(RELU)、池化層(POOL)、全連接層(FC)和一個輸出層(OUTPUT),但是在日常實驗中那個所使用到的卷積神經(jīng)網(wǎng)絡(luò)進行特征提取時,將會使用不限定個卷積層。相對于傳統(tǒng)分類方法,神經(jīng)網(wǎng)絡(luò)能夠在特征提取和分類范疇同時延伸,改變了傳統(tǒng)手工編碼提取特征的方式,將其優(yōu)化成自動化一種端到端(ETE)的學(xué)習(xí)。傳統(tǒng)方法與深度學(xué)習(xí)方法對比如下圖3-2-2所示:圖3-2-2傳統(tǒng)方法與深度學(xué)習(xí)對比圖本文所使用Tensorflow的API接口與函數(shù):tf.variable_scope()函數(shù):定義于創(chuàng)立變量層的操作中的上下文管理器。能夠判斷驗證values是不是來自同一圖型,保證圖型是默許的圖型,并推送名稱范疇和變量范疇。tf.get_variable()函數(shù)用于截獲一個已經(jīng)存在的變量或者創(chuàng)立一個嶄新的變量。tf.nn.relu()函數(shù)Return(返回)Tensor,通常features會是(卷積核,圖像)的卷積后加上bias。tf.nn.conv2d()函數(shù)filter(conv1_weight)卷積核,要求也是一個張量。strides是為在卷積時圖像中的每一維的步長,這是個一維的向量,[1,strides,strides,1]開頭第一位與結(jié)尾一位必需固定為1。padding為string類型其值為“same”與“valid”。tf.nn.max_pool()函數(shù)maxpooling是CNN當(dāng)中的最大值池化操作。用法與tf.nn.conv2d()接近。tf.nn.dropout()函數(shù)tensorflow框架中主要為了盡量避免或過擬合的加重而利用的函數(shù),它普通都是存在于全連接層。tf.reduce_mean()函數(shù):最大作用于作為降維或者計算tensor(圖像)的平均值。使用到張量tensor沿著指定的數(shù)軸(tensor的某一維度)上的平均數(shù)值的計算。tf.nn.lrn()函數(shù)與tf.nn.dropout()用法相似,用于數(shù)據(jù)增強并且作為relu激勵之后的防止數(shù)據(jù)過擬合而被提出的一類解決辦法,被稱為localresponsenormalization——局部響應(yīng)標(biāo)準(zhǔn)化。在輸入層后加入一個1*1的卷積層來搭建這個模型,該方法其有既增加非線性表示,加深網(wǎng)絡(luò),提升模型表達(dá)能力且基本不增加原始計算量的優(yōu)點。本研究將卷積層與輸入層分為兩個函分別定義,卷積層關(guān)鍵個別代碼如下圖3-2-4所示,全連接層關(guān)鍵代碼如下圖3-2-5所示:圖3-2-4卷積層主要代碼圖圖3-2-5全連接層主要代碼圖優(yōu)化器選擇AdamOptimize,學(xué)習(xí)率設(shè)為0.001,train_step_=tf.train.AdamOptimizer(self.lr).minimize(loss_,name='train_step')。網(wǎng)絡(luò)的整體架構(gòu)包含輸入層一共11層網(wǎng)絡(luò),分別為:輸入層(input)、卷積層(convolutions,conv1)、卷積層2(conv2)、池化層1(subsampling,pool2)、卷積層3(conv3)、池化層2(pool3)、卷積層4(conv4)、池化層3(pool3)、全連接層1、全連接層2、輸出層(徑向基層)。詳細(xì)內(nèi)容如下表所示:表3-2-1搭建卷積神經(jīng)網(wǎng)絡(luò)種類描述核步長填充輸出丟棄Input48*48*1Conv1卷積層和relu1*1148*48*32Conv2卷積層和relu5*51248*48*32Pool2最大池化3*3223*23*32Conv3卷積層和relu3*31123*23*32Pool3最大池化3*3211*11*32Conv4卷積層和relu5*51211*11*64Pool4最大池化3*325*5*64Local1全連接和relu1*1*204850%Local2全連接和relu1*1*204850%Logits輸出1*1*73.3模型訓(xùn)練與測試3.3.1模型訓(xùn)練對于人臉在圖像中的比例、臉部正對或側(cè)對、眼睛等物品對臉部的遮擋、不同濃度的妝容、不同光照等情況,都會影響識別效果。通過編寫數(shù)據(jù)增強函數(shù)pre_process_img,使得模型在訓(xùn)練過程中出現(xiàn)過多的網(wǎng)絡(luò)過擬合現(xiàn)象,通過對訓(xùn)練集數(shù)據(jù)的變換可以得到泛化能力更強的深度網(wǎng)絡(luò)順應(yīng)于實際場景。主要通過tf.image.random_flip_left_right()函數(shù):可以按水平(從左向右)隨機翻轉(zhuǎn)圖像,tf.image.random_brightness()函數(shù):在[-32/255,32/255]的范圍內(nèi)隨機調(diào)整圖片的亮度。tf.image.random_contrast()函數(shù):在-[0.8,1.2]的范圍隨機調(diào)整圖片的對比度。tf.random_crop()函數(shù):進行對圖像大小的隨機裁剪。tf.image.resize_images函數(shù):調(diào)整圖像的像素大小至48*48主要代碼如下圖3-3-1所示:圖3-3-1數(shù)據(jù)增強代碼圖編寫讀取TFRECORD文件數(shù)據(jù)函數(shù)__parse_function_csv,tf.cast函數(shù):將tensorflow中張量數(shù)據(jù)轉(zhuǎn)換類型即將features類型由int64變?yōu)閕nt32,tf.multiply函數(shù):將[48,48,1]與1./255中對應(yīng)元素各自相乘。主要代碼如下圖3-3-2所示:圖3-3-2讀寫TFRecord代碼圖正式開始訓(xùn)練時,每一步驟(step)訓(xùn)練過程,都要打開tensorflow會話,使用session的run方法執(zhí)行計算,進行數(shù)據(jù)的讀取,并引用載入所構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò),主要代碼如下圖3-3-3所示:圖3-3-3開始訓(xùn)練主要代碼圖將準(zhǔn)確率與缺失值,每一step的數(shù)據(jù)數(shù)據(jù)變化顯示在面板中,可以方便的監(jiān)控整個訓(xùn)練過程。因為數(shù)據(jù)量的龐大整個訓(xùn)練過程非常的長。當(dāng)訓(xùn)練完成時,當(dāng)準(zhǔn)確率為最大時,保存訓(xùn)練模型與權(quán)重模型,最終成功有約75%的準(zhǔn)確率。主要代碼如下圖3-3-4所示,部分訓(xùn)練數(shù)據(jù)如下圖3-3-5所示:圖3-3-4計算loss與acc代碼圖圖3-3-5訓(xùn)練過程數(shù)據(jù)圖3.3.2模型測試模編寫代碼驗證模型準(zhǔn)確率,先布置存放表情識別模型、人臉識別模型(opencv自帶'haarcascade_frontalface_alt.xml')、需要驗證的圖片路徑。新建一個列表存放7中表情種類['angry','disgust','fear','happy','sad','surprise','neutral'],然后使用Session來激活ckpt文件對話。模型測試主要分為三步:1、建立人臉表情文件夾:收集所需要識別的人臉圖像存放到一個文件夾。2、創(chuàng)建函數(shù)對所需要識別的圖形進行數(shù)據(jù)處理創(chuàng)建函數(shù)advance_image(images_):輸入圖像格式做統(tǒng)一處理。新建列表(rsz_img)用for循環(huán)將一張一張圖像filp水平翻轉(zhuǎn)后的數(shù)組數(shù)據(jù),resize重新規(guī)定為48*48數(shù)組,且np.reshape重新規(guī)定數(shù)組組成為[48,48,1]存入后,在建一個新列表(rsz_imgs)把(rsz_img)轉(zhuǎn)換為numpy.array格式存入。具體方式如下圖3-3-6所示:圖3-3-6圖像數(shù)據(jù)處理圖創(chuàng)建函數(shù)produce_result(images_):對處理過的圖像數(shù)據(jù),進行識別得出結(jié)果,生成tensor。創(chuàng)建函數(shù)produce_confusion_matrix(images_list_,total_num_):產(chǎn)生混淆矩陣代碼實現(xiàn)將confusion_matrix值設(shè)置為True即生成混淆矩陣False為識別遍歷指定文件夾內(nèi)所有jpg與png格式的圖片,并計算7種表情的百分比。創(chuàng)建函數(shù)predict_emotion(image_):調(diào)用produce_result(images_)使用模型進行預(yù)測表情。具體代碼如下圖3-3-7所示:圖3-3-7預(yù)測表情主要代碼圖創(chuàng)建函數(shù)face_detect():調(diào)用人臉識別模型進行人臉識別定位。為了加快檢測速度,過濾噪點目標(biāo)的目的,選擇使用detectMultiScale函數(shù)中目標(biāo)檢測對象的最大與最小兩極尺寸。3、進行表情識別,識別出的人臉使用cv2.rectangle(img,(x,y),(x+w,y+h),(188,20,125),3)用方框?qū)⑷四樋蜃。⒂胏v2.putText(img,emo,a,cv2.FONT_HERSHEY_SCRIPT_COMPLEX,www_s,(255,200,155),thickness=www,lineType=1)函數(shù)將識別出的表情類別寫在方框下方,把7種表情的比例用柱狀圖表示出來。遍歷文件夾所有圖片進行識別。最終效果展示如下圖3-3-8與圖3-3-9:圖3-3-8識別實例圖1圖3-3-9識別實例圖23.4本章小結(jié)表情識別的技術(shù)原理與和實現(xiàn)原理具體流程如下圖3-4-1:圖3-4-1表情識別具體流程圖經(jīng)過測試與諸多fer2013模型的測試對比發(fā)現(xiàn),netural表情最多,happy,surprise兩類表情識別準(zhǔn)確率相對較高,而對angry,fear,sad類表情識別準(zhǔn)確率較低,因為他們都是以皺眉,抿嘴等一系列的動作來辨別表情的,不利于相互之間做明顯區(qū)分。如下表3-2所示:表3-2測試結(jié)果angrydisgustfearhappysadsurpriseneutralangry0.6820.0220.16990.01120.14230.01540.1122disgust0.1170.66920.06910.00250.01440.01890.0087fear0.0870.01970.6520.00340.09820.05840.0031happy0.3050.00250.04650.87660.01550.01560.1579sad0.03150.07090.0520.0260.7120.0220.1561surprise0.02150.0040.06520.00250.00760.78350.0075neutral0.03540.00450.02350.0620.04320.01250.06995由表3-2可以看出開心的表情準(zhǔn)確率是最高的,因為他們本身的獨有特點是比較獨特與其他表情沒有太大的相似性。生氣,不安與傷心的準(zhǔn)確率相對來說比較低都在65%-72%之間,并且相互識別也達(dá)到了10%的幾率會識別錯誤為相互的表情,主要原因為在訓(xùn)練集中,各類表情數(shù)據(jù)量占比不統(tǒng)一,表情特征的相似性,從而導(dǎo)致模型具有傾向性。第四章系統(tǒng)設(shè)計與實現(xiàn)4.1系統(tǒng)設(shè)計4.1.1系統(tǒng)功能需求用戶可以通過生成的ui界面進行提交圖像、實時攝像頭讀取視頻數(shù)據(jù)進行分析,然后通過檢測得到對應(yīng)的表情分析結(jié)果。該系統(tǒng)并沒有制定適用人群,需求分析沒有較為復(fù)雜繁瑣的功能,普通的使用pyqt5與opencv進行實現(xiàn)圖片識別與視頻在線人臉表情識別GUI界面封裝。最主要的工作仍然是放在內(nèi)部各種深度網(wǎng)絡(luò)算法(包括人臉面部表情特征識別提取、搭建卷積神經(jīng)網(wǎng)絡(luò)等)的優(yōu)化搭建以及實現(xiàn),并且進一步明確各個功能之間的關(guān)聯(lián)性以及是否達(dá)到目的準(zhǔn)確率。4.1.2系統(tǒng)模塊流程人臉表情識別系統(tǒng)數(shù)據(jù)處理流程如圖4-1-1所示:圖4-1-1數(shù)據(jù)處理流程圖4.2相關(guān)技術(shù)4.2.1pyqt5介紹PyQt是由RiverbankComputing開發(fā),由一系列Python模塊組合而成的,有不少于620個類與6000個函數(shù)和方法,是最強大的GUI庫之一。PyQt提供了一款對使用者非常友好且設(shè)計極優(yōu)的窗口控件集合,每一個PyQt控件都會有其專屬的Qt控件。pyqt5特性為:跨平臺性、高性能的GUI控件、對QT庫進行完全封裝、提供一整套齊全的窗口控件,可以利用IDE進行對界面設(shè)計與制作,其最大優(yōu)點是一鍵生成Python代碼。本系統(tǒng)用到的pyqt5模塊為:1、QtGui:包括窗口控件、2D圖像、基本繪畫、事項處理、字體與文字類。QtWidgets類還包羅創(chuàng)建桌面應(yīng)用的一系列UI元素2、QtMultimedia:包括處理多媒體和調(diào)節(jié)使用攝像頭API的類。3、QtWidgets:創(chuàng)建主窗口及其主要組成部分4.2.2opencv介紹英特爾公司發(fā)起并參與開發(fā),最終提出的一個可以跨平臺使用的計算機視覺庫——OpenCV(OpenSourceComputerVisionLibrary)。開始出現(xiàn)在人們認(rèn)知世界。OpenCV可利用于實時性的圖像處理的開發(fā)、計算機視覺、模式辨別程序以及對象鑒別、圖形濾波、模塊匹配、顏色空間、人機交互、圖形分區(qū)、物體、姿勢、人臉識別、動作跟蹤、機器人等等領(lǐng)域。主要用到的模塊:video視頻剖析組件與core主要核心功能模塊4.2.3具體設(shè)計采集視頻:在電腦端通過0penCVs模塊cv2.VideoCapture()獲得來自網(wǎng)絡(luò)攝像頭的視頻流,然后對視頻流進行挖掘分析。抽取視頻幀:VideoCapture()可在構(gòu)造函數(shù)中打開視頻,當(dāng)參數(shù)為0時,默認(rèn)打開本機攝像頭獲取視頻流,若還帶有其他攝像頭可通過修改參數(shù)進行選擇??梢酝ㄟ^flag,self.image=self.cap.read()進行數(shù)據(jù)獲取,第一個參數(shù)為TrueorFalse,代表有沒有讀取到圖片,第二個參數(shù)表示截取到一幀的圖片。圖像預(yù)處理:cvtColor()方法可用于轉(zhuǎn)換圖像的色彩空間,參數(shù)為cv2.COLOR_BGR2RGB代表把視頻色彩轉(zhuǎn)換回RGB,這樣才是現(xiàn)實的顏色,因為一開始讀取彩色圖像得到的格式是BGR格式。使用OpenCV自帶的人臉檢測器(haarcascade_frontalface_alt.xml)可以利用該檢測器判斷圖像中是否含有人臉,如果含有人臉則做進一步分析,可調(diào)用detectMultiScale方法檢測圖,分析像中的人臉區(qū)域。具體代碼如下圖4-2-1所示:圖4-2-1檢查人臉代碼圖表情檢測標(biāo)準(zhǔn):在調(diào)用人臉檢測接口時帶上訓(xùn)練所得的模型參數(shù),即可對這張人臉圖片進行情緒識別,并且通過putText添加表情文字。主要代碼如下圖4-2-2所示:圖4-2-2標(biāo)注表情代碼圖界面設(shè)計:self.timer_camera=QtCore.QTimer()定義了定時器用于控制視頻的幀率,使用QtWidgets.QVBoxLayout,將案件向左垂直平均分布布局,設(shè)置四個按鍵打開圖片、退出、打開圖片、關(guān)閉圖片,界面右側(cè)還有個label窗口用于打開的圖片顯示在此地,具體代碼如下圖4-2-3所示:圖4-2-3GUI界面設(shè)計代碼圖其中打開圖片按鍵,構(gòu)建函數(shù)button_open_camera_clicked(),設(shè)置若點擊該鍵將開始計時,當(dāng)攝像頭被打開時,自動變?yōu)殛P(guān)閉相機,當(dāng)點擊關(guān)閉相機,同理,再次變?yōu)榇蜷_相機,具體代碼圖插件函數(shù)代碼如下圖4-2-4所示:圖4-2-4插件函數(shù)代碼圖需要把讀取到的視頻數(shù)據(jù)由np.array格式變成QImage形式再通過setPixmap()把攝像頭數(shù)據(jù)映射到主界面窗口中,代碼如下:showImage=QtGui.QImage(show.data,show.shape[1],show.shape[0],QtGui.QImage.Format_RGB888)self.label_show_camera.setPixmap(QtGui.QPixmap.fromImage(showImage))用戶使用人臉表情識別系統(tǒng)具體流程如圖4-2-5所示:圖4-2-5系統(tǒng)具體流程可以對用戶識別出的情緒信息進行統(tǒng)計分析,并以圖表的形式直觀的展示給用戶,可以使用Matplotlib庫收集表情圖形識別后各種表情相似性百分比通過生成直方圖與餅狀圖可視化。生成的圖表被保存為本地文件,可以在所設(shè)置的路徑查到相應(yīng)的圖表如圖4-2-6和圖4-2-7所示。圖4-2-6直方圖圖4-2-7餅狀圖4.3系統(tǒng)運行效果打開文件夾選擇圖片主要界面如下圖4-3-1所示:圖4-3-1打開文件界面圖圖片識別主要界面如下圖4-3-2所示:圖4-3-2圖片表情識別圖打開攝像頭,視頻識別主要界面如下圖4-3-3所示:圖4-3-3視頻表情識別圖使用pyqt將系統(tǒng)封裝起來后,對圖片識別的效果影響不大,但是對于攝像頭實時識別會有一點影響,因為在調(diào)用攝像頭的時候是讀的幀數(shù),然后計算機色彩也有一定的調(diào)整,所以還是會有一點點小影響,但是已經(jīng)盡量優(yōu)化。4.4本章小結(jié)該系統(tǒng)現(xiàn)在可以實時識別人臉表情也可以通過圖片進行識別人臉表情,并且可以同時進行多個人了進行檢測,主要是基于Tensorflow與卷積神經(jīng)網(wǎng)絡(luò)的一個表情識別研究,后期可以優(yōu)化界面,增加友好交互性,界面美觀性,還可以優(yōu)化作為網(wǎng)課實時監(jiān)控學(xué)生的表情變化,提供給上網(wǎng)課的老師們使用,讓最終的識別系統(tǒng)功能更加完善??偨Y(jié)5.1工作總結(jié)本研究題目為基于Tensorflow的表情識別算法研究,主要工作是收集數(shù)據(jù)集進行預(yù)處理和搭建卷積神經(jīng)網(wǎng)絡(luò),利用OpenCV進行對視頻流的分析,并用PYQT5進行GUI界面封裝,具體工作如下文:簡要的介紹了人臉表情識別在國內(nèi)外的主要研究以及發(fā)展領(lǐng)域。詳細(xì)的描述了Tensorflow框架的相關(guān)知識領(lǐng)域。3、對在網(wǎng)上收集與采用的數(shù)據(jù)集(fer2013),進行預(yù)處理,包括圖像數(shù)據(jù)格式的處理,使用Tensorflow特有的格式TFRecord進行數(shù)據(jù)集的分類:訓(xùn)練集、測試集、私有測試集。4、搭建卷積神經(jīng)網(wǎng)絡(luò),參考GoogleNet并且多次嘗試與修改最終搭建了一個4層卷積層的卷積神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)集進行人類面臉表情識別的模型訓(xùn)練。雖然準(zhǔn)確率有所提升,但是由于數(shù)據(jù)集(fer2013)數(shù)據(jù)自身某些如光線,臉部比例等問題,準(zhǔn)確率最終只能達(dá)到75%左右。5、成功實現(xiàn)了基于Tensorflow的人臉表情識別模型,并在Window8+python3.7+tensorflow2.0的筆記本上進行了模型測試,能夠?qū)D片進行人臉表情的自動識別,且準(zhǔn)確率和效果較為理想6、利用Pyqt5+OpenCV進行了界面的封裝,成功的實現(xiàn)一個可以圖片能識別以及實時視頻人臉表情識別的系統(tǒng)。5.2不足與展望本研究仍然存在一些不足,在搭建卷積神經(jīng)網(wǎng)路時,還是脫離不開舊版的搭建方式,沒有太大的創(chuàng)新,所以人臉表情識別的準(zhǔn)確率還有點差強人意,沒有太大突破,主要是因為因為筆記本為純CPU環(huán)境,實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時花費了過多的時間,訓(xùn)練效率極低,無法投入現(xiàn)實使用,界面也沒有進行更好的優(yōu)化,還只是普通的實現(xiàn)了功能?,F(xiàn)代社會,圖像識別是研究熱門主流,可以應(yīng)用在許多環(huán)境中,如2020年上半年因為某些原因,學(xué)校要開始上網(wǎng)課,就可以進行通過攝像頭進行人臉識別簽到,以及課程上全程實時的表情識別,通過數(shù)據(jù)來了解講解到哪一段知識學(xué)生們比較感興趣。還可以可以進一步的針對圖像識別,在表情識別的基礎(chǔ)上加入性別識別與年齡識別一起研究,利用殘差resnet網(wǎng)絡(luò)進行優(yōu)化搭建卷積神經(jīng)網(wǎng)絡(luò),從而提高識別的準(zhǔn)確率。利用qtdesigner設(shè)計系統(tǒng)界面,完善識別系統(tǒng),增加系統(tǒng)操作性和美化界面可觀性,以上就是現(xiàn)階段的展望。參考文獻(xiàn)鄭攀海,郭凌,丁立兵.基于TensorFlow的卷積神經(jīng)網(wǎng)絡(luò)的研究與實現(xiàn)[J].電子技術(shù)與軟件工程,2018,000(018):P.20-22.產(chǎn)文濤.基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情和性別識別[D].2016.鐘思志.人臉面部表情識別算法研究[D].華東師范大學(xué),2015.宋永生.基于OpenCV及AI的網(wǎng)絡(luò)學(xué)習(xí)者情緒監(jiān)測系統(tǒng)[J].信息技術(shù)與信息化,2019(11):9-12.曹彤彤.基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識別算法研究[D].2019.薛雨麗,毛峽,郭葉,etal.人機交互中的人臉表情識別研究進展[J].中國圖象圖形學(xué)報,2019,14(5).葉敬福.基于視頻圖像的人臉表情識別技術(shù)的研究[D].江蘇大學(xué).王志良,陳鋒軍,薛為民.人臉表情識別方法綜述%ASURVEYOFFACIALEXPRESSIONRECOGNITION[J].計算機應(yīng)用與軟件,2003,020(012):63-66.牛連強,陳向震,張勝男,etal.Modelconstructionandperformanceanalysisfordeepconsecutiveconvolutionalneuralnetwork%深度連續(xù)卷積神經(jīng)網(wǎng)絡(luò)模型構(gòu)建與性能分析[J].沈陽工業(yè)大學(xué)學(xué)報,2016,038(006):662-666.OngaloPhoebeNasimiyuFedha.OnFacialExpressionRecognitionBasedonMachineLearningandTechniques[C],中南大學(xué),2014.6致謝在大學(xué)最后一段日子里,一邊做研究一邊回想過去,想到了許多我感激的人與事。首先,我要嚴(yán)肅且認(rèn)真的給予最真誠的感謝至我們認(rèn)識不久卻非常勞心勞力的幫助我完成研究的導(dǎo)師商麗娟。從定題到開始實踐到論文的編寫到處都是商麗娟老師心血與汗水揮灑的痕跡,老師不厭其煩的回答我一個又一個簡單又瑣碎的問題。在我陷入迷茫與死循環(huán)中時,是老師點醒了我,給我指了一條明亮的路,當(dāng)我搭建算法準(zhǔn)備訓(xùn)練時,因為硬件問題,老師甚至想要給我借機器去完成我的模型訓(xùn)練,在論文的撰寫中悉心指點,提出許多細(xì)微的修改,真的很感謝您。然后,我要感謝大學(xué)四年里所有指導(dǎo)過我的老師,是你們讓我一步一步了解到軟件工程這個專業(yè)的人格魅力,讓我喜歡且愛戴這個專業(yè),其中特別感謝蘇老師與胡老師,是你們帶我接觸到大數(shù)據(jù)這一個方向,讓我接觸到了python與機器學(xué)習(xí)并且深深的愛上python這一門語言。此外,還要感謝參考文獻(xiàn)的作者們,通過你們學(xué)術(shù)性的研究論文,我才可以在碰到難點時得到指引,站在巨人的肩膀上完成了這篇論文。最后感謝16級軟件6班的全體成員,我們一起度過了寶貴的四年,還有我親愛的父母。

HYPERLINK如何選擇組裝電腦配件

如何選擇組裝的電腦配件.

第一,選擇好CPU平臺,就是INTER還是AMD,看你是要配什么樣的電腦,高端還是低端的,兩個平臺都高低的產(chǎn)品。第二,選擇主板了,主板的品牌比較多,質(zhì)量,價格也不一,當(dāng)你第一步卻定了,那么主板也就相應(yīng)的卻定下來了,以INTER為例,只可以選擇775接口的主板(早期有478接口的,不推薦),主板的選擇主要有兩種,一是集成顯卡,二是不集成顯卡。集成顯卡的話,就可以省下顯卡的錢,但是對游戲玩家不推薦。那么當(dāng)然是選擇不集成顯卡的主板了,而且最好選擇一線品牌,如華碩,技嘉等。主板里,還有個蕊片組的選擇。關(guān)于蕊片組,各個品牌的主板命名有些不一樣,主流是INTER965,945,915,VIA的KT890,還有NFORCE4,NFORCE5。等。比較難說清楚。最好是選擇INTER的蕊片組,雖然價格會稍高一些。推薦945,技術(shù)比較成熟。第三,顯卡的選擇。顯卡主要還是有兩類品牌,GEFORCE和ATI,兩個品牌有高,中,低的顯卡。顯卡選擇要看你個人喜歡了,預(yù)算充足的話,最好是買中,高端的顯卡。

第四,就是內(nèi)存了,內(nèi)存關(guān)系電腦的穩(wěn)定性。當(dāng)然是要好一點的。買一線品牌的?,F(xiàn)在配電腦,主流是DDR667,DDR800DDR1333第五,顯示器的選擇,推薦液晶。如何選擇硬件組裝電腦這是一個老生常談的問題了,這也是一個讓高手們顯示自己硬件功底的問題,同時這還是一個讓很多新手為之焦頭爛額的問題。該怎么配?具體配什么?怎樣配才能盡量減小瓶頸?本文就將從內(nèi)到外,從理論到實踐,為朋友們抽絲剝繭一一道來。

一、CPU

作為一臺電腦最關(guān)鍵的組成部分,CPU確實起著舉足輕重的作用,但體現(xiàn)一臺電腦的綜合速度,并不是僅僅依靠CPU的,常??吹胶芏嘈率謧冊谂潆娔X的時候,把CPU選的很好,但其他的東西諸如內(nèi)存、主板、硬盤等都選的不太理想,好像這臺電腦速度的快慢就體現(xiàn)在CPU速度的快慢上似的。甚至很多著名的品牌機廠商,都推出過類似“P4+256M內(nèi)存”的這種跛腳配置。其實對于一般的家用電腦而言,一個真正會配的高手,是不會把大量的錢花在CPU上的。家用電腦,畢竟不是做密集型科學(xué)計算用的,它講求的是多種媒體的配合工作,講求的是能一邊下載文件、一邊上網(wǎng)瀏覽網(wǎng)頁、一邊聽音樂、一邊還能打開其他的程序,在這種情況下,提升內(nèi)存的容量比提升CPU的主頻對速度的影響要明顯的多。現(xiàn)今的中國家庭用戶,很多家長對于電腦一竅不通,他們只聽說“奔四”代表著速度快,并不知道整機速度的快慢除了CPU以外,還有很多其他的因素影響著它。但在買電腦的時候,最后做決定并掏錢的人,往往都是這些啥都不懂的家長們,于是就出現(xiàn)了上面的一幕:品牌機廠商為了能有更好的銷路、兼容機裝機店的銷售人員為了能拿到更多的獎金,開始違背良心來配置出這種高主頻處理器、低容量內(nèi)存的跛腳電腦。說嚴(yán)重點,這是屬于對消費者的不負(fù)責(zé)任,是一種商業(yè)欺詐行為!同樣5000元的配置,高手配出來的賽揚,比新手配出來的P4還要快很多,曾經(jīng)有一家全球著名的硬件網(wǎng)站在2003年的時候刊登過一篇關(guān)于配置家用電腦時各硬件占用總預(yù)算百分比的文章,文中很明確的提到了CPU的價錢最好不要超過總預(yù)算的10%-15%,我們雖然不能說他肯定完全正確,但至少人家是通過很多調(diào)查后得出的結(jié)論,有借鑒的理由。反觀現(xiàn)在的很多所謂的“低價奔四電腦”、“3999元買P4品牌機”之類的廣告,我想說的就是:你花了3999元,只買了一塊P4的處理器,其他的什么都沒有了!

二、內(nèi)存

對于配置一臺電腦來說,內(nèi)存是重頭戲,容量、速度、類型等等每一項指標(biāo)都對最終的整機綜合速度起著至關(guān)重要的影響,尤其是內(nèi)存的帶寬和容量。對于內(nèi)存帶寬而言,很多人都認(rèn)為400MHz、533MHz前端總線的賽揚四或P4,配單通道的DDR內(nèi)存就足夠了,雙通道DDR內(nèi)存是配合800MHz以上前端總線的P4處理器用的,其實這樣就大錯特錯了,哪怕是最老的賽揚四,都需要雙通道的DDR內(nèi)存才能達(dá)到它的帶寬!也就是說,你如果選擇賽揚四1.8G,必須配合865以上的主板和至少雙通道DDR200的內(nèi)存,才能滿足它的帶寬要求!稍微計算一下就可以得知:賽揚四1.8G的前端總線是400MHz,它的內(nèi)存帶寬理論值是400MHz×64bit÷8=3.2G/s,但當(dāng)它裝在845系列的主板上時,由于845主板的限制,即使你插上能符合它帶寬要求的DDR400內(nèi)存,也只能運行在DDR266上,這時的內(nèi)存所能提供的帶寬是266MHz×64bit÷8=2.1G/s,比3.2G/s要小很多,即使你通過BIOS里的內(nèi)存調(diào)節(jié)選項往上調(diào)節(jié)一檔(也只能調(diào)節(jié)一檔而已),讓內(nèi)存運行在DDR333下,所能提供的帶寬也僅僅是333MHz×64bit÷8=2.66G/s,離3.2G/s還是有一定的距離,而內(nèi)存帶寬的降低,能非常明顯的降低整機的綜合速度,運行任何程序都能明顯的感覺出來!所以如果想滿足賽揚1.8G處理器的內(nèi)存帶寬要求,你必須要為它配置865以上的主板和雙通道的內(nèi)存才行!P4亦是如此。很多人也許會問:那845系列的主板是配什么處理器的呢?我想回答你的就是:845系列的主板是屬于“不能用”的主板,因為處理器永遠(yuǎn)比主板發(fā)展的快,當(dāng)初Intel造出845系列的芯片組是為了能給當(dāng)時的賽揚和P4提供一個過渡的平臺,不至于讓它們成為“沒有主板配合”的處理器而已,也是為了能在低端市場分一杯羹,而現(xiàn)今865甚至9xx系列的主板橫行的時候,845系列的主板確實是屬于“不能用”的主板了,滿足不了任何一款處理器的內(nèi)存帶寬,造成性能上的嚴(yán)重低下,試問這種主板你會選擇么?即使配臺2000多元的超低價電腦,也不要去選擇845系列的主板,至少需要865以上的和雙通道內(nèi)存才行,因為內(nèi)存帶寬是一個非常影響系統(tǒng)性能的參數(shù),倘若一味的為了省錢而配置845系列的主板,那就得不償失了。

內(nèi)存的容量方面,應(yīng)每個人對電腦的使用方向不同,容量的要求也是不同的,現(xiàn)在配置的家用電腦,筆者建議:如果不打游戲,或者是打打掃雷、紙牌之類的游戲,平時注重于上網(wǎng)瀏覽或者是聊天、看電影之類的應(yīng)用的話,內(nèi)存容量不應(yīng)該低于1G;如果是偶爾打打單機游戲或者是網(wǎng)絡(luò)游戲,內(nèi)存容量應(yīng)該選擇在2G左右,如果是經(jīng)常打大型的游戲或是進行HDTV視頻編輯等應(yīng)用,那么4G的內(nèi)存是必不可少的。

三、主板

一臺電腦的穩(wěn)定性和兼容性,一大部分是看主板的,一款優(yōu)秀的主板不僅需要擁有上等的用料和優(yōu)良的做工,還需要擁有合理的走線設(shè)計,那些沒有技術(shù)實力的三、四線主板廠家生產(chǎn)的主板,多數(shù)是采用公版走線,而且用料非常差,穩(wěn)定性不堪一擊,這種類型的主板,筆者建議寧愿不買電腦也不要配這種主板,否則以后將會是個淘氣的祖宗。對于家庭用戶,主板方面一定不能省錢,預(yù)算夠的話最好能買個一線的主板品牌,如果預(yù)算實在不足,二線的主板是底線了,不要再往下選擇了,畢竟家用電腦是用來使用的,不是用來整天維修的。再談到主板的用料,筆者常??吹胶芏嘈率衷谂渲弥靼宓臅r候,貌似老鳥似的說某某品牌的主板好,某某品牌的不好,試問你知道它好在哪里么?不好在哪里么?這個就要看主板的用料了,雖然用料好的主板并不能代表一定是高檔主板,但最少能代表它的電氣性能出色。舉一個很簡單的例子吧:有A、B兩款主板,A主板的處理器供電濾波電容采用的是日系電容,B主板的處理器供電濾波電容采用的是臺系電容,那么基本上可以肯定的是:如果在電源輸出電壓的波動范圍比較大的情況下,A主板就比較能耐得住,而B主板就很容易產(chǎn)生電容鼓包、漏夜等情況。不要小看這小小的電容,筆者從一個開維修店的朋友那里得知,來維修主板的人,有80%的都是這幾個小電容損壞,究其原因,就是電源選擇的不好,導(dǎo)致了輸出電壓的不穩(wěn)定,久而久之最終導(dǎo)致這幾個小電容爆漿,并且詳細(xì)敘述了主板的品牌:“一線廠家的×碩牌主板就很少出現(xiàn)這種情況,但同樣為一線廠家的×星牌主板,經(jīng)常遇到!原因就是前者的大部分主板使用的是日系電容,而后者的大部分主板為了省錢,選用的是臺系電容!”廠家的廣告不能信,宣傳也不能信,看到一個產(chǎn)品的廣告之后,你所能相信的唯一一點就是:地球上有這么個產(chǎn)品的存在!然后其他的就統(tǒng)統(tǒng)都不能信了!網(wǎng)上有好多所謂的“評測”文章,都是槍手寫的,基本上沒有任何參考余地,只能作為一篇小說來讀,一款主板的真正性能,只有你自己使用了之后才能知道。廠家為了銷量、商家為了利潤,他們能把最最垃圾的主板宣傳為最頂級的產(chǎn)品,筆者曾經(jīng)就看到過一款四線品牌的主板廠商,在對其主流主板的廣告上說“最優(yōu)秀的設(shè)計、最精湛的工藝、最穩(wěn)定的性能”……結(jié)果一看報價:550元/塊……其他的話我也不想多說了,只想問問這家廠商:你這么垃圾的主板都用了三個“最”字,那么華碩的同芯片組主板,售價是你三倍的,應(yīng)該用什么詞語來描述了??中國有一句古話:一分錢一分貨,說的非常正確!不要認(rèn)為價格高的主板就是暴利產(chǎn)品,從市場經(jīng)濟學(xué)上說,暴利產(chǎn)品是不會被市場所接受的,之所以他能存活到今天,而且售價依然是這么高,肯定有他的理由,他在做工用料方面肯定比其他品牌的要好很多,成本高所以售價高,在此,筆者奉勸大家一句:買主板千萬不要憑僥幸心理,認(rèn)為自己能花很少的錢買到很好的東西,只有錯買的沒有錯賣的,商家永遠(yuǎn)都比你精明!主板上面還是老老實實的多花點錢來買個一線產(chǎn)品吧,否則以后有你吃苦的時候!

四、硬盤

現(xiàn)在的電腦,硬盤的速度當(dāng)之無愧的成為了“第一大瓶頸”,無論你是再高的高手,配電腦的時候也無法消除這個瓶頸的存在,我們只有盡量的減小…再減小……。對于家用電腦的硬盤來說,容量和速度是兩個非常重要的參數(shù),容量上而言,筆者建議:如果你的電腦只是上網(wǎng)瀏覽瀏覽、偶爾打打小游戲的,那么160G的硬盤是個不錯的選擇;如果你常常下載軟件或電影,那么250G的硬盤是個不錯的選擇,如果你是個下載狂人,那么400G的硬盤比較適合你;如果你有DV或者是經(jīng)常編輯大型的視頻文件,那么400G×2比較適合你,如果你是個玩HDTV的人,那么恭喜你,400G×4也許你都不夠用。對于硬盤容量上的選擇,你不能考慮現(xiàn)在是否夠用,你應(yīng)該考慮未來的1年里是否夠用,大概的公式是:現(xiàn)在需要的容量×3。也就是說,如果你現(xiàn)在感覺80G的硬盤差不多夠用了,那么你就需要買個250G的硬盤。如果你現(xiàn)在感覺120G的硬盤夠用了,那么就去買個400G的硬盤吧。硬盤另外的一個參數(shù)就是速度,受到內(nèi)部傳輸率等諸多因素的限制,一塊硬盤的實際傳輸速度是不可能達(dá)到它的接口速度的,現(xiàn)在的并口硬盤基本上都是ATA133了,串口硬盤也都是150了,但民用級硬盤的實際傳輸速度最快的也還沒突破66M/s,所以跟內(nèi)存相比,硬盤的速度是電腦中最大的瓶頸,那么怎么來減小這個瓶頸呢?于是人們就發(fā)明了RAID,就是磁盤陣列(當(dāng)然RAID不是僅僅為了這個而發(fā)明的),用兩塊一模一樣的硬盤來組成RAID0,速度理論上能提高1倍,雖然實際上是不可能達(dá)到1倍的,但至少能非常非常明顯的感覺到了硬盤速度的提升,筆者建議:如果你買的主板是帶有RAID功能的,并且你需要保存的數(shù)據(jù)不是很重要的話,那么強烈建議你在預(yù)算允許的情況下購買兩塊硬盤來組建RAID0,這將使你能親身體會到飛機與火車的速度差別!但最好是串口的,如果是并口的話,因為并口走的是PCI總線,由于PCI總線上的設(shè)備比較多,所以速度不可能達(dá)到比較高的地步,但如果是串口的話,那么硬盤的速度提升將更加明顯!

五、顯示器

顯示器方面,筆者想澄清一個觀念:曾經(jīng)聽過非常多的人說液晶顯示器保護眼睛,因為沒有輻射和閃爍……包括很多業(yè)內(nèi)人士都這么認(rèn)為的,其實錯了,液晶顯示器比普通的CRT還要傷眼睛!因為傷眼睛不僅僅是輻射和閃爍,還有對比度、亮度等參數(shù),雖然液晶顯示器的輻射和閃爍比CRT要小的多,但它那要命的對比度、那要命的色澤度、還有那大于每平方米300cd的亮度,這些都會對眼睛造成很大的傷害,并且你即使將液晶顯示器的亮度和對比度調(diào)節(jié)到最低,也還是非常的刺眼。德國的一家權(quán)威機構(gòu)做過一項調(diào)查:液晶顯示器用久了會使人的眼睛感覺到疲倦,甚至頭痛等癥狀,而使用相同時間的CRT顯示器,卻基本沒有這些情況出現(xiàn)?,F(xiàn)在的通過TCO03認(rèn)證的CRT顯示器,其實外露的輻射已經(jīng)相當(dāng)小了,基本上對人已經(jīng)沒有多大的傷害了,閃爍感也可以通過調(diào)節(jié)刷新率來降低,筆者實在是搞不懂為什么很多人非要去選擇液晶顯示器,還非要說液晶顯示器不傷眼睛??一個最差的17寸液晶顯示器的價格,能買一臺不錯的、通過TCO03標(biāo)準(zhǔn)的19寸CRT了,顯示面積也差不多大,而且CRT又比液晶更保護眼睛,液晶顯示器唯一的一個優(yōu)點就是占用空間小而已,其他的統(tǒng)統(tǒng)是缺點,為什么不選擇CRT呢??說到TCO03標(biāo)準(zhǔn),現(xiàn)在很多的號稱是通過TCO03認(rèn)證的顯示器,其實都是貼牌的,都沒有真正的通過,關(guān)于怎樣鑒別一臺TCO03的顯示器,網(wǎng)上已經(jīng)有很多文章可以搜索到,筆者在此不想過多敘述,只是提醒大家一點:一臺真正的通過TCO03認(rèn)證的顯示器,外表的顏色除了白色以外,是不會有其他顏色的了,因為TCO03認(rèn)證中有重要的一條就是外殼可回收性,而除了白色以外,其他的任何顏色都加了有機染料在里面,是不能作為回收利用的,這點請大家購買顯示器的時候一定要注意了!

六、電源

作為一臺電腦的動力之源,電源質(zhì)量的好壞直接關(guān)系到這臺電腦的壽命,在這點上筆者先要肯定一下品牌機廠商的做法了,在各大品牌機中,雖然其他配件可以用跛腳來形容,但所配的電源和機箱基本上都是不錯的,功率雖然不是很大,但滿足它的配置是足夠了。而一些新手在配兼容機的時候,很多情況下都忽視了電源這一方面,結(jié)果導(dǎo)致的直接后果就是主板電容爆漿、硬盤損壞、顯卡電容爆漿等情況。對于電源來說,有很多參數(shù)去標(biāo)準(zhǔn)它,但對我們影響最大的兩個參數(shù)就是它的功率和輸出電流穩(wěn)定度,首先來看看它的功率:很多國內(nèi)的著名電源制造廠商,例如×河田、×國者等等品牌,都有嚴(yán)重虛標(biāo)功率的行為,他們所標(biāo)稱的功率,基本上就是這款電源的峰值功率,并不是額定功率,電源的功率一共分三種:額定功率、最大功率和峰值功率,額定功率是指電源能夠在此負(fù)載下長時間穩(wěn)定工作;最大功率是指電源能夠在此負(fù)載下短時間工作,時間一長就容易出現(xiàn)問題;峰值功率是指電源的瞬間可承受負(fù)載,如果時間稍微一長,馬上就冒煙。也就是說,最

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論