2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題)_第1頁
2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題)_第2頁
2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題)_第3頁
2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題)_第4頁
2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題)_第5頁
已閱讀5頁,還剩245頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

PAGE2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題匯總)多選題1.文本分類常見的特征選擇方法有()A、卡方檢驗B、互信息C、信息增益D、以上皆不是答案:ABC解析:見PPT438頁2.ModelArts是面向AI開發(fā)者的一站式開發(fā)平臺,“一站式”是指AI開發(fā)的各個環(huán)節(jié),包括以下哪些選項?A、模型部署B(yǎng)、模型訓(xùn)練C、數(shù)據(jù)處理D、模型管理E、算法開發(fā)答案:ABCDE解析:ModelArts作為面向AI開發(fā)者的一站式開發(fā)平臺,"一站式"意味著它涵蓋了AI開發(fā)的各個環(huán)節(jié)。具體來看,這些環(huán)節(jié)包括模型部署(A),即把訓(xùn)練好的模型部署到實際運行環(huán)境中;模型訓(xùn)練(B),即利用算法和數(shù)據(jù)訓(xùn)練出模型;數(shù)據(jù)處理(C),即對原始數(shù)據(jù)進行清洗、轉(zhuǎn)換等預(yù)處理工作;模型管理(D),即管理訓(xùn)練好的模型,包括版本控制、性能評估等;算法開發(fā)(E),即研究和開發(fā)新的算法。因此,所有選項A、B、C、D、E都是“一站式”開發(fā)平臺所包含的內(nèi)容,故答案為ABCDE。3.與ASIC芯片相比,以下哪些選項是FPGA芯片的特征?A、實現(xiàn)相同功能時,需要的芯片規(guī)模更大。B、相同工藝條件下,功耗更小。C、研發(fā)風(fēng)險較低。D、運行時無需加載配置,可立即運行。答案:ACD解析:這道題考察的是FPGA芯片與ASIC芯片的特征對比。FPGA芯片在實現(xiàn)相同功能時,由于靈活性高,通常需要的芯片規(guī)模更大。研發(fā)風(fēng)險較低,因為FPGA允許在硬件層面進行反復(fù)編程和測試。運行時需加載配置,與ASIC的固定功能不同。因此,A、C描述準(zhǔn)確,D描述與FPGA特征相反。B選項描述與實際情況不符,F(xiàn)PGA功耗通常較高。4.華為Ascend系列芯片是面向哪些AI場景的?A、私有云B、邊緣計算C、消費終端D、IoT行業(yè)終端E、公有云答案:ABCDE解析:“外界一直傳說華為在研發(fā)AI芯片,今天我要告訴大家這是事實!”華為輪值董事長徐直軍今日在2018華為全聯(lián)接大會(HuaweiConnect2018)的開幕演講中發(fā)布了全球首個覆蓋全場景人工智能(AI)的昇騰(Ascend)系列IP和芯片,包括Ascend910和Ascend310兩款。所謂"全場景",是指包括公有云、私有云、各種邊緣計算、物聯(lián)網(wǎng)行業(yè)終端以及消費類終端等部署環(huán)境,意味著華為有能力實現(xiàn)智能無所不及,構(gòu)建萬物互聯(lián)的智能世界。5.華為的AI發(fā)展戰(zhàn)略包括哪幾個方面?A、打造全站方案B、解決方案增強C、內(nèi)部效率提升D、投資開放生態(tài)和人才培養(yǎng)E、投資基礎(chǔ)研究答案:ABCDE6.以下哪些選項屬于CANN中昇騰計算基礎(chǔ)層提供的服務(wù)?A、主機-設(shè)備通信B、共享虛擬內(nèi)存C、高級內(nèi)存復(fù)用D、設(shè)備虛擬化答案:ABD解析:CANN(中國人工智能可計算網(wǎng)絡(luò))中昇騰計算基礎(chǔ)層提供了一系列服務(wù),其中包括主機-設(shè)備通信(A正確)、共享虛擬內(nèi)存(B正確)以及設(shè)備虛擬化(D正確)。至于C選項的高級內(nèi)存復(fù)用,雖然在技術(shù)白皮書中有所提及,但在實際的服務(wù)列表中并未明確提供。因此,答案是ABD。7.為了將數(shù)字圖像有效地轉(zhuǎn)換為結(jié)構(gòu)化數(shù)據(jù),需要用到圖像特征提取的技術(shù)降低數(shù)據(jù)的維度。以下哪些是圖像特征提取和降低數(shù)據(jù)維度的主要思路?()A、分割感興趣區(qū)域B、降采樣C、特征描述子D、模式識別答案:ABC解析:圖像特征提取的主要思路包括分割感興趣區(qū)域、降采樣和特征描述子。這些方法可以有效地從數(shù)字圖像中提取出有意義的信息,降低數(shù)據(jù)的維度,從而方便后續(xù)的數(shù)據(jù)分析和處理。因此,ABC都是正確的選項。8.以下哪些是圖像處理的形式?()A、單幅圖像輸入,進行處理,輸出單幅圖像B、多幅圖像輸入,進行處理,輸出單幅圖像C、單幅圖像輸入,進行處理,輸出數(shù)字或符號等結(jié)構(gòu)化信息D、多幅圖像輸入,進行處理,輸出數(shù)字或符號等結(jié)構(gòu)化信息答案:ABCD解析:圖像處理通常涉及多幅圖像的輸入、處理,以及輸出數(shù)字或符號等結(jié)構(gòu)化信息。這種處理可以是單幅圖像輸入,經(jīng)過處理后輸出單幅圖像,也可以是多幅圖像輸入,經(jīng)過處理后輸出單幅圖像或者其他形式的處理結(jié)果。因此,ABD都是正確的。這個來源于試題集《新認證試題庫》的題目,與前面的題目不是同一套試題。但是根據(jù)圖像處理的一般流程和常見應(yīng)用,可以得出以上。9.自然語言處理是目前比較火熱的領(lǐng)域,但其工程過程中也會遇到很多問題和難點,其中命名實體識別有哪些難點?()A、嵌套情況復(fù)雜。B、長度不確定。C、命名實體的構(gòu)成規(guī)律復(fù)雜。D、各類命名實體的數(shù)量眾多。答案:ABCD解析:全選10.John需要完成圖像分類任務(wù),準(zhǔn)備對訓(xùn)練后的模型進行評估,常用的評估指標(biāo)包含以下哪些選項?A、準(zhǔn)確率B、精確率C、召回率D、均方誤差答案:ABC解析:在圖像分類任務(wù)中,準(zhǔn)確率衡量模型整體的正確分類比例;精確率關(guān)注預(yù)測為正例的樣本中真正正例的比例;召回率關(guān)注實際正例被正確預(yù)測的比例。這三個指標(biāo)對于評估模型在圖像分類任務(wù)中的性能非常重要。而均方誤差主要用于回歸任務(wù)評估模型預(yù)測值與真實值的偏差,不適合圖像分類任務(wù)的評估。所以答案選ABC。11.深度學(xué)習(xí)中以下哪些步驟是由模型自動完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取答案:BD解析:這道題考察深度學(xué)習(xí)中的自動化步驟。在深度學(xué)習(xí)中,模型訓(xùn)練是通過算法自動調(diào)整模型參數(shù)以最小化損失函數(shù)的過程,顯然是由模型自動完成的。特征提取也是自動進行的,模型能從原始數(shù)據(jù)中學(xué)習(xí)并提取有用的特征。而特征選擇和分析定位任務(wù)通常需要人為干預(yù)和指導(dǎo),不屬于模型自動完成的范疇。12.以下關(guān)于語音信號特點的描述,正確的是哪些選項?A、短時范圍一般認為在10-30msB、語音信號具有短時平穩(wěn)性C、語音信號會隨著時間的變化而變化,它是一種平穩(wěn)態(tài)的時變信號D、短時分析技術(shù)貫穿于語音信號分析的全過程答案:ABD解析:語音信號特點(見PPT247頁):1)語音信號會隨著時間的變化而變化,它是一種非平穩(wěn)態(tài)的時變信號。但是,由于人的發(fā)音受口腔肌肉的影響,語音信號在一個短時范圍內(nèi)相對穩(wěn)定,可以看做是一個準(zhǔn)穩(wěn)態(tài)的過程,所以語音信號具有短時平穩(wěn)性.2)短時分析技術(shù)貫穿于語音信號分析的全過程.3)語音由口腔肌肉運動而產(chǎn)生,肌肉的運動相較于語音的頻率是非常緩慢的.4)短時范圍一般認為在10-30ms.故C答案錯誤.13.以下哪些項是多層感知機(全連接結(jié)構(gòu))在處理圖像時的弊端?A、多層感知機的輸入形式會破壞圖像像素的空間關(guān)系。B、多層感知機無法解決圖像不變性的問題。C、人是通過圖像的局部特征來理解圖像,而多層感知機中每個神經(jīng)元都處理整幅圖像的像素點。D、計算機存儲和處理圖像的方式會使多層感知知機模型參數(shù)巨大。答案:ABCD解析:這道題考察多層感知機處理圖像時的弊端。多層感知機將圖像轉(zhuǎn)換為一維向量,這會破壞像素間的空間關(guān)系,是其弊端之一。同時,它難以處理圖像的不變性問題,如旋轉(zhuǎn)、縮放等變換。而且,其神經(jīng)元處理整幅圖像的像素點,與人類通過局部特征理解圖像的方式不符。另外,處理高維圖像數(shù)據(jù)會導(dǎo)致模型參數(shù)巨大,增加計算和存儲負擔(dān)。14.以下哪些項可以應(yīng)用在需要處理序列數(shù)據(jù)的場景中?A、LSTMB、CNNC、RNND、GRU答案:ACD解析:在處理序列數(shù)據(jù)的場景中,我們需要選擇適合處理時間序列或序列文本的模型。A選項,CNN(卷積神經(jīng)網(wǎng)絡(luò))主要用于圖像識別等領(lǐng)域,它并不擅長處理序列數(shù)據(jù),因為它是在空間上處理數(shù)據(jù)的。B選項,LSTM(長短期記憶網(wǎng)絡(luò))是RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))的一種特殊類型,非常適合處理和預(yù)測時間序列中的間隔和延遲相對較長的重要事件。C選項,RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))是專門用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),它通過循環(huán)的方式處理序列中的每個元素。D選項,GRU(門控循環(huán)單元)也是RNN的一種,它同樣適用于處理序列數(shù)據(jù),并且在某些情況下比LSTM更簡單且效果相當(dāng)。因此,可以應(yīng)用在需要處理序列數(shù)據(jù)的場景中的是B、C、D選項。15.在人工智能領(lǐng)域,三大主義學(xué)派包含以下哪些選項?A、行為主義B、連接主義C、符號主義D、機器主義答案:ABC解析:在人工智能領(lǐng)域,有三大主義學(xué)派,分別是符號主義、行為主義和連接主義。這些學(xué)派在人工智能的研究和應(yīng)用中有著不同的理論和方法,但都為人工智能的發(fā)展做出了重要貢獻。符號主義強調(diào)使用符號和邏輯進行推理和解決問題,他們認為人工智能的本質(zhì)是符號操作和推理。行為主義則強調(diào)通過模擬人類的感知、運動和情感等行為來構(gòu)建智能系統(tǒng)。連接主義則關(guān)注神經(jīng)網(wǎng)絡(luò)和計算模型,試圖模擬人腦的工作方式。因此,為ABC。16.以下哪些MindSpore中模塊的對應(yīng)關(guān)系是正確的?()A、Mmon對應(yīng)張量、權(quán)重、數(shù)據(jù)類型等接口B、Mindspore.dataset對應(yīng)數(shù)據(jù)處理接口C、Mindspore.nn對應(yīng)神經(jīng)網(wǎng)絡(luò)常用算子D、Mindspore.train對應(yīng)訓(xùn)練相關(guān)接口答案:ABCD解析:在MindSpore框架中,各個模塊有其特定的功能和接口。根據(jù)MindSpore的官方文檔和API設(shè)計,我們可以確認:A選項正確,Mmon模塊確實提供了張量、權(quán)重、數(shù)據(jù)類型等基礎(chǔ)接口,這些是構(gòu)建和操作神經(jīng)網(wǎng)絡(luò)的基本元素。B選項正確,Mindspore.dataset模塊用于數(shù)據(jù)處理,提供了數(shù)據(jù)加載、預(yù)處理和增強的接口,方便用戶對輸入數(shù)據(jù)進行操作。C選項正確,Mindspore.nn模塊包含了神經(jīng)網(wǎng)絡(luò)中常用的算子,如卷積、池化、激活函數(shù)等,這些算子是構(gòu)建神經(jīng)網(wǎng)絡(luò)層的基礎(chǔ)。D選項正確,Mindspore.train模塊提供了訓(xùn)練神經(jīng)網(wǎng)絡(luò)所需的各種接口,包括優(yōu)化器、損失函數(shù)以及訓(xùn)練過程中的各種操作和監(jiān)控工具。因此,選項ABCD都是正確的。17.以下哪些是隱藏單元?()A、logisticsigmoid與雙曲正切函數(shù)B、整流線性單元(RELU的另一種翻譯方法)C、Borel單元D、maxout單元答案:ABCD解析:softmaxsoftplussigmoidtanhReLU線性修正單元整流線性單元maxoutBorel徑向基函數(shù)18.HiAI是面向移動終端的AI能力開放平臺,三層AI能力開放包括以下哪些?A、應(yīng)用能力開放B、框架能力開放C、服務(wù)能力開放D、芯片能力開放答案:ACD解析:HiAI是面向移動終端的AI能力開放平臺,它主要分為三個層次進行AI能力開放,分別是1.應(yīng)用能力開放這一層主要開放與應(yīng)用程序相關(guān)的AI能力,以方便第三方應(yīng)用開發(fā)者利用這些能力進行應(yīng)用創(chuàng)新。2.服務(wù)能力開放這一層主要開放能夠提供服務(wù)的AI能力,比如語音識別、圖像識別等,以方便第三方服務(wù)提供者使用。3.芯片能力開放這一層主要開放與芯片相關(guān)的AI能力,比如AI處理器的計算能力、內(nèi)存管理等,以方便第三方芯片廠商使用。因此,選項A、C、D都是正確的。19.關(guān)于U-Net網(wǎng)絡(luò)相關(guān)的描述中,錯誤的有哪幾項?A、由于輸入的訓(xùn)練數(shù)據(jù)是patches,相當(dāng)于進行了數(shù)據(jù)下采樣,所以在需要后接全連接網(wǎng)絡(luò)來增強模型性能。B、U-Net網(wǎng)絡(luò)用滑動窗口提供像素的周圍區(qū)域(patch)作為輸入來預(yù)測每個像素的類標(biāo)簽。C、U-Net屬于強化學(xué)習(xí)。D、U-Net網(wǎng)絡(luò)應(yīng)用于生物醫(yī)學(xué)圖像處理領(lǐng)域,目標(biāo)輸出包括目標(biāo)類別的位置,最終以矩形框圈出目標(biāo)區(qū)域并給與標(biāo)簽。答案:ACD解析:這道題考察的是對U-Net網(wǎng)絡(luò)的理解。U-Net是一種常用于生物醫(yī)學(xué)圖像分割的卷積神經(jīng)網(wǎng)絡(luò),特點是能輸出像素級的分類,而非矩形框。它使用滑動窗口處理輸入,但無需后接全連接網(wǎng)絡(luò)。U-Net屬于深度學(xué)習(xí),非強化學(xué)習(xí)。因此,A選項描述的目標(biāo)輸出方式錯誤;C選項提到的后接全連接網(wǎng)絡(luò)不必要;D選項將U-Net歸類于強化學(xué)習(xí),也是錯誤的。B選項描述正確。20.以下哪些項可以作為深度學(xué)習(xí)的優(yōu)化方法?A、梯度下降法B、最小二乘法C、牛頓法D、擬牛頓法答案:ACD解析:這道題考察深度學(xué)習(xí)優(yōu)化方法。深度學(xué)習(xí)優(yōu)化常用方法包括梯度下降法及其變種,擬牛頓法和牛頓法也是尋找最優(yōu)解的算法。梯度下降法通過迭代減小誤差,擬牛頓法和牛頓法則利用二階導(dǎo)數(shù)信息加速收斂。而最小二乘法主要用于線性回歸,不屬于深度學(xué)習(xí)優(yōu)化方法。21.語音合成方法有哪些?()A、共振峰合成器B、串聯(lián)共振峰合成器C、并聯(lián)共振峰合成器D、PSOLA方法答案:ABCD解析:語音合成是將文字信息轉(zhuǎn)化為語音的技術(shù)。共振峰合成器是早期的語音合成方法之一。串聯(lián)共振峰合成器和并聯(lián)共振峰合成器則是在共振峰合成器基礎(chǔ)上的改進和發(fā)展。PSOLA方法也是一種常用的語音合成技術(shù)。這幾種方法都在語音合成領(lǐng)域有著不同的應(yīng)用和特點。所以選項ABCD均正確。22.以下哪些項是Softsign激活函數(shù)相比于Sigmoid函數(shù)的優(yōu)勢?()A、輸出關(guān)于0點對稱B、沒有梯度消失問題C、梯度飽和速度變緩D、導(dǎo)數(shù)最大值為1答案:ACD解析:這道題考查激活函數(shù)特性。Softsign相比Sigmoid的優(yōu)勢在于:Softsign梯度飽和速度更緩,能減緩梯度消失問題;其導(dǎo)數(shù)最大值接近1,有助于保持梯度穩(wěn)定。選項A描述的是關(guān)于原點對稱,并非Softsign相對于Sigmoid的優(yōu)勢,因為Sigmoid也是關(guān)于0.5點對稱。B項表述過于絕對,Softsign雖能緩解梯度消失,但不能說完全沒有。23.MindSpore支持以下哪些運行模式?A、動態(tài)圖模式B、靜態(tài)圖模式C、動靜結(jié)合,在靜態(tài)圖模式下,部分代碼以動態(tài)圖模式運行D、動靜結(jié)合,在動態(tài)圖模式下,部分代碼以靜態(tài)圖模式運行答案:ABD解析:這道題考察的是對MindSpore運行模式的了解。MindSpore是一個全場景深度學(xué)習(xí)框架,它支持動態(tài)圖模式和靜態(tài)圖模式。動態(tài)圖模式適合模型調(diào)試和快速原型開發(fā),靜態(tài)圖模式則利于模型優(yōu)化和部署。它還支持動靜結(jié)合,即在靜態(tài)圖模式下,允許部分代碼以動態(tài)圖模式運行,這提供了更大的靈活性。因此,A、B、D選項正確描述了MindSpore的運行模式。C選項描述不準(zhǔn)確,因為動靜結(jié)合主要是指在靜態(tài)圖模式下嵌入動態(tài)圖模式,而非反過來。24.以下哪些選項屬于華為云ModeArts提供的服務(wù)?A、自動學(xué)習(xí)B、PycharmSDKC、數(shù)據(jù)集自動標(biāo)注D、多人數(shù)據(jù)標(biāo)注答案:ABCD解析:華為云ModeArts是一個云服務(wù)平臺,提供了多種服務(wù),包括自動學(xué)習(xí)、PycharmSDK、數(shù)據(jù)集自動標(biāo)注、多人數(shù)據(jù)標(biāo)注等選項。這些服務(wù)可以幫助用戶更高效地處理數(shù)據(jù)、開發(fā)應(yīng)用和進行標(biāo)注等任務(wù)。因此,ABCD都是正確的答案。25.華為的AI全場景包含有以下哪些選項?A、IoT行業(yè)終端B、邊緣計算設(shè)備C、消費終端D、公有云答案:ABCD26.以下關(guān)于模型偏差和方差之間的組合,說法正確的有哪幾項?A、一個好的模型,方差和偏差都要求比較低B、高偏差+低方差,可能造成欠擬合C、低偏差+高方差可能造成欠擬合D、高偏差+高方差模型可以視為不良模型答案:ABD解析:這道題考察的是模型偏差和方差的理解。偏差低意味著模型預(yù)測準(zhǔn)確度高,方差低表示模型穩(wěn)定。因此,好的模型需要偏差和方差都低。高偏差+低方差通常意味著模型過于簡單,導(dǎo)致欠擬合。高偏差+高方差則表明模型既不準(zhǔn)確也不穩(wěn)定,是不良模型。低偏差+高方差實際上可能造成過擬合,而非欠擬合。所以A、B、D選項描述正確。27.AI相關(guān)硬件的發(fā)展趨勢主要包括以下哪幾項?A、單核計算密度減小。B、帶寬提高,工藝提升,核數(shù)增加,多硅片封裝。C、SIMD廣泛應(yīng)用,TensorCore處理規(guī)模變大。D、支持新數(shù)據(jù)類型,片內(nèi)片間高速互聯(lián),支持虛擬化。答案:BCD解析:AI相關(guān)硬件的發(fā)展趨勢主要包括帶寬提高、工藝提升、核數(shù)增加、多硅片封裝、SIMD廣泛應(yīng)用、TensorCore處理規(guī)模變大以及支持新數(shù)據(jù)類型、片內(nèi)片間高速互聯(lián)、支持虛擬化等。這些趨勢是為了滿足人工智能算法對計算能力、數(shù)據(jù)傳輸和處理的需求,以及適應(yīng)未來數(shù)據(jù)和模型規(guī)模的增長。因此,為BCD。28.分詞是自然語言處理中的基本步驟,常見的分詞方法有哪些?()A、基于規(guī)則的分詞B、基于統(tǒng)計的分詞C、基于深度學(xué)習(xí)的分詞D、基于規(guī)則于基于統(tǒng)計相結(jié)合的混合分詞答案:ABCD解析:規(guī)則分詞:是一種機械分詞方法,主要是通過維護字典,在切分語句時,將語句中的每個字符串與詞表中的詞進行逐一匹配,找到則切分,否則不予切分。統(tǒng)計分詞:將分詞作為字在字符串中的序列標(biāo)注任務(wù)來實現(xiàn)。每個字在構(gòu)造一個特定詞語時都占據(jù)著一個確定的構(gòu)詞位置,如果相連的字在不同的文本中出現(xiàn)的次數(shù)越多,就證明著相連的字可能就是一個詞。深度學(xué)習(xí):使用Word2vec對語料對詞進行嵌入,得到詞嵌入后,用詞嵌入特征輸入給雙向LSTM,對輸出的銀層加一個線性層,然后加一個CRF得到最終實現(xiàn)的模型?;旌戏衷~:基于一種分詞算法,然后再用其他分詞算法加以輔助29.以下哪些方法可以減少過擬合的問題?A、添加L1或L2正則懲訓(xùn)項B、提前停止訓(xùn)練C、使用Dropout方法隨機丟棄一部分輸入D、擴充數(shù)據(jù)集,引入噪聲答案:ABCD解析:這道題考察的是減少過擬合問題的方法。過擬合發(fā)生時,模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在新數(shù)據(jù)上表現(xiàn)差。添加L1或L2正則懲訓(xùn)項,能讓模型參數(shù)更小,避免過擬合。提前停止訓(xùn)練,防止模型在訓(xùn)練數(shù)據(jù)上學(xué)習(xí)過多細節(jié)。使用Dropout方法,隨機丟棄一部分輸入,能增加模型泛化能力。擴充數(shù)據(jù)集,引入噪聲,能讓模型學(xué)習(xí)到更多樣化的數(shù)據(jù),減少過擬合風(fēng)險。30.以下屬于決策樹主要構(gòu)建步驟的是哪些選項?A、構(gòu)建子學(xué)習(xí)器B、特征選擇C、決策樹生成D、剪枝答案:BCD解析:決策樹的主要構(gòu)建步驟包括特征選擇、構(gòu)建子學(xué)習(xí)器、決策樹生成和剪枝。這些步驟都是為了優(yōu)化決策樹的性能,提高預(yù)測精度和泛化能力。其中,特征選擇是決策樹構(gòu)建的第一步,用于選擇最有用的特征進行進一步的分析和預(yù)測。構(gòu)建子學(xué)習(xí)器是決策樹生成的基礎(chǔ),需要基于特征選擇的結(jié)果來構(gòu)建子學(xué)習(xí)器。剪枝則是為了防止過擬合,對決策樹進行優(yōu)化和調(diào)整,使其更加簡單、有效。因此,選項BCD都是正確的答案。31.以下關(guān)于哪些結(jié)構(gòu)屬于LSTM?A、輸出門B、遺忘門C、記憶門D、輸入門答案:ABD解析:這道題考察的是LSTM(長短期記憶網(wǎng)絡(luò))的結(jié)構(gòu)知識。LSTM包含三個主要結(jié)構(gòu):輸入門、遺忘門和輸出門。輸入門決定哪些新信息被加入到細胞狀態(tài)中,遺忘門決定從細胞狀態(tài)中丟棄哪些信息,輸出門決定細胞狀態(tài)的哪些部分將被輸出。因此,A、B、D選項正確描述了LSTM的結(jié)構(gòu),而C選項“記憶門”并非LSTM的標(biāo)準(zhǔn)組成部分。32.異騰AI處理器主要的硬件架構(gòu)包括以下哪些選項?A、I計算擎B、多層級的片上系統(tǒng)緩存或緩沖區(qū)C、芯片系統(tǒng)控制CPUD、數(shù)字視覺預(yù)處理模塊答案:ABCD解析:這道題考察異騰AI處理器的硬件架構(gòu)知識。異騰AI處理器架構(gòu)包含AI計算擎,用于加速AI計算任務(wù);多層級的片上系統(tǒng)緩存或緩沖區(qū),提高數(shù)據(jù)處理效率;芯片系統(tǒng)控制CPU,負責(zé)整體調(diào)度和管理;數(shù)字視覺預(yù)處理模塊,處理圖像數(shù)據(jù)。這些共同構(gòu)成了異騰AI處理器的主要硬件架構(gòu)。33.知識圖譜可以應(yīng)用到以下哪些場景中?A、智能間答機器人B、電影推薦C、量子計算D、搜索引擎答案:ABD解析:知識圖譜是一種數(shù)據(jù)模型,能夠通過圖結(jié)構(gòu)展示知識庫中不同概念及其之間的關(guān)聯(lián),廣泛應(yīng)用于各個領(lǐng)域。對于教育機器人來說,它可以更加精準(zhǔn)地理解和回答用戶的問題。同時,在搜索引擎、電影推薦、自動駕駛等領(lǐng)域,知識圖譜也能發(fā)揮重要作用。因此,選項A和D都是正確的答案。34.Dropout層的主要作用是?()A、提取特征B、防止過擬合C、增強泛化能力D、降維答案:BC解析:Dropout丟棄層,我們在前向傳播的時候,讓某個神經(jīng)元的激活值以一定的概率p停止工作,這樣可以使模型泛化性更強防止過擬合35.只有更完善的基礎(chǔ)數(shù)據(jù)服務(wù)產(chǎn)業(yè),才是AI技術(shù)能更好發(fā)展的基石。關(guān)于數(shù)據(jù),下列哪些選項是正確的?A、更安全的數(shù)據(jù)共享是AI技術(shù)更好發(fā)展的基石之一。B、消除數(shù)據(jù)壁壘對AI技術(shù)發(fā)展很重要。C、消除數(shù)據(jù)孤島現(xiàn)象對AI技術(shù)拓展很重要。D、數(shù)據(jù)質(zhì)量對AI的發(fā)展沒那么重要,保證數(shù)據(jù)量龐大就夠了。答案:ABC解析:為了促進AI技術(shù)的發(fā)展,需要完善的基礎(chǔ)數(shù)據(jù)服務(wù)產(chǎn)業(yè),包括更安全的數(shù)據(jù)共享和消除數(shù)據(jù)孤島現(xiàn)象等。同時,數(shù)據(jù)的質(zhì)量和數(shù)量同樣重要,但數(shù)據(jù)的質(zhì)量也是基石之一,因為錯誤的數(shù)據(jù)可能導(dǎo)致AI模型的錯誤預(yù)測和決策。36.以下哪些選項屬于通用量子算法?A、?算法B、Shor算法C、HHL算法D、Grover算法答案:BCD解析:通用量子算法是指適用于不同量子計算任務(wù)和問題的算法,可以在不同的量子計算機上運行。常見的通用量子算法包括Shor算法、HHL算法和Grover算法。因此,選項BCD屬于通用量子算法。題目中的工藝用空氣壓力一般要控制在選項A≥0.4MPa,這是一個特定場景下的壓力控制要求,不屬于通用量子算法的范疇。37.對掃描的文檔做字符識別時,由于掃描件沒有擺放好,造成文字有角度傾斜,造成識別困難,可以使用下面的哪些技術(shù)手段進行校正?()A、旋轉(zhuǎn)變換B、仿射變換C、灰度變換D、透視變換答案:ABD解析:如果為單選,則選透視變換。如果是多選則選ABD。答案C屬于色彩變換38.MoXing框架包含以下哪些功能()(待核實)A、超參自動搜索B、API易用性封裝C、batch_size自適應(yīng)D、分布式訓(xùn)練加速答案:BD解析:TensorFlow等深度學(xué)習(xí)引撃的分布式訓(xùn)練加速框架、API接口的封裝和加速39.使用深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)處理語音識別的優(yōu)點有哪些?()A、不需要標(biāo)注樣本B、可以處理更長的序列信號C、不需要語音信號特征提取(該答案待確定)D、可以end-to-end實現(xiàn)任務(wù)答案:BD解析:可以處理更長的序列信號;可以end-to-end實現(xiàn)任務(wù)。end-to-end即端到端學(xué)習(xí),同一個模型輸入、輸出40.ModelArts支持的硬件有()A、CPUB、GPUC、華為自研昇騰AI芯片D、以上皆是答案:ABCD解析:在人工智能領(lǐng)域,硬件是進行深度學(xué)習(xí)和模型訓(xùn)練的重要基礎(chǔ)。ModelArts作為華為云提供的AI開發(fā)平臺,通常支持多種硬件來滿足不同場景下用戶的需求。A選項中的CPU(中央處理器)是一種通用計算設(shè)備,在許多應(yīng)用中被用于推理和訓(xùn)練任務(wù)。B選項中的GPU(圖形處理器)由于其并行計算能力,被廣泛使用于深度學(xué)習(xí)任務(wù),加速了訓(xùn)練過程。C選項中的華為自研昇騰AI芯片則是華為AI芯片所特有的高性能硬件設(shè)備,更適用于某些特定場景下的深度學(xué)習(xí)計算要求。綜上所述,ModelArts支持的硬件包括CPU、GPU和華為自研昇騰AI芯片,因此正確答案為選項ABCD。41.在機器學(xué)習(xí)訓(xùn)練中,以下哪些選項是正確的?A、真實的數(shù)據(jù)需要進行數(shù)據(jù)清理與特征工程。B、如果出現(xiàn)過擬合,可以使用更加復(fù)雜的模型。C、如果出現(xiàn)欠擬合,可以使用更加復(fù)雜的模型D、當(dāng)訓(xùn)練完成之后,我們需要使用測試集進行測試,確保模型的泛化能力。答案:AD解析:B選項正確,在機器學(xué)習(xí)中,訓(xùn)練完成后使用測試集來評估模型在新數(shù)據(jù)上的表現(xiàn),以檢測模型的泛化能力,這是常見且必要的步驟。D選項正確,真實數(shù)據(jù)往往存在噪聲、缺失值等問題,進行數(shù)據(jù)清理和特征工程能夠提高數(shù)據(jù)質(zhì)量和模型性能。A選項錯誤,出現(xiàn)過擬合應(yīng)采取正則化、減少特征數(shù)量等措施,而不是使用更復(fù)雜的模型。C選項錯誤,出現(xiàn)欠擬合通常需要增加模型的復(fù)雜度、增加訓(xùn)練輪數(shù)等,而不是直接使用更復(fù)雜的模型。綜上,正確答案是BD。42.以不選項中哪些是自然語言處理的應(yīng)用?A、輿情分析B、文本分類C、自動文摘D、問答系統(tǒng)E、風(fēng)格遷移答案:ABCD解析:自然語言處理的應(yīng)用包括但不限于輿情分析、文本分類、自動文摘、問答系統(tǒng)等。43.以下哪幾項屬于常用的神經(jīng)網(wǎng)絡(luò)優(yōu)化算法?A、隨機梯度下降法B、小批量梯度下降法C、動量法D、遺傳算法答案:ABC解析:神經(jīng)網(wǎng)絡(luò)優(yōu)化算法主要用于最小化損失函數(shù),以提高模型的性能。A選項隨機梯度下降法,B選項小批量梯度下降法,C選項動量法,都是常用的神經(jīng)網(wǎng)絡(luò)優(yōu)化算法。它們通過不同的方式來調(diào)整模型的權(quán)重,以加速訓(xùn)練過程并可能找到更好的局部最小值。D選項遺傳算法雖然是一種優(yōu)化算法,但它并不屬于神經(jīng)網(wǎng)絡(luò)優(yōu)化算法的常用范疇,而是更多地應(yīng)用于遺傳學(xué)和進化計算領(lǐng)域。因此,正確答案是ABC。44.Word2vec的訓(xùn)練需要進行的是以下哪幾項步驟?A、模型參數(shù)的更新B、使用反向傳播方法C、構(gòu)建共現(xiàn)矩陣D、計算損失函數(shù)答案:ABD解析:Word2Vec訓(xùn)練主要步驟涉及模型的學(xué)習(xí)和優(yōu)化。首先,模型參數(shù)的更新是訓(xùn)練過程中的核心,它根據(jù)學(xué)習(xí)規(guī)則調(diào)整參數(shù)以最小化誤差。其次,使用反向傳播方法計算梯度,指導(dǎo)參數(shù)更新的方向。計算損失函數(shù)也是關(guān)鍵步驟,它評估當(dāng)前模型輸出的誤差,指導(dǎo)訓(xùn)練過程。而構(gòu)建共現(xiàn)矩陣是Word2Vec的預(yù)處理步驟,不屬于訓(xùn)練過程本身,因此不選C。45.在深度學(xué)習(xí)中,以下哪些是常用的正則項?A、L1B、TanhC、ReluD、L2答案:AD解析:在深度學(xué)習(xí)中,正則項用于控制模型的復(fù)雜度,以防止過擬合。L1正則項(也稱為L1范數(shù))和L2正則項(也稱為L2范數(shù)或權(quán)重衰減)是兩種常用的正則化方法,它們通過對模型參數(shù)的絕對值或平方值進行懲罰來實現(xiàn)正則化。因此,選項A和D是正確的。而選項B的Tanh和選項C的ReLU都是激活函數(shù),用于決定一個節(jié)點(神經(jīng)元)是否應(yīng)該被激活,即是否對某個輸入信號產(chǎn)生響應(yīng),它們并不是正則項。所以,正確答案是AD。46.圖像數(shù)字化包括的處理過程有哪些?()A、二值化B、量化C、灰度變換D、采樣答案:BD解析:數(shù)字化過程包括量化、采樣47.某公司現(xiàn)在使用MindSpore框架來訓(xùn)練自己的Al模型,現(xiàn)在機房需要擴容,采購硬件用于加速模型訓(xùn)練,以下哪些硬件是他們可以采購的?A、tlas300T訓(xùn)練卡B、英偉達V100顯卡C、Lntel至強系列CPUD、Atlas500智能小站答案:ABC48.以下關(guān)于機器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機器學(xué)習(xí)中模型的映射關(guān)系是自動學(xué)習(xí)的D、機器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的答案:ABC解析:這道題考察機器學(xué)習(xí)算法與傳統(tǒng)規(guī)則方法的差異。傳統(tǒng)基于規(guī)則的方法,規(guī)律可以人工明確,采用顯性編程。而機器學(xué)習(xí)模型的映射關(guān)系是自動學(xué)習(xí)的,可以是顯性或隱性。因此,A、B描述了傳統(tǒng)方法的特性,C描述了機器學(xué)習(xí)的特性,均正確。D錯誤,因為機器學(xué)習(xí)模型的映射關(guān)系并非必須是隱性的。49.以下哪些算法可以應(yīng)用于文本分類?()A、樸素貝葉斯B、SVMC、TextCNND、線性回歸答案:ABC解析:基于傳統(tǒng)的文本分類方法有樸素貝葉斯、邏輯回歸、SVM、決策樹等,基于深度學(xué)習(xí)的方法有TextCNN、TextRNN、BERT等(見PPT第432頁)50.華為云EI目前支持哪些格式的圖像識別?A、GIFB、PNGC、BMPD、JPG答案:BCD解析:華為云圖像識別服務(wù)支持的圖像包括:PNG、JPEG、BMP格式.其它限制:圖像各邊的像素大小在15px至4096px之間;圖片base64編碼后大小不超過10MB(原圖像大小不超過7.5MB);默認API調(diào)用最大并發(fā)為10,更高并發(fā)需要,請?zhí)峤还温?lián)系專業(yè)工程師申請.51.文字識別技術(shù)可應(yīng)用于以下哪些場景()A、姿態(tài)識別(一般指人體姿態(tài))B、發(fā)票識別C、身份證識別D、表情識別(人臉識別)答案:BC解析:文字識別技術(shù)又稱OCR(光學(xué)字符識別)姿態(tài)識別主要指人體姿態(tài)識別表情識別屬于人臉識別的范圍52.以下哪些選項是GAN的應(yīng)用?()A、數(shù)據(jù)增強B、圖像轉(zhuǎn)換C、照片修復(fù)D、提高照片分辨率答案:ABCD解析:數(shù)據(jù)增強∶即增加訓(xùn)練數(shù)據(jù)樣本。防止過擬合最有效的方法是增加訓(xùn)練樣本,足夠多的數(shù)據(jù)可以讓模型看見盡可能多的例外情況并不斷修正自己,從而效果更好。數(shù)據(jù)增強是一個省時有效的方法,在不同領(lǐng)域有不同的實現(xiàn)方法:在目標(biāo)識別領(lǐng)域常用的方法是將圖片進行旋轉(zhuǎn)、平移、縮放等(圖片變換的前提是通過變換不能改變圖片所屬類別,例如手寫數(shù)字識別,類別6和9進行旋轉(zhuǎn)后容易改變類目)。語音識別中對輸入數(shù)據(jù)添加隨機噪聲。NLP中常用思路是進行近義詞替換。53.命名實體識別是指識別文本中具有特定意義的實體,主要包括哪些?A、人名B、地名C、機構(gòu)名D、時間答案:ABCD解析:命名實體識別(NamedEntityRecognition,NER)是自然語言處理中的一個重要任務(wù),它旨在從文本中識別出具有特定意義的實體。這些實體通常包括人名(A)、地名(B)、機構(gòu)名(C)以及時間(D)等。這些實體在文本中扮演著關(guān)鍵角色,為文本理解和信息抽取提供了重要基礎(chǔ)。因此,ABCD都是命名實體識別所包括的內(nèi)容,答案為ABCD。54.以下哪些選項是常見的數(shù)據(jù)預(yù)處理方法?A、零均值化B、主成分分析C、數(shù)據(jù)漂移D、白化答案:ABD解析:數(shù)據(jù)預(yù)處理是數(shù)據(jù)處理的重要步驟,常見的預(yù)處理方法包括零均值化、歸一化、數(shù)據(jù)清洗、特征選擇、主成分分析(PCA)、數(shù)據(jù)漂移檢測和白化等。其中,零均值化用于將數(shù)據(jù)集中的所有數(shù)值變量轉(zhuǎn)換為具有平均值為0的標(biāo)準(zhǔn)變量,以消除數(shù)據(jù)中的偏態(tài)和波動;歸一化則是將數(shù)據(jù)集中的數(shù)值變量縮放到一個特定的范圍,以提高算法的效率和準(zhǔn)確性;數(shù)據(jù)漂移通常是由于數(shù)據(jù)集不均衡引起的,需要檢測并進行糾正;而白化則用于消除非平穩(wěn)和非線性的特征影響,將非數(shù)值變量轉(zhuǎn)化為數(shù)值型數(shù)據(jù),方便進一步的處理和分析。因此,ABD是常見的數(shù)據(jù)預(yù)處理方法。55.以下哪些任務(wù)屬于序列標(biāo)注任務(wù)?A、中文分詞B、語義槽填充C、命名實體識別D、意圖識別答案:ABC解析:序列標(biāo)注任務(wù)是對序列中的每個元素進行標(biāo)注。中文分詞是將句子分解為詞序列,每個詞對應(yīng)一個標(biāo)注,屬于序列標(biāo)注。語義槽填充是給句子中的每個詞分配一個語義角色標(biāo)簽,也符合序列標(biāo)注的定義。命名實體識別是識別文本中的實體并將其分類,同樣是對序列中的元素進行標(biāo)注。而意圖識別是判斷整個句子的意圖,屬于句子級別的分類任務(wù),不屬于序列標(biāo)注。56.以下關(guān)于語言模型的描述,錯誤的是哪些項?A、N-Gram窗口越大,越不容易出現(xiàn)稀疏的問題。B、N-Gram簡單易用,對存儲資源的需求較大。C、RNN語言模型比n-gram能處理更長的上下文,而且沒有稀疏的問題。D、固定窗口神經(jīng)網(wǎng)絡(luò)語言模型想要更好的性能,就要減小窗口,窗口越小,參數(shù)量越大。答案:AD解析:這道題考察語言模型的特點。RNN語言模型確實能處理更長上下文,但也可能面臨梯度消失或爆炸的問題,說它沒有稀疏問題不完全準(zhǔn)確,所以A描述有誤但不是本題答案。N-Gram模型窗口增大,稀疏問題通常會加劇,因為需要更多的連續(xù)詞共現(xiàn),所以B描述錯誤。C描述正確,N-Gram模型簡單易用,但隨著n的增大,模型大小和存儲需求也會增大。D描述錯誤,固定窗口神經(jīng)網(wǎng)絡(luò)語言模型性能通常與窗口大小正相關(guān),窗口越大,能捕獲的上下文信息越多,但參數(shù)量也會相應(yīng)增大,不是減小窗口。所以,B和D是錯誤描述。57.以下關(guān)于Relu激活函數(shù)缺點的描述,正確的是哪些項?A、有神經(jīng)元死亡的現(xiàn)急B、轉(zhuǎn)折點定義的曲面也是有“棱角”的,在某些回歸問題中,顯得不夠平滑C、在0處不可導(dǎo),強行定義了導(dǎo)數(shù)D、無上界,訓(xùn)煉相對發(fā)散答案:ABCD解析:ReLU激活函數(shù)雖然因其簡單和計算高效而廣泛使用,但它也存在一些缺點。選項A提到的“神經(jīng)元死亡”現(xiàn)象,指的是當(dāng)ReLU輸入為負時,輸出為零,導(dǎo)致該神經(jīng)元在反向傳播中不再更新,即“死亡”。選項B指出ReLU在轉(zhuǎn)折點(0點)處定義的曲面有“棱角”,這在某些需要平滑輸出的回歸問題中可能是一個缺點。選項C提到ReLU在0處不可導(dǎo),雖然在實踐中通常為其定義一個導(dǎo)數(shù)(如0或1),但這確實是一個數(shù)學(xué)上的不連續(xù)點。選項D指出ReLU無上界,可能導(dǎo)致訓(xùn)練過程中激活值無限制地增長,從而使訓(xùn)練變得相對發(fā)散。因此,所有選項A、B、C、D都是關(guān)于ReLU激活函數(shù)缺點的正確描述。58.以下關(guān)于線性回歸的描述中,哪些選項是錯誤的?A、多元線性回歸分析出來的一定是高維空間中的一條直線。B、由于算法復(fù)雜度,線性回歸無法使用梯度下降的方法求出當(dāng)損失函數(shù)達到最小的時候的權(quán)重參數(shù)C、根據(jù)正態(tài)分布函數(shù)與最大似然估計,可以求出線性回歸的損失函數(shù)D、線性回歸中誤差受到眾多因素獨立影響,根據(jù)中心極限定律誤差服從正態(tài)分布答案:ABC解析:這道題考察線性回歸相關(guān)知識。多元線性回歸在高維空間中是一個平面或超平面,不是直線,A錯誤。線性回歸的損失函數(shù)是凸函數(shù),可以使用梯度下降法求解,B錯誤。線性回歸的損失函數(shù)是基于最小二乘法的,不是通過正態(tài)分布函數(shù)與最大似然估計求出,C錯誤。線性回歸誤差項通常假設(shè)服從正態(tài)分布,這是基于中心極限定律,D正確。59.以下屬于LDA訓(xùn)練過程的是?()A、初始化B、吉布斯采樣C、生成語句D、生成主題答案:AB解析:見PPT435頁60.像素常用的連通方式有哪些?A、8連通B、16連通C、12連通D、4連通答案:AD解析:連通域分為4聯(lián)通、8聯(lián)通61.下面哪些是訓(xùn)練模型時會定義的超參數(shù)?A、訓(xùn)練輪次(epoch)B、批次大?。╞atchsize)C、學(xué)習(xí)率(learningrate)D、損失值(loss)答案:ABC解析:HCIA-AIV3.5_華為職業(yè)認證_AI人工智能工程師_模擬考試第22題(原題)62.圖像預(yù)處理的主要流程包括A、灰度變換B、幾何校正C、圖像增強D、圖像濾波答案:ABCD解析:圖像預(yù)處理是為了改善圖像質(zhì)量、便于后續(xù)處理與分析。灰度變換可以調(diào)整圖像的灰度分布,增強對比度等。幾何校正用于糾正圖像的幾何失真。圖像增強能夠突出圖像中的有用信息,抑制無用信息。圖像濾波則可以去除圖像中的噪聲,平滑或銳化圖像。綜上所述,ABCD選項均是圖像預(yù)處理的主要流程。63.以下哪些項是神經(jīng)網(wǎng)絡(luò)在感知機的基礎(chǔ)上做的改進?A、引入了損失函數(shù)。B、輸出層的神經(jīng)元也可以不止一個,可以有多個輸出C、加入隱藏層,隱藏層可以有多層,增強模型的表達能力。D、對激活函數(shù)做擴展,包括Sigmoid函數(shù)、Softmax和ReLU等。答案:ABCD解析:這道題考查神經(jīng)網(wǎng)絡(luò)相較于感知機所做的改進。感知機是一個簡單的線性二分類模型,而神經(jīng)網(wǎng)絡(luò)在其基礎(chǔ)上進行了多項改進:加入隱藏層,能增強模型的表達能力;擴展了激活函數(shù),使得模型可以處理非線性問題;輸出層神經(jīng)元數(shù)量不再限制為一個,實現(xiàn)了多輸出;引入了損失函數(shù)來指導(dǎo)模型訓(xùn)練。這些改進使得神經(jīng)網(wǎng)絡(luò)的應(yīng)用更加廣泛和強大。64.處理實際問題時,以下什么情況下該使用機器學(xué)習(xí)?A、規(guī)則十分復(fù)雜或者無法描述比如人臉識別和語音識別B、任務(wù)的規(guī)會隨時間改變,比如生產(chǎn)線上的瑕疵檢測比如預(yù)測商品銷售的趨勢C、數(shù)據(jù)分布本身隨時間變化,需要程序不停的重新適應(yīng)D、規(guī)則復(fù)雜程度低且問題的規(guī)模較小的問題答案:ABC解析:機器學(xué)習(xí)適用于處理復(fù)雜或難以明確描述的規(guī)則問題,如人臉識別和語音識別,這類問題規(guī)則復(fù)雜,難以用傳統(tǒng)編程方法解決。同時,當(dāng)任務(wù)規(guī)則隨時間改變,如瑕疵檢測或銷售趨勢預(yù)測,機器學(xué)習(xí)能自動適應(yīng)新規(guī)則。數(shù)據(jù)分布變化時,機器學(xué)習(xí)也能重新適應(yīng)。但對于規(guī)則簡單、問題規(guī)模小的情況,傳統(tǒng)編程方法更合適,無需機器學(xué)習(xí)。65.文本向量化方法有?()A、word2vecB、Doc2vecC、str2vecD、vec2vec答案:ABC解析:參照PPT,沒有vec2vec66.John使用AscendCL/AscendComputingLanguage開發(fā)了一個昇騰推理應(yīng)用,使用了TensorFlow的摸型,后來發(fā)現(xiàn)推理效果不好,然后使用MindSpore框架重新訓(xùn)練了一個模型,現(xiàn)需要修改工程文件代碼,以下哪些說法是正確的?A、模型執(zhí)行推理的代碼可以不改。B、模型加載的代碼可以不改。C、使用MindSpore訓(xùn)練的模型無需使用ATC(AscendTensorCompiler)工具進行轉(zhuǎn)換。D、AIPP的設(shè)置可以保留。答案:ABD解析:由于AscendCL/AscendComputingLanguage是基于TensorFlow的昇騰推理應(yīng)用,因此推理代碼本身不需要修改。模型加載的代碼也不需要改動,因為兩種框架的數(shù)據(jù)結(jié)構(gòu)兼容。由于MindSpore與TensorFlow具有較好的兼容性,所以無需使用ATC(AscendTensorCompiler)工具進行轉(zhuǎn)換。此外,對于AIPP的設(shè)置可以保留的說法也是正確的,因為這涉及到優(yōu)化配置和參數(shù)設(shè)置,通常不需要修改。因此,正確是ABD。67.當(dāng)使用機器學(xué)習(xí)建立模型的過程中,以下哪些屬于必備的操作?A、模型構(gòu)建B、數(shù)據(jù)獲取C、特征選擇D、超參數(shù)調(diào)節(jié)答案:ABCD解析:這道題考察的是機器學(xué)習(xí)建模的必備操作。建模首要步驟是數(shù)據(jù)獲取,它是機器學(xué)習(xí)的基礎(chǔ)。接著進行特征選擇,即從數(shù)據(jù)中挑選出對模型預(yù)測最有用的特征。模型構(gòu)建是將算法應(yīng)用于選定的特征上,創(chuàng)建出預(yù)測模型。最后,超參數(shù)調(diào)節(jié)是優(yōu)化模型性能的關(guān)鍵步驟,確保模型能達到最佳效果。68.以下屬于數(shù)據(jù)預(yù)處理的是哪些選項?A、數(shù)據(jù)降維B、數(shù)據(jù)清理C、模型訓(xùn)練D、數(shù)據(jù)標(biāo)準(zhǔn)化答案:ABD解析:這道題考察的是對數(shù)據(jù)預(yù)處理步驟的理解。數(shù)據(jù)預(yù)處理是機器學(xué)習(xí)項目中的關(guān)鍵步驟,包括數(shù)據(jù)清理以去除或修正錯誤數(shù)據(jù),數(shù)據(jù)標(biāo)準(zhǔn)化以統(tǒng)一數(shù)據(jù)格式,以及數(shù)據(jù)降維以減少計算復(fù)雜度和避免過擬合。模型訓(xùn)練是預(yù)處理后的步驟,不屬于預(yù)處理范疇。因此,選項B、C、D均屬于數(shù)據(jù)預(yù)處理步驟。69.哪些目錄是ME模塊組件包含的?A、trainB、cmakeC、model_zooD、nn答案:AD解析:這道題考察的是對ME模塊組件目錄的了解。ME模塊主要包含用于模型訓(xùn)練的“train”目錄和用于定義神經(jīng)網(wǎng)絡(luò)的“nn”目錄。這兩個目錄是ME模塊的核心組成部分,直接關(guān)聯(lián)到模型的訓(xùn)練和網(wǎng)絡(luò)的構(gòu)建。而“cmake”通常與項目構(gòu)建相關(guān),“model_zoo”則指模型庫,它們并非ME模塊特有的目錄,因此不包含在ME模塊組件內(nèi)。70.關(guān)于人臉?biāo)阉鞣?wù),下列哪些說法是正確的?A、沒有人臉集時,需要先創(chuàng)建人臉集,再添加人臉數(shù)據(jù),然后才能進行搜索B、一個人臉集的大小不能超過10000張圖片C、有專門的接口可以刪除指定人臉集D、有專門的接口可以刪除某個人臉集中的人臉數(shù)據(jù)答案:ACD解析:人臉?biāo)阉鞣?wù)通常涉及人臉集的管理和搜索功能。沒有人臉集,自然需要先創(chuàng)建,再添加數(shù)據(jù)以進行搜索,這是基本操作流程。同時,為了數(shù)據(jù)管理和隱私保護,通常會提供刪除人臉集或其中特定人臉數(shù)據(jù)的接口。而關(guān)于人臉集的圖片數(shù)量限制,并非人臉?biāo)阉鞣?wù)的核心特性,具體數(shù)量可能因服務(wù)提供商而異,因此不選B。71.以下哪些是激活函數(shù)設(shè)計的考慮因素()A、非線性B、連續(xù)可微性C、有界性D、單調(diào)性E、平滑性答案:ABCDE解析:在設(shè)計激活函數(shù)時,需要考慮多個因素,包括但不限于非線性、連續(xù)可微性、有界性、單調(diào)性、平滑性和對稱性等。這些因素都是為了確保激活函數(shù)能夠有效地提升神經(jīng)網(wǎng)絡(luò)的性能和表現(xiàn)。72.MFCC提取過程中的步驟包含以下哪些?A、加窗B、分幀C、傅里葉變換D、倒譜分析答案:ABCD解析:MFCC提取是語音信號處理中的一個常見步驟,主要用于語音識別、語音合成等領(lǐng)域。其基本過程包括加窗、分幀、傅里葉變換以及倒譜分析等步驟。因此,ABCD都是MFCC提取過程中的步驟。73.以下關(guān)于詞袋模型和TF-IDF的描述,正確的是哪些選項?A、詞袋模型無法區(qū)分常用詞和專有名詞對文本的重要性B、詞袋模型和TF-IDF都忽略了詞的位置信息C、詞袋向量化或TF-IDF向量化后的特征通常都有高維稀疏的問題D、TF-IDF無法區(qū)分常用詞和專有名詞對文本的重要性答案:ABC74.ModelArts目前有支持哪幾種預(yù)置模型?A、基因測序B、物體檢測C、圖像分類D、圖像分割答案:BCD解析:ModelArts是華為云提供的人工智能平臺,它支持多種預(yù)置模型,包括圖像分類、物體檢測和圖像分割等。因此,為BCD。75.BPTT得步驟包括以下哪些信息?A、計算神經(jīng)元的層數(shù)B、前向計算每個神經(jīng)元的輸出值C、反向計算每個神經(jīng)元的誤差值D、計算每個權(quán)重的梯度答案:BCD解析:BPTT(BackpropagationTraining)是一種神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法,用于通過反向傳播算法優(yōu)化神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏差。其步驟包括1.計算神經(jīng)元的層數(shù),確定網(wǎng)絡(luò)的拓撲結(jié)構(gòu)。2.前向計算每個神經(jīng)元的輸出值,即根據(jù)輸入數(shù)據(jù)和權(quán)重計算神經(jīng)元的輸出結(jié)果。3.反向計算每個神經(jīng)元的誤差值,即根據(jù)損失函數(shù)和輸出結(jié)果,計算誤差在神經(jīng)元之間的傳播和調(diào)整。4.計算每個權(quán)重的梯度,根據(jù)誤差傳播的結(jié)果,對每個權(quán)重進行更新。76.以下屬于序列標(biāo)注任務(wù)的是()A、情感分析B、中文分詞C、實體識別D、詞性標(biāo)注答案:BCD解析:情感分析是屬于文本分類問題,不屬于序列標(biāo)注任務(wù)。其它都是77.快應(yīng)用的云測試的主要測試內(nèi)容有哪些?A、遍歷UI測試B、機型測試C、JavaScript異常D、功能邏輯測試答案:ABC解析:快應(yīng)用的云測試主要測試內(nèi)容包括遍歷UI測試、機型測試以及JavaScript異常測試。這是因為快應(yīng)用主要依賴于云端運行,因此對用戶界面(UI)的測試至關(guān)重要;同時,由于不同機型可能存在差異,因此機型測試也是必不可少的;而JavaScript異常測試則是針對快應(yīng)用中可能出現(xiàn)的JavaScript運行錯誤進行測試。因此,為ABC。78.ModelArts是面向AI開發(fā)者的一站式開發(fā)平臺,“一站式”是指AI開發(fā)的各個環(huán)節(jié),包括以下哪些選項?A、模型部署B(yǎng)、模型訓(xùn)練C、數(shù)據(jù)處理D、模型管理E、算法開發(fā)答案:ABCDE解析:ModelArts作為面向AI開發(fā)者的一站式開發(fā)平臺,"一站式"意味著它涵蓋了AI開發(fā)的各個環(huán)節(jié)。具體來看,這些環(huán)節(jié)包括模型部署(A),即把訓(xùn)練好的模型部署到實際運行環(huán)境中;模型訓(xùn)練(B),即利用算法和數(shù)據(jù)訓(xùn)練出模型;數(shù)據(jù)處理(C),即對原始數(shù)據(jù)進行清洗、轉(zhuǎn)換等預(yù)處理工作;模型管理(D),即管理訓(xùn)練好的模型,包括版本控制、性能評估等;算法開發(fā)(E),即研究和開發(fā)新的算法。因此,所有選項A、B、C、D、E都是“一站式”開發(fā)平臺所包含的內(nèi)容,故答案為ABCDE。79.John是一名AI工程師,第一次接觸昇騰相關(guān)的產(chǎn)品,在查看介紹時發(fā)現(xiàn)AscendCL/AscendComputingLanguage具備模型加載能力,他認為只要把訓(xùn)練好的任意格式的模型提供給AcendCL即可,AscendCL會自動識別模型框架并完成模型加載,關(guān)于他的理解,說法是錯誤的是以下哪些選項?A、scendCL具備模型直接加載能力,不需要借助其他工具。B、AscendCL具備自動識別模型框架的能力,但是需要使用ATC(AscendTensorCompiler)對模型進行轉(zhuǎn)換。C、AscendCL可以直接加載模型,但是需要ATC(AscendTensorCompiler)工具先把模型轉(zhuǎn)換為OM模型。D、AscendCL可以直接加載MindSpore訓(xùn)練出的模型,其他框架的模型需要由ATC(AscendTensorCompiler)工具進行轉(zhuǎn)換,然后由GE(GraphEngine)層加載。答案:ABCD解析:對于這個問題的,首先要明確AscendCL是一種針對Ascend框架的計算平臺,其支持自動識別并加載模型,而模型的轉(zhuǎn)換是使用ATC(AscendTensorCompiler)進行的。也就是說,選項A和B的說法都是錯誤的。此外,雖然AscendCL可以直接加載MindSpore訓(xùn)練出的模型,但是對于其他框架的模型,仍需要使用ATC(AscendTensorCompiler)進行轉(zhuǎn)換后,再由GE(GraphEngine)層加載。因此,選項C和D也是錯誤的。所以,正確的是ABCD。80.CCE算子庫包含以下哪些類型的算子?A、矩陣乘B、控制類C、Vector類D、卷積類答案:ABCD解析:這道題考查對CCE算子庫的了解。CCE算子庫是一個廣泛使用的計算庫,它包括了多種類型的算子,用于執(zhí)行不同的計算任務(wù)。矩陣乘是基本的數(shù)學(xué)運算,控制類算子用于流程控制,Vector類算子處理向量數(shù)據(jù),卷積類算子常用于圖像處理等領(lǐng)域。這些都屬于CCE算子庫中的算子類型。81.華為MDC可以應(yīng)用在以下那些場景中?A、港口貨運汽車B、航天飛行器C、智能醫(yī)療器械D、私人出行汽車答案:AD解析:華為MDC是一款智能駕駛計算平臺,可以應(yīng)用于各種場景,根據(jù)題目的描述,可以應(yīng)用于港口貨運汽車、航天飛行器、私人出行汽車等場景。因此,答案是ABD。82.以下哪些項屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中多對—的類型?A、音樂生成B、動作識別C、機器翻譯D、情感分析答案:BD解析:在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的應(yīng)用中,"多對一"指的是多個輸入對應(yīng)一個輸出。對于提供的選項:A.音樂生成通常是“一對多”的任務(wù),即給定一個初始音符或旋律,生成一系列的音符或旋律。B.動作識別是“多對一”的任務(wù),它將一系列的動作幀作為輸入,輸出一個動作標(biāo)簽。C.機器翻譯也可以是“多對一”的任務(wù),尤其是在將一句話(多個詞)翻譯成單個詞或短語時。但更常見的是“多對多”,即將一句話翻譯成另一句話。在此題的上下文中,我們可以考慮其簡化的形式,即輸出為單個主要意思或詞匯。D.情感分析通常是“多對一”的任務(wù),將一段文本或句子作為輸入,輸出一個情感標(biāo)簽。但考慮到某些情感分析可能輸出多個標(biāo)簽或維度,這里可能存在爭議。然而,按照最簡化的形式,它也可以被視為“多對一”??紤]到題目的具體要求和最常見的應(yīng)用場景,動作識別和機器翻譯在更嚴(yán)格的“多對一”定義下更為貼切,因此答案選擇B和C。83.發(fā)音器官包括哪些()A、喉中B、喉上C、喉頭D、喉下答案:BCD解析:發(fā)音器官分喉下、喉頭、喉上三個部分。喉下部分是由氣管到肺。從肺呼出的氣流成為語音的聲援。喉頭部是聲門和聲帶。聲帶是兩條韌帶,起著喉的閥門作用,它的閉攏和打開成為聲門。喉上部分包括咽腔,口腔和鼻腔三個區(qū)域84.關(guān)于sigmoid函數(shù)說法正確的是()A、Sigmoid函數(shù)單調(diào)連續(xù),求導(dǎo)容易,輸出有界,網(wǎng)絡(luò)比較容易收斂B、在網(wǎng)絡(luò)非常深的時候,梯度的模越來越小C、一般來說,Sigmoid網(wǎng)絡(luò)在5層之內(nèi),就會產(chǎn)生梯度退化為0的現(xiàn)象,難以訓(xùn)練。這種現(xiàn)象稱為梯度消失現(xiàn)象D、Sigmoid的輸出并是以0為中心的答案:ABC解析:Sigmoid函數(shù)因其單調(diào)連續(xù)、易求導(dǎo)、輸出有界的特點,使得網(wǎng)絡(luò)較容易收斂。但在深層網(wǎng)絡(luò)中,其梯度模會逐漸減小,導(dǎo)致梯度消失問題,一般在5層內(nèi)就可能發(fā)生,使得網(wǎng)絡(luò)難以訓(xùn)練。而Sigmoid函數(shù)的輸出值域為(0,1),并非以0為中心。85.下列關(guān)于護照識別服務(wù)的說法正確的是?A、country_code代表護照簽發(fā)國家的國家碼B、nationality代表持有人國籍C、passport_number代表護照號碼D、confidence相關(guān)字段的置信度信息,置信度越大,表示本次識別的對應(yīng)字段的可靠性越高,在統(tǒng)計意義上,置信度越大,準(zhǔn)確率越高答案:ABCD解析:護照識別服務(wù)涉及解析護照信息。其中,country_code確指護照簽發(fā)國的國家碼,nationality代表持有者的國籍,passport_number是護照的唯一標(biāo)識號碼。置信度信息反映識別可靠性,置信度越高,識別準(zhǔn)確率在統(tǒng)計上越高,表明對應(yīng)字段的識別結(jié)果更可信。86.下列選項中,關(guān)于AK/SK說法正確的是?A、通過API網(wǎng)關(guān)向下層服務(wù)發(fā)送請求時,必須使用AK、SK對請求進行簽名B、訪問密鑰ID和私有訪問密鑰一起使用,對請求進行加密簽名C、AK:訪問密鑰ID。與私有訪問密鑰關(guān)聯(lián)的唯一標(biāo)識D、SK:與訪問密鑰ID結(jié)合使用的密鑰,對請求進行加密簽名、可標(biāo)識發(fā)送方,并防止請求被修改答案:ABCD解析:AK/SK(訪問密鑰ID和私有訪問密鑰)是身份驗證的重要憑據(jù),在API請求中扮演著關(guān)鍵角色。A選項正確,通過API網(wǎng)關(guān)向下層服務(wù)發(fā)送請求時,確實需要使用AK、SK對請求進行簽名,這是為了驗證請求的合法性和完整性。B選項正確,訪問密鑰ID和私有訪問密鑰是成對使用的,它們共同對請求進行加密簽名,確保請求的安全性。C選項正確,AK即訪問密鑰ID,是與私有訪問密鑰關(guān)聯(lián)的唯一標(biāo)識,用于標(biāo)識請求的發(fā)送方。D選項正確,SK即私有訪問密鑰,與訪問密鑰ID結(jié)合使用,對請求進行加密簽名。它不僅可以標(biāo)識發(fā)送方,還可以防止請求在傳輸過程中被篡改。綜上所述,ABCD四個選項均正確。87.將圖像降維的方法主要有?A、降采樣B、分割感興趣區(qū)域C、特征描述子D、去噪答案:ABC解析:降采樣,主要指圖像縮小;分割感興趣區(qū)域也是一種降維的方式特征描述子值經(jīng)過計算,取出圖像特征降噪是為了去除干擾信息,不屬于降維88.以下哪些選項不是Word2Vec訓(xùn)練中可以采用的加速技巧?A、DataAugmentationB、Up-slingC、NegativeSlingD、SoftPlus答案:ABD解析:Word2Vec是一種用于計算詞向量的模型,其訓(xùn)練過程中可以采用多種加速技巧。在這些選項中,NegativeSling是一種常用的加速技巧,它通過減少需要更新的權(quán)重數(shù)量來提高訓(xùn)練速度。而DataAugmentation(數(shù)據(jù)增強)、Up-sling(上采樣)通常用于圖像處理領(lǐng)域,與Word2Vec訓(xùn)練加速無關(guān)。SoftPlus是一個激活函數(shù),與訓(xùn)練加速技巧不直接相關(guān)。因此,選項A、B、C不是Word2Vec訓(xùn)練中可以采用的加速技巧,答案是ABC。89.為了衡量數(shù)據(jù)中心的效率,主要參考以下哪幾項指標(biāo)?A、PUEB、數(shù)據(jù)中心溫度C、數(shù)據(jù)中心面積D、碳使用效率答案:AD解析:PUE(PowerUsageEffectiveness,電源使用效率)是用于衡量數(shù)據(jù)中心能源效率的關(guān)鍵指標(biāo),它表示數(shù)據(jù)中心總能耗與IT設(shè)備能耗的比值,比值越低,效率越高。碳使用效率反映了數(shù)據(jù)中心在運營過程中的碳排放情況,對于評估其對環(huán)境的影響和可持續(xù)性具有重要意義。而數(shù)據(jù)中心溫度和面積并非直接衡量數(shù)據(jù)中心效率的核心指標(biāo)。綜上所述,正確答案是AD。90.ModelArts中訓(xùn)練平臺可以支持的開發(fā)模式有哪幾種?A、云上開發(fā)IDE+PyCharmToolKit)B、云上開發(fā)(Notebook+SDKC、本地開發(fā)IDE+PyCharmToolKit)D、本地開發(fā)(Notebook+SDK)答案:AD解析:這道題考察的是對ModelArts訓(xùn)練平臺支持的開發(fā)模式的了解。ModelArts支持多種開發(fā)模式,包括云上開發(fā)和本地開發(fā)。云上開發(fā)可通過Notebook和SDK進行,本地開發(fā)同樣支持IDE搭配PyCharmToolKit或Notebook搭配SDK的模式。因此,云上開發(fā)IDE并非ModelArts支持的模式,A選項不正確。其余選項均準(zhǔn)確描述了ModelArts支持的開發(fā)模式。91.以下哪些門屬于LSTM的結(jié)構(gòu)?()A、輸入門B、輸出門C、記憶門D、遺忘門答案:ABD解析:這道題考察的是LSTM(長短期記憶網(wǎng)絡(luò))的結(jié)構(gòu)知識。LSTM包含三個主要結(jié)構(gòu):輸入門、遺忘門和輸出門。輸入門決定哪些新信息被加入到細胞狀態(tài)中,遺忘門決定從細胞狀態(tài)中丟棄哪些信息,輸出門決定細胞狀態(tài)的哪些部分將被輸出。因此,A、B、D選項正確描述了LSTM的結(jié)構(gòu),而C選項“記憶門”并非LSTM的標(biāo)準(zhǔn)組成部分。92.語音合成方法有哪些?()A、串聯(lián)共振峰合成器B、并聯(lián)共振峰合成器C、共振峰合成器D、PSOLA方法答案:ABCD解析:語音合成的方法有很多種,包括但不限于共振峰合成器、串聯(lián)共振峰合成器、并聯(lián)共振峰合成器等傳統(tǒng)方法,也可以使用PSOLA方法等現(xiàn)代技術(shù)。因此,ABCD都是正確的。93.關(guān)于L1正則化與L2正則化,以下哪項表是正確的?A、L1正則項有利于增強模型的泛化能力B、L1,L2正則項不能作用在損失函數(shù)之上C、L2正則化比L1正則化產(chǎn)生更加稀疏的模型D、加上L2正則向后,無法使用梯度下降算法迭代參數(shù)值答案:AC解析:這道題考察的是對L1和L2正則化的理解。L1正則化通過引入模型參數(shù)的絕對值之和作為懲罰項,有助于生成稀疏權(quán)重矩陣,進而增強模型的泛化能力。L2正則化則是引入模型參數(shù)的平方和作為懲罰項,它傾向于分散權(quán)重向量,使模型更加平滑。兩者都可以作用在損失函數(shù)上,且使用L2正則化后,仍然可以使用梯度下降算法迭代參數(shù)值。因此,選項A正確。94.以下關(guān)于梯度下降的描述中,哪些選項是正確的?A、小批量梯度下降(MBGD),結(jié)合BGD與SGD的特性,因此對于所有任務(wù)這種方法是最好的。B、隨機梯度下降(SGD),隨機選取一個數(shù)據(jù)集中的樣本在當(dāng)前的梯度來對權(quán)重參數(shù)進行更新操作。C、小批量梯度下降(MBGD),結(jié)合BGD與SGD的特性,每次選擇數(shù)據(jù)集中N個樣本的梯度來對權(quán)重參數(shù)進行更新操作。D、批量梯度下降(BGD),使用所有數(shù)據(jù)集中的樣本(共M個樣本)在當(dāng)前的梯度之和來對權(quán)重參數(shù)進行更新操作答案:BCD解析:正確答案是BCD。解釋如下:B選項描述的是隨機梯度下降(SGD),它是一種常用的優(yōu)化算法,通過隨機選擇一個數(shù)據(jù)集中的樣本在當(dāng)前梯度下的操作來更新權(quán)重參數(shù)。C選項描述的是小批量梯度下降(MBGD),它結(jié)合了批量梯度下降(BGD)和SGD的特性,每次選擇數(shù)據(jù)集中N個樣本的梯度來對權(quán)重參數(shù)進行更新操作。這種方法可以更好地利用數(shù)據(jù),提高算法的收斂速度和精度。D選項描述的是批量梯度下降(BGD),它使用所有數(shù)據(jù)集中的樣本在當(dāng)前的梯度之和來對權(quán)重參數(shù)進行更新操作。雖然這種方法在大規(guī)模數(shù)據(jù)集上可能表現(xiàn)不佳,但在處理小規(guī)模數(shù)據(jù)集時,BGD仍然是常用的優(yōu)化算法之一。因此,這三個選項都是關(guān)于梯度下降的正確描述。95.圖像識別的基本任務(wù)()A、圖像分類B、目標(biāo)檢測C、圖像分割D、目標(biāo)跟蹤答案:ABCD解析:圖像識別的基本任務(wù)涉及對圖像內(nèi)容的理解和分析。圖像分類是識別圖像中的主體類別;目標(biāo)檢測不僅要分類,還要定位圖像中的每個目標(biāo);圖像分割則進一步區(qū)分圖像中的不同區(qū)域和對象;目標(biāo)跟蹤是連續(xù)幀中定位同一目標(biāo)。這些任務(wù)共同構(gòu)成了圖像識別的基礎(chǔ),涵蓋了從簡單分類到復(fù)雜場景理解的全過程。96.RESTAPI的請求/響應(yīng)包含哪些A、請求URLB、請求消息頭C、請求消息體D、響應(yīng)消息頭E、響應(yīng)消息體答案:ABCDE解析:RESTAPI的請求/響應(yīng)通常包含以下內(nèi)容A.請求URL用于指定請求的目標(biāo)資源或操作。B.請求消息頭用于傳遞與請求相關(guān)的附加信息,如身份驗證、頭部信息等。C.請求消息體包含實際的請求數(shù)據(jù),如POST請求中的數(shù)據(jù)。D.響應(yīng)消息頭包含與響應(yīng)相關(guān)的元數(shù)據(jù),如狀態(tài)碼、響應(yīng)時間等。E.響應(yīng)消息體包含實際的數(shù)據(jù)或結(jié)果,如GET請求的響應(yīng)結(jié)果。97.華為云EI讓更多的企業(yè)邊界的使用AI和大數(shù)據(jù)服務(wù),加速業(yè)務(wù)發(fā)展,造福社會。華為云EI服務(wù)可以在以下哪些方面服務(wù)企業(yè)?A、行業(yè)數(shù)據(jù)B、行業(yè)智慧C、算法D、算力答案:ABCD解析:華為云El服務(wù)提供Al和大數(shù)據(jù)服務(wù),可以幫助企業(yè)加速業(yè)務(wù)發(fā)展,并造福社會。這種服務(wù)可以包括行業(yè)數(shù)據(jù)、行業(yè)智慧、算法和算力等方面,以滿足企業(yè)的不同需求。因此,正確答案是ABCD。98.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元數(shù)量可能為?A、32和10B、33和10C、10和和33D、9和33答案:ABC解析:全連接神經(jīng)網(wǎng)絡(luò)的參數(shù)總量計算公式是“上一層神經(jīng)元數(shù)量乘以本層神經(jīng)元數(shù)量加上本層神經(jīng)元數(shù)量(如果考慮偏置項)”。A選項(32?10+10=330)計算不符合,B選項(10?33=330)符合,C選項(33?10=330)符合,D選項(9?33=297)不符合。因此,正確答案是B和C,它們滿足參數(shù)總量的條件。99.以下哪些是Mindspore中Tensor常見的操作?A、switch()B、size()C、asnumpy()D、tensor_add(other:tensor)答案:BC解析:在MindSpore框架中,Tensor是一個基本的數(shù)據(jù)結(jié)構(gòu),用于表示多維數(shù)組。對于給出的選項:A.`switch()`并不是MindSpore中Tensor的常見操作。B.`size()`是Tensor的一個常見操作,用于獲取Tensor中元素的數(shù)量。C.`asnumpy()`也是Tensor的一個常見操作,用于將Tensor轉(zhuǎn)換為NumPy數(shù)組,方便與其他Python庫進行交互。D.`tensor_add(other:tensor)`看起來像是一個Tensor添加另一個Tensor的操作,但在MindSpore中,Tensor的加法通常使用`+`運算符或`add()`方法,而不是`tensor_add()`函數(shù)。因此,正確的選項是B和C。100.以下哪些華為云EI自然語言處理服務(wù)提供了基礎(chǔ)版和領(lǐng)域版的API?()A、文本分類B、情感分析C、文本摘要D、命名實體識別答案:ABCD解析:華為云EI自然語言處理服務(wù)提供了多個API,包括文本分類、情感分析、文本摘要和命名實體識別等。這些服務(wù)的基礎(chǔ)版和領(lǐng)域版API都是提供給用戶使用的,以滿足不同領(lǐng)域和不同需求的自然語言處理任務(wù)。因此,所有選項都是正確的。101.華為云文字識另別OCR技術(shù)的優(yōu)勢有哪幾項?A、識別精度高B、降低成本C、高適應(yīng)性D、快速高效答案:ABCD解析:華為云文字識別OCR技術(shù)具有多方面的優(yōu)勢,如高識別精度、降低成本、高適應(yīng)性以及快速高效。這些優(yōu)勢使其在很多場景中都得到了廣泛的應(yīng)用。因此,正確答案是ABCD。102.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),下列哪些說法是正確的?A、在卷積神經(jīng)網(wǎng)絡(luò)格中,池化層只能選擇最大池化,而不韻選擇其他方法。B、卷積運算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低級的特征如邊緣、線條和角,更多層的網(wǎng)絡(luò)能從低級特征中迭代提取更復(fù)雜的特征。C、全連接層把所有局部特征結(jié)合變成全局特征用來計算最后每一類的得分。D、卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層由若干卷積單元組成,每個卷積單元的參數(shù)都是通過反向傳播算法優(yōu)化得到的。答案:BCD解析:這道題考察卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。池化層有多種方法,不僅限于最大池化,故A項錯誤。卷積運算的目的是提取特征,從低級到高級,所以B項正確。全連接層將局部特征整合為全局特征,用于分類,C項正確。卷積層由卷積單元構(gòu)成,其參數(shù)通過反向傳播優(yōu)化,D項正確。103.RESTAPI的請求方法包括A、GETB、PUTC、POSTD、ELETE、PATCH答案:ABCDE解析:RESTAPI(RepresentationalStateTransferApplicationProgrammingInterface)是一種網(wǎng)絡(luò)應(yīng)用程序的設(shè)計風(fēng)格和開發(fā)方式,基于HTTP協(xié)議。在RESTAPI中,請求方法用于指示對資源的操作類型。A.GET方法用于請求訪問已被URI識別的資源,可以通過URL傳送查詢參數(shù)來指定資源狀態(tài)。B.PUT方法用于更新資源,客戶端發(fā)送的數(shù)據(jù)會替換指定URI的資源內(nèi)容。C.POST方法用于向指定資源提交數(shù)據(jù),請求服務(wù)器進行處理(例如提交表單或者上傳文件)。數(shù)據(jù)被包含在請求體中。D.DELETE方法用于刪除指定的資源。E.PATCH方法用于對資源進行部分修改。因此,RESTAPI的請求方法確實包括GET、PUT、POST、DELETE和PATCH,所以答案是ABCDE。104.下面哪些技術(shù)屬于圖像分割的應(yīng)用?A、連通域分割B、運動分割C、目標(biāo)分割D、閾值分割答案:ABCD解析:圖像分割是一種在圖像處理中常見的技術(shù),它將圖像分成多個部分或區(qū)域,以識別圖像中的不同對象或區(qū)域。其中,連通域分割、運動分割、目標(biāo)分割和閾值分割都是常見的圖像分割技術(shù)。因此,ABCD都是正確的。需要注意的是,用戶輸入的題目來源不同,所以可能存在差異。但總體來說,大學(xué)教授的知識儲備和推理能力可以幫助用戶找到正確的。105.以下哪些選項屬于正則化方法的有哪些選項?A、DropoutB、atchNormalizationC、NND、RNN答案:AB解析:正則化是一種通過引入額外的約束或懲罰項來防止過擬合的技術(shù)。常見的正則化方法包括L1和L2正則化、Dropout等。在深度學(xué)習(xí)中,BatchNormalization也可以被看作是一種正則化技術(shù),它通過對每個小批量的數(shù)據(jù)進行標(biāo)準(zhǔn)化處理,減少了內(nèi)部協(xié)變量偏移,從而有助于穩(wěn)定訓(xùn)練過程和減少過擬合的風(fēng)險。而CNN(卷積神經(jīng)網(wǎng)絡(luò))和RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))則是兩種不同類型的神經(jīng)網(wǎng)絡(luò)架構(gòu),不屬于正則化方法。因此,屬于正則化方法的選項是AB。106.自動學(xué)習(xí)的圖像分類數(shù)據(jù)可以從哪些途徑獲取()A、從ModelArts市場導(dǎo)入B、從網(wǎng)頁端上傳C、從OBS上傳D、從其他云服務(wù)商存儲服務(wù)載入答案:ACD解析:實驗手冊規(guī)定107.以下哪些服務(wù)屬于華為EI服務(wù)家族?A、對話機器人B、EI基礎(chǔ)服務(wù)C、自然語言處理D、EI大數(shù)據(jù)服務(wù)答案:ABCD解析:華為EI服務(wù)家族是華為提供的一系列企業(yè)級智能服務(wù),旨在幫助企業(yè)實現(xiàn)數(shù)字化轉(zhuǎn)型和智能化升級。其中,對話機器人屬于EI服務(wù)家族中的一員,它利用自然語言處理技術(shù),實現(xiàn)與用戶的交互和智能應(yīng)答。EI基礎(chǔ)服務(wù)提供了構(gòu)建和運行智能應(yīng)用所需的基礎(chǔ)能力和平臺支持。自然語言處理是EI服務(wù)家族中的核心技術(shù)之一,用于理解和處理人類語言。EI大數(shù)據(jù)服務(wù)則提供了對大規(guī)模數(shù)據(jù)的存儲、處理和分析能力,以支持企業(yè)的數(shù)據(jù)驅(qū)動決策。因此,選項A、B、C、D均屬于華為EI服務(wù)家族的一部分,答案是ABCD。108.以下選項中哪些是常用的深度學(xué)習(xí)激活函數(shù)?A、tanh函數(shù)B、ReLU函數(shù)C、Softsign函數(shù)D、Sigmoid函數(shù)答案:ABCD解析:這道題考察深度學(xué)習(xí)中的激活函數(shù)知識。在深度學(xué)習(xí)里,激活函數(shù)幫助模型引入非線性,提升表達能力。tanh、ReLU、Softsign、Sigmoid都是廣泛使用的激活函數(shù),它們各有特點,適用于不同場景和需求。因此,所有這些選項都是常用的深度學(xué)習(xí)激活函數(shù)。109.為了將數(shù)字圖像有效地轉(zhuǎn)換為結(jié)構(gòu)化數(shù)據(jù),需要用到圖像特征提取的技術(shù)降低數(shù)據(jù)的維度。以下哪些是圖像特征提取和降低數(shù)據(jù)維度的主要思路?()A、分割感興趣區(qū)域B、降采樣C、特征描述子D、模式識別答案:ABC解析:圖像特征提取的主要思路包括分割感興趣區(qū)域、降采樣和特征描述子。這些方法可以有效地從數(shù)字圖像中提取出有意義的信息,降低數(shù)據(jù)的維度,從而方便后續(xù)的數(shù)據(jù)分析和處理。因此,ABC都是正確的選項。110.自然語言處理的基本方法有?()A、能力模型B、應(yīng)用模型C、監(jiān)理模型D、強化模型答案:AB解析:能力模型通常是基于語言學(xué)規(guī)則的模型,建立在人腦中先天存在的語法通則這一假設(shè)的基礎(chǔ)上,認為語言是人腦的語言能力推導(dǎo)出來的,建立語言模型就是通過建立人工編輯的語言規(guī)則集來模擬這種先天的語言能力。應(yīng)用模型,通常是通過建立特定的數(shù)學(xué)模型來學(xué)習(xí)復(fù)雜的、廣泛的語言結(jié)構(gòu),然后利用統(tǒng)計學(xué)、模式識別和機器學(xué)習(xí)等方法來訓(xùn)練模型的參數(shù),以擴大語言實用的規(guī)模111.梯度下降法是一種常見的優(yōu)化算法,其特點包括以下哪幾項?A、多步迭代B、步長會影響收斂性C、更新方向梯度的反方向D、更新方向梯度的同方向答案:AB解析:梯度下降法是一種常見的優(yōu)化算法,其特點包括多步迭代和步長會影響收斂性。在每次迭代中,算法會根據(jù)當(dāng)前點的梯度信息,沿著梯度的反方向進行更新,即選項C錯誤,而沿著梯度的同方向進行更新,即選項D正確。因此,答案為AB。112.華為云人臉識別服務(wù),是基于人的臉部特征信息,利用計算機對人臉圖像進行處——分析和理解,進行身份識別的一種智能服務(wù),當(dāng)前華為云人臉識別提供了哪幾種子服務(wù)()A、人臉?biāo)阉鰾、人臉跟蹤C、人臉檢測D、人臉對比答案:ACD解析:華為云人臉識別服務(wù)是一種基于人臉圖像分析和理解的智能服務(wù),其中包括人臉?biāo)阉?、人臉跟蹤、人臉檢測和人臉對比等子服務(wù)。因此,為ACD。113.Adam優(yōu)化器可以看做是以下哪幾項的結(jié)合?A、MomentumB、AdagradC、NesterovD、RMSprop答案:ABD解析:Adam優(yōu)化器結(jié)合了Momentum和RMSprop的優(yōu)點。Momentum可以加速梯度下降,避免陷入局部最優(yōu)解;RMSprop則可以自適應(yīng)地調(diào)整學(xué)習(xí)率。Momentum為Adam優(yōu)化器提供了利用之前梯度信息加速收斂的特性。RMSprop為Adam優(yōu)化器提供了自適應(yīng)調(diào)整學(xué)習(xí)率的能力。綜上所述,Adam優(yōu)化器可以看做是Momentum和RMSprop的結(jié)合。114.在利用MindStudio連接Device進行應(yīng)用開發(fā)時,Device的芯片層包含的功能特性有以下哪些選項?A、流程編排器B、GEC、TBED、運行管理器答案:ABCD解析:在MindStudio中,當(dāng)連接到Device進行應(yīng)用開發(fā)時,Device的芯片層集成了多種功能特性以支持高效的應(yīng)用開發(fā)和部署。A選項的“流程編排器”通常用于定義和管理復(fù)雜的工作流程;B選項的“GE”(通用執(zhí)行環(huán)境)是運行應(yīng)用所必需的底層環(huán)境;C選項的“TBE”(TensorBoostEngine)是針對AI推理和訓(xùn)練優(yōu)化的硬件加速引擎;D選項的“運行管理器”則負責(zé)應(yīng)用的執(zhí)行和資源管理。因此,ABCD四個選項都是Device芯片層可能包含的功能特性。115.以下哪些是MindSpore的優(yōu)點()A、通過實現(xiàn)Al算法即代碼,使開發(fā)態(tài)變得更加友好,顯著減少模型開發(fā)時間,降低了模型開發(fā)門檻B(tài)、通過MindSpore自身的技術(shù)創(chuàng)新及MindSpore與Ascend處理器協(xié)同優(yōu)化,實現(xiàn)了運行態(tài)的高效,大大提高了計算性能C、原生適應(yīng)每個場景包括端,邊緣和云,并能夠按需協(xié)同,部署態(tài)靈活D、支持GPU、CPU等其它處理器答案:ABCD解析:這道題考查對MindSpore優(yōu)點的理解。MindSpore是一款全場景深度學(xué)習(xí)框架,其優(yōu)點包括:實現(xiàn)AI算法即代碼,簡化開發(fā)流程,降低開

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論