2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫-下(多選、判斷題)_第1頁
2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫-下(多選、判斷題)_第2頁
2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫-下(多選、判斷題)_第3頁
2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫-下(多選、判斷題)_第4頁
2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試題庫-下(多選、判斷題)_第5頁
已閱讀5頁,還剩241頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

2024-2025華為ICT大賽(實踐賽)-昇騰Al賽道理論考試3.與ASIC芯片相比,以下哪些選項是FPGA芯片的特征?D、loT行業(yè)終端正確)。至于C選項的高級內存復用,雖然在技術白皮書中有所提及,但在實際的服務列表中并未明確提供。因此,答案是A數據的維度。以下哪些是圖像特征提取和降低D、模式識別8.以下哪些是圖像處理的形式?()A、模型訓練平穩(wěn)性.2)短時分析技術貫穿于語音信號分析的是B、C、D選項。解析:HiAI是面向移動終端的AI能力開放平臺,它主要分為三個層次進行要開放能夠提供服務的AI能力,比如語音識別、圖像識別等,19.關于U-Net網絡相關的描述中,錯誤的有哪幾項?B、U-Net網絡用滑動窗口提供像素的周圍區(qū)域(patch)作為輸入來預測每個像D、U-Net網絡應用于生物醫(yī)學圖像處理領域,目標輸出包括目標類別的位置,A選項描述的目標輸出方式錯誤;C選項提到的后接全將U-Net歸類于強化學習,也是錯誤的。B選項描述正確。20.以下哪些項可以作為深度學習的優(yōu)化方法?21.語音合成方法有哪些?()A、共振峰合成器合成領域有著不同的應用和特點。所以選項ABCD均正確。A、自動學習D、多人數據標注ycharmSDK、數據集自動標注、多人數據標注等選項。這些服務可以幫助用戶更A、loT行業(yè)終端B、邊緣計算設備B、高偏差+低方差,可能造成欠擬合A、添加L1或L2正則懲訓項ropout方法,隨機丟棄一部分輸入,能增加模型泛化能力。擴充數據集,引入30.以下屬于決策樹主要構建步驟的是哪些選項?A、I計算擎A、*算法B、API易用性封裝速A、CPU答案:ABC45.在深度學習中,以下哪些是常用的正則項?A、L1項(也稱為L1范數)和L2正則項(也稱為L2范數或權重衰減)是兩種常用的數(如0或1),但這確實是一個數學上的不連續(xù)點。選項D指出ReLU無上界,布解析:見PPT435頁A、8連通解析:連通域分為4聯通、8聯通使用了TensorFlow的摸型,后來發(fā)現推理效果不好,然后使用MindSpore框架C、使用MindSpore訓練的模型無需使用ATC(AscendTensorCompiler)工具進行無需使用ATC(AscendTensorCompiler)工具進行轉換。此外,對于AIPP的設67.當使用機器學習建立模型的過程中,以下哪些屬于必備的操作?A、數據降維C、模型訓練D、數據標準化D、有專門的接口可以刪除某個人臉集中的人臉數據答案:ACDD、Sigmoid的輸出并是以0為中心的非以0為中心。 C、L2正則化比L1正則化產生更加稀疏C、小批量梯度下降(MBGD),結合BGD與SGD的特性,每次選擇數據集中N個D、批量梯度下降(BGD),使用所有數據集中的樣本(共M個樣本)在當前的梯更新權重參數。C選項描述的是小批量梯度下降(MBGD),它結描述的是批量梯度下降(BGD),它使用所有數據集中的樣本在當前的梯度之和A、圖像分類B、目標檢測D、目標跟蹤任務共同構成了圖像識別的基礎,涵蓋了從簡單分類A、請求URLA、32和10C、10和和33D、9和33元數量加上本層神經元數量(如果考慮偏置項)”。A選項(32*10+10=330)計算不符合,B選項(10*33=330)符合,C選項(33*10=330)符合,D選項(9*33=297)不符合。因此,正確答案是B和C,它們滿足參數總量的條件。B、卷積運算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一A、GETAPI中,請求方法用于指示對資源的操作類型。A.GET方法用于請求訪問已被UR定資源提交數據,請求服務器進行處理(例如提交表單或者上傳文件)。數據被104.下面哪些技術屬于圖像分割的應用?C、目標分割D、閾值分割105.以下哪些選項屬于正則化方法的有哪些選項?B、ReLU函數D、模式識別A、能力模型D、強化模型111.梯度下降法是一種常見的優(yōu)化算法,其特點包括以下哪幾項?A、多步迭代B、步長會影響收斂性C、更新方向梯度的反方向D、更新方向梯度的同方向答案:ACD答案:ABD解析:Adam優(yōu)化器結合了Momentum和RMSprop的優(yōu)點。Momentum可以加速梯度下降,避免陷入局部最優(yōu)解;RMSprop則可以自適應地調整學習率。Momentum為Adam優(yōu)化器提供了利用之前梯度信息加速收斂的特性。RMSpr器提供了自適應調整學習率的能力。綜上所述,Adam優(yōu)化器可以看做是Moment114.在利用MindStudio連接Device進行應用開發(fā)時,Device的芯片層包含的解析:在MindStudio中,當連接到Device進行應用開發(fā)時,Device的芯片層常用于定義和管理復雜的工作流程;B選項的“GE”(通用執(zhí)行環(huán)境)是運行應用所必需的底層環(huán)境;C選項的“TBE”(TensorBoostEngine)是針對AI推理115.以下哪些是MindSpore的優(yōu)點()122.jieba.cut方法的3個參數分別是()124.卷積神經網絡通常包含以下哪些層?()low)ResNet_v1_101(圖像分類)/TensorFlow/Ascend9nsorFlow)EfficientNetB0/B4/B7/B8(圖像分類/PyTorch)Res2Net_50(圖像分類答案:ABCD127.以下哪幾項屬于MindSpore里的激活函數算子?答案:ACD128.下面有關AI應用領域的描述正確的有哪些選項?和有限性(D選項正確),并且是一種離散性的隨機過程(C選項錯誤)。B、直接從0BS讀取A、dam因此,所有列出的選項A到E都是ModeIArts所涵蓋144.思維鏈(CoT)提示通過引入中間推理步驟實現了復雜的推理能力,其中ZeB、無需人工設計示例C、更好的可擴展性D、通用性強B選項正確,Zero-shot-CoT不需要人工耗費精力去設計示例。C選項正確,其能在多種情況下適用,通用性更強。而A選項多數情況下效果優(yōu)于Few-shot-Co145.以下關于模型中參數與超參數的描述中,哪些選項是LETE等)、遵循HTTP協(xié)議的語義和規(guī)范、使用標準的URL來標識和定位資源以147.昇騰芯片AI核有哪幾種計算資源?()T、DELETE等)來操作資源。Kerberos是一種網絡認證協(xié)議,并非HTTP請求的ful規(guī)范的請求,它也不是一種請求方式;編碼(如JSON、XML)則是請求體或為它不是請求方式)、D(編碼,因為它不是請求方式),但B(Curl)和C(Rx可以應用于自動著色”不屬于其可能出現的問題。綜上,答案是AC。B、高算力計算方面表現出更強的算力和更高的能效。它特點是具有較高的算力(B)和較A、傳感器的單元數B、灰度化D、傳感器的傳感性能A、返回值403說明沒有操作權限。B、返回值500說明請求失敗,在服務器上未找到請求所希望得到C、返回值400說明語義有誤,當前請求無法被服務器解析D、返回值401說明當前請求需要用戶驗證解析:201-創(chuàng)建類的請求完全成功204-請求成功400-非法請求。建議直接修改務端指出客戶端所提供的認證信息不正確或非法403-沒有權限404-資源不存在解析:一個卷積神經網絡主要由以下5種結構組成:1.輸入層。2.卷積層。3.155.以下哪些選項可以創(chuàng)建全零常量Tensor?156.以下哪些選項是基于昇騰310的設備?()端訓練場景;以及Atlas500型號,面向云端推理場景。這些都是基于昇騰310A、CV計算機視覺A、certainty解析:這道題考察的是圖像翻拍檢測服務調用成功時標簽suggestion的具體情ainty”表示不確定性,“TRUE”表示確認是翻拍。注意“FAISE”值對選項的分析:A選項正確,因為雙峰法確實是將圖像分成前景和背景兩部分,答案:ABCDD、擴大模型規(guī)模答案:ABC解析:A選項模型剪枝通過去除模型中不重要的參數來減少內存占用。B選項模型量化將模型的參數從高精度轉換為低精度表示,可降低內存需求。C選項知識蒸餾可以將復雜模型的知識傳遞給較小的模型,從而實現壓縮和減少內存占用。D選項MoE壓縮也是一種有效的模型壓縮技術。這些方式都可以在不同程度上幫助減少模型部署時的內存占用,所以答案為ABCD。答案:ABCD168.MindSpore目前支持多種常用的數據增強算子,其中c_transforms模塊可以實現以下哪幾種功能?解析:這道題考察的是對MindSpore框架中c_transforms模塊功能的了解。在量子計算機上運行。常見的通用量子算法包括Shor算法、HHL算法和Grover算選項A≥0.4MPa,這是一個特定場景下的壓力控制要求,不屬于通用量子算法的A、當前時間解析:AK方式登錄是指使用訪問密鑰(AK/SK)進行登錄鑒權,需要在登錄時填寫A171.如果深度學習神經網絡出現了梯度消失或梯度爆炸問題我們常用的解決方法為.答案:ACD解析:這道題考察的是深度學習神經網絡中梯度問題的解決方法。梯度消失或爆炸是訓練深度網絡時的常見問題。為梯度剪切能有效控制梯度大小,防止爆炸;使用Relu激活函數能避免梯度消失;正則化雖主要用于防止過擬合,但也能間接影響梯度。隨機欠采樣主要用于處理數據不平衡問題,與梯度問題無直接關系。172.ModeIArts訓練作業(yè)支持哪些算法引擎()A、TensorFlow答案:ACD解析:ModeIArts支持的算法引擎有TensorFlow、PyTorch、PySpark、XGBoost173.在構建好神經網絡net后,使用miB、升騰310C、升騰910type代表標簽的類別,一般包括場景(scene)、物體(object)、概念(concept)等不同類型的標簽。根據提供的選項,正確的是B和C選項。因此,本題答案選擇BC。182.使用裝有Atlas300加速卡的服務器編譯運行程序時需要檢查哪些條件A、完成Atals驅動安裝B、已安裝Cmake編譯工具C、已安裝CUDA軟件包解析:這道題考察的是使用裝有Atlas300加速卡的服務器編譯運行程序所需條些選項是正確的?A、softmax函數又稱作歸一化指數函數B、Softmax回歸模型是解決二分類回歸問題的算法C、是二分類函數sigmoid的推廣D、softmax函數經常與交叉熵損失函數聯合使用且總和為1,因此也被稱作歸一化指數函數。在分類任務中,softmax函數經常與交叉熵損失函數聯合使用,以提高模型的訓練效率。而softmax回歸模型實際上是解決多分類問題的算法,不是二分類。A、P30答案:ACDD、像人一樣行動答案:ABCDD、GECore中的Session管理A、0ptimizersptimizers)和編譯(compile)。-優(yōu)化器(0ptimizers)是用于設置模型的優(yōu)A、Tensorflow計算非常簡單,只需對輸入進行非線性變換,輸出為輸入值(輸入>0)或0(輸入≤0),這解釋了B選項的正確性。其次,ReLU在正區(qū)間內梯度恒為1,有效A、GPU解析:PyTorch提供的Tensor數據結構可以在不同硬件上加速計算,其中的Tensor支持在GPU和CPU上進行計算。因此,正確答案是A.GPU和B.CPU。201.以下哪些選項是人工智能深度學習框架?ert:BERT(BidirectionalEncoderRepresentationsfromTransformers)由AlexKrizhevsky等人在2012年提出,并在當年的ImageNet圖像識別競賽中解析:達芬奇架構是華為推出的一種面向AI計算場景的處理器架構,主要用于提升其AI產品的性能和能效。根據這個知識背景,我們可以分析每個選項:A.Ascend.310是華為的一款AI加速模塊,它使用了達芬奇架構,專為AI推理和架構,而不是達芬奇架構。C.Ascend910是華為的另一款AI處理器,同樣采用了達芬奇架構,專注于提供高性能的AI計算。D.Kunpeng920也是華為的一款服構的產品是Ascend.310和Ascend910,對應選項A和C,所以答案是AC。209.ATC模型轉換中的參數一般包括以下哪些選項?A、輸入數據維度B、輸入數據的順序D、模型所屬的框架的順序對于某些模型(如時間序列模型)至關重要,因此也是轉換過程中需要考D、模型連接(ModeIConnection)LangChain框架中,鏈是多個組件的集合,這些組件共同執(zhí)行一系列任務,形成一個完整的流程。B.模型輸入/輸出(Modell/0):這個組件負責將輸入數據格解析:VGG19包含了19個隱藏層(16個卷積層和3個全連接層)從而在測試集上表現不佳。因此,正確答案是ABC。213.2018年10月10日,華為發(fā)布了全棧全場景AI解決方案.華為全棧方案具體包括?解析:華為全棧全場景AI解決方案是指包含了華為自主研發(fā)的芯片、算法、框的安平使能、算法的昇騰系列AI芯片和MindSpore深度學習框架等四個部分。屬于ModeIArts中自動學習的功能?D、自動調參E自動壓縮D、自定義語音合成平臺解析:華為HAIService主要提供與AI服開信息,HAIService確實包括快服務智慧平臺(HAG)以及小藝對話開發(fā)平臺,能圖表識別平臺并不屬于華為HAIService提供的標準平臺范疇。因此,選項A和C是正確的,選項B和D則不正確。所以答案是AC。包括功能模塊,如FusionEngine(融合引擎)和CCE算子庫(計算庫),這些221.華為快應用IDE的功能包括哪些?()A、開發(fā)頁面或卡片C、構建和打包B、RMSprop優(yōu)化器C、Adam優(yōu)化器A、DSL其中,DSL(DomainSpecificLanguage,領域特定語言)允許用戶以更直觀、接ctionKit)是華為提出的張量指令集,旨在提升AI計算效率,也支持自定義算子的開發(fā)。而TVM(TensorVirtuaIMachine)雖然是一個強大的深度學習編譯器堆棧,但它并不直接針對TBE的自定義算子開發(fā)。Caffe則是一個較老的深度學習框架,與TBE的自定義算子開發(fā)不直接相關。因此,正確答案是A和B。224.以下哪些選項屬于HMSCore提供的AI能力項“OCR”指的是光學字符識別(0pticalCharacterRecognition)相關的API,小小C、生成器也屬于可迭代的數據集類型,其直接依賴Pythn的生成器類型generatr返回數據,直至生成器拋出Stplteratin異常。eratorDataset`接口來加載不支持直接加載的數據集。B選項正確,可迭代的數答案:ABDA、梯度消失問題B、過擬合問題D、梯度爆炸問題244.以下哪些OpenCV函數可以用于處理坐標變換?A、cv2.erode(image,kern解析:在0penCV中,處理坐標變換主要涉及到圖像的幾何變換函數。選項A中的`cv2.warpAffine`函數是用于對圖像進行仿射變換的,它接受一個變換矩陣M`和一個輸出圖像的大小`(w,h)`,可以對圖像進行平移、旋轉、縮放等操作,因此A選項是正確的。選項B中的`cv2.erode`函數是用于圖像腐蝕的,它屬于形態(tài)學變換,而不是坐標變換,所以B選項是錯誤的。選項C中的`cv2.flippicture`并不是O0penCV中的標準函數,可能是一個誤寫或虛構的函數,因此項是錯誤的。選項D中的`cv2.flip`函數可以用于翻轉正確答案是AD。A、RMSprop優(yōu)化器可以解決Adagrad優(yōu)化器過早結束的問題解析:RMSprop優(yōu)化器很好的解決了Adagrad優(yōu)化器過早結束的問題,很合適處246.語音信號的時域參數包括哪些()A、短時能量B、短時過零率247.John在使用MindSpore訓練模型時,想要將模型保存在本地文件中,以下選項中能實現他想法的選項有哪些?FrommindspCheckpointConfig(save_checkpoint_seconds=30,keepchecB、每隔30秒保存一個CheckPoint文件且每隔32個step保存一個CheckPointC、每隔32個step保存一個CheckPoint文件,且最多保存10個CheckPointA、期望為0B、期望為1C、方差為0D、方差為1個重要概念,其方差固定為1,表示數據的離散程度;期望(均值)為0,代表259.以下關于數據預處理的描述中,哪些選項是正確的?A、數據清理包含填充缺失值,發(fā)現并消除噪聲數據及異常點。B、數據降維簡化數據屬性,避免維度爆炸。C、數據標準化通過標準化數據來減少噪聲,以及提高模型準確性。D、機器學習最后輸出的結果需要借助模型,因此訓練模型比數據預處理更重要。解析:這道題考察的是對數據預處理的理解。數據預處理是機器學習項目中非常關鍵的一步。數據清理確實包含填充缺失值,發(fā)現并消除噪聲數據及異常點,這是保證數據質量的重要步驟。數據降維可以簡化數據屬性,避免維度爆炸,提高計算效率。數據標準化通過調整數據范圍,可以減少噪聲,有助于提高模型準確性。雖然訓練模型很重要,但數據預處理同樣關鍵,它直接影響到后續(xù)模型訓練的效果和準確性,因此D選項表述有誤。260.下列哪些是關鍵詞提取的方法?()解析:TF-IDF,TextRank,主題模型算法(LSA、LSI、LDA),HMM隱馬爾可夫模型一般用于生成序列,例如語音識別、詞性標注、分詞261.圖像的目標檢測算法需要完成()?(多選)A、目標類別的判斷B、置信度的計算C、目標邊緣的計算D、目標位置的計算斷和置信度的計算。因此,是ABC。圖像的目標檢測算法主要是對輸入圖像進行262.以下哪些是隱藏單元?C、Logisticsigmoid與雙曲正解析:Https:///qq_36182852/article/details/106735696整流263.基于華為云0CR服務,企業(yè)可以以實現以下哪些業(yè)務?A、合同錄入與審核D、貓狗圖片分類門診檢驗報告單掃描錄入等。OCR(0pticalCharacterRecognition)用0CR服務,企業(yè)可以將紙質文檔中的文字轉換為數字形式,從而實現自動化錄264.屬于jieba框架中的分詞方法的是?()解析:jieba是一個常用的中文分詞工具,在其框架中包類型的分詞結果,常用于處理單行文本。C.Icut_for內容,通過圖像的內容生成多個描述標簽,可應用于哪A、模糊圖像的修復性TIK算子開發(fā)方式與AutoSchedule機制是兩個相對獨立的概念,因此TIK算子開發(fā)方式本身并不使用AutoSchedule機制來加速算子運行效率。讓開發(fā)者專注于AI應用的創(chuàng)造隨機丟棄(或稱為“失活”)神經網絡中的一部分神經元(及其連接)來減少模14.記錄像素的原始值為s,變化后的像素點的值為d,灰度變化的映射函數為d會實現對圖像整體的灰度拉伸,包括暗部和亮部;而當016.Transformer結構更適合用于處理計算機視覺的任務,后18.統(tǒng)一身份認證(IdentityandAccessManagemnet,簡稱IAM),IAM為華為云解析:統(tǒng)一身份認證(IdentityandAccessManagement,簡稱IAM)是一種安全華為云EI企業(yè)智能服務器服務作為一個云服務產品,很可能采用了IAM來保證其服務的安全性和數據的保密性。通過IAM,華為云EI企業(yè)智能服務器服務可成較小的模型,同時保持相似的性能。在知識蒸餾過程中,教師網絡(大型、復雜的網絡)的知識被提取并傳遞給學生網絡(較小的網絡)。通過知識蒸餾,學理速度。解析:GRU(門控循環(huán)單元)確實在reset門為1且update門為0時會退化為一個標準的RNN(循環(huán)神經網絡)。值化任務。()數據,包含通道、高度和寬度),而非灰度圖像(即二維數據)。所以,這里的與回歸樹)而不是ID3樹。ID3樹是另一種決策樹算法,它使用信息增益來構建29.使用Mindspore.nn.Conv2d(1,3,5,hasbias=False,weightinit='normal')接口,可以創(chuàng)建輸入通道數為1、輸出的通道數為5、卷積核大小為3*3、解析:輸出通道數為3、卷積核大小為5*5、使用normal算子初始化參數的卷s800和300解析:昇騰AI處理器中包含AICPU,負責控制整個AICore的運算,并協(xié)同完成41.梯度下降算法是用于更新參數,尋找損失函數的最小點。其收斂點解析:TensorFlow2.0完全支持tens解析:MindSpore在網絡訓練過程中,batchsize過小時,**不一定**不能47.傳統(tǒng)圖形處理算法相比深度學習算法在效果上有巨大差距,現在工業(yè)界已經sorFlow2.0帶來了許多更新和改進,包括對API的精簡和重構,以提高可用性49.在邊緣計算設備上部署AI應用時,所使用的神經網絡模型越小越好。解析:在Adagrad優(yōu)化器中,初始的累計平方梯度可以為0,這是因為對于每個參數,累計平方梯度是逐漸累加的,初始化為0不會影響后續(xù)的計算。LU對輸出數據分布的影響,使得輸入和輸出的方差保持一致。57.Mindspore通過面向芯片的深度圖優(yōu)化技術,同步等待少,最大化"數據-計算-通信”的并行度解析:MindSpore是一種面向AI應用場景的開發(fā)框架,專注于提供高效、易用59.雙峰法能夠自動求取圖像的最佳分割闕值,適用于所有的灰度圖像二值化任過小時,**不一定**不能矩陣,每個狀態(tài)對應的觀察矩陣(這里對應的76.知識圖譜表示的是概念與實體之間的關系網絡,解析:參照PPT78.AscendCL提供的算子能力開放,既可以用于自定義算子開發(fā),也可以對現有79.使用ModeIArts模型轉換功能可以將Tensorflow模型轉換量化成tensorRT93.自然語言處理必須進行詞性標注。()94.在全連接神經網絡中,卷積層中每一個神經元只與前一層中部分神97.當問題的解決方案很復雜,或者問題可能涉及到大量的數據解析:把語音(≤60秒)轉換成對應的文字信息,適用于較短的語音交互場越多反向傳播的梯度會落入飽和區(qū),從而讓梯度的模越來越小,最終趨近于0,1正則項來懲罰模型的復雜度。權重衰減通常是指調整模型參數(如權重)以減110.一般來說,Sigmoid網絡在5層之內,就會產生梯度退化為0的現象,難以解析:HUAWEIHiAIEngine是華為提供的一個AI能力開放平臺,它允許開發(fā)者將換后,數據才能被計算機用于進一步的數字圖像處理,更廣泛的AI應用場景,因此在某些細節(jié)和性能優(yōu)化上可能與NumPy的數據類型有所不同??梢哉f,它們的基本概念不完全相同,尤其是在面向AI計算優(yōu)化的用了圖像分割的技術。()險。在預測或評估階段,通常不使用dropout。121.昇騰AI應用包含推理類應用、框架類應用(訓練),其中推理類應用支持對解析:隱馬爾科夫模型簡稱HMM,他的狀態(tài)不能直接觀察到,但能通過觀測132.假設我們有一個數據集,給出了來自某城市房屋銷售的21613套住房的居住B、錯誤134.Mindspore訓練數據處理引擎核心是將訓練樣本(數據集)高效,靈活的轉換至MindRecord,并提供給訓練網絡用于訓練。解析:將“MindSpore”修改為“MindSpore的”。解析:用于分詞的庫。四種常見的jieba分詞模式:精確地切開,適合文本分析;(不加參數,默認是精確模式)全模式:把句子I=True)paddle模式:利用PaddlePaddle深度學習框架,訓練序列標注(雙144.CANN中提供了DVPP和AIPP,前者使用昇騰AI處理器中的DVPP模塊對圖像騰處理器)、GPU(圖形處理單元)和CPU(中央處理器)。這意味著MindSpor還原一副灰度圖像的色彩。()數據.換提取聲譜圖解析:見實驗手冊ModeIArts實驗簡介部分解析:針對Atlas200DK,其開發(fā)和運行環(huán)境可以在同一個設備上,形成合設場解析:這道題正確,卷積層是卷積神經網絡(CNN)的核心組成部分,用于提取190.K-折交叉驗證最后可以使用k個模型最終的驗證集的分類準確率的平均數作為k-折交又驗證下分類器的性能指標。解析:這道題正確,因為在K-折交叉驗證中,確實會使用k個模型在驗證集上193.word2vce中計算相似度用的是

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論