




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
華為ICT大賽2024-2025中國區(qū)實踐賽(昇騰AI賽道)省決賽考試題庫及答案(供參考)6.以下哪個選項不是在自然語言處理發(fā)展過程中的方法?7.一副4位的圖形能夠區(qū)分多少種亮度變化?個4位的圖形意味著每個像素點可以用4位二進制數(shù)來表示其亮度。由于二進制數(shù)的每一位都可以是0或1,因此4位二進制數(shù)可以組合成2^4=16種不同的亮B、自變型個選項?()B、Tanh函數(shù)是關(guān)于0點對稱的的收斂速度,所以A選項錯誤。tanh函數(shù)是關(guān)于0點對因此B選項正確。Sigmoid函數(shù)雖然簡單易懂,但存在梯度消失正確答案是B。17.伽馬變化是()處理,直方圖均衡化是(),均值濾波是()處理。18.HIAIEngine-ASR前置靜音檢測的默認時間是?答案:B答案:A22.使用ModeIArts自動學習構(gòu)建圖像分類或物體檢測項目時,數(shù)據(jù)集不支持以下哪一圖片格式?()解析:在使用ModeIArts自動學習構(gòu)建圖像分類或物體檢測項目時,數(shù)據(jù)集支持常見的圖片格式,如PNG(PortableNetworkGraphicExpertsGroup)、BMP(Bitmap)等。然而,對于WebP格式(一種谷歌開發(fā)的旨在加快網(wǎng)絡傳輸和節(jié)省帶寬的圖像壓縮格式),可能由于格式特性或兼容性23.以下哪一項不屬于MindSpore全場景部署和協(xié)同的關(guān)鍵特性?A、統(tǒng)—模型R帶來一致性的部署體驗。端云協(xié)同F(xiàn)ederalMetaLearning打破端解析:這道題考察的是對MindSpore全場景部署和協(xié)同關(guān)鍵特性的理解。MindSpore作為一個全場景深度學習框架,其核心特性包括統(tǒng)一的模型部署體驗、端云協(xié)同的聯(lián)邦元學習、以及軟硬協(xié)同的圖優(yōu)同的圖優(yōu)化技術(shù)。而C選項,“數(shù)據(jù)+計算整圖到Ascend芯片”,并不直接體現(xiàn)MindSpore全場景部署和協(xié)同的關(guān)鍵特性,它更多關(guān)注的是數(shù)據(jù)處理和芯片優(yōu)化24.以下選項中,哪個選項的模型無法分割線性不可分數(shù)據(jù)集?在0和1之間,并且所有類別的輸出值之和為1。這使得Softmax函數(shù)非常適合式,我們可以看出,當x趨近于負無窮時,σ(x)趨近于0;當x趨近于正無窮時,σ(x)趨近于1。因此,Sigmoid函數(shù)的取值范圍是(0,1),選項B正確。32.一副4位的圖形能夠區(qū)分多少種亮度的變化?個4位的圖形意味著每個像素點可以用4位二進制數(shù)來表示其亮度。由于二進制數(shù)的每一位都可以是0或1,因此4位二進制數(shù)可以組合成2^4=16種不同的亮33.利用gensim實現(xiàn)Doc2Vec時,哪個參數(shù)代表選擇的具體模型?36.MindSpore提供了靈活的數(shù)據(jù)集加載方法,當用戶通過Python實現(xiàn)自定義數(shù)re中,為了實現(xiàn)自定義數(shù)據(jù)集的讀取,用戶需要定義一個Python類,并通過特定的接口進行數(shù)據(jù)加載。根據(jù)MindSpore的官方文檔和API設計,`GeneratorD37.John在使用MindSpore練續(xù)里的時候保存了一個ckpt格式的檢查點,然后他發(fā)現(xiàn)這種格式無法直接在昇騰310芯片上進行推型在昇騰310處理器完成推理,以下選項中哪種做法是正確的?A、使用MindSpore加載當前檢查點文件,然scendTensorCompiler)工具轉(zhuǎn)換為0M格式,即可在昇騰310處理器上進行推理。A、Tanh函數(shù)C、Softmax函數(shù)解析:這道題考察的是對五官特征檢測API返回的關(guān)鍵點坐標數(shù)量的了解。在人臉五官特征檢測中,API會返回代表五官輪廓位置的關(guān)鍵點坐標,這些坐標點稱為landmark點。根據(jù)目前的技術(shù)標準和API設計,通常支持68個landmark點,用于詳細描繪人臉五官的輪廓和特征。46.某個汽車公司的產(chǎn)品,A廠占40%,B廠占60%,A的次品率是1%,B的次品A、0.25品占比*A廠的次品率+B廠的產(chǎn)品占比*B廠的次品率)=(0.4*0.01)/(0.4*0.是()49.以下在深度學習全流程描述中關(guān)于數(shù)據(jù)集的補充,正確的是哪一項?在模型訓練中,需要遍歷(1)進行訓練,在訓練過程中,可以邊訓練,邊在(2)上進型,在(3)上評估效果。A、1.驗證集2.訓練集3.測試集B、1.測試集2.訓練集3.測試集C、1.訓練集2.測試集3.驗證集D、1.訓練集2.驗證集3.測試集解析:在深度學習全流程描述中,關(guān)于數(shù)據(jù)集的補充成后評估模型的最終性能。因此,正確的選項是D1.訓練集2.驗證集3.測試50.反向傳播算法的做法是:計算之后將其進行反向傳播。以下哪一的正確內(nèi)容?B、各個輸入樣本的平方差之和C、各個網(wǎng)絡權(quán)重的平方差之和解析:正確的內(nèi)容是“C.各個網(wǎng)絡權(quán)重的平方差之和”。反向傳播算法是一種用A、cv2.GaussianBlur(im,(5,5)52.在坐標變化時,計算得到的坐標數(shù)值不是整數(shù),需要使用什么方素的值?A、插值C、量化53.華為深度學習框架MindSpore的亮點有?B、圖像識別與處理技術(shù)C、圖像生成與增強技術(shù)技術(shù),虛擬助理能夠解析和處理用戶的語音輸入,進而55.常用的梅爾倒譜系數(shù)(Mel-FrequencyCepstralCoefficients)一般是一個多技術(shù)?本中的實體(如人名、地名、事物名稱等);屬性抽取用于識別實體的屬性(如62.反向傳播算法是深度學習神經(jīng)網(wǎng)絡中重要的算法,以是正確的?A、先反向傳播計算出誤差,再正向傳播計算梯度C、只有反向傳播計算梯度D的描述。A、一元線性回歸B、400:沒有操作權(quán)限C、每個隱藏層的單元數(shù)越多分類精度越高,但是也會帶來計算性能的下降,因度,選擇合適的隱藏層數(shù)量。綜上所述,選項D是錯誤的。68.“批量推理是對批量數(shù)據(jù)進行推理的批量作業(yè),使用對模型進行訓練。”關(guān)于上述描述,以下哪操作之前都需要先對模型進行訓練。因此,正確答案是B,即該描述錯誤,推理69.Pytorch是有哪一個公司首先推出的?A、百度70.以下哪個選項不屬于語音識別預處理的步驟?B、增加隨機噪點C、去除標簽相同的重復音頻提高識別準確率。而B選項不屬于這個步驟,因此是正確。答案:C72.下列選項中昇騰310和昇騰910屬性相同的是?答案:B似性和差異性。1.分析選項A,最大功率:不同型號的處理器,由于設計、用途75.以下哪個不是Mindspore核心架構(gòu)的特點?B、自動調(diào)優(yōu)D、自動并行碼并不是MindSpore的核心架構(gòu)特點。C、優(yōu)化參數(shù)型訓練完成后的應用,不是梯度下降法的直接目的。因此,正確答案是C。77.在華為云EI中哪一項是面向開發(fā)者的一站式AI開發(fā)平臺,為機器學習與深度學習提供海量數(shù)據(jù)預處理及半自動化標注,大規(guī)模分布式Training自動化模期AI工作流?包括:*海量數(shù)據(jù)預處理及半自動化標注:這意味著開發(fā)者可以更容易地處理大的工作量。*大規(guī)模分布式Training:ModeIArts支持大規(guī)模分布式訓練,這意得訓練大規(guī)模模型成為可能。*自動化模型生成:這地生成模型,而無需手動進行復雜的建模過程。*端-邊-云模型按需部署能力:ModeIArts允許開發(fā)者根據(jù)需要將模型部署到不同的環(huán)境(如終端、邊緣或云端),解析:新版AndroidUI設計器默認的布局設計風格為ConstraintLayout,這是t、FrameLayout和RelativeLayout都是AndroidUI設計中常見的布局方式,但82.圖像中的目標對中心位置偏右了15個像素,可以使用下面哪種平移量的平移解析:根據(jù)題目描述,圖像中的目標相對中心位置偏右了15個像素。為了將其平移量為負值(即向左移動),考慮到題目要求使用選項中的數(shù)值進行平移,所以平移坐標應為(-15,0),即選項D。83.Tensorboard是什么()A、MXNet官方提供的深度學習可視化工具B、ModeIArts自研的可視化工具C、Python提供的可視化工具包D、TensorFlow官方提供的深度學習可視化工具B、layout優(yōu)化答案:B答案:BA、極大的降供了車輛生產(chǎn)成本,B、能夠讓特殊人群上路C、減少交通事故89.自然語言處理的應用場景不包括以下哪一個選項?A、輿情分析B、機器翻譯D、圖像識別不是NLP的應用場景。因此,選項D“圖像識別”不屬于自然語言處理的應用范93.我們通常說的720P的視頻格式,720代表什么D、深度圖優(yōu)化解析:這道題考察的是對MindSpore計算性能優(yōu)化措施的一個深度學習框架,為了提升計算性能,確實此,選項D不屬于MindSpore在提升計算性能方面所做的優(yōu)化內(nèi)容。97.關(guān)于循環(huán)神經(jīng)網(wǎng)絡以下說法錯誤的是?A、循環(huán)神經(jīng)網(wǎng)絡可以根據(jù)時間軸展開C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡NN)確實可以根據(jù)時間軸展開,LSTM是循環(huán)神經(jīng)網(wǎng)絡的一種,專門設計來解決項A、C、D都是正確的。而選項B的說法“LSTM無法解決梯度消失的問題”是錯誤的,因為LSTM的主要改進之一就是引入了門控機制,正是為了解決梯度消98.(單選題)哪個MindSpore組件幫助實現(xiàn)“一次訓練,多處部署”?()解析:這道題考察的是對EI服務應用領(lǐng)域的理解。首先,從題干中我們可以了A選項“園區(qū)智能體”,通常用于園區(qū)的智能化管理,與網(wǎng)絡性能問題不直接相關(guān)。*B選項“交通智能體”,主要應用于交通領(lǐng)域的智能化,同樣與網(wǎng)絡性能問題不直接相關(guān)。*C選項“網(wǎng)絡智能體”,專注于網(wǎng)絡的智能化管理,包括性商公司面臨的網(wǎng)絡問題,最適用的EI服務是“網(wǎng)絡智能體”,因此答案是C。D、內(nèi)存復用提升模型訓練的精度。因此,選項B“二階優(yōu)化”是正確答案。102.將NumPy轉(zhuǎn)換為Tensr的方式是以下哪一種?111.用一個3*3的卷積核對一幅三通道彩色圖像進行卷積,要學習的參數(shù)的哪個數(shù)為?圖像中的對應像素相乘,然后將所有的乘積相加。對于一個3*3的卷積核,其卷積運算實際上是對一個3*3的窗口在圖像上進行滑動,因此需要學習的參數(shù)數(shù)量為窗口內(nèi)所有像素的乘積,即27個參數(shù)。因此,為A。112.我們可以利用以下哪種方法實現(xiàn)反向傳播?()A、計算圖C、代價函數(shù)層計算每對節(jié)點之間的輸出誤差,從而實現(xiàn)反向傳播。因此,選項B是正確的。A、內(nèi)嵌keras并不內(nèi)嵌Keras,Keras是另一個深度學習框架,通常與TensorFlow一起使用。因此,選項A是正確答案。因此,該選項不屬于MindRT子系統(tǒng)的功能特性。所以,正確答案是D。像?在題目所給的選項中,伽馬值可以選擇為0.5。這是因為,是C,即伽馬值為0.5。Authorization(身份驗證信息)型為分類模型,選項D是正確的。下使用,以下那個場景需要使用動態(tài)AIPP?因此需要動態(tài)地調(diào)整預處理參數(shù),如YUV420和RGB等。在這種情況下,需要使根據(jù)靜態(tài)AIPP提供的預設參數(shù)進行處理。A、get_all為False時,會對所有揄入求導D、Grad0peration方法在梯度下降和反向傳播中沒有任何用處135.圖像處理任務中,數(shù)據(jù)集的真實標簽被稱為?解析:在圖像處理任務中,數(shù)據(jù)集的真實標簽通常被稱為GroundTruth,因為它代表了真實的數(shù)據(jù)和信息,是進行算法訓練和評估的重要參考。因此,選項C解析:這道題考察的是對Atlas300(3000)加速卡檢測命令的了解。在Linux系統(tǒng)中,`Ispci`命令用于列出所有PCI設備,`grep`命令用于搜索特定文本。對138.X=Tensor(np.array([[1,2],[3,4]]),32)在MindSpore中,D、創(chuàng)建ndarray解析:這道題考察的是對MindSpore框架中Tensor對象創(chuàng)建的理解。在MindSpore中,`Tensor`是用于表示多維數(shù)組的對象,類似于NumPy的`ndarray`。代ensor`對象,而不是修改其維度、創(chuàng)建`ndarray`或刪除`Te答案是B,表示這段代碼的作用是創(chuàng)建一個`Tensor`對象。注意,原答案C提到139.華為云EI提供RestfuIAPI,以下哪個選項是請求服務器返回指定資源的方法?A、GET解析:在使用RestfulAPI請求服務器返回指定資源時,通常使用HTTP方法中的GET方法。GET方法用于從服務器獲取資源,不對資源做任何修改,僅僅是請求數(shù)據(jù)。因此,在提供RestfulAPI服務時,以GET方法進行請求是獲得指定資源140.如果采樣頻率為f,幀數(shù)為a,則以下哪一項是聲音信號的長度?()A、/2f為D。從圖像中提取特征。因此,對于圖像分類問題,卷積神149.以下對于深度學習與人工神經(jīng)網(wǎng)絡的關(guān)系的描述,正確的是哪一項?學習。人工神經(jīng)網(wǎng)絡(ANN)是深度學習的核心組成部分,其中深度神經(jīng)網(wǎng)絡是度學習與ANN密切相關(guān);D項錯誤,因為深度學習的模型除了ANN還包括其他模答案:D153.MindX包括多個組件,提供了集群調(diào)度、邊緣推理、應用快速開發(fā)等功能,其中哪個組件提供了開源模型下載功能?154.如果有100個卷積核,每個卷積核的大小是10x10,在不考慮偏置的情況下,以下哪一項是正確的參數(shù)量A、100答案:C求出()個對應關(guān)鍵點坐標,對圖像進行()變換,將文檔圖像修正。A、4,仿射D、3,仿射所以B并不符合題意。因此,最終答案是A。算法是一種基于概率的分類方法,而長短周期記憶網(wǎng)絡(LSTM)則列數(shù)據(jù),如時間序列或文本數(shù)據(jù)。因此,選項C“卷積神經(jīng)網(wǎng)絡”是正確答案。162.快應用中用于繪制幾何圖形的組件是?來創(chuàng)建tensor(張量)。在TensorFlow2.0中,`zerosA、165.以下哪一項是代碼mox.file.exists('obs://bucket_name/test01')執(zhí)行//moxing-devg-modelarts/modelarts_11_0005B、人工神經(jīng)網(wǎng)絡是從微觀結(jié)構(gòu)和功能上對人腦的抽象、簡化,是模擬人類智能C、人工神經(jīng)網(wǎng)絡反映了人腦功能的若干基本特征,如并行信息處理、學以便進行進一步的數(shù)據(jù)處理或分析。根據(jù)MindSpore的官方文檔和API,正確的函數(shù)是`asnumpy()`,它用于將Tensor對象轉(zhuǎn)換為NumPy數(shù)組。因此,選項DA、srcustomizationclien172.John是某公司的提示詞工程師,他在設計提示時,不需要考慮以下哪一項因素?A、提示詞長度B、任務的復雜度D、算力的消耗解析:在設計提示詞時,提示詞長度會影響表達的清晰和簡潔程度(任務的復雜度決定了提示詞需要提供的信息量和詳細程度(B選項);提示詞的準確性直接關(guān)系到能否有效引導和獲得準確的結(jié)果(C選項)。而算力的消耗通以,選項D是不需要考慮的因素,答案選D。177.ModeIArts預置模型的本質(zhì)是什么()C、強化學習一個任務中178.ModeIArts自動學習的使用流程是什么?部署上線,選項D正確。案是A。解析:樸素貝葉斯算法是一種基于貝葉斯定理和特征條時,特征之間不存在關(guān)系。因此,對于描述住房時使用的屬性(如住宅面積、戶型、裝修類型等),如果將它們作為樸素貝葉斯模型的特征來應用,可以假設這個cell特征長度為?檢測中。題目中提到“取20度為一個區(qū)間統(tǒng)計”,意味著360度被分成了18個區(qū)間(360/20=18)。但題目又指出“對稱的角度歸為一類”,即對稱的區(qū)間合并,那么18個區(qū)間將合并成9個(因為對稱的區(qū)間會合并成一個)。所以,這個cell的特征長度是9。185.以下哪個激活函數(shù)可以很好的解決梯度消失dLinearUnit)由于其非飽和性,在正數(shù)部分梯度恒為1,因此可以有效緩解梯度消失問題。而Sigmoid和Tanh函數(shù)在輸入值較大或較小時,梯度接近于0,容易導致梯度消失。softsign函數(shù)雖然形狀與Tanh相似,但其梯度消失問題并未得到很好的解決。因此,選擇C(Relu)作為答案。186.以下對超參數(shù)學習率的作用的描述,正確的是哪A、減少過擬合C、減少偏差解析:正確答案是B.控制參數(shù)更新速度。學習率是一個超參數(shù),它控制了每次更新參數(shù)時更新的步長。如果學習率過大,參數(shù)可能會在最小值附近“震蕩”,測性和有限性(D選項正確),并且是一種離散性的隨機過程(C選項錯誤)。D、推理文件準備解析:在大模型部署過程中,通常會經(jīng)過以下流程:1.**模型轉(zhuǎn)換**:將訓A、輸出關(guān)于0點對稱D、導數(shù)最大值為1答案:ACD答案:ACD該請求,不要重試該請求401-在客戶端提供認證信息后,返回該狀態(tài)碼,表明服務端指出客戶端所提供的認證信息不正確或非法403-沒有權(quán)限404-資源不存在500-表明服務端能被請求訪問到,但是不能理解客戶的請求17.以下哪些應用屬于機器學習的監(jiān)督學習任務?A、專家系統(tǒng)B、手寫字符識別A、sigmoid,tanh,Softsign函數(shù)在訓練深度神經(jīng)網(wǎng)絡的過程中,都無法回避C、sigmoid函數(shù)單調(diào)連續(xù),求導容易,輸出有界D、tanh函數(shù)關(guān)于原點對稱,均值更接近于0。的特點如下A選項,Sigmoid函數(shù)在中間區(qū)域單調(diào)遞減,但在接近0和1的兩端容易收斂。因此,A選項不正確。B選項,Sigmoid、Tanh和Softsign函數(shù)在訓練深度神經(jīng)網(wǎng)絡的過程中,都存在梯度21.使用token的認證方式訪問華為云EI服務需要提供以下哪些信息?A、子賬號名解析:Https:///qB、縮放D、CRF中需要對不同序列的結(jié)果進行概率歸一化。D、概率密度函數(shù)在正負無窮的積分為141.在利用MindStudio連接Device進行應用開發(fā)時,Device的芯片層包含的功解析:在MindStudio中,當連接到Device進行應用開發(fā)時,Device的芯片層常用于定義和管理復雜的工作流程;B選項的“GE”(通用執(zhí)行環(huán)境)是運行應42.圖引擎服務(GraphEngineservice)是針對以“關(guān)系”為基礎的“圖”結(jié)構(gòu)數(shù)據(jù),進行一體化查詢、分析的服務。下列哪幾項是B、簡單易用D、高性能43.以下哪些選項屬于華為云EI的相關(guān)服務()B、EI智能體44.人工智能現(xiàn)在的技術(shù)應用方向主要有?A、自然語言處理B、ReLU函數(shù)A、更安全的數(shù)據(jù)共享是AI技術(shù)更好發(fā)展的基石之一。解析:為了促進AI技術(shù)的發(fā)展,需要完善的基礎數(shù)據(jù)服務產(chǎn)業(yè),包括更安全的47.以下哪幾項屬于MindSpore中與nn(神經(jīng)網(wǎng)絡)相關(guān)算子?激活函數(shù),用于神經(jīng)網(wǎng)絡中的非線性變換。因此,它們都與nn相關(guān)。而Mul是乘法算子,雖然可能在神經(jīng)網(wǎng)絡中用到,但它本身不屬于nn特有的算子范疇。48.以下屬于文本分析的具體內(nèi)容的是?()A、文本歸一化B、語音合成是誤寫或虛構(gòu)。因此,正確選項是B和C。共享主要出現(xiàn)在卷積神經(jīng)網(wǎng)絡(CNN)中,它通過共享卷積核的權(quán)重來減少參數(shù)數(shù)量,提高計算效率。循環(huán)神經(jīng)網(wǎng)絡(RNN)和全連接神經(jīng)網(wǎng)絡(FCN)并不具備這一特性,它們的權(quán)重是獨立設置的。感知器(Perceptron)作為最簡單的神經(jīng)網(wǎng)絡模型,同樣不涉及權(quán)重共享。因此,正確答案是A,即卷積神經(jīng)網(wǎng)絡會發(fā)生52.以下哪些屬于AI訓練和推理框架?于訓練模型和執(zhí)行模型推理。常見的AI訓練和推理框架包括因此不包含在AI訓練和推理框架之內(nèi)。因此,答案為ACD,即MindSpore、Pytorch和TensorFlow屬于AI訓練和推理框架。53.關(guān)于L1正則化與L2正則化,以下哪項表是正確的?B、L1,L2正則項不能作用在損失函數(shù)之上解析:這道題考察的是對L1和L2正則化的理解。L1正則化通過引入模型參數(shù)使用梯度下降算法迭代參數(shù)值。因此,選項A正確。D、以上都不是果最好55.以下關(guān)于lindSpore自動并行關(guān)鍵技術(shù)的描述中,哪些選項是正確的?C、mindSpore可以應對超大規(guī)模模型實現(xiàn)高效分布式訓練的挑戰(zhàn)MindSpore的這些特性。選項B錯誤,因為MindSpore不僅支持手動模型并行,56.ModeIArts中自動學習功能不需要代碼編寫和模型開發(fā)屬于ModeIArts中自動學習的功能?D、自動調(diào)參E自動壓縮景60.圖像的目標檢測算法需要完成()?(多選)61.馬爾科夫鏈是自然語言常用的算法,馬爾科夫鏈的性質(zhì)包括?()解析:馬爾科夫鏈描述了一種狀態(tài)序列,其每個狀態(tài)值取決于前面有限個狀態(tài)。馬爾可夫鏈是具有馬爾可夫性質(zhì)的隨機變量的一個數(shù)列。這些變量的范圍,即它們所有可能取值的集合被稱為狀態(tài)空間。具有正定性和有限性。正定性:狀態(tài)轉(zhuǎn)移矩陣中每一個元素被稱為狀態(tài)轉(zhuǎn)移概率,由概率論知識可知,每個狀態(tài)轉(zhuǎn)移概率皆為正數(shù);有限性:轉(zhuǎn)移矩陣中的每一行相加皆為1.62.下列哪些是關(guān)鍵詞提取的方法?()解析:TF-IDF,TextRank,主題模型算法(LSA、LSI、LDA),HMM隱馬爾可夫模型一般用于生成序列,例如語音識別、詞性標注、分詞63.在某些應用場景中(比如推薦系統(tǒng)、分子動力學、圖神經(jīng)網(wǎng)絡等),數(shù)據(jù)的B、MindSpre現(xiàn)在已經(jīng)支持最常用的CSR和C兩種稀疏數(shù)據(jù)格式C、MindSpre常用稀疏張量的表達形式是&It;indices:Tensr,values:Tensr,shlumn)是兩種常用的稀疏數(shù)據(jù)格式,MindSpore支持這兩種格式,那么B選項描述正確。C選項錯誤,在稀疏張量的64.在深度學習任務中,遇到數(shù)據(jù)不平衡問題時,我們可解訣?A、批量刪除66.華為云人臉識別服務,是基于人的臉部特征信息,利用計算機對人臉圖像進務。該服務提供了多種子服務,包括人臉搜索(A)、人臉跟蹤(B)、人臉檢測(C)和人臉比對(D)。人臉檢測是進行人臉識別服務的基礎,它能夠自動識別頁)分辨率)69.從技術(shù)架構(gòu)來看AI芯片的分類包括?A、FPGA是從大量數(shù)據(jù)中提取出有用信息和模式的過程,與AI緊密相關(guān)。人機交互研究78.TensorF1ow2.0中可以用來查看是否是tensor的方法有?C、istensor解析:在TensorFlow2.0中,可以使用`dtype`、`isinstance`和`is_tensor`這三個方法來查看是否是tensor。其中,`dtype`可以用來獲取tensor的數(shù)據(jù)類型,`isinstance`可以用來檢查對象是否屬于特定的類型(在這個情況下,就否是Tensor。C、無人駕駛D、智能機器人C、Borel單元架95.以下哪些選項是TensorFlow2.0中的Keras接口C、升騰910B、K-Means中的K110.華為快應用IDE的功能包括哪些?()其中Atlas300型號的價格為9000,Atlas800型號的價格介于78,668至9,529處理計算密集和易于并行的程序,如圖像渲染,這使得D選項也是正確的。而A123.John想要使用華為云ModeIArts開發(fā)下哪一種方式登錄0BSBrowser+?()K方式登錄、帳號登錄以及授權(quán)碼登錄方式其中,service-endpoint項?D、有界的函數(shù)已經(jīng)被證明在某些情況下泛化效果更好化效果更好127.以下哪些選項是決策樹用于劃分節(jié)點C、信息嫡包括Gini系數(shù)和信息嫡,它們用于衡量數(shù)據(jù)分布的不純度,幫助選擇最佳劃分當前模型輸出的誤差,指導訓練過程。而構(gòu)建共現(xiàn)矩陣是Word2Vec的預處理步項(也稱為L1范數(shù))和L2正則項(也稱為L2范數(shù)或權(quán)重衰減)是兩種常用的D、使用Dropout方法Tensr操作解析:A選項正確,神經(jīng)網(wǎng)絡模型通常由多個神經(jīng)網(wǎng)絡層組合,并通過Tensord函數(shù)并非在所有繼承類中都必須重寫。D選項輯。綜上所述,正確答案是AC。A、是二分類函數(shù)sigmoid的推廣B、softmax函數(shù)又稱作歸一化指數(shù)函教C、Softmax回歸模型是解決二分類回歸問題的算法D、softmax函數(shù)經(jīng)常與交叉嫡損失函數(shù)聯(lián)合使用輸出值之和為1,因此也被稱為歸一化指數(shù)函數(shù),B正確。Softmax回歸模型是135.自然語言領(lǐng)域處理文本時,句法分析的主要任務是什么?試題。但是根據(jù)圖像處理的一般流程和常見應用,可以得出以上。137.神經(jīng)網(wǎng)絡訓練過程中,可能出現(xiàn)梯度爆炸的現(xiàn)象有以下B、模型權(quán)重變?yōu)镹aN值C、每個節(jié)點和層的誤差梯度值持續(xù)超過1.0爆炸的現(xiàn)象,符合題意。B選項“模型權(quán)重變?yōu)镹aN值”通常是由數(shù)值計算中的差梯度值持續(xù)超過1.0”并不直接表示梯度爆炸,因為梯度值的大小本身取決于138.自然語言領(lǐng)域處理文本時,句法分析的主要任務是什么?B、句法結(jié)構(gòu)分析143.2018年10月10日,華為發(fā)布了全場景AI解決方案,華為的全棧方案具體包括()C、應用使能解析:芯片算子庫和高度自動化算子開發(fā)工具——CANN;支持端、邊、云獨立的和協(xié)同的統(tǒng)一訓練和推理框架——MindSpoert:BERT(BidirectionalEncoderRepresentationsfromTransformers)由AlexKrizhevsky等人在2012年提出,并在當年的ImageNet圖像識別競賽中括智能寫詩模型。通過MindSpore,可以構(gòu)建和訓練模型,并將其部署為預測服8.Bert網(wǎng)絡使用了Transformer結(jié)構(gòu),拋棄了傳統(tǒng)的RNN和CNN結(jié)構(gòu),11.ModeIArts平臺支持自動學習功能,意味著對任何復雜大型問題且對AI完全對AI完全不了解就可以上手操作并且訓練出很好的模型。自動學習功能需要一orFlow框架,用戶可以通過Anaconda的包管理器conda來安裝TensorFlow。16.線性回歸的損失函數(shù)中加入L1正則項,此時該回歸叫做Lasso回歸。稱為Lasso回歸(嶺回歸)解析:MindSpore確實允許通過繼承其基礎類(如nn.Cell),并重寫`_init_ult∩GroundTruth/Detect解析:Hue相位角表色相0-360;Saturation飽和度0-1,所選顏色的純度和該顏34.word2vec是google的一個開源工具,能夠根據(jù)輸入的詞的集合計算出詞與35.圖像任務中,我們收集圖片時往往使用0,1,2,3,4等來表示圖片的類別,36.MindSpore支持整圖卸載執(zhí)行,充分發(fā)揮昇騰大算力,支持Pipeline并行和42.參數(shù)懲罰只能使用在神經(jīng)網(wǎng)絡中用來防止過擬合解析:參數(shù)懲罰(例如L1或L2正則化)可以用于多種機器學習模型,不僅僅是n-gram模型中的窗口限制49.MindSpore異構(gòu)并行訓練方法是通過分析圖上算子內(nèi)存占用和計算密集度,將內(nèi)存消耗較小計算密集型算子切分到CP子圖,將內(nèi)存消耗巨大的算子切分到解析:將“MindSpore”修改為“MindSpore框架”。解析:Sobel算子能
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 遼寧省遼源市鼎高級中學2024-2025學年高三(英語試題理)一模試題含解析
- 山西師范大學《公共管理應用寫作》2023-2024學年第二學期期末試卷
- 贍養(yǎng)協(xié)議書模板
- 二零二五酒店轉(zhuǎn)讓協(xié)議范例
- 場地租賃合同書協(xié)議書模板
- 運輸合同書有哪幾種主要運輸方式
- 二零二五版代購服務合同書范文
- 淘寶代運營合同書協(xié)議書范例二零二五年
- 汽車銷售展廳租賃標準協(xié)議書
- 2025電影合作拍攝的合同范本
- 北醫(yī)安全法規(guī)考試題
- 機動車駕駛?cè)丝荚噲龅丶捌湓O施設置規(guī)范
- 2023年宜昌市中醫(yī)醫(yī)院醫(yī)護人員招聘筆試題庫及答案解析
- 內(nèi)部控制建設課件
- 水塘排水、清淤質(zhì)量檢驗記錄表
- 加強施工管理、嚴格保護環(huán)境
- 水污染控制工程課程設計說明書
- 抗拔樁裂縫計算表格(自動版)
- 血透室傳染病登記本
- 婦產(chǎn)科學孕期B族鏈球菌感染課件
- 《藥疹(Drug Eruption)》PPT課件
評論
0/150
提交評論