2022年新版全國(guó)人工智能技能知識(shí)競(jìng)賽考試題(含答案)_第1頁
2022年新版全國(guó)人工智能技能知識(shí)競(jìng)賽考試題(含答案)_第2頁
2022年新版全國(guó)人工智能技能知識(shí)競(jìng)賽考試題(含答案)_第3頁
2022年新版全國(guó)人工智能技能知識(shí)競(jìng)賽考試題(含答案)_第4頁
2022年新版全國(guó)人工智能技能知識(shí)競(jìng)賽考試題(含答案)_第5頁
已閱讀5頁,還剩149頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

新版全國(guó)人工智能技能知識(shí)競(jìng)賽考試題庫(kù)

(含答案)一'單選題.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU答案:C.若按照一定的順序依次訪問樹中的每一個(gè)結(jié)點(diǎn),而且每個(gè)結(jié)點(diǎn)只被訪問一次,則稱這樣的操作為。A、排序B、查找C、遍歷D、建立答案:C.下列哪些包不是圖像處理時(shí)常用的A、timeB、skIearnC、osD\opencv答案:C.在輸出層不能使用以下哪種激活函數(shù)來分類圖像?A、sigmoidTanhReLUD、If(x>5,1,0)答案:c5.哪條命令可以檢查Atlas300(3000)加速卡是否在位?A、Ispci|grep'npu'B、Ispci|grep'd100'C、Ispcigrep'atlas'D\atIasinfo答案:B.下列—不是將主觀信息加入到模式發(fā)現(xiàn)任務(wù)中的方法。A、與同一時(shí)期其他數(shù)據(jù)對(duì)比B、可視化C、基于模板的方法D、主觀興趣度量答案:A.在目標(biāo)檢測(cè)中,以下能產(chǎn)生候選框的算法是A、SeIectiveSearchB、ROIpooIingC、RegionproposallayerD、C4.5答案:c.Bagging集成學(xué)習(xí)中,每個(gè)基學(xué)習(xí)器之間的關(guān)系是?A、相加關(guān)系B、相關(guān)關(guān)系C、后面的模型必須建立在前面的模型之上D、相互獨(dú)立答案:B.現(xiàn)階段的人工智能仍處于弱人工智能階段。A、TRUEFALSE答案:A10.對(duì)于圖像數(shù)據(jù),通常使用的模型是A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)word2vecD\bert答案:B.樸素貝葉斯算法屬于A、無監(jiān)督學(xué)習(xí)B、半監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、有監(jiān)督學(xué)習(xí)答案:D.AI的英文縮寫是A、AutomaticInteIIigenceB\ArtificialInteIIigenceC、AutomaticInformationD\ArtificiaIInformation答案:B.圖像數(shù)字化需要經(jīng)過的步驟包括A、采樣B、裁剪C、量化D、旋轉(zhuǎn)答案:C.以下關(guān)于人工智能、機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)三者間關(guān)系的描述,哪一項(xiàng)是正確的?A、人工智能是機(jī)器學(xué)習(xí)的一個(gè)分支B、機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)是人工智能里面并列的兩類技術(shù)C、神經(jīng)網(wǎng)絡(luò)屬于機(jī)器學(xué)習(xí)中的一種技術(shù)D、人工智能是神經(jīng)網(wǎng)絡(luò)的一個(gè)分支答案:c.下列哪個(gè)函數(shù)不可以做激活函數(shù)?A、y=tanh(x)B、y=sin(x)C、y=max(x,0)y=2x答案:D16.以下CNN網(wǎng)絡(luò)模型中,最早用于手寫數(shù)字識(shí)別的是A、LeNet-5B、AlexNetC、ResNet50DxResNet152答案:A.在集成學(xué)習(xí)中,模型集成了弱學(xué)習(xí)者的預(yù)測(cè),所以這些模型的集成將比使用單個(gè)模型預(yù)測(cè)效果更好。下面哪個(gè)/些選項(xiàng)對(duì)集成學(xué)習(xí)模型中的弱學(xué)習(xí)者描述正確?1他們經(jīng)常不會(huì)過擬合2他們通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問題3他們通常會(huì)過擬合A、1和2B、1和3C、2和3.用于模式識(shí)別的多層神經(jīng)網(wǎng)絡(luò)和反向傳播算法出現(xiàn)于人工智能發(fā)展的第幾次浪潮中?A、第一次B、第二次C、第三次D、第四次答案:B.訓(xùn)練圖像分類模型時(shí),對(duì)于圖像的預(yù)處理,下列技術(shù)哪項(xiàng)經(jīng)常要用?A、圖像增強(qiáng)B、圖像灰度化C、圖片二值化D、圖片RGB通道轉(zhuǎn)換答案:A.關(guān)于主成分分析PCA說法不正確的是A、我們必須在使用PCA前規(guī)范化數(shù)據(jù)B、我們應(yīng)該選擇使得模型有最大variance的主成分C、我們應(yīng)該選擇使得模型有最小variance的主成分D、我們可以使用PCA在低緯度上做數(shù)據(jù)可視化答案:C.圖像識(shí)別是以圖像的主要。為基礎(chǔ)的。C'特征D、部件答案:C.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎?A、可以B、不好說C、不一定D、不能答案:D.下列哪些網(wǎng)用到了殘差連接FastTextBERTGGoogLeNetD、ResNet答案:D.可以在自然語言處理中用于語義關(guān)系提取的神經(jīng)網(wǎng)絡(luò)技術(shù)是以下哪種?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、遞歸神經(jīng)網(wǎng)絡(luò)D、殘差神經(jīng)網(wǎng)絡(luò)答案:A.與十進(jìn)制101等值的二進(jìn)制數(shù)是10011110001011001011100110答案:C.(假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN)。)在二分類問題中,當(dāng)測(cè)試集的正例和負(fù)例數(shù)量不均衡時(shí),以下評(píng)價(jià)方案哪個(gè)是相對(duì)不合理的。A、Accuracy:(TP+TN)/alIB、F-vaIue:2*recaII*precision/(recaII+precision)C、G-mean:sqrt(precision*recaII)D、AUC:曲線下面積答案:A.頻繁項(xiàng)集、頻繁閉項(xiàng)集、最大頻繁項(xiàng)集之間的關(guān)系是:A、頻繁項(xiàng)集頻繁閉項(xiàng)集=最大頻繁項(xiàng)集B、頻繁項(xiàng)集=頻繁閉項(xiàng)集最大頻繁項(xiàng)集C、頻繁項(xiàng)集頻繁閉項(xiàng)集最大頻繁項(xiàng)集D、頻繁項(xiàng)集=頻繁閉項(xiàng)集=最大頻繁項(xiàng)集答案:C.下列哪些屬于集成學(xué)習(xí)A、AdaboostB、決策樹C、隨機(jī)森林D、XGBoost答案:D.下面哪一項(xiàng)不是計(jì)算機(jī)采用二進(jìn)制的主要原因A、二進(jìn)制只有0和1兩個(gè)狀態(tài),技術(shù)上容易實(shí)現(xiàn)B、二進(jìn)制運(yùn)算規(guī)則簡(jiǎn)單C、二進(jìn)制數(shù)的0和1與邏輯代數(shù)的“真”和“假”相吻合,適合于計(jì)算機(jī)進(jìn)行邏輯運(yùn)算D、二進(jìn)制可與十進(jìn)制直接進(jìn)行算數(shù)運(yùn)算答案:D.下列算法哪些屬于K-means的變種?A、kNNB、MeanshiftC、k-means++D、以上都不是答案:C.Al芯片也被稱為Al加速器,是專門用于處理人工智能應(yīng)用中的大量計(jì)算任務(wù)的功能模塊。A、TRUE.語音理解是指利用。等人工智能技術(shù)進(jìn)行語句自動(dòng)識(shí)別和語意理解。A、聲樂和心理B、合成和分析C、知識(shí)表達(dá)和組織D、字典和算法答案:C.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些算法的結(jié)果集成起來進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說法正確的是0A、單個(gè)模型之間有高相關(guān)性B、單個(gè)模型之間有低相關(guān)性C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好D、單個(gè)模型都是用的一個(gè)算法答案:B.2016年,Google訓(xùn)練的()擊敗了韓國(guó)圍棋世界冠軍李世石。AlphaZeroAlphaGoGBetaGoD、GamaGo答案:B.循環(huán)神經(jīng)網(wǎng)絡(luò)可以捕捉序列化數(shù)據(jù)中的動(dòng)態(tài)信息。A、TRUEB、FALSE答案:A.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?A、召回率B、混淆矩陣C、均方誤差D、準(zhǔn)確率答案:C.深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU答案:B.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,一般會(huì)遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之前陷入局部最小值。以下哪個(gè)策略可以避免上述情況?A、增加參數(shù)數(shù)量B、減少參數(shù)數(shù)量C、在開始時(shí)將學(xué)習(xí)率降低10倍D、改變幾個(gè)時(shí)期的學(xué)習(xí)率答案:D.深度學(xué)習(xí)從屬于下面哪個(gè)領(lǐng)域且在該領(lǐng)域覆蓋面相對(duì)最廣A、人工智能B、機(jī)器學(xué)習(xí)C、圖像檢索D、語音識(shí)別答案:B.下列哪項(xiàng)屬于集成學(xué)習(xí)A、決策樹模型B、kNN分類GAdaboostD、k-means答案:C.知識(shí)圖譜中的實(shí)體統(tǒng)一主要的目的是?A、從文本中提取實(shí)體B、從實(shí)體間提取關(guān)系c、不同寫法的實(shí)體統(tǒng)一為一個(gè)實(shí)體D、明確代詞指向哪個(gè)實(shí)體答案:C.下面哪句話描述了現(xiàn)有深度學(xué)習(xí)這一種人工智能方法的特點(diǎn)A、小數(shù)據(jù),大任務(wù)B、大數(shù)據(jù),小任務(wù)C、小數(shù)據(jù),小任務(wù)D、大數(shù)據(jù),大任務(wù)答案:B.不屬于深度學(xué)習(xí)模型的選項(xiàng)是?A、樸素貝葉斯B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A.下列哪項(xiàng)不是構(gòu)建知識(shí)圖譜用到的主要技術(shù)A、詞性標(biāo)注B、實(shí)體鏈接C、關(guān)系抽取D、命名實(shí)體識(shí)別答案:A.機(jī)器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測(cè)未知?A、人工程序B、神經(jīng)網(wǎng)絡(luò)C、訓(xùn)練算法D、歷史數(shù)據(jù)答案:D.生成式對(duì)抗網(wǎng)絡(luò)核心是對(duì)抗式,兩個(gè)網(wǎng)絡(luò)互相競(jìng)爭(zhēng),一個(gè)負(fù)責(zé)生成樣本,那么另一個(gè)負(fù)責(zé)做什么呢?A、判別B、計(jì)算C、統(tǒng)計(jì)D、生成答案:A.在語音識(shí)別中當(dāng)某個(gè)人名效果很差時(shí),通常會(huì)用到熱詞技術(shù)激勵(lì)熱詞的得分,那么熱詞技術(shù)主要激勵(lì)了語音識(shí)別中哪一模塊的分?jǐn)?shù)?A、語音端點(diǎn)檢測(cè)(判斷錄音片段中什么時(shí)間點(diǎn)開始有聲音)B、提特征模塊(聲音波形轉(zhuǎn)換成計(jì)算機(jī)可以計(jì)算的數(shù)字序列)C、聲學(xué)模型(發(fā)音特征的規(guī)律統(tǒng)計(jì)模型)D、語言模型(含有上下文語義信息的文本空間構(gòu)建)答案:B.在人臉檢測(cè)算法中,不屬于該算法難點(diǎn)的是A、出現(xiàn)人臉遮擋B、人臉角度變化大C、需要檢測(cè)分辨率很小的人臉D、需要檢)則不同性別的人臉答案:D.如果我們用了一個(gè)過大的學(xué)習(xí)速率會(huì)發(fā)生什么?A、神經(jīng)網(wǎng)絡(luò)會(huì)收斂B、不好說C、都不對(duì)D、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂答案:D.對(duì)于線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是A、軟間隔B、硬間隔C、核函數(shù)D、以上選項(xiàng)均不正確答案:B.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)答案:D.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個(gè)選項(xiàng)不屬于決策樹構(gòu)建過程當(dāng)中的步驟?A、剪枝B、特征選取C、數(shù)據(jù)清理D、決策樹生成答案:C.以下哪個(gè)關(guān)于監(jiān)督式學(xué)習(xí)的說法是正確的?A、決策樹是一種監(jiān)督式學(xué)習(xí)B、監(jiān)督式學(xué)習(xí)不可以使用交叉驗(yàn)證進(jìn)行訓(xùn)練C、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D、監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練答案:A.得益于人工智能技術(shù)的興起,一些行業(yè)崗位將呈現(xiàn)出顯著的增長(zhǎng)趨勢(shì),但下面。不屬于其中之一A、數(shù)據(jù)科學(xué)家B、機(jī)器學(xué)習(xí)工程師C、計(jì)算機(jī)維修工程師D、AI硬件專家答案:C.美國(guó)海軍軍官莫里通過對(duì)前人航海日志的分析,繪制了新的航海路線圖,標(biāo)明了大風(fēng)與洋流可能發(fā)生的地點(diǎn)。這體現(xiàn)了大數(shù)據(jù)分析理念中的。A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B、在分析方法上更注重相關(guān)分析而不是因果分析C、在分析效果上更追究效率而不是絕對(duì)精確D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對(duì)數(shù)據(jù)而不是絕對(duì)數(shù)據(jù)答案:B.以下關(guān)于人工智能說法錯(cuò)誤的是A、人工智能就是深度學(xué)習(xí)B、人工智能屬于機(jī)器學(xué)習(xí)的一個(gè)分支C、人工智能包含了深度學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)屬于人工智能的一部分答案:A.計(jì)算機(jī)工作過程中,存儲(chǔ)的指令序列指揮和控制計(jì)算機(jī)進(jìn)行自動(dòng)、快速信息處理,靈活'方便.易于變更,這使計(jì)算機(jī)具有A、高速運(yùn)算能力B、極大的通用性C、邏輯判斷能力D、自動(dòng)控制能力答案:D.驅(qū)動(dòng)深度學(xué)習(xí)的三駕馬車是指?A、大模型B、大應(yīng)用C、大算力D、大數(shù)據(jù)答案:D.邏輯回歸的以下模型:P(y=l|x,w)=g(wO+w1x)其中g(shù)(z)是邏輯函數(shù)。在上述等式中,通過改變參數(shù)w可以得到的P(y=l|x;w)被視為x的函數(shù)。在上面的問題中,你認(rèn)為哪個(gè)函數(shù)會(huì)產(chǎn)生(0,1)之間的P?A、邏輯函數(shù)B、對(duì)數(shù)似然函數(shù)C、兩者的復(fù)合函數(shù)D、都不會(huì)答案:A.大數(shù)據(jù)時(shí)代,數(shù)據(jù)使用的關(guān)鍵是:()A、數(shù)據(jù)收集B、數(shù)據(jù)再利用C、數(shù)據(jù)存儲(chǔ)D、數(shù)據(jù)分析答案:B.符號(hào)主義的落腳點(diǎn)主要體現(xiàn)在哪里?A、落腳點(diǎn)在神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)。B、落腳點(diǎn)在推理,符號(hào)推理與機(jī)器推理。C、落腳點(diǎn)在感知和行動(dòng)。D、落腳點(diǎn)在行為控制、自適應(yīng)與進(jìn)化計(jì)算。答案:B.人工智能處在感知智能階段的表現(xiàn)是什么?A、機(jī)器開始像人類一樣能理解、思考與決策B、機(jī)器開始像人類一樣會(huì)計(jì)算,傳遞信息C、機(jī)器開始看懂和聽懂,做出判斷,采取一些簡(jiǎn)單行動(dòng)答案:C.()是指直接通過肢體動(dòng)作與周邊數(shù)字設(shè)備和環(huán)境進(jìn)行交互。A、體感交互B、指紋識(shí)別D、虹膜識(shí)別答案:A.在圖像智能處理中,圖像分類的目標(biāo)主要是要確定什么內(nèi)容?A、對(duì)象位置B、對(duì)象邊框C、對(duì)象類別D、對(duì)象背景答案:C.知識(shí)圖譜構(gòu)建過程中對(duì)每個(gè)實(shí)體進(jìn)行分類打標(biāo)簽操作的是?A、實(shí)體命名識(shí)別B、關(guān)系抽取C、實(shí)體統(tǒng)一D、指代消減答案:A.下列哪些包是圖像處理時(shí)常用的?numpyopencvC、gensimD、matpIotIib答案:D.要想讓計(jì)算機(jī)執(zhí)行其功能,用高級(jí)語言寫的程序必須將它轉(zhuǎn)換為A、匯編語言程序B、機(jī)器語言程序C、中級(jí)語言程序D、算法語言程序答案:B.CPU主要通過增加指令,增加核數(shù)等方式來提升AI性能。TRUEFALSE答案:A.一切皆可試,大數(shù)據(jù)分析的效果好壞,可以通過模擬仿真或者實(shí)際運(yùn)行來驗(yàn)證,這體現(xiàn)了大數(shù)據(jù)思維維度中的。A、定量思維B、相關(guān)思維C、因果思維D、實(shí)驗(yàn)思維答案:D.所謂幾率,是指發(fā)生概率和不發(fā)生概率的比值。所以,拋擲一枚正常硬幣,正面朝上的幾率(odds)為多少?A、0.5B、1C、都不是答案:B.下列哪項(xiàng)通常是集群的最主要瓶頸。A、CPUB、網(wǎng)絡(luò)C、磁盤D、內(nèi)存答案:C.一切皆可連,任何數(shù)據(jù)之間邏輯上都有可能存在聯(lián)系,這體現(xiàn)了大數(shù)據(jù)思維維度中的。A、定量思維B、相關(guān)思維C、因果思維D、實(shí)驗(yàn)思維答案:B.計(jì)算機(jī)的運(yùn)算是計(jì)算機(jī)的主要性能指標(biāo)之一,與主要性能無關(guān)的是A、字長(zhǎng)B、主頻C、互聯(lián)網(wǎng)的寬帶D、內(nèi)存和硬盤的工作速度答案:C.下列選項(xiàng)中昇騰310和昇騰910屬性相同的是?A、最大功率B、架構(gòu)C、整數(shù)精度D、7nm制程答案:B.隨著句子的長(zhǎng)度越來越多,神經(jīng)翻譯機(jī)器將句意表征為固定維度向量的過程將愈加困難,為了解決這類問題,下面哪項(xiàng)是我們可以采用的?A、使用遞歸單元代替循環(huán)單元B、使用注意力機(jī)制(attentionmechanism)C、使用字符級(jí)別翻譯(characterIeveItransIation)D、所有選項(xiàng)均不對(duì)答案:B.Tensor是MindSpore中數(shù)據(jù)的存儲(chǔ)組件。TRUEFALSE答案:A.圖像的三原色,不包括Av紅色B、綠色C、藍(lán)色D、白色答案:D.激活函數(shù)的目的是A、加入額外的計(jì)算單元B、非線性變換C、加快計(jì)算速度D、方便反向傳播計(jì)算答案:B.下列哪項(xiàng)算法是深度學(xué)習(xí)的重要基礎(chǔ):()A、最小生成樹算法B、最大流-最小割算法GA*算法D、SGD反向傳播答案:D.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。下列哪一種架構(gòu)有反饋連接?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、限制玻爾茲曼機(jī)D、都不是答案:A.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約'數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?A、頻繁模式挖掘B、分類和預(yù)測(cè)C、數(shù)據(jù)預(yù)處理D、數(shù)據(jù)流挖掘答案:C.人工智能發(fā)展的第三次熱潮,是從以下哪個(gè)時(shí)間段開始的?A、2000年后B、2006年后G2012年后D、2015年后答案:B.大數(shù)據(jù)的最顯著特征是。A、數(shù)據(jù)規(guī)模大B、數(shù)據(jù)類型多樣C、數(shù)據(jù)處理速度快D、數(shù)據(jù)價(jià)值密度高答案:A.給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比如輸入是“predicti。"(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、全連接神經(jīng)網(wǎng)絡(luò)C、受限波爾茲曼機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:A.在以下模型中,訓(xùn)練集不需要標(biāo)注信息的是0A、k-meansB、線性回歸C、神經(jīng)網(wǎng)絡(luò)D、決策樹答案:A.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生一個(gè)關(guān)聯(lián)規(guī)則。A、4B、5C、6D、7答案:C.表達(dá)式sum(range(5))的值為A、9B、10C、11D、12答案:B.下列哪項(xiàng)關(guān)于模型能力(mode(capacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確答案:A.PyTorch不具備以下哪種功能?A、內(nèi)嵌kerasB、支持動(dòng)態(tài)圖C、自動(dòng)求導(dǎo)D、GPU力口速答案:A.以下哪些選項(xiàng)為真?A、線性回歸誤差值必須正態(tài)分布,但是在Logistic回歸的情況下,情況并非如此B、邏輯回歸誤差值必須正態(tài)分布,但是在線性回歸的情況下,情況并非如此C、線性回歸和邏輯回歸誤差值都必須正態(tài)分布D、線性回歸和邏輯回歸誤差值都不能正態(tài)分布答案:A.一般認(rèn)為,世界上第一臺(tái)電子數(shù)字計(jì)算機(jī)誕生于。1946年1952年1959年1962年答案:A.假設(shè)我們已經(jīng)在ImageNet數(shù)據(jù)集(物體識(shí)別)上訓(xùn)練好了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。然后給這張卷積神經(jīng)網(wǎng)絡(luò)輸入一張全白的圖片。對(duì)于這個(gè)輸入的輸出結(jié)果為任何種類的物體的可能性都是一樣的,對(duì)嗎?A、對(duì)的B、不知道C、看情況D、不對(duì)答案:D.下列選項(xiàng)中不屬于結(jié)構(gòu)化程序設(shè)計(jì)原則的是。A、可封裝B、自頂向下C、模塊化D、逐步求精答案:A.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:A、嵌入B、過濾C、包裝D、抽樣答案:D.Python的numpy庫(kù)主要提供了以下哪方面的操作開發(fā)支撐?A、數(shù)組操作B、聚類算法C、分類算法D、圖形操作答案:A.考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來用答案:C.優(yōu)秀的編程規(guī)范應(yīng)該是A、模塊的內(nèi)聚程度要盡量高,且各模塊間的耦合程度要盡量強(qiáng)B、模塊的內(nèi)聚程度要盡量高,且各模塊間的耦合程度要盡量弱C、自模塊的內(nèi)聚程度要盡量低,且各模塊間的耦合程度要盡量弱D、模塊的內(nèi)聚程度要盡量低,且各模塊間的耦合程度要盡量強(qiáng)答案:B.根據(jù)不同的業(yè)務(wù)需求來建立數(shù)據(jù)模型,抽取最有意義的向量,決定選取哪種方法的數(shù)據(jù)分析角色人員是()A、數(shù)據(jù)管理人員B、數(shù)據(jù)分析員C、研究科學(xué)家D、軟件開發(fā)工程師答案:C.當(dāng)數(shù)據(jù)過大以至于無法在RAM中同時(shí)處理時(shí),哪種梯度下降方法更加有效?A、隨機(jī)梯度下降法(StochasticGradientDescent)B、不知道C、整批梯度下降法(FuIIBatchGradientDescent)D、都不是答案:A.邏輯域構(gòu)建了協(xié)議、。、數(shù)據(jù)等組成的信息活動(dòng)域。A、附件B、網(wǎng)絡(luò)C、軟件D、硬件答案:C.下列沒有運(yùn)用到人工智能技術(shù)的是A、游戲中人機(jī)對(duì)戰(zhàn)B、利用互聯(lián)網(wǎng)與別人下象棋C、生物科技中的視網(wǎng)膜識(shí)別D、掌紋識(shí)別答案:B.下列哪些屬于循環(huán)神經(jīng)網(wǎng)絡(luò)A、LeNetGoogleNetBi-LSTMBERT答案:c103.華為昇騰Al芯片是NPU(神經(jīng)網(wǎng)絡(luò)處理器)的典型代表之一。AvTRUEB、FALSE答案:A.()是圖像處理中的一項(xiàng)關(guān)鍵技術(shù),一直都受到人們的高度重視。A、數(shù)據(jù)離散B、圖像聚合C、圖像解析D、圖像分割答案:D.現(xiàn)代的卷積神經(jīng)網(wǎng)絡(luò),常用的模塊包括哪些A、多分枝結(jié)構(gòu)B、殘差連接C、BatchNormaIizationD、Sigmoid激活函數(shù)答案:C.激活函數(shù)對(duì)于神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)、理解非常復(fù)雜的問題有著重要的作用,以下關(guān)于激活函數(shù)說法正確的是A、激活函數(shù)都是線性函數(shù)B、激活函數(shù)都是非線性函數(shù)C、激活函數(shù)部分是非線性函數(shù),部分是線性函數(shù)D、激活函數(shù)大多數(shù)是非線性函數(shù),少數(shù)是線性函數(shù)答案:B.人工智能的目的是讓機(jī)器能夠。,以實(shí)現(xiàn)某些腦力勞動(dòng)的機(jī)械化。A、具有智能B、和人一樣工作C、完全代替人的大腦D、模擬、延伸和擴(kuò)展人的智能答案:D.以下不屬于對(duì)抗生成網(wǎng)絡(luò)的應(yīng)用是?A、文字生成B、圖像生成C、圖像識(shí)別D、數(shù)據(jù)增強(qiáng)答案:C.以下用C語言開發(fā)的Python解釋器是。JPythonIronPythonCPythonPyPy答案:C.根據(jù)美國(guó)汽車工程師協(xié)會(huì)(SAE)將自動(dòng)駕駛按照車輛行駛對(duì)于系統(tǒng)依賴程度分為哪些級(jí)別? DL1~L4L1~L5L0~L4L0~L5答案:D.數(shù)據(jù)的存儲(chǔ)結(jié)構(gòu)分為兩種,它們是()A、線性存儲(chǔ)和數(shù)組存儲(chǔ)B、順序存儲(chǔ)和鏈?zhǔn)酱鎯?chǔ)C、線性存儲(chǔ)和樹型存儲(chǔ)D、數(shù)組存儲(chǔ)和指針存儲(chǔ)答案:B.Root用戶無法在裝有Atlas300(3000)加速卡的服務(wù)器上安裝DDK(DeviceDevelopmentKit),只能使用普通用戶進(jìn)行安裝。TRUEFALSE答案:A113.以下對(duì)經(jīng)典“11162皿聚類算法解釋正確的是。A、能自動(dòng)識(shí)別類的個(gè)數(shù),隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算B、能自動(dòng)識(shí)別類的個(gè)數(shù),不是隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算C、不能自動(dòng)識(shí)別類的個(gè)數(shù),隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算D、不能自動(dòng)識(shí)別類的個(gè)數(shù),不是隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算答案:C.自然語言處理是AI研究中。的領(lǐng)域之一A、研究歷史最長(zhǎng)、研究最多、要求最高B、研究歷史較短,但研究最多'要求最高C、研究歷史最長(zhǎng)、研究最多,但要求不高D、研究歷史最短、研究較少、要求不高答案:A.圖像處理一般指數(shù)字圖像處理。常見的處理有圖像數(shù)字化、圖像編碼、圖像增強(qiáng)'。等。A、圖像復(fù)原B、圖像分割C、圖像分析D、A、B和C答案:D.通常使用的處理圖像數(shù)據(jù)的網(wǎng)絡(luò)模型是A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、word2vecD\bert答案:A.護(hù)照識(shí)別服務(wù)的圖像數(shù)據(jù)是不需要用base64編碼的。A、TRUEB、FALSE答案:B.基于檢索的模型和生成式模型是建立聊天機(jī)器人的兩個(gè)主流技術(shù),下面那個(gè)選項(xiàng)分別包含檢索模型和生成式模型例子?A、基于辭典的學(xué)習(xí)和詞向量模型B、基于規(guī)則的學(xué)習(xí)和序列到序列模型C、詞向量和句子到向量模型D、循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)答案:B.在語音識(shí)別應(yīng)用中,如在游戲場(chǎng)景識(shí)別效果較差,可以使用的技術(shù)是()來進(jìn)行效果優(yōu)化A、聲學(xué)個(gè)性化B、語言模型個(gè)性化(增加游戲場(chǎng)景中的常見詞語進(jìn)入語言模型擴(kuò)充詞庫(kù))C、文本順滑D、發(fā)音人音庫(kù)制作答案:B.在TensorFIow2.0中tf.contrib方法可以繼續(xù)使用。A、TRUEB、FALSE答案:B121.2017年,卡內(nèi)基梅隆大學(xué)開發(fā)的一個(gè)人工智能程序在。大賽上戰(zhàn)勝了四位人類玩家,這在人工智能發(fā)展史上具有里程碑式的意義。A、國(guó)際象棋B、五子棋C、圍棋D、德州撲克答案:D122.華為的AI全場(chǎng)景包括公有云'私有云、各種邊緣計(jì)算'物聯(lián)網(wǎng)行業(yè)終端以及消費(fèi)類終端等端、邊'云的部署環(huán)境。A、TRUEB、FALSE答案:A.以下關(guān)于機(jī)器學(xué)習(xí)說法錯(cuò)誤的是A、機(jī)器學(xué)習(xí)可以解決圖像識(shí)別問題B、目前機(jī)器學(xué)習(xí)已經(jīng)可以代替人類C、機(jī)器學(xué)習(xí)在一定程度上依賴于統(tǒng)計(jì)學(xué)習(xí)D、監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)都屬于機(jī)器學(xué)習(xí)答案:B.對(duì)于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:D.假定你正在處理類屬特征,并且沒有查看分類變量在測(cè)試集中的分布?,F(xiàn)在你想將。nehotencoding(OHE)應(yīng)用到類屬特征中。那么在訓(xùn)練集中將OHE應(yīng)用到分類變量可能要面臨的困難是什么?A、分類變量所有的類別沒有全部出現(xiàn)在測(cè)試集中B、類別的頻率分布在訓(xùn)練集和測(cè)試集是不同的C、訓(xùn)練集和測(cè)試集通常會(huì)有一樣的分布D、A和B都正確答案:D.關(guān)于主題建模,下述語句中總共有幾句是正確的?()1.它是一個(gè)監(jiān)督學(xué)習(xí)模型2.線性判別分析(LDA)可用于執(zhí)行主題建模3.模型中主題數(shù)量的選擇不取決于數(shù)據(jù)的大小4.主題術(shù)語的數(shù)量與數(shù)據(jù)的大小成正比。A、1B、2C、3D、4答案:A.給定三個(gè)點(diǎn)(1,4)、(2,3)、(2,5),它們的歐氏距離最小值是A、1B、1.4C、0D、2答案:B.知識(shí)圖譜中的邊稱為?A、連接邊B、關(guān)系C、屬性D、特征答案:B.在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1隨機(jī)初始化感知機(jī)的權(quán)重2去到數(shù)據(jù)集的下一批(batch)3如果預(yù)測(cè)值和輸出不一致,則調(diào)整權(quán)重4對(duì)一個(gè)輸入樣本,計(jì)算輸出值A(chǔ)、1,2,3,4B、4,3,2,1C、3,1,2,4D、1,4,3,2答案:D.HUAWEIHiAI平臺(tái)中的人臉檢測(cè)是屬于哪個(gè)模塊?A、HiAIEngineB、HiAlFrameworkGHiAlFoundationDvHiAlService答案:A.傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給定標(biāo)簽的數(shù)據(jù)集。請(qǐng)問標(biāo)簽為離散的類型,稱為分類,標(biāo)簽為連續(xù)的數(shù)字,又稱為什么呢?A、給定標(biāo)簽B、離散C、分類D、回歸答案:B.假設(shè)一個(gè)具有3個(gè)神經(jīng)元和輸入為[1,2,3]的簡(jiǎn)單MLP模型。輸入神經(jīng)元的權(quán)重分別為4,5和6。假設(shè)激活函數(shù)是一個(gè)線性常數(shù)值3(激活函數(shù)為:y=3x)。輸出是什么?A、32B、643C、96D、48答案:C.下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?A、變量代換B、離散化C、聚集D、估計(jì)遺漏值答案:D.語料庫(kù)規(guī)模依賴最大的語音合成技術(shù)路線是。,因?yàn)樾枰獙?duì)目標(biāo)發(fā)音人建立全面的錄音音庫(kù),需要覆蓋所有發(fā)音和眾多常見的詞句等覆蓋,但其具有最為優(yōu)秀的聽感,但成本極高。A、小尺度拼接B、HMM參數(shù)合成C、RNN神經(jīng)網(wǎng)絡(luò)合成D、大語料庫(kù)拼接答案:B.下列哪一項(xiàng)說明了X,Y之間的較強(qiáng)關(guān)系?A、相關(guān)系數(shù)為0.9B、Beta系數(shù)為0的空假設(shè)的p-vaIue是0.0001C、Beta系數(shù)為0的空假設(shè)的t統(tǒng)計(jì)量是30D、都不對(duì)答案:A.關(guān)于大數(shù)據(jù)在社會(huì)綜合治理中的作用,以下理解不正確的是。A、大數(shù)據(jù)的運(yùn)用有利于走群眾路線B、大數(shù)據(jù)的運(yùn)用能夠維護(hù)社會(huì)治安C、大數(shù)據(jù)的運(yùn)用能夠杜絕抗生素的濫用D、大數(shù)據(jù)的運(yùn)用能夠加強(qiáng)交通管理答案:c.tf.keras.datasets可以查看keras中內(nèi)置的數(shù)據(jù)集。TRUEFALSE答案:A.()年夏季,一批有遠(yuǎn)見卓識(shí)的年輕科學(xué)家在達(dá)特茅斯會(huì)議上,共同研究和探討用機(jī)器模擬智能的一系列有關(guān)問題,首次提出了“人工智能(AI)”這一術(shù)語,它標(biāo)志著“人工智能”這門新興學(xué)科的正式誕生1946195619661976答案:C.ModelArts服務(wù)與。服務(wù)相結(jié)合可以輕松將模型部署到“端”?Av0BSB、OCRC、ECSD、HiLens答案:D.線性回歸在3維以上的維度中擬合面是?C、超平面D、超曲面答案:C.深度學(xué)習(xí)中的“深度”是指。A、計(jì)算機(jī)理解的深度B、中間神經(jīng)元網(wǎng)絡(luò)的層次很多C、計(jì)算機(jī)的求解更加精準(zhǔn)D、計(jì)算機(jī)對(duì)問題的處理更加靈活答案:B.為數(shù)據(jù)的總體分布建模,把多維空間劃分成組等問題屬于數(shù)據(jù)挖掘的哪一類任務(wù)?A、探索性數(shù)據(jù)分析B、建模描述C、預(yù)測(cè)建模D、尋找模式和規(guī)則答案:B.以下關(guān)于人工智能系統(tǒng)架構(gòu)的表述,不正確的是A、人工智能分為應(yīng)用層'技術(shù)層'基礎(chǔ)層B、數(shù)據(jù)處理一般都是在應(yīng)用層完成C、應(yīng)用層聚焦人工智能技術(shù)和各個(gè)領(lǐng)域的結(jié)合D、基礎(chǔ)層提供計(jì)算能力和數(shù)據(jù)資源.TensorFIow2.0中查看張量維度的方法是?A、dimensB、dtypeC\ndimD、device答案:C.在數(shù)據(jù)生命周期管理實(shí)踐中,()是執(zhí)行方法A、數(shù)據(jù)存儲(chǔ)和備份規(guī)范B、數(shù)據(jù)管理和維護(hù)C、數(shù)據(jù)價(jià)值發(fā)覺和利用D、數(shù)據(jù)應(yīng)用開發(fā)和管理答案:B.下列選項(xiàng)中,不是人工智能的算法中的學(xué)習(xí)方法的是?A、重復(fù)學(xué)習(xí)B、深度學(xué)習(xí)C、遷移學(xué)習(xí)D、對(duì)抗學(xué)習(xí)答案:A.在大多數(shù)計(jì)算機(jī)中,采用的字符編碼是A、BCD碼B、ASCII碼C、漢子編碼D、補(bǔ)碼答案:B.機(jī)器學(xué)習(xí)訓(xùn)練的模型對(duì)新的、未知數(shù)據(jù)的預(yù)測(cè)能力,稱為。。A、過擬合B、欠擬合C、正則化D、泛化能力答案:D.下面哪個(gè)/些對(duì)「類型1(Type-1)」和「類型2(Type-2)」錯(cuò)誤的描述是正確的?類型1通常稱之為假正類,類型2通常稱之為假負(fù)類。類型2通常稱之為假正類,類型1通常稱之為假負(fù)類。類型1錯(cuò)誤通常在其是正確的情況下拒絕假設(shè)而出現(xiàn)。A、只有1B、只有2C、只有3D、1和3答案:D.下列選擇中,哪個(gè)不是關(guān)鍵詞提取常用的算法?A、TE-IDFB、LDAC、TextRankD、SSA答案:D.以下關(guān)于分詞說法不正確的是?A、基于規(guī)則的分詞簡(jiǎn)單高效,但是詞典維護(hù)困難。B、在實(shí)際工程應(yīng)用中,分詞一般只采用一種分詞方法。C、統(tǒng)計(jì)分詞的目的就是對(duì)分詞結(jié)果進(jìn)行概率計(jì)算,獲得概率最大的分詞方式。D、中文不同于英文自然分詞,中文分詞是文本處理的一個(gè)基礎(chǔ)步驟。分詞性能的好壞直接影響比如詞性'句法樹等其他模塊的性能。答案:B.如果一個(gè)問題或者任務(wù)不可計(jì)算,那么對(duì)這個(gè)問題或任務(wù)的描述哪一句是正確的?A、無法將該問題或任務(wù)所需數(shù)據(jù)一次性裝入內(nèi)存進(jìn)行計(jì)算B、該問題或任務(wù)所需計(jì)算時(shí)間是線性增加的C、圖靈機(jī)不可停機(jī)D、該問題或任務(wù)所需計(jì)算時(shí)間是非線性增加的答案:C.社交媒體平臺(tái)是文本數(shù)據(jù)最直觀的呈現(xiàn)形式。假設(shè)你有一個(gè)推特社交媒體完整語料庫(kù),你會(huì)如何創(chuàng)建一個(gè)建議標(biāo)簽的模型?A、完成一個(gè)主題模型掌握語料庫(kù)中最重要的詞匯;B、訓(xùn)練一袋N-gram模型捕捉頂尖的n-gram:詞匯和短語C、訓(xùn)練一個(gè)詞向量模型學(xué)習(xí)復(fù)制句子中的語境D、以上所有答案:D.下面對(duì)誤差反向傳播(errorbackpropagation,BP)描述不正確的是A、BP算法是一種將輸出層誤差反向傳播給隱藏層進(jìn)行參數(shù)更新的方法B、BP算法將誤差從后向前傳遞,獲得各層單元所產(chǎn)生誤差,進(jìn)而依據(jù)這個(gè)誤差來讓各層單元修正各單元參數(shù)C、對(duì)前饋神經(jīng)網(wǎng)絡(luò)而言,BP算法可調(diào)整相鄰層神經(jīng)元之間的連接權(quán)重大小D、在BP算法中,每個(gè)神經(jīng)元單元可包含不可偏導(dǎo)的映射函數(shù)答案:D.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationIearningaIgorithm)?A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于答案:C.在華為云EI中,以下哪項(xiàng)可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場(chǎng)景中,發(fā)揮AI技術(shù)的優(yōu)勢(shì),從而提高效率,提升體驗(yàn)。A、EI智能體B、0BS對(duì)象存儲(chǔ)服務(wù)C、云數(shù)據(jù)庫(kù)D、EI大數(shù)據(jù)服務(wù)答案:A.LSTM用于文本分類的任務(wù)中,不會(huì)出現(xiàn)的網(wǎng)絡(luò)層是A、全連接B、詞嵌入層C、卷積層D、以上選項(xiàng)均不正確答案:C.下面哪個(gè)/些超參數(shù)的增加可能會(huì)造成隨機(jī)森林?jǐn)?shù)據(jù)過擬合?1樹的數(shù)量2樹的深度3學(xué)習(xí)速率Av只有1B、有1、2C、只有3D、都正確答案:B.編寫C++程序一般需經(jīng)過的幾個(gè)步驟依次是A、編譯、編輯、連接'調(diào)試B、編輯、編譯'連接'調(diào)試C、編譯、調(diào)試、編輯'連接D、編輯'調(diào)試、編輯、連接答案:B.pandas的三個(gè)基本數(shù)據(jù)結(jié)構(gòu):Series、和IndexA、numpyB、IistC、numberD、Dataframe答案:D161.下列哪個(gè)模型結(jié)構(gòu)中沒有出現(xiàn)循環(huán)連接的結(jié)構(gòu)A、LSTMB、GRUC、TransformerD、text-convoIution答案:D.循環(huán)神經(jīng)網(wǎng)絡(luò)不同于卷積神經(jīng)網(wǎng)絡(luò),它比較擅長(zhǎng)解決以下哪些問題?A、序列相關(guān)問題B、圖像分類C、圖像檢測(cè)D、推薦問題答案:A.二進(jìn)制的最小單位是A、位B、字節(jié)C、字D、塊答案:A.深度學(xué)習(xí)與傳統(tǒng)的機(jī)器學(xué)習(xí)最主要的區(qū)別在于。,即隨著數(shù)據(jù)規(guī)模的增加其性能也不斷增長(zhǎng)。當(dāng)數(shù)據(jù)很少時(shí),深度學(xué)習(xí)算法的性能并不好。A、特征處理B、特征處理C、數(shù)據(jù)依賴性D、問題解決方式答案:C.假設(shè)一種基因同時(shí)導(dǎo)致兩件事情,一是使人喜歡抽煙,二是使這個(gè)人和肺癌就是。關(guān)系,而吸煙和肺癌則是()關(guān)系A(chǔ)、因果相關(guān)B、相關(guān)因果C、并列相關(guān)D、因果并列答案:A.以下哪一項(xiàng)是HUAWEIHiAIFoundation模塊的功能?A、App集成B、讓服務(wù)主動(dòng)找到用戶C、快速轉(zhuǎn)化和遷移已有模型D、根據(jù)用戶所需,適時(shí)適地推送服務(wù)答案:C.機(jī)械學(xué)習(xí)是最簡(jiǎn)單的機(jī)器學(xué)習(xí)方法,機(jī)械學(xué)習(xí)就是A、記憶B、計(jì)算和推理C、規(guī)劃D、以上都不對(duì)答案:A.感知器在空間中可以展現(xiàn)為?A、線B、平面C、超平面D、點(diǎn)答案:C.以下說法正確的是()A、一個(gè)機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說明這個(gè)分類器是好的B、如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率總是會(huì)降低C、不可以使用聚類“類別id”作為一個(gè)新的特征項(xiàng),用監(jiān)督學(xué)習(xí)進(jìn)行學(xué)習(xí)D、ABC全錯(cuò)答案:D.列算法,哪項(xiàng)不屬于深度學(xué)習(xí)模型?A、支持向量機(jī)SVMB、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A.歸并排序采用的算法設(shè)計(jì)方法屬于。A、歸納法B、分治法C、貪心法D、回溯方法答案:B.GPU擅長(zhǎng)計(jì)算密集和易于并行的程序。TRUEFALSE答案:A.下面有關(guān)序列模式挖掘算法的描述,錯(cuò)誤的是?A、priori”算法和GSP算法都屬于priori類算法,都要產(chǎn)生大量的候選序列B、FreeSpan算法和PrefixSpan算法不生成大量的候選序列以及不需要反復(fù)掃描原數(shù)據(jù)庫(kù)G在時(shí)空的執(zhí)行效率上,F(xiàn)reeSpan比PrefixSpan更優(yōu)D、和AprioriAII相比,GSP的執(zhí)行效率比較高答案:C.若z=,即權(quán)重向量和輸入向量的內(nèi)積。則二項(xiàng)邏輯回歸模型P(丫=1|x)=sigmoid(1/(1+exp(-z)))的輸出區(qū)間是()注:inf表示無窮大(0,inf)(-inf,0)C、(0,1)D、(-inf,inf)答案:C.下列選項(xiàng)中不屬于華為全棧解決方案范疇的是?A、應(yīng)用使能B、邊緣計(jì)算C、開源框架D、芯片使能答案:B.聯(lián)邦學(xué)習(xí)在保證數(shù)據(jù)隱私安全的前提下,利用不同數(shù)據(jù)源合作訓(xùn)練模型,進(jìn)步突破數(shù)據(jù)的瓶頸。A、TRUEFALSE答案:A.支撐大數(shù)據(jù)業(yè)務(wù)的基礎(chǔ)是。A、數(shù)據(jù)科學(xué)B、數(shù)據(jù)應(yīng)用C、數(shù)據(jù)硬件D、數(shù)據(jù)人才答案:A.用numpy創(chuàng)建單位矩陣使用A、np.identityB、np.onesnp.random,randD、np.arange.寬度優(yōu)先和深度優(yōu)先是兩種A、搜索程序B、搜索方法C、搜索結(jié)果D、搜索策略答案:D.邏輯回歸當(dāng)中也可以加入正則項(xiàng)用于避免過擬合。A、TRUEB、FALSE答案:A.以下關(guān)于人工智能概念的描述中,錯(cuò)誤的是A、人工智能英文翻譯是ArtificialIntelIigenceB、人工智能使計(jì)算機(jī)能實(shí)現(xiàn)更高層次應(yīng)用C、人工智能就是機(jī)器學(xué)習(xí)D、人工智能是對(duì)人的意識(shí)、思維過程進(jìn)行模擬答案:C.概念分層圖是_圖A、無向無環(huán)B、有向無環(huán)C、有向有環(huán)D、無向有環(huán).下列度量不具有反演性的是0A、系數(shù)B、幾率C、ohen度量D、興趣因子答案:D.下述。不是知識(shí)的特征。A、復(fù)雜性和明確性B、進(jìn)化和相對(duì)性C、客觀性和依附性D、可重用性和共享性答案:A.最早的自然語言理解方面的研究工作是。A、語音識(shí)別B、機(jī)器翻譯C、語音合成D、語言分析答案:B.關(guān)于人工智能,比較合理的認(rèn)識(shí)是?A、人工智能在許多特定任務(wù)上遠(yuǎn)超人類B、人工智能的奇點(diǎn)即將到來C、強(qiáng)人工智能已有突破性進(jìn)展D、人工智能都是泡沫答案:A.當(dāng)前大數(shù)據(jù)技術(shù)的基礎(chǔ)是由。首先提出的。A、微軟B、百度C、谷歌D、阿里巴巴答案:C.TensorFlow2.0中的Keras接口的三個(gè)主要優(yōu)勢(shì)是方便用戶使用,模塊化和可組合,易于擴(kuò)展。TRUEFALSE答案:A.下面哪個(gè)不屬于數(shù)據(jù)的屬性類型A、標(biāo)稱B、序數(shù)C、區(qū)間D、相異答案:D.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過程的主要目的是讓損失函數(shù)取得如下哪種結(jié)果?A、損失函數(shù)值盡可能大B、損失函數(shù)值盡可能小C、損失函數(shù)方差值盡可能大D、損失函數(shù)方差值盡可能小答案:B.如果在內(nèi)存中采用鏈?zhǔn)奖4婢€性表,則元素之間的邏輯關(guān)系通過()A、元素在內(nèi)存中的相對(duì)位置表示邏輯次序B、保存在元素中的指針表示先后次序C、設(shè)立單獨(dú)的區(qū)域存儲(chǔ)元素之間的邏輯次序D、元素本身的關(guān)鍵字來表示邏輯次序答案:B.程序設(shè)計(jì)過程中的三要素是。A、算法、數(shù)據(jù)結(jié)構(gòu)和程序設(shè)計(jì)方法學(xué)B、數(shù)據(jù)'算法和數(shù)據(jù)結(jié)構(gòu)C、輸入、操作處理和輸出D、數(shù)據(jù)、數(shù)據(jù)結(jié)構(gòu)和處理答案:A.以下不屬于TensorFlow2.0的特點(diǎn)是?A、多核CPU加速B、分布式C、多語言D、多平臺(tái)答案:A.用戶希望對(duì)以下這句話進(jìn)行預(yù)測(cè)“我的祖國(guó)是中國(guó),我的母語是",則應(yīng)該采用以下哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行處理?A、多層感知機(jī)B、生成對(duì)抗網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、卷積神經(jīng)網(wǎng)絡(luò)答案:C.在強(qiáng)化學(xué)習(xí)中,哪個(gè)機(jī)制的引入使得強(qiáng)化學(xué)習(xí)具備了在利用與探索中尋求平衡的能力A、貪心策略B、蒙特卡洛采樣C、動(dòng)態(tài)規(guī)劃D\BeIIman方程答案:A.如果問題存在最優(yōu)解,則下面幾種搜索算法中()必然可以得到最優(yōu)解A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索答案:A.Python3中獲取用戶輸入并默認(rèn)以字符串存儲(chǔ)的函數(shù)是。A、raw_inputB、inputC\rawD、print答案:B.人工智能中通常把()作為衡量機(jī)器智能的準(zhǔn)則。A、圖靈機(jī)B、圖靈測(cè)試C、中文屋思想實(shí)驗(yàn)D、人類智能答案:B.設(shè)P(A)=O.4,P(A|C)=O.2,P(C|A)=0.15.則P(C)=?A、0.1B、0.2C、0.3D、0.5答案:C.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)對(duì)網(wǎng)絡(luò)的性能有一定的影響,以下關(guān)于其影響說法正確的是:A、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力不變B、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)C、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)D、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越弱答案:B多選題(總共100題).人工智能的理論基礎(chǔ)有。A、自然科學(xué)B、社會(huì)科學(xué)C、倫理學(xué)D、法學(xué)答案:ABC.2017年11月15日,科技部公布了首批國(guó)家新一代人工智能開放創(chuàng)新平臺(tái)名單,他們是。。A、科大訊飛公司B、百度公司C、騰訊公司D、阿里云公司答案:ABCD.關(guān)于連接主義,描述正確的是。A、基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B、深度學(xué)習(xí)屬于連接主義C、又稱為仿生學(xué)派D、產(chǎn)生在20實(shí)際50年代答案:ABCD.在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生權(quán)重共享?A、感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:BD.下列關(guān)于護(hù)照識(shí)別服務(wù)的說法正確的是?A、country_code代表護(hù)照簽發(fā)國(guó)家的國(guó)家碼B、nationality代表持有人國(guó)籍C\passport_number代表護(hù)照號(hào)碼D、confidence相關(guān)字段的置信度信息,置信度越大,表示本次識(shí)別的對(duì)應(yīng)字段的可靠性越高,在統(tǒng)計(jì)意義上,置信度越大,準(zhǔn)確率越高答案:ABCD.以下哪些是語音處理研究的主題?A、語音處理B、聲紋識(shí)別C、語音識(shí)別D、語音喚醒答案:BCD.截止2019年底,TensorFlow發(fā)布過的版本有?A、1B、3C、2D、0.1答案:ACD.人工智能歷經(jīng)兩波浪潮,此次人工智能風(fēng)潮再度崛起是因?yàn)椤、大量數(shù)據(jù)變得可得B、CPU計(jì)算能力的提升C、GPU計(jì)算能力的提升D、深度學(xué)習(xí)的發(fā)展答案:ACD.RNN可以用來處理()A、圖像類別預(yù)測(cè)B、語音分析C、情感分類D、文章創(chuàng)作答案:ABCD.在隨機(jī)森林中,最終的集成模型是通過什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制答案:BC.不確定性類型按性質(zhì)可分哪些?A、隨機(jī)性B、模糊性C、不完全性D、不一致性答案:ABCD.哪些應(yīng)用適合使用RNN來處理。A、語音識(shí)別B、圖片識(shí)別C、對(duì)話機(jī)器人D、情感分析答案:ACD.以下哪些庫(kù)是在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDeveIopmentKit)之前需要安裝的?decoratorsetuptoolsC\numpyD\tensorfIow答案:ABC.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為.A、梯度剪切B、隨機(jī)欠采樣G使用Relu激活函數(shù)D、正則化答案:ACD.數(shù)據(jù)增強(qiáng)有哪些方式處理圖片。。A、翻轉(zhuǎn)B、縮放C、改變色溫D、亮度答案:ABCD.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?A、ReLUB、SoftpIusC、TanhD、Sigmoid答案:CD.下列選項(xiàng)中屬于機(jī)器學(xué)習(xí)策略的是。。A、機(jī)械學(xué)習(xí)B、觀察學(xué)習(xí)C、示教學(xué)習(xí)D、示例學(xué)習(xí)答案:ABD.因?yàn)闄C(jī)器在進(jìn)行人臉檢測(cè)、分析和識(shí)別的過程中需要對(duì)人臉圖像進(jìn)行(),所以皮膚顏色越深,面部的特征信息就越難提取,尤其是在一些暗光情況下,更加難以檢測(cè)和區(qū)分。A、變形B、預(yù)處理C、特征提取D、扭曲答案:BC.機(jī)器視覺需要。,以及物體建模。一個(gè)有能力的視覺系統(tǒng)應(yīng)該把所有這些處理都緊密地集成在一起。A、圖像壓縮B、圖像信號(hào)C、紋理和顏色建模D、幾何處理和推理答案:BCD.假定你已經(jīng)搜集了10000行推特文本的數(shù)據(jù),不過沒有任何信息?,F(xiàn)在你想要?jiǎng)?chuàng)建一個(gè)推特分類模型,好把每條推特分為三類:積極、消極、中性。通過把每個(gè)推特視為一個(gè)文檔,我們創(chuàng)建一個(gè)數(shù)據(jù)化的文檔詞矩陣。關(guān)于文檔矩陣,以下哪項(xiàng)是正確的?.從數(shù)據(jù)中移除停用詞(stopwords)將會(huì)影響數(shù)據(jù)的維度.數(shù)據(jù)中詞的歸一化將會(huì)減少數(shù)據(jù)的維度C、轉(zhuǎn)化所有的小寫單詞將不會(huì)影響數(shù)據(jù)的維度答案:AB.HUAWEIHiAI賦能APP哪些價(jià)值?A、安全B、穩(wěn)定C、實(shí)時(shí)D、隨時(shí)答案:ABCD.人臉?biāo)阉鞣?wù)調(diào)用成功時(shí)返回的結(jié)果中包含下列哪些項(xiàng)?A、搜索出的人臉相似度B、搜索出的人臉idC、搜索出的人臉位置D、搜索出的人臉序號(hào)答案:ABC.以下屬于語音識(shí)別轉(zhuǎn)寫應(yīng)用場(chǎng)景的是。A、視頻字幕生成B、AIUI智能對(duì)話交互C、訪談會(huì)議記錄D、法院審訊記錄答案:CD.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C\分析定位任務(wù)D、特征提取答案:BD.以下屬于當(dāng)前語音識(shí)別熱門研究方向的是()A、安靜環(huán)境下錄音質(zhì)量良好的語音識(shí)別效果優(yōu)化B、新一代語音識(shí)別框架下的算法改進(jìn)C、多模態(tài)識(shí)別D、結(jié)合麥克風(fēng)陣列語音增強(qiáng)的軟硬件一體化識(shí)別解決方案答案:BCD.屬于Python語言特征的是。A、解釋型B、面向過程C、面向?qū)ο驞、動(dòng)態(tài)數(shù)據(jù)類型答案:ACD.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項(xiàng)式核函數(shù)GSigmiod核函數(shù)D、線性核函數(shù)答案:ABCD.華為云El智能體根據(jù)行業(yè)和應(yīng)用場(chǎng)景的不同也有很多種,目前可以實(shí)現(xiàn)的華為云EI智能體有?A、工業(yè)智能體B、交通智能體C、園區(qū)智能體D、汽車智能體答案:ABCD.采用生理模擬和神經(jīng)計(jì)算方法的人工智能研究被稱為。A、連接主義B、邏輯學(xué)派C、生理學(xué)派D、符號(hào)主義答案:AC.人工智能的研究途徑有哪些?A、心理模擬B、物理模擬C、生理模擬D、行為模擬答案:ACD.現(xiàn)階段,作為AI技術(shù)和應(yīng)用服務(wù)的推行者,我們需要具備()A、對(duì)AI技術(shù)的鑒賞力,對(duì)于技術(shù)描述有清晰的判斷和辨析,不人云亦云斷章取B、對(duì)Al技術(shù)的理解力,主要判斷在各個(gè)應(yīng)用場(chǎng)景下技術(shù)的可行性,‘能做到‘還是‘不能做到’,或是說需要如何結(jié)合人工才能形成人機(jī)協(xié)作解決問題的結(jié)果C、對(duì)AI技術(shù)的應(yīng)用力,踐行去追求:讓AI的應(yīng)用有看得見摸得著的真實(shí)應(yīng)用案例、有能夠規(guī)?;涂赏茝V的對(duì)應(yīng)產(chǎn)品、可以通過統(tǒng)計(jì)數(shù)據(jù)去說明應(yīng)用成效D、對(duì)AI技術(shù)的夸張力,不管用戶要求的任何場(chǎng)景任何問題,不用特別分析和定制,我們的AI系統(tǒng)都是最好的,用戶的問題都是可以解決的答案:ABCPython代碼的特點(diǎn)有哪些()A、易讀性B、簡(jiǎn)潔性C、快速性D、可擴(kuò)展性答案:ABCD.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元數(shù)量可能為?A、32和10B、10和33C、33和10D、9和33答案:ABCD.那些需要()的工作,機(jī)器可能永遠(yuǎn)取代不了。A、創(chuàng)意B\識(shí)別C、溝通社交D、計(jì)算答案:AC.下面哪些屬于Al的應(yīng)用領(lǐng)域?A、智慧教育B、智慧城市C、智慧家居D、智慧醫(yī)療答案:ABCD.在關(guān)于解決棋類問題的方法中。。A、深藍(lán)屬于符號(hào)主義B、阿爾法g。是連接主義C、深藍(lán)是連接主義D、阿爾法go是行為主義答案:AB.人工智能把人類從。的勞作中解放出來,人們能去做更好玩、更有創(chuàng)意的事情。A、所有B、單調(diào)答案:BD.屬于深度學(xué)習(xí)模型的選項(xiàng)是?A、樸素貝葉斯B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:BCD.從能力角度來講,人工智能是智能機(jī)器所執(zhí)行的通常與人類智能有關(guān)的智能行為,如()、感知、理解、通信、設(shè)計(jì)、思考,規(guī)劃、學(xué)習(xí)和問題求解等思維活動(dòng)。A、判斷B、推理C、證明D、識(shí)別答案:ABCD.開發(fā)專家系統(tǒng)所要解決的基本問題有哪幾個(gè)?A、知識(shí)的表示B、知識(shí)的運(yùn)用C、知識(shí)的篩選D、知識(shí)的獲取答案:ABD.Atlas800AI服務(wù)器有多個(gè)型號(hào),其中基于魚昆鵬處理器平臺(tái)的是?A、Atlas800型號(hào):9000B、AtIas800型號(hào):3000C、Atlas800型號(hào):3010答案:AB.以下屬于TensorFlow2.0的特性的是?A、引入Keras接口B、支持靜態(tài)圖機(jī)制C、支持更多平臺(tái)和更多語言D、繼續(xù)兼容Tensorflowl.x的相關(guān)模塊答案:ACD.以下哪些服務(wù)屬于華為EI服務(wù)家族?A、對(duì)話機(jī)器人BxEl基礎(chǔ)服務(wù)C、自然語言處理D、EI大數(shù)據(jù)服務(wù)答案:ABCD.下列關(guān)于通用表格識(shí)別服務(wù)的說法正確的是?A、rows代表文字塊占用的行信息,編號(hào)從0開始,列表形式B、colums代表文字塊占用的列信息,編號(hào)從0開始,列表形式C、傳入的圖像數(shù)據(jù)需要經(jīng)過base64編碼D、words代表文字塊識(shí)別結(jié)果答案:ABCD.使用語音合成技術(shù)的產(chǎn)品包括。A、高德導(dǎo)航B、智能音箱C、車站安檢D、百度地圖答案:ABD.不使用全連接處理序列問題的原因是。A、時(shí)間步不能確定B、模型太簡(jiǎn)單C、只能處理分類D、算法精度不足答案:ABD.下列選項(xiàng)中,人工智能的基礎(chǔ)實(shí)現(xiàn)有?A、機(jī)器學(xué)習(xí)B、深度學(xué)習(xí)GBP神經(jīng)網(wǎng)絡(luò)D、卷積神經(jīng)網(wǎng)絡(luò)答案:ABCD.下列哪些是語料庫(kù)的可能性特征?A、文本中詞的總數(shù)B、布爾特征——文本中詞的出現(xiàn)C、詞的向量標(biāo)注D、.基本依賴性語法答案:ABCD.以下哪幾個(gè)方面屬于華為的全棧AI解決方案?AscendCANNC、ModeIArtsD、MindSpore答案:ABCD.基因知識(shí)圖譜具備以下哪幾種能力?A、輔助病例診斷B、疾病預(yù)測(cè)及診斷C、基因檢測(cè)報(bào)告生成D、實(shí)體查詢答案:ACD.自然語言處理產(chǎn)生的對(duì)話系統(tǒng),對(duì)企業(yè)有哪些好處?A、節(jié)省人工B、提高獎(jiǎng)金C、節(jié)省費(fèi)用D、降低耗電答案:AC.以下關(guān)于數(shù)組描述錯(cuò)誤的是()。A、數(shù)組的大小是固定的,但可以有不同的類型的數(shù)組元素B、數(shù)組的大小是可變的,但所有數(shù)組元素的類型必須相同C、數(shù)組的大小是固定的,所有數(shù)組元素的類型必須相同D、數(shù)組的大小是可變的,可以有不同的類型的數(shù)組元素答案:ABD.軟件(software)是計(jì)算機(jī)系統(tǒng)中與硬件相互依存的另一部分,它包括。三部分的完整集合A、數(shù)據(jù)B、語言C、程序D、文檔答案:ACD.解決過度擬合的方法一般來說有哪兩種。A、更換神經(jīng)網(wǎng)絡(luò)模型B、增加數(shù)據(jù)庫(kù)的數(shù)據(jù)量C、加強(qiáng)GPU計(jì)算能力D、降低深度學(xué)習(xí)模型的復(fù)雜度答案:BD.人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)可分為O。A、并行網(wǎng)絡(luò)B、串行網(wǎng)絡(luò)C、前饋網(wǎng)絡(luò)D、反饋網(wǎng)絡(luò)答案:CD.下列哪個(gè)屬于常用的文本分類的特征選擇算法?A、卡方檢驗(yàn)值B、互信息C、信息增益D、主成分分析答案:ABC.人工智能研究范疇廣泛而又異常復(fù)雜,其發(fā)展需要與。和社會(huì)科學(xué)等學(xué)科深度融合。A、計(jì)算機(jī)科學(xué)B、數(shù)學(xué)C、認(rèn)知科學(xué)D、神經(jīng)科學(xué)答案:ABCD.知識(shí)表示必須兼顧。。A、表達(dá)能力強(qiáng)B、易于推理C、易于擴(kuò)展D、容易修改知識(shí)庫(kù)答案:ABCD.TensorFIow中keras模塊的內(nèi)置優(yōu)化器有?-A、AdamB、SGDC、AdaboostDxAdadeIta答案:ABCD.C語言中三種基本的類型為()oA、intB\charC、floatD\struct答案:ABC.哪些是人工智能的應(yīng)用性領(lǐng)域?A、難題求解B、定理證明C、智能控制D、機(jī)器翻譯答案:ABCD.下列何者可以有效識(shí)別視頻中的行為。。A、利用較低取樣率對(duì)原始視頻進(jìn)行取樣B、利用較高取樣率對(duì)原始視頻進(jìn)行取樣C、增加深度學(xué)習(xí)的隱藏層數(shù)目D、參考高取樣率的動(dòng)作估測(cè)結(jié)果.下列哪些項(xiàng)是構(gòu)建知識(shí)圖譜用到的主要技術(shù)?A、詞性標(biāo)注B、實(shí)體鏈接C、關(guān)系抽取D、命名實(shí)體識(shí)別答案:BCD.人工智能的包含哪些層面A、運(yùn)算智能B、運(yùn)動(dòng)智能C、感知智能D、認(rèn)知智能答案:ABCD.隨著人工智能技術(shù)的發(fā)展,智能客服正在悄悄地滲透進(jìn)我們的生活。智能客服時(shí)代的人和機(jī)器分工有四個(gè)方面,但下列。屬于其中A、用機(jī)器守住第一觸點(diǎn)B、讓機(jī)器分發(fā)個(gè)性內(nèi)容C、用人工獲取消費(fèi)洞察D、以機(jī)器優(yōu)化人工服務(wù)答案:ABD.以下選項(xiàng)中合法的表達(dá)式是。,0<=x<100i=j==0C、(char)(65+3)D、x+1=x+1答案:ABC.圖像識(shí)別的發(fā)展經(jīng)歷了O三個(gè)階段A、文字識(shí)別B、像素識(shí)別C、物體識(shí)別D、數(shù)字圖像處理與識(shí)別答案:ACD.按照不同的輸入劃分,文本自動(dòng)生成可包括。。A、文本到文本的生成B、意義到文本的生成C、數(shù)據(jù)到文本的生成D、圖像到文本的生成答案:ABCD.人工智能按照發(fā)展層級(jí)劃分可以分為哪幾層?A、計(jì)算智能B、感知智能C、認(rèn)知智能D、人工智能答案:ABC.華為云El讓更多的企業(yè)邊界的使用Al和大數(shù)據(jù)服務(wù),加速業(yè)務(wù)發(fā)展,造福社會(huì)。華為云EI服務(wù)可以在以下哪些方面服務(wù)企業(yè)?A、行業(yè)數(shù)據(jù)B、行業(yè)智慧C、算法D、算力答案:ABCD.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的答案:ABC.專家系統(tǒng)的結(jié)構(gòu)包含哪些?A、人機(jī)界面和知識(shí)庫(kù)B、推理機(jī)C、動(dòng)態(tài)數(shù)據(jù)庫(kù)D、知識(shí)庫(kù)答理系統(tǒng)和解釋模塊答案:ABCD.人工智能有幾大學(xué)派?A、符號(hào)主義B、聯(lián)結(jié)主義C、行為主義D、仿生主義答案:ABC.關(guān)于支持向量機(jī),哪項(xiàng)說法正確?A、支持向量機(jī)可以用于處理二分類及多分類問題B、支持向量機(jī)只能用于線性可分的分類問題C、支持向量機(jī)可用于回歸問題D、核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大答案:ACD.遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,包含以下兩種開發(fā)方法。。A、開發(fā)模型的方法B、預(yù)訓(xùn)練模型的方法C、數(shù)據(jù)清洗D、似然變換答案:AB.哪些項(xiàng)屬于集成學(xué)習(xí)?A、KnnB、AdaboostC、隨機(jī)森林D、XGBoost答案:BCD77.以下合法的十六進(jìn)制數(shù)是。A、OxffOXabc0x010X9X答案:BC.以下對(duì)C語言中的函數(shù)描述不正確的有。A、可以概套定義,不可以嵌套調(diào)用B、不可以嵌套定義,可以嵌套調(diào)用C、可以嵌套定義,也可以嵌套調(diào)用D、嵌套定義和嵌套調(diào)用都不允許答案:ACD.以下哪些是目前機(jī)器翻譯系統(tǒng)的弱點(diǎn)。A、對(duì)需要結(jié)合篇章上下文信息的句子翻譯結(jié)果不夠準(zhǔn)確B、在某些特定領(lǐng)域?qū)I(yè)詞匯/短語等表達(dá)可能不準(zhǔn)確'不一致C、在句式結(jié)構(gòu)復(fù)雜的句子上準(zhǔn)確率有所下降D、對(duì)部分俚語、網(wǎng)絡(luò)新詞等的語義表達(dá)可能還不夠精準(zhǔn)答案:ABCD.變量選擇是用來選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?.多個(gè)變量其實(shí)有相同的用處.變量對(duì)于模型的解釋有多大作用C、特征攜帶的信息D、交叉驗(yàn)證答案:ACD.如果問題存在最優(yōu)解,則下面幾種搜索算法中,。必然可以得到該最優(yōu)解,O可以認(rèn)為是“智能程度相對(duì)比較高”的算法。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索答案:AD.基于海量數(shù)據(jù),對(duì)用戶需求進(jìn)行深層次、知識(shí)化理解,并結(jié)合知識(shí)查詢、推理、計(jì)算等多種技術(shù),精準(zhǔn)滿足用戶需求。以下屬于知識(shí)問答的是。。A、精準(zhǔn)問答B(yǎng)、推理運(yùn)算C、通用問答D、搜索引擎答案:ABC.智能控制的開發(fā),目前認(rèn)為有以下途徑。A、基于數(shù)據(jù)挖掘的專家智能控制B、基于遺傳算法的軟計(jì)算控制C、基于人工神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)控制D、以上說法都不對(duì).從技術(shù)架構(gòu)來看Al芯片的分類包括?A、FPGAB、CPUC、GPUD、ASIC答案:ABCD.數(shù)據(jù)結(jié)構(gòu)主要分為。等幾種形式。A、非線性結(jié)構(gòu)B、環(huán)狀結(jié)構(gòu)C、線性結(jié)構(gòu)D、條狀結(jié)構(gòu)答案:AC.人工智能研究的一項(xiàng)基本內(nèi)容是機(jī)器感知。以下列舉中的屬于機(jī)器感知的領(lǐng)域有哪些?A、使機(jī)器具有視覺、聽覺、觸覺、味覺、嗅覺等感知能力。B、讓機(jī)器具有理解文字的能力。C、使機(jī)器具有能夠獲取新知識(shí)、學(xué)習(xí)新技巧的能力。D、使機(jī)器具有聽懂人類語言的能力答案:ABD.生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場(chǎng)景中可以使用此網(wǎng)絡(luò)的是?A、數(shù)據(jù)增強(qiáng)B、語義分割C、信息檢索D、圖像生成答案:ABCD.關(guān)聯(lián)規(guī)則可以有哪些應(yīng)用。。A、購(gòu)買分析B、疾病分析C、制造分析D、入侵檢測(cè)答案:ABCD.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。VGGNetResNetC、AIexNetD、GoogleNet答案:ABCD.問答系統(tǒng)的兩大難題是O。A、問句的真實(shí)意圖分析B、語言的識(shí)別C、說話人驗(yàn)證D、問句與答案之間的匹配關(guān)系答案:AD.關(guān)于人臉?biāo)阉鞣?wù),下列哪些說法是正確的?A、沒有人臉集時(shí),需要先創(chuàng)建人臉集,再添加人臉數(shù)據(jù),然后才能進(jìn)行搜索B、一個(gè)人臉集的大小不能超過10000張圖片C、有專門的接口可以刪除指定人臉集D、有專門的接口可以刪除某個(gè)人臉集中的人臉數(shù)據(jù)答案:ACD.關(guān)于自然語言處理(NLP)和認(rèn)知智能描述正確的是()A、認(rèn)知智能包含語義理解、知識(shí)表示、聯(lián)想推理、知識(shí)問答'自主學(xué)習(xí)等任務(wù)B、自然語言處理包含分詞、命名實(shí)體識(shí)別、詞性分類、句法解析等任務(wù),是實(shí)現(xiàn)語義理解的工具;C、自然語言處理是認(rèn)知智能中的一類核心任務(wù);D、AB描述都正確答案:ABC.通過地理位置信息可以分析出哪些信息?A、顏值B、家庭住址C、工作地址D、體重答案:BC.現(xiàn)代神經(jīng)網(wǎng)絡(luò)是一種非線性統(tǒng)計(jì)性數(shù)據(jù)建模工具。典型的神經(jīng)網(wǎng)絡(luò)具有三個(gè)部分,包括()。C、激勵(lì)函數(shù)D、學(xué)習(xí)規(guī)則答案:ACD.我們想要減少數(shù)據(jù)集中的特征數(shù),即降維.選擇以下適合的方案?A、使用前向特征選擇方法B、使用后向特征排除方法C、我們先把所有特征都使用,去訓(xùn)練一個(gè)模型,得到測(cè)試集上的表現(xiàn).然后我們?nèi)サ粢粋€(gè)特征,再去訓(xùn)練,用交叉驗(yàn)證看看測(cè)試集上的表現(xiàn).如果表現(xiàn)比原來還要好,我們可以去除這個(gè)特征.D、查看相關(guān)性表,去除相關(guān)性最高的一些特征答案:ABCD.人工智能’應(yīng)用紅利兌現(xiàn)’的標(biāo)準(zhǔn)是什么?A、有看得見摸得著的真實(shí)應(yīng)用案例B、有能夠規(guī)?;涂赏茝V的對(duì)應(yīng)產(chǎn)品C、可以通過統(tǒng)計(jì)數(shù)據(jù)去說明應(yīng)用成效D、萬物互聯(lián)、機(jī)器完全替代人工所有的工作答案:ABC.以下關(guān)于語音轉(zhuǎn)寫的難點(diǎn)說法正確的是。A、交談風(fēng)格隨意'口語化較為嚴(yán)重B、錄音文件的質(zhì)量復(fù)雜多變,由于有的是通過手機(jī)設(shè)備直接錄音,有的是通過會(huì)議麥克風(fēng)錄音,有的是使用筆記本電腦自帶麥克風(fēng)采集C、不能做到實(shí)時(shí)語音識(shí)別處理,且模型較為復(fù)雜,所以有比較嚴(yán)重的延時(shí)D、識(shí)別文本的后處理和潤(rùn)色因場(chǎng)景、所涉及應(yīng)用行業(yè)不同而有較高難度,如中學(xué)授課與法庭庭審,就需要兩套不同的資源配備而不能完全通用答案:ABD.AI芯片從業(yè)務(wù)應(yīng)用上來分,可以分為?A、訓(xùn)練B、GPUC、模型構(gòu)建D、推理答案:AD.以下說法正確的是。。A、C語言里有字符串變量B、C語言里沒有字符串變量C、C語言里有字符變量D、C語言里沒字符變量答案:BC.實(shí)現(xiàn)人工智能的途徑有。A、圖靈測(cè)試的途徑B、認(rèn)知識(shí)建模的途徑C、思維法則的途徑D、合理進(jìn)程安排的途徑答案:ABCD判斷題.分類問題用邏輯回歸,預(yù)測(cè)問題用線性回歸。A、正確B、錯(cuò)誤答案:A.在神經(jīng)網(wǎng)絡(luò)中,每個(gè)參數(shù)可以有不同的學(xué)習(xí)率。這句話是對(duì)還是BA、正確B、錯(cuò)誤答案:A.FasterRCNN中的ROIpooIing,仍能保留pixel-1eveI的輸入輸出對(duì)應(yīng)Av正確B、錯(cuò)誤答案:B.自然語言的形式(字符串)與其意義之間是一種多對(duì)多的關(guān)系,其實(shí)這也正是自然語言的魅力所在。Av正確B、錯(cuò)誤答案:A.處理大數(shù)據(jù)需采用新型計(jì)算架構(gòu)和智能算法等新技術(shù)A、正確B、錯(cuò)誤答案:B.學(xué)習(xí)率越大,訓(xùn)練速度越快,最優(yōu)解越精確。Av正確B、錯(cuò)誤答案:B.語音識(shí)別的技術(shù)框架階段順序是:訓(xùn)練、編碼、解碼。A、正確B、錯(cuò)誤答案:B.P(B|A)表示在規(guī)則BTA中,證據(jù)A為真的作用下結(jié)論B為真的概率。Av正確B、錯(cuò)誤答案:B.僅個(gè)體變?cè)涣炕闹^詞稱為一階謂詞。A、正確B、錯(cuò)誤答案:A.C語言程序中變量名不能用大寫。Av正確B、錯(cuò)誤答案:B.大數(shù)據(jù)技術(shù)和云計(jì)算技術(shù)是兩門完全不相關(guān)的技術(shù)。A、正確答案:B.自然語言處理的各項(xiàng)任務(wù)中,各層次的語義歧義問題是最難解決的A、正確B、錯(cuò)誤答案:A.大數(shù)據(jù)的應(yīng)用注重因果分析而不是相關(guān)分析Av正確B、錯(cuò)誤答案:B.卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行卷積計(jì)算后,沒有辦法保證圖像的尺寸維持原大小。A、正確B、錯(cuò)誤答案:B.通過深度學(xué)習(xí)可以很容易地從大量高維數(shù)據(jù)中導(dǎo)出簡(jiǎn)單地?cái)?shù)學(xué)函數(shù)來描述復(fù)雜的決策界面。A、正確B、錯(cuò)誤答案:A.依據(jù)函數(shù)的曲線分布而命名的S型激活函數(shù)中,就是指Sigmoid函數(shù)A、正確B、錯(cuò)誤.有一個(gè)隱藏層網(wǎng)絡(luò),就是二層神經(jīng)網(wǎng)絡(luò)。A、正確B、錯(cuò)誤答案:A.計(jì)算速度上,LSTM比GRU要快A、正確B、錯(cuò)誤答案:A.支持向量機(jī)SVM屬于深度學(xué)習(xí)網(wǎng)絡(luò)A、正確B、錯(cuò)誤答案:B.注意力機(jī)制的非線性激活函數(shù)常用tanhoA、正確B、錯(cuò)誤答案:B.大數(shù)據(jù)是通過傳統(tǒng)數(shù)據(jù)庫(kù)技術(shù)和數(shù)據(jù)處理工具不能處理的龐大而復(fù)雜的數(shù)據(jù)集合。A、正確B、錯(cuò)誤答案:A.在線性可分的情況下,支持向量是那些最接近決策平面的數(shù)據(jù)點(diǎn)。Av正確B、錯(cuò)誤答案:A.語義網(wǎng)絡(luò)中的節(jié)點(diǎn)可以表示各種事物、概念、情況、屬性、動(dòng)作、狀態(tài)。A、正確B、錯(cuò)誤答案:A.asttext利用了全局范圍的詞相關(guān)性。Av正確B、錯(cuò)誤答案:B.二進(jìn)制文件與ASCII文件相比要占用較多的存儲(chǔ)空間。A、正確B、錯(cuò)誤答案:B.過擬合是指由于訓(xùn)練樣本不足,導(dǎo)致測(cè)試結(jié)果不堪用。Av正確B、錯(cuò)誤答案:B.ResNet殘差網(wǎng)絡(luò)可以短路網(wǎng)絡(luò),保證權(quán)重更新。A、正確答案:A.構(gòu)建語音識(shí)別系統(tǒng)時(shí),需要建立語音、語言數(shù)據(jù)庫(kù),以便于進(jìn)行離線訓(xùn)練。A、正確B、錯(cuò)誤答案:A.自定義訓(xùn)練循環(huán)無需編譯模型,直接利用優(yōu)化器根據(jù)損失函數(shù)反向傳播迭代參數(shù),擁有最高的靈活性。A、正確B、錯(cuò)誤答案:A.為了加速人工智能的模型訓(xùn)練和推理速度,目前只能通過軟件優(yōu)化的方式進(jìn)行提速。A、正確B、錯(cuò)誤答案:B.AI的英文縮寫是Artifica11nformationoAv正確B、錯(cuò)誤答案:B.數(shù)據(jù)重組有利于實(shí)現(xiàn)新穎的數(shù)據(jù)模式創(chuàng)新A、正確答案:A.機(jī)器學(xué)習(xí)的核心是“使用算法解析數(shù)據(jù),從中學(xué)習(xí),然后對(duì)世界上的某件事情做出決定或預(yù)測(cè)”。A、正確B、錯(cuò)誤答案:B.損失函數(shù)有兩個(gè)表達(dá)方式,均方差表達(dá)和信息烯表達(dá)。A、正確B、錯(cuò)誤答案:A.卷積核尺寸一般是奇數(shù)。A、正確B、錯(cuò)誤答案:A.resnet可以很好解決梯度消失問題。A、正確B、錯(cuò)誤答案:A.卷積可視化解釋不是現(xiàn)有深度學(xué)習(xí)方法的必備技術(shù)。A、正確B、錯(cuò)誤.如果在一個(gè)高度非線性并且復(fù)雜的一些變量中,一個(gè)樹模型可能比一般的回歸模型效果更好。A、正確B、錯(cuò)誤答案:A.連接主義是研究中等生物智慧的行為,比如視覺。Av正確B、錯(cuò)誤答案:A.圖像數(shù)字化需要經(jīng)過的步驟包括量化。A、正確B、錯(cuò)誤答案:A.訓(xùn)練CNN時(shí),可以對(duì)輸入進(jìn)行旋轉(zhuǎn)'平移、縮放等預(yù)處理提高模型泛化能力。這么說是對(duì),還是不對(duì)?A、正確B、錯(cuò)誤答案:A.一般而言,分布式數(shù)據(jù)庫(kù)是指物理上分散在不同地點(diǎn),但在邏輯上是統(tǒng)一的數(shù)據(jù)庫(kù)。因此分布式數(shù)據(jù)庫(kù)具有物理上的獨(dú)立性'邏輯上的一體性、性能上的可擴(kuò)展性等特點(diǎn)。B、錯(cuò)誤答案:A.在啟發(fā)式搜索當(dāng)中,通常用啟發(fā)函數(shù)來表示啟發(fā)性信息A、正確B、錯(cuò)誤答案:A.Python不支持char數(shù)據(jù)類型A、正確B、錯(cuò)誤答案:A.損失函數(shù)中,基于信息烯的損失函數(shù),與平方范數(shù)損失函數(shù)互有矛盾。A、正確B、錯(cuò)誤答案:B.謂詞表示法:首先定義謂詞,指出每個(gè)謂詞的確切含義,然后再用連接詞把有關(guān)的謂詞連接起來,形成一個(gè)謂詞公式表達(dá)一個(gè)完整的意義。Av正確B、錯(cuò)誤答案:A.找到好的超參數(shù)的值是非常耗時(shí)的,所以通常情況下你應(yīng)該在項(xiàng)目開始時(shí)做一次,并嘗試找到非常好的超參數(shù),這樣你就不必再次重新調(diào)整它們。B、錯(cuò)誤答案:B.LSTM、GRU等網(wǎng)絡(luò)存在嚴(yán)重的梯度消失與爆炸等問題A、正確B、錯(cuò)誤答案:B.在前饋網(wǎng)絡(luò)中,多個(gè)神經(jīng)元互連以組織一個(gè)互連神經(jīng)網(wǎng)絡(luò)。A、正確B、錯(cuò)誤答案:B.歐氏距離是一種很好的相似性度量標(biāo)準(zhǔn)。A、正確B、錯(cuò)誤答案:A.不論多大的數(shù)據(jù)集,測(cè)試集數(shù)量必須保持在30%。A、正確B、錯(cuò)誤答案:B.在啟發(fā)式搜索當(dāng)中,通常用啟發(fā)函數(shù)來表示啟發(fā)性信息。A、正確B、錯(cuò)誤.專家系統(tǒng)中推理機(jī)的最基本方式是確定性推理和不確定性推理。A、正確B、錯(cuò)誤答案:B.給定三個(gè)點(diǎn)(1,4)、(2,3)、(2,4),它們的歐氏距離最小值是1A、正確B、錯(cuò)誤答案:A.卷積神經(jīng)網(wǎng)絡(luò)的并發(fā)性,比循環(huán)神經(jīng)網(wǎng)絡(luò)好A、正確B、錯(cuò)誤答案:A.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)和技能,實(shí)現(xiàn)自我完善,這門研究分支學(xué)科叫神經(jīng)網(wǎng)絡(luò)。A、正確B、錯(cuò)誤答案:B.有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)相比的一個(gè)區(qū)別在于,有監(jiān)督學(xué)習(xí)需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)識(shí),無監(jiān)督學(xué)習(xí)不用。A、正確答案:A.在自然語言處理中,我們可以在一些不同結(jié)構(gòu)層次上對(duì)語言進(jìn)行分析。A、正確B、錯(cuò)誤答案:A.恩伯格對(duì)大數(shù)據(jù)特點(diǎn)數(shù)據(jù)處理速度快A、正確B、錯(cuò)誤答案:A.np.empty不可以創(chuàng)建為空的數(shù)組A、正確B、錯(cuò)誤答案:B.或圖通常稱為博弈圖。A、正確B、錯(cuò)誤答案:B.在謂詞公式中,在一個(gè)量詞的轄域中與該量詞的指導(dǎo)變?cè)嗤淖冊(cè)Q為約束變?cè)?。A、正確B、錯(cuò)誤.全局最優(yōu)解的函數(shù)損失值最小。A、正確B、錯(cuò)誤答案:A.遺傳算法不能用于知識(shí)發(fā)現(xiàn)。A、正確B、錯(cuò)誤答案:B.人臉識(shí)別數(shù)據(jù)集通常是2分類圖片。A、正確B、錯(cuò)誤答案:A.謂詞邏輯中,重言式(tautlogy)的值是假。A、正確B、錯(cuò)誤答案:B.關(guān)于大數(shù)據(jù)的分析理念的說法中在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)A、正確B、錯(cuò)誤答案:A.Python元組用“()”標(biāo)識(shí),內(nèi)部元素用“:”隔開。Av正確B、錯(cuò)誤答案:B.程序設(shè)計(jì)的三種基本結(jié)構(gòu)是順序結(jié)構(gòu)、選擇結(jié)構(gòu)'循環(huán)結(jié)構(gòu)。A、正確B、錯(cuò)誤答案:A.深度學(xué)習(xí)在人工智能領(lǐng)域的表現(xiàn)并不突出Av正確B、錯(cuò)誤答案:B.普通的循環(huán)神經(jīng)網(wǎng)絡(luò)會(huì)遇到梯度爆炸和梯度消失的問題,所以現(xiàn)在在自然語言處理領(lǐng)域,一般會(huì)使用LSTM網(wǎng)絡(luò)模型。A、正確B、錯(cuò)誤答案:A.向量就是一個(gè)數(shù)。A、正確B、錯(cuò)誤答案:B.如果想獲取當(dāng)前場(chǎng)景背景的圖像,則可以通過圖像差分便可以提取出前景。B、錯(cuò)誤答案:A.Python是通用編譯器將程序編譯成二進(jìn)制代碼再運(yùn)行。A、正確B、錯(cuò)誤答案:B.多分類是做人類驗(yàn)證的首選方式。A、正確B、錯(cuò)誤答案:B.與其他人工智能系統(tǒng)不同,專家系統(tǒng)偏重處理不確定和不精確的知識(shí)A、正確B、錯(cuò)誤答案:A.決策樹是一種采用測(cè)量不同特征值之間的距離方法進(jìn)行分類的算法。A、正確B、錯(cuò)誤答案:B.人工智能將脫離人類控制,并最終毀滅人類A、正確B、錯(cuò)誤.在中文中,一個(gè)詞的詞性很多時(shí)候都不是固定的,一般表現(xiàn)為同音同形的詞在不同場(chǎng)景下,其表示的語法截然不同,這就為詞性標(biāo)注帶來了很大的困難。A、正確B、錯(cuò)誤答案:A.大數(shù)據(jù)的最顯著特征是數(shù)據(jù)類型多樣Av正確B、錯(cuò)誤答案:A.第一個(gè)提出大數(shù)據(jù)概念的公司是谷歌公司A、正確B、錯(cuò)誤答案:B.大數(shù)據(jù)是用來描述在我們網(wǎng)絡(luò)的、數(shù)字的'遍布傳感器的'信息驅(qū)動(dòng)的世界中呈現(xiàn)出的數(shù)據(jù)泛濫的常用詞語。大量數(shù)據(jù)資源為解決以前不可能解決的問題帶來了可能性。Av正確B、錯(cuò)誤答案:A.強(qiáng)化學(xué)習(xí)需要預(yù)先給定數(shù)據(jù),才能通過接收環(huán)境對(duì)動(dòng)作的獎(jiǎng)勵(lì)進(jìn)行學(xué)習(xí)。A、正確答案:B.語音識(shí)別中,最簡(jiǎn)單的是特定人、小詞匯量、孤立詞的語音識(shí)別。A、正確B、錯(cuò)誤答案:A.將一個(gè)卷積神經(jīng)網(wǎng)絡(luò)的第一層的特征圖可視化,能看到清晰的目標(biāo)特征。A、正確B、錯(cuò)誤答案:B.將Sigmoid激活函數(shù)改為ReLu,將有助于克服梯度消失問題?A、正確B、錯(cuò)誤答案:A.大數(shù)據(jù)人才整體上需要具備數(shù)學(xué)與統(tǒng)計(jì)知識(shí)A、正確B、錯(cuò)誤答案:A.全連接層用來處理多分類結(jié)果。A、正確B、錯(cuò)誤答案:A.由于丫。1。是對(duì)整張圖片做卷積,所以其在檢測(cè)目標(biāo)有更大的視野,它不容易對(duì)背景誤判。A、正確B、錯(cuò)誤答案:A.“大數(shù)據(jù)”一詞,最早出現(xiàn)于20世紀(jì)90年代,當(dāng)時(shí)的數(shù)據(jù)倉(cāng)庫(kù)之父比爾?恩門經(jīng)常提及BigDataoA、正確B、錯(cuò)誤答案:A.產(chǎn)生式系統(tǒng)的推理過程中,從可觸發(fā)規(guī)則中選擇一個(gè)規(guī)則來執(zhí)行,被執(zhí)行的規(guī)則稱為可觸發(fā)規(guī)則。A、正確B、錯(cuò)誤答案:B.do---whiIe語句的循環(huán)體至少執(zhí)行1次,whiIe和for循環(huán)的循環(huán)體可能一次也執(zhí)行不到。A、正確B、錯(cuò)誤答案:A.符號(hào)主義認(rèn)為人工智能的研究方法應(yīng)為功能模擬。B、錯(cuò)誤答案:A.所有的機(jī)器學(xué)習(xí)分類算法都屬于無監(jiān)督方法。A、正確B、錯(cuò)誤答案:B.語音識(shí)別技術(shù)中最復(fù)雜最難解決的是,非特定人'大詞匯量、連續(xù)語音識(shí)別。A、正確B、錯(cuò)誤答案:A.TensorFlow是GoogIe第一代專有機(jī)器學(xué)習(xí)系統(tǒng)A、正確B、錯(cuò)誤答案:B.在框架和語義網(wǎng)絡(luò)兩種知識(shí)表示方法中語義網(wǎng)絡(luò)適合于表示結(jié)構(gòu)性強(qiáng)的知識(shí),而框架則適合表示一些復(fù)雜的關(guān)系和聯(lián)系的知識(shí)。Av正確B、錯(cuò)誤答案:B.(ATB)AA=>B是附加律。A、正確答案:B.人工神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)的子集,機(jī)器學(xué)習(xí)是人工智能體系的子集。A、正確B、錯(cuò)誤答案:A.混淆矩陣對(duì)角線上的數(shù)值越低,說明該分類器的分類效果越好。A、正確B、錯(cuò)誤答案:A.過擬合是有監(jiān)督學(xué)習(xí)的挑戰(zhàn),而不是無監(jiān)督學(xué)習(xí)。A、正確B、錯(cuò)誤答案:B.阿蘭?圖靈在1955年提出圖靈測(cè)試的概念A(yù)、正確B、錯(cuò)誤答案:B.大數(shù)據(jù)的應(yīng)用注重相關(guān)分析而不是因果分析A、正確B、錯(cuò)誤答案:A.人工智能目前僅適用于特定的、專用的問題

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論