《人工智能工程師》基礎(chǔ)測(cè)試題_第1頁(yè)
《人工智能工程師》基礎(chǔ)測(cè)試題_第2頁(yè)
《人工智能工程師》基礎(chǔ)測(cè)試題_第3頁(yè)
《人工智能工程師》基礎(chǔ)測(cè)試題_第4頁(yè)
《人工智能工程師》基礎(chǔ)測(cè)試題_第5頁(yè)
已閱讀5頁(yè),還剩4頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、人工智能工程師基礎(chǔ)測(cè)試題本套測(cè)試題是為了檢驗(yàn)同學(xué)們對(duì)Python和數(shù)學(xué)基礎(chǔ)的掌握程度,大家不要有壓 力,請(qǐng)根據(jù)自己的情況,如實(shí)答題。我們會(huì)依據(jù)每個(gè)人的情況,制定專(zhuān)屬學(xué)習(xí)計(jì) 劃。請(qǐng)務(wù)必要認(rèn)真答題。感謝配合。姓名:填空題*Python基礎(chǔ)(每道題20分.共100分)1. 以下不能創(chuàng)建一個(gè)字典的語(yǔ)句是()I單選題1 *A. dictl = (B. dict2 = 3:5C. dict3 = (1,2,3: "uestcn)(正確答案)D. dict4= (1,2,3): ”ucstc”2. 下列Python語(yǔ)句正確的是:()單選題*A. min = x if x < y else y

2、(正確答案)B. max = x > y ? x : yC. if (x > y) min = xD. while !x : pass3. 下面的Fact(n)是一個(gè)計(jì)算階乘的遞歸函數(shù):()# this function computes factorialdef Fact(n):return n * Fact(n-l)關(guān)于該函數(shù),下列說(shuō)法中正確的是I. 函數(shù)沒(méi)有設(shè)置停止條件II. 函數(shù)沒(méi)有進(jìn)行遞歸調(diào)用III. 當(dāng)n=l時(shí),函數(shù)應(yīng)該return 1IV. 返回語(yǔ)句是不必要的V. 函數(shù)會(huì)運(yùn)行很久,造成過(guò)多的遞歸調(diào)用單選題*I and III and IIII, II, and III

3、I, HI, and V(正確答案)4. a = range(5),下列語(yǔ)句能對(duì)a進(jìn)行反序的操作是:()單選題*A. a = a-1B. a = a:-lC. a = a-l:JD. a = a:-1(正確答案)5. 下列語(yǔ)句中會(huì)得到5, 5, 5的是:()單選題*A. 5 *3(正確答案)B. 5 * 3C. 5 * 3D. 5 * 3機(jī)器學(xué)習(xí)之?dāng)?shù)學(xué)基礎(chǔ)第一部分:概率統(tǒng)計(jì)(第1、4題各20分.2、3題各30分.共1()0分)1. 下面兩個(gè)圖是參數(shù)不同的正態(tài)分布的概率密度參數(shù),()是均值相同、方差不 同的正態(tài)分布。單選題*SA0B(正確答案)2. 有朋自遠(yuǎn)方來(lái),乘火車(chē)、船、汽車(chē)、飛機(jī)來(lái)的概率分

4、別為0.3, 0.2, 0.1, 0.4, 遲到的概率分別為0.25, 0.3, 0.1, 0;現(xiàn)在假設(shè)他遲到了,求他坐火車(chē)來(lái)的概率。 這個(gè)概率比先驗(yàn)概率是變大了還是變小了? I填空題*答案:令B :遲到.)3. 假如有一個(gè)罐子,里面有黑白兩種顏色的球,數(shù)目多少不知,兩種顏色的比例也 不知。我們想知道罐中白球和黑球的比例,但我們不能把罐中的球全部拿出來(lái)數(shù)。 現(xiàn)在我們可以每次任意從已經(jīng)搖勻的罐中拿一個(gè)球出來(lái),記錄球的顏色,然后把拿 出來(lái)的球再放回罐中。這個(gè)過(guò)程可以重復(fù),我們可以用記錄的球的顏色來(lái)估計(jì)罐中 黑白球的比例。假如在前面的一百次重復(fù)記錄中,有七十次是白球。請(qǐng)問(wèn)罐中白球 所占的比例最有可能

5、是多少?(請(qǐng)用極大似然估計(jì)方法估計(jì)分布的參數(shù))填空題 *,答案:罐子中的球?yàn)榘浊蚧蚝谇颍詮墓?子中隨機(jī)抽取一個(gè)球,球的顏色X為白色的隨機(jī)事件服從Bernoulli分布.)4. 一位朋友要發(fā)表一篇文章,關(guān)于實(shí)驗(yàn)結(jié)果描述,下面哪種說(shuō)法正確?單選題*A. 我提出了一種新方法,在數(shù)據(jù)集A上的結(jié)果比現(xiàn)有結(jié)果高0.1 ;B. 我提出了一種新方法,當(dāng)模型超參數(shù)入=0.32146時(shí),在數(shù)據(jù)集A上的結(jié)果比現(xiàn) 有結(jié)果高0.1 ;C. 我提出了一種新方法,采用交叉驗(yàn)證得到模型的最佳參數(shù)入=0.32146時(shí),在數(shù)據(jù) 集A上的結(jié)果比現(xiàn)有結(jié)果高0.1 ; (3第二部分:矩陣(每道題10分.共100分)1. 單選題*A

6、. 1B. 2C. &正確答案)D. 62. 下列行列式的變換中,使行列式的值保持不變的是()單選題*A. 將行列式的第2行和第3行交換B. 將行列式的行列互換正礁答矣)C. 將行列式第2列的元素都乘以2D. 將行列式第2列的2倍加到第3行3. J 單選題*A. 1000B. -1000C. 2000(正破答案)D. -20004. 設(shè)矩陣A的秩為r,則A中()|單選題*A. 所有r-1階子式都不為0B. 所有r-1階子式全為。C. 所有r階子式都不為0D. 至少有一個(gè)r階子式不為0( i5. 若方陣A的行列式|A|/0,下列結(jié)論正確的是()單選題*A. A的行向量組和列向量組都線(xiàn)性相

7、關(guān)B. A的行向量組線(xiàn)性相關(guān),列向量組都線(xiàn)性無(wú)關(guān)C. A的行向量組和列向量組都線(xiàn)性無(wú)關(guān)(確答奚)D. A的列向量組線(xiàn)性相關(guān),行向量組都線(xiàn)性無(wú)關(guān)6. n元齊次線(xiàn)性方程組AX=0僅有零解的充要條件是()單選題*A. R (A) =n 狷冬案)B. R (A) <nC. R (A) >nD. R (A)與n無(wú)關(guān)7. 如果n元齊次線(xiàn)性方程組AX=0的基礎(chǔ)解系含有s (s<n)個(gè)解向量,那么系數(shù) 矩陣A的秩為()單選題*A. nB. sC. n-s(正確答案)D. 以上都不正確8. 若n階矩陣A滿(mǎn)足口 ,則稱(chēng)矩陣A為正交矩陣。由此定義,下列矩陣為正交矩陣的是()單選題*SA.0B. (

8、正確答案)sc.sD.9. 設(shè)A是正交矩陣,則下列結(jié)論錯(cuò)誤的是()單選題*SA0B,正確答案)ScSD10. 設(shè)入是矩陣A的特征方程的3重根,A屬于A的線(xiàn)性無(wú)關(guān)的特征向量個(gè)數(shù)為k,則必有()單選題*kW3(正確答案)k<3k=3 k>3第三部分:凸優(yōu)化(1-3題,每道題20分,第4題40分。共10()分。)單選題*1. 下列數(shù)值優(yōu)化問(wèn)題中,目前難以高效可靠求解的問(wèn)題是:A. 最小二乘B. 整數(shù)優(yōu)化正確答賓)C. 線(xiàn)性規(guī)劃D. 凸優(yōu)化2. 以下圖像中屬于凸集的是:()單選題*0A,正確答案)SBSCSD3. 下列提到的技術(shù)哪一個(gè)是正確的:()1 AdaGrad使用一階偏導(dǎo)2 L-BF

9、GS使用二階偏導(dǎo)3 AdaGrad使用二階偏導(dǎo)4 L-BFGS使用一階偏導(dǎo)單選題*A. 1和2(正確答案)B. 3和4C. 1 和 4D. 2 和 34. 數(shù)值優(yōu)化算法中梯度下降(Gradient Decent, GD)與隨機(jī)梯度下降(StochasticGradient Decent, SGD)均為常用算法,請(qǐng)論述GD與SGD算法的異同點(diǎn)。填空 題*答案:相同點(diǎn):在GD和SGD中,都會(huì)在 每次迭代中更新模型的參數(shù),使得代價(jià)函數(shù)變小。不同點(diǎn):GD每次迭代用于全部 訓(xùn)練數(shù)據(jù);SGD每次迭代可以只用一個(gè)訓(xùn)練數(shù)據(jù)來(lái)更新參數(shù)。當(dāng)訓(xùn)練數(shù)據(jù)過(guò)大 時(shí),用GD可能造成內(nèi)存不夠用,那么就可以用SGD 了,SGD

10、其實(shí)可以算作是一 種onlinc-lcarningo另外SGD收斂會(huì)比GD快,但是對(duì)于代價(jià)函數(shù)求最小值還是 GD做的比較好)5-8題為機(jī)器學(xué)習(xí)題目,可選填。(附加題,每道題10分)5. 神經(jīng)網(wǎng)絡(luò)中使用如下激活函數(shù)的圖像,下述正確的說(shuō)法是:()SI單選題IA. 從左到右分別是SIGMOID、tanh、ReLUB. 從左到右分別是SIGMOID、ReLUs tanhC. 從左到右分別是ReLU、tanh、SIGMOIDD. 從左到右分別是tanh、SIGMOID. RcLUi正確答案)6. 假設(shè)有一個(gè)5層的神經(jīng)網(wǎng)絡(luò)在4GB顯存的GPU上訓(xùn)練了 5個(gè)小時(shí),在測(cè)試時(shí),單個(gè)數(shù)據(jù)點(diǎn)需要花費(fèi)2s時(shí)間。現(xiàn)在改變網(wǎng)絡(luò)結(jié)構(gòu),在第二層到第四層分別以0.2和0.3的概率增加dropout,請(qǐng)問(wèn)新的網(wǎng)絡(luò)結(jié)構(gòu)測(cè)試時(shí)間是多少:()單選題A. 少于2sB. 2s(IC. 多于2sD. 不一定7. 下述三張圖展示SVM算法在不同懲罰參數(shù)C下的可視化結(jié)果,由于某種原因忘 記標(biāo)注C的具體值,請(qǐng)問(wèn)如下圖中C值(Cl、C2、C3分別表示三幅圖對(duì)應(yīng)的C 值)的大小次序最可能次序是:()單選題A. C1 = C2 = C3B. C1 vC2<C33"確答案)C. C1 >C2>C3D. 以上都不對(duì)8. 現(xiàn)有一個(gè)點(diǎn)能被正確分類(lèi)且遠(yuǎn)離

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論