AI:人工智能概念之Google發(fā)布機(jī)器學(xué)習(xí)術(shù)語表中英對照-持續(xù)更新ML、DL相關(guān)概念2018年4月_第1頁
AI:人工智能概念之Google發(fā)布機(jī)器學(xué)習(xí)術(shù)語表中英對照-持續(xù)更新ML、DL相關(guān)概念2018年4月_第2頁
AI:人工智能概念之Google發(fā)布機(jī)器學(xué)習(xí)術(shù)語表中英對照-持續(xù)更新ML、DL相關(guān)概念2018年4月_第3頁
AI:人工智能概念之Google發(fā)布機(jī)器學(xué)習(xí)術(shù)語表中英對照-持續(xù)更新ML、DL相關(guān)概念2018年4月_第4頁
AI:人工智能概念之Google發(fā)布機(jī)器學(xué)習(xí)術(shù)語表中英對照-持續(xù)更新ML、DL相關(guān)概念2018年4月_第5頁
已閱讀5頁,還剩50頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

Al:人工智能概念之《Google發(fā)布機(jī)器學(xué)習(xí)術(shù)語表(中英對

照)》一一持續(xù)更新ML、DL相關(guān)概念2018年4月!

AI:人工智能概念之《Google發(fā)布機(jī)器學(xué)習(xí)術(shù)語表(中英對照)》一一持續(xù)更新

ML、DL相關(guān)概念2018年4月!

相關(guān)文章

A1:人工智能概念之《Google發(fā)布機(jī)器學(xué)習(xí)術(shù)語表(中英對照)》一一持續(xù)更新

ML、DL相關(guān)概念2018年4月!

A1:人工智能概念之機(jī)器學(xué)習(xí)、深度學(xué)習(xí)中常見關(guān)鍵詞、參數(shù)等中英文對照(絕對

干貨)

目錄

機(jī)器學(xué)習(xí)術(shù)語表

A

A/B測試(A/Btesting)

準(zhǔn)確率(accuracy)

激活函數(shù)(activationfunction)

AdaGrad

ROC曲線下面積(AUC,AreaundertheROCCurve)

B

反向傳播算法(backpropagation)

基準(zhǔn)(baseline)

批次(batch)

批次規(guī)模(batchsize)

偏差(bias)

二元分類(binaryclassification)

分箱(binning)

分桶(bucketing)

C

校準(zhǔn)層(calibrationlayer)

候選采樣(candidatesampling)

分類數(shù)據(jù)(categoricaldata)

檢查點(diǎn)(checkpoint)

類別(class)

分類不平衡的數(shù)據(jù)集(class?imbalanceddataset)

分類模型(classificationmodel)

分類閾值(classificationthreshold)

協(xié)同過濾(collaborativefiltering)

混淆矩陣(confusionmatrix)

連續(xù)特征(continuousfeature)

收斂(convergence)

凸函數(shù)(convexfunction]

凸優(yōu)化(convexoptimization)

凸集(convexset)

成本(cost)

交叉燧(cross-entropy)

自定義Estimator(customEstimator)

D

數(shù)據(jù)集(dataset)

DatasetAPI(tf.data)

決策邊界(decisionboundary)

密集層(denselayer)

深度模型(deepmodel)

密集特征(densefeature)

衍生特征(derivedfeature)

離散特征(discretefeature)

丟棄正則化(dropoutregularization)

動(dòng)態(tài)模型(dynamicmodel)

E

早停法(earlystopping)

嵌套(embeddings)

經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化(ERM,empiricalriskminimization)

集成學(xué)習(xí)(ensemble)

周期(epoch)

Estimator

樣本(example)

F

假負(fù)例(FN,falsenegative)

假正例(FP,falsepositive)

假正例率(falsepositiverate,簡稱FP率)

特征(feature)

特征列(FeatureColumns)

特征組合(featurecross)

特征工程(featureengineering)

特征集(featureset)

特征規(guī)范(featurespec)

完整softmax(fullsoftmax)

全連接層(fullyconnectedlayer)

G

泛化(generalization)

廣義線性模型(generalizedlinearmodel)

梯度(gradient)

梯度裁剪(gradientclipping)

梯度下降法(gradientdescent)

圖(graph)

H

啟發(fā)法(heuristic)

隱藏層(hiddenlayer)

合頁損失函數(shù)(hingeloss)

維持?jǐn)?shù)據(jù)(holdoutdata)

超參數(shù)(hyperparameter)

超平面(hyperplane)

I

獨(dú)立同分布(i.i.d,independentlyandidenticallydistributed)

推斷(inference)

輸入函數(shù)(inputfunction)

輸入層(inputlayer)

實(shí)例(instance)

可解釋性(interpretability)

評分者間一致性信度(inter-rateragreement)

迭代(iteration)

K

Keras

核支持向量機(jī)(KSVM,KernelSupportVectorMachines)

L

LI損失函數(shù)(Liloss)

L1正則化(Liregularization)

L2損失函數(shù)(L2loss)

L2正則化.2regularization)

標(biāo)簽(label)

有標(biāo)簽樣本(labeledexample)

lambda

層(layer)

LayersAPI(tf.layers)

學(xué)習(xí)速率(learningrate)

最小二乘回歸(leastsquaresregression]

線性回歸(linearregression)

邏輯回歸(logisticregression)

對數(shù)損失函數(shù)(LogLoss)

損失(Loss)

M

機(jī)器學(xué)習(xí)(machinelearning)

均方誤差(MSE,MeanSquaredError)

指標(biāo)(metric)

MetricsAPI(tf.metrics)

小批次(mini-batch)

小批次隨機(jī)梯度下降法(SGD,mini-batchstochasticgradientdescent)

ML

模型(model)

模型訓(xùn)練(modeltraining)

動(dòng)量(Momentum)

多類別分類(multi-classclassification)

多項(xiàng)分類(multinomialclassification)

N

NaN陷阱(NaNtrap)

負(fù)類別(negativeclass)

神經(jīng)網(wǎng)絡(luò)(neuralnetwork)

神經(jīng)元(neuron)

節(jié)點(diǎn)(node)

標(biāo)準(zhǔn)化(normalization)

數(shù)值數(shù)據(jù)(numericaldata)

Numpy

0

目標(biāo)(objective)

離線推斷(offlineinference)

one-hot編石馬(one?hotencoding)

一對多(one-vs.-all]

在線推斷(onlineinference)

操作(op,Operation]

優(yōu)化器(optimizer)

離群值(outlier)

輸出層(outputlayer)

過擬合(overfitting)

P

Pandas

參數(shù)(parameter)

參數(shù)月艮務(wù)器(PS,ParameterServer)

參數(shù)更新(parameterupdate)

偏導(dǎo)數(shù)(partialderivative)

分區(qū)策略(partitioningstrategy)

性能(performance)

困惑度(perplexity)

流水線(pipeline)

正類別(positiveclass)

精確率(precision)

預(yù)測(prediction)

預(yù)測偏差(predictionbias)

預(yù)創(chuàng)建的Estimator(pre-madeEstimator)

預(yù)訓(xùn)練模型(pre-trainedmodel)

先驗(yàn)信念(priorbelief)

Q

隊(duì)列(queue)

R

等級(rank)

評分者(rater)

召回率(recall)

修正線性單元(ReLU,RectifiedLinearUnit)

回歸模型(regressionmodel)

正則化(regularization)

正則化率(regularizationrate)

表示法(representation)

受試者工作特征曲線(receiveroperatingcharacteristic,簡稱ROC曲線)

根目錄(rootdirectory)

均方根誤差(RMSE,RootMeanSquaredError)

S

SavedModel

Saver

縮放(scaling)

scikit-learn

半監(jiān)督式學(xué)習(xí)(semLsupervisedlearning)

序列模型(sequencemodel)

會(huì)話(session)

S型函數(shù)(sigmoidfunction)

softmax

稀疏特征(sparsefeature)

平方合頁損失函數(shù)(squaredhingeloss)

平方損失函數(shù)(squaredloss]

靜態(tài)模型(staticmodel)

平穩(wěn)性(stationarity)

步(step)

步長(stepsize]

隨機(jī)梯度下降法(SGD,stochasticgradientdescent)

結(jié)構(gòu)風(fēng)險(xiǎn)最小化(SRM,structuralriskminimization]

總結(jié)(summary)

監(jiān)督式機(jī)器學(xué)習(xí)(supervisedmachinelearning)

合成特征(syntheticfeature)

T

目標(biāo)(target)

時(shí)態(tài)數(shù)據(jù)(temporaldata)

張量(Tensor)

張量處理單元(TPU,TensorProcessingUnit)

張量等級(Tensorrank)

張量形狀(Tensorshape)

張量大小(Tensorsize)

TensorBoard

TensorFlow

TensorFlowPlayground

TensorFlowServing

測試集(testset]

tf.Example

時(shí)間序列分析(timeseriesanalysis)

訓(xùn)練(training)

訓(xùn)練集(trainingset)

轉(zhuǎn)移學(xué)習(xí)(transferlearning)

真負(fù)例(TN,truenegative)

真正例(TP,truepositive)

真正例率(truepositiverate,簡稱TP率)

U

無標(biāo)簽樣本(unlabeledexample)

非監(jiān)督式機(jī)器學(xué)習(xí)(unsupervisedmachinelearning)

V

驗(yàn)證集(validationset)

W

權(quán)重(weight)

寬度模型(widemodel)

機(jī)器學(xué)習(xí)術(shù)語表

本術(shù)語表中列出了一般的機(jī)器學(xué)習(xí)術(shù)語和TensorFlow專用術(shù)語的定義。

A

A/B測試(A/Btesting)

一種統(tǒng)計(jì)方法,用于將兩種或多種技術(shù)進(jìn)行比較,通常是將當(dāng)前采用的技術(shù)與新技

術(shù)進(jìn)行比較。A/B測試不僅旨在確定哪種技術(shù)的效果更好,而且還有助于了解相應(yīng)

差異是否具有顯著的統(tǒng)計(jì)意義。A/B測試通常是采用一種衡量方式對兩種技術(shù)進(jìn)行

比較,但也適用于任意有限數(shù)量的技術(shù)和衡量方式。

準(zhǔn)確率(accuracy)

分類模型的正確預(yù)測所占的比例。在多類別分類中,準(zhǔn)確率的定義如下:

準(zhǔn)確率正確的預(yù)測數(shù)樣本總數(shù)準(zhǔn)確率=正確的預(yù)測數(shù)樣本總數(shù)

在二元分類中,準(zhǔn)確率的定義如下:

準(zhǔn)確率真正例數(shù)真負(fù)例數(shù)樣本總數(shù)準(zhǔn)確率=真正例數(shù)+真負(fù)例數(shù)樣本總數(shù)

請參閱真正例和真負(fù)例。

激活函數(shù)(activationfunction)

一種函數(shù)(例如ReLU或S型函數(shù)),用于對上一層的所有輸入求加權(quán)和,然后生

成一個(gè)輸出值(通常為非線性值),并將其傳遞給下一層。

AdaGrad

一種先進(jìn)的梯度下降法,用于重新調(diào)整每個(gè)參數(shù)的梯度,以便有效地為每個(gè)參數(shù)指

定獨(dú)立的學(xué)習(xí)速率一如需查看完整的解釋,請參閱這篇論文。

ROC曲線下面積(AUC,AreaundertheROCCurve)

一種會(huì)考慮所有可能分類閾值的評估指標(biāo)。

ROC曲線下面積是,對于隨機(jī)選擇的正類別樣本確實(shí)為正類別,以及隨機(jī)選擇的

負(fù)類別樣本為正類別,分類器更確信前者的概率。

B

反向傳播算法(backpropagation)

在神經(jīng)網(wǎng)絡(luò)上執(zhí)行梯度下降法的主要算法。該算法會(huì)先按前向傳播方式計(jì)算(并緩

存)每個(gè)節(jié)點(diǎn)的輸出值,然后再按反向傳播遍歷圖的方式計(jì)算損失函數(shù)值相對于每

個(gè)參數(shù)的偏導(dǎo)數(shù)。

基準(zhǔn)(baseline)

一種簡單的模型或啟發(fā)法,用作比較模型效果時(shí)的參考點(diǎn)?;鶞?zhǔn)有助于模型開發(fā)者

針對特定問題量化最低預(yù)期效果。

批次(batch)

模型訓(xùn)練的一次迭代(即一次梯度更新)中使用的樣本集。

另請參閱批次規(guī)模。

批次規(guī)模(batchsize)

一個(gè)批次中的樣本數(shù)。例如,SGD的批次規(guī)模為1,而小批次的規(guī)模通常介于10

到1000之間。批次規(guī)模在訓(xùn)練和推斷期間通常是固定的;不過,TensorFlow允

許使用動(dòng)態(tài)批次規(guī)模。

偏差(bias)

距離原點(diǎn)的截距或偏移。偏差(也稱為偏差項(xiàng))在機(jī)器學(xué)習(xí)模型中以b或w0表示。

例如,在下面的公式中,偏差為b:

y,=b+wlxl+w2x2+...wnxn

請勿與預(yù)測偏差混淆。

二元分類(binaryclassification)

一種分類任務(wù),可輸出兩種互斥類別之一。例如,對電子郵件進(jìn)行評估并輸出“垃

圾郵件”或“非垃圾郵件”的機(jī)器學(xué)習(xí)模型就是一個(gè)二元分類器。

分箱(binning)

請參閱分桶。

分桶(bucketing)

將一個(gè)特征(通常是連續(xù)特征)轉(zhuǎn)換成多個(gè)二元特征(稱為桶或箱),通常是根據(jù)

值區(qū)間進(jìn)行轉(zhuǎn)換。例如,您可以將溫度區(qū)間分割為離散分箱,而不是將溫度表示成

單個(gè)連續(xù)的浮點(diǎn)特征。假設(shè)溫度數(shù)據(jù)可精確到小數(shù)點(diǎn)后一位,則可以將介于0。到

15.0度之間的所有溫度都?xì)w入一個(gè)分箱,將介于15.1到30.0度之間的所有溫度歸

入第二個(gè)分箱,并將介于30.1到50.0度之間的所有溫度歸入第三個(gè)分箱。

C

校準(zhǔn)層(calibrationlayer)

一種預(yù)測后調(diào)整,通常是為了降低預(yù)測偏差。調(diào)整后的預(yù)測和概率應(yīng)與觀察到的標(biāo)

簽集的分布一致。

候選采樣(candidatesampling)

一種訓(xùn)練時(shí)進(jìn)行的優(yōu)化,會(huì)使用某種函數(shù)(例如softmax)針對所有正類別標(biāo)簽計(jì)

算概率,但對于負(fù)類別標(biāo)簽,則僅針對其隨機(jī)樣本計(jì)算概率。例如,如果某個(gè)樣本

的標(biāo)簽為“小獵犬"和"狗",則候選采樣將針對“小獵犬"和"狗"類別輸出以及其他類

別(貓、棒棒糖、柵欄)的隨機(jī)子集計(jì)算預(yù)測概率和相應(yīng)的損失項(xiàng)。這種采樣基于

的想法是,只要正類別始終得到適當(dāng)?shù)恼鰪?qiáng),負(fù)類別就可以從頻率較低的負(fù)增強(qiáng)

中進(jìn)行學(xué)習(xí),這確實(shí)是在實(shí)際中觀察到的情況。候選采樣的目的是,通過不針對所

有負(fù)類別計(jì)算預(yù)測結(jié)果來提高計(jì)算效率。

分類數(shù)據(jù)(categoricaldata)

一種特征,擁有一組離散的可能值。以某個(gè)名為housestyle的分類特征為例,該

特征擁有一組離散的可能值(共三個(gè)),即Tudor,ranch,colonial。通過

將housestyle表示成分類數(shù)據(jù),相應(yīng)模型可以學(xué)習(xí)Tudor、ranch和colonial分

別對房價(jià)的影響。

有時(shí),離散集中的值是互斥的,只能將其中一個(gè)值應(yīng)用于指定樣本。例如,car

maker分類特征可能只允許一個(gè)樣本有一個(gè)值(Toyota)。在其他情況下,則可以應(yīng)

用多個(gè)值。一輛車可能會(huì)被噴涂多種不同的顏色,因此,carcolor分類特征可能

會(huì)允許單個(gè)樣本具有多個(gè)值(例如red和white)。

分類特征有時(shí)稱為離散特征。

與數(shù)值數(shù)據(jù)相對。

檢查點(diǎn)(checkpoint)

一種數(shù)據(jù),用于捕獲模型變量在特定時(shí)間的狀態(tài)。借助檢查點(diǎn),可以導(dǎo)出模型權(quán)重,

跨多個(gè)會(huì)話執(zhí)行訓(xùn)練,以及使訓(xùn)練在發(fā)生錯(cuò)誤之后得以繼續(xù)(例如作業(yè)搶占)。請

注意,圖本身不包含在檢查點(diǎn)中。

類別(class)

為標(biāo)簽枚舉的一組目標(biāo)值中的一個(gè)。例如,在檢測垃圾郵件的:元分類模型中,兩

種類別分別是“垃圾郵件"和"非垃圾郵件”。在識別狗品種的多類別分類模型中,類

別可以是“貴賓犬"、"小獵犬"、"哈巴犬”等等。

分類不平衡的數(shù)據(jù)集(class-imbalanceddataset)

一種二元分類問題,在此類問題中,兩種類別的標(biāo)簽在出現(xiàn)頻率方面具有很大的差

距。例如,在某個(gè)疾病數(shù)據(jù)集中,0.0001的樣本具有正類別標(biāo)簽,0.9999的樣本

具有負(fù)類別標(biāo)簽,這就屬于分類不平衡問題;但在某個(gè)足球比賽預(yù)測器中,0.51

的樣本的標(biāo)簽為其中一個(gè)球隊(duì)贏,049的樣本的標(biāo)簽為另一個(gè)球隊(duì)贏,這就不屬

于分類不平衡問題。

分類模型(classificationmodel)

一種機(jī)器學(xué)習(xí)模型,用于區(qū)分兩種或多種離散類別。例如,某個(gè)自然語言處理分類

模型可以確定輸入的句子是法語、西班牙語還是意大利語。請與回歸模型進(jìn)行比較。

分類閾值(classificationthreshold)

一種標(biāo)量值條件,應(yīng)用于模型預(yù)測的得分,旨在將止類別與負(fù)類別區(qū)分開。將邏輯

回歸結(jié)果映射到二元分類時(shí)使用。以某個(gè)邏輯回歸模型為例,該模型用于確定指定

電子郵件是垃圾郵件的概率。如果分類閾值為0.9,那么邏輯回歸值高于0.9的電

子郵件將被歸類為“垃圾郵件",低于0.9的則被歸類為“非垃圾郵件”。

協(xié)同過濾(collaborativefiltering)

根據(jù)很多其他用戶的興趣來預(yù)測某位用戶的興趣。協(xié)同過濾通常用在推薦系統(tǒng)中。

混淆矩陣(confusionmatrix)

一種NxN表格,用于總結(jié)分類模型的預(yù)測成效;即標(biāo)簽和模型預(yù)測的分類之間的

關(guān)聯(lián)。在混淆矩陣中,一個(gè)軸表示模型預(yù)測的標(biāo)簽,另一個(gè)軸表示實(shí)際標(biāo)簽。N表

示類別個(gè)數(shù)。在二元分類問題中,N=2。例如,下面顯示了一個(gè)二元分類問題的混

淆矩陣示例:

腫瘤(預(yù)測的標(biāo)簽)非腫瘤(預(yù)測的標(biāo)簽)

腫瘤(實(shí)際標(biāo)簽)181

非腫瘤(實(shí)際標(biāo)簽)6452

上面的混淆矩陣顯示,在19個(gè)實(shí)際有腫瘤的樣本中,該模型正確地將18個(gè)歸類

為有腫瘤(18個(gè)真正例),錯(cuò)誤地將1個(gè)歸類為沒有腫瘤(1個(gè)假負(fù)例)。同樣,

在458個(gè)實(shí)際沒有腫瘤的樣本中,模型歸類正確的有452個(gè)(452個(gè)真負(fù)例),

歸類錯(cuò)誤的有6個(gè)(6個(gè)假正例)。

多類別分類問題的混淆矩陣有助于確定出錯(cuò)模式。例如,某個(gè)混淆矩陣可以揭示,

某個(gè)經(jīng)過訓(xùn)練以識別手寫數(shù)字的模型往往會(huì)將4錯(cuò)誤地預(yù)測為9,將7錯(cuò)誤地預(yù)測

為1?;煜仃嚢?jì)算各種效果指標(biāo)(包括精確率和召回率)所需的充足信息、。

連續(xù)特征(continuousfeature)

一種浮點(diǎn)特征,可能值的區(qū)間不受限制。與離散特征相對。

收斂(convergence)

通俗來說,收斂通常是指在訓(xùn)練期間達(dá)到的一種狀態(tài),即經(jīng)過一定次數(shù)的迭代之后,

訓(xùn)練損失和驗(yàn)證損失在每次迭代中的變化都非常小或根本沒有變化。也就是說,如

果采用當(dāng)前數(shù)據(jù)進(jìn)行額外的訓(xùn)練將無法改進(jìn)模型,模型即達(dá)到收斂狀態(tài)。在深度學(xué)

習(xí)中,損失值有時(shí)會(huì)在最終下降之前的多次迭代中保持不變或幾乎保持不變,暫時(shí)

形成收斂的假象。

另請參閱『停法。

另請參閱Boyd和Vandenberghe合著的ConvexOptimization(《凸優(yōu)化》)。

凸函數(shù)(convexfunction)

一種函數(shù),函數(shù)圖像以上的區(qū)域?yàn)橥辜?。典型凸函?shù)的形狀類似于字母u。例如,

以下都是凸函數(shù):

相反,以下函數(shù)則不是凸函數(shù)。請注意圖像上方的區(qū)域如何不是凸集:

嚴(yán)格凸函數(shù)只有一個(gè)局部最低點(diǎn),該點(diǎn)也是全局最低點(diǎn)。經(jīng)典的U形函數(shù)都是嚴(yán)

格凸函數(shù)。不過,有些凸函數(shù)(例如直線)則不是這樣。

很多常見的損失函數(shù)(包括下列函數(shù))都是凸函數(shù):

L2損失函數(shù)

對數(shù)損失函數(shù)

L1正則化

?L2正則化

梯度下降法的很多變體都一定能找到一個(gè)接近嚴(yán)格凸函數(shù)最小值的點(diǎn)。同樣,隨機(jī)

梯度下降法的很多變體都有很高的可能性能夠找到接近嚴(yán)格凸函數(shù)最小值的點(diǎn)(但

并非一定能找到)。

兩個(gè)凸函數(shù)的和(例如L2損失函數(shù)+L1正則化)也是凸函數(shù)。

深度模型絕不會(huì)是凸函數(shù)。值得注意的是,專門針對凸優(yōu)化設(shè)計(jì)的算法往往總能在

深度網(wǎng)絡(luò)上找到非常好的解決方案,雖然這些解決方案并不一定對應(yīng)于全局最小值。

凸優(yōu)化(convexoptimization)

使用數(shù)學(xué)方法(例如梯度下降法)尋找凸函數(shù)最小值的過程。機(jī)器學(xué)習(xí)方面的大量

研究都是專注于如何通過公式將各種問題表示成凸優(yōu)化問題,以及如何更高效地解

決這些問題。

如需完整的詳細(xì)信息,請參閱Boyd和Vandenberghe合著的ConvexOptimization

(《凸優(yōu)化》)。

凸集(convexset)

歐幾里得空間的一個(gè)子集,其中任意兩點(diǎn)之間的連線仍完全落在該子集內(nèi)。例如,

下面的兩個(gè)圖形都是凸集:

相反,下面的兩個(gè)圖形都不是凸集:

成本(cost)

是損失的同義詞。

交叉燧(cross-entropy)

對數(shù)損失函數(shù)向多類別分類問題進(jìn)行的一種泛化。交叉燧可以量化兩種概率分布之

間的差異。另請參閱困惑度。

自定義Estimator(customEstimator)

您按照這些說明自行編寫的Estimatoro

與預(yù)創(chuàng)建的Estimator相對。

D

數(shù)據(jù)集(dataset)

一組樣本的集合。

DatasetAPI(tf.data)

一種高級別的TensorFlowAPI,用于讀取數(shù)據(jù)并將其轉(zhuǎn)換為機(jī)器學(xué)習(xí)算法所需的

格式。tf.data.Dataset對象表示一系列元素,其于每個(gè)元素都包含一個(gè)或多個(gè)張

量。tf.data.Iterator對象可獲取Dataset中的元素。

如需詳細(xì)了解DatasetAPI,請參閱《TensorFlow編程人員指南》中的導(dǎo)入數(shù)據(jù)。

決策邊界(decisionboundary)

在:元分類或多類別分類問題中,模型學(xué)到的類別之間的分界線。例如,在以下表

示某個(gè)二元分類問題的圖片中,決策邊界是橙色類別和藍(lán)色類別之間的分界線:

密集層(denselayer)

是全連接層的同義詞。

深度模型(deepmodel)

一種神經(jīng)網(wǎng)絡(luò),其中包含多個(gè)隱藏層。深度模型依賴于可訓(xùn)練的非線性關(guān)系。

與寬度模型相對。

密集特征(densefeature)

一種大部分?jǐn)?shù)值是非零值的特征,通常是一個(gè)浮點(diǎn)值張量。參照稀疏特征。

衍生特征(derivedfeature)

是介成特征的同義詞。

離散特征(discretefeature)

一種特征,包含有限個(gè)可能值。例如,某個(gè)值只能是"動(dòng)物"、"蔬菜"或"礦物"的特

征便是一個(gè)離散特征(或分類特征)。與連續(xù)特征相對。

丟棄正則化(dropoutregularization)

一種形式的正則化,在訓(xùn)練神經(jīng)網(wǎng)絡(luò)方面非常有用。丟棄正則化的運(yùn)作機(jī)制是,在

神經(jīng)網(wǎng)絡(luò)層的一個(gè)梯度步長中移除隨機(jī)選擇的固定數(shù)量的單元。丟棄的單元越多,

正則化效果就越強(qiáng)。這類似于訓(xùn)練神經(jīng)網(wǎng)絡(luò)以模擬較小網(wǎng)絡(luò)的指數(shù)級規(guī)模集成學(xué)習(xí)。

如需完整的詳細(xì)信息,請參閱Dropout:ASimpleWaytoPreventNeuralNetworks

fromOverfitting(《丟棄:一種防止神經(jīng)網(wǎng)絡(luò)過擬合的簡單方法》)。

動(dòng)態(tài)模型(dynamicmodel)

一種模型,以持續(xù)更新的方式在線接受訓(xùn)練。也就是說,數(shù)據(jù)會(huì)源源不斷地進(jìn)入這

種模型。

E

早停法(earlystopping)

一種正則化方法,涉及在訓(xùn)練損失仍可以繼續(xù)減少之前結(jié)束模型訓(xùn)練。使用早停法

時(shí).,您會(huì)在基于驗(yàn)證數(shù)據(jù)集的損失開始增加(也就是泛化效果變差)時(shí)結(jié)束模型訓(xùn)

練。

嵌套(embeddings)

一種分類特征,以連續(xù)值特征表示。通常,嵌套是指將高維度向量映射到低維度的

空間。例如,您可以采用以下兩種方式之一來表示英文句子中的單詞:

?表示成包含百萬個(gè)元素(高維度)的稀疏向量,其中所有元素都是整數(shù)。向量

中的每個(gè)單元格都表示一個(gè)單獨(dú)的英文單詞,單元格中的值表示相應(yīng)單詞在句

子中出現(xiàn)的次數(shù)。由于單個(gè)英文句子包含的單詞不太可能超過50個(gè),因此向

量中幾乎每個(gè)單元格都包含0o少數(shù)非0的單元格中將包含一個(gè)非常小的整數(shù)

(通常為1),該整數(shù)表示相應(yīng)單詞在句子中出現(xiàn)的次數(shù)。

?表示成包含數(shù)百個(gè)元素(低維度)的密集向量,其中每個(gè)元素都包含一個(gè)介于

0到1之間的浮點(diǎn)值。這就是一種嵌套。

在TensorFlow中,會(huì)按反向傳播損失訓(xùn)練嵌套,和訓(xùn)練神經(jīng)網(wǎng)絡(luò)中的任何其他參

數(shù)時(shí)一樣。

經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化(ERM,empiricalriskminimization)

用于選擇可以將基于訓(xùn)練集的損失降至最低的模型函數(shù)。與結(jié)構(gòu)風(fēng)險(xiǎn)最小化相對。

集成學(xué)習(xí)(ensemble)

多個(gè)模型的預(yù)測結(jié)果的并集。您可以通過以下一項(xiàng)或多項(xiàng)來創(chuàng)建集成學(xué)習(xí):

不同的初始化

不同的超參數(shù)

不同的整體結(jié)構(gòu)

深度模型和寬度模型屬于一種集成學(xué)習(xí)。

周期(epoch)

在訓(xùn)練時(shí),整個(gè)數(shù)據(jù)集的一次完整遍歷,以便不漏掉任何一個(gè)樣本。因此,一個(gè)周

期表示(N/批次規(guī)模)次訓(xùn)練迭代,其中N是樣本總數(shù)。

Estimator

tf.Estimator類的一個(gè)實(shí)例,用于封裝負(fù)責(zé)構(gòu)建TensorFlow圖并運(yùn)行

TensorFlow會(huì)話的邏輯。您可以創(chuàng)建自己的『I定義Estimator(如需相關(guān)介紹,請

點(diǎn)擊此處),也可以將其他人預(yù)創(chuàng)建的Estimator實(shí)例化。

樣本(example)

數(shù)據(jù)集的一行。一個(gè)樣本包含一個(gè)或多個(gè)特征,此外還可能包含一個(gè)標(biāo)簽。另請參

閱有標(biāo)簽樣本和無標(biāo)簽樣本。

F

假負(fù)例(FN,falsenegative)

被模型錯(cuò)誤地預(yù)測為負(fù)類別的樣本。例如,模型推斷出某封電子郵件不是垃圾郵件

(負(fù)類別),但該電子郵件其實(shí)是垃圾郵件。

假正例(FP,falsepositive)

被模型錯(cuò)誤地預(yù)測為正類別的樣本。例如,模型推斷出某封電子郵件是垃圾郵件

(正類別),但該電子郵件其實(shí)不是垃圾郵件。

假正例率(falsepositiverate,簡稱FP率)

ROC曲線中的x軸。FP率的定義如下:

假正例率假正例數(shù)假正例數(shù)真負(fù)例數(shù)假正例率=假正例數(shù)假正例數(shù)+真負(fù)例數(shù)

特征(feature)

在進(jìn)行預(yù)測時(shí)使用的輸入變量。

特征歹U(Featurecolumns)

一組相關(guān)特征,例如用戶可能居住的所有國家/地區(qū)的集合。樣本的特征列中可能

包含一個(gè)或多個(gè)特征。

TensorFlow中的特征列內(nèi)還封裝了元數(shù)據(jù),例如:

?特征的數(shù)據(jù)類型

?特征是固定長度還是應(yīng)轉(zhuǎn)換為嵌套

特征列可以包含單個(gè)特征。

“特征列”是Google專用的術(shù)語。特征列在Yahoo/Microsoft使用的VW系統(tǒng)中稱為

“命名空間”,也稱為場。

特征組合(featurecross)

通過將單獨(dú)的特征進(jìn)行組合(相乘或求笛卡爾積)而形成的合成特征。特征組合有

助于表示非線性關(guān)系。

特征工程(featureengineering)

指以下過程:確定哪些特征可能在訓(xùn)練模型方面非常有用,然后將日志文件及其他

來源的原始數(shù)據(jù)轉(zhuǎn)換為所需的特征。在TensorFlow中,特征工程通常是指將原始

日志文件條目轉(zhuǎn)換為tf.Exampleprotobuffer。另請參閱tf.Transformo

特征工程有時(shí)稱為特征提取。

特征集(featureset)

訓(xùn)練機(jī)器學(xué)習(xí)模型時(shí)采用的一組特征。例如,對于某個(gè)用于預(yù)測房價(jià)的模型,郵政

編碼、房屋面積以及房屋狀況可以組成一個(gè)簡單的特征集。

特征規(guī)范(featurespec)

用于描述如何從tf.Exampleprotobuffer提取特征數(shù)據(jù)。由于tf.Exampleproto

buffer只是一個(gè)數(shù)據(jù)容器,因此您必須指定以下內(nèi)容:

?要提取的數(shù)據(jù)(即特征的鍵)

?數(shù)據(jù)類型(例如float或int)

?長度(固定或可變)

EstimatorAPI提供了一些可用來根據(jù)給定FeatureColumns列表生成特征規(guī)范的工

具。

完整softmax(fullsoftmax)

請參閱softmax。與候選采樣相對。

全連接層(fullyconnectedlayer)

一種隱藏層,其中的每個(gè)節(jié)點(diǎn)均與下一個(gè)隱藏層中的每個(gè)節(jié)點(diǎn)相連。

全連接層又稱為密集層。

G

泛化(generalization)

指的是模型依據(jù)訓(xùn)練時(shí)采用的數(shù)據(jù),針對以前未見過的新數(shù)據(jù)做出正確預(yù)測的能力。

廣義線性模型(generalizedlinearmodel)

最小二乘回歸模型(基于高斯噪聲)向其他類型的模型(基于其他類型的噪聲,例

如泊松噪聲或分類噪聲)進(jìn)行的一種泛化。廣義線性模型的示例包括:

?邏輯回歸

?多類別回歸

?最小二乘回歸

可以通過凸優(yōu)化找到廣義線性模型的參數(shù)。

廣義線性模型具有以下特性:

?最優(yōu)的最小二乘回歸模型的平均預(yù)測結(jié)果等于訓(xùn)練數(shù)據(jù)的平均標(biāo)簽。

?最優(yōu)的邏輯回歸模型預(yù)測的平均概率等于訓(xùn)練數(shù)據(jù)的平均標(biāo)簽。

廣義線性模型的功能受其特征的限制。與深度模型不同,廣義線性模型無法"學(xué)習(xí)

新特征”。

梯度(gradient)

偏導(dǎo)數(shù)相對于所有自變量的向量。在機(jī)器學(xué)習(xí)中,梯度是模型函數(shù)偏導(dǎo)數(shù)的向量。

梯度指向最速上升的方向。

梯度裁剪(gradientclipping)

在應(yīng)用梯度值之前先設(shè)置其上限。梯度裁剪有助于確保數(shù)值穩(wěn)定性以及防止梯度爆

炸。

梯度下降法(gradientdescent)

一種通過計(jì)算并且減小梯度將損失降至最低的技術(shù),它以訓(xùn)練數(shù)據(jù)為條件,來計(jì)算

損失相對于模型參數(shù)的梯度。通俗來說,梯度下降法以迭代方式調(diào)整參數(shù),逐漸找

到權(quán)重和偏差的最佳組合,從而將損失降至最低。

圖(graph)

TensorFlow中的一種計(jì)算規(guī)范。圖中的節(jié)點(diǎn)表示操作。邊緣具有方向,表示將某

項(xiàng)操作的結(jié)果(一個(gè)張量)作為一個(gè)操作數(shù)傳遞給另一項(xiàng)操作??梢允?/p>

用TensorBoard直觀呈現(xiàn)圖。

H

啟發(fā)法(heuristic)

一種非最優(yōu)但實(shí)用的問題解決方案,足以用于進(jìn)行改進(jìn)或從中學(xué)習(xí)。

隱藏層(hiddenlayer)

神經(jīng)網(wǎng)絡(luò)中的合成層,介于輸入層(即特征)和輸出層(即預(yù)測)之間。神經(jīng)網(wǎng)絡(luò)

包含一個(gè)或多個(gè)隱藏層。

合頁損失函數(shù)(hingeloss)

一系列用于分類的損失函數(shù),旨在找到距離每個(gè)訓(xùn)練樣本都盡可能遠(yuǎn)的決策邊界,

從而使樣本和邊界之間的裕度最大化。KSVM使用合頁損失函數(shù)(或相關(guān)函數(shù),例

如平方合頁損失函數(shù))。對于二元分類,合頁損失函數(shù)的定義如下:

loss=max[0,l-[y,*y))

其中"y"'表示分類器模型的原始輸出:

y'=b+wlxl+w2x2+...wnxn

“y”表示真標(biāo)簽,值為-1或+1。

因此,合頁損失與(y*y')的關(guān)系圖如下所示:

維持?jǐn)?shù)據(jù)(holdoutdata)

訓(xùn)練期間故意不使用("維持")的樣本。驗(yàn)證數(shù)據(jù)集和測試數(shù)據(jù)集都屬于維持?jǐn)?shù)據(jù)。

維持?jǐn)?shù)據(jù)有助于評估模型向訓(xùn)練時(shí)所用數(shù)據(jù)之外的數(shù)據(jù)進(jìn)行泛化的能力。與基于訓(xùn)

練數(shù)據(jù)集的損失相比,基于維持?jǐn)?shù)據(jù)集的損失有助于更好地估算基于未見過的數(shù)據(jù)

集的損失。

超參數(shù)(hyperparameter)

在模型訓(xùn)練的連續(xù)過程中,您調(diào)節(jié)的“旋鈕”。例如,學(xué)習(xí)速率就是一種超參數(shù)。

與參數(shù)相對。

超平面(hyperplane)

將一個(gè)空間劃分為兩個(gè)子空間的邊界。例如,在二維空間中,直線就是一個(gè)超平面,

在三維空間中,平面則是一個(gè)超平面。在機(jī)器學(xué)習(xí)中更典型的是:超平面是分隔高

維度空間的邊界。核支持向量機(jī)利用超平面將正類別和負(fù)類別區(qū)分開來(通常是在

極高維度空間中)。

獨(dú)立同分布(i.i.d,independentlyandidenticallydistributed)

從不會(huì)改變的分布中提取的數(shù)據(jù),其中提取的每個(gè)值都不依賴于之前提取的值。

i.id是機(jī)器學(xué)習(xí)的理想氣體-一種實(shí)用的數(shù)學(xué)結(jié)構(gòu),但在現(xiàn)實(shí)世界中幾乎從未發(fā)現(xiàn)

過。例如,某個(gè)網(wǎng)頁的訪問者在短時(shí)間內(nèi)的分布可能為i.id,即分布在該短時(shí)間內(nèi)

沒有變化,且一位用戶的訪問行為通常與另一位用戶的訪問行為無關(guān)。不過,如果

將時(shí)間窗口擴(kuò)大,網(wǎng)頁訪問者的分布可能呈現(xiàn)出季節(jié)性變化。

推斷(inference)

在機(jī)器學(xué)習(xí)中,推斷通常指以下過程:通過將訓(xùn)練過的模型應(yīng)用于無標(biāo)簽樣本來做

出預(yù)測。在統(tǒng)計(jì)學(xué)中,推斷是指在某些觀測數(shù)據(jù)條件下擬合分布參數(shù)的過程。(請

參閱維基百科中有關(guān)統(tǒng)計(jì)學(xué)推斷的文章。)

輸入函數(shù)(inputfunction)

在TensorFIow中,用于將輸入數(shù)據(jù)返回到Estimator的訓(xùn)練、評估或預(yù)測方法的

函數(shù)。例如,訓(xùn)練輸入函數(shù)用于返回訓(xùn)練集中的批次特征和標(biāo)簽。

輸入層(inputlayer)

神經(jīng)網(wǎng)絡(luò)中的第一層(接收輸入數(shù)據(jù)的層)。

實(shí)例(instance)

是樣本的同義詞。

可解釋性(interpretability)

模型的預(yù)測可解釋的難易程度。深度模型通常不可解釋,也就是說,很難對深度模

型的不同層進(jìn)行解釋。相比之下,線性回歸模型和寬度模型的可解釋性通常要好得

多。

評分者間一致性信度(inter-rateragreement)

一種衡量指標(biāo),用于衡量在執(zhí)行某項(xiàng)任務(wù)時(shí)評分者達(dá)成一致的頻率。如果評分者未

達(dá)成一致,則可能需要改進(jìn)任務(wù)說明。有時(shí)也稱為注釋者間一致性信度或評分者間

可靠性信度。另請參閱Cohen!kappa(最熱門的評分者間一致性信度衡量指標(biāo)之

一)O

迭代(iteration)

模型的權(quán)重在訓(xùn)練期間的一次更新。迭代包含計(jì)算參數(shù)在單個(gè)批量數(shù)據(jù)上的梯度損

失。

K

Keras

一種熱門的Python機(jī)器學(xué)習(xí)API。Keras能夠在多種深度學(xué)習(xí)框架上運(yùn)行,其中包

括TensorFlow(在該框架上,Keras作為tf.keras提供)。

核支持向量機(jī)(KSVM,KernelSupportVectorMachines)

一種分類算法,旨在通過將輸入數(shù)據(jù)向量映射到更高維度的空間,來最大化止類別

和負(fù)類別之間的裕度。以某個(gè)輸入數(shù)據(jù)集包含一百個(gè)特征的分類問題為例。為了最

大化正類別和負(fù)類別之間的裕度,KSVM可以在內(nèi)部將這些特征映射到百萬維度的

空間。KSVM使用合頁損失函數(shù)。

L1損失函數(shù)(Liloss)

一種損失函數(shù),基于模型預(yù)測的值與標(biāo)簽的實(shí)際值之差的絕對值。與L2損失函數(shù)

相比,L1損失函數(shù)對離群值的敏感性弱一些。

L1正則化(Liregularization)

一種正則化,根據(jù)權(quán)重的絕對值的總和來懲罰權(quán)重。在依賴稀疏特征的模型中,

L1正則化有助于使不相關(guān)或幾乎不相關(guān)的特征的權(quán)重正好為0,從而將這些特征

從模型中移除。與L2正則化相對。

損失函數(shù)

L2(L2loss)

請參閱平方損失函數(shù)。

正則化

L2(L2regularization)

一種正則化,根據(jù)權(quán)重的平方和來懲罰權(quán)重。L2正則化有助于使離群值(具有較

大正值或較小負(fù)值)權(quán)重接近于0,但又不正好為0。(與L1正則化相對。)在

線性模型中,L2正則化始終可以改進(jìn)泛化。

標(biāo)簽(label)

在監(jiān)督式學(xué)習(xí)中,標(biāo)簽指樣本的“答案"或"結(jié)果”部分。有標(biāo)簽數(shù)據(jù)集中的每個(gè)樣本

都包含一個(gè)或多個(gè)特征以及一個(gè)標(biāo)簽。例如,在房屋數(shù)據(jù)集中,特征可以包括臥室

數(shù)、衛(wèi)生間數(shù)以及房齡,而標(biāo)簽則可以是房價(jià)。在垃圾郵件檢測數(shù)據(jù)集中,特征可

以包括主題行、發(fā)件人以及電子郵件本身,而標(biāo)簽則可以是“垃圾郵件"或"非垃圾

郵件"。

有標(biāo)簽樣本(labeledexample)

包含特征和標(biāo)簽的樣本。在監(jiān)督式訓(xùn)練中,模型從有標(biāo)簽樣本中進(jìn)行學(xué)習(xí)。

lambda

是正則化率的同義詞。

(多含義術(shù)語,我們在此關(guān)注的是該術(shù)語在正則化中的定義。)

層(layer)

神經(jīng)網(wǎng)絡(luò)中的一組神經(jīng)元,處理一組輸入特征,或一組神經(jīng)元的輸出。

此外還指TensorFlow中的抽象層。層是Python函數(shù),以張量和配置選項(xiàng)作為輸

入,然后生成其他張量作為輸出。當(dāng)必要的張量組合起來,用戶便可以通過模型函

數(shù)將結(jié)果轉(zhuǎn)換為Estimatoro

LayersAPI(tf.layers)

一種TensorFlowAPI,用于以層組合的方式構(gòu)建深度神經(jīng)網(wǎng)絡(luò)。通過LayersAPI,

您可以構(gòu)建不同類型的層,例如:

?通過".layers.Dense構(gòu)建全連接層。

?通過tf.layers.Conv2D構(gòu)建卷積層。

在編寫H定義Estimator時(shí),您可以編寫"層"對象來定義所有隱藏層的特征。

LayersAPI遵循[Keras](#Keras)layersAPI規(guī)范。也就是說,除了前綴不同以外,

LayersAPI中的所有函施均與KeraslayersAPI中的對應(yīng)函數(shù)具有相同的名稱和簽

名。

學(xué)習(xí)速率(learningrate)

在訓(xùn)練模型時(shí)用于梯度下降的一個(gè)變量。在每次迭代期間,梯度下降法都會(huì)將學(xué)習(xí)

速率與梯度相乘。得出的乘積稱為梯度步長。

學(xué)習(xí)速率是一個(gè)重要的超參數(shù)。

最小二乘回歸(leastsquaresregression)

一種通過最小化L2損失訓(xùn)練出的線性回歸模型。

線性回歸(linearregression)

一種回歸模型,通過將輸入特征進(jìn)行線性組合,以連續(xù)值作為輸出。

邏輯回歸(logisticregression)

一種模型,通過將S型函數(shù)應(yīng)用于線性預(yù)測,生成分類問題中每個(gè)可能的離散標(biāo)簽

值的概率。雖然邏輯回歸經(jīng)常用于二元分類問題,但也可用于多類別分類問題(其

叫法變?yōu)槎囝悇e邏輯回歸或多項(xiàng)回歸)。

對數(shù)損失函數(shù)(LogLoss)

二元邏輯回歸中使用的損失函數(shù)。

損失(Loss)

一種衡量指標(biāo),用于衡量模型的預(yù)測偏離其標(biāo)簽的程度。或者更悲觀地說是衡量模

型有多差。要確定此值,模型必須定義損失函數(shù)。例如,線性回歸模型通常將均方

誤差用于損失函數(shù),而邏輯回歸模型則使用對數(shù)損失函數(shù)。

M

機(jī)器學(xué)習(xí)(machinelearning)

一種程序或系統(tǒng),用于根據(jù)輸入數(shù)據(jù)構(gòu)建(訓(xùn)練)預(yù)測模型。這種系統(tǒng)會(huì)利用學(xué)到

的模型根據(jù)從分布(訓(xùn)練該模型時(shí)使用的同一分布)中提取的新數(shù)據(jù)(以前從未見

過的數(shù)據(jù))進(jìn)行實(shí)用的預(yù)測。機(jī)器學(xué)習(xí)還指與這些程序或系統(tǒng)相關(guān)的研究領(lǐng)域。

均方誤差(MSE,MeanSquaredError)

每個(gè)樣本的平均平方損失。MSE的計(jì)算方法是平方損失除以樣本數(shù)。TensorFlow

Playground顯示的“訓(xùn)練損失”值和"測試損失"值都是MSE。

指標(biāo)(metric)

您關(guān)心的一個(gè)數(shù)值。可能可以也可能不可以直接在機(jī)器學(xué)習(xí)系統(tǒng)中得到優(yōu)化。您的

系統(tǒng)嘗試優(yōu)化的指標(biāo)稱為目標(biāo)。

MetricsAPI(tf.metrics)

一種用于評估模型的TensorFlowAPI。例如,tf.metrics.accuracy用于確定模型

的預(yù)測與標(biāo)簽匹配的頻率。在編寫自定義Estimator時(shí),,您可以調(diào)用MetricsAPI

函數(shù)來指定應(yīng)如何評估您的模型。

小批次(mini-batch)

從訓(xùn)練或推斷過程的一次迭代中一起運(yùn)行的整批樣本內(nèi)隨機(jī)選擇的一小部分。小批

次的規(guī)模通常介于10到1000之間。與基于完整的訓(xùn)練數(shù)據(jù)計(jì)算損失相比,基于

小批次數(shù)據(jù)計(jì)算損失要高效得多。

小批次隨機(jī)梯度下降法(SGD,mini-batchstochasticgradient

descent)

一種采用小批次樣本的梯度下降法。也就是說,小批次SGD會(huì)根據(jù)一小部分訓(xùn)練

數(shù)據(jù)來估算梯度。VanillaSGD使用的小批次的規(guī)模為1。

ML

機(jī)器學(xué)習(xí)的縮寫。

模型(model)

機(jī)器學(xué)習(xí)系統(tǒng)從訓(xùn)練數(shù)據(jù)學(xué)到的內(nèi)容的表示形式。多含義術(shù)語,可以理解為下列兩

種相關(guān)含義之一:

?一種TensorFlow圖,用于表示預(yù)測計(jì)算結(jié)構(gòu)。

?該TensorFlow圖的特定權(quán)重和偏差,通過訓(xùn)練決定。

模型訓(xùn)練(modeltraining)

確定最佳模型的過程。

動(dòng)量(Momentum)

一種先進(jìn)的梯度下降法,其中學(xué)習(xí)步長不僅取決于當(dāng)前步長的導(dǎo)數(shù),還取決于之前

一步或多步的步長的導(dǎo)數(shù)。動(dòng)量涉及計(jì)算梯度隨時(shí)間而變化的指數(shù)級加權(quán)移動(dòng)平均

值,與物理學(xué)中的動(dòng)量類似。動(dòng)量有時(shí)可以防止學(xué)習(xí)過程被卡在局部最小的情況。

多類別分類(multi-classclassification)

區(qū)分兩種以上類別的分類問題。例如,楓樹大約有128種,因此,確定楓樹種類

的模型就屬于多類別模型。反之,僅將電子郵件分為兩類(“垃圾郵件”和“非垃圾

郵件”)的模型屬于二元分類模型。

多項(xiàng)分類(multinomialclassification)

是多類別分類的同義詞。

N

NaN陷阱(NaNtrap)

模型中的一個(gè)數(shù)字在訓(xùn)練期間變成NaN,這會(huì)導(dǎo)致模型中的很多或所有其他數(shù)字

最終也會(huì)變成NaN。

NaN是“非數(shù)字”的縮寫。

負(fù)類別(negativeclass)

在二元分類中,一種類別稱為正類別,另一種類別稱為負(fù)類別。正類別是我們要尋

找的類別,負(fù)類別則是另一種可能性。例如,在醫(yī)學(xué)檢查中,負(fù)類別可以是“非腫

瘤”。在電子郵件分類器中,負(fù)類別可以是“非垃圾郵件”。另請參閱正類別。

神經(jīng)網(wǎng)絡(luò)(neuralnetwork)

一種模型,靈感來源于腦部結(jié)構(gòu),由多個(gè)層構(gòu)成(至少有一個(gè)是隱藏層),每個(gè)層

都包含簡單相連的單元或神經(jīng)元(具有非線性關(guān)系)。

神經(jīng)元(neuron)

神經(jīng)網(wǎng)絡(luò)中的節(jié)點(diǎn),通常是接收多個(gè)輸入值并生成一個(gè)輸出值。神經(jīng)元通過將激活

函數(shù)(非線性轉(zhuǎn)換)應(yīng)用于輸入值的加權(quán)和來計(jì)算輸出值。

節(jié)點(diǎn)(node)

多含義術(shù)語,可以理解為下列兩種含義之一:

?隱藏層中的神經(jīng)元。

?TensorFlow國中的操作。

標(biāo)準(zhǔn)化(normalization)

將實(shí)際的值區(qū)間轉(zhuǎn)換為標(biāo)準(zhǔn)的值區(qū)間(通常為-1到+1或0到1)的過程。例如,

假設(shè)某個(gè)特征的自然區(qū)間是800到6000。通過減法和除法運(yùn)算,您可以將這些值

標(biāo)準(zhǔn)化為位于-1到+1區(qū)間內(nèi)。

另請參閱縮放。

數(shù)值數(shù)據(jù)(numericaldata)

用整數(shù)或?qū)崝?shù)表示的特征。例如,在房地產(chǎn)模型中,您可能會(huì)用數(shù)值數(shù)據(jù)表示房子

大?。ㄒ云椒接⒊呋蚱椒矫诪閱挝唬H绻脭?shù)值數(shù)據(jù)表示特征,則可以表明特征

的值相互之間具有數(shù)學(xué)關(guān)系,并且與標(biāo)簽可能也有數(shù)學(xué)關(guān)系。例如,如果用數(shù)值數(shù)

據(jù)表示房子大小,則可以表明面積為200平方米的房子是面積為100平方米的房

子的兩倍。此外,房子面積的平方米數(shù)可能與房價(jià)存在一定的數(shù)學(xué)關(guān)系。

并非所有整數(shù)數(shù)據(jù)都應(yīng)表示成數(shù)值數(shù)據(jù)。例如,世界上某些地區(qū)的郵政編碼是整數(shù),

但在模型中,不應(yīng)將整數(shù)郵政編碼表示成數(shù)值數(shù)據(jù)。這是因?yàn)猷]政編碼2。。。。在效

力上并不是郵政編碼10000的兩倍(或一半)。此外,雖然不同的郵政編碼確實(shí)

與不同的房地產(chǎn)價(jià)值有關(guān),但我們也不能假設(shè)郵政編碼為20000的房地產(chǎn)在價(jià)值

上是郵政編碼為10000的房地產(chǎn)的兩倍。郵政編碼應(yīng)表示成分類數(shù)據(jù)。

數(shù)值特征有時(shí)稱為連續(xù)特征。

Numpy

一個(gè)開放源代碼數(shù)學(xué)庫,在Python中提供高效的數(shù)組操作。Pandas就建立在

Numpy之上。

O

目標(biāo)(objective)

算法嘗試優(yōu)化的指標(biāo)。

離線推斷(offlineinference)

生成一組預(yù)測,存儲(chǔ)這些預(yù)測,然后根據(jù)需求檢索這些預(yù)測。與住線推斷相對。

one-hot編碼(one-hotencoding)

一種稀疏向量,其中:

?一個(gè)元素設(shè)為1。

?所有其他元素均設(shè)為0。

one-hot編碼常用于表示擁有有限個(gè)可能值的字符串或標(biāo)識符。例如,假設(shè)某個(gè)指

定的植物學(xué)數(shù)據(jù)集記錄了15000個(gè)不同的物種,其中每個(gè)物種都用獨(dú)一無二的字

符串標(biāo)識符來表示。在特征工程過程中,您可能需要將這些字符串標(biāo)識符編碼為

one-hot向量,向量的大小為15000。

一對多(one-vs.-all)

假設(shè)某個(gè)分類問題有N種可能的解決方案,一對多解決方案將包含N個(gè)單獨(dú)的

元分類器-一個(gè)二元分類器對應(yīng)一種可能的結(jié)果。例如,假設(shè)某個(gè)模型用于區(qū)分樣

本屬于動(dòng)物、蔬菜還是礦物,一對多解決方案將提供下列三個(gè)單獨(dú)的二元分類器:

動(dòng)物和非動(dòng)物

蔬菜和非蔬菜

礦物和非礦物

在線推斷(onlineinference)

根據(jù)需求生成預(yù)測。與離線推斷相對。

操作(op,Operation)

TensorFIow圖中的節(jié)點(diǎn)。在TensorFlow中,任何創(chuàng)建、操縱或銷毀張量的過程都

屬于操作。例如,矩陣相乘就是一種操作,該操作以兩個(gè)張量作為輸入,并生成一

個(gè)張量作為輸出。

優(yōu)化器(optimizer)

梯度下降法的一種具體實(shí)現(xiàn)。TensorFlow的優(yōu)化器基類是tf.train.Optimizer。不同

的優(yōu)化器(".train.Optimizer的子類)會(huì)考慮如下概念:

?動(dòng)量(Momentum)

?更新頻率(AdaGrad=ADAptiveGRADientdescent;Adam=ADAptivewith

Momentum;RMSProp)

?稀疏性/正則化(Ftrl)

?更復(fù)雜的計(jì)算方法(Proximal,等等)

甚至還包括NN驅(qū)動(dòng)的優(yōu)化器。

離群值(outlier)

與大多數(shù)其他值差別很大的值。在機(jī)器學(xué)習(xí)中,下列所有值都是離群值。

?絕對值很高的權(quán)重。

?與實(shí)際值相差很大的預(yù)測值。

?值比平均值高大約3個(gè)標(biāo)準(zhǔn)偏差的輸入數(shù)據(jù)。

離群值常常會(huì)導(dǎo)致模型訓(xùn)練出現(xiàn)問題。

輸出層(outputlayer)

神經(jīng)網(wǎng)絡(luò)的"最后,,一層,也是包含答案的層。

過擬合(overfitting)

創(chuàng)建的模型與訓(xùn)練數(shù)據(jù)過于匹配,以致于模型無法根據(jù)新數(shù)據(jù)做出正確的預(yù)測。

P

Pandas

面向列的數(shù)據(jù)分析API。很多機(jī)器學(xué)習(xí)框架(包括TensorFlow)都支持將Pandas

數(shù)據(jù)結(jié)構(gòu)作為輸入。請參閱Pandas文檔。

參數(shù)(parameter)

機(jī)器學(xué)習(xí)系統(tǒng)自行訓(xùn)練的模型的變量。例如,權(quán)重就是一種參數(shù),它們的值是機(jī)器

學(xué)習(xí)系統(tǒng)通過連續(xù)的訓(xùn)練迭代逐漸學(xué)習(xí)到的。與超參數(shù)相對。

參數(shù)服務(wù)器(PS,ParameterServer)

一種作業(yè),負(fù)責(zé)在分布式設(shè)置中跟蹤模型參數(shù)。

參數(shù)更新(parameterupdate)

在訓(xùn)練期間(通常是在梯度下降法的單次迭代中)調(diào)整模型參數(shù)的操作。

偏導(dǎo)數(shù)(partialderivative)

一種導(dǎo)數(shù),除一個(gè)變量之外的所有變量都被視為常量。例如,f(x,y)對x的偏導(dǎo)數(shù)

就是f(x)的導(dǎo)數(shù)(即,使y保持恒定)。f對x的偏導(dǎo)數(shù)僅關(guān)注x如何變化,而忽

略公式中的所有其他變量。

分區(qū)策略(partitioningstrategy)

參數(shù)服務(wù)器中分割變量的算法。

性能(performance)

多含義術(shù)語,具有以下含義:

?在軟件工程中的傳統(tǒng)含義。即:相應(yīng)軟件的運(yùn)行速度有多快(或有多高效)?

?在機(jī)器學(xué)習(xí)中的含義。在機(jī)器學(xué)習(xí)領(lǐng)域,性能旨在回答以下問題:相應(yīng)模型的

準(zhǔn)確度有多高?即模型在預(yù)測方面的表現(xiàn)有多好?

困惑度(perplexity)

一種衡量指標(biāo),用于衡量模型能夠多好地完成任務(wù)。例如,假設(shè)任務(wù)是讀取用戶使

用智能手機(jī)鍵盤輸入字詞時(shí)輸入的前幾個(gè)字母,然后列出一組可能的完整字詞。此

任務(wù)的困惑度(P)是:為了使列出的字詞中包含用戶嘗試輸入的實(shí)際字詞,您需要

提供的猜測項(xiàng)的個(gè)數(shù)。

困惑度與交叉燧的關(guān)系如下:

P=2-crossentropy

流水線(pipeline)

機(jī)器學(xué)習(xí)算法的基礎(chǔ)架構(gòu)。流水線包括收集數(shù)據(jù)、將數(shù)據(jù)放入訓(xùn)練數(shù)據(jù)文件、訓(xùn)練

一個(gè)或多個(gè)模型,以及將模型導(dǎo)出到生產(chǎn)環(huán)境。

正類別(positiveclass)

在二元分類中,兩種可能的類別分別被標(biāo)記為正類別和負(fù)類別。正類別結(jié)果是我們

要測試的對象。(不可否認(rèn)的是,我們會(huì)同時(shí)測試這兩種結(jié)果,但只關(guān)注正類別結(jié)

果。)例如,在醫(yī)學(xué)檢查中,正類別可以是“腫瘤”。在電子郵件分類器中,正類別

可以是“垃圾郵件”。

與負(fù)類別相對。

精確率(precision)

一種分類模型指標(biāo)。精確率指模型正確預(yù)測正類別的頻率,即:

精確率真正例數(shù)真正例數(shù)假正例數(shù)精確率=真正例數(shù)真正例數(shù)+假正例數(shù)

預(yù)測(prediction)

模型在收到輸入的樣本后的輸出。

預(yù)測偏差(predictionbias)

一個(gè)值,用于表明預(yù)測平均值與數(shù)據(jù)集中標(biāo)簽的平均值相差有多大。

預(yù)創(chuàng)建的Estimator(pre-madeEstimator)

其他人已建好的EstimatoroTensorFlow提供了一些預(yù)創(chuàng)建的Estimator,包

括DNNClassifier、DNNRegressor和LinearClassifiero您可以按照這些說明構(gòu)

建自己預(yù)創(chuàng)建的Estimatoro

預(yù)訓(xùn)練模型(pre-trainedmodel)

已經(jīng)過訓(xùn)練的模型或模型組件(例如嵌套)。有時(shí),您需要將預(yù)訓(xùn)練的嵌套饋送到

神經(jīng)網(wǎng)絡(luò)。在其他時(shí)候,您的模型將自行訓(xùn)練嵌套,而不依賴于預(yù)訓(xùn)練的嵌套。

先驗(yàn)信念(priorbelief)

在開始采用相應(yīng)數(shù)據(jù)進(jìn)行訓(xùn)練之前,您對這些數(shù)據(jù)抱有的信念。例如,L2正則化

依賴的先驗(yàn)信念是權(quán)重應(yīng)該很小且應(yīng)以0為中心呈正態(tài)分布。

Q

隊(duì)列(queue)

一種TensorFlow操作,用于實(shí)現(xiàn)隊(duì)列數(shù)據(jù)結(jié)構(gòu)。通常用于I/O中。

R

等級(rank)

機(jī)器學(xué)習(xí)中的一個(gè)多含義術(shù)語,可以理解為下列含義之一:

?張量中的維度數(shù)量。例如,標(biāo)量等級為0,向量等級為1,矩陣等級為2。

?在將類別從最高到最低進(jìn)行排序的機(jī)器學(xué)習(xí)問題中,類別的順序位置。例如,

行為排序系統(tǒng)可以將狗狗的獎(jiǎng)勵(lì)從最高(牛排)到最低(枯萎的羽衣甘藍(lán))進(jìn)

行排序。

評分者(rater)

為樣本提供標(biāo)簽的人。有時(shí)稱為“注釋者”。

召回率(recall)

一種分類模型指標(biāo),用于回答以下問題:在所有可能的正類別標(biāo)簽中,模型正確地

識別出了多少個(gè)?即:

召回率真正例數(shù)真正例數(shù)假負(fù)例數(shù)召回率=真正例數(shù)真正例數(shù)+假負(fù)例數(shù)

修正線性單元(ReLU,RectifiedLinearUnit)

一種激活函數(shù),其規(guī)則如下:

?如果輸入為負(fù)數(shù)或o,則輸出0。

?如果輸入為正數(shù),則輸出等于輸入。

回歸模型(regressionmodel)

一種模型,能夠輸出連續(xù)的值(通常為浮點(diǎn)值)。請與分類模型進(jìn)行比較,分類模

型輸出離散值,例如“黃花菜”或"虎皮百合”。

正則化(regularization)

對模型復(fù)雜度的懲罰。正則化有助于防止出現(xiàn)過擬分,包含以下類型:

?L1正則化

?L2正則化

?丟棄正則化

?早停法(這不是正式的正則化方法,但可以有效限制過擬合)

正則化率(regularizationrate)

一種標(biāo)量值,以lambda表示,用于指定正則化函數(shù)的相對重要性。從下面簡化的

損失公式中可以看出正則化率的影響:

minimizeflossfunction+Afregularizationfunction))

提高正則化率可以減少過擬合,但可能會(huì)使模型的準(zhǔn)確率降低。

表示法(representation)

將數(shù)據(jù)映射到實(shí)用特征的過程。

受試者工作特征曲線(receiveroperatingcharacteristic,簡稱

ROC曲線)

不同分類閾值下的真正例率和假正例率構(gòu)成的曲線。另請參閱曲線下面積。

根目錄(rootdirectory)

您指定的目錄,用于托管多個(gè)模型的TensorFlow檢查點(diǎn)和事件文件的子目錄。

均方根誤差(RMSE,RootMeanSquaredError)

均方誤差的平方根。

SavedModel

保存和恢復(fù)TensorFlow模型時(shí)建議使用的格式。SavedModel是一種獨(dú)立于語言且

可恢復(fù)的序列化格式,使較高級別的系統(tǒng)和工具可以創(chuàng)建、使用和轉(zhuǎn)換

TensorFlow模型。

如需完整的詳細(xì)信息,請參閱《TensorFlow編程人員指南》中的保存和恢復(fù)。

Saver

一種TensorFlow對象,負(fù)責(zé)保存模型檢查點(diǎn)。

縮放(scaling)

特征工程中的一種常用做法,是對某個(gè)特征的值區(qū)間進(jìn)行調(diào)整,使之與數(shù)據(jù)集中其

他特征的值區(qū)間一致。例如,假設(shè)您希望數(shù)據(jù)集中所有浮點(diǎn)特征的值都位于o到1

區(qū)間內(nèi),如果某個(gè)特征的值位于0到500區(qū)間內(nèi),您就可以通過將每個(gè)值除以500

來縮放該特征。

另請參閱標(biāo)準(zhǔn)化。

scikit-learn

一個(gè)熱門的開放源代碼機(jī)器學(xué)習(xí)平臺。請?jiān)L問o

半監(jiān)督式學(xué)習(xí)(semi-supervisedlearning)

訓(xùn)練模型時(shí)采用的數(shù)據(jù)中,某些訓(xùn)練樣本有標(biāo)簽,而其他樣本則沒有標(biāo)簽。半監(jiān)督

式學(xué)習(xí)采用的一種技術(shù)是推斷無標(biāo)簽樣本的標(biāo)簽,然后使用推斷出的標(biāo)簽進(jìn)行訓(xùn)練,

以創(chuàng)建新模型。如果獲得有標(biāo)簽樣本需要高昂的成本,而無標(biāo)簽樣本則有很多,那

么半監(jiān)督式學(xué)習(xí)將非常有用。

序列模型(sequencemodel)

一種模型,其輸入具有序列依賴性。例如,根據(jù)之前觀看過的一系列視頻對觀看的

下一個(gè)視頻進(jìn)行預(yù)測。

會(huì)話(session)

維持TensorFlow程序中的狀態(tài)(例如變量)。

S型函數(shù)(sigmoidfunction)

一種函數(shù),可將邏輯回歸輸出或多項(xiàng)回歸輸出(對數(shù)幾率)映射到概率,以返回介

于。到1之間的值。s型函數(shù)的公式如下:

y=ll+e-a

在邏輯網(wǎng)歸問題中,。非常簡單:

o=b+wlxl+w2x2+...wnxn

換句話說,S型函數(shù)可將。轉(zhuǎn)換為介于0到1之間的概率。

在某些神經(jīng)網(wǎng)絡(luò)中,S型函數(shù)可作為激活函數(shù)使用。

softmax

一種函數(shù),可提供多類別分類模型中每個(gè)可能類別的概

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論