人工智能辯論及人工智能詞匯與人工智能導(dǎo)論:狀態(tài)空間搜索實(shí)驗(yàn)-八數(shù)碼問題求解_第1頁
人工智能辯論及人工智能詞匯與人工智能導(dǎo)論:狀態(tài)空間搜索實(shí)驗(yàn)-八數(shù)碼問題求解_第2頁
人工智能辯論及人工智能詞匯與人工智能導(dǎo)論:狀態(tài)空間搜索實(shí)驗(yàn)-八數(shù)碼問題求解_第3頁
人工智能辯論及人工智能詞匯與人工智能導(dǎo)論:狀態(tài)空間搜索實(shí)驗(yàn)-八數(shù)碼問題求解_第4頁
人工智能辯論及人工智能詞匯與人工智能導(dǎo)論:狀態(tài)空間搜索實(shí)驗(yàn)-八數(shù)碼問題求解_第5頁
已閱讀5頁,還剩38頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

常用英語詞匯-andrewNg課程 intensity強(qiáng)度 Regression回歸 Lossfunction損失函數(shù) non-convex非凸函數(shù) neuralnetwork神經(jīng)網(wǎng)絡(luò) supervisedlearning監(jiān)督學(xué)習(xí) regressionproblem回歸問題處理的是連續(xù)的問題 classificationproblem分類問題 discreetvalue離散值 supportvectormachines支持向量機(jī) learningtheory學(xué)習(xí)理論 learningalgorithms學(xué)習(xí)算法 unsupervisedlearning無監(jiān)督學(xué)習(xí) gradientdescent梯度下降 linearregression線性回歸 NeuralNetwork神經(jīng)網(wǎng)絡(luò) gradientdescent梯度下降 normalequations linearalgebra線性代數(shù) superscript上標(biāo) exponentiation指數(shù) trainingset訓(xùn)練集合 trainingexample訓(xùn)練樣本 hypothesis假設(shè),用來表示學(xué)習(xí)算法的輸出 LMSalgorithm“l(fā)eastmeansquares最小二乘法算法 batchgradientdescent批量梯度下降 constantlygradientdescent隨機(jī)梯度下降 iterativealgorithm迭代算法 partialderivative偏導(dǎo)數(shù) contour等高線 quadraticfunction二元函數(shù) locallyweightedregression局部加權(quán)回歸 underfitting欠擬合 overfitting過擬合 non-parametriclearningalgorithms無參數(shù)學(xué)習(xí)算法 parametriclearningalgorithm參數(shù)學(xué)習(xí)算法 activation激活值 activationfunction激活函數(shù) additivenoise加性噪聲 autoencoder自編碼器 Autoencoders自編碼算法 averagefiringrate平均激活率 averagesum-of-squareserror均方差 backpropagation后向傳播 basis基 basisfeaturevectors特征基向量 batchgradientascent批量梯度上升法 Bayesianregularizationmethod貝葉斯規(guī)則化方法 Bernoullirandomvariable伯努利隨機(jī)變量 biasterm偏置項(xiàng) binaryclassfication二元分類 classlabels類型標(biāo)記 concatenation級聯(lián) conjugategradient共軛梯度 contiguousgroups聯(lián)通區(qū)域 convexoptimizationsoftware凸優(yōu)化軟件 convolution卷積 costfunction代價(jià)函數(shù) covariancematrix協(xié)方差矩陣 DCcomponent直流分量 decorrelation去相關(guān) degeneracy退化 demensionalityreduction降維 derivative導(dǎo)函數(shù) diagonal對角線 diffusionofgradients梯度的彌散 eigenvalue特征值 eigenvector特征向量 errorterm殘差 featurematrix特征矩陣 featurestandardization特征標(biāo)準(zhǔn)化 feedforwardarchitectures前饋結(jié)構(gòu)算法 feedforwardneuralnetwork前饋神經(jīng)網(wǎng)絡(luò) feedforwardpass前饋傳導(dǎo) fine-tuned微調(diào) first-orderfeature一階特征 forwardpass前向傳導(dǎo) forwardpropagation前向傳播 Gaussianprior高斯先驗(yàn)概率 generativemodel生成模型 gradientdescent梯度下降 Greedylayer-wisetraining逐層貪婪訓(xùn)練方法 groupingmatrix分組矩陣 Hadamardproduct阿達(dá)馬乘積 HessianmatrixHessian矩陣 hiddenlayer隱含層 hiddenunits隱藏神經(jīng)元 Hierarchicalgrouping層次型分組 higher-orderfeatures更高階特征 highlynon-convexoptimizationproblem高度非凸的優(yōu)化問題 histogram直方圖 hyperbolictangent雙曲正切函數(shù) hypothesis估值,假設(shè) identityactivationfunction恒等激勵函數(shù) IID獨(dú)立同分布 illumination照明 inactive抑制 independentcomponentanalysis獨(dú)立成份分析 inputdomains輸入域 inputlayer輸入層 intensity亮度/灰度 interceptterm截距 KLdivergence相對熵 KLdivergenceKL分散度 k-MeansK-均值 learningrate學(xué)習(xí)速率 leastsquares最小二乘法 linearcorrespondence線性響應(yīng) linearsuperposition線性疊加 line-searchalgorithm線搜索算法 localmeansubtraction局部均值消減 localoptima局部最優(yōu)解 logisticregression邏輯回歸 lossfunction損失函數(shù) low-passfiltering低通濾波 magnitude幅值 MAP極大后驗(yàn)估計(jì) maximumlikelihoodestimation極大似然估計(jì) mean平均值 MFCCMel倒頻系數(shù) multi-classclassification多元分類 neuralnetworks神經(jīng)網(wǎng)絡(luò) neuron神經(jīng)元 Newton’smethod牛頓法 non-convexfunction非凸函數(shù) non-linearfeature非線性特征 norm范式 normbounded有界范數(shù) normconstrained范數(shù)約束 normalization歸一化 numericalroundofferrors數(shù)值舍入誤差 numericallychecking數(shù)值檢驗(yàn) numericallyreliable數(shù)值計(jì)算上穩(wěn)定 objectdetection物體檢測 objectivefunction目標(biāo)函數(shù) off-by-oneerror缺位錯誤 orthogonalization正交化 outputlayer輸出層 overallcostfunction總體代價(jià)函數(shù) over-completebasis超完備基 over-fitting過擬合 partsofobjects目標(biāo)的部件 part-wholedecompostion部分-整體分解 PCA主元分析 penaltyterm懲罰因子 per-examplemeansubtraction逐樣本均值消減 pooling池化 pretrain預(yù)訓(xùn)練 principalcomponentsanalysis主成份分析 quadraticconstraints二次約束 RBMs受限Boltzman機(jī) reconstructionbasedmodels基于重構(gòu)的模型 reconstructioncost重建代價(jià) reconstructionterm重構(gòu)項(xiàng) redundant冗余 reflectionmatrix反射矩陣 regularization正則化 regularizationterm正則化項(xiàng) rescaling縮放 robust魯棒性 run行程 second-orderfeature二階特征 sigmoidactivationfunctionS型激勵函數(shù) significantdigits有效數(shù)字 singularvalue奇異值 singularvector奇異向量 smoothedL1penalty平滑的L1范數(shù)懲罰 SmoothedtopographicL1sparsitypenalty平滑地形L1稀疏懲罰函數(shù) smoothing平滑 SoftmaxRegressonSoftmax回歸 sortedindecreasingorder降序排列 sourcefeatures源特征 sparseautoencoder消減歸一化 Sparsity稀疏性 sparsityparameter稀疏性參數(shù) sparsitypenalty稀疏懲罰 squarefunction平方函數(shù) squared-error方差 stationary平穩(wěn)性(不變性) stationarystochasticprocess平穩(wěn)隨機(jī)過程 step-size步長值 supervisedlearning監(jiān)督學(xué)習(xí) symmetricpositivesemi-definitematrix對稱半正定矩陣 symmetrybreaking對稱失效 tanhfunction雙曲正切函數(shù) theaverageactivation平均活躍度 thederivativecheckingmethod梯度驗(yàn)證方法 theempiricaldistribution經(jīng)驗(yàn)分布函數(shù) theenergyfunction能量函數(shù) theLagrangedual拉格朗日對偶函數(shù) theloglikelihood對數(shù)似然函數(shù) thepixelintensityvalue像素灰度值 therateofconvergence收斂速度 topographiccostterm拓?fù)浯鷥r(jià)項(xiàng) topographicordered拓?fù)渲刃?transformation變換 translationinvariant平移不變性 trivialanswer平凡解 under-completebasis不完備基 unrolling組合擴(kuò)展 unsupervisedlearning無監(jiān)督學(xué)習(xí) variance方差 vecotrizedimplementation向量化實(shí)現(xiàn) vectorization矢量化 visualcortex視覺皮層 weightdecay權(quán)重衰減 weightedaverage加權(quán)平均值 whitening白化 zero-mean均值為零 Accumulatederrorbackpropagation累積誤差逆?zhèn)鞑?ActivationFunction激活函數(shù) AdaptiveResonanceTheory/ART自適應(yīng)諧振理論 Addictivemodel加性學(xué)習(xí) AdversarialNetworks對抗網(wǎng)絡(luò) AffineLayer仿射層 Affinitymatrix親和矩陣 Agent代理/智能體 Algorithm算法 Alpha-betapruningα-β剪枝 Anomalydetection異常檢測 Approximation近似 AreaUnderROCCurve/AUCRoc曲線下面積 ArtificialGeneralIntelligence/AGI通用人工智能 ArtificialIntelligence/AI人工智能 Associationanalysis關(guān)聯(lián)分析 Attentionmechanism注意力機(jī)制 Attributeconditionalindependenceassumption屬性條件獨(dú)立性假設(shè) Attributespace屬性空間 Attributevalue屬性值 Autoencoder自編碼器 Automaticspeechrecognition自動語音識別 Automaticsummarization自動摘要 Averagegradient平均梯度 Average-Pooling平均池化 BackpropagationThroughTime通過時間的反向傳播 Backpropagation/BP反向傳播 Baselearner基學(xué)習(xí)器 Baselearningalgorithm基學(xué)習(xí)算法 BatchNormalization/BN批量歸一化 Bayesdecisionrule貝葉斯判定準(zhǔn)則 BayesModelAveraging/BMA貝葉斯模型平均 Bayesoptimalclassifier貝葉斯最優(yōu)分類器 Bayesiandecisiontheory貝葉斯決策論 Bayesiannetwork貝葉斯網(wǎng)絡(luò) Between-classscattermatrix類間散度矩陣 Bias偏置/偏差 Bias-variancedecomposition偏差-方差分解 Bias-VarianceDilemma偏差–方差困境 Bi-directionalLong-ShortTermMemory/Bi-LSTM雙向長短期記憶 Binaryclassification二分類 Binomialtest二項(xiàng)檢驗(yàn) Bi-partition二分法 Boltzmannmachine玻爾茲曼機(jī) Bootstrapsampling自助采樣法/可重復(fù)采樣 Bootstrapping自助法 Break-EventPoint/BEP平衡點(diǎn) Calibration校準(zhǔn) Cascade-Correlation級聯(lián)相關(guān) Categoricalattribute離散屬性 Class-conditionalprobability類條件概率 Classificationandregressiontree/CART分類與回歸樹 Classifier分類器 Class-imbalance類別不平衡 Closed-form閉式 Cluster簇/類/集群 Clusteranalysis聚類分析 Clustering聚類 Clusteringensemble聚類集成 Co-adapting共適應(yīng) Codingmatrix編碼矩陣 COLT國際學(xué)習(xí)理論會議 Committee-basedlearning基于委員會的學(xué)習(xí) Competitivelearning競爭型學(xué)習(xí) Componentlearner組件學(xué)習(xí)器 Comprehensibility可解釋性 ComputationCost計(jì)算成本 ComputationalLinguistics計(jì)算語言學(xué) Computervision計(jì)算機(jī)視覺 Conceptdrift概念漂移 ConceptLearningSystem/CLS概念學(xué)習(xí)系統(tǒng) Conditionalentropy條件熵 Conditionalmutualinformation條件互信息 ConditionalProbabilityTable/CPT條件概率表 Conditionalrandomfield/CRF條件隨機(jī)場 Conditionalrisk條件風(fēng)險(xiǎn) Confidence置信度 Confusionmatrix混淆矩陣 Connectionweight連接權(quán) Connectionism連結(jié)主義 Consistency一致性/相合性 Contingencytable列聯(lián)表 Continuousattribute連續(xù)屬性 Convergence收斂 Conversationalagent會話智能體 Convexquadraticprogramming凸二次規(guī)劃 Convexity凸性 Convolutionalneuralnetwork/CNN卷積神經(jīng)網(wǎng)絡(luò) Co-occurrence同現(xiàn) Correlationcoefficient相關(guān)系數(shù) Cosinesimilarity余弦相似度 Costcurve成本曲線 CostFunction成本函數(shù) Costmatrix成本矩陣 Cost-sensitive成本敏感 Crossentropy交叉熵 Crossvalidation交叉驗(yàn)證 Crowdsourcing眾包 Curseofdimensionality維數(shù)災(zāi)難 Cutpoint截?cái)帱c(diǎn) Cuttingplanealgorithm割平面法 Datamining數(shù)據(jù)挖掘 Dataset數(shù)據(jù)集 DecisionBoundary決策邊界 Decisionstump決策樹樁 Decisiontree決策樹/判定樹 Deduction演繹 DeepBeliefNetwork深度信念網(wǎng)絡(luò) DeepConvolutionalGenerativeAdversarialNetworkDCGAN深度卷積生成對抗網(wǎng)絡(luò) Deeplearning深度學(xué)習(xí) Deepneuralnetwork/DNN深度神經(jīng)網(wǎng)絡(luò) DeepQ-Learning深度Q學(xué)習(xí) DeepQ-Network深度Q網(wǎng)絡(luò) Densityestimation密度估計(jì) Density-basedclustering密度聚類 Differentiableneuralcomputer可微分神經(jīng)計(jì)算機(jī) Dimensionalityreductionalgorithm降維算法 Directededge有向邊 Disagreementmeasure不合度量 Discriminativemodel判別模型 Discriminator判別器 Distancemeasure距離度量 Distancemetriclearning距離度量學(xué)習(xí) Distribution分布 Divergence散度 Diversitymeasure多樣性度量/差異性度量 Domainadaption領(lǐng)域自適應(yīng) Downsampling下采樣 D-separation(Directedseparation)有向分離 Dualproblem對偶問題 Dummynode啞結(jié)點(diǎn) DynamicFusion動態(tài)融合 Dynamicprogramming動態(tài)規(guī)劃 Eigenvaluedecomposition特征值分解 Embedding嵌入 Emotionalanalysis情緒分析 Empiricalconditionalentropy經(jīng)驗(yàn)條件熵 Empiricalentropy經(jīng)驗(yàn)熵 Empiricalerror經(jīng)驗(yàn)誤差 Empiricalrisk經(jīng)驗(yàn)風(fēng)險(xiǎn) End-to-End端到端 Energy-basedmodel基于能量的模型 Ensemblelearning集成學(xué)習(xí) Ensemblepruning集成修剪 ErrorCorrectingOutputCodes/ECOC糾錯輸出碼 Errorrate錯誤率 Error-ambiguitydecomposition誤差-分歧分解 Euclideandistance歐氏距離 Evolutionarycomputation演化計(jì)算 Expectation-Maximization期望最大化 Expectedloss期望損失 ExplodingGradientProblem梯度爆炸問題 Exponentiallossfunction指數(shù)損失函數(shù) ExtremeLearningMachine/ELM超限學(xué)習(xí)機(jī) Factorization因子分解 Falsenegative假負(fù)類 Falsepositive假正類 FalsePositiveRate/FPR假正例率 Featureengineering特征工程 Featureselection特征選擇 Featurevector特征向量 FeaturedLearning特征學(xué)習(xí) FeedforwardNeuralNetworks/FNN前饋神經(jīng)網(wǎng)絡(luò) Fine-tuning微調(diào) Flippingoutput翻轉(zhuǎn)法 Fluctuation震蕩 Forwardstagewisealgorithm前向分步算法 Frequentist頻率主義學(xué)派 Full-rankmatrix滿秩矩陣 Functionalneuron功能神經(jīng)元 Gainratio增益率 Gametheory博弈論 Gaussiankernelfunction高斯核函數(shù) GaussianMixtureModel高斯混合模型 GeneralProblemSolving通用問題求解 Generalization泛化 Generalizationerror泛化誤差 Generalizationerrorbound泛化誤差上界 GeneralizedLagrangefunction廣義拉格朗日函數(shù) Generalizedlinearmodel廣義線性模型 GeneralizedRayleighquotient廣義瑞利商 GenerativeAdversarialNetworks/GAN生成對抗網(wǎng)絡(luò) GenerativeModel生成模型 Generator生成器 GeneticAlgorithm/GA遺傳算法 Gibbssampling吉布斯采樣 Giniindex基尼指數(shù) Globalminimum全局最小 GlobalOptimization全局優(yōu)化 Gradientboosting梯度提升 GradientDescent梯度下降 Graphtheory圖論 Ground-truth真相/真實(shí) Hardmargin硬間隔 Hardvoting硬投票 Harmonicmean調(diào)和平均 Hessematrix海塞矩陣 Hiddendynamicmodel隱動態(tài)模型 Hiddenlayer隱藏層 HiddenMarkovModel/HMM隱馬爾可夫模型 Hierarchicalclustering層次聚類 Hilbertspace希爾伯特空間 Hingelossfunction合頁損失函數(shù) Hold-out留出法 Homogeneous同質(zhì) Hybridcomputing混合計(jì)算 Hyperparameter超參數(shù) Hypothesis假設(shè) Hypothesistest假設(shè)驗(yàn)證 ICML國際機(jī)器學(xué)習(xí)會議 Improvediterativescaling/IIS改進(jìn)的迭代尺度法 Incrementallearning增量學(xué)習(xí) Independentandidenticallydistributed/i.i.d.獨(dú)立同分布 IndependentComponentAnalysis/ICA獨(dú)立成分分析 Indicatorfunction指示函數(shù) Individuallearner個體學(xué)習(xí)器 Induction歸納 Inductivebias歸納偏好 Inductivelearning歸納學(xué)習(xí) InductiveLogicProgramming/ILP歸納邏輯程序設(shè)計(jì) Informationentropy信息熵 Informationgain信息增益 Inputlayer輸入層 Insensitiveloss不敏感損失 Inter-clustersimilarity簇間相似度 InternationalConferenceforMachineLearning/ICML國際機(jī)器學(xué)習(xí)大會 Intra-clustersimilarity簇內(nèi)相似度 Intrinsicvalue固有值 IsometricMapping/Isomap等度量映射 Isotonicregression等分回歸 IterativeDichotomiser迭代二分器 Kernelmethod核方法 Kerneltrick核技巧 KernelizedLinearDiscriminantAnalysis/KLDA核線性判別分析 K-foldcrossvalidationk折交叉驗(yàn)證/k倍交叉驗(yàn)證 K-MeansClusteringK–均值聚類 K-NearestNeighboursAlgorithm/KNNK近鄰算法 Knowledgebase知識庫 KnowledgeRepresentation知識表征 Labelspace標(biāo)記空間 Lagrangeduality拉格朗日對偶性 Lagrangemultiplier拉格朗日乘子 Laplacesmoothing拉普拉斯平滑 Laplaciancorrection拉普拉斯修正 LatentDirichletAllocation隱狄利克雷分布 Latentsemanticanalysis潛在語義分析 Latentvariable隱變量 Lazylearning懶惰學(xué)習(xí) Learner學(xué)習(xí)器 Learningbyanalogy類比學(xué)習(xí) Learningrate學(xué)習(xí)率 LearningVectorQuantization/LVQ學(xué)習(xí)向量量化 Leastsquaresregressiontree最小二乘回歸樹 Leave-One-Out/LOO留一法 linearchainconditionalrandomfield線性鏈條件隨機(jī)場 LinearDiscriminantAnalysis/LDA線性判別分析 Linearmodel線性模型 LinearRegression線性回歸 Linkfunction聯(lián)系函數(shù) LocalMarkovproperty局部馬爾可夫性 Localminimum局部最小 Loglikelihood對數(shù)似然 Logodds/logit對數(shù)幾率 LogisticRegressionLogistic回歸 Log-likelihood對數(shù)似然 Log-linearregression對數(shù)線性回歸 Long-ShortTermMemory/LSTM長短期記憶 Lossfunction損失函數(shù) Machinetranslation/MT機(jī)器翻譯 Macron-P宏查準(zhǔn)率 Macron-R宏查全率 Majorityvoting絕對多數(shù)投票法 Manifoldassumption流形假設(shè) Manifoldlearning流形學(xué)習(xí) Margintheory間隔理論 Marginaldistribution邊際分布 Marginalindependence邊際獨(dú)立性 Marginalization邊際化 MarkovChainMonteCarlo/MCMC馬爾可夫鏈蒙特卡羅方法 MarkovRandomField馬爾可夫隨機(jī)場 Maximalclique最大團(tuán) MaximumLikelihoodEstimation/MLE極大似然估計(jì)/極大似然法 Maximummargin最大間隔 Maximumweightedspanningtree最大帶權(quán)生成樹 Max-Pooling最大池化 Meansquarederror均方誤差 Meta-learner元學(xué)習(xí)器 Metriclearning度量學(xué)習(xí) Micro-P微查準(zhǔn)率 Micro-R微查全率 MinimalDescriptionLength/MDL最小描述長度 Minimaxgame極小極大博弈 Misclassificationcost誤分類成本 Mixtureofexperts混合專家 Momentum動量 Moralgraph道德圖/端正圖 Multi-classclassification多分類 Multi-documentsummarization多文檔摘要 Multi-layerfeedforwardneuralnetworks多層前饋神經(jīng)網(wǎng)絡(luò) MultilayerPerceptron/MLP多層感知器 Multimodallearning多模態(tài)學(xué)習(xí)MultipleDimensionalScaling多維縮放 Multiplelinearregression多元線性回歸 Multi-responseLinearRegression/MLR多響應(yīng)線性回歸 Mutualinformation互信息 Naivebayes樸素貝葉斯 NaiveBayesClassifier樸素貝葉斯分類器 Namedentityrecognition命名實(shí)體識別 Nashequilibrium納什均衡 Naturallanguagegeneration/NLG自然語言生成 Naturallanguageprocessing自然語言處理 Negativeclass負(fù)類 Negativecorrelation負(fù)相關(guān)法 NegativeLogLikelihood負(fù)對數(shù)似然 NeighbourhoodComponentAnalysis/NCA近鄰成分分析 NeuralMachineTranslation神經(jīng)機(jī)器翻譯 NeuralTuringMachine神經(jīng)圖靈機(jī) Newtonmethod牛頓法 NIPS國際神經(jīng)信息處理系統(tǒng)會議 NoFreeLunchTheorem/NFL沒有免費(fèi)的午餐定理 Noise-contrastiveestimation噪音對比估計(jì) Nominalattribute列名屬性 Non-convexoptimization非凸優(yōu)化 Nonlinearmodel非線性模型 Non-metricdistance非度量距離 Non-negativematrixfactorization非負(fù)矩陣分解 Non-ordinalattribute無序?qū)傩?Non-SaturatingGame非飽和博弈 Norm范數(shù) Normalization歸一化 Nuclearnorm核范數(shù) Numericalattribute數(shù)值屬性 LetterO Objectivefunction目標(biāo)函數(shù) Obliquedecisiontree斜決策樹 Occam’srazor奧卡姆剃刀 Odds幾率 Off-Policy離策略 Oneshotlearning一次性學(xué)習(xí) One-DependentEstimator/ODE獨(dú)依賴估計(jì) On-Policy在策略 Ordinalattribute有序?qū)傩?Out-of-bagestimate包外估計(jì) Outputlayer輸出層 Outputsmearing輸出調(diào)制法 Overfitting過擬合/過配 Oversampling過采樣 Pairedt-test成對t檢驗(yàn) Pairwise成對型 PairwiseMarkovproperty成對馬爾可夫性 Parameter參數(shù) Parameterestimation參數(shù)估計(jì) Parametertuning調(diào)參 Parsetree解析樹 ParticleSwarmOptimization/PSO粒子群優(yōu)化算法 Part-of-speechtagging詞性標(biāo)注 Perceptron感知機(jī) Performancemeasure性能度量 PlugandPlayGenerativeNetwork即插即用生成網(wǎng)絡(luò) Pluralityvoting相對多數(shù)投票法 Polaritydetection極性檢測 Polynomialkernelfunction多項(xiàng)式核函數(shù) Pooling池化 Positiveclass正類 Positivedefinitematrix正定矩陣 Post-hoctest后續(xù)檢驗(yàn) Post-pruning后剪枝 potentialfunction勢函數(shù) Precision查準(zhǔn)率/準(zhǔn)確率 Prepruning預(yù)剪枝 Principalcomponentanalysis/PCA主成分分析 Principleofmultipleexplanations多釋原則 Prior先驗(yàn) ProbabilityGraphicalModel概率圖模型 ProximalGradientDescent/PGD近端梯度下降 Pruning剪枝 Pseudo-label偽標(biāo)記 QuantizedNeuralNetwork量子化神經(jīng)網(wǎng)絡(luò) Quantumcomputer量子計(jì)算機(jī) QuantumComputing量子計(jì)算 QuasiNewtonmethod擬牛頓法 RadialBasisFunction/RBF徑向基函數(shù) RandomForestAlgorithm隨機(jī)森林算法 Randomwalk隨機(jī)漫步 Recall查全率/召回率 ReceiverOperatingCharacteristic/ROC受試者工作特征 RectifiedLinearUnit/ReLU線性修正單元 RecurrentNeuralNetwork循環(huán)神經(jīng)網(wǎng)絡(luò) Recursiveneuralnetwork遞歸神經(jīng)網(wǎng)絡(luò) Referencemodel參考模型 Regression回歸 Regularization正則化 Reinforcementlearning/RL強(qiáng)化學(xué)習(xí) Representationlearning表征學(xué)習(xí) Representertheorem表示定理 reproducingkernelHilbertspace/RKHS再生核希爾伯特空間 Re-sampling重采樣法 Rescaling再縮放 ResidualMapping殘差映射 ResidualNetwork殘差網(wǎng)絡(luò) RestrictedBoltzmannMachine/RBM受限玻爾茲曼機(jī) RestrictedIsometryProperty/RIP限定等距性 Re-weighting重賦權(quán)法 Robustness穩(wěn)健性/魯棒性 Rootnode根結(jié)點(diǎn) RuleEngine規(guī)則引擎 Rulelearning規(guī)則學(xué)習(xí) Saddlepoint鞍點(diǎn) Samplespace樣本空間 Sampling采樣 Scorefunction評分函數(shù) Self-Driving自動駕駛 Self-OrganizingMap/SOM自組織映射 Semi-naiveBayesclassifiers半樸素貝葉斯分類器 Semi-SupervisedLearning半監(jiān)督學(xué)習(xí) semi-SupervisedSupportVectorMachine半監(jiān)督支持向量機(jī) Sentimentanalysis情感分析 Separatinghyperplane分離超平面 SigmoidfunctionSigmoid函數(shù) Similaritymeasure相似度度量 Simulatedannealing模擬退火 Simultaneouslocalizationandmapping同步定位與地圖構(gòu)建 SingularValueDecomposition奇異值分解 Slackvariables松弛變量 Smoothing平滑 Softmargin軟間隔 Softmarginmaximization軟間隔最大化 Softvoting軟投票 Sparserepresentation稀疏表征 Sparsity稀疏性 Specialization特化 SpectralClustering譜聚類 SpeechRecognition語音識別 Splittingvariable切分變量 Squashingfunction擠壓函數(shù) Stability-plasticitydilemma可塑性-穩(wěn)定性困境 Statisticallearning統(tǒng)計(jì)學(xué)習(xí) Statusfeaturefunction狀態(tài)特征函 Stochasticgradientdescent隨機(jī)梯度下降 Stratifiedsampling分層采樣 Structuralrisk結(jié)構(gòu)風(fēng)險(xiǎn) Structuralriskminimization/SRM結(jié)構(gòu)風(fēng)險(xiǎn)最小化 Subspace子空間 Supervisedlearning監(jiān)督學(xué)習(xí)/有導(dǎo)師學(xué)習(xí) supportvectorexpansion支持向量展式 SupportVectorMachine/SVM支持向量機(jī) Surrogatloss替代損失 Surrogatefunction替代函數(shù) Symboliclearning符號學(xué)習(xí) Symbolism符號主義 Synset同義詞集 T-DistributionStochasticNeighbourEmbeddingt-SNET–分布隨機(jī)近鄰嵌入 Tensor張量 TensorProcessingUnits/TPU張量處理單元 Theleastsquaremethod最小二乘法 Threshold閾值 Thresholdlogicunit閾值邏輯單元 Threshold-moving閾值移動 TimeStep時間步驟 Tokenization標(biāo)記化 Trainingerror訓(xùn)練誤差 Traininginstance訓(xùn)練示例/訓(xùn)練例 Transductivelearning直推學(xué)習(xí) Transferlearning遷移學(xué)習(xí) Treebank樹庫 Tria-by-error試錯法 Truenegative真負(fù)類 Truepositive真正類 TruePositiveRate/TPR真正例率 TuringMachine圖靈機(jī) Twice-learning二次學(xué)習(xí) Underfitting欠擬合/欠配 Undersampling欠采樣 Understandability可理解性 Unequalcost非均等代價(jià) Unit-stepfunction單位階躍函數(shù) Univariatedecisiontree單變量決策樹 Unsupervisedlearning無監(jiān)督學(xué)習(xí)/無導(dǎo)師學(xué)習(xí) Unsupervisedlayer-wisetraining無監(jiān)督逐層訓(xùn)練 Upsampling上采樣 VanishingGradientProblem梯度消失問題 Variationalinference變分推斷 VCTheoryVC維理論 Versionspace版本空間 Viterbialgorithm維特比算法 VonNeumannarchitecture馮·諾伊曼架構(gòu) WassersteinGAN/WGANWasserstein生成對抗網(wǎng)絡(luò) Weaklearner弱學(xué)習(xí)器 Weight權(quán)重 Weightsharing權(quán)共享 Weightedvoting加權(quán)投票法 Within-classscattermatrix類內(nèi)散度矩陣 Wordembedding詞嵌入 Wordsensedisambiguation詞義消歧 Zero-datalearning零數(shù)據(jù)學(xué)習(xí) Zero-shotlearning零次學(xué)習(xí) approximations近似值 arbitrary隨意的 affine仿射的 arbitrary任意的 aminoacid氨基酸 amenable經(jīng)得起檢驗(yàn)的 axiom公理,原則 abstract提取 architecture架構(gòu),體系結(jié)構(gòu);建造業(yè) absolute絕對的 arsenal軍火庫 assignment分配 algebra線性代數(shù) asymptotically無癥狀的 appropriate恰當(dāng)?shù)?bias偏差 brevity簡短,簡潔;短暫 [800]broader廣泛 briefly簡短的 batch批量 convergence收斂,集中到一點(diǎn) convex凸的 contours輪廓 constraint約束 constant常理 commercial商務(wù)的 complementarity補(bǔ)充 coordinateascent同等級上升 clipping剪下物;剪報(bào);修剪 component分量;部件 continuous連續(xù)的 covariance協(xié)方差 canonical正規(guī)的,正則的 concave非凸的 corresponds相符合;相當(dāng);通信 corollary推論 concrete具體的事物,實(shí)在的東西 crossvalidation交叉驗(yàn)證 correlation相互關(guān)系 convention約定 cluster一簇 centroids質(zhì)心,形心 converge收斂 computationally計(jì)算(機(jī))的 calculus計(jì)算 derive獲得,取得 dual二元的 duality二元性;二象性;對偶性 derivation求導(dǎo);得到;起源 denote預(yù)示,表示,是…的標(biāo)志;意味著,[邏]指稱 divergence散度;發(fā)散性 dimension尺度,規(guī)格;維數(shù) dot小圓點(diǎn) distortion變形 density概率密度函數(shù) discrete離散的 discriminative有識別能力的 diagonal對角 dispersion分散,散開 determinant決定因素 disjoint不相交的 encounter遇到 ellipses橢圓 equality等式 extra額外的 empirical經(jīng)驗(yàn);觀察 ennmerate例舉,計(jì)數(shù) exceed超過,越出 expectation期望 efficient生效的 endow賦予 explicitly清楚的 exponentialfamily指數(shù)家族 equivalently等價(jià)的 feasible可行的 forary初次嘗試 finite有限的,限定的 forgo摒棄,放棄 fliter過濾 frequentist最常發(fā)生的 forwardsearch前向式搜索 formalize使定形 generalized歸納的 generalization概括,歸納;普遍化;判斷(根據(jù)不足) guarantee保證;抵押品 generate形成,產(chǎn)生 geometricmargins幾何邊界 gap裂口 generative生產(chǎn)的;有生產(chǎn)力的 heuristic啟發(fā)式的;啟發(fā)法;啟發(fā)程序 hone懷戀;磨 hyperplane超平面 initial最初的 implement執(zhí)行 intuitive憑直覺獲知的 incremental增加的intercept截距 intuitious直覺 instantiation例子 indicator指示物,指示器 interative重復(fù)的,迭代的 integral積分 identical相等的;完全相同的 indicate表示,指出 invariance不變性,恒定性 impose把…強(qiáng)加于 intermediate中間的 interpretation解釋,翻譯 jointdistribution聯(lián)合概率 lieu替代 logarithmic對數(shù)的,用對數(shù)表示的 latent潛在的 Leave-one-outcrossvalidation留一法交叉驗(yàn)證 magnitude巨大 mapping繪圖,制圖;映射 matrix矩陣 mutual相互的,共同的 monotonically單調(diào)的 minor較小的,次要的 multinomial多項(xiàng)的 multi-classclassification二分類問題 nasty討厭的 notation標(biāo)志,注釋 na?ve樸素的 obtain得到 oscillate擺動 optimizationproblem最優(yōu)化問題 objectivefunction目標(biāo)函數(shù) optimal最理想的 orthogonal(矢量,矩陣等)正交的 orientation方向 ordinary普通的 occasionally偶然的 partialderivative偏導(dǎo)數(shù) property性質(zhì) proportional成比例的 primal原始的,最初的 permit允許 pseudocode偽代碼 permissible可允許的 polynomial多項(xiàng)式 preliminary預(yù)備 precision精度 perturbation不安,擾亂 poist假定,設(shè)想 positivesemi-definite半正定的 parentheses圓括號 posteriorprobability后驗(yàn)概率 plementarity補(bǔ)充 pictorially圖像的 parameterize確定…的參數(shù) poissondistribution柏松分布 pertinent相關(guān)的 quadratic二次的 quantity量,數(shù)量;分量 query疑問的 regularization使系統(tǒng)化;調(diào)整 reoptimize重新優(yōu)化 restrict限制;限定;約束 reminiscent回憶往事的;提醒的;使人聯(lián)想…的(of) remark注意 randomvariable隨機(jī)變量 respect考慮 respectively各自的;分別的 redundant過多的;冗余的 susceptible敏感的 stochastic可能的;隨機(jī)的 symmetric對稱的 sophisticated復(fù)雜的 spurious假的;偽造的 subtract減去;減法器 simultaneously同時發(fā)生地;同步地 suffice滿足 scarce稀有的,難得的 split分解,分離 subset子集 statistic統(tǒng)計(jì)量 successiveiteratious連續(xù)的迭代 scale標(biāo)度 sortof有幾分的 squares平方 trajectory軌跡 temporarily暫時的 terminology專用名詞 tolerance容忍;公差 thumb翻閱 threshold閾,臨界 theorem定理 tangent正弦 unit-lengthvector單位向量 valid有效的,正確的 variance方差 variable變量;變元 vocabulary詞匯 valued經(jīng)估價(jià)的;寶貴的wrapper包裝總計(jì)1038詞匯昆明理工大學(xué)信息工程與自動化學(xué)院學(xué)生實(shí)驗(yàn)報(bào)告(2014——2015學(xué)年第一學(xué)期)課程名稱:人工智能導(dǎo)論開課實(shí)驗(yàn)室:年月日年級、專業(yè)、班學(xué)號姓名成績實(shí)驗(yàn)項(xiàng)目名稱狀態(tài)空間搜索實(shí)驗(yàn)—八數(shù)碼問題求解指導(dǎo)教師胡蓉教師評語該同學(xué)是否了解實(shí)驗(yàn)原理:A.了解□B.基本了解□C.不了解□該同學(xué)的實(shí)驗(yàn)?zāi)芰Γ篈.強(qiáng)□B.中等□C.差□該同學(xué)的實(shí)驗(yàn)是否達(dá)到要求:A.達(dá)到□B.基本達(dá)到□C.未達(dá)到□實(shí)驗(yàn)報(bào)告是否規(guī)范:A.規(guī)范□B.基本規(guī)范□C.不規(guī)范□實(shí)驗(yàn)過程是否詳細(xì)記錄:A.詳細(xì)□B.一般□C.沒有□教師簽名:年月日一、實(shí)驗(yàn)內(nèi)容和要求八數(shù)碼問題:在3×3的方格棋盤上,擺放著1到8這八個數(shù)碼,有1個方格是空的,其初始狀態(tài)如圖1所示,要求對空格執(zhí)行空格左移、空格右移、空格上移和空格下移這四個操作使得棋盤從初始狀態(tài)到目標(biāo)狀態(tài)。例如:28312316484705765(a)初始狀態(tài)(b)目標(biāo)狀態(tài)圖1八數(shù)碼問題示意圖請任選一種盲目搜索算法(廣度優(yōu)先搜索或深度優(yōu)先搜索)或任選一種啟發(fā)式搜索方法(全局擇優(yōu)搜索,加權(quán)狀態(tài)圖搜索,A算法或A*算法)編程求解八數(shù)碼問題(初始狀態(tài)任選)。選擇一個初始狀態(tài),畫出搜索樹,填寫相應(yīng)的OPEN表和CLOSED表,給出解路徑,對實(shí)驗(yàn)結(jié)果進(jìn)行分析總結(jié),得出結(jié)論。實(shí)驗(yàn)報(bào)告內(nèi)容格式要求:XXXXXXXXXXXX(中文:宋體,小四;英文:TimesNewRoman)。二、實(shí)驗(yàn)?zāi)康?.熟悉人工智能系統(tǒng)中的問題求解過程;2.熟悉狀態(tài)空間的盲目搜索和啟發(fā)式搜索算法的應(yīng)用;3.熟悉對八數(shù)碼問題的建模、求解及編程語言的應(yīng)用。三、實(shí)驗(yàn)算法啟發(fā)函數(shù)設(shè)定由八數(shù)碼問題的部分狀態(tài)圖可以看出,從初始節(jié)點(diǎn)開始,在通向目標(biāo)節(jié)點(diǎn)的路徑上,各節(jié)點(diǎn)的數(shù)碼格局同目標(biāo)節(jié)點(diǎn)相比較,其數(shù)碼不同的位置個數(shù)在逐漸減少,最后為零,因此可以把數(shù)碼不同的位置個數(shù)作為標(biāo)志一個節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)距離遠(yuǎn)近的一個啟發(fā)性信息,利用這個信息來擴(kuò)展節(jié)點(diǎn)的選擇,減少搜索范圍,提高搜索速度。2、數(shù)據(jù)結(jié)構(gòu)與算法設(shè)計(jì)數(shù)碼結(jié)構(gòu)體typedefstructnode//八數(shù)碼結(jié)構(gòu)體{intform[N][N];//數(shù)碼組intevalue;//評估值,差距intudirec;//所屏蔽方向,防止往回推到上一狀態(tài),1上2下3左4右structnode*parent;//父節(jié)點(diǎn)}Graph;Graph*Qu[MAX];//隊(duì)列Graph*St[MAX];//堆棧搜索過程:(搜索采用廣度搜索方式,利用待處理隊(duì)列輔助,逐層搜索(跳過劣質(zhì)節(jié)點(diǎn)))a、把初始數(shù)碼組壓入隊(duì)列;b、從隊(duì)列中取出一個數(shù)碼組節(jié)點(diǎn);c、擴(kuò)展子節(jié)點(diǎn),即從上下左右四個方向移動空格,生成相應(yīng)子節(jié)點(diǎn):d、對子節(jié)點(diǎn)數(shù)碼組作評估,是否為優(yōu)越節(jié)點(diǎn),即其評估值是否小于等于其父節(jié)點(diǎn)加一,是則將其壓入隊(duì),否則拋棄。e、判斷壓入隊(duì)的子節(jié)點(diǎn)數(shù)碼組(優(yōu)越點(diǎn))的評估值,為零則表示搜索完成,退出搜索;f、跳到步驟2;四、程序框圖起始把s放入open表起始把s放入open表失敗成功是否open表為空表?是把open表中的第一個節(jié)點(diǎn)n移入close表否擴(kuò)展節(jié)點(diǎn)n,把其后裔放入open表的前頭是否有后繼節(jié)點(diǎn)為目標(biāo)節(jié)點(diǎn)?否是五、實(shí)驗(yàn)結(jié)果及分析采用深度優(yōu)先搜索方式并簡化搜索六、結(jié)論813813204765(2)103824765(3)813024(0)765813024765(4)123804765(5)013824765(1)Open表close表0120234012456013目標(biāo)完成七、源程序及注釋#include

<stdio.h>

}//設(shè)計(jì)了搜索深度范圍,防止隊(duì)列內(nèi)存越界#include

<stdlib.h>

6、運(yùn)行結(jié)果#include

<time.h>

#define

N

3

//數(shù)碼組大小

#define

Max_Step

50

//最大搜索深度

#define

MAX

50

typedef

struct

node//八數(shù)碼結(jié)構(gòu)體

{

int

form[N][N];//數(shù)碼組

int

evalue;//評估值

int

udirect;//所屏蔽方向,防止往回推到上已狀態(tài),1上2下3左4右

struct

node

*parent;//父節(jié)點(diǎn)

/////////打印數(shù)碼組

void

Print(Graph

*The_graph)

{

int

i,j;

if(The_graph==NULL)

printf("圖為空\n");

else

{

printf("---------------------\n");

for(i=0;i<N;i++)

{

printf("|\t");

for(j=0;j<N;j++)

{

printf("%d\t",The_graph->form[i][j]);//遍歷打印

}

printf("\t|\n");

}

printf("|\t\t\t差距:%d\t|\n",The_graph->evalue);//差距顯示

printf("---------------------\n");

}

}

/////////評價(jià)函數(shù)

int

Evaluate(Graph

*The_graph,Graph

*End_graph)

{

int

valute=0;//差距數(shù)

int

i,j;

for(i=0;i<N;i++)

{

for(j=0;j<N;j++)

{

if(The_graph->form[i][j]!=End_graph->form[i][j])

{

valute++;

}

}

}

The_graph->evalue=valute;

return

valute;

}

/////////移動數(shù)碼組

Graph

*Move(Graph

*The_graph,int

Direct,int

CreatNew_graph)

{

Graph

*New_graph;//

int

HasGetBlank=0;//是否獲取空格位置

int

AbleMove=1;//是否可移動

int

i,j,t_i,t_j,x,y;

for(i=0;i<N;i++)//獲取空格坐標(biāo)i,j

{

for(j=0;j<N;j++)

{

if(The_graph->form[i][j]==0)

{

HasGetBlank=1;

break;

}

}

if(HasGetBlank==1)

break;

}

//printf("空格位置:%d,%d\n",i,j);

t_i=i;

t_j=j;

//移動空格

switch(Direct)

{

case

1://上

t_i--;

if(t_i<0)

AbleMove=0;

break;

case

2://下

t_i++;

if(t_i>=N)

AbleMove=0;

break;

case

3://左

t_j--;

if(t_j<0)

AbleMove=0;

break;

case

4://右

t_j++;

if(t_j>=N)

AbleMove=0;

break;

}

if(AbleMove==0)//不能移動則返回原節(jié)點(diǎn)

{

return

The_graph;

}

if(CreatNew_graph==1)

{

New_graph=(Graph

*)malloc(sizeof(Graph));//生成節(jié)點(diǎn)

for(x=0;x<N;x++)

{

for(y=0;y<N;y++)

{

New_graph->form[x][y]=The_graph->form[x][y];//復(fù)制數(shù)碼組

}

}

}

else

{

New_graph=The_graph;

}

//移動后

New_graph->form[i][j]=New_graph->form[t_i][t_j];

New_graph->form[t_i][t_j]=0;

//printf("移動產(chǎn)生的新圖:\n");

//Print(New_graph);

return

New_graph;

}

/////////搜索函數(shù)

Graph

*Search(Graph

*Begin,Graph

*End)

{

Graph

*g1,*g2,*g;

int

Step=0;//深度

int

Direct=0;//方向

int

i;

int

front,rear;

front=rear=-1;//隊(duì)列初始化

g=NULL;

rear++;//入隊(duì)

Qu[rear]=Begin;

while(rear!=front)//隊(duì)列不空

{

front++;//出隊(duì)

g1=Qu[front];

//printf("開始第%d個圖:\n",front);

//Print(g1);

for(i=1;i<=4;i++)//分別從四個方向推導(dǎo)出新子節(jié)點(diǎn)

{

Direct=i;

if(Direct==g1->udirect)//跳過屏蔽方向

continue;

g2=Move(g1,

Direct,

1);//移動數(shù)碼組

if(g2!=g1)//數(shù)碼組是否可以移動

{

//可以移動

Evaluate(g2,

End);//評價(jià)新的節(jié)點(diǎn)

//printf("開始產(chǎn)生的第%d個圖:\n",i);

//Print(g2);

if(g2->evalue<=g1->evalue+1)

{

//是優(yōu)越節(jié)點(diǎn)

g2->parent=g1;

//移動空格

switch(Direct)//設(shè)置屏蔽方向,防止往回推

{

case

1://上

g2->udirect=2;

break;

case

2://下

g2->udirect=1;

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論