人工智能技術(shù)及應(yīng)用_第1頁(yè)
人工智能技術(shù)及應(yīng)用_第2頁(yè)
人工智能技術(shù)及應(yīng)用_第3頁(yè)
人工智能技術(shù)及應(yīng)用_第4頁(yè)
人工智能技術(shù)及應(yīng)用_第5頁(yè)
已閱讀5頁(yè),還剩123頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

武昌首義學(xué)院第一期科研沙龍——人工智能技術(shù)及應(yīng)用中心發(fā)言人:肖書浩“建設(shè)現(xiàn)代化經(jīng)濟(jì)體系,必須把發(fā)展經(jīng)濟(jì)的著力點(diǎn)放在實(shí)體經(jīng)濟(jì)上,把提高供給體系質(zhì)量作為主攻方向,顯著增強(qiáng)我國(guó)經(jīng)濟(jì)質(zhì)量?jī)?yōu)勢(shì)。加快建設(shè)制造強(qiáng)國(guó),加快發(fā)展先進(jìn)制造業(yè),推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實(shí)體經(jīng)濟(jì)深度融合,在中高端消費(fèi)、創(chuàng)新引領(lǐng)、綠色低碳、共享經(jīng)濟(jì)、現(xiàn)代供應(yīng)鏈、人力資本服務(wù)等領(lǐng)域培育新增長(zhǎng)點(diǎn)、形成新動(dòng)能。支持傳統(tǒng)產(chǎn)業(yè)優(yōu)化升級(jí),加快發(fā)展現(xiàn)代服務(wù)業(yè),瞄準(zhǔn)國(guó)際標(biāo)準(zhǔn)提高水平。促進(jìn)我國(guó)產(chǎn)業(yè)邁向全球價(jià)值鏈中高端,培育若干世界級(jí)先進(jìn)制造業(yè)集群?!秉S廣斌Guang-BinHuang新加坡南洋理工大學(xué)電子電氣工程學(xué)院教授黃廣斌.普適智能和普適學(xué)習(xí):智能革命和智能經(jīng)濟(jì)的引擎.全球架構(gòu)師峰會(huì)2017(深圳).原百度首席科學(xué)家吳恩達(dá):人工智能將和電力一樣具有顛覆性!“就像100年前電的發(fā)明改變了所有行業(yè)、農(nóng)業(yè)、制造業(yè)、鐵路、通信等等,我覺得人工智能就像100年前的電力,也能為幾乎所有行業(yè)帶來巨大改變?!逼杖A永道最近發(fā)布了一份名為“探索AI革命”的全球AI報(bào)告,強(qiáng)調(diào)人工智能如何增強(qiáng)企業(yè)的能力,其價(jià)值潛力何等巨大,甚至比自動(dòng)化的價(jià)值潛力更大。

報(bào)告認(rèn)為,到2030年,AI將為全球經(jīng)濟(jì)貢獻(xiàn)高達(dá)15.7萬億美元,比中國(guó)和印度目前經(jīng)濟(jì)產(chǎn)值的總和還多。AI帶來最大經(jīng)濟(jì)收益的國(guó)家將是中國(guó)(2030年GDP增長(zhǎng)26%)和北美(14.5%),相當(dāng)于10.7萬億美元,占全球經(jīng)濟(jì)影響的近70%。Gartner公布2018年十大戰(zhàn)略科技發(fā)展趨勢(shì),AI將成主戰(zhàn)場(chǎng)1、人工智能基本概念2、人工智能的前世今生3、人工智能技術(shù)發(fā)展路線圖3.1機(jī)器學(xué)習(xí)3.2深度學(xué)習(xí)3.3強(qiáng)化學(xué)習(xí)3.4元學(xué)習(xí)4、人工智能技術(shù)應(yīng)用4.1AI在醫(yī)療領(lǐng)域的應(yīng)用4.2AI在自動(dòng)駕駛領(lǐng)域的應(yīng)用4.3文本分析技術(shù)在社會(huì)學(xué)領(lǐng)域的應(yīng)用5、本團(tuán)隊(duì)科研項(xiàng)目介紹5.1機(jī)器視覺應(yīng)用5.2機(jī)器學(xué)習(xí)應(yīng)用5.3VR/AR應(yīng)用6、人工智能技術(shù)學(xué)習(xí)資源1、人工智能基本概念A(yù)I:ArtificialIntelligence人工智能ML:MachineLearning機(jī)器學(xué)習(xí)DL:DeepLearning深度學(xué)習(xí)BigData大數(shù)據(jù)ParallelComputing并行計(jì)算人工智能VS認(rèn)知計(jì)算IBM:Watson

“生物智能”指的是生物體所具有的智能“人工智能”仍脫胎于人類的智能行為,是模仿人類的思考方式“機(jī)器智能”直接以機(jī)器的“理解方式”為出發(fā)點(diǎn),努力追求機(jī)器的“獨(dú)立智能”“強(qiáng)人工智能”指真正能推理(Reasoning)和解決問題(Problem_solving)的智能機(jī)器,并且,這樣的機(jī)器能將被認(rèn)為是有知覺的,有自我意識(shí)的

“弱人工智能”指看起來像是智能的,但是并不真正擁有智能,也不會(huì)有自主意識(shí)

“感知人工智能”具備感知能力(視覺,聽覺等)

“認(rèn)知人工智能”具備認(rèn)知能力的智能“通用人工智能”(ArtificialGeneralIntelligence,AGI),是指在不特別編碼知識(shí)與應(yīng)用區(qū)域的情況下,應(yīng)對(duì)多種甚至泛化問題的人工智能技術(shù)。這個(gè)技術(shù)雖然冷門并遙遠(yuǎn),但其實(shí)也有不少學(xué)術(shù)機(jī)構(gòu)與企業(yè)在做,一般被認(rèn)為是人工智能技術(shù)的未來發(fā)展方向。人工智能,機(jī)器智能,生物智能弱人工智能,強(qiáng)人工智能感知人工智能,認(rèn)知人工智能,通用人工智能概念只是概念,要真正了解人工智能還是要看算法!2、人工智能的前世今生神經(jīng)網(wǎng)絡(luò)的誕生1943年,美國(guó)的心理學(xué)家W.S.McCulloch和數(shù)學(xué)家W.A.Pitts在論文《神經(jīng)活動(dòng)中所蘊(yùn)含思想的邏輯活動(dòng)》中,提出了一個(gè)非常簡(jiǎn)單的神經(jīng)元模型,即M-P模型。該模型將神經(jīng)元當(dāng)作一個(gè)功能邏輯器件來對(duì)待,從而開創(chuàng)了神經(jīng)網(wǎng)絡(luò)模型的理論研究?!叭斯ぶ悄堋庇辛嗣?956年夏季,以麥卡賽(達(dá)特茅斯學(xué)院)、明斯基(哈佛大學(xué))、羅切斯特(IBM)和申農(nóng)(貝爾電話實(shí)驗(yàn)室)等為首的一批有遠(yuǎn)見卓識(shí)的年輕科學(xué)家在一起聚會(huì),共同研究和探討用機(jī)器模擬智能的一系列有關(guān)問題,并首次提出了“人工智能”這一術(shù)語,它標(biāo)志著“人工智能(ArtificialIntelligence,AI)”這門新興學(xué)科的正式誕生。“BACKPROP”的到來反向傳播(backpropagation)有時(shí)縮寫為“backprop”,反向傳播是機(jī)器學(xué)習(xí)歷史上最重要的一種算法。1969年,它的理念首次被提出,盡管它在上世紀(jì)80年代中期才成為機(jī)器學(xué)習(xí)的主流。反向傳播的作用是在產(chǎn)生的輸出與所期望的輸出不匹配時(shí)允許神經(jīng)網(wǎng)絡(luò)調(diào)整其隱藏層。簡(jiǎn)而言之,這意味著人類可以通過在網(wǎng)絡(luò)犯錯(cuò)時(shí)進(jìn)行糾正來訓(xùn)練他們的網(wǎng)絡(luò)。當(dāng)這完成后,backprop就會(huì)修改神經(jīng)網(wǎng)絡(luò)中的不同連接,以確保它在下次遇到同樣的問題時(shí)得出正確的答案。與計(jì)算機(jī)交談你有沒有想過,亞馬遜的Alexa、谷歌的GoogleAssistant、蘋果的Siri,等等,它們都是什么?早在20世紀(jì)60年代中期,麻省理工學(xué)院人工智能實(shí)驗(yàn)室的一位教授發(fā)明了一個(gè)名叫

ELIZA的計(jì)算機(jī)心理治療師,它可以通過文本的方式與用戶進(jìn)行看似智能的對(duì)話。自動(dòng)駕駛汽車來了世界上第一輛自動(dòng)駕駛汽車是谷歌開發(fā)的嗎?不對(duì)。早在1986年,德國(guó)聯(lián)邦國(guó)防軍大學(xué)的研究人員就成功地在空曠的街道上駕駛了一輛自動(dòng)駕駛的奔馳車,配有攝像機(jī)和智能傳感器。幾年后,卡內(nèi)基梅隆大學(xué)的一名研究人員DeanPomerleau開發(fā)了一輛自動(dòng)駕駛的龐蒂亞克運(yùn)輸小貨車,從賓夕法尼亞州匹茲堡到加州圣地亞哥行駛了2797英里。用今天的標(biāo)準(zhǔn)來看,它的技術(shù)相當(dāng)原始,但它證明了自動(dòng)駕駛可以實(shí)現(xiàn)。人腦與電腦的決戰(zhàn)1997年是人工智能的一年,因?yàn)镮BM的“深藍(lán)”超級(jí)計(jì)算機(jī)在國(guó)際象棋比賽中擊敗了人類象棋世界冠軍GarryKasparov。這是一場(chǎng)人類大腦和機(jī)器大腦的決戰(zhàn)。盡管無疑“深藍(lán)”處理信息的速度比Kasparov更快,但真正的問題是,它是否會(huì)思考策略?事實(shí)證明它是可以的!這一結(jié)果盡管可能并沒有證明AI除了在有明確定義的規(guī)則的問題上表現(xiàn)出色之外,在其他問題是否也表現(xiàn)出色,但這仍是人工智能領(lǐng)域向前邁進(jìn)的一大步。AI打敗圍棋世界冠軍2016年3月,谷歌DeepMind的AlphaGo在四場(chǎng)比賽中擊敗了圍棋世界冠軍李世乭(LeeSedol)。全世界有6000萬觀眾觀看了這場(chǎng)比賽。這是一個(gè)具有里程碑意義的事件,因?yàn)閲逯锌赡艿穆渥游恢脭?shù)目比宇宙的原子總數(shù)還要多。這是人工智能迄今為止最驚人的成就。視覺大名鼎鼎的ImageNet,2017年是最后一屆。AI最新進(jìn)展(在一些數(shù)據(jù)集上的表現(xiàn))CIFAR-10數(shù)據(jù)庫(kù)包含了6萬張32X32的彩色圖像,有10個(gè)類型,每個(gè)類型有6000張圖片。共有5萬張訓(xùn)練圖像和1萬張測(cè)試圖像視覺視覺問答數(shù)據(jù)集COCO視覺抽象策略游戲(計(jì)算機(jī)象棋程序)語音識(shí)別翻譯對(duì)話:聊天機(jī)器人與智能體閱讀理解目前大部分人工智能還只是停留在“感知”層面,屬于“感知人工智能”,正在向“認(rèn)知人工智能”發(fā)展

其算法只能用于特定領(lǐng)域,不具備通用性。還不是“通用人工智能”

還只是“弱人工智能”,遠(yuǎn)未達(dá)到“強(qiáng)人工智能”的要求3、人工智能技術(shù)發(fā)展路線圖MachineLearning(ML)DeepLearning(DL)ReinforcementLearning(RL)MetaLearningArtificialGeneralIntelligence(AGI)ArtificialIntelligence(AI)AlphaGo圖像分類簡(jiǎn)單分類LearningtoLearn需要特征設(shè)計(jì)需要標(biāo)記數(shù)據(jù)需要明確回報(bào)典型應(yīng)用必備條件3.1機(jī)器學(xué)習(xí)(MachineLearning)一個(gè)機(jī)器學(xué)習(xí)的實(shí)驗(yàn)Talkischeap,Showmethecode.-LinusTorvalds//svm.cpp:定義控制臺(tái)應(yīng)用程序的入口點(diǎn)。//#include"stdafx.h"#include"opencv2/opencv.hpp"usingnamespacecv;usingnamespacecv::ml;usingnamespacestd;Matimg,image;MattargetData,backData;boolflag=true;stringwdname="image";voidon_mouse(intevent,intx,inty,intflags,void*ustc);//鼠標(biāo)取樣本點(diǎn)voidgetTrainData(Mat&train_data,Mat&train_label);//生成訓(xùn)練數(shù)據(jù)voidsvm();//svm分類intmain(intargc,char**argv){

stringpath="citrus_fruits_04.png";//"peppers.png"

//stringpath="image1.bmp";

img=imread(path);

img.copyTo(image);

if(img.empty())

{

cout<<"Imageloaderror";

return0;

}

namedWindow(wdname);

setMouseCallback(wdname,on_mouse,0);

for(;;)

{

imshow("image",img);

intc=waitKey(0);

if((c&255)==27)

{

cout<<"Exiting...\n";

break;

}

if((char)c=='c')

{

flag=false;

}

if((char)c=='q')

{

destroyAllWindows();

break;

}

}

svm();

return0;}voidon_mouse(intevent,intx,inty,intflags,void*ustc)//鼠標(biāo)在圖像上取樣本點(diǎn),按q鍵退出{

if(event==CV_EVENT_LBUTTONDOWN)

{

Pointpt=Point(x,y);

Vec3bpoint=img.at<Vec3b>(y,x);

Mattmp=(Mat_<float>(1,3)<<point[0],point[1],point[2]);

if(flag)

{

targetData.push_back(tmp);//加入正樣本矩陣

circle(img,pt,2,Scalar(0,255,255),-1,8);/

}

else

{

backData.push_back(tmp);//加入負(fù)樣本矩陣

circle(img,pt,2,Scalar(255,0,0),-1,8);

}

imshow(wdname,img);

}}voidgetTrainData(Mat&train_data,Mat&train_label)

{

intm=targetData.rows;

intn=backData.rows;

cout<<"正樣本數(shù)::"<<m<<endl;

cout<<"負(fù)樣本數(shù):"<<n<<endl;

vconcat(targetData,backData,train_data);//合并所有的樣本點(diǎn),作為訓(xùn)練數(shù)據(jù)

train_label=Mat(m+n,1,CV_32S,Scalar::all(1));//初始化標(biāo)注

for(inti=m;i<m+n;i++)

train_label.at<int>(i,0)=-1;}voidsvm()

{

Mattrain_data,train_label;

getTrainData(train_data,train_label);//獲取鼠標(biāo)選擇的樣本訓(xùn)練數(shù)據(jù)

Ptr<SVM>svm=SVM::create();

svm->setType(SVM::C_SVC);

svm->setKernel(SVM::LINEAR);

Ptr<TrainData>tData=TrainData::create(train_data,ROW_SAMPLE,train_label);

svm->train(tData);

Vec3bcolor(0,0,0);

//ShowthedecisionregionsgivenbytheSVM

for(inti=0;i<image.rows;++i)

for(intj=0;j<image.cols;++j)

{

Vec3bpoint=img.at<Vec3b>(i,j);//取出該坐標(biāo)處的像素值

MatsampleMat=(Mat_<float>(1,3)<<point[0],point[1],point[2]);

floatresponse=svm->predict(sampleMat);/

if((int)response!=1)

image.at<Vec3b>(i,j)=color;//將背景設(shè)置為黑色

}

imshow("SVMSimpleExample",image);

waitKey(0);}機(jī)器學(xué)習(xí)方法之一SVM原理傳統(tǒng)專家系統(tǒng)到機(jī)器學(xué)習(xí)的轉(zhuǎn)變:基于規(guī)則到基于數(shù)據(jù)的轉(zhuǎn)變!Opprentice:基于機(jī)器學(xué)習(xí)的實(shí)用自動(dòng)異常檢測(cè)清華大學(xué)裴丹等一個(gè)工程實(shí)例:監(jiān)督學(xué)習(xí)2015.8PV:PageView#SR:slowresponsesSRT:the80thpercentileofsearchresponsetimeKPI(關(guān)鍵指標(biāo))異常04095039964x6464x64Data:已知?預(yù)測(cè)Task:C:\DevelopProjects\MyPythonCode\plot_multioutput_face_completion.py64x6464x64…………同一個(gè)人不同角度的照片監(jiān)督學(xué)習(xí)(SupervisedLearning)0409502993003992047,2048traintest北京故宮北京故宮,全名北京故宮博物院,舊稱為紫禁城,位于北京中軸線的中心,是中國(guó)明、清兩代24位皇帝的皇家宮殿,是中國(guó)古代漢族宮廷建筑之精華,無與倫比的建筑杰作,也是世界上現(xiàn)存規(guī)模最大、保存最為完整的木質(zhì)結(jié)構(gòu)古建筑之一。它有大小宮殿七十多座,房屋九千余間,以太和、中和、保和三大殿為中心。北京故宮由明成祖朱棣永樂四年(公元1406年)開始建設(shè),以南京故宮為藍(lán)本營(yíng)建,到明代永樂十八年(公元1420年)建成,占地面積約為72萬平方米,建筑面積約為15萬平方米,它是一座長(zhǎng)方形城池,東西寬七百五十三米,南北長(zhǎng)九百六十一米。周圍筑有十米多高的城墻,并有一條寬五十二米的護(hù)城河環(huán)繞,構(gòu)成了“城中之城”。宮殿建筑均是木結(jié)構(gòu)、黃琉璃瓦頂、青白石底座。故宮被譽(yù)為世界五大宮之首(北京故宮、法國(guó)凡爾賽宮、英國(guó)白金漢宮、美國(guó)白宮和俄羅斯克里姆林宮),已被列為世界文化遺產(chǎn)、全國(guó)重點(diǎn)文物保護(hù)單位、國(guó)家AAAAA級(jí)旅游景區(qū)。2014年11月23日,北京故宮吉祥物首度對(duì)外亮相,該吉祥物源自中國(guó)傳統(tǒng)的吉祥龍鳳形象,分別為龍“壯壯”和鳳“美美”。2015年6月13日,故宮博物院試行限流8萬人次和實(shí)名制售票。2015年10月11日,故宮博物院正式對(duì)觀眾開放慈寧宮區(qū)域、午門雁翅樓區(qū)域、東華門等新的區(qū)域,使故宮的開放面積由目前的52%增加至65%,帶給觀眾更加完整豐富的參觀體驗(yàn)。[1]

001~4005A景區(qū)401~600動(dòng)物鸚鵡鸚鵡是鸚形目(學(xué)名:Psittaciformes)眾多羽毛艷麗、愛叫的鳥。典型的攀禽,對(duì)趾型足,兩趾向前兩趾向后,適合抓握,鳥喙強(qiáng)勁有力,可以食用硬殼果。羽色鮮艷,常被作為寵物飼養(yǎng)。它們以其美麗的羽毛,善學(xué)人語技能的特點(diǎn),更為人們所欣賞和鐘愛。分布在溫、亞熱、熱帶的廣大地域。種類非常繁多,有2科、82屬、358種,是鳥綱最大的科之一。主要分布于熱帶森林中。中文文本聚類:C:\DevelopProjects\pythonkmeans非監(jiān)督學(xué)習(xí):中文文本聚類(UnsupervisedLeaning)801~1000國(guó)家阿富汗阿富汗斯坦伊斯蘭共和國(guó)(普什圖語:??????????????????????),簡(jiǎn)稱阿富汗斯坦,是亞洲中部的內(nèi)陸國(guó)家,實(shí)行總統(tǒng)共和制。[1]阿富汗位于西亞、南亞和中亞交匯處,北接土庫(kù)曼斯坦、烏茲別克斯坦和塔吉克斯坦,東北突出的狹長(zhǎng)地帶與中國(guó)接壤,東和東南與巴基斯坦毗鄰,西與伊朗交界。[2]阿富汗國(guó)土的五分之三交通不便。屬大陸性氣候,全年干燥少雨。[2]它與大部分毗鄰的國(guó)家有著民族、宗教、語言以及地理上一定程度的關(guān)聯(lián)。601~800人物董璇董璇,中國(guó)內(nèi)地女演員,出生于黑龍江省牡丹江市,畢業(yè)于北京電影學(xué)院表演系本科2000級(jí)。2003年主演電視劇《雪花女神龍》、《貍貓換太子》,兩部電視劇相繼熱播,位列同時(shí)段收視冠軍[1]。2004年主演張?jiān)獙?dǎo)演電視劇處女作《閃》[2]。2005年被香港導(dǎo)演王晶選中,出演《八大豪俠》中的玉女神醫(yī)“扁素問”。在“2007中國(guó)風(fēng)尚榜年”頒獎(jiǎng)禮上,董璇獲得“年度風(fēng)尚新人”大獎(jiǎng)。2008年憑借出演顧長(zhǎng)衛(wèi)導(dǎo)演電影《立春》里的小張老師,獲得第十八屆金雞獎(jiǎng)最佳女配提名。2009年參演電影《建國(guó)大業(yè)》《建黨偉業(yè)》。2011年出演電影版《奮斗》,片中飾演女一號(hào)夏琳一角[3]。2013年出演于正改編版《神雕俠侶》,飾演角色“林朝英”[4];參演電視劇《慢慢地陪著你走》,劇中搭檔吳鎮(zhèn)宇并飾演女主角[5]。文檔0文檔999關(guān)鍵詞0關(guān)鍵詞17899…51005110…5430544054515460…5660567156805690570057115720…586058715880……6042605260616072…62226232624162526262…63226332634163526362…64926502651165226532…70427052706170727082……7232724172527262…733273417352…744274517462…750275117522…7732774177517762…7822783178427853786278727882789279017912…

001~4005A景區(qū)401~600動(dòng)物601~800人物801~1000國(guó)家…860386118623…941394219433……401~600動(dòng)物801~1000國(guó)家601~800人物

001~4005A景區(qū)AnalyzeQualityofLifeinU.S.CitiesUsingPCA(MatlabHelp)Data:Thedataincludesratingsfor9differentindicatorsofthequalityoflifein329U.S.cities.

Theseareclimate,housing,health,crime,transportation,education,arts,recreation,andeconomics.Foreachcategory,ahigherratingisbetter.Forexample,ahigherratingforcrimemeansalowercrimerate.1329132919非監(jiān)督學(xué)習(xí)(UnsupervisedLeaning):PCALabelPropagation1)Smoothness平滑假設(shè):相似的數(shù)據(jù)具有相同的label。2)Cluster聚類假設(shè):處于同一個(gè)聚類下的數(shù)據(jù)具有相同label。3)Manifold流形假設(shè):處于同一流形結(jié)構(gòu)下的數(shù)據(jù)具有相同label。半監(jiān)督學(xué)習(xí)(Semi-supervisedLeaning)3.2深度學(xué)習(xí)(DeepLearning)SuccessivemodellayerslearndeeperintermediaterepresentationsConvolutionalNeuralNetworks(CNN)CNN卷積運(yùn)算(Convolution)⊙=ReLu(RectifiedLinearUnits)激活函數(shù)池化運(yùn)算(MAXPOOLING)CNNCNN網(wǎng)絡(luò)訓(xùn)練“深度學(xué)習(xí)”缺乏嚴(yán)密的數(shù)學(xué)理論“信息瓶頸”理論揭示深度學(xué)習(xí)本質(zhì)希伯來大學(xué)計(jì)算機(jī)科學(xué)家和神經(jīng)學(xué)家NaftaliTishby等人提出了一種叫做“信息瓶頸”的理論深度學(xué)習(xí)先驅(qū)GeoffreyHinton在看完Tishby的柏林演講寫道:“我還得聽上10,000次才能真正理解它,但如今聽一個(gè)演講,里面有真正原創(chuàng)的想法,而且可能解決重大的問題,真是非常罕見了?!盌eepLearning:Theory,Algorithms,andApplications.Berlin,June2017Tishby認(rèn)為,深度神經(jīng)網(wǎng)絡(luò)根據(jù)一種被稱為“信息瓶頸”(informationbottleneck)的過程3.3強(qiáng)化學(xué)習(xí)(ReinforcementLearning)RulesofthegameareunknownLearndirectlyfrominteractivegame-playPickactionsonjoystick,seepixelsandscoresMazeExampleRewards:-1pertime-stepActions:N,E,S,WStates:Agent'slocation訓(xùn)練結(jié)果:policyπ(s)foreachstatesArrowsrepresentpolicyπ(s)foreachstatesManyFacesofReinforcementLearning2017.7Nature550,354–359(19October2017)DeepMind最新的Nature論文——《不使用人類知識(shí)掌握圍棋》。迄今最強(qiáng)大的圍棋程序:不使用人類的知識(shí)摘要人工智能長(zhǎng)期以來的一個(gè)目標(biāo)是創(chuàng)造一個(gè)能夠在具有挑戰(zhàn)性的領(lǐng)域,以超越人類的精通程度學(xué)習(xí)的算法,“tabularasa”(譯注:一種認(rèn)知論觀念,認(rèn)為指?jìng)€(gè)體在沒有先天精神內(nèi)容的情況下誕生,所有的知識(shí)都來自于后天的經(jīng)驗(yàn)或感知)。此前,AlphaGo成為首個(gè)在圍棋中戰(zhàn)勝人類世界冠軍的系統(tǒng)。AlphaGo的那些神經(jīng)網(wǎng)絡(luò)使用人類專家下棋的數(shù)據(jù)進(jìn)行監(jiān)督學(xué)習(xí)訓(xùn)練,同時(shí)也通過自我對(duì)弈進(jìn)行強(qiáng)化學(xué)習(xí)。在這里,我們介紹一種僅基于強(qiáng)化學(xué)習(xí)的算法,不使用人類的數(shù)據(jù)、指導(dǎo)或規(guī)則以外的領(lǐng)域知識(shí)。AlphaGo成了自己的老師。我們訓(xùn)練了一個(gè)神經(jīng)網(wǎng)絡(luò)來預(yù)測(cè)AlphaGo自己的落子選擇和AlphaGo自我對(duì)弈的贏家。這種神經(jīng)網(wǎng)絡(luò)提高了樹搜索的強(qiáng)度,使落子質(zhì)量更高,自我對(duì)弈迭代更強(qiáng)。從“tabularasa”開始,我們的新系統(tǒng)AlphaGoZero實(shí)現(xiàn)了超人的表現(xiàn),以100:0的成績(jī)擊敗了此前發(fā)表的AlphaGo。全新的強(qiáng)化學(xué)習(xí):自己成為自己的老師AlphaGoZero

得到這樣的結(jié)果,是利用了一種新的強(qiáng)化學(xué)習(xí)方式,在這個(gè)過程中,AlphaGoZero成為自己的老師。這個(gè)系統(tǒng)從一個(gè)對(duì)圍棋游戲完全沒有任何知識(shí)的神經(jīng)網(wǎng)絡(luò)開始。這個(gè)更新后的神經(jīng)網(wǎng)絡(luò)又將與搜索算法重新組合,進(jìn)而創(chuàng)建一個(gè)新的、更強(qiáng)大的AlphaGoZero版本,再次重復(fù)這個(gè)過程。在每一次迭代中,系統(tǒng)的性能都得到一點(diǎn)兒的提高,自我對(duì)弈的質(zhì)量也在提高,這就使得神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)越來越準(zhǔn)確,得到更加強(qiáng)大的AlphaGoZero版本。這種技術(shù)比上一版本的AlphaGo更強(qiáng)大,因?yàn)樗辉偈芟抻谌祟愔R(shí)的局限。相反,它可以從一張白紙的狀態(tài)開始,從世界上最強(qiáng)大的圍棋玩家——AlphaGo自身——學(xué)習(xí)。3.4元學(xué)習(xí)(MetaLearning)MetaLearning=LearningtoLearnMetaLearning是實(shí)現(xiàn)通用人工智能的關(guān)鍵MetaLearning的現(xiàn)狀:百花齊放基于記憶Memory的方法基本思路:既然要通過以往的經(jīng)驗(yàn)來學(xué)習(xí),那么是不是可以通過在神經(jīng)網(wǎng)絡(luò)上添加Memory來實(shí)現(xiàn)呢?2016.5利用Attention注意力機(jī)制的方法基本思路:人的注意力是可以利用以往的經(jīng)驗(yàn)來實(shí)現(xiàn)提升的,比如我們看一個(gè)性感圖片,我們會(huì)很自然的把注意力集中在關(guān)鍵位置。那么,能不能利用以往的任務(wù)來訓(xùn)練一個(gè)Attention模型,從而面對(duì)新的任務(wù),能夠直接關(guān)注最重要的部分。2014.6基于預(yù)測(cè)梯度的方法借鑒LSTM的方法面向RL的MetaLearning方法通過訓(xùn)練一個(gè)好的basemodel的方法,并且同時(shí)應(yīng)用到監(jiān)督學(xué)習(xí)和增強(qiáng)學(xué)習(xí)利用WaveNet的方法預(yù)測(cè)Loss的方法……從上面的分析可以看出,MetaLearning方興未艾,各種神奇的idea層出不窮,但是真正的殺手級(jí)算法還未出現(xiàn),非常期待未來的發(fā)展!4、人工智能技術(shù)應(yīng)用100家AI初創(chuàng)公司Gartner2017技術(shù)成熟度曲線(TheHypeCycle)AI影響評(píng)分從1-5(1是最低的影響,5最高)普華永道最近發(fā)布了一份名為“探索AI革命”的全球AI報(bào)告。發(fā)布了“AI影響指數(shù)”,對(duì)最容易受到AI影響的行業(yè)進(jìn)行了排名,其中醫(yī)療和汽車并列第一位。4.1AI在醫(yī)療領(lǐng)域的應(yīng)用《美國(guó)醫(yī)學(xué)會(huì)雜志》,谷歌:糖尿病視網(wǎng)膜病變的定級(jí)《DevelopmentandValidationofaDeepLearningAlgorithmforDetectionofDiabeticRetinopathyinRetinalFundusPhotographs》,發(fā)表于2016年12月的美國(guó)醫(yī)學(xué)會(huì)期刊JAMA上。作者使用12.8萬張的眼底照片訓(xùn)練了模型,主要的測(cè)試數(shù)據(jù)是來自4997名病人的9963張眼底照片集EyePACS-1。敏感度為90.3%時(shí)特異度為98.1%,敏感度為97.5%時(shí)特異度為93.4%。2016.12《自然》,斯坦福:兩種皮膚病變的診斷《Dermatologist-levelclassificationofskincancerwithdeepneuralnetworks》,發(fā)表于2017年1月的Nature期刊。作者使用12.9萬張含有兩千多種病灶的臨床皮膚照片訓(xùn)練出模型,在分類上皮癌變和黑色素瘤兩種目標(biāo)的任務(wù)上與21位皮膚病專家的表現(xiàn)一致。與病理結(jié)果比較,作者分別測(cè)試了200-1000+張照片,獲得的敏感度與特異度繪制的ROC曲線的AUC均大于0.94(AUC是曲線下面積,敏感度和特異度均逼近100%時(shí),AUC逼近1)。2017.1阿里巴巴:耐心埋下棋子伺機(jī)而動(dòng)ET醫(yī)療大腦診斷結(jié)果阿里在醫(yī)療方面的布局為建立醫(yī)療子公司阿里健康,投資醫(yī)療影像大數(shù)據(jù)平臺(tái)萬里云以及推出大數(shù)據(jù)健康管理平臺(tái)、“ET醫(yī)療大腦”和“DoctorYou”。雖然都為影像診斷平臺(tái),但是“ET醫(yī)療大腦”是由阿里云基于其平臺(tái)數(shù)據(jù)而研發(fā)的?!癉octorYou”是以其子公司阿里健康為載體,基于萬里云醫(yī)學(xué)影像大數(shù)據(jù)云平臺(tái)而研發(fā)。DoctorYou遠(yuǎn)程影像診斷CT肺結(jié)節(jié)功能騰訊:潛藏已久

順勢(shì)而上騰訊首款A(yù)I醫(yī)療產(chǎn)品“覓影”主要應(yīng)用于早期食管癌的篩查,合作醫(yī)院的醫(yī)療團(tuán)隊(duì)采取雙盲隨機(jī)方法對(duì)數(shù)十萬張食管內(nèi)鏡檢查圖片進(jìn)行分類、評(píng)分標(biāo)注后交給騰訊覓影進(jìn)行處理。該軟件通過深度學(xué)習(xí)和圖像處理技術(shù)從內(nèi)鏡圖片中篩選出帶有可疑食管癌信息的圖片,并給醫(yī)生反饋出診斷結(jié)果。食管癌的病變判別模型百度:遭遇重挫進(jìn)入瓶頸期百度大腦于2016年推出,它的設(shè)計(jì)理念是利用計(jì)算機(jī)技術(shù)來模擬人腦。據(jù)百度介紹,百度大腦能達(dá)到2-3歲孩子的智力水平,由神經(jīng)網(wǎng)絡(luò)、數(shù)十萬服務(wù)器和大數(shù)據(jù)三部分組成,具備語音識(shí)別、圖像處理和自然語言處理能能力。IBM:反其道而行最早實(shí)現(xiàn)商業(yè)模式IBM這個(gè)“老大哥”不僅最早入局醫(yī)療行業(yè),其布局方式也與阿里、谷歌等公司完全相反:先推出醫(yī)療產(chǎn)品,然后開始頻繁的與其他醫(yī)療機(jī)構(gòu)合作。IBM旗下的超級(jí)計(jì)算機(jī)Watson是目前最成功的案例。Watson在2012年通過了美國(guó)職業(yè)醫(yī)師資格考試,目前,提供乳腺癌、肺癌、結(jié)腸癌、前列腺癌、膀胱癌、卵巢癌、子宮癌等多種癌癥的診斷服務(wù)。IBMWatson可以在17秒內(nèi)閱讀3469本醫(yī)學(xué)專著,248000篇論文,69種治療方案,61540次試驗(yàn)數(shù)據(jù),106000份臨床報(bào)告。通過海量汲取醫(yī)學(xué)知識(shí),包括300多份醫(yī)學(xué)期刊、200多種教科書及近1000萬頁(yè)文字,IBMWatson在短時(shí)間內(nèi)迅速成為腫瘤專家,為患者在藥物選擇和用藥方面提供建議,同時(shí)給出完整的治療方案。谷歌:低頭走路的同時(shí)也不忘仰望天空谷歌在醫(yī)療行業(yè)也已經(jīng)深耕數(shù)年,不僅成立AI健康醫(yī)療子公司DeepMindHealth和Verily、建立健康管理平臺(tái)GoogleFit、投資23andMe等醫(yī)療公司,還曾發(fā)布過過兩款幾近科幻的醫(yī)療概念產(chǎn)品。雖然截止到目前,這兩款產(chǎn)品還沒有實(shí)際落地,但大膽的想法為AI醫(yī)療行業(yè)產(chǎn)品的研發(fā)帶來很多靈感。

一款產(chǎn)品是,2014年推出的監(jiān)測(cè)血糖隱形眼鏡。這款隱形眼鏡通過鑲嵌在鏡片內(nèi)部的芯片,測(cè)量佩戴者的淚水中中的葡萄糖含量,以此來判斷佩戴者血糖水平。谷歌的另外一款“腦洞大開”的產(chǎn)品則是“納米顆??拱C(jī)器人”,其配合其他設(shè)備隨著血液在人體中流動(dòng),偵測(cè)病變細(xì)胞并反饋人體的健康數(shù)據(jù),對(duì)癌癥進(jìn)行早期診斷和治療。手持機(jī)器人裝置LiftwareLevel微軟:深耕藥物研發(fā)、醫(yī)療穿戴設(shè)備骨傳導(dǎo)耳機(jī)微軟在醫(yī)療行業(yè)的布局分別為投資并購(gòu)醫(yī)療公司、推出智能可穿戴設(shè)備、研發(fā)軟件及數(shù)據(jù)平臺(tái)。2016年微軟開始研發(fā)微軟AI醫(yī)療項(xiàng)目Hanover,該項(xiàng)目涉及開發(fā)計(jì)算方法推動(dòng)癌癥治療、采用機(jī)器學(xué)習(xí)和圖像處理技術(shù)幫助放射醫(yī)生了解腫瘤擴(kuò)展過程。

在Hanover和俄勒岡衛(wèi)生科學(xué)大學(xué)癌癥研究所合作中,微軟利用機(jī)器學(xué)習(xí)幫助醫(yī)生處理藥品研究文件并預(yù)測(cè)用于抗擊急性骨髓性白血病的有效藥物組合。據(jù)稱,該藥物組合提高了患者一倍的存活率。在硬件方面,微軟推出了智能手環(huán)MicrosoftBand、針對(duì)盲人使用的3D音景技術(shù)的骨傳導(dǎo)耳機(jī)以及為弱視群體開發(fā)的腕帶AliceBand三款產(chǎn)品。MicrosoftBand手環(huán)配置了10個(gè)智能傳感器,可24小時(shí)實(shí)時(shí)檢測(cè)用戶心率、卡路里燃燒和睡眠質(zhì)量等信息。AliceBand腕帶通過在用戶頭上佩戴的一個(gè)接收裝置,來接受城市建筑物上的傳感器發(fā)送的信息,進(jìn)而為用戶指引道路。骨傳耳機(jī)采用3D音景谷傳導(dǎo)技術(shù)以及和智能手機(jī)進(jìn)行配對(duì),用戶可接受到建筑物發(fā)出的藍(lán)牙信號(hào),在經(jīng)過軟件系統(tǒng)分析處理轉(zhuǎn)換為3D提示音為盲人進(jìn)行導(dǎo)航。4.2AI在自動(dòng)駕駛領(lǐng)域的應(yīng)用全自動(dòng)駕駛的三大出發(fā)點(diǎn)真正驅(qū)動(dòng)無人駕駛發(fā)展的是它帶來的安全性(交通效益)、高效性(社會(huì)效益)和交互體驗(yàn)(人機(jī)關(guān)系)。安全性方面,有研究顯示,94%的交通意外是由人為操作失誤造成的,2013年全球車禍死亡人數(shù)達(dá)120萬,2016年美國(guó)道路死亡人數(shù)37461,2015年交通意外受傷人數(shù)240萬,近三分之二的人會(huì)卷入酒駕事故;社會(huì)效益方面,每年由于交通事故死亡造成的經(jīng)濟(jì)損失達(dá)5940億美元,直接經(jīng)濟(jì)損失占2770億美元,燃油消耗和交通耗時(shí)相關(guān)的支出達(dá)1600億美元;汽車交互方面,先來看駕駛者:全美有三百多萬年長(zhǎng)的(40歲)、失明或視力較差的人;再看路人環(huán)境:79%的65歲以上老年人生活在有汽車的社區(qū);生活效率來看,每年人均在交通上耗費(fèi)的時(shí)間高達(dá)42個(gè)小時(shí)。綜上,自動(dòng)駕駛的宗旨在于實(shí)現(xiàn)整個(gè)交通系統(tǒng)的高效性和安全性,減少車禍主要原因——人為操做失誤的發(fā)生,為年邁的、殘障的人士提供更為安全的社區(qū)環(huán)境,規(guī)劃路況以減少相關(guān)資源(石油)和時(shí)間的浪費(fèi)。1、在哪兒?當(dāng)汽車在道路上,不是GPS就能回答這個(gè)問題,它需要知道自己在三維空間中的坐標(biāo)點(diǎn)、道路狀況、行駛限制,以及人行道、道路信號(hào)燈、交叉路口、停車標(biāo)志等道路特性,也就是需要地圖和基于傳感器的實(shí)時(shí)道路信息。2、周圍有啥?汽車的傳感器需要不斷地掃描周邊的物體并進(jìn)行辨認(rèn):行人、非機(jī)動(dòng)車、機(jī)動(dòng)車、交通信號(hào)、道路施工、障礙、各種路段(鐵路)、停車標(biāo)志等。目前,汽車(無人駕駛)的視距是300米。3、接下來可能發(fā)生啥?這就需要軟件了解行人、機(jī)動(dòng)車和非機(jī)動(dòng)車的軌跡,結(jié)合道路規(guī)則和狀況信息,分析并預(yù)測(cè)相關(guān)的動(dòng)態(tài)對(duì)象運(yùn)動(dòng)趨勢(shì),考慮本車運(yùn)動(dòng)可能對(duì)周圍環(huán)境/行人帶來的影響。4、咋整?有了分析和預(yù)測(cè)模型,接下來就是決策,從多個(gè)可行的路線中尋求最優(yōu)解,考慮需要的轉(zhuǎn)向操作,精確軌跡、速度、車道等,并保持360度環(huán)境監(jiān)控,以保證能實(shí)時(shí)、安全的應(yīng)對(duì)路況變化。因此,全自動(dòng)駕駛,本質(zhì)上就是對(duì)于基于傳感器、地圖等獲取的多種信息進(jìn)行整合分析,技術(shù)核心在于硬件(傳感器套件)和軟件(分析、預(yù)測(cè)模型)。硬件:四類傳感器系統(tǒng)傳感器套件包括四個(gè)主要單元,激光、相機(jī)、雷達(dá)和輔助,以實(shí)現(xiàn)360度的300米視距,重構(gòu)動(dòng)態(tài)和靜態(tài)對(duì)象的3D圖像(行人、行駛中的自行車或其他交通工具、交通信號(hào)燈、建筑物、道路標(biāo)志等)。軟件:能用且安全的汽車大腦有了傳感器提供的龐大信息,就能塑造實(shí)時(shí)道路圖像(不僅僅是衛(wèi)星地圖或在線地圖,包括有色的物理空間分布,以及物體移動(dòng)速度、航向、加速度等),接下來就是通過軟件系統(tǒng)實(shí)現(xiàn)最優(yōu)駕駛決策了。軟件系統(tǒng)涉及路況信息理解(地形、道路、天氣、交通法規(guī)等)和行為預(yù)測(cè)(需要對(duì)不同的物體,如行人、各類機(jī)動(dòng)車、各類非機(jī)動(dòng)車等,進(jìn)行不同的建模),需要根據(jù)以上信息,結(jié)合安全距離設(shè)置(為行人和車輛留下額外的誤差空間),求解可操作的駕駛行為(ODD),規(guī)劃行駛路徑和眼下的行駛速度、方向。自動(dòng)駕駛視頻由前百度美研的主任架構(gòu)師、百度無人車的首席架構(gòu)師(T11級(jí))JamesPeng(彭軍)和“樓教主”樓天城在2016年12月創(chuàng)辦的無人駕駛公司Pony.ai在無人駕駛技術(shù)上取得了一些不錯(cuò)的進(jìn)展。8字彎–超越人類極限的控制擁堵路段–像老司機(jī)一樣開車4.3AI在社會(huì)學(xué)研究方面的應(yīng)用將文本分析用于社會(huì)學(xué)研究2017.9.21?Boththebrandandgeneralsentimentscoresarecenteredaround0.2.?Generalsentimentscoresaremorecloselycenteredaround0.2,whereasbrandsentimentscoresspreadsmoretowards1(positive)and-1(negative).Thisshowsthatuserstendtobemorepositiveornegativethanusualwheninteractingwithbrands.?Thereispositivecorrelation(ascomputedbyPearson’scorrelationcoefficient),0.7,betweenthesetwoscoresforallbrands.Thisshowsthatuserswhogenerallyexpressonesentimentclass(positive,negativeorneutral)intheirtweetstendtoexpressthatsamesentimenttowardbrands.?Thediagonalineachfigurecorrespondstouserswhosebrandsentimentscoreandgeneralsentimentscorearealmostthesame.Thisrepresentsasignificantproportionofallusers(about3.5%)whodonotpostmuchotherthanwheninteractingwithbrands.themostnegativeindustries:providingservicestocustomers,suchasAirlines,MailandShipping,andTelecommunications,mostpositiveindustries:manufacturingandsellingconsumergoods,suchasHouseholdappliances.Additionally,themostpolarizedindustriesaresurprisinglynotPoliticsandSports(asonemightexpect).5、本團(tuán)隊(duì)科研項(xiàng)目介紹分方向內(nèi)容機(jī)器視覺技術(shù)應(yīng)用機(jī)器手引導(dǎo)、產(chǎn)品質(zhì)量檢測(cè)機(jī)器學(xué)習(xí)技術(shù)應(yīng)用計(jì)算機(jī)網(wǎng)絡(luò)運(yùn)維領(lǐng)域故障診斷VR/AR技術(shù)應(yīng)用機(jī)械設(shè)備操作培訓(xùn)科研方向:人工智能技術(shù)應(yīng)用研究姓名職責(zé)肖書浩團(tuán)隊(duì)負(fù)責(zé)人何為“機(jī)器視覺技術(shù)應(yīng)用”方向負(fù)責(zé)人張雅晶“VR/AR技術(shù)應(yīng)用”方向負(fù)責(zé)人謝俊宏“機(jī)器學(xué)習(xí)技術(shù)應(yīng)用”方向負(fù)責(zé)人團(tuán)隊(duì)成員5.1機(jī)器視覺(MachineVision)應(yīng)用客戶名稱:亞旭電子科技(江蘇)有限公司經(jīng)費(fèi):15萬元研發(fā)時(shí)間:2016.6-2017.3現(xiàn)狀:已驗(yàn)收結(jié)題視覺辨識(shí)系統(tǒng)研發(fā)項(xiàng)目目標(biāo)開發(fā)一款用于亞旭流水線生產(chǎn)的機(jī)器手引導(dǎo)和產(chǎn)品品質(zhì)檢測(cè)的機(jī)器視覺軟件為亞旭開發(fā)的軟件界面軟件在亞旭流水線上測(cè)試的情景5.2自然語言處理(NLP)與機(jī)器學(xué)習(xí)(ML)應(yīng)用網(wǎng)絡(luò)運(yùn)維數(shù)據(jù)分析與挖掘研究(預(yù)研)客戶名稱:湖南長(zhǎng)沙美音網(wǎng)絡(luò)技術(shù)有限公司時(shí)間:2017.3-現(xiàn)在現(xiàn)狀:在研研究?jī)?nèi)容:大數(shù)據(jù)與機(jī)器學(xué)習(xí)與客戶達(dá)成長(zhǎng)期合作協(xié)議,正在共同申報(bào)湖南省縱向項(xiàng)目健康管理(故障診斷)工業(yè)4.0先驅(qū):勞斯萊斯發(fā)動(dòng)機(jī)勞斯萊斯的大數(shù)據(jù)分析:引擎健康管理系統(tǒng)計(jì)算機(jī)網(wǎng)絡(luò)健康管理系統(tǒng)智能日志分析系統(tǒng)

基于文本分析的系統(tǒng)(NLP)

行業(yè)知識(shí)的表達(dá)與應(yīng)用(KnowledgeBase)

大數(shù)據(jù)系統(tǒng)(BigData)IBMWaston認(rèn)知計(jì)算架構(gòu)IBMWatson是認(rèn)知計(jì)算系統(tǒng)的杰出代表,被認(rèn)為是人工智能歷史上的一個(gè)里程碑。它是一個(gè)通過自然語言處理和機(jī)器學(xué)習(xí),從非結(jié)構(gòu)化數(shù)據(jù)中揭示洞察的技術(shù)平臺(tái)。它包含信息分析,自然語言處理和機(jī)器學(xué)習(xí)領(lǐng)域的大量技術(shù)創(chuàng)新。新的LOGO表現(xiàn)出三項(xiàng)重要特質(zhì):理解、推理、學(xué)習(xí)。5.3虛擬現(xiàn)實(shí)與增強(qiáng)現(xiàn)實(shí)(VR/AR)應(yīng)用機(jī)械設(shè)備虛擬拆裝實(shí)驗(yàn)室6、人工智能技術(shù)學(xué)習(xí)資源AI學(xué)習(xí)與研究資源:深度學(xué)習(xí)庫(kù)與框架MATLABBerkeleyAIResearch(BAIR)

:Caffegoogle:tensorFlowFacebook:PyTorchMicrosoft:CNTK華盛頓大學(xué)和卡內(nèi)基梅隆大學(xué)(CMU)(Amazon選用):MxNet蒙特利爾大學(xué)的機(jī)器學(xué)習(xí)團(tuán)隊(duì)(YoshuaBengio

是成員之一):TheanoAI學(xué)習(xí)與研究資源:開發(fā)平臺(tái)語言1.Python2.C++3.Lisp4.Java5.Prolog6.JavaScript7.HaskellSebastianThrun:Udacity(優(yōu)達(dá)學(xué)城)創(chuàng)始人、斯坦福終身教授、GoogleX實(shí)驗(yàn)室創(chuàng)始人YannLecun:FacebookAI實(shí)驗(yàn)室負(fù)責(zé)人、紐約大學(xué)教授NandodeFreitas:牛津大學(xué)教授AndrewNg:斯坦福大學(xué)副教授、人工智能實(shí)驗(yàn)室主任,Coursera聯(lián)合創(chuàng)始人,前百度首席科學(xué)家DaphneKoller:斯坦福大學(xué)教授、Coursera聯(lián)合創(chuàng)始人AdamCoates:百度硅谷AI實(shí)驗(yàn)室主任JürgenSchmidhuber:瑞士人工智能實(shí)驗(yàn)室IDSIA的科學(xué)事務(wù)主管GeoffreyHinton:多倫多大學(xué)計(jì)算機(jī)科學(xué)系教授、谷歌EngineeringFellowTerrySejnowski:索爾克研究所神經(jīng)科學(xué)家MichaelJordan:加州大學(xué)伯克利分校教授PeterNorvig:谷歌公司研究總監(jiān)YoshuaBengio:蒙特利爾大學(xué)教授IanGoodfellow:谷歌大腦StaffResearchScientistAndrejKarpathy:特斯拉人工智能部門主管RichardSocher:Salesforce首席科學(xué)家、斯坦福計(jì)算機(jī)科學(xué)系副教授DemisHassabis:DeepMind創(chuàng)始人兼CEOChristopherManning:斯坦福大學(xué)計(jì)算機(jī)科學(xué)和語言學(xué)教授Fei-FeiLi(李飛飛):斯坦福大學(xué)教授、谷歌云AI/ML首席科學(xué)家Fran?oisChollet:谷歌人工智能研究員、深度學(xué)習(xí)框架Keras的作者DanJurafsky:斯坦福大學(xué)計(jì)算機(jī)科學(xué)系和語言學(xué)系教授、語言學(xué)系主任OrenEtzioni:艾倫人工智能研究所CEOAI學(xué)習(xí)與研究資源:著名AI科學(xué)家OpenAI/Twitter(127Kfollowers)DeepMind/Twitter(80Kfollowers)GoogleResearch/Twitter(1.1Mfollowers)AWSAI/Twitter(1.4Mfollowers)FacebookAIResearch(noTwitter:)MicrosoftResearch/Twitter(341Kfollowers)BaiduResearch/Twitter(18Kfollowers)IntelAI/Twitter(2Kfollowers)AI2/Twitter(4.6Kfollowers)PartnershiponAI/Twitter(5Kfollowers)AI學(xué)習(xí)與研究資源:AI組織AI學(xué)習(xí)與研究資源:AI視頻課程Coursera—機(jī)器學(xué)習(xí)(MachineLearning)授課:AndrewNg/learn/machine-learning#syllabusCoursera—機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)(NeuralNetworksforMachineLearning)授課:GeoffreyHinton/learn/neural-networksUdacity—機(jī)器學(xué)習(xí)導(dǎo)論(IntrotoMachineLearning)授課:SebastianThrun/courses/ud120Udacity—機(jī)器學(xué)習(xí)(MachineLearning)授課:GeorgiaTech/course/machine-learning--ud262Udacity—深度學(xué)習(xí)(DeepLearning)授課:VincentVanhoucke/course/deep-learning--ud730機(jī)器學(xué)習(xí)(MachineLearning)授課:mathematicalmonk/playlist?list=PLD0F06AA0D2E8FFBA給程序員的機(jī)器學(xué)習(xí)實(shí)踐課程(PracticalDeepLearningForCoders)授課:JeremyHoward&RachelThomashttp://course.fast.ai/start.htmlStanfordCS231n—面向視覺識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworksforVisualRecognition)(Winter2016)授課:李飛飛、JustinJohnson&SerenaYeung/StanfordCS224n—深度學(xué)習(xí)與自然語言處理(NaturalLanguageProcessingwithDeepLearning)(Winter2017)授課:ChrisManning&RichardSocher/class/cs224n/哈佛深度NLP課程(OxfordDeepNLP2017)授課:PhilBlunsometal./oxford-cs-deepnlp-2017/lectures強(qiáng)化學(xué)習(xí)(ReinforcementLearning)授課:DavidSilverhttp://www.cs.ucl.ac.uk/staff/d.silver/web/Teaching.htmlPython實(shí)踐機(jī)器學(xué)習(xí)教程(PracticalMachineLearningTutorialwithPython)授課:sentdex

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論