人工智能應(yīng)用概論(第2版) 課件 第十章:人工智能的展望與爭論_第1頁
人工智能應(yīng)用概論(第2版) 課件 第十章:人工智能的展望與爭論_第2頁
人工智能應(yīng)用概論(第2版) 課件 第十章:人工智能的展望與爭論_第3頁
人工智能應(yīng)用概論(第2版) 課件 第十章:人工智能的展望與爭論_第4頁
人工智能應(yīng)用概論(第2版) 課件 第十章:人工智能的展望與爭論_第5頁
已閱讀5頁,還剩25頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

第十章人工智能的展望與爭論

《人工智能應(yīng)用概論(第2版)》RengongZhinengYingyongGailun“十四五”廣西壯族自治區(qū)職業(yè)教育規(guī)劃教材

新編21世紀高等職業(yè)教育精品教材·通識課系列Part0101人工智能國內(nèi)發(fā)展形勢Part0202人工智能國際發(fā)展形勢Part0303人工智能與道德目

錄contentPart0404人工智能與法律【案例導(dǎo)入】電影《機械公敵》內(nèi)容概要:警探戴爾·斯普納接手了此案的調(diào)查。由于不愉快的往事,斯普納對機器人充滿了懷疑,不相信人類與機器人能夠和諧共處。他根據(jù)對朗寧博士生前在3D投影機內(nèi)留下的信息分析和對自殺現(xiàn)場的勘查,將懷疑對象鎖定為朗寧博士自己研制的NS-5型機器人桑尼,而公司總裁勞倫斯·羅伯遜似乎也與此事有關(guān)。Part01人工智能國內(nèi)發(fā)展形勢10.1.2人工智能國內(nèi)發(fā)展形勢我國人工智能發(fā)展現(xiàn)狀可以用“高度重視,態(tài)勢喜人,差距不小,前景看好”來概括。未來十幾年我國人工智能發(fā)展的宏偉藍圖,明確到2030年人工智能理論、技術(shù)與應(yīng)用總體達到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心。10.1.1人工智能國內(nèi)發(fā)展形勢-國家高度重視習近平在黨的十九大、2018年兩院院士大會、全國網(wǎng)絡(luò)安全和信息化工作會議、十九屆中央政治局第九次集體學習、黨的二十大等場合多次強調(diào)要加快推進人工智能的發(fā)展。2017年7月,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,將新一代人工智能放在國家戰(zhàn)略層面進行部署,描繪了面向2030年的我國人工智能發(fā)展路線圖。國家發(fā)改委、工信部、科技部、教育部等國家部委和北京、上海、廣東、江蘇、浙江等地的地方政府都推出了發(fā)展人工智能的鼓勵政策。10.1.1人工智能國內(nèi)發(fā)展形勢-中國人工智能發(fā)展規(guī)劃國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》提出六個方面重點任務(wù):一是構(gòu)建開放協(xié)同的人工智能科技創(chuàng)新體系,從前沿基礎(chǔ)理論、關(guān)鍵共性技術(shù)、創(chuàng)新平臺、高端人才隊伍等方面強化部署。二是培育高端高效的智能經(jīng)濟,發(fā)展人工智能新興產(chǎn)業(yè),推進產(chǎn)業(yè)智能化升級,打造人工智能創(chuàng)新高地。三是建設(shè)安全便捷的智能社會,發(fā)展高效智能服務(wù),提高社會治理智能化水平,利用人工智能提升公共安全保障能力,促進社會交往的共享互信。四是加強人工智能領(lǐng)域軍民融合,促進人工智能技術(shù)軍民雙向轉(zhuǎn)化、軍民創(chuàng)新資源共建共享。五是構(gòu)建泛在安全高效的智能化基礎(chǔ)設(shè)施體系,加強網(wǎng)絡(luò)、大數(shù)據(jù)、高效能計算等基礎(chǔ)設(shè)施的建設(shè)升級。六是前瞻布局重大科技項目,針對新一代人工智能特有的重大基礎(chǔ)理論和共性關(guān)鍵技術(shù)瓶頸,加強整體統(tǒng)籌,形成以新一代人工智能重大科技項目為核心、統(tǒng)籌當前和未來研發(fā)任務(wù)布局的人工智能項目群。10.1.3人工智能國內(nèi)發(fā)展形勢-產(chǎn)業(yè)鏈從產(chǎn)業(yè)鏈來看,人工智能產(chǎn)業(yè)可分為基礎(chǔ)層、技術(shù)層和應(yīng)用層三層。產(chǎn)業(yè)鏈上游解析:基礎(chǔ)層提供數(shù)據(jù)資源、硬件設(shè)施以及計算力平臺等一系列基本支持。具體來看,基礎(chǔ)層包括人工智能芯片、傳感器、大數(shù)據(jù)及云計算等,其中大數(shù)據(jù)與智能傳感器的主要任務(wù)是數(shù)據(jù)采集,AI芯片與云計算則負責數(shù)據(jù)分析與運算,技術(shù)門檻較高,生態(tài)搭建已基本成型。10.1.3人工智能國內(nèi)發(fā)展形勢-產(chǎn)業(yè)鏈產(chǎn)業(yè)鏈中游解析:技術(shù)層是AI產(chǎn)業(yè)發(fā)展的核心,包括通用技術(shù)、AI技術(shù)框架以及算法模型等。這一層級依托于海量數(shù)據(jù)的挖掘處理與機器學習建模,來進行各種應(yīng)用技術(shù)的開發(fā),從而解決實踐中的具體類別問題。計算機視覺、自然語言處理、語音識別、機器學習、深度學習、知識圖譜為這一層級的代表性技術(shù)。優(yōu)勢企業(yè)如谷歌、亞馬遜、Facebook加快部署機器學習、深度學習底層平臺,建立產(chǎn)業(yè)事實標準。10.1.3人工智能國內(nèi)發(fā)展形勢-產(chǎn)業(yè)鏈產(chǎn)業(yè)鏈下游解析:應(yīng)用層是人工智能技術(shù)在各不同場景下的商業(yè)化應(yīng)用。人工智能已在金融、教育、交通、醫(yī)療、家居、營銷等多垂直領(lǐng)域取得較大發(fā)展;與此同時,智能終端、模型預(yù)測控制、推薦系統(tǒng)、定位與地圖構(gòu)建等服務(wù)層面及自動駕駛汽車、無人機、智能機器人、智能語音助手等人工智能產(chǎn)品發(fā)展迅速。Part02人工智能國際發(fā)展形勢勢10.2.1人工智能國際發(fā)展形勢隨著人工智能技術(shù)的進一步成熟以及政府和產(chǎn)業(yè)界投入的日益增長,全球人工智能產(chǎn)業(yè)規(guī)模在未來10年將進入高速增長期,可在現(xiàn)有基礎(chǔ)上將勞動生產(chǎn)率提高40%。到2030年,約70%的公司將釆用至少一種形式的人工智能,人工智能新增經(jīng)濟規(guī)模將達到13萬億美元。到2035年,美、日、英、德、法等12個發(fā)達國家的年均經(jīng)濟增長率可以翻一番。2016年10月,美國國家科學技術(shù)委員會發(fā)布《國家人工智能研究與發(fā)展戰(zhàn)略計劃》。2018年4月,歐盟委員會計劃2018—2020年在人工智能領(lǐng)域投資240億美元;法國總統(tǒng)在2018年5月宣布《法國人工智能戰(zhàn)略》,目的是迎接人工智能發(fā)展的新時代,使法國成為人工智能強國;2018年6月,日本《未來投資戰(zhàn)略2018》重點推動物聯(lián)網(wǎng)建設(shè)和人工智能的應(yīng)用10.2.2中美人工智能比較供給面(1)中國政府在供給面政策工具的使用上較為均衡。科學與技術(shù)開發(fā)方面主要集中在加快建立新一代人工智能基礎(chǔ)理論體系和關(guān)鍵共性技術(shù)體系;教育與訓練方面的核心主要是加快培育聚集人工智能高端人才和加強人工智能勞動力培訓。(2)美國在供給面主要側(cè)重于科學與技術(shù)開發(fā)政策工具的使用,具體政策措施包括提升基于數(shù)據(jù)發(fā)現(xiàn)知識的能力及人工智能系統(tǒng)的感知能力、開發(fā)可擴展的人工智能系統(tǒng)、尋找人類感知人工智能的新算法、開發(fā)可視化和人機界面技術(shù)等。10.2.2中美人工智能比較環(huán)境面(1)中國在環(huán)境面的政策制定中,法規(guī)與管制方面,在知識產(chǎn)權(quán)保護、優(yōu)化人工智能領(lǐng)域的法律框架和監(jiān)督評估體系等方面都有涉及。在政策性策略方面,主要是統(tǒng)籌布局人工智能創(chuàng)新平臺、加強人工智能領(lǐng)域軍民融合,以及布局新一代人工智能重大科技項目。(2)美國環(huán)境面政策工具注重法規(guī)與管制的使用,主要包括相關(guān)標準的制定,例如開發(fā)廣泛應(yīng)用的人工智能標準、制定人工智能技術(shù)的測試基準,以及促進人工智能社群參與標準和基準的制定等。10.2.2中美人工智能比較需求面(1)對于中國而言,需求面將主要精力投入在了公共服務(wù)和貿(mào)易管制上。首先通過構(gòu)建安全高效的智能化基礎(chǔ)設(shè)施體系,以滿足國內(nèi)人工智能產(chǎn)業(yè)發(fā)展中對于某些基礎(chǔ)設(shè)施的需求;其次是形成適應(yīng)人工智能發(fā)展的制度安排,構(gòu)建開放包容的國際化環(huán)境,夯實人工智能發(fā)展的社會基礎(chǔ)。(2)美國在需求面傾向于公共服務(wù)政策工具的使用,主要包括三個方面,首先是通過提高人工智能的可解釋性、透明性以及信任度;其次是增強其可驗證性與可確認性,保護其免受攻擊;最后則是實現(xiàn)長期的人工智能安全和優(yōu)化,開發(fā)滿足多樣化人工智能興趣與應(yīng)用的豐富數(shù)據(jù)集。10.2.2中美人工智能比較整體比較。中國主要是從技術(shù)研發(fā)、產(chǎn)業(yè)應(yīng)用、政府政策保障等方面做出部署,側(cè)重于技術(shù)發(fā)展對行業(yè)帶來的經(jīng)濟影響;而美國則側(cè)重于人工智能對社會可能帶來的風險,并就政府資助研發(fā)和就業(yè)保障兩個方面進行了另行專題規(guī)劃。中國政策工具使用頻次前三位依次是“公共服務(wù)”(25%)、“政策性策略”(21%)、“貿(mào)易管制”(13%),政策內(nèi)容強度依次為環(huán)境面(42%)、需求面(38%)、供給面(20%),表明政府產(chǎn)業(yè)創(chuàng)新政策重在通過擴大投入、刺激需求來推動產(chǎn)業(yè)發(fā)展。美國人工智能政策工具使用頻次前三位依次是“科學與技術(shù)開發(fā)”(45%)、“法規(guī)與管制”(24%)、“公共服務(wù)”(21%),政策內(nèi)容強度依次為供給面(52%)、環(huán)境面(28%)、需求面(20%),表明美國人工智能市場環(huán)境較為成熟,政府產(chǎn)業(yè)政策重在刺激研發(fā)、引導(dǎo)和規(guī)范。Part03人工智能與道德10.3.1人工智能機器的道德主體地位的思考以下問題涉及對人工智能機器的道德主體地位的思考,這些都是隨著人工智能的發(fā)展而引發(fā)的倫理問題:根據(jù)人工智能的現(xiàn)有規(guī)模和發(fā)展速度,人工智能或許在未來能夠發(fā)展出具有自我意識的智能產(chǎn)品,這些人類制造出來的智能機器是否也該被賦予與人類同等的權(quán)利和地位呢?當這些智能機器也具備了與人類高度相似的感知能力、情感水平的時候,是否會威脅到人類的自身利益呢?如果人工智能產(chǎn)品出現(xiàn)了傷害人類的情況,或者有以造成人類傷亡為目的的人工智能產(chǎn)品出現(xiàn),責任主體是人還是機器呢?美國警方曾經(jīng)出動殺人機器人擊斃犯罪嫌疑人,機器人是否有權(quán)剝奪人類生命呢?人工智能該有、能有怎樣的道德地位?當人工智能機器具有自我意識甚至能夠模仿人的感情以后,機器是否有自制能力呢?10.3.1智能主體人工智能學家引入了“智能體”(Agents,又稱“智能主體”)的概念來定義人工智能:一般而言,人工智能及智能自動系統(tǒng)能根據(jù)人的設(shè)計自動地感知或認知環(huán)境(包括人),并執(zhí)行某些行動,還可能具備一定的人機交互功能,甚至可以與人“對話”,常常被看作具有一定自主性和交互性的實體?!爸悄荏w”使人工智能系統(tǒng)更為明晰地呈現(xiàn)為可以模擬和替代人類的理性行為,因其可與人類相比擬乃至比肩,故可視之為“擬主體”,或者說智能體具有某種“擬主體性”。在人們賦予智能體以擬主體性的同時,會自然地聯(lián)想到,不論智能體是否像主體那樣具有道德意識,它們的行為可以看作與主體倫理行為類似的擬倫理行為。但是,能不能運用智能算法對人工智能體的擬倫理行為進行倫理設(shè)計?尚未得到解決答案。10.3.2情感倫理問題面對如此多的倫理問題,我們要如何發(fā)展或者改進現(xiàn)有的倫理理論體系,使之更好地適應(yīng)人工智能的發(fā)展,既要人工智能更好地服務(wù)于人類,又要限制其負面效應(yīng),這是人工智能發(fā)展面臨的巨大挑戰(zhàn)。人工智能越來越像人,人類對機器有了感情怎么辦?人類是否會與人工智能產(chǎn)生感情,將取決于這種過程是否給人類帶來愉悅。當人類在不知道溝通者的身份時,只要對方能夠給自己帶來愉悅,感情就可能產(chǎn)生。例如:未來,知識型的人工智能可以回答人們能夠想到的很多問題,從而導(dǎo)致個體學習方式、生活方式乃至社會化模式的變革。假如人與人工智能出現(xiàn)類夫妻、親子等情感,將考問現(xiàn)代倫理規(guī)范。如果社會主流意見認為這種關(guān)系符合倫理,人們可能傾向于以類似于夫妻、親子之間的倫理準則來調(diào)節(jié)二者之間的關(guān)系;10.3.3社會安全和公平正義問題人工智能機器人工作效率高、出錯率低,且維護成本低,但存在公平正義問題:(1)Northpointe公司開發(fā)的預(yù)測罪犯二次犯罪概率的人工智能系統(tǒng)的算法,因為黑人的概率遠遠高于其他人種而被指帶有種族偏見傾向;(2)上海交通大學利用唇曲率、眼內(nèi)角距以及口鼻角度等的面部識別系統(tǒng)可以預(yù)測某些人具有犯罪傾向,但被質(zhì)疑存在偏見。(3)在2016年“世界首屆人工智能選美大賽”上,基于“能準確評估人類審美與健康標準”的算法的機器人專家組對人類面部進行評判,由于未給人工智能提供多樣的訓練集,比賽的獲勝者都是白人,這說明機器人審美也存在人種歧視的現(xiàn)象。社會公正是和諧社會的本質(zhì)和基石,因為算法輸入者或者人工智能設(shè)計者的問題卻會導(dǎo)致一些新的社會倫理問題出現(xiàn)。10.3.4智能時代的數(shù)字鴻溝當今世界,由于生產(chǎn)力不均衡、科技實力不平衡,人們的素質(zhì)和能力參差不齊,不同國家和地區(qū)間的信息化、智能化水平存在差距,智能時代的數(shù)字鴻溝作為社會現(xiàn)實的寫照不容小覷。隨著智能技術(shù)的不斷推進,大量的“數(shù)字貧困區(qū)域”和“數(shù)字窮人”出現(xiàn),形成殘酷的競爭環(huán)境,使得原有的貧富差距逐漸加劇。智能時代的數(shù)字鴻溝潛移默化地影響了未來社會發(fā)展的和諧與公正。如果先進的人工智能技術(shù)掌握在少數(shù)發(fā)達國家和地區(qū)手中,并未對全人類的福祉做出應(yīng)有的貢獻,則有可能進一步導(dǎo)致社會矛盾的產(chǎn)生,加劇社會階層的分化,形成破壞社會秩序的危害因素。Part04人工智能與法律教學內(nèi)容4:人工智能與法律10.4.1數(shù)據(jù)收集、使用和安全目前人工智能基本都會涉及機器學習技術(shù),這意味著需要收集、分析和使用大量數(shù)據(jù),其中很多信息由于具有身份的識別性(包括結(jié)合其他信息識別身份),屬于個人信息。按照個人信息保護方面的法律規(guī)定,這些行為應(yīng)當取得用戶明確、充分且完備的授權(quán),并應(yīng)當明確告知用戶收集信息的目的、方式手段、內(nèi)容、留存時限還有使用的范圍等。案例1:Facebook就曾因其人臉識別和標記功能未按美國伊利諾伊州《生物信息隱私法案》(BIPA)要求告知用戶收集面部識別信息的期限和方式被訴,隨后Facebook又因采集面部特征前未能明確提醒用戶并征得用戶同意而遭到愛爾蘭和德國有關(guān)部門的調(diào)查。案例2:2016年美國阿肯色州發(fā)生的一起刑事案件中,警方希望獲取亞馬遜Alexa語音助手收集的語音數(shù)據(jù),該請求遭到了亞馬遜公司的拒絕,理由是警方?jīng)]有出具有效的法律文件。但此后這種例子層出不窮10.4.2數(shù)據(jù)收集、使用和安全人工智能在應(yīng)用中,往往需要利用數(shù)據(jù)訓練算法。如果輸入的數(shù)據(jù)代表性性不足或存在偏差,訓練出的結(jié)果可能將偏差放大并呈現(xiàn)某種歧視特征。案例1:谷歌創(chuàng)建的廣告定位算法可能存在對互聯(lián)網(wǎng)用戶的性別歧視。在搜索20萬美元薪水的行政職位中,假冒男性用戶組收到1852個廣告,而假冒女性用戶組僅收到318個廣告。案例2:2016年3月23日,微軟公司的人工智能聊天機器人Tay上線不到24小時,就在一些網(wǎng)友的惡意引導(dǎo)和訓練下,發(fā)表了各種富有攻擊性和歧視性的言論10.4.3事故責任和產(chǎn)品責任和其他技術(shù)一樣,人工智能產(chǎn)品也有事故和產(chǎn)品責任的問題,但要分清是人為操作不當還是人工智能的缺陷并沒有那么容易,舉證尤其困難。例如汽車的自動駕駛功能在國內(nèi)外都曾因發(fā)生交通事故而被質(zhì)疑其安全性。然而,并非只要安裝了人工智能,用戶使用產(chǎn)品受到的損害就都屬于人工智能的責任。相關(guān)功能與損害后果之間是否存在因果

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論