




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
人工智能的前沿法律政策問題思考近年來,人工智能獲得了各界的高度關(guān)注和快速發(fā)展,其在智力游戲、自動駕駛、語音和圖像識別、翻譯等諸多領(lǐng)域取得重大突破,谷歌、臉書、微軟等科技公司收購人工智能創(chuàng)業(yè)公司的速度已經(jīng)快趕上這些公司的創(chuàng)立速度。各國政府(比如美國、英國等)以及一些社會公共機構(gòu)(比如UN、IEEE等)也開始積極關(guān)注人工智能的法律、倫理、社會、經(jīng)濟等影響,密集出臺戰(zhàn)略文件和報告。借鑒發(fā)達國家和國際社會已有經(jīng)驗和案例,對中國企業(yè)提前預(yù)判后續(xù)可能面臨的前瞻性法律政策問題有所裨益。01人工智能應(yīng)用中面臨的法律政策問題1、圖像識別領(lǐng)域圖像識別領(lǐng)域面臨的用戶隱私保護和種族歧視等問題突出。一方面,圖像識別軟件的不包容和歧視的問題已經(jīng)出現(xiàn),比如,谷歌公司的圖片軟件曾錯將黑人的照片標記為“大猩猩”,F(xiàn)lickr的自動標記系統(tǒng)亦曾錯將黑人的照片標記為“猿猴”或者“動物”。另一方面,社交媒體的圖片標簽或者自動標記功能可能引發(fā)關(guān)于用戶隱私的爭議,比如,F(xiàn)acebook的圖片標記功能利用人臉識別技術(shù)就圖片中的人像向用戶進行“標簽推薦”,這被認為是在未獲用戶明確同意的情況下收集用戶的“臉紋”等生物識別信息,違反了美國伊利諾伊州的《生物識別信息隱私法》,而被用戶提起隱私侵權(quán)訴訟,谷歌等企業(yè)的類似技術(shù)也引發(fā)了類似訴訟。因此,在歐盟、加拿大等地區(qū),F(xiàn)acebook不得不暫停這項技術(shù)。2、語音識別領(lǐng)域語音識別領(lǐng)域也已經(jīng)出現(xiàn)性別和種族歧視、倫理以及聲音權(quán)保護等問題?;谧匀徽Z言處理的語音識別正在快速發(fā)展,如亞馬遜的Alexa、蘋果的Siri、微軟的Cortana等。但這一領(lǐng)域卻被詬病為已經(jīng)產(chǎn)生了嚴重的性別歧視問題。比如,2016年3月23日,微軟公司的人工智能聊天機器人Tay上線。出乎意料的是,Tay一開始和網(wǎng)民聊天,就被“教壞”了,成為了一個集反猶太人、性別歧視、種族歧視等于一身的“不良少女”。于是,上線不到一天,Tay就被微軟公司緊急下線了。類似的倫理問題已經(jīng)引起諸多關(guān)注,批判硅谷正在將人類社會既有的種族歧視、性別歧視等問題帶入機器學習的聲音逐漸增多。同時,在模擬人聲方面,也出現(xiàn)聲音是否受法律保護以及怎樣保護的問題。比如,已經(jīng)出現(xiàn)使用名人聲音進行人工智能語音訓練從而實現(xiàn)智能模仿他人聲音效果的業(yè)務(wù)形態(tài)。在國內(nèi),對于這種所謂的“聲音權(quán)”并無明文規(guī)定,相關(guān)學者認為可以通過設(shè)立肖像聲音權(quán)、聲音語言權(quán)、形象權(quán)、獨立聲音權(quán)等方面進行保護,但尚未達成一致。在國外,對聲音進行明確法律保護的國家或地區(qū)也較少,比如,澳門、捷克斯洛伐克和美國加利福尼亞州等為數(shù)不多的國家或地區(qū),美國也有將其作為商品化權(quán)進行保護的觀點,相關(guān)的立法、司法動態(tài)后續(xù)還需要繼續(xù)保持關(guān)注。3、廣告投放領(lǐng)域廣告投放領(lǐng)域面臨的問題主要集中在用戶數(shù)據(jù)的收集和使用、算法歧視等方面。算法歧視早已引起人們關(guān)注,在互聯(lián)網(wǎng)廣告領(lǐng)域同樣存在這一問題。比如,研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出現(xiàn)暗示具有犯罪歷史的廣告。再比如,在谷歌的廣告服務(wù)中,男性比女性看到更多高薪招聘廣告,當然,這可能和在線廣告市場中固有的歧視問題有關(guān),廣告主可能更希望將特定廣告投放給特定人群。此外,基于用戶自動畫像和自動化決策的的精準廣告投放正日益流行(自動化決策在信貸、保險等領(lǐng)域的應(yīng)用也在加強),其中涉及用戶數(shù)據(jù)的收集使用、對用戶保持透明以及歧視等問題。02各國對人工智能法律政策問題的探索(一)在知識產(chǎn)權(quán)方面人工智能中新產(chǎn)生作品的權(quán)利歸屬問題較為突出。歐盟法律事務(wù)委員會建議歐盟委員會就與軟硬件標準、代碼有關(guān)的知識產(chǎn)權(quán)提出一個更平衡的路徑,以便在保護創(chuàng)新的同時,也促進創(chuàng)新。同時,對于計算機或者機器人創(chuàng)作的可版權(quán)作品,需要提出界定人工智能的“獨立智力創(chuàng)造”的標準,以便可以明確版權(quán)歸屬。此外,國際標準化組織IEEE在其標準文件草案《合倫理設(shè)計:利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景》中也提出,應(yīng)對知識產(chǎn)權(quán)領(lǐng)域的法規(guī)進行審查,以便明確是否需對AI參與創(chuàng)作的作品的保護作出修訂,其中基本原則應(yīng)為,如果AI依靠人類的交互而實現(xiàn)新內(nèi)容或者發(fā)明創(chuàng)造,那么使用AI的人應(yīng)作為作者或發(fā)明者,受到與未借助AI進行的創(chuàng)作和發(fā)明相同的知識產(chǎn)權(quán)保護。(二)在隱私和數(shù)據(jù)保護方面在人工智能領(lǐng)域,歐盟認為除了應(yīng)該按照必要性原則和比例原則等保護隱私和數(shù)據(jù)之外,還應(yīng)該有更多的標準、規(guī)范。歐盟法律事務(wù)委員會建議,在針對人工智能和機器人制定政策時,應(yīng)當進一步完善通過設(shè)計保護隱私(privacybydesign)、默認保護隱私(privacybydefault)、知情同意、加密等概念的標準。當個人數(shù)據(jù)成為“流通物”使用時,在任何情況下都不得規(guī)避涉及隱私和數(shù)據(jù)保護的基本原則。其實,在2016年通過的《一般數(shù)據(jù)保護條例》(簡稱GDPR)中,歐盟就加強了個人隱私和數(shù)據(jù)保護,其中關(guān)于用戶畫像等自動化決策的規(guī)定將對基于大數(shù)據(jù)的互聯(lián)網(wǎng)行業(yè)實踐產(chǎn)生重大影響,即用戶有權(quán)拒絕企業(yè)對其進行畫像等自動化決策,而且用于用戶畫像的數(shù)據(jù)不能包括人種或者種族起源、政治意見、宗教或者哲學信仰、商會會員、基因、生物特征、健康狀況、性生活等特殊類別的個人數(shù)據(jù)。這將對個性化服務(wù)的提供產(chǎn)生重大影響。(三)在標準化建設(shè)方面國際社會將推進標準化工作作為人工智能發(fā)展的重要抓手。歐盟法律事務(wù)委員會建議歐盟委員會應(yīng)繼續(xù)致力于技術(shù)標準的國際統(tǒng)一,歐盟層面,需要建立相應(yīng)的標準化框架,以免造成歐盟各成員國之間標準的不統(tǒng)一以及歐盟內(nèi)部市場的分裂。此外,IEEE于去年年底出臺的指南文件中也呼吁各方形成一系列標準,用于指導人工智能研發(fā)和應(yīng)用。美國在去年出臺的涉及人工智能、自動駕駛等的多份報告和政策如《聯(lián)邦自動駕駛汽車政策》《美國國家人工智能研發(fā)戰(zhàn)略計劃》《為人工智能的未來做好準備》等中,也要求加強并統(tǒng)一技術(shù)、數(shù)據(jù)使用、安全等標準建設(shè),避免造成碎片化的問題,影響人工智能研發(fā)和應(yīng)用。(四)其他法律政策方面1、算法決策公開透明化實現(xiàn)算法決策的透明性和公平性是國際社會的一個主流關(guān)注點?;跈C器學習的自主或者自動化的決策系統(tǒng)日益被廣泛應(yīng)用在推薦引擎、精準廣告、信貸、保險等諸多領(lǐng)域,甚至政府部門也利用自動化決策來處理給犯罪人定罪量刑等公共事務(wù),然而算法模型的設(shè)計都是編程人員的主觀選擇和判斷,所使用的數(shù)據(jù)也可能是不相關(guān)和不準確的,這就可能導致自動化決策的結(jié)果影響個人權(quán)益,或者對某些群體造成歧視。確保算法及其決策可以有效接受中立第三方或者監(jiān)管機構(gòu)的審查,實現(xiàn)算法決策的透明性和公平性,是國際社會的一個主流關(guān)注點。IEEE提出,應(yīng)當為個人提供異議和救濟的渠道。歐盟的GDPR則賦予個人反對自動化決策的權(quán)利,意味著算法決策需要透明化。2、防止歧視和偏見國際社會日益重視在人工智能領(lǐng)域?qū)?shù)據(jù)的收集和分析進行規(guī)范,以防止歧視或偏見。美國聯(lián)邦貿(mào)易委員會(FTC)在2016年1月發(fā)布的《大數(shù)據(jù):包容性工具抑或排斥性工具?》(BigData:aToolforInclusionorExclusion?)特別關(guān)注大數(shù)據(jù)中的歧視和偏見問題,對于消費者,一方面需要確保公平機會法律得到有效執(zhí)行,另一方面防止大數(shù)據(jù)分析中采取歧視等不公平行為;對于企業(yè),F(xiàn)TC建議企業(yè)考察以下問題:數(shù)據(jù)集是否具有代表性,所使用的數(shù)據(jù)模型是否會導致偏見,基于大數(shù)據(jù)進行預(yù)測的準確性如何,對大數(shù)據(jù)的依賴是否會導致道德或者公平性問題。其實,早在2014年5月,美國白宮就發(fā)布了《大數(shù)據(jù):抓住機遇,保存價值》中呼吁重視自動化決策中的歧視問題,要求民權(quán)和消費者保護機構(gòu)及FTC等政府機構(gòu)加強專業(yè)知識,調(diào)查并解決潛在的歧視問題。
03對人工智能進行法律政策保護的思考(一)知識產(chǎn)權(quán)保護方面國內(nèi)企業(yè)應(yīng)該利用既有專利規(guī)則、版權(quán)規(guī)則、職務(wù)發(fā)明等知識產(chǎn)權(quán)規(guī)則,強化對AI的全方位知識產(chǎn)權(quán)保護。版權(quán)保護方面:國際標準化組織IEEE在其標準文件草案中提出的版權(quán)保護基本原則目前也為國內(nèi)現(xiàn)行法律認可,即如果AI依靠人類的交互而實現(xiàn)新內(nèi)容或者發(fā)明創(chuàng)造,那么使用AI的人應(yīng)作為作者或發(fā)明者,受到與未借助AI進行的創(chuàng)作和發(fā)明相同的知識產(chǎn)權(quán)保護。因此,相關(guān)AI的原代碼產(chǎn)生后,應(yīng)及時通過軟件著作權(quán)登記等措施進行證據(jù)固化。專利技術(shù)和商業(yè)秘密保護方面:AI開發(fā)過程中涉及到的專利技術(shù),應(yīng)當經(jīng)過專業(yè)技術(shù)人員評估,如果可保密性強,被反向工程的可能性不大,則通過商業(yè)秘密進行保密而保護,如果被反向工程或者披露的可能性較大,則應(yīng)當及時進行專利申請,以公開換取獨占性保護。商標保護方面:重點AI產(chǎn)品應(yīng)及時進行產(chǎn)品名稱和標志的商標申請和保護,使產(chǎn)品能夠在市場上獲得認知,擴大產(chǎn)品品牌影響力。(二)隱私和數(shù)據(jù)安全方面在提供服務(wù)的過程中收集、使用用戶個人信息,應(yīng)當遵循合法、正當、必要的原則。不得收集與提供服務(wù)所必需以外的用戶個人信息或者將信息用于提供服務(wù)之外的目的,不得以欺騙、誤導或者強迫等方式收集、使用用戶個人信息。比如,在圖像識別、語音識別等領(lǐng)域,對于機器深度學習的原始素材、語料等的收集、分析、使用,需要事先經(jīng)過用戶的知情同意。同時,積極履行信息安全保障義務(wù)。在對用戶數(shù)據(jù)收集、使用過程中的用戶個人信息應(yīng)當嚴格保密,不得泄露、篡改或者毀損,不得出售或者非法向他人提供。對用戶數(shù)據(jù)的輸出和使用,應(yīng)當做到匿名華、假名化,并做到脫密處理。(三)標準化建設(shè)方面技術(shù)專利化、專利標準化、標準國際化。統(tǒng)一技術(shù)、數(shù)據(jù)使用、安全等標準化建設(shè)將會是未來人工智能技術(shù)標準化建設(shè)的主要趨勢。因此,積極參與標準化討論和提案,在“技術(shù)專利化,專利標準化,標準國際化”方面做足功夫,努力將企業(yè)的技術(shù)專利加入標準中,并成為行業(yè)國際通用標準。(四)防歧視方面如前所述,目前人工智能,在發(fā)展過程中可能由于技術(shù)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 廣州科技職業(yè)技術(shù)大學《建筑學》2023-2024學年第二學期期末試卷
- 溫州肯恩大學《中學物理專題訓練與研究》2023-2024學年第二學期期末試卷
- 2025河北省安全員考試題庫及答案
- 德宏職業(yè)學院《新媒體概論》2023-2024學年第二學期期末試卷
- 2024-2025學年湖南省五市十校教研教改共同體高一上學期12月月考歷史試卷
- 山東石油化工學院《工程結(jié)構(gòu)反分析理論》2023-2024學年第二學期期末試卷
- 德宏職業(yè)學院《國際法與當代中國》2023-2024學年第二學期期末試卷
- 廣東茂名農(nóng)林科技職業(yè)學院《互聯(lián)網(wǎng)+大學生創(chuàng)新創(chuàng)業(yè)設(shè)計與實踐》2023-2024學年第二學期期末試卷
- 2025年山西省建筑安全員《A證》考試題庫
- 桂林山水職業(yè)學院《幼兒教師職業(yè)道德與專業(yè)發(fā)展》2023-2024學年第二學期期末試卷
- (課件)-幼兒園中班社會教案《新年里的開心事》
- 2025海南省交通投資控股限公司招聘30人高頻重點提升(共500題)附帶答案詳解
- 宋代美學研究
- 行政管理學知識點全套
- 船舶安全管理培訓課件
- 《工業(yè)機器人現(xiàn)場編程》課件-任務(wù)3.涂膠機器人工作站
- 供應(yīng)鏈管理(第2版)課件:常用的供應(yīng)鏈管理方法
- 腰椎手術(shù)的疑難討論
- 中英文對照版 ASTM B594 2019 鋁合金形變產(chǎn)品超聲波檢測標準慣例
- 五年級下冊道德與法治教學計劃
- 2025屆高考數(shù)學專項復習:阿基米德三角形【六大題型】含答案
評論
0/150
提交評論