人工智能倫理導(dǎo)論 課件 lecture9-倫理道德規(guī)范_第1頁(yè)
人工智能倫理導(dǎo)論 課件 lecture9-倫理道德規(guī)范_第2頁(yè)
人工智能倫理導(dǎo)論 課件 lecture9-倫理道德規(guī)范_第3頁(yè)
人工智能倫理導(dǎo)論 課件 lecture9-倫理道德規(guī)范_第4頁(yè)
人工智能倫理導(dǎo)論 課件 lecture9-倫理道德規(guī)范_第5頁(yè)
已閱讀5頁(yè),還剩43頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

倫理道德規(guī)范Lecture92024/7/231人工智能倫理-古天龍政府組織人工智能倫理原則/規(guī)范目錄人工智能職業(yè)道德準(zhǔn)則企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范1231中國(guó):新一代人工智能倫理規(guī)范中國(guó):新一代人工智能治理原則美國(guó):人工智能應(yīng)用規(guī)范指南英國(guó):英國(guó)人工智能發(fā)展的計(jì)劃、能力與志向歐盟:可信賴人工智能的倫理準(zhǔn)則G20:G20人工智能原則“BeneficialAI”會(huì)議:阿西洛馬人工智能原則騰訊:智能時(shí)代的技術(shù)倫理觀北京智源人工智能研究院:人工智能北京共識(shí)微軟:人工智能開發(fā)的六大原則谷歌:人工智能使用原則2024/7/23人工智能倫理-古天龍2中國(guó):人工智能行業(yè)自律公約美國(guó):人工智能學(xué)會(huì)職業(yè)道德與行為準(zhǔn)則日本:人工智能學(xué)會(huì)倫理綱要政府組織人工智能倫理原則/規(guī)范目錄人工智能職業(yè)道德準(zhǔn)則企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范1231中國(guó):新一代人工智能倫理規(guī)范中國(guó):新一代人工智能治理原則美國(guó):人工智能應(yīng)用規(guī)范指南英國(guó):英國(guó)人工智能發(fā)展的計(jì)劃、能力與志向歐盟:可信賴人工智能的倫理準(zhǔn)則G20:G20人工智能原則政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍3中國(guó):新一代人工智能倫理規(guī)范2021年9月25日,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將倫理融入人工智能全生命周期,為從事人工智能相關(guān)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等提供倫理指引,促進(jìn)人工智能健康發(fā)展。《新一代人工智能倫理規(guī)范》充分考慮當(dāng)前社會(huì)各界有關(guān)隱私、偏見、歧視、公平等倫理關(guān)切,針對(duì)人工智能管理、研發(fā)、供應(yīng)、使用等活動(dòng)提出了六項(xiàng)基本倫理要求和四方面特定倫理規(guī)范。(一)規(guī)范提出目的第一條本規(guī)范旨在將倫理道德融入人工智能全生命周期,促進(jìn)公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問(wèn)題。(二)規(guī)范適用范圍

第二條本規(guī)范適用于從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等。(一)管理活動(dòng)主要指人工智能相關(guān)的戰(zhàn)略規(guī)劃、政策法規(guī)和技術(shù)標(biāo)準(zhǔn)制定實(shí)施,資源配置以及監(jiān)督審查等。(二)研發(fā)活動(dòng)主要指人工智能相關(guān)的科學(xué)研究、技術(shù)開發(fā)、產(chǎn)品研制等。(三)供應(yīng)活動(dòng)主要指人工智能產(chǎn)品與服務(wù)相關(guān)的生產(chǎn)、運(yùn)營(yíng)、銷售等。(四)使用活動(dòng)主要指人工智能產(chǎn)品與服務(wù)相關(guān)的采購(gòu)、消費(fèi)、操作等。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍4中國(guó):新一代人工智能倫理規(guī)范(一)增進(jìn)人類福祉。堅(jiān)持以人為本,遵循人類共同價(jià)值觀,尊重人權(quán)和人類根本利益訴求,遵守國(guó)家或地區(qū)倫理道德。堅(jiān)持公共利益優(yōu)先,促進(jìn)人機(jī)和諧友好,改善民生,增強(qiáng)獲得感幸福感,推動(dòng)經(jīng)濟(jì)、社會(huì)及生態(tài)可持續(xù)發(fā)展,共建人類命運(yùn)共同體。(二)促進(jìn)公平公正。堅(jiān)持普惠性和包容性,切實(shí)保護(hù)各相關(guān)主體合法權(quán)益,推動(dòng)全社會(huì)公平共享人工智能帶來(lái)的益處,促進(jìn)社會(huì)公平正義和機(jī)會(huì)均等。在提供人工智能產(chǎn)品和服務(wù)時(shí),應(yīng)充分尊重和幫助弱勢(shì)群體、特殊群體,并根據(jù)需要提供相應(yīng)替代方案。(三)保護(hù)隱私安全。充分尊重個(gè)人信息知情、同意等權(quán)利,依照合法、正當(dāng)、必要和誠(chéng)信原則處理個(gè)人信息,保障個(gè)人隱私與數(shù)據(jù)安全,不得損害個(gè)人合法數(shù)據(jù)權(quán)益,不得以竊取、篡改、泄露等方式非法收集利用個(gè)人信息,不得侵害個(gè)人隱私權(quán)。(四)確??煽乜尚拧1U先祟悡碛谐浞肿灾鳑Q策權(quán),有權(quán)選擇是否接受人工智能提供的服務(wù),有權(quán)隨時(shí)退出與人工智能的交互,有權(quán)隨時(shí)中止人工智能系統(tǒng)的運(yùn)行,確保人工智能始終處于人類控制之下。(五)強(qiáng)化責(zé)任擔(dān)當(dāng)。堅(jiān)持人類是最終責(zé)任主體,明確利益相關(guān)者的責(zé)任,全面增強(qiáng)責(zé)任意識(shí),在人工智能全生命周期各環(huán)節(jié)自省自律,建立人工智能問(wèn)責(zé)機(jī)制,不回避責(zé)任審查,不逃避應(yīng)負(fù)責(zé)任。(六)提升倫理素養(yǎng)。積極學(xué)習(xí)和普及人工智能倫理知識(shí),客觀認(rèn)識(shí)倫理問(wèn)題,不低估不夸大倫理風(fēng)險(xiǎn)。主動(dòng)開展或參與人工智能倫理問(wèn)題討論,深入推動(dòng)人工智能倫理治理實(shí)踐,提升應(yīng)對(duì)能力。9.1政府組織人工智能倫理原則/規(guī)范人工智能各類活動(dòng)應(yīng)遵循的基本倫理規(guī)范2024/7/23人工智能倫理-古天龍5中國(guó):新一代人工智能倫理規(guī)范第五條推動(dòng)敏捷治理。尊重人工智能發(fā)展規(guī)律,充分認(rèn)識(shí)人工智能的潛力與局限,持續(xù)優(yōu)化治理機(jī)制和方式,在戰(zhàn)略決策、制度建設(shè)、資源配置過(guò)程中,不脫離實(shí)際、不急功近利,有序推動(dòng)人工智能健康和可持續(xù)發(fā)展。第六條積極實(shí)踐示范。遵守人工智能相關(guān)法規(guī)、政策和標(biāo)準(zhǔn),主動(dòng)將人工智能倫理道德融入管理全過(guò)程,率先成為人工智能倫理治理的實(shí)踐者和推動(dòng)者,及時(shí)總結(jié)推廣人工智能治理經(jīng)驗(yàn),積極回應(yīng)社會(huì)對(duì)人工智能的倫理關(guān)切。第七條正確行權(quán)用權(quán)。明確人工智能相關(guān)管理活動(dòng)的職責(zé)和權(quán)力邊界,規(guī)范權(quán)力運(yùn)行條件和程序。充分尊重并保障相關(guān)主體的隱私、自由、尊嚴(yán)、安全等權(quán)利及其他合法權(quán)益,禁止權(quán)力不當(dāng)行使對(duì)自然人、法人和其他組織合法權(quán)益造成侵害。第八條加強(qiáng)風(fēng)險(xiǎn)防范。增強(qiáng)底線思維和風(fēng)險(xiǎn)意識(shí),加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判,及時(shí)開展系統(tǒng)的風(fēng)險(xiǎn)監(jiān)測(cè)和評(píng)估,建立有效的風(fēng)險(xiǎn)預(yù)警機(jī)制,提升人工智能倫理風(fēng)險(xiǎn)管控和處置能力。第九條促進(jìn)包容開放。充分重視人工智能各利益相關(guān)主體的權(quán)益與訴求,鼓勵(lì)應(yīng)用多樣化的人工智能技術(shù)解決經(jīng)濟(jì)社會(huì)發(fā)展實(shí)際問(wèn)題,鼓勵(lì)跨學(xué)科、跨領(lǐng)域、跨地區(qū)、跨國(guó)界的交流與合作,推動(dòng)形成具有廣泛共識(shí)的人工智能治理框架和標(biāo)準(zhǔn)規(guī)范。9.1政府組織人工智能倫理原則/規(guī)范人工智能特定活動(dòng)應(yīng)遵守的管理規(guī)范2024/7/23人工智能倫理-古天龍6中國(guó):新一代人工智能倫理規(guī)范第十條強(qiáng)化自律意識(shí)。加強(qiáng)人工智能研發(fā)相關(guān)活動(dòng)的自我約束,主動(dòng)將人工智能倫理道德融入技術(shù)研發(fā)各環(huán)節(jié),自覺(jué)開展自我審查,加強(qiáng)自我管理,不從事違背倫理道德的人工智能研發(fā)。第十一條提升數(shù)據(jù)質(zhì)量。在數(shù)據(jù)收集、存儲(chǔ)、使用、加工、傳輸、提供、公開等環(huán)節(jié),嚴(yán)格遵守?cái)?shù)據(jù)相關(guān)法律、標(biāo)準(zhǔn)與規(guī)范,提升數(shù)據(jù)的完整性、及時(shí)性、一致性、規(guī)范性和準(zhǔn)確性等。第十二條增強(qiáng)安全透明。在算法設(shè)計(jì)、實(shí)現(xiàn)、應(yīng)用等環(huán)節(jié),提升透明性、可解釋性、可理解性、可靠性、可控性,增強(qiáng)人工智能系統(tǒng)的韌性、自適應(yīng)性和抗干擾能力,逐步實(shí)現(xiàn)可驗(yàn)證、可審核、可監(jiān)督、可追溯、可預(yù)測(cè)、可信賴。第十三條避免偏見歧視。在數(shù)據(jù)采集和算法開發(fā)中,加強(qiáng)倫理審查,充分考慮差異化訴求,避免可能存在的數(shù)據(jù)與算法偏見,努力實(shí)現(xiàn)人工智能系統(tǒng)的普惠性、公平性和非歧視性。9.1政府組織人工智能倫理原則/規(guī)范人工智能特定活動(dòng)應(yīng)遵守的研發(fā)規(guī)范2024/7/23人工智能倫理-古天龍7中國(guó):新一代人工智能倫理規(guī)范9.1政府組織人工智能倫理原則/規(guī)范人工智能特定活動(dòng)應(yīng)遵守的供應(yīng)規(guī)范第十四條尊重市場(chǎng)規(guī)則。嚴(yán)格遵守市場(chǎng)準(zhǔn)入、競(jìng)爭(zhēng)、交易等活動(dòng)的各種規(guī)章制度,積極維護(hù)市場(chǎng)秩序,營(yíng)造有利于人工智能發(fā)展的市場(chǎng)環(huán)境,不得以數(shù)據(jù)壟斷、平臺(tái)壟斷等破壞市場(chǎng)有序競(jìng)爭(zhēng),禁止以任何手段侵犯其他主體的知識(shí)產(chǎn)權(quán)。第十五條加強(qiáng)質(zhì)量管控。強(qiáng)化人工智能產(chǎn)品與服務(wù)的質(zhì)量監(jiān)測(cè)和使用評(píng)估,避免因設(shè)計(jì)和產(chǎn)品缺陷等問(wèn)題導(dǎo)致的人身安全、財(cái)產(chǎn)安全、用戶隱私等侵害,不得經(jīng)營(yíng)、銷售或提供不符合質(zhì)量標(biāo)準(zhǔn)的產(chǎn)品與服務(wù)。第十六條保障用戶權(quán)益。在產(chǎn)品與服務(wù)中使用人工智能技術(shù)應(yīng)明確告知用戶,應(yīng)標(biāo)識(shí)人工智能產(chǎn)品與服務(wù)的功能與局限,保障用戶知情、同意等權(quán)利。為用戶選擇使用或退出人工智能模式提供簡(jiǎn)便易懂的解決方案,不得為用戶平等使用人工智能設(shè)置障礙。第十七條強(qiáng)化應(yīng)急保障。研究制定應(yīng)急機(jī)制和損失補(bǔ)償方案或措施,及時(shí)監(jiān)測(cè)人工智能系統(tǒng),及時(shí)響應(yīng)和處理用戶的反饋信息,及時(shí)防范系統(tǒng)性故障,隨時(shí)準(zhǔn)備協(xié)助相關(guān)主體依法依規(guī)對(duì)人工智能系統(tǒng)進(jìn)行干預(yù),減少損失,規(guī)避風(fēng)險(xiǎn)。2024/7/23人工智能倫理-古天龍8中國(guó):新一代人工智能倫理規(guī)范第十八條提倡善意使用。加強(qiáng)人工智能產(chǎn)品與服務(wù)使用前的論證和評(píng)估,充分了解人工智能產(chǎn)品與服務(wù)帶來(lái)的益處,充分考慮各利益相關(guān)主體的合法權(quán)益,更好促進(jìn)經(jīng)濟(jì)繁榮、社會(huì)進(jìn)步和可持續(xù)發(fā)展。第十九條避免誤用濫用。充分了解人工智能產(chǎn)品與服務(wù)的適用范圍和負(fù)面影響,切實(shí)尊重相關(guān)主體不使用人工智能產(chǎn)品或服務(wù)的權(quán)利,避免不當(dāng)使用和濫用人工智能產(chǎn)品與服務(wù),避免非故意造成對(duì)他人合法權(quán)益的損害。第二十條禁止違規(guī)惡用。禁止使用不符合法律法規(guī)、倫理道德和標(biāo)準(zhǔn)規(guī)范的人工智能產(chǎn)品與服務(wù),禁止使用人工智能產(chǎn)品與服務(wù)從事不法活動(dòng),嚴(yán)禁危害國(guó)家安全、公共安全和生產(chǎn)安全,嚴(yán)禁損害社會(huì)公共利益等。第二十一條及時(shí)主動(dòng)反饋。積極參與人工智能倫理治理實(shí)踐,對(duì)使用人工智能產(chǎn)品與服務(wù)過(guò)程中發(fā)現(xiàn)的技術(shù)安全漏洞、政策法規(guī)真空、監(jiān)管滯后等問(wèn)題,應(yīng)及時(shí)向相關(guān)主體反饋,并協(xié)助解決。第二十二條提高使用能力。積極學(xué)習(xí)人工智能相關(guān)知識(shí),主動(dòng)掌握人工智能產(chǎn)品與服務(wù)的運(yùn)營(yíng)、維護(hù)、應(yīng)急處置等各使用環(huán)節(jié)所需技能,確保人工智能產(chǎn)品與服務(wù)安全使用和高效利用。9.1政府組織人工智能倫理原則/規(guī)范人工智能特定活動(dòng)應(yīng)遵守的使用規(guī)范2024/7/23人工智能倫理-古天龍9中國(guó):新一代人工智能倫理規(guī)范9.1政府組織人工智能倫理原則/規(guī)范組織實(shí)施第二十三條本規(guī)范由國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布,并負(fù)責(zé)解釋和指導(dǎo)實(shí)施。第二十四條各級(jí)管理部門、企業(yè)、高校、科研院所、協(xié)會(huì)學(xué)會(huì)和其他相關(guān)機(jī)構(gòu)可依據(jù)本規(guī)范,結(jié)合實(shí)際需求,制訂更為具體的倫理規(guī)范和相關(guān)措施。第二十五條本規(guī)范自公布之日起施行,并根據(jù)經(jīng)濟(jì)社會(huì)發(fā)展需求和人工智能發(fā)展情況適時(shí)修訂。2024/7/23人工智能倫理-古天龍10中國(guó):新一代人工智能治理原則2019年6月17日,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《發(fā)展負(fù)責(zé)任的人工智能:新一代人工智能治理原則》,明確提出人工智能發(fā)展相關(guān)各方應(yīng)遵循以下原則。(1)和諧友好人工智能發(fā)展應(yīng)以增進(jìn)人類共同福祉為目標(biāo);應(yīng)符合人類的價(jià)值觀和倫理道德,促進(jìn)人機(jī)和諧,服務(wù)人類文明進(jìn)步;應(yīng)以保障社會(huì)安全、尊重人類權(quán)益為前提,避免誤用,禁止濫用、惡用。(2)公平公正人工智能發(fā)展應(yīng)促進(jìn)公平公正,保障利益相關(guān)者的權(quán)益,促進(jìn)機(jī)會(huì)均等。通過(guò)持續(xù)提高技術(shù)水平、改善管理方式,在數(shù)據(jù)獲取、算法設(shè)計(jì)、技術(shù)開發(fā)、產(chǎn)品研發(fā)和應(yīng)用過(guò)程中消除偏見和歧視。(3)包容共享人工智能應(yīng)促進(jìn)綠色發(fā)展,符合環(huán)境友好、資源節(jié)約的要求;應(yīng)促進(jìn)協(xié)調(diào)發(fā)展,推動(dòng)各行各業(yè)轉(zhuǎn)型升級(jí),縮小區(qū)域差距;應(yīng)促進(jìn)包容發(fā)展,加強(qiáng)人工智能教育及科普,提升弱勢(shì)群體適應(yīng)性,努力消除數(shù)字鴻溝;應(yīng)促進(jìn)共享發(fā)展,避免數(shù)據(jù)與平臺(tái)壟斷,鼓勵(lì)開放有序競(jìng)爭(zhēng)。(4)尊重隱私人工智能發(fā)展應(yīng)尊重和保護(hù)個(gè)人隱私,充分保障個(gè)人的知情權(quán)和選擇權(quán)。在個(gè)人信息的收集、存儲(chǔ)、處理、使用等各環(huán)節(jié)應(yīng)設(shè)置邊界,建立規(guī)范。完善個(gè)人數(shù)據(jù)授權(quán)撤銷機(jī)制,反對(duì)任何竊取、篡改、泄露和其他非法收集利用個(gè)人信息的行為。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍11中國(guó):新一代人工智能治理原則(5)安全可控人工智能系統(tǒng)應(yīng)不斷提升透明性、可解釋性、可靠性、可控性,逐步實(shí)現(xiàn)可審核、可監(jiān)督、可追溯、可信賴。高度關(guān)注人工智能系統(tǒng)的安全,提高人工智能魯棒性及抗干擾性,形成人工智能安全評(píng)估和管控能力。(6)共擔(dān)責(zé)任人工智能研發(fā)者、使用者及其他相關(guān)方應(yīng)具有高度的社會(huì)責(zé)任感和自律意識(shí),嚴(yán)格遵守法律法規(guī)、倫理道德和標(biāo)準(zhǔn)規(guī)范。建立人工智能問(wèn)責(zé)機(jī)制,明確研發(fā)者、使用者和受用者等的責(zé)任。人工智能應(yīng)用過(guò)程中應(yīng)確保人類知情權(quán),告知可能產(chǎn)生的風(fēng)險(xiǎn)和影響,防范利用人工智能進(jìn)行非法活動(dòng)。(7)開放協(xié)作鼓勵(lì)跨學(xué)科、跨領(lǐng)域、跨地區(qū)、跨國(guó)界的交流合作,推動(dòng)國(guó)際組織、政府部門、科研機(jī)構(gòu)、教育機(jī)構(gòu)、企業(yè)、社會(huì)組織、公眾在人工智能發(fā)展與治理中的協(xié)調(diào)互動(dòng)。開展國(guó)際對(duì)話與合作,在充分尊重各國(guó)人工智能治理原則和實(shí)踐的前提下,推動(dòng)形成具有廣泛共識(shí)的國(guó)際人工智能治理框架和標(biāo)準(zhǔn)規(guī)范。(8)敏捷治理尊重人工智能發(fā)展規(guī)律,在推動(dòng)人工智能創(chuàng)新發(fā)展、有序發(fā)展的同時(shí),及時(shí)發(fā)現(xiàn)和解決可能引發(fā)的風(fēng)險(xiǎn)。不斷提升智能化技術(shù)手段,優(yōu)化管理機(jī)制,完善治理體系,推動(dòng)治理原則貫穿人工智能產(chǎn)品和服務(wù)的全生命周期。對(duì)未來(lái)更高級(jí)人工智能的潛在風(fēng)險(xiǎn)持續(xù)開展研究和預(yù)判,確保人工智能始終朝著有利于社會(huì)的方向發(fā)展。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍12美國(guó):人工智能應(yīng)用規(guī)范指南2020年1月7日,為監(jiān)管AI發(fā)展應(yīng)用,美國(guó)白宮發(fā)布《人工智能應(yīng)用規(guī)范指南(草案)》(GuidanceforRegulationofArtificialIntelligenceApplications)。(2)公眾參與公眾參與,特別是在人工智能使用有關(guān)個(gè)人信息的情況下,將改善機(jī)構(gòu)的問(wèn)責(zé)制和監(jiān)管結(jié)果,并增加公眾的信任和信心。機(jī)構(gòu)應(yīng)在可行且符合法律要求的范圍內(nèi),為公眾提供充足的機(jī)會(huì),參與規(guī)則制定過(guò)程的所有階段。鼓勵(lì)各機(jī)構(gòu)在切實(shí)可行的范圍內(nèi),向公眾通報(bào)情況,并提高公眾對(duì)標(biāo)準(zhǔn)和其他信息性文件的認(rèn)識(shí)和普及。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍13(1)公眾對(duì)人工智能的信任人工智能將在社會(huì)和經(jīng)濟(jì)生活各個(gè)領(lǐng)域產(chǎn)生積極影響,包括就業(yè)、交通、教育、金融、醫(yī)療保健、個(gè)人保障和制造業(yè)。與此同時(shí),人工智能應(yīng)用可能會(huì)對(duì)隱私、個(gè)人權(quán)利、自主權(quán)和公民自由構(gòu)成風(fēng)險(xiǎn),必須仔細(xì)評(píng)估并妥善處理這些風(fēng)險(xiǎn)。人工智能的繼續(xù)采用和接受將在很大程度上取決于公眾的信任和認(rèn)可。因此,政府對(duì)人工智能的監(jiān)管和非監(jiān)管方法促進(jìn)可靠、穩(wěn)健和可信的人工智能應(yīng)用是非常重要的,這將有助于公眾對(duì)人工智能的信任。對(duì)隱私和其他風(fēng)險(xiǎn)的適當(dāng)監(jiān)管或非監(jiān)管響應(yīng)必須取決于所呈現(xiàn)的風(fēng)險(xiǎn)的性質(zhì)和適當(dāng)?shù)木徑獯胧?。美?guó):人工智能應(yīng)用規(guī)范指南(3)科學(xué)誠(chéng)信與信息質(zhì)量政府對(duì)人工智能應(yīng)用的監(jiān)管和非監(jiān)管方法應(yīng)利用科學(xué)技術(shù)信息和流程。各機(jī)構(gòu)應(yīng)以高質(zhì)量、高透明度和高合規(guī)性的標(biāo)準(zhǔn)存檔信息,這些信息包括可能對(duì)重要的公共政策或私營(yíng)部門決策(包括消費(fèi)者的決策)產(chǎn)生明確和實(shí)質(zhì)性影響,無(wú)論這些信息是由政府提供的還是由政府從第三方獲得的。根據(jù)規(guī)則制定和指導(dǎo)過(guò)程中的科學(xué)完整性原則,各機(jī)構(gòu)應(yīng)制定有關(guān)人工智能的監(jiān)管方法,既為政策決策提供信息,又可促進(jìn)公眾對(duì)人工智能的信任。最佳實(shí)踐包括透明地闡明人工智能應(yīng)用程序的優(yōu)點(diǎn)、缺點(diǎn)、預(yù)期的優(yōu)化或結(jié)果、偏差緩解和結(jié)果的適當(dāng)使用。各機(jī)構(gòu)還應(yīng)注意,為了使人工智能應(yīng)用程序產(chǎn)生可預(yù)測(cè)、可靠和優(yōu)化的結(jié)果,用于訓(xùn)練人工智能系統(tǒng)的數(shù)據(jù)必須具有足夠的質(zhì)量,以達(dá)到預(yù)期用途。(4)風(fēng)險(xiǎn)評(píng)估與管理對(duì)人工智能的監(jiān)管和非監(jiān)管方法應(yīng)基于風(fēng)險(xiǎn)評(píng)估和風(fēng)險(xiǎn)管理在不同機(jī)構(gòu)和不同技術(shù)之間的一致應(yīng)用。沒(méi)有必要降低每一個(gè)可預(yù)見的風(fēng)險(xiǎn)。事實(shí)上,監(jiān)管政策的一個(gè)基本原則是,所有活動(dòng)都需要權(quán)衡。應(yīng)采用基于風(fēng)險(xiǎn)的方法來(lái)確定哪些風(fēng)險(xiǎn)是可接受的,哪些風(fēng)險(xiǎn)可能造成不可接受的損害,或者損害的預(yù)期成本大于預(yù)期收益。各機(jī)構(gòu)對(duì)其風(fēng)險(xiǎn)評(píng)估應(yīng)保持透明,并在適當(dāng)?shù)臅r(shí)間間隔內(nèi)重新評(píng)估其假設(shè)和結(jié)論,以促進(jìn)問(wèn)責(zé)制。相應(yīng)地,如果人工智能工具失敗或成功,根據(jù)產(chǎn)生的后果以及性質(zhì)可以幫助確定適當(dāng)?shù)谋O(jiān)管力度和類型,以識(shí)別和減輕風(fēng)險(xiǎn)。具體而言,各機(jī)構(gòu)應(yīng)遵循第12866號(hào)行政命令“監(jiān)管規(guī)劃和審查”的指示,考慮其管轄范圍內(nèi)各種活動(dòng)所構(gòu)成風(fēng)險(xiǎn)的程度和性質(zhì)。在適當(dāng)?shù)那闆r下,五種預(yù)防性監(jiān)管方法將避免因不合理使用而帶來(lái)不必要的危害。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍14美國(guó):人工智能應(yīng)用規(guī)范指南(5)收益與成本在制定監(jiān)管和非監(jiān)管方法時(shí),機(jī)構(gòu)通常會(huì)考慮將人工智能應(yīng)用和部署到已受監(jiān)管的行業(yè)中。據(jù)推測(cè),除非這些投資提供了巨大的經(jīng)濟(jì)潛力,否則不會(huì)有如此重大的投資。與所有這種性質(zhì)的技術(shù)轉(zhuǎn)變一樣,人工智能的引入也可能帶來(lái)獨(dú)特的挑戰(zhàn)。例如,雖然更廣泛的法律環(huán)境已經(jīng)應(yīng)用于人工智能應(yīng)用,但在某些情況下,現(xiàn)有法律對(duì)責(zé)任和責(zé)任問(wèn)題的應(yīng)用可能不清楚,這導(dǎo)致一些機(jī)構(gòu)需要與他們的當(dāng)局相一致,來(lái)評(píng)估利益、成本,與任何確定的或預(yù)期的責(zé)任方法相關(guān)的分配效應(yīng)。行政命令12866呼吁機(jī)構(gòu)“選擇那些最大化凈利益的方法(包括潛在的經(jīng)濟(jì)、環(huán)境、公共衛(wèi)生和安全,以及其他優(yōu)勢(shì);分配影響和公平性)”。在符合法律規(guī)定的情況下,機(jī)構(gòu)在考慮與人工智能應(yīng)用程序的開發(fā)和部署有關(guān)的法規(guī)之前,應(yīng)仔細(xì)考慮全面的社會(huì)成本、效益和分配效果。與設(shè)計(jì)用來(lái)補(bǔ)充或替代人工智能的系統(tǒng)相比,這種考慮將包括采用人工智能產(chǎn)生的潛在收益和成本,以及與其他現(xiàn)有的容忍風(fēng)險(xiǎn)的程度進(jìn)行比較。如果無(wú)法與當(dāng)前系統(tǒng)或流程進(jìn)行比較,也應(yīng)評(píng)估不實(shí)施系統(tǒng)的風(fēng)險(xiǎn)和成本。(6)靈活性在開發(fā)監(jiān)管和非監(jiān)管方法時(shí),機(jī)構(gòu)應(yīng)采用基于績(jī)效的靈活方法,以適應(yīng)人工智能應(yīng)用的快速變化和更新。在大多數(shù)情況下,試圖規(guī)定僵化的人工智能應(yīng)用技術(shù)規(guī)范、基于設(shè)計(jì)的法規(guī)是不切實(shí)際和無(wú)效的,因?yàn)槿斯ぶ悄軐⒁灶A(yù)期的速度發(fā)展,因此機(jī)構(gòu)需要對(duì)新的信息和證據(jù)作出反應(yīng)。有針對(duì)性的機(jī)構(gòu)合格評(píng)定計(jì)劃,以保護(hù)健康和安全、隱私和其他價(jià)值,對(duì)一個(gè)成功、靈活的、基于績(jī)效的方法至關(guān)重要。為了推進(jìn)美國(guó)的創(chuàng)新,各機(jī)構(gòu)應(yīng)牢記人工智能的國(guó)際應(yīng)用,確保美國(guó)公司不受美國(guó)監(jiān)管制度的不利影響。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍15美國(guó):人工智能應(yīng)用規(guī)范指南(7)公平和不歧視各機(jī)構(gòu)應(yīng)以透明的方式考慮人工智能應(yīng)用可能對(duì)歧視產(chǎn)生的影響。人工智能的應(yīng)用有可能減少目前由人的主觀性造成的歧視。同時(shí),在某些情況下,應(yīng)用可能會(huì)引入現(xiàn)實(shí)世界的偏見,產(chǎn)生歧視性的結(jié)果或決定,損害公眾對(duì)人工智能的信任和信心。在考慮與人工智能應(yīng)用相關(guān)的法規(guī)或非法規(guī)方法時(shí),各機(jī)構(gòu)應(yīng)依法考慮有關(guān)人工智能應(yīng)用產(chǎn)生的結(jié)果和決定的公平和不歧視問(wèn)題,以及有關(guān)人工智能應(yīng)用是否可能降低非法、不公平的程度,或與現(xiàn)有過(guò)程相比,其他意想不到的歧視。(8)披露和透明度除了改進(jìn)規(guī)則制定過(guò)程外,透明度和公開還可以增加公眾對(duì)人工智能應(yīng)用的信任和信心。有時(shí),此類公開內(nèi)容可能包括識(shí)別人工智能的使用時(shí)間。如果適用于解決有關(guān)應(yīng)用程序如何影響人類最終用戶的問(wèn)題。機(jī)構(gòu)應(yīng)該意識(shí)到人工智能的一些應(yīng)用可以提高人類的自主性。在考慮采取更多的公開和透明措施之前,機(jī)構(gòu)應(yīng)該仔細(xì)考慮現(xiàn)有的或正在發(fā)展的法律、政策和監(jiān)管環(huán)境的充分性。(9)安全各機(jī)構(gòu)應(yīng)安全,有保障,按預(yù)期運(yùn)行開發(fā)AI系統(tǒng),并在整個(gè)AI設(shè)計(jì)、開發(fā)、部署和運(yùn)行過(guò)程中考慮安全問(wèn)題,此外還應(yīng)特別注意現(xiàn)有的保障措施,以確保人工智能系統(tǒng)處理,存儲(chǔ)和傳輸?shù)男畔⒌谋C苄裕暾院涂捎眯?。各機(jī)構(gòu)應(yīng)進(jìn)一步考慮擔(dān)保人的方法監(jiān)測(cè)系統(tǒng)的彈性,防止不法人士利用人工智能系統(tǒng)的弱點(diǎn),包括AI運(yùn)作中帶來(lái)的網(wǎng)絡(luò)安全風(fēng)險(xiǎn),以及對(duì)受監(jiān)管機(jī)構(gòu)的人工智能技術(shù)進(jìn)行對(duì)抗性使用。(10)機(jī)構(gòu)間協(xié)調(diào)各機(jī)構(gòu)應(yīng)相互協(xié)調(diào),分享經(jīng)驗(yàn),確保人工智能相關(guān)政策的一致性和可預(yù)見性,以促進(jìn)美國(guó)人工智能領(lǐng)域的創(chuàng)新和增長(zhǎng),同時(shí)保護(hù)隱私,公民自由和美國(guó)價(jià)值觀,并在適當(dāng)時(shí)允許采取針對(duì)具體部門和應(yīng)用的方法。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍16英國(guó):英國(guó)人工智能發(fā)展的計(jì)劃2018年4月16日,英國(guó)議會(huì)下屬的人工智能特別委員會(huì)發(fā)布了《英國(guó)人工智能發(fā)展的計(jì)劃、能力與志向》(AIintheUK:ready,willingandable?)。報(bào)告幾乎涵蓋了人工智能的方方面面,從其概念、設(shè)計(jì)、研發(fā)和其對(duì)工作、生活、醫(yī)療等領(lǐng)域的影響以及應(yīng)對(duì)人工智能威脅、塑造人工智能未來(lái)等層面。報(bào)告針對(duì)英國(guó)議會(huì)較為關(guān)注的人工智能法律政策等十大熱點(diǎn)問(wèn)題進(jìn)行了討論,并提供了相關(guān)建議。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍17(一)促進(jìn)數(shù)據(jù)訪問(wèn)和共享,最大化公共數(shù)據(jù)的價(jià)值(二)實(shí)現(xiàn)可理解、可信賴的人工智能,避免在特定重要領(lǐng)域采用“黑盒”算法(三)理解算法歧視,配置訓(xùn)練數(shù)據(jù)和算法的審查、測(cè)試機(jī)制(四)警惕數(shù)據(jù)壟斷,更新倫理、數(shù)據(jù)保護(hù)和競(jìng)爭(zhēng)框架(五)研究并應(yīng)對(duì)法律責(zé)任挑戰(zhàn),闡明責(zé)任規(guī)則及其適用性(六)應(yīng)對(duì)人工智能和數(shù)據(jù)相關(guān)的新型網(wǎng)絡(luò)犯罪活動(dòng)(七)統(tǒng)一自主武器的國(guó)際概念,就其開發(fā)和使用形成國(guó)際共識(shí)(八)成立新的人工智能機(jī)構(gòu),發(fā)揮全方位的戰(zhàn)略、咨詢和領(lǐng)導(dǎo)作用(九)當(dāng)前階段沒(méi)必要對(duì)人工智能采取統(tǒng)一的專門監(jiān)管(十)制定國(guó)家人工智能準(zhǔn)則,推動(dòng)形成人工智能研發(fā)和使用的全球共同倫理框架歐盟:可信賴人工智能的倫理準(zhǔn)則2018年4月,歐盟委員會(huì)于任命由52位學(xué)術(shù)界、工業(yè)界和民間社團(tuán)的獨(dú)立專家組成的歐洲人工智能高級(jí)別專家組,專門負(fù)責(zé)撰寫人工智能倫理準(zhǔn)則并為歐盟提供政策和投資建議。2019年4月8日,歐盟委員會(huì)正式發(fā)布了人工智能倫理準(zhǔn)則《可信賴人工智能的倫理準(zhǔn)則》(ETHICSGUIDELINESFORTRUSTWORTHYAI)。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍18《可信賴人工智能倫理準(zhǔn)則》指出,可信賴人工智能包含兩方面要素:第一,其開發(fā)、推廣及使用應(yīng)確保滿足“倫理目標(biāo)”:與基本權(quán)利及所適用監(jiān)管相符、且尊重核心原則與價(jià)值。在技術(shù)方面穩(wěn)健而可信賴。第二,誠(chéng)然即使保有善意,技術(shù)方面不成熟仍可帶來(lái)預(yù)料之外的危害?!犊尚刨嚾斯ぶ悄軅惱頊?zhǔn)則》著重提出了可信賴AI的3個(gè)基本條件、4條倫理準(zhǔn)則及可信賴AI應(yīng)當(dāng)滿足的7個(gè)條件。(一)三個(gè)基本條件(1)合法;(2)合乎倫理:(3)魯棒(二)可信賴AI的4條倫理準(zhǔn)則(1)尊重人的自主性:AI系統(tǒng)不應(yīng)該、脅迫、欺騙、操縱人類。相反,AI系統(tǒng)的設(shè)計(jì)應(yīng)該以增強(qiáng)、補(bǔ)充人類的認(rèn)知、社會(huì)和文化技能為目的。人類和AI系統(tǒng)之間的功能分配應(yīng)遵循以人為中心的設(shè)計(jì)原則,而且AI系統(tǒng)的工作過(guò)程中要確保人的監(jiān)督。AI系統(tǒng)也可能從根本上改變工作領(lǐng)域。它應(yīng)該在工作環(huán)境中支持人類,并致力于創(chuàng)造有意義的工作。(2)預(yù)防傷害:AI系統(tǒng)不應(yīng)該引發(fā)、加重傷害,或?qū)θ祟惍a(chǎn)生不好的影響。因此需要保護(hù)人類的尊嚴(yán)和身心健康。AI系統(tǒng)和運(yùn)行的環(huán)境必須是安全的。因此要求技術(shù)上必須是魯棒的,而且要確保AI技術(shù)不會(huì)被惡意使用。尤其要注意可能會(huì)惡意使用該技術(shù)的人和可能會(huì)造成不良影響的應(yīng)用場(chǎng)景。歐盟:可信賴人工智能的倫理準(zhǔn)則9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍19(3)公平性:AI系統(tǒng)的開發(fā)、實(shí)現(xiàn)和應(yīng)用必須是公平的。雖然對(duì)公平性可能會(huì)有不同的解讀,但是應(yīng)當(dāng)確保個(gè)人和組織不會(huì)受到不公平的偏見、歧視等。如果AI系統(tǒng)可以避免不公平的偏見,就可以增加社會(huì)公平性。為此,AI系統(tǒng)做出的決策以及做決策的過(guò)程應(yīng)該是可解釋的。(4)可解釋性:可解釋性對(duì)構(gòu)建用戶對(duì)AI系統(tǒng)的信任是非常關(guān)鍵的。也就是說(shuō)整個(gè)決策的過(guò)程、輸入和輸出的關(guān)系都應(yīng)該是可解釋的。但目前的人工智能算法和模型都是以黑盒(blackbox)的形式運(yùn)行的。歐盟:可信賴人工智能的倫理準(zhǔn)則9.1政府組織人工智能倫理原則/規(guī)范(三)可信賴AI應(yīng)當(dāng)滿足的7個(gè)條件(1)人的能動(dòng)性和監(jiān)督:人工智能不能侵犯人類的自主性。人類不應(yīng)該被人工智能系統(tǒng)操縱或威脅,人類應(yīng)該能夠干預(yù)或監(jiān)督人工智能的每一項(xiàng)決定。(2)技術(shù)魯棒性和安全性:人工智能應(yīng)該是安全和準(zhǔn)確的。它不應(yīng)該輕易受外部攻擊的影響,它應(yīng)該非??煽俊#?)隱私和數(shù)據(jù)管理:人工智能收集的個(gè)人數(shù)據(jù)應(yīng)該是安全的、私有的。它不應(yīng)該讓任何人接觸,也不應(yīng)該輕易被盜。(4)透明性:用于創(chuàng)建人工智能系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問(wèn)的,應(yīng)確保人工智能決策的可追溯性。換言之,運(yùn)營(yíng)商應(yīng)該能夠解釋他們的人工智能系統(tǒng)是如何做出決策的。(5)多樣性、非歧視性和公平性:人工智能提供的服務(wù)應(yīng)面向所有人,無(wú)論年齡、性別、種族或其他特征。同樣,系統(tǒng)不應(yīng)該有任何偏向。(6)社會(huì)和環(huán)境福祉:應(yīng)采用人工智能系統(tǒng)來(lái)促進(jìn)積極的社會(huì)變革,增強(qiáng)可持續(xù)性和生態(tài)責(zé)任。(7)問(wèn)責(zé):應(yīng)建立機(jī)制,確保對(duì)人工智能系統(tǒng)及其成果負(fù)責(zé)和問(wèn)責(zé)。2024/7/23人工智能倫理-古天龍20G20:G20人工智能原則2019年6月28日,二十國(guó)集團(tuán)(G20)在日本筑波市舉行的部長(zhǎng)級(jí)會(huì)議首次討論了人工智能問(wèn)題,提出了《G20人工智能原則》?!禛20人工智能原則》主要包含兩個(gè)部分信息:第一部分列出了“負(fù)責(zé)任地管理可信賴AI的原則”,第二部分為“實(shí)現(xiàn)可信人工智能的國(guó)家政策和國(guó)際合作的建議”。9.1政府組織人工智能倫理原則/規(guī)范(一)負(fù)責(zé)任地管理可信賴AI的原則(1)包容性增長(zhǎng)、可持續(xù)發(fā)展及福祉利益相關(guān)方應(yīng)積極推動(dòng)可信人工智能的負(fù)責(zé)任管理,共尋人類和地球的美好未來(lái),強(qiáng)化人類能力、激發(fā)創(chuàng)造力、包容和提攜弱者,減少經(jīng)濟(jì)、社會(huì)、性別及一切不平等,保護(hù)自然環(huán)境,促進(jìn)包容性增長(zhǎng)及可持續(xù)發(fā)展并增進(jìn)人類福祉。(2)以人為本的價(jià)值觀及公平性a)人工智能各參與方應(yīng)在整個(gè)人工智能系統(tǒng)生命周期中,尊重法治、人權(quán)和民主價(jià)值的原則,包括自由與尊嚴(yán);自治與隱私;數(shù)據(jù)保護(hù)與不歧視;平等、多樣性、公平與社會(huì)正義;國(guó)際公認(rèn)的勞工權(quán)利;b)為此,人工智能各參與方應(yīng)基于當(dāng)前的技術(shù)水平與現(xiàn)實(shí)情況,采取恰當(dāng)?shù)臋C(jī)制與保障措施,如保留人類自主決定的能力。2024/7/23人工智能倫理-古天龍21G20:G20人工智能原則9.1政府組織人工智能倫理原則/規(guī)范(3)透明度和可解釋性人工智能各參與方應(yīng)對(duì)事關(guān)人工智能系統(tǒng)透明度的信息進(jìn)行負(fù)責(zé)任地披露,信息應(yīng)當(dāng)是有意義、切合實(shí)際并符合當(dāng)前的技術(shù)水平。a)增進(jìn)人們對(duì)人工智能系統(tǒng)的普遍認(rèn)知;b)使利益相關(guān)方認(rèn)識(shí)到他們?cè)诤腿斯ぶ悄芟到y(tǒng)進(jìn)行交互,工作場(chǎng)所也不例外;c)讓受系統(tǒng)影響的人理解人工智能系統(tǒng)產(chǎn)生的結(jié)果;d)對(duì)受到人工智能不利影響的那部分人,能夠根據(jù)以簡(jiǎn)單易懂的信息呈現(xiàn)的(系統(tǒng))因素,及(系統(tǒng))進(jìn)行預(yù)測(cè)、建議或決策的邏輯基礎(chǔ),對(duì)系統(tǒng)的結(jié)果提出質(zhì)疑。2024/7/23人工智能倫理-古天龍22(4)魯棒性、安全性和保障性a)人工智能系統(tǒng)在其整個(gè)生命周期中都應(yīng)該具備健壯性、信息安全性和物理安全性,在正常使用與可預(yù)見的其他條件(錯(cuò)誤使用或其他不利條件)下,功能運(yùn)作皆可控,摒除不合理的物理安全風(fēng)險(xiǎn);b)為此,人工智能參與各方應(yīng)確保(系統(tǒng))的可追溯性,包括能夠?qū)θ斯ぶ悄芟到y(tǒng)生命周期中涉及到的所有數(shù)據(jù)集和決策相關(guān)過(guò)程的可追溯性,確保能夠在切合實(shí)際和符合當(dāng)前技術(shù)條件下,使人工智能系統(tǒng)運(yùn)行結(jié)果可分析及響應(yīng)質(zhì)疑;c)人工智能參與各方應(yīng)根據(jù)其角色、實(shí)際情況和行為能力,在人工智能系統(tǒng)生命周期的各個(gè)階段保持系統(tǒng)風(fēng)險(xiǎn)管理方法的持續(xù)性,以應(yīng)對(duì)人工智能系統(tǒng)帶來(lái)的各類風(fēng)險(xiǎn),包括隱私、信息安全、物理安全及偏見等;(5)問(wèn)責(zé)制人工智能各參與方應(yīng)根據(jù)其角色、實(shí)際情況和當(dāng)前技術(shù)水平,確保人工智能系統(tǒng)能正常運(yùn)行,并尊重前述原則。G20:G20人工智能原則9.1政府組織人工智能倫理原則/規(guī)范(二)實(shí)現(xiàn)可信人工智能的國(guó)家政策和國(guó)際合作的建議(1)投資于AI的研究與開發(fā)a)政府應(yīng)當(dāng)長(zhǎng)期投資于研究、開發(fā)及跨學(xué)科活動(dòng),同時(shí)鼓勵(lì)民間投資;促進(jìn)可信AI領(lǐng)域的創(chuàng)新,如集中力量解決技術(shù)問(wèn)題及與AI相關(guān)的社會(huì)、法律、倫理及政策問(wèn)題;b)政府還應(yīng)當(dāng)投資于重要的開放數(shù)據(jù)集,同時(shí)鼓勵(lì)民間投資,并尊重隱私、加強(qiáng)數(shù)據(jù)保護(hù);從而建立一個(gè)有利于AI研究和開發(fā)的環(huán)境,防止非開放數(shù)據(jù)集存在的偏見因素;切實(shí)提高數(shù)據(jù)集的互操作性,促進(jìn)使用共同標(biāo)準(zhǔn)。(2)為AI培養(yǎng)數(shù)字生態(tài)系統(tǒng)政府應(yīng)當(dāng)創(chuàng)造條件,建立一個(gè)可信人工智能的數(shù)字生態(tài)系統(tǒng)。該生態(tài)系統(tǒng)至少應(yīng)包括數(shù)字技術(shù)、基礎(chǔ)設(shè)施和人工智能知識(shí)共享機(jī)制。為此,政府應(yīng)當(dāng)倡導(dǎo)數(shù)據(jù)信任機(jī)制,使數(shù)據(jù)能夠安全、平等、合法及合乎倫理地共享。(3)為AI創(chuàng)造有利的政策環(huán)境a)政府應(yīng)當(dāng)建立政策環(huán)境,促使可信人工智能盡快從研發(fā)階段過(guò)渡到部署和運(yùn)營(yíng)階段。為此,政府應(yīng)建立試點(diǎn),提供可控環(huán)境,對(duì)人工智能系統(tǒng)進(jìn)行測(cè)試、升級(jí);b)在適當(dāng)情況下,政府應(yīng)當(dāng)審查和調(diào)整其現(xiàn)行的可信人工智能的創(chuàng)新及競(jìng)爭(zhēng)政策規(guī)章框架和評(píng)估機(jī)制。2024/7/23人工智能倫理-古天龍23G20:G20人工智能原則9.1政府組織人工智能倫理原則/規(guī)范(4)培養(yǎng)人的能力和為勞動(dòng)力市場(chǎng)轉(zhuǎn)型做準(zhǔn)備a)政府應(yīng)當(dāng)與利益相關(guān)方共同做好應(yīng)對(duì)社會(huì)就業(yè)轉(zhuǎn)型的準(zhǔn)備。政府應(yīng)當(dāng)增強(qiáng)人們有效使用人工智能系統(tǒng)及與系統(tǒng)進(jìn)行交互的能力,提供必要的技能培訓(xùn);b)政府應(yīng)當(dāng)采取措施,加強(qiáng)社會(huì)溝通,確保在部署AI的過(guò)程中,工人們都能實(shí)現(xiàn)順利過(guò)渡。對(duì)工人進(jìn)行全職業(yè)生涯的技能培訓(xùn),為落后淘汰者提供保障性支持,向提供進(jìn)入新勞動(dòng)市場(chǎng)的機(jī)會(huì);c)政府應(yīng)當(dāng)與利益相關(guān)方共同倡導(dǎo)負(fù)責(zé)任地使用人工智能,加強(qiáng)工人的安全,提升職業(yè)質(zhì)量,提高團(tuán)隊(duì)意識(shí)和生產(chǎn)效率,確保人們能夠廣泛、平等地享受到AI帶來(lái)的益處。(5)實(shí)現(xiàn)可信賴AI的國(guó)際合作a)各國(guó)政府(包括發(fā)展中國(guó)家)應(yīng)當(dāng)與利益相關(guān)方一起,積極合作,推進(jìn)實(shí)施上述原則,推進(jìn)負(fù)責(zé)任地部署和應(yīng)用可信人工智能;b)各國(guó)政府應(yīng)當(dāng)在OECD框架或其他全球、地區(qū)性框架下共同促進(jìn)人工智能知識(shí)共享,推動(dòng)建立跨國(guó)、跨部門、開放多元主體的方案,使各國(guó)都能獲得長(zhǎng)期的人工智能專業(yè)能力;c)政府應(yīng)當(dāng)倡導(dǎo)為互操作及可信人工智能設(shè)立多元主體、各方一致的全球技術(shù)標(biāo)準(zhǔn);d)政府應(yīng)鼓勵(lì)建立一個(gè)評(píng)估各國(guó)人工智能研發(fā)、部署水平的指標(biāo)體系;使用該指標(biāo)體系,充分收集信息,度量各國(guó)實(shí)施上述可信人工智能原則的程度。2024/7/23人工智能倫理-古天龍24政府組織人工智能倫理原則/規(guī)范目錄人工智能職業(yè)道德準(zhǔn)則企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范1231中國(guó):新一代人工智能倫理規(guī)范中國(guó):新一代人工智能治理原則美國(guó):人工智能應(yīng)用規(guī)范指南英國(guó):英國(guó)人工智能發(fā)展的計(jì)劃、能力與志向歐盟:可信賴人工智能的倫理準(zhǔn)則G20:G20人工智能原則“BeneficialAI”會(huì)議:阿西洛馬人工智能原則騰訊:智能時(shí)代的技術(shù)倫理觀北京智源人工智能研究院:人工智能北京共識(shí)微軟:人工智能開發(fā)的六大原則谷歌:人工智能使用原則2024/7/23人工智能倫理-古天龍252017年1月,“BeneficialAI”會(huì)議在美國(guó)加州阿西洛馬市)舉行,參加者多為業(yè)界最富盛名的領(lǐng)袖,如DeepMind首席執(zhí)行官DemisHassabis和Facebook人工智能負(fù)責(zé)人YannLeCun等。會(huì)議提出了著名的“阿西洛馬人工智能原則”,旨在確保人工智能為人類利益服務(wù)。全球2000多人(包括844名人工智能和機(jī)器人領(lǐng)域的專家)聯(lián)合簽署該原則,呼吁全世界的人工智能領(lǐng)域在發(fā)展人工智能技術(shù)的同時(shí)嚴(yán)格遵守這些原則,共同保障人類未來(lái)的利益和安全。“阿西洛馬人工智能原則”主要關(guān)注三大類問(wèn)題:科研問(wèn)題、倫理和價(jià)值觀以及長(zhǎng)期問(wèn)題。這三類問(wèn)題又被細(xì)分為23項(xiàng)原則?!癇eneficialAI”會(huì)議:阿西洛馬人工智能原則9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍26(一)科研問(wèn)題(1)研究目的:人工智能研究的目標(biāo)不是為了創(chuàng)造不受指揮的智能,而是有益的智能。(2)研究經(jīng)費(fèi):對(duì)人工智能進(jìn)行投資的同時(shí),要保證有經(jīng)費(fèi)用于研究如何有益地使用人工智能,研究包括計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、法律、倫理以及社會(huì)研究中的棘手問(wèn)題,比如:如何使未來(lái)的人工智能系統(tǒng)變得高度穩(wěn)健,即系統(tǒng)會(huì)執(zhí)行我們所想的而不會(huì)發(fā)生故障或被入侵?如何通過(guò)自動(dòng)化提升我們的繁榮程度,同時(shí)保持人們的資源和意志?如何升級(jí)我們的法制體系使其更公平高效,能夠跟得上人工智能的發(fā)展速度,并且能控制人工智能帶來(lái)的風(fēng)險(xiǎn)?人工智能該與什么樣的價(jià)值體系保持一致?它該有怎樣的法律和倫理地位?(3)科學(xué)與政策的聯(lián)系:在人工智能研究員和政策制定者之間應(yīng)該要有富有建設(shè)性的和健康的交流。(4)科研文化:在人工智能研究員和開發(fā)者中應(yīng)該要培養(yǎng)起一種以合作、信任與透明為基礎(chǔ)的文化。(5)避免競(jìng)爭(zhēng):人工智能開發(fā)團(tuán)隊(duì)之間應(yīng)該積極合作,避免有人鉆空子導(dǎo)致安全標(biāo)準(zhǔn)被削弱。“BeneficialAI”會(huì)議:阿西洛馬人工智能原則9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍27(二)倫理和價(jià)值觀

(6)安全性:人工智能系統(tǒng)在它們整個(gè)的運(yùn)轉(zhuǎn)周期內(nèi)應(yīng)該是安全可靠的,并且能可應(yīng)用和可行的被驗(yàn)證。(7)故障透明性:如果一個(gè)人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。(8)司法透明性:任何自動(dòng)系統(tǒng)參與的司法決策都應(yīng)提供令人滿意的解釋,可被人類監(jiān)管機(jī)構(gòu)審核。(9)負(fù)責(zé):高級(jí)人工智能系統(tǒng)的設(shè)計(jì)者和建造者,在道德影響上,是人工智能使用、誤用和動(dòng)作的利益相關(guān)者,并有責(zé)任和機(jī)會(huì)去塑造那些影響。(10)價(jià)值觀一致:高度自主的人工智能系統(tǒng)應(yīng)該被設(shè)計(jì),確保它們的目標(biāo)和行為在整個(gè)運(yùn)行過(guò)程里與人類的價(jià)值觀相一致。(11)人類價(jià)值觀:人工智能系統(tǒng)應(yīng)被設(shè)計(jì),使其和人類尊嚴(yán)、權(quán)力、自由和文化多樣性的理想相一致。(12)個(gè)人隱私:人們應(yīng)該擁有權(quán)力去訪問(wèn)、管理和控制他們產(chǎn)生的數(shù)據(jù),考慮到人工智能系統(tǒng)有分析和使用那些數(shù)據(jù)的能力。(13)自由和隱私:人工智能在個(gè)人數(shù)據(jù)上的應(yīng)用必須不能不當(dāng)?shù)貏儕Z人們真實(shí)的或認(rèn)為的自由。(14)分享利益:人工智能科技應(yīng)該惠及并賦權(quán)最大可能的多數(shù)人。(15)共同繁榮:由人工智能創(chuàng)造的經(jīng)濟(jì)繁榮應(yīng)該被廣泛地分享,惠及全人類。(16)人類控制:人類應(yīng)該來(lái)選擇如何和是否委派人工智能系統(tǒng)去完成人類選擇的目標(biāo)。(17)非顛覆:高級(jí)人工智能被授予的權(quán)力應(yīng)該尊重和改進(jìn)健康的社會(huì)所依賴的秩序,而不是顛覆。(18)人工智能軍備競(jìng)賽:致命的自動(dòng)化武器的軍備競(jìng)賽應(yīng)該被禁止。9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍28“BeneficialAI”會(huì)議:阿西洛馬人工智能原則(三)更長(zhǎng)期的問(wèn)題

(19)能力警惕:我們應(yīng)該避免關(guān)于未來(lái)人工智能能力上限的假設(shè),但這一點(diǎn)還沒(méi)有達(dá)成共識(shí)。(20)重要性:高級(jí)人工智能能夠代表地球生命歷史的一個(gè)重大變化,我們應(yīng)該用與之相稱的警惕和資源來(lái)管理。(21)風(fēng)險(xiǎn):人工智能系統(tǒng)造成的風(fēng)險(xiǎn),特別是災(zāi)難性的或有關(guān)人類存亡的風(fēng)險(xiǎn),必須有針對(duì)性地計(jì)劃和努力減輕可預(yù)見的沖擊。(22)遞歸自我完善:人工智能系統(tǒng)被設(shè)計(jì)成能夠以一種可以快速提升質(zhì)量和數(shù)量的方式進(jìn)行自我升級(jí)或自我替代,這種方式必須受制于嚴(yán)格的安全和控制標(biāo)準(zhǔn)。(23)公共利益:超級(jí)智能的開發(fā)是為了服務(wù)廣泛認(rèn)可的倫理觀念,并且是為了全人類的利益而不是一個(gè)國(guó)家和組織的利益。9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍29“BeneficialAI”會(huì)議:阿西洛馬人工智能原則騰訊:智能時(shí)代的技術(shù)倫理觀2019年7月8日,騰訊研究院和騰訊AILab聯(lián)合研究形成了人工智能倫理報(bào)告《智能時(shí)代的技術(shù)倫理觀》,認(rèn)為在“科技向善”理念之下,需要倡導(dǎo)面向人工智能的新的技術(shù)倫理觀,包含技術(shù)信任、個(gè)體幸福、社會(huì)可持續(xù)三個(gè)層面。9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范(一)信任(trust):人工智能需要價(jià)值引導(dǎo),做到“四可”第一,可用(available)。發(fā)展人工智能的首要目的,是促進(jìn)人類發(fā)展,給人類和人類社會(huì)帶來(lái)福祉,實(shí)現(xiàn)包容、普惠和可持續(xù)發(fā)展??捎眯赃€意味著以人為本的發(fā)展理念、人機(jī)共生、包容性以及公平無(wú)歧視,要求踐行“設(shè)計(jì)倫理”(ethicsbydesign)理念,將倫理價(jià)值融入到AI產(chǎn)品、服務(wù)的設(shè)計(jì)。第二,可靠(reliable)。人工智能應(yīng)當(dāng)是安全可靠的,能夠防范網(wǎng)絡(luò)攻擊等惡意干擾和其它意外后果,實(shí)現(xiàn)安全、穩(wěn)定與可靠。一方面人工智能系統(tǒng)應(yīng)當(dāng)經(jīng)過(guò)嚴(yán)格的測(cè)試和驗(yàn)證,確保其性能達(dá)到合理預(yù)期;另一方面人工智能應(yīng)確保數(shù)字網(wǎng)絡(luò)安全、人身財(cái)產(chǎn)安全以及社會(huì)安全。2024/7/23人工智能倫理-古天龍30第三,可知(comprehensible)。研發(fā)人員需要致力于解決人工智能“黑盒”問(wèn)題,實(shí)現(xiàn)可理解、可解釋的人工智能算法模型。此外,對(duì)于由人工智能系統(tǒng)做出的決策和行為,在適當(dāng)?shù)臅r(shí)候應(yīng)能提供說(shuō)明或者解釋,包括背后的邏輯和數(shù)據(jù),這要求記錄設(shè)計(jì)選擇和相關(guān)數(shù)據(jù),而不是一味追求技術(shù)透明。在發(fā)展和應(yīng)用人工智能過(guò)程中,應(yīng)為社會(huì)公眾參與創(chuàng)造機(jī)會(huì),并支持個(gè)人權(quán)利的行使。第四,可控(controllable)。短期來(lái)看,發(fā)展和應(yīng)用人工智能應(yīng)確保其帶來(lái)的社會(huì)福祉顯著超過(guò)其可能給個(gè)人和社會(huì)帶來(lái)的可預(yù)期的風(fēng)險(xiǎn)和負(fù)面影響,確保這些風(fēng)險(xiǎn)和負(fù)面影響是可控的,并在風(fēng)險(xiǎn)發(fā)生之后積極采取措施緩解、消除風(fēng)險(xiǎn)及其影響。長(zhǎng)期來(lái)看,雖然人們現(xiàn)在還無(wú)法預(yù)料通用人工智能和超級(jí)人工智能能否實(shí)現(xiàn)以及如何實(shí)現(xiàn),也無(wú)法完全預(yù)料其影響,但應(yīng)遵循預(yù)警原則,防范未來(lái)的風(fēng)險(xiǎn),使未來(lái)可能出現(xiàn)的通用人工智能和超級(jí)人工智能能夠服務(wù)于全人類的利益。9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范(二)幸福(happiness):在人機(jī)共生的智能社會(huì),確保人人都有追求數(shù)字福祉、幸福工作的權(quán)利各種智能機(jī)器正在成為人類社會(huì)不可或缺的一部分,和我們的生活和生產(chǎn)息息相關(guān)。這給人類與技術(shù)之間的關(guān)系提出了新的命題,需要深入思考智能社會(huì)如何實(shí)現(xiàn)人機(jī)共生。第一,保障個(gè)人的數(shù)字福祉,人人都有追求數(shù)字福祉的權(quán)利。一方面需要消除技術(shù)鴻溝和數(shù)字鴻溝,全球還有接近一半人口沒(méi)有接入互聯(lián)網(wǎng),老年人、殘疾人等弱勢(shì)群體未能充分享受到數(shù)字技術(shù)帶來(lái)的便利。另一方面減小、防止互聯(lián)網(wǎng)技術(shù)對(duì)個(gè)人的負(fù)面影響,網(wǎng)絡(luò)過(guò)度使用、信息繭房、假新聞等現(xiàn)象暴露出了數(shù)字產(chǎn)品對(duì)個(gè)人健康、認(rèn)知、生活和工作等方面的負(fù)面影響,呼吁互聯(lián)網(wǎng)經(jīng)濟(jì)從吸引乃至攫取用戶注意力向維護(hù)、促進(jìn)用戶數(shù)字福祉轉(zhuǎn)變,要求科技公司將對(duì)用戶數(shù)字福祉的促進(jìn)融入到互聯(lián)網(wǎng)服務(wù)的設(shè)計(jì)中。2024/7/23人工智能倫理-古天龍31騰訊:智能時(shí)代的技術(shù)倫理觀第二,保障個(gè)人的工作和自由發(fā)展,人人都有追求幸福工作的權(quán)利。目前人工智能的經(jīng)濟(jì)影響依然相對(duì)有限,不可能很快造成大規(guī)模失業(yè),也不可能終結(jié)人類工作,因?yàn)榧夹g(shù)采納和滲透往往需要數(shù)年甚至數(shù)十年,需要對(duì)生產(chǎn)流程、組織設(shè)計(jì)、商業(yè)模式、供應(yīng)鏈、法律制度、文化期待等各方面做出調(diào)整和改變。雖然短期內(nèi)人工智能可能影響部分常規(guī)性的、重復(fù)性的工作。長(zhǎng)遠(yuǎn)來(lái)看,以機(jī)器學(xué)習(xí)為代表的人工智能技術(shù)對(duì)人類社會(huì)、經(jīng)濟(jì)和工作的影響將是深刻的,但人類的角色和作用不會(huì)被削弱,相反會(huì)被加強(qiáng)和增強(qiáng)。未來(lái)二十年內(nèi),90%以上的工作或多或少都需要數(shù)字技能。人們現(xiàn)在需要做的,就是為當(dāng)下和未來(lái)的勞動(dòng)者提供適當(dāng)?shù)募寄芙逃?,為過(guò)渡期勞動(dòng)者提供再培訓(xùn)、再教育的公平機(jī)會(huì),支持早期教育和終身學(xué)習(xí)。9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范(三)可持續(xù)(sustainability):踐行“科技向善”,善用技術(shù)塑造健康包容可持續(xù)的智慧社會(huì)技術(shù)創(chuàng)新是推動(dòng)人類和人類社會(huì)發(fā)展的最主要因素。而這一輪技術(shù)革命具有巨大的“向善”潛力,將對(duì)人類生活與社會(huì)進(jìn)步帶來(lái)突破性的提升。在二十一世紀(jì)的今天,人類擁有的技術(shù)能力,以及這些技術(shù)所具有的“向善”潛力,是歷史上任何時(shí)候都無(wú)法比擬的。換言之,這些技術(shù)本身是“向善”的工具,可以成為一股“向善”的力量,用于解決人類發(fā)展面臨著的各種挑戰(zhàn),助力可持續(xù)發(fā)展目標(biāo)。與此同時(shí),人類所面臨的挑戰(zhàn)也是歷史上任何時(shí)候都無(wú)法比擬的。聯(lián)合國(guó)制定的《2030可持續(xù)發(fā)展議程》確立了17項(xiàng)可持續(xù)發(fā)展目標(biāo),實(shí)現(xiàn)這些目標(biāo)需要解決相應(yīng)的問(wèn)題和挑戰(zhàn),包括來(lái)自生態(tài)環(huán)境的,來(lái)自人類健康的,來(lái)自社會(huì)治理的,來(lái)自經(jīng)濟(jì)發(fā)展的,等等。2024/7/23人工智能倫理-古天龍32騰訊:智能時(shí)代的技術(shù)倫理觀將新技術(shù)應(yīng)用于這些方面,是正確的、“向善”的方向。例如,人工智能與醫(yī)療、教育、金融、政務(wù)民生、交通、城市治理、農(nóng)業(yè)、能源、環(huán)保等領(lǐng)域的結(jié)合,可以更好地改善人類生活,塑造健康包容可持續(xù)的智慧社會(huì)。因此,企業(yè)不能只顧財(cái)務(wù)表現(xiàn),只追求經(jīng)濟(jì)利益,還必須肩負(fù)社會(huì)責(zé)任,追求社會(huì)效益,服務(wù)于好的社會(huì)目的和社會(huì)福祉,給社會(huì)帶來(lái)積極貢獻(xiàn),實(shí)現(xiàn)利益與價(jià)值的統(tǒng)一。包括有意識(shí)有目的地設(shè)計(jì)、研發(fā)、應(yīng)用技術(shù)來(lái)解決社會(huì)挑戰(zhàn)。如今,“人工智能造福人類”(AIforGood)已經(jīng)成為全球發(fā)展趨勢(shì),呼吁與行動(dòng)并存。以騰訊為例,自2018年1月在國(guó)內(nèi)首次提出“科技向善”以來(lái),騰訊已將“科技向善”作為新的愿景與使命,并身體力行地在醫(yī)療、社會(huì)治理(如尋找失蹤人口)、FEW(糧食、能源、水源)等方面踐行“科技向善”理念。北京智源:人工智能北京共識(shí)2019年5月25日,北京智源人工智能研究院聯(lián)合北京大學(xué)、清華大學(xué)、中國(guó)科學(xué)院自動(dòng)化研究所、中國(guó)科學(xué)院計(jì)算技術(shù)研究所等單位,共同發(fā)布《人工智能北京共識(shí)》。9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范(一)研發(fā)人工智能的研究與開發(fā)應(yīng)遵循以下原則。(1)造福:人工智能應(yīng)被用來(lái)促進(jìn)社會(huì)與人類文明的進(jìn)步,推動(dòng)自然與社會(huì)的可持續(xù)發(fā)展,造福全人類與環(huán)境,增進(jìn)社會(huì)與生態(tài)的福祉。(2)服務(wù)于人:人工智能的研發(fā)應(yīng)服務(wù)于人類,符合人類價(jià)值觀,符合人類的整體利益;應(yīng)充分尊重人類的隱私、尊嚴(yán)、自由、自主、權(quán)利;人工智能不應(yīng)被用來(lái)針對(duì)、利用或傷害人類。(3)負(fù)責(zé):人工智能的研發(fā)者應(yīng)充分考慮并盡力降低、避免其成果所帶來(lái)的潛在倫理、法律、社會(huì)風(fēng)險(xiǎn)與隱患。2024/7/23人工智能倫理-古天龍33(4)控制風(fēng)險(xiǎn):人工智能及產(chǎn)品的研發(fā)者應(yīng)不斷提升模型與系統(tǒng)的成熟度、魯棒性、可靠性、可控性,實(shí)現(xiàn)人工智能系統(tǒng)的數(shù)據(jù)安全、系統(tǒng)自身安全及對(duì)外部環(huán)境的安全。(5)合乎倫理:人工智能的研發(fā)應(yīng)采用符合倫理的設(shè)計(jì)方法以使得系統(tǒng)可信,包括但不限于:使系統(tǒng)盡可能公正,減少系統(tǒng)中的歧視與偏見;提高系統(tǒng)透明性,增強(qiáng)系統(tǒng)可解釋度、可預(yù)測(cè)性,使系統(tǒng)可追溯、可核查、可問(wèn)責(zé)等。(6)多樣與包容:人工智能的發(fā)展應(yīng)該體現(xiàn)多樣性與包容性,盡可能地為惠及更多的人而設(shè)計(jì),尤其是那些技術(shù)應(yīng)用中容易被忽視的、缺乏代表性的群體。(7)開放共享:鼓勵(lì)建立人工智能開放平臺(tái),避免數(shù)據(jù)與平臺(tái)壟斷,最大范圍共享人工智能發(fā)展成果,促進(jìn)不同地域、行業(yè)借助人工智能機(jī)會(huì)均等地發(fā)展。9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范(二)使用人工智能的使用應(yīng)遵循以下原則。(8)善用與慎用:人工智能的使用者應(yīng)具備使人工智能系統(tǒng)按照設(shè)計(jì)運(yùn)行所必需的知識(shí)和能力,并對(duì)其所可能帶來(lái)的潛在影響具備充分認(rèn)識(shí),避免誤用、濫用,以最大化人工智能帶來(lái)的益處、最小化其風(fēng)險(xiǎn)。(9)知情與同意:應(yīng)采取措施確保人工智能系統(tǒng)的利益相關(guān)者對(duì)人工智能系統(tǒng)對(duì)其權(quán)益的影響做到充分的知情與同意。在未預(yù)期情況發(fā)生時(shí),應(yīng)建立合理的數(shù)據(jù)與服務(wù)撤銷機(jī)制,以確保用戶自身權(quán)益不受侵害。(10)教育與培訓(xùn):人工智能的利益相關(guān)者應(yīng)能夠通過(guò)教育與培訓(xùn)在心理、情感、技能等各方面適應(yīng)人工智能發(fā)展帶來(lái)的影響。2024/7/23人工智能倫理-古天龍34(三)治理人工智能的治理應(yīng)遵循以下原則。(11)優(yōu)化就業(yè):對(duì)于人工智能對(duì)人類就業(yè)的潛在影響,應(yīng)采取包容的態(tài)度。對(duì)于一些可能對(duì)現(xiàn)有人類就業(yè)產(chǎn)生巨大沖擊的人工智能應(yīng)用的推廣,應(yīng)采取謹(jǐn)慎的態(tài)度。鼓勵(lì)探索人機(jī)協(xié)同,創(chuàng)造更能發(fā)揮人類優(yōu)勢(shì)和特點(diǎn)的新工作。(12)和諧與合作:應(yīng)積極開展合作建立跨學(xué)科、跨領(lǐng)域、跨部門、跨機(jī)構(gòu)、跨地域、全球性、綜合性的人工智能治理生態(tài)系統(tǒng),避免惡意競(jìng)爭(zhēng),共享治理經(jīng)驗(yàn),以優(yōu)化共生的理念共同應(yīng)對(duì)人工智能帶來(lái)的影響。(13)適應(yīng)與適度:應(yīng)積極考慮對(duì)人工智能準(zhǔn)則、政策法規(guī)等的適應(yīng)性修訂,使之適應(yīng)人工智能的發(fā)展。人工智能治理措施應(yīng)與人工智能發(fā)展?fàn)顩r相匹配,既不阻礙其合理利用,又確保其對(duì)社會(huì)和自然有益。(14)細(xì)化與落實(shí):應(yīng)積極考慮人工智能不同場(chǎng)景、不同領(lǐng)域發(fā)展的具體情況,制定更加具體、細(xì)化的準(zhǔn)則;促進(jìn)人工智能準(zhǔn)則及細(xì)則的實(shí)施,并貫穿于人工智能研發(fā)與應(yīng)用的整個(gè)生命周期。(15)長(zhǎng)遠(yuǎn)規(guī)劃:鼓勵(lì)對(duì)增強(qiáng)智能、通用智能和超級(jí)智能的潛在影響進(jìn)行持續(xù)研究,以確保未來(lái)人工智能始終向?qū)ι鐣?huì)和自然有益的方向發(fā)展。北京智源:人工智能北京共識(shí)微軟:人工智能政策建議2018年,《計(jì)算未來(lái):人工智能及其社會(huì)角色》提出了微軟人工智能開發(fā)的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責(zé)任。9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范(一)公平性(Fairness)公平性是指對(duì)人而言,不同區(qū)域的人、不同等級(jí)的所有人在AI面前是平等的,不應(yīng)該有人被歧視。(二)可靠性和安全性(Reliability&Safety)可靠性和安全性指的是人工智能使用起來(lái)是安全的、可靠的、不作惡的。(三)隱私和保障(Privacy&Security)人工智能因?yàn)樯婕暗綌?shù)據(jù),所以總是會(huì)引起個(gè)人隱私和數(shù)據(jù)安全方面的問(wèn)題。(四)包容(Inclusiveness)人工智能必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。(五)透明性(Transparency)在現(xiàn)階段,深度學(xué)習(xí)模型的準(zhǔn)確度是所有機(jī)器學(xué)習(xí)模型中最高的,但在這里存在一個(gè)它是否透明的問(wèn)題。(六)可追責(zé)(Accountability)人類應(yīng)該能夠?qū)θ斯ぶ悄芟到y(tǒng)采取了的行動(dòng)、做的決策進(jìn)行追責(zé)。2024/7/23人工智能倫理-古天龍35谷歌:人工智能使用原則2018年谷歌公布了使用人工智能的七項(xiàng)原則,以及四條底線。(一)七項(xiàng)原則涉及AI的七項(xiàng)原則包括對(duì)社會(huì)有益,避免制造或加強(qiáng)不公平的偏見,提前測(cè)試安全性,對(duì)人負(fù)責(zé),保證隱私,堅(jiān)持科學(xué)高標(biāo)準(zhǔn)以及從主要用途、技術(shù)獨(dú)特性等方面來(lái)考慮。對(duì)此,谷歌認(rèn)為人工智能應(yīng)用應(yīng)該實(shí)現(xiàn)的目標(biāo)如下:(1)有益于社會(huì)新技術(shù)的擴(kuò)展對(duì)社會(huì)的影響越來(lái)越大。AI領(lǐng)域的進(jìn)展將對(duì)醫(yī)療、安全、能源、交通、制造業(yè)等大量行業(yè)帶來(lái)革命性影響。谷歌考慮AI技術(shù)的潛在開發(fā)和使用,以及大量社會(huì)和經(jīng)濟(jì)因素,決定將繼續(xù)進(jìn)行其認(rèn)為整體益處遠(yuǎn)遠(yuǎn)大于可預(yù)見風(fēng)險(xiǎn)和弊端的領(lǐng)域。9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍36(2)避免創(chuàng)造或增強(qiáng)偏見AI算法和數(shù)據(jù)集能夠反映、強(qiáng)化或減少偏見。谷歌意識(shí)到區(qū)分公平和不公平偏見不總是那么簡(jiǎn)單,且在不同文化和社會(huì)背景下有所不同。谷歌將尋求避免對(duì)人類的不公平影響,尤其是在敏感話題方面,如種族、民族、性別、國(guó)家、收入、性取向、能力和政治或宗教信仰。

(3)為保障安全而建立和測(cè)試我們將繼續(xù)開發(fā)和應(yīng)用強(qiáng)大的安全保障和安全的實(shí)踐以避免不希望發(fā)生的導(dǎo)致風(fēng)險(xiǎn)的結(jié)果。我們將把AI系統(tǒng)設(shè)計(jì)得適當(dāng)?shù)闹?jǐn)慎,并探索按照AI安全研究的最佳實(shí)踐來(lái)開發(fā)的方式。在合適的案例中,我們將在受限的環(huán)境中測(cè)試AI技術(shù),并在部署之后監(jiān)控它們的運(yùn)行。谷歌:人工智能使用原則(4)對(duì)人們有說(shuō)明義務(wù)我們將設(shè)計(jì)能為反饋、相關(guān)解釋和上訴提供合適機(jī)會(huì)的AI系統(tǒng)。我們的AI技術(shù)將服從合適的人類指導(dǎo)和控制。

(5)整合隱私設(shè)計(jì)原則我們將把我們的隱私原則整合進(jìn)AI技術(shù)的開發(fā)和使用中。我們將為通知和準(zhǔn)許提供機(jī)會(huì),鼓勵(lì)架構(gòu)中結(jié)合隱私保護(hù),并對(duì)數(shù)據(jù)的使用提供合適的透明度和控制。

(6)堅(jiān)持高標(biāo)準(zhǔn)的科學(xué)探索技術(shù)創(chuàng)新根植于科學(xué)方法和開放式的調(diào)查、嚴(yán)謹(jǐn)?shù)乃伎?、誠(chéng)信和合作。人工智能工具可能在生物、化學(xué)、醫(yī)藥、和環(huán)境科學(xué)等關(guān)鍵領(lǐng)域具有開拓新科學(xué)研究和知識(shí)的潛力。我們致力于促進(jìn)人工智能的發(fā)展,追求高標(biāo)準(zhǔn)的科學(xué)探索。

(7)根據(jù)原則確定合適的應(yīng)用許多技術(shù)有多種用途。我們將努力限制可能有害或?yàn)E用的技術(shù)應(yīng)用。(二)四條底線谷歌同時(shí)提出不會(huì)設(shè)計(jì)或者將AI應(yīng)用到以下領(lǐng)域:(1)制造整體傷害之處。如一項(xiàng)技術(shù)可能造成傷害,我們只會(huì)在其好處大大超過(guò)傷害的情況下進(jìn)行,并提供安全措施;(2)武器或其他用于直接傷害人類的產(chǎn)品;(3)收集使用信息,以實(shí)現(xiàn)違反國(guó)際規(guī)范的監(jiān)控的技術(shù);(4)目標(biāo)違反被廣泛接受的國(guó)際法與人權(quán)原則的技術(shù)。9.2企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍37政府組織人工智能倫理原則/規(guī)范目錄人工智能職業(yè)道德準(zhǔn)則企業(yè)機(jī)構(gòu)人工智能倫理原則/規(guī)范1231中國(guó):新一代人工智能倫理規(guī)范中國(guó):新一代人工智能治理原則美國(guó):人工智能應(yīng)用規(guī)范指南英國(guó):英國(guó)人工智能發(fā)展的計(jì)劃、能力與志向歐盟:可信賴人工智能的倫理準(zhǔn)則G20:G20人工智能原則“BeneficialAI”會(huì)議:阿西洛馬人工智能原則騰訊:智能時(shí)代的技術(shù)倫理觀北京智源人工智能研究院:人工智能北京共識(shí)微軟:人工智能開發(fā)的六大原則谷歌:人工智能使用原則2024/7/23人工智能倫理-古天龍38中國(guó):人工智能行業(yè)自律公約美國(guó):人工智能學(xué)會(huì)職業(yè)道德與行為準(zhǔn)則日本:人工智能學(xué)會(huì)倫理綱要中國(guó):人工智能行業(yè)自律公約中國(guó)人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟組織相關(guān)專家,研究形成了《人工智能行業(yè)自律公約》9.3人工智能職業(yè)道德準(zhǔn)則第一章總則第一條以人為本。人工智能發(fā)展應(yīng)維護(hù)人類自由和尊嚴(yán)等基本權(quán)利,遵循以人為中心的原則,符合公認(rèn)的道德倫理觀念,防止人工智能削弱或取代人類地位,確保人機(jī)協(xié)同的經(jīng)濟(jì)社會(huì)背景下人類的自主性和能動(dòng)性。第二條增進(jìn)福祉。人工智能發(fā)展應(yīng)促進(jìn)社會(huì)與人類文明進(jìn)步,推動(dòng)自然與社會(huì)的可持續(xù)發(fā)展,創(chuàng)造更加智能的工作方式和生活方式,增進(jìn)民生福祉。第三條公平公正。人工智能發(fā)展應(yīng)確保公平公正,促進(jìn)機(jī)會(huì)均等,避免對(duì)特定群體或個(gè)人的偏見歧視,避免將弱勢(shì)人群置于更為不利的地位。第四條避免傷害。人工智能發(fā)展應(yīng)避免傷害社會(huì)、公眾利益和個(gè)人合法權(quán)益,發(fā)展人工智能不應(yīng)加重現(xiàn)有的危害或帶來(lái)新的危害。2024/7/23人工智能倫理-古天龍39第二章原則第五條可靠可控。確保人工智能系統(tǒng)在其整個(gè)生命周期內(nèi)安全、可靠、可控地運(yùn)行。評(píng)估系統(tǒng)自身安全和潛在風(fēng)險(xiǎn),不斷提高系統(tǒng)的成熟度、穩(wěn)健性和抗干擾能力。確保系統(tǒng)可被人類監(jiān)督和及時(shí)接管,避免系統(tǒng)失控的負(fù)面影響。第六條透明可釋。不斷提高人工智能系統(tǒng)透明度,促進(jìn)對(duì)人工智能系統(tǒng)的普遍理解。對(duì)于系統(tǒng)決策過(guò)程、數(shù)據(jù)構(gòu)成、系統(tǒng)開發(fā)者和技術(shù)實(shí)施者意圖,能夠在適當(dāng)場(chǎng)景下予以描述、監(jiān)督和重現(xiàn),積極回應(yīng)遭受人工智能系統(tǒng)不利影響者的質(zhì)疑和意見。第七條保護(hù)隱私。堅(jiān)持以合法、正當(dāng)、必要的原則收集和使用個(gè)人信息,尊重和保護(hù)個(gè)人隱私,特別加強(qiáng)對(duì)于未成年人等特殊數(shù)據(jù)主體的隱私保護(hù),強(qiáng)化技術(shù)手段,確保數(shù)據(jù)安全,防范數(shù)據(jù)泄露等風(fēng)險(xiǎn)。中國(guó):人工智能行業(yè)自律公約9.3人工智能職業(yè)道德準(zhǔn)則第八條明確責(zé)任。不將人工智能系統(tǒng)用于非法或違反倫理的目的。明確人工智能研發(fā)、設(shè)計(jì)、制造、運(yùn)營(yíng)和服務(wù)等各環(huán)節(jié)主體的權(quán)利義務(wù),在損害發(fā)生時(shí),能夠及時(shí)確定責(zé)任主體。倡導(dǎo)相關(guān)企業(yè)和組織在現(xiàn)有法律框架下創(chuàng)新保險(xiǎn)機(jī)制,分擔(dān)人工智能產(chǎn)業(yè)發(fā)展帶來(lái)的社會(huì)風(fēng)險(xiǎn)。第九條多元包容。促進(jìn)人工智能系統(tǒng)的包容性、多樣性和普惠性。加強(qiáng)跨領(lǐng)域、跨學(xué)科、跨國(guó)界的合作交流,凝聚人工智能治理共識(shí)。力爭(zhēng)實(shí)現(xiàn)人工智能系統(tǒng)研發(fā)人員多元化,訓(xùn)練數(shù)據(jù)全面化。持續(xù)測(cè)試和驗(yàn)證算法,不因人種、性別、國(guó)籍、年齡和宗教信仰等歧視用戶。2024/7/23人工智能倫理-古天龍40第三章行動(dòng)第十條自律自治。強(qiáng)化企業(yè)的社會(huì)責(zé)任意識(shí),在人工智能相關(guān)活動(dòng)各環(huán)節(jié)中融入倫理原則,實(shí)施倫理自查。推動(dòng)行業(yè)自治,探索制定人工智能行業(yè)從業(yè)人員行為規(guī)范,逐步建立健全行業(yè)監(jiān)督機(jī)制。第十一條制定標(biāo)準(zhǔn)。積極參與人工智能相關(guān)的國(guó)際、國(guó)家、行業(yè)和團(tuán)體標(biāo)準(zhǔn)規(guī)范制定,增強(qiáng)安全可控、透明可釋、保護(hù)隱私、多元包容等倫理原則的可衡量性,并同步建設(shè)相應(yīng)測(cè)評(píng)能力。第十二條促進(jìn)共享。鼓勵(lì)平臺(tái)、工具、數(shù)據(jù)、科教等資源的開源開放,共享人工智能發(fā)展紅利和治理經(jīng)驗(yàn),努力破除數(shù)據(jù)孤島和平臺(tái)壟斷,不斷縮小智能鴻溝,促進(jìn)人工智能和實(shí)體經(jīng)濟(jì)深度融合。第十三條普及教育。積極參與面向公眾的人工智能普及教育、面向相關(guān)從業(yè)人員的道德倫理教育和面向崗位被替代人員的數(shù)字勞動(dòng)技能再培訓(xùn),減輕公眾對(duì)人工智能技術(shù)的擔(dān)憂,提高公眾的安全防范意識(shí),主動(dòng)應(yīng)對(duì)現(xiàn)有和未來(lái)的勞動(dòng)力挑戰(zhàn)問(wèn)題。第十四條持續(xù)推動(dòng)。在本公約實(shí)施過(guò)程中,不斷加強(qiáng)對(duì)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判,適應(yīng)行業(yè)發(fā)展要求,持續(xù)完善。中國(guó):人工智能行業(yè)自律公約9.3人工智能職業(yè)道德準(zhǔn)則第四章附則第十五條公約簽署單位必須在開展人工智能相關(guān)活動(dòng)中遵守法律法規(guī)和國(guó)家有關(guān)規(guī)定。第十六條鼓勵(lì)企業(yè)、高校、科研院所、行業(yè)組織和個(gè)人等共同踐行公約內(nèi)容,接受社會(huì)監(jiān)督。第十七條支持相關(guān)單位或組織基于本公約制訂各細(xì)分行業(yè)或領(lǐng)域的自律準(zhǔn)則。第十八條本公約由中國(guó)人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟負(fù)責(zé)制定、修訂和解釋。2024/7/23人工智能倫理-古天龍41美國(guó)人工智能學(xué)會(huì)職業(yè)道德與行為準(zhǔn)則9.3人工智能職業(yè)道德準(zhǔn)則美國(guó)人工智能學(xué)會(huì)(AAAI)提出了美國(guó)人工智能學(xué)會(huì)職業(yè)道德與行為準(zhǔn)則“AAAICodeofProfession

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論