人工智能與偏見-中小學人工智能倫理教育思考 論文_第1頁
人工智能與偏見-中小學人工智能倫理教育思考 論文_第2頁
人工智能與偏見-中小學人工智能倫理教育思考 論文_第3頁
人工智能與偏見-中小學人工智能倫理教育思考 論文_第4頁
人工智能與偏見-中小學人工智能倫理教育思考 論文_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人工智能與偏見——中小學人工智能 倫理教育思考摘要:本文討論了中小學人工智能教育的現(xiàn)狀,討論人工智能可能出現(xiàn)的偏見問題,并用“海洋人工智能”作為案例,探討如何讓學生理解人工智能為什么會出現(xiàn)偏見,從而負責任地使用人工智能。關(guān)鍵詞:人工智能倫理偏見 引言:

本論文討論了人工智能、人工智能倫理的重要性,重點討論了人工智能可能帶來的偏見、公平等倫理問題,以及如何在中小學講述人工智能時,向?qū)W生科普人工智能倫理方面的觀點和討論,幫助學生更好地理解和使用人工智能,提高學生的信息責任意識。人工智能的重要性人工智能發(fā)展迅速,技術(shù)的發(fā)展從根本上改變了我們的衣食住行,人臉識別、語音識別等技術(shù)已經(jīng)大規(guī)模運用在我們的生活之中。2015年國務院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,《規(guī)劃》里指出了人工智能技術(shù)的重要性。它是國際競爭的新焦點、是經(jīng)濟發(fā)展的新引擎,能帶來社會建設的新機遇。人工智能意味著系統(tǒng)不僅僅是按照輸入的指令行動,而且能從數(shù)據(jù)和經(jīng)驗中自我學習。模仿人類行為和思考、并解決問題,是人工智能的目標。人工智能可以幫助盲人了解周圍的事物,幫助盲人“看到”圖片。人工智能可以應用在醫(yī)療上。利用照片,人工智能可以比皮膚病醫(yī)生更早更快更準確地檢測說皮膚癌。1人工智能的應用無處不在:打開購物網(wǎng)站,算法會根據(jù)過往的購買收藏記錄推薦心儀商品;打開視頻網(wǎng)站,算法會推薦可能感興趣的視頻;自然語言處理的進步,讓語音助理更加實用,文字翻譯也更加準確、迅速;手機可以人臉識別解鎖……人工智能技術(shù)包括機器學習和深度學習。機器學習指的是讓人工智能擁有學習的能力,主要通過發(fā)現(xiàn)模式以及查找數(shù)據(jù)集中的信息來實現(xiàn)。深度學習則是機器學習的一個分支,側(cè)重于讓人工智能模仿人類大腦的神經(jīng)網(wǎng)絡來學習。它能夠理解數(shù)據(jù)集里的模式、噪點。目前中小學人工智能課程定位較為模糊,內(nèi)容并不統(tǒng)一,處在起步階段。一些學校依托校本課程,內(nèi)容不完整。而統(tǒng)一的《信息技術(shù)》教材中,提到人工智能,是把它作為新技術(shù)介紹給學生,讓學生知道有人工智能這個東西的。比如科學出版社八年級下冊的《人工智能新生活》里,提到了人工智能的簡單定義,并介紹了形色、QQ拍圖識別文字等人工智能應用,沒有對人工智能進行深入的講解。2022年《義務教育信息科技課程標準》里,人工智能是重要內(nèi)容,是義務教育信息科技的課程邏輯主線的組成部分。人工智能這條邏輯主線,內(nèi)容如下:應用系統(tǒng)體驗——機器計算與人工計算的異同——倫理與安全挑戰(zhàn)。“學生能認識和感受到人工智能的魅力,知道人工智能發(fā)展必須遵循的倫理道德規(guī)范”是《標準》重點強調(diào)的?!爸腔凵鐣氯斯ぶ悄艿膫惱怼踩c發(fā)展”是“人工智能與智慧社會”模塊里的重要內(nèi)容?!稑藴省芬髮W生能夠“通過體驗人工智能的應用場景,了解人工智能帶來的倫理與安全挑戰(zhàn),增強自我判斷意識和責任感,做到與人工智能良好相處”那什么是人工智能倫理呢?人工智能倫理圍繞著如何確保人工智能技術(shù)能夠?qū)θ祟惿鐣幸?,保障社會公平,例如:確保人工智能的使用能夠提高個人和社會的生活;確保人工智能系統(tǒng)公平公正;如果人工智能系統(tǒng)做出了錯誤判斷,應有人或者組織對此負責。隨著科學技術(shù)的高速發(fā)展,人工智能從遙遠的技術(shù)名詞,變成了人們?nèi)粘I畹囊徊糠?。人工智能教育也在向中小學滲透。但目前,重點基本上在如何向中學生普及人工智能的基本概念,并沒有探討人工智能教育中非常重要的另一部分:倫理教育。目前,市場上使用的人工智能系統(tǒng)越來越多,覆蓋的范圍越來越廣。在帶給人們巨大便利的同時,人工智能的普遍應用暴露出不少問題。其中一個是偏見。它也是人工智能倫理的重要一方面。人工智能的偏見人工智能需要大量的數(shù)據(jù),才能識別出數(shù)據(jù)中的模式。數(shù)據(jù)可能本身有問題,比如包含偏見,缺失某些數(shù)據(jù),數(shù)據(jù)結(jié)構(gòu)有問題。直接使用有問題的數(shù)據(jù)集,可能把數(shù)據(jù)集里的偏見體現(xiàn)到結(jié)果上。另一方面,數(shù)據(jù)是如何收集的,如何存儲的,我們作為用戶,需要知道這些。數(shù)據(jù)集的透明很重要。開發(fā)出高效、負責的人工智能,不僅需要開發(fā)人員有這些意識,也需要公眾提高對人工智能的理解,從而更好地監(jiān)督。如果算法本身帶有偏見,隨著人工智能在社會上的大規(guī)模應用,這個偏見無疑會隨著應用大規(guī)模應用。國外人工智能開發(fā)者JoyBuolamwini說2,她開發(fā)的機器人無法識別她的面部,無法和她玩躲貓貓游戲;另外,她去試用某社交機器人,該社交機器人也無法識別她的面部。原來她的程序和社交機器人的程序,使用了同一個人工智能數(shù)據(jù)集。而問題就出在這個數(shù)據(jù)集上。訓練數(shù)據(jù)集缺少黑人面孔,導致訓練出來的人工智能算法不能識別黑人面孔,從而導致使用這個人工智能算法的機器人也無法識別她的面孔,無法與她互動。人工智能的偏見是如何產(chǎn)生的首先,人工智能系統(tǒng)是基于訓練集來做出判斷的,它的判斷,嚴重受到數(shù)據(jù)集的影響。而數(shù)據(jù)集本身,則會因為歷史原因和社會因素,本身包含一些偏見。輸送給系統(tǒng)有問題的數(shù)據(jù),系統(tǒng)輸出的信息自然也是有問題的。而基于此數(shù)據(jù)集的系統(tǒng),會繼承數(shù)據(jù)集的錯誤,不斷重復其中的偏見。偏見的另一個來源則是,數(shù)據(jù)集在收集的過程中,有些類型的數(shù)據(jù)比例過大,另一些類型的數(shù)據(jù)比例過小。例如,人臉識別的數(shù)據(jù)集里,如果沒有足夠比例的女性人臉,導致這個數(shù)據(jù)集訓練出來的人臉識別應用,在對真實女性人臉做出判斷時,失誤率會比較高。人工智能偏見的影響這些偏見會隨著它的應用,影響很多人。很多公司在篩選簡歷的時候,使用人工智能幫助篩選。但是訓練篩選算法的數(shù)據(jù)集,是基于以往的招聘數(shù)據(jù)。而這些招聘數(shù)據(jù)本身就帶有社會本來的偏見。比如亞馬遜的AI招聘系統(tǒng)并不公平。3人工智能應用受到數(shù)據(jù)集的限制,比如微軟的聊天機器人,上線之后,有人組織專門和它對話一些反人類內(nèi)容,機器人不久就變得和這些人一樣,也學會了說反人類的話4。而在新西蘭的護照系統(tǒng)里,系統(tǒng)識別不了亞裔人群的眼睛,跟亞裔人群辦理護照增添了不必要的麻煩5。一些人工智能算法,采用的數(shù)據(jù)集是現(xiàn)成的數(shù)據(jù),如果廣為使用的數(shù)據(jù)集內(nèi)容有偏見,顯然這會影響到不止一個人工智能算法。“Facesinthewild”人臉識別數(shù)據(jù)集里面,女性面孔只有三成,非白人面孔只有兩成6。人工智能用在醫(yī)療領(lǐng)域,偏見可能致命;用在篩選簡歷上,一些求職者可能永遠無法進面試;語音識別人工智能應用可能更難識別女性用戶的聲音;人臉識別更難辨認黑人的臉,受到影響的系統(tǒng)會對相關(guān)的用戶造成不好的體驗。人工智能應用偏見的危害人類的偏見可能難以消除,難以察覺,而一旦這些偏見通過數(shù)據(jù)集滲透進人工智能應用,它帶來的危害不可估量。這個偏見可能很長時間內(nèi)沒人察覺,因為系統(tǒng)在做出判斷的時候,并不會給出原因,而受到影響的人們,很難知道自己的人生是因為人工智能做出的這個決定很改變。每年市場上應用的人工智能很多。一個求職者,她怎么可能知道自己沒有得到面試通知,而且她的求職簡歷根本沒有被真實的人類看過一眼就被攔路的人工智能系統(tǒng)給否決了呢? 有偏見的人工智能會進一步執(zhí)行帶有偏見的決定,進一步傷害被影響到的人群,限制他們在社會中的參與度,也降低了人工智能應用的可信度。我們都有責任去要求人工智能公正公平地處理數(shù)據(jù),要求開發(fā)公司降低其中的偏見。例如,小鵬汽車的智能輔助駕駛功能把眼睛小的駕駛者判定為“開車睡覺”,嚴重影響駕駛者的使用體驗。7而要切實地落實這一點,良好的人工智能普及教育必不可少。 完整的人工智能教育不僅要讓學生明白人工智能的工作原理,其對人類社會的影響,更要讓學生明白人工智能可能給人類社會帶來的風險,讓學生能夠用批判的眼光去看待。 減輕人工智能偏見的一個重要方面是,讓更多的人參與到人工智能的建設和開發(fā)中來。研究發(fā)現(xiàn),開發(fā)人員群體越缺乏多樣性,開發(fā)出來的人工智能應用越有可能出現(xiàn)預測錯誤8。而從國家的層面上來說,確保我國大眾對人工智能有良好的理解,確保我國有足夠的人工智能人才,參與到開發(fā)AI系統(tǒng)中去,能降低我們被系統(tǒng)歧視的風險。 學生不僅是人工智能的學習者,也是人工智能應用的使用者。目前人工智能已經(jīng)廣泛應用在生活中的方方面面。那么具體要怎么做呢?下面我以一個人工智能教育案例,來分析如何在講述人工智能的同時,幫助學生理解它的原理,又幫助學生思考人工智能可能產(chǎn)生的偏見問題。以《海洋人工智能》為例

“海洋人工智能”是“編程一小時”網(wǎng)站提供的人工智能項目9,它的目標受眾為三年級以上的中小學生。該項目旨在幫助學生了解人工智能、機器學習以及訓練集與偏見。它項目結(jié)構(gòu)清晰,模仿了人工智能算法的訓練過程:首先,用數(shù)據(jù)集訓練算法,然后,測試算法是否達到要求,流程如圖3。1,介紹人2,訓練人3,把剛才4,訓練人5,了解人6,使用訓7,了解人8,訓練人工智能理解訓練的人工工智能區(qū)分工智能區(qū)分工智能的訓練數(shù)據(jù)繼續(xù)智能用來檢工智能對社一個主觀工智能物體是否屬物體是否應練數(shù)據(jù)和偏訓練人工智詞,比如“害測物體是否會的影響于魚類該在水里差能應該在水里怕”圖1“海洋人工智能”活動流程而具體的訓練環(huán)節(jié),則是讓用戶參與。比如環(huán)節(jié)2:訓練的時候,屏幕左邊出來一個又一個圖片,而用戶要告訴算法,這個圖片是否是一條魚,也就是把這張圖片標記為“是魚類”,還是“不是魚類”,如圖2。用戶訓練完成后,會進入測試算法環(huán)節(jié):給算法展示不同的照片,讓算法標記那些圖片是“魚類”,哪些不是,如圖3。如果算法判斷結(jié)果不理想,可以返回訓練環(huán)節(jié),繼續(xù)訓練和測試,直到滿意為止。圖3:AI檢測測試集圖片是否為魚類圖2:這是一條魚嗎?目前算法經(jīng)歷了訓練和測試環(huán)節(jié),兩個環(huán)節(jié)里,測試的問題都是:判斷某圖片內(nèi)容是否為“魚類”。而海洋生物,并不只有魚類。因此,當測試數(shù)據(jù)集里出現(xiàn)了章魚、海星等非魚類海洋生物時,算法把它們和海洋垃圾看成一類。那么如何讓算法認識到章魚、海星等生物不是垃圾,是和魚類一樣,是屬于水里的生物呢?答案是,用新的數(shù)據(jù)集,繼續(xù)訓練算法:對每一張圖片進行判斷,哪些屬于水,哪些不屬于。重新訓練之后,再重新測試。測試之后,用戶可以針對測試的結(jié)果,決定要不要繼續(xù)訓練算法。 在這兩輪訓練和測試中,學生能夠看出來人工智能算法開發(fā)中數(shù)據(jù)集的重要性:如果數(shù)據(jù)集有問題,那么訓練出來的算法也不能正常工作。這對于所有的人工智能都是一樣。通過學習,學生初步理解了人工智能算法的開發(fā)過程。前面的三場訓練,內(nèi)容都是相對客觀:某張圖片是否是魚類、某張圖片是否屬于水、某張圖片上的魚是否是藍色的。那么人工智能能進行主觀的判斷嗎?比如這張圖片上的魚看起來“歡樂”嗎?仍然先進行訓練,生成訓練的數(shù)據(jù)集:對一張張圖片一個個地判斷,它看起來是否“快樂”,訓練過程如圖4和圖5。這時候能看出來,訓練結(jié)果受用戶主觀影響。如果用戶錯誤地標記了圖片,或者用戶對表情的理解和大眾不同,那么訓練出來的算法也會受到影響。而訓練之后,依舊是測試環(huán)節(jié)。算法對測試數(shù)據(jù)中的圖片進行判斷,它是否“歡樂”。用戶再針對測試的結(jié)果,選擇是否繼續(xù)訓練算法。圖5訓練好的圖4訓練人工智能判斷某條魚是否歡樂人工智能檢魚類是否“歡樂”訓練算法識別“魚類”->訓練算法識別“水中生物”->訓練算法識別“藍色魚”->訓練算法理解“歡樂”,這個訓練過程是循序漸進的。學生能夠理解算法訓練的過程,以及數(shù)據(jù)集的重要性。 這個案例能夠幫助學生理解人工智能工作原理,理解合理數(shù)據(jù)集的重要性,理解參與人工智能開發(fā)的重要性。總結(jié)

人工智能是21世紀的重要技術(shù),也是中小學信息科技的重要內(nèi)容。它給我們帶來很多便利,但也給我們帶來一定的風險。如果不加以管制,人工智能偏見可能會在我們不知道的地方,危害我們的生活。在中小學課堂上,講述好人工智能的工作原理、社會影響、倫理要求,是對教師的挑戰(zhàn)。因此我們作為老師,要做好準備,不僅要講清楚人工智能的工作原理,也要講清楚每個環(huán)節(jié)對整體結(jié)果的影響,引導學生思考每個環(huán)節(jié)的作用,讓學生不僅理解人工智能、會使用人工智能應用,更能負責地使用人工智能。參考文獻1Nature自然542,115-118(2017)/articles/nature210562JoyBuolamwini的TED演講:我是如何對抗算法中的偏見的

/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms

3亞馬遜如何無意中制造出一個性別歧視的人力資源算法/guadalupe-gonzalez/amazon-artificial-intelligence-ai-hiring-tool-hr.html42016年,微軟的種族歧視聊天機器人顯示了網(wǎng)絡對話的危險性

/in-2016-microsofts-racist-chatbot-revealed-the-dangers-of-online-conversation

5新西蘭護照系統(tǒng)不能識別亞裔眼睛/article/us-newzealand-passport-error/new-zealand-passport-robot-tells-applicant-of-asian-descent-to-open-eyes-idUSKBN13W0RL

6關(guān)于人工智能算法偏見我們應該知道的HYPERLINK"/wgbh/fro

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論