智能機器外觀設(shè)計中的自我謬誤與反思,倫理學(xué)論文_第1頁
智能機器外觀設(shè)計中的自我謬誤與反思,倫理學(xué)論文_第2頁
智能機器外觀設(shè)計中的自我謬誤與反思,倫理學(xué)論文_第3頁
智能機器外觀設(shè)計中的自我謬誤與反思,倫理學(xué)論文_第4頁
已閱讀5頁,還剩18頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

智能機器外觀設(shè)計中的自我謬誤與反思,倫理學(xué)論文摘要:智能機器的外觀設(shè)計存在擬人化傾向,擬人化設(shè)計背后是一種對自我的內(nèi)在假設(shè),以為智能機器想要符合道德共同體的道德標(biāo)準(zhǔn),就必須具有與共同體內(nèi)部成員類似的道德圖像。本文以為這種對道德圖像的認(rèn)識導(dǎo)致了一種自我錯誤。這種錯誤理解會在個體層面導(dǎo)致道德身份同一的問題,在群體層面產(chǎn)生中心化的問題。而自我錯誤反映到智能機器的道德自我上,表現(xiàn)為自我與他者混淆、絕對對象化和道德圖像的不對稱;反映到外觀設(shè)計上就是內(nèi)在假設(shè)的自我主導(dǎo)機器的道德圖像。而環(huán)境假設(shè)的自我能夠克制自我錯誤帶來的問題,其在設(shè)計上主張客體圖像的獨立性、它者行為的差異性和互動關(guān)系的去道德化,進(jìn)而構(gòu)建一種成認(rèn)它者性道德的設(shè)計途徑。本文關(guān)鍵詞語:智能機器;道德圖像;設(shè)計倫理;Abstract:Theappearancedesignofintelligentmachineshasthetrendtobemoreanthropomorphicthanbefore,inordertoproducemoreaffinityformachinestobeacceptedbytheirusers.Theinherenthypothesisofselfbehindthisanthropomorphismclaimsthatonlythemoralimagesimilartothatofthemembersofmoralcommunitiescansecuretheappropriateperformanceofamoral-selfofmachines.Thispaperconsidersthismoral-selfasafallacyofself.Itcreatestheproblemofmoralidentityattheindividuallevel,andtheproblemofcentralizationatthegrouplevel.Forthehypotheticalmoral-selfofintelligentmachines,thefallacyofselfcausesthemixtureofselfandothers,theabsoluteobjectification,andtheasymmetryofthemoralimage.Forthedesignofappearance,thefallacyledtoamoralimageofmachinesdominatedbytheinherenthypothesisofself.Theselfofenvironmentalhypothesesisawaytoovercomethefallacyofself.Indesign,itproposestheindependenceofothersimage,thedissimilarityofothersactionandthede-moralizationofinterrelationships.Basedonthat,therefore,wecanestablishadesignapproachthatadmitsthemoralityofotherness.Keyword:Intelligentmachine;Moralimage;Designethics;在關(guān)心機器人或治療機器人的設(shè)計中,其外觀或互動方式常以兒童或者動物的形象出現(xiàn),其外形偏向于球體或者毛絨、柔軟的設(shè)計。外表上看來,這是為了使得用戶自然地產(chǎn)生親近感。但實際上,其蘊含了人對智能機器這種技術(shù)物的道德圖像的考慮。一、智能機器的道德圖像社會機器人〔socialrobot〕是當(dāng)前與普通人在生活中產(chǎn)生最多交際的智能機器,而具有治療或者陪伴功能的關(guān)心機器人是華而不實最典型的一類。關(guān)心機器人的倫理問題近年來得到普遍關(guān)注,首先是由于來機器人學(xué)的飛速發(fā)展,智能機器本身帶來的倫理問題得到了人們的重視;其次是由于老齡化的加速,使得關(guān)心機器人成為一種能夠預(yù)見的社會必需品。[1],[2]華而不實主要的倫理問題有:1.隱私問題。機器人在與人進(jìn)行互動時需要采集數(shù)據(jù)加以分析,不管是對人的直接攝像,還是行為形式的數(shù)據(jù)化都會帶來隱私問題。2.減少人與人之間的交往并影響社交質(zhì)量。關(guān)心機器人會強化與使用者之間的關(guān)系,減少使用者與其他社會成員之間的交往時間,并且關(guān)心機器人本身的陪伴質(zhì)量也遭到人們的質(zhì)疑。3.改變了照料本身的含義。從效率出發(fā),照料的提供者與照料的接受者之間需要通過機器中介來進(jìn)行,由此怎樣有效的利用關(guān)心機器人,是使用者與設(shè)計者雙方共同的問題。[3]基于以上的倫理問題,有些學(xué)者以為如今的社會機器人存在倫理缺陷。例如在醫(yī)療機器人的使用中,假如病人真的以為關(guān)心機器人是在照料他們,那么他們就會處于風(fēng)險之中,甚至?xí){到病人的尊嚴(yán)和自主性,造成感情上的傷害。[4]人之所以相信機器人是在照料他們,是由于機器人具有某種機器人其實并不具有的屬性。正是由于這種錯誤的信念,人才會有意無意地感遭到機器人的關(guān)心與愛,并以為自個從中受益。[5]而有些學(xué)者支持關(guān)心機器人的使用,以為我們在深切進(jìn)入考慮人與機器的關(guān)系時,也必須去除對人與人之間關(guān)系的成見。[6]就像機器人將要大規(guī)模應(yīng)用的今天一樣,人與人的當(dāng)代性關(guān)系也經(jīng)歷過一個大規(guī)模的推廣、應(yīng)用時期,并且這種非傳統(tǒng)關(guān)系一直延續(xù)到今天。在這些倫理爭論的背后,有一個看起來外表化、但卻事關(guān)人機互動本質(zhì)的問題,那就是外觀形象設(shè)計問題。在面對電子通訊的圖像或者機器人時,我們更為注重其外觀所呈現(xiàn)的東西。[7]所謂外觀,不僅指其靜態(tài)的形象,還指其行為的形式,總的來講就是機器人的外在表現(xiàn),包括外形、材質(zhì)、行為舉止,甚至表示出的邏輯。我們之所以覺得機器的行為能夠在倫理維度討論,一個重要的原因就是我們把機器進(jìn)行了擬人化〔anthropomorphism〕的處理。我們只要覺得是人,而不是機器在照顧我們,才會從關(guān)心的經(jīng)典意義上來考慮這個問題。因而,擬人化的外觀設(shè)計就是把機器人的外觀形象設(shè)計得無限接近于人。雪莉特克爾〔SherryTurkle〕、馬蒂亞斯舒爾茨〔MatthiasScheutz〕等人指出把機器人擬人化并在這里基礎(chǔ)上建立人機關(guān)系,是對人與人之間關(guān)系的毀壞?!瞇4],p.173〕但是現(xiàn)實情況是,機器人已經(jīng)在諸多領(lǐng)域成為了社會行動的一分子,人不可避免地與機器人建立了親密關(guān)系。彼得辛格〔PeterSinger〕甚至指出在一些戰(zhàn)地故事中,兵士會冒著生命危險去拯救機器人?!瞇4],p.175〕在這些事例中,擬人化通過起名字等表示出接納的行為而實現(xiàn),人們會以一些歡迎儀式和準(zhǔn)入方式來賦予一個純粹技術(shù)物以同伴的身份。因而,假如一個關(guān)心機器人在擬人化上非常成功,我們似乎就能夠接受其為社會的一員,并建立親密關(guān)系;而假如擬人化不成功,我們就會以為這個機器人不能承當(dāng)與社會關(guān)系相關(guān)的任務(wù)。在倫理上存在這樣一個邏輯:外觀上越擬人,我們就容易把其納入到道德的考慮范圍內(nèi);而外觀與人差距越大,我們越不會考慮其道德方面存在的問題。這個邏輯被應(yīng)用到社會機器人設(shè)計之中,導(dǎo)致所有社會機器人的外觀設(shè)計,都傾向于具有某種擬人的、使人親近的特點。實際上這是我們在根據(jù)自個的道德圖像要求,來構(gòu)建自個的人工物。這種設(shè)計理念的來源是人對自我道德圖像的認(rèn)識。不管一個人的行為能否經(jīng)常符合道德要求,這個人自個都希望自個的形象是正面的、道德的。這就是個人的道德圖像〔moralself-image,MSI〕,道德圖像提供了一種道德向心力,使人為了竭力維持自我的道德圖像而努力。[8]同樣,人在與他者交往的經(jīng)過中,也在理解、感悟與期望著他者的道德圖像。想要把機器人納入到社會交往活動中,就需要機器人自個的道德圖像。這不只是為了塑造其本身的道德特性,更是為了知足我們本身認(rèn)知、感受它者道德圖像的需求。那么智能機器人的道德圖像是由什么構(gòu)成的?我們怎樣構(gòu)建作為一個獨特道德能動者的自我圖像,又是如何幫助其他所謂的非道德能動者構(gòu)建既屬于它們、但又只為我們而存在的道德圖像?只要考慮了這些問題之后,才能從根本上回答擬人化設(shè)計所帶來的倫理問題。二、智能機器外觀設(shè)計中的自我錯誤想要討論智能機器的道德圖像,就要先梳理人的道德圖像。自我位居于道德圖像的中心,有什么樣的道德自我,就有什么樣的道德身份。道德身份直接構(gòu)成道德圖像,人的道德身份與其所處的道德共同體〔moralcommunity〕息息相關(guān)。而道德共同體的排他性使得人的道德圖像在具有朝向自我的向心力的同時,也具有排擠其他非共同體內(nèi)部成員的排他傾向,這實際上這是一種自我錯誤的具體表現(xiàn)出。1.道德自我道德準(zhǔn)則經(jīng)常具有很大范圍的普遍性,是一種需要共同遵守的規(guī)定。例如康德就以為道德準(zhǔn)則應(yīng)該在本質(zhì)上是普遍有效的,否則就不能算是真正的道德準(zhǔn)則。但是關(guān)于個人化準(zhǔn)則的討論也沒有停止過,從古希臘開場的道德討論很多都關(guān)注個人道德選擇,例如此多葛學(xué)派。西塞羅就講,只要卡托這個人的自殺是道德的。[9]這種對倫理準(zhǔn)則的認(rèn)識是基于獨有的自我觀念。所以講,個人化準(zhǔn)則的根據(jù)在于第一人稱的觀點,即從自我的經(jīng)歷體驗與身體知覺出發(fā)?!瞇9],p.37〕這時自我能夠分解為兩個自我考慮的方式,一個是從個性〔individuality〕出發(fā),討論自我意識與主體性;另一個是從心理功能的統(tǒng)合性出發(fā),討論人際與社會的介入能力、對象性理解。〔[9],p.37〕第一種自我是我們常講的作為道德能動者的自我,第二種自我是一種共同性自我,強調(diào)社會成員之間在倫理取向上的共通之處。但這種共同性是一種假設(shè),由于只要第一種自我才是詳細(xì)討論自我內(nèi)部,而第二種自我只是基于自我的存在而直接進(jìn)行道德活動的功能性假設(shè)。這種共同性假設(shè)的核心就是,我們相信自個具有某種本質(zhì),這種本質(zhì)與其他主體的本質(zhì)之間有某種共同性。我們之所有覺得社會中的別人或者他者具有某種道德上的可討論性,或者直白地講,值得我們考慮,就是由于我們以為其具有某種共通性的個人品質(zhì),某種被共同體所接受的個人塑造的品質(zhì)〔theperson-makingqualities〕。[10]道德自我與道德目的通常是分開的。道德向心力〔moralcentrality〕是考察自我與動機關(guān)系時的一個重要概念。并不是由于特定的道德目的驅(qū)動,人就能夠做出符合自我需求的道德行為。[11]分層解釋理論〔ConstrualLevelTheory,CLT〕以為對行為原因不同層面的解釋,能夠模擬出非理性的自我目的設(shè)定。[12]不管怎樣精細(xì)化地分析道德目的,道德目的并不直接構(gòu)成道德圖像,只要道德向心力才是直接原因。道德向心力不為實現(xiàn)直接的、特定的道德行為而存在,而是為了構(gòu)成共同性假設(shè)下的群體內(nèi)在一致性而存在。從個人層面講,這種向心力構(gòu)成了道德身份;而從群體層面講,這種向心力構(gòu)成了道德共同體。道德身份是自我的獨特性所在,在之前的哲學(xué)討論中,身體上的延續(xù)性與一致性是身份同一的核心。而2000年之后,人們開場把心理上的延續(xù)性作為身份同一的重要方面。[13]人希望在與他者的互動中不斷強化自我觀念,這時對他者的經(jīng)歷體驗就是對一種自我對象〔selfobject〕的經(jīng)歷體驗。[14]要想在機器身上獲得如此強大的自我認(rèn)同,就需要機器有極高的擬真度,即人越是能在機器身上獲得自我經(jīng)歷體驗,機器就越接近于人,機器就越接近道德能動者。這是人工道德能動者討論中一個重要的錯誤觀念,稱之為自我錯誤。自我錯誤即具體表現(xiàn)出了道德身份同一性的問題,又中心主義的問題。2.中心主義的道德共同體倫理學(xué)家也試圖讓倫理包含他者,但是人類中心主義的,或者在道德認(rèn)知意義上的自我中心主義的方式方法論框架,在處理別人、動物、環(huán)境、機器等他者時,采取了一種復(fù)原論的態(tài)度,強行把他者通過類比或誤解的方式,納入到傳統(tǒng)的自我中心主義框架中。[10]這外表上擴大了倫理考慮的范圍,實際上還是一種只把自我屬性作為可考慮內(nèi)容的倫理傾向。斯拉沃熱齊澤克〔Slavoj?i?ek〕把這種趨勢描繪敘述為:他者性的本質(zhì),就是另一種共同性,一種展現(xiàn)我們要控制他者的決心的構(gòu)造?!瞇15],p.161〕這種構(gòu)造的現(xiàn)實表現(xiàn)就是道德共同體。道德共同體是中心化的詳細(xì)呈現(xiàn),這種中心化是超越所謂的人類中心主義的。共同體的成員沒有區(qū)別人與非人,更沒有許諾把所有人類都納入到共同體。共同體的標(biāo)準(zhǔn)更具有地方性,能夠區(qū)別地看待不同道德共同體之間的文化、社會差異,而不像是人類中心主義那樣預(yù)設(shè)了一個抽象的人類共同體。人類中心主義在行使歧視性標(biāo)準(zhǔn)的同時,本身就是一種對人類內(nèi)部的歧視。歷史上西方社會就一度以為白人男性是道德共同體的成員,而女性和非白人不是。[16]這不是一種理性的標(biāo)準(zhǔn),而是感性的成見。這種劃分與我們前面提到的排他性經(jīng)過一致,但是區(qū)別在于,排他性經(jīng)過遵循一種內(nèi)在的理性邏輯,其能夠歷史地看成是人類道德知識演化的經(jīng)過;而道德共同體成員標(biāo)準(zhǔn)的變化,沒有嚴(yán)格遵循這個演化經(jīng)過,它能夠是根據(jù)非理性的標(biāo)準(zhǔn),例如種族主義;可以以是根據(jù)理性的標(biāo)準(zhǔn),例如能否具有自我意識與理性等。但是,兩者的共同之處都在于,其有排他性傾向,并保持總是有標(biāo)準(zhǔn)之外的它者存在,而這些它者由于共同體或中心主體的存在而沒有道德地位。排他性道德共同體的存在本身就是在挑戰(zhàn)每個成員內(nèi)在的道德性。每一次道德共同體的擴大,都是對原來成員本身的道德本質(zhì)的質(zhì)疑,迫使共同體內(nèi)部的每個人考慮這樣兩個問題:1.共同體的道德標(biāo)準(zhǔn)。這個道德標(biāo)準(zhǔn)是在下降還是上升?是我們接納了新成員,還是被接納為新團(tuán)體?我們是修改了自個的道德標(biāo)準(zhǔn),還是重新認(rèn)識了自個的道德本質(zhì)?不管理論上應(yīng)該怎樣回應(yīng),但是事實上,道德共同體擴大的經(jīng)過,也是道德等級構(gòu)成的經(jīng)過;參加道德共同體越晚,在道德上的地位越低。2.共同成員的道德本質(zhì)。為什么原來只要這樣的主體有資格被道德地考慮,而如今那樣的主體卻獲得了同樣的資格?新成員與舊成員之間在道德本質(zhì)上有什么異同?新成員在自我層面能否還具有同樣朝向的向心力?現(xiàn)如今,道德本質(zhì)問題直接導(dǎo)致了我們對于未進(jìn)入的道德主體,以及剛進(jìn)入的道德主體仍持有懷疑態(tài)度。我們以為這些主體的道德能力只是表征層面或者功能上成立,實際上其仍然沒有從其自我層面擁有成為共同體一員的資格。這兩個問題構(gòu)成了中心論意義上的自我錯誤。3.自我錯誤帶來的人工物道德窘境綜上所述,自我錯誤的現(xiàn)實問題,就是我們依靠舊共同體的道德標(biāo)準(zhǔn),來考慮內(nèi)部成員的道德自我,以及外部它者的道德自我。因而,自我錯誤會非常直接地遭到三個挑戰(zhàn):(1〕人的自我同一問題古典哲學(xué)以為,創(chuàng)造人工物的活動就是自我見之于自我的活動。對這個觀點的誤讀導(dǎo)致人們以為,人工物就是一個自我客體。這忽視了黑格爾等古典哲學(xué)家們普遍具有的經(jīng)過思想。創(chuàng)造活動是一種見之于自我的活動,但人工物不是見之于自我的客體。首先,創(chuàng)造活動是人能動性的反映經(jīng)過,在對象性中斷時,人一心一意地投入到自個延展自我的活動中,是一種見之于自我的經(jīng)過。然后,當(dāng)人工物構(gòu)成時,物質(zhì)性與對象性重新回歸,人開場審視這個異己之物與異己之自我,它者正式構(gòu)成。人工物在這個意義上與自然物并沒有本質(zhì)的區(qū)別,物質(zhì)性與對象性帶來的異己感是其核心。因而不能講人工物是一個自我客體,而只能講人工物的誕生經(jīng)過是出于人見之于自我的需要。(2〕控制問題人真的能從人工物或自然物之中加強自我觀念嗎?這種嘗試一直存在,但是效果欠佳,由于人類歷史上的強化自我概念的行為都是從社會關(guān)系中來實現(xiàn)的。是主客、統(tǒng)治與被統(tǒng)治等傳統(tǒng)關(guān)系的不斷強化,使人能從控制他者的活動中獲得自我的強化??刂?,而非創(chuàng)造,才是經(jīng)典自我觀念的外化經(jīng)過。舊的倫理原則也是基于此來建立的,所有的傳統(tǒng)倫理原則都強調(diào)人與人之間的關(guān)系,并且是傾向于維持關(guān)系而不是毀壞關(guān)系。這種設(shè)置在今天視為先驗的、理所應(yīng)當(dāng)?shù)?,其根本來源就是自我的控制需求。但是?dāng)代性開場以后,人類創(chuàng)造的經(jīng)過還是那樣被理解為控制的經(jīng)過,導(dǎo)致了用控制的倫理來理解創(chuàng)造的倫理,必然面臨問題。而人工物即使在今天獲得了宏大突破,也在由于控制的倫理而不斷被束縛與誤解。(3〕不確定性問題確定性是哲學(xué)的一大追求,直到20世紀(jì),杜威的實用主義還在追求技術(shù)社會中確實定性。確定性是與追求自我的觀念相聯(lián)絡(luò)的,而不確定性是與追求他者的觀念相聯(lián)絡(luò)的。確定性最后的喪失,與人們轉(zhuǎn)而追求非構(gòu)造的、后當(dāng)代的自我觀念,預(yù)示了他者倫理將要取代自我倫理。而人工物倫理作為一種過渡,既是自我外化的表現(xiàn),又是他者性的載體。需要先建立人工物倫理,再建立他者倫理,進(jìn)而扭轉(zhuǎn)中心論、自我論的倫理。因而,人工物也不應(yīng)該在自我倫理的意義上是一種道德能動者。由于能動性作為自我道德能力的一種表現(xiàn),對于道德他者性沒有奉獻(xiàn)。即使自我之外的它者能夠在傳統(tǒng)意義上成為某種程度的能動者,也只是在自我的序列中爭取到了一定的地位,遠(yuǎn)獲得他者應(yīng)有的倫理地位。三、自我的環(huán)境假設(shè)對自我錯誤的反思道德自我與個人、記憶和欲望都有直接的關(guān)系,甚至與未反思、加工的認(rèn)知體驗和知覺也有關(guān)聯(lián)。但最主要的是,道德自我與一個在社會環(huán)境中所處的位置有嚴(yán)密聯(lián)絡(luò)。[13]很多學(xué)者以為,機器當(dāng)前沒有意識與自我,因而也沒有道德狀態(tài),也就沒有自我道德圖像。這種觀點是站著一種道德能動性的自我視角之上,以為自我觀念與意識功能是道德個體的基礎(chǔ)。這種觀點存在兩個問題,首先個體概念不以個體能力為基礎(chǔ),我們成認(rèn)個體存在是以異己性為根據(jù),而不是以其能力大小以及與我們的類似程度為根據(jù)。對于植物人等類型的病人,我們?nèi)匀怀烧J(rèn)其個體性與生存資格;對于詳細(xì)的植被,甚至抽象的生態(tài)圈層,如今環(huán)境倫理都成認(rèn)其道德地位。顯然以與人一樣的能力作為道德可考慮性的根據(jù),已經(jīng)過時。其次,道德的概念不以自我為基礎(chǔ),而是以互動和關(guān)系為基礎(chǔ)。我們考察詳細(xì)情境中每個能動者對共同體規(guī)則的遵守程度,而不是考察每個能動者的內(nèi)部道德狀態(tài)。假如經(jīng)典的道德個體觀念存在問題,那么對于機器等人工物的道德能動性就會有新的解釋。當(dāng)前智能機器還沒有自我觀念和類人的意識能力,但是機器在被使用的經(jīng)過中處于一種互動關(guān)系中。對于作為使用者的我們,需要從它者的視角,而不是自我的視角,來區(qū)分它者的兩種道德自我。一種是內(nèi)在假設(shè)的自我,即基于他心內(nèi)部的道德狀態(tài)來生成的道德身份,來構(gòu)建和維持的他者的道德圖像。另一種是環(huán)境假設(shè)的自我,即自我的道德形象具體表現(xiàn)出在詳細(xì)的互動環(huán)節(jié)中,我們會依靠肢體動作、表情、話語等因從來理解與構(gòu)建別人的道德圖像。對于環(huán)境假設(shè)的自我的疑問在于,人能夠拋開內(nèi)部狀態(tài)來單純的討論意義環(huán)境嗎?其實,互動中的道德圖像能夠不基于內(nèi)在狀態(tài)。梅洛龐蒂就以為在主體互動關(guān)系中,內(nèi)在狀態(tài)并不扮演主要角色。梅洛龐蒂沒有否認(rèn)互動關(guān)系就有內(nèi)在性,但是他在對話這種詳細(xì)、精細(xì)的互動環(huán)境的限制條件下指出,所謂的互動意義,只來自于互動關(guān)系本身,而并不來自雙方的主體狀態(tài)。[17]擬人化作為人為智能機器構(gòu)建道德圖像的常見方式,恰恰是假設(shè)了機器具有某種內(nèi)在的自我。這看起來是矛盾的,由于機器沒有內(nèi)在自我與意識能力,為什么還要遵從內(nèi)在自我的假設(shè)來設(shè)計其外觀呢?這正是由于我們只成認(rèn)存在內(nèi)在假設(shè)的自我,所以機器、尤其是智能機器的設(shè)計,正是朝著讓機器具有內(nèi)在自我的方向前進(jìn)。假如一個道德圖像的背后是內(nèi)在假設(shè)的自我,那么全方位的、不分次序地為其賦予自我道德能力,也是我們?nèi)缃衽Φ姆较颉S捎谖覀兿胱寵C器進(jìn)入我們的排他性共同體,而唯一的途徑就是讓它者獲得我們本身道德圖像與道德自我所展現(xiàn)的內(nèi)容。所以,人在維持自個作為道德共同體成員的圖像時,也在竭力維持互動型機器人的擬人形象。擬人既包括趨近于人的形象或?qū)徝溃仓笇θ说母惺苄缘挠H近。由于智能機器沒有內(nèi)在假設(shè)的自我,所以正確的途徑應(yīng)該是從環(huán)境假設(shè)的自我來考慮。但是當(dāng)前的智能機器的設(shè)計者并沒有根據(jù)環(huán)境假設(shè)的思路來構(gòu)建機器的道德圖像,仍然遵循擬人化的內(nèi)在假設(shè)的自我,這就比自我錯誤更進(jìn)了一步,會帶來一系列道德圖像的問題:首先,混淆了自我與他者,導(dǎo)致一種自我中心論的設(shè)計缺陷。模糊、封閉的自我標(biāo)準(zhǔn)會影響道德溝通,使得他者的道德身份對互動關(guān)系的塑造無法彰顯,導(dǎo)致實際互動中的道德溝通障礙。在成認(rèn)異己的物質(zhì)性存在的基礎(chǔ)上,先假設(shè)地把機器作為道德共同體的一員,來設(shè)想其形象,然后又否認(rèn)其內(nèi)外一致性,最終會產(chǎn)生一般化的自我道德圖像與設(shè)計的他者道德圖像之間的矛盾。其次,絕對對象化的他者道德圖像,導(dǎo)致自我的道德圖像也不能獲得正確的地位。本來對象化是絕對道德中立的,由于對象化就是主體外化本身,為自個創(chuàng)造客體的經(jīng)過。[18]但是從女性主義反對物化開場,對象化在道德上就開場偏向貶義。對象化揭示了當(dāng)代性意義上自我與他者的關(guān)系,即他者就是披著主體性面紗的客體,或者講有著客體性本質(zhì)的類自我、類主體〔quasi-subject〕。這是一種強調(diào)自我、虛化他者的理論,給人機互動帶來本體論的問題。最后,構(gòu)建與維持道德圖像之間的不對稱。假如共同體不成認(rèn)智能機器的道德地位,就會導(dǎo)致自我道德圖像的構(gòu)建與維持之間的不對稱。沒有絕對獨立存在的、理論上的自我道德圖像,自我圖像是在自我的主體性與賦予他者的主體性之間維持著圖像身份的同一。假如拋開這個自我與他者之間的關(guān)系,道德身份同一就面臨困難。智能機器的道德圖像就只能在認(rèn)知上具有可理解性,但是在身份與地位上無法獲得認(rèn)同。四、從漠視到舒適:它者的道德圖像恐懼谷〔Theuncannyvalley〕指出了在機器人在擬人經(jīng)過中出現(xiàn)的使人感到不適的階段?!瞇19],p.25〕機器人的外觀會隨著不斷接近于人而使人感到親近感,在當(dāng)時的日本,外觀的含義更為單調(diào),只是其形象與行為能否與人類似。即使在這個情況下,在非常接近人的外表時,我們?nèi)匀粫炎⒁饬念愃浦庌D(zhuǎn)向細(xì)微的不同之處,進(jìn)而產(chǎn)生宏大的詭異感與恐懼感。能夠想象在今天,假設(shè)機器人除了在形象上類似之外,還在行為舉止、甚至表示出上與人相近的話,也會相應(yīng)地出現(xiàn)道德圖像的恐懼谷,我們會對機器產(chǎn)生道德上的不信任感與交往上的排擠感。這些直觀上的感受都是由于我們希望把機器納入到道德共同體之中,但是自我道德圖像上的不同一又無法克制擬人所帶來的差異感。這種嫌隙實際上也發(fā)生在每次共同體擴大時所納入的新成員與舊成員之間,只是面向人工物的這一次跨越尤為使得共同體成員感到不適。圖1恐懼谷與漠視谷要克制這種恐懼谷帶來的不適感,根據(jù)內(nèi)在假設(shè)的自我,就要進(jìn)一步提高機器的擬人化程度,并在內(nèi)在自我的層面進(jìn)行突破。且不講內(nèi)在假設(shè)本身的問題,就算在突破機器自我的技術(shù)層面,對當(dāng)前的技術(shù)水平來講也是不現(xiàn)實的。因而,擬人化的、強調(diào)自我道德圖像的途徑是走不通的。機器作為社會互動關(guān)系中一員,首先是一個獨立的它者,其次才是可能被舊的道德共同體吸納的潛在成員。我們不能本末倒置,以為只要成為共同體成員,才是道德上獨立的個體。所以智能機器的外觀設(shè)計首先應(yīng)該是根據(jù)一個它者的道德圖像來設(shè)計,而不是根據(jù)一個與人同一的道德圖像來設(shè)計。不類似才是設(shè)計的核心,而不是類似。如今社會中應(yīng)用的社會機器人,大多數(shù)以擬人為設(shè)計初衷,假如去擬人化,必然會帶來舒適度的下降〔見圖1中漠視谷〕。這種舒適度下降帶來的是差異感,由于人只關(guān)心趨向于中心的道德主體,因而去擬人化帶來的遠(yuǎn)離中心的道德圖像會使人產(chǎn)生冷淡感。就像沙漠中的沙子一樣,變成人毫不關(guān)心的客體存在。但是,假如堅持這種去擬人化的途徑,同時保持社會機器人的互動角色,最終人們會在漠視它者的中心感中走出來,正視這種作為它者的、保持與共同體中道德圖像的絕對差異的、卻又如實地在道德活動中發(fā)揮作用的機器。此時,由于道德豐度的提高,舒適度又會上升。基于這種邏輯,關(guān)心機器人的設(shè)計需要遵循如下三個原則:第一,客體圖像的獨立性。作為他者出現(xiàn)的機器的道德圖像,不應(yīng)該成為我們共同性道德圖像中的新成員;或者講,不要以我們自個道德共同體的準(zhǔn)入標(biāo)準(zhǔn)來要求機器,至少使其處于一個道德性不被排他性共同體評判的位置。這樣使得機器的倫理問題是一個機器倫理問題,而不是人倫理問題。第二,它者行為的差異性。要使得機器的行為具有機器的特點而不是無限趨近于人的行為特點,進(jìn)而讓我們能夠注意到一個異己的存在。這樣不只是為了提示潛在的道德傷害,更是為了避免人的道德的機器化,或者機器行為的人化。只要這樣才能保證機器的道德地位與互動中的身份同一。第三,互動關(guān)系的去道德化。人機關(guān)系具有社會性特征,這是智能機器與人互動的表征特點。[20]但是這種社會性不意味著人與機器之間存在道德關(guān)系。根據(jù)固有的道德共同體認(rèn)定方式,內(nèi)部成員與共同體之外的他者之間是沒有道德關(guān)系的,但是擬人設(shè)計違背了這一點,因而首先要使得共同體的標(biāo)準(zhǔn)能夠維持本身的一致性。而接下來,我們要反對道德共同體的概念,強調(diào)一種一般性的、包含道德它者與道德自我的道德共在標(biāo)準(zhǔn),進(jìn)而使得互動關(guān)系獲得新的道德性。總的來講,社會機器人的設(shè)計應(yīng)該遵循人工物本來的外觀,而不是擬人的外觀。這會產(chǎn)生另一個問題:關(guān)心、陪伴機器人本來就是為了補足人類勞動力缺乏而產(chǎn)生的,假如外觀上去人化,能否與其初衷相悖?面對老齡化社會,我們確實面臨從事照料活動的勞動力缺乏的問題。機器人代替人從事服務(wù)行業(yè),也確實從一定程度上緩解了這個問題。而事實是,每個接受關(guān)心機器人的老人,也并沒有真的把機器人當(dāng)做人;而我們更不能以為有了機器人,對老齡人口的人文關(guān)心就能夠變成機器關(guān)心。我們既要知足對照料活動的需求,也要如實地區(qū)別人與機器這兩種不同的照料服務(wù)提供者。假設(shè)機器是共同體的一員,或者強行為機器塑造一個類人的自我,都是自欺欺人的行為。更重要的是,人有自個的道德地位,需要共同體內(nèi)部成員的關(guān)心;機器也有自個的道德地位,也需要作為它者而被尊重??傊?,智能機器的道德圖像既不能由于一種中心化的共同體準(zhǔn)入標(biāo)準(zhǔn)而創(chuàng)造,也不能為了服務(wù)共同體成員的便利,而假設(shè)其具有類人的道德自我。智能機器的道德個體性不因其能否屬于某個共同體而存在,機器的道德性也不依靠人賦予其的內(nèi)在假設(shè)的道德自我而存在。只要把機器放入道德互動的社會語境中,從與其他社會成員的互動性上來看,才能正視機器的道德地位。以下為參考文獻(xiàn)[1]Borenstein,J.,Pearson,Y.RobotCaregivers:HarbingersofExpandedFreedomForAll?[J].EthicsInformationTechnology,2018,12(3):277-288.[2]Nagai,Y.,Tanioka,T.,Fuji,S.,etal.NeedsandChallengesofCareRobotsinNursingCareSetting:ALiteratureReview[A],InternationalConferenceonNaturalLanguageProcessingandKnowledgeEngineering[C],IEEE,2018,1-4.[3]Royakkers,L.,Est,R.V.JustOrdinaryRobots:AutomationfromLovetoWar[M].BocaRaton:CRCPress,2021.[4]Lin,P.,Abney,K.,Jenkins,R.RobotEthics2.0:FromAutonomousCarstoArtificialIntelligence[M].London:OxfordUniversityPress,2021,97.[5]Sharkey,A.,Sharkey,N.GrannyandtheRobots:EthicalIssuesinRobotCarefortheElderly[J].EthicsInformationTechnology,2020,14(1):27-40.[6]Coeckelbergh,M.,Brey,P.,Briggle,A.CareRobots,VirtualVirtue,andtheBestPossibleLife[A],Spence,E.,Brey,P.,Briggle,A.,Spence,E.(Eds)TheGoodLifeinaTechnologicalAge[C],NewYork:Routledge,2020,281-293.[7]Pols,J.WonderfulWebcams:AboutActiveGazesandInvisibleTechnologies[J].ScienceTechnologyHumanValues,2018,36(4):451-473.[8]Jordan,J.,Leliveld,M.C.,Tenbrunsel,A.E.TheMoralSelf-imageScale:MeasuringandUnderstandingtheMalleabilityoftheMoralSelf[J].FrontiersinPsych

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論