【甜心聊包養網[美]劉紀璐】儒家機器人倫理
儒家機器人倫理
作者:[美]劉紀璐
翻譯:謝晨云、閔超琴、谷龍
點校:項銳
來源:《思惟與文明》第二十二輯, 華東師范年夜學出書社2018年 6 月出書
時間:孔子二五七零年歲次己亥正月廿九日辛丑
耶穌2019年3月5日
作者簡介:
[美]劉紀璐著**劉紀璐(Jee台灣包養Loo Liu,1958—),女,american加州州立年夜學富樂敦分校哲學系主任傳授,重要研討領域及標的目的為心靈哲學、中國哲學、形而上學、品德心思學。
謝晨云(1995—),女,江西吉安人,華東師范年夜學哲學系碩士研討生,研討標的目的:中國道教。
閔超琴(1995—),女,江西新余人,華東師范年夜學哲學系碩士研討生,研討標的目的:先秦哲學、美德倫理學。
谷龍(1991—),男,湖南耒陽人,華東師范年夜學哲學系碩士研討生,研討標的目的:中國釋教。
項銳(1989—),男,江蘇鎮江人,華東師范年夜學哲學系碩士研討生,研討標的目的:科學哲學。
[摘要]本文探討在所謂“人工品德主體”身上植進儒家倫理準則的效能性。本文徵引儒家經典《論語》,思慮哪些倫理規則可被納進機器人性德。本文也將對比康德型、功利主義型、儒家型這三類人工品德主體,考核它們各自的優劣之處。本文認為,盡管機器人并不具備人所固有的品德感情,如孟子所捍衛的“四端”,但我們能夠借由儒家所強調的那種品德準則來構建機器人的品德倫理。隨著儒家倫理準則的植進,機器人可以有效能性的品德,從而使它們具備成為人工品德主體的資格。
[關鍵詞]人工品德主體;儒家倫理;功利主義;康德倫理學;阿西莫夫定律
本文的研討獲得了復旦年夜學的資助。筆者曾作為“復旦學者”在復旦年夜學訪學一月。在此對于復旦年夜學哲學院的大方互助和訪學期間的思惟交通,謹致謝忱。
導言
隨著人工智能技術的發展,智能的類人機器人很有能夠在不遠的將來出現在人類社會中。而它們能否真正具有人的智能,能否包養犯法嗎真正能夠像人類那樣思慮,這還有賴于哲學層面的探討。但可以確定的是,它們將能通過英國計算機科學家、數學家、邏輯學家圖靈所提出的人工聰明測試法(圖靈測試法)——也就是說,假如機器人可以勝利誘導和它們對話的人類把它們當作人類來對待,那么它們就可以被認證為具有智能。也許有一天,智能機器人將廣泛成為我們社會中的成員,它們會主動分擔我們的任務,照顧我們的白叟,在飯店和賓館為我們服務,在導航、軍事甚至醫療領域替我們做主要的決定。我們能否應該為這些機器人設置裝備擺設品德準則,教導他們辨明長短?假如答覆是確定的,那么怎樣的品德準則才幹夠塑造出符合人類社會期許的人工品德主體(artificial moral agents)?
眾多人工智能設計者樂觀地認為,人工品德主體的發展總有一天會獲得勝利。在此條件之下,本文探討將儒家倫理準則植進人工智能機器人能否可以培養能跟人類戰爭共存的人工品德主體。本文通過徵引儒家經典《論語》,來思慮哪些倫理規則可被納進機器人性德。同時本文也將儒家型人工品德主體對比以康德品德準則和以功利主義準則樹立的人工品德主體,考核它們各自的優劣之處。本文認為,盡管機器人并不具備人類所固有的品德感情,如孟子所捍衛的“四端”,但我們能夠借由儒家所強調的品德準則來構建機器人,使它們成為我們可以認可的品德主體。
對人工智能品德準則的探討不是僅僅作為未來主義的腦力激蕩。M.安德森(M.Anderson)和S.安德森(S.Anderson)認為:“機器倫理學讓倫理學達到史無前例的精細水平,可以引領我們發現當下倫理學理論中的問題,從而推進我們對普通倫理學問題的思慮。”【1】本文將證明:對于機器人性德的比較研討,可以讓我們看到討論人類倫理的一些理論瑕疵。
一、機器倫理的興起
讓機器人預先考量行為后果,然后自行做出系統性的品德選擇,這一點在今朝看來仍然遙不成及。但是,現今在人工智能機器的設計上已經存在專門為機器做具體選擇而設計的指導原則,因為機器的一些抉擇會帶來許多品德后果。好比,我們可以對軍用無人機進行編制,如果它偵測到在軍事目標周邊地區有許多布衣存在,是應該立即結束攻擊還是持續發動攻擊。我們也可以對醫療機器人進行編制,當病人已經進進重癥末期而有突發情況,是讓它實施搭救辦法還是放棄進一個步驟的治療。托肯斯(Ryan Tonkens)認為:“自動機器會像人類那樣做出與品德相關的行為,是以,為穩重起見,我們的設計必須保證它們以符合品德的方法來行動。”【2】是以,即便暫時還造不出“有品德的機器”,我們也必須考慮機器倫理。此外,我們所制訂的機器倫理的版本,要能夠適用于未來長期包養的機器品德思慮主體,而非僅僅應用于機器人的設計法式。也就是說,機器倫理關心若何將品德準則應用于“人工品德主體”,而不是其設計者。
今朝設計人工聰明機器有兩種判然不同的進路,一種是“自下而上”,另一種是“自上而下”。【3】前者是讓機器從日常選擇所應用的零星規則中逐漸發展出本身的品德準則。設計者賦予機器一種處理匯總信息的學習才能,這些信息是機器在分歧的情境下,對由本身的行動所產生的結果的匯總。為了讓機器構成某種行為形式,設計者可以樹立一個獎勵系統,鼓勵機器采取某些行為。這樣一種反饋機制能夠促使機器及時發展出本身的倫理準則。此種進路類似于人類在童年時期構成品德品性的學習經驗。比擬之下,“自上而下”的進路則是在機器身上植進能夠把持其日常選擇與行為的普通抽象的倫理規則。假如走這種進路,設計者起首必須選擇一種倫理理論,剖析“在計算機系統中執行該理論所必須的信息和總體法式請求”,然后才設計執行倫理理論的子系統。【4】不過,即便有預置設計,機器在每個品德情境中還是需求根據倫理原則法式,通過推演來選擇最佳的行動計劃。這種由上而下的設計方法將會反應出規范倫理學內部的爭論,因為分歧的倫理理論會制造出依據分歧的品德準則而思維的人工品德主體。本文將比較這一研討進路中分歧的理論模子,而不考慮執行過程所需求的實際算法、設計請求以及其他技術問題。
根據M.安德森和S.安德森的觀點,機器倫理學的目標在于明確地定義抽象廣泛的品德原則,使得人工智能在選擇或是思慮本身行為的正當性時可以訴諸這些原則。【5】他們認為我們不成能為每一種能夠發生的情況制訂具體的規則。“為機器設計抽象廣泛的品德原則,而不是在每一個特定的情境中制訂機器若何做出正確的行動,好處在于機器能夠在新情境,甚至新領域中做出正確的行動。”【6】易言之,我們盼望人工智能夠真正成為人工品德主體,有本身的品德原則,同時基于這些原則做出品德考量,用這些原則樹立本身行為的正當性。是以,機器倫理學中至關主要的一個步驟,就是選擇一組能夠植進人工智能的品德原則。
二、電車難題與分歧的倫理學模子
鑒于我們今朝還沒有真正有自立性、有興趣向性的機器人,對于它們在某種情境會若何行動仍然還是一種未來包養網dcard的設想,是以我們可以暫借人類倫理討論中的思惟實驗來討論分歧的倫理原則會形成怎樣的倫理選擇。這個思惟實驗便是有名的電車難題。
標準版電車難題:
有一輛掉控的電車正沿著軌道疾馳,在其後方的軌道上有五人來不及迴避。機器人安檢員(或司機)可以對此進行干預:拉動一個操縱桿,把電車變換到另一軌道上。但是,另一條軌道上也有一個人。這里面臨的選擇是,犧牲一個人往救另五個人,還是不犧牲這個人而聽憑那五人逝世往。機器人安檢員或司機能否應該操縱拉桿來禁止災難,還是應該什么也不做?
天橋版電車難題:
機器人安檢員正站在電車軌道之上的天橋觀察電車路況情況。它看到橋下的電車正沿著有五人滯留的軌道疾馳,必須當即采取行動干預。而在天橋上,機器人安檢員旁邊有一位身體魁偉的男人,他也留意到了同樣的情況。假如機器人把該男人推到軌道上以擋住電車,那五個人就能夠免sd包養于一逝世,可是這男人則必逝世無疑。機器人應當這樣做嗎?
面對這兩種兩難窘境,品德主體必須做決定,是認為“解救五個人的行為是不允許的,因為這一舉動會形成傷害”,還是認為“這一舉動是被允許的,因為這一傷害只是積德導致的一種反作用”【7】。實驗表白,人們短期包養在電車難題中凡是會選擇犧牲一人往解救另五人,卻不會選擇犧牲天橋上的男人往營救軌道上的另五人。在實驗者看來:“這給心思學家出了一道難題:盡管在這兩種情境之間很難找到真正公道的差別點,但畢竟是什么緣由使得幾乎每個人在電車難題上都選擇犧牲一人往解救另五人,而在天橋難題中卻未選擇這么做?”【8】現在我們以這兩種情境作為我們的測試場景,來思慮設計人工智能的分歧倫理學模子各自會有的后果。
就人類的品德情境而言,電車難題看起來似乎有些夸張並且不切實際;但是,在人工品德主體的考量上,機器倫理有能夠出現類似的問題。我們無妨設想未來的特斯拉(Tesla)汽車在自動駕駛決定上加了一條主導的品德原則:假如傷害到人類是個不成防止的結果,那么,抉擇必須以盡量減少傷害的人數為第一原則。【9】假如一輛載滿學生的校車忽然掉控沖向一輛特斯拉汽車,而特斯拉汽車無法及時停車防止相撞,這輛特斯拉汽車應該冒著司機的性命危險而轉向往撞路中間的隔離帶呢,還是應該繼續前行聽憑兩車相沖撞呢?假如特斯拉的品德考量能夠最終會犧牲它的駕駛人,那也許就沒人愿意購買一包養留言板輛特斯拉了。這種預想情況和電車難題有些類似。在設計機器人的品德主體方面我們還可以設想其他良多跟電車難題類似的情況。是以,電車難題可以用來檢測我們的機器倫理。
(一)阿西莫夫機器人定律
“自上而下”機器倫理設計標的目的一個很好的范例就是阿西莫夫(Isaac Asimov)于1942年提出的機器人三年夜定律【10】:
[A1]機器人不克不及以其行動傷害人,或因不作為而使得人遭到傷害。
[A2]在不違反第一條定律的條件之下,機器人必須絕對服從人類給予的任何號令。
[A3]在不違反第一和第二定律的條件之下,機器人必須盡力保留本身的存在。
阿西莫夫后來追加了一條第零定律,優先于以上三條定律:
[A0]機器人不得傷害人類整體,或因不作為使人類整體遭到傷害。【11】
第必定律與第零定律之間的區別在于,前者關注人類個體,而后者關注人類整體。第零定律優先于第必定律,這就意味著:為了保護人類整體,機器人可以傷害人類個體。科幻小說中有運用第零包養ptt定律的例子:假如某些人類個體攜帶足以使人類滅亡的致命性傳染病毒,那么機器人就有義務消滅這些個體。這個品德原則概況上看來很有事理,但是,在實際應用上則是極度有問題的,因為人類整體這個概念作為品德理念極為抽象,在人類歷史上這個概念曾被用來作為良多邪惡行徑的捏詞,好比納粹分子以改進人種而殘害猶太平易近族,或是其他以改進人類整體為名的種族屠殺。是以,第零定律作為最高級別的機器人定律完整有能夠廢除阿西莫夫三年夜定律。
用阿西莫夫三年夜定律來處理電車難題也顯然捉襟見肘。在標準版電車難題中,第必定律制止機器人拉動拉桿,因為這會傷害到另一軌道上的人;但該定律也不容許機器人袖手旁觀,因為它的不作為會導致軌道上的五人遭到傷害。在天橋版中,機器人將胖男人推下橋的行為是絕對制止的,因為這直接傷害了人類;但與此同時,明明可以推下男人攔停電車,而機器人卻袖手旁觀,這就違背了第女大生包養俱樂部必定律的后半句請求。無論若何,這個機器人會處于沒有品德引導的自覺狀態。溫菲爾德(Alan Winfield)等人曾進行過一系列試驗,試驗中的“阿西莫夫機器人”肩負著救人的重擔。試驗設計了三種分歧的情形。第一種情形只放置了“阿西莫夫機器人”,而它的任務只是保護本身。這時“阿西莫包養網ppt夫機器人”可以百分之百保證本身不失落進坑里。第二種情形增添了代表人類的機器人H,而第三種情形則包括了兩個代表人類的機器人H和機器人H2。在只要一個人類的情形中,阿西莫夫機器人可以勝利地完成本身的任務。但是,假如(機器人H和機器人H2所代表的)兩個人類面臨失落進坑中的危險,那么在近一半的嘗試中,“阿西莫夫機器人躊躇無助,結果兩個‘人類’都命歸黃泉”。【12】溫菲爾德等人信任,他們所設計的這個試驗很是契合阿西莫夫的第必定律。【13】是以,阿西莫夫機器人的掉敗,表白阿西莫夫定律缺乏以處理較為復雜的品德情境。為清楚決這個問題,我們需求引進其他規則來指導機器人若何在品德窘境中做出正確的選擇。
在討論人類倫理規范的種種理論中,除了規范性品德原則的走向之外,還有品格倫理學、關懷倫理學的種種提案,對人類規范性品德來說,這也許是今朝更廣泛被接收的理路。可是機器人能否可以具有品德品格、品德情懷,或是若何建造有品格、無情感的機器人,都是很有困難也很是不難惹起質疑的議題。是以我們權且不談。在討論機器人性德準則的文獻中,康德倫理學或包養金額功利主義倫理學是最重要的范本。我們無妨對此二者進行一番考核。在討論這兩種品德準則時,我們也不是討論整個康德品德哲學或是功利主義的各個層面,而是專就其理論中的品德準則運用在機器倫理建構的后果作比較研討。
(二)人工品德主體的康德倫理學準則
機器倫理學中主導的倫理模子之一,即是康德的品德哲學。許多機器倫理學家認為康德的品德理論供給了一個可以讓“我們把倫理學勝利應用于自立機器人的最好機會”【14】。康德的規范倫理學是一種義務論,它在進行品德判斷時訴諸人的責任感而非感情。“責任是種規則或律令,與之相伴的是我們在進行選擇時所覺得的約束或動因。”【15】我們不難懂得為什么機器人倫理學天然會選擇康德品德哲學:對于康德來說,人類的本身好處、欲看、天然傾向,以及諸如榮譽感、同感情與憐憫感之類的品德感情,這些都完整沒有品德價值。康德認為,即便或人在向其周圍傳播幸福時找到了本身內心的喜悅,并且在別人對本身的任務表現滿意時而覺得欣喜,無論上述行為多么正確或令人喜愛,它“仍然沒有真正的品德價值”【16】。真正的品德行動必須純然依據感性存在者的責任感。由于缺乏理性,不會遭到人類情緒和欲看的干擾,機器人將成為實現康德純粹感性的品德形式的幻想對象。
康德的第一條絕對律令表述如下:
[D1]我應當永遠不會行動,除非以這樣的方法,即我的行為準則將成為廣泛法則。【17】[另一個版本:行為的準則必須是在選擇當下行為準則時,同時認知這個行為準則可以成為廣泛法則。]
準則是一個人的主觀意志原則,而廣泛法則是一種本質上約束著一切感性存在者的品德律。康德的“絕對律令”基于以下假設:個人的品德抉擇不是當下的意氣用事,而是在對當下特定情境進行考慮考慮后的結果,人類的品德選擇是伴隨著對特定情境的考量出現的,且這一考量與個人在處理臨時情況時所采用的個人原則相分歧。也就是說,個人的品德抉擇是個感性的過程,而感性的第一條件就是分歧性(牴觸是缺少感性的一個表征)。康德的“絕對律令”將個人的主觀意志原則與廣泛法則結合,不僅請求個人的內在分歧性(intrapersonal consistency),同時請求人與人之間的統一性(interpersonal agreement)。這一絕對律令的感化就像一條禁令:不要選擇不克不及廣泛化的主觀意志原則,不要做出違背廣泛法則的行為,好比因遭受不幸而自殺,明知不克不及依諾歸還仍往借錢,沉淪于享樂而沒有發展本身天賦,或是在本身不會遭受危難的情況下依然拒絕幫助急需幫助的人。即便這種種行為在當下是我們最有興趣愿往做的事,但從品德感性上考量我們仍不應該聽任本身的行為。這包養女人種自律的品德,在康德看來,是人類品德的本質。
在機器人倫理學方面,我們可以用康德的第一條絕對律令來制訂這樣的機器人性德律:
[DR1]一個機器人的行動必須遵照如下法則,即它所做的選擇在原則上應能成為其他機器人的廣泛法則。
由于機器人倫理學必須設計出一種讓機器人在個別情況下,能根據預定原則而做出決定的行動法式,我們必須以情境倫理學的基礎,外行動過程中給予個案考量,可是這些主觀的行為準則又必須能被廣泛化。對人類來說,這種自律的行為是人類品德感性思慮的結果,可是要讓機器人能做類似的考量才做選擇,而不是僅僅服從生硬的法式法則,我們必須為機器人設置裝備擺設搜尋效能,即彙集每一情況中能夠后果的數據,并計算其結果,才幹決定能否采取行動或是采取何種行動。換句話說,機器人倫理不得不接收品德后果論,而不是如康德所請求的品德動機論。
假如說康德的第一條絕對律令可以起到禁令的感化,那么他的第二條絕對律令則給出了更具體的品德引導:
[D2]應當以這樣的方法行動,即永遠不克不及把人(本身或別人)僅僅當成手腕,而是永遠視為目標。
這個律令表達人類存在的尊嚴性。我們永遠不克不及把人僅僅看作達到目標的手腕。人們有不受拘束意志。把他們當成達到目標的手腕是對他們自立性的否認。(好比說綁架訛詐的可怕主義行為即完整違反這條律令,不論當事人若何用政管理由來證明其行為的正當性)。
就機器人倫理學而言,我們可以運用康德的第二條絕對律令制訂如下的機器人行為法規:
[DR2]一個機器人必須這般行事,即永遠不克不及把任何人僅僅當成手腕,而是永遠視為目標。
後面提過在面臨電車難題窘境時,人們的典範反應如下:在標準版中,普通人都選擇犧牲一個人往救另五個人,而在天橋版中,年夜多數人會拒絕把一個人從天橋上推下往以救軌道上的五個人。在標準版中,人們所應用的基礎原則似乎更重視5∶1的人命比。但在天橋版中,為了使電車結束而把一個人推下橋往顯然違背了第二條絕對律令。格林(Joshua Greene)認為:“人們在標準電車難題中的反應是典範的后果論思維,而在天橋版本中的反應則是典範的品德義務論。”【18】格林認為,人們之所以會有分歧的反應,是因為“盡管后果類似,但在近距離親手殺逝世一個人(如在天橋窘境中)的設法比起沒那么直接(如在標準電車難題中操縱拉桿)的設法具有更年夜的情緒影響”【19】。格林認為,我們自覺的品德判斷其實是主觀潛意識對當下情境的整體回應:“我們完整沒有興趣識到,我們是把潛意識中的覺知、記憶,以及情緒處理為公道的敘事,從而讓它們釋放到顯意識之中并做出回應。”【20】可見感性品德判斷是由內在情緒反應來驅動的。所以康德的義務論進路其實不是感性主義,而是更接近感情主義的主張。格林稱其為“康德靈魂的機密打趣”。
不過,機器人或是其別人工智能都沒有潛意識或感情,也不會有來自下意識的情緒影響,所以它們的決定過程會跟人類很紛歧包養妹樣。我們現在可以考慮一下康德倫理學能否能使得機器人在面臨電車難題窘境時做出和人類一樣的選擇。
很顯然的,在天橋版本中,機器人會拒絕把那名男人推下橋,因為這樣做將明顯違背DR2。所以這不用多慮。但是,在標準版本中,機器人的品德引導就不那么明確了。假如機器人按照在它看來可以通用于一切機器人的原則來行動,那么它能夠無力做任何事。人類凡是以一種自發、直覺的方法來判斷他們本身的行為準則能否能夠成為廣泛法則。可是,假如想讓機器人做出同樣的判斷,那么,在設計程式上要么給它裝備一個宏大的數據庫,此中包括了其他機器人以雷同的方法行動所形成的一切能夠后果(因為機器人能夠判斷行動對錯的最基礎是后果論的思維),要么給它配備人類所擁有的直覺,可以當下判斷對錯。可是前者會有數據龐年夜並且不完全的困難,后者則要面對技術瓶頸,因為人工智能不成能獲得人類所具有的直覺天性。是以,康德的第一條絕對律令無法為機器人做品德抉擇供給一個充足的指導基礎。
在此,設計康德式人工品德主體碰著了一個最基礎性的悖論。康德的第一絕對律令基于其品德形而上學的理念,認為一切的人都是自立的感性存在者。感性存在者是“目標王國”的國民,分送朋友同樣的“配合法”,并遵照著他們本身所制訂的廣泛品德法則。他們是自立的,因為他們是完整的感性主體,“同等參與配合體品德原則的制訂”。【21】可是從其設計自己來看,人工品德主體就是一些服從于法式號令的機器。它們不會為本身立法,也不會因為彼此是同等的立法者而彼此尊敬。此外,它們還缺少不受拘束意志,而不受拘束意志對于康德式的品德主體來說必不成缺。是以,托肯斯稱它們為“反康德的”。他說:“我們請求康德式的人工品德主體的行為合適品德,但事實上它們的發展違背了康德的品德,這使得它們的發展遭到品德上的質疑,同時也使得我們作為它們的創造者有點虛偽。”【22】是以,不僅將康德的倫理準則應用于人工智能是個問題,事實上創造人工品德主體自己從康德的角度來看就是不品德的行為。托肯斯認為:“通過創造康德式品德機器,我們僅僅是把它們當作手腕,而不是當作目標自己。依照康德哲學,品德主體本身是目標,是以之故,他們應當被尊為目標。違背這一法則就是將主體僅僅當作客體,被用作達到其他目標的手腕。”【23】換句話說,即便我們能夠創造出遵照DR2的機器人,即使我們不把機器人算作人類之成員,這一創造活動自己就已經違背了康德的品德原則,因為這一活動制造出純為手腕,而不以目標存在的人工品德主體。
(三)人工品德主體的功利主義倫理學準則
另一個常見的計劃是將功利主義倫理學準則應用于人工品德主體。簡單地講,功利主義原則以行為能夠的后果來判斷行為的對錯:能夠促進幸福或快樂的行為是對的,而產生苦楚的行為則是錯的。密爾(John Stuart Mill)認為,唯有快樂自己具有內在價值。它的價值在于人們的欲看。換句話說,“好的”同等于“可欲的”。密爾說:“要證明任何東西是可欲的,獨一能夠的證據是人們實際上欲求它。”【24】所謂“好”的結果不過是人們欲求的工作,而“壞”的結果則是人們厭惡的工作。這種理論的基礎是現代的快樂論。不過根據德賴弗(Julia Driver)的見解:“自二十世紀初期開始,功利主義經歷了屢次修改。二十世紀中葉以后,它更多地被視為一種‘后果論’,因為幾乎沒有哲學家完整認同古典功利主義的觀點,尤其是它的快樂主義的價值理論。”【25】功利主義最年夜的特征是僅考慮會有幾多人遭到這個行為影響,而不考慮行動者自己的個人好處。功利主義原則的標準表述如下:【26】
[U]一個行為正確的充分需要條件就是這個行為,比起行動者能夠采包養合約取的其他行為來說,能夠對一切會遭到影響的人產生更年夜的好處,或是更小的傷害。
對于人工智能,我們可以將U改寫成UR:
[UR]在權衡了一切能夠采用行為的后果之后,機器人必須選擇的行動是對于一切會遭到影響的眾人來說,或許能實現最年夜的好處,或許能禁止更年夜的損害。
以上的兩種準則都是從后果論的角度來權衡行為選擇的正確性。現在我們來看一下關于機器倫理學的后果論形式的一些研討。
圖盧茲年夜學(the University of Toulouse)的本尼馮(JeanFranois Bennefon)、俄勒岡年夜學(the University of Oregon)的謝里夫(Azim Shariff)與麻省理工學院(MIT)的雷邁(Iyad Rahwan)配合開展了一項研討,請求參與者對以功利主義倫理原則來設計的自動駕駛汽車做出評價:在功利主義的倫理準則設計下,這種車子為了防止沖向一群行人而形成更年夜傷害,會寧愿犧牲本身和開車的主人(司機)。這些學者的研討發現,盡管參與者廣泛確定這種車輛所帶來的結果更好,但他們本身并不想購買這樣一種自動駕駛汽車。研討的結論是,參與者“在品德偏好上壓倒性地認同功利主義的自動駕駛汽車,因為它能將傷亡人數降到最低”。【27】可是,當被問及他們能否會購買這種功利主義的自動駕駛汽車,參與者就沒有幾多積極性了。研討者指出,“盡管參與者仍然認為功利主義的自動駕駛汽車是最品德的,但他們更愿意為本身購置具有自我保護形式的汽車”。【28】這種雙重標準產生了一種社會窘境:“普通人傾向于認為功利主義式的自動駕駛汽車是對社會整體來說最好的設計,因為這種形式的車子可以減低傷害率,使得社會中每個人都受害更多。可是人們又同時出于個人動機,只想搭乘搭座會不計一切代價而保護他們本身的自動駕駛汽車。是以,假如具有自我保護包養金額形式的自動駕駛汽車和功利主義形式的自動駕駛汽車同時進進市場,幾乎沒有人會愿意選擇功利主義形式的自動駕駛汽車,盡管他們卻盼望別人這樣選擇。”【29】沒有當局的強力推動和管束,這種功利主義形式的自動駕駛汽車將不會出現在市場上。可是,假如當局采取強力推動,則能夠出現對采用這一形式的更年夜阻力。換句話說:“當局管束汽車平安并采取功利主義的形式所引發的阻力,反而會使得汽車工業延遲通過推廣更平安技術的應用,結果形成的卻是更高的傷亡率。”【30】社會效益和個人好處之間的牴觸顯示了人工智能的功利主義形式的潛在問題。假如這些研討中的參與者會不情愿往購買功利甜心寶貝包養網主義形式的汽車,那么通俗年夜眾也很有能夠會包養一個月價錢因為自利心思而抵抗把功利主義倫理學應用于為我們服務的品德機器人。
除了以上所述功利主義人工智能令人不滿意的處所,別的一個問題是,假如在我們的社會中存在這樣的人工品德主體將會帶來宏大的危險。普通人在電車窘境標準版和天橋版中的分歧反應表現出人們傾向于防止那些會明顯給別人帶來傷害的行為。普通人并不總是喜歡功利主義的思慮方法,尤其是當這種思慮形式指引他們犧牲少數人的好處,而這些少數人包含他們本身、親人和熟人。除了一些個別的好漢舉動,很少有人會為了年夜多數人更年夜的好處或是更好的結果而往犧牲本身或是本身所愛的人。但另一方面,人工智能則沒有這樣的心思障礙。在UR的指導下,只需部分的摧毀可以帶來社會更高的好處,功利主義人工智能的機器人就能夠會選擇摧毀。這個形式將面臨與阿西莫夫第零定律同樣的窘境。
從人類與人工智能的差異,我們也看出功利主義永遠也不會成為人類重要的品德原則。即便我們的品德思維訴諸功利主義原則,我們的感情、個人好處和其他考慮都會讓功利主義的思維變得“不純粹”。假如我們像人工品德主體那樣進行純粹的功利主義品德考量,那么其結果對人類社會來說將是宏大的威脅。正如M.安德森和S.安德森所指出,功利主義會“侵略人權,因為它可以犧牲個人以獲得善的更年夜凈值。功利主義也違背我們對于正義,即對‘什么是人們所應得的’的見解,因為人們所應得的是反應其過往行為的價值,可是功利主義對行為對錯的判斷卻完整取決于行為的未來結果”。【31】功利主義在規范倫理學中仍有吸引力,也許恰是因為人們從來不會完整地、絕對地遵從功利主義的規范。
三、儒家機器人倫理
當今儒家學者具有的共識是,儒家倫理并不是一種規則引導的規范倫理,而是一種德性倫理,重視培養品德主體的品德品質和氣良性情。在設計機器人的品德抉擇過程中,我們必須要把儒家倫理轉化為一種可運用、可踐行的品德規則。是以,我們必須對儒家境德規則進行一番新的解讀,從《論語》中提煉出可以加在人工智能設計中的品德律令。【32】
《論語》中有良多被高度重視的美德,它們可以被轉化為儒家機器人倫理學的品德規則。本文挑選了三種重要的美德:忠(loyalty)、恕(reciprocity【33】)、仁(humanity)。之所以選擇前兩種美德,是因為孔子主要的門生之一曾子說,忠恕是夫子的一以貫之之道(《論語·里仁》【34】)。之所以選擇第三種美德,是因為在整個儒家傳統中“仁”是最主要的美德,孔孟均重視它,后來的宋明儒家還對此作了進一個步驟闡發。
孔子對于“忠”言之甚詳。它是孔子的“四教”之一(《述而》),并且和“恕”一路構成了孔子的一以貫之之道(《里仁》)。在個人性德培養方面,孔子說正人把“忠”和“信”作為第一原則(《學而》、《子罕》)。門生問,若何崇德辨惑,孔子建議說:堅持忠信,“徙義,崇德也”((《顏淵》)。“忠”對于國家管理也很主要。孔子告訴魯國的國君,要想蒼生忠,君本身就必須“孝慈”(《為政》)。孔子告訴宋定公,“君青鳥使以禮,臣事君以忠”(《八佾》)。但“忠”不是自覺順從,而是要向君“提建議”(誨)(《憲問》)。門生問:“令尹子文三仕為令尹,無憂色,三已之,無慍色。舊令尹之政必以告新令尹,何如?”孔子答覆說:“忠矣。”(《公冶長》)門生問政,孔子說:“居之無倦,行之以忠。”(《顏淵》)上述例子表白,在孔子看來,“忠”既是私德又是私德:無論是修身,還是參與公同事務,“忠”都是至關主要的。
筆者曾指出:“忠并不是一種直接針對別人的關系;相反,它指向一個人所承擔的腳色。在這個意義上,忠可界定為‘做應做的’或‘忠于腳色’。換句話說,社會腳色不只是社會任務;它還是品德任務。‘忠于或人的腳色’意味著,能夠做出與品德義務相應的行動,而品德義務則伴隨著社會腳色。是以,‘忠’是忠于一個人的品德義務,實行一個人的腳色所規定的社會責任。”【35】這一解釋可以獲得進一個步驟的支撐:孔子建議門生“與人忠”(《子路》)。這里的“人”不限于君,還包含伴侶和生疏人。《左傳·昭公二十年》記載孔子言:“守道不如守官。”“道”當然是士人知識分子的最高目標,可是并不是每個人都可以事事以道為主。假如每個人都能善盡職守,盡心盡力,那么道行全國也就不是遙不成及的目標了。《論語》里孔子也強調:“不在其位,不謀其政。”(《泰伯》)儒家強調名正言順,腳色之名定位腳色之職。越俎代辦經常形成職責混亂,長短不明。這個猛攻職分,不干預他事的品德準則對于人類有效,對于機器人來說尤其主要。
根據對“忠”這一美德的上述解釋,我們就有了儒家機器人倫理的第一條品德原則:
[CR1]機器人的重要職責就是實行指派給它的腳色責任。
概況上看來,這一品德準則似乎眇乎小哉:我們設計機器本來就是要它完成任務的。可是,這個律令其實具有第一要位:我們所討論的是有能夠成為全知萬能的“機器神”,在無法由法式員事前預測一切情境中機器人所能夠做出之判斷的情況下,我們需求對這些能夠的情況有所防備。我們不克不及給予人工智能如神一樣的超人才能,擁有對任何人與事的一切決定權。我們需求先界定它們的職權范圍。CR1樹立了明確的分工體制:供給安康服務的機器人應專門忠于供給安康服務的腳色,而不是往判斷病人的性命值不值獲救,或許判斷能否要幫助病人實現安樂逝世的愿看。無人自動駕駛汽車應實行保護乘客平安的職責,而不應該選擇自動撞樹、犧牲乘客,以防止沖向一輛校車而發生災難性的悲劇。這樣的決定超越各個人工智能被設計的腳色。是以腳色定義是包養網dcard樹立人工品德主體的第一個步驟。
《論語》中另一個主要的德性是“恕”。關于“恕”,孔子稱其“可以終身行之”,并對其作了進一個步驟規定:“己所不欲,勿施于人。”(《衛靈公》)另一處,門生子貢說:“我不欲人之加諸我也,吾亦欲無加諸人。”孔子告訴他:“非爾所及也。”(《公冶長》)從這兩處看,恕的內涵被具體定義為一種人際來往中所體現的風度和心思狀態。相對于基督教的金律“你們愿意人怎樣待你們,你們也要怎樣待人”,儒家的“恕”觀念經常被稱作“負面情勢的金律”,因其制止人們做什么,而不是具體號令人們做什么。筆者曾指出,“恕”的這種情勢優于基督教包養軟體的金律,因為人們所不欲的比人們所欲的更具有廣泛的基礎。“普通而言,我們不盼望別人恥辱我們,譏笑我們,偷我們的東西,傷害我們,或許以任何方法凌包養條件虐我們。是以,我們理應不要以這些方法凌虐別人。即使我們愿意別人以某種方法對待我們,儒家金律也沒有建議我們以同樣的方法對待別人。是以,它防止了基督教的金律所碰著的將主觀偏好強加于別人的問題。”【36】
但是,就機器人倫理而言,我們會碰到機器人缺少意愿的問題。若機器人對于本身沒有任何意愿,那么它們若何評估本身行為的后果能否是別人(其別人類)不想施諸于己的呢?我認為這個問題可以通過在設計時參加一個廣泛人類偏好的計算法式來解決。american愚人普特南(Hilary Putnam)曾經建議運用效能主義所應用的方式,將必定的偏好作為機器的“偏好效能”植進機器中。能夠做這樣判斷的機器起首包養價格ptt應該具備對人類偏好的部分擺列和一套歸納邏輯(也就是說,機器必須能夠從經驗中學習),以及某些“痛覺傳感器”(好比,監測機器身體的傷害、危險溫度或危險壓力的常態化任務的傳感器等),並且“某些特定范圍內的輸進信號可以在機器的偏好效能或行動指令擺列為具有高的負價值”。【37】依照這種方法,人工智能主體可以對傷害其別人類的行為指派負值,同時也對傷害本身的行為指派負值。機器人儒家倫理學的第二條規則便可表述如下:
[CR2]在有其他選項存在的情況下,機器人不克不及選擇會給別人帶來最高的負值結果或最低的正值結果(根據人類偏好的部分擺列)的行動。
跟“恕”作為負面的禁令一樣,這般表述的CR2也是對于“不成做什么”的禁令。在CR2的廣泛律令下,除非在特別情況下有其他更高的品德原則壓過“不成做什么”的禁令,機器人永遠不克不及選擇傷害人類,永遠不克不及在沒有正當來由的情況下給人類形成苦楚,永遠不克不及剝奪或人珍視的財產或是享用,這般等等。這一品德規則與阿西莫夫第必定律相類似:“機器人不克不及傷害人類,或看到人類遭到傷害而袖手旁觀。”但是,這條品德指令比阿西莫夫第必定律靈活得多,因為有能夠存在某些特定的負值偏好會超過普通人對于傷害的負值偏好。好比說,人們也許對極度不公正的厭惡會遠遠超過他們對身體傷害的防止。是以我們不難想象在某些情況下,被設計成帶有相應的腳色任務和偏好指令的機器人能夠會參與對抗不公與濫權的反動起義。
最后,儒家機器人倫理學選擇的主要德性是“仁”。倪培平易近認為:“‘仁’是儒家哲學的焦點。它在《論語》中出現了109次。《論語》全書499章,共有58章討論‘仁’這一主題。”【38】在孔子看來,仁德最難培養。他最自得的門生顏回也只能“其心三月不違仁”,而其他門生則“日月至焉罷了矣”(《雍也》)。當被問到或人能否有這一品質時,孔子即便承認他有其他一些可取的品質,也很少許之為仁(《公冶長》第五、八、十九章)。同時,孔子認為,一個人可否獲得仁德,純粹取決于意志力。他說:“仁遠乎哉?我欲仁,斯仁至矣。”(《述而》)孔子極力表揚“仁”,認為“唯仁者能大好人,能惡人”,并且“茍志於仁矣,無惡也”(《里仁》)。若說康德的幻想是“目標王國”,那么孔子的幻想即是“仁的王國”。孔子談到“里仁為美”,還談到“正人無終食之間違仁,冒昧必于是,顛沛必于是”(《里仁》)。“仁”確實是儒家境德教化的焦點美德。
但是,孔子年夜多數關于“仁”的言論都是在說仁人可以做什么或不成以做什么,而沒有說到“仁”的內容。門生問仁,孔子說“仁者,其言也讱”(《顏淵》)。孔子在別處也談到“巧舌令色,鮮矣仁”(《學而》)。孔子只在少數幾處具體描寫了何為“仁”。門生問仁,孔子答覆道:“愛人。”(《顏淵》)孔子還談到,“正人篤于親,則平易近興于仁”(《泰伯》)。顏回問仁,孔子告訴他:“低廉甜頭復禮為仁”,且要“非禮勿視,非禮勿聽,非禮勿言,非禮勿動”(《顏回》)。其他門生問仁,孔子提了三個請求:“居處恭,執事敬,與人忠。”(《子路》)此外,孔子還用五德解釋“仁”:“恭、寬、信、敏、惠。”(《陽貨》)但是,對仁德最明確的說明莫過于上面這段話:“己欲立而立人,己欲達而達人。”(《雍也》)換句話說,仁德請求品德主體幫助別人以及其他生物成績本身。不過,孔子對于仁人所要成績的目標有進一個步驟的限制。他說:“正人成人之美,不成人之惡。”(《顏淵》)易言之,孔子“仁”的幻想是為了使別人成為他更好的本身,或許可以這么講,幫助別人達到“仁”的境界。這一品質將是我們想要在機器人身上樹立的最主要的特徵。
將仁德轉換為給予人工品德主體的品德準則,我們就獲得CR3:
[CR3]在不違背CR1或CR2的條件下,機器人必須幫助其別人類尋求品德進步。假如有人的計劃會促進其品格的敗壞或品德的墮落,那么機器人就必須拒絕幫助他們。
這里強調的供給幫助,意味著機器人的行為是根據人類所給出的請求或指令來協助進行的。換句話說,機器人并不自行決定什么對人類主體來說是好的,或許什么是人類主體應當成績的。同時,運用這個品德規則編程,當人類的號令是為了作惡時,機器人會拒絕供給幫助。這樣,我們不單有了不會傷害人類的人工品德主體,並且也可以防范其別人應用人工智能往干壞事。
有了以上三條規則,我們就有了儒家機器人倫理學的基礎情勢。現在所列舉的儒家機器人倫理學準則絕對沒有窮盡一切儒家倫理運用的能夠性。能夠有不止一個版本的儒家機器人倫理學;選擇分歧德性的聚集和分歧的機器倫理準則都有能夠與《論語》文原形兼容。有些儒家機器人倫理學的版本能夠會給我的理論形式帶來宏大包養價格ptt挑戰。好比,內澤伍德(Drayson NezelWood)認為,《論語》中能解決電車難題的兩個重要的價值是“孝”與“和”。【39】他包養女人認為,儒家的愛有差等,始于最親近的家庭成員,進而擴展到國家,然后才是生疏人及其家庭;這意味著,假如軌道上的那個人居于差等序列的最高級級,那么儒家式的人工智能就會選擇救這一個人而不是其他五個人。內澤伍德所想到的情形包含,救所愛的人(如人工智能的主人)而犧牲皇室成員,救君王而非救別的五個人(即便這五人都達到了正人的品德程度),救一個正人而非救五個百姓,這般等等。可是我并不認為儒家是像他所說的那樣對人的性命價值進行了分級,也不認為儒家人工智能會做出如上的倫理判斷。我認為儒家“親親”與“孝”的觀念并不料味著所親之人的性命重于其別人的性命。可是,內澤伍德有一點講得很對:儒家人工智能主體不會自動應用功利主義原則往不觸及感情地以人數幾多來作選擇標準。那么,儒家人工智能主體在標準版和天橋版電車難題中畢竟會若何行事?
在天橋版本中,包養感情執行儒家倫理準則的機器人永遠不會采取將人推下橋的行動,因為這么做顯然把三條品德原則都違背了。在標準版本中,判斷則要復雜得多。假如機器人是電車司機或鐵道治理員,它的職責會號令它拉動操縱桿,包養故事使得這個電車在一切可選項中盡能夠形成最小的傷害。即便或人與機器人的設計者有特別的關系,機器人也不會對這個人抱有偏愛,因為在機器人的設計編程中并沒有加上偏愛或是特別感情。假如機器人只是一個路人,那么根據CR1,它沒有任何義務采取行動,並且根據CR2的禁令,機器人更傾向于袖手旁觀而非采取行動。是以,一個路人機器人不應采取任何行動來使疾馳的電車轉向,即便這么做能夠減少傷亡人數。
在標準版電車難題中,按照儒家倫理律令行事的機器人,除非是電車司機或鐵道治理員這類特別腳色,是不會拉動操縱桿的。在天橋版本中,按照儒家倫理行事的機器人,不論是什么職分腳色,都不會將那名男人推下橋以使電車結束。這般看來,機器人的決定會分歧于年夜部門人類的直覺選擇,因為機器人不會像人類在天橋情形中那樣遭到無意識的感情掙扎的影響。【40】儒家機器人不會因本身的“行動”而對任何天然成傷害,或強迫任何人接收他們不愿接收的結果,即便它能夠因為本身的“不可動”而沒有避免對別天然成的傷害或發生別人不情愿接收的后果。在不久的將來,當我們的社會中存在可自我管束、自立行動的人工品德主體時,當不論它能否采取行動都會導致對人的傷害和帶來我們不愿看到的后果時,我們寧可它選擇袖手旁觀,而不是采取行動。
結語
M.安德森和S.安德森在他們關于機器倫理學的著作中提到:“機器倫理學的終極目標……是要創造出一種‘自律’的機器人,它們會本身遵照一些幻想的品德原則;也就是說,它們可以在這些品德原則的指引下自行決定應該采取何種行動。”【41】他們也認為,研討機器倫理學的另一個好處在于這“能夠會帶來品德理論上的衝破,因為機器非常適合于我們檢測堅持遵守一個特定的品德理論將會導致何種結果”【42】。本文考核了四類機器倫理的品德形式,即阿西莫夫定律,兩條康德式的“絕對號令”,功利主義的“功效原則”,以及儒家的忠、恕、仁品德原則。在比較了這些品德形式對于電車難題的標準版和天橋版的解決計劃之后,本文認為儒家的品德模子要優于其他三種品德理論。
當然,我們設計人工品德主體的初志不是僅僅為了處理電車難題以及類似的問題。在許多其他實用方面,儒家的人工品德主體可以成為人類社會很好的補助。起首,我們可以依照分派給儒家境德機器人的腳色來為其設計具體的任務,好比,為老年人供給幫助,為病人供給保健服務,為游客供給向導服務,為汽車供給平安導航,等等。它的重要職責是忠于腳色;是以,它在特定情境中所做的其他任何決建都不克不及違反其職責。第二,儒家機器人具有精確計算出的偏好指令,不會采取將給其別人類帶來極年夜的負面價值(包含傷害)或極不成欲后果的任何行動。這一原則要優于阿西莫夫第必定律,因為它既允許了更多對負面價值的考慮,又讓機器人在權衡可允許的行動范圍時加倍靈活。並且,它也要優于康德原則或功利主義原則,因為這一品德原則基于儒家的“負面情勢的金律”,它的感化是制止做出錯誤行動甜心寶貝包養網,而不是靠主觀意志原則往采取自以為是的行動。在可預見的未來,在我們能夠會將主動權交給人工智能的情境中,這一原則可以保護我們防止受因人工智能居心犧牲人類而帶來的傷害,盡管人工智能或許會考慮它們的行動將帶來多年夜的好處。最后,儒家境德機器人將是有仁德的機器人:在CR3的引導之包養網比較下,它會協助而不會阻礙人類往盡力積德,往成為更好的人,往建設加倍美妙的世界。也許,最終的人工智能發展會促進人類和人工智能配合生涯在孔子幻想中的“仁的王國”之中。
參考文獻
1. Michael Anderson & Susan Leigh Anderson, “Machine Ethics,” IEEE Intelligent Systems, 2006, 21 (4):11.
2. Ryan Tonkens, “A Challenge for Machine Ethics,” Mind &Machines, 2009,19(3): 422.
3. 當然也有將這兩種進路結合起來的方式。
4. Wendell Wallach & Collin Allen, Moral Machines: Teaching Robots Right from Wrong, New York: Oxford University Press, 2009, p.80.
5. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” AI Magazine, 2007,28(4):15-25.
6. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.17.
7. Deng Beor, “Machine Ethics: The Robots Dilemma,” Nature, 2015,523(7558):2426, DOI: 10.1038/523024a.
8. Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment,” Science, 2001,293(5537):2106.
9. 這類例子在自動駕駛或無人駕駛汽車中不勝枚舉。可參見JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6239):15731576, DOI: 10.1126/science,aaf2654;Deng Beor, “Machine Ethics: The Robots Dilemma,” Nature, 2015,523(7558):2426, DOI: 10.1038/523024a;Larry Greenemeier, “Driverless Cars will Face Moral Dilemmas,” Scientific American, June 23,2016 (https://www.scientificamerican.com/article/driverlesscarswillfacemoraldilemmas);William Herkewitz, “The Selfdriving Dilemma: Should Your Car Kill You to Save Others?”, Popular Mechanics, June 23,2016 (http://www.popularmechanics.com/cars/a21492/theselfdrivingdilemma)。
10. 阿西莫夫1942年的科幻小說《轉圈圈》(Run around)中初次引進三年夜定律。瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)認為:“任何討論‘自上而下’式的機器人性德設計不克不及不談阿西莫夫三年夜定律。”見Wendell Wallach & Colin Allen, Moral Machines: Teaching Robots Right from Wrong, p.91。
11. Wendell Wallach & Colin Allen, Moral Machines: Teaching Robots Right from Wrong, p.91.
12. Deng Beor, “Machine Ethics: The Robots Delimma,” pp.24-26.
13. Alan F. T. Winfield, et al., “Towards an Ethical Robot: Internal Models, Consequences, and Ethical Action Selection,” Advances in Autonomous Robotics Systems, 15th Annual Conference, TAROS 2014, Birmingham, UK, September 13,2014, Proceedings, Springer, 2014, pp.85-96.
14. Ryan Tonkens, “A Challenge for Machine Ethics,” p.422.
15. Robert Johnson & Adam Cureton, “Kants Moral Philosophy,” The Stanford Encyclopedia of Philosophy, Edward N. Zalta (ed.), Fall, 2017 (https://plato.stanford.edu/archives/fall2017/entries/kantmoral) .
16. Immanuel Kant, Grounding for the Metaphy包養網推薦sics of Morals(1785), 3rd Edition, trans. James W. Ellington, Indianapolis: Hackett Publishing Company, 1993, p.11.(中譯參考了康德:《品德形而上學的奠定》,《康德著作選集》第4卷,李秋零譯,北京:中國國民年夜學出書社,2005年,第405頁。——譯者注)
17. 康德《實踐感性批評》的表述如下:“要這樣行動,使得你的意志的準則在任何時候都能同時被視為一種廣泛的立法原則。”參見康德:《實踐感性批評》,李秋零譯,北京:中國國民年夜學出書社,2007年,第29頁。——譯者注
18. Joshua D. Greene, “The Secret Joke of Kants Soul,” Moral Psychology, Vol.3: The Neuroscience of Morality: Emotion, Disease, and Development, W. SinnottArmstrong (ed.), Cambridge, MA: MIT Press, 2007, p.42.
19. Joshua D. Greene, “The Secret Joke of Kants Soul,” p.43.
20. Joshua D. Greene, “The Secret Joke of Kants Soul,” p.62.
21. Robert Johnson & Adam Cureton, “Kants Moral Philosophy”.
22. Ryan Tonkens, “A Challenge for Machine Ethics,” p.429.
23. Ryan Tonkens, “A Challenge for Machine Ethics,” pp.432-433.
24. John Stuart Mill, Utilitarianism, 2nd Edition, George Sher (ed.), Indianapolis: Hackett Publishing Company, 2001, p.81. (中譯參考了約翰·穆勒:《功利主義》,徐年夜建譯,上海:上海國民出書社,2008年,第35頁。——譯者注)
25. Julia Driver, Consequentialism, London and New York: Routledge, 2012, p.24.
26. 功利主義可所以這里所表述的“行為功利主義”,也可所以“規則功利主義”。一個行為能否正確,是由它所遵守的規則的后果來決定:假如這個規則比起其他規則更能夠產生更年夜的好處或是更小的傷害,那么這個規則就是可遵守的,而遵守這個規則的行為也就是對的。在人類規范性倫理學的討論中,許多功利主義者認為功利主義必須被懂得為規則功利主義。可是因為人工智能需求更精確的規則和法式來幫助它選擇當下的行動,所以我們在此只討論行為功利主義。
27. “年夜致說來,參與者都批準假如犧牲本身的乘客能夠拯救更多的性命,那么自動駕駛汽車犧牲本身的乘客就是更為品德的抉擇。”見JeanFranois Bonnefon, et al., “The Social Dilemma o包養俱樂部f Autonomous Vehicles,” Science, 2016,352(6293):1574, DOI: 10.1126/science.aaf2654。
28. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1574.
29. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1575.
30. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1573.
31. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.18.
32. 如無特別說明,《論語》引文由筆者本身英譯,同時參考了 Raymond Dawson (trans.), Co包養一個月nfucius: The Analects, New York: Oxford University Press, 1993,以及Peimin Ni, Understanding the Analects of Confucius: A New Translation of Lunyu with Annotation, Albany, NY: SUNY Press, 2017。
33. 這是倪培平易近的翻譯。“恕”也經常翻譯為“empathy”,筆者亦曾如是翻譯。
34. 為簡明計,下文引述《論語》,只注篇名。——譯者注
35. JeeLoo Liu, An Introduction to Chinese Philosophy: From Ancient Philosophy to Chinese Buddhism, Malden, MA: Blackwell, 2006, p.50.
36. JeeLoo Liu, An Introduction to Chinese Philosophy: From Ancient Philosophy to Chinese Buddhism, p.55.
37. Hilary Putnam, “The Nature of Mental States,” reprinted in Hilary Putnam, Mind, Language, and Reality, Cambridge: Cambridge University Press, 1975, p.435.
38. Pemin Ni, Understanding the Analects of Confucius: A New Translation of Lunyu with Annotation, p.32.
39. 2017年炎天,我作為“復旦學者”在復旦年夜學訪學。我邀請了幾位研討生討論用儒家機器人倫懂得決電車難題。一位加拿年夜學生內澤伍德(Drayson NezelWood)接收我的挑戰,發給我他的儒家解決計劃,并附了一張詳細的圖表。他的觀點很有興趣思,關于電車難題的圖表也很有幫助,在此謹致謝忱。
40. 參閱Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment”。
41. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.15-25.
42. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.15-25.
責任編輯:近復
@font-face{font-family:”Times New Roman”;}@font-face{font-family:”宋體”;}@font-face{font-family:”Calibri”;}p.MsoNormal{mso-style-name:註釋;mso-style-parent:””;margin:0pt;margin-bottom:.0001pt;ms包養情婦o-pagination:none;text-align:justify;text-justify:inter-ideograph;font-family:Calibri;mso-fareast-font-family:宋體;mso-bidi-font-family:’Times New Roman’;font-size:10.5000pt;mso-font-kerning:1.0000pt;}span.msoIns{mso-style-type:export-only;mso-style-name:””;text-decoration:underline;text-underline:single;color:blue;}span.msoDel{mso-style-type:export-only;mso-style-name:””;text-decoration:line-through;color:red;}@page{mso-page-border-surround-header:no;mso-page-border-surround-footer:no;}@包養網心得page Section0{margin-top:72.0000pt;margin-bottom:72.0000pt;margin-left:90.0000pt;margin-right:90.0000pt;size:595.3000pt 841.9000pt;layout-grid:15.6000pt;}div.Section0{page:Section0;}