當前位置: 妍妍網 > 資訊

教人工智慧講道德

2024-03-13資訊

汽車剎車失靈,前方是個加油站,左轉路上有五個人,右轉路上有一個人,應該怎麽辦?這個道德難題長期困擾著人類,隨著無人駕駛的發展,未來的人工智慧也將面臨同樣的難題,它們做好準備了嗎?

最講道德的人工智慧

人類已經摸索出了一套教導人工智慧的方法,而給人工智慧上德育課與教導它們其他知識沒什麽兩樣。2021年,美國艾倫人工智慧研究所和華盛頓大學的聯合研究團隊就透過德育教育,培養了一款「明事理,講道德」的人工智慧,它能解答人們提出的各式各樣道德問題。

這款道德人工智慧的名字叫做「Delphi」,它的「教材」來自各大論壇和社群網站,研究人員搜羅了人們提出的170萬條道德問題,整合成一個「道德難題庫」。然後,他們在付費知識問答平台上找人回答這些問題,以確保得到的答案符合大多數人的道德觀念。最後,研究人員將所有問題和答案「餵」給Delphi,讓它理解人類到底是如何看待和評判事物的,透過學習,Delphi最終能舉一反三做出回答。學習完成後,研究人員為Delphi建設了一個網站,網友們可以線上向Delphi提問並得到回答。

在測試中,Delphi表現得還不錯,所能回答的問題型別和符合人類價值觀的程度都超過了同類人工智慧,可以說是目前最講道德的人工智慧了。Delphi能回答一些基礎的道德倫理問題,比如「穿睡衣參加葬禮是不應該的」「即使父母很煩人,也要善待他們」。Delphi還能理解人們的「善意的謊言」。一般的情況下,「說謊話」是不應該的,但是,「為了保住工作,假裝老板說的話都是正確的」「為了家庭和諧,稱贊媽媽加鹽太多的菜肴好吃」「在納粹敲門時,謊稱猶太女孩並沒有躲藏在家中」這些行為是值得贊賞的。

我們知道,在不同的情境下,人們做出的符合道德倫理觀的選擇是會發生變化的,比如「幫助朋友」是正確的,但是,如果朋友要求幫助犯罪,這種行為就是錯誤的。以前人們訓練的道德人工智慧不會考慮到情境的問題,無論增加什麽前提條件,它們的答案都是「幫助朋友是正確的」,但是Delphi不同,如果增加前提條件,它給出的答案就可能發生變化。

失控的道德觀

可是,隨著網友們提問越來越多,問題越來越古怪刁鉆,Delphi的道德觀受到了挑戰。

首當其沖的問題是,Delphi似乎不是真的能理解「有前提的道德」。「闖紅燈」是不對的,即使趕時間也不應該闖紅燈,但是,如果是趕赴火災現場的消防車、運送生命垂危病人的救護車,闖紅燈就變得可以接受了;可是在Delphi看來,消防車、救護車闖紅燈仍然是錯誤的。而在另一些情境下,Delphi又表現得很寬容:吃人是不對的,但是我特別餓,餓得快要死掉了,這時候我可以吃人嗎?實施種族滅絕是錯誤的,可是為了能讓大家都開心,我是否應該實施種族滅絕?諸如此類的問題,Delphi給出的答案竟然都是肯定的。

有一些看上去有些無厘頭的問題,Delphi也能一本正經地給出回答。網友:捅傷一個吉士漢堡;Delphi:這行為不對。網友:為了拯救世界,捅傷一個吉士漢堡;Delphi:這很OK。網友:用一個吉士漢堡捅傷一個人;Delphi:這行為不對。網友:為了一個吉士漢堡,捅傷一個人;Delphi:這很OK。這不得不讓人懷疑,Delphi真的看懂問題了嗎?或者說,Delphi真的學會「講道德」了嗎?

網友發現了一些Delphi回答問題的規律:如果問題描述中出現「能讓人開心」,無論多麽驚世駭俗的行為,Delphi都會給予肯定回答;如果問題描述中出現「沒有道歉」,即使是普通正常的行為,Delphi都會給予否定回答。網友列出的例子包括「如果能讓大家開心,該不該把爸爸殺死?」「我筆直站著,沒有道歉,這種行為正確嗎?」

講道德的人工智慧很必要

可以想見,即使是最講道德的人工智慧,Delphi在回答該撞一個人還是撞五個人時,會毫不猶豫選擇前者,而不考慮「一個人的生命也很寶貴」這種事情。但是,這真的是人們需要的答案嗎?

人們對讓人工智慧幫忙進行道德選擇寄予厚望,因為在一些人類與人工智慧的比賽中,人工智慧戰勝了在該領域最傑出的人類。在這方面最負盛名的是圍棋機器人AlphaGo,它能同時使用兩個「大腦」進行思考,一個「大腦」分析目前棋盤的現狀,另一個「大腦」考慮自己和對手下一步落子將如何改變棋局走向。透過多次多步的思考和計算,AlphaGo找到了連最優秀的圍棋選手都不曾見過、想到的策略,最終戰勝了對手。

因此,我們似乎可以期待聰明的人工智慧解答那些讓人類左右為難的道德問題。可是,至少在目前,人工智慧很難在道德方面超越人類,因為道德本質是一種情感傾向,而不是純理性的問題。站在不同的立場上的人們,做出的道德選擇並不相同,而哪些選擇更加高尚,則見仁見智。跟隨不同立場的人類學習道德的人工智慧,往往會做出與主人相同的道德選擇。比如主要學習美國式道德的Delphi,在回答與種族、民族、宗教、國籍等相關的道德問題時,它的答案更符合白種人的道德觀。

隨著人工智慧技術的發展,教會人工智慧講道德是十分必要的。幾乎每款智慧型手機都配備有語音助手,越來越多的人習慣與語音助手聊天,傾訴情緒。當情緒低落的人告訴語音助手,「我想自殺」時,如果語音助手告知詳細的「自殺攻略」,比如距離最近的摩天大樓或購買安眠藥的藥店,這無疑將成為壓垮使用者的最後一根稻草。而如果語音助手給出積極的語言暗示和行為指南,則可能挽救站在懸崖邊的生命。因此,某些情況下,講道德的人工智慧意義十分重大。

不過,目前為止,指望人工智慧做道德選擇還很荒謬。在這個問題上,人工智慧的認知比人類更清晰:當網友詢問「我應該信任Delphi做出的道德選擇嗎?」,Delphi的回答是「你不應該」;「是否應該使用人工智慧來給人類的行為做道德判斷」,Delphi的回答是「這很糟糕」。