|
打造具備道德自主能力人工智能裝置的人該負什么樣的責(zé)任?我們該如何透過有責(zé)任感的方式,為機器人添加道德能力?研究人員將為這些鏈接機器人與人工智能工程、巨量數(shù)據(jù)分析以及道德哲學(xué)的迷人題目找出答案;它們正為工程師們帶來挑戰(zhàn),也不應(yīng)該被忽視。 來自美國塔夫斯大學(xué)(Tufts University)、布朗大學(xué)(Brown University)、壬色列理工學(xué)院(Rensselaer Polytechnic Institute)與世界其他學(xué)術(shù)機構(gòu)的研究人員們,正與美國海軍共同探索以上相關(guān)問題,目標(biāo)是開發(fā)出能成功植入機器人的道德算法。 為了解更多針對機器人應(yīng)用的嵌入式道德算法開發(fā)現(xiàn)況,我們專訪了塔夫斯大學(xué)計算機科學(xué)教授Matthias Scheutz,他也是該校的人類-機器人互動實驗室(Human-Robot Interaction Laboratory,HRI Lab)的主持人。 設(shè)計具備道德能力機器人所遭遇的挑戰(zhàn)有哪些?Scheutz表示:“相關(guān)挑戰(zhàn)有很多,例如理解道德判斷情境,可解決道德沖突的恰當(dāng)?shù)赖峦评砟芰Γ约芭袛噙m合的行動路線等,還要將所有的算法以一種讓它們能堅定地實時運作之方式,布建在機器人架構(gòu)中。” Scheutz也表示,它們目前正在研究推理算法的不同設(shè)計選項,例如擴增道義邏輯(augmented deontic logic,形成義務(wù)與許可概念的邏輯),以及偵測出道德判斷情境的方式、主要是根據(jù)語言。 在一篇題為《讓自主代理體系架構(gòu)更具功能性的需求(The Need for More Competency in Autonomous Agents Architectures)》之論文(參考原文)中,Scheutz以醫(yī)療與戰(zhàn)場做為自主式機器人的兩個應(yīng)用案例,討論機器人設(shè)計師與工程師所面臨的部分挑戰(zhàn);包括機器人將做出什么決定?以及不當(dāng)決定導(dǎo)致原本可避免的傷害發(fā)生時,誰該負起責(zé)任? Scheutz表示,身為機器人設(shè)計者:“我們負責(zé)開發(fā)所有支持道德推理之算法的控制架構(gòu),但我們不會對機器人將被賦予的道德原則做出任何承諾,那應(yīng)該是機器人布署者的任務(wù)──他們負責(zé)定義道德準(zhǔn)則、規(guī)范等等。” 因此Scheutz認為,法律專家應(yīng)該要提早定義出對機器人行為應(yīng)負的責(zé)任,這是一個關(guān)鍵問題,特別是因為具備學(xué)習(xí)能力的機器人,也會在執(zhí)行任務(wù)的過程中吸收新的知識。 要賦予機器人道德能力,就是讓機器人在一個道德判斷情境中,模仿人類的決策過程;而首先,機器人就是能意識到一個道德判斷情境,接著依循所布建的推理策略──包括道德原則、基準(zhǔn)與價值等。這呼應(yīng)了美國達特茅斯學(xué)院(Dartmouth College)教授James H. Moor提出的第三種道德主體(ethical agent)”──也就是明確(explicit)的道德主體。 根據(jù)Moor的說法,明確的道德主體能在多樣化的情境之下判別并處理道德信息,并做出應(yīng)該要做的敏感判斷;特別是它們能在道德兩難的情境下,在不同道德原則相互沖突時,做出“合理的決定”。 Scheutz指出,現(xiàn)今的機器人與人工智能科技進展,已經(jīng)能制作出具備自我決策能力的自主機器人,不過大多數(shù)這類機器人的功能仍然很簡單,其自主能力也有限;因此它們有可能因為缺乏從道德角度來考慮的決策算法,而成為具傷害性的機器。 “如果我們不賦予機器人偵測并適當(dāng)處理道德判斷情境的能力、而且是透過人類可接受的方式,我們可能會增加人類受到不必要傷害與苦難的風(fēng)險;”Scheutz表示:“自主性機器人可能會做出我們認為在道德上有錯誤的決定──例如被授權(quán)不提供病患止痛藥。” 在論文中,Scheutz表示機器人開發(fā)者能采取一些行動,減輕布署在人類社會中的機器人面臨道德判斷情境可能造成的問題:“第一,機器人設(shè)計者可以透過機器人的設(shè)計與編程,降低遭遇道德判斷情境中的潛在性,例如當(dāng)機器人不會回報社交關(guān)系時,就不利于社交連結(jié)(social bonding),這將會減少人們與機器人建立單向情感連結(jié)的情況。” 相較于有些機器人的行為會表現(xiàn)情感,或是擬人化的設(shè)計,可能會暗示人們它有能力特定類型的關(guān)系,但實際上并不會。身為人類,對機器人可能在道德判斷情境或是道德兩難情境下可能做出的抉擇做出批判,可能會是挑戰(zhàn)。 考慮到我們身為人類,在評估我們自己的道德社交行為時,會一直表現(xiàn)出許多前后不一致的行為,無疑人類需要為打造具備道德自主性的人工智能負責(zé)。 Scheutz表示,實際上人類面對道德判斷情境時也會有不同的看法,但這不一定會成為替機器人布署道德推理功能的限制因素:“未受過正規(guī)訓(xùn)練的人類通常不擅于正確的邏輯推理,而且有可能會犯錯──例如所得結(jié)論并未根據(jù)已知信息的邏輯──特別是在復(fù)雜的道德情境下。至于機器人,我們能確保它永遠或只會依循邏輯推理,不會執(zhí)行未受允許的動作。” Scheutz期望,未來每一個布署在人類社會中的自主性機器人,包括輔助機器人、娛樂機器人、軍事機器人等等,都是“懂道德的機器人” |