最近,一篇論文報道了一項全球道德偏好調查,涉及無人駕駛汽車在不可避免的事故中應該拯救哪一方。研究成果結合了全球參與者貢獻的4000萬個決策,或為制定能夠被社會普遍接受的人工智能(AI)倫理標準提供參考信息。
無人駕駛汽車不僅應該能夠導航路線,還應該在不可避免的事故中獨自應對道德困境。因此,有必要制定一套倫理準則來指導AI系統(tǒng)處理此類場景。如果無人駕駛汽車一定會被廣泛使用,我們首先要確定社會普遍接受的道德標準。
麻省理工學院的伊亞德拉赫萬和他的同事們建立了一個名為“道德機器”的大規(guī)模在線調查平臺,統(tǒng)計世界各地人們的道德偏好。參與者被置于一個不可避免的事故現(xiàn)場,當時一輛無人駕駛汽車正在雙向街道上行駛。每一個場景都會把行人和乘客置于不同的危險之中,汽車可以選擇不變道或者轉向另一條車道。參與者必須選擇誰來保存并決定汽車的路線。這個實驗記錄了大約4000萬個這樣的決定。
研究人員已經確定了許多共同的道德偏好,例如拯救大多數(shù)而不拯救少數(shù),拯救年輕人而不拯救老年人,以及拯救動物。作者還發(fā)現(xiàn)了不同文化之間道德偏好的差異。例如,來自中美洲和南美洲國家、法國、前法國海外領土和目前法國領土的參與者表現(xiàn)出強烈的偏好,首先拯救婦女和強者。然而,來自收入差距較大國家的參與者在決定儲蓄對象時,往往會考慮自己的社會地位。相關論文于《自然》在線發(fā)表。
最后,研究人員指出,在讓汽車做出道德選擇之前,需要進行全球對話,將人們的偏好告知實施監(jiān)督的道德算法設計公司和政策制定者。
標簽:
免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!