近日,德國奧斯納布呂克大學認知科學學院的一項最新研究表明,人類在駕駛過程中做出的道德抉擇并沒有此前認為的那么復雜,或者說與環(huán)境的關聯(lián)度不大。這項研究成果顯示,人類駕駛員做出的道德選擇,是在相對簡單的以生命為基準的價值觀指導下做出的。這意味著通過編程的方式令自動駕駛汽車做出合乎人類社會道德取向的選擇,應該并不是件難事。

這項研究共有105名志愿者參與,所有人被放置于一處虛擬現(xiàn)實的場景中:霧天中你駕駛車輛在郊區(qū)中轉悠,之后會出現(xiàn)一些需要作出兩難選擇的情節(jié),你不得不在「是駕車撞向行人、動物還是無生命物體」之間進行抉擇。
按照之前的假設,人類駕駛員在面對這三種情況時做出的選擇,很大程度上取決于當時的環(huán)境,因此超越了計算機建模的能力。“不過我們發(fā)現(xiàn)事實恰恰相反,這種兩難場景下的人類行為可以借助「相對簡單的以生命為基準的價值觀模型」進行建模,每一位實驗參與者在遇到行人、動物或無生命物體做出的判斷,基本上都遵循類似的規(guī)則。”這項研究的第一作者Leon Sütfeld在接受《科學日報》采訪時如是解釋道。
此前,網絡上曾有不少言論擔憂自動駕駛汽車能否給人類社會帶來好處。特斯拉CEO埃隆·馬斯克是自動駕駛技術堅實的擁護者,他甚至“毫不客氣地”回應那些不支持的人,稱其“行為無異于謀殺”。馬斯克認為自動駕駛汽車能夠變得更智能,更中立,甚至要比人類更能開好車,避免更多嚴重交通事故的發(fā)生。
不過目前自動駕駛技術仍處于發(fā)展初期,至于能挽救多少生命取決于工程師如何進行編程,這也是奧斯納布呂克大學這項研究要探尋的問題。不過如果我們期望自動駕駛汽車的表現(xiàn)要比人類更好,那又為什么要通過編程使其更像人類呢?
作為這項研究的主要作者,Gordon Pipa教授解釋稱,“我們其實需要搞明白的是,自動駕駛系統(tǒng)是否應該做出基于人類道德標準的判斷。如果需要的話,那么它們應該通過模仿人類的選擇繼而做出有道德的行為嗎?或者說它們應該遵循一定的道德規(guī)則,那這樣的規(guī)則又是什么?而且更關鍵的問題在于,一旦發(fā)生了不好的事情,又到底是誰應該承擔責任呢?”
總的來說,人工智能的道德標準依然是道德范疇內十分模糊的領域。業(yè)界也在大量的嘗試將一系列相關法律通過編程的方式來控制人工智能的行為。目前德國國土交通省已經制定了20條自動駕駛汽車應該遵守的相關規(guī)則。
那么未來自動駕駛汽車能夠變得多安全取決于工程師如何進行編程,盡管這項任務并不簡單,但先搞清楚人類駕駛員在不同的場景中是如何作出反應的,這是最關鍵的。