讀古今文學網 > 人工智能:改變世界,重建未來 > 我們無法起訴機器人 >

我們無法起訴機器人

Siri發佈前兩年,英國人工智能資深專家尤里克·威爾克斯(Yorick Wilks)發表了一篇名為「人工智能同伴導論」(Introducing Artificial Companions)的文章,講述了第四章討論的這種技術。在文中,威爾克斯簡短地回答了責任問題。他特別感興趣的是,智能增長是否伴隨著責任增長。威爾克斯寫道,假設人工智能助手告訴你的祖母,外面很暖和,但當她聽到這個消息後走進的卻是冰冷的花園,然後她感冒了,那麼這種情況下誰應受到責備?此時此刻,連威爾克斯這位畢生都在詢問和回答未來問題的人都得承認,這個問題對於讀者「似乎有些超出想像」。僅僅過了幾年,2015年年初,在牛津,我與尤里克·威爾克斯在他家附近共進午餐。他駕駛著自己的小型汽車在火車站與我會合,我們在附近一家意大利餐廳品紅酒,討論人工智能助手的話題,愉快地度過了幾個小時。午餐期間,我的頭腦中一直在感歎著過去幾年人工智能的發展是如何迅速。一個2009年看起來像是科幻小說情節的哲學難題現在幾乎成了現實。

我們對人工智能助手寄予了極大的信任,有時甚至超過了我們的本能與判斷。Siri最早的電視插播廣告由佐伊·丹斯切爾(Zooey Deschanel)主演,儘管當時窗外明顯地下著大雨,但是她仍然看著窗外問Siri:「在下雨嗎?」幸運的是,當時Siri的答覆非常肯定。而在其他場合,人們遠沒有這麼幸運。2013年年底,阿拉斯加州費爾班克斯的幾位iPhone用戶按照使用蘋果地圖應用數據的Siri的建議,選擇了一條抵達費爾班克斯國際機場的路線,但這條路線非常危險地穿越了飛機起降的跑道。機場的營銷主管安吉·斯皮爾(Angie Spear)稱這是個很明顯的證據,說明司機太過於相信導航系統。「無論標誌牌上寫的是什麼,只要iPhone上的地圖告訴他們繼續沿這條路前進,他們就前進。」她說。

在處理技術引發的此類交通事故中,當前可用的法案條例非常有限,不過以往法院一直趨向做出針對人類的判決。比如,2009年,一位英國司機依據GPS(全球定位系統)的導航,卻令自己困在了懸崖邊的狹窄小路上。這名司機最終不得不被警察拖回主路。儘管英國法庭將之歸因於他的GPS,但還是認定其有大意駕駛的過錯。

法官傾向認定人類對此負責的原因是,我們習慣於一個充斥非智能工具的世界。舉一個簡單的例子,一個人用槍殺了另一個人,他應為自己的罪行負責,而不是讓他的槍負責。同樣,一家公司銷售了有瑕疵的槍支,購買者在使用的時候槍支發生了爆炸,槍支公司應對所造成的所有傷害負責。這種思維也持續到了數字時代。1984年,也就是蘋果公司首次推出麥金塔電腦(Macintosh,簡稱Mac)的這一年,美國一家名為阿斯隆工業的公司老闆發現自己成了法庭的被告,他被指控使自己的客戶置身危險之中。阿斯隆公司是一家銷售自動投球機的公司,設備主要用於供人進行棒球揮棒練習。不幸的是,其中一些機器被證明存在缺陷。這些兇猛的機器發射的棒球極不規律,而且速度極快,有可能使某些不走運的客戶顱骨骨折,甚至失明。儘管阿斯隆案件中沒什麼特別值得關注的事,但這個案件卻令人難忘,因為法官宣佈必須對阿斯隆工業而不是投球機進行起訴。原因是什麼呢?因為「我們無法起訴機器人」。

然而,現代人工智能的主要不同點在於,人工智能不再僅限於由人類使用,而是一種由人類部署的工具。一旦部署,在多數情況下,機器就會按照所收集、分析和最終用於做出決定的信息,獨立於指令而自行運轉。

戴維·弗拉傑克(David Vladeck)是華盛頓喬治城大學的法學教授,他是一位少有的致力於研究人工智能法律責任問題的法律專家。和多數人一樣,他認為陳舊的「我們無法起訴機器人」的觀念可能需要改變。弗拉傑克的一個思維實驗涉及《2001:太空漫遊》中HAL9000超級計算機蓄意殺人案件。

對那些沒有看過這部電影的人來說,這是一個非常簡單的情節:HAL9000是全知的人工智能,控制著「發現一號」宇宙飛船的運行,飛船載著5名船員飛往木星。在電影的開始部分,HAL9000被稱為「簡單且不會出錯」。然而,問題很快出現了。HAL9000希望知道「發現一號」正執行的絕密任務細節。船員戴夫(Dave)和弗蘭克(Frank)拒絕透露這些信息,儘管事實證明他們也不知道所有細節。不久,HAL9000警告稱「發現一號」艙外一個重要天線將要失去作用。戴夫和弗蘭克開始懷疑HAL9000並把自己鎖在了一個挖掘工具裡討論這件事,他們認為HAL9000不可能聽到他們的對話。他們決定修復天線,還決定如果事實證明HAL9000出現了故障就關閉HAL9000。戴夫和弗蘭克沒有意識到HAL9000能夠利用圖像識別技術解讀唇語。當弗蘭克涉險到艙外檢查天線時,HAL9000割斷了他的氧氣管並使他飄浮進了太空。戴夫徒勞地想挽救弗蘭克,但當他也走到艙外的時候,HAL9000趁機關掉了其他三位正在睡眠中的船員的生命維持系統,殺死了他們。HAL9000隨後拒絕讓戴夫返回艙內,因為它知道戴夫會將它停用,而HAL9000認為這將危及整個任務。儘管如此,戴夫最終還是設法回到了「發現一號」飛船內,並且準備關閉HAL9000。HAL9000懇求戴夫停手,在最後的時刻,作為一個自主人工智能,它表達出了自己對死亡的恐懼。

弗拉傑克質疑HAL9000是否能夠在法庭上對自己的行為負責。假設戴夫於2001年年底重新回到了地球,與一位人身傷害律師進行接洽(「你是否無故捲入了人工智能殺人案件之中?」),並要求有人對自己的遭遇和4位被HAL9000無故殺害的船員進行賠償。至少按照現有法律,HAL9000可能會擺脫困境。與阿斯隆工業的失常棒球拋射機器一樣,法庭處理這種案件時,可能承認機器造成了傷害,但會認定這是HAL9000程序員的錯誤而不是HAL9000的錯誤。

這可能不公平。正如弗拉傑克所說:「僅從可能參與設計、修改和集成人工智能系統元件的個人與公司的龐大數量看,就很難確認大部分責任人或責任方。許多元件早在人工智能項目構思之前許多年就已經設計出來了,這些元件的設計人員可能從未設想,或鮮少預期到他們的設計會集成到人工智能系統中,更不用說會造成傷害的某個具體的人工智能系統了。在這種情況下,指責在時間和地理位置上都與人工智能系統完成和運行相距甚遠的元件設計人員有工作失誤是有失公允的。法庭可能也不願意說這種元件設計人員本該預見到這種傷害的出現。」