讀古今文學網 > 人工智能:改變世界,重建未來 > 機器人學的三大法則 >

機器人學的三大法則

人工智能的潛在危險、我們對其日漸依賴以及法律的灰色地帶共同構成了非常重要的問題:我們需要在這個領域建立一種倫理規範。簡而言之,如果我們要建造思考的機器,難道我們不應努力使其成為考慮周到的機器嗎?然而它仍然與科幻小說有著難解難分的關係,因而也就不必奇怪在科幻作家艾薩克·阿西莫夫的作品中有許多在人工智能中植入道德感的著名例子。阿西莫夫的「機器人學的三大法則」首次出現在其1942年的短篇小說《環舞》(Runaround)中,這篇小說最初發表於《驚世科幻》(Astounding Science Fiction)三月刊中。這三大法則通常簡稱為「阿西莫夫法則」,常為人們引用的法則內容如下:

1. 機器人不得傷害人,也不得見人受到傷害而袖手旁觀。

2. 機器人應服從人的一切命令,但不得違反第一法則。

3. 機器人應保護自身的安全,但不得違反第一、第二法則。

儘管已經過去70多年了,但「阿西莫夫法則」依然統管著阿西莫夫的科幻小說同行們。2014年1月,當谷歌收購深度學習公司DeepMind時,一切發生了重大變化。作為交易的一部分,谷歌必須成立人工智能倫理委員會,目標是確保對人工智能這項技術的明智使用。儘管關於該委員會構成的公開細節寥寥無幾,但是建立這樣一個防護措施是一個重要的基準。2015年夏季,DeepMind應用人工智能主管穆斯塔法·蘇萊曼(Mustafa Suleyman)承認,在這個領域公眾看待人工智能的方式已經發生了轉變。「故事已經從『人工智能如此失敗不令人恐怖嗎?』轉變至『人工智能如此成功不令人恐怖嗎?』」在一場深度學習大會上,他曾如是說道。

谷歌不是唯一認為必須確保人工智能承擔責任的研究團體。由於過去10年間深度學習與其他人工智能的統計形式已經成為規範,紐約倫斯勒理工學院認知科學系主任塞爾默·布林斯喬德(Selmer Bringsjord)發起了一場一個人的戰爭,支持回歸到從頭到尾基於邏輯的人工智能。「我不做任何統計學上的事情,」在描述他在實驗室的工作時,他告訴我,「我非常不喜歡它,認為它正將我們引入歧途。」

對於布林斯喬德而言,之所以需要回歸從頭到尾有邏輯的人工智能,是因為依靠「數學上令人費解」的統計工具本質上是愚蠢的行為。「你希望系統能夠闡述其行為的依據和正確性嗎?」他說:「我們應該希望更加複雜的人工智能系統能夠證明,它們根據獲得的輸入,其所作所為是正確的決定。」

有邏輯的人工智能可能意味著《連線》和《快公司》的篇章中那種引人注意的技術推出過程應該放慢,但布林斯喬德認為,創造具有清晰推理過程的人工智能是最重要的,因為這個過程事後可以分析。近斯關於有邏輯的人工智能的一個例子出現在位於紐約哈德遜河東岸的布林斯喬德實驗室中。這個展示中,一台計算機盡力破解「三個智者」出的難題,實驗由三個小型類人機器人輔助進行:這一實驗可能意味著人工智能自我意識的萌芽。在這個難題中,三個機器人被告知,兩個機器人服用了停止說話的「啞藥」。它們的任務是找出其中仍然可以說話的那個機器人。三個機器人都試圖說「我不知道」,但只有一個實際發出聲音。當它聽到自己的機器聲音時,這個機器人明白它就是那個沒有被禁止發聲的機器人。「對不起,我現在知道了。」它說,「我能證明我沒有吃啞藥。」隨後它寫下了關於這個難題的有條理的數學證明,並把它保存起來。布林斯喬德進行了相同測試的不同版本,或者任何旨在解決其他哲學難題的測試,他認為這些測試將形成一個人工智能可以利用的日益完善的技巧或功能指令系統。

由於圍繞用於戰爭的自動人工智能武器進行的工作越來越多,人們迫切需要像布林斯喬德這樣的工作項目。2014年,在塔夫茨大學和布朗大學成立了一個多學科綜合小組,小組和布林斯喬德合作,獲得了海軍研究辦公室的資助,去探索能否為可能用於戰爭的自主機器人賦予是非感。儘管這種探索得到的不是一個「友好的人工智能」,但它可能會使機器人在戰場上做出符合倫理的決定。設想一下,比如,一個正將傷兵運往戰地醫院的機器人軍醫遇到另一個腿上受傷的士兵。權衡停止執行救助任務的利弊,能否在戰場採用牽引療法止疼以及其他難題,對於人類來說已然是個難以駕馭的複雜問題了,更不用說對於機器了。

這樣的問題可能越來越成為常態。設想一下,如果一個生產自動駕駛汽車的公司決定,當其生產的車輛檢測到前方即將發生碰撞時,它的車輛可以猛地駛出道路,從而保護駕駛員,這將會發生什麼情況呢?這一操作非常合理,如果是人類在駕駛車輛,多數人也會做出這樣的決定。然而,如果你的車正停在紅燈前,但這時它發現後面的一輛車快速駛來,這時將會怎樣?你的車知道可能要發生追尾事故,隨後它就駛出了馬路……並正好衝進了一群放學回家的學生當中。司機避開了一個小追尾和潛在的會扭傷脖子的事故,但結果卻是三個學生死於非命、兩人受傷。即使最忠誠的車迷也難以為這種成本和收益的互換進行辯護。而這些正是人工智能研究人員開始認真對待的問題。