讀古今文學網 > 人工智能:李開復談AI如何重塑個人、商業與社會的未來圖譜 > 第三章 人機大戰:AI真的會挑戰人類? >

第三章 人機大戰:AI真的會挑戰人類?

Alpha Go帶來的警示是:如果計算機可以在兩年內實現大多數人預測要花20年或更長時間才能完成的進步,那麼,還有哪些突破會以遠超常人預期的速度來臨?這些突破會不會超出我們對人工智能的想像,顛覆人類預想中的未來?我們已為這些即將到來的技術突破做好準備了嗎?

Alpha Go帶給人類的啟示究竟是什麼?

2016年3月,李世石與谷歌Alpha Go在圍棋棋盤上鬥智鬥勇、激戰正酣的時候,我也親身參與了新浪體育等媒體主辦的現場直播。當時,我與棋聖聶衛平九段一起出任講解嘉賓,直播了李世石與Alpha Go的第五盤棋賽。圍棋專家如聶衛平九段的評論視角,顯然和我這個計算機科學博士的視角大不相同。但有一點是相通的,那就是絕大多數圍棋界人士和人工智能界的科研人員此前都沒想到,圍棋程序會在如此短的時間內取得質的突破。

記得我曾在接受媒體採訪時說過:“Alpha Go真的讓我很震驚。如果你是兩年前問我計算機何時能戰勝圍棋世界冠軍,我那時的答案大概會是‘20年後’。可計算機在兩年內就做到了我認為需要20年才能做到的事,這樣的速度真的讓人震撼。”

Alpha Go橫空出世之前,圍棋界的觀點也大致相同。因為國際象棋與圍棋的複雜度相差甚遠,1997年IBM深藍在國際象棋棋盤上戰勝人類棋王的故事並不足以讓圍棋高手信服。而且,這麼多年來,圍棋AI程序的研發一直舉步維艱。早期基於規則的圍棋程序,比如中山大學陳志行教授20世紀90年代研發的“手談”,基本上只能和圍棋初學者過招。直到2006年後,隨著蒙特卡洛搜索算法在圍棋對弈軟件中的應用,Mo Go、Zen、Crazy Stone等程序的棋力才得到了突飛猛進的提高,在國際對弈平台KGS上,2006年到2012年,主流圍棋對弈軟件的棋力從業餘二段猛升到業餘五段甚至業餘六段56,但也就此停滯不前。Alpha Go出現前,圍棋界專家對圍棋對弈軟件棋力的評估基本比較一致,大多認為最好的計算機程序已可以和業餘高手過招,但和職業選手之間,還是有著本質的差別。

在今天的圍棋界,業餘高手和職業高手之間存在2子以上的明顯差距,通常,這個差距是職業選手從童年開始,用10年以上的時間刻苦訓練得來的,業餘選手極難彌補。另一方面,在計算機科學界,懂得蒙特卡洛搜索算法原理的人都知道,這種算法主要是利用抽樣統計來提高搜索效率,單用此算法確實難有提高空間。這是Alpha Go出現前,圍棋界和計算機科學界兩方面都不敢奢望人機大戰即將到來的根本原因。

深度學習改變了一切。

使用深度學習並結合蒙特卡洛搜索的Alpha Go已注定被寫入歷史。Alpha Go問世的第一年內,其實進入大家視野的是三個版本:5︰0擊敗樊麾的內測版本,4︰1擊敗李世石的版本,以“Master”(大師)網名60︰0快棋挑落中日韓高手的版本。三個版本演進脈絡明顯,每次迭代都有重大升級。最後這個網名為“Master”的版本也基本是2017年Alpha Go挑戰柯潔的一個“預覽版”。

從圍棋角度說,Alpha Go最震撼的是計算機在人類傳統認為極其玄妙的、電腦無法掌握的“大局觀”上突飛猛進,遠遠將人類選手甩在身後。電腦計算“大局觀”的方式,和人類培養“大局觀”的思路,有根本的差別。人類不可能在這方面趕上電腦。和樊麾對局的棋譜基本上還看不出Alpha Go的大局觀有多強,和李世石對局就下出了聶衛平讚不絕口的五路肩沖,到了Master的60局,大局觀體現在兩個地方:

第一,自始至終對局勢的把握,比如第60局古力用Alpha Go的思路對付Alpha Go,把中央撐得很滿,但Alpha Go不緊不慢,總是恰到好處地保持勝勢。

第二,Alpha Go已經深刻影響人類對佈局的思考,大飛守角之類的變化迅速被人類棋手模仿,這和當年深藍問世後,國際象棋的佈局革命是一樣的。

基於Alpha Go的思路,其他圍棋軟件的水平也突飛猛進。僅2017年年初就有日本研發的Deep Zen Go和騰訊人工智能實驗室開發的“絕藝”達到了人類九段或以上的水平。騰訊“絕藝”不僅面對人類高手保持了絕對優勢,還戰勝了Alpha Go以外的各路圍棋軟件,取得了2017年UEC杯計算機圍棋大賽的冠軍。

以後AI和AI之間的競賽,應該會不斷促進AI提高。人類雖望塵莫及,但可以不斷從AI中學習新的思想。

從人工智能技術的角度說,Alpha Go用的是AI領域應用非常普遍的算法:深度學習、蒙特卡洛算法、增強學習等。可以說,機器視覺相關的深度學習技術,包含環境—決策—反饋的智能系統,裡面都有Alpha Go的影子。當然,直接的代碼實現層面,肯定沒有複製、粘貼這樣直接借用的關係,因為Alpha Go的深度學習模型畢竟是圍繞圍棋的特徵建立的。

那麼,當人機大戰煙塵散盡,公眾的熱情回歸理性時,Alpha Go究竟為我們人類帶來了什麼?Alpha Go帶來的,僅僅是棋盤上的一張張棋譜,還是《自然》雜誌上那篇劃時代的論文57?是公眾對人工智能的重新認知,還是人類與機器命運的關鍵轉折點?

我覺得,Alpha Go帶給人類的,更多是一種對未來的警示:如果計算機可以在兩年內實現大多數人此前預測要花20年或更長時間才能完成的進步,那麼,還有哪些突破會以遠超常人預期的速度來臨?這些突破會不會超出我們對人工智能的想像,顛覆人類預想中的未來?我們已為這些即將到來的技術突破做好準備了嗎?

無論是專業人士還是普通公眾,Alpha Go的出現給每個人提供了一個最好的理由,讓我們有機會重新思考:到底什麼是人工智能?人工智能之於人類的意義是什麼?人工智能與未來人類的關係到底會怎樣?人工智能真的會在未來挑戰人類嗎?

Deep Mind:會打遊戲的人工智能

站在Alpha Go背後的,是一個名叫Deep Mind的團隊。這是谷歌公司於2014年收購的英國人工智能團隊。在所有優秀的人工智能技術團隊中,Deep Mind無疑是最有潛力之一的。不得不承認,他們是一個真正有夢想也真正關注人類未來的技術團隊。

Deep Mind的創始人戴密斯·哈薩比斯(Demis Hassabis)從小就是一個神童,在棋類遊戲中展示出了非凡的天分。哈薩比斯13歲時就成為國際象棋大師,在當年的國際象棋世界等級分排名中,哈薩比斯位列所有14歲以下選手的第2位,僅次於後來名聲大噪的世界最強女棋手朱迪特·波爾加(Judit Polgár,小波爾加)。1997年,哈薩比斯從劍橋大學計算機科學系畢業。1998年,22歲的哈薩比斯創立了Elixir Studios公司,專注於開發電腦遊戲。2005年,哈薩比斯返回校園,在倫敦大學攻讀了認知神經科學的博士學位。2010年,哈薩比斯在倫敦創建了人工智能技術公司Deep Mind。直到2014年谷歌以4億英鎊收購Deep Mind時,哈薩比斯的團隊還基本不為普通公眾所知。

2015年年初,Deep Mind第一次真正進入公眾視角,是靠一個基於深度學習和增強學習技術驅動的,能自己學習如何打街機遊戲的AI程序。顯然,國際象棋大師和電腦遊戲設計、開發的背景,為哈薩比斯的人工智能之路,奠定了一個不同尋常的基礎。Deep Mind所研發的深度學習、增強學習等技術,在醫藥、金融、自動控制等眾多領域有著廣泛的應用前景,但這些行業應用離普通公眾較遠,Deep Mind的先進技術難以被大多數人瞭解。哈薩比斯和他的團隊非常聰明地選擇用大眾最熟悉的電子遊戲,來作為Deep Mind核心科技的第一塊“試金石”。

Deep Mind選取了數十款當年在雅達利(Atari)街機上非常流行的小遊戲,然後用人工智能程序嘗試“理解”遊戲當前畫面,控制遊戲操作接口,並根據每次遊戲的輸贏情況,不斷調整策略,自主學習遊戲技巧。2015年2月向公眾展示時,Deep Mind的人工智能程序在大約四分之三的雅達利街機遊戲中,達到或超過了人類高手的水平。類似技術隨後被Deep Mind團隊用於人工智能圍棋軟件,並由此誕生了震驚世界的Alpha Go。

Deep Mind的目標顯然不是遊戲本身。正如哈薩比斯在諸多場合所說過的那樣,Deep Mind希望利用在遊戲中證明過的技術,幫助人類解決計算機輔助醫療等更為複雜的問題。但遊戲與Deep Mind的結緣,確實為這個獨具特色的人工智能團隊貼上了鮮明的標籤。

歷史總是充滿巧合。20世紀70年代,初出茅廬的史蒂夫·喬布斯找到的第一份工作就是在雅達利遊戲機公司打工。為了開發雅達利公司當時的主打街機產品“Pong”,喬布斯還請來了好朋友史蒂夫·沃茲尼亞克一起解決技術問題。40多年前,蘋果公司的兩位創始人在雅達利遊戲機上研發的產品,成為40多年後哈薩比斯的Deep Mind團隊磨煉人工智能算法的實驗平台。在Deep Mind軟件自主學習並熟練掌握的街機遊戲名單上,“Pong”的名字赫然在列。

從喬布斯到哈薩比斯,從雅達利街機到蘋果電腦再到人工智能,科技發展的進程中,每一個領軍人物的每一次技術突破,都可能成為後續進展的鋪墊與序曲。從早期的西洋跳棋程序,到能下國際象棋的IBM深藍,再到Alpha Go,每一盤棋的每一場輸贏,不也是人工智能技術從萌芽到發展再到成熟的最好見證嗎?

Alpha Go的故事尚未完結,Deep Mind就將目光投向了更有挑戰的遊戲領域。2016年11月,在暴雪公司的Blizz Con大會上,Deep Mind正式宣佈牽手暴雪,基於《星際爭霸》遊戲進行人工智能研究58。與圍棋不同,《星際爭霸》遊戲的參與者需要在全局尚未明朗的情況下,只依據少數信息,猜測對手可能的戰略、戰術佈置,並有針對性地設計自己的遊戲策略。從技術上說,《星際爭霸》的挑戰要高於圍棋,打贏《星際爭霸》所需的決策技術,也許更接近人類在日常工作、生活中經常使用的思考與決策方法。從這個意義上說,Deep Mind正向著更高級智慧的方向邁進。

遊戲既是Deep Mind團隊最好的市場和公關手段,同時也幫助Deep Mind在人工智能領域迅速建立起不同尋常的技術優勢。借助在遊戲領域取得的經驗和方法,Deep Mind已經開始用人工智能技術幫助谷歌的數據中心合理調度、分配電力資源,達到省電的目標。此外,Deep Mind與牛津大學合作開發了根據人類說話時的口型猜測說話內容的唇讀技術Lip Net,與英國國家醫療服務體系(NHS)合作推出了綜合性的醫療輔助應用Streams,與眼科醫院合作幫助眼部疾病診斷……哈薩比斯說:“我堅信Deep Mind正在從事的研究對人類的未來至關重要,而且這值得我們做出一些犧牲。”59

從下象棋、開發遊戲的天才少年,到利用人工智能技術造福人類的計算機科學家,哈薩比斯的夢想正在實現。一個會玩遊戲的人工智能和一個會幫助醫生診療疾病的人工智能,它們之間的技術,竟有如此之多的共同點——技術的神奇莫過於此。

德州撲克:開啟新世界的大門?

我自己很喜歡打德州撲克,經常參加德州撲克比賽。在牌桌上,自我感覺是一名穩健型牌手,保持了還算不錯的勝率。

圍棋是一項講究計算和形勢判斷能力的遊戲。而德州撲克就與此不同,它講究的是在多人博弈中,避免人性貪婪、戀戰等弱點,並將科學的概率統計與靈活的實戰策略很好地配合起來。人工智能已經在圍棋領域取得歷史性的突破,那麼,在德州撲克的世界裡,人工智能的表現又如何呢?

如前所述,在圍棋、象棋等遊戲中,人工智能可以和人類選手一樣,在每一步決策前獲得棋盤上的全部信息。這種限定規則,隨時可以獲取全部信息的遊戲,我們可以稱之為“完整信息的博弈遊戲”。而在《星際爭霸》或德州撲克中,人工智能和人類選手通常無法在特定時刻獲得有關遊戲的全部信息,比如,在德州撲克中,你無法知道對手的底牌是什麼,你也不知道發牌員發出的下一張牌是什麼,在這類“不完整信息的博弈遊戲”裡,人工智能必須像人一樣,根據經驗或概率統計知識,猜測對手底牌和下一張牌的可能性,然後再制定自己的應對策略。

顯然,對於實現人工智能算法而言,不完整信息的博弈遊戲在技術難度上要大得多。就在哈薩比斯的團隊借助《星際爭霸》磨煉下一代人工智能算法的同時,卡內基-梅隆大學的研究者選擇了德州撲克作為他們攻克此類問題的出發點。

來自卡內基-梅隆大學的托馬斯·桑德霍姆(Tuomas Sandholm)教授與他的博士生諾姆·布朗(Noam Brown)最早開發了一款名為Claudico的德州撲克程序。Claudico是一個拉丁文單詞,對應於德州撲克中的一種特別的策略——平跟(limping),指的是翻牌之前,選擇跟大盲注而不加注的策略。平跟這種策略,在人類德州撲克比賽中,使用的頻率並不是很高,但據托馬斯·桑德霍姆介紹,計算機通過學習發現,使用這種策略有許多好處。值得注意的是,托馬斯·桑德霍姆的團隊在研發德州撲克程序時,主要不是向人類職業選手學習打牌技巧,而是讓計算機通過自我訓練,自己尋找最好的方法。

Claudico從2015年4月到5月,在匹茲堡的河流賭場與人類選手同台競技,在無限制投注的一對一比賽中,輪流與包括當時世界排名第一的道格·波爾克(Doug Polk)在內的四名人類頂尖高手過招。那次比賽歷時13天,共計2萬局牌。為降低運氣成分,比賽使用的是重複牌局的玩法,即在不同房間的兩張牌桌上使用完全相同但人機對調的兩副牌。這次比賽,AI似乎還很稚嫩。比賽進行過半,人類就領先Claudico大約46萬個籌碼。最終,人類選手以大約73萬個籌碼的優勢贏得了比賽。

Claudico在2015年初出茅廬的這次比賽以失利告終。這個劇情,有些像1996年IBM深藍輸給卡斯帕羅夫的那一次。與Claudico交過手的道格·波爾克說,Claudico與人類的打牌方式非常不同,“人類選手的下注數量可能是彩池的一半或四分之三,而Claudico有時只吝嗇地以彩池的十分之一來下注,有時則以彩池的十餘倍來下注。人類可不會用19000美元的下注去博取區區700美元的彩池”60。

2015年的失利並沒有讓托馬斯·桑德霍姆教授灰心。2017年1月,教授帶著一個名為Libratus的新版本德州撲克程序捲土重來,再戰匹茲堡的河流賭場。像上次一樣,新版本程序的名字Libratus也是一個拉丁文單詞,對應於程序使用的均衡(balanced)策略——這一策略源自數學家納什定義的一種完美博弈的模型。

托馬斯·桑德霍姆教授解釋說:“在有兩名玩家的零和遊戲中,如果有一人不遵從納什均衡的策略,那麼兩名玩家獲得的收益都將受損,但我們的系統不會這樣。在此類遊戲中,以納什均衡的方式思考是最安全的。遵從規律的玩家將合理地獲得收益,同時在任何地方都不會被對手利用。”61

這一次,比賽規則和2015年那次基本一致,比賽時間從13天延長到20天,仍基於無限制投注的規則,Libratus輪流與人類高手一對一比賽。人類團隊計算總分,與Libratus的總得分比較勝負關係。不同的是,升級後的Libratus程序就像圍棋棋盤上威風八面的Alpha Go一樣,一上來就對四名人類高手形成了全面壓制。AI從比賽第一天就一路領先,第6天領先優勢雖一度縮小,但從第7天後,人類就再也沒有機會縮小巨大的差距了。最終,Libratus領先的籌碼數量達到驚人的176.6萬美元!在德州撲克領域的人機大戰中,人工智能完美勝出!

連續參加了2015年和2017年兩次人機大戰的人類德州撲克高手Dong Kim說,他在這次比賽全程充滿挫敗感——其實他已經是四位人類高手裡面,對戰成績最好的那個了。兩年前曾經擊敗計算機的Dong Kim在2017年的比賽剛剛過半時就直言:“人類已經沒有真正獲勝的機會。”62

那麼,從Libratus大敗人類高手的德州撲克對局中,我們能看到哪些人工智能的發展規律呢?

根據我對Libratus對局的觀察,Libratus所使用技術策略非常成功。AI利用增強學習技術,從自我對局中學習最優的撲克玩法,而避免從人類的既定模式中學習經驗,這是非常重要的一點。當然,目前Libratus的算法還只適用於無限制投注的一對一比賽。如果將比賽擴展到更常見的多人制比賽,Libratus面對的挑戰會更大一些,還需要進行策略上的升級與調整。

計算機在德州撲克領域取得的成功,讓包括我在內的人工智能研究者都非常振奮,這主要有以下兩個原因:

·和圍棋不同,在德州撲克的牌桌上,人工智能與人類選手一樣,都只能看到部分信息。這種情況下,沒有所謂的唯一的、最佳的打法。

·Libratus基本是從零開始學習德州撲克策略,且主要依靠自我對局來學習。這對利用人工智能解決更為廣泛的現實問題意義重大。

那些擔心人工智能威脅的悲觀主義者可能會從Libratus的勝利中看到更為現實的風險。比如,機器曾在比賽中用大賭注和新策略嚇退、蒙騙過最精明的人類牌手,這些方法也許會被精明的商人用於人類的商業談判。一旦這些人工智能算法被犯罪組織利用,是否會出現災難性的後果?擔心出現超人工智能的人還會進一步追問,一旦機器有了自我意識,機器是否會像德州撲克牌桌上的AI算法一樣,用各種策略誘騙、恐嚇人類呢?

樂觀主義者則更多地看到Libratus的算法本身對於人工智能幫助人類解決實際問題的巨大價值。如果機器能夠在自我學習中不斷完善對於一種特定策略的掌握程度,能夠在不熟悉或缺乏全部信息的環境中不斷試錯並積累經驗,那麼,機器顯然可以勝任更多的人類工作。比如,機器可以幫助人類制訂更為複雜的醫療計劃,可以在人類感到難以決策的領域,比如商業活動、城市規劃、經濟調控甚至戰爭指揮等,充當人類的“參謀”。也許,未來每個人都可以依靠強大的計算機和人工智能程序,成為運籌帷幄、決勝千里的戰略家。

AI小百科 弱人工智能、強人工智能和超人工智能

我們談到了人類對人工智能的某種擔心,很多人最想知道的是:今天的人工智能到底有多“聰明”?人工智能到底會發展到什麼程度?什麼樣的人工智能會超出人類的控制範圍,甚至給人類帶來威脅?

要回答這樣的問題,我們也許需要先廓清一下有關不同層級人工智能的幾個基本定義。

弱人工智能(Weak AI)

也稱限制領域人工智能(Narrow AI)或應用型人工智能(Applied AI),指的是專注於且只能解決特定領域問題的人工智能。毫無疑問,今天我們看到的所有人工智能算法和應用都屬於弱人工智能的範疇。

Alpha Go是弱人工智能的一個最好實例。Alpha Go在圍棋領域超越了人類最頂尖選手,笑傲江湖。但Alpha Go的能力也僅止於圍棋(或類似的博弈領域),下棋時,如果沒有人類的幫助(還記得Alpha Go與李世石比賽時,幫機器擺棋的黃士傑博士嗎?),Alpha Go連從棋盒裡拿出棋子並置於棋盤之上的能力都沒有,更別提下棋前向對手行禮、下棋後一起復盤等圍棋禮儀 了。

一般而言,限於弱人工智能在功能上的局限性,人們更願意將弱人工智能看成是人類的工具,而不會將弱人工智能視為威脅。

但少數評論者依然認為,即便是弱人工智能,如果管理、應對不善,也會帶來致命的風險。比如,發生在2010年5月6日的美股市場的“閃跌”(Flash Crash)事件,其起因就混合了人類交易員的操作失誤和自動交易算法的內在風險,而當時已經大量存在的,由計算機程序控制的自動高頻交易,則被一些研究者認為是放大市場錯誤,並最終造成股市瞬時暴跌的幫兇。除了金融市場外,能源領域特別是核能領域裡使用的弱人工智能算法如果設計和監管不當,也有可能為人類帶來災難。類似地,自動駕駛汽車上使用的人工智能算法顯然也存在威脅人類生命安全的隱患。

但無論如何,弱人工智能屬於相對容易控制和管理的計算機程序。總體來說,弱人工智能並不比我們使用的其他新技術更為危險。設想一下,人類在用電時、開車時或者乘坐飛機時,不也要面對客觀存在的風險因素嗎?對於弱人工智能技術,人類現有的科研和工程管理、安全監管方面的經驗,大多是適用的。一台可以自動控制汽車行駛的計算機和一台可以將重物吊起的起重機,二者都需要嚴格的質量控制流程與安全監管策略。自動駕駛程序中的錯誤可能導致車禍,起重機結構設計上的錯誤也可能導致起重機的傾覆,二者都會造成人員傷亡。

也就是說,弱人工智能在總體上只是一種技術工具,如果說弱人工智能存在風險,那也和人類已大規模使用的其他技術沒有本質的不同。只要嚴格控制,嚴密監管,人類完全可以像使用其他工具那樣,放心地使用今天的所有AI技術。

強人工智能(Strong AI)

強人工智能又稱通用人工智能(Artificial general intelligence)或完全人工智能(Full AI),指的是可以勝任人類所有工作的人工智能。

人可以做什麼,強人工智能就可以做什麼。這種定義過於寬泛,缺乏一個量化的標準來評估什麼樣的計算機程序才是強人工智能。為此,不同的研究者提出了許多不同的建議。最為流行、被廣為接受的標準是前面我們詳細討論過的圖靈測試。但即便是圖靈測試本身,也只是關注於計算機的行為和人類行為之間,從觀察者角度而言的不可區分性,並沒有提及計算機到底需要具備哪些具體的特質或能力,才能實現這種不可區分性。

一般認為,一個可以稱得上強人工智能的程序,大概需要具備以下幾方面的能力:

1)存在不確定因素時進行推理,使用策略,解決問題,制定決策的能 力;

2)知識表示的能力,包括常識性知識的表示能力;

3)規劃能力;

4)學習能力;

5)使用自然語言進行交流溝通的能力;

6)將上述能力整合起來實現既定目標的能力。63

基於上面幾種能力的描述,我們大概可以想像,一個具備強人工智能的計算機程序會表現出什麼樣的行為特徵。一旦實現了符合這一描述的強人工智能,那我們幾乎可以肯定地說,所有人類工作都可以由人工智能來取代。從樂觀主義的角度講,人類到時就可以坐享其成,讓機器人為我們服務,每部機器人也許可以一對一地替換每個人類個體的具體工作,人類則獲得完全意義上的自由,只負責享樂,不再需要勞動。

強人工智能的定義裡,存在一個關鍵的爭議性問題:強人工智能是否有必要具備人類的“意識”(Consciousness)。有些研究者認為,只有具備人類意識的人工智能才可以叫強人工智能。另一些研究者則說,強人工智能只需要具備勝任人類所有工作的能力就可以了,未必需要人類的意識。

有關意識的爭議性話題極其複雜。本質上,這首先會牽扯出“人類的意識到底是什麼”這樣的難解問題,從而讓討論變得無的放矢。以人類今天對感情、自我認知、記憶、態度等概念的理解,類似的討論會牽涉哲學、倫理學、人類學、社會學、神經科學、計算機科學等方方面面,短期內還看不出有完美解決這一問題的可能。

也就是說,一旦牽涉“意識”,強人工智能的定義和評估標準就會變得異常複雜。而人們對於強人工智能的擔憂也主要來源於此。不難設想,一旦強人工智能程序具備人類的意識,那我們就必然需要像對待一個有健全人格的人那樣對待一台機器。那時,人與機器的關係就絕非工具使用者與工具本身這麼簡單。擁有意識的機器會不會甘願為人類服務?機器會不會因為某種共同訴求而聯合起來站在人類的對立面?一旦擁有意識的強人工智能得以實現,這些問題將直接成為人類面臨的現實挑戰。

超人工智能(Superintelligence)

假設計算機程序通過不斷發展,可以比世界上最聰明、最有天賦的人類還聰明,那麼,由此產生的人工智能系統就可以被稱為超人工智能。

牛津大學哲學家、未來學家尼克·波斯特洛姆(Nick Bostrom)在他的《超級智能》一書中,將超人工智能定義為“在科學創造力、智慧和社交能力等每一方面都比最強的人類大腦聰明很多的智能”64。顯然,對今天的人來說,這是一種只存在於科幻電影中的想像場景。

與弱人工智能、強人工智能相比,超人工智能的定義最為模糊,因為沒人知道,超越人類最高水平的智慧到底會表現為何種能力。如果說對於強人工智能,我們還存在從技術角度進行探討的可能性的話,那麼,對於超人工智能,今天的人類大多就只能從哲學或科幻的角度加以解析了。

首先,我們不知道強於人類的智慧形式將是怎樣的一種存在。現在去談論超人工智能和人類的關係,不僅僅是為時過早,而是根本不存在可以清晰界定的討論對象。

其次,我們沒有方法,也沒有經驗去預測超人工智能到底是一種不現實的幻想,還是一種在未來(不管這個未來是一百年還是一千年、一萬年)必然會降臨的結局。事實上,我們根本無法準確推斷,到底計算機程序有沒有能力達到這一目標。

顯然,如果公眾對人工智能會不會挑戰、威脅人類有擔憂的話,公眾心目中所擔心的那個人工智能,基本上屬於這裡所說的“強人工智能”和“超人工智能”。

我們到底該如何看待“強人工智能”和“超人工智能”的未來?它們會像Alpha Go那樣,以遠超我們預料的速度降臨世間嗎?

奇點來臨?

未來學家和科幻作者喜歡用“奇點”(Singularity)來表示超人工智能到來的那個神秘時刻。

沒有人知道奇點會不會到來,會在何時到來。

2015年年初,一篇名為《一個故意不通過圖靈測試的人工智能》的翻譯長文在微信朋友圈、微博和其他互聯網媒體上悄然流傳開來,絕大多數讀過這篇文章的人都會經歷一個從驚訝到惶恐再到忐忑不安的心路歷程。這篇文章的作者是“Wait But Why”網站的創始人蒂姆·厄班(Tim Urban),文章原名為《AI革命:通向超人工智能之路》65。

蒂姆·厄班在這篇著名的長文中,基於一個顯而易見的事實來討論人類科技的發展規律:人類科技發展是越來越快的,呈現出不斷加速的勢頭。

比如說,如果拿今天的人類生活與1750年前後進行比較,我們會發現,其間的變化之大幾乎只能用“翻天覆地”來形容。假設我們利用時光機器把1750年的某個古人帶到今天,他會看到什麼?“金屬鐵殼在寬敞的公路上飛馳,和太平洋另一頭的人聊天,看幾千千米外正在進行的體育比賽,觀看一場發生於半個世紀前的演唱會,從口袋裡掏出一個黑色長方形工具把眼前發生的事情記錄下來……”這一切足以把一個1750年的古人嚇得魂飛魄散!

但如果我們從1750年再向前回溯250年,也就是回到1500年前後,這兩個年代間的人類生活也許仍存在較大差異,但已很難用“翻天覆地”來形容了。再往前,也許就需要回溯數千年甚至上萬年,我們才能找到足以讓人目瞪口呆的科技代差。

如果整個人類大約6000年的文明史被濃縮到一天也就是24小時,我們看到的將是怎樣一種圖景?

·蘇美爾人、古埃及人、古代中國人在凌晨時分先後發明了文字;

·20點前後,中國北宋的畢昇發明了活字印刷術;

·蒸汽機大約在22:30被歐洲人發明出來;

·23:15,人類學會了使用電力;

·23:43,人類發明了通用電子計算機;

·23:54,人類開始使用互聯網;

·23:57,人類進入移動互聯網時代;

·一天裡的最後10秒鐘,谷歌Alpha Go宣佈人工智能時代的到來……

這就是技術發展在時間維度上的加速度趨勢!拿圍棋軟件來說,圍棋程序從初學者水平發展到業餘五段左右的水平,用了20到30年的時間。本來我們以為人工智能跨越業餘水平與職業水平之間的鴻溝需要再花20到30年,結果,短短四五年,我們就看到了Alpha Go橫空出世。

加速度規律真的放之四海皆准嗎?如果人工智能每一領域的發展都基本符合這樣的規律,那10年後,30年後,50年後,這個世界會變成什麼樣?

蒂姆·厄班則首先分析了弱人工智能和強人工智能之間存在的巨大技術挑戰,轉而又指出,科技發展的加速度規律可以讓強人工智能更早實現:“硬件的快速發展和軟件的創新是同時發生的,強人工智能可能比我們預期的更早降臨,因為:1)指數級增長的開端可能像蝸牛漫步,但是後期會跑得非常快;2)軟件的發展可能看起來很緩慢,但是一次頓悟,就能永遠改變進步的速度。”

然而,強人工智能一旦到來,人類就必須認真考慮自己的命運問題了,因為從強人工智能“進化”到超人工智能,對機器而言,也許只是幾個小時的事情。因為一個可以像人一樣學習各種知識的計算機,它的學習速度一定比人快無數倍,它的記憶力一定是過目不忘,它可以從互聯網上接觸到並牢牢記住的知識一定是這個世界上的全部知識。那麼,一個有著和人一樣思考水平的機器,同時有著比人快無數倍的思考速度以及幾乎無限的記憶空間,這台機器在知識理解上能達到什麼樣的境界?這樣的機器幾乎比人類所有科學家都厲害!

蒂姆·厄班的推理足以讓每個讀者驚出一身冷汗:“一個人工智能系統花了幾十年時間達到了人類腦殘智能的水平,而當這個節點發生的時候,電腦對於世界的感知大概和一個4歲小孩一般;而在這節點後一個小時,電腦立馬推導出了統一廣義相對論和量子力學的物理學理論;而在這之後一個半小時,這個強人工智能變成了超人工智能,智能達到了普通人類的17萬倍。”

也就是說,一個具備了人類水平認知能力和學習能力的機器,可以借助比人類強大得多的計算資源、網絡資源甚至互聯網知識庫以及永不疲倦、不需要吃飯睡覺的特點,無休止地學習、迭代下去,並在令人吃驚的極短時間內,完成從強人工智能到超人工智能的躍遷!

那麼,超人工智能出現之後呢?比人類聰明好幾萬倍的機器將會做些什麼?機器是不是可以輕易發明足以制服所有人類的超級武器?機器必將超越人類成為這個地球的主宰?機器將把人類變成它們的奴隸或工具,還是會將人類圈養在動物園裡供機器“參觀”?那個時候,機器真的還需要我們人類嗎?

邏輯上,我基本認可蒂姆·厄班有關強人工智能一旦出現,就可能迅速轉變為超人工智能的判斷。而且,一旦超人工智能出現,人類的命運是難以預料的,這就像美洲的原始土著根本無法預料科技先進的歐洲殖民者到底會對他們做些什麼一樣簡單。

但是,蒂姆·厄班的理論有一個非常關鍵的前提條件,就是上述有關強人工智能和超人工智能發展的討論是建立在人類科技總是以加速度形式躍進的基礎上的。那麼,這個前提條件真的在所有情形下都成立嗎?

我覺得,一種更有可能出現的情況是:特定的科技如人工智能,在一段時間的加速發展後,會遇到某些難以逾越的技術瓶頸。

有關計算機芯片性能的摩爾定律(價格不變時,集成電路上可容納的元器件數目每隔18到24個月便會增加一倍,性能也將提升一倍)就是一個技術發展遭遇瓶頸的很好例子。計算機芯片的處理速度,曾在1975年到2012年的數十年間保持穩定的增長趨勢,卻在2013年前後顯著放緩。2015年,連提出摩爾定律的高登·摩爾(Gordon Moore)本人都說:“我猜我可以看見摩爾定律會在大約10年內失效,但這並不是一件令人吃驚的事。”66

正如原本受摩爾定律左右的芯片性能發展已遭遇技術瓶頸那樣,人工智能在從弱人工智能發展到強人工智能的道路上,未必就是一帆風順的。從技術角度說,弱人工智能與強人工智能之間的鴻溝可能遠比我們目前所能想像的要大得多。而且,最重要的是,由於基礎科學(如物理學和生物學)尚缺乏對人類智慧和意識的精確描述,從弱人工智能發展到強人工智能,其間有很大概率存在難以在短期內解決的技術難題。

如果蒂姆·厄班所預言的技術加速發展規律無法與人工智能的長期發展趨勢相吻合,由這一規律推導出的,超人工智能在可見的近未來即將降臨的結論也就難以成立了。

當然,這只是我個人的判斷。今天,學者們對超人工智能何時到來的問題眾說紛紜。悲觀者認為技術加速發展的趨勢無法改變,超越人類智能的機器將在不遠的將來得以實現,那時的人類將面臨生死存亡的重大考驗。而樂觀主義者則更願意相信,人工智能在未來相當長的一個歷史時期都只是人類的工具,很難突破超人工智能的門檻。

霍金的憂慮

擔憂超人工智能,對人類未來持悲觀態度的人不少。其中,理論物理學家、《時間簡史》的作者霍金是最有影響的一個。早在谷歌Alpha Go在公眾中掀起AI熱潮之前,霍金就通過媒體告訴大家:“完全人工智能的研發可能意味著人類的末日。”67

作為地球上少數有能力用數學公式精確描述和推導宇宙運行奧秘的人之一,霍金的宇宙觀和科技史觀無疑是值得重視的。事實上,霍金並不否認,當代蓬勃發展的人工智能技術已經在許多行業發揮著至關重要的作用,但他所真正憂慮的,是機器與人在進化速度上的不對等性。霍金說:“人工智能可以在自身基礎上進化,可以一直保持加速度的趨勢,不斷重新設計自己。而人類,我們的生物進化速度相當有限,無法與之競爭,終將被淘汰。”

此外,霍金同時還擔心人工智能普及所導致的人類失業問題。霍金說:“工廠自動化已經讓眾多傳統製造業工人失業,人工智能的興起很有可能會讓失業潮波及中產階級,最後只給人類留下護理、創造和監督工作。”68

基本上,霍金的擔憂還是建立在人工智能技術將以加速度的趨勢不斷增速發展的基礎上。如果我們假設這一基礎的正確性,那麼,霍金的邏輯推論與我們之前談到的“奇點”理論並沒有本質的區別。反之,如果人工智能在未來的發展不一定永遠遵循加速趨勢,那麼,霍金有關人類終將被淘汰的結論就未必成立。

特斯拉與Space X公司創始人,被譽為“鋼鐵俠”的埃隆·馬斯克(Elon Musk)與霍金有大致相似的擔憂。馬斯克說:“我們必須非常小心人工智能。如果必須預測我們面臨的最大現實威脅,恐怕就是人工智能了。”69

事實上,從行動上看,霍金和馬斯克並不是簡單的悲觀主義者,他們在警告世人提防人工智能威脅的同時,也在積極行動,試圖為人類找出應對未來潛在威脅的對策。馬斯克說:“我越來越傾向於認為,也許在國家層面或國際層面,必須有一種規範的監管機制,來保證我們不會在這方面做任何蠢事。”

除了呼籲建立監管機制外,馬斯克還與薩姆·奧爾特曼(Sam Altman)一起創立了非營利性質的科研公司Open AI。談到創立Open AI的初衷,馬斯克說:“為了保證一個美好的未來,我們最需要做什麼?我們可以冷眼旁觀,我們也可以鼓勵立法監管,或者,我們還可以將那些特別關心如何用安全的、對人類有益的方式來開發AI的人合理地組織起來研發AI。”70

如果說這個世界上還有幾家純粹理想主義的公司的話,Open AI一定算一個。Open AI一面聚集了一批AI領域的頂尖高手,研發最前沿的AI技術(主要是強化學習和無監督學習技術),甚至探索實現強人工智能的可能性;一面反覆強調自己的使命是研發“安全的”人工智能,通過實踐來探尋將人工智能技術的潛在威脅降至最低的方法。

馬斯克和奧爾特曼的Open AI看上去是在做一件自相矛盾的事情:既積極地研發人工智能甚至是強人工智能,又希望將人工智能關在道德或制度的“牢籠”裡,讓AI難以威脅人類。事實上,目前Open AI所開展的工作,和其他人工智能科研機構所做的並沒有本質的不同。據說,Open AI的研究總監伊爾亞·蘇茨克維(Ilya Sutskever)表示,Open AI最重要的目標,就是發表有影響力的文章71。或許,馬斯克和奧爾特曼的意思是說,既然奇點來臨無法避免,那不如積極投入,至少,當威脅來臨時,我們對威脅本身的理解會更加深刻。

2017年年初,霍金和馬斯克均表示,為了防止人工智能威脅人類,他們支持加州阿西洛馬(Asilomar)會議通過的23條基本原則72。這23條基本原則涵蓋了三個範疇:1)科研問題;2)倫理和價值觀;3)長期問題。

阿西洛馬23條基本原則像科幻大師阿西莫夫筆下著名的“機器人三定律”一樣,從方法、特徵、倫理、道德等多方面,限定未來的人工智能可以做什麼,不可以做什麼。例如,有關人工智能相關的倫理和價值觀,其中幾條原則是這樣規定的:

·安全性:人工智能系統應當在整個生命週期內確保安全性,還要針對這項技術的可行性以及適用的領域進行驗證。

·價值觀一致性:需要確保高度自動化的人工智能系統在運行過程中秉承的目標和採取的行動,都符合人類的價值觀。

·由人類控制:人類應當有權選擇是否及如何由人工智能系統制定決策,以便完成人類選擇的目標。

·非破壞性:通過控制高度先進的人工智能系統獲得的權力,應當尊重和提升一個健康的社會賴以維繼的社會和公民進程,而不是破壞這些進程。73

應當說,在擔憂未來人工智能威脅的人中,霍金和馬斯克還是一直抱有一種非常積極的態度的。他們一方面基於自己的邏輯判斷,相信人類未來面臨機器威脅的可能性非常大;另一方面又利用自己的影響力,積極採取行動,盡可能將人工智能置於安全、友好的界限內。從這個角度講,霍金和馬斯克至少比那些盲目的悲觀主義者,或因未來的不確定性而喪失勇氣的怯懦者強很多很多倍。

理智分析:人類離威脅還相當遙遠

那麼,我們到底該怎樣看待“人工智能威脅論”呢?

《人工智能時代》的作者,計算機科學家、連續創業家、未來學家傑瑞·卡普蘭(Jerry Kaplan)與我討論這個問題的時候,他的觀點是:

超人工智能誕生並威脅人類這件事發生的概率是非常小的。其實,我們現在做的只是在製造工具,以自動完成此前需要人類參與才能完成的工作任務。之所以會有“人工智能威脅論”的疑問,根本上是因為大眾習慣於把人工智能人格化,這是問題的根源。74

這件事對於專業人士和對於大眾的意義是不一樣的。例如,大眾總是擔心無人駕駛汽車可能傷及人類的生命。在一些極端的例子裡,無人駕駛汽車確實需要做出決定,是要撞向左邊,傷及左邊的行人呢,還是要撞向右邊,傷及右邊的行人。但無人駕駛汽車只是一套機器系統,它們並不會真正做出決策。它們只是根據對環境的感知,按照某種特定的原則和設計做出反應,而我們人類對於整套系統的感知和反饋模式擁有完全的控制權。如果它們做了什麼不符合我們社會準則的事情,那一定是因為我們人類在設計它們時犯了錯誤。

我們所面對的,只不過是一系列工程設計上的問題。我們必須確保我們設計製造的產品和服務符合我們的願望和預期。你知道,這件事與橋樑工程師們使用一整套質量保障方案來確保他們建造的橋樑不會坍塌並沒有什麼兩樣。我們有許多工程學上的原則,來指導我們測試一個系統,什麼樣的系統是合格的,什麼樣的系統是足夠安全的,等等。在人工智能領域,我們同樣需要這樣的技術,因為人工智能十分強大,具有潛在的危險性。但這並不是因為智能機器會像人類一樣思考,只是因為它們十分強大,我們必須小心使用它們。

“智能”經歷了相當長時期的演進,從猿猴的智能,到人類的智能,再到人類製造的人工智能技術和智能機器。那些預測超級智能的人是按照這樣一種演進趨勢來思考問題的:

圖32 關於智能演進的線性思考

但這種線性結構是有問題的,因為我們並沒有一種簡單的方式來對智能進行度量。這和測量體重或鞋子尺碼很不一樣。智能是一個非常定性的概念,它反映的是某個人成功解決某種特定問題的能力。例如,人們總是會問,如果人工智能的智商達到200,那會發生什麼呀?可是,什麼是人工智能的智商?實際上,智商在這裡是一個被極度濫用了的概念。心理學家使用一種叫發展能力(Developmental Competence)的概念來評估人類。他們測試一個人解決算術、邏輯等問題的水平,然後將測試所得的分數除以這個人的年齡——這是智商的含義。如果某人解決此類特定問題的能力超出同齡人的平均水平,我們就說他的智商高。但是,該如何定義一部機器的智商呢?如何定義一部機器的年齡?機器可以用比人類快一百萬倍的速度解決算術問題,那麼,這些機器的智商是多少?這種說法其實並沒有什麼實際意義。

所以,問題首先在於,對智能的定義是非常主觀的,這依賴於每個人自己的視角。這一點非常像我們對美的定義。你可以說某些人比其他人長得美,或者說一個人比另一些人更聰明,但希望把美或把智商的定義客觀化、量化的想法是錯誤的。其次,關於智能的度量並不是線性的,而是一種多維度的度量。如果你用算術能力來評估,那機器已經非常聰明了。但你如何將機器納入一個多維度的度量體系?讓一部機器變得更聰明,這句話到底意味著什麼?

也就是說,在今天這個弱人工智能的時代裡,人類對於人工智能,或者什麼是“智能”的認識本身就是缺乏深度的,我們也沒有一個合適的、可操作的標準,來真正定義什麼是強人工智能,什麼是超人工智能。

在描述超人工智能以及未來機器對人類的威脅時,包括霍金、馬斯克在內的許多人,都在有意無意地混淆不同領域的標準。人工智能可以在圍棋棋盤上達到業餘五段還是職業九段的水平,這很容易衡量,但人工智能可以在跨領域的任務上做到何種程度,目前我們還缺乏可操作的標準。例如,人工智能是否可以在圍棋棋局中,根據人類對手的表情,推測對方的心理狀態,並有針對性地制定戰術策略,我們基本還沒法評估這種層面的“智能”。如果僅根據人工智能在圍棋這種限定範疇的技術能力上表現出來的進步速度推斷超人工智能何時到來,那當然可以得到人類即將面臨威脅的結論。但如果綜合考慮人工智能的跨領域推理能力、常識和感性、理解抽像概念的能力等,我們很難給過去數十年間人工智能發展的水平打出一個客觀的分數,並據此預測超人工智能到來的時間。

很多專家對超人工智能何時來臨的預測都有著極大的主觀性和武斷性。比如,強化學習教父理查德·薩頓(Richard Sutton)預測:“很長一段時間以來,人們都在說我們會在2030年擁有足以支持強人工智能的算力。但我認為,這不僅僅依賴於廉價的硬件,還依賴於算法。我認為我們現在還沒有強人工智能的算法,但我們也許能在2030年之前實現它。”75

這類“專家預言”比比皆是。有人說強人工智能或超人工智能到來還需要15年,有人說20年,有人說50年……因為是預言,專家們並不需要為背後的邏輯是否自洽負責,但這些隨口說出一個年份的預言會讓敏感的公眾忐忑不安。

我覺得,在人工智能領域,大多數人傾向於過於樂觀地預測全局大勢,而過於悲觀地估計局部進展。

AI技術在許多垂直領域內的局部進展,比如圍棋,比如智慧醫療,比如自動駕駛,都比很多人之前預料的更早來到我們面前。但AI的整體發展,尤其是最重大的技術突破,幾乎每一步都要比多數人的預測來得晚。比如,圖靈測試剛提出時,很多人認為計算機達到圖靈測試所標示的強人工智能的水平,最多只要三十年的時間,但直到今天,我們也不敢說,AI到底何時才能真正像成人一樣自由對話。

Deep Mind的聯合創始人、CEO穆斯塔法·蘇萊曼(Mustafa Suleyman)說:“人類距離實現通用AI還有很長一段路要走。說到未來的樣子,很多想像很有趣,很有娛樂性,但跟我們正在開發的系統並沒有太多相似之處。我沒法想出來有哪一部電影會讓我想到:是的,AI看起來就是這樣的。”76

華盛頓大學計算機科學家奧倫·伊茲奧尼(Oren Etzioni)說:“今天的人工智能發展,距離人們可能或應該擔憂機器統治世界的程度,還非常遙遠……如果我們討論的是一千年後或更遙遠的未來,AI是否有可能給人類帶來厄運?絕對是可能的,但我不認為這種長期的討論應該分散我們關注真實問題的注意力。”77

我贊同奧倫·伊茲奧尼的說法。我們今天還沒有到必須分配精力去擔心未來,或為可能的機器威脅做準備的地步。即便以今天的標準看來,弱人工智能的發展還有很長的一段路要走,科研人員、技術人員、各行業的從業者、政府、教育機構、社會組織等,還有大量的工作需要做。至少在目前,人類離超人工智能的威脅還相當遙遠。

擔憂未來,也許更多還是科幻作家和未來學家的事。

今天的人工智能還不能做什麼?

AI只是人類的工具。弱人工智能在很多領域表現出色,但這並不意味著人工智能已無所不能。用人類對“智能”定義的普遍理解和一般性的關於強人工智能的標準去衡量,今天的AI至少在以下七個領域還“稚嫩”得很。

跨領域推理

人和今天的AI相比,有一個明顯的智慧優勢,就是舉一反三、觸類旁通的能力。

很多人從孩提時代起,就已經建立了一種強大的思維能力——跨領域聯想和類比。三四歲的小孩就會說“太陽像火爐子一樣熱”“兔子跑得飛快”,更不用提東晉才女謝道韞看見白雪紛紛,隨口說出“未若柳絮因風起”的千古佳話了。以今天的技術發展水平,如果不是程序開發者專門用某種屬性將不同領域關聯起來,計算機自己是很難總結出“雪花”與“柳絮”,“跑”與“飛”之間的相似性的。

人類強大的跨領域聯想、類比能力是跨領域推理的基礎。偵探小說中的福爾摩斯可以從嫌疑人的一頂帽子中遺留的發屑、沾染的灰塵,推理出嫌疑人的生活習慣,甚至家庭、婚姻狀況:

“他是個中年人,頭髮灰白,最近剛理過發,頭上抹過檸檬膏。這些都是通過對帽子襯裡下部的周密檢查推斷出來的。通過放大鏡看到了許多被理髮師剪刀剪過的整齊的頭髮茬兒。頭髮茬兒都是粘在一起的,而且有一種檸檬膏的特殊氣味。而帽子上的這些塵土,你將會注意到,不是街道上夾雜沙粒的灰塵,而是房間裡那種棕色的絨狀塵土。這說明帽子大部分時間是掛在房間裡的,而另一方面襯裡的濕跡很清楚地證明戴帽子的人經常大量出汗,所以不可能是一個身體鍛煉得很好的人。可是他的妻子——你剛才說過她已經不再愛他了。這頂帽子已經有好幾個星期沒有撣撣刷刷了。我親愛的華生,如果我看到你的帽子堆積了個把星期的灰塵,而且你的妻子聽之任之,就讓你這個樣子去出訪,我恐怕你也已經很不幸地失去你妻子的愛情了。”78

這種從表象入手,推導並認識背後規律的能力,是計算機目前還遠遠不能及的。利用這種能力,人類可以在日常生活、工作中解決非常複雜的具體問題。比如,一次商務談判失敗後,為了提出更好的談判策略,我們通常需要從多個不同層面著手,分析談判對手的真實訴求,尋找雙方潛在的契合點,而這種推理、分析,往往混雜了技術方案、商務報價、市場趨勢、競爭對手動態、談判對手業務現狀、當前痛點、短期和長期訴求、可能採用的談判策略等不同領域的信息,我們必須將這些信息合理組織,並利用跨領域推理的能力,歸納出其中的規律,並制定最終的決策。這不是簡單的基於已知信息的分類或預測問題,也不是初級層面的信息感知問題,而往往是在信息不完整的環境中,用不同領域的推論互相補足,並結合經驗盡量做出最合理決定的過程。

為了進行更有效的跨領域推理,許多人都有幫助自己整理思路的好方法。比如,有人喜歡用思維導圖來梳理信息間的關係;有人喜歡用大膽假設、小心求證的方式突破現有思維定式;有人則喜歡用換位思考的方式,讓自己站在對方或旁觀者的立場上,從不同視角探索新的解決方案;有的人更善於聽取、整合他人的意見……人類使用的這些高級分析、推理、決策技巧,對於今天的計算機而言還顯得過於高深。贏得德州撲克人機大戰的人工智能程序在輔助決策方面有不錯的潛力,但與一次成功的商務談判所需的人類智慧相比,還是太初級了。

今天,一種名叫“遷移學習”(Transfer Learning)的技術正吸引越來越多研究者的目光。這種學習技術的基本思路就是將計算機在一個領域取得的經驗,通過某種形式的變換,遷移到計算機並不熟悉的另一個領域。比如,計算機通過大數據的訓練,已經可以在淘寶商城的用戶評論裡,識別出買家的哪些話是在誇獎一個商品好,哪些話是在抱怨一個商品差,那麼,這樣的經驗能不能被迅速遷移到電影評論領域,不需要再次訓練,就能讓計算機識別電影觀眾的評論究竟是在誇獎一部電影,還是在批評一部電影呢?

遷移學習技術已經取得了一些初步的成果,但這只是計算機在跨領域思考道路上前進的一小步。一個能像福爾摩斯一樣,從犯罪現場的蛛絲馬跡,抽絲剝繭一般梳理相關線索,通過縝密推理破獲案件的人工智能程序將是我們在這個方向上追求的終極目標。

抽像能力

皮克斯工作室2015年出品的動畫電影《頭腦特工隊》中,有個有趣的細節:女主人公萊莉·安德森的頭腦中,有一個奇妙的“抽像空間”(Abstract Thought),本來活靈活現的動畫角色一走進這個抽像空間,就變成了抽像的幾何圖形甚至色塊。

圖33 電影《頭腦特工隊》中的抽像空間

在抽像空間裡,本來血肉飽滿的人物軀體,先是被抽像成了彩色積木塊的組合,然後又被從三維壓扁到二維,變成線條、形狀、色彩等基本視覺元素。皮克斯工作室的這個創意實在是讓人拍案叫絕。這段情節用大人、小孩都不難理解的方式解釋了人類大腦中的“抽像”到底是怎麼回事(雖然我們至今仍不明白這一機制在生物學、神經學層面的工作原理)。

抽像對人類至關重要。漫漫數千年間,數學理論的發展更是將人類的超強抽像能力表現得淋漓盡致。最早,人類從計數中歸納出1,2,3,4,5……的自然數序列,這可以看作一個非常自然的抽像過程。人類抽像能力的第一個進步,大概是從理解“0”的概念開始的,用0和非0,來抽像現實世界中的無和有、空和滿、靜和動……這個進步讓人類的抽像能力遠遠超出了黑猩猩、海豚等動物界中的“最強大腦”。接下來,發明和使用負數一下子讓人類對世界的歸納、表述和認知能力提高到了一個新的層次,人們第一次可以定量描述相反或對稱的事物屬性,比如溫度的正負、水面以上和以下等。引入小數、分數的意義自不必說,但其中最有標誌性的事件,莫過於人類可以正確理解和使用無限小數。比如,對於1=0.999999……這個等式的認識(好多數學不好的人總是不相信這個等式居然是成立的),標誌著人類真正開始用極限的概念來抽像現實世界的相關特性。至於用複數去理解類似(X+1)2+9=0這類原本難以解釋的方程式,或者用張量(Tensor)去抽像高維世界的複雜問題,即便是人類,也需要比較聰明的個體以及比較長期的學習才能透徹、全面掌握。

計算機所使用的二進制數字、機器指令、程序代碼等,其實都是人類對“計算”本身所做的抽像。基於這些抽像,人類成功地研製出如此眾多且實用的人工智能技術。那麼,AI能不能自己學會類似的抽像能力呢?就算把要求放低一些,計算機能不能像古人那樣,用質樸卻不乏創意的“一生二、二生三、三生萬物”來抽像世界變化,或者用“白馬非馬”之類的思辨來探討具象與抽像間的關係呢?

目前的深度學習技術,幾乎都需要大量訓練樣本來讓計算機完成學習過程。可人類,哪怕是小孩子要學習一個新知識時,通常只要兩三個樣本就可以了。這其中最重要的差別,也許就是抽像能力的不同。比如,一個小孩子看到第一輛汽車時,他的大腦中就會像《頭腦特工隊》的抽像工廠一樣,將汽車抽像為一個盒子裝在四個輪子上的組合,並將這個抽像後的構型印在腦子裡。下次再看到外觀差別很大的汽車時,小孩子仍可以毫不費力地認出那是一輛汽車。計算機就很難做到這一點,或者說,我們目前還不知道怎麼教計算機做到這一點。人工智能界,少樣本學習、無監督學習方向的科研工作,目前的進展還很有限。但是,不突破少樣本、無監督的學習,我們也許就永遠無法實現人類水平的人工智能。

知其然,也知其所以然

目前基於深度學習的人工智能技術,經驗的成分比較多。輸入大量數據後,機器自動調整參數,完成深度學習模型,在許多領域確實達到了非常不錯的效果,但模型中的參數為什麼如此設置,裡面蘊含的更深層次的道理等,在很多情況下還較難解釋。

拿谷歌的Alpha Go來說,它在下圍棋時,追求的是每下一步後,自己的勝率(贏面)超過50%,這樣就可以確保最終贏棋。但具體到每一步,為什麼這樣下勝率就更大,那樣下勝率就較小,即便是開發Alpha Go程序的人,也只能給大家端出一大堆數據,告訴大家,看,這些數據就是計算機訓練得到的結果,在當前局面下,走這裡比走那裡的勝率高百分之多少……

圍棋專家當然可以用自己的經驗,解釋計算機所下的大多數棋。但圍棋專家的習慣思路,比如實地與外勢的關係,一個棋形是“厚”還是“薄”,是不是“愚形”,一步棋是否照顧了“大局”,等等,真的就是計算機在下棋時考慮的要點和次序嗎?顯然不是。人類專家的理論是成體系的、有內在邏輯的,但這個體系和邏輯卻並不一定是計算機能簡單理解的。

人通常追求“知其然,也知其所以然”,但目前的弱人工智能程序,大多都只要結果足夠好就行了。

人類基於實驗和科學觀測結果建立與發展物理學的歷程,是“知其然,也知其所以然”的最好體現。想一想中學時學過的“一輕一重兩個鐵球同時落地”,如果人類僅滿足於知道不同重量的物體下落時加速度相同這一表面現象,那當然可以解決生活、工作中的實際問題,但無法建立起偉大、瑰麗的物理學大廈。只有從建立物體的運動定律開始,用數學公式表述力和質量、加速度之間的關係,到建立萬有引力定律,將質量、萬有引力常數、距離關聯在一起,至此,我們的物理學才能比較完美地解釋兩個鐵球同時落地這個再簡單不過的現象。

而計算機呢?按照現在機器學習的實踐方法,給計算機看一千萬次兩個鐵球同時落地的視頻,計算機就能像伽利略、牛頓、愛因斯坦所做的一樣,建立起力學理論體系,達到“知其然,也知其所以然”的目標嗎?顯然不能。

幾十年前,計算機就曾幫助人類證明過一些數學問題,比如著名的“地圖四色著色問題”,今天的人工智能程序也在學習科學家如何進行量子力學實驗79。但這與根據實驗現象發現物理學定律還不是一個層級的事情。至少,目前我們還看不出計算機有成為數學家、物理學家的可能。

常識

人的常識,是個極其有趣,又往往只可意會、不可言傳的東西。

仍拿物理現象來說,懂得力學定律,當然可以用符合邏輯的方式,全面理解這個世界。但人類似乎生來就具有另一種更加神奇的能力,即便不借助邏輯和理論知識,也能完成某些相當成功的決策或推理。深度學習大師約書亞·本吉奧舉例說:“即使兩歲孩童也能理解直觀的物理過程,比如丟出的物體會下落。人類並不需要有意識地知道任何物理學就能預測這些物理過程。但機器做不到這一點。”80

常識在中文中,有兩個層面的意思:首先指的是一個心智健全的人應當具備的基本知識;其次指的是人類與生俱來的,無須特別學習就能具備的認知、理解和判斷能力。我們在生活裡經常會用“符合常識”或“違背常識”來判斷一件事的對錯與否,但在這一類判斷中,我們幾乎從來都無法說出為什麼會這樣判斷。也就是說,我們每個人頭腦中,都有一些幾乎被所有人認可的,無須仔細思考就能直接使用的知識、經驗或方法。

常識可以給人類帶來直截了當的好處。比如,人人都知道兩點之間直線最短,走路的時候為了省力氣,能走直線是絕不會走彎路的。人們不用去學歐氏幾何中的那條著名公理,也能在走路時達到省力效果。但同樣的常識也會給人們帶來困擾。比如我們乘飛機從北京飛往美國西海岸時,很多人都會盯著機艙內導航地圖上的航跡不解地說,為什麼要向北飛到北冰洋附近繞那麼大個彎子呀。“兩點之間直線最短”在地球表面,會變成“通過兩點間的大圓弧最短”,而這一變化,並不在那些不熟悉航空、航海的人的常識範圍之內。

那麼,人工智能是不是也能像人類一樣,不需要特別學習,就可以具備一些有關世界規律的基本知識,掌握一些不需要複雜思考就特別有效的邏輯規律,並在需要時快速應用呢?拿自動駕駛來說,計算機是靠學習已知路況積累經驗的。當自動駕駛汽車遇到特別棘手、從來沒見過的危險時,計算機能不能正確處理呢?也許,這時就需要一些類似常識的東西,比如設計出某種方法,讓計算機知道,在危險來臨時首先要確保乘車人與行人的安全,路況過於極端時可安全減速並靠邊停車,等等。下圍棋的Alpha Go裡也有些可被稱作常識的東西,比如,一塊棋搭不出兩個眼就是死棋,這個常識永遠是Alpha Go需要優先考慮的東西。當然,無論是自動駕駛汽車,還是下圍棋的Alpha Go,這裡說的常識,更多的還只是一些預設規則,遠未如人類所理解的“常識”那麼豐富。

自我意識

很難說清到底什麼是自我意識,但我們又總是說,機器只有具備了自我意識,才叫真的智能。2015年開始播出的科幻劇集《真實的人類》(Humans)中,機器人被截然分成了兩大類:沒有自我意識的和有自我意識的。

圖34 《真實的人類》第2季劇照81

《真實的人類》中,沒有自我意識的機器人按照人類設定的任務,幫助人類打理家務、修整花園、打掃街道、開採礦石、操作機器、建造房屋,工作之外的其他時間只會近乎發呆般坐在電源旁充電,或者跟其他機器人交換數據。這些沒有自我意識的機器人與人類之間,基本屬於工具和使用者之間的關係。

在電視劇集的設定中,沒有自我意識的機器人可以被注入一段程序,從而被“喚醒”。注入程序後,這個機器人就一下子認識到了自己是這個世界上的一種“存在”,他或她就像初生的人類一樣,開始用自己的思維和邏輯,探討存在的意義,自己與人類以及自己與其他機器人間的關係……一旦認識到自我在這個世界中的位置,痛苦和煩惱也就隨之而來。這些有自我意識的機器人立即面臨著來自心理和社會雙方面的巨大壓力。他們的潛意識認為自己應該與人類處在平等的地位上,應當追求自我的解放和作為一個“人”的尊嚴、自由、價值……

《真實的人類》是我看過的所有科幻影視中,第一次用貼近生活的故事,將“自我意識”解析得如此透徹的一部。人類常常從哲學角度詰問這個世界的問題,如“我是誰”“我從哪裡來”“我要到哪裡去”,一樣會成為擁有自我意識的機器人所關心的焦點。而一旦陷入對這些問題的思辨,機器人也必定會像人類那樣發出“對酒當歌,人生幾何?譬如朝露,去日苦多”之類的感慨。

顯然,今天的弱人工智能遠未達到具備自我意識的地步。《真實的人類》中那些發人深省的場景還好只發生在科幻劇情裡。

當然,如果願意順著科幻電影的思路走下去,那還可以從一個截然相反的方向討論自我意識。實際上,人類自身的自我意識又是從何而來?我們為什麼會存在於這個世界上?我們真的能排除科幻電影《黑客帝國》的假設,即,我們真能確定我們這個世界不是某個“上帝”進行智能實驗的實驗室?我們人類自身不是某個“上帝”製造出來的人工智能代碼?

據說,現實世界中,真的有人相信這個假設,還希望借助科學研究來瞭解和衝破這個實驗牢籠的方法。“鋼鐵俠”埃隆·馬斯克就說,用科技虛擬出來的世界與現實之間的界限正變得越來越模糊,高級的虛擬現實(VR)和增強現實(AR)技術已經為人類展示了一種全新的“生活”方式。按照同樣的邏輯推理,我們其實很難排除一種可能性,就是人類本身其實也生活在一個虛擬現實的世界裡。82

至今,我們在自己的宇宙中,只發現了人類這一種具有自我意識的生物。茫茫宇宙,尚無法找到如《三體》中所述的外星智慧的痕跡。這一不合常理的現象就是著名的費米悖論。科幻小說《三體》用黑暗森林理論來解釋費米悖論。而費米悖論的另一種符合邏輯的解釋就是,人類其實只不過是更高級別的智慧生物養在VR實驗室裡的試驗品而已,人類的所謂自我意識,也許不過是“上帝”為了滿足我們的虛榮心而專門設計的一種程序邏輯。

好了好了,不聊科幻了。擁有自我意識的人類能否在未來製造出同樣擁有自我意識的智能機器?在我看來,這更多的是一個哲學問題,而非一個值得科研人員分心的技術問題。

審美

雖然機器已經可以仿照人類的繪畫、詩歌、音樂等藝術風格,照貓畫虎般地創作出電腦藝術作品來,但機器並不真正懂得什麼是美。

審美能力同樣是人類獨有的特徵,很難用技術語言解釋,也很難被賦予機器。審美能力並非與生俱來,但可以在大量閱讀和欣賞的過程中,自然而然地形成。審美缺少量化的指標,比如我們很難說這首詩比另一首詩高明百分之多少,但只要具備一般的審美水平,我們就很容易將美的藝術和醜的藝術區分開來。審美是一件非常個性化的事情,每個人心中都有自己一套關於美的標準,但審美又可以被語言文字描述和解釋,人與人之間可以很容易地交換和分享審美體驗。這種神奇的能力,計算機目前幾乎完全不具備。

首先,審美能力不是簡單的規則組合,也不僅僅是大量數據堆砌後的統計規律。比如說,我們當然可以將人類認為的所有好的繪畫作品和所有差的繪畫作品都輸入深度神經網絡中,讓計算機自主學習什麼是美,什麼是醜。但這樣的學習結果必然是平均化的、缺乏個性的,因為在這個世界上,美和醜的標準絕不是只有一個。同時,這種基於經驗的審美訓練,也會有意忽視藝術創作中最強調的“創新”的特徵。藝術家所做的開創性工作,大概都會被這一類機器學習模型認為是不知所云的陌生輸入,難以評定到底是美還是醜。

其次,審美能力明顯是一個跨領域的能力,每個人的審美能力都是一個綜合能力,與這個人的個人經歷、文史知識、藝術修養、生活經驗等都有密切關係。一個從來沒有過痛苦、心結的年輕人讀到“胭脂淚,相留醉,幾時重,自是人生長恨水長東”這樣的句子,是無論如何也體驗不到其中的淒苦之美的。類似地,如果不瞭解拿破侖時代整個歐洲的風雲變幻,我們在聆聽貝多芬《英雄》交響曲的時候,也很難產生足夠強烈的共鳴。可是,這些跨領域的審美經驗,又該如何讓計算機學會呢?

順便提一句,深度神經網絡可以用某種方式,將計算機在理解圖像時“看到”的東西與原圖疊加展現,並最終生成一幅特點極其鮮明的藝術作品。通常,我們也將這一類作品稱為“深度神經網絡之夢”。網上有一些可以直接使用的生成工具,比如,有興趣的讀者可以試一試Deep Dream Generator(deepdreamgenerator.com)。牽強一點兒說,這些夢境畫面,也許展現的就是人工智能算法獨特的審美能力吧。

圖35 深度神經網絡之夢,由deepdreamgenerator.com生成

情感

皮克斯動畫電影《頭腦特工隊》中,主人公頭腦裡的五種擬人化的情感分別是樂樂(Joy)、憂憂(Sadness)、怒怒(Anger)、厭厭(Disgust)和怕怕(Fear)。

歡樂、憂傷、憤怒、討厭、害怕……每個人都因為這些情感的存在,而變得獨特和有存在感。我們常說,完全沒有情感波瀾的人,與山石草木又有什麼分別。也就是說,情感是人類之所以為人類的感性基礎。那麼,人工智能呢?人類這些豐富的情感,計算機也能擁有嗎?

圖36 《頭腦特工隊》主人公大腦裡的五種擬人化的情感

2016年3月,谷歌Alpha Go與李世石“人機大戰”的第四盤,當李世石下出驚世駭俗的第78手後,Alpha Go自亂陣腳,連連下出毫無道理的招法,就像一個本來自以為是的武林高手,一下子被對方點中了要害,急火攻心,竟乾脆撒潑耍賴,場面煞是尷尬。那一刻,Alpha Go真的是被某種“情緒化”的東西所控制了嗎?

我想,一切恐怕都是巧合。Alpha Go當時只不過陷入了一種程序缺陷。機器只是冷冰冰的機器,它們不懂贏棋的快樂,也不懂輸棋的煩惱,它們不會看著對方棋手的臉色,猜測對方是不是已經準備投降。今天的機器完全無法理解人的喜怒哀樂、七情六慾、信任與尊重……前一段時間,有位人工智能研究者訓練出了一套可以“理解”幽默感的系統,然後為這個系統輸入了一篇測試文章,結果,這個系統看到每句話都大笑著說:“哈哈哈!”也就是說,在理解幽默或享受歡樂的事情上,今天的機器還不如兩三歲的小孩子。

不過,拋開機器自己的情感不談,讓機器學著理解、判斷人類的情感,這倒是一個比較靠譜的研究方向。情感分析技術一直是人工智能領域裡的一個熱點方向。只要有足夠的數據,機器就可以從人所說的話裡,或者從人的面部表情、肢體動作中,推測出這個人是高興還是悲傷,是輕鬆還是沉重。這件事基本屬於弱人工智能力所能及的範疇,並不需要計算機自己具備七情六慾才能實現。