讀古今文學網 > 人機平台:商業未來行動路線圖 > 02 最像人腦的機器 >

02 最像人腦的機器

我相信到20世紀末,詞彙的用法和一般教育理念會發生很大改變,因此那時將可以談論機器思維而不再怕造成矛盾了。

艾倫·圖靈(Alan Turing),1950年

我們剛剛開發數字化電腦時,就嘗試讓它們像我們一樣思考。從一開始就顯而易見的是,電腦對於進行常規數學計算非常有用,但這並不稀罕。畢竟,人類一直在開發計算的機器,遠在公元元年之前,就有了日本和巴比倫的算盤,以及神秘的希臘安提凱希拉機械裝置。[1]

令人耳目一新的是新式數字化電腦的編程能力,也就是讓它們執行任意複雜的指令。[2] 正如我們在前一章所看到的那樣,電腦程序是執行算法的理想選擇,它們是用於完成任務的精確的、按部就班的指令。但許多學科領域中的卓越思想家很快就開始嘗試讓這種新機器做更多事情,而不僅僅是「蕭規曹隨」。這些先驅想要創建一個自主的軟硬件組合,換句話說,它可以和人類一樣進行推理,從而變成人工智能。

分叉的人工智能

達特茅斯學院的數學教授約翰·麥卡錫(John McCarthy)將人工智能定義為「製造智能機器的科學與工程」。他於1956年在校園舉辦了第一次專題研討會。幾年之後,該領域最大、最為持久的爭論開始了。要瞭解它本身及其重要性,我們可以考慮小孩子學習語言的方式與大多數成年人學習第二種語言的方式之間的區別。

本質上,孩子們通過傾聽學習一門語言。他們聽周圍的人說話,吸收一些組成語言的詞語和規則,然後在某個時間開始說出自己的話。他們說錯時得到反饋和糾正,最終,他們變得善於處理用人的口吻說話這麼一件困難的事情。

成人學習者則知道這件事有多難。當他們開始掌握第二種語言時,馬上會面對一堆規則:把代詞放在句子的什麼地方,用什麼介詞,動詞如何變化,名詞是否有性別之分,如果是的話,又有多少,如何區分主體和對象,以便我們知道是狗咬人還是人咬狗,等等。記憶詞彙很難,而使大多數成人語言學習者咬牙切齒的,是諸多複雜的、偶爾不一致的規則。

幼兒牙牙學語不需要明確的規則指導。[3] 大多數成年人不能在沒有規則的情況下學習。當然,這兩種方法有一些重疊,很多孩子最終會修語言課,而大人們也會耳熟能詳,但兩者畢竟截然不同。幼兒的大腦專門用來學習語言:他們用統計原理來辨別語言模式。[4] 例如當媽媽談論自己時,她用「I」作為主語,並把它放在一句話的開頭,她用「me」作為賓語並放在後面。大人的大腦是不同的,因此他們在學習新的語言時通常明確地學習規則。

與以上對比類似,早期的人工智能社區分為兩個陣營。一個追求所謂基於規則的,或者說符號型人工智能,[5] 另一個則建立模式識別的統計系統。前者試圖以成人學習第二語言的方式發展人工智能,後者試圖使人工智能的發展與兒童學習第一語言的方式大致相同。

一開始,符號型的方法似乎占主導地位。例如,在1956年達特茅斯會議上,艾倫·紐維爾(Allen Newell)、J. C. 肖(J. C. Shaw)和未來的諾貝爾獎得主赫伯特·西蒙(Herbert Simon)演示了他們的「邏輯理論家」程序,它使用形式邏輯的規則自動地證明數學定理。該程序證明了阿爾弗雷德·諾斯·懷特海(Alfred North Whitehead)和伯特蘭·羅素(Bertrand Russell)在數學基礎方面的里程碑之作《數學原理》(Principia Mathematica )第二章中的38個定理。事實上,關於「邏輯理論家」的一個證明比原書優美很多,引來了羅素本人的「愉快回應」。西蒙宣稱他和同事「發明了一台思維機器」。

然而,其他的挑戰使基於規則的方法捉襟見肘。語音識別、圖像分類、語言翻譯等領域的數十年研究結果並不令人滿意。這些領域取得的最好結果與人類的表現仍相距甚遠,最糟糕的結果則給人留下了很壞的印象。例如,據一本1979年的逸事集記載,研究人員對「英譯俄」翻譯程序輸入「心有餘而力不足」這句話。程序給出的俄語翻譯卻意為「威士忌不錯,但肉壞了」。也許這故事是杜撰的,但它並不誇張。作為一個群體,符號型人工智能產生的結果使人傷感困惑,以至20世紀80年代末,主要的企業和政府的研究資助來源枯竭,「人工智能的冬季」降臨在這一領域。

無解的規則

是什麼使符號型人工智能敗績纍纍呢?有兩個主要障礙。其中一個對這一領域構成了嚴重挑戰,而另一個顯然是無法逾越的。首先,簡單地說,如成人語言學習者所知,世上有很多規則,瞭解大多數規則並按規則行事通常是不夠的。相反,人必須掌握幾乎所有規則,才能有好的表現。一個語法正確率為80%的句子可能很可笑,甚至讓人完全無法理解。

規則中還有規則。例如在英文句子中,知道形容詞通常放在名詞之前是不夠的。正如馬克·福賽思(Mark Forsyth)在其《口才元素》(The Elements of Eloquence )一書中所言:「英文的形容詞絕對必須按照這個順序:意見—大小—年代—形狀—顏色—來源—材料—目的,再跟著名詞。因此,你可以有一把可愛的小的老式的長方形的綠色的法國白銀刀,但是,如果你稍稍弄錯用詞順序,聽起來就會很怪。每個說英語的人都使用這個規則,但幾乎沒人把它寫出來,這真是一件奇怪的事情。」

此外,我們所處的物質世界和精神世界做不到只服從一種規則。椅子有腿,但當它有底座或軟座,又或者它掛在天花板時則是例外。在2002年,兩名男子不能在美國結婚,但2015年他們就可以這樣做了。松鼠不能高飛,但那些滑翔飛行的除外。在英語中,否定加否定可以變成肯定,比如說「她從未不開朗」,但肯定加肯定永遠不會變成否定。是的,就是這樣。

為語言、傢俱等複雜事物的所有相關規則編碼,輸入電腦系統,然後讓系統做些有用的事,這類嘗試大多不成功。電腦科學家恩內斯特·戴維斯(Ernest Davis)和神經科學家加裡·馬庫斯寫道:「截至2014年,很少有商業化的系統在自動化常識推理方面有重大應用……還沒人造出一個令人滿意的常識推理器。」如上一章所述,常識有偏見、有錯漏,但即便如此,對於絕大多數人來說它已經做得很棒了,它引領我們通過了世上紛繁複雜的考驗。我們還沒有設計出可以瞭解世界如何實際運行、人類自己的生物系統1又如何工作的符號型數字化系統。我們的系統越來越精於狹義的人工智能,如圍棋、圖像識別等特定領域,但是我們還遠未實現DeepMind共同創始人謝恩·萊格(Shane Legg)所說的通用人工智能,即未能將智能應用於各種意想不到的問題。

又見波蘭尼悖論

戴維斯和馬庫斯討論了建立以上系統的最大障礙:「進行常識推理時,人們……借鑒的是……基本上無法自省的推理過程。」換句話說,人類經由多如牛毛的規則而駕馭自如的認知工作,其實不間斷地體現著波蘭尼悖論,也就是「我們所知的多於我們所能說的」。如第一章所述,直到最近,這一悖論使任何人都無法開發可以像人類頂尖高手一樣下圍棋的軟件。我們必須謹記這一悖論隨處可見。在很多重要的情況下,我們根本就不知道,也無法知道自己正在用什麼規則來做對某些事。

這似乎是任何自動化或人工智能的絕對障礙。如果包括人類本身在內,地球上沒有實體知道人類成就某事的規則,那麼我們又如何創建一個基於規則的系統,或者說創建任何電腦系統,然後用它來模擬這些成就?波蘭尼悖論似乎對可以自動化的人類工作類型設置了極大限制。正如我們麻省理工學院的同事、經濟學家戴維·奧托(David Autor)所說:「電腦對人的替代範圍是有限的,因為一個人能夠意會很多任務,做起來也毫不費勁兒,電腦程序和其他人卻不能確切表述相關的規則或程序。」

機器學習

人工智能研究者的另一個主要陣營——避開符號型方法的陣營,自20世紀50年代末以來一直在嘗試攻克波蘭尼悖論,其方法就是建立用小孩子學語言的方式學任務的系統,要點是經驗、重複以及獲取反饋。這些學者開創了機器學習領域,這恰恰體現了該陣營所做的事情。

以這種方式學習的首批數字化機器之一,就是美國海軍資助的「感知器」(Perceptron),它是一台思考和學習的機器,由康奈爾航空實驗室的科學家弗蘭克·羅森布拉特(Frank Rosenblatt)領銜開發。「感知器」於1957年首次亮相,其目標是能夠將看到的東西分類,例如區分狗類與貓類。為此,它被設置成有點兒像縮微版大腦的樣子。

我們大腦中的大約1 000億個神經元並沒有以任何整齊的方式排列。相反,它們是深度關聯的:典型的人類神經元從多達1萬個的相鄰神經元獲取輸入或信息,然後將輸出發送給數目大致相等的神經元。每當足夠的輸入發出足夠強的電信號時,神經元就將自己的信號發送到其所有的輸出。在這裡,「足夠」和「足夠強」的定義隨著時間的推移而變化,它們取決於反饋以及重要性,也就是神經元給予其每個輸入的權重。透過這個奇怪、複雜、不斷展開的過程,產生了記憶、技能、系統1和系統2、思想火花和認知偏見,以及其他所有的腦力活動。

「感知器」並沒有嘗試做這麼多的事情。它只想做簡單的圖像分類。這台機器有400個光電池,它們為刺激雜亂的機器大腦而隨機連接到一層人造的神經元。通過這個神經網絡的早期演示,以及羅森布拉特的自信預測,《紐約時報》在1958年報道說:「它是(海軍)所希望的電腦的胚胎,它將會走路、談話、觀看、寫作、複製自己並意識到自己的存在。」

然而,說好的突破並沒有很快到來,1969年,馬文·明斯基(Marvin Minsky)和西蒙·派珀特(Seymour Papert)發表了一篇題為「感知器:計算幾何學導論」的毀滅性評論。他們以數學方式表明,羅森布拉特的設計不能完成一些基本的分類任務。對於人工智能領域的多數人來說,這足以讓他們不僅疏遠「感知器」,而且疏遠神經網絡和一般意義上的機器學習等廣義概念。對於兩個陣營的研究人員來說,人工智能的嚴冬降臨了。

堅持總有回報

有幾個團隊繼續研究機器學習,他們仍然相信,讓電腦像人類一樣思考的正確方法,就是建立可以通過實例學習的腦啟發神經網絡。這些研究人員終於瞭解並克服了「感知器」的局限性。他們的做法結合了高深的數學、功能更強大的電腦硬件和一種實用的方法,此舉從大腦的工作方式獲得啟發,但又不受其約束。例如,電信號只能沿著大腦神經元的一個方向流動,而由保羅·沃伯斯(Paul Werbos)、傑夫·辛頓(Geoff Hinton)和揚·樂坤(Yann LeCun)等人在20世紀80年代建立的成功的機器學習系統則允許信息通過網絡向前及向後傳播。

這種「反向傳播」帶來了更好的表現,但進展仍然非常緩慢。到20世紀90年代,揚·樂坤開發的用於識別數字的機器學習系統閱讀了美國20%的所有手寫支票,但是幾乎沒有其他的現實應用。

阿爾法狗最近的勝利表明,現在的情況已經大不相同。誠然,阿爾法狗包含了對大量可能性的高效搜索,這是基於規則的人工智能系統的典型元素,但它的核心是機器學習系統。如其創建者所述,它是「一種新的電腦圍棋方法,它使用深層神經網絡,其訓練融合了與人類專家對弈的監督式學習和自我對弈的強化式學習」。

阿爾法狗遠不是一個孤立的例子。過去幾年,神經網絡處於蓬勃發展之中。它們現在是人工智能的主要類型,而且似乎有可能保持一段時間。由此,人工智能領域終於兌現了其早期的一些承諾。

為什麼有人工智能

這個蓬勃發展的局面是如何發生的?為什麼它來得如此之快,如此出人意料?通常情況下,這樣的進步匯聚了一些因素,它既是恆力所致,也是機緣使然。許多業內人士認為,其中最重要的因素是摩爾定律。神經網絡隨著規模的增加而變得更加強大、多能,而且直到最近,規模足夠大的神經網絡才變得足夠便宜,可供許多研究人員之用。

雲計算幫助預算較小的項目開啟了人工智能研究之路。技術企業家埃利奧特·特納(Elliot Turner)估計,到2016年秋天,開展前沿性機器學習項目所需的計算能力可從亞馬遜雲服務(AWS)等雲計算提供商那裡租用,成本約為1.3萬美元。奇怪的是,現代視頻遊戲的普及也大大推動了機器學習。驅動流行遊戲機的專用圖形處理器(GPU)非常適合神經網絡所需的各種計算,因此被用於大量的相關任務。人工智能研究者吳恩達(Andrew Ng)告訴我們:「前沿的研究團隊用圖形處理器做了我兩三年前無法想像的超級複雜的事情。」

對機器學習來說,與摩爾定律同等重要的是大數據,即數字化的文本、圖片、聲音、視頻、傳感器讀數等在近期的大爆發。像幼童需要聽很多詞語和句子來學習語言一樣,機器學習系統需要接觸許多實例,以便改進語音識別、圖像分類和其他任務。[6] 我們現在有了有效的、源源不斷的數據,而且隨時都在生成更多的數據。辛頓、揚·樂坤和吳恩達等人建立的系統具有非常理想的性能,其性能隨著接觸越來越多的實例而日趨改善。關於這個美妙的現象,辛頓淡定地說:「回想起來,(機器學習的成功)只是數據量和計算量的問題。」

辛頓可能過謙了。他對神經網絡的多項進展都有貢獻,其中一項甚至使研究領域改名。2006年,他與西蒙·奧辛德羅(Simon Osindero)和鄭懷宇(Yee-Whye Teh)合作發表論文《一種深度信念網絡的快速學習算法》,表明足夠強大並適當配置的神經網絡本質上可以自己學習,無須人類的培訓或監督。例如,如果閱讀了大量的手寫數字,這些網絡就可以正確地推斷10個不同的數據類型(對應於數字0到9),然後還可以準確地對其讀到的任何新的手寫數字分類,歸入其所確定的10個類別。

在機器學習領域,這種無人監督的學習仍相對少見。最成功的系統依賴於監督式學習,在其中,系統被輸入一組問題和配對的正確答案,然後被要求自己回答任何新的問題。例如,某個機器學習系統可能被輸入一大組人類演講的語音文件和相應的書面文本文件。該系統使用這組配對數據來建立神經網絡的內部關聯,使其能夠解釋新的錄音實例。由於監督和無監督的機器學習方法都使用辛頓及其同事在2006年論文中描述的算法,所以它們現在通常被統稱為深度學習系統。

演示和部署

除了揚·樂坤建立的用於識別支票上手寫數字的系統等少量案例,深度學習的商業應用其實只有幾年,但是這種技術正在以超常的速度傳播。谷歌負責該項技術的軟件工程師傑夫·迪恩(Jeff Dean)[7] 指出,截至2012年,該公司還壓根兒沒有用它來改進搜索、Gmail、YouTube及Google Maps等產品。然而到了2015年第三季度,深度學習已經用於公司大約1 200個項目之中,超過了其他方法的表現。

DeepMind在深度學習與另一種被稱為「強化學習」的技術相結合方面特別有效,[8] 它不僅將注意力和技術放到公司向客戶提供的信息產品上,而且還應用於物理世界的關鍵過程。谷歌運行著一些世界上最大的數據中心,它們是非常耗能的設施。建築物必須向多達10萬台服務器供電,同時保持冷卻。冷卻方面的挑戰更加複雜,因為設施的計算負載(服務器被要求工作的總量)因時而異,無法預測。室外的天氣也有關係,它顯然影響了建築物的冷卻方式及冷卻程度。

人通常控制著保持數據中心正確溫度的泵、冷卻器、冷卻塔和其他設備。他們監測溫度計、壓力表和其他許多傳感器,並隨時間推移決定如何最好地冷卻設施。DeepMind團隊想看看是否可以用機器學習取而代之。他們拿來多年的歷史數據,涵蓋了數據中心的計算負載、傳感器讀數以及諸如溫度和濕度之類的環境因素,然後使用這些信息訓練一組神經網絡,以此控制所有可用的冷卻設備。在某種意義上,他們把數據中心看成巨大的視頻遊戲,並指示其算法嘗試獲得更高分數,在這裡,分數意味著更好的能源效率。

有一個數據中心的實際控制權交給了這些系統,帶來立竿見影、面目一新的結果。用於冷卻的能源總量下降了40%,設施能耗(那些不直接用於信息技術設備的能源,包括輔助負載和電氣損耗)改進了大約15%。DeepMind聯合創始人穆斯塔法·蘇萊曼(Mustafa Suleyman)告訴我們,這是谷歌數據中心團隊見過的最大改進之一。

蘇萊曼還強調,DeepMind的方法具有很高的可推廣性。團隊使用的神經網絡無須為每個新的數據中心進行完全重新配置。神經網絡只需要接受盡可能詳盡的歷史數據的訓練。這種訓練是微妙而艱巨的,[9] 但回報是顯而易見的。

事實上,目前投入使用的數據中心能源管理、語音識別、圖像分類和自動翻譯等機器學習系統中,那些表現最好的系統非常相似。它們都是深度學習的變體,不因應用領域而異。這一點很重要,因為它表明這種人工智能方法可以在各個行業和經濟體中迅速擴散。新的神經網絡可以複製,幾乎可以立即擴充,並接受新數據的訓練,然後得以應用。

包括微軟、亞馬遜、谷歌和IBM在內的科技巨頭通過雲和應用程序編程接口的組合,將其內部開發的機器學習技術提供給其他公司,這些應用程序編程接口是關於軟件如何交互的基本明確的、一致的公開規則。應用程序編程接口使不同來源的代碼整合到單個應用程序變得更加容易,而雲則可以在全球範圍內按需提供該代碼。

通過這種基礎架構,機器學習有機會在全球範圍內快速而深入地進行部署。然而,由於第一章所討論的原因,我們也預期,隨著領先企業的業務流程重組和新商業模式的出現,機器學習會不均勻地傳播。它已經在一些意想不到的地方發生了。

小池真野(Makoto Koike)2015年回到父母在日本的黃瓜農場時,看到了應用機器學習的機會。他以前曾是汽車行業的硬件和軟件工程師,善於開發代碼和機械相結合的設備。小池發現自己的才能可以用在黃瓜分選工作中,這本是他母親一手包辦的活計。她根據多年的經驗將農場的所有農產品手工分為9個品級。因為農場很小,所以她能做好(日本的非穀類農場平均只有1.5公頃,面積約為一個半棒球場或兩個足球場),但這是件苦力活,在收穫旺季期間,每天要工作8個小時。

小池對阿爾法狗的模式匹配能力印象深刻,對谷歌2016年11月推出的機器學習技術包TensorFlow也非常著迷。他決定使用它們,看看能否將家庭農場的黃瓜分選工作自動化。小池之前沒有機器學習方面的經驗,但自學了如何使用TensorFlow,接著用7 000張不同等級的黃瓜圖像對系統進行了培訓。他用現成的廉價相機、電腦和硬件控制器組裝了一個全自動的評分機器,第一年運行達到了70%的準確率。幾乎可以肯定,利用更高分辨率的圖像和下一代的雲端機器學習軟件,就能實現更高的準確率,小池說:「我迫不及待地想試一把。」鑒於他和其他人的工作,我們同意谷歌公司佐籐賀(Kaz Sato)的說法:「毫不誇張地說,機器學習和深度學習的應用只受我們想像力的限制。」

直至我們寫這本書時,人工智能領域幾乎所有的商業成功例子都使用監督式學習技術,也有少數使用了強化學習技術(例如DeepMind優化的數據中心)。然而,人類學習的主要方式是無監督的學習。蹣跚學步的小孩學習日常生活中的物理,靠的是玩積木、從玻璃杯倒水、扔球、從椅子跌落等,而不是靠學習牛頓的運動定律或記住「F = ma 」之類的方程。揚·樂坤用一個蛋糕的比喻,生動地強調了無監督學習尚未觸及的廣泛而重要的內容。他說:「如果智能是一個蛋糕,那麼無監督學習就是蛋糕本身,監督式學習只是蛋糕上的糖衣,而強化學習則是蛋糕上的櫻桃。我們知道如何製作糖衣和櫻桃,但我們不知道如何製作蛋糕。」他認為,如果我們要實現通用人工智能,那麼開發更好的無監督學習算法將是至關重要的。

人腦與學習機

我們不止一次聽到,當代神經網絡的開發者不情願地將以前基於規則的方法稱為過時的「特徵工程」。許多人現在認為,那種試圖將所有相關規則納入任務,然後將它們編入電腦的方法是誤導。他們相信,建立可以自己學習規則的系統顯然更有成效。人工智能研究者的統計學陣營現在居於優勢地位,其至少兌現了該學科半個多世紀前做出的一些承諾。

在這種情況下,人腦和機器將如何融合在一起?有幾種不同的方式。一種方式是沿著保羅·米爾和湯姆·達文波特在前一章倡導的方式,將兩者結合,讓擁有常識的人類監視人工智能的決策和行為,並在發現錯誤時出手干預。這是DeepMind神經網絡接管數據中心的優化工作時所做的。人類控制員總在決策過程之中,能夠隨時接管控制。

截至目前,引進自動駕駛技術的汽車製造商也採取這種做法。它們強調,人坐在駕駛員座位既是字面所指,也是形象所在,即使啟用了自主駕駛技術,人也要負責汽車的安全運行。決策過程中總有人在,這在許多人看起來是穩健的,因為稍有不慎就會致命。2016年夏天,喬書亞·布朗(Joshua Brown)駕駛的特斯拉汽車撞在一輛卡車的拖車旁邊,他死於非命。這輛帶白色拖車的卡車當時正準備左轉,從高速公路駛入地面公路。布朗在高速公路另一邊迎著卡車行駛。特斯拉汽車在撞車之前並沒有啟動剎車,很明顯,由於迎著明亮的佛羅里達天空,布朗和汽車的攝像頭都沒有發現白色拖車。也許布朗在許多先例中看到了自動駕駛系統有效的運行能力,對它過於自信了,於是對道路的關注越來越少。

谷歌認為,人為疏忽是一直存在的問題,所以人要完全脫離駕駛的決策過程。正如該公司自動駕車項目前任主管克裡斯·烏爾森(Chris Urmson)所說:「傳統的觀念認為,我們只是採用這些駕駛員輔助系統,推動它們,並逐步改良它們,隨著時間的推移,它們會自動駕駛車輛。嗯,我在這裡告訴你,這就像我說『如果我拚命學跳高,終有一天我能飛起來』。實際上,我們需要做一些稍微不同的事情。」因此,該公司正在努力打造100%的自動駕駛汽車,它們不需要人為干預,業內稱之為「第5級自主權」。

這些汽車的能力給人留下深刻印象。正如烏爾森在2015年TED(技術、娛樂、設計)大會上所說,「我們的車輛正在駛過山景城,這就是我們所遇到的。這是一位坐在電動輪椅上的女士,她在路上繞圈追鴨子。現在,事實證明,美國車輛管理局手冊沒有告訴你如何應對這種情況,但我們的車輛能夠處理——減速,然後安全行駛」。在所有情況和條件下都可以安全駕駛的自主汽車尚未面世,但我們認為它們很快就會出現。

機器語言攻克波蘭尼悖論的能力開始被用於後台的白領工作。迄今為止,這類工作對完全自動化具有驚人的抵抗力。後台是知識性工作的一個廣泛術語,它發生在客戶的視線之外,包括採購、會計和信息技術等。如前所述,後台工作中任務量最大、標準化程度最高的元素早就被企業信息系統自動化了,但是在大多數企業中,仍然有大量的手工作業。

把這些工作部分自動化的一種方法,就是向從事這些工作的人詢問他們使用什麼規則、這些規則有什麼例外、什麼時候會改用不同的規則或指南,等等。然而,通過面談抽取知識的過程耗時甚多,會使人沒法幹活,而且也可能不奏效。從事非日常性後台工作的人很可能無法準確、完整地告訴別人如何做好自己的工作。

日本富國保險公司用的是不同的方法。2016年12月,該公司宣佈了一項使用IBM的人工智能沃森的計劃,旨在使人類醫療保險索賠處理工作實現部分自動化。系統將首先從醫院和其他保健服務提供商提供的文件中提取相關信息,並把它編入適當的保險理賠代碼,然後將信息提供給人工。但是從長遠看,系統的目的是「學習付款評估的歷史,以便繼承評估員的工作經驗和專業知識」。換句話說,技術將邊用邊改進,久而久之,它將能夠接管更多的人類工作。

我們期待今後有更多類似的工作,期待深度學習和其他機器學習方法能迅速傳播。例如,客戶服務的大部分工作是傾聽並瞭解客戶所想,然後向他們提供解答或者服務。一旦現代技術學會了交流的規則,它們就可以接管後一項工作。

但是,客戶服務自動化最難的那部分還沒有解決方案,即傾聽和理解。基於本章在前面討論的各種原因,語音識別和自然語言處理的其他方面一直是人工智能誕生之後面臨的非常棘手的問題。以前居於主導的符號型方法根本沒有奏效,而基於深度學習的新方法的進展卻如此迅速,甚至令專家也感到驚訝。

2016年10月,微軟研究團隊宣佈,他們建立的神經網絡已經實現了「交談時的語音識別方面與人類平起平坐」,一如其論文標題所示。無論是給定主題的討論還是朋友家人之間的開放式對話,該系統都比專業的記錄員更準確。語言學教授傑夫瑞·普勒姆(Geoffrey Pullum)在評論這個結果時寫道:「我必須承認,我從來沒想過會看到這一天。在20世紀80年代,我曾認為完全自動化的連接語音識別(聽取連接的會話語音,準確地寫下所說的話)對機器來說太難了……而語音工程師已經實現了它,甚至無須依賴任何語法分析[10] :它純粹是關於工程的,輔以基於海量原始數據的統計建模……我不僅沒想到會看到這結果,而且還會自信地否定它。」

傳奇電腦科學家弗雷德裡克·傑林克(Frederick Jelinek)的評論捕捉到了人工智能領域從基於規則的方法向統計方法大範圍轉型背後的原因。傑林克在20世紀80年代中期觀察到:「每當我辭退一名語言學家,語音識別器的表現就隨之改善。」到2015年左右,處理語音翻譯相關問題最為成功的團隊裡面沒有語言學家,而他們的研究結果震驚了全世界。我們堅信,更多類似的驚喜即將出現。

我們同意賽富時首席執行官、技術行業先驅馬克·貝尼奧夫(Marc Benioff)的觀點,即我們正在進入他所說的「人工智能為先的世界」。像我們一樣,他看到了取代HiPPO人士決策、讓事情做得更好的無數機會。他寫道:「許多企業仍然根據本能而不是信息做出重要決策……這將在未來幾年內發生變化,因為人工智能變得越來越普遍,它們可能使每家公司和每個員工更聰明、更快、更高效。」幾年前,這樣的預測聽起來像天方夜譚,現在它卻像一個沒有風險的賭注。

本章總結

‧ 現在,基於規則的符號型人工智能方法趨於式微。除了幾個狹窄的領域之外,它似乎不太可能捲土重來,甚至在那些領域也難以翻盤。

‧ 機器學習終於兌現了早期的承諾並完成了有用的工作,它是打造通過建立和觀察多個實例來檢測模式並制定取勝戰略的軟件系統的藝術和科學。

‧ 機器學習系統越來越大,它們在運行速度越來越快、越來越專業的硬件上運行,能夠獲得更多數據,容納改進的算法,因此變得越來越好。所有這些改進都在發生,所以機器學習正在迅速發展。

‧ 神經網絡在標識了學習實例的監督性學習方面最為成功,但在無監督學習方面進展甚微,而後者則是人類瞭解世界的主要途徑。

‧ 監督性學習非常適合把目前由人工完成的許多工作自動化,特別是在模式匹配、診斷、分類、預測和推薦等方面。機器曾經對視覺、語音識別等功能束手無策,但目前在許多領域表現出與人類相當的水平。

‧ 我們還處於機器學習傳播的早期階段。它將在社會和經濟中變得普遍,特別是因為它現在可以從雲端按需獲取。

‧ 機器學習系統(和所有其他形式的人工智能)仍然缺乏常識。

問題

A 你手頭最重要的模式匹配、診斷、分類、預測和推薦活動是什麼?你是否正在探討上述活動的機器學習解決方案?

B 你會考慮把哪些關鍵決策或操作(如果有的話)完全交給人工智能系統,又會在哪些工作中確保決策過程中存在人類?

C 如果明天早上讓你乘坐自動駕駛汽車去上班,你感到自在嗎?你認為5年內你能自在地這樣做嗎?為什麼能,或者為什麼不能?

D 填空:如果我們的競爭對手為_______部署了成功的機器學習系統,我們將面臨嚴峻的挑戰。

E 你的機器學習戰略是什麼?在將機器學習引入組織方面,你走了多遠?

[1] 這種時鐘大小的裝置被用來預測太陽、月亮和行星的運動。它很令人費解,主要是因為它在當時太先進了。正如2015年喬·馬爾尚(Jo Marchant)寫的一篇文章所說:「自古以來就沒發現過這樣的事物。1 000多年來,再也沒出現像它一樣複雜的事物,甚至與它相近的也沒有。」Jo Marchant, 「Decoding the Antikythera Mechanism, the First Computer,」 Smithsonian , February 2015, http://www.smithsonianmag.com/history/decoding-antikythera-mechanism-first-computer-180953979.

[2] 艾倫·圖靈證明:存儲程序的基本電腦可以被認為是一種通用的計算機,原則上,可以指示它來解決算法能解決的任何問題。

[3] 正如1994年語言學家史蒂芬·平克(Steven Pinker)在其《語言本能》一書中所指出的那樣,一個對父母睡前閱讀感到不高興的孩子會構建一個複雜的句子,如「爸爸,你怎麼把這本我不想聽的書帶上來了呢」。Steven Pinker. The Language Instinct (New York: HarperCollins, 1994), 23.

[4] 一個悲劇性案例研究提供的有力證據表明,在一定年齡之後,孩子們已經不能再學會語言了。1970年,南加州當局瞭解到有一位化名吉尼(Genie)的13歲小女孩,她飽受可怕的虐待和疏於照管之害。從蹣跚學步的孩提時代開始,她就一直被父親禁錮,幾乎完全與社會隔離。她被關起來,獨自待在一個寂靜的房間裡,沒人跟她說話。吉尼獲救之後,許多施以援手的研究人員和治療師相信她並非先天遲鈍,儘管做了很多努力,她還是學不了什麼東西,只能用簡單的句子說話。她學不了更複雜的語法規則。吉尼目前在加州某地一所為存在精神缺陷的成人服務的機構裡生活。

[5] 基於規則的人工智能被稱為符號型人工智能,因為它以人類可以理解的詞語、數字和其他符號進行表達。

[6] 正如我們為《哈佛商業評論》撰寫的文章所討論的,大數據和數據分析還改變了人類的決策。Andrew McAfee and Erik Brynjolfsson. 「Big Data: The Management Revolution,」 Harvard Business Review , 90, no. 10 (2012): 61–67.

[7] 迪恩的許多貢獻使他成為谷歌的傳奇。他的同事收集了一系列誇張的「傑夫·迪恩的事實」來表達他的能力。「真空中的光速曾經是每小時35英里,然後,傑夫·迪恩花一個週末優化了物理學」就是一個代表性的例子。Kenton Varda. Google+ post, January 28, 2012. https://plus.google.com/+KentonVarda/posts/TSDhe5CvaFe.

[8] 強化學習牽涉到建立能夠在環境中採取有效行動以使回報最大化的軟件代理。DeepMind首次公開展示其在這一領域的能力時,用的是「深度Q網絡」(DQN)系統,開發它是為了玩經典的雅達利2600視頻遊戲,如《太空侵略者》《乒乓球》《突圍》和《戰地》等。程序員並沒有告知「深度Q網絡」系統正在玩什麼遊戲、規則是什麼、哪些戰略可能有效、哪些控件和操作可用。事實上,它根本就沒有被告知正在玩遊戲。它只是看著每個遊戲的屏幕,然後被告知移動控制器以取得最高分。在給出的49場比賽中,「深度Q網絡」系統很快就擊敗了一半以上的專家級人類玩家。Volodymyr Mnih et al., 「Human-Level Control through Deep Reinforcement Learning,」 Nature 518 (February 28, 2015): 529–33, https://storage.googleapis.com/deepmind-data/assets/papers/DeepMindNature14236Paper.pdf.

[9] 建立一個運作良好的神經網絡可能聽起來很簡單——只需輸入數據,然後讓系統建立關聯——但是截至目前,它實際上是耗時和微妙的工作,甚至連有強大計算機科學背景的人也望而生畏。

[10] 換句話說,就是以規則為本。