讀古今文學網 > 人工智能:改變世界,重建未來 > 「黑箱」風險 >

「黑箱」風險

無論是超級智能還是人工愚蠢,都有許多因素導致在出現流氓人工智能的情況下難以進行人為干預。首先是它們的運行速度。已經有用於自動執行股票交易等指令的人工智能系統,執行時間以納秒為單位。由於這些交易的發生速度很快,一旦出現問題,人類根本不可能進行實時干預。

更重要的是,當今許多人工智能工具中都存在「黑箱」般的不透明性。至於先進神經網絡與基因算法的情況,它們的人類操作者很久以前就不再試圖理解其有效執行複雜任務的能力。這為仔細檢查人工智能增加了難度。尼克·博斯特羅姆與其研究員同事埃利澤·尤德考斯基(Eliezer Yudkowsky)此前曾闡述一個假設情景,使用機器學習算法提供是接受還是拒絕房屋抵押貸款申請的建議。他們建議,如果申請人的抵押貸款被拒絕,申請人可以向銀行申訴,聲稱人工智能因種族而歧視部分申請人。而銀行則告知申請人,情況並非如此,且算法無法知道特定申請人的種族。但無論如何,在審查神經網絡決策制定流程的結果時,人們發現黑人申請的批准率大大低於白人申請的批准率。

有許多原因可以解釋這一現象,但是博斯特羅姆和尤德考斯基認為,很難確定具體原因。如果任務採用的是一種簡單專家系統,可能很容易就能說明這個情況,比如,抵押貸款顧問人工智能的部分決策取決於申請人的當前地址,住在貧困地區的申請人的貸款違約率較高。

人工智能執行大量工作的具體方法加劇了這一問題。在21世紀的第二個10年裡,技術公司的影響不再與其規模成比例。2012年4月Facebook花10億美元收購的Instagram,其員工名單上僅有13人。與之相比,攝影巨頭柯達在前數碼時代其地位與Instagram旗鼓相當,其全盛時期員工人數超過14萬。20世紀工業巨頭的規模使它們更易於被監管。這同樣適用於20世紀威脅公眾的風險源,如核技術。這樣的研究領域需要實體場址,建築大規模設施以及大量資金。然而,時下人工智能的最大投資者:谷歌、Facebook和蘋果可能會僱用數千人才,並在硅谷擁有大量大學式園區,但這已經不再是必要條件。當今計算設備的能力意味著,只要擁有必需的編程技術、一台個人電腦、筆記本甚至是智能手機,任何人都可以在構建人工智能的項目中發揮重要作用。完全不需要去與飛機庫一樣大的大型公司總部,任何有好想法的人都可以在自己學校的寢室,甚至是在蘋果和谷歌創始人創業的改造車庫裡,構建人工智能系統。

儘管缺乏數百萬美元支持的兄弟公司所擁有的資源,但是開源人工智能項目可以幫助塑造未來的人工智能。在線開源機器學習庫的數量不斷增長,全球用戶定期對這些學習庫進行更新。比如,自從2010年2月對公眾開放以來,開源學習庫scikit-learn已經修改了18 000多次。2015年,普通的一天中,有8名用戶對scikit-learn代碼進行了18次修改。而這些進行討論的用戶遠在瑞士、法國、美國和印度。一些開源人工智能項目設法制定一些相對溫和的目標,如想出極客式家庭自動化項目。其他開源人工智能項目則致力於通用人工智能。

「今天,沒有什麼挑戰比創造有益的通用人工智能更加重要,通用人工智能具有與人類相當的廣泛能力並且將最終超越人類。」OpenCog網站上如是寫道。OpenCog是個開源軟件創意,自稱「直面」構建通用人工智能的挑戰。

隨著人工智能處理的任務量不斷增長,這些問題也將愈加迫切。就像本書所描述的那樣,現在的人工智能用於幫助設計新城市、監控銀行賬戶安全、執行具有重大經濟影響的金融交易以及駕駛汽車。在不久的未來,即使你聽說美國總統這樣重量級的人物乘坐人工智能驅動的汽車,也不必吃驚。

誰又能說清楚明天它們將用於什麼領域呢?