讀古今文學網 > 虛擬現實:萬象的新開端 > 表達 >

表達

我要坦白:在20世紀80年代,沒有「按鍵」動作就沒有辦法做出顯性效果。當時的機器視覺和機器學習還不夠好。

因此,我們需要小部分語言來描述屏幕按鈕等顯示和用戶界面功能,但我們知道這只是對臨時問題的臨時修補。[10]摩爾定律表明,計算機最終將變得足夠快,不僅能夠識別身份,還可以辨別相似性。到那時,編輯器就能夠通過機器視覺觀察另一編輯器,並用虛擬的手進行操作,不再需要像按鈕這樣的用戶界面元素的抽像表達。

在20世紀90年代中期,計算機的速度終於足以實時識別視覺相似性了。我和一群新朋友創立了名為Eyematic的初創公司,進行面部識別、面部特徵跟蹤等機器視覺任務。(我們當時贏得了美國國家標準技術研究所舉辦的比賽,在現實世界的不同困難條件下識別和跟蹤面孔。)

Eyematic團隊的大多數科學家都曾是神經科學家克裡斯托夫·馮·德·馬爾斯布爾格(Christoph von der Malsburg)的學生。以前VPL的幾位同事也在這裡重聚,其中包括查克和一些之前的投資人,不過公司的核心是哈特穆特·內文(Hartmut Neven)。最終谷歌收購了這家公司。

我得承認,最開始參與其中幾個有效的面部跟蹤和識別項目時,我有些不安。我們是不是創造了一個怪物?我利用Eyematic的一些原型製作了邪惡技術的工作模型,用在了《少數派報告》的場景中,比如男主角在逃離警方追捕時,他經過的廣告牌會識別出他,並將他的位置向所有人廣播。

我還是堅持做了,原因在於我覺得這個技術帶來的益處會彌補可能產生的遍地監視的罪惡。如果能夠通過機器視覺識別人臉、跟蹤表情等,我們能否通過這一能力讓編輯器使用其他編輯器?我們最終會拋棄暫時的補丁,利用恰當的氣隙,建立適當的顯性系統。

在這種情況下,除了自己的用戶界面外,顯性編輯器不用支持任何交互界面或方法。沒有任何協議,沒有需要記錄的抽像變量,沒有應用程序接口[11]。

編輯器中的機器視覺和機器學習算法將用於解讀和操作虛擬手,虛擬手會被用於觸摸其他編輯器。編輯器無法識別在特定時間進行操作的是人還是另一編輯器,因為這兩種情況下的界面都是相同的。

編輯器內的代碼,其本質就是支持編輯其他編輯器,它不會被標準化。特定編輯器的編程方式也不會被標準化。

一些編輯器可能會通過訓練執行任務(就像我們用例子來訓練機器學習算法一樣),另一些編輯器可能必須進行明確的編程。所有編輯器都可以和其他編輯器交流,就像人一樣。

我相信這個好處足以彌補監視帶來的問題。如果我們的信息系統可以基於類似我所描述的顯性原理來構建,那麼我們最終使用工具時,將不再需要接受某些普遍和永恆的抽像概念。

鑒於從現在起,我們的信息系統將服務於社會各個方面,擔任年輕人成為社會個體的指南,轉向這種擁有多元的、可撤銷抽像對象的信息架構變得十分重要。這可能就是未來鼓勵開放和自由的方式。

我知道這個希望聽起來可能有些深奧,像是信仰的巨大飛躍,甚至像是烏托邦式的衝動,但它實際上試圖超越烏托邦。

我們暫時將這些宏圖大志放在一邊,能用虛擬面孔追蹤人臉表情就非常有趣。有段時間,我曾在一些俱樂部(如20世紀90年代紐約的Knitting Factory)裡,用我們怪異的樂隊嘗試了一些富有表現力的化身面部形象。比如,我們這些古怪的樂手身後會有個大屏幕,將我們映射成當時那些腐敗的政客形象。