為什麼害怕人工智能?

2016-08-07 10:44:31

當然,很多人也許會指責我概念混淆,因為“智能”和一般的力量、速度等能力不同,似乎牽涉到“心靈”或者說“自我意識”的存在,因此對於一個沒有自我意識的事物,是不能擁有智能的。但這其實是另一個問題,事實上我們能夠確定有“自我意識”的,隻有“我”一個人,至於他人也有心靈,這本來就是靠同情的推斷,我們是先看到他人表現出與我相似的“智能”行為,才認為他人擁有與我相似的心靈。而不是說我們先需要識別他人是否有心靈,然後才能談論他人是否表現出智能。對於他人心靈的問題,隻有這種偏向行為主義的理解是合理的,“心靈”本身是看不到的,我們隻是把“心靈”認作一系列行為的最終負責者而設定出來。

電腦的形式和質料與人腦有極大差異,但這些差異本身並不能先驗地否定電腦可以被認作有心靈的。比如一個植物人的腦結構也許與我們差不多,但鑒於他再也無法表現出任何有意識的行為,我們可以說他已經沒有自我意識瞭。而假定有外星人造訪,在我們能夠敲開他們腦殼研究清楚其結構之前,我們恐怕就早該以他們擁有智能和意識為前提與他們打交道瞭。

外星人我們恐怕是碰不到的,然而人工智能卻已經近在眼前。“圖靈測試”早已不是高不可攀的聖杯,而是在許多意義上早已實現瞭。現在的電腦已經能夠在許多具體的場景下模仿人類,讓人無法分辨。例如在5分鐘內扮作一個13歲的男孩,又比如扮演在線客服,扮演棋手等等。在哲學傢中,塞爾的“中文屋”思想實驗是少數值得認真對待的質疑,但它和我們在這裡談論的問題沒有太多關系——人工智能究竟有沒有“心靈”與他們是否可怕沒有關系。

“中文屋”暗示出來的一個關鍵問題是:當我們可以把“意識”的過程外在化地把握時,當這種過程失去瞭內在性,也就是失去瞭神秘性時,我們便傾向於認為這種意識是虛擬的。比如當這個人之所以表現出“懂中文”,依靠的是外在的可見的可把握的行為——查詞典——的時候,我們會以為他是假懂,但如果他之所以“懂中文”是依靠著大腦內部的一些特定區域,而這些區域的運作機制仍然晦暗不明,也沒辦法外在化,在個人之外滯留和復制,那麼我們就以為他是真懂。事實上,諷刺的是,恰恰是當我們搞“不懂”他如何“懂”時,我們才相信他是真“懂”。

而人工智能或計算機的意識過程從一開始就是外在化的,是可見的、可把握的,於是我們能搞懂它為何顯得懂,於是我們認為它是假懂。

暫且不深究上述邏輯是否合理,可怕的是,關於人工智能的“為何能懂XX”的機制,人們也開始搞不太懂瞭。這是基於“神經網絡”的新一代人工智能模式的特點,機器開始變得能夠自主學習,而不是照搬人類預先制定的框架。

比如谷歌的人工智能已經能從幾千萬張圖片中“學會”瞭對“貓”的辨識。這不同於以往的人臉識別之類,以往是人類程序員編制好如何識別的完整程序,制定好何謂人臉的標準,讓電腦去“按圖索驥”。最後機器自己形成瞭貓的“概念”,用程序員預先並不知道的方式去辨認貓。(既然機器能夠自發地形成貓的概念,那麼它能否自發地形成“自我”的概念呢?我認為這有可能,但非常困難,有機會我再專門討論“自我”概念的特殊性。但“天網”即便沒有自我意識也照樣可以支配人類,就好比工廠流水線已然可以支配工人那樣。)

這也是這次的AlphaGo與以往的深藍之類的人工智能相比的關鍵改進,現在不再需要人類去預先編制好應當如何下棋的程序,而是讓計算機自己在無數棋譜和無數實戰中自行總結出怎樣下棋的策略。理論上說,設計AlphaGo的程序員根本不需要擅長下圍棋,甚至可以連圍棋的基本規則都不知道,就像讓電腦在無數圖片中學會辨認出貓那樣,讓電腦自己去發現圍棋的奧妙。這次的AlphaGo還沒有完全從零開始學習(據說之後會這麼做),但計算機已然表現出許多超出人們理解的方面,可怕之處不在於AlphaGo贏瞭,更在於人們開始不知道它究竟憑什麼贏的。它的許多走法都超出瞭所有人類高手的判斷。

如果說深藍戰勝卡斯帕羅夫時,我們說電腦的優勢無非是計算速度,那麼現在,AlphaGo卻是在那些傳統上人們引以為傲的方面擊潰瞭人類對手。比如所謂的直覺、大局觀、創造性等等。一開始李世乭還試圖用打破刻板定式的新奇走法擾亂電腦的陣腳,然而結果發現電腦才是更善於打破定式的一方。

相關推薦