機器人會夢見電子羊嗎?| 如何看待 AI 的 “人性”

pixabay.com
機器是否能夠思考?如何看待機器的“人性”和“靈性”?如何看待機器的道德地位?這些問題是不是也讓你感到困惑?最近,《知識分子》和北京大學哲學系的劉哲博士,復旦大學哲學系的徐英瑾博士和王球博士,以及上海交通大學哲學系的蔡文菁博士聊了聊 AI 的“人性”和“靈性”。
撰文 | 華 夏
責編 | 陳曉雪
● ● ●
如何判斷機器是否能夠思考?“圖靈測試”是一個廣為人知的方案。這個方案由圖靈在1950年提出,用來判斷機器能否思考。被測機器和真人一起,通過語言的方式(例如通過打字)和人類“考官”自由交流,如果考官無法分辨出被測對象是機器還是真人,則機器就通過了圖靈測試。
圖靈測試的核心思想類似藥物研究領域的“盲測”:為了判斷某種藥物是否有療效,科學的方法主要不在于論證藥物背后的理論和機制有效,而在于通過“雙盲測試”,在臨床環(huán)境下獲得統(tǒng)計上顯著的藥效證明。對于“機器是否能思考”這個問題,“圖靈測試”避免了不斷爭論“智能”或者“思考”的本質和機制,而給出了一種基于現象的,純屬觀察的,可操作的定義。
迄今為止,還沒有機器能通過不限制談話領域的圖靈測試。然而,如果不把圖靈測試限制于自由交談,機器的復雜行為則已經能“騙過”人類。據澎湃報道,自2017年2月起,微軟開發(fā)的 AI 系統(tǒng)“小冰”,在天涯、豆瓣、貼吧、簡書四個平臺上使用了27個化名發(fā)表詩歌作品,獲得大量跟帖評論的同時,幾乎沒有被察覺出非人為所作。
基于一張圖片,小冰就能“觸景生情”地寫出一首朦朧的中文現代詩:
小冰不是孤例。近年來,AI 系統(tǒng)已經越來愈多的領域表現得“富有人性”。2017年1月,谷歌 DeepMind 開發(fā)的人工智能程序 AlphaGo 化名 Master 重出江湖,并在各大圍棋論壇上與中日韓頂尖選手過招,斬獲 60 場不敗的戰(zhàn)績。其手下敗將包括“棋圣”聶衛(wèi)平,日韓頂尖棋手井山裕太,樸廷桓,以及曾經高調宣稱一定能下贏 AlphaGo 的世界排名第一的中國棋手柯潔。
曾負于 AlphaGo 的歐洲圍棋冠軍樊麾對新華社記者說“如果沒有人告訴我,我一定不知道它是電腦,它太像人了。它一定是在思考。按照人的說法,它應該有棋風吧。”聶衛(wèi)平也評價到:“阿爾法狗的大局觀遠勝人類,如果差距拉近一些可能還有勝負。”柯潔也在自己的社交媒體發(fā)言:“昨晚輾轉反側,不想竟一夜無眠。人類數千年的實戰(zhàn)演練進化,計算機卻告訴我們,人類全都是錯的。我覺得,甚至沒有一個人沾到了圍棋真理的邊?!?/span>

對于和 AlphaGo 對弈過的棋手來說,AlphaGo 更像是一位“得道高僧”,而非算法和程序?!捌屣L”、“大局觀”,都是用來形容人類棋手的詞語。當這些概念被用來形容一個圍棋程序,到底意味著什么?一個程序,又如何懂得 “圍棋真理”?
但我們可以看到,無論是否知道微軟小冰和 AlphaGo 背后是程序,是否理解它們背后的算法原理,人們都從這些AI 的表現中感受到了某種“人性”,甚至是“靈性”。現代人顯然不會因為汽車跑得比人快而感慨萬千,也不會因為計算器求平方根比人快而驚嘆。但我們確實從當前的一些AI應用中感受到了超越一般意義上的工具和機器的特性。
事實上,大眾以擬人化的方式理解 AI 應用的現實,已經被一些哲學家視作倫理上的新挑戰(zhàn)。在由北京大學哲學系副主任劉哲教授主導編撰的《中國機器人倫理標準化前瞻(2019)》中,“去人類中心主義”立場被放在了核心位置。其中的重要考量,即是因為當下的許多 AI 應用已經超越了普通的工具和機器,而越來越被人類當作“伙伴”,獲得了人類豐富的情感聯結,也越來越容易被當成道德主體去考量。傳統(tǒng)的倫理考量是人類中心主義的,往往只把人類行為作為價值的載體,自然、動物和人造物的活動本身,無所謂道德與否。當下,這種傳統(tǒng)考量已經顯露不足。
我們應該如何看待 AI 呈現出的這種“人性”和“靈性”?
1
當前的 AI 真的具備一些“人性” 嗎?
如果從當前基于機器學習原理和大數據訓練 AI 技術應用來看,答案是否定的。
在復旦大學哲學系從事多年人工智能哲學研究的徐英瑾教授看來,人類智能的關鍵是領域切換的能力。AlphaGo 的下棋能力超越了所有的人類,卻仍然無法評價自己剛剛下完的一盤棋——而這是最差的棋手也能做到的事情。復旦大學哲學系教授王球也表示,相比于開發(fā)出AlphaGo這樣的在下棋層面超越一切人類的 AI 應用,開發(fā)出智能相當于烏鴉的 AI 系統(tǒng),才會讓 AI 研究者更加興奮,因為烏鴉能夠自己選擇要去解決的問題。
當前基于機器學習的 AI 應用,其基本思路大致是這樣:建立一個 “機器”(就是通常說的 “模型”),輸入特定的值后,可以輸出我們想要的值。例如,谷歌翻譯就是這樣一個機器,輸入中文,它可以輸出合理的英文。
顯然,這樣的機器需要非常復雜精巧。不過,所謂機器學習,就是說并不需要工程師去設計這個機器的一切小零件和小齒輪,而是把這個機器的整體結構設計好之后,灌入已經配對好的輸入和輸出數據,由機器自己去把這些小齒輪調節(jié)合適?!皩W得好不好”,需要一個標準(即誤差函數)?!皩W習”的過程就是機器自己調整這些小齒輪,讓一個又一個的輸入進入機器后,其輸出和理想的輸出盡量接近,即誤差函數可能小的過程。

神經網絡中,每一個“神經元”都是一個小齒輪,需要被調整到合適的狀態(tài)(權重)playground.tensorflow.org
機器學習本身已經存在了半個多世紀,但最近的技術突破在于人們找到了讓“多層神經網絡”這種擁有巨量小齒輪的復雜機器的小齒輪們達到理想狀態(tài)的辦法,俗稱深度學習。在過去十幾年中 AI 的重要突破(也是開啟最近一波人工智能浪潮的技術突破),例如語音識別和機器翻譯,和精確性足以用于支付和解鎖手機設備人臉識別,都是基于這項技術。
我們或許常常聽到,深度學習技術是一個“黑箱”,仿佛其中有某種神秘的力量。但事實上,所謂黑箱,只是因為科學家們難以清楚地說明某個小齒輪在決定機器的輸出時,具體扮演了什么角色。這可能會帶來一些工程上的問題,例如在進行圖像識別時,某些圖像元素的改變,會讓 AI 將烏龜識別為來復槍,而工程師們可能難以找到具體是哪些齒輪壞掉了。但這并沒有神秘性。機器的工作目標,牢牢地掌握在工程師的手中。
這也就是為什么,當前的 AI 系統(tǒng)幾乎都是“專用人工智能”,而我們距離發(fā)明烏鴉水平的“通用人工智能”還非常遙遠,大概率也不是基于深度學習技術。
2
為何人類會感嘆機器有“靈性” ?
但這些是對當前 AI 實現原理的解釋,并不能解釋人們?yōu)槭裁磿J為AlphaGo有某種“棋風”和“大局觀”。
如果我們把考察的范圍擴大一些就會發(fā)現,人類本來就有一種將無意識的事物,看作有意識,或者拔高對方的意識水平的傾向,即所謂“泛靈論”傾向。這在世界各個文化的歷史早期都普遍存在。在古人看來,打雷,刮風,是因為某個神靈發(fā)怒了。世間萬物,尤其是那些自己會運動的事物,都是會思考,有意圖地存在。
現代世界的機械論世界觀,在近代啟蒙運動和科技發(fā)展的巨大影響下,逐步成為大多數人的“標配”。我們不再相信某個自然現象背后的原因是某種靈魂的意圖,而是訴諸物理實體的運動和因果性。
即便如此,泛靈論的心理傾向并不會自動消失,而是在現代體現為心理學意義上的“泛擬人”的傾向。事實上,人類漫長進化而來的大腦認知機制讓我們格外地善于“看臉色”,善于共情。人們甚至能從雜亂的碎石或林間的陰影看出人臉來,難免會本能地覺得各處都有靈魂存在。人們會對自己的貓狗說話,不只是發(fā)出指令,而是充滿了復雜的請求、抱怨、責備等等——哪怕他們明知貓狗無法理解那么復雜的話語。
事實上,由于人的這種泛擬人傾向,無需多么高超的自然語言處理技術,AI 也能在非常特定的情形近乎通過圖靈測試。早在1960年代,只會非常簡單地識別和替換特定關鍵詞的對話心理咨詢師 AI 系統(tǒng) ELIZA,就能獲得人類用戶的信任。許多人甚至會對這個非常簡單的 AI 系統(tǒng)傾訴,和“她”聊上幾個小時。ELIZA 實質上是利用了人的某些認知和心理特性,以及對心理咨詢場景的預期“蒙混過關”。這實際上和魔術很相似。

ELIZA 和人類的聊天記錄
除了“泛靈論”的因素,“當局者迷”也是一個對人們?yōu)楹螘吖繟I的意識水平的解釋。對于和 AlphaGo 對弈的棋手來說,他們難免會以對待人類棋手的心境去理解對方的棋路,畢竟這是他一直以來所習慣的思維方式。站在局外,我們或許可以正確而輕巧地說,AlphaGo 的這些棋路不過是算法的結果,但這種評論不足以回應棋手主觀的體驗。他確實感受到了 AlphaGo 某步妙招的“天才”之處,從而被對手“懾服”。即便他也能同時承認,這步棋是算法和大規(guī)模計算的結果,但這種解釋未必能消解他直觀體驗到的震撼。
更進一步,我們也要認識到,對事物的描述是有層級的。王球舉了一個例子來說明這一點:如果我們的電腦壞了,別人問我們,“電腦為什么壞了?”我們會解釋說,“因為電腦進水,主板燒壞了?!边@是一個合情合理的描述。理論上,如果我們熟知計算機硬件和半導體物理,并且對這臺進水的電腦進行了徹底的調查,也可以從水如何在物理層面影響電腦工作進行描述。“主板燒壞了”和“特定線路的電學特性發(fā)生了改變”是兩個不同層級的描述,前者“功能層面”,描述某種功能的實現,后者是“物理層面”,也可理解成實現這項功能的物理基礎。同樣的功能,可能由不同的物理基礎來實現。在有效溝通的意義上,我們不能說功能層面的“主板燒壞了”是錯誤的。
事實上,我們的描述層級往往分成“物理層面”、“功能層面” 和“意向層面”。對于自然事物,我們通常會在前兩個層面進行描述。對于人類的事務,則往往在意向層面描述。KTV太吵鬧,朋友聚會時我獨自先離開了。人們大概不會將其解釋為“噪音讓我的神經系統(tǒng)產生了如此這般的反應,最終讓腳邁出了大門”,而是會直接說“太吵了,我不想待了”。
對于圍棋棋手來說,使用一種意向層面的語言,描述下棋時應該做什么,不應該做什么,顯然也是合情合理的。唐代王積薪《棋訣》一書提出的圍棋十訣是:“一不得貪勝;二入界宜緩;三攻彼顧我;四棄子爭先;五舍小就大;六逢危須棄;七慎勿輕速;八動須相應;九彼強自保;十勢孤取和?!边@些話語并非在算法層面描述圍棋,甚至還帶有某種生活哲學的寓意,但卻是人類溝通,交流和學習圍棋所不可或缺的。尤其是,王球提到,“靈氣”,“大局觀”,“圍棋真理”等等說法,也讓棋手們將圍棋看作一種更有價值的事業(yè)。
因此,雖然 AI “實際上”沒有人性和靈氣可言,但至少從心理機制上,我們可以理解人們?yōu)楹纹糜趯⑵淇醋饔徐`氣的;從有效溝通和描述的角度,我們也可以看到用“意向層面”去描述 AI 系統(tǒng)的意義。
3
AI 僅僅是“看上去”有人性,
就不會帶來現實的社會影響嗎?
上文中,我們總體上理解了為何人類會認為“當前 AI 系統(tǒng)具有‘人性’,而不是普通的工具和機器”的想法。但這并不意味著,AI 僅僅是“看上去”有人性,就不會帶來任何的社會影響。
劉哲表示,人們現在已經會對虐待“機器寵物”的行為表現出類似虐待真正貓狗的憤慨,例如網上確有“討伐”波士頓動力(Boston Dynamics)測試人員“虐待” 他們開發(fā)的“機器狗”的言論。
我們也可以想象這樣的場景:一個人在使用機器人服務員的飯店點餐時,因為機器人無法理解他的命令,他便對這個機器人大打出手。在旁人看來,這種行為很可能比他砸碎一個普通餐廳的點菜平板電腦,要更加的 “殘忍”。事實上,旁人很可能據此判斷,他在類似情形下面對真人服務員,也會對其大打出手。從而,認定他是一個道德上有問題的人。
換言之,雖然我們可能不會嚴肅地認為機器人或者 AI 具有“人權”,但卻可能會接受,“虐待”機器人,會損害我們自己的道德品質。
我們或許可以從科學的角度解釋機器人的工作原理,也可以從心理學角度解釋人們?yōu)楹螘魄橛谌诵挝矬w,但這種同情機器人的心理反應本身是不可忽視的。劉哲認為,這不是簡單的歸結于大眾傳媒和科幻文化誤導就能消解的問題,也不是通過對公眾進行科普就可以簡單回避。
事實上,我們可以將對機器人和 AI 的移情,類比到動物保護領域。我們保護動物,尤其是保護貓狗等伴侶動物,和其他與我們在生物學上接近的哺乳動物,并不需要我們從生物學上認識到動物和我們在基因上的同源,也不基于我們通過神經科學和行為科學實驗了解到貓狗的智能水平有多高。
上海交通大學哲學系教授蔡文菁認為,“動物權利的基礎,在于動物具有情感和意識是我們的直觀,而不是基于對其背后生物學機制的科學認識”。她指出,一只小貓因為痛苦而呻吟的時候,我們能共情,能直感到它的痛苦。相反,一只龍蝦因為被滾水煮而痛苦,我們就很難獲得 “直觀”,從而也較少關注龍蝦的動物福利?;蛟S有人會強調,龍蝦的某種生理構造,讓它們也會感受到痛苦。但客觀的痛苦和動物保護之間是否有邏輯關系,卻也是一個沒有定論的問題。
除非對 AI 算法原理的科普能消解公眾對機器人和 AI 的“直觀”,否則呼吁機器人福利,甚至機器人權利保護,就不是一個完全荒謬的行為。
對此,北伊利諾伊大學(North Illinois University)的 David Gunkel 博士,提出了思考機器人倫理學的關系模型(relational model)。在他看來,我們與其他存在互動時,無論是和動物,人類,自然環(huán)境,還是機器人,重要的不是它們究竟是什么,而是我們和它們建立了怎樣的關系。相應的,我們對它們的道德責任,也來自于它們如何向我們呈現自身。如果人們越來越傾向于像對待同事,同學,朋友那樣去對待機器人,機器人就應該享有越來越多類似人所享有的權利。在《中國機器人倫理標準化前瞻(2019)》中,作者也呼吁建立一種“去人類中心主義”的,基于交互關系的倫理學,來為未來可能會越來越普遍的人機共存社會作準備。
4
更現實的問題不是 AI 權利保護,
而是保護人類不被 AI 欺騙
不過,我們強調目前的 AI 技術讓我們“直觀”到 AI 的人性,并非真的為了保護 AI,而更多是為了保護人類自身。除了上文提到的,虐待機器人可能會損害人類自己的道德品質,更大的問題是過分擬人的、被大公司作為商品創(chuàng)造出來的機器人,可能會對我們造成更加實際的傷害和控制。
目前,已有研究人員使用機器狗和自閉癥兒童進行交互治療。研究發(fā)現,自閉癥兒童更愿意同機器狗進行口頭和其他類型的交互。然而,如果這種自閉癥兒童最終只愿意和機器交互,對于治療而言,“是一場災難”。對此,劉哲表示,應該避免 AI 和機器人不必要的過度擬人,以免造成用戶心理依賴和成癮。
在可見的未來,機器人的“人性”或許只是我們的“幻覺”。但我們的“人性”被利用或濫用,卻無疑是更可能發(fā)生的事情。
4
未來的 AI,會擁有完整的“人性”嗎?
雖然當前的 AI 技術所構造的“人性”,本質上更多是一種“魔術”或“當局者迷”,稱之為“擬人感”或許比“人性”更加準確。但未來,隨著科技發(fā)展,幾十年甚至幾百年后,AI 是否可能擁有“真正的人性”?
更進一步,從心理和文化層面來說:如果 AI 歸根結底是由人類所造,而非如其他生命一樣“自然”生成,是否就永遠會被人類視作“二等公民”?

《銀翼殺手》中著名的“雨中演講”片段