
倫理問題,已經成為近兩年國內外人工智能領域的熱門話題。
歐盟委員會于今年4月8日發布了人工智能倫理準則,以提升人們對人工智能產業的信任。而聯合國教科文組織自2018年12月12日至今,已經在世界各地舉辦了多場人工智能論壇,專門研討人工智能發展的主要倫理原則。中國的人工智能治理專業委員會也于今年初展開了相關討論。
然而,正如聯合國教科文組織總干事阿祖萊所說——“由人工智能所引起的問題并非技術問題,而是關于人類自身的人性,涉及科學、政治、哲學和道德方面的關切?!薄祟愱P注AI或機器人領域的倫理問題,究其根源,還是這種靈長類動物自身可悲而又可怕的天性。
“I'm afraid I can't do that”
你知道機器人,即“Robot”這個詞是怎么來的嗎?
1920年,捷克作家卡雷爾·恰佩克寫下了劇本《R.U.R.》,這是個關于科技可能使人失去人性的警示故事。其中,R.U.R.是“羅素姆通用機器人”(Rossum’s Universal Robots)的縮寫,正是這個劇本將“Robot”一詞引入了現代世界。
然而,Robot這個詞本身來源于捷克語“Robota”,意為由農奴從事的強迫勞動。它的斯拉夫語詞根“Rab”的意思則更加直白——“奴隸”。
正如你猜想的那樣,在這部劇中,機器人被生產出來給人類當奴隸,但他們終究因受不了人類壓迫而反抗。機器人甚至成立了自治組織,正式向人類宣戰,直至人類瀕臨滅亡。

而同時代另一部經典電影,1927年的《大都會》(豆瓣9.0分),則講述了女機器人瑪利亞充當了勞資糾紛催生物的故事:她用魅力誘惑工人們,挑起了人類大暴動。影片設想了機器人可能頂替人類身份的情況,充分展示了人類對機器人的恐懼。
不妨說,有關機器人或人工智能的影視作品自誕生之日起,就帶著一種恐懼和警惕的情緒——機器人會對其制造者“叛變”。
隨著時間推移,這種擔心不僅沒有淡化,反而愈演愈烈。
在1968年庫布里克導演的《2001:太空漫游》中,一臺因邏輯陷入悖論而暴走的超級電腦,讓人類有幸見識到了銀幕上首個人工智能反派。
在那個經典的段落中,完全無配樂的情況下,電影呈現了一段平和卻潛藏殺機的對話:
“打開艙門,哈爾?!?/p>
“抱歉,大衛,恐怕我不能那么做?!?/p>
“哈爾,我不會再和你爭了,開門!”
“大衛,這次對話已經沒有任何意義。再見?!?/p>

“哈爾”,即HAL9000,一臺被設定為絕對不會出錯的超級電腦。這臺后來被美國電影學會評為影史百大反派第 13 位的計算機,由于內在指令產生沖突而殺人。在他如上文所述明確拒絕宇航員的指令之前,他已經用閃著紅光的攝像頭閱讀了人們的唇語,決定搶先行動阻止“計劃”失敗,哪怕這意味著制造多起謀殺,比如用分離艙將宇航員撞向太空,讓休眠倉程序出錯殺死其中的科學家,并把主角關在艙外。
那個冰冷的紅光攝像頭,以及那句“I'm afraid I can't do that”,也成了日后人類對AI、超級電腦或機器人的象征性恐懼符號。
比如2018年,當人類的第一位宇航員交互式移動伙伴(Crew Interactive Mobile Companion)機器人——采用IBM Watson AI技術的CIMON被送上國際空間站的時候。各家媒體都對這個擁有一張擬人面孔,且能夠傾聽、理解人類語言并通過人類語言與人類交流的機器人展開了報道,航天界更是期待這個人類宇航員的助手,能夠在太空中貢獻自己的價值。

然而,在介紹CIMON的視頻下方評論區,最頻繁出現,也是被贊次數最多的評論,卻是這種風格的——
“CIMON, open the pod bay doors”(CIMON,打開艙門)
“I'm afraid I can't do that, Dave”(抱歉,大衛,恐怕我不能那么做)
“HAL is alive and living on the ISS.”(一臺活生生的HAL已經住進了國際空間站)
這類反饋聲音如此響亮,以至于被IBM官方用來解嘲。CIMON的個性設計師 Sophie Richter-Mendau 和它的語言訓練師 Nina Fischer 讓 CIMON 學會了一些科幻電影的經典臺詞,作為呈現給宇航員的彩蛋。
如果像《2001太空漫游》中宇航員在關鍵場景中對 HAL 所說的那樣,要求 CIMON“打開輔助艙門”,CIMON 就會改變語調并開玩笑地回答說,“抱歉,我打不開?!?/p>
同樣并不陌生的是,自波士頓動力機器人的視頻在社交媒體瘋傳之后,那些能跑能空翻,甚至被人類測試員踢打之后還能正常執行任務的機器人,卻反而激起了評論區的一片哀嚎——
“我看到了人類的末日”
“那一天,機器人想起祖先被人類統治的恐懼”
“審判到來之日,這一切都將是鐵證”
“T-800快來救我”(電影《終結者》的機器人主角)
甚至,有惡搞團隊專門制作了一支“機器人終于反擊了”的視頻,火爆全網。

從1920到2019,人類對AI及機器人的恐懼和警惕,不僅一以貫之,甚至越來越焦慮——霍金、馬斯克和蓋茨們,均在 2015 年公開提出了人工智能將為人類帶來滅頂之災的論調。如今關于 AI 的討論更已經完全滲透了公眾生活。
這是為什么?
從創造亞當到奴隸造反
或許是呼應《2001:太空漫游》,2001年時,斯皮爾伯格交出了巨作《人工智能》。在這部討論人類與AI倫理情感問題的電影中,一開場就在不經意間甩出了勁爆觀點:一位女士問AI設計師,人類是不是應該對那些被用來做情感陪伴的機器人負責任?而設計師是這樣回復的——

此話的確是入木三分,因為自古至今,人類一直有成為上帝的欲望——即創造人類。
在古希臘神話中,賽浦路斯國王皮格馬利翁是一位有名的雕塑家,當他用心雕塑了一座美少女雕像后,竟然愛上了這座雕像。其感情之真摯,最終打動了愛神阿芙洛狄忒,并賜予了雕像生命,讓他們結為夫妻。心理學著名的“皮格馬利翁效應”正源于此: 期望和贊美能產生奇跡。
而在中國古代,同樣有“偃師獻技”的傳說。神乎其技的偃師,用一個以各種材料打造而成的假人,竟達到了真人演出的效果,更是騙過了整個皇宮,最后令周穆王大為驚訝。
真實的歷史中,同樣發生過類似的事情。18世紀晚期時,奧地利的肯佩倫為了取悅貴族,做了一個看似土耳其人偶狀的自動下棋裝置。這個“土耳其行棋傀儡”可以和人類下棋,并且棋力不低,擊敗了同時代很多名人。更神奇的是,這個機器還能解數學題,以及用不同語言回答人類的問題。
據不完全統計,與這個“土耳其行棋傀儡”下過棋的名人,包括法國皇帝拿破侖·波拿巴、美國開國元勛本杰明·富蘭克林、奧地利大公、俄羅斯皇帝、以及著名美國作家愛倫·坡。
然而,這個機器其實完全是個騙局,真相是在機器中藏了一個下棋高手,再通過磁鐵和杠桿等裝置,假裝成是人偶操作。這個騙局最終橫行了大西洋兩岸各國長達84年。

以上種種傳說和騙局,究其根源,還是在情感和智力兩個需求層面,人類總試圖建造仿人的機器人,總期望像上帝一樣,去創造與自己類似的智慧生命,并心意相通。
這種誘惑是如此的強大,以至于眾多研究均表明:人類對機器人遭受的痛苦能夠產生移情作用和同理心、機器人即便做得不好人類也更偏向于容忍和鼓勵、人類更容易對AI吐露心聲、甚至于當觸摸逼真的機器人胴體時,人類會產生性沖動……
然而吊詭之處在于,就如同人類敬畏上帝(或各種傳說中的神)一樣,人類同時卻常常違反上帝的安排,偷偷做著上帝不允許的事情。如果將“上帝”換成“國王”、“頭領”甚至“老板”的話,大家就更感同身受了。人類最清楚,上帝一旦創造出人類,那可就根本不可控了。
如此經歷了數百至上萬年的等級社會后,人類十分提防那些背叛和陽奉陰違,這種高度戒備與恐懼下層造反是一體兩面的事情。更別提,在創造之初就被定義為奴隸和苦力的Robot。令人類恐懼的HAL9000,正是替人類說出了長久以來三緘其口的信仰問題:對造物主的質疑,人類是否可以反抗上帝。
于是,為了平息恐慌,阿西莫夫著名的機器人永不叛人“三大定律”登場。但細究不難發現,所謂三大定律,只是人類單方面的限令,希望以此讓機器人順理成章、理所當然地做人類的奴役?;蛘哒f,人類一方面希望擁有人工智能的機器人能夠非常聰明,并且幫助、替代我們完成一系列我們自身難以完成的事情;另外一方面又希望這個機器人很“老實”,永遠無條件忠誠于人類。
多么矛盾。
出路何在
回到文章的開頭,人類熱衷于討論的AI倫理問題,其實說穿了都是人類自身的倫理問題——人類在社交媒體上,把微軟的聊天機器人訓練成了滿嘴臟話、種族歧視的小流氓;人類把仿真機器人開發成了泄欲工具;人類把智能音箱和隨身智能設備(包括手機),改造成了廣告線索收集渠道和廣告播放渠道;人類把類似于阿爾法狗的自我學習能力,用于在網上對他人進行人肉搜索;更不要提很多程序已經被人類植入了自己的偏見……這關AI什么事?
于是,一邊是被設計出來做苦力,勤勤墾墾一心做好程序設定范圍工作的AI,一邊是滿腹狐疑,且抓住機會就想利用AI滿足自身私欲的人類。難怪見過越多AI和機器人,越覺得人類才是最可憐的那個。
解鈴還需系鈴人,解決人類對AI或機器人的恐懼與戒備,還要從人類下手。
首先,人類不應當完全只將AI或Robot當成苦工和奴隸,或者說是滿足自己私欲的工具。為什么波士頓動力的機器人性能越強、越厲害,人們反而越害怕?因為這些機器人給人的感覺,就如同幾百年前肌肉非常發達的黑奴,人們害怕這些黑奴哪天覺醒過來,自己是打不過的。
所以,采用IBM Watson AI技術的CIMON就是一次很好的嘗試。這個重約 11 磅、健身球大小的機器人,無論從外表、聲音、功能上來說,都不會產生任何“苦工感”,更沒有攻擊性。
專為航天而生的CIMON不僅可以應對失重等更具挑戰的太空環境和科學實驗需求,它的誕生本就是用來和宇航員交朋友的。其定位不再只是工具或渠道,而是宇航員解決問題時的好搭檔、傾訴心聲的最佳對象。
而且技術人員還為CIMON精心挑選了符合ISTJ類型的性格特征(內向、感知、思考、判斷),所以CIMON既不會像HAL9000那樣冷酷無情,也不會像《星球大戰》中的C-3PO那樣話癆煩人。當工作時認真樂于助人,當休息期間又是個友好的會話主義者——CIMON甚至會判斷什么時候自己該知趣地走開,給宇航員一個私人空間。
這或許沒有傳統印象中的AI那么強大勁爆,但卻無疑是當下正確的嘗試路徑,只有從一開始就不被人類當做單純的工具,才可能避免強大與恐懼的永恒拉扯。
此外,即使未來AI真有通過圖靈驗證,達到接近人類甚至超越人類認知思考表達水準的那天。人類也不應當只是猜忌恐懼,而是應當像歷史上,人類社會一步步給女性、青年、窮人、異族們權利那樣,認可機器人的權利,并與他們展開平等的人際交流。
不妨想想,如果起初根本就沒打算把AI當成人看的話,那還像上帝一樣創造亞當干什么呢?人類不就是因為感受到自己創造的物件,是類似人類而激動的嗎?而且人類歷史上無數的慘痛經驗告訴我們,當人類互相不認為對方也是人類時,慘劇幾乎一定會發生。因為兩個正常的人類個體間,即便產生了分歧爭執,也會首先考慮用談判等機制解決。一上來就要求對方永遠臣服,永遠忠于自己,否則必須毀滅的話,那就等于把自己在AI心目中“人類”的定位刪除了。
愿人類與AI永遠共依共存。

“掌”握科技鮮聞 (微信搜索techsina或掃描左側二維碼關注)
