機(jī)器人覺醒了,我們呢?
“我讓語音助手把燈關(guān)了,結(jié)果它不僅把燈開個不停,還發(fā)出冷笑。”
3年前,全球各地不少人被亞馬遜智能音箱接到指令后發(fā)出的冷笑嚇得夠嗆。今天,又有不少人拍下家里兩臺智能音箱煞有介事互相聊天的視頻,加上“笑哭”配樂發(fā)到社交網(wǎng)站。
如果再有人驚恐提出這是機(jī)器的覺醒,可能會被不以為然、嗤之以鼻——我們自認(rèn)已經(jīng)非常熟悉人工智能的運(yùn)作原理。
我們對AI的未來,真這么胸有成竹嗎?
(一)
在最近熱播的電視劇《你好,安怡》中,2035年,與人類極為相似但并不具備自主意識的“芯機(jī)人”走入千家萬戶,絕對服從人類的他們變成了保姆、服務(wù)員和工人。同時,幾個“芯機(jī)人”異類也開始出現(xiàn)在人類社會,他們擁有和人類一樣的情感、意識與思考能力,一系列機(jī)器人與人類家庭、社會的復(fù)雜糾葛隨之而來。
與宮斗、穿越、職場斗爭等戲碼不同,《你好,安怡》將目光放在類人機(jī)器人與人類共存的倫理問題上:機(jī)器人自我意識覺醒后的一系列挑戰(zhàn),機(jī)器人與人類之間的情感摩擦,比人類更加專業(yè)、智慧的機(jī)器人一旦具備了破壞性我們該如何應(yīng)對……
在古裝、言情、家庭劇占據(jù)電視劇主流的今天,討論科技倫理似乎并不討巧。提起中國的科幻影視作品,人們津津樂道的似乎只有《流浪地球》《瘋狂的外星人》等寥寥幾部。盡管有幾部國產(chǎn)科幻大片正在路上,但科幻題材的電視劇“出圈”作品則少之又少。這似乎與中國突飛猛進(jìn)的科技發(fā)展水平并不相稱。
不提拍攝手法、創(chuàng)作水準(zhǔn)等見仁見智的評價,可以肯定的是,《你好,安怡》對鼓勵中國觀眾接觸并思考科技倫理頗有益處。以往人們熟知的科技倫理大片總以西方社會為背景,通過歐美的話語體系與思維方式展開,如《西部世界》《黑鏡》《蒼穹浩瀚》等。對于中國觀眾來說,當(dāng)故事背景轉(zhuǎn)向熟悉的人群與生活,無疑會有更強(qiáng)的代入感,對機(jī)器人倫理問題也會有更深的危機(jī)感和探究動力。
(二)
放眼互聯(lián)網(wǎng)世界,關(guān)于科技倫理的討論,正以一種更有趣的方式走進(jìn)人們視野。
前不久,一條關(guān)于人工智能奇妙“腦回路”的微博曾吸引數(shù)萬網(wǎng)友轉(zhuǎn)發(fā)關(guān)注。
這位網(wǎng)友分享了在開發(fā)游戲AI中的一件趣事:技術(shù)人員在一個“狼抓羊”游戲中設(shè)定的邏輯是,如果狼抓到了羊就獎勵10分,撞到障礙物就扣1分,而為了保證盡快完成任務(wù),每秒鐘狼都會被扣0.1分,結(jié)束時得分越高獎勵越多。
聽上去合理的訓(xùn)練規(guī)則,卻收獲了越來越差的訓(xùn)練結(jié)果。工程師們仔細(xì)檢查后才明白,原來扮演狼角色的AI發(fā)現(xiàn),狼在大部分情況下都很難抓住羊,而追逐的時間越久扣分就越多,因此AI分析后,決定在游戲一開始便一頭撞死自己,這樣反而能獲得最高分。
雖然不少網(wǎng)友指出了算法設(shè)計中的問題,但這也暴露了人類為AI設(shè)定“終極目標(biāo)”時極易出現(xiàn)的漏洞:我們往往忽視了一些人性中默認(rèn)的最高準(zhǔn)則。
盡管有人認(rèn)為阿西莫夫的“機(jī)器人三定律”或類似法則可以解決這一問題,認(rèn)為只要設(shè)定機(jī)器人不得傷害人類,在這一前提下保護(hù)自身,就能有效避免機(jī)器冷酷無情達(dá)到目的時可能帶來的風(fēng)險。
然而,僅以自動駕駛為例,就可以發(fā)現(xiàn)最高準(zhǔn)則不一定能解決復(fù)雜的倫理困境。
各國在制定自動駕駛倫理法則時,就曾面臨經(jīng)典的“電車難題”:假如車輛的終極任務(wù)是保證人員安全,那么當(dāng)街角出現(xiàn)一群小學(xué)生,在沒有更多選擇的情況下,是應(yīng)該撞上去保全駕駛員,還是不顧駕駛員安危避讓以保護(hù)更多行人?如果僅以傷害人數(shù)多少來決策,那么人的年齡、職業(yè)、社會地位和親屬關(guān)系是否就應(yīng)完全不加考慮?
退一步說,即使AI能完美實現(xiàn)人的最高目標(biāo)與偏好,但人類社會的價值體系本身就存在陰暗面。
從人工智能的實際應(yīng)用來看,歧視、逐利、低俗等人性弱點,都逐漸在算法運(yùn)行過程中一一顯露。線上聊天機(jī)器人變成說臟話、種族歧視的不良少女;應(yīng)用于招聘、保險、司法審判等領(lǐng)域的算法可能存在職業(yè)、性別、種族歧視;人臉識別技術(shù)也不斷被曝出應(yīng)用于售樓處、衛(wèi)浴門店等,收集顧客信息用于牟利。
技術(shù)本身無善惡,但寫在人性中的貪婪、欲望,讓我們無法保證每名開發(fā)者、每個商業(yè)主體都能善用技術(shù)。而技術(shù)愈精進(jìn)壯大,其身后的陰影也會隨之?dāng)U張蔓延。
這并非杞人憂天。事實上,在技術(shù)不斷創(chuàng)新試錯的今天,大部分人對智能科技濫用的警惕性還遠(yuǎn)遠(yuǎn)不夠。
(三)
一個人類與強(qiáng)智能機(jī)器共存的未來似乎無可避免,而只有把AI倫理議題以平易近人、深入淺出的方式豐富呈現(xiàn),放到社會輿論場中央,才能討論得更全面、更透徹,我們也才能越來越接近一個完善的人工智能體系,才能公平給予社會成員全面參與、自主抉擇的權(quán)利。
關(guān)注AI倫理的不再只是AI工程師們,哲學(xué)、倫理學(xué)、法學(xué)等各學(xué)科力量都在被吸引進(jìn)來。這一關(guān)系每個人未來命運(yùn)的話題,無疑還需要社會公眾提升參與意識,積極討論和監(jiān)督。
與此同時,除了描繪人類與智能機(jī)器共舞的未來,大眾傳媒也應(yīng)積極引入更多倫理議題,提升人們的警惕性和辨別技術(shù)風(fēng)險的能力。
這并非鼓勵人們抗拒技術(shù)、因噎廢食,而是一份邀約,邀請每個人知情、參與,共同完善技術(shù)體系。在機(jī)器人覺醒之前,我們本身應(yīng)當(dāng)覺醒。
(刊于《半月談內(nèi)部版》2021年第4期)