<dd id="yy8yy"><optgroup id="yy8yy"></optgroup></dd>
<small id="yy8yy"><menu id="yy8yy"></menu></small>
<sup id="yy8yy"><delect id="yy8yy"></delect></sup>
  • <noscript id="yy8yy"><pre id="yy8yy"></pre></noscript>
  • <sup id="yy8yy"></sup>
  • <tfoot id="yy8yy"></tfoot>
    <small id="yy8yy"></small>
  • <dd id="yy8yy"><pre id="yy8yy"></pre></dd>
    <sup id="yy8yy"></sup>
    <noscript id="yy8yy"><optgroup id="yy8yy"></optgroup></noscript>
    <noscript id="yy8yy"><dd id="yy8yy"></dd></noscript>

    亚洲gv永久无码天堂网,成年人夜晚在线观看免费视频 ,国产福利片在线观不卡,色噜噜狠狠网站狠狠爱

    用戶登錄投稿

    中國作家協(xié)會主管

    必須警惕“人工智能萬能論”,科技烏托邦不是人類的未來
    來源:雅理讀書(微信公眾號) | 於興中  2018年05月30日13:16

    引言

    算法已經(jīng)成為我們這個時代的迷思。算法為我們指引方向;算法為我們篩選研究成果;算法為我們確定該由機器還是人給我們做手術;算法也能為我們吟詩作樂。更為厲害的是,算法還可以自己學習改進,精益求精。算法助人為樂,給人提供服務的前景好像一片光明。

    然而,算法到底是什么?它們如何做到上面所說的這一切?算法可以解決任何難題嗎?算法有什么負面作用?這些問題計算機和人工智能的專家們到現(xiàn)在也還沒有統(tǒng)一的答案。

    倒是有人認為算法大體上是可以界定的。但普遍意義上嚴格的定義卻也不太可能,因為存在不同種類的算法,不同側重點的算法,而算法是在不斷擴展變化的。這種變化不僅僅是某一種算法自身的演進,而且會有新種類的算法被不斷發(fā)掘出來。這就使算法的概念變得很難確定。

    比如,除了歷久不衰仍在運用的經(jīng)典的順序算法(sequential algorithms),現(xiàn)在已有的算法包括平行(parallel)、互動(interactive)、分布式(distributed)、實時(real-time)、混合(hybrid),量子(quantum)算法,等等。新型的算法很有可能還會出現(xiàn)。當然,這并不意味著給算法賦予嚴格的定義是絕不可能的事。

    集所有算法于一身的模范算法是算法研究者的夢想。算法雖然難以界定,但有人說我們已經(jīng)進入了算法社會,人工智能、互聯(lián)網(wǎng)、物聯(lián)網(wǎng)這些只不過都是算法社會的序曲。

    —時間,算法社會、算法文化、算法之治、社會算法這些新詞成為學界熱議的話題。那么,算法社會到底是一種什么樣的社會?人在算法社會中占據(jù)何種地位?算法之下,人還有沒有隱私?人還有沒有活路?

    我們已經(jīng)生活在算法社會,而且很多人認為這是一件好事。從經(jīng)濟的角度來看,機器學習的算法可以刺激創(chuàng)新和生產(chǎn)增長。有研究表明,用于機器學習算法的大數(shù)據(jù)能夠為很多行業(yè)帶來增長點,諸如廣告業(yè)、醫(yī)療衛(wèi)生、基礎設施、物流、交通運輸,等等。

    就日常生活而言,算法可以幫助我們節(jié)省時間和精力,比如網(wǎng)上搜索工具,網(wǎng)上銀行以及智慧手機的程序,等等。最近人們在期待的數(shù)字個人助手很可能幾年后比手機更為搶手,因為數(shù)字個人助手可以整合各種適合我們的信息,并且預料我們會有什么樣的需要。

    然而,算法的廣泛使用也給一般人造成威脅。如果大公司可以通過大數(shù)據(jù)和算法事先了解我們的需求,那么這就對自主選擇和個人隱私帶來很大不便。我們的信用評估、健康記錄等現(xiàn)在都由機器來承擔。這對大企業(yè)來講是大好事,可以使企業(yè)更加有效率,而且有可能降低價格。

    在法律領域里擬真法律助手也越來越常見。

    ROSS系統(tǒng)已經(jīng)進入多家律師事務所。Lex Machina也成為法律人越來越依賴的研究平臺。由于算法技術的發(fā)展,法律領域里事實上正在發(fā)生一場大的變革。法律人所從事的事業(yè)實際上需要根據(jù)所掌握的信息作出判斷。無論根據(jù)規(guī)則推理還是根據(jù)案例推理,都需要大量數(shù)據(jù)作為判斷的基礎。大數(shù)據(jù)的出現(xiàn)為法律人提供了非常好的機會。

    目前人們推崇的“定量法律預測”(QLP)很可能會越來越重要。然而,對于法律消費者來說,大數(shù)據(jù)和算法并不總是福音。雖然某種算法設計之初,動機是中立的,但也有可能產(chǎn)生偏見。可能由于編程者下意識地把自己的偏見編進了程序,也有可能數(shù)據(jù)本身就反映了相應的社會偏見。

    比如,在就業(yè)方面,大數(shù)據(jù)已經(jīng)廣泛用于幫助雇主挑選理想的工作人員,算法根據(jù)自己的運作方式將應聘工作者進行篩選,并為雇主提供一份理想人選的名單。已經(jīng)有很多例子表明,通過算法提供的名單同樣會有歧視的現(xiàn)象。在美國的環(huán)境下,如果一個人的名字聽起來不像英美人常用的名字,則有可能成為算法歧視的對象。

    對于同一事物,由于關注的重點不同,觀察的視角不同,所看到的結果也就不同。就互聯(lián)網(wǎng)而論,生意人關注的是網(wǎng)上的商機,自由主義者關注的是網(wǎng)上的權利,政府工作人員則對網(wǎng)上內容的治理更感興趣。網(wǎng)絡已經(jīng)滲透到我們生活的各個角落,離開網(wǎng)絡,似乎已經(jīng)很難生存下去。互聯(lián)網(wǎng)起到了重新界定人生意義的作用,而網(wǎng)絡空間也發(fā)展成了另一個世界。

    本文擬就算法社會的利與弊做點非專業(yè)性的評論,旨在強調人工智能的限度就是人的限度,算法社會并不是理想的社會。它們只是人的智性單向度發(fā)展的最新成果,科技烏托邦并不是人類的未來。

    理想的人類社會應該是人的智性、心性和靈性都能得到高度發(fā)展的社會。算法社會只能使人的智性過度發(fā)展,從而使人喪失人性中更為寶貴和自然的組成部分,如心性和靈性。因此,必須以警惕的態(tài)度審視目前正在不斷升溫的人工智能萬能論。

    算法社會利弊論

    今天,幾乎我們從事的所有事情都由算法決定。谷歌決定我們每天首先讀什么,亞馬遜決定我們買什么書,找房子、找工作或者找朋友,都離不開各種各樣的網(wǎng)絡服務商提供的平臺,有意無意地遵從別人為你安排好的選擇,盡管你可能不愿意讓一臺機器為你做決定。我們在網(wǎng)上的行為和交易都會留下痕跡。無論買書,搜餐館,還是在網(wǎng)上跟銀行打交道都會成為“大數(shù)據(jù)”,網(wǎng)商將會根據(jù)你的喜好和購物習慣給你推薦物品。

    算法本來只是由編程員編寫的一些電腦程式,但今天的算法已經(jīng)能夠自學,自我完善。它們接受的數(shù)據(jù)越多,讀懂人的行為的概率就越大,在人工智能的路上就更進一步,盡管我們無法判斷在這條路上走下去是好是壞。

    故此,霍金(Haw King)說:

    “成功創(chuàng)造人工智能是人類有史以來最重大的事情;然而,不幸的是,這也可能是最后一次,除非我們學會如何避免危險。”

    (“Success in creating AI would be the biggest event in human history."“Unfortunately,it might also be the last,unless we learn how to avoid the risks.”)

    如上所述,在算法社會,大數(shù)據(jù)、算法以及人工智能的運用與人的命運息息相關。

    人們的生活、就業(yè)及各種機會都受制于這些因素,而受惠于這些因素的主要是政府和企業(yè)。算法社會為政府和企業(yè)提供了大量的收集個人信息并且監(jiān)視控制個人的機會。政府通過各種渠道不僅可以有效地控制個人的網(wǎng)上信息和行為,也可以迫使企業(yè)就范,利用企業(yè)的基礎設施和技術,幫助并參與對個人信息和網(wǎng)絡的控制。

    因此,在數(shù)字時代,個人的言論自由面臨的不僅僅是政府的監(jiān)控,同時也受到企業(yè)的監(jiān)控,而且企業(yè)的監(jiān)控無遠弗屆。當今的主要網(wǎng)絡提供商都是大型的跨國公司,它們的手臂可以伸到世界的每個角落。換句話說,在監(jiān)控資本主義的視野內,個人作為算法與網(wǎng)絡的消費者是無處逃遁的。

    政府的手腳力所不能及的地方,企業(yè)卻更為有效。當然,政府和企業(yè)的合作是建立在利益基礎上的,而政府和企業(yè)之間的利益也并不一致。政府需要借助企業(yè)的基礎設施和技術力量達到自己的目的,而企業(yè)則為了免于干擾或獲得更多資源與政府合作。

    盡管政府用納稅人的錢支持商家開發(fā)人工智能的做法是否正確很值得懷疑,但這種事情往往會以冠冕堂皇的借口證成,比如國家戰(zhàn)略、民族大計等。在政府、企業(yè)和個人這個三角關系中,個人沒有多少發(fā)言權,只能是犧牲品。對個人權利(尤其是隱私權和言論自由)的威脅來自多方面的渠道。因此,在算法社會,消費者的權益變得尤其重要。

    智能機器系統(tǒng)正在改變我們的生活。它們可以幫助人們安排日常事務,操持家務,從事研究,提供翻譯,判斷真假,協(xié)助斷案,甚至進行藝術創(chuàng)作。隨著人工智能在生活中的普及和不斷提高,人類的生活會變得越來越有效率,越來越豐富。

    與此同時,隨著人工智能以各種各樣的形式走入我們的生活世界,人們開始擔憂它可能帶來的麻煩。

    機器人違反了法律,或者傷害了人身或財產(chǎn),誰來承擔責任?

    如何控制機器人產(chǎn)品的質量?

    自然人損壞了機器人,應該如何賠償?

    無人駕駛的交通工具出了事故該如何問責?

    如何對待不良商家借人工智能謀取暴利?

    如何應對人工智能引起的業(yè)界的亂象和泡沫?

    如何規(guī)制人工智能的科學探索,從而避免使其走向反人類的方向?

    諸如此類的問題使要不要制定專門的人工智能法成為一個重要的話題。姑且不說像人工智能是否會取代人工,通用人工智能會不會超越人類等這類大科學家、思想家和企業(yè)家們所擔心的終極問題。

    當然,目前人們最擔心的還是自己會不會丟掉工作。這種擔心不僅體力勞動者有,腦力勞動者也有。人工智能的發(fā)展會不會帶來大量的失業(yè)?貨運卡車行業(yè)很明顯的已經(jīng)受到了沖擊。

    當人們熱議伊隆?馬斯克(Elon Musk)的自動駕駛汽車如何了得之時,可以預見的問題是卡車司機、出租車司機該怎么辦?自動化將會使更多的人失去工作機會,包括辦公室工作人員。

    有多種研究已經(jīng)表明,未來20年間,大量的流水線工作人員,人文含量不高的工作崗位都會面臨被機器人代替的危險。理想地說,自動化在某種意義上說是一種解放生產(chǎn)力或者還人以自由的動力。被解放出來的人也許可以從事更有意義的工作或者研究。一種樂觀的態(tài)度認為,新技術革命初期會帶來失業(yè)潮,但最后都會創(chuàng)造更多的機會。但沒有人非常肯定地說這次也會如此。

    另一個令人擔心的問題是不平等。

    大數(shù)據(jù)、人工智能、算法、數(shù)據(jù)解析、機器學習、區(qū)塊鏈,這些概念每天都在轟炸著我們。可是,真正理解它們卻需要很好的教育背景。算法社會對人的科技素質的要求非常高,沒有相當?shù)慕逃疁适请y以適應的。這就注定了算法社會一定是科技精英社會。少數(shù)人會成為主宰,而大多數(shù)人只能順從。

    我們可能正在期望一個比現(xiàn)有社會更不平等的社會。這種不平等是從起點到結果的全方位的不平等,這是羅爾斯(Rawls)、桑德爾(Sandel)和森(Sen)合起來也無法對付的。

    這種不平等首先是對資源占有的不平等。

    在數(shù)字時代,數(shù)據(jù)是最重要的資源。對數(shù)據(jù)的占有是成功與否的基礎所在。目前的狀況是,只有為數(shù)不多的幾家公司有能力占有大量的數(shù)據(jù),競爭也只能在很小的圈子里進行。臉書、谷歌、亞馬遜、蘋果及微軟這五家互聯(lián)網(wǎng)與人工智能開發(fā)的巨頭在業(yè)界早已形成壟斷之勢。

    其次是對機器創(chuàng)造的財富的分配。

    由于機器的廣泛應用,大量的人工被代替。資本家利用機器創(chuàng)造的財富分配給被取代了的人員的可能性并不大。財富最終自然而然地掌握在少數(shù)擁有人工智能的大公司的所有者和支持他們的當權者手中。貧富差距正在而且將會被進一步拉大。所謂“后勞工”社會就是數(shù)字技術上有優(yōu)勢的寡頭及其技術精英團隊和當權者同謀共贏的社會。思之,令人悲傷不已!

    機器對于人的行為的影響也是值得擔憂的一個問題。

    智能手機的發(fā)明給人們的生活帶來了無與倫比的方便,但也幾乎把人變成了癮君子。很多抵抗力較弱的人已經(jīng)淪為手機的奴隸,每天機不離手,幾乎分分秒秒都在看手機,或收發(fā)短信,或玩游戲,或看節(jié)目。美國佛羅里達州的一位母親沉迷于手機游戲,不顧孩子。孩子一哭,便對其施加暴力,致使孩子死亡,做母親的后悔莫及,而且還要面對法律的制裁。這樣的悲劇在美國不止一次地發(fā)生過。

    今天人們對機器的沉溺比當年人們吸食鴉片可能有過之而無不及,所不同的是今天人們對迷戀機器的危害還沒有充分認識。

    任何先進技術都是一把“雙刃劍”。可以被用來造福人類,也可能被用來毀滅人類。人工智能研究的最新最尖端的成果恐怕都是首先用于軍事方面。各國出于保護自己利益的需要,爭先恐后地發(fā)展人工智能武器裝備。無人駕駛飛機成為新一輪軍備競賽的主要裝備。

    現(xiàn)在,擁有殺人機器人的國家已經(jīng)不少,而且在不斷增加。人工智能武器已經(jīng)成為軍火商販賣的新式武器。主權國家一面在指責別的國家惡意攻擊他們,一面在以防御的借口大肆發(fā)展人工智能武器。人工智能武器不僅指殺人的機器人,或者用機器人代替人去當兵,而且更重要的是人工智能對網(wǎng)絡系統(tǒng)和其他智能系統(tǒng)的癱瘓性的攻擊。網(wǎng)絡安全因之是非常重要的安全問題。

    然而,更為吊詭的而且也是無法預料的是人工智能自身的發(fā)展有可能超出人類的掌握。也許在某一個環(huán)節(jié),人創(chuàng)造的人工智能走上了獨立自主的道路,完全脫離了人的掌控而自行其是,成為人的敵人或者從事不利于人類的活動。就像傳說中的只喜歡制造曲別針的機器人,一切在它的眼中都是制造曲別針的原料,連人也不能幸免。更不用說,如果庫茨韋爾(Ray Kurzweil)等人翹首以待的“奇點”成為現(xiàn)實,人與機器的關系將會發(fā)生何種翻天覆地的變化!

    奇點:

    科技烏托邦的天堂,人的地獄?

    所謂奇點,我們知道這是廣義相對論里面的觀點,后來也不斷地有人在用,庫茨韋爾把它推到了極致。

    意思是什么呢?奇點實際上就是虛實相交的點,海天結合的地方,時間和空間結合的地方。既存在也不存在,充其量只是一種理論假設。

    庫茨韋爾寫了一本書就叫《奇點臨近》,提出所謂“奇點理論”,宣稱2045年將出現(xiàn)“奇點”時刻,人類文明會走到終點,生物人將不復存在,取而代之的是一個叫作“奇點人”的新物種。

    換言之,庫茨韋爾預測2045年人類將與機器融合,獲得永生。在《人神一未來簡史》中,赫拉利(Harari)把人完全劃約為算法,認為每個人真正的實質性的構造是算法。

    如果人真的只是由算法構成的,那人工智能超越人是毫無疑問的,因為人不會比機器算得更快。這是一種非常可怕的理論,幸運的是,相信這種理論的人并不多。

    對奇點的癡迷也是對人工智能的迷思。有些人認為超級人工智能的來臨已經(jīng)是鐵板釘釘?shù)氖隆5嗟膶W者專家則認為,目前還沒有跡象表明近期會有超級人工智能的出現(xiàn)。就目前來看,人工智能可以解決的問題還是很有限的。

    誠然,未來學家們在想象的空間里可以任意馳騁,勾勒人類未來的藍圖。但技術烏托邦已經(jīng)從樂觀走向了悲觀。庫茨韋爾和赫拉利陶醉在對技術的膜拜之中,而對人類的命運僅僅給予了漫不經(jīng)心或者輕描淡寫的關注,好像人類的未來并不那么重要,只要他們心中的人即算法或者“奇點”的臨近即可成為現(xiàn)實。技術烏托邦的推動者們認為技術可以解決一切問題,實際上是對理性的過分依賴。

    技術烏托邦首先是一種思維方式,這種思維方式代表的是進步史觀,而這種進步主要是科技的進步。進步史觀在人類發(fā)展史上發(fā)揮過至關重要的作用,但也受到過尖銳的批判。

    在十八九世紀,人們覺得世界是進步的,今天比昨天好,明天會更好。然而,無數(shù)歷史事實證明進步并不是絕對的。從幾千年來的歷史來看,人性可能沒有發(fā)生很大變化。贊成技術烏托邦的人想要找出一種科技模式,并用這個模式統(tǒng)御制度設計,使人類社會更加完美,人們的生活過得更好。一旦能夠通過計算的方式把這些制度做出來,這就是最理想的社會。可是大家都知道這是非常天真的見解,因為人不僅僅是計算型的/理性的,而且還是隨情感和情緒變化的,非理性的。

    歷史證明,人類社會的發(fā)展,一如個人的成長,起關鍵作用的往往不是理性的設計,而是非理性的激情和偶然性。植根于邏輯推理的技術烏托邦并不是一條出路。

    換個角度看問題,我們應該重新思考如何能夠重拾信心,重新發(fā)現(xiàn)立足點。這個立足點不僅僅是對人工智能的認識,而且是對人的認識,對人類社會的認識,對現(xiàn)存的各種各樣制度的認識。再一種可能的情況,就是如何能夠使人的心性、智性、靈性全面發(fā)展,從而避免單向度的發(fā)展。應該充分認識到,如果自然人會被機器人所代替,那恰恰就是因為人的智性被發(fā)展到了極端,而煙沒了人的心性和靈性。

    機器人可有心性與靈性?

    機器人會不會有一天徹底占領地球?機器人會不會全方位超過人類?

    截至目前我們看到的對這個問題的回答,大體是從理性、科技及利益的角度給出的。算法的特性,諸如輸入輸出、明確性、有限性和有效性可能已經(jīng)為算法預設了局限性。也就是說,算法是可以被人控制的。但是機器學習的算法卻有可能超出人的掌握而自主發(fā)展。一旦算法自主發(fā)展,機器人超過人類就不是天方夜譚。

    但是,如果從人的秉性出發(fā)來看問題,機器人是無法全方位超越人類的。所謂人的秉性是指人攝取精神價值資源的天賦。傳統(tǒng)上,它被理解為包括理性和非理性兩部分,非理性還可以進一步分為感情和信仰。

    合而觀之,人的秉性包括了理性、感情和信仰三個層面(或三個維度)。這三個層面筆者稱為智性、心性與靈性。人不僅具有智性,還有心性和靈性。一般有經(jīng)驗的人做決定雖然主要靠理性,但心性和靈性的影響也不可忽視,有時可能更為重要。人工智能如要超越人類,它必須具有心性和靈性,只有智性是遠遠不夠的。

    人的心性是感情、情緒、感覺的發(fā)源地,屬于完全不同于智性的領域。截至目前,尚無報道聲稱已經(jīng)發(fā)現(xiàn)某個機器人為情所累。即便是克隆人,也可能只是一種結構性的存在,即可以作為軀體存在,但卻無法復制一個人的歷史,生活的內容及其興趣愛好。機器人就更不可能做到這些了。

    智性的存在表現(xiàn)在合理性,可計算性、規(guī)則性,功利性和經(jīng)驗上。

    合理性就是因果關系、比例、得失規(guī)劃,等等。合理性的行為是排除非理性因素干擾的行為。規(guī)則性是智性的另一體現(xiàn),一種活動或者設想,只有把它規(guī)則化以后,才好把握,才好便于認識和重復。

    功利性是智性的另一體現(xiàn),一件事可為或不可為,有利或無利,需要智性予以判斷,智性禁止得不償失的行為。經(jīng)驗是智性的另一個角度,對某一事物的認識和處理,在無法直接推理的時候,只有借助經(jīng)驗。經(jīng)驗證明是可行的則可行,經(jīng)驗證明是不可行的則避免之,這四者合而為一便是智性。人工智能的概念涵蓋了邏輯推理、可計算性、規(guī)則性、功利性和經(jīng)驗,無疑是人類智性的體現(xiàn)。

    靈性是一個難以捉摸的維度,非常難把握。但是我們每一個人都具有靈性,只是程度的不同而已。很多人出家、信教,很快就能修成正果,但不是所有的人都可以,有些人一輩子都無法修成正果。靈性又可包括恐懼感(或畏懼),崇拜,生命傾向、神秘性、神圣性和普世的愛等方面。

    人類的心性、智性和靈性是相輔相成且互相制衡的。正如在現(xiàn)代政治制度的安排方面宗教要受到理性的限制,人工智能的發(fā)展也應該受到人的心性和靈性的制約。如其不然,好萊塢的科幻大片里智能人占領世界的預言就可能會成為現(xiàn)實。

    現(xiàn)在人工智能還處于弱人工智能階段,機器人還不能自己思考。強人工智能的出現(xiàn),根據(jù)300多個人工智能科學家的推測,至少也要45年以后。但研究人工智能可否擁有感情的問題,即人工情能(Artificial Emotional Intelligence)的研究,已經(jīng)成為一個熱點。但是,根據(jù)目前的研究來看,機器人是否會具有心性和靈性依然是一個可想但不可及的問題。

    法律的作用

    18世紀意大利思想家維克(Vico)指出,歷史上曾經(jīng)存在過神的時代、英雄的時代和人的時代。與此相適應產(chǎn)生了三種不同的法律。神學指導下的法律、英雄的法律和自然人性法。

    今天,我們進入了機器的時代。機器時代召喚與之相適應的法律和與之相匹配的法律認識論和法律方法論。機器時代的法律或可被稱為人一物關系法、科學自然法,抑或文理混合法。

    不管怎么稱呼,這種法律所要調整的主要對象是人和自己制造的工具的關系,包括有生命的或無生命的工具,或類人的工具,而這種關系并不是一種財產(chǎn)關系。

    如同前三類法律的發(fā)展變化一樣,機器時代的法律也是建立在已有法律基礎上的,并不是一種完全沒有傳統(tǒng)支持的新型法律。

    然而,傳統(tǒng)法律的局限也是顯而易見的。法律的主要內容是契約、財產(chǎn)和權利義務。就契約而論,在以太坊區(qū)塊鏈平臺上廣泛應用的智慧契約本身就是運算代碼的一種反應。傳統(tǒng)契約法對它一籌莫展。就財產(chǎn)而論,擬真財產(chǎn)性質的確定是相當困難的事情。到底是擬真資源還是擬真財產(chǎn)尚存在爭議。

    更何況,該用何種法律調整擬真資源或財產(chǎn)也是沒有定論的問題。契約法、勞動法、知識產(chǎn)權法以及物權法都可能適用。就權利的主體而言,當今時代,動物有權利、山川草木皆有權利,連機器人都可能有權利。這完全顛覆了傳統(tǒng)的權利學說。需要一種新的權利學說來解釋并證成這些權利的合法性。

    更為重要的是,網(wǎng)絡技術、人工智能技術等科學技術本身具有自己的規(guī)律,人為的法律可能鞭長莫及,無法發(fā)揮有效的作用。這個領域中有效的調整工具可能更多的是人們所熟悉的代碼(Code),而非法律。簡言之,機器時代給現(xiàn)有的法律及其制度提出了難題,需要人們從新的角度認真對待。傳統(tǒng)的源自19世紀的法律思想和法典意識是無法應對21世紀的新型的動態(tài)法律關系的。

    另外,法律如何反映機器時代新的道德和倫理則是更大的課題。人的倫理、職業(yè)倫理、生物研究的倫理、機器人的倫理、人工智能的倫理等都與法律密切相關。這些都可能是機器時代立法和司法必須要遵循的指導原則。今天的法律人所面臨的學習任務是非常艱巨的。

    有些人認為,現(xiàn)有的法律已經(jīng)足以應對人工智能引起的和可能引起的新的法律關系,或者調控由人工智能引發(fā)的法律后果,并不需要新的專門的法律調控。持這種觀點的人主要把人工智能看作一種產(chǎn)品,并且認為現(xiàn)有的產(chǎn)品責任法就足以應對人工智能引起的法律問題。

    具體而言,如果一個機器人侵犯了別人的利益,或者導致了別人的經(jīng)濟損失,機器人的制造者、所有者或者編程者應該承擔法律責任。然而,機器人并不是單純的一般意義上的產(chǎn)品。現(xiàn)有產(chǎn)品責任法中關于產(chǎn)品的概念,并沒有預設針對智能活動產(chǎn)品的內容。

    無論如何,如果要規(guī)管人工智能和算法的研發(fā),就必須要賦予人工智能一定的法律地位。雖然有些國家的法律已經(jīng)試圖賦予機器人一定的法律主體資格,比如韓國的機器人法案提倡機器人應具有相應權利義務的電子人格,愛沙尼亞的人工智能立法把機器人看作人的代理,介于獨立人格和財產(chǎn)之間,但很多研究者都不愿意把人工智能看作具有主體性的存在,而僅僅把它看作一種工具或者產(chǎn)品,不具有主體資格。

    制定法律等于建立一種社會制度。制度建立的資源和途徑大致有三:

    一是把行之有效、持之以恒的實踐制度化。比如市場的出現(xiàn),開始并沒有固定的市場的概念,但人們習慣于在一定的時間和一定的地點交易,久而久之就產(chǎn)生了市場和調節(jié)市場的規(guī)范系統(tǒng)和制度。

    二是把精確可行的概念和理論制度化。人類社會有些制度的誕生和發(fā)展建基于偉大思想家的理論和學說。這方面的例子不勝枚舉。

    三是向別人借鑒學習,比如法律移植。有史以來人們對法律、習俗、道德等規(guī)范系統(tǒng)的相互借鑒從未停止過。

    就實踐而言,人工智能研究和運用突飛猛進的歷史并不長。實踐中尚未積累起足夠的經(jīng)驗,也未發(fā)展出可以類型化的比較成熟的牽涉人工智能的法律關系。因此,無法進行制度化。也就是說,目前不可能制定出有關人工智能的完善的法律。從理論與學說的角度來看,無論描述性的還是預測性的,目前的理論界尚未就什么是人工智能的問題達成一致的認識,而且也缺乏主要的概念范疇。

    因此,把理論或者學說制度化的前景也并不十分樂觀。從借鑒移植的角度來看,截至目前世界上也還沒有一部被命名為“人工智能法”的法律問世。但是,調整人工智能某些方面或某種形式的法律卻早已存在。

    比如,有關網(wǎng)絡平臺管理、機器人以及網(wǎng)上交易等方面的法律,諸如歐洲議會“關于制定機器人民事法律規(guī)則的決議”,韓國的“智能機器人法”,美國眾參兩院的“自動駕駛法案”,等等。

    毫無疑問,制定單項的或專門的法規(guī)調控人工智能的某一具體方面或形式是既有實踐,但這并不排除制定一部綜合性的概括性的“人工智能法”的可能性。當人們不能完全掌握所需信息的情況下,可以先制定一部原則性的簡短的法律,隨著實踐的深入再制定詳細的實施細則。

    法律是在不斷發(fā)展變化中實現(xiàn)其生命價值的。

    比如,工傷的賠償最初大部分國家都采取嚴格侵權責任制。當一個工人受傷,雇主有過錯就要給予賠償,雇主無過錯就不用賠償。這種侵權的賠償制不能夠涵蓋工傷的各種情況,各國不停改革,終于找出新的解決辦法一社會保險制度。通過社會保險制度來彌補侵權補償?shù)牟蛔悖构r償更加人性化。后來又發(fā)展到不管雇主有無過錯,只要有工傷都要賠償。這就要拿出一筆基金來處理工傷。在特別發(fā)達地區(qū),只要是與工人有關,哪怕是在路上出了車禍,也要賠償。

    人工智能法對機器人行為的規(guī)管,也會有一個逐漸完善的過程。

    如果要制定一部概括性的人工智能法,這部法律至少應該明確立法的目的、指導原則以及鼓勵和限制的范圍和內容。在精神上至少應該反映出人類對自己的創(chuàng)造物的掌握能力和對科學技術規(guī)律的充分尊重。

    這部法律同時應該設立一個監(jiān)管人工智能研發(fā)的專門機構,并賦予其相應的權力,諸如質量認證的權力,進一步制定實施細則和計劃的權力,起訴違法的權力以及行政處罰的權力,并且針對這些權力大致規(guī)定實施的程序和大體要求。這個機構一定要吸收有關專家作為成員。紐約市議會新近通過的《算法問責法案》里就有專項規(guī)定,要求成立一個由自動化決策系統(tǒng)專家和相應的公民組織代表組成的工作組,專門監(jiān)督自動決策算法的公平和透明。

    結語

    世界正在發(fā)生翻天覆地的變化。我們正處在大轉變的開端。這次的變化在人類歷史上從未有過類似的先例。有些人喜歡用“第X次工業(yè)革命”來形容這次轉變,但不夠傳神,因為這次轉變要比工業(yè)革命意義深遠得多。這次變化的后果現(xiàn)在尚難以預料,但很多科學家、學者和商業(yè)人士都紛紛表示為人類的未來擔憂。而未來學家、技術烏托邦主義者則非常向往這一時代的君臨。

    人類歷史上曾經(jīng)有過劃時代的巨變,諸如宗教改革、文藝復興、工業(yè)革命、啟蒙運動,以及法國大革命、美國獨立革命、俄國革命、中國的兩次革命,以及世界上其他國家的革命、獨立、合并等這些不可不稱之為偉大轉變的事件。

    然而,這些歷史巨變比起正在發(fā)生的和將要發(fā)生的巨變,真是小巫見大巫。因為以往的巨變無論如何都是以人為中心發(fā)生的變化,人類并沒有對自己的未來失去控制,而今天孕育著的變化卻指向反人類、非人類,乃至滅絕人類的后果。這就是所謂后人類時代的降臨。

    這種后人類狀況的來臨雖然是本世紀初的事,但其種子早就孕育在上世紀的社會制度和文化思潮中了。

    一言以蔽之,人對自己的狀況始終不甚滿意,一直在追求更高品質的生活,試圖改變現(xiàn)有的狀態(tài),無論經(jīng)濟狀態(tài)、生活狀態(tài)、政治狀態(tài)還是個人狀態(tài)。也就是在這種不斷追求完美和完善的過程中,人類迎來了后人類時代。

    近現(xiàn)代以來不斷改進的寬容與反思的文化環(huán)境,給了人們不斷認識、解放自己的機會,使個人的追求擺脫了傳統(tǒng)的束縛,自由放任,無拘無束地從事自己的研究。從宗教寬容到政治寬容再到文化寬容,現(xiàn)代社會鼓勵人們追求快樂幸福,自我實現(xiàn)。

    這使人們追求完美的事業(yè)從形象到職業(yè),從生活方式到科學研究成為正當而有意義的工作。

    使自己變得更美更健康的人類增強工程方興未艾,化妝保養(yǎng)整容,采用激光除痣或美膚,機器強身已經(jīng)成為普遍現(xiàn)象。這預示著如果有一天,體內植入芯片或者其他異物能夠使人變得更聰明、更強健或更美麗,人們是不會拒絕的。如此一來,人就把自己從自然人變?yōu)楹笕祟惲恕?/p>

    與此相聯(lián)系,人對自己本身的認識也有了很大發(fā)展,因此才有了各種性傾向的展露和模糊。另外,由于所謂啟蒙、現(xiàn)代化、科學的發(fā)展而導致了現(xiàn)代單向度社會環(huán)境的存在,而單向度的環(huán)境則孕育了單向度的人。

    一言以蔽之,這些人基本上是理性—科學—經(jīng)濟—法律人。在這樣的框架里面,人的理性越來越發(fā)達,而心性和靈性則受到了毀滅性的打擊。如果不做有意識的努力以遏制人的智性的無限制發(fā)展,算法社會將進一步打擊并有可能毀滅人的心性和靈性,那也就意味著人的末日的來臨。

    亚洲gv永久无码天堂网
    <dd id="yy8yy"><optgroup id="yy8yy"></optgroup></dd>
    <small id="yy8yy"><menu id="yy8yy"></menu></small>
    <sup id="yy8yy"><delect id="yy8yy"></delect></sup>
  • <noscript id="yy8yy"><pre id="yy8yy"></pre></noscript>
  • <sup id="yy8yy"></sup>
  • <tfoot id="yy8yy"></tfoot>
    <small id="yy8yy"></small>
  • <dd id="yy8yy"><pre id="yy8yy"></pre></dd>
    <sup id="yy8yy"></sup>
    <noscript id="yy8yy"><optgroup id="yy8yy"></optgroup></noscript>
    <noscript id="yy8yy"><dd id="yy8yy"></dd></noscript>