首頁(yè) / 資訊中心 / 交通百科/我們應(yīng)該以怎樣的態(tài)度來(lái)對(duì)待人工智能系統(tǒng)?

我們應(yīng)該以怎樣的態(tài)度來(lái)對(duì)待人工智能系統(tǒng)?

發(fā)布時(shí)間:2018-10-08 分類:交通百科

人工智能系統(tǒng)在我們的經(jīng)濟(jì)和社會(huì)中正變得越來(lái)越普遍,而且設(shè)計(jì)的能力也在不斷增強(qiáng),可以在不受人類直接監(jiān)督的情況下進(jìn)行操作。算法交易系統(tǒng)在股市交易中所占的份額很大,而且還在不斷增長(zhǎng),帶有自動(dòng)駕駛系統(tǒng)的自動(dòng)駕駛汽車已經(jīng)開(kāi)始在道路上進(jìn)行測(cè)試。由于自治AI人工智能的使用不如以前的技術(shù)那么受人的監(jiān)督和控制,這就提出了這樣一個(gè)問(wèn)題:如果人工智能系統(tǒng)在運(yùn)作過(guò)程中造成身體或經(jīng)濟(jì)損害,法律系統(tǒng)如何才能確保受害者得到賠償。

人工智能

在對(duì)人工智能相關(guān)法律問(wèn)題感興趣的世界里,一個(gè)越來(lái)越熱門(mén)的話題是,一個(gè)自治的人工智能系統(tǒng)在法律上是否應(yīng)該被當(dāng)作一個(gè)“人”來(lái)對(duì)待。換句話說(shuō),我們是否應(yīng)該給予人工智能系統(tǒng)一些通常與自然人相關(guān)的權(quán)利和責(zé)任?如果是的話,究竟應(yīng)該賦予人工智能系統(tǒng)什么權(quán)利,以及應(yīng)該對(duì)它們規(guī)定什么責(zé)任?在指導(dǎo)和監(jiān)督自主系統(tǒng)的行動(dòng)方面,是否應(yīng)賦予人類行為者一定的責(zé)任?人工智能系統(tǒng)行為的法律責(zé)任應(yīng)如何在系統(tǒng)本身與其人的所有者、操作者或監(jiān)督者之間分配?

那么,哪些潛在的類似物可以作為法律體系如何對(duì)待人工智能的模式呢?

企業(yè)人格為人工智能人格提供了也許是最明顯的模式,公司至少有權(quán)簽訂合同,也有權(quán)購(gòu)買、擁有和出售財(cái)產(chǎn)。一家公司的股東只對(duì)公司造成的債務(wù)和傷害承擔(dān)責(zé)任,如果股東從事某種不當(dāng)行為,例如,故意不向公司投資足夠的錢來(lái)償還債務(wù),或者把公司的金融資產(chǎn)當(dāng)作個(gè)人儲(chǔ)蓄罐,我們可以起訴他們。?那么,我們應(yīng)該賦予人工智能系統(tǒng)類似的有限法人身份:賦予他們財(cái)產(chǎn)權(quán),賦予他們起訴和被起訴的能力?當(dāng)然,企業(yè)人格化造成的緊張局勢(shì)很可能會(huì)在人工智能系統(tǒng)中重演,人工智能系統(tǒng)的人格特征是否應(yīng)包括言論自由權(quán)和對(duì)犯罪行為的直接責(zé)任?

如果我們想擬人化人工智能系統(tǒng)的法律待遇,我們可以像對(duì)待雇員一樣對(duì)待他們,把他們的所有者當(dāng)作雇主對(duì)待。美國(guó)雇主通常有責(zé)任在雇用和監(jiān)督雇員時(shí)謹(jǐn)慎行事,同樣地,我們可能會(huì)要求業(yè)主在購(gòu)買人工智能系統(tǒng)時(shí),要小心行事,以服務(wù)于某一特定角色,并確保該系統(tǒng)受到足夠程度的監(jiān)管,特別是當(dāng)該系統(tǒng)的擁有人知道該系統(tǒng)會(huì)構(gòu)成特別的風(fēng)險(xiǎn)時(shí)。

如果我們真的想把人工智能系統(tǒng)擬人化,我們可以把它們比作孩子,把父母的責(zé)任強(qiáng)加給他們的主人。像孩子一樣,我們只能承認(rèn)非常有限類型的新型人工智能系統(tǒng)的權(quán)利,但授予他們額外的權(quán)利。和父母一樣,如果系統(tǒng)在所有者的“照管”下造成傷害,我們可以追究系統(tǒng)所有者的民事責(zé)任,甚至刑事責(zé)任。

以一種完全不同的方式結(jié)束,也許人工智能系統(tǒng)應(yīng)該像對(duì)待囚犯一樣對(duì)待。從法律的角度來(lái)看,囚犯最初是普通公民,但他們喪失了公民權(quán)利,在實(shí)施犯罪行為后被要求承擔(dān)額外的責(zé)任。對(duì)于人工智能人格的一種魯莽的前瞻性思考方式可能同樣會(huì)從人工智能系統(tǒng)也是人這一假設(shè)開(kāi)始,并給予他們?nèi)祟愃碛械娜抗駲?quán)利。然而,如果一種制度違反了法律,社會(huì)將保留懲罰它的權(quán)利,無(wú)論是將其置于需要額外監(jiān)督的“緩刑”形式,通過(guò)限制其操作自由來(lái)“限制它”,甚至通過(guò)實(shí)行相當(dāng)于死刑的數(shù)字手段。當(dāng)然,如果該系統(tǒng)是基于云的,或者是分散在多個(gè)司法管轄區(qū)的,那么這些懲罰將被證明是很難實(shí)施的。

這些類比中的哪一個(gè)最有可能吸引你,這取決于你對(duì)人工智能技術(shù)的懷疑程度,以及你是否相信在人工系統(tǒng)中承認(rèn)“人的身份”在道德上和倫理上都是可以接受的。最終,法律制度無(wú)疑會(huì)提出獨(dú)特的方式來(lái)處理由人工智能造成的傷害案件。但是,這幾種類似物可以讓我們一瞥這個(gè)新興的法律領(lǐng)域是如何發(fā)展的。