首頁 / 資訊中心 / 交通百科/如果人工智能系統(tǒng)可以是“人”,他們應(yīng)該有什么權(quán)利?

如果人工智能系統(tǒng)可以是“人”,他們應(yīng)該有什么權(quán)利?

發(fā)布時(shí)間:2018-09-30 分類:交通百科

公司的成立并被賦予某些權(quán)利,是因?yàn)樯鐣J(rèn)為這樣做在經(jīng)濟(jì)和社會上都是有益的。當(dāng)然,在這方面已經(jīng)有了很大的回?fù)?。法律界?nèi)外的許多人都在問,我們是否賦予了企業(yè)太多的權(quán)利,并把它們當(dāng)作人來對待。那么,如果我們決定將人工智能系統(tǒng)作為某種意義上的“法人”對待,我們應(yīng)該賦予它們什么權(quán)利和責(zé)任呢?

人工智能

這在一定程度上是因?yàn)槠髽I(yè)人格的概念多年來已被證明是如此可塑性,即使公司是法律世界中最古老的人造“人”的例子,我們?nèi)匀粵]有堅(jiān)定地決定公司應(yīng)該擁有什么權(quán)利和責(zé)任。事實(shí)上,我能想到的法律“人格”的基本規(guī)則只有一條:從法律意義上講,“人格”至少要求有起訴的權(quán)利和被起訴的能力。除此之外,“人格”的含義已經(jīng)被證明是相當(dāng)靈活的。這意味著,在很大程度上,我們應(yīng)該能夠在逐項(xiàng)權(quán)利和逐項(xiàng)責(zé)任的基礎(chǔ)上決定ai人工智能人的概念所包含的權(quán)利和責(zé)任。

對于企業(yè)來說,產(chǎn)權(quán)和隨之而來的責(zé)任是企業(yè)人格的核心,公司可以簽訂合同,但如果他們違反合同,也可以承擔(dān)責(zé)任。他們可以擁有專利,但也可以因?qū)@謾?quán)而被起訴。是否應(yīng)該將類似的財(cái)產(chǎn)權(quán),不動產(chǎn)、知識產(chǎn)權(quán)還是其他資產(chǎn)授予人工智能系統(tǒng)?如果是這樣的話,人工智能系統(tǒng)應(yīng)該能夠買賣這樣的財(cái)產(chǎn)而不需要人類的同意嗎?

如果人工智能的目標(biāo)是鼓勵(lì)更多的資金投入人工智能,那么這些問題的答案可能是“是的”。如果人工智能系統(tǒng)有自己的資產(chǎn),就會有一個(gè)明顯的資金來源,如果人工智能系統(tǒng)造成損害,受害者可以從中獲得賠償。但許多人可能會對人工智能系統(tǒng)感到不安,這些系統(tǒng)不僅執(zhí)行金融和財(cái)產(chǎn)交易(電子系統(tǒng)已經(jīng)在執(zhí)行這些交易),而且自己擁有潛在的財(cái)產(chǎn)和金融資產(chǎn)。

從事言論自由,作出政治貢獻(xiàn)的權(quán)利如何?公司顯然沒有能力進(jìn)行字面意義上的“演講”,但美國最高法院在“著名公民聯(lián)合案”中堅(jiān)定地認(rèn)定,公司有權(quán)通過競選捐款進(jìn)行政治表達(dá)。而人工智能系統(tǒng),不像企業(yè),實(shí)際上能夠進(jìn)行文字(如果模擬的話)語言。16年3月,種族主義者Tay的滑稽舉動表明,人工智能生成的演講可能是冒犯性的,甚至是傷害性的。政府是否應(yīng)該限制人工智能系統(tǒng)能夠和不能說出的事情?或者,人工智能系統(tǒng)是否應(yīng)該擁有人類一樣的權(quán)利,在不受政府干預(yù)的情況下表達(dá)自己的觀點(diǎn)?

或者這樣說:人工智能系統(tǒng)應(yīng)該得到宗教自由的保護(hù)嗎?用宗教信仰來形容機(jī)器人聽起來可能有些奇怪,但美國最高法院認(rèn)為,非上市公司,即擁有少量所有者且不在股票市場上交易的公司,有權(quán)獲得某種程度的宗教保護(hù),至少從某種意義上說,這些公司不能被迫從事會違反其所有者和管理者宗教信仰的活動。

是否應(yīng)該有類似的原則適用于人工智能系統(tǒng)?例如,制藥業(yè)的人工智能系統(tǒng)是否有權(quán)拒絕發(fā)放避孕藥具?誰應(yīng)該有權(quán)設(shè)定人工智能系統(tǒng)的宗教信仰?設(shè)計(jì)這個(gè)系統(tǒng)的人?還是最終用戶?應(yīng)該允許人工智能設(shè)計(jì)者編寫帶有最終用戶無法改變的宗教信仰的人工智能系統(tǒng)嗎?

公司是一種理論結(jié)構(gòu),實(shí)際上只存在于紙面上。相比之下,人工智能系統(tǒng)實(shí)際上存在于物理世界中。沒有人類代理人的幫助,公司就沒有能力做任何事情。從定義上講,一個(gè)自主的人工智能系統(tǒng)不受這些固有的限制。自動車輛、武器或電子交易系統(tǒng)的全部意義在于,它們可以在沒有人類明確指示的情況下完成任務(wù)。

不幸的是,我們都不知道人工智能系統(tǒng)的自主性和實(shí)體存在的法律含義應(yīng)該是什么。一方面,人工智能系統(tǒng)的自主性及其直接操縱物理世界的能力,引發(fā)了對人工智能人性化的問責(zé)問題,遠(yuǎn)遠(yuǎn)超過了圍繞公司的已經(jīng)很重要的問責(zé)問題。有了公司,我們總是可以讓自己放心,即使公司在法律眼中是自己的“人”,人類也在拉動杠桿。如果我們承認(rèn)以人工智能為基礎(chǔ)的人,就不會有這樣的保證,這可能意味著,我們希望對人工智能的人格化范圍施加比企業(yè)人格化更大的限制。

另一方面,更大的自主性和物理存在的潛力使得人工智能系統(tǒng)看起來比公司更像人,這可能意味著我們應(yīng)該給予人工智能系統(tǒng)比公司更多的權(quán)利。如果法律體系決定承認(rèn)人工智能系統(tǒng)的某種形式的人格特征,那么看看這兩種觀點(diǎn)中哪一種觀點(diǎn)占上風(fēng)可能是一件他別瘋狂的事情。