首頁(yè) / 資訊中心 / 交通百科/人工智能背后的倫理問(wèn)題

人工智能背后的倫理問(wèn)題

發(fā)布時(shí)間:2018-09-28 分類:交通百科

當(dāng)哲學(xué)家和倫理學(xué)家考慮人工智能的長(zhǎng)期未來(lái)時(shí),他們擔(dān)心的是什么?首先,雖然大多數(shù)從事人工智能領(lǐng)域的人都對(duì)人工智能系統(tǒng)的發(fā)展感到興奮,但很多人擔(dān)心,如果沒(méi)有適當(dāng)?shù)囊?guī)劃,先進(jìn)的人工智能可能會(huì)毀滅整個(gè)人類。

人工智能

在紐約大學(xué)人工智能倫理學(xué)會(huì)議上,來(lái)自機(jī)器智能研究所的Eliezer Yudkowsky解釋說(shuō),人工智能看起來(lái)不太可能像終結(jié)者,而更可能像米老鼠在幻想曲“魔法師學(xué)徒”中給生活帶來(lái)的過(guò)于急切的掃帚。掃帚只有一個(gè)目標(biāo),它不僅要保持專注,不管米奇做什么,它還會(huì)成倍增長(zhǎng),變得更有效率。對(duì)于一個(gè)設(shè)計(jì)拙劣的人工智能的擔(dān)憂也是相似的,除了人工智能,最終將沒(méi)有魔法師來(lái)阻止這場(chǎng)混亂。

為了幫助想象一個(gè)能力過(guò)硬的高級(jí)人工智能是如何出錯(cuò)的,牛津哲學(xué)家尼克博斯特羅姆(Nick Bostrom)提出了一項(xiàng)關(guān)于一種致命的回形針制造機(jī)器的思維實(shí)驗(yàn)。如果你是賣回形針的,那么制造一個(gè)回形針可能就是人工智能最大化的作用了,這樣的人工智能看起來(lái)沒(méi)有一點(diǎn)害處。然而,以這作為唯一的目標(biāo),一個(gè)智能的人工智能可能會(huì)以犧牲你關(guān)心的其他一切為代價(jià),繼續(xù)制造回形針。當(dāng)它用完材料時(shí),它就會(huì)想出如何把周圍的東西分解成分子成分,然后把分子重新組裝成回形針。不久,它將毀滅地球上的生命、地球本身、太陽(yáng)系,甚至可能毀滅宇宙,這一切都是為了制造越來(lái)越多的回形針。

這似乎是一個(gè)愚蠢的擔(dān)心,但誰(shuí)也沒(méi)有應(yīng)對(duì)他們的電腦或技術(shù)發(fā)生奇怪的故障的經(jīng)驗(yàn)?想想看,由于自動(dòng)更正或更嚴(yán)重的2010年閃電崩盤,你發(fā)送了多少次奇怪的消息?,F(xiàn)在想象一下,如果該系統(tǒng)要管理電網(wǎng)或監(jiān)督武器系統(tǒng),那么如此天真設(shè)計(jì),但非常復(fù)雜的程序可能會(huì)以指數(shù)級(jí)的方式變得更糟。

即便是現(xiàn)在,在只有非常狹窄的人工智能系統(tǒng)的情況下,研究人員仍發(fā)現(xiàn),簡(jiǎn)單的偏見(jiàn)會(huì)導(dǎo)致科技世界中種族主義和性別歧視的增加;網(wǎng)絡(luò)攻擊的強(qiáng)度和數(shù)量都在增長(zhǎng)。

人工智能開(kāi)發(fā)可能會(huì)遇到兩種類型的問(wèn)題:可以在以后修復(fù)的錯(cuò)誤,以及只會(huì)犯一次的錯(cuò)誤。ai人工智能就像太空探測(cè)器一樣困難:一旦你發(fā)射了它,它就在那里了。人工智能研究員正在構(gòu)建我們無(wú)法有效測(cè)試的技術(shù)。

隨著人工智能越來(lái)越接近人類水平的智能,人工智能設(shè)計(jì)師如何才能確保他們的創(chuàng)作是合乎道德的,并從一開(kāi)始就做出適當(dāng)?shù)男袨槟?事實(shí)證明,這個(gè)問(wèn)題只會(huì)引發(fā)更多的問(wèn)題。

有益的人工智能是什么樣子的?人工智能會(huì)讓所有人受益,還是只讓一部分人受益?它會(huì)加劇收入不平等嗎?創(chuàng)造一個(gè)能感受痛苦的人工智能背后的道德規(guī)范是什么?在沒(méi)有意識(shí)的具體定義的情況下,一個(gè)有意識(shí)的人工智能被開(kāi)發(fā)出來(lái)嗎?人工智能的最終目標(biāo)是什么?這對(duì)企業(yè)有幫助嗎?它能幫助人們嗎?人工智能會(huì)讓我們快樂(lè)嗎?

如果我們不知道自己想要什么,我們就不太可能得到它。我們不僅要思考人工智能的“最終目標(biāo)”是什么,還想知道如何達(dá)到這個(gè)目標(biāo)。要實(shí)現(xiàn)這種先進(jìn)的人工智能還有很長(zhǎng)的路要走,將人工智能的發(fā)展現(xiàn)狀比作巧克力蛋糕,我們已經(jīng)知道怎么做糖衣和櫻桃,但我們不知道怎么做蛋糕。

如果人工智能的發(fā)展就像烤蛋糕一樣,那么人工智能倫理似乎就需要在完善蛋奶酥的過(guò)程中保持微妙的平衡和注意力。無(wú)論高級(jí)人工智能是什么時(shí)候發(fā)展起來(lái)的,要確保永遠(yuǎn)不會(huì)出現(xiàn)人工智能錯(cuò)誤,唯一的辦法就是現(xiàn)在就開(kāi)始解決道德和安全問(wèn)題。

隨著人類和人工智能的共同努力,可以拯救和改善的生命數(shù)量是巨大的。關(guān)鍵是要了解可能會(huì)出現(xiàn)什么問(wèn)題,需要回答哪些問(wèn)題,才能使人工智能得到有益的發(fā)展。

標(biāo)簽: 智慧停車 人工智能