首頁(yè) / 資訊中心 / 交通百科/人工智能的進(jìn)化:道德可以被編程嗎?

人工智能的進(jìn)化:道德可以被編程嗎?

發(fā)布時(shí)間:2018-10-08 分類(lèi):交通百科

最近在人工智能方面的進(jìn)展清楚地表明,我們的計(jì)算機(jī)需要有一套道德準(zhǔn)則。想想看:一輛汽車(chē)在路上行駛時(shí),一個(gè)騎自行車(chē)的孩子突然在前面突然轉(zhuǎn)向,汽車(chē)是否轉(zhuǎn)向迎面而來(lái)的車(chē)道,撞上另一輛已經(jīng)在那里的汽車(chē)或者那輛車(chē)突然轉(zhuǎn)向,撞上了一棵樹(shù)又或者它會(huì)繼續(xù)前撞上孩子嗎?

人工智能

每個(gè)解決方案都有一個(gè)問(wèn)題:它可能導(dǎo)致死亡。這是一種不幸的情況,但人類(lèi)每天都面臨這樣的情況,如果汽車(chē)是自動(dòng)控制的,它需要能夠作出這一選擇,這意味著我們需要弄清楚如何在我們的計(jì)算機(jī)中編寫(xiě)道德程序。

造德

乍一看,這個(gè)目標(biāo)似乎很簡(jiǎn)單,讓AI人工智能的行為符合道德規(guī)范;然而,它比最初看起來(lái)的要復(fù)雜得多,因?yàn)橛写罅苛钊顺泽@的因素在起作用。道德判斷受權(quán)利(如隱私)、角色(如家庭中的角色)、過(guò)去的行為(如承諾)、動(dòng)機(jī)和意圖以及其他道德相關(guān)特征的影響,這些不同的因素還沒(méi)有被納入人工智能系統(tǒng),這就是我們現(xiàn)在要做的。

雖然公眾可能會(huì)擔(dān)心人工智能會(huì)不會(huì)消滅人類(lèi),但這樣的事情在目前確實(shí)不是一個(gè)確切的威脅,因此,我們應(yīng)該在更基本的層面上,確保我們的人工智能系統(tǒng)能夠做出人類(lèi)日常所做的艱難的、道德的選擇。

那么,怎樣才能讓一個(gè)人工智能做出一個(gè)艱難的道德決定呢?

為了達(dá)成這樣的目標(biāo),應(yīng)遵循兩條道路:讓人們做出合乎道德的選擇,以便找到模式,然后找出如何將其轉(zhuǎn)化為人工智能。我們現(xiàn)在的工作實(shí)際上是讓人們做出合乎道德的決定,或者說(shuō)他們?cè)谔囟ǖ那闆r下會(huì)做出什么決定,然后我們使用機(jī)器學(xué)習(xí)來(lái)嘗試確定一般模式是什么,并確定我們可以在多大程度上復(fù)制這些決定。

簡(jiǎn)而言之,現(xiàn)在正在試圖找出我們道德選擇中的模式,并將這種模式轉(zhuǎn)化為人工智能系統(tǒng)。在基本層面上,這一切都是為了預(yù)測(cè)一個(gè)人在特定情況下會(huì)做什么,如果我們能夠很好地預(yù)測(cè)人們?cè)谶@種道德環(huán)境中做出的決定,那么,我們就可以計(jì)算機(jī)程序的形式自己做出這些決定。

然而,其中的一個(gè)主要問(wèn)題是,道德當(dāng)然不是客觀的,它既不是永恒的,也不是普遍的。

如果我們?cè)谝话倌昵白鐾瑯拥牡赖聹y(cè)試,那么我們從人們那里得到的決定將會(huì)更加種族主義,性別歧視,以及所有其他我們現(xiàn)在不會(huì)認(rèn)為是‘好’的事情。同樣,現(xiàn)在,也許我們的道德發(fā)展還沒(méi)有達(dá)到頂峰,一百年后,人們可能會(huì)覺(jué)得我們現(xiàn)在所做的一些事情,比如我們對(duì)待動(dòng)物的方式,是完全不道德的。因此,無(wú)論我們目前的道德發(fā)展水平如何,都存在著一種偏見(jiàn)和陷入困境的風(fēng)險(xiǎn)。

那些有感知力的人工智能呢?我們何時(shí)才需要開(kāi)始擔(dān)心這些問(wèn)題,并討論應(yīng)如何對(duì)其進(jìn)行監(jiān)管?

類(lèi)人工智能

類(lèi)似人類(lèi)的人工智能在一段時(shí)間內(nèi)還不會(huì)出現(xiàn),但最近已經(jīng)有了很多步驟來(lái)建立這樣的系統(tǒng),已經(jīng)有了很多令人驚訝的進(jìn)步。但是我認(rèn)為有一個(gè)像‘真正的人工智能’這樣的東西,它真的一樣靈活,能夠抽象,并且做所有這些人類(lèi)很容易做到的事情,我認(rèn)為我們?nèi)匀浑x它很遠(yuǎn)。的確,我們可以為系統(tǒng)編寫(xiě)程序來(lái)做很多人類(lèi)擅長(zhǎng)的事情,但有些事情非常復(fù)雜,很難轉(zhuǎn)化為計(jì)算機(jī)能夠識(shí)別和學(xué)習(xí)的模式(這最終是所有人工智能的基礎(chǔ))。

早期人工智能研究的結(jié)果,也就是人工智能研究的頭幾十年,是這樣一個(gè)事實(shí):某些我們認(rèn)為是智力真正基準(zhǔn)的東西,比如能夠很好地下國(guó)際象棋,實(shí)際上很容易被計(jì)算機(jī)接受。編寫(xiě)和創(chuàng)建一個(gè)國(guó)際象棋程序并不容易,但它是可行的。事實(shí)上,今天,我們的電腦能夠在一系列游戲中擊敗世界上最優(yōu)秀的玩家,比如國(guó)際象棋和阿爾法圍棋(Alpha Go)。

但事實(shí)證明,玩游戲并不完全是衡量人類(lèi)智力的好標(biāo)準(zhǔn)?;蛘咧辽?,人類(lèi)的思想還有更多的東西。與此同時(shí),我們了解到,對(duì)人們來(lái)說(shuō)非常簡(jiǎn)單的其他問(wèn)題,實(shí)際上對(duì)計(jì)算機(jī)來(lái)說(shuō)也是相當(dāng)困難的,或者對(duì)計(jì)算機(jī)進(jìn)行編程是相當(dāng)困難的。例如,在人群中認(rèn)出你的祖母,你可以很容易地做到這一點(diǎn),但實(shí)際上很難用計(jì)算機(jī)編程來(lái)很好地識(shí)別事物。

從人工智能研究的早期開(kāi)始,我們就制造了能夠識(shí)別和識(shí)別特定圖像的計(jì)算機(jī)。然而,要編寫(xiě)一個(gè)能夠做所有人類(lèi)能做的事情的系統(tǒng)是非常困難的,這就是為什么我們需要一段時(shí)間才能有一個(gè)“真正的人工智能”。

然而現(xiàn)在是時(shí)候開(kāi)始考慮我們將使用什么規(guī)則來(lái)管理這樣的智能了,這可能要走得更遠(yuǎn)一些,這意味著可能只有幾十年的時(shí)間,在未來(lái)考慮一下這些事情肯定是有道理的。盡管我們還沒(méi)有任何類(lèi)似人類(lèi)的機(jī)器人,但我們的智能系統(tǒng)已經(jīng)在做出道德選擇,并有可能拯救或終結(jié)生命。

很多時(shí)候,他們做出的許多決定都會(huì)影響到人們,我們可能需要做出那些我們通常會(huì)被認(rèn)為是有道德負(fù)擔(dān)的決定。一個(gè)標(biāo)準(zhǔn)的例子是自動(dòng)駕駛汽車(chē),它必須決定要么直行撞到前面的車(chē),要么轉(zhuǎn)向,也許會(huì)傷到一些行人。你是怎么權(quán)衡的?我認(rèn)為我們可以在這方面取得一些進(jìn)展。這并不需要超級(jí)智能的人工智能,這可能只是程序,使這種類(lèi)型的權(quán)衡在不同的方式。但是,知道要做什么決定,首先需要知道我們的道德是如何運(yùn)作的(或者至少有一個(gè)相當(dāng)好的想法),從那里,我們可以開(kāi)始編程它。