首頁 / 資訊中心 / 交通百科/人工智能的好處和風(fēng)險(xiǎn)

人工智能的好處和風(fēng)險(xiǎn)

發(fā)布時(shí)間:2018-09-12 分類:交通百科

什么是人工智能?

從Siri到自動(dòng)駕駛的人工智能汽車,ai人工智能正在迅速發(fā)展。雖然科幻小說經(jīng)常把人工智能描繪成具有類似人類特征的機(jī)器人,但人工智能可以涵蓋從谷歌的搜索算法到IBM的沃森(Watso的任何東西。

今天,人工智能被恰當(dāng)?shù)胤Q為窄人工智能(或弱人工智能),因?yàn)樗辉O(shè)計(jì)用來執(zhí)行一項(xiàng)狹窄的任務(wù)(例如,只進(jìn)行面部識(shí)別或只進(jìn)行互聯(lián)網(wǎng)搜索,或只開車)。然而,許多研究人員的長(zhǎng)期目標(biāo)是創(chuàng)造通用人工智能(agi或強(qiáng)人工智能)。盡管窄人工智能可能在任何特定任務(wù)上都優(yōu)于人類,比如下棋或解方程,但在幾乎每項(xiàng)認(rèn)知任務(wù)中,AGI都會(huì)比人類表現(xiàn)得更好。

人工智能

為什么要研究人工智能的安全性?

從近期來看,保持人工智能對(duì)社會(huì)有益影響的目標(biāo)推動(dòng)了許多領(lǐng)域的研究,從經(jīng)濟(jì)學(xué)和法學(xué)到驗(yàn)證、有效性、安全性和控制等技術(shù)主題。然而,如果你的筆記本電腦崩潰或被黑客攻擊,這可能只是一個(gè)小麻煩,但如果一個(gè)AI系統(tǒng)控制你的汽車、飛機(jī)、起搏器、自動(dòng)交易系統(tǒng)或電網(wǎng),它就變得更加重要,你希望它做什么就做什么。

從長(zhǎng)遠(yuǎn)來看,一個(gè)重要的問題是,如果對(duì)強(qiáng)大人工智能的探索成功了,人工智能系統(tǒng)在所有認(rèn)知任務(wù)中都變得比人類更好,將會(huì)發(fā)生什么。正如I.J.Good在1965年指出的那樣,設(shè)計(jì)更智能的人工智能系統(tǒng)本身就是一項(xiàng)認(rèn)知任務(wù)。這樣的系統(tǒng)可能會(huì)經(jīng)歷遞歸的自我完善,觸發(fā)智力爆炸,將人類的智力遠(yuǎn)遠(yuǎn)拋在后面。通過發(fā)明革命性的新技術(shù),這種超級(jí)智能可能幫助我們根除戰(zhàn)爭(zhēng)、疾病和貧困,因此,創(chuàng)造強(qiáng)大的人工智能可能是人類歷史上最重大的事件。不過,一些專家表示擔(dān)心,除非我們學(xué)會(huì)在人工智能變得超級(jí)智能之前將其與我們的目標(biāo)結(jié)合起來,否則它可能也是最后一個(gè)了。

有些人質(zhì)疑強(qiáng)大的人工智能是否會(huì)實(shí)現(xiàn),還有一些人堅(jiān)持認(rèn)為創(chuàng)造超級(jí)智能人工智能肯定是有益的。在FLI,我們認(rèn)識(shí)到這兩種可能性,但也認(rèn)識(shí)到人工智能系統(tǒng)有意或無意地造成巨大危害的可能性。我們相信,今天的研究將幫助我們更好地準(zhǔn)備和防止這種潛在的負(fù)面后果在未來,從而享受人工智能的好處,同時(shí)避免陷阱。

人工智能怎么會(huì)是危險(xiǎn)的?

大多數(shù)研究人員都認(rèn)為,超級(jí)智能的人工智能不太可能表現(xiàn)出像愛或恨這樣的人類情感,而且沒有理由指望人工智能會(huì)故意變得仁慈或惡毒。相反,在考慮人工智能如何成為一種風(fēng)險(xiǎn)時(shí),專家們認(rèn)為最有可能出現(xiàn)的情況有兩種:

人工智能被編程用來做一些有益的事情,但它開發(fā)了一種破壞性的方法來實(shí)現(xiàn)它的目標(biāo):當(dāng)我們不能完全將人工智能的目標(biāo)與我們的目標(biāo)結(jié)合起來時(shí),這種情況就會(huì)發(fā)生,這是非常困難的。如果你讓一輛聽話的智能汽車盡快帶你去機(jī)場(chǎng),它可能會(huì)讓你被直升機(jī)追到那里,渾身都是嘔吐物,做的不是你想要的,而是你真正想要的。如果一個(gè)超級(jí)智能系統(tǒng)被賦予一個(gè)雄心勃勃的地球工程項(xiàng)目,它可能會(huì)對(duì)我們的生態(tài)系統(tǒng)造成嚴(yán)重破壞,將其視為一種副作用,并將人類阻止它的企圖視為一種需要應(yīng)對(duì)的威脅。

正如這些例子所說明的,對(duì)高級(jí)人工智能的關(guān)注不是惡意,而是能力。一個(gè)超級(jí)智能的人工智能將非常擅長(zhǎng)于完成它的目標(biāo),如果這些目標(biāo)與我們的目標(biāo)不一致,我們就有問題了。你可能不是出于惡意踩到螞蟻的一個(gè)邪惡的討厭螞蟻的人,但是如果你負(fù)責(zé)一個(gè)水電綠色能源項(xiàng)目,而且該地區(qū)有一個(gè)蟻丘要被淹沒,對(duì)螞蟻來說太糟糕了。人工智能安全研究的一個(gè)關(guān)鍵目標(biāo)是永遠(yuǎn)不要把人類放在螞蟻的位置上。

為什么最近對(duì)人工智能安全的興趣?

最近,斯埃隆·馬斯克(Elon Musk)、史蒂夫·沃茲尼亞克(Steve Wozniak)、比爾·蓋茨(Bill Gates)以及其他許多科技界的大人物都在媒體上和公開信中表達(dá)了對(duì)人工智能(AI)構(gòu)成的風(fēng)險(xiǎn)的擔(dān)憂,許多頂尖的人工智能研究人員也加入了這一行列。為什么這個(gè)話題突然成了頭條新聞?

長(zhǎng)久以來,對(duì)于強(qiáng)大人工智能的探索最終會(huì)成功的想法一直被認(rèn)為是科幻小說,甚至更遠(yuǎn)。然而,由于最近的突破,許多人工智能里程碑現(xiàn)在已經(jīng)達(dá)到了,專家們?cè)谖迥昵斑€認(rèn)為這是幾十年前的事,這使許多專家認(rèn)真考慮了在我們有生之年超級(jí)智能的可能性。雖然一些專家仍然猜測(cè)人類水平的人工智能是數(shù)百年后,大多數(shù)人工智能研究在2015年波多黎各會(huì)議猜測(cè),這將發(fā)生在2060年之前。由于可能需要幾十年才能完成所需的安全研究,因此現(xiàn)在就開始進(jìn)行是明智的。

因?yàn)槿斯ぶ悄苡袧摿ψ兊帽热魏稳祟惗几斆?,我們沒有確切的方法來預(yù)測(cè)它將如何表現(xiàn)。我們不能把過去的技術(shù)發(fā)展作為一個(gè)基礎(chǔ),因?yàn)槲覀儚膩頉]有創(chuàng)造出任何東西,有能力,有意識(shí)地或不自覺地,超過我們。我們所能面對(duì)的最好的例子可能是我們自己的進(jìn)化。人們現(xiàn)在控制這個(gè)星球,不是因?yàn)槲覀兪亲顝?qiáng)大、最快或最大的,而是因?yàn)槲覀兪亲盥斆鞯?。如果我們不再是最聰明的,我們能保證保持控制嗎?

只要我們贏得了技術(shù)力量的增長(zhǎng)和我們管理它的智慧之間的競(jìng)賽,我們的文明就會(huì)蓬勃發(fā)展。就人工智能技術(shù)而言,贏得這場(chǎng)比賽的最佳方式不是阻礙前者,而是通過支持人工智能安全研究來加速后者。

高級(jí)人工智能的最高神話

一場(chǎng)關(guān)于人工智能的未來以及它對(duì)人類將/應(yīng)該意味著什么的引人入勝的對(duì)話正在進(jìn)行。世界領(lǐng)先的專家們對(duì)此存在一些有趣的爭(zhēng)議,比如:人工智能未來對(duì)就業(yè)市場(chǎng)的影響;人工智能是否(或何時(shí))會(huì)發(fā)展成人類水平的人工智能;這是否會(huì)導(dǎo)致智能爆炸;以及這是我們應(yīng)該歡迎還是應(yīng)該擔(dān)心的事情。