首頁 / 資訊中心 / 交通百科/人工智能應(yīng)該被監(jiān)管嗎?

人工智能應(yīng)該被監(jiān)管嗎?

發(fā)布時間:2018-09-17 分類:交通百科

人工智能應(yīng)該受到監(jiān)管嗎?可否加以規(guī)管?如果是這樣,那么這些規(guī)定應(yīng)該是什么樣子的呢?

對于任何仍處于開發(fā)階段的技術(shù)來說,這些都是難以回答的問題-像食品、制藥、汽車和航空工業(yè)等行業(yè)的監(jiān)管,通常是在糟糕的事情發(fā)生后才實(shí)施的,而不是在預(yù)期技術(shù)變得危險(xiǎn)的情況下實(shí)施的。但人工智能發(fā)展得如此之快,人工智能技術(shù)的影響可能如此之大,以至于許多人不愿等待從錯誤中吸取教訓(xùn),而是提前做好計(jì)劃,積極主動地進(jìn)行監(jiān)管。

人工智能

在短期內(nèi),與自動駕駛汽車、人工智能和算法決策以及驅(qū)動社交媒體的“機(jī)器人”有關(guān)的問題需要決策者的關(guān)注,就像許多新技術(shù)一樣。然而,從長遠(yuǎn)來看,人工智能可能對人類產(chǎn)生的影響涵蓋了對人類的所有利益和風(fēng)險(xiǎn),從可能發(fā)展出一個更加荒誕的社會,到人類文明可能的滅絕。因此,對于未來的監(jiān)管者來說,這是一個特別具有挑戰(zhàn)性的局面。

在人工智能領(lǐng)域,許多人已經(jīng)在努力確保人工智能的發(fā)展是有益的,而不會對人工智能研究人員和開發(fā)人員造成不必要的限制。如果不將期望原則付諸實(shí)施,光是這些原則是不夠的,還有一個問題仍然存在:政府監(jiān)管和監(jiān)督是否必要,以確保人工智能科學(xué)家和公司遵循這些原則和其他類似原則?

 對于AI的風(fēng)險(xiǎn)是什么,何時可能出現(xiàn),以及AI是否會造成存在的風(fēng)險(xiǎn),在人工智能研究人員之間存在分歧,但很少有研究人員認(rèn)為AI不構(gòu)成風(fēng)險(xiǎn)。即使在今天,我們也看到了狹隘的人工智能加劇歧視和失業(yè)問題的跡象,如果我們不采取適當(dāng)?shù)念A(yù)防措施,我們可以預(yù)測問題會惡化,隨著人工智能變得更加聰明和復(fù)雜,影響到更多的人。

許多人工智能研究人員簽署了Asilomar原則-以及關(guān)于發(fā)展有益的人工智能和反對致命自主武器的公開信-表明研究人員之間有著強(qiáng)烈的共識,即我們需要做更多的工作來理解和應(yīng)對人工智能的已知和潛在風(fēng)險(xiǎn)。

人工智能研究人員簽署的一些原則與聲明直接相關(guān),包括:

1、科學(xué)-政策聯(lián)系:人工智能研究人員與決策者之間應(yīng)進(jìn)行建設(shè)性的、健康的交流。

2、研究文化:應(yīng)該在人工智能的研究人員和開發(fā)人員之間培養(yǎng)一種合作、信任和透明的文化。

3、矛盾回避:開發(fā)ai人工智能系統(tǒng)的團(tuán)隊(duì)?wèi)?yīng)積極合作,避免在安全標(biāo)準(zhǔn)上出現(xiàn)拐角。

4、重要性:先進(jìn)的人工智能可代表地球生命歷史上的深刻變化,應(yīng)以相應(yīng)的關(guān)懷和資源加以規(guī)劃和管理。

5、風(fēng)險(xiǎn):人工智能系統(tǒng)構(gòu)成的風(fēng)險(xiǎn),特別是災(zāi)難性或存在性風(fēng)險(xiǎn),必須通過與其預(yù)期影響相稱的規(guī)劃和緩解努力。

正確的政策和治理解決辦法有助于使人工智能的發(fā)展符合這些原則,并鼓勵就如何實(shí)現(xiàn)這一目標(biāo)進(jìn)行跨學(xué)科對話。最近成立的人工智能合作伙伴組織,包括領(lǐng)先的人工智能行業(yè)參與者,同樣支持有原則的人工智能發(fā)展理念-他們的創(chuàng)始文件指出,當(dāng)人工智能工具被用來補(bǔ)充或取代人類的決策時,我們必須確保它們是安全的、值得信賴的,并與受其行為影響的人的道德和偏好保持一致。其所建議的,第一步應(yīng)該是提高政府官員對人工智能影響的認(rèn)識。例如,自動化車輛預(yù)計(jì)將導(dǎo)致數(shù)百萬人失業(yè),這將影響到幾乎每一位參加會談的州長(假設(shè)他們還在任),但這一話題很少出現(xiàn)在政治討論中。

人工智能研究人員對人工智能在改善我們的健康和福祉方面的巨大潛力感到興奮-這是正確的:這就是為什么他們中的大多數(shù)人首先加入了這一領(lǐng)域。但是對于AI可能的誤用和/或糟糕的設(shè)計(jì)也有合理的擔(dān)憂,特別是在我們走向高級和更通用的AI的時候。

因?yàn)檫@些問題威脅著整個社會,它們不能留給一小群研究人員去解決。至少,政府官員需要了解和理解人工智能如何影響他們的選民,以及更多的人工智能安全研究如何在這些問題出現(xiàn)之前幫助我們解決這些問題。

我們不應(yīng)該把重點(diǎn)放在監(jiān)管是好是壞,而應(yīng)該通過幫助我們的決策者了解人工智能進(jìn)展的現(xiàn)實(shí)和影響,為未來的建設(shè)性監(jiān)管奠定基礎(chǔ)。讓我們捫心自問:我們?nèi)绾尾拍艽_保人工智能對所有人都有好處?誰需要參與這一努力?