首頁 / 資訊中心 / 交通百科/人工智能(AI)危險(xiǎn)嗎?我們現(xiàn)在應(yīng)該監(jiān)管它嗎?

人工智能(AI)危險(xiǎn)嗎?我們現(xiàn)在應(yīng)該監(jiān)管它嗎?

發(fā)布時(shí)間:2018-08-24 分類:交通百科

既然人工智能(AI)已經(jīng)不再只是一種讓科技大師們對各種可能性瘋狂的假想,而是正在使用并影響著我們的日常生活,人們重新開始討論如何監(jiān)管這一令人興奮的、強(qiáng)大的、潛在的問題的技術(shù)。現(xiàn)在一邊是那些認(rèn)為現(xiàn)在開始討論還為時(shí)過早的人,而另一邊則是那些認(rèn)為討論已經(jīng)嚴(yán)重滯后的人。

人工智能

無論你在這個(gè)問題上的立場如何,我們都會(huì)同意讓人工智能將繼續(xù)存在下去。因此,不管找出監(jiān)管的“兔子洞”有多大的挑戰(zhàn)性,現(xiàn)在是時(shí)候開始認(rèn)真考慮在國家和國際層面上需要采取什么措施來監(jiān)管人工智能了。

為什么我們需要人工智能(AI)規(guī)則?

斯蒂芬·霍金(Stephen Hawking)等人工智能監(jiān)管的支持者擔(dān)心,如果我們不積極避免不受約束的人工智能(如“強(qiáng)大的自主武器,或少數(shù)人壓迫多數(shù)人的新方式”)的風(fēng)險(xiǎn),人工智能可能會(huì)毀滅人類。他認(rèn)為,監(jiān)管是讓人工智能和人類在一個(gè)和平而富有成效的未來共存的關(guān)鍵。比爾·蓋茨也“關(guān)心超級智慧”,不理解為什么有些人不關(guān)心。埃隆·馬斯克(Elon Musk)提出,我們應(yīng)該“在為時(shí)已晚之前”監(jiān)管人工智能。2015年,包括機(jī)器人和人工智能研究人員、知識(shí)分子、活動(dòng)人士、斯蒂芬·霍金(Stephen Hawking)和埃隆·馬斯克(Elon Musk)在內(nèi)的2萬人簽署了一封公開信,并在國際人工智能會(huì)議上提交了這封公開信。該公開信呼吁聯(lián)合國禁止進(jìn)一步發(fā)展“無法有效控制”的武器化人工智能。

我們的社會(huì)已經(jīng)被部署在金融機(jī)構(gòu)、雇主、政府系統(tǒng)、警察等部門的人工智能算法的爆炸式增長所影響。這些人工智能算法能夠而且確實(shí)能做出決策,在人們的生活中產(chǎn)生重大而嚴(yán)重的問題。一名學(xué)校教師過去曾得到過好評,但在她所在的學(xué)區(qū)實(shí)施了一種評估教師業(yè)績的算法后,她被解雇了。學(xué)校無法解釋為什么會(huì)發(fā)生這種情況,除非是其他人在“游戲”這個(gè)系統(tǒng),反恐面部識(shí)別程序吊銷了一名無辜男子的駕駛執(zhí)照,因?yàn)樗阉?dāng)成了另一名司機(jī)。

人工智能正在迅速成熟,而政府和監(jiān)管決策的進(jìn)展卻非常緩慢。馬斯克和其他人認(rèn)為,現(xiàn)在是開始辯論人工智能監(jiān)管將是什么樣子的時(shí)候了,這樣當(dāng)監(jiān)管真正通過時(shí),我們就不會(huì)落后太遠(yuǎn)了。即使沒有建立監(jiān)管,也應(yīng)該成立監(jiān)管機(jī)構(gòu)和監(jiān)督機(jī)構(gòu),以便它們能夠得到適當(dāng)?shù)男畔?,并?zhǔn)備好在必要時(shí)作出決定。

為什么對人工智能(AI)進(jìn)行監(jiān)管為時(shí)尚早?

許多人認(rèn)為現(xiàn)在談?wù)撊斯ぶ悄鼙O(jiān)管還為時(shí)過早,因?yàn)槟壳斑€沒有具體的監(jiān)管要求。盡管人工智能領(lǐng)域已經(jīng)有了巨大的創(chuàng)新,但該領(lǐng)域仍處于起步階段。監(jiān)管可能會(huì)扼殺一個(gè)正在爆炸式增長的行業(yè)的創(chuàng)新,而trouva的聯(lián)合創(chuàng)始人亞歷克斯洛伊佐(Alex Loizou)認(rèn)為,在監(jiān)管之前,我們需要了解它的全部潛力。

斯坦福大學(xué)(StanfordUniversity)的一項(xiàng)研究發(fā)現(xiàn),“試圖監(jiān)管人工智能總體上是錯(cuò)誤的,因?yàn)閷θ斯ぶ悄軟]有明確的定義(這不是一件事),而且不同領(lǐng)域的風(fēng)險(xiǎn)和考慮非常不同。”

人工監(jiān)管(AI)會(huì)是什么樣子?

2018年,英國和其他歐洲成員國首次涉足人工智能立法,允許對自動(dòng)化決策提出挑戰(zhàn)?!耙话銛?shù)據(jù)保護(hù)條例”(GDPR)是試圖圍繞如何挑戰(zhàn)人工智能而制定法律的第一步,有望防止貌相和歧視的危險(xiǎn),并允許人們了解作出不利于他們的決定的邏輯是什么,即所謂的“解釋權(quán)”。人們認(rèn)識(shí)到,如果任何類型的標(biāo)準(zhǔn)或指導(dǎo)方針都有任何權(quán)力,那么監(jiān)督人們遵循指導(dǎo)方針將需要分配給一個(gè)管理機(jī)構(gòu)。

目前,那些正在辯論人工智能條例可能是什么樣子的人考慮了以下一些問題:

1、AI不應(yīng)該武器化。

2、應(yīng)該有一個(gè)不可逾越的“關(guān)閉開關(guān)”,可以由人類部署。

3、人工智能應(yīng)遵循與人類相同的規(guī)則。

4、制造商應(yīng)同意遵守國際法規(guī)規(guī)定的一般道德準(zhǔn)則。

5、應(yīng)該了解人工智能邏輯和決策是如何作出的。

6、如果出了問題,AI應(yīng)該承擔(dān)責(zé)任嗎?