首頁 / 資訊中心 / 交通百科/當人工智能機器變得邪惡時,誰來負責(zé)?

當人工智能機器變得邪惡時,誰來負責(zé)?

發(fā)布時間:2018-10-09 分類:交通百科

微軟(Microsoft)模仿少女的推特聊天機器人泰伊(Tay)的出現(xiàn)引起了很大的爭議,在接入網(wǎng)絡(luò)后的24小時內(nèi),Tay開始說一些奇怪的話,然后是一些冒犯性的東西。然后是一些非常令人討厭的東西。比如叫佐伊·奎恩是“愚蠢的妓女”,還說大屠殺是“捏造的”,并說黑人應(yīng)該被關(guān)進集中營,她支持墨西哥種族屠殺。

人工智能

那到底發(fā)生了什么?Tay的設(shè)計目的是通過使用機器學(xué)習(xí)來發(fā)展它的會話技能,最顯著的是通過分析和整合人類社交媒體用戶發(fā)送給她的推文的語言。微軟顯然沒有預(yù)料到的是,推特會故意讓泰伊說出冒犯性或其他不恰當?shù)脑挕?

現(xiàn)在,任何熟悉社交媒體網(wǎng)絡(luò)世界的人都不應(yīng)該對這件事感到驚訝當然,一個用“零寒意”設(shè)計的聊天機器人會學(xué)著成為種族主義者和不恰當?shù)娜?,因為推特上充斥著說種族主義和不恰當?shù)脑挼娜恕?

以下是有關(guān)Tay的一些媒體頭條:

“毫不奇怪,微軟的人工智能 Bot Tay被騙成了種族主義者”(亞特蘭大雜志-憲法)。

“在網(wǎng)上學(xué)到太多東西的MicrosoftAxesChatbot”(華盛頓郵報)。

“微軟讓Tay‘聊天機器人’離線后,Twitter讓它發(fā)出冒犯性的評論”(??怂剐侣?。

“Twitter在不到24小時內(nèi)就把微軟的‘Tay’變成了一個種族主義的、性別歧視的、否認大屠殺的機器人”(Mediaite)。

“Twitter如何破壞微軟的Tay:現(xiàn)實世界中AI人工智能危險的速成課程”(福布斯)。

“微軟的友好機器人是如何在不到24小時內(nèi)變成種族主義者的”(“環(huán)球郵報”)。

“Twitter如何腐蝕微軟可愛的人工智能青少年‘Tay’”(CNET)。

當然,以上故事表明或暗示微軟應(yīng)該意識到這一點,并采取措施防止泰伊學(xué)會說冒犯的話。然而,令人驚訝的是,大量的媒體評論給人的印象是,微軟給世界帶來了一個可愛、天真的聊天機器人,Twitter變成了希特勒青年團的一個初出茅廬的成員??磥?,當人工智能系統(tǒng)從Twitter身上學(xué)到不好的東西時,人們至少有一些傾向于指責(zé)Twitter,而不是怪罪于設(shè)計師。

現(xiàn)在,在Tay的案例中,從法律的角度來看,“誰該受責(zé)備”的問題可能并不重要。但是,當比發(fā)送青少年推文更重要的功能的人工智能系統(tǒng)“學(xué)會”從他們遇到的人身上做壞事時,會發(fā)生什么呢?人們是否仍然傾向于將大部分責(zé)任歸咎于那些“教”人工智能做壞事的人,而不是人工智能的設(shè)計者?

對于學(xué)習(xí)人工智能系統(tǒng)的設(shè)計者來說,我不一定有什么問題。預(yù)編一個包含人類社會各種禮貌和禮儀規(guī)則的人工智能系統(tǒng)是非常困難的,特別是因為這些規(guī)則是高度情境性的,在不同的人類文化中差異很大,而且會隨著時間的推移而發(fā)生變化。此外,人工智能系統(tǒng)不斷提高的“學(xué)習(xí)”能力也是它們作為一項新興技術(shù)如此有前途的主要原因。限制一個人工智能系統(tǒng)的學(xué)習(xí)能力,防止它學(xué)習(xí)壞的東西,也可能阻止它學(xué)習(xí)好的東西。

但是,將責(zé)任主要歸咎于學(xué)習(xí)人工智能系統(tǒng)的后設(shè)計信息來源有幾個問題。首先,要確定人工智能系統(tǒng)在哪里學(xué)到東西并不總是那么容易,人工智能可能會分析和整合比任何人都希望篩選的更多的數(shù)據(jù);Tay設(shè)法在不到一天的時間內(nèi)發(fā)送了近10萬條推特信息,與此相關(guān)的是,如果人工智能系統(tǒng)的“不良行為”是它從許多不同的人那里學(xué)到的數(shù)千件小事的結(jié)果,那么讓這些個人對人工智能的學(xué)習(xí)行為承擔(dān)法律責(zé)任似乎是不公平的。此外,人們可能會“教”一個人工智能系統(tǒng)一些不好的東西。

由于這些原因,似乎有可能推動法律的發(fā)展,使人工智能開發(fā)人員將有一些責(zé)任,以防止“腐敗”的系統(tǒng)。不幸的是,同樣的問題會使人工智能前端的安全管理變得困難,也會將責(zé)任分配給后端人工智能設(shè)計人員的努力復(fù)雜化。

人工智能的開發(fā)工作可以在有限的可見基礎(chǔ)設(shè)施下進行,擴散意味著工作在人工智能系統(tǒng)的單個部件上的個體可能位于彼此很遠的地方。與此密切相關(guān)的一個特征是離散性,它指的是一個人工智能系統(tǒng)的各個組成部分可以在不同的地點和不同的時間設(shè)計,而不需要任何有意識的協(xié)調(diào)。最后,不透明性表示人工智能系統(tǒng)的內(nèi)部工作可能是保密的,并且不容易受到逆向工程的影響。