首頁(yè) / 資訊中心 / 交通百科/如果不加以控制,人工智能本身就會(huì)變得有偏見

如果不加以控制,人工智能本身就會(huì)變得有偏見

發(fā)布時(shí)間:2018-09-10 分類:交通百科

如果用人工智能來管理世界,它就不會(huì)那么糟糕了,因?yàn)槿斯ぶ悄芸梢钥陀^地對(duì)人類可能會(huì)搞砸的事情做出準(zhǔn)確的決定。但如果我們要將韁繩移交給人工智能,那就必須公平。到目前為止,事實(shí)并非如此。在由人注釋或策劃的數(shù)據(jù)集上訓(xùn)練的ai人工智能 傾向于學(xué)習(xí)同樣的種族主義者,性別歧視者或其他偏見的人。

慢慢地,程序員似乎正在糾正這些偏見,但即使我們成功地將自己的偏見從我們的代碼中解脫出來,人工智能似乎也能夠自己開發(fā)它。

在發(fā)表的一項(xiàng)新研究顯示,人工智能代理人網(wǎng)絡(luò)如何自主開發(fā)出不僅僅是對(duì)其他與自身相似的代理人的群體偏好,而且還是對(duì)那些不同的代理人的積極偏見。事實(shí)上,科學(xué)家們得出結(jié)論認(rèn)為,開發(fā)這些偏差所需的認(rèn)知能力非常低,這意味著它可以在整個(gè)地方彈出代碼。

人工智能代理人的設(shè)立使他們可以向其他代理商捐贈(zèng)虛擬貨幣,目的是盡可能多地獲得回報(bào)。從本質(zhì)上講,他們必須選擇分享多少以及與之分享哪些其他代理。實(shí)驗(yàn)背后的研究人員看到了兩種趨勢(shì):人工智能代理人更有可能捐贈(zèng)給其標(biāo)有相似特征的人 (用任意數(shù)字值表示) 和對(duì)不同的人有偏見。人工智能代理人似乎已經(jīng)了解到,對(duì)集體內(nèi)部結(jié)果的捐贈(zèng)會(huì)更多地進(jìn)行回報(bào),并且捐贈(zèng)給其他人會(huì)積極地導(dǎo)致他們的損失。

這是一種比我們?cè)诂F(xiàn)實(shí)世界中看到的更為抽象的偏見形式,其中算法被用于專門針對(duì)和壓迫黑人。人工智能代理并沒有像某些人那樣對(duì)特定的少數(shù)群體產(chǎn)生特定的蔑視。相反,它是對(duì)一個(gè)模糊的“他者”的偏見,反對(duì)任何與他們不同的東西。而且,這是一種偏見,僅限于這種特殊的模擬的偏見。

但這項(xiàng)研究確實(shí)對(duì)現(xiàn)實(shí)世界的應(yīng)用產(chǎn)生了重大影響,如果不加以控制,像這樣的算法可能導(dǎo)致更大的制度化種族主義和性別歧視,盡管我們盡最大努力防止它,但在一些不可測(cè)的情況下,甚至?xí)霈F(xiàn)反人類的偏見。

據(jù)報(bào)道,有辦法修復(fù)這個(gè)問題。例如,研究人員發(fā)現(xiàn),他們可以通過強(qiáng)迫AI代理人參與他們所謂的全球?qū)W習(xí),或者與他們自己的泡沫之外的不同AI代理進(jìn)行交互來降低偏見程度。當(dāng)AI代理人群的總體特征更多時(shí),偏見程度也會(huì)下降,這僅僅是因?yàn)榇嬖诟嗟膬?nèi)在多樣性。研究人員將偏見的人暴露在現(xiàn)實(shí)生活中的其他視角中。

無(wú)論我們認(rèn)為人工智能系統(tǒng)是多么客觀、公正的機(jī)器,我們都需要接受系統(tǒng)中可能始終存在的故障,就目前而言,這意味著我們需要密切關(guān)注這些算法并注意自己的程序是否出現(xiàn)偏見。