首頁 / 資訊中心 / 交通百科/如何看待我們和人工智能的關(guān)系

如何看待我們和人工智能的關(guān)系

發(fā)布時間:2018-07-09 分類:交通百科

談到人工智能的未來,有兩種觀點:

烏托邦觀點:人工智能將迎來一個新的啟蒙時代,在這個新時代里,人類不再工作,而是追求更崇高的目標。未未系統(tǒng)將被規(guī)劃來治療疾病,公平地解決爭端,并且只以有益于我們的方式來增加我們?nèi)祟惖拇嬖凇?

世界末日的觀點是:人工智能將竊取我們的工作,在進化上超越人類,成為戰(zhàn)爭機器,并將遙遠的未來置于當前的需求之上。我們難以控制的努力只會暴露出我們自身的缺點和將道德應用于我們無法控制的技術(shù)的能力的低下。

人工智能

和大多數(shù)事情一樣,真相可能介于兩者之間

不管你落在這個光譜的什么位置,重要的是要考慮隨著技術(shù)的發(fā)展,人類應該怎樣影響人工智能。一種觀點認為,人類將在很大程度上形成人工智能的良心或道德結(jié)構(gòu)。但我們要怎么做呢?我們怎樣才能把倫理運用到人工智能中來幫助防止最壞的事情發(fā)生呢?

人與人工智能的關(guān)系

深度學習系統(tǒng)的力量在于它們決定自己的參數(shù)或特征。只要給他們一個任務或目標,指向他們的數(shù)據(jù),他們處理其余的。例如,SAS可視化數(shù)據(jù)挖掘和機器學習中的自動匯總功能可以為自己找出最佳結(jié)果。但人仍然是整個過程中最關(guān)鍵的部分。

雖然未來的人工智能系統(tǒng)也可能能夠收集他們自己的數(shù)據(jù),但大多數(shù)當前的系統(tǒng)依靠人來提供輸入?yún)?shù),包括數(shù)據(jù)和最佳結(jié)果,這是通過學習定義類強化學習確定的。當您要求算法找出實現(xiàn)該結(jié)果的最佳方法時,您不知道機器將如何解決該問題。你只是知道它會比你更有效率。

鑒于目前人類和人工智能之間的這種關(guān)系,我們可以采取一些步驟,從道德上更好地控制人工智能項目的結(jié)果,讓我們從這三個開始。

人工智能倫理的第一步:提供最好的數(shù)據(jù)

人工智能算法是通過一組用于通知或構(gòu)建算法的數(shù)據(jù)來訓練的。如果您的算法是將鯨魚識別為馬,顯然您需要提供更多關(guān)于鯨魚(和馬)的數(shù)據(jù)。同樣,如果您的算法是將動物識別為人類,則需要提供更多關(guān)于更多不同人類集合的數(shù)據(jù)。如果你的算法做出了不準確或不道德的決定,這可能意味著沒有足夠的數(shù)據(jù)來訓練模型,或者學習強化不適合預期的結(jié)果。

當然,也有可能是人類在不知不覺中通過有偏見的數(shù)據(jù)選擇或錯誤分配的強化值向系統(tǒng)注入了不道德的價值??傊覀儽仨毚_保我們提供的數(shù)據(jù)和輸入為算法繪制了完整和正確的圖片。

人工智能倫理的第二步:提供適當?shù)谋O(jiān)督

為所有人工智能項目建立一個有明確所有者和利益相關(guān)者的治理系統(tǒng)。定義哪些決定你將自動與人工智能,哪些將需要人的投入。對過程中的所有部分分配責任,對人工智能錯誤負責,并為人工智能系統(tǒng)的開發(fā)設置明確的邊界。這包括定期監(jiān)測和審計算法,以確保偏見不會悄悄進入,而且模型仍按預期運作。

無論是數(shù)據(jù)科學家還是一位敬業(yè)的倫理學家,都應該有人負責人工智能的政策和協(xié)議,包括遵守規(guī)則。也許有一天,所有的組織都會建立一個首席人工智能倫理學家的角色。但是,無論標題如何,都必須有人負責確定輸出和性能是否在給定的道德框架內(nèi)。

就像我們一直需要治理、可跟蹤性、監(jiān)視和標準分析的改進一樣,我們也對人工智能也是如此。然而,人工智能的影響要大得多,因為機器可以開始問題,自己定義答案。

人工智能倫理的第3步:考慮新技術(shù)的影響

為了讓個人執(zhí)行政策,這項技術(shù)必須允許人類做出調(diào)整。人類必須能夠選擇和調(diào)整訓練數(shù)據(jù),控制數(shù)據(jù)源,并選擇數(shù)據(jù)轉(zhuǎn)換的方式。同樣,人工智能技術(shù)應該支持健壯的治理,包括數(shù)據(jù)訪問和在算法不正確或在道德定義的邊界之外操作時對算法進行指導的能力。

沒有辦法用人工智能來預測所有可能的場景,但重要的是要考慮到可能性,并為正面和負面的強化設置控制。例如,引入新的、甚至相互競爭的目標可以獎勵符合道德的決定,并將不道德的決定認定為錯誤或被誤導。一個人工智能系統(tǒng)被設計成對質(zhì)量和效率給予同等的重視,將產(chǎn)生不同的結(jié)果,而不是一個完全集中在效率上的系統(tǒng)。此外,設計一個具有若干獨立和相互沖突的目標的人工智能系統(tǒng)可能會增加該系統(tǒng)的問責制。

不要回避人工智能倫理

人工智能可以提高汽車安全和診斷癌癥-但它也可以選擇巡航導彈的目標。所有人工智能能力都有相當大的倫理影響,需要從多個角度加以討論。我們?nèi)绾未_保人工智能的道德體系不被濫用?

上面的三個步驟只是一個開始。他們將幫助你開始關(guān)于為你的組織制定道德人工智能指導方針的艱難對話。你可能不愿劃清這些道德界限,但我們不能回避這場對話。所以別等了。現(xiàn)在就開始討論,這樣您就可以確定邊界,如何執(zhí)行它們,甚至在必要時如何更改它們。