首頁(yè) / 資訊中心 / 交通百科/人工智能如何才能學(xué)會(huì)安全?

人工智能如何才能學(xué)會(huì)安全?

發(fā)布時(shí)間:2018-09-28 分類:交通百科

隨著人工智能的發(fā)展,機(jī)器很快將具備超越人類的智能和實(shí)用能力。機(jī)器不僅會(huì)比人更有能力,而且還能使自己變得更好。也就是說(shuō),這些機(jī)器將了解他們自己的設(shè)計(jì)和如何改進(jìn)它,或者他們可以創(chuàng)造出全新的甚至更有能力的機(jī)器。ai人工智能的人類創(chuàng)造者必須能夠相信這些機(jī)器能夠保持安全和有益,即使它們自我完善和適應(yīng)現(xiàn)實(shí)世界。

人工智能

遞歸自我改進(jìn)

這種自治代理對(duì)自己的代碼進(jìn)行越來(lái)越好的修改的想法稱為遞歸自我改進(jìn),通過(guò)遞歸的自我改進(jìn),機(jī)器可以適應(yīng)新的環(huán)境,學(xué)會(huì)如何處理新的情況。在某種程度上,人腦也能做到這一點(diǎn)。當(dāng)一個(gè)人養(yǎng)成并重復(fù)新的習(xí)慣時(shí),他們大腦中的聯(lián)系就會(huì)改變。隨著時(shí)間的推移,這種聯(lián)系會(huì)變得更強(qiáng)、更有效,從而使新的、期望的動(dòng)作更容易執(zhí)行(例如改變飲食習(xí)慣或?qū)W習(xí)一門新的語(yǔ)言)。然而,在機(jī)器中,這種自我改進(jìn)的能力要強(qiáng)烈得多。

人工智能系統(tǒng)代理處理信息的速度比人類快得多,如果它不能正確理解自己的行為如何影響人們,那么它的自我修改可能很快就會(huì)與人類的價(jià)值觀脫節(jié),解決這個(gè)問(wèn)題是實(shí)現(xiàn)安全和有益人工智能的關(guān)鍵一步。

在復(fù)雜世界中構(gòu)建人工智能

由于世界是如此復(fù)雜,許多研究人員開(kāi)始人工智能項(xiàng)目,通過(guò)在精心控制的環(huán)境中的開(kāi)發(fā)人工智能。然后,他們創(chuàng)造數(shù)學(xué)證明,可以保證他們的人工智能在這個(gè)特定的空間將取得成功。

但這種方法讓設(shè)計(jì)師承擔(dān)了太多的責(zé)任,而且過(guò)于相信證明,尤其是在處理那些可以通過(guò)遞歸自我改進(jìn)學(xué)習(xí)的機(jī)器時(shí)。我們無(wú)法準(zhǔn)確地描述環(huán)境的所有復(fù)雜性,我們也無(wú)法預(yù)見(jiàn)代理將在未來(lái)發(fā)現(xiàn)自己的環(huán)境;一個(gè)代理將沒(méi)有足夠的資源(能量、時(shí)間、投入)來(lái)做最優(yōu)的事情。

如果機(jī)器遇到了不可預(yù)見(jiàn)的情況,那么設(shè)計(jì)者在受控環(huán)境中所依賴的證據(jù)可能就不適用了,這樣就不能保證人工智能的安全行為了。

基于經(jīng)驗(yàn)的人工智能

取而代之的是使用了一種基于經(jīng)驗(yàn)的人工智能的方法?;诮?jīng)驗(yàn)的人工智能是一種自我完善的系統(tǒng),它可以進(jìn)行試探性的、可加性的、可逆的、非常細(xì)粒度的修改,而不需要事先進(jìn)行自我推理;相反,自我修改會(huì)隨著時(shí)間的推移根據(jù)經(jīng)驗(yàn)證據(jù)進(jìn)行測(cè)試,并在證明正確時(shí)緩慢地逐步實(shí)施,或者在被偽造時(shí)被駁回。

研究人員可以通過(guò)在復(fù)雜的、不可預(yù)見(jiàn)的環(huán)境中對(duì)機(jī)器進(jìn)行教學(xué)和測(cè)試,挑戰(zhàn)其功能和目標(biāo),從而確保人工智能能夠發(fā)展出安全的行為,而不是只相信數(shù)學(xué)證明。

有了基于經(jīng)驗(yàn)的人工智能,人工智能機(jī)器將從交互經(jīng)驗(yàn)中學(xué)習(xí),因此監(jiān)控它們的生長(zhǎng)周期是至關(guān)重要的。研究人員可以通過(guò)類似的、漸進(jìn)的基于經(jīng)驗(yàn)的學(xué)習(xí)過(guò)程來(lái)確保人工智能的安全。人工智能僅僅是從一小部分特定于設(shè)計(jì)師的代碼一顆種子開(kāi)始構(gòu)建的,就像孩子一樣,這臺(tái)機(jī)器剛開(kāi)始的時(shí)候,它的能力和智力都會(huì)下降,但隨著時(shí)間的推移,它會(huì)自我完善,因?yàn)樗鼤?huì)從老師和現(xiàn)實(shí)世界的經(jīng)驗(yàn)中學(xué)習(xí)。

基于經(jīng)驗(yàn)的人工智能的未來(lái)

基于經(jīng)驗(yàn)的人工智能不需要在計(jì)算機(jī)上制作一個(gè)證明支持的最優(yōu)學(xué)習(xí)算法的智力工作,而是需要與機(jī)器進(jìn)行大量的面對(duì)面工作,以便像孩子一樣教它。創(chuàng)造安全的人工智能可能更多地被證明是一個(gè)教學(xué)和成長(zhǎng)的過(guò)程,而不是創(chuàng)造完美的數(shù)學(xué)證明的功能。雖然這樣的責(zé)任轉(zhuǎn)移可能更費(fèi)時(shí),但它也可能有助于在人工智能被發(fā)布到現(xiàn)實(shí)世界之前建立對(duì)它的更全面的理解。以超越代理實(shí)現(xiàn)級(jí)別,開(kāi)發(fā)教學(xué)和測(cè)試方法,使我們能夠提高代理對(duì)道德價(jià)值觀的理解,并確保代理被迫保護(hù)和遵守這些價(jià)值觀,這一過(guò)程令人望而生畏,但它不像人工智能安全出錯(cuò)的后果那樣令人望而生畏。