首頁(yè) / 資訊中心 / 交通百科/人工智能自主學(xué)習(xí)和事故

人工智能自主學(xué)習(xí)和事故

發(fā)布時(shí)間:2018-10-10 分類:交通百科

近年來,隨著科技產(chǎn)業(yè)的不斷發(fā)展,STEM培訓(xùn)和研究在學(xué)校的重要性日益凸顯。然而,谷歌和斯坦福之前傳出的消息,讓人們有理由相信,未來的希望可能會(huì)出現(xiàn)在書本上。

人工智能

為了開發(fā)出更好的語(yǔ)言識(shí)別軟件,谷歌自然語(yǔ)言理解研究小組的研究人員訓(xùn)練了他們的深層神經(jīng)網(wǎng)絡(luò),以預(yù)測(cè)一個(gè)作者在給定一些輸入的情況下會(huì)寫的下一個(gè)句子。研究小組使用了古騰堡計(jì)劃上的經(jīng)典文獻(xiàn),最初,他們給程序提供了句子,但沒有對(duì)應(yīng)的作者ID,程序能夠以12.8%的錯(cuò)誤率預(yù)測(cè)接下來的句子是什么。當(dāng)將作者ID輸入系統(tǒng)時(shí),錯(cuò)誤率降至11.1%。

然后,球隊(duì)加大了賭注。使用寫作樣本和作者ID,研究人員讓該程序應(yīng)用梅耶斯·布里格人格測(cè)試來確定作者的人格特征。最終,這種類型的機(jī)器學(xué)習(xí)可以使人工智能更好地理解語(yǔ)言和人類的本性。不過,就目前而言,正如團(tuán)隊(duì)在他們的博客上解釋的那樣,該計(jì)劃“可以幫助推出的Gm人工智能l收件箱中的智能回復(fù)功能提供更個(gè)性化的回復(fù)選項(xiàng)?!?

與此同時(shí),在斯坦福大學(xué),另一組研究人員正在使用現(xiàn)代書籍來幫助他們的人工智能系統(tǒng)程序奧古爾理解人類的日?;顒?dòng)。

正如研究小組在他們的論文中解釋的那樣,AI人工智能不能在沒有人工輸入的情況下預(yù)測(cè)日常需求(例如,什么時(shí)候煮一壺咖啡,或者什么時(shí)候因?yàn)槲覀冊(cè)谒X而關(guān)閉電話)。他們認(rèn)為,這是因?yàn)閷?duì)于任何一個(gè)人來說,手工編程都有太多的日?,嵥槿蝿?wù)和需求。相反,他們“通過分析超過10億字的現(xiàn)代書籍來證明挖掘人類行為的廣泛知識(shí)基礎(chǔ)是可能的。

在其他新聞中,也許可以將從虛構(gòu)中學(xué)習(xí)人類行為的機(jī)器開發(fā)應(yīng)用到谷歌無人駕駛汽車等系統(tǒng)中,谷歌無人駕駛汽車承認(rèn)對(duì)一次事故負(fù)有部分責(zé)任。谷歌的汽車行駛了100多萬英里,發(fā)生了大約17起事故,然而,在其他情況下,這都是人類駕駛另一輛汽車的錯(cuò)誤,或者是谷歌的一名員工駕駛谷歌汽車時(shí)發(fā)生的。

這起特殊事故的發(fā)生是因?yàn)楣雀杵嚊]有正確地預(yù)見到后面一輛公交車的行動(dòng),汽車輕微轉(zhuǎn)向,以避開路上的障礙物,公共汽車的一側(cè)撞上了汽車。在當(dāng)時(shí),駕駛方向盤的谷歌測(cè)試司機(jī)認(rèn)為巴士會(huì)屈服,而巴士司機(jī)可能認(rèn)為谷歌汽車會(huì)向巴士屈服。

這起事故提出了一個(gè)值得思考的有趣問題:對(duì)于自主系統(tǒng)所犯的罕見錯(cuò)誤,人類會(huì)有多大的容忍度?正如我們?cè)谶^去提到過的,如果自動(dòng)駕駛汽車將美國(guó)每年32000的交通死亡人數(shù)減少一半,汽車制造商將得不到16000張感謝信,但會(huì)收到16000起訴訟,我們還會(huì)繼續(xù)研究下去嗎?