首頁 / 資訊中心 / 趨勢研究/2019年AI五大發(fā)展趨勢出爐

2019年AI五大發(fā)展趨勢出爐

發(fā)布時(shí)間:2018-12-12 分類:趨勢研究

2019年,預(yù)計(jì)AI技術(shù)仍會(huì)繼續(xù)發(fā)展,AI五大發(fā)展趨勢分別是定制AI芯片、物聯(lián)網(wǎng)(IoT)與AI在邊緣計(jì)算的融合、神經(jīng)網(wǎng)絡(luò)的互操作性、自動(dòng)化機(jī)器學(xué)習(xí)和AIOps。亞馬遜、蘋果、Facebook、谷歌、IBM和微軟等公司正在投資研發(fā)AI技術(shù),這將會(huì)把AI更貼近消費(fèi)者,促進(jìn)整體生態(tài)系統(tǒng)的發(fā)展。
 
回顧2018年,基于機(jī)器學(xué)習(xí)和AI的平臺(tái)、工具和應(yīng)用程序急劇增長。這些技術(shù)不僅影響了軟件和互聯(lián)網(wǎng)行業(yè),還影響了其他垂直行業(yè),如醫(yī)療保健、法律、制造業(yè)、汽車和農(nóng)業(yè)。
 
以下是2019年值得關(guān)注的五大AI趨勢:
 
定制AI芯片興起
 
與其他軟件不同,AI嚴(yán)重依賴專用處理器來補(bǔ)充CPU的功能。即使是最快和最先進(jìn)的CPU也可能無法提高AI模型的速度。AI模型在運(yùn)行的時(shí)候,需要額外的硬件來執(zhí)行復(fù)雜的數(shù)學(xué)計(jì)算,以加速對(duì)象檢測和面部識(shí)別等任務(wù)。
 
2019年,英特爾、NVIDIA、AMD、ARM和高通等芯片制造商將推出專用芯片,加速AI應(yīng)用的執(zhí)行。
 
這些芯片將針對(duì)計(jì)算機(jī)視覺、自然語言處理和語音識(shí)別的特定用例和場景,并進(jìn)行優(yōu)化。醫(yī)療保健和汽車行業(yè)的新一代應(yīng)用將會(huì)依賴這類芯片,為最終用戶提供智能服務(wù)。
 
2019年,亞馬遜、微軟、谷歌和Facebook等超大規(guī)?;A(chǔ)設(shè)施公司將會(huì)增加投資基于現(xiàn)場可編程門陣列(FPGA)和專用集成電路(ASIC)的定制芯片。
 
這些芯片將進(jìn)行大量優(yōu)化,針對(duì)AI和高性能計(jì)算(HPC)運(yùn)行的計(jì)算工作。其中一些芯片還將協(xié)助下一代數(shù)據(jù)庫,加速查詢處理和預(yù)測分析。
 
目前的用例有亞馬遜的Nitro項(xiàng)目、谷歌的Cloud TPU、微軟的Project Brainwave、英特爾的Myriad X VPU。
 
物聯(lián)網(wǎng)和AI在邊緣計(jì)算融合
 
在2019年,AI在邊緣計(jì)算會(huì)跟物聯(lián)網(wǎng)融合。在公共云中運(yùn)行的大多數(shù)模型將部署在邊緣計(jì)算層面。
 
工業(yè)物聯(lián)網(wǎng)是AI的最佳用例,可以執(zhí)行異常檢測、根本原因分析和設(shè)備的預(yù)測性維護(hù)。
 
基于深度神經(jīng)網(wǎng)絡(luò)的高級(jí)機(jī)器學(xué)習(xí)模型將進(jìn)行優(yōu)化,以在邊緣運(yùn)行。他們將能夠處理視頻幀、語音合成、時(shí)間序列數(shù)據(jù)和由攝像機(jī)、麥克風(fēng)和其他傳感器等設(shè)備生成的非結(jié)構(gòu)化數(shù)據(jù)。
 
物聯(lián)網(wǎng)將成為企業(yè)中AI的最大驅(qū)動(dòng)力。邊緣設(shè)備將會(huì)配備基于FPGA和ASIC的特制AI芯片。
 
早期用例包括AWS Greengrass支持邊緣機(jī)器學(xué)習(xí)、Azure IoT Edge的AI工具包、谷歌的Cloud IoT Edge、FogHorn Lightning Edge Intelligence和蒂布可的Project Flogo。
 
神經(jīng)網(wǎng)絡(luò)之間的互操作性成為關(guān)鍵
 
開發(fā)神經(jīng)網(wǎng)絡(luò)模型的關(guān)鍵之一在于選擇正確的框架。數(shù)據(jù)科學(xué)家和開發(fā)人員必須從眾多選擇中選擇合適的工具,包括Caffe2、PyTorch、Apache MXNet、Microsoft Cognitive Toolkit和TensorFlow。
 
一旦模型在特定框架中進(jìn)行了調(diào)試和評(píng)估,就很難將調(diào)試好的模型移植到另一個(gè)框架中。
 
神經(jīng)網(wǎng)絡(luò)工具包之間缺乏互操作性阻礙了AI的進(jìn)一步采用。為了應(yīng)對(duì)這一挑戰(zhàn),AWS、Facebook和微軟合作構(gòu)建了開放式神經(jīng)網(wǎng)絡(luò)交換(ONNX),這使得在多個(gè)框架中可以再次使用經(jīng)過調(diào)試的神經(jīng)網(wǎng)絡(luò)模型。
 
在2019年,ONNX將成為該行業(yè)的重要技術(shù),從研究人員到邊緣設(shè)備制造商、生態(tài)系統(tǒng)的所有關(guān)鍵參與者都將依賴ONNX運(yùn)行環(huán)境。
 
早期用例包括Windows 10系統(tǒng)附帶ONNX運(yùn)行環(huán)境,而英特爾的OpenVINO工具包可支持ONNX。
 
  自動(dòng)化機(jī)器學(xué)習(xí)將會(huì)更加突出
 
從根本上改變基于機(jī)器學(xué)習(xí)的解決方案的趨勢就是自動(dòng)化機(jī)器學(xué)習(xí)(AutoML)。它將使業(yè)務(wù)分析師和開發(fā)人員能夠發(fā)展可以解決復(fù)雜場景的機(jī)器學(xué)習(xí)模型,而不用經(jīng)過機(jī)器學(xué)習(xí)模型傳統(tǒng)的調(diào)試過程。
 
使用自動(dòng)化機(jī)器學(xué)習(xí)平臺(tái)時(shí),業(yè)務(wù)分析師可以專注于業(yè)務(wù)問題,而不是陷入程序和工作流程問題中。
 
自動(dòng)化機(jī)器學(xué)習(xí)完全適用認(rèn)知API(應(yīng)用編程接口)和自定義機(jī)器學(xué)習(xí)平臺(tái)。它提供了合適的自定義功能,開發(fā)人員可以不用完成傳統(tǒng)的工作流程。
 
跟認(rèn)知API不同的是,自動(dòng)化機(jī)器學(xué)習(xí)具有相同程度的靈活性,但又結(jié)合了自定義數(shù)據(jù)與可轉(zhuǎn)移性。
 
早期用例包括DataRobot、谷歌的Cloud AutoML、微軟的自定義認(rèn)知API,Amazon Comprehend的自定義對(duì)象(Custom Entities)。
 
AIOps興起
 
現(xiàn)代應(yīng)用程序和基礎(chǔ)架構(gòu)正在生成為索引、搜索和分析的日志數(shù)據(jù)。從硬件、操作系統(tǒng)、服務(wù)器軟件和應(yīng)用軟件獲得的海量數(shù)據(jù)集可以進(jìn)行聚合和關(guān)聯(lián),然后形成方案和模式。當(dāng)機(jī)器學(xué)習(xí)模型應(yīng)用到這些數(shù)據(jù)集時(shí),IT操作就可以從被動(dòng)轉(zhuǎn)變?yōu)轭A(yù)測層面。
 
DevOps(Development和Operations的組合詞)是一種重視“軟件開發(fā)人員(Dev)”和“IT運(yùn)維技術(shù)人員(Ops)”之間溝通合作的文化、運(yùn)動(dòng)或慣例。
 
當(dāng)AI的強(qiáng)大功能在運(yùn)行的時(shí)候發(fā)揮作用時(shí),AI將重新定義基礎(chǔ)架構(gòu)的管理方式。機(jī)器學(xué)習(xí)和AI在IT和DevOps中的應(yīng)用將會(huì)帶來更加智能的模式,幫助運(yùn)營團(tuán)隊(duì)進(jìn)行精準(zhǔn)的根本原因分析。
 
AIOps(AI和Operations的組合詞)將在2019年成為主流,這將會(huì)有助于公共云供應(yīng)商和企業(yè)的發(fā)展。
 
早期用例包括Moogsoft AIOps、亞馬遜的EC2 Predictive Scaling、微軟的Azure VM resiliency、亞馬遜的S3 Intelligent Tiering。
 
機(jī)器學(xué)習(xí)和人工智能將成為2019年的關(guān)鍵技術(shù)趨勢。從業(yè)務(wù)應(yīng)用到IT支持,AI將對(duì)行業(yè)產(chǎn)生重大影響。