在與李世石大戰(zhàn)之后,AlphaGo全新升級(jí),并把下一個(gè)目標(biāo)鎖定為九段棋手柯潔,這注定又將是一場(chǎng)劃時(shí)代大戰(zhàn)。在這里,“升級(jí)”可以理解為深度學(xué)習(xí)的成果,而深度學(xué)習(xí)已經(jīng)成為人工智能時(shí)代的入口。
谷歌DeepMind旗下全新升級(jí)的AlphaGo,F(xiàn)acebook的人工智能計(jì)算服務(wù)器Big Sur,越來越“聰明”的IBM人工智能Watson,微軟的“深度殘差學(xué)習(xí)”,科大訊飛的“語音深度學(xué)習(xí)”——國(guó)內(nèi)外行業(yè)巨頭步伐異常統(tǒng)一,紛紛在語音識(shí)別、圖像識(shí)別、自然語言處理等領(lǐng)域拓展深度學(xué)習(xí)版圖。
簡(jiǎn)單地說,深度學(xué)習(xí)通過構(gòu)建深層神經(jīng)網(wǎng)絡(luò),模擬人類大腦的工作原理。如圖所示,深層神經(jīng)網(wǎng)絡(luò)由一個(gè)輸入層,數(shù)個(gè)隱層,以及一個(gè)輸出層構(gòu)成。每層有若干個(gè)神經(jīng)元,每個(gè)神經(jīng)元模擬人類的神經(jīng)細(xì)胞,而結(jié)點(diǎn)之間的連接模擬神經(jīng)細(xì)胞之間的連接。

深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
可以將深度學(xué)習(xí)理解為大腦的“構(gòu)建”,雖然潛力無限,但是門檻不可謂不高。
首先,深度學(xué)習(xí)網(wǎng)絡(luò)模型復(fù)雜,計(jì)算量大。以DNN(深度神經(jīng)網(wǎng)絡(luò))為例,它需要模擬人腦的計(jì)算能力,而人腦包含100多億個(gè)神經(jīng)細(xì)胞,這要求DNN中神經(jīng)元多,神經(jīng)元間連接數(shù)量也相當(dāng)驚人,如此龐大的計(jì)算量需要高性能的硬件以及軟件系統(tǒng)提供支撐。
一方面,在深度學(xué)習(xí)系統(tǒng)中,GPU是提升計(jì)算性能的關(guān)鍵選擇,代碼寫入并讀取變量、執(zhí)行指令、啟動(dòng)函數(shù)調(diào)用等都是GPU把控之事。當(dāng)前CPU只有4核或者6核,模擬出8個(gè)或者12個(gè)處理線程來進(jìn)行運(yùn)算,但是普通級(jí)別的GPU就包含了成百上千個(gè)處理單元,這對(duì)于多媒體計(jì)算中大量的重復(fù)處理過程有著天生的優(yōu)勢(shì)。即使如此,并不表示所有GPU都適合深度學(xué)習(xí),開發(fā)人員需要根據(jù)項(xiàng)目需求做出GPU選擇。
另一方面,深度學(xué)習(xí)同樣需要與項(xiàng)目相匹配的軟件系統(tǒng)。目前, Caffe、TensorFlow、MXNet等深度學(xué)習(xí)框架均已開源,不同框架意味著不同的側(cè)重: Caffe小巧易上手,TensorFlow支持高并發(fā)處理,MXNet則具有內(nèi)存處理優(yōu)勢(shì),只有選擇適用的軟件框架,才能使研發(fā)項(xiàng)目穩(wěn)步推進(jìn)。
其次,深度學(xué)習(xí)需要大量數(shù)據(jù),以訓(xùn)練高準(zhǔn)確率的模型。為了達(dá)到理想的學(xué)習(xí)效果,深度學(xué)習(xí)需要利用海量訓(xùn)練數(shù)據(jù),進(jìn)行反復(fù)多次實(shí)驗(yàn),從而選擇合理的選擇優(yōu)化方式,進(jìn)而訓(xùn)練出高準(zhǔn)確率的模型。但是,現(xiàn)實(shí)情況是,無法獲取大規(guī)模數(shù)據(jù)往往成為開發(fā)者的瓶頸。

再者,對(duì)于深度學(xué)習(xí),技術(shù)支撐不可或缺。對(duì)于開發(fā)應(yīng)用者而言,首先需要處理的問題即如何部署軟件系統(tǒng)并使之正常運(yùn)行,但軟件系統(tǒng)依賴于底層庫,其是否正常運(yùn)作受多重因素影響。此外,開發(fā)者還需要面對(duì)復(fù)雜的算法、頻繁的參數(shù)調(diào)節(jié)等多重難題。所以,強(qiáng)有力的技術(shù)支撐不可或缺,然而目前很多研發(fā)團(tuán)隊(duì)并不具備這樣的能力。
因此,深度學(xué)習(xí)成為一個(gè)效果很好但門檻極高的方向,如何落地產(chǎn)生實(shí)際應(yīng)用效果成為關(guān)注的焦點(diǎn)。對(duì)此,厚積薄發(fā)的云創(chuàng)大數(shù)據(jù)(www.cstor.cn)打造了全新的深度學(xué)習(xí)軟硬件平臺(tái),于2016年7月11日正式發(fā)布DeepRack深度學(xué)習(xí)一體機(jī),以幫助解決深度學(xué)習(xí)應(yīng)用中遇到的障礙與困境。

DeepRack深度學(xué)習(xí)一體機(jī)全景圖

DeepRack深度學(xué)習(xí)一體機(jī)計(jì)算節(jié)點(diǎn)內(nèi)部圖
在硬件方面,DeepRack深度學(xué)習(xí)一體機(jī)最多可配置4臺(tái)4U高性能服務(wù)器,每臺(tái)服務(wù)器CPU選用英特爾E5-2600系列至強(qiáng)處理器,每臺(tái)服務(wù)器最多可插入4塊英偉達(dá)GPU卡,提供最大每秒128萬億次的單精度計(jì)算能力,滿配時(shí)相當(dāng)于160臺(tái)服務(wù)器的計(jì)算能力,可使用戶的深度學(xué)習(xí)產(chǎn)品在計(jì)算效率方面展現(xiàn)強(qiáng)悍的競(jìng)爭(zhēng)力。

全球圖形技術(shù)和數(shù)字媒體處理器行業(yè)領(lǐng)導(dǎo)廠商N(yùn)VIDIA(英偉達(dá))
在軟件方面,DeepRack深度學(xué)習(xí)一體機(jī)預(yù)裝CentOS操作系統(tǒng),集成了兩套世界數(shù)一數(shù)二的開源工具軟件——Google的TensorFlow以及加州大學(xué)伯克利分校的Caffe,兩者作為通用的深度學(xué)習(xí)框架,可以幫助學(xué)習(xí)諸如圖像識(shí)別、語音識(shí)別和語言翻譯等任務(wù)。

人工智能學(xué)習(xí)系統(tǒng)TensorFlow
在數(shù)據(jù)方面,DeepRack深度學(xué)習(xí)一體機(jī)提供了MNIST、CIFAR-10、ImageNet等圖像數(shù)據(jù)集以及一百萬張車牌的圖片數(shù)據(jù),可滿足實(shí)驗(yàn)與模型塑造過程中的訓(xùn)練數(shù)據(jù)需求,突破數(shù)據(jù)難獲取的瓶頸。
在服務(wù)方面,云創(chuàng)大數(shù)據(jù)還將提供DeepRack深度學(xué)習(xí)一體機(jī)的操作培訓(xùn),從部署到使用提供完整的服務(wù)體系,使用戶根據(jù)操作手冊(cè),即可快速搭建屬于自己的深度學(xué)習(xí)應(yīng)用。更重要的是,云創(chuàng)大數(shù)據(jù)向用戶提供周到的免費(fèi)培訓(xùn),幫您帶出一個(gè)能夠應(yīng)用深度學(xué)習(xí)的團(tuán)隊(duì)來。
此外,參照NVIDIA GPU參數(shù)表,用戶還可根據(jù)預(yù)算、深度學(xué)習(xí)應(yīng)用場(chǎng)景,選配合適的GPU型號(hào),比如GeForce Titan X、Tesla K40、K80等,從而滿足不同的深度學(xué)習(xí)應(yīng)用需求。
NVIDIA GPU參數(shù)表

經(jīng)過選配組合,目前DeepRack深度學(xué)習(xí)一體機(jī)具有以下四種規(guī)格:極簡(jiǎn)型、經(jīng)濟(jì)型、標(biāo)準(zhǔn)型以及增強(qiáng)型。其中,極簡(jiǎn)型作為單機(jī),擁有單一節(jié)點(diǎn),其他三種規(guī)格則是包括4個(gè)節(jié)點(diǎn)的獨(dú)立機(jī)柜。
硬件配置參數(shù)

對(duì)于門檻高、部署難的深度學(xué)習(xí)而言,DeepRack深度學(xué)習(xí)一體機(jī)通過很好的搭配的軟硬件設(shè)施,配套海量的可操作數(shù)據(jù)以及貼心的應(yīng)用上門服務(wù),手把手教會(huì)用戶使用,是不可多得的深度學(xué)習(xí)利器。
聯(lián)系人:
技術(shù):曹騮 聯(lián)系方式:025-83700385-8025,13815875537
市場(chǎng):張偉 聯(lián)系方式:025-83700385-8028,15805157345
