2017年被國內許多研究人員視為是中國AI元年,也是AI生態(tài)和市場迅速發(fā)展的一年。在國家政策和資本注入的共同推動下,大量AI初創(chuàng)企業(yè)紛紛涌現(xiàn)、行業(yè)應用迅速落地。AI市場的火熱,也為以GPU服務器為主的AI基礎設施擴張造就了良機。一些市場調研機構的統(tǒng)計數(shù)據(jù),也從側面佐證了這一觀點。
近日,國際數(shù)據(jù)公司IDC發(fā)布了新的《人工智能基礎架構市場(2019下半年)跟蹤》報告。該報告顯示,2019年人工智能基礎架構市場規(guī)模達到20.9億美元,同比增長58.7%。其中GPU服務器占據(jù)96.1%的市場份額。IDC預測到2024年,中國GPU服務器市場規(guī)模將達到64億美元。
當前,工業(yè)與學術界的數(shù)據(jù)科學家已將GPU用于機器學習以便在各種應用上實現(xiàn)開創(chuàng)性的改進,這些應用包括視頻分析、語音識別、圖像分類、以及自然語言處理等。在產(chǎn)業(yè)合作方面,浪潮、科大訊飛、今日頭條、滴滴等科技公司已經(jīng)開始積極合作,致力于幫助行業(yè)客戶在視頻、搜索、語音、圖像、網(wǎng)絡等方面取得數(shù)量級的應用性能提升。
從硬件架構來看,AI服務器主要指的是采用異構形式的服務器,有CPU+FPGA、CPU+GPU、CPU+TPU等多種形式。其中,采用CPU+GPU結構的AI服務器十分廣泛。因此在業(yè)界,也有許多人將其默認為GPU服務器。截至目前,GPU服務器在醫(yī)療、游戲、電商、金融、安防等行業(yè)有著廣泛的應用。
人工智能需要強大的計算能力,也就是CPU+GPU;快速的存儲,減少延遲提升性能;大內存容量,供海量數(shù)據(jù)分析;專用芯片,在某一AI計算領域可提供更強的性能及更低功耗,例如人臉識別專用芯片可以植入攝像頭中,功耗要比服務器低數(shù)十倍。
此外,GPU加速計算可以在GPU仍然運行其余程序代碼的情況下,將應用程序中計算密集部分的工作負載轉移到GPU,從而提供良好的應用程序性能。從用戶的角度來看,應用程序運行得更快?;诖?,提升GPU服務器性能勢在必行。
用戶在選購GPU,也要考慮業(yè)務應用先選擇GPU型號、使用場景及數(shù)量(邊緣和中心)、自我需求及IT運維能力、集群系統(tǒng)的成熟度及工程效率、配套軟件的價值以及服務的價值等因素。
人工智能AI平臺基礎架構中至關重要的就是存儲架構。總體來看,存儲架構主要有三種模式:基于數(shù)據(jù)塊的SAN存儲、基于文件的NAS存儲和對象存儲。未來,隨著人工智能技術在各領域應用程度的不斷深化,存儲結構也將進行相應的升級。
眼下,人工智能服務器正在快速的成熟和完善中,結合整個人工智能技術和服務的發(fā)展,未來人工智能服務器會重點在低功耗設計、智能邊緣計算、軟硬件平臺融合等領域產(chǎn)生新的突破。而在這一輪以深度神經(jīng)網(wǎng)絡為理論基礎的人工智能大發(fā)展中,創(chuàng)新算法、海量數(shù)據(jù)和模型訓練計算能力是三個不容忽視的推動要素。
實際上,傳統(tǒng)行業(yè)與AI融合時所面臨的挑戰(zhàn)往往不在于算力,而在于缺乏平臺、應用程序開發(fā),以及算法、模型調整方面的技術能力,未來業(yè)內人士也需要在這些方面進行強化。計算無處不在,互聯(lián)無處不在,AI無處不在,或許就是科技迅速發(fā)展的一大表現(xiàn)吧!
(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )