機(jī)器學(xué)習(xí)不斷推動(dòng)視覺(jué)物聯(lián)網(wǎng)應(yīng)用變革,將經(jīng)典的計(jì)算機(jī)視覺(jué)與深度學(xué)習(xí)相結(jié)合進(jìn)行的研究,則顯示出了更好的成果。
計(jì)算機(jī)視覺(jué)是物聯(lián)網(wǎng)(IoT)廣泛應(yīng)用的基礎(chǔ)。家庭成員通過(guò)安裝了攝像頭的家庭監(jiān)控系統(tǒng)就能了解家里的所有情況。機(jī)器人和無(wú)人機(jī)使用視覺(jué)系統(tǒng)映射環(huán)境并避免行進(jìn)中的障礙物。增強(qiáng)現(xiàn)實(shí)眼鏡使用計(jì)算機(jī)視覺(jué)來(lái)覆蓋用戶視圖上的重要信息;汽車(chē)通過(guò)來(lái)自安裝在車(chē)輛上多個(gè)照相機(jī)捕捉的圖像,向駕駛員提供有助于防止碰撞的環(huán)繞或“鳥(niǎo)瞰”視圖。各種應(yīng)用案例數(shù)不勝數(shù)。
多年來(lái),設(shè)備功能(包括計(jì)算能力、內(nèi)存容量、功耗、圖像傳感器分辨率以及光學(xué)系數(shù))的指數(shù)式演變提高了物聯(lián)網(wǎng)應(yīng)用中計(jì)算機(jī)視覺(jué)的性能和成本效益。伴隨這些而來(lái)的是精密軟件算法的發(fā)展和完善,例如人臉檢測(cè)和識(shí)別、物體檢測(cè)和分類以及同步定位和映射等。
機(jī)器學(xué)習(xí)的興起和面臨的挑戰(zhàn)
近年來(lái),人工智能(AI),尤其是深度學(xué)習(xí)的發(fā)展,進(jìn)一步加快了物聯(lián)網(wǎng)視覺(jué)應(yīng)用的激增。與傳統(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù)相比,深度學(xué)習(xí)為物聯(lián)網(wǎng)開(kāi)發(fā)人員在諸如目標(biāo)分類等任務(wù)方面提供了更高的準(zhǔn)確性。由于深度學(xué)習(xí)中使用的神經(jīng)網(wǎng)絡(luò)是“通過(guò)訓(xùn)練”而不是“編程”實(shí)現(xiàn)的,使用這種方法的應(yīng)用通常更易進(jìn)行開(kāi)發(fā),從而更好地利用當(dāng)前系統(tǒng)中可用的大量圖像和視頻數(shù)據(jù)。深度學(xué)習(xí)還提供了卓越的多功能性,這是因?yàn)榕c針對(duì)性更強(qiáng)的計(jì)算機(jī)視覺(jué)算法相比,神經(jīng)網(wǎng)絡(luò)研究和框架的用途更廣。
但是,深度學(xué)習(xí)的優(yōu)勢(shì)并非沒(méi)有權(quán)衡和挑戰(zhàn)。深度學(xué)習(xí)需要大量的計(jì)算資源,用于訓(xùn)練和推測(cè)階段。最近的研究表明,不同的深度學(xué)習(xí)模型所需的計(jì)算能力與深度學(xué)習(xí)技術(shù)的精度之間存在緊密的關(guān)系。在基于視覺(jué)的應(yīng)用程序中,從75%到80%的精度轉(zhuǎn)變可能需要不少于數(shù)十億次額外的數(shù)學(xué)運(yùn)算。
使用深度學(xué)習(xí)的視覺(jué)處理結(jié)果也取決于圖像分辨率。例如,為了在目標(biāo)分類過(guò)程中獲得最充分的表現(xiàn)需要高分辨率的圖像或視頻,從而提升了需要處理、存儲(chǔ)和傳輸?shù)臄?shù)據(jù)量。圖像分辨率對(duì)于需要在遠(yuǎn)處探測(cè)和目標(biāo)分類的應(yīng)用尤為重要,例如企業(yè)安防攝像頭。
計(jì)算機(jī)視覺(jué)與機(jī)器學(xué)習(xí)結(jié)合以獲得更佳性能
傳統(tǒng)的計(jì)算機(jī)視覺(jué)和深度學(xué)習(xí)方法之間有明顯的折中。傳統(tǒng)的計(jì)算機(jī)視覺(jué)算法已經(jīng)成熟,經(jīng)過(guò)驗(yàn)證,并且在性能和功率效率方面進(jìn)行了優(yōu)化;而深度學(xué)習(xí)能提供更高的精度和多功能性,但是需要大量的計(jì)算資源。
那些希望快速實(shí)施高性能系統(tǒng)的用戶發(fā)現(xiàn),將傳統(tǒng)計(jì)算機(jī)視覺(jué)和深度學(xué)習(xí)相結(jié)合的混合方法可以提供兩全其美的解決方案。例如,在安防攝像頭中,計(jì)算機(jī)視覺(jué)算法可以有效地檢測(cè)場(chǎng)景中的人臉或移動(dòng)物體。然后,通過(guò)深度學(xué)習(xí)來(lái)處理檢測(cè)到的面部或目標(biāo)圖像的較小片段,以進(jìn)行身份驗(yàn)證或目標(biāo)分類。與整個(gè)場(chǎng)景、每幀深度學(xué)習(xí)相比,節(jié)省了大量的計(jì)算資源。
充分利用邊緣計(jì)算
就像使用純粹的深度學(xué)習(xí)一樣,用于視覺(jué)處理的混合方法可以充分利用邊緣的異構(gòu)計(jì)算能力。異構(gòu)計(jì)算架構(gòu)有助于提高視覺(jué)處理性能和能效,為不同的工作負(fù)載分配最高效的計(jì)算引擎。當(dāng)深度學(xué)習(xí)推斷是在DSP上執(zhí)行而不是在CPU上執(zhí)行時(shí),測(cè)試結(jié)果顯示目標(biāo)檢測(cè)延遲降低了10倍。
與云計(jì)算相比,在物聯(lián)網(wǎng)設(shè)備本身上運(yùn)行算法和神經(jīng)網(wǎng)絡(luò)推斷也有助于降低延遲和帶寬要求。邊緣計(jì)算還可以通過(guò)減少云存儲(chǔ)和處理要求來(lái)降低成本,同時(shí)通過(guò)避免在網(wǎng)絡(luò)上傳輸敏感或可識(shí)別的數(shù)據(jù)來(lái)保護(hù)用戶的隱私和安全。
深度學(xué)習(xí)創(chuàng)新正在推動(dòng)物聯(lián)網(wǎng)突破,以及將這些技術(shù)與傳統(tǒng)算法相結(jié)合的混合技術(shù)的發(fā)展。視覺(jué)處理只是一個(gè)開(kāi)始,因?yàn)橄嗤脑瓌t可以應(yīng)用于其他領(lǐng)域,如音頻分析等。隨著邊緣設(shè)備變得更加智能和強(qiáng)大,創(chuàng)新者可以開(kāi)始構(gòu)建此前無(wú)法實(shí)現(xiàn)的產(chǎn)品和應(yīng)用。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )