<sub id="n0hly"></sub>
<sub id="n0hly"></sub>

      <small id="n0hly"><progress id="n0hly"></progress></small>
    1. <address id="n0hly"></address>
      1. 加急見(jiàn)刊

        RGB-D行為識別研究進(jìn)展及展望

        胡建芳; 王熊輝; 鄭偉詩(shī); 賴(lài)劍煌 中山大學(xué)數據科學(xué)與計算機學(xué)院; 廣州510006; 廣東省信息安全技術(shù)重點(diǎn)實(shí)驗室; 廣州510006; 機器智能與先進(jìn)計算教育部重點(diǎn)實(shí)驗室; 廣州510006; 中山大學(xué)電子信息與工程學(xué)院; 廣州510006

        摘要:行為識別是計算機視覺(jué)領(lǐng)域很重要的一個(gè)研究問(wèn)題,其在安全監控、機器人設計、無(wú)人駕駛和智能家庭設計等方面都有著(zhù)非常重要的應用.基于傳統RGB視頻的行為識別方法由于容易受背景、光照等行為無(wú)關(guān)因素的影響,導致識別精度不高.廉價(jià)RGB-D攝像頭出現之后,人們開(kāi)始從一個(gè)新的途徑解決行為識別問(wèn)題.基于RGB-D攝像頭的行為識別通過(guò)聚合RGB、深度和骨架三種模態(tài)的行為數據,可以融合不同模態(tài)的行為信息,從而可以克服傳統RGB視頻行為識別的缺陷,也因此成為近幾年的一個(gè)研究熱點(diǎn).本文系統地綜述了RGB-D行為識別領(lǐng)域的研究進(jìn)展和展望.首先,對近年來(lái)RGB-D行為識別領(lǐng)域中常用的公共數據集進(jìn)行簡(jiǎn)要的介紹;同時(shí)也系統地介紹了多模態(tài)RGB-D行為識別研究領(lǐng)域的典型模型和最新進(jìn)展,其中包括卷積神經(jīng)網(wǎng)絡(luò )(Convolution neural network, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò )(Recurrent neural network, RNN)等深度學(xué)習技術(shù)在RGB-D行為識別的應用;最后,在三個(gè)公共RGB-D行為數據庫上對現有方法的優(yōu)缺點(diǎn)進(jìn)行了比較和分析,并對未來(lái)的相關(guān)研究進(jìn)行了展望.

        注: 保護知識產(chǎn)權,如需閱讀全文請聯(lián)系自動(dòng)化學(xué)報雜志社

        亚欧成人中文字幕一区-日韩影音先锋AV乱伦小说-成人精品久久一区二区-成人美女视频在线观看
        <sub id="n0hly"></sub>
        <sub id="n0hly"></sub>

          <small id="n0hly"><progress id="n0hly"></progress></small>
        1. <address id="n0hly"></address>