• <input id="zdukh"></input>
  • <b id="zdukh"><bdo id="zdukh"></bdo></b>
      <b id="zdukh"><bdo id="zdukh"></bdo></b>
    1. <i id="zdukh"><bdo id="zdukh"></bdo></i>

      <wbr id="zdukh"><table id="zdukh"></table></wbr>

      1. <input id="zdukh"></input>
        <wbr id="zdukh"><ins id="zdukh"></ins></wbr>
        <sub id="zdukh"></sub>
        公務(wù)員期刊網(wǎng) 精選范文 卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文

        卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法精選(九篇)

        前言:一篇好文章的誕生,需要你不斷地搜集資料、整理思路,本站小編為你收集了豐富的卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法主題范文,僅供參考,歡迎閱讀并收藏。

        第1篇:卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文

        【關(guān)鍵詞】圖像分類(lèi)深度 卷積神經(jīng)網(wǎng)絡(luò) 加權(quán)壓縮近鄰

        1 研究背景

        手寫(xiě)數(shù)字識(shí)別是一個(gè)經(jīng)典的模式識(shí)別問(wèn)題。從0 到9這10 個(gè)阿拉伯?dāng)?shù)字組成。由于其類(lèi)別數(shù)比較小,它在些運(yùn)算量很大或者比較復(fù)雜的算法中比較容易實(shí)現(xiàn)。所以,在模式識(shí)別中數(shù)字識(shí)別一直都是熱門(mén)的實(shí)驗(yàn)對(duì)象。卷積神經(jīng)網(wǎng)絡(luò) (Convolutional Neural Networks,CNN),在手寫(xiě)體識(shí)別中有著良好的性能。卷積神經(jīng)網(wǎng)絡(luò)的神經(jīng)元是局部連接,神經(jīng)元之間能夠共享權(quán)值。深度卷積神經(jīng)網(wǎng)絡(luò)不但可以解決淺層學(xué)習(xí)結(jié)構(gòu)無(wú)法自動(dòng)提取圖像特征的問(wèn)題,并且提高了分類(lèi)的泛化能力和準(zhǔn)確度。

        2 深度卷積神經(jīng)網(wǎng)絡(luò)

        深度卷積神經(jīng)網(wǎng)絡(luò)是一種具有多層監(jiān)督的神經(jīng)網(wǎng)絡(luò),隱含層中的卷積層和池采樣層是實(shí)現(xiàn)深度卷積神經(jīng)網(wǎng)絡(luò)提取特征的核心模塊,并通過(guò)使用梯度下降算法最小化損失函數(shù)來(lái)進(jìn)行權(quán)重參數(shù)逐層反向調(diào)節(jié),再經(jīng)過(guò)迭代訓(xùn)練提高分類(lèi)精確度。

        深度卷積神經(jīng)網(wǎng)絡(luò)的首層是輸入層,之后是若干個(gè)卷積層和若干個(gè)子采樣層和分類(lèi)器。分類(lèi)器一般采用Softmax,再由分類(lèi)器去輸出相應(yīng)的分類(lèi)結(jié)果。正常情況下,一個(gè)卷積后面都跟一個(gè)子采樣層。基于卷積層里權(quán)值共享和局部連接的特性,可以簡(jiǎn)化網(wǎng)絡(luò)的樣本訓(xùn)練參數(shù)。運(yùn)算之后,獲得的結(jié)果通過(guò)激活函數(shù)輸出得到特征圖像,再將輸出值作為子采樣層的輸入數(shù)據(jù)。為了實(shí)現(xiàn)縮放、平移和扭曲保持不變,在子采樣層中將之前一層對(duì)應(yīng)的特征圖中相鄰特征通過(guò)池化操作合并成一個(gè)特征,減少特征分辨率。這樣,輸入的數(shù)據(jù)就可以立即傳送到第一個(gè)卷積層,反復(fù)進(jìn)行特征學(xué)習(xí)。將被標(biāo)記的樣本輸入到Softmax分類(lèi)器中。

        CNN 能夠簡(jiǎn)化網(wǎng)絡(luò)的樣本訓(xùn)練參數(shù),降低計(jì)算難度。這些良好的性能是網(wǎng)絡(luò)在有監(jiān)督方式下學(xué)會(huì)的,網(wǎng)絡(luò)的結(jié)構(gòu)主要有局部連接和權(quán)值共享兩個(gè)特點(diǎn):

        2.1 局部連接

        深度卷積神經(jīng)網(wǎng)絡(luò)中,層與層之間的神經(jīng)元節(jié)點(diǎn)是局部連接,不像BP 神經(jīng)網(wǎng)絡(luò)中的連接為全連接。深度卷積神經(jīng)網(wǎng)絡(luò)利用局部空間的相關(guān)性將相鄰層的神經(jīng)元節(jié)點(diǎn)連接相鄰的上一層神經(jīng)元節(jié)點(diǎn)。

        2.2 權(quán)重共享

        在深度卷積神經(jīng)網(wǎng)絡(luò)中,卷積層中每一個(gè)卷積濾波器共享相同參數(shù)并重復(fù)作用,卷積輸入的圖像,再將卷積的結(jié)果變?yōu)檩斎雸D像的特征圖。之后提取出圖像的部分特征。

        在得到圖像的卷積特征之后,需要用最大池采樣方法對(duì)卷積特征進(jìn)行降維。用若干個(gè)n×n 的不相交區(qū)域來(lái)劃分卷積特征,降維后的卷積特征會(huì)被這些區(qū)域中最大的或平均特征來(lái)表示。降維后的特征更方便進(jìn)行分類(lèi)。

        3 實(shí)驗(yàn)結(jié)果

        為了驗(yàn)證卷積神經(jīng)網(wǎng)絡(luò)的有效性,本實(shí)驗(yàn)中使用以最經(jīng)典的MNIST 和USPS 庫(kù)這兩個(gè)識(shí)別庫(kù)作為評(píng)測(cè)標(biāo)準(zhǔn)。手寫(xiě)數(shù)字MNIST數(shù)據(jù)庫(kù)有集60000 個(gè)訓(xùn)練樣本集,和10000 個(gè)測(cè)試,每個(gè)樣本向量為28×28=784維表示。手寫(xiě)數(shù)字USPS 數(shù)據(jù)庫(kù)含有7291 個(gè)訓(xùn)練樣本和2007 個(gè)測(cè)試樣本,每個(gè)樣本向量為16×16=256 維。

        表1給出了卷積神經(jīng)網(wǎng)絡(luò)在MNIST 和USPS 庫(kù)上的識(shí)別結(jié)果。從表1中可知,深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)MNSIT 庫(kù)識(shí)別率能夠達(dá)到97.89%,與用BP 算法得到的識(shí)別率94.26%相比,提高了兩個(gè)多百分點(diǎn)。對(duì)USPS 庫(kù)識(shí)別率能夠達(dá)到94.34%,與用BP 算法得到的識(shí)別率91.28%相比,也提高了三個(gè)多百分點(diǎn)。

        因此,使用深度卷積神經(jīng)網(wǎng)絡(luò)算法訓(xùn)練在圖像識(shí)別中獲得更高識(shí)別率。因此,深度卷積神經(jīng)網(wǎng)絡(luò)在識(shí)別手寫(xiě)體字符時(shí)有著較好的分類(lèi)效果。

        4 總結(jié)

        本文介紹深度卷積神經(jīng)網(wǎng)絡(luò)的理論知識(shí)、算法技術(shù)和算法的結(jié)構(gòu)包括局部連接、權(quán)重共享、最大池采樣以及分類(lèi)器Softmax。本文通過(guò)深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)兩組手寫(xiě)識(shí)別庫(kù)實(shí)驗(yàn)來(lái)驗(yàn)證CNN 有著較低的出錯(cuò)率。

        參考文獻(xiàn)

        [1]趙元慶,吳華.多尺度特征和神經(jīng)網(wǎng)絡(luò)相融合的手寫(xiě)體數(shù)字識(shí)別簡(jiǎn)介[J].計(jì)算機(jī)科學(xué),2013,40(08):316-318.

        [2]王強(qiáng).基于CNN的字符識(shí)別方法研究[D].天津師范大學(xué),2014.

        [3]Krizhevsky A,Sutskever I,Hinton G E.ImageNet Classification with Deep Convolutional Neural Networks.Advances in Neural Information Processing Systems,2012,25(02),1097-1105.

        [4]郝紅衛(wèi), 蔣蓉蓉.基于最近鄰規(guī)則的神經(jīng)網(wǎng)絡(luò)訓(xùn)練樣本選擇方法[J].自動(dòng)化學(xué)報(bào),2007,33(12):1247-1251.

        作者簡(jiǎn)介

        關(guān)鑫(1982-),男,黑龍江省佳木斯市人。碩士研究生學(xué)歷。現(xiàn)為中國(guó)電子科技集團(tuán)公司第五十四研究所工程師。研究方向?yàn)橛?jì)算機(jī)軟件工程。

        第2篇:卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文

        關(guān)鍵詞:車(chē)牌;識(shí)別;專(zhuān)利;分析

        引言

        車(chē)牌識(shí)別技術(shù)[1-2]是指自動(dòng)提取受監(jiān)控區(qū)域車(chē)輛的車(chē)牌信息并進(jìn)行處理的技術(shù),其通過(guò)運(yùn)用圖像處理、計(jì)算機(jī)視覺(jué)、模式識(shí)別等技術(shù),對(duì)攝像頭捕獲的車(chē)輛照片或視頻進(jìn)行分析,進(jìn)而自動(dòng)識(shí)別車(chē)輛的車(chē)牌號(hào)碼。車(chē)牌識(shí)別技術(shù)可應(yīng)用于停車(chē)場(chǎng)自動(dòng)收費(fèi)管理、道路監(jiān)控等領(lǐng)域,在城市交通管理中發(fā)揮了重要作用。

        1 中國(guó)專(zhuān)利申請(qǐng)情況分析

        以CNABS專(zhuān)利數(shù)據(jù)庫(kù)中的檢索結(jié)果為分析樣本,介紹車(chē)牌識(shí)別技術(shù)的中國(guó)專(zhuān)利申請(qǐng)量趨勢(shì)以及重要申請(qǐng)人的狀況。

        1.1 第一階段(2005年及之前)

        在這階段,申請(qǐng)量極少且申請(qǐng)人也極少,且針對(duì)的環(huán)境較為簡(jiǎn)單,處于技術(shù)的萌芽階段,其中,專(zhuān)利CN1529276,通過(guò)車(chē)牌定位、字符分割和分類(lèi)識(shí)別完成機(jī)動(dòng)車(chē)牌號(hào)自動(dòng)識(shí)別,其實(shí)現(xiàn)過(guò)程較為簡(jiǎn)單,具體細(xì)節(jié)描述較少。

        1.2 第二階段(2006年-2010年)

        在這階段的申請(qǐng)量比上一階段有所增加,而且申請(qǐng)人數(shù)量相較之前也有增長(zhǎng),其中來(lái)自高校的申請(qǐng)量明顯增加,反映出了高校研究者開(kāi)始更加注重對(duì)研究成果的保護(hù),這一階段的專(zhuān)利所針對(duì)的環(huán)境場(chǎng)景更為復(fù)雜,識(shí)別準(zhǔn)確率得到提高,對(duì)車(chē)牌定位、字符分割、字符識(shí)別等關(guān)鍵技術(shù)的研究更為深入。

        1.3 第三階段(2011年及以后)

        在2011年之后車(chē)牌識(shí)別技術(shù)的專(zhuān)利申請(qǐng)量呈現(xiàn)快速增長(zhǎng),這一階段車(chē)牌識(shí)別技術(shù)得到了更進(jìn)一步的豐富,涉及的關(guān)鍵技術(shù)的解決途徑也呈現(xiàn)出多樣性,檢測(cè)效率和精度也得到進(jìn)一步提高,其中,專(zhuān)利CN104035954A,涉及一種基于Hadoop的套牌車(chē)識(shí)別方法,將云計(jì)算應(yīng)用于車(chē)牌識(shí)別,使得與傳統(tǒng)環(huán)境下不經(jīng)過(guò)優(yōu)化的方法相比具有^高的運(yùn)行效率和加速比,可以有效地識(shí)別套牌車(chē)。

        圖2示出了中國(guó)重要申請(qǐng)人分布情況,申請(qǐng)量分布前十的申請(qǐng)人包括:電子科技大學(xué)、深圳市捷順科技實(shí)業(yè)股份有限公司(捷順科技)、浙江宇視科技有限公司(宇視科技)、信幀電子技術(shù)(北京)有限公司(信幀電子)、中國(guó)科學(xué)院自動(dòng)化研究所(自動(dòng)化研究所)、安徽清新互聯(lián)信息科技有限公司(清新互聯(lián))、青島海信網(wǎng)絡(luò)科技股份有限公司(海信網(wǎng)絡(luò))、浙江工業(yè)大學(xué)、四川川大智勝軟件股份有限公司(川大智勝)、上海高德威智能交通系統(tǒng)有限公司(高德威智能交通),從圖2中可以看出,不同申請(qǐng)人的申請(qǐng)量差距不是很大,幾乎保持在一個(gè)比較持平的狀態(tài)。

        電子科技大學(xué)在車(chē)牌識(shí)別技術(shù)的專(zhuān)利申請(qǐng)中,CN 101064011A提出一種基于小波變換的復(fù)雜背景中的車(chē)牌提取方法,可大大提高對(duì)晴天、雨天、霧天、白天及夜晚等環(huán)境的通用性和適用性,實(shí)現(xiàn)車(chē)牌的精確定位并提高車(chē)牌提取的準(zhǔn)確度;CN 103455815A提出一種復(fù)雜場(chǎng)景下的自適應(yīng)車(chē)牌字符分割方法,能快速、準(zhǔn)確地搜索2、3字符間隔位置,實(shí)現(xiàn)自適應(yīng)調(diào)整分割參數(shù),使車(chē)牌字符分割穩(wěn)定可靠,在復(fù)雜的環(huán)境中魯棒性強(qiáng),防止噪聲干擾;CN 105005757A提出一種基于Grassmann流行的車(chē)牌字符識(shí)別方法,最大限度地利用了已獲得的車(chē)牌字符信息以及同類(lèi)字符之間的相互關(guān)系,對(duì)于車(chē)牌字符的成像質(zhì)量要求更低,應(yīng)用于復(fù)雜的環(huán)境中具有很好的魯棒性和準(zhǔn)確性。

        2 關(guān)鍵技術(shù)分析

        一個(gè)完整的車(chē)牌定位與識(shí)別系統(tǒng),其前端包括圖像采集和傳輸系統(tǒng),末端還需要與數(shù)據(jù)庫(kù)相連接。從定位到識(shí)別的核心算法上,主要包括圖像預(yù)處理、車(chē)牌定位、字符分割和字符識(shí)別四大部分[3]。

        圖像預(yù)處理,是指通過(guò)對(duì)攝像頭捕獲的彩色圖像進(jìn)行預(yù)處理。常用的預(yù)處理方法包括圖像灰度化、圖像二值化、邊緣檢測(cè)等。

        車(chē)牌定位,是指在經(jīng)預(yù)處理后的車(chē)輛圖像中,定位出車(chē)輛的車(chē)牌所在位置。常用的車(chē)牌定位方法包括基于紋理分析的方法、基于數(shù)學(xué)形態(tài)學(xué)的方法、基于邊緣檢測(cè)的方法、基于小波變換的方法和基于神經(jīng)網(wǎng)絡(luò)的方法等。CN 104298976A提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的車(chē)牌檢測(cè)方法,利用卷積神經(jīng)網(wǎng)絡(luò)完整車(chē)牌識(shí)別模型對(duì)車(chē)牌粗選區(qū)域進(jìn)行篩選,獲取車(chē)牌最終候選區(qū)域。

        字符分割,是指將定位出的車(chē)牌區(qū)域圖像分割成單個(gè)的字符圖像。常用的字符分割方法包括基于輪廓的方法、基于投影的方法、基于模板匹配的方法和基于連通區(qū)域的方法等。CN 104408454A提出一種基于彈性模板匹配算法的車(chē)牌字符分割方法,基于彈性模板,通過(guò)插空進(jìn)行模板序列形狀的彈性調(diào)整,將車(chē)牌圖片與理想模板進(jìn)行匹配,獲得全局最優(yōu)匹配,確定字符位置,將分割算法作用于投影序列,實(shí)現(xiàn)對(duì)車(chē)牌字符的分割。

        字符識(shí)別,是指對(duì)字符分割之后的單個(gè)字符圖像進(jìn)行識(shí)別,進(jìn)而得到車(chē)輛的車(chē)牌號(hào)碼。常用的車(chē)牌字符識(shí)別方法包括基于字符結(jié)構(gòu)特征的識(shí)別方法、基于模板匹配的識(shí)別方法、基于神經(jīng)網(wǎng)絡(luò)的識(shí)別方法、基于模糊理論的模式識(shí)別方法和基于支持向量機(jī)分類(lèi)識(shí)別方法等。CN 105975968A提出一種基于Caffe框架的深度學(xué)習(xí)車(chē)牌字符識(shí)別方法,以基于Caffe架構(gòu)的深度學(xué)習(xí)為基礎(chǔ),解決了現(xiàn)有的車(chē)牌字符識(shí)別方法中對(duì)傾斜、斷裂、相近字符識(shí)別精度不高的問(wèn)題,大大提高了對(duì)于車(chē)牌字符的識(shí)別精度。

        3 結(jié)束語(yǔ)

        本文以車(chē)牌識(shí)別相關(guān)專(zhuān)利文獻(xiàn)為樣本,分析統(tǒng)計(jì)了該技術(shù)中國(guó)專(zhuān)利申請(qǐng)現(xiàn)狀,并對(duì)車(chē)牌識(shí)別技術(shù)的關(guān)鍵技術(shù)進(jìn)行簡(jiǎn)單分析。在經(jīng)歷了從無(wú)到有、從萌芽到飛速發(fā)展的階段之后,車(chē)牌識(shí)別技術(shù)慢慢走向成熟,越來(lái)越多的企業(yè)和高校在車(chē)牌識(shí)別的研究上投入了大量的精力,也獲得了豐碩的研究成果。

        參考文獻(xiàn)

        [1]尹旭.汽車(chē)牌照定位研究綜述[J].電腦知識(shí)與技術(shù),2010,6(14):3729-3730.

        第3篇:卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文

        關(guān)鍵詞人臉識(shí)別;特征提取

        1人臉識(shí)別技術(shù)概述

        近年來(lái),隨著計(jì)算機(jī)技術(shù)的迅速發(fā)展,人臉自動(dòng)識(shí)別技術(shù)得到廣泛研究與開(kāi)發(fā),人臉識(shí)別成為近30年里模式識(shí)別和圖像處理中最熱門(mén)的研究主題之一。人臉識(shí)別的目的是從人臉圖像中抽取人的個(gè)性化特征,并以此來(lái)識(shí)別人的身份。一個(gè)簡(jiǎn)單的自動(dòng)人臉識(shí)別系統(tǒng),包括以下4個(gè)方面的內(nèi)容:

        (1)人臉檢測(cè)(Detection):即從各種不同的場(chǎng)景中檢測(cè)出人臉的存在并確定其位置。

        (2)人臉的規(guī)范化(Normalization):校正人臉在尺度、光照和旋轉(zhuǎn)等方面的變化。

        (3)人臉表征(FaceRepresentation):采取某種方式表示檢測(cè)出人臉和數(shù)據(jù)庫(kù)中的已知人臉。

        (4)人臉識(shí)別(Recognition):將待識(shí)別的人臉與數(shù)據(jù)庫(kù)中的已知人臉比較,得出相關(guān)信息。

        2人臉識(shí)別算法的框架

        人臉識(shí)別算法描述屬于典型的模式識(shí)別問(wèn)題,主要有在線匹配和離線學(xué)習(xí)兩個(gè)過(guò)程組成,如圖1所示。

        圖1一般人臉識(shí)別算法框架

        在人臉識(shí)別中,特征的分類(lèi)能力、算法復(fù)雜度和可實(shí)現(xiàn)性是確定特征提取法需要考慮的因素。所提取特征對(duì)最終分類(lèi)結(jié)果有著決定性的影響。分類(lèi)器所能實(shí)現(xiàn)的分辨率上限就是各類(lèi)特征間最大可區(qū)分度。因此,人臉識(shí)別的實(shí)現(xiàn)需要綜合考慮特征選擇、特征提取和分類(lèi)器設(shè)計(jì)。

        3人臉識(shí)別的發(fā)展歷史及分類(lèi)

        人臉識(shí)別的研究已經(jīng)有相當(dāng)長(zhǎng)的歷史,它的發(fā)展大致可以分為四個(gè)階段:

        第一階段:人類(lèi)最早的研究工作至少可追朔到二十世紀(jì)五十年代在心理學(xué)方面的研究和六十年代在工程學(xué)方面的研究。

        J.S.Bruner于1954年寫(xiě)下了關(guān)于心理學(xué)的Theperceptionofpeople,Bledsoe在1964年就工程學(xué)寫(xiě)了FacialRecognitionProjectReport,國(guó)外有許多學(xué)校在研究人臉識(shí)別技術(shù)[1],其中有從感知和心理學(xué)角度探索人類(lèi)識(shí)別人臉機(jī)理的,如美國(guó)TexasatDallas大學(xué)的Abdi和Tool小組[2、3],由Stirling大學(xué)的Bruce教授和Glasgow大學(xué)的Burton教授合作領(lǐng)導(dǎo)的小組等[3];也有從視覺(jué)機(jī)理角度進(jìn)行研究的,如英國(guó)的Graw小組[4、5]和荷蘭Groningen大學(xué)的Petkov小組[6]等。

        第二階段:關(guān)于人臉的機(jī)器識(shí)別研究開(kāi)始于二十世紀(jì)七十年代。

        Allen和Parke為代表,主要研究人臉識(shí)別所需要的面部特征。研究者用計(jì)算機(jī)實(shí)現(xiàn)了較高質(zhì)量的人臉灰度圖模型。這一階段工作的特點(diǎn)是識(shí)別過(guò)程全部依賴(lài)于操作人員,不是一種可以完成自動(dòng)識(shí)別的系統(tǒng)。

        第三階段:人機(jī)交互式識(shí)別階段。

        Harmon和Lesk用幾何特征參數(shù)來(lái)表示人臉正面圖像。他們采用多維特征矢量表示人臉面部特征,并設(shè)計(jì)了基于這一特征表示法的識(shí)別系統(tǒng)。Kaya和Kobayashi則采用了統(tǒng)計(jì)識(shí)別方法,用歐氏距離來(lái)表征人臉特征。但這類(lèi)方法需要利用操作員的某些先驗(yàn)知識(shí),仍然擺脫不了人的干預(yù)。

        第四階段:20世紀(jì)90年代以來(lái),隨著高性能計(jì)算機(jī)的出現(xiàn),人臉識(shí)別方法有了重大突破,才進(jìn)入了真正的機(jī)器自動(dòng)識(shí)別階段。在用靜態(tài)圖像或視頻圖像做人臉識(shí)別的領(lǐng)域中,國(guó)際上形成了以下幾類(lèi)主要的人臉識(shí)別方法:

        1)基于幾何特征的人臉識(shí)別方法

        基于幾何特征的方法是早期的人臉識(shí)別方法之一[7]。常采用的幾何特征有人臉的五官如眼睛、鼻子、嘴巴等的局部形狀特征。臉型特征以及五官在臉上分布的幾何特征。提取特征時(shí)往往要用到人臉結(jié)構(gòu)的一些先驗(yàn)知識(shí)。識(shí)別所采用的幾何特征是以人臉器官的形狀和幾何關(guān)系為基礎(chǔ)的特征矢量,本質(zhì)上是特征矢量之間的匹配,其分量通常包括人臉指定兩點(diǎn)間的歐式距離、曲率、角度等。

        基于幾何特征的識(shí)別方法比較簡(jiǎn)單、容易理解,但沒(méi)有形成統(tǒng)一的特征提取標(biāo)準(zhǔn);從圖像中抽取穩(wěn)定的特征較困難,特別是特征受到遮擋時(shí);對(duì)較大的表情變化或姿態(tài)變化的魯棒性較差。

        2)基于相關(guān)匹配的方法

        基于相關(guān)匹配的方法包括模板匹配法和等強(qiáng)度線方法。

        ①模板匹配法:Poggio和Brunelli[10]專(zhuān)門(mén)比較了基于幾何特征的人臉識(shí)別方法和基于模板匹配的人臉識(shí)別方法,并得出結(jié)論:基于幾何特征的人臉識(shí)別方法具有識(shí)別速度快和內(nèi)存要求小的優(yōu)點(diǎn),但在識(shí)別率上模板匹配要優(yōu)于基于幾何特征的識(shí)別方法。

        ②等強(qiáng)度線法:等強(qiáng)度線利用灰度圖像的多級(jí)灰度值的等強(qiáng)度線作為特征進(jìn)行兩幅人臉圖像的匹配識(shí)別。等強(qiáng)度曲線反映了人臉的凸凹信息。這些等強(qiáng)度線法必須在背景與頭發(fā)均為黑色,表面光照均勻的前提下才能求出符合人臉真實(shí)形狀的等強(qiáng)度線。

        3)基于子空間方法

        常用的線性子空間方法有:本征子空間、區(qū)別子空間、獨(dú)立分量子空間等。此外,還有局部特征分析法、因子分析法等。這些方法也分別被擴(kuò)展到混合線性子空間和非線性子空間。

        Turk等[11]采用本征臉(Eigenfaces)方法實(shí)現(xiàn)人臉識(shí)別。由于每個(gè)本征矢量的圖像形式類(lèi)似于人臉,所以稱(chēng)本征臉。對(duì)原始圖像和重構(gòu)圖像的差分圖像再次進(jìn)行K-L變換,得到二階本征空間,又稱(chēng)二階本征臉[12]。Pentland等[13]提出對(duì)于眼、鼻和嘴等特征分別建立一個(gè)本征子空間,并聯(lián)合本征臉子空間的方法獲得了好的識(shí)別結(jié)果。Shan等[14]采用特定人的本征空間法獲得了好于本征臉?lè)椒ǖ淖R(shí)別結(jié)果。Albert等[15]提出了TPCA(TopologicalPCA)方法,識(shí)別率有所提高。Penev等[16]提出的局部特征分析(LFALocalFeatureAnalysis)法的識(shí)別效果好于本征臉?lè)椒ā.?dāng)每個(gè)人有多個(gè)樣本圖像時(shí),本征空間法沒(méi)有考慮樣本類(lèi)別間的信息,因此,基于線性區(qū)別分析(LDALinearDiscriminantAnalysis),Belhumeur等[17]提出了Fisherfaces方法,獲得了較好的識(shí)別結(jié)果。Bartlett等[18]采用獨(dú)立分量分析(ICA,IndependentComponentAnalysis)的方法識(shí)別人臉,獲得了比PCA方法更好的識(shí)別效果。

        4)基于統(tǒng)計(jì)的識(shí)別方法

        該類(lèi)方法包括有:KL算法、奇異值分解(SVD)、隱馬爾可夫(HMM)法。

        ①KL變換:將人臉圖像按行(列)展開(kāi)所形成的一個(gè)高維向量看作是一種隨機(jī)向量,因此采用K-L變換獲得其正交K-L基底,對(duì)應(yīng)其中較大特征值基底具有與人臉相似的形狀。國(guó)外,在用靜態(tài)圖像或視頻圖像做人臉識(shí)別的領(lǐng)域中,比較有影響的有MIT的Media實(shí)驗(yàn)室的Pentland小組,他們主要是用基于KL變換的本征空間的特征提取法,名為“本征臉(Eigenface)[19]。

        ②隱馬爾可夫模型:劍橋大學(xué)的Samaria和Fallside[20]對(duì)多個(gè)樣本圖像的空間序列訓(xùn)練出一個(gè)HMM模型,它的參數(shù)就是特征值;基于人臉從上到下、從左到右的結(jié)構(gòu)特征;Samatia等[21]首先將1-DHMM和2-DPseudoHMM用于人臉識(shí)別。Kohir等[22]采用低頻DCT系數(shù)作為觀察矢量獲得了好的識(shí)別效果,如圖2(a)所示。Eickeler等[23]采用2-DPseudoHMM識(shí)別DCT壓縮的JPEG圖像中的人臉圖像;Nefian等采用嵌入式HMM識(shí)別人臉[24],如圖2(b)所示。后來(lái)集成coupledHMM和HMM通過(guò)對(duì)超狀態(tài)和各嵌入狀態(tài)采用不同的模型構(gòu)成混合系統(tǒng)結(jié)構(gòu)[25]。

        基于HMM的人臉識(shí)別方法具有以下優(yōu)點(diǎn):第一,能夠允許人臉有表情變化,較大的頭部轉(zhuǎn)動(dòng);第二,擴(kuò)容性好.即增加新樣本不需要對(duì)所有的樣本進(jìn)行訓(xùn)練;第三,較高的識(shí)別率。

        (a)(b)

        圖2(a)人臉圖像的1-DHMM(b)嵌入式隱馬爾科夫模型

        5)基于神經(jīng)網(wǎng)絡(luò)的方法

        Gutta等[26]提出了混合神經(jīng)網(wǎng)絡(luò)、Lawrence等[27]通過(guò)一個(gè)多級(jí)的SOM實(shí)現(xiàn)樣本的聚類(lèi),將卷積神經(jīng)網(wǎng)絡(luò)CNN用于人臉識(shí)別、Lin等[28]采用基于概率決策的神經(jīng)網(wǎng)絡(luò)方法、Demers等[29]提出采用主元神經(jīng)網(wǎng)絡(luò)方法提取人臉圖像特征,用自相關(guān)神經(jīng)網(wǎng)絡(luò)進(jìn)一步壓縮特征,最后采用一個(gè)MLP來(lái)實(shí)現(xiàn)人臉識(shí)別。Er等[30]采用PCA進(jìn)行維數(shù)壓縮,再用LDA抽取特征,然后基于RBF進(jìn)行人臉識(shí)別。Haddadnia等[31]基于PZMI特征,并采用混合學(xué)習(xí)算法的RBF神經(jīng)網(wǎng)絡(luò)進(jìn)行人臉識(shí)別。神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)是通過(guò)學(xué)習(xí)的過(guò)程獲得對(duì)這些規(guī)律和規(guī)則的隱性表達(dá),它的適應(yīng)性較強(qiáng)。

        6)彈性圖匹配方法

        Lades等提出采用動(dòng)態(tài)鏈接結(jié)構(gòu)(DLA,DynamicLinkArchitecture)[32]的方法識(shí)別人臉。它將人臉用格狀的稀疏圖如圖3所示。

        圖3人臉識(shí)別的彈性匹配方法

        圖3中的節(jié)點(diǎn)用圖像位置的Gabor小波分解得到的特征向量標(biāo)記,圖的邊用連接節(jié)點(diǎn)的距離向量標(biāo)記。Wiskott等人使用彈性圖匹配方法,準(zhǔn)確率達(dá)到97.3%。Wiskott等[33]將人臉特征上的一些點(diǎn)作為基準(zhǔn)點(diǎn),構(gòu)成彈性圖。采用每個(gè)基準(zhǔn)點(diǎn)存儲(chǔ)一串具有代表性的特征矢量,減少了系統(tǒng)的存儲(chǔ)量。Wurtz等[34]只使用人臉I(yè)CI部的特征,進(jìn)一步消除了結(jié)構(gòu)中的冗余信息和背景信息,并使用一個(gè)多層的分級(jí)結(jié)構(gòu)。Grudin等[35]也采用分級(jí)結(jié)構(gòu)的彈性圖,通過(guò)去除了一些冗余節(jié)點(diǎn),形成稀疏的人臉描述結(jié)構(gòu)。另一種方法是,Nastar等[36]提出將人臉圖像I(x,y)表示為可變形的3D網(wǎng)格表(x,y,I(x,y)),將人臉匹配問(wèn)題轉(zhuǎn)換為曲面匹配問(wèn)題,利用有限分析的方法進(jìn)行曲面變形,根據(jù)兩幅圖像之間變形匹配的程度識(shí)別人臉。

        7)幾種混合方法的有效性

        (1)K-L投影和奇異值分解(SVD)相融合的分類(lèi)判別方法。

        K-L變換的核心過(guò)程是計(jì)算特征值和特征向量。而圖像的奇異值具有良好的穩(wěn)定性,當(dāng)圖像有小的擾動(dòng)時(shí),奇異值的變化不大。奇異值表示了圖像的代數(shù)特征,在某種程度上,SVD特征同時(shí)擁有代數(shù)與幾何兩方面的不變性。利用K-L投影后的主分量特征向量與SVD特征向量對(duì)人臉進(jìn)行識(shí)別,提高識(shí)別的準(zhǔn)確性[37]。

        (2)HMM和奇異值分解相融合的分類(lèi)判別方法。

        采用奇異值分解方法進(jìn)行特征提取,一般是把一幅圖像(長(zhǎng)為H)看成一個(gè)N×M的矩陣,求取其奇異值作為人臉識(shí)別的特征。在這里我們采用采樣窗對(duì)同一幅圖片進(jìn)行重疊采樣(如圖4),對(duì)采樣所得到的矩陣分別求其對(duì)應(yīng)的前k個(gè)最大的奇異值,分別對(duì)每一組奇異值進(jìn)行矢量標(biāo)準(zhǔn)化和矢量重新排序,把這些處理后的奇異值按采樣順序組成一組向量,這組向量是惟一的[38]。

        圖4采樣窗采樣

        綜合上述論文中的實(shí)驗(yàn)數(shù)據(jù)表明[39],如表1:

        表1人臉識(shí)別算法比較

        8)基于三維模型的方法

        該類(lèi)方法一般先在圖像上檢測(cè)出與通用模型頂點(diǎn)對(duì)應(yīng)的特征點(diǎn),然后根據(jù)特征點(diǎn)調(diào)節(jié)通用模型,最后通過(guò)紋理映射得到特定人臉的3D模型。Tibbalds[40]基于結(jié)構(gòu)光源和立體視覺(jué)理論,通過(guò)攝像機(jī)獲取立體圖像,根據(jù)圖像特征點(diǎn)之間匹配構(gòu)造人臉的三維表面,如圖5所示。

        圖5三維人臉表面模型圖6合成的不同姿態(tài)和光照條件下二維人臉表面模型

        Zhao[41]提出了一個(gè)新的SSFS(SymetricShape-from-Shading)理論來(lái)處理像人臉這類(lèi)對(duì)稱(chēng)對(duì)象的識(shí)別問(wèn)題,基于SSFS理論和一個(gè)一般的三維人臉模型來(lái)解決光照變化問(wèn)題,通過(guò)基于SFS的視圖合成技術(shù)解決人臉姿態(tài)問(wèn)題,針對(duì)不同姿態(tài)和光照條件合成的三維人臉模型如圖6所示。

        三維圖像有三種建模方法:基于圖像特征的方法[42、43]、基于幾何[44]、基于模型可變參數(shù)的方法[45]。其中,基于模型可變參數(shù)的方法與基于圖像特征的方法的最大區(qū)別在于:后者在人臉姿態(tài)每變化一次后,需要重新搜索特征點(diǎn)的坐標(biāo),而前者只需調(diào)整3D變形模型的參數(shù)。三維重建的系統(tǒng)框圖,如圖7所示。

        圖7三維建模的系統(tǒng)框圖

        三維人臉建模、待識(shí)別人臉的姿態(tài)估計(jì)和識(shí)別匹配算法的選取是實(shí)現(xiàn)三維人臉識(shí)別的關(guān)鍵技術(shù)。隨著采用三維圖像識(shí)別人臉技術(shù)的發(fā)展,利用直線的三維圖像信息進(jìn)行人臉識(shí)別已經(jīng)成為人們研究的重心。

        4總結(jié)與展望

        人臉自動(dòng)識(shí)別技術(shù)已取得了巨大的成就,隨著科技的發(fā)展,在實(shí)際應(yīng)用中仍然面臨困難,不僅要達(dá)到準(zhǔn)確、快速的檢測(cè)并分割出人臉部分,而且要有效的變化補(bǔ)償、特征描述、準(zhǔn)確的分類(lèi)的效果,還需要注重和提高以下幾個(gè)方面:

        (1)人臉的局部和整體信息的相互結(jié)合能有效地描述人臉的特征,基于混合模型的方法值得進(jìn)一步深入研究,以便能準(zhǔn)確描述復(fù)雜的人臉模式分布。

        (2)多特征融合和多分類(lèi)器融合的方法也是改善識(shí)別性能的一個(gè)手段。

        (3)由于人臉為非剛體性,人臉之間的相似性以及各種變化因素的影響,準(zhǔn)確的人臉識(shí)別仍較困難。為了滿足自動(dòng)人臉識(shí)別技術(shù)具有實(shí)時(shí)要求,在必要時(shí)需要研究人臉與指紋、虹膜、語(yǔ)音等識(shí)別技術(shù)的融合方法。

        (4)3D形變模型可以處理多種變化因素,具有很好的發(fā)展前景。已有研究也表明,對(duì)各種變化因素采用模擬或補(bǔ)償?shù)姆椒ň哂休^好的效果。三維人臉識(shí)別算法的選取還處于探索階段,需要在原有傳統(tǒng)識(shí)別算法的基礎(chǔ)上改進(jìn)和創(chuàng)新。

        (5)表面紋理識(shí)別算法是一種最新的算法[52],有待于我們繼續(xù)學(xué)習(xí)和研究出更好的方法。

        總之,人臉識(shí)別是極富挑戰(zhàn)性的課題僅僅采用一種現(xiàn)有方法難以取得良好的識(shí)別效果,如何與其它技術(shù)相結(jié)合,如何提高識(shí)別率和識(shí)別速度、減少計(jì)算量、提高魯棒性,如何采用嵌入式及硬件實(shí)現(xiàn),如何實(shí)用化都是將來(lái)值得研究的。

        參考文獻(xiàn)

        [1]O''''TooleAJ,AbdiH,DeffenbacherKA,etal.Alowdimensionalrepresentationoffacesinthehigherdimensionsofspace.[J].JournaloftheOpticalSocietyof2America,1993,10:405~411

        [2]張翠萍,蘇光大.人臉識(shí)別技術(shù)綜述.中國(guó)圖像圖形學(xué)報(bào),2000,5(11):885-894

        [3]A.Samal,P.A.Iyengar.Automaticrecognitionandanalysisofhumanfacesandfacialexpressions:asurvey[J].PatternRecognition,1992,25(1):65-67

        [4]TurkM,PentlandA.Eigenfacesforrecognition[J].JournalofCognitiveNeuroscience,1991,3(1):71~86

        [5]BartlettMS,MovellanJR,SejnowskiTJ.FaceRecognitionbyIndependentComponentAnalysis[J].IEEETrans.onNeuralNetwork,2002,13(6):1450-1464

        [6]ManjunathBS,ShekharCandChellappaR.Anewapproachtoimagefeaturedetectionwithapplication[J].Patt.Recog,1996,29(4):627-640

        [7]ChengY.LiuK,YangJ,etal.Humanfacerecognitionmethodbasedonthestatisticalmodelofsmallsamplesize.SPIEProc,Intell.RobotsandComputerVisionX:AlgorithmsandTechn.1991,1606:85-95

        [8]NefianAVEmbeddedBayesianNetworksforFaceRecognition[A].Proceedings.IEEEInternationalConferenceonMultimediaandExpo[C]2002,2:133-136

        [9]GuttaS,WechslerH.FaceRecognitionUsingHybridClassifiers[J].PatternRecognition,1997,30(4):539-553

        [10]HaddadniaJ,AhmadiM,F(xiàn)aezKAHybridLearningRBFNeuralNetworkforHumanFaceRecognitionwithPseudoZernikeMomentInvariant[A].Proceedingsofthe2002InternationalJointConferenceonNeuralNetworks[C].2002,1:11-16

        [11]M.Lades,J.C.Vorbruggen,J.Buhmann,ect.Distortioninvariantobjectrecognitioninthedynamiclinkarchitecture.IEEETrans.onComputer,1993,42(3):300-311

        [12]NastarC,MoghaddamBA.FlexibleImages:MatchingandRecognitionUsingLearnedDeformations[J].ComputerVisionandImageUnderstanding,1997,65(2):179-191

        [13]羊牧.基于KL投影和奇異值分解相融合人臉識(shí)別方法的研究[D].四川大學(xué).2004,5,1

        [14]白冬輝.人臉識(shí)別技術(shù)的研究與應(yīng)用[D].北方工業(yè)大學(xué).2006,5

        第4篇:卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文

        關(guān)鍵詞:深度學(xué)習(xí);人臉識(shí)別;深度信念網(wǎng)絡(luò)

        中圖分類(lèi)號(hào):TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1009-3044(2016)35-0184-03

        在實(shí)際應(yīng)用中,采集到的人臉圖像往往是具有多種姿態(tài)變化的,受姿態(tài)變化影響,人臉圖像識(shí)別性能迅速下降,這是人臉識(shí)別中一個(gè)最為突出的難題。姿態(tài)變化將非線性因素引入了人臉識(shí)別,而現(xiàn)有的一些機(jī)器學(xué)習(xí)方法大多使用淺層結(jié)構(gòu),難以有效表示復(fù)雜函數(shù)。而深度學(xué)習(xí)可通過(guò)一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,體現(xiàn)出它對(duì)于輸入樣本數(shù)據(jù)的強(qiáng)大的本質(zhì)特征的抽取能力。因此本文將運(yùn)用深度神經(jīng)網(wǎng)絡(luò)的方法克服姿態(tài)變量的影響,并在實(shí)驗(yàn)數(shù)據(jù)集上進(jìn)行一系列驗(yàn)證試驗(yàn)從而得出結(jié)論。

        1 簡(jiǎn)介

        在實(shí)際應(yīng)用中,姿態(tài)變化成為人臉識(shí)別的瓶頸問(wèn)題。跨姿態(tài)人臉識(shí)別方法通常分為三類(lèi):通用型算法,二維算法和三維算法,在此僅介紹通用型算法。通用型算法是為解決一般的人臉識(shí)別而設(shè)計(jì)的,本身即包括處理圖像中姿態(tài)變化等因素。通用型算法主要有以主成分分析(Prinxipal Componet Analysis,PCA,也稱(chēng)為特征臉)[[1]],F(xiàn)isher判別分析(Fisher Discriminant Analysis,F(xiàn)DA,也稱(chēng)為線性判別分析,簡(jiǎn)稱(chēng)LDA)[2],局部二值模式(LBP)[3],自組織映射和卷積網(wǎng)絡(luò),模板匹配,模塊化PCA等,這些方法都基于二維面部圖像中提取的分類(lèi)模式,從現(xiàn)有庫(kù)已知的圖像中識(shí)別輸入的人臉圖像。我們選取LDA方法作為研究基礎(chǔ),同時(shí)引入深度學(xué)習(xí),通過(guò)構(gòu)建具有多層隱層的機(jī)器學(xué)習(xí)模型和海量訓(xùn)練數(shù)據(jù),來(lái)學(xué)習(xí)更有用的特征。

        3.2 參數(shù)更新

        采用自頂向下的監(jiān)督學(xué)習(xí),通過(guò)最小化的損失函數(shù)重建誤差。基于第一步得到的各層參數(shù)進(jìn)一步調(diào)節(jié)整個(gè)多層模型的參數(shù),利用梯度下降法微調(diào)整個(gè)網(wǎng)絡(luò)參數(shù),對(duì)DBN進(jìn)行優(yōu)化。這一步是一個(gè)有監(jiān)督訓(xùn)練過(guò)程。由于深度學(xué)習(xí)的第一步不是隨機(jī)初始化,而是通過(guò)學(xué)習(xí)輸入數(shù)據(jù)的結(jié)構(gòu)得到的,因而這個(gè)初值更接近全局最優(yōu),從而能夠取得更好的效果。

        4 實(shí)驗(yàn)

        4.1 實(shí)驗(yàn)數(shù)據(jù)

        為了能夠在較大范圍不同姿態(tài)下評(píng)估該方法,我們選擇了MultiPIE人臉數(shù)據(jù)庫(kù)。它是由CMU采集的一組包含用姿態(tài)、光照和表情三個(gè)因素變化構(gòu)成的人臉庫(kù)。庫(kù)中包含68個(gè)人,每個(gè)人有13種不同的姿態(tài),3-4種不同的表情和多組不同光照。相較于其他數(shù)據(jù)庫(kù),MultiPIE人臉庫(kù)包含因素最為豐富,采集條件最為真實(shí),且包含較大的姿態(tài)變化和垂直深度上的旋轉(zhuǎn),便于我們對(duì)該方法進(jìn)行充分評(píng)估。

        4.2 實(shí)驗(yàn)結(jié)果

        我們采用MATLAB2012B編寫(xiě)重構(gòu)Demo,由此獲得了重構(gòu)后的人臉圖像,圖3截取了一部分實(shí)驗(yàn)結(jié)果。由此可以清晰看到,我們重構(gòu)人臉的方法可以去除不同姿態(tài)的影響,并且保持了人臉輪廓和結(jié)構(gòu)。

        基于LDA算法,我們計(jì)算出了人臉重構(gòu)前后的識(shí)別率,如表格1所示。顯然,重構(gòu)后人臉的識(shí)別率遠(yuǎn)高于重構(gòu)前。經(jīng)統(tǒng)計(jì),旋轉(zhuǎn)角度為+15°和-15°的人臉圖像識(shí)別率平均上升7.75%,+30°和-30°的人臉圖像識(shí)別率平均上升8.67%,而+45°和-45°的人臉圖像識(shí)別率平均上升了13%,由此可見(jiàn),我們的算法對(duì)于旋轉(zhuǎn)角度大的姿態(tài)優(yōu)勢(shì)更加明顯。

        另外,我們將試驗(yàn)結(jié)果與其他關(guān)于姿態(tài)變化的研究結(jié)果進(jìn)行了比較。如表格2所示,LGBP[11]屬于二維方法,而VAAM,F(xiàn)A-EGFC[12]和SA-EGFC均為三維方法,且除FA-EGFC外,其他方法都需要知道探測(cè)器的角度。結(jié)果顯示,我們所用的方法識(shí)別率在各個(gè)角度均為最高,且忽略角度的影響。顯然,相較于這幾種方法,我們的方法更具有優(yōu)越性和穩(wěn)定性。

        5 結(jié)語(yǔ)

        從結(jié)果分析中可以看出經(jīng)過(guò)深度學(xué)習(xí)網(wǎng)絡(luò)轉(zhuǎn)換后的人臉識(shí)別率明顯高于未經(jīng)過(guò)轉(zhuǎn)換的,且部分識(shí)別率達(dá)到了100%,顯然本文的方法在姿態(tài)因素問(wèn)題的處理上表現(xiàn)出明顯的優(yōu)勢(shì),尤其在旋轉(zhuǎn)角度較大的情況下有較大提升。實(shí)驗(yàn)說(shuō)明FIP特征不僅僅對(duì)姿態(tài)變化具有健壯性,而且可以用來(lái)重建人臉圖像。

        在未來(lái)的工作中,我們將擴(kuò)展框架以便于在其他困難條件下進(jìn)行人臉識(shí)別,同時(shí)會(huì)將FIP方法進(jìn)行進(jìn)一步的提高。

        參考文獻(xiàn):

        [1] TURK M A,PENTLAND A P. Face recognition using eigenfaces [C]. Computer Vision and Pattern Recognition,San Diego,1991:22-28.

        [2] ZHAO W,KRISHNASWAMY A,CHELLAPPA R,et al. Discriminant analysis of principal components for face recognition [M]. Face Recognition. Berlin Heidelberg :Springer.1998

        [3] S. Li, X. Liu, X. Chai, H. Zhang, S. Lao, and S. Shan. Morphable displacement field based image matching for face recognition across pose. In ECCV. 2012.

        [4] C. D. Castillo and D. W. Jacobs. Wide-baseline stereo for face recognition with large pose variation. In CVPR, 2011.

        [5] A. Asthana, T. K. Marks, M. J. Jones, K. H. Tieu, and M. Rohith. Fully automatic pose-invariant face recognition via 3d pose normalization. In ICCV, 2011.

        [6] Zhenyao Zhu1,? Ping Luo1,3,? Xiaogang Wang2 Xiaoou Tang1,3,Department of Information Engineering, The Chinese University of Hong Kong,Department of Electronic Engineering, The Chinese University of Hong Kong,Shenzhen Institutes of Advanced Technology, Chinese Academy of Sciences

        [7] Q. V. Le, J. Ngiam, Z. Chen, D. Chia, P. W. Koh, and A. Y. Ng. Tiled convolutional neural networks. In NIPS, 2010.

        [8] G. E. Hinton, S. Osindero, and Y.-W. Teh. A fast learning algorithm for deep belief nets. Neural Computation, 18(7):1527C1554, 2006.

        [9] N. Qian. On the momentum term in gradient descent learning algorithms. Neural Networks, 1999

        [10] V. Nair and G. E. Hinton. Rectified linear units improve restricted Boltzmann machines. In Proc. 27th International Conference on Machine Learning, 2010.

        无码人妻一二三区久久免费_亚洲一区二区国产?变态?另类_国产精品一区免视频播放_日韩乱码人妻无码中文视频
      2. <input id="zdukh"></input>
      3. <b id="zdukh"><bdo id="zdukh"></bdo></b>
          <b id="zdukh"><bdo id="zdukh"></bdo></b>
        1. <i id="zdukh"><bdo id="zdukh"></bdo></i>

          <wbr id="zdukh"><table id="zdukh"></table></wbr>

          1. <input id="zdukh"></input>
            <wbr id="zdukh"><ins id="zdukh"></ins></wbr>
            <sub id="zdukh"></sub>
            亚洲日韩国产欧美性 | 亚洲欧美日韩66 | 最新肉丝袜福利在线观看 | 亚洲国产精品美女久久久久8k | 中文字幕久久精品 | 日本又色又爽又黄的观看 |