專利名稱:一種基于增量神經網絡和子圖編碼的圖像分類方法
技術領域:
本發明屬于圖像分類領域,特別是一種基于增量神經網絡和子圖編碼的圖像分類方法。
背景技術:
在當前的信息化社會中,以圖像為代表的數字媒體資源已達到海量規模,成為當前信息處理和信息資源建設的主體。傳統的技術手段已經無法適應這種需求,這對圖像的組織、分析、檢索和管理等技術都提出了全新的挑戰。圖像分類作為對圖像的機器理解的基礎技術,近些年來一直是模式識別、計算機視覺、信息檢索、人工智能、機器學習和數據挖掘等多個重要研究領域中持續的前沿性研究熱點。圖像分類是指根據圖像的內容將其歸為特定的語義類別的方法,其能自動提取圖像的語義信息并有效管理。圖像語義分類技術可直接應用到海量圖像檢索、圖像語義標注、圖像信息過濾等圖像語義理解相關的其他技術領域,并帶動上述領域相關技術的發展。盡管國內外許多研究者投身于圖像分類技術的研究,目前的圖像分類還面臨多種挑戰。比如:怎樣自動獲得豐富的高層語義信息;如何魯棒地處理光照、位置、遮擋以及噪聲數據的情形;如何高效處理大規模圖像數據等等。當前基于碼書的圖像分類框架得到廣泛的研究,已成為圖像分類領域的主流方法。此框架主要包含以下步驟:特征抽取,碼書學習,特征編碼表示,匯合,分類模型學習及預測。其中碼書學習步驟對整體的計算性能和分類效果起到至關重要的作用。因此,此發明旨在改進現有碼書的學習模型,使其計算高效,并蘊涵更豐富的信息,同時結合發明中提出的新型特征編碼方式,到達改善基于碼書的圖像分類框架處理大規模數據的能力。
發明內容
發明目的:本發明為了解決現有技術中的問題,提出了一種基于增量神經網絡和子圖編碼的圖像分類方法,從而改善傳統方法處理大規模圖像分類任務的能力。發明內容:本發明公開了基于增量神經網絡和子圖編碼的圖像分類方法,包含如下步驟:訓練階段:步驟1,局部特征抽取:對于訓練圖像集中的每一幅訓練圖像進行局部特征描述子抽取生成訓練圖像集的局部特征集合;訓練圖像是帶有類標的圖像,類標用于標記圖像所屬類別;采用稠密抽樣的策略,通過16像素X 16像素網格劃分采樣,在每個采樣點抽取128維灰度SIFT描述子,最后將抽取的局部特征集合的一個子集作為碼書學習的訓練集;步驟2,增量碼書網絡學習:在局部特征集合中隨機抽取部分局部特征作為訓練集,以競爭神經網絡模型訓練碼書,此方法屬于在線學習技術,計算效率高,同時不需要預先確定碼書大小,能根據不同數據集自適應的學習合適大小的碼書;具體的網絡演化過程包括增加、刪除節點及邊,邊權重更新和相似度閾值修改。最終形成的碼書網絡不僅包含視覺單詞的信息還保留了它們之間的空間關系。
步驟3,訓練圖像表示:包含基于子圖的特征編碼和圖像空間聚合兩個子步驟。基于子圖的特征編碼,對訓練圖像中抽取的局部特征進行編碼,利用學習到的碼書編碼,首先尋找與局部特征距離最近的k個視覺單詞〈01,ok>,進一步將與以上k各單詞有邊相連的部分單詞挑選出來,與這k個單詞構成子圖G’,通過相應的權重向量為子圖中每個單詞賦予合適的權重,完成最后的編碼;圖像空間聚合,對于訓練圖像的所有局部特征的編碼結果進行空間聚合操作,以形成整張圖像的特征向量,采用分層分塊的金字塔空間劃分,對于每一塊進行均值聚合操作。總共將圖像空間分為三層:leVe10、IevelUlevel2。IevelO不分塊,表示整張圖像的信息,Ievell按圖像平面空間橫軸與縱軸方向均分為4塊及位于中心位置的等大小的I塊,level2把Ievell的每塊再按相同方式分為5小塊,構成25小塊,共有31塊;最后將所有分塊的特征向量串接成整個圖像的特征向量,假設獲得的碼書含M個視覺單詞,M取正整數,則圖像的特征向量維度為31XM。若用a GRm表示特征編碼結果,ym表示空間上屬于第m塊的特征,m取值為O到30的整數,則均值聚合
的操作定義為
權利要求
1.一種基于增量神經網絡和子圖編碼的圖像分類方法,其特征在于,包括訓練階段和分類階段: 訓練階段包括: 步驟1,局部特征抽取:抽取訓練圖像集中的每一幅訓練圖像的局部特征描述子生成訓練圖像集的局部特征集合;訓練圖像是帶有類標的圖像,類標用于標記圖像所屬類別; 步驟2,增量碼書網絡學習:從局部特征集合中隨機抽取部分局部特征作為訓練集進行碼書網絡的學習,訓練競爭神經網絡,并用競爭神經網絡表示碼書; 步驟3,訓練圖像表示:包含基于子圖的特征編碼和圖像空間聚合步驟; 步驟4,分類模型學習:將步驟3中得到的訓練圖像特征向量及其對應分類類標作為直方圖相交核SVM分類器的輸入完成分類模型的參數學習,得到SVM分類模型; 分類階段包括: 步驟5,局部特征抽取:抽取待分類圖像的局部特征描述子生成待分類圖像的局部特征集合; 步驟6,待分類圖像表示:首先對待分類圖像的局部特征進行基于子圖的特征編碼:首先尋找碼書中與局部特征距離最近的k個視覺單詞〈01,ok>,k是近鄰單詞數,取值范圍[I, 100],將與以上k個單詞有邊相連的單詞取出,與k個單詞構成子圖G’,通過相應的權重向量為子圖中每個單詞賦予權重完成最后的編碼; 然后進行待分類圖像的局部特征的編碼結果空間聚合:采用分層分塊的金字塔空間劃分,對于每一塊進行均值聚合操作,最后將所有分塊的特征向量串接成整個圖像的特征向量;步驟7,圖像分類,將步驟6中形成的待分類圖像特征向量輸入步驟4中學習得到的SVM分類模型,從而完成圖像的分類。
2.根據權利要求1所述的一種基于增量神經網絡和子圖編碼的圖像分類方法,其特征在于,步驟2增量碼書網絡學習具體包括如下步驟: 首先從局部特征集合中隨機選取部分局部特征作為訓練集,隨機從訓練集中選取兩個局部特征向量作為權重向量創建競爭神經網絡的頂點集合V=Iv1, V2I, V1和V2表示競爭神經網絡中的節點,并設置這兩個節點獲勝次數為O ;初始化競爭神經網絡的邊集£ = 0; 從訓練集中隨機挑選另一個的局部特征向量X作為輸入,計算當前競爭神經網絡中距離X最近的兩個節點vwl,vw2作為獲勝節點,將局部特征向量X與獲勝節點之間的距離和相應的自適應閾值Ti及預定義閾值進行比較,確定局部特征向量X是否屬于競爭神經網絡已有知識,自適應閾值計算如下:
3.根據權利要求2所述的一種基于增量神經網絡和子圖編碼的圖像分類方法,其特征在于,步驟3訓練圖像表示包括:首先對訓練圖像的局部特征進行基于子圖的特征編碼:首先尋找碼書中與局部特征距離最近的k個視覺單詞,并按距離升序排序,記為<0l,..., ok> ;對于<0l,...,0k>中的每個單詞至多抽取參數β個拓撲鄰居,β為正整數,將所有抽取的拓撲鄰居單詞與這k個單詞構成子圖G’(V’,E’),通過如下權重向量為子圖中每個單詞賦予權重,完成最后的編碼S:
4.根據權利要求1所述的一種基于增量神經網絡和子圖編碼的圖像分類方法,其特征在于,步驟I和步驟5中,進行局部特征描述子抽取采用稠密抽樣的策略,通過網格劃分采樣,進行SIFT描述子抽取。
全文摘要
本發明公開了基于增量神經網絡和子圖編碼的圖像分類方法,包含如下步驟局部特征抽取;增量碼書網絡學習;基于子圖的特征編碼;圖像空間聚合;分類器學習及模型預測;本發明能夠高效地學習碼書,同時保留視覺單詞之間的空間關系,很大程度上縮減了傳統算法的時間復雜性,此外,本發明中基于子圖的特征編碼能充分利用視覺單詞之間的空間關系進行特征編碼,抽取更加豐富的語義信息,并最終使分類系統在提升計算效率的同時,獲得優異的分類性能,因此具有較高的使用價值。
文檔編號G06K9/66GK103116766SQ20131009027
公開日2013年5月22日 申請日期2013年3月20日 優先權日2013年3月20日
發明者楊育彬, 唐曄, 潘玲燕 申請人:南京大學