r>[0043] 本發明首先將訓練視頻進行預處理并檢測該視頻的時空興趣點,再以興趣點為中 心提取它的視頻塊并計算其光流信息和梯度信息,根據得到的光流信息和梯度信息繪制相 應的直方圖,然后用非對稱廣義高斯模型(AGGD)來擬合相應的直方圖,以光流信息和梯度 信息的AGGD的參數作為特征形成訓練視頻的特征矩陣。對于測試視頻同樣進行上述的所 有處理得到測試視頻的特征矩陣。最后計算訓練視頻和測試視頻的特征矩陣之間馬氏距 離,再根據最近鄰原則來識別測試視頻的行為。本發明的方法在很大程度上提高了待識別 視頻行為的準確率。
【附圖說明】
[0044] 下面結合附圖對本發明的【具體實施方式】作進一步詳細說明。
[0045] 圖1是本發明的訓練視頻處理流程;
[0046] 圖2是行為識別流程;
[0047] 圖3角點;
[0048] 圖4橢圓函數示意圖;
[0049] 圖5特征值與角點關系圖;
[0050] 圖6梯度特征的AGGD參數的提取;
[0051] 圖7梯度特征的AGGD參數特征行為識別;
[0052] 圖8 Weizmann庫梯度特征AGGD參數特征的行為識別率;
[0053] 圖9 KTH庫梯度特征AGGD參數特征的行為識別率;
[0054] 圖10光流特征AGGD參數特征提取圖;
[0055] 圖11光流AGGD參數特征行為識別;
[0056] 圖12 Weizmann庫光流特征AGGD參數特征行為識別率;
[0057] 圖13 KTH庫光流AGGD參數特征行為識別率;
[0058] 圖14融合梯度和光流參數特征的提取;
[0059] 圖15融合梯度和光流AGGD參數特征行為識別;
[0060] 圖16 Weizmann庫融合梯度和光流AGGD參數特征行為識別率;
[0061] 圖17 KTH庫融合梯度和光流AGGD參數特征行為識別率。
【具體實施方式】
[0062] 實施例1、圖1~圖17給出了一種基于非對稱廣義高斯模型的人體行為識別方法, 包括以下步驟:
[0063] 步驟一、通過對訓練視頻庫進行梯度和光流特征數據提取,形成各特征方向(這 里的特征方向為梯度特征的3個方向和光流特征的2個分量)特征數據集合。
[0064] 步驟二、對于上述各特征方向的特征數據進行直方圖描述。
[0065] 步驟三、用非對稱廣義高斯模型(AGGD)來擬合上述直方圖,以AG⑶的參數作為特 征,形成各行為的參數特征矩陣。
[0066] 步驟四、對于測試視頻,我們也進行梯度和光流特征的提取,形成各特征方向的特 征數據集合。
[0067] 步驟五、對于上述步驟四的特征數據進行直方圖描述。
[0068] 步驟六、同樣我們也用AGGD來擬合直方圖,以AGGD的參數作為特征,形成測試視 頻的參數特征矩陣。
[0069] 步驟七、分別計算測試視頻特征矩陣和訓練視頻庫各行為的特征矩陣之間的馬氏 距離。
[0070] 步驟八、根據最近鄰原則判斷測試視頻的行為方式。
[0071] 以上步驟1~8中,主要通過興趣點檢測、特征點的提取和描述、基于非對稱廣義 高斯模型(AGGD)的參數特征提取、基于AGGD參數的行為識別。
[0072] 1、興趣點檢測如下:
[0073] 本發明中,為了可以有效檢測出圖像序列I(x,y,t)的時空興趣點,采用下述方 法:
[0074] 首先我們定義圖像角點是兩個邊緣的交點,或是可以將其理解為鄰域內同時具有 兩個主方向的特征點,類似道路和房屋的拐角。一般角點所在的鄰域通常是圖像中穩定且 具有大量信息的區域,這些區域具有仿射不變性、尺度不變性、旋轉不變性等特性。人體視 覺對角點的識別通常通過一個局部的區域或一個小窗口完成,如圖3所示。如果將這個特 定的小窗口朝著各個方向移動時,與此同時移動窗口區域內灰度變化較大,那么就可以判 定這個窗口內有角點,如圖3所示。如果將這個特定的小窗口朝著各個方向移動時,移動窗 口區域內灰度不發生變化,那么這個窗口內沒有角點,如圖3所示。如果將這個特定的小窗 口朝著某一個方向移動時,移動窗口區域內灰度變化比較大,而當朝著另一個方向移動時 窗口區域內灰度不變,那么在這個窗口內的可能是一條直線,如圖3所示。
[0075] 根據自相關函數,可以給出圖像I(x,y)在點(x,y)處平移(Λχ,Ay)后的自相 似性表達式:
[0077] 式(1)中,ω (u,V)為加權函數,可以取常數也可以是高斯加權函數;W(X,y)是以 點(X,y)為中心的窗口。
[0078] 根據泰勒展開式,對圖像I (X,y)在點(X,y)處平移(Λ X,Λ y)后進行一階近似 犋51丨.
[0080] 式⑵中,I,I ¥是I (X,y)的偏導數。[0081] 則式(2)可近似為:
(3): ,即圖像I (X,y)在點 (X,y)處平移(Λ X,Ay)后的自相關函數可以近似為二次項函數。
[0084] 二次項函數實質上可以看作為一個橢圓函數,如圖4所示,橢圓函數的扁率和尺 寸由M(x,y)的特征值λρ λ2決定,方向由M(x,y)的特征矢量決定,其方程式為:
(4)
[0086] 可以根據二次項函數的特征值的大小來判斷窗口內的圖像中的角點、邊緣(直 線)和平面,如圖5所示。當λ i<< λ 2或λ ,即自相關函數的值只在某一個方向 上比較大,在其它方向上比較小時,窗口內可以判斷為直線;當λ 2,且λ^Ρ λ 2都比 較小,即自相關函數的值在各個方向上都比較小,窗口內可以判斷為平面;當λ 2,且 λ 2都比較大,即自相關函數的值在各個方向上都比較大,窗口內可以判斷為角點。 [0087] 實際上,判別角點不需要計算具體的特征值,只需定義一個角點響應函數后計算 它的值來判斷角點。定義響應函數R為:
[0088] R = det Μ- a (traceM)2 (5)
[0089] 將式(3)中的Μ(χ, y)簡化為
則式(5)中的det M和traceM 分別為M(x,y)的行列式和直跡,其中α為經驗值,一般取0.04-0. 06。
[0090] 由上面角點的定義方法我們引伸出Harris興趣點檢測,Harris興趣點檢測方法 的思路是找到圖像f sp在各個方向上的都有顯著變化的位置。則Harris興趣點的檢測方法 可以描述為:定義一副圖像為fsp:及2 ^及,fsp經過線性濾波后得到Lsp: ,其表 達式如下:
[0092] 式(6)中,gsp是圖像f @進行卷積濾波的高斯核函數,
為其尺度變化因子。
[0093] 對式(6)給定一個觀測尺度of,利用尺度為帶高斯窗口的二階矩陣來找到興趣 點,表達式如下:
[0094]
[0095] 式(7)中,*是卷積符號,#和if是尺度為以高斯函數X和y上的梯度,
[0096] 可以把一個二階矩描述符看作是一個點附近區域二維分布的圖像定位協方差矩 陣。所以,矩陣μ sp的特征值入^ λ 2(λ A λ 2)組成了 fsp在圖像兩個方向上的變化描 述符,且λ ^ λ 2都是大值時才存在興趣點。Harris和St印hens基于此提出一個角點檢 測函數的最大值計算方法,表達式如下:
[0097] Hsp= det ( μ sp) _kX trace2 ( μ sp) = λ J λ 2-k ( λ J+λ 2)2 (8)
[0098] 在興趣點存在的位置處,特征值之比α = A2Z^1的值會比較大。從式(8)可知 Hsp要取正極大值,特征值之比α要滿足αΛ?+α) 2,如果定義k = 0. 25,此時α = 1, A1= λ 2, H取正極大值,興趣點具有理想的各向同性。
[0099] 由于本專利要檢測的是視頻(圖像序列)中的興趣點,可以把視頻看成是多幅圖 像組成的圖像序列f(x,y,t)。定義函數f加入線性空間尺度后得到L:
,由圖像序列f經過獨立空間變量為σ; 2和時間變量為τ|的高斯函數進行 卷積濾波得到,表達式如下:
[0100]
[0101] 時空域中的高斯窗口 gGohT^被定義為:
[0103] 式中〇1為空間尺度變量,τ 1為時間尺度變量,t是時間維。
[0104] 本專利所用的興趣點檢測方法,在空間維上沿用上述圖像中的興趣點方法,在時 間維上則采用Dollar提出的Gabor濾波器,則定義響應函數R為:
[0106] 式中,*為卷積運算符,I為視頻圖像,g為二維高斯平滑核,hjP h &