本發明屬于圖像數據處理技術領域,尤其涉及一種利用公安視頻監控模糊圖像對目標物進行檢測識別方法。
背景技術:
目標物比如人臉識別的研究,起源于19世紀末法國人sirfranisgalton。以allen和parke為代表主要研究面部特征;人機交互式識別及用幾何特征參數來研究的以harmon和lesk為代表,以kaya和kobayashi為代表采用了統計識別方法;eyematic公司和我國清華大學研發了“人臉識別系統”,但對視頻監控模糊圖像的識別率不高,并且對目標物進行動態捕捉預警技術研究處于初始階段。
隨著視頻監控技術的不斷發展,我國目前視頻監控在智慧城市、數字城市、平安園區等各類項目得以廣泛應用。監控視頻已經成為公安部門進行案件偵查的重要依據和線索,視頻偵查已逐步成為繼刑偵,技偵,網偵之后的第四大偵查手段。
在公安視頻監控中,模糊圖像的目標物檢測識別及動態捕捉預警技術具有直接、方便、快捷以及非侵犯性的特點,在刑事偵查、維護國家安全和人民生命財產安全以及在反恐、防恐中具有重要意義,極具研究價值和潛力。
視頻監控于20世紀80年代正式在我國開始啟用,110指揮中心最早使用了視頻監控,用于監控城市的治安情況。隨著社會的發展,視頻監控已經廣泛應用于公安機關的治安、刑偵、交通管理、禁毒等多個職能部門具體業務工作中。但由于目前視頻監控模糊圖像的識別率不高,缺乏有效的信息技術支撐,在公安視頻偵查過程中仍然面臨圖像調取及格式不統一、視頻信息管理及協同難、效率不高等問題,針對公安視頻監控模糊圖像,對嫌疑人人臉或車輛進行檢測識別以及動態捕捉、預警等必要的視頻圖像處理技術,顯得尤為重要。
神經網絡在工程中的應用是從20世紀90年代才開始的,一般為多層前饋的bp神經網絡,但bp神經網絡存在局部最優問題,并且訓練速度慢、效率低,而模糊神經網絡在一定程度上克服了這些問題,它在逼近能力、分類能力和學習速度等方面均優于bp神經網絡。而roughsets理論(簡稱rs理論)在操作時無須提供除問題所需處理的數據集合之外的任何先驗信息,可以直接對多維數據實施基于屬性和元組兩個方向上的一致數據濃縮或不一致數據濃縮,從中發現隱含的知識,揭示潛在的規律。
技術實現要素:
本發明的目的在于提供一種利用公安視頻監控模糊圖像對目標物進行檢測識別方法,旨在解決公安視頻監控圖像模糊的問題。
本發明是這樣實現的,
一種利用公安視頻監控模糊圖像對目標物進行檢測識別方法,包括:
采用卡爾曼濾波法與矩形跟蹤法結合,分離目標位置、面積的特征;
通過構建特征識別矩陣分析目標運動狀態;具體包括:
對于圖像序列在時間間隔很小的情況下,目標物的重心和輪廓外接矩形不會發生很大變化。所以可用如式(1)的狀態模型來預測。
s(n)=φ·s(n-1)+w(n-1)(1)
其中s(n)表示在第n幀圖像中的系統狀態,w(n-1)表示的是系統的估計誤差,φ是狀態轉換矩陣。目標物體用其重心位置、相鄰幀間的加速度、位移量、外接矩陣的周長、外接矩陣的長寬比等特性來反映,則:
其中,δx(n)、δy(n)是目標物重心在相鄰兩幀間x和y方向的速度量,δx'(n)、δy'(n)是其x和y方向的加速度,xs(n)、ys(n)表示目標物的矩形窗口的長度和寬度,x's(n)、y's(n)表示其矩形窗口的長度和寬度的變化率;
在采樣時間δt很小且矩形變化為線性時,則:
當系統狀態與觀測值之間是線性關系時,系統量測方程為:
m(n)=h·s(n)+v(n)(4)
m(n)表示量測向量,h是量測矩陣,v(n)是量測誤差,且:
通過以上運算過程,進行目標物的分析及跟蹤;
再對不同狀態實施相應的多視角的監控跟蹤。
進一步,構建特征辨識矩陣方法為:
利用目標的特征與目前目標所處的區域特點構建新矩陣,利用矩形跟蹤法判別目標是否產生、是否消失;并分析目標特征,預判目標狀態空間,判斷目標的所處運動狀態;
具體構建時采用如下過程:
第一步,定義目標物像素值為255,背景像素值為0,進行圖像搜索,計算矩形左上與右上像素灰度值的差,正前與正后的像素灰度值差,左下與右下的像素灰度值差,并將它們之差的絕對值求和;
第二步,當求得的和大于所設定閾值時,認為這一點在目標物的邊界上;
第三步,對這一點中的點計算它的左上與左下的像素灰度值差,正上與正下的像素灰度值差,右上與右下的像素灰度值差,并將它們之差的絕對值求和;
第四步,當求得的和大于所設定閾值時,認為這一點是目標物的特征點;否者不是目標物的特征點。
其中,設定m,n為圖像子塊矩形的長和寬,k,l為搜索范圍矩形的長和寬,根據構建過程及實際匹配情況,找到與當前幀當前塊相似度最高的子塊當做匹配塊,由上一幀或者下一幀得到的匹配塊和當前塊的相對位置,可以得到這兩幀的目標物運動位移,當做當前塊運動矢量d。
進一步,判斷目標所處運動狀態方法為:
將目標分為新目標、目標的融合與目標的消失,當新目標出現時,立刻構建新目標的信息;當目標出現分裂時,分析產生分裂的原因,跟蹤分裂;當不同目標出現相互融合時,對融合后的目標進行融合處理;當跟蹤的目標消失時,首先判斷是否真消失,如果真消失,再刪除原有的數據信息,具體原理如下:
對于當前幀當前塊,設其可能的運動位移最大矢量為d(dx,dy),則下一幀的塊的搜索窗口的相應大小可用(m+2dx)*(n+2dy)來表示。
進一步,所述再對不同狀態實施相應的多視角的監控跟蹤的方法為:
首先,對運動目標的陰影光照和顏色特征進行分析,即在前述方法基礎上,定義目標物像素值為255,背景像素值為0,進行圖像搜索,計算矩形左上與右上像素灰度值的差,正前與正后的像素灰度值差,左下與右下的像素灰度值差,并將它們之差的絕對值求和,然后外加對運動目標的陰影光照和顏色特征的考慮,進行微調,使得閾值在原來基礎上上下浮動10%,通過實際實驗效果改進原有的檢測方法;
其次,在針對不同的目標物分別進行檢測識別的基礎上,其運動狀態也不相同,構建的特征辨識矩陣也不相同,此時分別在不同的特征辨識矩陣的基礎上,假設任一特征辨識矩陣為當前狀態,對其它辨識矩陣做相對運動,即利用矩陣的加減運算,達到多個目標之間的跟蹤;
再次,構建符合目標顏色的模型,這里用y,cb,cr分量彩色來表示,與常見的r,g,b三原色的關系如下:
其中y,cb,cr分別表示流明,藍色濃度偏移量紅色濃度偏移量,r,g,b分別表示紅,綠、藍三個顏色濃度。運用顏色的特點克服對目標的遮擋;最后,分析多視角的監控系統應用需求,實現不同視角的信息傳遞,一邊利用矩陣的空間轉換實現。
進一步,所述利用公安視頻監控模糊圖像對目標物進行檢測識別方法還包括對目標物進行檢測識別的圖像的處理,對目標物進行檢測識別的圖像的處理方法包括圖像增強方法與圖像匹配方法;
所述圖像增強方法包括:采用稀疏冗余模型算法進行圖像增強;
首先,假定原圖像收到了加性高斯噪聲的污染,污染后的圖像稱為退化圖像,圖像恢復的過程其是退化圖像的逆過程;假定圖像的退化模型為:
g=hu+v,
其中g表示要恢復的圖像,hu表示退化圖像,v表示隨機噪聲。
則圖像的恢復模型表示為:
其中
其中
進一步,所述對目標物進行檢測識別的圖像的處理方法還包括圖像在不同尺度空間中的特性處理方法和圖像關鍵點的確立;
所述圖像在不同尺度空間中的特性處理方法為:通過高斯模糊建立尺度空間,在一個圖像的尺度空間
l(x,y,σ)=g(x,y,σ)*i(x,y),
其中,g(x,y,σ)表示一個變化尺度的高斯函數,i(x,y)表示原圖像,σ為尺度參數,m,n表示高斯模板的維度,(x,y)表示圖像的像素位置;通過尺度參數不同的變化,表達圖像在不同尺度空間中的特性;
所述圖像關鍵點的確立為:
利用高斯差分函數
d(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))*i(x,y)=l(x,y,kσ)-l(x,y,σ),
其中d(x,y,σ)為高斯差分函數,i(x,y)表示原圖像,g(x,y,kσ)為kσ變化尺度的高斯函數,g(x,y,σ)表示一個變化尺度的高斯函數,σ為尺度參數;通過對兩個相鄰高斯函數進行相減,得到高斯差分函數,并取得該函數的極值點,確立圖像的關鍵點。
進一步,所述利用公安視頻監控模糊圖像對目標物進行檢測識別方法采用模糊神經網絡和rs理論,對目標物進行檢測識別;
所述模糊神經網絡的運算方法為:
模糊神經網絡結構由輸入層、模糊化層、模糊推理層及輸出層構成;
第一層輸入層的各個節點直接與輸入量的各個分量連接,將輸入量傳到下一層模糊化層;
第二層模糊化層采用高斯型函數
第三層模糊推理層通過與模糊化層的連接來完成模糊規則的匹配,當滿足不同閾值條件時,就新目標、目標的融合與目標的消失三種情況進行不同匹配,達到對新目標、目標融合及目標消失的判斷,各個節點之間實現模糊運算并通過各個模糊節點的組合得到相應的激活強度;
第四層輸出層輸出運算結果;
所述rs理論的運算方法為:在視頻目標物特征提取數據庫中的知識發現,根據等價關系進行縱向及橫向信息表中數據的屬性約減;
屬性約簡算法如下:
1)令初始屬性約簡集p=φ,計算像素灰度值、陰影的光照、顏色特性、目標運動特性、噪聲等決策屬性對每個條件屬性的依賴性,按依賴性大小對屬性進行排序,將依賴性最大的屬性s加入屬性約簡集,p=p∪{s},如果有多個屬性的依賴性相等,則選擇屬性值少的屬性加入p;
2)若精確集等于約簡集,則結束運算,取p為一個屬性約簡集;否則,計算p之外的屬性加入到p的重要性,按重要性大小對屬性進行排序,得一排序集m;
3)取重要性最大的屬性s加入屬性集p=p∪{s},如果有多個屬性的重要性相等,則選擇屬性值少的屬性加入p,若精確集等于約簡集,則結束運算,否則,轉步驟3)繼續計算。
本發明另一目的在于提供一種利用上述利用公安視頻監控模糊圖像對目標物進行檢測識別方法的利用公安視頻監控模糊圖像對目標物進行檢測識別系統。
本發明中,通過圖像處理和計算機視覺技術,在監控系統中增加智能分析功能模塊,借助計算機的數據處理能力進而過濾掉視頻圖像中無用的信息或干擾信息、自動識別不同物體,分析抽取視頻中關鍵有用信息,快速、準確得定位事故現場,判斷監控畫面中的異常情況,并以最快和最佳的方式發出警報或觸發其它動作,從而有效進行事前預警、事中處理以及事后取證的全自動實時監控的智能系統。模糊神經網絡使系統的容錯能力得到提高,誤報率相較傳統視頻監控減少50%,rs理論的應用,在不減少識別率的前提下,自動識別物體速度整體提高近20%。多視角的跟蹤方法不但對進一步確定目標物提供辨識外,而且對跟蹤目標的布控提供一定的技術支持及保障。
對公安視頻監控模糊圖像,采用模糊神經網絡和rs理論等,對目標物進行檢測識別,改進并提出新的算法,提高模糊圖像辨識率;融合處理有效信息并動態提取目標物特征進行動態捕捉及預警,達到國家先進水平;視頻監控于20世紀80年代正式在我國開始啟用,110指揮中心最早使用了視頻監控,用于監控城市的治安情況。
支持與前端視頻監控的對接,自動將有價值的視頻聯網采集到搜索視頻中,減少視頻采集的工作量;
快速定位目標物出現區域,以便公安刑偵人員有針對性的加強警力部署或就近增加監控攝像頭等;
通過動態捕捉視頻信息與自動預警機制建立關聯,提示目標物的出現以便公安刑偵人員及時采取措施,同時自動提取有關聯信息的視頻,便于偵查人員進行串并案分析及視頻比對分析處理,找到有價值的線索等;
對不同的監控視頻格式自動識別其格式封裝和碼流,并以在線流媒體方式供偵查人員調閱,支持主流dvr,nvr廠家的視頻格式直接播放,也支持主流dv、手機所拍攝的視頻格式,實現多種視頻格式的在線播放、視頻快速查閱等。
本發明解決了目前視頻監控圖像模糊的問題。
附圖說明
圖1是本發明實施例提供的利用公安視頻監控模糊圖像對目標物進行檢測識別方法流程圖;
圖2是本發明實施例提供的稀疏冗余字典算法增強圖像流程圖。
圖3是本發明實施例提供的sift算法流程圖。
圖4是本發明實施例提供的塊匹配原理圖。
圖5是本發明實施例提供的當前匹配塊與搜索窗口關系圖。
圖6是本發明實施例提供的模糊神經網絡結構圖。
圖7是本發明實施例提供的高斯型隸屬函數圖。
具體實施方式
為了使本發明的目的、技術方案及優點更加清楚明白,以下結合實施例,對本發明進行進一步詳細說明。應當理解,此處所描述的具體實施例僅僅用以解釋本發明,并不用于限定本發明。
下面結合附圖對本發明的應用原理作進一步描述。
如圖1所示,本發明實施例提供的利用公安視頻監控模糊圖像對目標物進行檢測識別方法,包括:
s101:采用卡爾曼濾波法與矩形跟蹤法結合,分離目標位置、面積的特征;
s102:通過構建特征識別矩陣分析目標運動狀態;
s103:再對不同狀態實施相應的多視角的監控跟蹤。
所述通過構建特征識別矩陣分析目標運動狀態;具體包括:
對于圖像序列在時間間隔很小的情況下,目標物的重心和輪廓外接矩形不會發生很大變化。所以可用如式1的狀態模型來預測。
s(n)=φ·s(n-1)+w(n-1)(1)
其中s(n)表示在第n幀圖像中的系統狀態,w(n-1)表示的是系統的估計誤差,φ是狀態轉換矩陣。目標物體用其重心位置、相鄰幀間的加速度、位移量、外接矩陣的周長、外接矩陣的長寬比等特性來反映,則:
其中,δx(n)、δy(n)是目標物重心在相鄰兩幀間x和y方向的速度量,δx'(n)、δy'(n)是其x和y方向的加速度,xs(n)、ys(n)表示目標物的矩形窗口的長度和寬度,x's(n)、y's(n)表示其矩形窗口的長度和寬度的變化率。
在采樣時間δt很小且矩形變化為線性時,則:
當系統狀態與觀測值之間是線性關系時,系統量測方程為:
m(n)=h·s(n)+v(n)(4)
m(n)表示量測向量,h是量測矩陣,v(n)是量測誤差,且:
通過以上運算過程,進行目標物的分析及跟蹤。
再對不同狀態實施相應的多視角的監控跟蹤。
進一步,構建特征辨識矩陣方法為:
利用目標的特征與目前目標所處的區域特點構建新矩陣,利用矩形跟蹤法判別目標是否產生、是否消失;并分析目標特征,預判目標狀態空間,判斷目標的所處運動狀態。
具體構建時采用如下過程:
第一步,定義目標物像素值為255,背景像素值為0,進行圖像搜索,計算矩形左上與右上像素灰度值的差,正前與正后的像素灰度值差,左下與右下的像素灰度值差,并將它們之差的絕對值求和。
第二步,當求得的和大于所設定閾值時,認為這一點在目標物的邊界上。
第三步,對圖4所示中的點計算它的左上與左下的像素灰度值差,正上與正下的像素灰度值差,右上與右下的像素灰度值差,并將它們之差的絕對值求和。
第四步,當求得的和大于所設定閾值時,認為這一點是目標物的特征點。否者不是目標物的特征點。
其中m,n為圖像子塊矩形的長和寬,k,l為搜索范圍矩形的長和寬,根據構建過程及實際匹配情況,找到與當前幀當前塊相似度最高的子塊當做匹配塊,由上一幀或者下一幀得到的匹配塊和當前塊的相對位置,可以得到這兩幀的目標物運動位移,當做當前塊運動矢量d。
進一步,判斷目標所處運動狀態方法為:
將目標分為新目標、目標的融合與目標的消失,當新目標出現時,立刻構建新目標的信息;當目標出現分裂時,分析產生分裂的原因,跟蹤分裂;當不同目標出現相互融合時,對融合后的目標進行融合處理;當跟蹤的目標消失時,首先判斷是否真消失,如果真消失,再刪除原有的數據信息,具體原理如下:
對于當前幀當前塊,設其可能的運動位移最大矢量為d(dx,dy),則下一幀的塊的搜索窗口的相應大小可用(m+2dx)*(n+2dy)來表示,判斷新目標、目標的融合與目標的消失時,當前匹配塊與搜索窗口間的關系如圖5所示。
進一步,所述再對不同狀態實施相應的多視角的監控跟蹤的方法為:
首先,對運動目標的陰影光照和顏色特征進行分析,即在前述方法基礎上,定義目標物像素值為255,背景像素值為0,進行圖像搜索,計算矩形左上與右上像素灰度值的差,正前與正后的像素灰度值差,左下與右下的像素灰度值差,并將它們之差的絕對值求和,然后外加對運動目標的陰影光照和顏色特征的考慮,進行微調,使得閾值在原來基礎上上下浮動10%,通過實際實驗效果改進原有的檢測方法;
其次,在針對不同的目標物分別進行檢測識別的基礎上,其運動狀態也不相同,構建的特征辨識矩陣也不相同,此時分別在不同的特征辨識矩陣的基礎上,假設任一特征辨識矩陣為當前狀態,對其它辨識矩陣做相對運動,即利用矩陣的加減運算,達到多個目標之間的跟蹤;
再次,構建符合目標顏色的模型,這里用y,cb,cr分量彩色來表示,與常見的r,g,b三原色的關系如下:
其中y,cb,cr分別表示流明,藍色濃度偏移量紅色濃度偏移量,r,g,b分別表示紅,綠、藍三個顏色濃度。運用顏色的特點克服對目標的遮擋;最后,分析多視角的監控系統應用需求,實現不同視角的信息傳遞,一邊利用矩陣的空間轉換實現。
進一步,所述利用公安視頻監控模糊圖像對目標物進行檢測識別方法還包括對目標物進行檢測識別的圖像的處理,對目標物進行檢測識別的圖像的處理方法包括圖像增強方法與圖像匹配方法;
所述圖像增強方法包括:采用稀疏冗余模型算法進行圖像增強;
首先,假定原圖像收到了加性高斯噪聲的污染,污染后的圖像稱為退化圖像,圖像恢復的過程其是退化圖像的逆過程;假定圖像的退化模型為:
g=hu+v,
其中g表示要恢復的圖像,hu表示退化圖像,v表示隨機噪聲;
則圖像的恢復模型表示為:
其中
其中
進一步,所述對目標物進行檢測識別的圖像的處理方法還包括圖像在不同尺度空間中的特性處理方法和圖像關鍵點的確立;
所述圖像在不同尺度空間中的特性處理方法為:通過高斯模糊建立尺度空間,在一個圖像的尺度空間
l(x,y,σ)=g(x,y,σ)*i(x,y),
其中,g(x,y,σ)表示一個變化尺度的高斯函數,i(x,y)表示原圖像,σ為尺度參數,m,n表示高斯模板的維度,(x,y)表示圖像的像素位置;通過尺度參數不同的變化,表達圖像在不同尺度空間中的特性。
所述圖像關鍵點的確立為:
利用高斯差分函數
d(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))*i(x,y)=l(x,y,kσ)-l(x,y,σ),
其中d(x,y,σ)為高斯差分函數,i(x,y)表示原圖像,g(x,y,kσ)為kσ變化尺度的高斯函數,g(x,y,σ)表示一個變化尺度的高斯函數,σ為尺度參數。通過對兩個相鄰高斯函數進行相減,得到高斯差分函數,并取得該函數的極值點,確立圖像的關鍵點。
進一步,所述利用公安視頻監控模糊圖像對目標物進行檢測識別方法采用模糊神經網絡和rs理論,對目標物進行檢測識別;
所述模糊神經網絡的運算方法為:
該模糊神經網絡結構由輸入層、模糊化層、模糊推理層及輸出層構成,如圖6所示;
第一層輸入層的各個節點直接與輸入量的各個分量連接,將輸入量傳到下一層模糊化層;
第二層模糊化層采用高斯型函數
第三層模糊推理層通過與模糊化層的連接來完成模糊規則的匹配,當滿足不同閾值條件時,就新目標、目標的融合與目標的消失三種情況進行不同匹配,達到對新目標、目標融合及目標消失的判斷,各個節點之間實現模糊運算并通過各個模糊節點的組合得到相應的激活強度;
第四層輸出層輸出運算結果;
所述rs理論的運算方法為:在視頻目標物特征提取數據庫中的知識發現,根據等價關系進行縱向及橫向信息表中數據的屬性約減。
屬性約簡算法如下:
1)令初始屬性約簡集p=φ,計算像素灰度值、陰影的光照、顏色特性、目標運動特性、噪聲等決策屬性對每個條件屬性的依賴性,按依賴性大小對屬性進行排序,將依賴性最大的屬性s加入屬性約簡集,p=p∪{s},如果有多個屬性的依賴性相等,則選擇屬性值少的屬性加入p;
2)若精確集等于約簡集,則結束運算,取p為一個屬性約簡集;否則,計算p之外的屬性加入到p的重要性,按重要性大小對屬性進行排序,得一排序集m;
3)取重要性最大的屬性s加入屬性集p=p∪{s},如果有多個屬性的重要性相等,則選擇屬性值少的屬性加入p,若精確集等于約簡集,則結束運算,否則,轉步驟3)繼續計算。
下面結合實施例對本發明的應用原理作進一步描述。
1、多目標跟蹤技術:
多目標跟蹤技術是智能視頻監控系統的核心技術,涉及到傳計算機圖像處理、模式識別、人工智能及自動控制等諸多相關領域的知識,而智能視頻監控能夠現實復雜場景中對運動目標的識別和跟蹤,檢測場景事件和判斷危險事件的發生,因此,應加大對多目標跟蹤技術的研究工作,提高視頻監控系統的智能化水平,改善監控系統的精準度,為社會的經濟發展和社會治安貢獻一份力量。
在現實復雜場景中,針對視頻監控圖像中的運動目標,本發明應用光流法和幀差法這兩種運動目標檢測技術對運動目標進行識別和跟蹤。
2、多目標跟蹤的實現:
(1)針對不同狀態采用不同的跟蹤方法:
具體實踐中,要分析多目標的運動狀態,對不同狀態實行不同的跟蹤方法,才能有效提高跟蹤的性能。卡爾曼濾波與矩形跟蹤法是常見的跟蹤方法。卡爾曼濾波通過建立目標的運動模型和運動軌跡,判斷目標的下一位置,根據位置特征進行跟蹤,這種方法的準確度隨著模型的準確度而變化。矩形跟蹤運用運動時獲得的矩形特征完成對目標的跟蹤。它適用于簡單的情況下判斷目標的產生和消失,但無法進行深入的分析,也就不能進行穩定跟蹤。
(2)卡爾曼濾波法與矩形跟蹤法結合:
因為多目標圖像在空間領域和時間領域都變化的特性不同,以往用于單視角的卡爾曼濾波法和矩形跟蹤法都不能滿足多目標同時處于運動場景時的跟蹤,如果充分利用兩種方法的優點,將它們有效結合,分離目標位置、面積等特征,通過構建特征識別矩陣分析目標運動狀態,再對不同狀態實施相應的跟蹤辦法。
(3)構建新的特征辨識矩陣:
多目標跟蹤一直是智能監控的難點,首先,因為在多個目標都存在運動時,目標之間相互產生干擾,嚴重影響區域檢測的精度;其次,在時間上它們相互關聯,多目標間有可能有對應的因果關系,大大增加復雜度;再次,多個目標在同一時刻運動時,必須采用和運動狀態相對應的提取處理辦法。所以,多目標跟蹤不僅和運動分離精度有關系,也和目標特征選擇、狀態分析緊密相連。
要實現對目標各種運動狀態的實時監測,包括新目標出現時、目標保留在場景內但沒有與其他目標相互干擾、目標出現分裂現象、目標出現融合現象以及目標突然消失等情況,構建特征辨識矩陣,充分利用目標的特征與目前目標所處的區域特點構建新矩陣,利用矩形跟蹤法判別目標是否產生、是否消失,注意分析目標特征,預判目標狀態空間,判斷目標的運動狀態。
判斷目標所處狀態,將目標分為新目標、目標的融合與目標的消失,當新目標出現時,立刻構建新目標的信息;當目標出現分裂時,分析產生分裂的原因,跟蹤分裂;當不同目標出現相互融合時,對融合后的目標進行融合處理;當跟蹤的目標消失時,首先判斷是否真消失,如果真消失,再刪除原有的數據信息等。
3、提出一種新型的多視角的監控跟蹤方法:
針對運動目標的陰影檢測、多目標跟蹤、克服遮擋目標的方法以及多視角下監控目標的相互傳遞。首先,對運動目標的陰影光照和顏色特征進行分析探討,改進原有的檢測辦法;其次,探討研究先利用目標的特點,辨別運動狀態,再處理不同跟蹤里的不同狀態達到跟蹤多目標;再次,構建符合目標顏色的模型,運用顏色的特點克服對目標的遮擋。最后,分析多視角的監控系統應用需求,設計智能監控框架,研究一種新型的多視角的監控跟蹤辦法,實現不同視角的信息傳遞。
4、圖像增強與匹配技術:
(1)采用稀疏冗余模型算法進行圖像增強:
由于自然圖像會在小波基下呈現出一種“近零元素系數很多,而非零元素系數很少”的特點,這種特點為變換系數向量的“稀疏性”。正是由于這種特性的存在,可以對其進行系數冗余模型的建立。
首先,假定原圖像收到了加性高斯噪聲的污染,則污染后的圖像可稱之為退化圖像,而圖像恢復的過程其實就是退化圖像的逆過程。假定圖像的退化模型(加性高斯噪聲)為:
g=hu+v
其中g表示要恢復的圖像,hu表示退化圖像,v表示隨機噪聲;
則圖像的恢復模型可表示為:
其中
其中
整個恢復增強算法可以總結為如圖2流程圖:
(2)利用sift算法進行特征提取匹配
通過上述的流程,得到了一個較好的恢復圖像,下面針對該恢復圖像進行匹配,由于在視頻拍攝過程中,往往會由于方向、角度等問題產生一定量的形變,針對這個問題,采用微分不變量,即基于局部考慮的特征提取算法(sift匹配算法),該算法注重局部細節,能夠很好的對抗位置移動,朝向改變甚至是噪聲。
sift算法簡易流程圖3。
5、圖像在不同尺度空間中的特性:
尺度空間的建立需要靠高斯模糊來實現,通過尺度參數不同的變化,觀察圖像在不同尺度空間中的特性。尺度空間內核的確立就成了關鍵問題,而實驗證明,高斯卷積核是尺度空間內核唯一合理的線性核。
在一個圖像的尺度空間
l(x,y,σ)=g(x,y,σ)*i(x,y),
其中,g(x,y,σ)表示一個變化尺度的高斯函數,i(x,y)表示原圖像,σ為尺度參數,m,n表示高斯模板的維度,(x,y)表示圖像的像素位置;通過尺度參數不同的變化,表達圖像在不同尺度空間中的特性。
6、圖像關鍵點的確立
利用高斯差分函數:
d(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))*i(x,y)=l(x,y,kσ)-l(x,y,σ),
其中d(x,y,σ)為高斯差分函數,i(x,y)表示原圖像,g(x,y,kσ)為kσ變化尺度的高斯函數,g(x,y,σ)表示一個變化尺度的高斯函數,σ為尺度參數。通過對兩個相鄰高斯函數進行相減,得到高斯差分函數,并取得該函數的極值點,確立圖像的關鍵點。
7、驗證了圖像特征點的提取及匹配
sift算法的關鍵問題在于尺度空間的建立,關鍵點位置方向的確立和關鍵點描述子的確立。當這些問題得到解決后,就可以通過實驗來驗證圖像特征點的提取及匹配情況,
8、結論
本發明建立了視頻模糊圖像中多目標跟蹤算法相關的技術方法,提出了模糊圖像中目標物的特征點的提取及匹配算法并進行了一定的實驗探究。
以上所述僅為本發明的較佳實施例而已,并不用以限制本發明,凡在本發明的精神和原則之內所作的任何修改、等同替換和改進等,均應包含在本發明的保護范圍之內。