基于人類視覺多尺度感知特性的彩色圖像聚類分割方法
【專利摘要】一種基于人類視覺多尺度感知特性的彩色圖像聚類分割方法,其特征是首先采用一個以a=0,b=0為圓心,為半徑的圓柱體將CIELAB色彩空間分割成兩個部分;其次,采用傳統的圖像分割聚類算法將圖像分割成一定密度和大小的圖塊;第三,計算每個聚類圖塊平均色彩向量值,并將向量投影到ab平面上;第四,計算每個聚類圖塊平均色彩向量值投影在ab平面上向量的模長;第五,根據向量的模長將其歸于不同的測度空間;第六,對相鄰圖塊類采用式進行向量間的夾角的計算;第七以公式為判據,將符合條件的圖塊進行聚類;最后,重復第三~六步,直到收斂。本發明有利于提高了圖像的聚類效果和抗干擾能力。
【專利說明】基于人類視覺多尺度感知特性的彩色圖像聚類分割方法
【技術領域】
[0001] 本發明涉及一種圖像聚類處理方法,尤其是一種可以廣泛應用于如機器人視覺室 外與室內場景圖像的空間識別、大空間的目標測量、目標追蹤與定位等領域圖像聚類分割 方法,具體地說是一種基于人類視覺多尺度感知特性的彩色圖像聚類分割方法。
【背景技術】
[0002] 對室外與室內場景圖像的空間識別,依賴于對場景圖像物體的認知與識別,因此 如何將場景中的地面、墻面、天花板、天空、建筑物、樹木等物體進行有效的聚類,將是能成 功實現機器人視覺對室外與室內場景圖像的空間識別、大空間目標識別、搜索、測量、追蹤 與定位等圖像應用領域的關鍵。目前對圖像聚類的方法中往往采用顏色空間的歐式距離、 Bhattacharyya距離等方法,這些方法在一定層度上實現了對場景圖像的聚類,但當場景 圖像中的光線較為復雜時,這些方法的聚類效果與人類視覺對場景圖像的聚類效果相比則 存在較大的差異。本方法基于人類視覺多尺度感知特性建立了一套新型的顏色空間模型, 并在此基礎上進行多尺度的顏色聚類,實現了一種可接近人類視覺感知的圖像聚類分割方 法。
【發明內容】
[0003] 本發明的目的是針對現有的圖像聚類方法當場景圖像中的光線較為復雜時,傳統 的顏色空間的歐式距離、Bhattacharyya距離等方法的聚類效果與人類視覺對場景圖像的 聚類效果相比則存在較大的差異。發明一種基于人類視覺多尺度感知特性的彩色圖像聚類 分割方法,并在此基礎上進行多尺度的顏色聚類,以實現一種可接近人類視覺感知的圖像 聚類分割方法。
[0004] 本發明的技術方案是:
[0005] -種基于人類視覺多尺度感知特性的彩色圖像聚類分割方法,其特征是首先采用 一個以a = 0, b = 0為圓心,Rm為半徑的圓柱體將CIELAB色彩空間分割成兩個部分:
[0006] ①對于在ab平面上投影的模長大于Rm的顏色向量,采用兩個顏色向量在ab平面 投影向量間的夾角和顏色向量在ab平面上投影的模長之差的絕對值作為顏色聚類的近似 性測度,具體的數學表達如下:
【權利要求】
1. 一種基于人類視覺多尺度感知特性的彩色圖像聚類分割方法,其特征是首先采用一 個以a = 0, b = 0為圓心,Rm為半徑的圓柱體將CIELAB色彩空間分割成兩個部分: ① 對于在ab平面上投影的模長大于Rm的顏色向量,采用兩個顏色向量在ab平面投影 向量間的夾角和顏色向量在ab平面上投影的模長之差的絕對值作為顏色聚類的近似性測 度,具體的數學表達如下:
(1) (2) 其中:^和5為兩個顏色向量在ab平面投影向量,91和別為兩向量聚類夾角 的閾值和模長之差的閾值,θτ的取值范圍為θτ = 5?20°,AmT的取值范圍為AmT = 15 ?40。 ② 對于在ab平面上投影的模長小于Rm的顏色向量,則采用兩個顏色向量在ab平面投 影向量間的夾角其表達式同(1),以及顏色向量在L軸上投影的亮度差作為其顏色聚類的 近似性測度,具體的數學表達如下: Δ L = | La_Lb | < Δ LT (3) 其中:Λ LT的取值范圍為Λ LT = 5?20 ; 其次,采用傳統的圖像分割聚類算法將圖像分割成一定密度和大小的圖塊; 第三,計算每個聚類圖塊平均色彩向量值,并將向量投影到ab平面上; 第四,計算每個聚類圖塊平均色彩向量值投影在ab平面上向量的模長; 第五,根據向量的模長將其歸于不同的測度空間; 第六,對相鄰圖塊類采用式
進行向量間的夾角的計算; 第七,以公式(1) (2) (3)為判據,將符合條件的圖塊進行聚類; 最后,重復第三?六步,直到收斂。
2. 根據權利要求1所述的方法,其特征所述的圖像分割聚類算法包括超像素、譜聚類 均值漂移法(Mean shift)、快速漂移法(Quick shift)、分水嶺法(Watershed approach)、及 K均值法(K-means)等、或其中的一種或幾種的組合。
【文檔編號】G06K9/62GK104063707SQ201410334974
【公開日】2014年9月24日 申請日期:2014年7月14日 優先權日:2014年7月14日
【發明者】鄭李明, 崔兵兵 申請人:金陵科技學院