基于局部線性遷移和仿射變換的圖像特征匹配方法及系統(tǒng)的制作方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及圖像特征匹配技術(shù)領(lǐng)域,具體地說,本發(fā)明涉及基于局部線性迀移和 仿射變換的圖像特征匹配技術(shù)方案。
【背景技術(shù)】
[0002] 圖像匹配的基本目標(biāo)是將使用不同傳感器在不同的時間和視角下獲得的同一個 場景的兩幅圖像的相同部位進(jìn)行對應(yīng)。
[0003] 在過去的幾十年里,學(xué)者們研究了很多方法來解決遙感圖像匹配問題。這些方法 大致可以分為兩類:基于區(qū)域的匹配方法和基于特征的匹配方法。前者通過搜索兩幅圖像 中一定區(qū)域內(nèi)原始灰度值的相似程度來尋找匹配信息;后者則利用局部特征的描述子相似 性或空間幾何約束來尋找匹配點(diǎn)對。在具有少量顯著細(xì)節(jié)的情況中,灰度值提供的信息比 局部形狀和結(jié)構(gòu)要多,從而基于區(qū)域的方法的匹配效果更好。但是基于區(qū)域的方法計(jì)算量 大,且在圖像失真和光度改變的情況下并不適用。相反,特征方法具有更好的魯棒性,可以 處理復(fù)雜失真的圖像,得到廣泛的應(yīng)用。
[0004] 如何尋找兩幅圖像中對應(yīng)的匹配點(diǎn),形成匹配點(diǎn)對,并確保匹配點(diǎn)對的正確性是 圖像匹配方法的關(guān)鍵。
[0005] 基于區(qū)域的匹配方法主要有相關(guān)法、傅里葉方法和互信息法三種。相關(guān)法的主要 思想是計(jì)算兩幅圖像中對應(yīng)窗的相似性,然后將具有最大相似程度的一對作為匹配點(diǎn)對。 但相關(guān)法在相似性不顯著的無紋理區(qū)域無法適用,且計(jì)算復(fù)雜。傅里葉方法利用了圖像在 頻率域的傅里葉表示。與傳統(tǒng)的相關(guān)方法相比,這種方法在計(jì)算效率更高并且對頻率類噪 聲具有很好的魯棒性。然而,這種方法在處理具有不同譜結(jié)構(gòu)的圖像具有一定限制性。互信 息法盡管其匹配效果良好,但是它無法得到整個搜索空間中的全局最大值,因此不可避免 的會減低它的魯棒性。
[0006] 基于特征的匹配方法中,通常采用一種分為兩個步驟的策略。第一步,通過特征描 述子的相似程度確定一組初始的匹配點(diǎn)對,其中絕大多數(shù)是正確匹配,但不可避免的含有 大量的錯誤匹配。第二步,通過通過幾何約束來去除錯誤的匹配,最后便可得到正確的匹配 點(diǎn)對和兩幅圖像之間變換的幾何參數(shù)。這種策略的典型例子包括RANSAC方法 (M.A.Fischler and R.C.Bolles,"Random sample consensus : A paradigm for model fitting with application to image analysis and automated cartog-raphy,', Commun · ACM,vol.24,no.6,pp.381-395,Jun.l981)、ARHV 方法(P.H.S.Torr and A.Zisserman,UMLESAC:A new robust estimator with application to estimating image geometry,',Comput.Vis.Image Under-stand. ,νο1.78,ηο.1,ρρ.138-156, 八卩^.2000)等依賴于參數(shù)模型的方法和¥?(:方法(<1.]^, <1.21^〇,<1.1^&11,丄.¥1^1^,&11(1 Z.Tu,"Robust point matching via vector field consensus,',IEEE Trans. Image Process ·,vo 1 · 23,no ·4,pp · 1706-1721,Apr · 2014·)、GS方法(H.Liu and S.Yan,"Common visual pattern discovery via spatially coher-ent correspondence,',in Proc · IEEE Conf · Comput · Vis · Pattern Recog.,Jun .2010, pp .1609-1616.)和ICF方法(X · Li and Z. Hu, Rejecting misma tches by correspondence functionInt.J.Comput. Vis ., vol.89,no. 1,pp. l-17,Aug.2010) ·等基于非參數(shù)模型的方法。
[0007] 雖然這些方法在許多領(lǐng)域獲得了成功,但是在圖像中含有大量因視角變化造成的 局部失真以及圖像內(nèi)容較復(fù)雜時,初步匹配后會得到很多錯誤的初始匹配點(diǎn)對,當(dāng)錯誤率 超過一定比例時,這些方法就不能有效的去除錯誤。因此亟需一種對初始匹配錯誤率具有 較強(qiáng)魯棒性的匹配方法。
【發(fā)明內(nèi)容】
[0008] 針對現(xiàn)有技術(shù)缺陷,本發(fā)明提出了一種基于局部線性迀移和仿射變換的圖像特征 匹配技術(shù)方案。
[0009] 為達(dá)到上述目的,本發(fā)明采用的技術(shù)方案為一種基于局部線性迀移和仿射變換的 圖像特征匹配方法,包括以下步驟,
[0010] 步驟1,建立待匹配圖像間幾何變換相應(yīng)的模型和匹配點(diǎn)對為正確匹配的后驗(yàn)概 率相應(yīng)的模型,實(shí)現(xiàn)如下,
[0011] 針對待匹配圖像間的仿射變換,建立變換數(shù)學(xué)模型如下,
[0012] y = t(x) =Ax+o
[0013] 其中,設(shè)兩幅待匹配圖像為圖像a和圖像b,x和y分別是圖像a和圖像b上像素的坐 標(biāo)向量,t(x)表示仿射變換關(guān)系,A是一個2X2的仿射矩陣,〇是一個2 X 1的矩陣,表示待匹 配圖像間的平移;
[0014]設(shè)已知的一組初始匹配點(diǎn)對中,圖像a上點(diǎn)集為X = {X1,…,XN}τ,圖像b上相應(yīng)點(diǎn)集 為Y={yi,…,yN}T,計(jì)算其中第η對匹配點(diǎn)為正確匹配的后驗(yàn)概率?"有如下后驗(yàn)概率數(shù)學(xué)模 型,
[0015]
[0016] 其中,γ和。均為模型參數(shù),e為數(shù)學(xué)常量,b為預(yù)設(shè)的系數(shù);
[0017] 步驟2,根據(jù)點(diǎn)集Χ= {χι,···,χΝ}τ和Y= {yi,···,yN}T求解模型參數(shù),包括以下子步 驟,
[0018] 步驟2.1,為每一個匹配點(diǎn)χη,η=1,···,Ν,分別搜索最近的K個鄰居匹配點(diǎn),K取預(yù) 設(shè)值;
[0019] 步驟2.2,根據(jù)步驟2.1的搜索結(jié)果,采用最小二乘法求解維度為Ν X Ν的權(quán)重矩陣 W;
[0020] 步驟2.3,通過最優(yōu)化方法求解模型參數(shù)8、1?、〇、丫、〇,包括以下子步驟,
[0021 ] 步驟2.3.1,初始化,包括令γ = γ 〇,Α=Ι2Χ2,〇 = 0,Ρ = Ινχν,γ 〇為γ的預(yù)設(shè)初始 值,令當(dāng)前迭代次數(shù)k=l,采用下述模型參數(shù)公式計(jì)算〇,
[0022]
[0023]其中,矩陣T=(t(xi),…,t(XN))T,tr()表示求矩陣的跡;
[0024] 步驟2.3.2,更新矩陣P,包括采用步驟1中所得后驗(yàn)概率數(shù)學(xué)模型,計(jì)算得到N對匹 配點(diǎn)對分別為正確匹配的后驗(yàn)概率口1,~心,令? = (^8化1,"_^),(^8表示對角矩陣; [0025] 步驟2.3.3,計(jì)算參數(shù)A、o如下,
[0026] 采用下述公式計(jì)算參數(shù)A,
[0027]
[0028] 將Inxn省略記為I,矩陣Q= (I-W)TP(I-W),λ為預(yù)設(shè)的參數(shù);
[0029] 采用下述公式計(jì)算參數(shù)〇,
[0030] ο=μγ-Αμχ
[0031 ] 步驟2.3.4,根據(jù)步驟2.3.3計(jì)算得到的參數(shù)Α、ο,重新計(jì)算參數(shù)γ、σ如下,
[0032] 采用下述公式計(jì)算參數(shù)γ,
[0033]
[0034] 采用步驟2.3.1中模型參數(shù)公式計(jì)算σ;
[0035] 步驟2.3.5,判別收斂條件,包括計(jì)算當(dāng)前的參數(shù)1^,當(dāng)滿足1^ = 1^1£?或者(1^。1(:1)/ 1^0,結(jié)束迭代,1^_為最大迭代次數(shù), £是收斂閾值;否則汰=1^1,返回步驟2.3.2;所述 參數(shù)L的計(jì)算公式如下,
[0036]
1234567 其中,L〇id表示上一次計(jì)算得到的L; 2 步驟3,計(jì)算初始匹配點(diǎn)對為正確匹配的后驗(yàn)概率,并根據(jù)閾值判斷初始匹配點(diǎn)對 的