:w/分別為0、況/的寬度,n為Rr滿足約 束的區域總數量;
[0047]對其他特征:采用直方圖統計,并采用相似性度量(如歐式距離、馬氏距離、巴氏距 離等)的方式進行相似性計算可得特征對應相似度Sf(5ature5;
[0048] 最終可得其相似度為s禮=E]U:cr務Q = 1)
[0049] 選擇相似度最大的1|?為Ilf的匹配項。
[0050] S303、返回S301,重復S30US302得到左右圖像中所有的匹配區域。
[0051] 本發明技術方案采用里程計、視覺感應器測量機器人的位置和周邊環境,根據視 覺返回的信息計算門和機器人的相對位置關系,根據里程計返回的信息計算機器人的全局 位置信息,有效的獲得機器人的位置和姿勢參數,從而控制機器人精確的實現過門的運動。 [0052]本發明的其它特征和優點將在隨后的說明書中闡述,并且,部分地從說明書中變 得顯而易見,或者通過實施本發明而了解。本發明的目的和其他優點可通過在所寫的說明 書、權利要求書、以及附圖中所特別指出的結構來實現和獲得。
[0053]下面通過附圖和實施例,對本發明的技術方案做進一步的詳細描述。
【附圖說明】
[0054]附圖用來提供對本發明的進一步理解,并且構成說明書的一部分,與本發明的實 施例一起用于解釋本發明,并不構成對本發明的限制。在附圖中:
[0055] 圖1為本發明實施例一中基于視覺的機器人導航過門方法的流程圖;
[0056] 圖2為本發明實施例一中基于視覺的機器人導航過門方法中的門識別的方法流程 圖;
[0057] 圖3為本發明實施例一中基于視覺的機器人導航過門方法中的垂直條狀區域匹配 的方法流程圖。
【具體實施方式】
[0058] 以下結合附圖對本發明的優選實施例進行說明,應當理解,此處所描述的優選實 施例僅用于說明和解釋本發明,并不用于限定本發明。
[0059] 圖1為本發明實施例一中基于視覺的機器人導航過門方法流程圖。如圖1所示,該 流程包括以下步驟:
[0060] S101、根據里程計或全局定位傳感器得到機器人當前時刻在全局坐標系中的位置 和姿態參數(x,y,9),x為機器人相對于原點的橫坐標,y為機器人相對于原點的縱坐標,9為 機器人朝向相對于x軸的夾角,逆時針旋轉為正值角度夾角,順時針旋轉為負值角度夾角; [0061 ] S102、根據用戶指令確定機器人所要通過的門;
[0062] S103、確定機器人過門之前開啟攝像頭的區域,每個開啟攝像頭區域為:Areai = (xj,yk)(l< 其中i代表門的編號,N和M表示某個門前區域的范圍;
[0063] S104、計算此次導航終點;
[0064] S105、起點和終點確定后,由A*算法計算機器人行走路徑,控制機器人運動到導航 餘占 . ,-、,
[0065] S106、根據里程計返回的航位推測信息(&,71,0〇,計算機器人相對門的位置和姿 態,求出機器人朝向和機器人與門中點連線的夾角A 0,控制機器人轉動A 0使機器人朝向 門;
[0066] S107、機器人靜止,同時下位機向上位機發送請求開啟攝像頭命令,上位機打開位 于機器人胸前的雙目攝像頭,并開始采集圖像,進行門識別;
[0067] 3108、根據圖像處理返回的門左右兩邊框的坐標11,7141^71^(11<11^,71<71〇計算 門中心坐標(XQ,yo),其中,
[0070] S109、以Xci,y。為原點,機器人當前朝向為基準,以從門左邊框指向右邊框為x軸正 向建立笛卡爾坐標系X0Y;
[0071] S110、求出機器人在X0Y坐標系下的坐標(Y rl,y' rl,9/rl),并求出機器人相對過門 過程中第一個矯正點(0,_1200)的距離Adi和角度A 01;
[0072] S111、控制機器人直行A cU,然后轉彎A 0!,根據航位推測信息求出機器人當前朝 向與門中垂線夾角A 0 ' :,控制機器人轉過A 0 ':角度對正目標門;
[0073] S112、求出機器人在X0Y坐標系下的坐標(Y r2,y' r2,9/r2),求出機器人相對過門過 程中第二個矯正點(0,_800)的距離Ad2和角度A 02;
[0074] S113、控制機器人直行A d2,然后轉彎A 02,根據航位推測信息計算出機器人當前 朝向與門中垂線夾角A 0 ' 2,使機器人轉過A 0 ' 2對正門;
[0075] S114、求出機器人在X0Y坐標系下的坐標(Y r3,y' r3,0' r3),求出機器人相對過門過 程中第三個矯正點(0,_400)的距離Ad3和角度A 03;
[0076] S115、控制機器人直行A d3,然后轉彎A 03,根據航位推測信息求出機器人當前朝 向與門中垂線夾角A0'3,使機器人轉過A 0 ' 3對正門;
[0077] S116、控制機器人前進1000mm,使機器人完成進門操作。
[0078] 進一步的,在步驟S104中,所述計算此次導航終點,進一步包括如下步驟:
[0079] 對參考區域進行搜索,求出參考區域中每個參考點到機器人當前位置的歐幾里得 距離即
其中x,y代表某個柵格在柵格地圖中的坐標;
[0080] 對所有求得的di排序求得di的最小值;
[0081] cU最小值所相應的柵格位置便是機器人此次導航的終點。
[0082]圖2為本發明實施例一中基于視覺的機器人導航過門方法中的門識別的方法流程 圖,即步驟S107中進行門識別的步驟。如圖2所示,該流程包括以下步驟:
[0083] S201、上位機對雙目攝像頭采集到的左右兩幅RBG圖像Ii、Ir分別進行灰度化處理, 得到灰度圖像Gray 1、Grayr;
[0084] S202、采用圖像全局二值化算法(如閾值法、0STU大律法、Shanbhag法等)對得到的 灰度圖像Grayi、Grayr分別進行二值化處理得到二值圖像Binaryi、Binaryr;
[0085] S203、使用形狀為矩形(a<b,且a取值為1或2,b取值范圍為b<h&b>h.2,其中h為 采集得到圖像的高)的結構元素,進行圖像形態學的腐蝕、膨脹處理獲得二值圖像Binary 'l'Binary' r中的垂直條狀區域馬=f野,野.^ 馬、.二:孩歲該區域即 可能為門框或門扇存在的區域;
[0086] S204、以步驟S203中得到的垂直條狀區域為匹配基元,對辦和心中的垂直條狀區域 進行匹配;
[0087] S205、對步驟S204中得到的垂直條狀區域對左右兩側對應點應用雙目測距原理得 出該點在機器人坐標系下的位置信息(x和y),同時得到圖像中各個垂直條狀區域的實際寬 度信息
[0088] wide = (x; - xr)2 + (y, - yr)2
[0089] S206、結合家居環境下門的實際寬度為850mm-1200mm,可得到符合實際門寬度的 垂直條狀區域(一個垂直條狀區域(門扇+左右兩側門框)、兩個垂直條狀區域(門框和門框、 門框和門扇)),進一步把得到的垂直條狀區域認為是門,并將門左右兩邊框在機器人坐標 系下的坐標11,71,^,^返回下位機(當為一個垂直條狀區域(門扇)時,返回垂直條狀區域 兩側的坐標;當為兩個垂直條狀區域(門框和門框)時,返回兩個垂直條狀區域外側的坐標; 當為兩個垂直條狀區域(門框和門扇)時,返回兩個垂直條狀區域內側的坐標)。
[0090] 圖3為本發明實施例一中基于視覺的機器人導航過門方法中的垂直條狀區域匹配 的方法流程圖,即步驟S204中對RdPRr中的垂直條狀區域進行匹配的步驟。如圖3所示,該流 程包括以下步驟:
[0091] S301、根據雙目立體匹配原則中同一物體在左右兩個攝像頭中的成像存在視差, 且對于光軸平行的雙目測距模型,其在左攝像頭圖像坐標系下成像點的xi值大于其在右攝 像頭圖像坐標系下成像點的xr,即Ri中的元素 if對應Rr中的匹配項滿足寬| <.^|,其中 為區域中心點的x值,為區域中心點的x值,選擇的成像點。
[0092] S302、根據雙目立體匹配原則中幾何相似性約束,即R沖的元素麗|對應Rr中的匹 配項滿足其幾何特征相差不大,包括但不限于區域寬度w、顏色(RGB色彩空間、HSV色彩 空間、YUV色彩空間等)、紋理(LBP等)特征,通過對上述特征相似度進行度量:
[0093] 對于寬度特征:
w/分別為i?/的寬度,n為Rr滿足約 束的區域總數量;
[0094]對其他特征:采用直方圖統計,并采用相似性度量(如歐式距離、馬氏距離、巴氏距 離等)的方式進行相似性計算可得特征對應相似度Sf(5ature5;
[0095] 最終可得其相似度為= Z;l=〇A (SUQ = 1);
[0096] 選擇相似度最大的為的匹配項。
[0097] S303、返回S301,重復S30US302得到左右圖像中所有的匹配區域。
[0098] 上述實施例中的技術方案由于使用了里程計、視覺傳感器等,根據里程計返回的 信息計算機器人的全局位置信息,根據視覺返回的信息計算門和機器人的相對位置關系, 對機器人的位置和姿勢進行有效的獲取,從而控制機器人精