Visual-Inertial Odometry,VIO中文名為視覺慣性里程計(jì)。對無人機(jī)的定位來說,實(shí)時(shí)性是一個(gè)重要的條件,視覺里程計(jì)常常要在計(jì)算代價(jià)和精確度之間做權(quán)衡。VIO可以在同樣的條件下,獲得更好的效果。同時(shí)價(jià)格成本也是重要的指標(biāo),相比于昂貴的激光雷達(dá),攝像機(jī)和IMU是低價(jià)普適的傳感器。
圖像匹配技術(shù)是計(jì)算機(jī)視覺的重要組成部分, 在目標(biāo)識別、圖像拼接、運(yùn)動跟蹤、圖像檢索、自動定位等研究中起著重要作用。圖像特征匹配是圖像匹配的一種重要方法,圖像進(jìn)行特征匹配分三個(gè)關(guān)鍵步驟:檢測關(guān)鍵點(diǎn)、提取描述向量和特征匹配;通過檢測關(guān)鍵點(diǎn)和提取描述向量構(gòu)造出局部特征描述子,然后進(jìn)行特征匹配。
絕大多數(shù)四旋翼飛行器在自主飛行時(shí)都依賴于某種外部定位信息,通常是一個(gè)動作捕獲系統(tǒng),有時(shí)是借助GPS。零度自控研究過VIO集群,但在日常集群表演中為可靠起見,采用二維碼視覺定位,為了舞臺表演效果更好,對地面的二維碼做了隱身處理。賓比法尼亞大學(xué)的Vijay Kumar實(shí)驗(yàn)室的Aaron Weinstein, Adam Cho, and Giuseppe Loianno更專注純粹的視覺慣性里程計(jì)定位,讓一群12個(gè)重量為250g的四旋翼飛行器以緊密的隊(duì)形飛行,每個(gè)飛行器僅僅使用了一個(gè)小相機(jī)和一個(gè)簡單的IMU裝置;當(dāng)然,單一的相機(jī)和IMU是可伸縮的,現(xiàn)在很多的智能技術(shù)正在趨于成熟,因此只要空間允許,可以根據(jù)實(shí)際需求擁有越來越多的傳感器。像立體照相機(jī)這樣的傳感器可以用于繪制環(huán)境地圖并識別其他車輛,從而獲得完全分布式的解決方案。
這是最大的一群不依賴于運(yùn)動捕獲或GPS的視覺慣性里程計(jì)四旋翼飛行器。與之前的一些工作相比,解決方案主要有以下幾個(gè)區(qū)別:
第一,研發(fā)了一個(gè)可擴(kuò)展(Scalable)和可延伸(extensible)的多視覺四旋翼飛行器控制架構(gòu)。這里可擴(kuò)展指可以很容易地向系統(tǒng)中加入額外的飛行器而不損失整個(gè)系統(tǒng)的性能表現(xiàn)。
第二,這是第一次在不依賴GPS或者一個(gè)外部動作捕捉系統(tǒng)的情況下,將感知,路徑規(guī)劃和控制結(jié)合來實(shí)現(xiàn)多可互換飛行器(達(dá)到12個(gè)四旋翼飛行器)的自動導(dǎo)航。
第三,使用商業(yè)化的零部件并將源代碼開源在網(wǎng)上。這是目前為止最大的不依賴于動作捕捉系統(tǒng)或者GPS的自動四旋翼飛行器蜂群系統(tǒng)。我們希望任何人都能在不使用昂貴的動作捕捉系統(tǒng)的情況下實(shí)驗(yàn)開發(fā)多MAV集群系統(tǒng)。
四旋翼飛控基于運(yùn)行ROS系統(tǒng)高通驍龍開發(fā)板。該開發(fā)板包含一個(gè)四核處理器,一對VGA立體相機(jī)和一個(gè)4K攝像機(jī)。飛行中每個(gè)無人機(jī)僅僅使用了一到兩個(gè)核的處理能力,一個(gè)簡單的慣性單元IMU,以及一個(gè)朝下的帶有160°視野的VGA攝像頭。每個(gè)四旋翼的工作是利用視覺慣性里程計(jì)(VIO)來估計(jì)它從起始位置移動的距離和方向,這樣就能很好的逼近它的相對位置。它簡單地識別并跟蹤其相機(jī)視角中的視覺特征:如果無人機(jī)的攝像頭看見一個(gè)物體,而這個(gè)物體在整個(gè)框架中從右向左移動,無人機(jī)就可以推斷(在它的IMU的幫助下)它正在向右移動。像這樣的航跡計(jì)算方法會導(dǎo)致一些漂移,在位置估計(jì)上的小錯(cuò)誤會隨著時(shí)間的推移而增加,但是賓夕法尼亞大學(xué)的研究人員們已經(jīng)設(shè)法控制了誤差,即使在無人機(jī)飛行超過100米之后,總體位置誤差僅僅超過半米。
每個(gè)無人機(jī)跟蹤記錄它自己的位置的同時(shí),還將這些位置信息更新以10 Hz的頻率通過一個(gè)5G Hz的Wi-Fi發(fā)送給一個(gè)地面基站。基站上運(yùn)行著ROS系統(tǒng),收集所有這些位置更新信息,然后將命令發(fā)回給集群以改變隊(duì)形。每一個(gè)獨(dú)立無人機(jī)唯一收到的只是一系列目標(biāo)點(diǎn)坐標(biāo)和一個(gè)開始時(shí)間;因?yàn)槊總€(gè)無人機(jī)獨(dú)自計(jì)算自己的軌跡,所以地面基站并不需要做所有的規(guī)劃。這使得整個(gè)事情變得輕量化和分散,使得集群系統(tǒng)可以很容易地?cái)U(kuò)展到更多的無人機(jī)規(guī)模。值得注意的是,對于每個(gè)無人機(jī)而言,它根本不是一個(gè)集群的一部分— 它只監(jiān)視自己的位置然后從一個(gè)坐標(biāo)點(diǎn)移動到另一個(gè)坐標(biāo)點(diǎn),完全意識不到(直接或非直接地)它周圍還有其他的無人機(jī)。盡管如此,整個(gè)系統(tǒng)工作的很好,可以從視頻中看到,無人機(jī)并沒有發(fā)生相互碰撞。
視頻中的戶外測試有以下幾個(gè)點(diǎn)需要注意。其中有些是在非常低的光線條件下完成的,對于任何VIO系統(tǒng)來說,都是一個(gè)令人印象深刻的表現(xiàn),因?yàn)閂IO系統(tǒng)依賴于足夠的特征識別來進(jìn)行良好的位置估計(jì),在晚上這會是一件棘手的事情。還有一件你可能無法從視頻看出的事,戶外測試的平均風(fēng)速是10mph,18mph的陣風(fēng)。這是一個(gè)非常魯棒的跟蹤,換句話說,這使得它更像是一個(gè)可以實(shí)際使用的系統(tǒng),而不僅僅是一個(gè)先進(jìn)的試驗(yàn)例子。
賓大研究人員下一步正在研究魯棒性、環(huán)路閉合、密集重建等一些關(guān)鍵技術(shù)。目前正在開發(fā)一個(gè)基于視覺里程計(jì)的能使漂移減小的閉環(huán)模塊,因?yàn)樵谶@個(gè)項(xiàng)目里每個(gè)機(jī)器人需要知道它的起始位置,但當(dāng)閉環(huán)問題解決了的時(shí)候就不需要了。為了在災(zāi)難場景中以分布列的方式獲得一個(gè)協(xié)調(diào)密集的重建環(huán)境,這些車輛將很快部署,也在努力減少地面基站的數(shù)量,同時(shí)著手研究一種增加地層回彈的新戰(zhàn)術(shù)。最后,我們也在人機(jī)交互方面做了一些改進(jìn)和探索,使機(jī)器人更好地完成和支持與人類之間的協(xié)調(diào)。