幾年前,蘇黎世大學的DavideScaramuzza實驗室為我們帶來了一種動態視覺傳感器——EventCamera。Eventcamera與普通照相機有很大的差別,它對于小巧迅捷的機器人是十分理想的,尤其當你更考慮減小碰撞的幾率而非清晰拍攝事物的時候。
在提交給RoboticsandAutomationLetters的一篇論文中,TimoHorstschaefer、AntoniRosinolVidal、AntoniRosinolVidal和AntoniRosinolVidal教授首次展示了一架用于自主駕駛無人機的EventCamera,并承諾這將使無人機完成以前做不了的事情。
無人機自主導航成本最低的方法是使用相機。在這一點上,相機的成本幾乎是零。非常重要的是如果你將相機與IMU融合,在移動速度不快,而且有可靠的照明設備情況下,相機就可以提供完全合理的狀態評估。
狀態評估——準確地知道你在哪里在做什么,這聽起來很無聊,但對于自動機器人來說絕對是至關重要的。為了讓機器人做出與周圍環境交互的決策,它必須對自己的位置、移動速度和方向有很好的識別功能。
有很多方法可以進行狀態評估,其中最精確的是耐用且價格不菲的場外運動捕捉系統。當你開始嘗試用更小更簡單的機器人進行狀態評估時,問題就變得困難起來,特別是當你試圖將其運用在高度動態的平臺上,比如快速移動的四旋翼飛行器。
這就是為什么人們會忍不住要依賴相機,但是相機本身也有很多問題。第一個重要的問題是當傳感器的移動超過所能被相機幀率捕捉上限時,相機的圖片就會變得模糊;第二個問題是,相機和人眼一樣對于光線非常講究(金發女孩效應):它只能是剛剛好,既不能過少也不能過多,也不是在兩極之間的任意值。
與傳統相機相比,EventCamera是完全不同的,它不是記錄一個場景的,而是記錄一個場景的變化。在一個沒有物體移動的場景中架設一臺EventCamera,它不會顯示任何東西。但是一旦EventCamera檢測到運動(像素級的光線發生了變化),它就會在每個像素的基礎上以非常高的刷新率(毫秒)呈現出來。如果你所關心的是在移動時避開物體,一臺EventCamera就是你的不二之選,因為這種相機只是在尋找像素的變化,對低光也很敏感,并且不會因為強光而拍不到移動物體。
在蘇黎世大學,他們使用了一個名為DAVIS的原型傳感器。這個傳感器是將一個EventCamera嵌入一個標準相機的像素陣列中,同時還嵌入了一個與事件和幀同步的IMU。通過這種方式,他們的四旋翼飛行器可以自主飛行,甚至是在光線變化的情況下也可以:在這項工作中,我們利用緊密耦合的事件、標準框架和慣性測量研發了第一個狀態評估傳遞途徑,這一傳遞途徑實現這兩個傳感器互補優勢。我們表明,我們的混合傳遞途徑比僅用于事件處理的傳遞途徑的精度提高了130%,而準確率比只有視覺慣性系統的標準框架超出了了85%,同時還維持了計算機可處理性。此外,我們使用此傳遞途徑來演示了第一個使用EventCamera來進行狀態評估的四旋翼飛行器,解鎖飛行場景,這是傳統的視覺慣性測程法不能做到的。我們證明我們甚至可以在低光(比如關燈后的房間)或高動態光照的環境(房間的一邊是明亮的,房間的另一邊是黑暗的)中飛行。
為了檢測相對運動的精確狀態評估,四旋翼飛行器的相機試圖識別出獨特的圖像特征,并追蹤這些特征是如何移動的。正如視頻所顯示的,當光線發生變化或太暗時,標準相機就會失效,而EventCamera則完全沒有受到影響。研究者還未在戶外(明亮的陽光和陰影之間的快速轉換對于機器人來說是特別的挑戰)進行測試,但是基于現階段的成果,這非常有可能實現,并且我們很期待具有什么樣新功能的傳感器能夠實現戶外拍攝。
更多資訊請關注人機界面頻道