劍橋大學教授Peter Robinson日前開發出一款新型車載GPS導航系統,采用攝像機與傳感器感知司機情緒,幫助預測態勢并輔助駕駛。
普通導航探測設備并未與司機直覺關聯,無法實現交互,因而具有明顯的感知局限。Peter Robinson教授在電腦圖形圖像與人機交互技術基礎上,開發了名為Charles的導航系統機器人,分別使用攝像機與馬達充當眼球和肌肉,實現視覺與運動功能。
該系統具有人類上半身外形,采用多傳感器布局結合精神狀態預設算法(Algorithms of Predefined Mental States),對司機面部表情、聲音腔調、肢體語言和軀干姿態等訊號進行監控跟蹤,以70%的準確度閱讀人類表情。該系統還能為司機提出行車路線建議。
雖然該系統尚不足以取代MyFord Touch等智能導航系統,但在人機交互和產品人性化方面有明顯進步,為將來技術發展指明了方向。