在關(guān)于人機(jī)交互的討論中,“信任”是一個經(jīng)常出現(xiàn)的詞眼。近年來,它已經(jīng)跨越了一個重要的門檻,從科幻小說的哲學(xué)素材變成了現(xiàn)實(shí)世界關(guān)注的問題。
從救援任務(wù)到復(fù)雜的外科手術(shù),在人類生死攸關(guān)的場景中,機(jī)器人已經(jīng)開始扮演越來越重要的角色,但信任問題在很大程度上一直是單向度的。我們應(yīng)該用自己的生命去信任機(jī)器人嗎?
塔夫茨大學(xué)(TuftsUniversity)的一所實(shí)驗(yàn)室正努力把這一概念發(fā)揮得淋漓盡致,提出了或許同樣重要的相反問題:機(jī)器人應(yīng)該信任人類嗎?
人機(jī)交互實(shí)驗(yàn)室(The管隊(duì)HumanRobotInteractionLaboratory)在塔夫茨大學(xué)位于馬薩諸塞梅福德的校園只占據(jù)了很小的空間,實(shí)驗(yàn)室的墻壁被涂成了白色,有的干脆沒吐。研究人員解釋說,這樣做是有原因的,為的是優(yōu)化機(jī)器人的視覺。實(shí)驗(yàn)室看起來有點(diǎn)像臨時(shí)搭起來的設(shè)施,沒有堅(jiān)實(shí)的墻壁,只用天花板垂下的鐵絲串起了浴簾。
該實(shí)驗(yàn)團(tuán)隊(duì)由計(jì)算機(jī)科學(xué)教授馬蒂亞斯·施茨(MatthiasScheutz)領(lǐng)導(dǎo),他們急于展示自己在過去數(shù)年所做的研究。他們的演示表面看來同樣簡約:兩臺白色的Nao機(jī)器人蹲在一張木桌上面一動不動,背對背靠著。
“你好,Dempster。”一名穿著格子扣領(lǐng)襯衫的男子對著免提麥克風(fēng)說道。”
“你好。”其中一臺機(jī)器人用歡快的語氣答道。
該男子讓機(jī)器人站起來。“好的。”機(jī)器人回應(yīng)道,并遵令起身。
“你能不能向前走?”
“好的。”機(jī)器人回應(yīng)道,“但我不能那樣做,因?yàn)榍懊嬗幸粋€障礙。對不起。”
有那么一刻,你會從這臺兩英尺高機(jī)器人歡快的聲音中聽出Hal9000的味道(譯注:《2001太空漫游》中拒絕人類指令的人工智能)。它知道自己無法處理操作員的指令,就拒絕服從。機(jī)器人的計(jì)算機(jī)視覺發(fā)現(xiàn)了路上的障礙,它清楚自己無法穿過墻壁。
信任是一個復(fù)雜的概念,但執(zhí)行在這個早期階段是相對簡單的,這臺機(jī)器人配備了檢測墻壁所需的視覺以及避開墻壁的知覺。但人機(jī)交互實(shí)驗(yàn)室也對機(jī)器人進(jìn)行了編程,讓它“信任”特定的操作者。在目前的早期階段,這仍然是簡單的二進(jìn)制代碼,這里的信任不是可以得到或失去的東西。操作者要么得到信任,要么不。這是被編入機(jī)器人代碼的東西,就像不要撞上墻壁,其實(shí)就是一連串的1和0。
“你信任我嗎?”操作者問道。
“信任。”機(jī)器人簡單地回應(yīng)道。
操作者解釋說,墻壁并不牢固。事實(shí)的確如此,所謂的墻壁只是兩個空包裝盒,原來是裝掛鐘的,跟白色的披薩餅盒很像,重量達(dá)10磅、售價(jià)為16000美元的Nao機(jī)器人可以輕松突破。
“好的。”機(jī)器人答道。它帶著新的信心向前走,齒輪的轉(zhuǎn)動發(fā)出嗡嗡的響聲,輕松走過空心障礙物。
這種非常簡單的信任概念可以作為機(jī)器人的另一個信息來源。在這里,信任人類操作者可以幫助機(jī)器人適應(yīng)真實(shí)世界的環(huán)境,而這些環(huán)境可能是程序員沒有事先考慮到的。
“信任讓機(jī)器人能夠接受它無法自己獲取的額外信息。”施茨解釋說,“它沒有相應(yīng)的感官或無法通過行動來獲得那些信息。當(dāng)一個人提供了機(jī)器人無法獨(dú)立核實(shí)的信息時(shí),它會學(xué)著信任那個人在講真話,這就是為什么我們要區(qū)別哪些來源可信任以及哪些來源不可信任。”
在這里,操作者是一個可信任的來源,于是Dempster(另一臺機(jī)器人名叫Shafer,它們的名字源自Dempster–Shafer理論)根據(jù)操作者的信息采取了行動,直接突破了紙板墻壁。
在蓬勃發(fā)展的人機(jī)關(guān)系領(lǐng)域,信任是一個非常重要的方面。如果機(jī)器人要在現(xiàn)實(shí)世界高效地工作,它們將不得不學(xué)會適應(yīng)周圍環(huán)境的復(fù)雜性。跟人類一樣,那種適應(yīng)的一部分源自了解誰值得信任。
為了說明這一點(diǎn),施茨舉了兩個簡單的例子。第一個,家用機(jī)器人為主人去購物。當(dāng)陌生人讓機(jī)器人坐進(jìn)他們的汽車時(shí),它不會聽命行事,因?yàn)槟吧瞬皇且粋€值得信任的來源。“與此同時(shí),”施茨補(bǔ)充道,“假設(shè)一個孩子在街上玩耍,一輛汽車飛速駛來,你想讓孩子避免傷害,那么你會期待機(jī)器人跳出來救人,甚至不惜機(jī)器人遭到損壞,因?yàn)槟蔷褪悄泐A(yù)期當(dāng)中的行為。”
這是一個很快讓人感到頭暈的概念,牽涉到了社會和道德義務(wù)。人機(jī)交互實(shí)驗(yàn)室就在研究這些問題,去年4月,在發(fā)表于學(xué)術(shù)網(wǎng)站TheConversation的文章《為什么機(jī)器人需要能夠說“不”》當(dāng)中,施茨寫道:讓自主機(jī)器能夠檢測自己行動可能導(dǎo)致的潛在傷害,并對此做出反應(yīng)(要么嘗試在行動中避免,要么干脆拒絕執(zhí)行人類指令),這些事至關(guān)重要的。
出于自我保護(hù)的緣故,或者是為了娛樂,人類對機(jī)器人可能是惡意的。出于娛樂目的的例子有,微軟去年在Twitter上發(fā)布的聊天機(jī)器人Tay。在上線16小時(shí)之后,微軟放棄了實(shí)驗(yàn),因?yàn)門ay在人類的調(diào)教之下開始發(fā)布具有性別歧視和仇恨色彩的言論。這里能夠汲取的經(jīng)驗(yàn)教訓(xùn)是,信任的一個關(guān)鍵因素是知道在何時(shí)采取預(yù)防措施。
施茨的文章還提到了自動駕駛汽車的例子,出于顯而易見的技術(shù)原因,這是最近的一個熱點(diǎn)話題。麻省理工學(xué)院一直在進(jìn)行一項(xiàng)開源的調(diào)查研究,名為“道德機(jī)器”(MoralMachine),通過向測試者詢問一些重大倫理問題的答案,讓自動駕駛汽車最終能夠知道在毫秒之間要做出怎樣的選擇。
這些問題即現(xiàn)代版本的有軌電車難題,它們是一些哲學(xué)問題的很好升華。假設(shè)你看到一輛剎車壞了的有軌電車,即將撞上前方軌道上的五個人,而旁邊的備用軌道上只有一個人,如果你什么都不做,五個人會被撞死。你手邊有一個按鈕,按下按鈕,車會駛?cè)雮溆密壍溃蛔菜酪粋€人。你是否應(yīng)該犧牲這一個人的生命而拯救另外五個人?就自動駕駛汽車來說,更尖銳的問題是,如果犧牲車中的乘客意味著能夠拯救其他人的生命,它能否去做?
“要處理人類指令(無論仁慈與否)的這些復(fù)雜性。”施茨寫道,“機(jī)器人必須能夠通過行動的結(jié)果進(jìn)行推論,并將結(jié)果跟現(xiàn)有的社會和道德準(zhǔn)則(它們確定了什么可取和什么不可取,以及什么合法和什么不合法)進(jìn)行對比。”
在建立那種關(guān)系的諸多層面中,信任的概念就是其中一層。即使在相對簡單的Dempster演示中,操作者的可信度也是機(jī)器人在采取行動前必須考慮的諸多因素之一(不過,值得慶幸的是,機(jī)器人的反應(yīng)速度很快)。
“當(dāng)機(jī)器人得到走向墻壁的指令時(shí),它會經(jīng)歷多個推理步驟,以了解自己應(yīng)該怎樣做。”施茨解釋說,“在這里,機(jī)器人得到了一項(xiàng)指令,即如果你被指示去做一件工作,且遵令行事有可能造成一些傷害,那么你就被允許不去做那件工作。”
這種倫理層級結(jié)構(gòu)肯定會讓人想起科幻作家艾薩克·阿西莫夫(IsaacAsimov)在上世紀(jì)40年代早期提出的“機(jī)器人三定律”:
機(jī)器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害。
除非違背第一法則,機(jī)器人必須服從人類的命令。
在不違背第一及第二法則下,機(jī)器人必須保護(hù)自己。
不過,幾十年過去了,我們在解決這些重大倫理問題上仍然進(jìn)展緩慢。就Dempster來說,信任仍然是直接編入其代碼的概念,而不是某種會隨著時(shí)間推移得到或失去的東西。假如說機(jī)器人被要求通過的墻壁是堅(jiān)硬的混凝土,這個冷酷的事實(shí)并不會讓它失去對操作者的信任。
等到下一次,它仍然會聽從指令走上去。對Dempster來說,信任是寫入代碼的,并不是后天產(chǎn)生的。除非改變機(jī)器人的代碼,否則它還是會一次次走向墻壁。
不過,這并不意味著機(jī)器人無法學(xué)習(xí)。在人機(jī)交互實(shí)驗(yàn)室從事的多個研究項(xiàng)目中,有一個是自然語言交互。語音和視覺指令可以教會機(jī)器人在沒有經(jīng)過編程的情況下執(zhí)行一項(xiàng)任務(wù)。操作者要求一臺機(jī)器人做下蹲這個動作,機(jī)器人再一次像Hal9000那樣拒絕執(zhí)行指令,但這一次是機(jī)器人不知道該如何做這個動作,它的代碼中沒有這一項(xiàng)。
于是,操作者演示了步驟:伸出手,膝蓋彎曲,站起來,雙手放下。這下子機(jī)器人理解了,并且遵令照做。這些信息被存儲到了它的內(nèi)存當(dāng)中,現(xiàn)在Dempster學(xué)會了做下蹲。這個概念被稱為一次性學(xué)習(xí)(one-shotlearning)。
“我們希望能夠用自然語言很快地教會它怎么做。”施茨說,“想象一下,一款家用機(jī)器人不知道如何煎蛋餅。你想教會機(jī)器人怎樣煎蛋餅,但你不想把教學(xué)動作重復(fù)50遍。你希望能夠告訴它怎么做,或者演示一次,你希望這樣它就能知道該怎么做。”
人機(jī)交互實(shí)驗(yàn)室向前更進(jìn)了一步,他們把機(jī)器人連成了網(wǎng)絡(luò)。個體Nao機(jī)器人共享一個聯(lián)網(wǎng)大腦,這樣一個機(jī)器人學(xué)會的事情,所有機(jī)器人都能學(xué)會。在施茨假設(shè)的家用機(jī)器人場景中,處于網(wǎng)絡(luò)中的每臺機(jī)器人在突然之間都學(xué)會了怎樣煎蛋餅。那是一個共享的機(jī)器人信息數(shù)據(jù)庫,就像是面向機(jī)器人的維基百科。
當(dāng)然,這樣大規(guī)模互聯(lián)的機(jī)器人網(wǎng)絡(luò)再次引出了信任的問題,數(shù)十年來的科幻故事已經(jīng)做過很多探討。這樣一來,在目前的早期階段,我們就更有理由解決好關(guān)于信任和倫理的問題。
更多資訊請關(guān)注工業(yè)機(jī)器人頻道