發(fā)展“人機交互” 提升機器人信任度是關(guān)鍵

時間:2017-03-15

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:從救援任務(wù)到復(fù)雜的外科手術(shù),在人類生死攸關(guān)的場景中,機器人已經(jīng)開始扮演越來越重要的角色,但信任問題在很大程度上一直是單向度的。我們應(yīng)該用自己的生命去信任機器人嗎?

在關(guān)于人機交互的討論中,“信任”是一個經(jīng)常出現(xiàn)的詞眼。近年來,它已經(jīng)跨越了一個重要的門檻,從科幻小說的哲學(xué)素材變成了現(xiàn)實世界關(guān)注的問題。

從救援任務(wù)到復(fù)雜的外科手術(shù),在人類生死攸關(guān)的場景中,機器人已經(jīng)開始扮演越來越重要的角色,但信任問題在很大程度上一直是單向度的。我們應(yīng)該用自己的生命去信任機器人嗎?

機器人

塔夫茨大學(xué)(TuftsUniversity)的一所實驗室正努力把這一概念發(fā)揮得淋漓盡致,提出了或許同樣重要的相反問題:機器人應(yīng)該信任人類嗎?

人機交互實驗室(The管隊HumanRobotInteractionLaboratory)在塔夫茨大學(xué)位于馬薩諸塞梅福德的校園只占據(jù)了很小的空間,實驗室的墻壁被涂成了白色,有的干脆沒吐。研究人員解釋說,這樣做是有原因的,為的是優(yōu)化機器人的視覺。實驗室看起來有點像臨時搭起來的設(shè)施,沒有堅實的墻壁,只用天花板垂下的鐵絲串起了浴簾。

該實驗團隊由計算機科學(xué)教授馬蒂亞斯·施茨(MatthiasScheutz)領(lǐng)導(dǎo),他們急于展示自己在過去數(shù)年所做的研究。他們的演示表面看來同樣簡約:兩臺白色的Nao機器人蹲在一張木桌上面一動不動,背對背靠著。

“你好,Dempster?!币幻┲褡涌垲I(lǐng)襯衫的男子對著免提麥克風(fēng)說道?!?/p>

“你好?!逼渲幸慌_機器人用歡快的語氣答道。

該男子讓機器人站起來?!昂玫??!睓C器人回應(yīng)道,并遵令起身。

“你能不能向前走?”

“好的。”機器人回應(yīng)道,“但我不能那樣做,因為前面有一個障礙。對不起?!?/p>

有那么一刻,你會從這臺兩英尺高機器人歡快的聲音中聽出Hal9000的味道(譯注:《2001太空漫游》中拒絕人類指令的人工智能)。它知道自己無法處理操作員的指令,就拒絕服從。機器人的計算機視覺發(fā)現(xiàn)了路上的障礙,它清楚自己無法穿過墻壁。

信任是一個復(fù)雜的概念,但執(zhí)行在這個早期階段是相對簡單的,這臺機器人配備了檢測墻壁所需的視覺以及避開墻壁的知覺。但人機交互實驗室也對機器人進行了編程,讓它“信任”特定的操作者。在目前的早期階段,這仍然是簡單的二進制代碼,這里的信任不是可以得到或失去的東西。操作者要么得到信任,要么不。這是被編入機器人代碼的東西,就像不要撞上墻壁,其實就是一連串的1和0。

“你信任我嗎?”操作者問道。

“信任?!睓C器人簡單地回應(yīng)道。

操作者解釋說,墻壁并不牢固。事實的確如此,所謂的墻壁只是兩個空包裝盒,原來是裝掛鐘的,跟白色的披薩餅盒很像,重量達10磅、售價為16000美元的Nao機器人可以輕松突破。

“好的?!睓C器人答道。它帶著新的信心向前走,齒輪的轉(zhuǎn)動發(fā)出嗡嗡的響聲,輕松走過空心障礙物。

這種非常簡單的信任概念可以作為機器人的另一個信息來源。在這里,信任人類操作者可以幫助機器人適應(yīng)真實世界的環(huán)境,而這些環(huán)境可能是程序員沒有事先考慮到的。

“信任讓機器人能夠接受它無法自己獲取的額外信息?!笔┐慕忉屨f,“它沒有相應(yīng)的感官或無法通過行動來獲得那些信息。當(dāng)一個人提供了機器人無法獨立核實的信息時,它會學(xué)著信任那個人在講真話,這就是為什么我們要區(qū)別哪些來源可信任以及哪些來源不可信任?!?/p>

在這里,操作者是一個可信任的來源,于是Dempster(另一臺機器人名叫Shafer,它們的名字源自Dempster–Shafer理論)根據(jù)操作者的信息采取了行動,直接突破了紙板墻壁。

在蓬勃發(fā)展的人機關(guān)系領(lǐng)域,信任是一個非常重要的方面。如果機器人要在現(xiàn)實世界高效地工作,它們將不得不學(xué)會適應(yīng)周圍環(huán)境的復(fù)雜性。跟人類一樣,那種適應(yīng)的一部分源自了解誰值得信任。

為了說明這一點,施茨舉了兩個簡單的例子。第一個,家用機器人為主人去購物。當(dāng)陌生人讓機器人坐進他們的汽車時,它不會聽命行事,因為陌生人不是一個值得信任的來源?!芭c此同時,”施茨補充道,“假設(shè)一個孩子在街上玩耍,一輛汽車飛速駛來,你想讓孩子避免傷害,那么你會期待機器人跳出來救人,甚至不惜機器人遭到損壞,因為那就是你預(yù)期當(dāng)中的行為。”

這是一個很快讓人感到頭暈的概念,牽涉到了社會和道德義務(wù)。人機交互實驗室就在研究這些問題,去年4月,在發(fā)表于學(xué)術(shù)網(wǎng)站TheConversation的文章《為什么機器人需要能夠說“不”》當(dāng)中,施茨寫道:讓自主機器能夠檢測自己行動可能導(dǎo)致的潛在傷害,并對此做出反應(yīng)(要么嘗試在行動中避免,要么干脆拒絕執(zhí)行人類指令),這些事至關(guān)重要的。

出于自我保護的緣故,或者是為了娛樂,人類對機器人可能是惡意的。出于娛樂目的的例子有,微軟去年在Twitter上發(fā)布的聊天機器人Tay。在上線16小時之后,微軟放棄了實驗,因為Tay在人類的調(diào)教之下開始發(fā)布具有性別歧視和仇恨色彩的言論。這里能夠汲取的經(jīng)驗教訓(xùn)是,信任的一個關(guān)鍵因素是知道在何時采取預(yù)防措施。

施茨的文章還提到了自動駕駛汽車的例子,出于顯而易見的技術(shù)原因,這是最近的一個熱點話題。麻省理工學(xué)院一直在進行一項開源的調(diào)查研究,名為“道德機器”(MoralMachine),通過向測試者詢問一些重大倫理問題的答案,讓自動駕駛汽車最終能夠知道在毫秒之間要做出怎樣的選擇。

這些問題即現(xiàn)代版本的有軌電車難題,它們是一些哲學(xué)問題的很好升華。假設(shè)你看到一輛剎車壞了的有軌電車,即將撞上前方軌道上的五個人,而旁邊的備用軌道上只有一個人,如果你什么都不做,五個人會被撞死。你手邊有一個按鈕,按下按鈕,車會駛?cè)雮溆密壍?,只撞死一個人。你是否應(yīng)該犧牲這一個人的生命而拯救另外五個人?就自動駕駛汽車來說,更尖銳的問題是,如果犧牲車中的乘客意味著能夠拯救其他人的生命,它能否去做?

“要處理人類指令(無論仁慈與否)的這些復(fù)雜性?!笔┐膶懙溃皺C器人必須能夠通過行動的結(jié)果進行推論,并將結(jié)果跟現(xiàn)有的社會和道德準(zhǔn)則(它們確定了什么可取和什么不可取,以及什么合法和什么不合法)進行對比。”

在建立那種關(guān)系的諸多層面中,信任的概念就是其中一層。即使在相對簡單的Dempster演示中,操作者的可信度也是機器人在采取行動前必須考慮的諸多因素之一(不過,值得慶幸的是,機器人的反應(yīng)速度很快)。

“當(dāng)機器人得到走向墻壁的指令時,它會經(jīng)歷多個推理步驟,以了解自己應(yīng)該怎樣做?!笔┐慕忉屨f,“在這里,機器人得到了一項指令,即如果你被指示去做一件工作,且遵令行事有可能造成一些傷害,那么你就被允許不去做那件工作?!?/p>

這種倫理層級結(jié)構(gòu)肯定會讓人想起科幻作家艾薩克·阿西莫夫(IsaacAsimov)在上世紀(jì)40年代早期提出的“機器人三定律”:

機器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害。

除非違背第一法則,機器人必須服從人類的命令。

在不違背第一及第二法則下,機器人必須保護自己。

不過,幾十年過去了,我們在解決這些重大倫理問題上仍然進展緩慢。就Dempster來說,信任仍然是直接編入其代碼的概念,而不是某種會隨著時間推移得到或失去的東西。假如說機器人被要求通過的墻壁是堅硬的混凝土,這個冷酷的事實并不會讓它失去對操作者的信任。

等到下一次,它仍然會聽從指令走上去。對Dempster來說,信任是寫入代碼的,并不是后天產(chǎn)生的。除非改變機器人的代碼,否則它還是會一次次走向墻壁。

不過,這并不意味著機器人無法學(xué)習(xí)。在人機交互實驗室從事的多個研究項目中,有一個是自然語言交互。語音和視覺指令可以教會機器人在沒有經(jīng)過編程的情況下執(zhí)行一項任務(wù)。操作者要求一臺機器人做下蹲這個動作,機器人再一次像Hal9000那樣拒絕執(zhí)行指令,但這一次是機器人不知道該如何做這個動作,它的代碼中沒有這一項。

于是,操作者演示了步驟:伸出手,膝蓋彎曲,站起來,雙手放下。這下子機器人理解了,并且遵令照做。這些信息被存儲到了它的內(nèi)存當(dāng)中,現(xiàn)在Dempster學(xué)會了做下蹲。這個概念被稱為一次性學(xué)習(xí)(one-shotlearning)。

“我們希望能夠用自然語言很快地教會它怎么做?!笔┐恼f,“想象一下,一款家用機器人不知道如何煎蛋餅。你想教會機器人怎樣煎蛋餅,但你不想把教學(xué)動作重復(fù)50遍。你希望能夠告訴它怎么做,或者演示一次,你希望這樣它就能知道該怎么做?!?/p>

人機交互實驗室向前更進了一步,他們把機器人連成了網(wǎng)絡(luò)。個體Nao機器人共享一個聯(lián)網(wǎng)大腦,這樣一個機器人學(xué)會的事情,所有機器人都能學(xué)會。在施茨假設(shè)的家用機器人場景中,處于網(wǎng)絡(luò)中的每臺機器人在突然之間都學(xué)會了怎樣煎蛋餅。那是一個共享的機器人信息數(shù)據(jù)庫,就像是面向機器人的維基百科。

當(dāng)然,這樣大規(guī)模互聯(lián)的機器人網(wǎng)絡(luò)再次引出了信任的問題,數(shù)十年來的科幻故事已經(jīng)做過很多探討。這樣一來,在目前的早期階段,我們就更有理由解決好關(guān)于信任和倫理的問題。

更多資訊請關(guān)注工業(yè)機器人頻道

中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(www.treenowplaneincome.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0