研究希望讓機器人具備類似人類的社交技能
為什么機器人永遠不能完全達到人類一樣的水平?其中一個理由是,因為機器人缺少類似人類的社交技能 。
但研究人員正在測試新方法,賦予機器人社交技能,以更好地與人類互動 。兩項新研究提供了此類研究取得進展的證據 。
其中一項試驗由麻省理工學院(簡稱MIT)的研究人員進行 。該團隊開發了一種用于自動駕駛車輛的機器學習系統,旨在學習其他司機的社會特征 。
研究人員研究了駕駛情況,以了解路上其他駕駛者可能有的行為方式 。因為不是所有人類駕駛員的行為方式都一樣,所以這些數據旨在教導無人駕駛車輛避免危險情況 。
研究人員表示,這項技術使用了從社會心理學領域借來的工具 。在這項實驗中,科學家開發了一個系統,以試圖確定一個人的駕駛風格是更為自私還是更加無私 。在道路測試中,配備這一系統的自動駕駛車輛預測其他司機行為的能力提高了25% 。
在一項測試中,研究人員觀察到自動駕駛車輛向左轉彎 。這項研究發現,如果預測到迎面而來的駕駛員會做出自私而且不安全的行為,那該系統會讓車輛在轉彎之前等待 。但是當迎面駛來的車輛被判定為無私時,那自動駕駛車輛會立刻轉彎,因為其認為出現不安全行為的風險很小 。
一篇報告介紹了這項研究,威爾科·施瓦廷是報告的主要作者 。他對麻省理工學院新聞網表示,任何與人類合作或在人類周圍工作的機器人都必須能有效地學習人類的意圖,以更好地理解人類的行為 。
施瓦廷說:“人類的合作或競爭傾向往往會滲透到他們的駕駛行為中 。”他還表示,麻省理工學院的實驗試圖了解系統在經過訓練后能否判斷和預測這類行為 。
這一系統旨在了解不同駕駛情況中應該采用的正確行為 。研究人員指出,舉例來說,即使是最自私的司機也應該知道,避免危險有時需要迅速且果斷的行動 。
麻省理工學院團隊計劃擴大其研究模型,以涵蓋自動駕駛車輛可能需要應對的其他問題 。這包括預測車輛周圍的行人以及在駕駛環境中發現的自行車和其他東西 。
研究人員表示,他們認為這項技術也能應用在人類司機駕駛的車輛上 。它可以作為預警系統,以應對其他被判定為行為激進的駕駛員 。
另一項社會實驗涉及人與機器人之間的游戲競賽 。卡內基梅隆大學的研究人員測試了機器人的“垃圾話”是否會影響與機器玩游戲的人類 。“垃圾話”是以消極或侮辱的方式談論某人,通常是為了讓他們犯錯 。
人形機器人“佩珀”被設計成會像人類對手說一些話,比如“我不得不說,你真是一個糟糕玩家” 。機器人還會說:“在游戲過程中,你的表現變得很混亂 。”
這項研究涵蓋每個人在35個不同時間與機器人玩游戲的情況 。該游戲名為《守衛與寶藏》,用于研究決策制定 。研究發現,遭到機器人批評的玩家在游戲中的表現通常要比得到稱贊的玩家差 。
該研究的主導研究員之一是卡內基梅隆大學軟件研究所的助理教授方菲(音譯) 。一篇新聞介紹了這項不同于大多數人類和機器人實驗的研究,里面提到了方菲的看法 。她說:“這是首批聚焦人類與機器人在非合作環境中進行互動的研究之一 。”
研究表明,人形機器人有能力像人類那樣在社交方面影響人類 。方菲說,預計未來人類和機器人會經常互動,而屆時這種能力就會變得更加重要 。
她說:“我們可以期待家庭助手能和我們合作 。但是在涉及網上購物等情形時,它們可能不會和我們有相同的目標 。”
布萊恩·林恩報道 。
譯文為可可英語翻譯,未經授權請勿轉載!