這里是科學美國人——60秒科學系列,我是克里斯托弗·因塔格里塔
去年,谷歌推出了人工智能助手Duplex 。
“有什么需要我幫忙的?”
“你好,我打電話來為一名女客戶預約理發 。嗯,我想訂5月3日那天 。”
這是機器人在說話 。
“好的,請稍等 。”
“嗯,嗯 。”
“您想預約幾點理發?”
在演示中,機器助手從頭至尾都未表明自已是機器人 。谷歌因此飽受指責 。之后,他們澄清說,在安裝“內置披露”后才會發布這項技術 。
但這里存在一個兩難局面,因為《自然機器智能》期刊上的一項新研究表明,當機器人隱藏其機器身份時,其效率最高 。
“也就是說,它被允許模仿人類的時候 。”
紐約大學阿布扎比分校的計算社會科學家泰拉爾·拉萬說到 。他的團隊招募了近700名網絡志愿者,與人類或機器人玩“囚徒困境”,這是涉及談判、信任和欺騙的經典博弈 。一半時間里,志愿者被告知對手的真實信息 。另一半時間里,對陣角色是真人時,志愿者會被告知對方是機器人;或者當他們被告知與真人對弈時,其實對面只是個機器人 。
科學家發現,如果機器人模仿人類,那它們在這場談判博弈中的表現會非常出色 。
“當機器被謊報為人類時,它的表現要優于人類 。機器人比人類本身更具說服力;它能夠引導合作,說服對手與自已合作 。”
但一旦機器人的真實身份暴露,那其優越性就會消失 。拉萬說這指向了一個根本難題 。我們現在可以制造真正高效的機器人,執行任務能力甚至超越人類,但機器人的高效可能與它們隱藏身份的能力相關,這可能存在倫理問題 。
“那些會被機器人欺騙的人,正是最終不得不做出選擇的人 。否則,就會違反人類自主、尊重和尊嚴的基本價值 。”
在機器人與人類每次互動前征求人類的同意,這并不現實 。當然,這會暴露機器人的真實身份 。因此,我們作為群體必須要弄清楚:為了讓我們的生活更輕松一點,與假裝人類的機器人互動是否值得 。
“嗯,嗯 。”
謝謝大家收聽科學美國人——60秒科學 。我是克里斯托弗·因塔利亞塔 。
譯文為可可英語翻譯,未經授權請勿轉載!