科學人新聞

你信任機器人嗎?

2020-03-01 哈森(Matthew Hutson)
研究顯示在未知的情況下,人類與AI能夠良好合作。


人工智慧(AI)產品可以假裝成人類,例如AI生成的語音可以透過電話預訂餐廳,或是由聊天機器人在線上回答顧客問題。隨著AI在這方面的能力持續改善,人們會越來越常陷入不安,得知真相後可能會降低這類產品的效益:最近的研究發現,在人與機器人的互動上,透明與合作難以兩全。


這項研究利用簡單而巧妙的遊戲,讓玩家同時做出一連串決定,看是要跟夥伴合作,還是背叛對方。從長遠來看,雙方持續合作會有好處,但背叛的誘因一直存在:若背叛對方(犧牲夥伴),短時間內便可以贏得更多分數。研究人員使用一種AI演算法,發現當AI假扮為人類時,人類比較願意與之合作。但先前研究顯示,人類總是不信任機器,所以科學家好奇,如果機器人揭露自己的身分,會發生什麼事?


研究團隊希望人們跟已知是機器人的對象玩遊戲時,會願意跟對方合作(而不是看對方好欺負),最終擺脫這份不信任感。美國紐約大學阿布達比分校(New York University in Abu Dhabi)資訊科學家拉萬(Talal Rahwan),是去年11月於《自然.機器智慧》(Nature Machine Intelligence)發表的論文資深作者,他說:「遺憾的是,我們沒有達成這項目標。無論演算法怎麼設定,人們始終持有偏見。」機器人公開以機器人的身分玩遊戲,人類就是不願意合作,即使合作策略明顯對雙方都有好處(在每種模式下,機器人都會玩50回合,至少與150人共同參與遊戲)。


在另一項實驗中,研究人員告訴玩家:「資料顯示,如果人們把機器人看成人類,遊戲結果會比較好。」但是效果不彰。


帶領瑞典于梅奧大學(Umea University)社會與倫理AI小組的迪格納姆(Virginia Dignum)並未參與這項研究,她讚揚研究人員探索透明與效率之間的妥協,但也希望看到在論文特殊設定以外的實驗。


這篇論文的作者群表示,在公共領域,應該徵求人們同意才能隱瞞機器人的身分,但也不能每次互動時都徵求同意,否則就無法達到隱瞞的目的。為偶一為之的隱瞞徵求全面同意,還是會引發道德難題。迪格納姆說,人類在跟機器人互動之後,應該有權得知對方身分。但她補充,如果只是打客服電話問些簡單問題,「我只想要得到答案。」


# 關鍵字:科學人新聞資訊科技
更多文章
活動推薦更多
追蹤科學人