好奇機器人能自學-科學人雜誌
人工智慧

好奇機器人能自學

2021/08/06 權(Diana Kwon)
科學家藉由模仿孩童探索世界,讓機器人自發學會基本技能,而這些研究也協助科學家更加了解大腦運作。

重點提要

  1. 幼兒能夠自主學習,例如運用肢體或拿東西來玩。
  2. 機器學家在類人形機器人裝設人工神經網路,讓它們模擬孩童學習。
  3. 這類機器人研究正在改變機器人學,並讓我們以不同方式了解兒童的心智發展。


2015年科幻電影「成人世界」(Chappie)中,工程師迪昂(Deon)想要創造能思考、有感受的機器人。為了達成這個目的,他寫了一套能像孩童一樣思考的人工智慧(AI)程式。迪昂的測試對象查皮(Chappie)一開始的心智狀態幾乎空白;查皮僅靠觀察周遭環境並摸索,習得常識、語言以及複雜的技巧──這是今日最先進的AI系統也辦不到的任務。


誠然,一些機器在特定任務上的表現已經超越人類,例如可進行「危險邊緣」(Jeopardy!)這類益智問答的電玩遊戲、下西洋棋和圍棋。去年10月,英國深度心智(DeepMind)公司發表了最新一代的圍棋AI系統AlphaGo Zero。前一代的AlphaGo要「探勘」人類下過的大量棋局才能精通圍棋;AlphaGo Zero則藉由與自己競賽而自主累積經驗,雖然成效出色,卻只限於學習規則明確的遊戲,而且必須進行上幾百萬次,才能獲得超乎常人的技巧。


相較之下,人類嬰幼兒會探索環境,嘗試各種活動及練習說話,從嬰兒期就開始不斷成長。他們累積經驗,適應新的狀況,並把學會的技能應用到其他方面。


21世紀初,機器人學家、神經科學家和心理學家期望打造能模仿這類自發成長的機器。他們合力打造的類人形機器人(android)可以拿起物品、習得基本字彙和數學技能,甚至顯現社會行為的跡象。在此同時,這些AI系統正在協助心理學家了解嬰兒的學習方式。


大腦神經訊號的雙向傳遞


我們的大腦無時無刻都在預測,並會調整預測以符合現實。舉例來說,你第一次遇到鄰居養的貓,預期牠就像自己養的狗喜歡與人互動,也會喜歡你撫摸牠,然而當你伸手輕撫這隻貓,牠卻抓傷你。你調整關於惹人憐愛動物的理論;你可能還推測,若拿東西給貓吃,牠會表現得友善一些。一旦你手上拿著好吃的東西,這隻貓確實不再弄傷你、接受你摸牠。下次你遇到毛茸茸的貓科動物,在想要摸牠之前便會拿出一小片鮪魚。


依照這種方式,大腦中較高階的處理中心會根據感官接收到的訊號持續調整預測。以我們非常複雜的視覺系統為例,神經細胞會處理影像的基本特徵,接著把這些資訊傳遞到更高階區域;此區域詮釋景象的整體意義。有趣的是,神經連結也會反向進行:從高階處理中心(例如頂葉皮質或顳葉皮質)到低階處理中心(例如主要視覺皮質和外側膝狀核)。一些神經科學家相信,這些「向下」的連結會把大腦的預測傳遞至較低階區域,影響我們看到的東西。


關鍵在於,來自大腦較高階區域的向下訊號會持續與來自感官的「向上」訊號交互作用,得出預測誤差:預測與現實之間的差異(參見34頁〈雙向訊號調整預測〉)。關於這項誤差的訊號會回傳到較高階區域,協助調整預測,以產生新的預測,如此循環不已。美國華盛頓大學的計算神經科學家勞烏(Rajesh P. N. Rao)說:「預測誤差的訊號能讓視覺系統逐漸判斷實際存在的事物。」


當勞烏還是英國羅徹斯特大學的博士生時,他和指導教授、現任教於美國德州大學奧斯丁分校的計算神經科學家巴拉德(Dana H. Ballard)率先在人工神經網路中測試這類預測程式。(人工神經網路是模仿生物神經元機制的電腦演算法,會逐步調整內部參數,依據既有的輸入產生所需的輸出。)這項計算實驗發表於1999年1月《自然.神經科學》,研究人員模擬了視覺皮質中的神經元連結──不但有傳遞預測的向下連結,也有來自外界的感官訊號的向上連結。他們使用大自然的照片訓練人工神經網路,發現人工神經網路能夠學會辨識影像的關鍵特徵,例如斑馬條紋。


運用肢體幫助學習


我們人類和現今許多AI系統的基本差異在於,我們擁有能行走與活動的身體。嬰幼兒觀察周遭事物,並嘗試用手或腳接觸事物來認識世界。他們自行學會如何走路、說話,以及辨認物體或人。兒童如何能在幾乎沒有任何導引下做到這些事,對發展心理學家和機器人學家來說都是兩個領域研究的關鍵。雙方的合作迸發令人驚喜的深刻見解。


從1990年代後期開始的一連串開創性實驗中,當時任職於日本索尼(Sony)電腦科學實驗室的機器人學家谷淳(Jun Tani)和同事研發出學習基本動作的預測型(prediction-based)神經網路,並把這些演算法應用在機器人測試成效。他們發現,這些機器人可以學會基本技能,例如探索簡單環境、模仿手部動作、聽從「瞄準」或「打擊」這類基本口令。


最近,英國普利茅斯大學的機器人學家坎傑洛西(Angelo Cangelosi)和美國印第安納大學布隆明頓校區的發展心理學家史密斯(Linda B. Smith)證實身體對獲取知識的重要性。史密斯說:「(機器人)的身形以及它能完成事項的種類,會影響它獲取經驗,進而從經驗中學習。」這群科學家主要的測試對象之一是iCub。iCub是身高約90公分的類人形機器人,由義大利技術研究院的一組團隊所打造。它沒有預置程式,科學家能在它身上測試實驗所需的演算法。


2015年一項研究中,坎傑洛西和史密斯等人對iCub設置一套人工神經網路,賦予它學習簡單聯想的功能,他們發現,當物品名稱一直和特定身體動作連結,iCub比較容易記下新字。研究人員不斷把球或杯子拿到iCub的左邊或右邊,它就會把物品和觀察物品的動作(例如抬頭)聯想在一起。接著他們把這個動作和物品名稱配對,一旦這個物品出現在某個特定位置,而不是在多個位置,機器人更容易記得這些基本字彙。


有趣的是,研究人員對16個月大的嬰兒進行相同實驗,獲得了類似結果:當物品和特定動作產生連結,便能幫助嬰兒聯想進而學習字彙。坎傑洛西的實驗室正在研發這項技術,教導機器人更抽象的字彙,例如沒有與特定物品連結的「這」或「那」。


孩童或機器人透過肢體,也能幫助他們習得基本數學技能,例如有研究顯示,不擅長運用手指的孩童,算數能力通常也較弱。2014年一項研究中,坎傑洛西的團隊發現,比起只用數字名稱教導機器人,教導它們以手指算數,人工神經網路更能精確算出數字。


啟動「好奇心」


新奇事物也可幫助孩童學習。2015年刊登於《科學》期刊的一篇論文中,美國約翰霍普金斯大學的研究人員指出,當嬰幼兒碰到不符合預期的事(例如堅硬物體看似穿牆而過),會想去探究原因。簡單說,減少預測誤差的內在動力會幫助他們成長。


法國資訊暨自動化研究院(INRIA)的機器人學家烏德耶(Pierre-Yves Oudeyer)相信,學習過程其實更為複雜。他認為孩童會以驚人的熟練手法主動在環境中尋找更能提供學習機會的物品,例如孩童可能會選擇玩具車,而不是100片拼圖;或許他的知識水準讓他較容易對玩具車產生可驗證的假設。


為了測試這項理論,烏德耶等人對機器人裝設的系統,包含了一項稱為內在動機(intrinsic motivation)的功能──減少預測誤差會獲得獎勵。(對AI來說,獎勵相當於依程式設定透過運算獲得最大化的數值。)愛寶(AIBO)是索尼推出的小型機器狗,具備基本的感覺與動作功能,上述機制能讓愛寶自動尋找最具學習潛力的任務。愛寶能學會基本技能,例如抓住物體、與另一隻機器狗以聲音互動;它不需預置程式就能達成這些特定任務。烏德耶解釋,這個結果是「機器人探索世界的副作用,它的目的是改善預測。」


值得注意的是,即使有眾多機器人經歷類似訓練階段,學習成效仍不盡相同。有些機器人探索較少,有些則較多,最後它們會知道不一樣的事。對烏德耶來說,這些不同的成效顯示,即使機器人搭載相同的人工神經網路並處於類似的學習環境,仍可能獲得不同的技能水準──這很像一般教室裡學生的情形。


最近,烏德耶的團隊透過數值模擬,展示了配備這些預測演算法(與獨特硬體)的機器聲道也能學會語言的基本要素。他現在和美國哥倫比亞大學的認知神經科學家高特里布(Jacqueline Gottlieb)合作,研究這類由預測驅動的內在動機是否也是人類好奇心的神經生物學基礎。烏德耶表示,進一步探究這些模型可以幫助心理學家了解發育障礙孩童的大腦情況。


預測誤差引發社交

當我們與其他人互動時,大腦也在設法預測未來:我們一直嘗試推測別人的意圖,預期他們接下來可能會說的話。有趣的是,減少預測誤差的動機就能引發基本的社交行為,機器人學家長井志江(Yukie Nagai)等人已於2016年在日本大阪大學證明了這一點。

研究人員發現,即使沒有透過程式讓iCub具備內在的社交功能,光是縮小預測誤差的動機,也會讓它以有效方式做出動作。例如,研究人員教導iCub推動玩具卡車後,它有時會看見研究人員無法把卡車推到正確位置,但它通常還是會完成同樣的動作;僅為了增加卡車出現在特定位置的精確度。現任職於日本情報通信研究機構(NICT)的長井志江相信,嬰幼兒也可能以類似方式發展技能。她指出,「嬰兒不需要幫助他人」,單單降低預測誤差的動機就能引發基本的社交行為。

「預測處理」(predictive processing)或許能幫助科學家了解自閉症這類發展疾病。根據長井志江的說法,一些自閉症患者可能對預測誤差比較敏感,承受不住接踵而來的感官資訊,這可以解釋他們反覆固定的行為,因為容易預測結果。

荷蘭拉德邦大學的認知心理學家貝克林(Harold Bekkering)相信,預測處理也能幫助科學家解釋注意力不足/過動症(ADHD)患者的行為。貝克林解釋,根據這項理論,自閉症患者不喜歡受外界事物干擾,無法專心的人則是難以預測環境中的刺激,並會不斷接收到這些刺激。他說:「一些對世界敏感的人會探索世界,對世界太敏感的人則會封閉自己。在預測程式架構中,你可以精確模擬這兩種模式。」他的實驗室正利用人腦造影來測試這項假設。

長井志江希望透過認知鏡像(cognitive mirroring)研究來評估這項理論;在這項研究中,裝設預測學習演算法的機器人會與人類互動。機器人透過肢體語言與臉部表情跟人類溝通時,會配合人類調整行為,因此可以反映人類對可預測性的偏好。如此一來,研究人員就能利用機器人模擬人類認知,然後檢視機器人的人工神經網路,設法解譯人腦。長井志江說:「我們可以把自己的特質輸出到機器人,以更加了解自己。」

以機器人探索心智

研究這類機器人有助於解答心理學的一些關鍵問題,包括預測處理以及身體在認知發展上的重要性。史密斯說:「我們已學到關於複雜系統如何運作、身體的重要性,(以及)一些非常基本的事,例如探索與預測。」

然而,可以展現人類智慧般的機器人,仍是遙不可及的夢想--查皮依然是科幻故事。在此之前,科學家必須克服技術障礙,例如多數機器人的身體結構太脆弱、感覺性能也有限。(柔軟機器人與電腦視覺這類領域的進展或許有所幫助。)更加困難的是,人腦構造極度複雜。雖然很多尖端研究極力模仿人類心智,科學家還是無法打造出堪可比擬的機器。烏德耶說:「我完全不同意有些人所言,在10或20年內就會出現人類智慧水準的機器。我想這顯示人們對人類智慧的複雜度有很深的誤解。」

再者,智慧不能只憑藉正確的機器與電路。一連串研究已經證明,照護與教育對兒童發展至關重要。谷淳說:「如果你問我,機器人能否變得像人類一樣,我會問你,人類是否能像管教孩童一樣管教機器人。如果後者成真,前者才有可能發生,否則我們無法期望機器人像孩童一樣成長。」

逐漸累積知識的過程也不可或缺。史密斯說:「兒童發展是很複雜的級聯系統(system of cascades)。某一天發生的事會成為(日後)發展的基礎。」她指出,因此,除非找到方法整合人類一生循序漸進的學習過程,在此之前,我們不太可能打造出人類智慧水準的AI。

費曼(Richard Feynman)在過世前寫下這句名言:「我不能創造的東西,我就不了解。」谷淳在2016年出版的著作《探索機器人心智》(Exploring Robotic Minds)中,調換了這個概念,他說:「我可以了解我能創造的東西。」他主張,了解人類心智最好的辦法,就是創造一個。 將來,人類或許可以成功創造出能像孩童一樣探索、適應與心智得以成長的機器人,或許還需要有人類的照顧與管教,讓機器人健全成長。在此之際,這類機器人研究將持續展現關於孩童學習的珍貴見解,並且揭露AI基本機制出錯時可能發生的事。

# 關鍵字:人工智慧機器人AI NEXT
更多文章
活動推薦更多
追蹤科學人