好奇機器人能自學

科學家藉由模仿孩童探索世界,讓機器人自發學會基本技能,而這些研究也協助科學家更加了解大腦運作。

撰文╱權(Diana Kwon)

翻譯╱鍾樹人

好奇機器人能自學
好奇機器人能自學

2015年科幻電影「成人世界」(Chappie)中,工程師迪昂(Deon)想要創造能思考、有感受的機器人。為了達成這個目的,他寫了一套能像孩童一樣思考的人工智慧(AI)程式。迪昂的測試對象查皮(Chappie)一開始的心智狀態幾乎空白;查皮僅靠觀察周遭環境並摸索,習得常識、語言以及複雜的技巧──這是今日最先進的AI系統也辦不到的任務。

誠然,一些機器在特定任務上的表現已經超越人類,例如可進行「危險邊緣」(Jeopardy!)這類益智問答的電玩遊戲、下西洋棋和圍棋。去年10月,英國深度心智(DeepMind)公司發表了最新一代的圍棋AI系統AlphaGo Zero。前一代的AlphaGo要「探勘」人類下過的大量棋局才能精通圍棋;AlphaGo Zero則藉由與自己競賽而自主累積經驗,雖然成效出色,卻只限於學習規則明確的遊戲,而且必須進行上幾百萬次,才能獲得超乎常人的技巧。

相較之下,人類嬰幼兒會探索環境,嘗試各種活動及練習說話,從嬰兒期就開始不斷成長。他們累積經驗,適應新的狀況,並把學會的技能應用到其他方面。

21世紀初,機器人學家、神經科學家和心理學家期望打造能模仿這類自發成長的機器。他們合力打造的類人形機器人(android)可以拿起物品、習得基本字彙和數學技能,甚至顯現社會行為的跡象。在此同時,這些AI系統正在協助心理學家了解嬰兒的學習方式。

大腦神經訊號的雙向傳遞

我們的大腦無時無刻都在預測,並會調整預測以符合現實。舉例來說,你第一次遇到鄰居養的貓,預期牠就像自己養的狗喜歡與人互動,也會喜歡你撫摸牠,然而當你伸手輕撫這隻貓,牠卻抓傷你。你調整關於惹人憐愛動物的理論;你可能還推測,若拿東西給貓吃,牠會表現得友善一些。一旦你手上拿著好吃的東西,這隻貓確實不再弄傷你、接受你摸牠。下次你遇到毛茸茸的貓科動物,在想要摸牠之前便會拿出一小片鮪魚。

依照這種方式,大腦中較高階的處理中心會根據感官接收到的訊號持續調整預測。以我們非常複雜的視覺系統為例,神經細胞會處理影像的基本特徵,接著把這些資訊傳遞到更高階區域;此區域詮釋景象的整體意義。有趣的是,神經連結也會反向進行:從高階處理中心(例如頂葉皮質或顳葉皮質)到低階處理中心(例如主要視覺皮質和外側膝狀核)。一些神經科學家相信,這些「向下」的連結會把大腦的預測傳遞至較低階區域,影響我們看到的東西。

關鍵在於,來自大腦較高階區域的向下訊號會持續與來自感官的「向上」訊號交互作用,得出預測誤差:預測與現實之間的差異(參見34頁〈雙向訊號調整預測〉)。關於這項誤差的訊號會回傳到較高階區域,協助調整預測,以產生新的預測,如此循環不已。美國華盛頓大學的計算神經科學家勞烏(Rajesh P. N. Rao)說:「預測誤差的訊號能讓視覺系統逐漸判斷實際存在的事物。」

當勞烏還是英國羅徹斯特大學的博士生時,他和指導教授、現任教於美國德州大學奧斯丁分校的計算神經科學家巴拉德(Dana H. Ballard)率先在人工神經網路中測試這類預測程式。(人工神經網路是模仿生物神經元機制的電腦演算法,會逐步調整內部參數,依據既有的輸入產生所需的輸出。)這項計算實驗發表於1999年1月《自然.神經科學》,研究人員模擬了視覺皮質中的神經元連結──不但有傳遞預測的向下連結,也有來自外界的感官訊號的向上連結。他們使用大自然的照片訓練人工神經網路,發現人工神經網路能夠學會辨識影像的關鍵特徵,例如斑馬條紋。

運用肢體幫助學習

我們人類和現今許多AI系統的基本差異在於,我們擁有能行走與活動的身體。嬰幼兒觀察周遭事物,並嘗試用手或腳接觸事物來認識世界。他們自行學會如何走路、說話,以及辨認物體或人。兒童如何能在幾乎沒有任何導引下做到這些事,對發展心理學家和機器人學家來說都是兩個領域研究的關鍵。雙方的合作迸發令人驚喜的深刻見解。

從1990年代後期開始的一連串開創性實驗中,當時任職於日本索尼(Sony)電腦科學實驗室的機器人學家谷淳(Jun Tani)和同事研發出學習基本動作的預測型(prediction-based)神經網路,並把這些演算法應用在機器人測試成效。他們發現,這些機器人可以學會基本技能,例如探索簡單環境、模仿手部動作、聽從「瞄準」或「打擊」這類基本口令。

最近,英國普利茅斯大學的機器人學家坎傑洛西(Angelo Cangelosi)和美國印第安納大學布隆明頓校區的發展心理學家史密斯(Linda B. Smith)證實身體對獲取知識的重要性。史密斯說:「(機器人)的身形以及它能完成事項的種類,會影響它獲取經驗,進而從經驗中學習。」這群科學家主要的測試對象之一是iCub。iCub是身高約90公分的類人形機器人,由義大利技術研究院的一組團隊所打造。它沒有預置程式,科學家能在它身上測試實驗所需的演算法。

2015年一項研究中,坎傑洛西和史密斯等人對iCub設置一套人工神經網路,賦予它學習簡單聯想的功能,他們發現,當物品名稱一直和特定身體動作連結,iCub比較容易記下新字。研究人員不斷把球或杯子拿到iCub的左邊或右邊,它就會把物品和觀察物品的動作(例如抬頭)聯想在一起。接著他們把這個動作和物品名稱配對,一旦這個物品出現在某個特定位置,而不是在多個位置,機器人更容易記得這些基本字彙。

有趣的是,研究人員對16個月大的嬰兒進行相同實驗,獲得了類似結果:當物品和特定動作產生連結,便能幫助嬰兒聯想進而學習字彙。坎傑洛西的實驗室正在研發這項技術,教導機器人更抽象的字彙,例如沒有與特定物品連結的「這」或「那」。

孩童或機器人透過肢體,也能幫助他們習得基本數學技能,例如有研究顯示,不擅長運用手指的孩童,算數能力通常也較弱。2014年一項研究中,坎傑洛西的團隊發現,比起只用數字名稱教導機器人,教導它們以手指算數,人工神經網路更能精確算出數字。

【欲閱讀更豐富內容,請參閱科學人2018 年第 194 期 04 月號】