e ai,e hai,AI不是面相學-科學人雜誌
科學人觀點

e ai,e hai,AI不是面相學

2020-11-01 曾志朗
好的科學進展,是結合嚴謹的科學態度、數學運算般精密的推測,加上沒有偏見的取樣,以及正確不誇大的結論,最重要的是還要有責任感!
(ublic Domain Mark 1.0 (c) National Trust, Fenton House; Supplied by The Public Catalogue Foundation). Illustration by Brian Stauffer SOURCES: “FACE VALUES,” BY DORIS Y. TSAO, INSCIENTIFIC AMERICAN, VOL. 320, NUM. 2; FEBRUARY 2019. By Unknown artist; uploaded to wikipedia by Silverwhistle - Richard III Society website via English Wikipedia, Public Domain.)


早上7點半左右,我開車到學校圖書館附近,把車停在平日停放的位置。推開車門,迎面而來的微風有絲絲涼意,正是個秋高氣爽的好天,我回頭拿件輕薄的夾克披上,拎起背包,鎖上車,準備搭電梯,開始一天的工作。忽然聽到背後一串呼喊聲,急促叫著:「曾教授,曾教授??」,聽來十分熟悉。我停下腳步,轉身一看,果然是每天早上都到校園運動、時不時和我打招呼的老婦人。她一身運動裝扮,臉上紅潤,額頭細細的汗珠滲濕了白髮,滴掛在稀疏的瀏海邊,應該是剛剛練完例行的太極拳,看到我下車,就追過來叫我,大概有事找我吧!


我等著她開口,見她有點喘,安撫她說:「慢慢來,別急。」她順了順氣,國台語參半的問:「按呢我無客氣,要請教你這位大教授,啥米叫AI?我們家那個孫子讀這間大學的藝術系,他畫畫最『水』了,從小就被老師稱讚,但現在快畢業了,忽然說要去補習班學AI啦!一天到晚,AI醬子,AI釀子,說個不停。曾教授,我想要向您請教,AI是啥米碗糕?e ai(會唉)有啥米好補習的?真的是e hai(會害)喔!」


我覺得很有趣,尤其她那抑揚頓挫的道地閩南語聲調,從AI到e ai到e hai,令人莞爾。我安慰她:「您孫子想要學AI,很好啊!讀藝術,結合現代高科技電腦應用,就是AI啦,叫做人工智慧。AI現在很紅,被應用到各個領域,包括藝術。您別煩惱,您孫子一定會創造出『卡水』的作品!」老婦人聽了稍稍安心,連連感謝:「這樣就要趕快讓我孫子去好好學!」她滿意的和我道聲再見,轉身往校門走去(因為Covid-19疫情,上課時間一到,校園開始管制了),我也轉身走向研究大樓,準備上工去了!


坐在桌前,螢幕頁面和文字隨著手上滑鼠移動,出現不同訊息,但我卻心不在焉。也許是受到老婦人詢問AI的影響,我想到不久前看到的一篇論文,研究者利用AI技術分析古代肖像畫的臉部表情,因而追溯歐洲人在社會信任的歷史發展。這篇文章之所以引起我的注目,不只是它刊登在《自然.通訊》(Nature Communications)期刊上,還因為它把AI應用到藝術品,得出人類某一社會現象的發展規律,確實頗有創意,也凸顯了AI計算無遠弗屆、無疆無域的魔力。「機器學習」和「畫作」正是我向老婦人所說的AI和藝術的結合,而它也確實產出新的創意。只不過,第一次讀這篇文章感到出奇,AI分析的步驟也中規中矩,結論更是根據分析的結果,點出公元1500到2000年之間,歐洲人在社會信任向度的演化規律,但我卻隱約覺得哪裡不對勁,所以日也思,夜也想!和老婦人對AI的談話,又把我帶到這篇論文的思考中。


這篇論文是四位法國認知科學家的合作研究,先採用一套已經完成的機器學習算則,讓機器學會根據肖像畫裡的臉部表情(如肌肉收縮、笑容和眉毛的動態等)來評斷肖像人物的可信任度,再利用這個機器學習算則,經過訓練後所學會的內在準則,去分析由英國國家肖像館所提供的1962張人物肖像畫,年代從公元1502到2016,並評定每一張肖像所呈現的可信任度。最後,再把所得的人像信任度和肖像人物所處年代的社會背景的不同向度做相關比對。結果發現,肖像代表的可受信任度,在公元1500到2000年間剛好和社會發生的暴力事件數成反比(即被信任度高,犯罪率較低),也和西歐社會的民主開放程度成正比(即被信任度高,民主化的程度較高)。很有趣的信任度演化的歷史發展規律,而且頗為符合一般常識所想像的規律。


研究者用同樣的方法去檢視另一組肖像,他們從「Web Gallery of Art」這個虛擬的美術館網站,分析4106幅由公元1360至1918年,橫跨西歐19個國家的人物肖像。結果重複了第一次實驗的分析,而幾個不同社會向度(例如對宗教的包容、政治自由和民主興起等)和肖像被信任度的相關結果,也再度證實原先信任度的演化結論。為了建立這個分析方法的信度,他們進一步將這個算則應用在社群網站Instagram上,檢視2013年曼谷、柏林、倫敦、莫斯科、紐約和聖保羅六個城市居民上傳的自拍照,也得出相同結果。也就是說,在人際信任度和合作度較高的國家,人像照的可信任度也較高。


接下來,研究者還估算了肖像人物當年的經濟收入,發現被信任度和社經地位高低也成正比(即社會收入高的世代,肖像所呈現的被信任度也是高的),又是一項好像符合常理判斷的結果。


把機器學習算則應用到博物館所收藏的肖像畫分析,導出社會信任度的歷史演化規律,也凸顯不同社會向度的相關性,這樣的研究方法真的讓人耳目一新,AI的應用能量也真是令人刮目相看。然而,這篇登在科學界具權威指標的期刊的論文,實際上教人忐忑不安,甚至毛骨悚然。腦中警鈴大作的,不只是我,還包括學界許多人,原因是這個研究在方法上有缺陷,在結論上也犯了過份誇大和以偏概全的毛病。


首先,機器學習算則的公正性,乍看無可挑剔,它應是六親不認的。但最初學習目標的定義是誰訂定的?信任度的標準,一開始就是研究者的主觀判定。機器學習根據這些標準,學會判定肖像表情的可信任度,而誰能保證那些研究者界定的肖像臉部表情確實值得信任呢?例如有意或無意的顏色指標,就可能參雜主觀的偏見,而且幾千張肖像中,又有多少比例是黑人、窮人呢?以本頁上圖為例,左右兩張肖像都是英王理查三世,但色調深淺有別。有顏色偏見的機器學習算則,就會把顏色較深的左邊肖像判定為較不可信任。這當然是很有爭議的,況且能被放在博物館的肖像,大部份是那個時代的社會風光人物(代表有錢、有權、有勢),黑人窮人哪有機會入主館藏!樣本選擇偏差,結論概括至全歐洲人,過份延伸是很要不得的錯誤,也是這個研究最受抨擊之處。


更糟糕的是因為樣本的偏差和定義的偏見,導出收入低的人被判定為信任度也低的結論。經過網路的傳播,造成「公正的機器學習,發現低收入和皮膚顏色較黑者比較不能被信任」的嚴重錯誤印象。AI的應用是好意,但錯誤的應用卻使得AI成為不負責任的「面相學」,對社會的和諧反而帶來傷害。


於是,初次閱讀這篇跨領域研究論文的興奮,在反覆思量之後,轉成為恨鐵不成鋼的聲聲嘆。但我們也從中學到了很好的教訓:好的科學進展,是結合嚴謹的科學態度、數學運算般精密的推測,加上沒有偏見的取樣,以及正確不誇大的結論。別忘了,還有社會責任。


是的,責任感才是最重要的!


# 關鍵字:科學人觀點AI機器學習
更多文章
活動推薦更多
追蹤科學人