讓AI不犯錯-科學人雜誌
資訊科技

讓AI不犯錯

2018-04-01 蔡宙(Charles Q. Choi)
新的除錯程式能找出人工智慧系統的缺陷。
當人工智慧(AI)系統變得普及,出錯造成危險後果的機率也就大增。例如,美國麻省理工學院(MIT)的科學家最近誤導Google訓練的AI程式,讓它把塑膠玩具烏龜當成步槍。如果未來的機器警察或士兵犯下這類錯誤,後果可能會是悲劇。但研究人員正在研發工具,從構成這類系統的幾十億個虛擬「大腦細胞」中找出潛在缺陷。很多影像辨識程式、汽車自動駕駛和其他用途的AI,運用的都是人工神經網路;研究人員輸入資料給所謂的「人工神經元」,它們藉此協助解決問題,例如辨識路障。人工神經網路的「學習方式」是不斷調整人工神經元之間的連結,一再設法解決問題。一段時間之後,人工神經網路判斷哪些人工神經連結模式能算出最佳解決方案,接著採用這些模式進行預測,此乃模擬人類大腦的學習方式。這項技術的重大挑戰在於,研究人員通常不知道人工神經網路如何算出最後答案。哥倫比亞大學的資訊科學家楊峻峰(Junfeng Yang)表示,一旦人工神經網路發生錯誤,研究人員很難知道哪裡出錯;去年10月他在中國上海的研討會共同發表了一篇新論文。楊峻峰和所屬的研究團隊研發出DeepXplore,這套程式藉由AI學習過程的反向工程,幫AI系統除錯。Dee...

登入會員以閱讀更多精彩內容

更多文章
活動推薦更多
追蹤科學人