人工智慧研發領頭羊 清華電機培養新世代AI人才

【發布日期】: 2018-3-20

人類棋王被Alphago 程式擊敗、無人車即將取代司機,AI人工智慧、機器智能浪潮將席捲全球 ! 為迎接AI、大數據及物聯網時代,清華大學不僅是科技部投入AI研發能量的重點學校、AI系統研究中心進駐清大,清華大學電機系堅強的師資與軟硬體環境,教授們執行各項AI計畫更打造出未來科技的學習環境,供學生探索、實驗、學習與研究,知識廣度、深度都不受限,跨足醫療、教育、心理、人文、機械、資訊,以下介紹本系AI執行計畫精彩內容:

機器能學習情緒辨識-跨語言情緒整合增進模型

現今對機器學習以及人工智慧的發展掌握日益提高,對於智慧家庭的可能性也近在眼前。情緒則是讓機器真正了解人的最重要的一環,而情緒尤以聲音表達最為明顯。 李祈均教授的AI計畫研究,主要探討的是多語言的情緒模型並且整合作為一個健全且高預測性的情緒辨識系統。

透過AI幫助辨認自閉症傾向  應用臉部動作單元建構多模態辨識系統

此外,過去自閉症臨床診斷的評估常以醫師以短時間內跟小孩互動,並在互動過程中將小孩不同行為根據ADOS(Autism Diagnostic Observation Schedule)量表進行記錄,這樣的過程不僅是診斷時間耗時,還有很多其他潛在不確定的因素,例如評量上的主觀性。

為了解決不夠客觀的缺失,透過電腦是一個純粹的“第三方觀察者”設計AI實驗。實驗室擷取人類行為互動間的動態表情,進行臉部動作單元(Action Unit)的編碼,供給機器進行行為分析的辨識。目前的應用主要於情緒辨識系統,透過臉部特徵的擷取,讓機器進行學習建模,進而辨識人類表現情緒時的臉部表情;於自閉症小孩的分析,透過自閉症小孩的臉部表情表現,抓取特徵,進而分析該小孩是否有自閉症的傾向,也就是透過臉部表情辨識自閉症。

快速辨識急診檢傷分級  掌握黃金醫療時間

另外,機器學習也可應用於快速的急診檢傷分級,加速急診流程,爭取黃金醫療時間。於急診室拍攝病人臉部表情,賦予該病患自述的疼痛指數,透過臉部動作單元的特徵擷取,機器學習的量化編碼,辨識該病患的疼痛指數,達到急診檢傷分級的目的。

情緒辨識系統過去常常透過臉部表情、聲音特徵、身體動態等等來進行量化建模,再進行辨識。但人們表現情緒的時候,並不僅有外在的表現,內在的特徵表現同樣具有可量化、可分析性。受試者透過聲音,影像的刺激,感受到該刺激帶來的情緒刺激,同時透過功能性核磁共振的造影(fMRI) 可以即時反應出受試者受到刺激後的腦部反應,更直接的表現出情緒相關反應。藉此用來將受到情緒刺激的腦部資訊量化、分析、建模,再進行人工智慧機器學習演算法的辨識可以直接了解到情緒在人腦的反應。未來透過多模態的結合,聲音, 臉部表情, fMRI資料的彙整與融合,可以同時提供機器人們內在與外在受到情緒刺激後的反應,給予最佳的辨識系統。

看準全球全面發展人工智慧,清華大學電機系早已於近年積極深耕AI領域研究與開設各類課程,包括深度學習,大數據分析、機器智能、高效能電腦運算與IC晶片設計,更整合各類專業課程與跨領域知識,如電機、電子、資訊、機械、人文、心理、醫療、教育等與跨界合作,讓清華電機成為全台AI前瞻研究與晶片設計學術核心,更為全台學子學習電機領域的首選。清華電機不論於學術或產學合作皆取得領先地位,培養前瞻電機人才不遺餘力,成為台灣科技人才的搖籃,奠定台灣深厚堅強科技實力。