黑鏡

「情緒檢測」技術能否改善人際溝通?你願意用它體察自己的情緒嗎?

有學者擔憂它只會識別刻板印象化的情緒表達,並可能給出錯誤的引導和建議,情緒可以依據面部表情進行判斷嗎?


全球興起了「情緒檢測」產業。 攝:Ian Waldie/Getty Images
全球興起了「情緒檢測」產業。 攝:Ian Waldie/Getty Images

「情緒檢測」技術主要依據標籤員看影片貼標籤的方式,對人工智能進行教學,有學者擔憂它只會識別刻板印象化的情緒表達,並可能給出錯誤的引導和建議,情緒可以依據面部表情進行判斷嗎?

目前該技術主要用於幫助自閉症兒童進行情緒識別和理解、監測駕駛員疲倦或情緒化狀況、進行產品市場研究、以及協助醫療人員對患者狀態進行評估,對此你有哪些擔憂?

若電子設備可以檢測情緒狀態,你希望它可以被應用於哪些方面?它可以讓日常溝通更順暢嗎?

近年來,不少科技公司通過關聯面部表情和行為的算法進行「情緒檢測」相關技術的開發,其產業在北美市值已達200億美元。有開發人員稱,這樣的系統不僅可能會比人類更擅長對面部表情進行情緒分析,而且機器可以通過訓練,更適應用戶感受。

《Guardian》採訪了首批對研究人員之一的 Rana el Kaliouby,作為首家面向「情緒人工智能」市場的創業公司 Affectiva 的創辦者之一,她在博士期間開發出一種輔助亞氏保加症(Asperger syndrome,AS)兒童了解和回應面部表情的設備,並將其稱為「情緒助聽器」。

亞氏保加症,屬一種發展障礙,其重要特徵是社交與非言語交際的困難,同時伴隨着興趣狹隘及重複特定行為,但相較於其他泛自閉症障礙,仍相對保有語言及認知發展。

Affectiva 目前擁有世界上最大的情感數據存儲庫,共有來自87個國家的750萬副面孔,當中包括不少志願者在看電視或開車時所攝的錄像。

35位工作人員通過觀看影片和分辨面部表情的情感,進行標籤分類,標記方法主要源自被不少業內人士認為是黃金準則的情感面部動作編碼系統(Emfacs)。該系統主要將人類情緒分為六種較為普遍的表達——憤怒、厭惡、恐懼、快樂、悲傷和驚訝,而每一種情緒則對應著一種類型的面部肌肉運動。例如,標記員們若看到低垂的眉毛、緊繃的嘴唇以及凸出的眼睛,則會附上「憤怒」的標籤。

然而,這種由 Paul Ekman 和 Wallace V Friesen 在20世紀80年代創建的關聯系統,正不斷遭受質疑。美國東北大學(NU)的心理學教授 Lisa Feldman Barrett 認為,由於上述系統的建立過程,是志願者為研究而匹配6種預選情感標籤,因而研究者無意中為志願者們劃定了答案範圍。她認為,人類的大腦中並沒有由外部刺激引發的普遍情緒,每一種情緒表達都關乎個人周邊環境、文化等多種因素,「情緒是真實的,但不是客觀意義上的分子或神經元的真實......情緒很複雜。」

情緒檢測技術的研究者 Kaliouby 認同情緒的複雜,因而在設定時會讓電腦使用影片分析,並嘗試捕捉更多的語音、動作等數據,以分析出更準確的結果。然而,Barrett 則認為,這樣的分析可能只能識別出刻板印象下的情感表達。

目前,亞馬遜、微軟和IBM均在宣揚「情緒分析」作為其面部識別產品之一,此行業亦在北美市值200億美元,Kaliouby 認為這項技術極具發展前景。現時,不少公司使用這項技術進行市場研究、監測駕駛員疲倦或情緒化狀況、測試遊戲用戶體驗以及協助醫療人員對患者狀態進行評估等。

Affectiva 首席營銷官兼產品戰略主管 Gabi Zijderveld 在接受《商業實驗室》採訪時表示,早期的技術開發主要關注心理健康領域,尤其是幫助自閉症兒童進行情緒識別及理解的應用,後來應用於提醒分心或昏昏欲睡的駕駛員。

她在受訪時表述了自己理想情況的技術應用場景:情緒人工智能在生活觸手可及的每一個角落,理解並回應我們的情緒健康——早上使用家用設備時會被提醒「你好像不像昨天那麼開心,也並沒有真正入睡7小時,需要我打開音樂播放列表嗎」;到家時被告訴「你在工作中渡過了疲憊的一天,我為你做了餐廳預定」;孩子使用教學軟件時感知到她/他的厭倦並適時提升挑戰度。她希望在用戶知情同意的情況下,這項技術可以幫助機械理解人類的情感,並發出一些建議幫助,「情緒檢測基本上是為了彌合人類情感和技術之間的鴻溝。它使技術能夠理解人類的情感,然後適應和回應這些情緒。」

事實上,對於人類情緒表達的探索一直存在,2016年,麻省理工學院的研究人員推出了一種裝置,稱可以依據一個人的心率和呼吸,以確定他們的情緒狀態,準確率高達87%。他們希望將此應用在保護公共場所的安全上,以便更好的檢測不穩定情緒的人。該開發人員後又投入對抑鬱和焦慮的監測,幫助一些人未察覺或不善表達情緒的人說明情感狀態。

若設備可以檢測情緒狀態,你希望它可以被應用於哪些方面?

黑鏡