摘要: 一直以來,作為人類我們都以擁有情感而自豪,這是我們和機器的一種本質上的區別。隨著計算機的發展,我們更期盼人機之間的溝通交流,尤其是一種帶有感情的溝通交流。計算機在情感方面的成長經歷也類似於我們每個人的...
一直以來,作為人類我們都以擁有情感而自豪,這是我們和機器的一種本質上的區別。隨著計算機的發展,我們更期盼人機之間的溝通交流,尤其是一種帶有感情的溝通交流。計算機在情感方面的成長經歷也類似於我們每個人的成長過程——以觀察和辨別情感作為最終自然,親切,生動的交互的開始。
當我們談到情緒識別的時候,就不得不提一個在這個領域做出了巨大貢獻的人——埃及科學家Rana el Kaliouby。像許多成功的“程序猿”一樣,她不僅碼得一手好代碼,在人際關係方面也玩得一手好牌,智商與情商並重。她和她的導師Rosalind Picard一起成立了Affectiva,一家開發情感分析軟件的公司。 Affectiva也被一些商業媒體列為成長最快的創業公司。事實也證明,這一領域的確非常吸金。
為了闡明工作原理,首先我們需要知道情緒識別的理論基礎。 Paul Ekman(一個心理學家)提出了六種無論性別年齡生長環境,人人都會具有的基本情感:憤怒,厭惡,恐懼,快樂,悲傷和驚訝。隨後,他開始解讀這些情感的表達,並且開發了一套“面部動作組織系統”(FACS)來將每個人的表情分解為許多面部動作單元(Action Units),單獨這些面部單元並不能夠代表任何的情感,但是利用它們的組合特徵我們可以進行一些面部表情識別,沒錯,就像《Lie to me》裡演的一樣。如果一個人對你笑的時候只牽動了顴大肌,那麼這八成就是一個實實在在的假笑,因為一個真誠的笑容除了顴大肌以外眼輪匝肌也會被牽動。
Rosalind Picard早起在MIT的Media Lab做一些圖像壓縮方面的技術開發,但是很快她就遇到了瓶頸,因為她開發的方法(儘管後來流行一時)與被處理的對像是完全獨立的:比如說壓縮大運河和總統肖像的圖片用的都是一樣的方法。她覺得,如果計算機可以知道自己正在處理什麼就能改善這個過程。直到讀了一本關於聯覺的書《The Man Who Tasted Shapes》她才豁然開朗,意識到了情感與理性之間的聯繫。與我們傳統認為的“無情卻又睿智”不同,過少的情感,其實和過度豐富的情感一樣都會對我們的理性思考產生不好的影響,事實上一些影響情感的腦損傷也會剝奪人判斷和決策的能力,而判斷和決策正是我們希望電腦做的事情。
回到電腦的情緒識別,其實做法就是在面部提取一些關鍵的點,將那些相對不變的“錨點”,比如鼻尖,最為一些參考的固定點,然後用像嘴角這樣的點來判斷你做出的表情。但是在九十年代,想要製造一個可以準確長出這些離散的面部動作單元的系統實在是太難了,單是數字化一個視頻就要25秒。一個早期的研究人員說:無論怎麼做總是有一點偏差,而且隨著結構的不斷擴大,錯誤也越來越多,每十秒就要重新啟動一次。
就這樣,研究陷入了瓶頸,於是Kaliouby就帶著遺憾去劍橋繼續讀她的博士學位了。巧的是,有一次演講後,有一個聽眾告訴她,她訓練電腦讀人臉和他自閉症的弟弟遇到的問題很像。當時,劍橋的自閉症研究中心正在做一個面部表情目錄的大工程,和Ekman將表情分成一小塊一小塊動作單元,再通過動作單元的組合判斷情緒的做法不同,他們對錶情的分類更加自然,簡單易懂,將表情進行更細緻的分類,然後從某一種特定的表情整體學習其中的特徵。比如說在“思考”這一塊中就有憂思,躊躇,幻想,判斷等等。他們請了六個演員在鏡頭前展現這些表情,在幾乎全員通過之後才給這些表情貼標籤。就這樣他們有了足夠的資料開發MindReader,一個可以在幾乎各種環境下檢測出複雜情緒的軟件,也是Affdex的原型。 Ekman,那個提出FACS的心理學家則和別人合作創立了Emotient,也是一款情緒識別的軟件,同樣是利用機器學習的方法通過海量的數據學習構建一個準確的表情識別框架。
儘管有人質疑僅基於表情、脫離現實情境的甄別方法的準確性,實驗表明,計算機不僅可以捕捉到那些虛偽造作的表情,對於一些一閃而過,人無法辨別的微表情,計算機也可以毫不疏漏的捕捉到。 Marian Bartlett,一個加州大學的研究員,發現女兒在看到一個戲劇中的暴力場面時,先表吸納出了一閃而過的暴怒,然後偽裝成了驚訝,最後轉為了大笑——但是這一切卻被電腦捕捉到了。利用”微表情“檢測,研究員們可以捕捉到人們拒絕經濟援助前一閃而過的厭惡表情,這是普通人用肉眼很難做到的。
這些軟件自然有廣泛的應用前景。就在2012年總統選舉的時候,Kaliouby的團隊就利用Affdex檢測了200多人看到奧巴馬和羅姆尼辯論時的鏡頭並且以73%的準確率預測了投票的結果。目前,情緒識別已經被廣泛運用於商業,未來還將會有更加多樣的運用前景。
資料來源:煉數成金
留下你的回應
以訪客張貼回應