0
在娛樂圈,汪峰的頭條經常被人搶;而在科技圈,想要上頭條,不僅容易被人搶,更容易被“機器人”搶。打開網站或App翻翻,Echo、Siri、小冰、度秘隨處可見,“自然語言交互”簡直成了人工智能界的網紅。
表面上看來,和自然語言交互的火熱相比,情感交互還遠遠談不上被重視。而實際上,情感計算相關的技術和應用已經投入市場。
比如雷鋒網此前報道過的Affectiva,致力于研究情感識別,并已應用于廣告、零售等行業,分析受眾喜好;軟銀機器人公司推出的情感陪護機器人Pepper,通過分析表情識別情感,提供智能陪伴服務;被Nielson收購的神經科學公司Innerscope則通過檢測觀眾表情,來預測一部電影能否火爆。

情感交互的研究和應用多了起來,但全球范圍內其實還沒有統一的“話語體系”,如何定義笑?如何定義哭?各家自圓其說。哭笑等表情對人來說,判定非常容易,但對計算機而言,細微差別就可能要讓它“哭笑不得”了。
雷鋒網近日得知,中科院軟件所、中國電子技術標準化研究院、小i機器人三家單位在ISO/IEC羅馬會議、柏林會議上提出的“信息技術—情感計算用戶界面—框架”(Information technology — affective computing user interface — framework)通過國際專家投票,獲得正式立項。這也是人機交互界面領域,唯一一個將由中國主導建立的國際標準。
據中科院軟件所負責此項標準提案的王宏安教授介紹說,這意味著在未來三年內,將會由中國主導,由通過這項提案的加拿大、日本、韓國、英國、法國、瑞典等派駐代表參與,共同制定該框架標準。

中科院軟件所王宏安教授
說起來簡單,做起來難。雷鋒網了解到,這個“情感計算用戶界面”主要包括四個部分,分別是:
情感描述方式
現有的情感描述方式主要分為兩種,一個是離散描述,一個是連續描述。在計算機領域廣為人知的離散描述是美國心理學家Ekman提出的6大基本情感,分別是Joy、Sadness、Anger、Surprise、Fear和Disgust。連續描述則認為,人類的情感不是獨立的,而是連續可轉變的,類似RGB調色板。
情感交互過程處理
情感交互過程的處理包括情感數據的獲取和情感變化的跟蹤。情感數據來源很多,諸如表情、語音、動作、文本、符號以及腦電、心電、肌肉電等生理信號。而人的情感是實時變化的,需要從變化的開始、演化、結束整個過程進行跟蹤。
情感交互意圖理解
情感用戶界面的核心就是需要計算機能夠有理解用戶意圖的能力,甚至挖掘用戶的隱藏需求和意圖。
情感反饋表達
計算機系統根據對用戶情感交互意圖的理解,自動針對用戶當前的狀態提供智能的情感反饋表達,不僅能夠理解用戶的“命令”,還能有感情地進行交流。
研究團隊未來將針對上述四點,一方面整理出框架,另一方面提供一套規范性的“話語”,便于全球的研究者們彼此溝通,在這套“標準話語”下展開研究,共同推進情感計算的研究。
王教授還解釋說,情感識別涉及很多細微之處,先把穩定一致的部分描述出來,大方向定下來,細微的差別留著,標準本身是一個過程,現在制定的標準可能管十年,未來完善修改可能又要十年,跟技術的發展是相關的,并非一成不變。
考慮到情感識別還處于早期,當被問到現在制定標準是否為時過早時,作為提案聯合發起方的小i機器人總裁朱頻頻博士說:“當時在羅馬會議提交草案時,也有評委質疑,建立這樣的標準是不是太早了,但我們的觀點是,標準的制定需要三年,而IT技術發展非常快,從現在往后看三年,誰也不知道什么樣。人工智能不確定因素太多,如果在開始的時候,不制定一個明確的準則規范,形成了各自的體系,再想制定標準很難,也沒有意義。”
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。