6月22日,微軟宣布停售個人面部情緒分析工具,并進一步限制面部識別工具的使用。
微軟AI事務負責人克蘭普頓表示:“我們表達自我的方式存在著巨大的文化、地理和個人差異,這引發(fā)了人們對AI識別工具可靠性的擔憂,同時也會讓人產(chǎn)生更大的疑問,即面部表情是否能成為反映個人內(nèi)心情緒狀態(tài)的可靠指標?!?/span>
人類的表情很復雜,不能簡單概括為表情包那幾種元素。/pexels
用于識別和分析人臉的自動化軟件一直備受爭議。去年,F(xiàn)acebook關閉了其已有十年歷史的照片識別系統(tǒng)。
這兩家公司對人臉識別技術的態(tài)度,代表了一種審慎積極的方向。
人臉識別相關技術,一度被認為具有廣泛的應用前景。對于視障患者而言,這可能成為一種便捷解讀視覺信息的神器。
美國情感識別技術巨頭Affectiva則希望,他們的軟件能監(jiān)控司機,從他們的聲音、肢體語言和面部表情上識別出情緒。如果你有嚴重的路怒癥,將產(chǎn)生危害道路行駛的行為,或是身體不適即將癱倒在方向盤上,他們的自動駕駛臺就可以控制汽車,帶你到最近的安全地帶,如有必要,還會打電話求救。
就在今年,英特爾也開發(fā)了關于情緒識別的插件。這款插件可以被用于在線課堂上,旨在通過分析學生面部表情獲取其實時情緒,幫助教學人員改善教學質(zhì)量。
比如,如果一個學生走神了,那么老師就可以實時提醒該學生注意聽講;當學生流露出無聊的表情時,老師也可以及時領會到學生的消極情緒,以便接下來改善教學內(nèi)容。
英特爾情緒分析插件的效果圖,人的表情被標簽化了。
這款插件一出,就引起了很大爭議——
首先是這項技術評估的準確性,僅靠捕捉一些面部表情信息,就去判斷一個人的精神狀態(tài),這是不嚴謹的,比如一個人明明很不喜歡這個老師,也可以曲意逢迎去“假笑”,這樣的笑容顯然不能代表真實的情緒和態(tài)度。
其次,這項技術容易將學生標簽化,A學生上課走神、B學生態(tài)度消極,但人的情緒是復雜多變的,遠不只積極、消極這么簡單,甚至也不能用快樂、憤怒、悲傷、厭惡、驚訝和恐懼的“六分法”來概括。一旦有了這樣簡單粗暴的刻板印象,會產(chǎn)生影響師生關系的可能性。
小丑的笑容,代表了哪種情緒呢?
再者說,每個人的生理結構和表達方式是不同的,而且還存在文化差異等,在同一事件上表達的形式也不盡相同,日常生活里人與人之間都很容易產(chǎn)生誤解,AI就更容易出錯了。
最后,即使一時半刻的走神,也代表不了什么,人不可能時時刻刻保持精力集中,也沒必要這樣,上課本身就是張弛有度,只要不是全程心不在焉就好,過度使用這樣的插件會有監(jiān)控之嫌。比如,將類似的技術用于在線辦公,簡直不敢想象。
總而言之,情緒識別技術的確是一個需要倫理邊界的領域,如果一個人連情緒自由都沒有,那么活得也太辛苦了。
不過,我倒是想到一個領域,建議這些廠商可以深入研究一下——寵物情緒識別技術。畢竟是不同物種,存在天然的隔閡,但寵物的情緒必然沒有人類復雜,相信研發(fā)難度會低很多,市場前景也應該不錯,還不會有倫理爭議。期待一下吧!
評論20