文|三易生活
此前在2020年末,一則“戴頭盔看房”的視頻曾在網(wǎng)絡(luò)中流傳開來,但其中的主人公并非是在搞行為藝術(shù),而是因?yàn)楸藭r(shí)售樓處大規(guī)模使用人臉識(shí)別系統(tǒng),來區(qū)分出消費(fèi)者是自然到訪、還是經(jīng)過了中介。自此開始,人臉識(shí)別技術(shù)的濫用不僅讓大眾抵觸,也引發(fā)了監(jiān)管層的警惕,更是直接導(dǎo)致了Meta方面在去年11月下線面部識(shí)別系統(tǒng)。
而在日前,又有一家科技巨頭對(duì)于人工智能技術(shù)采集用戶生物信息作出了讓步。
微軟方面在近日宣布,將停止銷售基于人臉圖像猜測(cè)用戶情緒的技術(shù),并將不再提供不受限制訪問的人臉識(shí)別技術(shù),以及限制其他面部識(shí)別程序的使用,以確保這些技術(shù)符合自己的人工智能道德準(zhǔn)則。微軟Azure的AI部門首席部門產(chǎn)品經(jīng)理Sarah Bird在博客文章中表示,“這些努力引發(fā)了有關(guān)隱私的重要問題,對(duì)‘情緒’的定義缺乏共識(shí),以及無法跨越使用案例、地區(qū)和人口統(tǒng)計(jì)學(xué)概括面部表情和情緒狀態(tài)之間的聯(lián)系。”
據(jù)悉,微軟的AI情緒識(shí)別技術(shù)可以推斷出受測(cè)者的情緒狀態(tài)、性別、年齡、情緒,以及其他個(gè)人屬性,也就是說其甚至已經(jīng)實(shí)現(xiàn)了“察言觀色”。事實(shí)上,根據(jù)英國《衛(wèi)報(bào)》在2019年的相關(guān)報(bào)道顯示,讓AI來解讀人類情緒已經(jīng)成為一個(gè)規(guī)模達(dá)到200億美元的產(chǎn)業(yè),用AI分析消費(fèi)者的情緒以及預(yù)測(cè)消費(fèi)者的行為,或是用AI分析患者的心理健康等應(yīng)用場景,都已經(jīng)在逐步落地。
然而為什么如此有前景的技術(shù),微軟方面會(huì)主動(dòng)選擇放棄呢?這其實(shí)是因?yàn)樵贏I情緒識(shí)別的實(shí)踐過程中,無論是從技術(shù)角度、還是倫理角度,都存在著不可忽視的缺陷,以至于暫時(shí)將其擱置是當(dāng)下最好的解決方案。
事實(shí)上,AI能夠“察言觀色”,是以計(jì)算機(jī)視覺和面部表情識(shí)別(FER)為基礎(chǔ)的。其中,計(jì)算機(jī)視覺技術(shù)能夠讓機(jī)器精確識(shí)別人類的面部信息,這也是實(shí)現(xiàn)人臉識(shí)別的技術(shù)基礎(chǔ);而面部表情識(shí)別,則是用來分析和解釋機(jī)器所讀取面部表情中蘊(yùn)含的情緒。作為機(jī)器人的AI在覺醒、并產(chǎn)生“靈魂”前,程序依然是經(jīng)過人類設(shè)計(jì)的,這就導(dǎo)致AI情緒識(shí)別的理論基礎(chǔ)其實(shí)與人類“讀空氣”的理論基礎(chǔ)一樣,是融合了計(jì)算機(jī)科學(xué)與心理學(xué)的產(chǎn)物。
那么AI是如何讀懂人類的情緒,并做到知人知面又知心呢?相信許多朋友都聽過“微表情”這個(gè)名詞,而其在互聯(lián)網(wǎng)中則被描述為了一項(xiàng)能夠讓你“讀心”的技術(shù),盡管這顯然是很夸張的說法,但其實(shí)并非沒有科學(xué)依據(jù)。
據(jù)悉,心理學(xué)家Paul Ekman早在1976年就基于解剖學(xué),建立了面部表情編碼系統(tǒng)(FACS)。該系統(tǒng)按照人的面部肌肉,將人臉劃分為大約46個(gè)既相互獨(dú)立、又相互聯(lián)系的運(yùn)動(dòng)單元(AU),并分析了這些運(yùn)動(dòng)單元的運(yùn)動(dòng)特征以及其所控制的主要區(qū)域,與之相關(guān)的表情。
例如人在生氣時(shí)通常會(huì)皺眉、眼瞼緊張、鼻孔張大,在害怕的時(shí)候會(huì)出現(xiàn)瞳孔變大、眉毛抬起、嘴巴大開。同時(shí),Paul Ekman等心理學(xué)家以及達(dá)爾文認(rèn)為,人類存在6種與生俱來的基本情緒系統(tǒng),即恐懼、悲傷、憤怒、愉悅、驚訝和厭惡,更復(fù)雜的情緒則是這些基本情緒的衍生。而情緒識(shí)別技術(shù)則是以各種情緒對(duì)應(yīng)的表情與面部肌肉動(dòng)作為素材,通過標(biāo)注對(duì)于表情對(duì)應(yīng)的情緒標(biāo)簽來對(duì)機(jī)器進(jìn)行訓(xùn)練和學(xué)習(xí)。
簡而言之,通過計(jì)算機(jī)視覺技術(shù),AI能夠識(shí)別出人類面部肌肉的動(dòng)作,再基于面部表情編碼系統(tǒng)和基本情緒模型,來告訴AI這張圖片上反應(yīng)的是什么樣的情緒,久而久之在海量數(shù)據(jù)的“灌溉”下,AI就能知道人類做出這個(gè)表情對(duì)應(yīng)的是什么情緒。雖然看起來這套理論是自洽的,但如果基本情緒系統(tǒng)理論本身存在問題呢?
其實(shí),基本情緒系統(tǒng)的跨文化一致性一直是學(xué)界爭論的焦點(diǎn),這種忽略了背景、文化和社會(huì)因素的情緒理論,也一直都有反對(duì)的聲音。美國心理科學(xué)協(xié)會(huì)曾委托五位情感科學(xué)不同理論陣營的科學(xué)家,進(jìn)行了數(shù)據(jù)收集與科學(xué)證明,以論證表情與情緒之間的關(guān)系。最終論文呈現(xiàn)出的結(jié)果,是情緒的表達(dá)方式多種多樣,很難從一組簡單的面部運(yùn)動(dòng)中可靠地推斷出一個(gè)人的感受,也就是表情與情緒之間并沒有可靠的科學(xué)依據(jù),證明兩者直接關(guān)聯(lián)。
參與這一項(xiàng)目的美國東北大學(xué)心理學(xué)教授Lisa Feldman Barrett就表示,“他們(巨頭)能檢測(cè)到一張憤怒的臉,但這與察覺到憤怒的情緒是兩碼事”。事實(shí)上,基本情緒系統(tǒng)理論之所以被人工智能領(lǐng)域接納,是因?yàn)樗闷鹾狭藱C(jī)器學(xué)習(xí)的能力范圍,六種固定不變情緒的框架下,大規(guī)模利用生成對(duì)抗網(wǎng)絡(luò)(GAN)來進(jìn)行無監(jiān)督學(xué)習(xí)的AI情緒識(shí)別技術(shù),當(dāng)然就會(huì)迅速“成熟”。
如果僅僅是技術(shù)不成熟就罷了,在當(dāng)下大眾對(duì)于個(gè)人隱私重視程度不斷加深,AI情緒識(shí)別這種不僅僅存在技術(shù)問題,而且與個(gè)人隱私關(guān)聯(lián)緊密的技術(shù),更是挑動(dòng)了許多人的神經(jīng)。畢竟大家如今對(duì)于面部識(shí)別就已經(jīng)很警惕了,情緒這種更私人化的東西自然是更加不希望被科技巨頭隨意評(píng)判。所以在針對(duì)科技巨頭的反壟斷浪潮中,微軟方面自然不想、也不愿意與大眾對(duì)著干。
在機(jī)器學(xué)習(xí)大規(guī)模普及前,傳統(tǒng)的算法技術(shù)局限于人類對(duì)于自身的表達(dá),需要設(shè)計(jì)者明確計(jì)算機(jī)在給定條件下的給定動(dòng)作,而現(xiàn)在的算法則突破了人類表達(dá)的局限性。這固然帶來了效率上的飛躍,但算法雖然是模仿人的思維方式,卻無法模仿人的倫理自主性,在算法實(shí)現(xiàn)的過程中排除了人類對(duì)于倫理邏輯與價(jià)值理性的追求。
所以這也是為什么越來越多人對(duì)于科技的觀感開始趨于負(fù)面,并認(rèn)為科技正在逐漸走向“邪惡”的原因了。