文|互聯(lián)網(wǎng)那些事
一美國Facebook的外包員工控訴陳,他們被一種算法裁掉了,在被AI判定沒有正常完成工作后,當(dāng)場被機器自動發(fā)送的一封郵件解雇。
比AI取代自己工作更令我們慌亂的,是AI已經(jīng)正在親手裁掉我們?nèi)祟悺?/p>
那些躲在AI數(shù)據(jù)背后的老板和人力資源都將不再承擔(dān)責(zé)任,使勞動關(guān)系非人化,將人力資源中的“人力”徹底剝離。西班牙勞動法專家曾表示,如果這一趨勢持續(xù)下去,人力資源部門將面臨“非常黑暗的未來”。
帕斯夸爾曾認為,“數(shù)字老板”永遠都會是暴君,因為它把人當(dāng)作非人來對待。AI到底能否取代人類在具有明確道德含義領(lǐng)域的經(jīng)驗和推理能力?人工智能的權(quán)力責(zé)任標(biāo)準(zhǔn)又該如何衡量?是誰賦予了AI決定人類去留的權(quán)利?
01.被裁員前的“預(yù)告片”
阿爾法狗(AlphaGo)吊打職業(yè)圍棋手柯潔,因為它有了類似人腦的種種功能:龐大的數(shù)據(jù)庫,自我學(xué)習(xí)能力,以及找到更好解決方法的能力。
在與阿爾法狗接連對戰(zhàn)的幾個回合后,阿爾法狗的棋藝再次增長,“現(xiàn)在它越來越接近上帝了”,賽后的柯潔稱。
阿爾法狗的核心系統(tǒng)采用了機器學(xué)習(xí)與神經(jīng)系統(tǒng)科學(xué)結(jié)合的學(xué)習(xí)算法,還通過大量數(shù)據(jù)分析學(xué)習(xí)了3000多萬步的職業(yè)棋手棋譜,再通過增強學(xué)習(xí)的方法進行自我博弈,尋找更好的棋路。
從烏鎮(zhèn)互聯(lián)網(wǎng)大會,李彥宏坐無人駕駛開入五環(huán),騰訊高調(diào)進軍AI...人工智能正在以指數(shù)級增長滲透進我們的生活乃至整個世界,隨著他們飛速旋轉(zhuǎn)的“大腦”,未來也將取代人類絕大部分的工作。
澳洲一家教學(xué)機構(gòu)培生教育(Pearson's)的新研究結(jié)果顯示,人工智能和自動化正在滲入澳人的日常工作生活。隨著科技進步,越來越多職業(yè)可能被自動化。
谷歌的無人駕駛每8250km才故障一次,職業(yè)司機或?qū)⒊蔀楸蝗〈穆殬I(yè)中首當(dāng)其沖的一種;再次是醫(yī)生,云端大數(shù)據(jù)及數(shù)據(jù)庫甚至更精準(zhǔn)的操作可以完全取代他們的工作;服務(wù)業(yè)中大量重復(fù)性的工作如裁縫、服務(wù)員、抄寫員,或是高空危險作業(yè)的消防、反恐都將接受來自AI的洗禮。
尤其是在翻譯領(lǐng)域,今年市場上已經(jīng)開始出現(xiàn)較為成熟的人工智能翻譯機產(chǎn)品,如科大訊飛推出的曉譯和譯唄,清華技術(shù)團隊推出的準(zhǔn)兒。而在產(chǎn)品測試中,中英翻譯普遍達到了95%以上的準(zhǔn)確率,完美解決文科不能解決工程企業(yè)翻譯等需求。
與人類的大腦相比,AI大腦的神經(jīng)元是科學(xué)家們賦予的大腦神經(jīng),根據(jù)數(shù)據(jù)顯示,以一秒鐘的時間為單位,人工智能的電子神經(jīng)元激活次數(shù)約為上億次,而人類的大腦神經(jīng)元,則僅有200次,至少是300萬倍的差異。
也就是說,柯潔在思考下一步棋該如何走的時候,AI已經(jīng)思考了接下來近300萬步的可能。
硅谷大佬馬斯克曾多次警告,機器會殺死人類,培養(yǎng)他們的同時激活他們體內(nèi)的自主意識,目前這個說法并沒有得到科學(xué)界的印證,反倒是“AI與人類優(yōu)勢互補”的說法盛行。
面對爆炸性增長的巨量信息,AI確實可以高效率、高記憶力、低出錯率的解決復(fù)雜無比的難題;但AI沒有辦法復(fù)刻人類的發(fā)散性、創(chuàng)造性智慧,關(guān)鍵時候的應(yīng)變能力、肢體語言能力及情感能力。
對于當(dāng)前的AI來說,他們唯一能感受到的只有電流和數(shù)字組成的“思考力”,處理簡單可重復(fù)的工作是他們的強項,但代替HR裁掉員工,就是另外一種說法了。
02.AI成為人類“暴君”
后疫情時代,科技公司紛紛開源節(jié)流。
Facebook上曾有員工控訴稱,自己被一種算法裁掉了,他們與埃森哲簽訂勞動合同,但是在Meta的辦公區(qū)工作,突然有一天通過視頻會議得知自己必須離職,而公司給出的裁員理由是“隨機”。
此前,Xsolla的工資預(yù)算降低了10%,在近一年時間里,Xsolla增長持續(xù)放緩,年增長率一度低至40%以下。
在Xsolla CEO眼里,公司效益不好是因為員工不在公司上班導(dǎo)致懈怠造成的,在使用AI算法后,直接通過郵箱解雇了450名員工中的150位。
隨后首席執(zhí)行官向Aleksandr Agapitov向所有被解雇員工發(fā)去了一封郵件:如果你的“數(shù)字足跡”沒有達到公司的標(biāo)準(zhǔn),那么你一開始就不適合Xsolla。
亞馬遜也一直在算法裁員的路上。
在亞馬遜兢兢業(yè)業(yè)工作了4年的斯蒂芬·諾曼丁在亞利桑那州鳳凰城送貨時,與往常一樣打開APP查看送貨路線,卻發(fā)現(xiàn)賬號無法登錄。
同時他收到了一封來自亞馬遜的自動郵件:你已經(jīng)被 amazon 終止合作,原因是:由算法給出的個人評分已經(jīng)低于Amazon的規(guī)定分數(shù)。
諾曼丁非常不滿公司對他的決定,他認為AI不能因為無法控制的意外而懲罰他,比如進出小區(qū)不便,路上堵車或客戶不在等情況,他也對自己手頭上的工作有著極高的自豪感,根本無法接受“履職不到位”的最終評價。
這是對司機的算法,對于亞馬遜內(nèi)部的倉庫人員來說,只要行動不夠快就可能失去工作。亞馬遜會跟蹤每一位工人的生產(chǎn)效率,并相應(yīng)的形成警告或裁員通知,全程沒有人力資源的半點影子。
這與國內(nèi)外賣小哥的考核方法相似,平臺通過AI算法計算出最快的路線及最少的時間,沒有完成便會扣錢,甚至解雇。
在接受一次CNBC采訪時,亞馬遜創(chuàng)始人貝佐斯曾表示,一切決策都傾向于交給AI算法,只有戰(zhàn)略決策才是必須交給人類的商業(yè)決策,因為機器“只會考慮相關(guān)信息,完全沒有情感干擾”。在他眼里,人工智能可以優(yōu)化大部分的流程,為實現(xiàn)長期的就業(yè)目標(biāo)提供機會。
除了解雇,亞馬遜的AI系統(tǒng)還負責(zé)招聘,但因其用人公平性屢遭質(zhì)疑致關(guān)停,原因是在AI系統(tǒng)的學(xué)習(xí)過程中認為過去十年中被雇傭的大多是男性,因此在審核申請人時會對“女性”詞條進行降格處理。
在各大企業(yè)用工荒的時候,AI招聘系統(tǒng)也會死腦筋的卻把成千上萬的員工簡歷丟進大海,哈佛大學(xué)首席研究員約瑟夫·富勒 (Joseph Fuller) 曾舉例:醫(yī)院掃描注冊護士簡歷時,用AI進行了“計算機編程”技能的篩選,而醫(yī)院僅僅需要的是可以將患者數(shù)據(jù)輸入計算機的人。
此外就連薪酬部分的工作也被AI接替,字節(jié)跳動曾公布過一項專利技術(shù)“員工薪資方案生成方法及裝置”,他可以獲得員工薪資方案創(chuàng)建請求、輸出員工薪資方案末班、獲取薪資項目、為目標(biāo)薪資項目配置參數(shù)、修改參數(shù)、生成方案.....
其實按照這個道理來說,最先被裁的應(yīng)該是HR。AI 算法成本更低、效率更高、壽命更長,相比之下,在原本崗位上的員工要是不好好修煉自己,只能另謀出路。
但正如諾曼丁不滿亞馬遜的裁員決定般,AI的不靈活性致使了他的失業(yè),AI到底能否決定員工的去留?誰來對AI的“不負責(zé)行為”買單?
03.AI=不知者,無罪!
“老板和人力資源部門都不承擔(dān)解雇的責(zé)任,躲在算法和其他技術(shù)創(chuàng)新背后推卸責(zé)任,進一步使勞動關(guān)系非人化?!蔽靼嘌绖趧臃▽<曳ū葖I·內(nèi)瓦多評價說,尤其針對一些工資與手底下人能力相掛鉤的管理層人士來說。
在內(nèi)瓦多眼里,將人力資源的工作完全交給AI會讓不少關(guān)鍵職位處于危險的不利動蕩中?!稒C器人新定律》一書中提出,人工智能永遠不應(yīng)取代人類在“具有明確道德含義的領(lǐng)域”的經(jīng)驗和推理能力。
也就是說,人類不應(yīng)授權(quán)機器來決定誰會被解雇,因為這樣的決策無法實現(xiàn)自動化,不能脫離“負責(zé)任的反思”這一過程。
關(guān)于AI到底歸誰管這個問題,我們分成2個部分來看:誰負責(zé),誰擁有。
曾經(jīng)一工廠的機器人誤把一名員工當(dāng)作其執(zhí)行任務(wù)的威脅,并計算得出消除威脅的最有效方法是把其推向附近一臺正在運行的機器,從而立刻殺死他。那么關(guān)鍵問題就在于,設(shè)計機器的程序員及工廠是否知曉其使用過程會導(dǎo)致這一結(jié)果,如果知曉則共同承擔(dān)責(zé)任,若不知曉,仍要共同承擔(dān),同時銷毀機器罷了。
就比如無人駕駛的汽車在其行駛車道上超速,深圳曾規(guī)定若出了事故,則由車輛所有人、管理人承擔(dān)責(zé)任,但不對車主進行扣分處理。
目前為止,關(guān)于人工智能為何有或沒有法律地位,為何以及如何承擔(dān)法律責(zé)任,學(xué)界一直爭論不休,導(dǎo)致AI法學(xué)的研究出現(xiàn)“泡沫化”傾向,人工智能領(lǐng)域的研究院稱:“機器人有道德和法律上的義務(wù),甚至權(quán)利嗎?人工智能的行為和決策的自主空間越大,誰對其決策和行為承擔(dān)責(zé)任這個問題的提出就越緊迫?!?/p>
因此到底誰對AI負責(zé)的問題,從不同視角出發(fā)有著不同的處理結(jié)果,而人類的法律是否適用于AI?只有在了解過程全貌才能找到準(zhǔn)確的適用辦法,這對于還在成長期,持續(xù)高速變化的AI來說很難實現(xiàn)。
自2013年和人工智能有關(guān)的34萬項專利中,有53%都已被發(fā)表,其中中國一騎絕塵,是發(fā)表成果最多的國家。AI的精神成果到底會不會被人類認可,取決于人類是否認可AI發(fā)明者的身份,以及AI是否具有保護自己知識產(chǎn)權(quán)的權(quán)利。
也就是說如果我們要認可AI的一切決策及成果,首先我們必須要求AI知道自己在做什么。
在西班牙工會UGT一份名為《勞資關(guān)系中的算法關(guān)系》文件中稱,如果使用AI算法解雇員工,其標(biāo)準(zhǔn)必須透明 ,算法與人工智能的任何一款產(chǎn)品一樣都會出錯,甚至AI根本不用擔(dān)心自己的決定會對“人民的安全或基本權(quán)利”產(chǎn)生什么樣的影響。
如果AI在不具有“明確道德含義”的領(lǐng)域做出了侵權(quán)或是損害人民的行為,那一定是由算法決策的失誤導(dǎo)致。算法決策所依據(jù)的或系統(tǒng)所訓(xùn)練的數(shù)據(jù)集一旦受到來自外部干擾或新型介質(zhì)的出現(xiàn),其幾秒鐘就能完成的演算并非人工智能的設(shè)計者利用規(guī)范過程模型就能解決的。
因此,AI的處理結(jié)果完全不可控,它的行為不具有可解釋性,人類設(shè)計出的人工智能的行為不能完全按照人的意志去發(fā)展,是個黑洞。
盡管在未來的某一天AI會取代我們的工作,也會代替部分人類做出絕對正確的決策,但要記住最后的勝者永遠都是人類,就如柯潔在戰(zhàn)敗后,科學(xué)家仍得出“人類是贏家”的結(jié)論。
參考:
人工智能不僅會取代你的職位,現(xiàn)在還要親手裁掉你——Vista看天下
人工智能的可解釋性與AI的法律責(zé)任問題研究——劉艷紅
用 AI 辭退150人,HR恐要丟掉工作——人力資源匯
人工智能會取代人類嗎?科學(xué)家:它們已經(jīng)會“放氣球”——奇點使者