[No.H100]
3月21日消息,據(jù)外媒報道,當?shù)貢r間3月17日晚,在全球最大上市咨詢公司埃森哲都柏林總部負責監(jiān)控YouTube內(nèi)容的審核團隊,通過群聊得知了他們的辦公室即將關(guān)閉的消息。新型冠狀病毒的傳播對他們來說太危險了,他們不能繼續(xù)這樣在開放式辦公室近距離工作。
為了確保安全,這些內(nèi)容審核人員被送回了家,盡管合同限制意味著他們不能繼續(xù)工作,過濾掉每分鐘遠程上傳到平臺的500小時視頻。這些內(nèi)容審核人員都屬于承包商,當時在場的一人解釋說,大多數(shù)人都贊成這樣的決定。而且他們還被告知,在辦事處關(guān)閉期間,將可以繼續(xù)獲得財政支持。
承包商是保持社交網(wǎng)絡(luò)“干凈”的秘密工人大軍。這些人工資很低,但工作量相當大,需要完成的目標高得離譜。曾有通過埃森哲簽約的YouTube內(nèi)容審核人員稱,他們識別內(nèi)容的準確率被要求保持在98%以上,每個月只允許犯幾個錯誤。承包商們的工作是過濾有問題的內(nèi)容,并決定這些內(nèi)容在主導(dǎo)我們世界的網(wǎng)站規(guī)則下是否可以被接受。
這些人中,有10000人幫助審核谷歌的服務(wù),超過30000人簽約幫助監(jiān)控Facebook。在過去的兩年里,隨著科技公司因流程中的問題而面臨的批評激增,幫助審核平臺內(nèi)容的承包商數(shù)量也急劇增加。這種細致的人類工作經(jīng)常被淡化,以便支持科技公司推廣他們的自動監(jiān)控系統(tǒng),標記和刪除不適當?shù)膬?nèi)容。但我們都知道,人類審核依然至關(guān)重要。
當哈羅德·奧德菲爾德(Harold Oldfield)試圖在Facebook上發(fā)布幾個關(guān)于美國對新型冠狀病毒爆發(fā)的反應(yīng)帖子時,他意識到有些不對勁。這些帖子都來自著名的新聞媒體,但卻立即被標記為垃圾內(nèi)容。奧德菲爾德解釋說:“我覺得很好笑,因為我真的寫了一本關(guān)于監(jiān)管Facebook等平臺的書,并用了整整一章來闡述內(nèi)容審核中保持公平和透明的重要性。Facebook回應(yīng)說,上述錯誤不符合其規(guī)則似乎有點兒言不由衷。”
奧德菲爾德向Facebook提出了抗議,他的這些帖子很快被恢復(fù)。但他說:“對我來說,這是次要的,甚至是有趣的。但不利的一面是,它會讓時間敏感的演講中斷,這總是讓人擔心。每個人都指出,有不好的東西被漏掉了,所以他們以更為激進的方式使過濾器,這反而導(dǎo)致那些對時間敏感的好東西很難被發(fā)現(xiàn)。”
奧德菲爾德不是唯一遇到這個問題的人。那些始終試圖分享有關(guān)新型冠狀病毒的重要真實新聞故事和信息的人發(fā)現(xiàn),他們的帖子觸發(fā)了Facebook的反垃圾內(nèi)容過濾器,后者旨在維持社區(qū)標準。前Facebook高管亞歷克斯·斯塔莫斯(Alex Stamos)在推特上說,他認為這是“反垃圾內(nèi)容規(guī)則發(fā)瘋的跡象,我們可能會看到機器學習在人類監(jiān)督減少的情況下開始瘋狂。”
Facebook首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)在3月18日的一次電話會議中提到了這一點:“即使在像美國這樣可以自由表達的國家,也有很長一段時間的先例,不允許人們在擁擠的房間里大喊大叫。我認為,這類似于人們在這樣的疫情爆發(fā)期間傳播危險的錯誤信息。”結(jié)論很簡單,最好的情況是無意中壓制了“好信息”的傳播,以確保“壞信息”絕對無立足之地。YouTube承認“用戶和創(chuàng)作者可能會看到更多的視頻被刪除,包括某些可能沒有違反政策的視頻”。
Mozilla的技術(shù)政策研究員弗雷德里克·卡修納(Frederke Kaltheuner)表示:“內(nèi)容監(jiān)管涉及做出極其微妙的決定,特別是當你試圖刪除的東西沒有明確的定義時。自動化系統(tǒng)不能做出這些細微差別的決定,而手動標記機制也經(jīng)常被那些對他們不喜歡的內(nèi)容或賬戶進行協(xié)調(diào)標記的人濫用。”
然而,人們對此感到惱火。朱莉婭·里達(Julia Reda)表示:“長期以來,扎克伯格始終在向政策制定者推廣AI,將其作為解決每個問題的方案。從商業(yè)角度來看,這是有道理的,發(fā)展AI需要訪問海量數(shù)據(jù),這讓Facebook在競爭中占據(jù)優(yōu)勢。”里達曾是歐洲議會綠黨議員,長期以來一直主張對科技公司進行更好的控制。
但她認為,科技公司在缺乏人類監(jiān)督的情況下似乎存在不足。里達說:“許多公告表明,平臺公司很清楚上傳過濾器無法區(qū)分合法和非法內(nèi)容。這些錯誤會系統(tǒng)性地導(dǎo)致歧視出現(xiàn),例如阿拉伯語內(nèi)容被更多地標記為恐怖分子宣傳。在像現(xiàn)在這樣的危機情況下,政府和公司建立了以前不可想象的規(guī)范。我們必須保持警惕,確保它們不會成為新常態(tài)。”
Facebook負責誠信的副總裁蓋伊·羅森(Guy Rosen)很快表示,最初的問題已經(jīng)解決。3月18日,他在推特上寫道:“我們已經(jīng)恢復(fù)了所有被錯誤刪除的帖子,其中包括所有主題的帖子,而不僅僅是那些與新型冠狀病毒相關(guān)的帖子。這是一個自動系統(tǒng)引發(fā)的問題,該系統(tǒng)刪除了指向辱罵網(wǎng)站的鏈接,但也錯誤地刪除了許多其他帖子。”問題在于,人們的帖子仍然被錯誤地屏蔽。在羅森宣布問題解決了之后,人們回復(fù)他說,F(xiàn)acebook的算法觸發(fā)了違反該網(wǎng)站社區(qū)標準的行為。
劍橋大學副研究員兼講師詹妮弗·科布(Jennifer Cobbe)專門監(jiān)控和研究內(nèi)容審核,她說:“這就像過去十年里關(guān)于Facebook的每篇報道一樣。他們說已經(jīng)解決了問題,但實際上并非如此。我認為任何人都不應(yīng)該對Facebook處理這件事的能力抱有太大信心。”
這個問題一直都存在。早在2019年6月,就曾有研究YouTube算法的谷歌軟件工程師表示,算法存在需要修復(fù)的問題,但他們熱衷于強調(diào),機器學習算法一直在以驚人的速度改進。他們總結(jié)說,如果有足夠的訓(xùn)練數(shù)據(jù),幾乎所有的問題都可以通過算法解決。但這僅僅是科技烏托邦式的傲慢嗎?
謝菲爾德大學研究社交媒體內(nèi)容審核的伊莎貝爾·杰拉德(Ysabel Gerard)表示:“AI現(xiàn)在不能(永遠也不可能)完美地進行內(nèi)容審核。你不可能將人類互動這樣復(fù)雜的事情自動化,我們已經(jīng)看到了無數(shù)基于AI審核錯誤的例子,比如過去幾天有關(guān)新型冠狀病毒疫情的新聞和帖子被刪除。”
最終,隨著新型冠狀病毒的傳播,保證幕后人員的安全是很重要的。全世界數(shù)以百萬計的人現(xiàn)在選擇在家工作�?撇颊f:“這涉及到大量的人,可能所有人都坐在小房間里,近距離地審查內(nèi)容。”
科布發(fā)現(xiàn)走向更自動化的內(nèi)容審核“可能非常令人擔憂”。她擔心有兩個原因:首先,將權(quán)力從人類移交給技術(shù),讓社交媒體平臺有更多的權(quán)力來決定什么是合適的內(nèi)容,什么是不合適的內(nèi)容,而不是政府監(jiān)督。其次是更簡單化的技術(shù)問題。她說:“這些系統(tǒng)并不能真正勝任這項工作,目前也不能真正取代人類。”眾所周知,算法反映了它們創(chuàng)建者的偏見,而人類內(nèi)容審核人員目前在消除某些最嚴重的偏見方面發(fā)揮了重要作用。
我們之所以能走到這一步,是因為科技行業(yè)對利潤的執(zhí)著,科布指出。“科技公司最看重的一件事就是規(guī)模。他們試圖用盡可能多的內(nèi)容成長為盡可能大的規(guī)模,盡可能多地獲得手中的內(nèi)容。一旦你達到了一定的規(guī)模,就很難和人類一起做事情了,因為你需要雇傭太多的人,以至于做事情的成本變得令人望而卻步。因此,他們求助于AI,試圖取代這些人類,這樣他們就可以按照自己想要的水平進行擴大規(guī)模。”
然而,正如我們現(xiàn)在正在了解的那樣,AI還遠遠沒有準備好擔當重任。科布說:“科技行業(yè)對自己的系統(tǒng)太有信心了,作為一個社會,我們對AI投入了太多。我們剛剛意識到,在最糟糕的時候,這個備受吹捧的AI解決方案背后的人類力量。我們很可能會看到AI內(nèi)容審核帶來的問題比我們目前看到的要大得多。我要說的是,我非常肯定,即使是人類來審核內(nèi)容也同樣存在很多問題。” (騰訊科技審校/金鹿)
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...