[No.L001]
2019年02月18日,網(wǎng)絡(luò)暴力是企業(yè)一直希望解決的問題,而一些企業(yè)甚至利用了機器學(xué)習(xí)等人工智能方式。在某些情況下,虛擬環(huán)境有可能會加劇這類事件對用戶的心理影響。但是,有意見認為“有毒”的定義因人而異。例如,某些用于咒罵的詞語對不同人而言有著不同的解讀。
微軟認為這是多用戶環(huán)境中需要解決的一個問題。在美國專利商標局日前公布的一份文件中,這家科技公司設(shè)想了一個個性化的“毒性屏障”,其可以根據(jù)用戶的喜好監(jiān)控通信和審查數(shù)據(jù)。
名為“Personalized toxicity shield for multiuser virtual environments(多用戶虛擬環(huán)境中的個人毒性屏障)”的發(fā)明文件指出,通信可以包括基于語音或基于文本的聊天,如多人游戲會話中的聊天,或者這可以擴展至視頻數(shù)據(jù)流中的圖形顯示。另外,這一系統(tǒng)可以成為在線Web會議或VR/AR會話的組成元素。所述的技術(shù)基本上可以幫助用戶有效地與多人進行通信交流,同時可以防止特定的用戶成為其煩惱的來源。
但毒性屏障模塊所監(jiān)控的內(nèi)容并不僅僅局限于咒罵,同時可能包括不良行為,如朝麥克風(fēng)大力噴氣,或者過于靠近用戶。某些人認為,全面禁止這些特定動作顯得過于苛刻,所以專利描述的系統(tǒng)只會在用戶感到不舒適的情況下才進行審查。
對于毒性屏障的工作原理,系統(tǒng)可以分析“容忍度數(shù)據(jù)”以部署特定于用戶的毒性屏障模塊(TSM)。TSM同時可以利用通過機器學(xué)習(xí)引擎生成的預(yù)測模型來阻隔相關(guān)的行為(這一模型可以分析學(xué)習(xí)用戶對不良行為的反應(yīng))。系統(tǒng)可以選擇默認配置文件以向引擎提供其所需的一切信息,而用戶可以選擇手動設(shè)置設(shè)置。這樣,系統(tǒng)將能夠“基本上實時地”通過靜音,刪除或不播放不需要的數(shù)據(jù)來應(yīng)對不良行為。在某些情況下,它可以向不良行為者發(fā)送警告信息或暫停與他們的所有通信。
如果能夠?qū)崿F(xiàn)真正的智能執(zhí)行,這樣的系統(tǒng)有望營造一個適宜的多用戶在線環(huán)境。但當然,理想的網(wǎng)絡(luò)環(huán)境定義因人而異,而且實現(xiàn)起來總是充滿著挑戰(zhàn)。“Personalized toxicity shield for multiuser virtual environments(多用戶虛擬環(huán)境中的個人毒性屏障)”這份專利是于2017年8月提交,并于日前由美國專利商標局正式公布。需要注意的是,這僅僅只是一份專利,僅代表微軟朝這一方向進行了探索,尚不確定他們是否會或?qū)⒂诤螘r商業(yè)化相關(guān)的技術(shù)發(fā)明。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...