據(jù)國外媒體報道,蘋果在其機器學習刊物《Apple Machine Learning Journal》上發(fā)表最新一篇文章,主要是描述了用戶在IOS設備上激活“嘿Siri”功能時的人性化過程,引入說話者識別研究技術,利用深度神經(jīng)網(wǎng)絡技術,重點辨識音色與音調,以幫助用戶最終成為該設備的主人。
“嘿Siri”功能在iPhone6搭載的IOS8中首次推出,現(xiàn)如今,“嘿Siri”口令已經(jīng)可激活設備上所有的智能私人助理。但是,即便經(jīng)過幾年的發(fā)展,“嘿Siri”也依舊存在很多問題,例如會在不經(jīng)意間被激活、其他人激活等。為了解決這些問題,蘋果Siri團隊表示,新引入的“說話人識別系統(tǒng)”,主要是為用戶創(chuàng)造更加人性化的設備。但目前該技術還存在一些問題,例如不能在混響(如大房間)和嘈雜環(huán)境中獲得更精確的聲音。
未來,蘋果Siri團隊將繼續(xù)通過機器學習技術,在各種環(huán)境下對Siri進行訓練,如車里、廚房、咖啡店等公共場所。此外,Siri還會學習識別各種情景下用戶發(fā)出的聲音狀態(tài),不局限于最初錄入的聲音,包括正常的聲音,很高、很亮的聲音,或者早上起床昏昏沉沉時的聲音等。
最近,Siri隱私漏洞的問題備受關注。因為在該漏洞下,任何人都可以通過Siri來讀取設備主人的通知,只要按住HOME鍵或iPhone X的側邊按鍵幾秒,喚醒Siri后,喊下“幫我讀下通知”,它就會直接讀出鎖屏上的隱藏消息內(nèi)容。無論是同事、家人,甚至是路人都能執(zhí)行相同的操作,而且是在設備鎖屏情況下。
如果蘋果的“說話者識別技術”研發(fā)順利,或將能幫助其解決Siri面臨的隱私問題。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...