BLOG + NEWS

HOME BLOG
Google 怎麼都知道? - MUM搜尋演算法
BLOG・Speech 語音
SHARE
Google 怎麼都知道? - MUM搜尋演算法
Google 怎麼都知道? - MUM搜尋演算法
18
APR
2022
637

Google 於2021宣布的最新語言模型 MUM (Multitask Unified Model) 相較於被廣泛使用的 BERT 有更高的語言處理能力,MUM 更像是 BERT 的進階版,能夠對應整字句的辨識分析,並串連對應前後句,以得到更多關聯資訊,從中找出有用的資訊並且依照使用者語意分析,推論出更多回應。 依照 MUM 這些強大的功能,我們分成三個部分:多模態演算(Multimodal)、多語言演算(Multilingual)與多任務學習(Multitasking)來介紹。

 

多模態演算(Multimodal):

MUM 和 BERT 一樣,都是以 Transformer 架構為基礎,而 MUM 不僅會解讀語言,還能夠生產語音內容。這種能同時處理多種資料型態的演算法特性稱為多模態,例如 AI 情緒辨識系統藉由分析對話(語音)與臉部表情(圖像)來解讀情緒,MUM 的多模態演算法則能夠同時理解文字及圖片中的訊息,讓使用者可以在打字同時加上想補充的圖片, AI 就將兩者的資訊兜在一起進行運算。未來 MUM 的多模態演算法甚至能夠擴展至同時分析文字、影像、音訊等多種媒介,讓使用者以更多元的方式進行搜索。

多語言演算(Multilingual):

MUM 同時接受了 75 種語言以及多種任務的訓練,相比先前的模型,能夠更廣泛的了解資訊及知識,讓使用者可以跨語言搜尋到各種相關的資訊。他具有打破語言障礙的潛力,能夠將知識傳播給使用各種語言的族群,消彌因為語言不同所造成的障礙。其中一個極具代表性的例子,在 COVID-19 的疫情影響之下,光是相關的疫苗名稱就高達 50 多種語言,有著 800 多種不同的名稱,原本可能需要花到幾個小時甚至是好幾週才能搜尋出合適的結果,但 Google 透過 MUM 能夠在短短幾秒之內找到相關以及可靠可用的訊息。 MUM 不需要從每一種新語言中學習新的能力或技能,它的這種跨語言遷移學習能力能夠幫助 Google 快速改善系統。

多任務學習(Multitasking):

Google 發現現在的搜尋引擎仍然不夠完善,一般搜尋平均會需要8個步驟才能夠獲取使用者所需要的完整答案。而 MUM 將能夠大幅改善搜尋的過程,這也是它最重要的一個優點。透過 MUM 輸入關鍵詞後,他會分析背後潛在的語意,同時系統會分辨出使用者想要找尋那些資訊,避開相似卻不相關的內容,精確的給出搜尋結果。以 Google 的舉例來看,使用者說明自己近期有登山過,並且考慮安排下次的登山行程,系統便會根據使用者的登山經驗,給出相對應的建議資訊,像是氣候狀態,兩山之間的高度、坡度差異等。不僅如此,系統還可以提供使用者登山合適的裝備選項,或是登山所需的體能訓練方案。或者當我們搜尋壓克力塗料時,Google 會分析用戶們搜尋它時同時也做了什麼其他相關的搜索,提供更多相關的資料,像是能夠去哪邊學習繪畫,或是各種繪畫技巧及著名的畫家。


MUM 可以同時處理文字與圖片的資訊、支援多語言搜尋、也能精確的理解搜尋前後文的關聯!這不僅改善了現有系統的許多面向,也創造出全新的方式讓使用者搜尋及探索訊息,更是 AI 理解人類自然交流、解讀訊息的一大進步。

SHARE
Article Tags
Privacy 隱私 Federated Learning 聯合式學習 ASR 語音辨識 Emotion Recognition 情緒辨識 Psychology 心理學 Healthcare 醫療 Algorithm 演算法 Edge Computing 終端運算 Human Behavior 人類行為 Multimedia 多媒體 NLP 自然語言處理 Signal Processing 訊號處理