BLOG + NEWS

HOME BLOG
Google 怎麼都知道? - MUM搜尋演算法
BLOG・Speech 語音
SHARE
Google 怎麼都知道? - MUM搜尋演算法
Google 怎麼都知道? - MUM搜尋演算法
18
APR
2022
3221

Google 於2021宣布的最新語言模型 MUM (Multitask Unified Model) 相較於被廣泛使用的 BERT 有更高的語言處理能力,MUM 更像是 BERT 的進階版,能夠對應整字句的辨識分析,並串連對應前後句,以得到更多關聯資訊,從中找出有用的資訊並且依照使用者語意分析,推論出更多回應。 依照 MUM 這些強大的功能,我們分成三個部分:多模態演算(Multimodal)、多語言演算(Multilingual)與多任務學習(Multitasking)來介紹。

 

多模態演算(Multimodal):

MUM 和 BERT 一樣,都是以 Transformer 架構為基礎,而 MUM 不僅會解讀語言,還能夠生產語音內容。這種能同時處理多種資料型態的演算法特性稱為多模態,例如 AI 情緒辨識系統藉由分析對話(語音)與臉部表情(圖像)來解讀情緒,MUM 的多模態演算法則能夠同時理解文字及圖片中的訊息,讓使用者可以在打字同時加上想補充的圖片, AI 就將兩者的資訊兜在一起進行運算。未來 MUM 的多模態演算法甚至能夠擴展至同時分析文字、影像、音訊等多種媒介,讓使用者以更多元的方式進行搜索。

多語言演算(Multilingual):

MUM 同時接受了 75 種語言以及多種任務的訓練,相比先前的模型,能夠更廣泛的了解資訊及知識,讓使用者可以跨語言搜尋到各種相關的資訊。他具有打破語言障礙的潛力,能夠將知識傳播給使用各種語言的族群,消彌因為語言不同所造成的障礙。其中一個極具代表性的例子,在 COVID-19 的疫情影響之下,光是相關的疫苗名稱就高達 50 多種語言,有著 800 多種不同的名稱,原本可能需要花到幾個小時甚至是好幾週才能搜尋出合適的結果,但 Google 透過 MUM 能夠在短短幾秒之內找到相關以及可靠可用的訊息。 MUM 不需要從每一種新語言中學習新的能力或技能,它的這種跨語言遷移學習能力能夠幫助 Google 快速改善系統。

多任務學習(Multitasking):

Google 發現現在的搜尋引擎仍然不夠完善,一般搜尋平均會需要8個步驟才能夠獲取使用者所需要的完整答案。而 MUM 將能夠大幅改善搜尋的過程,這也是它最重要的一個優點。透過 MUM 輸入關鍵詞後,他會分析背後潛在的語意,同時系統會分辨出使用者想要找尋那些資訊,避開相似卻不相關的內容,精確的給出搜尋結果。以 Google 的舉例來看,使用者說明自己近期有登山過,並且考慮安排下次的登山行程,系統便會根據使用者的登山經驗,給出相對應的建議資訊,像是氣候狀態,兩山之間的高度、坡度差異等。不僅如此,系統還可以提供使用者登山合適的裝備選項,或是登山所需的體能訓練方案。或者當我們搜尋壓克力塗料時,Google 會分析用戶們搜尋它時同時也做了什麼其他相關的搜索,提供更多相關的資料,像是能夠去哪邊學習繪畫,或是各種繪畫技巧及著名的畫家。


MUM 可以同時處理文字與圖片的資訊、支援多語言搜尋、也能精確的理解搜尋前後文的關聯!這不僅改善了現有系統的許多面向,也創造出全新的方式讓使用者搜尋及探索訊息,更是 AI 理解人類自然交流、解讀訊息的一大進步。

SHARE