淺談神經機器翻譯 & 用 Transformer 與 TensorFlow 2 英翻中

李孟(Lee Meng)
2 min readJun 18, 2019
巴別塔

那時,全世界的語言都一樣。人們說:『來吧,我們要建一座塔,塔頂通天,為了揚我們的名,免得我們被分散到世界各地。』耶和華說:『看哪!他們成爲一樣的人民、用同樣的語言。如今既蓋起塔來,以後就沒有他們無法完成的事情了。我們下去!在那裏變亂他們的口音,使他們的言語彼此不通。』
─ 《創世記》第十一章

這是聖經中著名的巴別塔橋段,用來解釋為何當今世上有那麼多種語言。當年的上帝或許過於杞人憂天,但近年多虧了深度學習機器翻譯的快速發展讓人不禁覺得,或許巴別塔很快就不再只是虛幻傳說了。

部落格上最新的文章透過大量生動的動畫,讓讀者能夠直觀地了解神經機器翻譯、自注意力機制以及如何使用強大的 Transformer 架構實作一個可以將英文句子翻譯成中文的機器翻譯系統。

該篇文章是 Transformer 的終極懶人包,透過視覺化 Transformer 處理高達 4 維空間的數據過程,我幫你把概念、實作、運算 3 者緊密結合,是一篇我希望當年的自己能夠找到的文章。

在閱讀完該文後你將能:

- 了解神經機器翻譯的關鍵概念與模型
- 熟悉 Seq2Seq 模型及自注意力機制等在序列生成任務裡的重要概念
- 直觀理解 Transformer 各元件的運作概念
- 動手打造一個英翻中的 Transformer

透過 Transformer 與注意力機制做英中翻譯

有興趣深入了解的讀者還請移駕到原始的部落格文章閱讀。(裡頭沒有任何廣告,只是內容實在太多無法導入 Medium)

我們在那邊見!

--

--

李孟(Lee Meng)

資料科學家,現居東京。軟體工程出身,最近努力學習資料科學並加以應用。 假日在東京市區騎著腳踏車冒險、尋找美食。懶得動的時候就待在咖啡廳寫寫程式