谷歌AI不識字也能翻譯:直接把音頻翻成音頻,不用先轉文本
語音識別什么的,才不用呢
翻栗子 發(fā)自 凹非寺
量子位 出品 | 公眾號 QbitAI
在我們的世界里,谷歌翻譯是這樣的:
△?一直被調戲的翻譯娘
在谷歌的世界里,谷歌翻譯是這樣的:
△?西語→英語:你不問,就不會知道了
請注意,視頻里的文字只是為了便于觀賞,才存在的。
而AI在翻譯語音的時候,不把西語的音頻轉成文本,也不生成任何英語的文本,直接產(chǎn)出了英文音頻。和標答一字不差。
這是谷歌團隊的最新成果,想法大膽而有效。
仿佛在雙語環(huán)境里出生的小朋友,還沒識字,就能把爸爸說的話翻譯給媽媽。
怎么會不用看文本?
這個翻譯模型,名字叫做S2ST?(全稱Speech-to-Speech Translation) 。
不看文本只靠聽,背后的原理是把一種語音的聲譜圖?(Spectrogram) ,映射到另一種語音的聲譜圖上。
那么,聲譜圖什么樣?
下圖就是 (西語) “你好么,嘿,我是威廉,你怎么樣啊?”的聲譜圖。
△?橫軸是時間,縱軸是Mel頻率
然后是目標,英文的聲譜圖。
AI只要從大量的成對數(shù)據(jù)里,學懂英文和西語的聲譜映射關系,就算不識別人類說的是什么字,依然能當上翻譯員。
當然,一個完整的翻譯模型,并沒有上面說的這么簡單,它由三個部分組成:
一是基于注意力的序列到序列 (seq2seq) 神經(jīng)網(wǎng)絡。就是下圖的藍色部分,它負責生成目標聲譜圖,這只是第一步,還不是音頻;
二是一個聲碼器(Vocoder) 。下圖的紅色部分,它會把聲譜圖轉換成時域波形 (Time-Domain Waveforms) ,這已經(jīng)是帶有時間順序的正經(jīng)聲波了;
三是個可選的附加功能,原本說話人的編碼器。綠色部分,經(jīng)過它的加工,翻譯出的英文,和原本的西語,聽上去就像同一個人發(fā)出來的。
當然,藍色部分還是主角。
里面的編碼器 (左) ,是8層雙向LSTM堆起來的;而解碼器 (Spectrogram Decoder) ,團隊說要選4-6層LSTM的,深一點效果比較好。
成功了
模型是用人類自發(fā)的對話 (比如打電話的語音) 端到端訓練出來的,一起來看看成果吧。
第一題,短語。“克蘭菲爾德大學的新員工”,翻譯和標答一字不差。
原文:nuevos empleados de Cranfield University
標答:New hires at Cranfield University
第二題,句子。“看看這個國家上下,你看到了什么”,依然和標答一致。
原文:Por lo tanto, mirar alrededor del país y lo que ves.
標答:So, look around the country and what do you see?
對手表現(xiàn)怎樣?借助轉換文本來翻譯的AI,缺了個“do”字:
第三題,帶從句的句子。“我的表 (堂) 兄弟姐妹們小的時候,我照顧過他們也教過他們,有過一些這樣的經(jīng)歷。”
原文:Tengo cierta experiencia en cuidar y ense?ar a mis primos cuando eran jóvenes.
標答:I’ve got some experience in looking after and teaching my cousins when they were young.
照顧?(Taking?Care of) 有缺失,其他部分對比標答是完整的。
再看對手,“照顧 (Care) ”和“教 (Teach) ”都用了動詞原形,語法不是很嚴格:
肉眼看過之后,再讓S2ST和先轉換文本再翻譯的AI對比一下BLEU分。
在“Conversational”大數(shù)據(jù)集上,S2ST的BLEU分比對手差了6分:42.7比48.7。
的確還有一些差距,但畢竟對手依靠了文本,算是開卷考了。
這樣說來,直接跳過文本的想法,雖然聽起來有些飄,但結果證明是可行的。
所以,谷歌團隊說,大有可為啊。
論文傳送門:
https://arxiv.org/pdf/1904.06037.pdf
更多樣本傳送門:
https://google-research.github.io/lingvo-lab/translatotron/
- 馬云正式卸任后,阿里巴巴開盤跌0.87%2019-09-10
- 亞馬遜在華拓展云計算團隊,挑戰(zhàn)阿里巴巴和騰訊2019-10-16
- AI獨角獸云知聲,已完成一期科創(chuàng)板IPO輔導2019-10-17
- IDC:今年上半年中國公有云服務市場規(guī)模達54.2億美元2019-11-07




