时间回到2018 interspeech,谷歌Rohit Prabhavalkar 和Tara Sainath做了关于谷歌在end-to-end models for Automatic Speech Recogntion的分享,具体的ppt内容可以见这里。谷歌一直走在语音识别技术的前沿,从LSTM,CTC,再到这次的LAS模型。大神们一如既往地引领大家一直追求语音识别的不断提升。
也许在同时,espnet团队也开源了espnet(end-to-end speech processing toolkit),该工具箱融合了kaldi的数据处理,特征处理;借助pytorch跟chainer,使用python把CTC跟attention模型串起来,抛弃了fst的一整套东西,同时在各个开源数据集上取得还不错的性能。目前espnet不仅仅能做语音识别,还可以做语音合成。
也与此同时,NVIDIA团队开源了openSeq2Seq,一种基于tensorflow的框架,也可以实现CTC跟seq2seq的模型。你可以基于此做翻译,语音识别,语音合成等等序列任务。个人觉得这个平台把语音解码用C++实现了,你可以快速工程化。
再来到facebook,他们先基于lua弄了一套wav2letter,但是最近他们整了一套wav2letter++。为什么叫++,那当然是用c++来实现了,那肯定也可以快速工程化了。但是wav2letter++刚开源还有一堆坑要去填。当然这个也肯定是CTC跟attention。
以上五条也许在告诉我们基于fst的语音识别框架要被end-to-end语音识别框架替代了。时代在前进,语音识别的门槛已经降低了很多很多。拥抱变化,在这快速变化的世界里才有足够多的机会。未来的语音识别一定成为一个像电、煤气的基础功能。让我们一起为这美好的开源时代欢呼。
|