發(fā)表日期:2019-11 文章編輯:小燈 瀏覽次數(shù):5124
學(xué)完 DeepLearning 系列課程后就想做一個(gè)小應(yīng)用試試。一開(kāi)始基于 RNN 訓(xùn)練了個(gè)古詩(shī)機(jī)器人,這個(gè)做的人很多,于是換了宋詞。宋詞是基于詞牌生成,相對(duì)數(shù)據(jù)量比較少,基于 RNN 訓(xùn)練效果很一般。后來(lái)了解到了 Transformer 算法感覺(jué)發(fā)現(xiàn)了生機(jī),訓(xùn)練了一下感覺(jué)效果真是不錯(cuò)。
使用效果測(cè)試的話可以直接掃碼訪問(wèn)這個(gè)小程序玩玩, 或者小程序搜索 【小詩(shī)一首】:
這是生成的例子:
Transformer 是 Google 于 2017 年在 Attention Is All You Need 論文中提出,基于 Attention 機(jī)制,在機(jī)器翻譯及其他語(yǔ)言理解任務(wù)有著以往無(wú)法比擬的效果,后 2018 年又提出 Universal Transformer, 在多項(xiàng)有難度的語(yǔ)言理解任務(wù)上泛化效果明顯更好。Transformer 解決 RNN 存在的長(zhǎng)序列信息丟失的問(wèn)題,像宋詞這種講究格式講究押韻的語(yǔ)句,在 RNN 中就很難訓(xùn)練到好的效果,但是 Transformer 就可以很好的提取訓(xùn)練宋詞中的格式以及押韻特征。
想深入學(xué)習(xí) Transformer 以及算法可以看 Tensorflow 官方的教程. 等下篇文章我也詳細(xì)介紹如何基于 Transformer 訓(xùn)練一個(gè)宋詞機(jī)器人,包括如何預(yù)處理訓(xùn)練數(shù)據(jù),如何使用模型生成序列文本。
日期:2019-11 瀏覽次數(shù):5630
日期:2019-11 瀏覽次數(shù):12087
日期:2019-11 瀏覽次數(shù):4449
日期:2019-11 瀏覽次數(shù):5496
日期:2019-11 瀏覽次數(shù):5346
日期:2019-11 瀏覽次數(shù):7326
日期:2019-11 瀏覽次數(shù):5256
日期:2019-11 瀏覽次數(shù):15877
日期:2019-11 瀏覽次數(shù):4833
日期:2019-11 瀏覽次數(shù):6623
日期:2019-11 瀏覽次數(shù):5501
日期:2019-11 瀏覽次數(shù):4672
日期:2019-11 瀏覽次數(shù):10919
日期:2019-11 瀏覽次數(shù):8442
日期:2019-11 瀏覽次數(shù):5179
日期:2019-11 瀏覽次數(shù):4422
日期:2019-11 瀏覽次數(shù):9082
日期:2019-11 瀏覽次數(shù):4762
日期:2019-11 瀏覽次數(shù):4959
日期:2019-11 瀏覽次數(shù):4965
日期:2019-11 瀏覽次數(shù):4618
日期:2019-11 瀏覽次數(shù):5123
日期:2019-11 瀏覽次數(shù):10409
日期:2019-11 瀏覽次數(shù):5563
日期:2019-11 瀏覽次數(shù):5560
日期:2019-11 瀏覽次數(shù):5003
日期:2019-11 瀏覽次數(shù):12473
日期:2019-11 瀏覽次數(shù):7471
日期:2019-11 瀏覽次數(shù):8031
日期:2019-11 瀏覽次數(shù):4952
Copyright ? 2013-2018 Tadeng NetWork Technology Co., LTD. All Rights Reserved.