Tensorflow:基于LSTM轻松生成各种古诗

Tensorflow:基于LSTM轻松生成各种古诗

 向AI转型的程序员都关注了这个号???


大数据挖掘DT数据分析  公众号: datadw


本文代码在公众号 datadw 里 回复 古诗  即可获取。



RNN不像传统的神经网络-它们的输出输出是固定的,而RNN允许我们输入输出向量序列。RNN是为了对序列数据进行建模而产生的。

样本序列性:样本间存在顺序关系,每个样本和它之前的样本存在关联。比如说,在文本中,一个词和它前面的词是有关联的;在气象数据中,一天的气温和前几天的气温是有关联的。

例如本帖要使用RNN生成古诗,你给它输入一堆古诗词,它会学着生成和前面相关联的字词。如果你给它输入一堆姓名,它会学着生成姓名;给它输入一堆古典乐/歌词,它会学着生成古典乐/歌词,甚至可以给它输入源代码。

关于RNN:

  • TensorFlow练习3: RNN, Recurrent Neural Networks

  • http://karpathy.github.io/2015/05/21/rnn-effectiveness/

本帖代码移植自char-rnn,https://github.com/karpathy/char-rnn

它是基于Torch的洋文模型,稍加修改即可应用于中文。char-rnn使用文本文件做为输入、训练RNN模型,然后使用它生成和训练数据类似的文本。

使用的数据集:全唐诗(43030首):

本文代码在公众号 datadw 里 回复 古诗  即可获取。



模型生成

首先我们要训练好模型。这里采用的是2层的LSTM框架,每层有128个隐藏层节点,batch_size设为64。训练数据来源于全唐诗(可在上面百度云资源分享当中找到)。特别注意到的一点是这里每训练完一次就对训练数据做shuffle。 
源代码如下:


Tensorflow:基于LSTM轻松生成各种古诗


使用该代码会将训练好的模型参数保存在 “model” 文件夹下。经过100个epoch之后,平均loss会降到2.6左右。训练好的模型在公众号 datadw 里 回复 古诗  即可获取。

生成古诗

使用训练好的模型可以轻松生成各种古诗。 
下面就是几个例子:

Tensorflow:基于LSTM轻松生成各种古诗

Tensorflow:基于LSTM轻松生成各种古诗

生成藏头诗

上代码:

Tensorflow:基于LSTM轻松生成各种古诗


最后从函数接口可以看到,除了可以自己定义诗的头外,还可以定义是五言绝句还是七言绝句。 
来看几个五言绝句的例子:

Tensorflow:基于LSTM轻松生成各种古诗

Tensorflow:基于LSTM轻松生成各种古诗

再来看几个七言绝句的例子:

Tensorflow:基于LSTM轻松生成各种古诗

Tensorflow:基于LSTM轻松生成各种古诗

那么是不是可以用它来写情诗呢? 
当然可以啦!

Tensorflow:基于LSTM轻松生成各种古诗

via http://blog.****.net/u014232627/article/details/71189078


人工智能大数据与深度学习

搜索添加微信公众号:weic2c

Tensorflow:基于LSTM轻松生成各种古诗

长按图片,识别二维码,点关注



大数据挖掘DT数据分析

搜索添加微信公众号:datadw


教你机器学习,教你数据挖掘

Tensorflow:基于LSTM轻松生成各种古诗

长按图片,识别二维码,点关注