用户名*
邮箱*
密码*
确认密码*
验证码* 点击图片更换验证码
找回密码
忘记密码了?输入你的注册邮箱,并点击重置,稍后,你将会收到一封密码重置邮件。
有哪些机器学习模型可以产生一句话?
假若她日相逢,我将何以贺你?以沉默,以眼泪。
你说的就是NLP里最经典的task:语言模型(language model)。目前的state of the art是基于LSTM的方法。
RNN,CRF,HMMs等
rnn啊,sequence to sequence learning
语言模型都可以,包括ngram,rnnlm等
1.ngram 2.Word Embedding 利用Word Embedding自动生成语义相近句子
对话模型
没做过这种类型,但是我觉得神经网络加遗传算法应该可以写出优美的诗,神经网络打分,遗传算法迭代
natural language generation是一个很大的topic,也很前沿。以dialogue generation为例,偏传统的方法用一些phrase-based method。目前比较主流的方法一般是基于 RNN LSTM的 sequence-to-sequence learning。但这样生成的句子或多或少存在过于generic的问题。比方说无论问什么问题都回答i don’t know 是最保险的做法。并且句子中的随机性也不够强,下一次问同样的问题还是会给出同样的答案。所以感觉严格上说其实更像是prediction 而不是generation ┑( ̄Д  ̄)┍
最近有一些基于deep generative network 的方法,从VAE或者GAN的角度解决句子的多样性问题,比较有趣,值得研究。
如果只是单纯的产生一句话的话,ngram就行了,4-grams应该就已经可以产生相当数量有意义的句子了。
昵称*
E-Mail*
回复内容*
回复 ( 9 )
你说的就是NLP里最经典的task:语言模型(language model)。目前的state of the art是基于LSTM的方法。
RNN,CRF,HMMs等
rnn啊,sequence to sequence learning
语言模型都可以,包括ngram,rnnlm等
1.ngram 2.Word Embedding 利用Word Embedding自动生成语义相近句子
对话模型
没做过这种类型,但是我觉得神经网络加遗传算法应该可以写出优美的诗,神经网络打分,遗传算法迭代
natural language generation是一个很大的topic,也很前沿。以dialogue generation为例,偏传统的方法用一些phrase-based method。目前比较主流的方法一般是基于 RNN LSTM的 sequence-to-sequence learning。但这样生成的句子或多或少存在过于generic的问题。比方说无论问什么问题都回答i don’t know 是最保险的做法。并且句子中的随机性也不够强,下一次问同样的问题还是会给出同样的答案。所以感觉严格上说其实更像是prediction 而不是generation ┑( ̄Д  ̄)┍
最近有一些基于deep generative network 的方法,从VAE或者GAN的角度解决句子的多样性问题,比较有趣,值得研究。
如果只是单纯的产生一句话的话,ngram就行了,4-grams应该就已经可以产生相当数量有意义的句子了。