ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

Reinforcement Learning as One Big Sequence Modeling Problem

2021-08-28 06:00:23  阅读:314  来源: 互联网

标签:transformer Sequence Big Reinforcement improvement 离散 policy 拟合 RL



发表时间:2021
文章要点:这篇文章把RL看作序列建模问题(sequence modeling problem),直接用transformer来拟合整个序列

(reats states, actions, and rewards as simply a stream of data,其实还拟合了reward-to-to return),拟合完了后就直接用这个transformer来做预测,中间还用了beam search来选候选动作(beam search参见知乎链接)。然后和imitation learning,offline RL作比较,取得了相仿甚至更优的效果。注意这个模型只能处理离散化的输入,所以如果是连续空间,还要把state,action,reward都离散化。
总结:这篇文章和Decision Transformer很类似,而且都是伯克利的,感觉就是一群人干的。他想说这么做的好处就是避免了去学policy和value,就避免了RL里面遇到的很多问题。比如绕开用TD或者policy gradient方法去求,就不需要去设计复杂的约束,以及考虑估计不准等等问题了。好像说的有点道理,但是回过头来想,这不就是个模仿学习吗?你看他的实验还是只能在imitation learning ,offline RL这种上面做,其实就是因为它只有模仿或者说监督学习,没有policy improvement的过程。所以还是不能用在general RL的问题上,毕竟这个东西没法做policy improvement,就没法和环境交互产生新策略。
疑问:离散化的过程不知道原理:

标签:transformer,Sequence,Big,Reinforcement,improvement,离散,policy,拟合,RL
来源: https://www.cnblogs.com/initial-h/p/15195812.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有