ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

MFMARL(Mean Field Multi-Agent Reinforcement Learning)实现

2021-01-11 15:02:39  阅读:807  来源: 互联网

标签:Multi 智能 模型 py Reinforcement Field Ising battle python3


Mean Field Multi-Agent Reinforcement Learning(MFMARL) 是伦敦大学学院(UCL)计算机科学系教授汪军提出的一个多智能体强化学习算法。主要致力于极大规模的多智能体强化学习问题,解决大规模智能体之间的交互及计算困难。由于多智能体强化学习问题不仅有环境交互问题,还有智能体之间的动态影响,因此为了得到最优策略,每个智能体都需要考察其他智能体的动作及状态得到联合动作值函数。

实验代码:https://github.com/mlii/mfrl

文件:

  • main_MFQ_Ising.py文件:包含用于运行基于表格的MFQ for Ising模型的代码。

  • ./examples/ 文件夹:包含Ising模型和Battle Game(也包括模型)的场景。

  • battle.py文件:包含用于使用经过训练的模型运行《 Battle Game》的代码

  • train_battle.py文件:包含用于训练对战游戏模型的代码

环境:

  • python==3.6.9
  • gym==0.10.5 
  • matplotlib 如果您想使用并生成Ising模型。

在运行Battle Game环境之前,您需要对其进行编译。

cd examples/battle_model
./build.sh

运行训练脚本进行训练(例如mfac):

python3 train_battle.py --algo mfac

help帮助指令:

python3 train_battle.py --help

实现命令:

python3 battle.py

结果:

 

标签:Multi,智能,模型,py,Reinforcement,Field,Ising,battle,python3
来源: https://www.cnblogs.com/Fiona-Y/p/14262177.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有