google-deepmind/open_spiel
GitHub: google-deepmind/open_spiel
DeepMind 开发的强化学习与博弈论研究框架,提供多种博弈环境和算法实现。
Stars: 5086 | Forks: 1098
# OpenSpiel:博弈中的强化学习框架
[](https://openspiel.readthedocs.io/en/latest/?badge=latest)

[](https://www.python.org)
OpenSpiel 是一个环境和算法的集合,旨在研究博弈中的通用强化学习和搜索/规划。OpenSpiel 支持 n 人(单智能体和多智能体)零和、合作及一般和、单次及序列、严格回合制及同时行动、完美及非完美信息博弈,以及传统的多智能体环境,如(部分可观察和完全可观察的)网格世界和社会困境。OpenSpiel 还包括分析学习动态和其他常见评估指标的工具。博弈被表示为程序化的扩展型博弈,并包含一些自然扩展。核心 API 和博弈使用 C++ 实现,并暴露给 Python。算法和工具同时使用 C++ 和 Python 编写。
要在 Google Colaboratory 中试用 OpenSpiel,请参考 `open_spiel/colabs` 子目录或从此处[开始](https://colab.research.google.com/github/deepmind/open_spiel/blob/master/open_spiel/colabs/install_open_spiel.ipynb)。
标签:AI研究, Apex, C++, DeepMind, PyRIT, Python, 不完全信息博弈, 人工智能, 元博弈, 博弈模拟, 博弈环境, 博弈论, 合作博弈, 多智能体系统, 开源框架, 强化学习, 强化学习环境, 持续集成, 搜索算法, 数据擦除, 无后门, 机器学习, 深度学习, 游戏理论, 用户模式Hook绕过, 社会困境, 纳什均衡, 网格世界, 蒙特卡洛树搜索, 规划算法, 谷歌, 逆向工具, 零和博弈