google-deepmind/open_spiel

GitHub: google-deepmind/open_spiel

DeepMind 开发的强化学习与博弈论研究框架,提供多种博弈环境和算法实现。

Stars: 5086 | Forks: 1098

# OpenSpiel:博弈中的强化学习框架 [![文档状态](https://readthedocs.org/projects/openspiel/badge/?version=latest)](https://openspiel.readthedocs.io/en/latest/?badge=latest) ![build_and_test](https://static.pigsec.cn/wp-content/uploads/repos/2026/03/94db71df3d203748.svg) [![Python 3.11](https://img.shields.io/badge/python-3.11-blue.svg)](https://www.python.org) OpenSpiel 是一个环境和算法的集合,旨在研究博弈中的通用强化学习和搜索/规划。OpenSpiel 支持 n 人(单智能体和多智能体)零和、合作及一般和、单次及序列、严格回合制及同时行动、完美及非完美信息博弈,以及传统的多智能体环境,如(部分可观察和完全可观察的)网格世界和社会困境。OpenSpiel 还包括分析学习动态和其他常见评估指标的工具。博弈被表示为程序化的扩展型博弈,并包含一些自然扩展。核心 API 和博弈使用 C++ 实现,并暴露给 Python。算法和工具同时使用 C++ 和 Python 编写。 要在 Google Colaboratory 中试用 OpenSpiel,请参考 `open_spiel/colabs` 子目录或从此处[开始](https://colab.research.google.com/github/deepmind/open_spiel/blob/master/open_spiel/colabs/install_open_spiel.ipynb)。

OpenSpiel visual asset

# 目录 请在以下选项中进行选择: * [安装 OpenSpiel](docs/install.md) * [OpenSpiel 简介](docs/intro.md) * [API 概览与首个示例](docs/concepts.md) * [API 参考](docs/api_reference.md) * [已实现博弈概览](docs/games.md) * [已实现算法概览](docs/algorithms.md) * [开发者指南](docs/developer_guide.md) * [作为 C++ 库使用 OpenSpiel](docs/library.md) * [准则与贡献](docs/contributing.md) * [作者](docs/authors.md) 有关核心概念、形式体系和术语的更详细介绍,包括算法概览和一些结果,请参阅 [OpenSpiel:博弈中的强化学习框架](https://arxiv.org/abs/1908.09453)。 有关 OpenSpiel 的概览及核心 API 的使用示例,请查看我们的教程: * [动机、核心 API、复制者动力学与非完美信息博弈简介](https://www.youtube.com/watch?v=8NCPqtPwlFQ),作者:Marc Lanctot。 [(幻灯片)](http://mlanctot.info/files/OpenSpiel_Tutorial_KU_Leuven_2022.pdf) [(colab)](https://colab.research.google.com/github/deepmind/open_spiel/blob/master/open_spiel/colabs/OpenSpielTutorial.ipynb) * [动机、核心 API、在 Kuhn 扑克、Leduc 扑克和 Goofspiel 上实现 CFR 和 REINFORCE](https://www.youtube.com/watch?v=o6JNHoGUXCo),作者:Edward Lockhart。 [(幻灯片)](http://mlanctot.info/files/open_spiel_tutorial-mar2021-comarl.pdf) [(colab)](https://colab.research.google.com/github/deepmind/open_spiel/blob/master/open_spiel/colabs/CFR_and_REINFORCE.ipynb) 如果您在研究中使用了 OpenSpiel,请使用以下 BibTeX 引用该论文: ``` @article{LanctotEtAl2019OpenSpiel, title = {{OpenSpiel}: A Framework for Reinforcement Learning in Games}, author = {Marc Lanctot and Edward Lockhart and Jean-Baptiste Lespiau and Vinicius Zambaldi and Satyaki Upadhyay and Julien P\'{e}rolat and Sriram Srinivasan and Finbarr Timbers and Karl Tuyls and Shayegan Omidshafiei and Daniel Hennes and Dustin Morrill and Paul Muller and Timo Ewalds and Ryan Faulkner and J\'{a}nos Kram\'{a}r and Bart De Vylder and Brennan Saeta and James Bradbury and David Ding and Sebastian Borgeaud and Matthew Lai and Julian Schrittwieser and Thomas Anthony and Edward Hughes and Ivo Danihelka and Jonah Ryan-Davis}, year = {2019}, eprint = {1908.09453}, archivePrefix = {arXiv}, primaryClass = {cs.LG}, journal = {CoRR}, volume = {abs/1908.09453}, url = {http://arxiv.org/abs/1908.09453}, } ``` ## 版本控制 我们使用[语义化版本控制](https://semver.org/)。
标签:AI研究, Apex, C++, DeepMind, PyRIT, Python, 不完全信息博弈, 人工智能, 元博弈, 博弈模拟, 博弈环境, 博弈论, 合作博弈, 多智能体系统, 开源框架, 强化学习, 强化学习环境, 持续集成, 搜索算法, 数据擦除, 无后门, 机器学习, 深度学习, 游戏理论, 用户模式Hook绕过, 社会困境, 纳什均衡, 网格世界, 蒙特卡洛树搜索, 规划算法, 谷歌, 逆向工具, 零和博弈