Knowledge Commons of Institute of Automation,CAS
Balancing Exploration and Exploitation in Hierarchical Reinforcement Learning via Latent Landmark Graphs | |
Zhang Qingyang1,2; Yang Yiming1; Ruan Jingqing1,2; Xiong Xuantang1,3; Xing Dengpeng1,3; Xu Bo1,2,3 | |
2023-06 | |
会议名称 | The International Joint Conference on Neural Networks |
会议日期 | 2023-6 |
会议地点 | 澳大利亚 |
出版者 | IEEE |
摘要 | Goal-Conditioned Hierarchical Reinforcement Learning (GCHRL) is a promising paradigm to address the exploration-exploitation dilemma in reinforcement learning. It decomposes the source task into subgoal conditional subtasks and conducts exploration and exploitation in the subgoal space. The effectiveness of GCHRL heavily relies on subgoal representation functions and subgoal selection strategy. However, existing works often overlook the temporal coherence in GCHRL when learning latent subgoal representations and lack an efficient subgoal selection strategy that balances exploration and exploitation. This paper proposes HIerarchical reinforcement learning via dynamically building Latent Landmark graphs (HILL) to overcome these limitations. HILL learns latent subgoal representations that satisfy temporal coherence using a contrastive representation learning objective. |
关键词 | 强化学习,分层强化学习 |
收录类别 | EI |
语种 | 英语 |
是否为代表性论文 | 否 |
七大方向——子方向分类 | 强化与进化学习 |
国重实验室规划方向分类 | 多尺度信息处理 |
是否有论文关联数据集需要存交 | 否 |
文献类型 | 会议论文 |
条目标识符 | http://ir.ia.ac.cn/handle/173211/57587 |
专题 | 复杂系统认知与决策实验室_听觉模型与认知计算 |
作者单位 | 1.中国科学院自动化研究所 2.中国科学院大学未来技术学院 3.中国科学院大学人工智能学院 |
第一作者单位 | 中国科学院自动化研究所 |
推荐引用方式 GB/T 7714 | Zhang Qingyang,Yang Yiming,Ruan Jingqing,et al. Balancing Exploration and Exploitation in Hierarchical Reinforcement Learning via Latent Landmark Graphs[C]:IEEE,2023. |
条目包含的文件 | 下载所有文件 | |||||
文件名称/大小 | 文献类型 | 版本类型 | 开放类型 | 使用许可 | ||
Balancing_Exploratio(7948KB) | 会议论文 | 开放获取 | CC BY-NC-SA | 浏览 下载 |
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。
修改评论