CASIA OpenIR

浏览/检索结果: 共621条,第1-10条 帮助

已选(0)清除 条数/页:   排序方式:
Learning Top-K Subtask Planning Tree Based on Discriminative Representation Pretraining for Decision-making 期刊论文
Machine Intelligence Research, 2024, 卷号: 21, 期号: 4, 页码: 782-800
作者:  Jingqing Ruan;   Kaishen Wang;   Qingyang Zhang;   Dengpeng Xing;   Bo Xu
Adobe PDF(4577Kb)  |  收藏  |  浏览/下载:6/3  |  提交时间:2024/07/18
Reinforcement learning  representation learning  subtask planning  task decomposition  pretraining.  
Lazy Agents: A New Perspective on Solving Sparse Reward Problem in Multi-agent Reinforcement Learning 期刊
创刊日期: 2018,
主办者:  Liu BY(刘博寅)
Adobe PDF(5797Kb)  |  收藏  |  浏览/下载:22/5  |  提交时间:2024/07/12
QFuture: Learning Future Expectation Cognition in Multi-Agent Reinforcement Learning 期刊论文
IEEE Transactions on Cognitive and Developmental Systems, 2024, 页码: 12
作者:  Liu BY(刘博寅)
Adobe PDF(6675Kb)  |  收藏  |  浏览/下载:16/2  |  提交时间:2024/07/12
Offline Hierarchical Reinforcement Learning: Enable Large-Scale Training in HRL 会议论文
, Nanjing, 2023-11-27
作者:  Yuqiao Wu;  Haifeng Zhang;  Jun Wang
Adobe PDF(1339Kb)  |  收藏  |  浏览/下载:19/4  |  提交时间:2024/07/12
面向多机器人博弈的深度强化学习方法 学位论文
, 2024
作者:  胡光政
Adobe PDF(17740Kb)  |  收藏  |  浏览/下载:36/0  |  提交时间:2024/07/04
多智能体深度强化学习  多机器人博弈  极小极大Q学习  值分解  最大熵  
自适应分布式聚合博弈广义纳什均衡算法 期刊论文
自动化学报, 2024, 卷号: 50, 期号: 6, 页码: 1210-1220
作者:  时侠圣;  任璐;  孙长银
Adobe PDF(1595Kb)  |  收藏  |  浏览/下载:19/9  |  提交时间:2024/07/02
聚合博弈  自适应  比例积分  梯度跟踪  一般线性多智能体系统  
基于表征学习的离线强化学习方法研究综述 期刊论文
自动化学报, 2024, 卷号: 50, 期号: 6, 页码: 1104-1128
作者:  王雪松;  王荣荣;  程玉虎
Adobe PDF(3333Kb)  |  收藏  |  浏览/下载:15/10  |  提交时间:2024/07/02
强化学习  离线强化学习  表征学习  历史经验数据  分布偏移  
面向算力网络的智慧调度综述 期刊论文
自动化学报, 2024, 卷号: 50, 期号: 6, 页码: 1086-1103
作者:  李逸博;  李小平;  王爽;  蒋嶷川
Adobe PDF(1752Kb)  |  收藏  |  浏览/下载:14/9  |  提交时间:2024/07/02
算力网络  云计算  边缘计算  资源调度  知识  
双足机器人步态生成的研究 学位论文
, 2024
作者:  崔凌志
Adobe PDF(7077Kb)  |  收藏  |  浏览/下载:32/1  |  提交时间:2024/07/01
请双足机器人控制  混合零动力  轨迹自由强化学习  周期性步态奖励机制  动态步态优化  模型融合策略  
自然语言嵌入的深度强化学习探索方法研究 学位论文
, 2024
作者:  郭洲蕊
Adobe PDF(7588Kb)  |  收藏  |  浏览/下载:35/1  |  提交时间:2024/06/26
深度强化学习  自然语言  探索