1、四川大学本科毕业论文(设计)任务书 (指导教师填写) 论文(设计)题目 基于学习迁移的合作式强化学习方法研究 学 院 电气信息学院 专 业 自动化 年 级 2013 级 题目来源 教师科研课题 纵向课题( ) 题目类型 理论研究( ) 注:请直接在所属项目括号内打“ ” 横向课题() 教师自拟课题( ) 应用研究( ) 学生自拟课题( ) 技术开发( ) 论文(设计)选题目的、工作任务: 强化学习是一种重要的机器学习方法,在智能控制中具有广泛的应用,基于强化学 习的控制器设计是目前的一个研究热点。在学习过程中,如何提高学习速度以及学习算法本身的泛化性能是影响强化学习控制算法性能的关键。本课题拟
2、利用学习迁移机制研究适用于复杂学习任务的合作式强化学习方法,并以智能仓储群移动机器人路径规划问题为例进行实验研究。通过本毕业论文 , 训练学生综合运用本专业知识的能力以及基本的科研技能。具体工作任务如下 1. 学习并熟悉典型强化学习理论以及迁移学习方法; 2. 针对典型应用设计适用于 大规模复杂问题的合作式 强化学习方法 , 并进行算法实现 ; 3. 对所设计算法进行系统详细的仿真实验验证 , 并应用于典型的 智能仓储群机器人路径规划问题。 目前资料收集情况(含指定参考资料): 已收 集基本的文献资料,并对该课题进行了初步的可行性论证,部分参考文献如下: 1. R. Sutton and A.
3、 G. Barto, Reinforcement Learning: An Introduction. Cambridge, MA, USA: MIT Press, 1998. 2. Q. Yang, S. J. Pan, A Survey on Transfer Learning, IEEE Transactions on Knowledge and Data Engineering, 2010, 22(10): 1345-1359. 3. L. Buoniu,et. al., A Comprehensive Survey of Multi-Agent Reinforcement Learn
4、ing. IEEE Transactions on System, Man, and Cybernetics, Part C, 2008, 38(2): 156-172. 4. Y. Hu, et. al., Multiagent Reinforcement Learning With Unshared Value Functions. IEEE Transaction on Cybernetics, 2014, 45(4): 647-662. 5. R. Elwell, R. Polikar, Incremental Learning of Concept Drift in Nonstati
5、onary Environments. IEEE Transactions on Neural Networks, 2011, 22(10): 1517-1531. 6. V. Mnih, et al., Human-level control through deep reinforcement learning, Nature, 2015, 518(7540): 529533. 论文(设计)完成计划(含时间进度): 2016 年 11 月,接受任务,确定毕业论文题目; 2016 年 12 月,提交开题报告,完成论文提纲; 2016 年 12 月至 2017 年 1 月,理解 算法, 编程 完成实验 ; 2017 年 2 月,对比现有 仓储 机器人寻迹 方法, 改进 ,找寻优势 ; 2017 年 4 月,完成 毕业设计 。 接受任务日期: 年 月 日 要求完成日期: 年 月 日 学生接受任务(签名): 指 导 教 师(签名): 学院负责人审定(签名):