【#第一文档网# 导语】以下是®第一文档网的小编为您整理的《四川大学本科毕业论文(设计)任务书》,欢迎阅读!

四川大学本科毕业论文(设计)任务书
(指导教师填写)
论文(设计)
基于学习迁移的合作式强化学习方法研究
题目
学 院 电气信息学院 专 业 自动化 年 级 2013级
教师科研
课题
题目来源
纵向课题(√) 横向课题()
题目类型
理论研究(√) 应用研究( ) 技术开发( )
教师自拟课题( ) 学生自拟课题( )
注:请直接在所属项目括号内打“√”
论文(设计)选题目的、工作任务:
强化学习是一种重要的机器学习方法,在智能控制中具有广泛的应用,基于强化学习的控制器设计是目前的一个研究热点。在学习过程中,如何提高学习速度以及学习算法本身的泛化性能是影响强化学习控制算法性能的关键。本课题拟利用学习迁移机制研究适用于复杂学习任务的合作式强化学习方法,并以智能仓储群移动机器人路径规划问题为例进行实验研究。通过本毕业论文,训练学生综合运用本专业知识的能力以及基本的科研技能。具体工作任务如下 1. 学习并熟悉典型强化学习理论以及迁移学习方法;
2. 针对典型应用设计适用于大规模复杂问题的合作式强化学习方法,并进行算法实现;
3. 对所设计算法进行系统详细的仿真实验验证,并应用于典型的智能仓储群机器人路径规划问题。
目前资料收集情况(含指定参考资料):
已收集基本的文献资料,并对该课题进行了初步的可行性论证,部分参考文献如下:
[1]. R. Sutton and A. G. Barto, Reinforcement Learning: An Introduction. Cambridge, MA, USA: MIT Press, 1998. [2]. Q. Yang, S. J. Pan, A Survey on Transfer Learning, IEEE Transactions on Knowledge and Data Engineering, 2010,
22(10): 1345-1359.
[3]. L. Buşoniu,et. al., A Comprehensive Survey of Multi-Agent Reinforcement Learning. IEEE Transactions on System,
Man, and Cybernetics, Part C, 2008, 38(2): 156-172.
[4]. Y. Hu, et. al., Multiagent Reinforcement Learning With Unshared Value Functions. IEEE Transaction on Cybernetics,
2014, 45(4): 647-662.
[5]. R. Elwell, R. Polikar, Incremental Learning of Concept Drift in Nonstationary Environments. IEEE Transactions on
Neural Networks, 2011, 22(10): 1517-1531.
[6]. V. Mnih, et al., Human-level control through deep reinforcement learning, Nature, 2015, 518(7540): 529–533.
论文(设计)完成计划(含时间进度): 2016年11月,接受任务,确定毕业论文题目; 2016年12月,提交开题报告,完成论文提纲;
2016年12月至2017年1月,理解算法,编程完成实验; 2017年2月,对比现有仓储机器人寻迹方法,改进,找寻优势; 2017年4月,完成毕业设计。
接受任务日期: 年 月 日 要求完成日期: 年 月 日 学生接受任务(签名): 指 导 教 师(签名):
学院负责人审定(签名):
本文来源:https://www.dy1993.cn/fZlx.html