从概念上看看智能机器人的新范式:深度强化学习

科技小读 2016-08-30

机器人人工智能机器学习

601 字丨阅读本文需 1 分钟

  近两年机器智能取得重大突破,像围棋九段高手李世石败北Alpha Go,DeepMind团队研发的在Atari多项游戏上超越人类水平。这些突破主要得益于从基于深度学习的视觉、语音、语义感知到动作反馈的激励惩罚强化训练模式。本文从概念上分析深度强化学习的要点,部分摘于ICML 2016 Tutorial里的Deep Reinforcement Learning[1]的报告。

  强化学习,即机器人根据环境里动作得到的惩罚和激励去自动调整策略。通过训练,机器人学到一组策略:在环境状态S下应采取动作A,(可)能获得最大累积奖励V。

  强化学习有丰富的交叉学科背景,包括经济学、工程学、神经科学里的博弈论、优化控制,条件反射系统。

  深度学习,使用深度神经网络实现机器人的记忆,视觉感知,语音语义理解和生成。

  深度强化学习以深度学习做感知,强化学习训练策略,并且以深度神经网络作为策略载体。相比于传统的多模块组合,深度强化学习实现了从感知到控制的端到端直接训练,减少了模块间信息损失。

  最近两年在学术理论上,GoogleDeepMind团队在连续性动作控制[2],异步训练[3],训练框架[4],分布式训练[5]等都有重要突破,为的研发奠定理论和实践基础。

  在特定任务的上,深度增强学习已有广泛实践尝试,例如流水线机器人。

  在集成应用上,深度强化学习在自动驾驶,聊天机器人[6][7]都有良好的前景。例如,使用分布式训练或异步训练,自动驾驶汽车可以多辆同时在各种环境学习,并且相互交换知识,加速学习过程。聊天机器人可以通过对话过程中用户的反馈来调整自己的语言表达,逐步成长。

  深度强化学习为智能机器人提供了新的计算范式:提供环境、激励和惩罚、神经网络结构即可训练得到最大化奖励的智能机器人。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:科技小读
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...