CN106056213B - 使用目标和观察来选择强化学习动作 - Google Patents
使用目标和观察来选择强化学习动作 Download PDFInfo
- Publication number
- CN106056213B CN106056213B CN201610328938.5A CN201610328938A CN106056213B CN 106056213 B CN106056213 B CN 106056213B CN 201610328938 A CN201610328938 A CN 201610328938A CN 106056213 B CN106056213 B CN 106056213B
- Authority
- CN
- China
- Prior art keywords
- neural network
- action
- target
- actions
- observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
本发明涉及一种用于使用目标和观察的强化学习的方法、系统和装置,包括在计算机存储介质上编码的计算机程序。所述方法中的一个包括接收表征环境的当前状态的观察;接收表征来自环境的目标状态集的目标状态的目标;使用观察神经网络处理观察以生成观察的数字表示;使用目标神经网络处理目标以生成目标的数字表示;组合所观察的数字表示和目标的数字表示以生成组合的表示;使用动作分值神经网络处理组合的表示以为预定的动作集中的每个动作生成相应的分值;以及使用预定的动作集中的动作的相应的分值来选择要执行的动作。
Description
技术领域本说明书涉及通过强化学习代理来选择要执行的动作。
背景技术
强化学习代理通过接收表征环境的当前状态的观察、并且作为响应而执行来自预定的动作集的动作来与环境交互。响应于接收任何给定的观察,某些强化学习代理使用神经网络来选择要执行的动作。
神经网络为采用一个或多个层的非线性单元来为所接收的输入预测输出的机器学习模型。某些神经网络为深度神经网络,该深度神经网络除输出层外还包括一个或多个隐藏层。每个隐藏层的输出用作网络中的下一层(即下一隐藏层或输出层)的输入。网络的每个层根据相应的参数集的当前值而由所接收的输入生成输出。
发明内容
本说明书描述了涉及强化学习的技术。
对于被配置为执行特定操作或动作的一个或多个计算机的系统,意指所述系统具有在其上安装的、在操作中使所述系统执行操作或动作的软件、固件、硬件或其组合。对于被配置为执行特定操作或动作的一个或多个计算机程序,意指所述一个或多个程序包括当由数据处理装置执行时使装置执行操作或动作的指令。
本说明书中描述的主题能够在特定实施例中实现,从而实现一个或多个以下优点。强化学习系统能够有效且直接地考虑强化代理响应于所接收的观察而试图达到选择要由代理执行的操作的目标状态。另外,强化学习系统能够有效地为学习期间未遇到的目标选择动作。选择动作时,强化学习系统能够利用目标空间与观察空间之间的共享结构。
附图和下面的描述中陈列了本说明书的主题的一个或多个实施例的细节。本主题的其它特征、方面和优点将从描述、附图、和权利要求变得显而易见。
附图描述
图1示出了实例强化学习系统。
图2为用于响应于接收的观察而选择动作的实例过程的流程图。
图3为用于生成目标和观察的组合表示的实例过程的流程图。
图4为用于训练动作分值神经网络、目标神经网络和观察神经网络的实例过程的流程图。
在各个附图中类似的附图标记及名称表示类似的元件。
具体的实施方式本说明书概括地描述了强化学习系统,其选择动作以由与环境交互的强化学习代理(agent)执行。为了与环境交互,代理接收表征环境的当前状态的数据,并响应于所接收的数据,从要执行的预定的动作集选择动作。本说明书中,将表征环境的状态的数据称作观察。
具体地,代理与环境交互以试图达到环境的预定的目标状态集。本说明书中,将表征来自目标状态集的状态的数据称作目标。例如,当环境为视频游戏并且代理为与视频游戏交互的计算机程序时,每个目标状态可能为视频游戏的玩游戏期间的路点(waypoint),例如表示收集玩游戏所必需的特定物品或显示一条信息的级别或状态的结束的状态。作为另一实例,当环境为真实世界的环境并且代理为与环境交互以完成特定任务的机器人时,每个目标状态可能是由机器人已完成子任务的状态,例如当机器人将物品从一个位置移动至另一位置或以其他方式向完成任务取得进展时。
图1示出了实例强化学习系统100。强化学习系统100为实现为处于一个或多个位置的一个或多个计算机上的计算机程序的系统的实例,其中实现了下面描述的系统、部件和技术。
强化学习系统100选择由与环境104交互的强化学习代理102所执行的动作。具体地,强化学习系统100接收观察,其中每个观察表征环境104的状态,并且响应于每个观察而从预定的动作集选择要由强化学习代理102执行的动作。
具体地,强化学习系统100使用目标神经网络110、观察神经网络120和动作分值神经网络130来选择动作。
目标神经网络110为配置为接收目标并且处理目标以生成目标的数字表示的神经网络。目标的数字表示为来自嵌入(embedding)的n维向量空间的向量。
观察神经网络120为配置为接收观察以生成观察的数字表示的神经网络。观察的数字表示也是来自嵌入的n维向量空间的向量。
在某些实现中,观察神经网络120、目标神经网络110或两者都是多层感知(MLP)神经网络。
另外,在某些实现中,观察神经网络120和目标神经网络110共享一个或多个参数。例如,可以共享观察神经网络120和目标神经网络110的第一层的参数。
在某些实现中,动作分值神经网络130是被配置为接收目标和观察的组合表示并且为动作集中的每个动作生成相应的分值的神经网络。
在某些实现中,动作分值神经网络130是被配置为接收组合表示和动作并且为动作生成分值的神经网络。
下面将参考图2更详细地描述使用目标神经网络110、观察神经网络120和动作分值神经网络130来选择动作。
组合表示由强化学习系统100根据目标的数字表示和观察的数字表示所生成。在某些实现中,为了生成组合的表示,系统将n维目标表示和n维观察表示映射为标量值,以生成组合的表示。下面将参考图3更详细描述生成组合的表示。
图2为用于响应于所接收的观察而选择动作的实例过程200的流程图。为方便起见,将过程200描述为由位于一个或多个位置的一个或多个计算机的系统所执行。例如,强化学习系统,例如图1的强化学习系统100,根据本说明书适当编程,能够执行过程200。
系统接收表征环境的当前状态的观察(步骤202)。
系统从一组环境的目标集接收表征目标状态的目标(步骤204)。在某些实现中,系统提供允许用户选择目标状态的界面。一旦被选择,表征目标状态的目标将被系统用于选择要由代理执行的动作,直到用户通过界面切换目标状态为止。在其它实现中,系统从另一系统接收状态,例如,例如使用基于当前观察而选择目标状态的策略、从目标状态集选择要到达的目标状态的系统。
系统生成观察的和目标的组合表示(步骤206)。下面将参考图3更详细地描述生成组合的表示。
系统通过使用动作分值神经网络来处理组合的表示,根据组合的表示为动作集中的每个动作生成相应的分值(步骤208)。
在动作分值神经网络被配置为接收组合的表示作为输入并且处理组合的表示以为所述集中的每个动作生成相应的分值的实现中,系统使用动作分值神经网络来处理组合的表示以生成相应的分值。
在动作分值神经网络被配置为接收组合的表示和动作作为输入并且处理组合的表示和动作以为动作集中的每个动作生成动作的分值的实现中,系统使用动作分值神经网络来处理动作和组合的表示以为动作生成相应的分值。
系统使用预定的动作集中动作的相应的分值,响应于观察而选择要由代理执行的动作(步骤210)。
在某些情况下,系统选择得分最高的动作,即具有动作集中的任何动作的最高分值的动作,作为要由代理执行的动作。
在某些其它情况下,例如在学习期间,系统可以不时的选择除得分最高的动作之外的动作作为要执行的动作。例如在学习期间,系统可以以概率ε从动作集选择随机动作,并且以概率1-ε选择得分最高的动作。
图3为用于生成目标和观察的组合表示的实例过程300的流程图。为方便起见,将过程300描述为由位于一个或多个位置的一个或多个计算机的系统执行。例如,强化学习系统,例如图1的强化学习系统100,根据本说明书适当编程,能够执行过程300。
系统使用观察神经网络来处理观察,以生成观察的数字表示(步骤302)。
系统使用目标神经网络来处理目标,以生成目标的数字表示(步骤304)。
系统根据观察的数字表示和目标的数字表示来生成组合的表示(步骤306)。
系统可以以各种方式中的任何一个根据观察的和目标的数字表示来生成组合的表示。
例如,系统可以通过计算观察的数字表示和目标的数字表示之间的点积来生成组合的表示。
作为另一实例,系统可以通过使用组合神经网络来处理观察的数字表示和目标的数字表示来生成组合的表示,组合神经网络被配置为接收观察的数字表示和目标的数字表示并且处理观察的数字表示和目标的数字表示以生成组合的表示。
为了确定观察神经网络、目标神经网络、动作分值神经网络、和可选的组合神经网络的参数的训练值,系统训练观察神经网络、目标神经网络、动作分值神经网络、以及可选的组合神经网络。
在某些实现中,系统联合地使用首尾相连的训练过程来直接训练神经网络,即通过获得标记的训练数据和执行神经网络训练技术例如随机梯度下降,来经过观察神经网络和目标神经网络从动作分值神经网络反向传播错误。
在某些其它实现中,系统基于矩阵分解使用二阶训练过程来训练神经网络。
图4为用于训练动作分值神经网络、目标神经网络和观察神经网络的实例过程400的流程图。为方便起见,将过程400表示为由位于一个或多个位置的一个或多个计算机的系统执行。例如,强化学习系统,例如图1的强化学习系统100,根据本说明书适当编程,能够执行过程400。
系统训练动作分值神经网络以确定动作分值神经网络的参数的训练值,并且确定理想化目标嵌入和理想化观察嵌入(步骤402)。
在某些实现中,系统使用部落架构(Horde architecture)为动作分值神经网络的训练确定目标。在部落架构中,为来自目标集的每个目标维持不同的神经网络。用于每个目标的神经网络基于所接收的观察生成动作分值。系统使用常规强化学习技术,独立且离线地(off policy)训练部落中的每个神经网络。在第10届自治代理及多代理系统国际会议——2011年卷2第761-768页中的Sutton、Richard S、Modayil、Joseph、Delp、Michael、Degris、Thomas、Pilarski、Patrick M、White、Adam和Precup、Doina的《部落:用于根据无人监督的感觉运动的交互学习知识的可扩展实时架构》(《Horde:A scalable real-timearchitecture for learning knowledge from unsupervised sensorimotorinteraction》)中,更详细描述了用于学习部落中的神经网络的实例部落架构和实例技术。
一旦学习了部落中的神经网络,系统能够基于部落中被学习的神经网络的输出而为动作分值神经网络的训练确定目标,即应该由动作分值神经网络生成的动作分值。系统接着使用神经网络训练技术例如随机梯度下降而在由部落确定的目标上训练动作分值神经网络。
在某些其它实现中,系统例如使用Q学习技术的变量,通过为训练集中每个目标由受访问转换(transition)中的下一状态引导指令,为动作分值神经网络的训练确定目标。
为了确定理想化目标嵌入和理想化观察嵌入,系统生成数据矩阵,其中一行对应于在动作分值神经网络的训练期间遇到的每个观察,并且一列对应于在动作分值神经网络的训练期间遇到的每个目标。所述矩阵中的项目为用于对应的目标、观察组合的目标动作分值。系统接着分解矩阵以确定为状态和目标两者定义嵌入空间的低秩逼近。
系统在理想化目标嵌入上训练目标神经网络(步骤404)。也就是说,系统训练目标神经网络以生成使用常规技术来匹配理想化目标嵌入的数字表示。
系统在理想化观察嵌入上训练观察神经网络(步骤406)。也就是说,系统训练观察神经网络以生成使用常规技术来匹配理想化观察嵌入的数字表示。
对于配置为执行特定操作或动作的一个或多个计算机的系统,意指系统在其上安装的、在操作中使系统执行操作或动作的软件、固件、硬件或其组合。对于配置为执行特定操作或动作的一个或多个计算机程序,意指一个或多个程序包括指令,当由数据处理装置执行时,该指令使得装置执行操作或动作。
能够以数字电子电路、有形体现的计算机软件或固件、包括本说明书中公开的结构及其结构等效物的计算机硬件、或其一个或多个的组合,实现本说明书中描述的主题和功能操作的实施例。本说明书中描述的主题的实施例能够实现为一个或多个计算机程序,即在有形的非暂时性程序载体上编码的一个或多个计算机程序指令的模块,用于由数据处理装置执行或控制其操作。替代或另外地,程序指令能够在人工生成的传播信号、例如机器生成的电、光或电磁信号上编码,其生成以编码用于传送给适当的接收器装置从而由数据处理装置执行的信息。计算机存储介质能够为机器可读存储设备、机器可读存储基板、随机或串行存取存储器设备、或其一个或多个的组合。
术语“数据处理装置”指的是数据处理硬件,并且包含用于处理数据的各种装置、设备和机器,举例来说包括可编程处理器、计算机、或多个处理器或计算机。装置还能够或进一步包括专用逻辑电路,例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)。除了硬件以外,装置能够可选地包括为计算机程序创建执行环境的代码,例如构成处理器固件、协议栈、数据库管理系统、操作系统、或其一个或多个组合的代码。
计算机程序(还可以称作或描述为程序、软件、软件应用程序、模块、软件模块、脚本、或代码)能够以任何形式的编程语言编写,包括汇编或解释语言、或说明性或过程语言,并且它能够以任何形式部署,包括作为独立程序或作为模块、组件、子例程、或适用于在计算环境中使用的其它单元。计算机程序可以但无需对应于文件系统中的文件。程序能够存储在保存其它程序或数据、例如存储在标记语言文档中的一个或多个脚本的文件的部分中、在专用于所讨论的程序的单个文件中、或多个协调文件中,例如存储一个或多个模块、子程序或代码段的文件。计算机程序能够部署为在一个计算机上或在位于一个地点或分布跨越多个地点并且由通信网络互连的多个计算机上执行。
本说明书中描述的过程和逻辑流能够由一个或多个可编程计算机执行,其执行一个或多个计算机程序以通过对输入数据和生成的输出进行操作来执行功能。过程和逻辑流还能够由例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)的专用逻辑电路来执行,并且装置也可以实现为专用逻辑电路。
适于计算机程序执行的计算机包括,举例来说,能够基于通用或专用微处理器或两者,或任何其它种类的中央处理单元。通常,中央处理单元会从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件为用于运行或执行指令的中央处理单元和用于存储指令和数据的一个或多个存储器设备。通常,计算机还会包括用于存储数据的一个或多个大容量存储设备,例如磁、磁光盘或光盘,或操作地耦接以从其接收数据或向其传输数据,或两者兼有。然而,计算机无需具有这种设备。而且,计算机能够体现在另一设备中,只举几例,例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏机、全球定位系统(GPS)接收器、或可携带存储设备,例如通用串行总线(USB)闪存驱动器。
适于存储计算机程序指令及数据的计算机可读介质包括所有形式的非易失性存储器、介质及存储器设备,举例来说包括:半导体存储器设备,例如EPROM、EEPROM和闪存设备;磁盘,例如内部硬盘或可去除盘;磁光盘;以及CD-ROM和DVD-ROM盘。处理器和存储器能够由专用逻辑电路补充,或并入专用逻辑电路。
为了提供与用户的交互,本说明书中描述的的主题的实施例能够在计算机上实现,其具有用于给用户显示信息的显示设备例如CPRT(阴极射线管)或LCD(液晶显示)监视器、和键盘、以及用户能够通过其给计算机提供输入的指示设备例如鼠标或轨迹球。其它类型的设备也能够用于提供与用户的交互;例如,提供给用户的反馈能够为任何形式的感觉的反馈,例如视觉反馈、听觉反馈、或触觉反馈;以及来自用户的输入能够以任何形式接收,包括声音、语音或触觉输入。另外,计算机能够通过发送文档给由用户使用的设备或从其接收文档来与用户交互;例如,通过响应于从用户客户端设备上的网页浏览器接收的请求而发送网页给网页浏览器。
本说明书中描述的主题的实施例能够在计算系统中实现,其包括例如作为数据服务器的后端部件,或包括例如应用服务器的中间件部件,或包括例如具有关系图形用户界面或通过其用户能够与本说明书中描述的主题的实现交互的网页浏览器的客户端计算机的前端部件,或一个或多个这种后端、中间件或前端部件的任何组合。系统的部件能够通过任何形式或通过数字数据通信的介质例如通信网络来互连。通信网络的实例包括局域网(“LAN”)和例如互联网的广域网(“WAN”)。
计算系统能够包括客户端和服务器。客户端和服务器通常彼此远离,并且一般通过通信网络交互。客户端和服务器的关系借助于在各自的计算机上运行并且具有彼此客户端-服务器关系的计算机程序而产生。
尽管本说明书包含许多具体的实现细节,但不应该将这些解释为对任何发明或可能请求保护的范围的限制,而是作为可能对于特定发明的特定实施例是具体的特征的描述。在各个的实施例的上下文中,本说明书中描述的某些特征在单个实施例中还能够组合实现。相反,在单个实施例的上下文中描述的各种特征也能够在多个实施例中独立地或以任何适当的子组合实现。而且,虽然上面可能将特征描述为以某些组合作用,并且甚至最初也如此请求保护的,但根据请求保护的组合的一个或多个特征在某些情况下能够从组合删去,并且请求保护的组合可以导向子组合或子组合的变型。
类似地,尽管附图中按特定次序描绘操作,但不该将这理解为要求这种操作按所示的特定次序或顺序次序执行、或执行所有示出的操作以实现期望的结果。某些情形下,多任务和并行处理可能是有利的。而且,上面描述的实施例中各种系统模块及部件的分离,不该理解为要求所有实施例中都这样分离,并且应该理解描述的程序组件及系统一般能够一起集成在单个软件产品中、或封装到多个软件产品中。
已描述了本主题的特定实施例。其它实施例在随后的权利要求的范围内。例如,所附权利要求中记载的动作能够以不同的次序执行,且仍能够获得期望的结果。作为一个实例,附图中描绘的过程未必需要所示的特定次序或顺序次序来获得期望的结果。在某些实现中,多任务和并行处理可能是有利的。
Claims (18)
1.一种用于控制机器人的方法,其中所述机器人与真实世界环境交互以完成任务,其中所述方法包括:
接收表征所述真实世界环境的当前状态的观察;
接收表征来自所述真实世界环境的目标状态集的目标状态的目标,其中所述任务的特定子任务已由所述机器人在所述目标状态集的每个状态中完成;
使用观察神经网络处理所述观察以生成所述观察的数字表示;
使用目标神经网络处理所述目标以生成所述目标的数字表示;
组合所述观察的数字表示和所述目标的数字表示以生成组合的表示;
使用动作分值神经网络处理所述组合的表示以为预定的动作集中的每个动作生成相应的分值;
使用所述预定的动作集中的动作的相应的分值来选择要由所述机器人执行的动作;以及
使所述机器人执行所选择的动作。
2.根据权利要求1所述的方法,其中,所述动作分值神经网络被配置为接收所述组合的表示作为输入,并且处理所述组合的表示以为所述预定的动作集中的每个动作生成相应的分值。
3.根据权利要求1所述的方法,其中,所述动作分值神经网络被配置为接收所述组合的表示和来自所述预定的动作集的动作作为输入,并且处理所述组合的表示和所接收的动作以为所述动作生成分值,并且其中,使用所述动作分值神经网络来处理所述组合的表示包括对于所述预定的动作集中的每个动作:
使用所述动作分值神经网络来处理所述动作和所述组合的表示以为所述动作生成相应的分值。
4.根据权利要求1所述的方法,其中,选择所述要由所述机器人执行的动作包括:
选择得分最高的动作。
5.根据权利要求1所述的方法,其中,选择所述要由所述机器人执行的动作包括:
以概率ε从所述预定的动作集选择随机动作;以及
以概率1-ε选择得分最高的动作。
6.根据权利要求1所述的方法,其中,所述观察神经网络为多层感知(MLP)神经网络。
7.根据权利要求6所述的方法,其中,所述目标神经网络为多层感知(MLP)神经网络。
8.根据权利要求1所述的方法,其中,所述目标神经网络和所述观察神经网络共享一个或多个参数。
9.根据权利要求1所述的方法,其中,所述组合的表示为所述观察的数字表示与所述目标的数字表示的点积。
10.根据权利要求1所述的方法,其中,组合所述观察的数字表示与所述目标的数字表示以生成所述组合的表示包括:
使用组合神经网络处理所述观察的数字表示和所述目标的数字表示以生成所述组合的表示。
11.根据权利要求1所述的方法,进一步包括:
训练所述动作分值神经网络、所述观察神经网络和所述目标神经网络。
12.根据权利要求11所述的方法,其中,所述训练包括:
训练所述动作分值神经网络以确定理想化的目标嵌入和理想化的观察嵌入;
在所述理想化的观察嵌入上训练所述观察神经网络;以及
在所述理想化的目标嵌入上训练所述目标神经网络。
13.根据权利要求12所述的方法,其中,训练所述动作分值神经网络包括使用矩阵分解技术来确定所述理想化的目标嵌入和理想化的观察嵌入。
14.根据权利要求12所述的方法,其中,通过为预定的目标集中的每个目标学习分离的动作分值神经网络来确定用于所述动作分值神经网络的训练的目标。
15.根据权利要求12所述的方法,其中,通过从为训练集中的每个目标的受访问转换中的状态引导指令来确定用于所述动作分值神经网络的训练的目标。
16.根据权利要求1-15中的任一项所述的方法,进一步包括:
提供用于选择目标状态的界面,使得所选择的目标用于选择要由所述机器人执行的动作直到通过所述界面切换所选择的目标为止。
17.一种系统,包括一个或多个计算机和一个或多个存储设备,所述存储设备存储可操作的指令,所述指令在由所述一个或多个计算机执行时使所述一个或多个计算机执行根据权利要求1-16中的任一项所述的相应方法的操作。
18.一种编码有指令的计算机存储介质,所述指令在由一个或多个计算机执行时使所述一个或多个计算机执行根据权利要求1-16中的任一项所述的相应方法的操作。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562143677P | 2015-04-06 | 2015-04-06 | |
US62/143,677 | 2015-04-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106056213A CN106056213A (zh) | 2016-10-26 |
CN106056213B true CN106056213B (zh) | 2022-03-29 |
Family
ID=55697112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610328938.5A Active CN106056213B (zh) | 2015-04-06 | 2016-04-06 | 使用目标和观察来选择强化学习动作 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10628733B2 (zh) |
EP (1) | EP3079106B1 (zh) |
CN (1) | CN106056213B (zh) |
DK (1) | DK3079106T3 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12141677B2 (en) | 2020-06-25 | 2024-11-12 | Deepmind Technologies Limited | Environment prediction using reinforcement learning |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110235148B (zh) * | 2016-11-03 | 2024-03-19 | 渊慧科技有限公司 | 训练动作选择神经网络 |
JP6728495B2 (ja) * | 2016-11-04 | 2020-07-22 | ディープマインド テクノロジーズ リミテッド | 強化学習を用いた環境予測 |
CN110168560B (zh) * | 2016-11-04 | 2024-03-15 | 渊慧科技有限公司 | 用于场景理解和生成的方法、系统和介质 |
KR102228503B1 (ko) * | 2016-11-04 | 2021-03-16 | 딥마인드 테크놀로지스 리미티드 | 강화 학습을 이용한 환경 네비게이션 |
CN110114784B (zh) * | 2016-11-04 | 2023-06-02 | 渊慧科技有限公司 | 递归环境预测器及其方法 |
EP3535705B1 (en) | 2016-11-04 | 2022-03-30 | Deepmind Technologies Limited | Reinforcement learning with auxiliary tasks |
WO2018085778A1 (en) | 2016-11-04 | 2018-05-11 | Google Llc | Unsupervised detection of intermediate reinforcement learning goals |
EP3542319B1 (en) * | 2016-11-15 | 2023-07-26 | Google LLC | Training neural networks using a clustering loss |
EP3559865B1 (en) | 2017-01-31 | 2024-10-16 | DeepMind Technologies Limited | Data-efficient reinforcement learning for continuous control tasks |
EP3566182A1 (en) | 2017-02-06 | 2019-11-13 | Deepmind Technologies Limited | Memory augmented generative temporal models |
DK3568810T3 (da) | 2017-02-24 | 2023-11-13 | Deepmind Tech Ltd | Handlingsudvælgelse til forstærkningslæring ved hjælp af neurale netværk |
WO2018154100A1 (en) | 2017-02-24 | 2018-08-30 | Deepmind Technologies Limited | Neural episodic control |
WO2018156891A1 (en) * | 2017-02-24 | 2018-08-30 | Google Llc | Training policy neural networks using path consistency learning |
EP3542315A1 (en) | 2017-03-17 | 2019-09-25 | Google LLC | Mirror loss neural networks |
CN110462638B (zh) * | 2017-03-23 | 2023-08-01 | 渊慧科技有限公司 | 使用后验锐化训练神经网络 |
CN110520868B (zh) * | 2017-04-14 | 2023-06-02 | 渊慧科技有限公司 | 用于分布式强化学习的方法、程序产品和存储介质 |
EP3616137A1 (en) * | 2017-04-26 | 2020-03-04 | Google LLC | Integrating machine learning into control systems |
EP3596662A1 (en) * | 2017-05-19 | 2020-01-22 | Deepmind Technologies Limited | Imagination-based agent neural networks |
EP3596661A1 (en) * | 2017-05-19 | 2020-01-22 | Deepmind Technologies Limited | Data efficient imitation of diverse behaviors |
EP3571631B1 (en) | 2017-05-20 | 2024-08-28 | DeepMind Technologies Limited | Noisy neural network layers |
DK3602409T3 (da) * | 2017-06-05 | 2024-01-29 | Deepmind Tech Ltd | Udvælgelse af handlinger ved hjælp af multimodale inputs |
WO2018224695A1 (en) * | 2017-06-09 | 2018-12-13 | Deepmind Technologies Limited | Training action selection neural networks |
US11868882B2 (en) | 2017-06-28 | 2024-01-09 | Deepmind Technologies Limited | Training action selection neural networks using apprenticeship |
EP3680836A4 (en) * | 2017-09-07 | 2020-08-12 | Sony Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING PROCESS |
US11604941B1 (en) * | 2017-10-27 | 2023-03-14 | Deepmind Technologies Limited | Training action-selection neural networks from demonstrations using multiple losses |
EP3701435A1 (en) | 2017-10-27 | 2020-09-02 | Deepmind Technologies Limited | Reinforcement learning using distributed prioritized replay |
FI20175970A1 (en) * | 2017-11-01 | 2019-05-02 | Curious Ai Oy | Setting up a control system for the target system |
WO2019108923A1 (en) * | 2017-11-30 | 2019-06-06 | Google Llc | Neural architecture search using a performance prediction neural network |
US11494641B2 (en) * | 2017-12-27 | 2022-11-08 | Intel Corporation | Reinforcement learning for human robot interaction |
EP3698291A1 (en) * | 2018-02-05 | 2020-08-26 | DeepMind Technologies Limited | Distributed training using off-policy actor-critic reinforcement learning |
US10628686B2 (en) | 2018-03-12 | 2020-04-21 | Waymo Llc | Neural networks for object detection and characterization |
CN108563112A (zh) * | 2018-03-30 | 2018-09-21 | 南京邮电大学 | 用于仿真足球机器人控球的控制方法 |
CN112106073B (zh) * | 2018-05-09 | 2024-08-16 | 渊慧科技有限公司 | 使用网格代码执行导航任务 |
WO2019219962A1 (en) * | 2018-05-18 | 2019-11-21 | Deepmind Technologies Limited | Reinforcement learning using agent curricula |
CN109116854B (zh) * | 2018-09-16 | 2021-03-12 | 南京大学 | 一种基于强化学习的多组机器人协作控制方法及控制系统 |
WO2020064994A1 (en) * | 2018-09-27 | 2020-04-02 | Deepmind Technologies Limited | Reinforcement learning neural networks grounded in learned visual entities |
WO2020064873A1 (en) * | 2018-09-27 | 2020-04-02 | Deepmind Technologies Limited | Imitation learning using a generative predecessor neural network |
JP7160957B2 (ja) * | 2018-09-27 | 2022-10-25 | ディープマインド テクノロジーズ リミテッド | モデルフリー強化学習のためのスタック型畳み込み長/短期メモリ |
EP3847583A1 (en) * | 2018-10-29 | 2021-07-14 | Google LLC | Determining control policies by minimizing the impact of delusion |
CN109598332B (zh) * | 2018-11-14 | 2021-04-09 | 北京市商汤科技开发有限公司 | 神经网络生成方法及装置、电子设备和存储介质 |
US10739777B2 (en) * | 2018-11-20 | 2020-08-11 | Waymo Llc | Trajectory representation in behavior prediction systems |
US11755923B2 (en) | 2018-11-29 | 2023-09-12 | International Business Machines Corporation | Guided plan recognition |
EP3668050A1 (de) * | 2018-12-12 | 2020-06-17 | Siemens Aktiengesellschaft | Anpassen einer software-anwendung, die auf einem gateway ausgeführt wird |
EP3884436A1 (en) * | 2019-02-19 | 2021-09-29 | Google LLC | Controlling agents using latent plans |
CN110018869B (zh) | 2019-02-20 | 2021-02-05 | 创新先进技术有限公司 | 通过强化学习向用户展示页面的方法及装置 |
CN113574475B (zh) | 2019-03-15 | 2024-11-01 | 3M创新有限公司 | 确定用于控制环境的因果模型 |
EP3937911A4 (en) | 2019-03-15 | 2023-01-11 | 3M Innovative Properties Company | PRODUCTION OF A BIOLOGICAL PHARMACEUTICAL USING CAUSAL MODELS |
CN110428057A (zh) * | 2019-05-06 | 2019-11-08 | 南京大学 | 一种基于多智能体深度强化学习算法的智能博弈系统 |
CN110554604B (zh) * | 2019-08-08 | 2021-07-09 | 中国地质大学(武汉) | 一种多智能体同步控制方法、设备及存储设备 |
CN110516389B (zh) * | 2019-08-29 | 2021-04-13 | 腾讯科技(深圳)有限公司 | 行为控制策略的学习方法、装置、设备及存储介质 |
US11907335B2 (en) | 2020-10-16 | 2024-02-20 | Cognitive Space | System and method for facilitating autonomous target selection |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102200787A (zh) * | 2011-04-18 | 2011-09-28 | 重庆大学 | 机器人行为多层次集成学习方法及系统 |
CN102402712A (zh) * | 2011-08-31 | 2012-04-04 | 山东大学 | 基于神经网络的机器人强化学习初始化方法 |
CN102799179A (zh) * | 2012-07-06 | 2012-11-28 | 山东大学 | 基于单链序贯回溯q学习的移动机器人路径规划算法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101568347B1 (ko) * | 2011-04-12 | 2015-11-12 | 한국전자통신연구원 | 지능형 로봇 특성을 갖는 휴대형 컴퓨터 장치 및 그 동작 방법 |
US9679258B2 (en) * | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
-
2016
- 2016-04-06 CN CN201610328938.5A patent/CN106056213B/zh active Active
- 2016-04-06 DK DK16164072.7T patent/DK3079106T3/da active
- 2016-04-06 EP EP16164072.7A patent/EP3079106B1/en active Active
- 2016-04-06 US US15/091,840 patent/US10628733B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102200787A (zh) * | 2011-04-18 | 2011-09-28 | 重庆大学 | 机器人行为多层次集成学习方法及系统 |
CN102402712A (zh) * | 2011-08-31 | 2012-04-04 | 山东大学 | 基于神经网络的机器人强化学习初始化方法 |
CN102799179A (zh) * | 2012-07-06 | 2012-11-28 | 山东大学 | 基于单链序贯回溯q学习的移动机器人路径规划算法 |
Non-Patent Citations (3)
Title |
---|
Playing Atari with Deep Reinforcement Learning;Volodymyr Mnih et al;《arXiv:1312.5602v1》;20131219;摘要、第1-6节 * |
Tom Schaul et al.Universal Value Function Approximators.《https://deepmind.com/research/publications/universal-value-function-approximators》.2015, * |
Universal Value Function Approximators;Tom Schaul et al;《https://deepmind.com/research/publications/universal-value-function-approximators》;20150101;摘要、第1-7节 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12141677B2 (en) | 2020-06-25 | 2024-11-12 | Deepmind Technologies Limited | Environment prediction using reinforcement learning |
Also Published As
Publication number | Publication date |
---|---|
CN106056213A (zh) | 2016-10-26 |
EP3079106A3 (en) | 2017-03-29 |
EP3079106A2 (en) | 2016-10-12 |
DK3079106T3 (da) | 2022-08-01 |
US10628733B2 (en) | 2020-04-21 |
EP3079106B1 (en) | 2022-06-08 |
US20160292568A1 (en) | 2016-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106056213B (zh) | 使用目标和观察来选择强化学习动作 | |
US11886992B2 (en) | Training reinforcement learning neural networks | |
US11803750B2 (en) | Continuous control with deep reinforcement learning | |
US11783182B2 (en) | Asynchronous deep reinforcement learning | |
US10832124B2 (en) | Generating natural language descriptions of images | |
US20200279162A1 (en) | Selecting action slates using reinforcement learning | |
US10083169B1 (en) | Topic-based sequence modeling neural networks | |
US11907837B1 (en) | Selecting actions from large discrete action sets using reinforcement learning | |
EP3360086A1 (en) | Training neural networks using a prioritized experience memory | |
US11941088B1 (en) | Image processing of an environment to select an action to be performed by an agent interacting with the environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: Google limited liability company Address before: American California Applicant before: Google Inc. |
|
CB02 | Change of applicant information | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200302 Address after: England Atsushi Applicant after: DEEPMIND TECHNOLOGIES Ltd. Address before: California, USA Applicant before: GOOGLE Inc. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |