Nothing Special   »   [go: up one dir, main page]

CN109298933B - 基于边缘计算网络的无线通信网络设备及系统 - Google Patents

基于边缘计算网络的无线通信网络设备及系统 Download PDF

Info

Publication number
CN109298933B
CN109298933B CN201811020708.8A CN201811020708A CN109298933B CN 109298933 B CN109298933 B CN 109298933B CN 201811020708 A CN201811020708 A CN 201811020708A CN 109298933 B CN109298933 B CN 109298933B
Authority
CN
China
Prior art keywords
node
computing
information
edge computing
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811020708.8A
Other languages
English (en)
Other versions
CN109298933A (zh
Inventor
崔琪楣
谷宇
江慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN201811020708.8A priority Critical patent/CN109298933B/zh
Publication of CN109298933A publication Critical patent/CN109298933A/zh
Application granted granted Critical
Publication of CN109298933B publication Critical patent/CN109298933B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明提供一种基于边缘计算网络的无线通信网络设备及系统,所述设备包括中心控制器,该控制器包括:获取模块,用于获取每一边缘计算节点的节点信息;中央评判模块,用于将所有的节点信息,输入至第一神经网络模型,输出优劣参数;广播模块,用于优化第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。本发明提供的基于边缘计算网络的无线通信网络设备及系统,通过中心控制器获取每一边缘计算节点的节点信息,对每一边缘计算节点的调度决策进行评价,每一边缘计算节点分布式执行任务调度,提高了边缘计算的效率。

Description

基于边缘计算网络的无线通信网络设备及系统
技术领域
本发明实施例涉及边缘计算技术领域,尤其涉及一种基于边缘计算网络的无线通信网络设备及系统。
背景技术
物联网技术和第5代无线通信技术的发展促进了一系列新型的应用,例如自动驾驶,虚拟现实等。同时这些新型应用也给无线网络带来诸多挑战,特别是一些计算敏感、时延敏感的业务。
现有技术中,将这些计算相关的业务通过无线网络以及核心网络,再经互联网上传至远端服务器或者云计算平台进行处理。一旦互联网或者核心网回程链路堵塞,又或者该业务需要极高的时延保证时,现有技术中的系统无法满足该类业务的服务需求。同时,这种集中式处理方式也给运营商和服务商带来了极大经营成本。服务器和云计算平台的运营和维护随着用户数或者网络规模的增加而呈现指数式增长的趋势。一种有效的解决手段是将计算功能下移至无线接入网,形成分布式边缘计算网络来承载部分低时延应用的计算任务。这将有效得缓解无线网络的回程链路的负载压力,做到本地数据本地处理,由于边缘计算节点距离用户终端更近,可以快速响应用户终端计算请求。
然而,边缘计算网络也面临着一些亟待解决的挑战,边缘计算节点的计算能力往往比较薄弱,业务请求也具有时空不均匀特性,单一边缘计算节点无法处理过量的计算任务。边缘计算节点需要将过量的计算任务转移到云计算平台或者其他边缘计算节点来处理。但是,边缘计算节点无法精准预测其他边缘计算节点的负载情况和负载卸载决策。一旦边缘计算节点将计算任务转移到负载严重的边缘计算节点上,不但不能加快计算任务的处理进度,反而会延长计算任务的处理进度,严重影响用户的体验感。
发明内容
本发明实施例的目的是提供一种克服上述问题或者至少部分地解决上述问题的基于边缘计算网络的无线通信网络设备及系统。
为了解决上述技术问题,一方面,本发明实施例提供一种基于边缘计算网络的中心控制器,包括:
获取模块,用于在上一次调度结束后,获取每一边缘计算节点上报的节点信息,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息;
中央评判模块,用于将获取到的所有的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
广播模块,用于将所述优劣参数广播至每一边缘计算节点,以供每一边缘计算节点分别根据所述优劣参数优化预设的第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
另一方面,本发明实施例提供一种基于边缘计算网络的边缘计算节点设备,包括:
上报模块,用于在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将获取到的所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
接收模块,用于获取所述中心控制器广播的所述优劣参数,并根据所述优劣参数优化预设的第二神经网络模型;
优化执行模块,用于将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,并将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
本发明实施例提供的基于边缘计算网络的无线通信网络设备及系统,通过中心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
附图说明
图1为本发明实施例提供的基于边缘计算网络的中心控制器示意图;
图2为本发明实施例提供的基于边缘计算网络的无线通信网络系统的示意图;
图3为本发明实施例提供的基于边缘计算网络的边缘计算节点设备示意图。
具体实施方式
为了使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的基于边缘计算网络的中心控制器示意图,如图1所示,本发明实施例提供一种基于边缘计算网络的中心控制器,该中心控制器包括获取模块101,中央评判模块102和广播模块103,其中:
获取模块101用于在上一次调度结束后,获取每一边缘计算节点上报的节点信息,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息;
中央评判模块102用于将获取到的所有的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
广播模块103用于将所述优劣参数广播至每一边缘计算节点,以供每一边缘计算节点分别根据所述优劣参数优化预设的第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
具体来说,图2为本发明实施例提供的基于边缘计算网络的无线通信网络系统的示意图,如图2所示,基于边缘计算网络的无线通信网络系统由中心控制器、边缘计算网络和移动用户终端构成。其中,边缘计算网络由若干个边缘计算节点组成,每一边缘计算节点可以为基站等分布在网络边缘具有计算能力的设备。移动用户终端通过无线链路与边缘计算节点连接。
首先,每一边缘计算节点获取其上一次调度开始前的节点状态信息,并将该节点状态信息输入至自己内部的第二神经网络模型,输出当前的节点状态信息,上一次调度的决策信息,以及上一次调度的回报信息。
例如,针对第n个边缘计算节点,1≤n≤N,N表示中心控制器控制下的边缘计算节点的个数,第n个边缘计算节点获取其上一次调度开始前的节点状态信息,第n个边缘计算节点的上一次调度开始前的节点状态信息,用向量的形式记作sn(t)。然后,将sn(t)输入至参数为θn(t)的预设的第二神经网络模型,该第二神经网络模型记作π(an|snn(t)),其中,θn(t)为该神经网络的权重参数。然后,输出当前的节点状态信息,当前的节点状态信息用向量的形式记作sn(t+1),并输出上一次调度的决策信息,上一次调度的决策信息用向量的形式记作an(t),以及输出上一次调度的回报信息,上一次调度的回报信息用向量的形式记作R(t)。边缘计算节点计算出调度的决策信息只需要根据自己的节点状态信息,不需要获取全局的所有边缘计算节点的节点状态信息,提高了调度效率。
第n个边缘计算节点在获取到上一次调度的决策信息an(t)后,将每一计算任务分别发送到上一次调度的决策信息an(t)指示的执行主体进行计算。
如果第n个边缘计算节点的上一次调度的决策信息an(t)指示某个计算任务的执行主体为该边缘计算节点自己,即,该计算任务由该边缘计算节点自己处理,则该计算任务直接被发送到中央处理器CPU进行处理,由CPU按照决策信息an(t)指示计算资源为该计算任务分配相应的计算资源。
如果第n个边缘计算节点的上一次调度的决策信息an(t)指示某个计算任务的执行主体为其他边缘计算节,即,该计算任务由其他边缘计算节点处理,则该计算任务将按照预设的任务转移格式被发送到相应的边缘计算节点进行处理,预设的任务转移格式如下:
源IP地址 计算任务状态 任务的最大容忍时延 目的IP地址
如果某个计算任务由其他边缘计算节点处理,其他边缘计算节点处理完之后,会将计算结果按照预设的结果反馈格式反馈给原来的边缘计算节点,预设的结果反馈格式如下:
目的IP地址 是否成功 计算结果 计算时间 源IP地址
最后,原来的边缘计算节点收集其他边缘计算节点反馈回来的计算结果,通过无线链路传递给用户终端。至此,上一次调度结束。
在上一次调度结束后,通过获取模块101获取每一边缘计算节点上报的节点信息,节点信息用向量的形式记作{sn(t),an(t),Rn(t),sn(t+1)},n∈N,该节点信息包括上一次调度开始前的节点状态信息,上一次调度开始前的节点状态信息用向量的形式记作s(t),s(t)={sn(t),n∈N},还包括当前的节点状态信息,当前的节点状态信息用向量的形式记作s(t+1),s(t+1)={sn(t+1),n∈N},还包括上一次调度的决策信息,上一次调度的决策信息用向量的形式记作a(t),a(t)={an(t),n∈N},还包括上一次调度的回报信息,上一次调度的回报信息用向量的形式记作R(t),R(t)={Rn(t),n∈N},其中,sn(t)为第n个边缘计算节点的上一次调度开始前的节点状态信息,an(t)为第n个边缘计算节点的上一次调度的决策信息,Rn(t)为第n个边缘计算节点的上一次调度的回报信息,sn(t+1)为第n个边缘计算节点的当前的节点状态信息,N表示中心控制器控制下的边缘计算节点的个数。
然后,中心控制器通过中央评判模块102将获取到的所有边缘计算节点上报的所有的节点信息,输入至预设的第一神经网络模型,第一神经网络模型为一个参数为w的神经网络,该第一神经网络模型记作v(s|w),其中,s为输入值,w为权重参数,输出优劣参数δ,优劣参数δ用于指示每一边缘计算节点上一次调度的决策的优劣程度。通过神经网络v(s|w)获取优劣参数δ的过程可以用如下公式表示:
δ←R(t)+γv(s(t+1)|w)-v(s(t)|w)
Figure BDA0001787245060000061
It+1←γIt
t←t+1
其中,γ为回报值得打折因子,α为更新步长,It为常数,It=1。
最后,中心控制器通过广播模块103将优劣参数δ广播至每一边缘计算节点。
每一边缘计算节点分别根据优劣参数δ优化第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
例如,针对第n个边缘计算节点,第n个边缘计算节点根据优劣参数δ优化其自己的第二神经网络模型π(an|snn(t)),获取优化后的神经网络的权重参数θn(t+1),并将当前的节点状态信息sn(t+1)输入至优化后的第二神经网络模型π(an|snn(t+1)),输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
通过优劣参数δ优化第二神经网络模型π(an|snn(t))的过程可以用如下公式表示:
Figure BDA0001787245060000062
It+1←γIt
t←t+1
其中,γ为回报值得打折因子,βn为更新步长,It为常数,It=1,当t≥T,重新初始化参数θn,T为预设常数值。
本发明实施例提供的基于边缘计算网络的中心控制器,通过心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在上述实施例的基础上,进一步地,所述节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延。
具体来说,每一边缘计算节点向中心控制器上报的自己的节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延。
例如,针对第n个边缘计算节点,其向中心控制器上报的其上一次调度开始前的节点状态信息用向量表示为sn(t),sn(t)={cn,l,dn,l,Dn,l},l∈Mn,其中,Mn为第n个边缘计算节点下的计算任务数,cn,l为处理第n个边缘计算节点下第l个计算任务已经花费的时间,dn,l为上次调度前处理完第n个边缘计算节点下第l个计算任务还需要的计算资源,Dn,l为第n个边缘计算节点下第l个计算任务的最大容忍时延。
cn,l的初始化值为0,一开始用户终端产生该计算任务请求,会记录这个任务产生时的GPS时钟时间,当该任务数据量通过无线链路传递到第n个边缘计算节点时,对照第n个边缘计算节点的GPS时钟时间,更新cn,l的值。此后,每过一个时隙单位,cn,l的值加一。当cn,l的值大于Dn,l时,则该计算任务失败。当该计算任务从第n个边缘计算节点转移到其他边缘计算节点时,会记录这个任务产生时的GPS时钟时间,该任务数据量通过基站的X2接口或者核心网传递到其他边缘计算节点后,对照目的边缘计算节点的GPS时钟时间,更新cn,l的值。
每经过一个调度周期,需要更新dn,l的值,更新的公式为:dn,l(t+1)=dn,l(t)-βn,l,dn,l为上次调度前处理完第n个边缘计算节点下第l个计算任务还需要的计算资源,βn,l为上次调度决策中分配给第n个边缘计算节点下第l个计算任务的计算资源,dn,l(t+1)上次调度结束后处理完第n个边缘计算节点下第l个计算任务还需要的计算资源。
本发明实施例提供的基于边缘计算网络的中心控制器,通过心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在以上各实施例的基础上,进一步地,所述决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。
具体来说,每一边缘计算节点通过自己的第二神经网络模型获取到的决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。这样在执行调度任务时,就能明确某一计算任务应该由哪个执行主体进行处理,并能明确分配给某一计算任务的计算资源的数量。
例如,针对第n个边缘计算节点,第n个边缘计算节点获取到其上一次调度开始前的节点状态信息sn(t)之后,将sn(t)输入至参数为θn(t)的预设的第二神经网络模型π(an|snn(t)),输出上一次调度的决策信息an(t)。
其中,an(t)={xnn},xn为转发决策矩阵。
Figure BDA0001787245060000081
Mn为第n个边缘计算节点下的计算任务数。xkl为二元决策变量,xkl=1表示第n个边缘计算节点下的第l个计算任务转移到第k个边缘计算节点处理,xkl=0表示第n个边缘计算节点下的第l个计算任务不转移到第k个边缘计算节点处理。因此,xn的列向量为除了一个元素为1,其他元素全为0的列向量。βn为计算资源决策向量,βn=[βn,1n,2,…βn,Mn]。βn,l表示第n个边缘计算节点下的第l个计算任务得到的计算资源(例如,CPU频率)。
当第n个边缘计算节点下的第l个计算任务由该边缘计算节点自己处理时,计算资源分配必须满足
Figure BDA0001787245060000082
Cn是第n个边缘计算节点的总的计算资源。
本发明实施例提供的基于边缘计算网络的中心控制器,通过心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在以上各实施例的基础上,进一步地,所述回报信息包括每一计算任务的回报值;
所述回报值的计算公式如下:
Figure BDA0001787245060000091
其中,
Figure BDA0001787245060000092
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
具体来说,每一边缘计算节点通过自己的第二神经网络模型获取到的回报信息包括每一计算任务的回报值.
每一计算任务的回报值反应了在一次调度过程中,该计算任务被处理的速度的快慢,处理速度越快该回报值就越大,反之越小。
例如,针对第n个边缘计算节点,上一次调度的回报信息为Rn(t),Rn(t)用公式表示如下:
Figure BDA0001787245060000093
其中,Rn(t)为第n个边缘计算节点上一次调度的回报信息,
Figure BDA0001787245060000094
为第n个边缘计算节点上一次调度的第l个计算任务的回报值,Mn为第n个边缘计算节点下的计算任务数。
上一次调度的第l个计算任务的回报值
Figure BDA0001787245060000095
的计算公式如下:
Figure BDA0001787245060000096
其中,
Figure BDA0001787245060000097
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
在上一次调度结束后,第l个计算任务的计时器状态cn,l大于Dn,l时,计算任务失败,则该计算任务的回报值为
Figure BDA0001787245060000101
当dn,l=0时,计算任务计算完成,则该计算任务的回报值为
Figure BDA0001787245060000102
当计算任务l的计时器状态cn,l小于Dn,l时,则Dn,l-cn,l为最大剩余执行时间。dn,l为剩余计算量。则该计算任务的回报值为
Figure BDA0001787245060000103
其实为计算速率的倒数。
本发明实施例提供的基于边缘计算网络的中心控制器,通过心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
图3为本发明实施例提供的基于边缘计算网络的边缘计算节点设备示意图,如图3所示,本发明实施例提供一基于边缘计算网络的边缘计算节点设备,该边缘计算节点设备包括上报模块301、接收模块302和优化执行模块303,其中:
上报模块301用于在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将获取到的所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
接收模块302用于获取所述中心控制器广播的所述优劣参数,并根据所述优劣参数优化预设的第二神经网络模型;
优化执行模块303用于将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,并将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
具体来说,在上一次调度结束后,每一边缘计算节点通过上报模块301分别向中心控制器上报自己的节点信息,中心控制器获取每一边缘计算节点上报的节点信息,节点信息用向量的形式记作{sn(t),an(t),Rn(t),sn(t+1)},n∈N,该节点信息包括上一次调度开始前的节点状态信息,上一次调度开始前的节点状态信息用向量的形式记作s(t),s(t)={sn(t),n∈N},还包括当前的节点状态信息,当前的节点状态信息用向量的形式记作s(t+1),s(t+1)={sn(t+1),n∈N},还包括上一次调度的决策信息,上一次调度的决策信息用向量的形式记作a(t),a(t)={an(t),n∈N},还包括上一次调度的回报信息,上一次调度的回报信息用向量的形式记作R(t),R(t)={Rn(t),n∈N},其中,sn(t)为第n个边缘计算节点的上一次调度开始前的节点状态信息,an(t)为第n个边缘计算节点的上一次调度的决策信息,Rn(t)为第n个边缘计算节点的上一次调度的回报信息,sn(t+1)为第n个边缘计算节点的当前的节点状态信息,N表示中心控制器控制下的边缘计算节点的个数。
中心控制器将获取到的所有边缘计算节点上报的所有的节点信息,输入至预设的第一神经网络模型,第一神经网络模型为一个参数为w的神经网络,该第一神经网络模型记作v(s|w),其中,s为输入值,w为权重参数,输出优劣参数δ,优劣参数δ用于指示每一边缘计算节点上一次调度的决策的优劣程度。通过神经网络v(s|w)获取优劣参数δ的过程可以用如下公式表示:
δ←R(t)+γv(s(t+1)|w)-v(s(t)|w)
Figure BDA0001787245060000111
It+1←γIt
t←t+1
其中,γ为回报值得打折因子,α为更新步长,It为常数,It=1。
中心控制器将优劣参数δ广播至每一边缘计算节点。
然后,每一边缘计算节点通过接收模块302分别根据优劣参数δ优化第二神经网络模型。
例如,针对第n个边缘计算节点,第n个边缘计算节点根据优劣参数δ优化其自己的第二神经网络模型π(an|snn(t)),获取优化后的神经网络的权重参数θn(t+1),并将当前的节点状态信息sn(t+1)输入至优化后的第二神经网络模型π(an|snn(t+1)),输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
通过优劣参数δ优化第二神经网络模型π(an|snn(t))的过程可以用如下公式表示:
Figure BDA0001787245060000121
It+1←γIt
t←t+1
其中,γ为回报值得打折因子,βn为更新步长,It为常数,It=1,当t≥T,重新初始化参数θn,T为预设常数值。
最后,每一边缘计算节点通过优化执行模块303分别将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
例如,针对第n个边缘计算节点,将当前的节点状态信息s(t+1)输入至优化后的第二神经网络模型π(an|snn(t+1)),输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
本发明实施例提供的基于边缘计算网络的边缘计算节点设备,通过心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在上述实施例的基础上,进一步地,在所述在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数之前,所述优化执行模块还用于:
将获取到的上一次调度开始前的节点状态信息,输入至所述预设的第二神经网络模型,输出上一次调度的决策信息、上一次调度的回报信息和当前的节点状态信息;
将每一计算任务分别发送到上一次调度的决策信息指示的执行主体进行计算;
接收每一执行主体反馈的计算结果信息。
具体来说,首先,每一边缘计算节点通过优化执行模块303获取其上一次调度开始前的节点状态信息,并将该节点状态信息输入至自己内部的第二神经网络模型,输出当前的节点状态信息,上一次调度的决策信息,以及上一次调度的回报信息。
例如,针对第n个边缘计算节点,1≤n≤N,N表示中心控制器控制下的边缘计算节点的个数,第n个边缘计算节点获取其上一次调度开始前的节点状态信息,第n个边缘计算节点的上一次调度开始前的节点状态信息,用向量的形式记作sn(t)。然后,将sn(t)输入至参数为θn(t)的预设的第二神经网络模型,该第二神经网络模型记作π(an|snn(t)),其中,θn(t)为该神经网络的权重参数。然后,输出当前的节点状态信息,当前的节点状态信息用向量的形式记作sn(t+1),并输出上一次调度的决策信息,上一次调度的决策信息用向量的形式记作an(t),以及输出上一次调度的回报信息,上一次调度的回报信息用向量的形式记作R(t)。边缘计算节点计算出调度的决策信息只需要根据自己的节点状态信息,不需要获取全局的所有边缘计算节点的节点状态信息,提高了调度效率。
第n个边缘计算节点在获取到上一次调度的决策信息an(t)后,将每一计算任务分别发送到上一次调度的决策信息an(t)指示的执行主体进行计算。
如果第n个边缘计算节点的上一次调度的决策信息an(t)指示某个计算任务的执行主体为该边缘计算节点自己,即,该计算任务由该边缘计算节点自己处理,则该计算任务直接被发送到中央处理器CPU进行处理,由CPU按照决策信息an(t)指示计算资源为该计算任务分配相应的计算资源。
如果第n个边缘计算节点的上一次调度的决策信息an(t)指示某个计算任务的执行主体为其他边缘计算节,即,该计算任务由其他边缘计算节点处理,则该计算任务将按照预设的任务转移格式被发送到相应的边缘计算节点进行处理,预设的任务转移格式如下:
源IP地址 计算任务状态 任务的最大容忍时延 目的IP地址
如果某个计算任务由其他边缘计算节点处理,其他边缘计算节点处理完之后,会将计算结果按照预设的结果反馈格式反馈给原来的边缘计算节点,预设的结果反馈格式如下:
目的IP地址 是否成功 计算结果 计算时间 源IP地址
最后,原来的边缘计算节点收集其他边缘计算节点反馈回来的计算结果,通过无线链路传递给用户终端。至此,上一次调度结束。
本发明实施例提供的基于边缘计算网络的边缘计算节点设备,通过心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在上述实施例的基础上,进一步地,所述节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延;
所述决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。
具体来说,每一边缘计算节点向中心控制器上报的自己的节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延。
例如,针对第n个边缘计算节点,其向中心控制器上报的其上一次调度开始前的节点状态信息用向量表示为sn(t),sn(t)={cn,l,dn,l,Dn,l},l∈Mn,其中,Mn为第n个边缘计算节点下的计算任务数,cn,l为处理第n个边缘计算节点下第l个计算任务已经花费的时间,dn,l为上次调度前处理完第n个边缘计算节点下第l个计算任务还需要的计算资源,Dn,l为第n个边缘计算节点下第l个计算任务的最大容忍时延。
cn,l的初始化值为0,一开始用户终端产生该计算任务请求,会记录这个任务产生时的GPS时钟时间,当该任务数据量通过无线链路传递到第n个边缘计算节点时,对照第n个边缘计算节点的GPS时钟时间,更新cn,l的值。此后,每过一个时隙单位,cn,l的值加一。当cn,l的值大于Dn,l时,则该计算任务失败。当该计算任务从第n个边缘计算节点转移到其他边缘计算节点时,会记录这个任务产生时的GPS时钟时间,该任务数据量通过基站的X2接口或者核心网传递到其他边缘计算节点后,对照目的边缘计算节点的GPS时钟时间,更新cn,l的值。
每经过一个调度周期,需要更新dn,l的值,更新的公式为:dn,l(t+1)=dn,l(t)-βn,l,dn,l为上次调度前处理完第n个边缘计算节点下第l个计算任务还需要的计算资源,βn,l为上次调度决策中分配给第n个边缘计算节点下第l个计算任务的计算资源,dn,l(t+1)上次调度结束后处理完第n个边缘计算节点下第l个计算任务还需要的计算资源。
每一边缘计算节点通过自己的第二神经网络模型获取到的决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。这样在执行调度任务时,就能明确某一计算任务应该由哪个执行主体进行处理,并能明确分配给某一计算任务的计算资源的数量。
例如,针对第n个边缘计算节点,第n个边缘计算节点获取到其上一次调度开始前的节点状态信息sn(t)之后,将sn(t)输入至参数为θn(t)的预设的第二神经网络模型π(an|snn(t)),输出上一次调度的决策信息an(t)。
其中,an(t)={xnn},xn为转发决策矩阵。
Figure BDA0001787245060000151
Mn为第n个边缘计算节点下的计算任务数。xkl为二元决策变量,xkl=1表示第n个边缘计算节点下的第l个计算任务转移到第k个边缘计算节点处理,xkl=0表示第n个边缘计算节点下的第l个计算任务不转移到第k个边缘计算节点处理。因此,xn的列向量为除了一个元素为1,其他元素全为0的列向量。βn为计算资源决策向量,βn=[βn,1n,2,…βn,Mn]。βn,l表示第n个边缘计算节点下的第l个计算任务得到的计算资源(例如,CPU频率)。
当第n个边缘计算节点下的第l个计算任务由该边缘计算节点自己处理时,计算资源分配必须满足
Figure BDA0001787245060000161
Cn是第n个边缘计算节点的总的计算资源。
本发明实施例提供的基于边缘计算网络的边缘计算节点设备,通过心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在以上各实施例的基础上,进一步地,所述回报信息包括每一计算任务的回报值;
所述回报值的计算公式如下:
Figure BDA0001787245060000162
其中,
Figure BDA0001787245060000163
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
具体来说,每一边缘计算节点通过自己的第二神经网络模型获取到的回报信息包括每一计算任务的回报值.
每一计算任务的回报值反应了在一次调度过程中,该计算任务被处理的速度的快慢,处理速度越快该回报值就越大,反之越小。
例如,针对第n个边缘计算节点,上一次调度的回报信息为Rn(t),Rn(t)用公式表示如下:
Figure BDA0001787245060000171
其中,Rn(t)为第n个边缘计算节点上一次调度的回报信息,
Figure BDA0001787245060000172
为第n个边缘计算节点上一次调度的第l个计算任务的回报值,Mn为第n个边缘计算节点下的计算任务数。
上一次调度的第l个计算任务的回报值
Figure BDA0001787245060000173
的计算公式如下:
Figure BDA0001787245060000174
其中,
Figure BDA0001787245060000175
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
在上一次调度结束后,第l个计算任务的计时器状态cn,l大于Dn,l时,计算任务失败,则该计算任务的回报值为
Figure BDA0001787245060000176
当dn,l=0时,计算任务计算完成,则该计算任务的回报值为
Figure BDA0001787245060000177
当计算任务l的计时器状态cn,l小于Dn,l时,则Dn,l-cn,l为最大剩余执行时间。dn,l为剩余计算量。则该计算任务的回报值为
Figure BDA0001787245060000178
其实为计算速率的倒数。
本发明实施例提供的基于边缘计算网络的边缘计算节点设备,通过心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
图2为本发明实施例提供的基于边缘计算网络的无线通信网络系统的示意图,如图2所示,本发明实施例提供一种基于边缘计算网络的无线通信网络系统,该无线通信网络系统包括上述任一实施例所述的中心控制器和上述任一实施例所述的边缘计算节点设备,若干个边缘计算节点设备组成边缘计算节点网络,每一边缘计算节点设备可以为基站等分布在网络边缘具有计算能力的设备。移动用户终端通过无线链路与边缘计算节点设备连接。
本发明实施例提供的基于边缘计算网络的无线通信网络系统中的中心控制器的结构、功能,以及工作流程与上述任一实施例所述的中心控制器的完全相同,此处不再赘述。
本发明实施例提供的基于边缘计算网络的无线通信网络系统中的边缘计算节点设备的结构、功能,以及工作流程与上述任一实施例所述的边缘计算节点设备的完全相同,此处不再赘述。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (7)

1.一种基于边缘计算网络的中心控制器,其特征在于,包括:
获取模块,用于在上一次调度结束后,获取每一边缘计算节点上报的节点信息,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息;
中央评判模块,用于将获取到的所有的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
广播模块,用于将所述优劣参数广播至每一边缘计算节点,以供每一边缘计算节点分别根据所述优劣参数优化预设的第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算;
所述回报信息包括每一计算任务的回报值;
所述回报值的计算公式如下:
Figure FDA0002556999490000011
其中,
Figure FDA0002556999490000012
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
2.根据权利要求1所述的中心控制器,其特征在于,所述节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延。
3.根据权利要求1所述的中心控制器,其特征在于,所述决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。
4.一种基于边缘计算网络的边缘计算节点设备,其特征在于,包括:
上报模块,用于在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将获取到的所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
接收模块,用于获取所述中心控制器广播的所述优劣参数,并根据所述优劣参数优化预设的第二神经网络模型;
优化执行模块,用于将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,并将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算;
所述回报信息包括每一计算任务的回报值;
所述回报值的计算公式如下:
Figure FDA0002556999490000021
其中,
Figure FDA0002556999490000022
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
5.根据权利要求4所述的边缘计算节点设备,其特征在于,在所述在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数之前,所述优化执行模块还用于:
将获取到的上一次调度开始前的节点状态信息,输入至所述预设的第二神经网络模型,输出上一次调度的决策信息、上一次调度的回报信息和当前的节点状态信息;
将每一计算任务分别发送到上一次调度的决策信息指示的执行主体进行计算;
接收每一执行主体反馈的计算结果信息。
6.根据权利要求4或5所述的边缘计算节点设备,其特征在于,所述节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延;
所述决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。
7.一种基于边缘计算网络的无线通信网络系统,其特征在于,包括权利要求1-3任一项所述的中心控制器和权利要求4-6任一项所述的边缘计算节点设备。
CN201811020708.8A 2018-09-03 2018-09-03 基于边缘计算网络的无线通信网络设备及系统 Active CN109298933B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811020708.8A CN109298933B (zh) 2018-09-03 2018-09-03 基于边缘计算网络的无线通信网络设备及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811020708.8A CN109298933B (zh) 2018-09-03 2018-09-03 基于边缘计算网络的无线通信网络设备及系统

Publications (2)

Publication Number Publication Date
CN109298933A CN109298933A (zh) 2019-02-01
CN109298933B true CN109298933B (zh) 2020-09-11

Family

ID=65166076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811020708.8A Active CN109298933B (zh) 2018-09-03 2018-09-03 基于边缘计算网络的无线通信网络设备及系统

Country Status (1)

Country Link
CN (1) CN109298933B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109905470A (zh) * 2019-02-18 2019-06-18 南京邮电大学 一种基于边缘网关系统的开销优化任务调度方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046377A (zh) * 2015-09-06 2015-11-11 河海大学 基于bp神经网络筛选水库防洪调度方案优选指标的方法
CN105956939A (zh) * 2016-05-31 2016-09-21 国网山东省电力公司青岛供电公司 分布式电源接入电网的分析评价方法、装置及系统
CN107871164A (zh) * 2017-11-17 2018-04-03 济南浪潮高新科技投资发展有限公司 一种雾计算环境个性化深度学习方法
CN107995660A (zh) * 2017-12-18 2018-05-04 重庆邮电大学 支持d2d-边缘服务器卸载的联合任务调度及资源分配方法
CN108243246A (zh) * 2017-12-25 2018-07-03 北京市天元网络技术股份有限公司 一种边缘计算资源调度方法、边缘设备及系统
CN108255605A (zh) * 2017-12-29 2018-07-06 北京邮电大学 一种基于神经网络的图像识别协同计算方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170091615A1 (en) * 2015-09-28 2017-03-30 Siemens Aktiengesellschaft System and method for predicting power plant operational parameters utilizing artificial neural network deep learning methodologies

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046377A (zh) * 2015-09-06 2015-11-11 河海大学 基于bp神经网络筛选水库防洪调度方案优选指标的方法
CN105956939A (zh) * 2016-05-31 2016-09-21 国网山东省电力公司青岛供电公司 分布式电源接入电网的分析评价方法、装置及系统
CN107871164A (zh) * 2017-11-17 2018-04-03 济南浪潮高新科技投资发展有限公司 一种雾计算环境个性化深度学习方法
CN107995660A (zh) * 2017-12-18 2018-05-04 重庆邮电大学 支持d2d-边缘服务器卸载的联合任务调度及资源分配方法
CN108243246A (zh) * 2017-12-25 2018-07-03 北京市天元网络技术股份有限公司 一种边缘计算资源调度方法、边缘设备及系统
CN108255605A (zh) * 2017-12-29 2018-07-06 北京邮电大学 一种基于神经网络的图像识别协同计算方法及系统

Also Published As

Publication number Publication date
CN109298933A (zh) 2019-02-01

Similar Documents

Publication Publication Date Title
CN109343942B (zh) 基于边缘计算网络的任务调度方法
Wang et al. Dynamic resource scheduling in mobile edge cloud with cloud radio access network
EP3855842A1 (en) Method and apparatus for dynamically allocating radio resources in a wireless communication system
JP7159347B2 (ja) モデル更新方法および装置、ならびにシステム
CN113709048A (zh) 一种路由信息的发送、接收方法、网元及节点设备
US11546806B2 (en) Communication system
US20150188767A1 (en) Traffic Behavior Driven Dynamic Zoning for Distributed Traffic Engineering in SDN
CN109947574B (zh) 一种基于雾网络的车辆大数据计算卸载方法
CN104901989B (zh) 一种现场服务提供系统及方法
US11962478B2 (en) Feasibility check for network slice instantiation
Li et al. Optimal edge server deployment and allocation strategy in 5G ultra-dense networking environments
CN112422644A (zh) 计算任务卸载方法及系统、电子设备和存储介质
US10901388B2 (en) Method and system for creating energy demand model
Jiang et al. Delay-aware task offloading in shared fog networks
Benedetti et al. Reinforcement learning applicability for resource-based auto-scaling in serverless edge applications
Huang et al. Distributed resource allocation for network slicing of bandwidth and computational resource
Xu et al. Schedule or wait: Age-minimization for IoT big data processing in MEC via online learning
US20160269297A1 (en) Scaling the LTE Control Plane for Future Mobile Access
Mada et al. Latency-aware service placement and live migrations in 5G and beyond mobile systems
Li et al. Federated orchestration for network slicing of bandwidth and computational resource
Tao et al. Congestion-aware traffic allocation for geo-distributed data centers
CN109298933B (zh) 基于边缘计算网络的无线通信网络设备及系统
Huang et al. Service provisioning update scheme for mobile application users in a cloudlet network
CN114691372A (zh) 一种多媒体端边云系统的群体智能控制方法
CN112437449B (zh) 联合资源分配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant