Nothing Special   »   [go: up one dir, main page]

CN107885464B - 数据存储方法、装置及计算机可读存储介质 - Google Patents

数据存储方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN107885464B
CN107885464B CN201711213537.6A CN201711213537A CN107885464B CN 107885464 B CN107885464 B CN 107885464B CN 201711213537 A CN201711213537 A CN 201711213537A CN 107885464 B CN107885464 B CN 107885464B
Authority
CN
China
Prior art keywords
layer
target
data
target layer
output data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711213537.6A
Other languages
English (en)
Other versions
CN107885464A (zh
Inventor
万韶华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201711213537.6A priority Critical patent/CN107885464B/zh
Publication of CN107885464A publication Critical patent/CN107885464A/zh
Application granted granted Critical
Publication of CN107885464B publication Critical patent/CN107885464B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0608Saving storage space on storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本公开是关于一种深度卷积神经网络模型中的数据存储方法、装置及计算机可读存储介质,涉及网络技术领域,所述方法包括:在训练深度卷积神经网络模型的过程中,确定深度卷积神经网络模型中位于第一目标层之前的第二目标层;其中,第一目标层为深度卷积神经网络模型中包括的任一层,第二目标层的目标数据不会输入到位于第一目标层之后的层,第二目标层的目标数据为第二目标层的输入数据或输出数据;获取第一目标层的输入数据,并将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中。本公开通过将第一目标层的输入数据存储至第二目标层的目标数据的存储空间中,从而不需要为第一目标层的输入数据新申请存储空间,节省了存储空间。

Description

数据存储方法、装置及计算机可读存储介质
技术领域
本公开涉及网络技术领域,尤其涉及一种深度卷积神经网络模型中的数据存储方法、装置及计算机可读存储介质。
背景技术
深度卷积神经网络模型是一种能够高效的进行图像识别的网络模型。也即是,可以通过深度卷积神经网络模型包括的卷积层、激活层、池化层和全连接层对图像进行处理,最后通过深度卷积神经网络模型包括的类别概率层输出最终的图像识别结果。在使用深度卷积神经网络模型对图像进行识别之前,需要先对深度卷积神经网络模型进行训练。
在对深度卷积神经网络模型进行训练的过程中,深度卷积神经网络模型中包括的每一层都会有输入数据和输出数据,相关技术中,对于深度卷积神经网络模型中包括的每一层,获得该层的输入数据后,可以新申请一个存储空间来存储该层的输入数据,之后,若获得该层的输出数据,再新申请一个存储空间来存储该层的输出数据。
发明内容
为克服相关技术中存在的问题,本公开提供一种深度卷积神经网络模型中的数据存储方法、装置及计算机可读存储介质。
根据本公开实施例的第一方面,提供一种深度卷积神经网络模型中的数据存储方法,包括:
在训练深度卷积神经网络模型的过程中,确定所述深度卷积神经网络模型中位于第一目标层之前的第二目标层;
其中,所述第一目标层为所述深度卷积神经网络模型中包括的任一层,所述第二目标层的目标数据不会输入到位于所述第一目标层之后的层,所述第二目标层的目标数据为所述第二目标层的输入数据或输出数据;
获取所述第一目标层的输入数据,并将所述第一目标层的输入数据存储到所述第二目标层的目标数据的存储空间中。
可选地,所述获取所述第一目标层的输入数据之前,还包括:
将所述第二目标层的目标数据的名称、所述第一目标层的上一层的输出数据的名称和所述第一目标层的输入数据的名称设置为相同的名称;
相应地,所述获取所述第一目标层的输入数据,并将所述第一目标层的输入数据存储到所述第二目标层的目标数据的存储空间中,包括:
当获取到所述第一目标层的上一层的输出数据时,根据所述第一目标层的上一层的输出数据的名称,确定目标存储空间,所述目标存储空间用于存储具有所述第一目标层的上一层的输出数据的名称的数据;
根据所述第一目标层的上一层的输出数据,确定所述第一目标层的输入数据;
将所述第一目标层的输入数据存储到所述目标存储空间中。
可选地,所述根据所述第一目标层的上一层的输出数据,确定所述第一目标层的输入数据,包括:
当将所述第一目标层的上一层的输出数据输入到所述第一目标层时,将所述第一目标层的上一层的输出数据确定为所述第一目标层的输入数据。
可选地,所述根据所述第一目标层的上一层的输出数据,确定所述第一目标层的输入数据,包括:
当将所述第一目标层的上一层的输出数据与所述第二目标层的目标数据之和输入到所述第一目标层时,获取所述目标存储空间中存储的数据;
将获取的数据与所述第一目标层的上一层的输出数据相加,得到所述第一目标层的输入数据。
可选地,所述深度卷积神经网络模型为深度卷积残差网络模型。
根据本公开实施例的第二方面,提供一种深度卷积神经网络模型中的数据存储装置,包括:
确定模块,用于在训练深度卷积神经网络模型的过程中,确定所述深度卷积神经网络模型中位于第一目标层之前的第二目标层;
其中,所述第一目标层为所述深度卷积神经网络模型中包括的任一层,所述第二目标层的目标数据不会输入到位于所述第一目标层之后的层,所述第二目标层的目标数据为所述第二目标层的输入数据或输出数据;
存储模块,用于获取所述第一目标层的输入数据,并将所述第一目标层的输入数据存储到所述第二目标层的目标数据的存储空间中。
可选地,所述装置还包括:
设置模块,用于将所述第二目标层的目标数据的名称、所述第一目标层的上一层的输出数据的名称和所述第一目标层的输入数据的名称设置为相同的名称;
相应地,所述存储模块包括:
第一确定子模块,用于当获取到所述第一目标层的上一层的输出数据时,根据所述第一目标层的上一层的输出数据的名称,确定目标存储空间,所述目标存储空间用于存储具有所述第一目标层的上一层的输出数据的名称的数据;
第二确定子模块,用于根据所述第一目标层的上一层的输出数据,确定所述第一目标层的输入数据;
存储子模块,用于将所述第一目标层的输入数据存储到所述目标存储空间中。
可选地,所述第二确定子模块用于:
当将所述第一目标层的上一层的输出数据输入到所述第一目标层时,将所述第一目标层的上一层的输出数据确定为所述第一目标层的输入数据。
可选地,所述第二确定子模块用于:
当将所述第一目标层的上一层的输出数据与所述第二目标层的目标数据之和输入到所述第一目标层时,获取所述目标存储空间中存储的数据;
将获取的数据与所述第一目标层的上一层的输出数据相加,得到所述第一目标层的输入数据。
可选地,所述深度卷积神经网络模型为深度卷积残差网络模型。
根据本公开实施例的第三方面,提供一种深度卷积神经网络模型中的数据存储装置,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述第一方面所述方法的步骤。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,所述指令被处理器执行时实现上述第一方面所述方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:在训练深度卷积神经网络模型的过程中,可以先确定深度卷积神经网络模型中位于第一目标层之前的第二目标层,其中,第二目标层的目标数据不会输入到位于第一目标层之后的层。之后,当获取到第一目标层的输入数据时,可以将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中,而不需要为第一目标层的输入数据新申请存储空间,从而可以减少深度卷积神经网络模型中的数据占用的存储空间,节省存储资源。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1A是根据一示例性实施例示出的一种普通的深度卷积神经网络模型的示意图。
图1B是根据一示例性实施例示出的一种深度卷积残差网络模型的示意图。
图2是根据一示例性实施例示出的第一种深度卷积神经网络模型中的数据存储方法的流程图。
图3A是根据一示例性实施例示出的第二种深度卷积神经网络模型中的数据存储方法的流程图。
图3B是根据一示例性实施例示出的第三种深度卷积神经网络模型中的数据存储方法的流程图。
图3C是根据一示例性实施例示出的第一种深度卷积神经网络模型的示意图。
图3D是根据一示例性实施例示出的第二种深度卷积神经网络模型的示意图。
图3E是根据一示例性实施例示出的第三种深度卷积神经网络模型的示意图。
图4A是根据一示例性实施例示出的第一种深度卷积神经网络模型中的数据存储装置的框图。
图4B是根据一示例性实施例示出的第二种深度卷积神经网络模型中的数据存储装置的框图。
图4C是根据一示例性实施例示出的一种存储模块的框图。
图5是根据一示例性实施例示出的第三种深度卷积神经网络模型中的数据存储装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
为了便于理解,在对本公开实施例进行详细的解释说明之前,先对本公开实施例涉及的应用场景进行介绍。
目前,在对深度卷积神经网络模型进行训练的过程中,深度卷积神经网络模型中包括的每一层都会有输入数据和输出数据。其中,深度卷积神经网络模型可以包括普通的深度卷积神经网络模型和深度卷积残差网络模型。普通的深度卷积神经网络模型中每一层的输入数据直接为其上一层的输出数据,深度卷积残差网络模型中某一层的输入数据可以为其之前两层的输出数据之和,如普通的深度卷积神经网络模型可以为AlexNet模型等,深度卷积残差网络模型可以为ResNet-152模型等。
对于普通的深度卷积神经网络模型中包括的某一层,获得该层的输入数据后,可以新申请一个存储空间来存储该层的输入数据,之后,若获得该层的输出数据,再新申请一个存储空间来存储该层的输出数据。也即是,普通的深度卷积神经网络模型中,每层都要新申请两个存储空间来存储数据。例如,对于如图1A所示的普通的深度卷积神经网络模型中的某一层来说,该层有一个输入数据X和一个输出数据F(X),此时需要申请2个存储空间,分别用来存储输入数据X和输出数据F(X)。
对于深度卷积残差网络模型中包括的某一层,该层的输入数据可能是其之前两层的输出数据之和,此时,需要新申请两个存储空间分别用于存储其之前两层的输出数据,且还需要再申请一个存储空间用于存储其之前两层的输出数据之和(即该层的输入数据)。也即是,深度卷积残差网络模型中某一层可能需要新申请三个存储空间来存储数据。例如,对于图1B所示的深度卷积残差网络模型中的层3,层3的输入数据为层1的输出数据X与层2的输出数据F(X)之和,此时需要申请3个存储空间,分别用来存储层1的输出数据X、层2的输出数据F(X)和层3的输入数据X+F(X)。
上述存储方式下深度卷积神经网络模型中的数据会占用较多的存储空间,浪费存储资源。为此,本公开提供了一种深度卷积神经网络模型中的数据存储方法,来减少深度卷积神经网络模型中的数据占用的存储空间,节省存储资源。
接下来将结合附图对本公开实施例提供的深度卷积神经网络模型中的数据存储方法进行详细说明。
图2是根据一示例性实施例示出的一种深度卷积神经网络模型中的数据存储方法的流程图,如图2所示,该方法包括以下步骤。
在步骤201中,在训练深度卷积神经网络模型的过程中,确定深度卷积神经网络模型中位于第一目标层之前的第二目标层。
其中,第一目标层为深度卷积神经网络模型中包括的任一层,第二目标层的目标数据不会输入到位于第一目标层之后的层,第二目标层的目标数据为第二目标层的输入数据或输出数据。
在步骤202中,获取第一目标层的输入数据,并将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中。
本公开实施例中,在训练深度卷积神经网络模型的过程中,可以先确定深度卷积神经网络模型中位于第一目标层之前的第二目标层,其中,第二目标层的目标数据不会输入到位于第一目标层之后的层。之后,当获取到第一目标层的输入数据时,可以将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中,而不需要为第一目标层的输入数据新申请存储空间,从而可以减少深度卷积神经网络模型中的数据占用的存储空间,节省存储资源。
可选地,获取第一目标层的输入数据之前,还包括:
将第二目标层的目标数据的名称、第一目标层的上一层的输出数据的名称和第一目标层的输入数据的名称设置为相同的名称;
相应地,获取第一目标层的输入数据,并将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中,包括:
当获取到第一目标层的上一层的输出数据时,根据第一目标层的上一层的输出数据的名称,确定目标存储空间,目标存储空间用于存储具有第一目标层的上一层的输出数据的名称的数据;
根据第一目标层的上一层的输出数据,确定第一目标层的输入数据;
将第一目标层的输入数据存储到目标存储空间中。
可选地,根据第一目标层的上一层的输出数据,确定第一目标层的输入数据,包括:
当将第一目标层的上一层的输出数据输入到第一目标层时,将第一目标层的上一层的输出数据确定为第一目标层的输入数据。
可选地,根据第一目标层的上一层的输出数据,确定第一目标层的输入数据,包括:
当将第一目标层的上一层的输出数据与第二目标层的目标数据之和输入到第一目标层时,获取目标存储空间中存储的数据;
将获取的数据与第一目标层的上一层的输出数据相加,得到第一目标层的输入数据。
可选地,深度卷积神经网络模型为深度卷积残差网络模型。
上述所有可选技术方案,均可按照任意结合形成本公开的可选实施例,本公开实施例对此不再一一赘述。
图3A和图3B是根据一示例性实施例示出的一种深度卷积神经网络模型中的数据存储方法的流程图,下面将结合图3A和图3B对图2实施例提供的方法进行展开说明,如图3A和图3B所示,该方法包括以下步骤。
在步骤301中,在训练深度卷积神经网络模型的过程中,确定深度卷积神经网络模型中位于第一目标层之前的第二目标层。
需要说明的是,第一目标层为深度卷积神经网络模型中包括的任一层。
另外,第二目标层的目标数据不会输入到位于第一目标层之后的层,即第二目标层的目标数据不为位于第一目标层之后的层的输入数据,第二目标层的目标数据可以为第二目标层的输入数据或输出数据。
例如,如图3C所示,层2为第一目标层,层1为层2的上一层,层1的输入数据为X,输出数据为F(X),假设层1的输入数据X不会输入到层2之后的层,则可以将层1确定为第二目标层,且层1的输入数据X为层1的目标数据。
又例如,如图3D所示,层3为第一目标层,层2为层3的上一层,层1为层2的上一层,层1的输出数据为X,假设层1的输出数据X不会输入到层3之后的层,则可以将层1确定为第二目标层,且层1的输出数据X为层1的目标数据。
再例如,如图3E所示,层3为第一目标层,层2和层1为层3之前的两层,层2的输出数据为F(X),层1的输出数据为X,假设层1的输出数据X和层2的输出数据F(X)均不会输入到层3之后的层,则可以将层2确定为第二目标层,此时层2的输出数据F(X)为层2的目标数据,或者可以将层1确定为第二目标层,此时层1的输出数据X为层1的目标数据。
在通过步骤301确定位于第一目标层之前的第二目标层后,即可在深度卷积神经网络模型的训练过程中,获取第一目标层的输入数据,并将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中。
需要说明的是,由于第二目标层的目标数据不会输入到第一目标层之后的层,也即是,当获取到第一目标层的输入数据时,第二目标层的目标数据已经不会影响第一目标层之后的层的处理操作,因此可以将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中,而不需要为第一目标层的输入数据新申请存储空间,从而可以减少深度卷积神经网络模型中的数据占用的存储空间,节省存储资源。
实际应用中,深度卷积神经网络模型可以包括普通的深度卷积神经网络模型和深度卷积残差网络模型。普通的深度卷积神经网络模型中每一层的输入数据直接为其上一层的输出数据,深度卷积残差网络模型中某一层的输入数据可以为其之前两层的输出数据之和。
本公开实施例中,普通的深度卷积神经网络模型和深度卷积残差网络模型的数据存储方式可以所有区别。也即是,当该深度卷积神经网络模型为普通的深度卷积神经网络模型时,参见图3A,获取第一目标层的输入数据,并将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中的操作可以包括如下步骤3021-3022;当该深度卷积神经网络模型为深度卷积残差网络模型时,参见图3B,获取第一目标层的输入数据,并将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中的操作可以包括如下步骤3023-3024。
普通的深度卷积神经网络模型的数据存储方式:
在步骤3021中,当获取到第一目标层的上一层的输出数据时,将第一目标层的上一层的输出数据确定为第一目标层的输入数据。
需要说明的是,在普通的深度卷积神经网络模型中,由于每一层的输出数据会直接输入到下一层,因此在获取到第一目标层的上一层的输出数据后,可以直接将第一目标层的上一层的输出数据确定为第一目标层的输入数据。
例如,当获取到第一目标层的上一层的输出数据为F(X)时,可以将F(X)确定为第一目标层的输入数据。
步骤3022:将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中。
其中,步骤3022的操作可以为:先确定第二目标层的目标数据的存储空间,然后将所确定的存储空间中存储的数据替换为第一目标层的输入数据。
实际应用中,步骤3022的操作还可以基于数据名称来实现。此时,在获取第一目标层的输入数据之前,还可以将第一目标层的上一层的输出数据的名称、第二目标层的目标数据的名称和第一目标层的输入数据的名称设置为相同的名称。之后,将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中时,可以当获取到第一目标层的上一层的输出数据时,根据第一目标层的上一层的输出数据的名称,确定目标存储空间,将第一目标层的上一层的输出数据存储到目标存储空间中。
需要说明的是,目标存储空间用于存储具有第一目标层的上一层的输出数据的名称的数据,例如,第一目标层的上一层的输出数据的名称为M1,则目标存储空间即是存储具有M1的数据的存储空间。
另外,由于第一目标层的上一层的输出数据的名称、第二目标层的目标数据的名称和第一目标层的输入数据的名称相同,所以在获取到第一目标层的上一层的输出数据时,目标存储空间中存储的数据为第二目标层的目标数据。因而之后将第一目标层的上一层的输出数据存储到目标存储空间中,即是将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中。
再者,本公开实施例中相同名称的数据可以共享存储空间,因而将第二目标层的目标数据和第一目标层的输入数据设置成相同的名称时,可以自动实现第一目标层的输入数据在目标存储空间中的存储,这种情况下,不需要专门确定第二目标层的目标数据的存储空间,数据存储操作更为简单方便。
例如,如图3C所示,层1为层2的上一层,第一目标层为层2,第二目标层为层1,第二目标层的目标数据为层1的输入数据,此时可以将层1的输入数据的名称、层1的输出数据的名称与层2的输入数据的名称设置成相同名称M1。之后,在获取到层1的输出数据为F(X)时,根据层1的输出数据F(X)的名称M1,确定用于存储具有名称M1的数据的目标存储空间,将层1的输出数据F(X),即层2的输入数据F(X)存储到目标存储空间中。
深度卷积残差网络模型的数据存储方式:
步骤3023:当获取到第一目标层的上一层的输出数据时,根据第一目标层的上一层的输出数据,确定第一目标层的输入数据。
需要说明的是,在深度卷积残差网络模型中,由于某一层的输入数据可能直接是其上一层的输出数据,也可能是其之前两层的输出数据之和,因此在获取到第一目标层的上一层的输出数据后,需要先根据第一目标层的上一层的输出数据,确定第一目标层的输入数据。
其中,根据第一目标层的上一层的输出数据,确定第一目标层的输入数据的操作可以为:当将第一目标层的上一层的输出数据输入到第一目标层时,将第一目标层的上一层的输出数据直接确定为第一目标层的输入数据;当将第一目标层的上一层的输出数据和第三目标层的输出数据之和输入到第一目标层时,如果获取到第三目标层的输出数据,则将第一目标层的上一层的输出数据与第三目标层的输出数据相加,得到第一目标层的输入数据。
需要说明的是,第三目标层可以为深度卷积神经网络模型中包括的任一层。
例如,将第一目标层的上一层的输出数据输入到第一目标层,当获取到第一目标层的上一层的输出数据为F(X)时,可以将F(X)确定为第一目标层的输入数据。
又例如,将第一目标层的上一层的输出数据和第三目标层的输出数据之和输入到第一目标层,当获取到第一目标层的上一层的输出数据为F(X),且获取到第三目标层的输出数据为X时,可以将第一目标层的上一层的输出数据F(X)与第三目标层的输出数据X相加,得到第一目标层的输入数据为X+F(X)。
实际应用中,步骤3023的操作还可以基于数据名称来实现。此时,在获取第一目标层的输入数据之前,还可以将第一目标层的上一层的输出数据的名称、第二目标层的目标数据的名称和第一目标层的输入数据的名称设置为相同的名称。之后,根据第一目标层的上一层的输出数据,确定第一目标层的输入数据时,可以根据第一目标层的上一层的输出数据的名称,确定目标存储空间;如果是将第一目标层的上一层的输出数据输入到第一目标层,则将第一目标层的上一层的输出数据确定为第一目标层的输入数据;如果是将第一目标层的上一层的输出数据和第三目标层的输出数据之和输入到第一目标层,且第三目标层的输出数据为第二目标层的目标数据,则获取目标存储空间中存储的数据,将获取的数据与第一目标层的上一层的输出数据相加,得到第一目标层的输入数据。
需要说明的是,目标存储空间用于存储具有第一目标层的上一层的输出数据的名称的数据,例如,第一目标层的上一层的输出数据的名称为M1,则目标存储空间即是存储具有M1的数据的存储空间。
另外,由于第一目标层的上一层的输出数据的名称、第二目标层的目标数据的名称和第一目标层的输入数据的名称相同,所以在获取到第一目标层的上一层的输出数据时,目标存储空间中存储的数据为第二目标层的目标数据。因而之后将从目标存储空间中获取的数据与第一目标层的上一层的输出数据相加,即是将第二目标层的目标数据与第一目标层的上一层的输出数据相加,从而可以得到第一目标层的输入数据。
再者,本公开实施例在获取到第一目标层的上一层的输出数据后,无需专门去获取第二目标层的目标数据,而是可以直接确定目标存储空间并从中获取其存储的数据,从而简化了第二目标层的目标数据的获取操作,提高了获取效率。
例如,如图3E所示,层2为层3的上一层,层3的输入数据为层1的输出数据与层2的输出数据之和,第一目标层为层3,第二目标层为层1,且第二目标层的目标数据为层1的输出数据。此时可以将层1的输出数据的名称、层2的输出数据的名称与层3的输入数据的名称设置成相同名称M1。之后,在获取到层2的输出数据为F(X)时,根据层2的输出数据F(X)的名称M1,确定用于存储具有名称M1的数据的目标存储空间,并从目标存储空间中获取其存储的数据,假设获取的数据为X,则可以将获取的数据X与层2的输出数据F(X)相加,得到第一目标层的输入数据为X+F(X)。
步骤3024:将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中。
其中,步骤3024的操作可以为:先确定第二目标层的目标数据的存储空间,然后将所确定的存储空间中存储的数据替换为第一目标层的输入数据。
实际应用中,当步骤3023的操作是基于数据名称实现时,步骤3024中将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中时,可以直接将第一目标层的输入数据存储到目标存储空间中。
再者,本公开实施例中相同名称的数据可以共享存储空间,因而将第二目标层的目标数据和第一目标层的输入数据设置成相同的名称时,可以自动实现第一目标层的输入数据在目标存储空间中的存储,这种情况下,不需要专门确定第二目标层的目标数据的存储空间,数据存储操作更为简单方便。
值得注意的是,实际应用中,上述深度卷积残差网络模型的数据存储方式也可以应用于普通的深度卷积神经网络模型,也即是,上述深度卷积残差网络模型的数据存储方式可以应用于任意一种深度卷积神经网络模型中,本公开实施例对此不作限定。
本公开实施例中,在训练深度卷积神经网络模型的过程中,可以先确定深度卷积神经网络模型中位于第一目标层之前的第二目标层,其中,第二目标层的目标数据不会输入到位于第一目标层之后的层。之后,当获取到第一目标层的输入数据时,可以将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中,而不需要为第一目标层的输入数据新申请存储空间,从而可以减少深度卷积神经网络模型中的数据占用的存储空间,节省存储资源。
通过上述图2、图3A、图3B所示的实施例对本公开实施例提供的方法进行详细解释说明之后,接下来对本公开实施提供的深度卷积神经网络模型中的数据存储装置进行介绍。
图4A是根据一示例性实施例示出的一种深度卷积神经网络模型中的数据存储装置框图。参照图4A,该装置包括确定模块401和存储模块402。
确定模块401,用于在训练深度卷积神经网络模型的过程中,确定深度卷积神经网络模型中位于第一目标层之前的第二目标层。
其中,第一目标层为深度卷积神经网络模型中包括的任一层,第二目标层的目标数据不会输入到位于第一目标层之后的层,第二目标层的目标数据为第二目标层的输入数据或输出数据。
存储模块402,用于获取第一目标层的输入数据,并将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中。
可选地,参见图4B,该装置还包括:
设置模块403,用于将第二目标层的目标数据的名称、第一目标层的上一层的输出数据的名称和第一目标层的输入数据的名称设置为相同的名称。
相应地,参见图4C,该存储模块402包括:
第一确定子模块4021,用于当获取到第一目标层的上一层的输出数据时,根据第一目标层的上一层的输出数据的名称,确定目标存储空间,目标存储空间用于存储具有第一目标层的上一层的输出数据的名称的数据。
第二确定子模块4022,用于根据第一目标层的上一层的输出数据,确定第一目标层的输入数据。
存储子模块4023,用于将第一目标层的输入数据存储到目标存储空间中。
可选地,第二确定子模块4022用于:
当将第一目标层的上一层的输出数据输入到第一目标层时,将第一目标层的上一层的输出数据确定为第一目标层的输入数据。
可选地,第二确定子模块4022用于:
当将第一目标层的上一层的输出数据与第二目标层的目标数据之和输入到第一目标层时,获取目标存储空间中存储的数据;
将获取的数据与第一目标层的上一层的输出数据相加,得到第一目标层的输入数据。
可选地,深度卷积神经网络模型为深度卷积残差网络模型。
本公开实施例中,在训练深度卷积神经网络模型的过程中,可以先确定深度卷积神经网络模型中位于第一目标层之前的第二目标层,其中,第二目标层的目标数据不会输入到位于第一目标层之后的层。之后,当获取到第一目标层的输入数据时,可以将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中,而不需要为第一目标层的输入数据新申请存储空间,从而可以减少深度卷积神经网络模型中的数据占用的存储空间,节省存储资源。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图5是根据一示例性实施例示出的一种深度卷积神经网络模型中的数据存储装置500的框图。例如,装置500可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图5,装置500可以包括以下一个或多个组件:处理组件502,存储器504,电源组件506,多媒体组件508,音频组件510,输入/输出(I/O)的接口512,传感器组件514,以及通信组件516。
处理组件502通常控制装置500的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件502可以包括一个或多个处理器520来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件502可以包括一个或多个模块,便于处理组件502和其他组件之间的交互。例如,处理组件502可以包括多媒体模块,以方便多媒体组件508和处理组件502之间的交互。
存储器504被配置为存储各种类型的数据以支持在装置500的操作。这些数据的示例包括用于在装置500上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器504可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件506为装置500的各种组件提供电源。电源组件506可以包括电源管理系统,一个或多个电源,及其他与为装置500生成、管理和分配电源相关联的组件。
多媒体组件508包括在所述装置500和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件508包括一个前置摄像头和/或后置摄像头。当装置500处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件510被配置为输出和/或输入音频信号。例如,音频组件510包括一个麦克风(MIC),当装置500处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器504或经由通信组件516发送。在一些实施例中,音频组件510还包括一个扬声器,用于输出音频信号。
I/O接口512为处理组件502和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件514包括一个或多个传感器,用于为装置500提供各个方面的状态评估。例如,传感器组件514可以检测到装置500的打开/关闭状态,组件的相对定位,例如所述组件为装置500的显示器和小键盘,传感器组件514还可以检测装置500或装置500一个组件的位置改变,用户与装置500接触的存在或不存在,装置500方位或加速/减速和装置500的温度变化。传感器组件514可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件514还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件514还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件516被配置为便于装置500和其他设备之间有线或无线方式的通信。装置500可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件516经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件516还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置500可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述图1、图2、图3所示实施例提供的方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器504,上述指令可由装置500的处理器520执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种深度卷积神经网络模型中的数据存储方法,所述方法包括:
在训练深度卷积神经网络模型的过程中,确定深度卷积神经网络模型中位于第一目标层之前的第二目标层;
其中,第一目标层为深度卷积神经网络模型中包括的任一层,第二目标层的目标数据不会输入到位于第一目标层之后的层,第二目标层的目标数据为第二目标层的输入数据或输出数据;
获取第一目标层的输入数据,并将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中。
可选地,获取第一目标层的输入数据之前,还包括:
将第二目标层的目标数据的名称、第一目标层的上一层的输出数据的名称和第一目标层的输入数据的名称设置为相同的名称;
相应地,获取第一目标层的输入数据,并将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中,包括:
当获取到第一目标层的上一层的输出数据时,根据第一目标层的上一层的输出数据的名称,确定目标存储空间,目标存储空间用于存储具有第一目标层的上一层的输出数据的名称的数据;
根据第一目标层的上一层的输出数据,确定第一目标层的输入数据;
将第一目标层的输入数据存储到目标存储空间中。
可选地,根据第一目标层的上一层的输出数据,确定第一目标层的输入数据,包括:
当将第一目标层的上一层的输出数据输入到第一目标层时,将第一目标层的上一层的输出数据确定为第一目标层的输入数据。
可选地,根据第一目标层的上一层的输出数据,确定第一目标层的输入数据,包括:
当将第一目标层的上一层的输出数据与第二目标层的目标数据之和输入到第一目标层时,获取目标存储空间中存储的数据;
将获取的数据与第一目标层的上一层的输出数据相加,得到第一目标层的输入数据。
可选地,深度卷积神经网络模型为深度卷积残差网络模型。
本公开实施例中,在训练深度卷积神经网络模型的过程中,可以先确定深度卷积神经网络模型中位于第一目标层之前的第二目标层,其中,第二目标层的目标数据不会输入到位于第一目标层之后的层。之后,当获取到第一目标层的输入数据时,可以将第一目标层的输入数据存储到第二目标层的目标数据的存储空间中,而不需要为第一目标层的输入数据新申请存储空间,从而可以减少深度卷积神经网络模型中的数据占用的存储空间,节省存储资源。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (12)

1.一种深度卷积神经网络模型中的数据存储方法,其特征在于,所述方法包括:
在训练深度卷积神经网络模型的过程中,确定所述深度卷积神经网络模型中位于第一目标层之前的第二目标层;其中,所述第一目标层为所述深度卷积神经网络模型中包括的任一层,所述第二目标层的目标数据不会输入到位于所述第一目标层之后的层,所述第二目标层的目标数据为所述第二目标层的输入数据或输出数据;
将所述第二目标层的目标数据的名称、所述第一目标层的上一层的输出数据的名称和所述第一目标层的输入数据的名称设置为相同的名称;
获取所述第一目标层的输入数据,并根据所述名称确定所述第二目标层的目标数据的存储空间,然后将所确定的存储空间中存储的所述第二目标层的目标数据替换为所述第一目标层的输入数据。
2.根据权利要求1所述的方法,其特征在于,所述获取所述第一目标层的输入数据,并确定所述第二目标层的目标数据的存储空间,然后将所确定的存储空间中存储的所述第二目标层的目标数据替换为所述第一目标层的输入数据,包括:
当获取到所述第一目标层的上一层的输出数据时,根据所述第一目标层的上一层的输出数据的名称,确定目标存储空间,所述目标存储空间用于存储具有所述第一目标层的上一层的输出数据的名称的数据;
根据所述第一目标层的上一层的输出数据,确定所述第一目标层的输入数据;
确定所述第二目标层的目标数据的存储空间,然后将所确定的存储空间中存储的所述第二目标层的目标数据替换为所述第一目标层的输入数据。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一目标层的上一层的输出数据,确定所述第一目标层的输入数据,包括:
当将所述第一目标层的上一层的输出数据输入到所述第一目标层时,将所述第一目标层的上一层的输出数据确定为所述第一目标层的输入数据。
4.根据权利要求2所述的方法,其特征在于,所述根据所述第一目标层的上一层的输出数据,确定所述第一目标层的输入数据,包括:
当将所述第一目标层的上一层的输出数据与所述第二目标层的目标数据之和输入到所述第一目标层时,获取所述目标存储空间中存储的数据;
将获取的数据与所述第一目标层的上一层的输出数据相加,得到所述第一目标层的输入数据。
5.根据权利要求1-4任一所述的方法,其特征在于,所述深度卷积神经网络模型为深度卷积残差网络模型。
6.一种深度卷积神经网络模型中的数据存储装置,其特征在于,所述装置包括:
确定模块,用于在训练深度卷积神经网络模型的过程中,确定所述深度卷积神经网络模型中位于第一目标层之前的第二目标层;其中,所述第一目标层为所述深度卷积神经网络模型中包括的任一层,所述第二目标层的目标数据不会输入到位于所述第一目标层之后的层,所述第二目标层的目标数据为所述第二目标层的输入数据或输出数据;
设置模块,用于将所述第二目标层的目标数据的名称、所述第一目标层的上一层的输出数据的名称和所述第一目标层的输入数据的名称设置为相同的名称;
存储模块,用于获取所述第一目标层的输入数据,并根据所述名称确定所述第二目标层的目标数据的存储空间,然后将所确定的存储空间中存储的所述第二目标层的目标数据替换为所述第一目标层的输入数据。
7.根据权利要求6所述的装置,其特征在于,
所述存储模块包括:
第一确定子模块,用于当获取到所述第一目标层的上一层的输出数据时,根据所述第一目标层的上一层的输出数据的名称,确定目标存储空间,所述目标存储空间用于存储具有所述第一目标层的上一层的输出数据的名称的数据;
第二确定子模块,用于根据所述第一目标层的上一层的输出数据,确定所述第一目标层的输入数据;
存储子模块,用于确定所述第二目标层的目标数据的存储空间,然后将所确定的存储空间中存储的所述第二目标层的目标数据替换为所述第一目标层的输入数据。
8.根据权利要求7所述的装置,其特征在于,所述第二确定子模块用于:
当将所述第一目标层的上一层的输出数据输入到所述第一目标层时,将所述第一目标层的上一层的输出数据确定为所述第一目标层的输入数据。
9.根据权利要求7所述的装置,其特征在于,所述第二确定子模块用于:
当将所述第一目标层的上一层的输出数据与所述第二目标层的目标数据之和输入到所述第一目标层时,获取所述目标存储空间中存储的数据;
将获取的数据与所述第一目标层的上一层的输出数据相加,得到所述第一目标层的输入数据。
10.根据权利要求6-9任一所述的装置,其特征在于,所述深度卷积神经网络模型为深度卷积残差网络模型。
11.一种深度卷积神经网络模型中的数据存储装置,其特征在于,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1-5所述的任一项方法的步骤。
12.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现权利要求1-5所述的任一项方法的步骤。
CN201711213537.6A 2017-11-28 2017-11-28 数据存储方法、装置及计算机可读存储介质 Active CN107885464B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711213537.6A CN107885464B (zh) 2017-11-28 2017-11-28 数据存储方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711213537.6A CN107885464B (zh) 2017-11-28 2017-11-28 数据存储方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN107885464A CN107885464A (zh) 2018-04-06
CN107885464B true CN107885464B (zh) 2021-11-02

Family

ID=61775671

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711213537.6A Active CN107885464B (zh) 2017-11-28 2017-11-28 数据存储方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN107885464B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3992864A1 (en) * 2020-10-29 2022-05-04 Bang & Olufsen A/S Partial inference framework for sequential dnn processing on constrained devices, and acoustic scene classification using said partial inference framework
CN112506423B (zh) * 2020-11-02 2021-07-20 北京迅达云成科技有限公司 一种云储存系统中动态接入存储设备的方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077233A (zh) * 2014-06-18 2014-10-01 百度在线网络技术(北京)有限公司 单通道卷积层及多通道卷积层处理方法和装置
WO2015192812A1 (en) * 2014-06-20 2015-12-23 Tencent Technology (Shenzhen) Company Limited Data parallel processing method and apparatus based on multiple graphic procesing units
CN105956658A (zh) * 2016-04-29 2016-09-21 北京比特大陆科技有限公司 数据处理方法、数据处理装置及芯片
CN105976027A (zh) * 2016-04-29 2016-09-28 北京比特大陆科技有限公司 数据处理方法和装置、芯片

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160379109A1 (en) * 2015-06-29 2016-12-29 Microsoft Technology Licensing, Llc Convolutional neural networks on hardware accelerators
WO2017031088A1 (en) * 2015-08-15 2017-02-23 Salesforce.Com, Inc Three-dimensional (3d) convolution with 3d batch normalization
CN106548201B (zh) * 2016-10-31 2020-07-21 北京小米移动软件有限公司 卷积神经网络的训练方法、图像识别方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077233A (zh) * 2014-06-18 2014-10-01 百度在线网络技术(北京)有限公司 单通道卷积层及多通道卷积层处理方法和装置
WO2015192812A1 (en) * 2014-06-20 2015-12-23 Tencent Technology (Shenzhen) Company Limited Data parallel processing method and apparatus based on multiple graphic procesing units
CN105956658A (zh) * 2016-04-29 2016-09-21 北京比特大陆科技有限公司 数据处理方法、数据处理装置及芯片
CN105976027A (zh) * 2016-04-29 2016-09-28 北京比特大陆科技有限公司 数据处理方法和装置、芯片

Also Published As

Publication number Publication date
CN107885464A (zh) 2018-04-06

Similar Documents

Publication Publication Date Title
CN104219092B (zh) 一种路由器管理应用与路由器固件的兼容方法和装置
US11457479B2 (en) Method and apparatus for configuring random access occasion, method and apparatus for random access
CN107967459B (zh) 卷积处理方法、装置及存储介质
US11221634B2 (en) Unmanned aerial vehicle control method and device, unmanned aerial vehicle and remote control device
CN106126025B (zh) 复制粘贴的交互方法及装置
US11284398B2 (en) Communication link configuration method and device
CN105427161A (zh) 一种货币汇率转换的方法及装置
CN107463372B (zh) 一种数据驱动的页面更新方法和装置
CN104850643B (zh) 图片对比方法和装置
CN107885464B (zh) 数据存储方法、装置及计算机可读存储介质
CN106506808B (zh) 对通讯消息提示的方法及装置
CN106933111B (zh) 一种控制设备的方法及装置
CN104780256A (zh) 通讯录管理方法和装置、智能终端
CN106447747B (zh) 图像处理方法及装置
CN108550127A (zh) 图片处理方法、装置、终端及存储介质
CN109245992B (zh) 请求处理方法、装置、电子设备及存储介质
CN104112460B (zh) 播放音频数据的方法和装置
CN108769513B (zh) 相机拍照方法及装置
US11399359B2 (en) Method and device for extending PBCH
CN106375744B (zh) 信息投影方法及装置
CN112651012B (zh) 一种信息处理方法及装置
US20170316039A1 (en) Information acquisition method, device and system
CN110457084B (zh) 一种加载方法及装置
CN104317480B (zh) 字符按键显示方法、装置及终端
CN109981729B (zh) 文件处理方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant