Nothing Special   »   [go: up one dir, main page]

CN112418153B - 图像处理方法、装置、电子设备和计算机存储介质 - Google Patents

图像处理方法、装置、电子设备和计算机存储介质 Download PDF

Info

Publication number
CN112418153B
CN112418153B CN202011417021.5A CN202011417021A CN112418153B CN 112418153 B CN112418153 B CN 112418153B CN 202011417021 A CN202011417021 A CN 202011417021A CN 112418153 B CN112418153 B CN 112418153B
Authority
CN
China
Prior art keywords
video data
frame
image
human body
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011417021.5A
Other languages
English (en)
Other versions
CN112418153A (zh
Inventor
吴天行
张研
吴玉东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Technology Development Co Ltd
Original Assignee
Shanghai Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Technology Development Co Ltd filed Critical Shanghai Sensetime Technology Development Co Ltd
Priority to CN202011417021.5A priority Critical patent/CN112418153B/zh
Publication of CN112418153A publication Critical patent/CN112418153A/zh
Application granted granted Critical
Publication of CN112418153B publication Critical patent/CN112418153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本公开实施例提出了一种图像处理方法、装置、电子设备和计算机存储介质中,该方法包括:获取第一视频数据和第二视频数据;对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息;对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息;根据所述第一视频数据中每帧图像的归一化坐标信息、以及所述第二视频数据中每帧图像的归一化坐标信息,确定所述第一视频数据和第二视频数据的人体动作相似度。

Description

图像处理方法、装置、电子设备和计算机存储介质
技术领域
本公开涉及计算机视觉处理技术,尤其涉及一种图像处理方法、装置、电子设备和计算机存储介质。
背景技术
目前,人体动作姿态识别已经成为多个领域的热点研究问题,随着多种人体姿态识别算法的出现,人体动作姿态识别取得了一定的研究进展。人体动作姿态相似度的度量,在动作学习、游戏健身、人机交互、虚拟现实等方面有着广泛的应用;例如,在线上视频教学场景,动作姿态相似度的比对显得尤为重要。
然而,在相关技术中,视频中人体动作相似度是基于人体关节角度计算得出的,人体关节角度并不能直观准确地反映动作的标准程度,例如,顺时针夹角与逆时针夹角虽然角度大小相同,但对应动作实则不同。
发明内容
本公开实施例期望提供图像处理的技术方案,能够准确地得出不同视频中的人体动作相似度。
本公开实施例提供了一种图像处理方法,所述方法包括:
获取第一视频数据和第二视频数据;
对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息;对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息;
根据所述第一视频数据中每帧图像的归一化坐标信息、以及所述第二视频数据中每帧图像的归一化坐标信息,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述根据所述第一视频数据中每帧图像的归一化坐标信息、以及所述第二视频数据中每帧图像的归一化坐标信息,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
将所述第一视频数据中每帧图像的归一化坐标信息进行合并,得到所述第一视频数据中每帧图像的关键点特征向量;将所述第二视频数据中每帧图像的归一化坐标信息进行合并,得到所述第二视频数据中每帧图像的关键点特征向量;
根据所述第一视频数据中每帧图像的关键点特征向量、以及所述第二视频数据中每帧图像的关键点特征向量,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述根据所述第一视频数据中每帧图像的关键点特征向量、以及所述第二视频数据中每帧图像的关键点特征向量,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
对所述第一视频数据中各帧图像的关键点特征向量进行合并,得到所述第一视频数据的特征向量时间序列;
对所述第二视频数据中各帧图像的关键点特征向量进行合并,得到所述第二视频数据的特征向量时间序列;
根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述对所述第一视频数据中各帧图像的关键点特征向量进行合并,得到所述第一视频数据的特征向量时间序列,包括:
对所述第一视频数据中各帧图像的关键点特征向量进行归一化处理,得到所述第一视频数据中各帧图像的归一化特征向量,对第一视频数据中各帧图像的归一化特征向量进行合并,得到所述第一视频数据的特征向量时间序列;
所述对所述第二视频数据中各帧图像的关键点特征向量进行合并,得到所述第二视频数据的特征向量时间序列,包括:
对所述第二视频数据中各帧图像的关键点特征向量进行归一化处理,得到所述第二视频数据中各帧图像的归一化特征向量,对所述第二视频数据中各帧图像的归一化特征向量进行合并,得到所述第二视频数据的特征向量时间序列。
在一些实施例中,所述根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,并采用动态时间规整(Dynamic Time Warping,DTW)方法,确定所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离;
根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值;
根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值的平均值,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述获取第一视频数据和第二视频数据,包括:
获取待比对的第一初始视频数据和第二初始视频数据;
对所述第一初始视频数据和所述第二初始视频数据进行预处理,得到帧数相同的第一视频数据和第二视频数据。
在一些实施例中,所述对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息,包括:
对所述第一视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理,对所述第一视频数据对应的降噪平滑处理后的人体关键点坐标进行归一化处理,得到第一视频数据中每帧图像的归一化坐标信息;
所述对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息,包括:
对所述第二视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理,对所述第二视频数据对应的降噪平滑处理后的人体关键点坐标进行归一化处理,得到第二视频数据中每帧图像的归一化坐标信息。
本公开实施例还提供了一种图像处理装置,所述装置包括:
获取模块,用于获取第一视频数据和第二视频数据;
第一处理模块,用于对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息;对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息;
第二处理模块,用于根据所述第一视频数据中每帧图像的归一化坐标信息、以及所述第二视频数据中每帧图像的归一化坐标信息,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述第二处理模块,用于根据所述第一视频数据中每帧图像的归一化坐标信息、以及所述第二视频数据中每帧图像的归一化坐标信息,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
将所述第一视频数据中每帧图像的归一化坐标信息进行合并,得到所述第一视频数据中每帧图像的关键点特征向量;将所述第二视频数据中每帧图像的归一化坐标信息进行合并,得到所述第二视频数据中每帧图像的关键点特征向量;
根据所述第一视频数据中每帧图像的关键点特征向量、以及所述第二视频数据中每帧图像的关键点特征向量,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述第二处理模块,用于根据所述第一视频数据中每帧图像的关键点特征向量、以及所述第二视频数据中每帧图像的关键点特征向量,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
对所述第一视频数据中各帧图像的关键点特征向量进行合并,得到所述第一视频数据的特征向量时间序列;
对所述第二视频数据中各帧图像的关键点特征向量进行合并,得到所述第二视频数据的特征向量时间序列;
根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述第二处理模块,用于对所述第一视频数据中各帧图像的关键点特征向量进行合并,得到所述第一视频数据的特征向量时间序列,包括:
对所述第一视频数据中各帧图像的关键点特征向量进行归一化处理,得到所述第一视频数据中各帧图像的归一化特征向量,对第一视频数据中各帧图像的归一化特征向量进行合并,得到所述第一视频数据的特征向量时间序列;
所述第二处理模块,用于对所述第二视频数据中各帧图像的关键点特征向量进行合并,得到所述第二视频数据的特征向量时间序列,包括:
对所述第二视频数据中各帧图像的关键点特征向量进行归一化处理,得到所述第二视频数据中各帧图像的归一化特征向量,对所述第二视频数据中各帧图像的归一化特征向量进行合并,得到所述第二视频数据的特征向量时间序列。
在一些实施例中,所述第二处理模块,用于根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,并采用DTW方法,确定所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离;
根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述第二处理模块,用于根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值;
根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述第二处理模块,用于根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值的平均值,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述获取模块,用于获取第一视频数据和第二视频数据,包括:
获取待比对的第一初始视频数据和第二初始视频数据;
对所述第一初始视频数据和所述第二初始视频数据进行预处理,得到帧数相同的第一视频数据和第二视频数据。
在一些实施例中,所述第一处理模块,用于对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息,包括:
对所述第一视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理,对所述第一视频数据对应的降噪平滑处理后的人体关键点坐标进行归一化处理,得到第一视频数据中每帧图像的归一化坐标信息;
所述第一处理模块,用于对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息,包括:
对所述第二视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理,对所述第二视频数据对应的降噪平滑处理后的人体关键点坐标进行归一化处理,得到第二视频数据中每帧图像的归一化坐标信息。
本公开实施例还提供了一种电子设备,包括处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
所述处理器用于运行所述计算机程序以执行上述任意一种图像处理方法。
本公开实施例还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任意一种图像处理方法。
本公开实施例提出的图像处理方法、装置、电子设备和计算机存储介质中,获取第一视频数据和第二视频数据;对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息;对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息;所述归一化坐标信息表示所述人体关键点的归一化后的坐标;根据所述第一视频数据中每帧图像的归一化坐标信息、以及所述第二视频数据中每帧图像的归一化坐标信息,确定所述第一视频数据和第二视频数据的人体动作相似度。
可以看出,在本公开实施例中,可以对视频数据中每帧图像的人体关键点的坐标进行归一化处理,然后,可以基于视频数据中每帧图像的归一化坐标信息进行视频数据中人体动作相似度的比对;通过对视频数据中每帧图像的人体关键点的坐标进行归一化处理,有利于排除视频中背景、人体位置和尺度等等不同因素造成的影响,进而,有利于直观准确地对不同视频数据的人体动作相似度进行比对。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1为本公开实施例的图像处理方法的流程图;
图2为本公开实施例的一个应用场景示意图;
图3A为本公开实施例中第一初始视频数据中的一帧图像;
图3B为本公开实施例中第二初始视频数据中的一帧图像。
图4为本公开实施例的图像处理装置的组成结构示意图;
图5为本公开实施例的电子设备的结构示意图。
具体实施方式
以下结合附图及实施例,对本公开进行进一步详细说明。应当理解,此处所提供的实施例仅仅用以解释本公开,并不用于限定本公开。另外,以下所提供的实施例是用于实施本公开的部分实施例,而非提供实施本公开的全部实施例,在不冲突的情况下,本公开实施例记载的技术方案可以任意组合的方式实施。
需要说明的是,在本公开实施例中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的方法或者装置不仅包括所明确记载的要素,而且还包括没有明确列出的其他要素,或者是还包括为实施方法或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括该要素的方法或者装置中还存在另外的相关要素(例如方法中的步骤或者装置中的单元,例如的单元可以是部分电路、部分处理器、部分程序或软件等等)。
例如,本公开实施例提供的图像处理方法包含了一系列的步骤,但是本公开实施例提供的图像处理方法不限于所记载的步骤,同样地,本公开实施例提供的图像处理装置包括了一系列模块,但是本公开实施例提供的装置不限于包括所明确记载的模块,还可以包括为获取相关信息、或基于信息进行处理时所需要设置的模块。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
本公开实施例可以应用于终端和/或服务器组成的计算机系统中,并可以与众多其它通用或专用计算系统环境或配置一起操作。这里,终端可以是瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统,等等,服务器可以是服务器计算机系统小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
在相关技术中,由于场景条件的限制,大多数视频的拍摄角度是单一的,导致拍摄的视频是平面二维的视频数据,且视频中的动作与标准动作很可能不是完全同步的,因此,需要针对不同的拍摄角度的视频数据计算人体姿态动作相似度。
对于不同视频数据中人体动作相似度的计算,可以基于人体关节角度和DTW方法实现,在一些实施方式中,可以利用人体关节角度作为比对的标准,以消除视频背景的干扰和人体大小位置不同的影响;然后,对对关节角度的序列采取指数平滑法处理,并利用角度差分割每个视频数据的序列(即按照时间顺序排列的多帧图像),最后利用DTW方式求得不同视频数据的序列之间的距离。
上述人体动作相似度的计算方法存在以下问题:
1)采用人体关节角度作为比对标准,然而,由于人体关节角度不能充分可靠地反映动作的标准程度,导致最后得出的人体动作相似度不够准确;并且,DTW算法是基于不同视频数据的序列的最短路径确定距离的,可能存在不同视频数据的人体动作区分度低的问题,例如,两段完全不同的人体动作也会被识别为相似度较高的人体动作。
2)基于角度差分割每个视频数据的序列,但是,由于每个人的动作幅度不同,很难针对不同的人体确定通用的视频序列的分割标准,导致两个待比对的视频数据分割出来的视频帧数不同,不利于进行视频数据中人体动作相似度的比对。
针对上述技术问题,在本公开的一些实施例中,提出了一种图像处理方法,本公开实施例可以应用于人体动作姿态识别等场景。
图1为本公开实施例的图像处理方法的流程图,如图1所示,该流程可以包括:
步骤101:获取第一视频数据和第二视频数据。
这里,第一视频数据和第二视频数据表示需要比对的两个视频数据;第一视频数据和第二视频数据均包括多帧人体图像。
在一些实施例中,第一视频数据或第二视频数据可以是由摄像机等图像采集设备采集得到的,也可以是从网络端或本地存储空间获取的视频数据;在另一些实施例中,可以首先获取图像采集设备采集的初始视频数据,或者,从网络端获取初始视频数据,或者,从本地存储空间获取初始视频数据,然后,对初始视频数据进行预处理,得到第一视频数据或第二视频数据。
在一些实施例中,第一视频数据和第二视频数据的帧数可以相同,也可以不相同,本公开实施例并不进行限定。
步骤102:对第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到第一视频数据中每帧图像的归一化坐标信息;对第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到第二视频数据中每帧图像的归一化坐标信息。
本公开实施例中,每帧图像的人体关键点为预先指定的至少一个人体关键点;在实际应用中,可以根据实际需求从各个人体关键点中指定出至少一个人体关键点。
在一些实施例中,每帧图像的人体关键点和序号可以表示为:{0,“鼻子(Nose)”},{1,“颈部(Neck)”},{2,“右肩(RShoulder)”},{3,“右肘(RElbow)”},{4,“右手腕(RWrist)”},{5,“左肩(LShoulder)”},{6,“左肘(LElbow)”},{7,“左手腕(LWrist)”},{8,“臀中部(MidHip)”},{9,“右臀(RHip)”},{10,“右膝(RKnee)”},{11,“右踝(Rankle)”},{12,左臀(LHip)”},{13,“左膝(LKnee)”},{14,“左踝(LAnkle)”},其中,0至14表示各个人体关键点的序号。
在一些实施例中,每帧图像的人体关键点和序号可以表示为:{15,“右眼(Reye)”},{16,“左眼(LEye)”},{17,“右耳(Rear)”},{18,“左耳(Lear)”},{19,“左大脚趾(LBigToe)”},{20,“左小脚趾(LSmallToe)”},{21,左脚后跟(LHeel)”},{22,“右大脚趾(RBigToe)”},{23,“右小脚趾(RSmallToe)”},{24,“右脚后跟(RHeel)”},其中,15至24表示各个人体关键点的序号。
本公开实施例中,在获取第一视频数据和第二视频数据后,可以采用人体关键点识别算法对第一视频数据和第二视频数据中的每帧图像进行处理,得到第一视频数据中的每帧图像的人体关键点的坐标和第二视频数据中的每帧图像的人体关键点的坐标;这里,人体关键点识别算法可以采用神经网络实现。
在一些实施例中,在得到第一视频数据和第二视频数据中的每帧图像的人体关键点的坐标后,可以对第一视频数据和第二视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理,并对第一视频数据对应的降噪平滑处理后的人体关键点坐标进行归一化处理,得到第一视频数据中每帧图像的归一化坐标信息;对第二视频数据对应的降噪平滑处理后的人体关键点坐标进行归一化处理,得到第二视频数据中每帧图像的归一化坐标信息。
本公开实施例中,对视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理的原理为:按照人体关键点的邻域内像素点的坐标对人体关键点的坐标进行修正,例如可以将邻域内像素点的坐标的平均值作为降噪平滑处理后的人体关键点坐标;可以理解地,通过对视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理,可以在一定程度上对人体关键点的不准确的坐标(即噪声数据)进行修正,达到降噪的目的。示例性地,降噪平滑处理的方法包括但不限于指数平滑、均值滤波、卡尔曼滤波等。
在一些实施例中,归一化坐标信息表示所述人体关键点的归一化后的坐标,示例性地,可以基于以下公式(1)和公式(2)对第一视频数据或第二视频数据中每帧图像的人体关键点的坐标进行归一化处理:
其中,xi表示第一视频数据或第二视频数据中每帧图像的第i个人体关键点的横坐标,xi'表示第i个人体关键点经归一化处理后的横坐标,在xi表示第一视频数据中每帧图像的第i个人体关键点的横坐标的情况下,min{xi}表示第一视频数据中各个人体关键点的横坐标的最小值,max{xi}表示第一视频数据中各个人体关键点的横坐标的最大值;在xi表示第二视频数据中每帧图像的第i个人体关键点的横坐标的情况下,min{xi}表示第二视频数据中各个人体关键点的横坐标的最小值,max{xi}表示第二视频数据中各个人体关键点的横坐标的最大值。yi表示第一视频数据或第二视频数据中每帧图像的第i个人体关键点的纵坐标,yi'表示第一视频数据或第二视频数据中每帧图像的第i个人体关键点经归一化处理后的纵坐标;在yi表示第一视频数据中每帧图像的第i个人体关键点的纵坐标的情况下,min{yi}表示第一视频数据中各个人体关键点的纵坐标的最小值,max{yi}表示第一视频数据中各个人体关键点的纵坐标的最大值;在yi表示第二视频数据中每帧图像的第i个人体关键点的纵坐标的情况下,min{yi}表示第二视频数据中各个人体关键点的纵坐标的最小值,max{yi}表示第二视频数据中各个人体关键点的纵坐标的最大值;i表示大于或等于1的整数。
可以理解地,基于上述公式(1)和公式(2),可以对第一视频数据或第二视频数据中每帧图像的人体关键点的坐标进行平移和缩放处理,使各个人体关键点经归一化处理后的横坐标和纵坐标的范围统一至[0,1]。
步骤103:根据第一视频数据中每帧图像的归一化坐标信息、以及第二视频数据中每帧图像的归一化坐标信息,确定第一视频数据和第二视频数据的人体动作相似度。
图2为本公开实施例的一个应用场景示意图,如图2所示,可以将第一视频数据201和第二视频数据202输入至图像处理装置203,在图像处理装置203中,通过前述实施例记载的图像处理方法进行处理,可以得到第一视频数据和第二视频数据的人体动作相似度。
在实际应用中,步骤101至步骤103可以利用电子设备中的处理器实现,上述处理器可以为特定用途集成电路(Application Specific Integrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital SignalProcessing Device,DSPD)、可编程逻辑装置(Programmable Logic Device,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、中央处理器(Central ProcessingUnit,CPU)、控制器、微控制器、微处理器中的至少一种。
可以看出,在本公开实施例中,可以对视频数据中每帧图像的人体关键点的坐标进行归一化处理,然后,可以基于视频数据中每帧图像的归一化坐标信息进行视频数据中人体动作相似度的比对;通过对视频数据中每帧图像的人体关键点的坐标进行归一化处理,有利于排除视频中背景、人体位置和尺度等等不同因素造成的影响,进而,有利于直观准确地对不同视频数据的人体动作相似度进行比对。
在一些实施例中,获取第一视频数据和第二视频数据的实现方式可以是,获取待比对的第一初始视频数据和第二初始视频数据;对第一初始视频数据和第二初始视频数据进行预处理,得到帧数相同的第一视频数据和第二视频数据。
在一种实施方式中,第一初始视频数据为从图像采集设备、网络端或本地存储空间获取的视频数据,第二初始视频数据为预先获取的包含人体标准动作的视频数据;例如,第一初始视频数据用于表示待比对的太极拳动作,第二初始视频数据表示标准的太极拳动作。
在一种实施方式中,对第一初始视频数据和第二初始视频数据进行预处理的实现方式可以是,对第一初始视频数据和第二初始视频数据进行降帧处理,得到帧数相同的第一视频数据和第二视频数据。
本公开实施例中,通过对第一初始视频数据和第二初始视频数据进行预处理,可以得到帧数相同的第一视频数据和第二视频数据;在得到帧数相同的第一视频数据和第二视频数据的基础上,有利于对第一视频数据和第二视频数据的人体动作相似度进行比对。
本公开实施例中,对于步骤103的实现方式,示例性地,可以将第一视频数据中每帧图像的归一化坐标信息进行合并,得到第一视频数据中每帧图像的关键点特征向量;将第二视频数据中每帧图像的归一化坐标信息进行合并,得到第二视频数据中每帧图像的关键点特征向量。
根据第一视频数据中每帧图像的关键点特征向量、以及第二视频数据中每帧图像的关键点特征向量,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,在得到第一视频数据和第二视频数据中每帧图像的归一化坐标信息后,可以根据公式(3)得到第一视频数据或第二视频数据中每帧图像的关键点特征向量:
v=(x1',y1'....xn',yn') (3)
其中,v表示第一视频数据或第二视频数据中每帧图像的关键点特征向量,x1'至xn'分别表示第一视频数据或第二视频数据中每帧图像的第1个人体关键点至第n个人体关键点的经归一化处理后的横坐标,y1'至yn'分别表示第一视频数据或第二视频数据中每帧图像的第1个人体关键点至第n个人体关键点的经归一化处理后的纵坐标,n表示预先指定的人体关键点的个数。
本公开实施例中,不同帧图像的归一化坐标信息可以按照相同的顺序进行合并,这样,在得到的不同帧图像的关键点特征向量中,相同位置的元素代表相同的含义,例如,不同帧图像的关键点特征向量中,第3个元素均表示人体的右肘关键点的坐标。
对于根据第一视频数据中每帧图像的关键点特征向量、以及第二视频数据中每帧图像的关键点特征向量,确定第一视频数据和第二视频数据的人体动作相似度的实现方式,在一个示例中,可以对第一视频数据中各帧图像的关键点特征向量进行合并,得到第一视频数据的特征向量时间序列;对第二视频数据中各帧图像的关键点特征向量进行合并,得到第二视频数据的特征向量时间序列;根据第一视频数据的特征向量时间序列和第二视频数据的特征向量时间序列,确定第一视频数据和第二视频数据的人体动作相似度。
这里,第一视频数据的特征向量时间序列表示按照时间顺序排列的多个关键点特征向量;第二视频数据的特征向量时间序列表示按照时间顺序排列的多个关键点特征向量。
本公开实施例中,第一视频数据和第二视频数据均包括多帧数据,在得到第一视频数据或第二视频数据中各帧图像的关键点特征向量后,可以在时间维度将第一视频数据或第二视频数据中各帧图像的关键点特征向量进行拼接,得到第一视频数据的特征向量时间序列或第二视频数据的特征向量时间序列;在一些实施例中,第一视频数据的特征向量时间序列或第二视频数据的特征向量时间序列可以为矩阵。
可以理解地,在得到第一视频数据的特征向量时间序列或第二视频数据的特征向量时间序列的基础上,有利于在时间维度对第一视频数据的特征向量时间序列或第二视频数据的特征向量时间序列进行对齐,并有利于将两个视频数据中不同时间点的动作和动作之间进行对齐,进而,有利于准确得出第一视频数据和第二视频数据中人体动作相似度。
对于对所述第一视频数据中各帧图像的关键点特征向量进行合并,得到所述第一视频数据的特征向量时间序列的实现方式,示例性地,可以对第一视频数据中各帧图像的关键点特征向量进行归一化处理,得到第一视频数据中各帧图像的归一化特征向量,对第一视频数据中各帧图像的归一化特征向量进行合并,得到第一视频数据的特征向量时间序列。
对于对第二视频数据中各帧图像的关键点特征向量进行合并,得到所述第二视频数据的特征向量时间序列的实现方式,示例性地,可以对第二视频数据中各帧图像的关键点特征向量进行归一化处理,得到第二视频数据中各帧图像的归一化特征向量,对第二视频数据中各帧图像的归一化特征向量进行合并,得到所述第二视频数据的特征向量时间序列。
在一些实施例中,可以根据以下公式(4)对第一视频数据或第二视频数据中各帧图像的关键点特征向量进行L2归一化处理
其中,v'表示第一视频数据或第二视频数据中每帧图像的归一化特征向量。
本申请的一些实施例中,在得到第一视频数据的特征向量时间序列和第二视频数据的特征向量时间序列后,可以根据第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,并采用DTW方法,确定第一视频数据和第二视频数据中各对应帧图像的归一化特征向量的距离;然后,根据第一视频数据和第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,第一视频数据和第二视频数据中各对应帧图像表示:第一视频数据和第二视频数据中帧序号相同的各对图像;在第一视频数据和第二视频数据的帧数相同的情况下,可以直接比对第一视频数据和第二视频数据中帧序号相同的图像的归一化特征向量的距离,这里,帧序号表示视频数据帧的位置,例如,第一视频数据和第二视频数据均包括m帧图像,第一视频数据和第二视频数据中的第j个帧的帧序号为j,j取1至m,m为大于1的整数。
在另一些实施例中,在第一视频数据和第二视频数据的帧数不相同的情况下,基于DTW方法,可以采用线性扩张的方法,将帧数较少的视频数据进行线性映射,使线性映射后的视频数据的帧数达到目标帧数,目标帧数表示第一视频数据和第二视频数据中帧数的较大者;在两个视频数据的帧数相同,可以按照前述实施例记载的内容,针对相同帧数的两个视频数据,执行坐标归一化处理、归一化坐标信息合并、关键点特征向量进行归一化处理、归一化特征向量合并、以及计算归一化特征向量的距离等步骤,从而确定出相同帧数的两个视频数据中各对应帧图像的归一化特征向量的距离;这里,相同帧数的两个视频数据中各对应帧图像的归一化特征向量的距离为:第一视频数据和第二视频数据中各对应帧图像的归一化特征向量的距离。
在一些实施例中,第一视频数据和第二视频数据中各对应帧图像的归一化特征向量的距离为余弦相似度d。
可以看出,本公开实施例可以采用DTW方法对两个视频数据的动作进行动态比对,即,可以结合整体的特征向量时间序列实现各对应帧图像的归一化特征向量的对比,相比于按照时间帧数进行静态逐帧对比的方案,有利于准确地得出不同视频数据的人体动作相似度;另外,本公开实施例无需基于角度差分割每个视频数据的序列,而是可以根据视频数据中每帧图像的归一化坐标信息,得到更能准确区分不同人体相似度的特征向量时间序列,进而采用DTW方法比对不同视频数据中各对应帧图像的归一化特征向量,有利于进行视频数据中人体动作相似度的准确比对。
对于根据第一视频数据和第二视频数据中各对应帧图像的归一化特征向量的距离,确定第一视频数据和第二视频数据的人体动作相似度的实现方式,示例性地,可以根据第一视频数据和第二视频数据中各对应帧图像的归一化特征向量的距离,确定第一视频数据和第二视频数据中各对应帧图像的相似度评分值;根据第一视频数据和第二视频数据中各对应帧图像的相似度评分值,确定第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,可以根据第一视频数据和第二视频数据中各对应帧图像的相似度评分值的平均值,确定第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,在得到第一视频数据和第二视频数据中各对应帧图像的归一化特征向量的距离后,可以根据预设评分方式对第一视频数据和第二视频数据中各对应帧图像的归一化特征向量的距离。
在一些实施例中,基于预设评分方式得出的第一视频数据和第二视频数据中各对应帧图像的相似度评分值的范围为[0,100]。
在一些实施例中,预设评分方式可以根据以下公式(5)进行说明。
其中,s表示第一视频数据和第二视频数据中对应帧图像的相似度评分值;可以看出,基于上述公式(5),可以将第一视频数据和第二视频数据中各对应帧图像的归一化特征向量的距离映射为0至100的评分值,即,得出静态姿态得分。
需要说明的是,上述记载的内容仅仅是对预设评分方式的示例性说明,本公开实施例并不局限于此。
在一些实施例中,可以将第一视频数据和第二视频数据中各对应帧图像的相似度评分值的平均值记为s_mean,可以确定第一视频数据和第二视频数据的人体动作相似度为s_mean;这样,可以利用第一视频数据和第二视频数据中各对应帧图像的相似度评分值的平均值s_mean,直观地体现第一视频数据和第二视频数据中人体动作的相似度。
图3A为本公开实施例中第一视频数据中的一帧图像;图3B为本公开实施例中第二视频数据中的一帧图像;图3A和图3B表示不同的人体图像,图3A表示待比对的太极拳动作,图3B表示标准的太极拳动作;在一个示例中,第一视频数据和第二视频数据中各对应帧图像的相似度评分值的平均值为95.6,图3A和图3B所示的对应帧图像的相似度评分值为95.6。
本公开实施例中可以应用于人体动作对比等场景;在一些实施例中,用户可以将自己的动作录制成视频,与标准视频一同输入,然后基于本公开实施例的图像处理方法,可以得出自己的动作与标准视频中的动作的相似度,并可以确定自己的动作与标准视频中的动作在各对应帧的相似度评分值,这样可以获知自己的动作中存在的与标准视频的动作不相符的部分。
在一些实施例中,用户可以通过摄像机等设备拍摄自己的动作,然后与标准视频的动作进行实时运算,确定自己的动作与标准视频中的动作在各对应帧的相似度评分值,并在显示屏实时显示自己的动作与标准视频中的动作在各对应帧的相似度评分值。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
在前述实施例提出的图像处理方法的基础上,本公开实施例提出了一种图像处理装置。
图4为本公开实施例的图像处理装置的组成结构示意图,如图4所示,该装置可以包括:
获取模块400,用于获取第一视频数据和第二视频数据;
第一处理模块401,用于对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息;对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息;
第二处理模块402,用于根据所述第一视频数据中每帧图像的归一化坐标信息、以及所述第二视频数据中每帧图像的归一化坐标信息,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述第二处理模块402,用于根据所述第一视频数据中每帧图像的归一化坐标信息、以及所述第二视频数据中每帧图像的归一化坐标信息,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
将所述第一视频数据中每帧图像的归一化坐标信息进行合并,得到所述第一视频数据中每帧图像的关键点特征向量;将所述第二视频数据中每帧图像的归一化坐标信息进行合并,得到所述第二视频数据中每帧图像的关键点特征向量;
根据所述第一视频数据中每帧图像的关键点特征向量、以及所述第二视频数据中每帧图像的关键点特征向量,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述第二处理模块402,用于对所述第一视频数据中各帧图像的关键点特征向量进行合并,得到所述第一视频数据的特征向量时间序列,包括:
对所述第一视频数据中各帧图像的关键点特征向量进行归一化处理,得到所述第一视频数据中各帧图像的归一化特征向量,对第一视频数据中各帧图像的归一化特征向量进行合并,得到所述第一视频数据的特征向量时间序列;
所述第二处理模块402,用于对所述第二视频数据中各帧图像的关键点特征向量进行合并,得到所述第二视频数据的特征向量时间序列,包括:
对所述第二视频数据中各帧图像的关键点特征向量进行归一化处理,得到所述第二视频数据中各帧图像的归一化特征向量,对所述第二视频数据中各帧图像的归一化特征向量进行合并,得到所述第二视频数据的特征向量时间序列。
在一些实施例中,所述第二处理模块402,用于根据所述第一视频数据中每帧图像的关键点特征向量、以及所述第二视频数据中每帧图像的关键点特征向量,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
对所述第一视频数据中各帧图像的关键点特征向量进行归一化处理,得到所述第一视频数据中各帧图像的归一化特征向量,对第一视频数据中各帧图像的归一化特征向量进行合并,得到所述第一视频数据的特征向量时间序列;
对所述第二视频数据中各帧图像的关键点特征向量进行归一化处理,得到所述第二视频数据中各帧图像的归一化特征向量,对所述第二视频数据中各帧图像的归一化特征向量进行合并,得到所述第二视频数据的特征向量时间序列;
根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述第二处理模块402,用于根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,并采用DTW方法,确定所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离;
根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述第二处理模块402,用于根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值;
根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述第二处理模块402,用于根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值的平均值,确定所述第一视频数据和第二视频数据的人体动作相似度。
在一些实施例中,所述获取模块400,用于获取第一视频数据和第二视频数据,包括:
获取待比对的第一初始视频数据和第二初始视频数据;
对所述第一初始视频数据和所述第二初始视频数据进行预处理,得到帧数相同的第一视频数据和第二视频数据。
在一些实施例中,所述第一处理模块401,用于对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息,包括:
对所述第一视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理,对所述第一视频数据对应的降噪平滑处理后的人体关键点坐标进行归一化处理,得到第一视频数据中每帧图像的归一化坐标信息;
所述第一处理模块401,用于对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息,包括:
对所述第二视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理,对所述第二视频数据对应的降噪平滑处理后的人体关键点坐标进行归一化处理,得到第二视频数据中每帧图像的归一化坐标信息。
实际应用中,获取模块400、第一处理模块401和第二处理模块402均可以利用电子设备中的处理器实现,上述处理器可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。
另外,在本实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的单元如果以软件功能模块的形式实现并非作为独立的产品进行销售或使用时,可以存储在一个计算机可读取存储介质中,基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或processor(处理器)执行本实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
具体来讲,本实施例中的一种图像处理方法对应的计算机程序指令可以被存储在光盘,硬盘,U盘等存储介质上,当存储介质中的与一种图像处理方法对应的计算机程序指令被一电子设备读取或被执行时,实现前述实施例的任意一种图像处理方法。
基于前述实施例相同的技术构思,参见图5,其示出了本公开实施例提供的一种电子设备5,可以包括:存储器501和处理器502;其中,
所述存储器501,用于存储计算机程序和数据;
所述处理器502,用于执行所述存储器中存储的计算机程序,以实现前述实施例的任意一种图像处理方法。
在实际应用中,上述存储器501可以是易失性存储器(volatile memory),例如RAM;或者非易失性存储器(non-volatile memory),例如ROM,快闪存储器(flash memory),硬盘(Hard Disk Drive,HDD)或固态硬盘(Solid-State Drive,SSD);或者上述种类的存储器的组合,并向处理器502提供指令和数据。
上述处理器502可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。可以理解地,对于不同的设备,用于实现上述处理器功能的电子器件还可以为其它,本公开实施例不作具体限定。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述
本申请所提供的各方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的各产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的各方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (10)

1.一种图像处理方法,其特征在于,所述方法包括:
获取第一视频数据和第二视频数据;
对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息;对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息;
将所述第一视频数据和所述第二视频数据中每帧图像的归一化坐标信息进行合并,分别得到所述第一视频数据和所述第二视频数据中每帧图像的关键点特征向量;
对所述第一视频数据和所述第二视频数据中各帧图像对应的关键点特征向量进行合并,分别得到所述第一视频数据和所述第二视频数据的特征向量时间序列;
根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,确定所述第一视频数据和第二视频数据的人体动作相似度。
2.根据权利要求1所述的方法,其特征在于,所述对所述第一视频数据和所述第二视频数据中各帧图像的关键点特征向量进行合并,分别得到所述第一视频数据和所述第二视频数据的特征向量时间序列,包括:对所述第一视频数据中各帧图像的关键点特征向量进行归一化处理,得到所述第一视频数据中各帧图像的归一化特征向量,对第一视频数据中各帧图像的归一化特征向量进行合并,得到所述第一视频数据的特征向量时间序列;
对所述第二视频数据中各帧图像的关键点特征向量进行归一化处理,得到所述第二视频数据中各帧图像的归一化特征向量,对所述第二视频数据中各帧图像的归一化特征向量进行合并,得到所述第二视频数据的特征向量时间序列。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,采用动态时间规整DTW方法,确定所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离;
根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和第二视频数据的人体动作相似度。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据和所述第二视频数据中各对应帧图像的归一化特征向量的距离,确定所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值;
根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值,确定所述第一视频数据和第二视频数据的人体动作相似度。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值,确定所述第一视频数据和第二视频数据的人体动作相似度,包括:
根据所述第一视频数据和所述第二视频数据中各对应帧图像的相似度评分值的平均值,确定所述第一视频数据和第二视频数据的人体动作相似度。
6.根据权利要求1所述的方法,其特征在于,所述获取第一视频数据和第二视频数据,包括:
获取待比对的第一初始视频数据和第二初始视频数据;
对所述第一初始视频数据和所述第二初始视频数据进行预处理,得到帧数相同的第一视频数据和第二视频数据。
7.根据权利要求1所述的方法,其特征在于,所述对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息,包括:
对所述第一视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理,对所述第一视频数据对应的降噪平滑处理后的人体关键点坐标进行归一化处理,得到第一视频数据中每帧图像的归一化坐标信息;
所述对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息,包括:
对所述第二视频数据中的每帧图像的人体关键点的坐标进行降噪平滑处理,对所述第二视频数据对应的降噪平滑处理后的人体关键点坐标进行归一化处理,得到第二视频数据中每帧图像的归一化坐标信息。
8.一种图像处理装置,其特征在于,所述装置包括:
获取模块,用于获取第一视频数据和第二视频数据;
第一处理模块,用于对所述第一视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第一视频数据中每帧图像的归一化坐标信息;对所述第二视频数据中的每帧图像的人体关键点的坐标进行归一化处理,得到所述第二视频数据中每帧图像的归一化坐标信息;
第二处理模块,用于将所述第一视频数据和所述第二视频数据中每帧图像的归一化坐标信息进行合并,分别得到所述第一视频数据和所述第二视频数据中每帧图像的关键点特征向量;对所述第一视频数据和所述第二视频数据中各帧图像对应的关键点特征向量进行合并,分别得到所述第一视频数据和所述第二视频数据的特征向量时间序列;根据所述第一视频数据的特征向量时间序列和所述第二视频数据的特征向量时间序列,确定所述第一视频数据和第二视频数据的人体动作相似度。
9.一种电子设备,其特征在于,包括处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
所述处理器用于运行所述计算机程序以执行权利要求1至7任一项所述的方法。
10.一种计算机存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至7任一项所述的方法。
CN202011417021.5A 2020-12-04 2020-12-04 图像处理方法、装置、电子设备和计算机存储介质 Active CN112418153B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011417021.5A CN112418153B (zh) 2020-12-04 2020-12-04 图像处理方法、装置、电子设备和计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011417021.5A CN112418153B (zh) 2020-12-04 2020-12-04 图像处理方法、装置、电子设备和计算机存储介质

Publications (2)

Publication Number Publication Date
CN112418153A CN112418153A (zh) 2021-02-26
CN112418153B true CN112418153B (zh) 2024-06-11

Family

ID=74775768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011417021.5A Active CN112418153B (zh) 2020-12-04 2020-12-04 图像处理方法、装置、电子设备和计算机存储介质

Country Status (1)

Country Link
CN (1) CN112418153B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906630A (zh) * 2021-03-17 2021-06-04 北京市商汤科技开发有限公司 视频处理方法与装置、计算机可读存储介质、计算机设备
CN117953413B (zh) * 2024-03-27 2024-06-14 广东工业大学 一种肌电信号有效性判断方法、装置、设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930767A (zh) * 2016-04-06 2016-09-07 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
CN107920257A (zh) * 2017-12-01 2018-04-17 北京奇虎科技有限公司 视频关键点实时处理方法、装置及计算设备
CN107967693A (zh) * 2017-12-01 2018-04-27 北京奇虎科技有限公司 视频关键点处理方法、装置、计算设备及计算机存储介质
CN108615055A (zh) * 2018-04-19 2018-10-02 咪咕动漫有限公司 一种相似度计算方法、装置及计算机可读存储介质
WO2018202089A1 (zh) * 2017-05-05 2018-11-08 商汤集团有限公司 关键点检测方法、装置、存储介质及电子设备
CN110210284A (zh) * 2019-04-12 2019-09-06 哈工大机器人义乌人工智能研究院 一种人体姿态行为智能评价方法
CN110711374A (zh) * 2019-10-15 2020-01-21 石家庄铁道大学 多模态舞蹈动作评价方法
CN110738192A (zh) * 2019-10-29 2020-01-31 腾讯科技(深圳)有限公司 人体运动功能辅助评估方法、装置、设备、系统及介质
CN111476097A (zh) * 2020-03-06 2020-07-31 平安科技(深圳)有限公司 人体姿态评估方法、装置、计算机设备及存储介质
CN111626137A (zh) * 2020-04-29 2020-09-04 平安国际智慧城市科技股份有限公司 基于视频的运动评估方法、装置、计算机设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8320644B2 (en) * 2010-06-15 2012-11-27 Apple Inc. Object detection metadata

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930767A (zh) * 2016-04-06 2016-09-07 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
WO2018202089A1 (zh) * 2017-05-05 2018-11-08 商汤集团有限公司 关键点检测方法、装置、存储介质及电子设备
CN107920257A (zh) * 2017-12-01 2018-04-17 北京奇虎科技有限公司 视频关键点实时处理方法、装置及计算设备
CN107967693A (zh) * 2017-12-01 2018-04-27 北京奇虎科技有限公司 视频关键点处理方法、装置、计算设备及计算机存储介质
CN108615055A (zh) * 2018-04-19 2018-10-02 咪咕动漫有限公司 一种相似度计算方法、装置及计算机可读存储介质
CN110210284A (zh) * 2019-04-12 2019-09-06 哈工大机器人义乌人工智能研究院 一种人体姿态行为智能评价方法
CN110711374A (zh) * 2019-10-15 2020-01-21 石家庄铁道大学 多模态舞蹈动作评价方法
CN110738192A (zh) * 2019-10-29 2020-01-31 腾讯科技(深圳)有限公司 人体运动功能辅助评估方法、装置、设备、系统及介质
CN111476097A (zh) * 2020-03-06 2020-07-31 平安科技(深圳)有限公司 人体姿态评估方法、装置、计算机设备及存储介质
CN111626137A (zh) * 2020-04-29 2020-09-04 平安国际智慧城市科技股份有限公司 基于视频的运动评估方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN112418153A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN108230383B (zh) 手部三维数据确定方法、装置及电子设备
US9418480B2 (en) Systems and methods for 3D pose estimation
US8644551B2 (en) Systems and methods for tracking natural planar shapes for augmented reality applications
WO2019033574A1 (zh) 电子装置、动态视频人脸识别的方法、系统及存储介质
CN111310705A (zh) 图像识别方法、装置、计算机设备及存储介质
JP2013012190A (ja) ガボールフィルターをブロックガボールフィルターとして近似する方法、及び、プロセッサ上で実行されているアプリケーションプログラムによるアクセスのためのデータ構造を格納するメモリ
CN113034652A (zh) 虚拟形象驱动方法、装置、设备及存储介质
KR20190098858A (ko) 딥러닝 기반의 포즈 변화에 강인한 얼굴 인식 방법 및 장치
CN111488775B (zh) 注视度判断装置及方法
CN112418153B (zh) 图像处理方法、装置、电子设备和计算机存储介质
WO2019033575A1 (zh) 电子装置、人脸追踪的方法、系统及存储介质
JP2014032623A (ja) 画像処理装置
WO2020164284A1 (zh) 基于平面检测的活体识别方法、装置、终端及存储介质
CN111222452A (zh) 一种人脸匹配方法、装置、电子设备及可读存储介质
CN108875506B (zh) 人脸形状点跟踪方法、装置和系统及存储介质
KR101586071B1 (ko) 마커리스 증강현실 서비스 제공 장치 및 이를 위한 촬영 위치 추정 방법
WO2024022301A1 (zh) 视角路径获取方法、装置、电子设备及介质
CN111611941A (zh) 特效处理方法及相关设备
CN108446737B (zh) 用于识别对象的方法和装置
CN116563588A (zh) 图像聚类方法、装置、电子设备及存储介质
CN113724176B (zh) 一种多摄像头动作捕捉无缝衔接方法、装置、终端及介质
CN115220574A (zh) 位姿确定方法及装置、计算机可读存储介质和电子设备
CN112184766B (zh) 一种对象的跟踪方法、装置、计算机设备和存储介质
KR101844367B1 (ko) 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
CN113688768B (zh) 基于人工智能的人脸检测方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant