CN107155101A - 一种3d播放器使用的3d视频的生成方法及装置 - Google Patents
一种3d播放器使用的3d视频的生成方法及装置 Download PDFInfo
- Publication number
- CN107155101A CN107155101A CN201710470958.0A CN201710470958A CN107155101A CN 107155101 A CN107155101 A CN 107155101A CN 201710470958 A CN201710470958 A CN 201710470958A CN 107155101 A CN107155101 A CN 107155101A
- Authority
- CN
- China
- Prior art keywords
- view
- view video
- video
- initial single
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明提供了一种3D播放器使用的3D视频的生成方法及装置,涉及裸眼3D显示领域。本发明提供的一种3D播放器使用的3D视频的生成方法,系统在获取到初始单视点视频后,先确定了其对应的深度图(如果初始单视点视频本身已携带深度图,则不需要重新生成),而后,依据深度图生成了多个不同视点所对应的虚拟视点视频,并最后使用这些虚拟视点视频合成了多视点视频,使得3D播放器所播放出的视频可以满足在不同视点观看的需求,提高了用户感受度。
Description
技术领域
本发明涉及裸眼3D显示领域,具体而言,涉及一种3D播放器使用的3D视频的生成方法及装置。
背景技术
随着电子技术的发展,2D显示已经难以满足人们的需求,应运而生的便是3D显示装置。3D显示相较于2D显示,有着更好的空间感,给人以身临其境的感受。3D显示又分为眼镜式和裸眼式两大类。裸眼3D主要用于公用商务场合所使用的设备(如室外广告机)和手机等便携式设备上。而在家用消费领域,显示器、投影机或者电视,均需要配合3D眼镜使用,如3D影院。
相关技术中,对于室外广告机或者是类似的3D播放器而言,其内部通常可以分为两个部分,一个部分是呈像结构,包括柱状光栅等这类依赖于特定宏观物理结构进行工作的器件;另一部分是处理器,处理器的主要功能是获取和存储外界所传输来的视频信号,并按照既定的规则通过呈像结构将视频信号输出,以完成3D影像的呈现。
一般情况下,处理器中所存储的视频信号是在处理器接入互联网后,从指定的网络端上下载得到的。而后,直接对下载得到的视频信号进行渲染等操作,并最后进行显示。
但,发明人发现,相关技术中处理器对视频信号进行处理的方式尚不完善。
发明内容
本发明的目的在于提供一种3D播放器使用的3D视频的生成方法,以提高裸眼3D显示器,尤其是室外裸眼3D广告机的工作流畅程度。
第一方面,本发明实施例提供了一种3D播放器使用的3D视频的生成方法,包括:
获取初始单视点视频,初始单视点视频的格式包括平面视图+深度图格式、双目立体视图格式和平面视图格式;
根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频;
根据多个不同视点所对应的虚拟视点视频,生成供3D显示系统呈像用的多视点视频。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,若初始单视点视频的格式为双目立体视图格式或平面视图格式,则在步骤根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频前,还包括:
生成初始单视点视频所对应的深度图。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,还包括:
提取初始单视点视频中的水印标记;
对提取到的水印标记进行识别,以得到标识符;
验证标识符是否满足预设的要求,若满足,则执行步骤根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,步骤提取初始单视点视频中的水印标记包括:
获取初始单视点视频在一段时间内的连续多张单帧图像;
查找多张单帧图像中,特征内容未发生变化的区域作为目标区域;
从单帧图像的目标区域中提取水印标记。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,其中,步骤查找多张单帧图像中,特征内容未发生变化的区域作为目标区域包括:
分别对每张单帧图像进行边缘提取,以确定每张单帧图像的边缘图;
对指定的边缘图按照预设的步长和预设的采样窗口大小进行遍历,以确定多个对比区域;
选择多个对比区域中,在每个边缘图中均存在相似区域的特定对比区域作为目标区域,相似区域的位置于特定对比区域的位置相同。
结合第一方面,本发明实施例提供了第一方面的第五种可能的实施方式,其中,步骤选择在每个边缘图中均存在相似区域的对比区域作为目标区域包括:
若存在多个特定对比区域,且多个特定对比区域之间是不相邻的,则计算每个特定对比区域的标准度,并根据标准度最高的特定对比区域的位置确定目标区域;特定对比区域的标准度与第一属性值和第二属性值呈正相关性;第一属性值是依据特定区域分别与对应的多个相似区域的相似度得到的;第二属性值是依据特定对比区域中,不同边缘线之间的紧密程度得到的。
结合第一方面,本发明实施例提供了第一方面的第六种可能的实施方式,其中,步骤根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频包括:
按照如下方式分别确定每个视点所对应的虚拟视点视频:
根据初始单视点视频所对应的第一视点位置和待生成的虚拟视点视频所对应的第二视点位置,分别计算初始单视点视频中每个像素的移动距离和移动方向;
根据移动距离和移动方向,对初始单视点视频中的像素进行移动,以生成第二视点位置所对应的虚拟视点视频。
结合第一方面,本发明实施例提供了第一方面的第七种可能的实施方式,其中,步骤根据多个不同视点所对应的虚拟视点视频,生成供3D显示系统呈像用的多视点视频包括:
分别提取每个视点所对应的虚拟视点视频中指定的像素点;
按照各个视点的相对位置,将提取出的像素点按照预定的顺序进行排列,以形成多视点视频。
结合第一方面,本发明实施例提供了第一方面的第八种可能的实施方式,其中,若初始单视点视频的格式为平面视图格式,则步骤生成初始单视点视频所对应的深度图包括:
对初始单视点视频中的前景物体进行检测,以计算物体的掩膜图像;
根据掩膜图像对初始单视点视频进行背景重构,以得到去除前景物体的背景视频序列;
对背景视频序列求取背景深度图序列,以及对初始单视点视频求取初始深度图序列;
根据初始深度图序列中前景物体的初始深度信息,和背景视频序列中前景物体的几何信息,确定初始单视点视频所对应的深度图。
第二方面,本发明实施例还提供了一种3D播放器使用的3D视频的生成装置,包括:
获取模块,用于获取初始单视点视频,初始单视点视频的格式包括平面视图+深度图格式、双目立体视图格式和平面视图格式;
第一生成模块,用于根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频;
第二生成模块,用于根据多个不同视点所对应的虚拟视点视频,生成供3D显示系统呈像用的多视点视频。
本发明实施例提供的一种3D播放器使用的3D视频的生成方法,采用先确定了初始单视点视频所对应的深度图,而后,再依据该深度图进行多视点视频的生成,与现有技术中的3D显示器均是直接将从网上下载到的视频进行渲染和播放,导致很多播放的视频仅仅是单视点的视频,降低了用户的观看感受度相比,本申请所提供的方案中,系统在获取到初始单视点视频后,先确定了其对应的深度图(如果初始单视点视频本身已携带深度图,则不需要重新生成),而后,依据深度图生成了多个不同视点所对应的虚拟视点视频,并最后使用这些虚拟视点视频合成了多视点视频,使得3D播放器所播放出的视频可以满足在不同视点观看的需求,提高了用户感受度。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例所提供的3D播放器使用的3D视频的生成方法的基本流程图;
图2示出了本发明实施例所提供的3D播放器使用的3D视频的生成方法中,自由立体显示器显示场景深度的原理图;
图3示出了本发明实施例所提供的3D播放器使用的3D视频的生成方法中,通过深度图恢复场景的虚拟视差图的原理图;
图4示出了本发明实施例所提供的3D播放器使用的3D视频的生成方法中,3D图像的合成原理图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
相关技术中,3D显示器(如室外大型3D广告机和室内3D影像播放器)在取得了原始的视频信号后,通常不会对该视频信号进行处理,而是直接将该视频信号进行播放,这就导致了视频信号是何种规格,那么,播放出来的图像就是何种规格,如果视频是平面图像视频,就直接将平面图像视频显示出来,如果该视频是单视点视频,就直接将该单视点视频播放出来。可以预想的是,如果3D显示器直接将其取得的视频信号进行播放的话,则很可能长时间是播放单视点视频,或者是平面视频的,又或者是这两种视频交替进行播放,这会大大影响用户观看的感受度。
针对该种情况,本申请提供了一种3D播放器使用的3D视频的生成方法,如图1所示,包括:
S101,获取初始单视点视频,初始单视点视频的格式包括平面视图+深度图格式、双目立体视图格式和平面视图格式;
S102,根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频;
S103,根据多个不同视点所对应的虚拟视点视频,生成供3D显示系统呈像用的多视点视频。
步骤S101中,获取初始单视点视频的途径可以通过网络下载,也可以是通过硬件(如移动硬盘)和数据线进行直接传输得到的。初始单视点视频的格式至少有三种,分别是平面视图+深度图格式(即2D+Z格式)、双目立体视图格式和平面视图格式(即单纯的2D视图)。
由于获取到的是单视点视频,因此,为了提高用户的感受度,不应当直接播放,而是先要确定单视点视频的深度图,而后,再依据深度图生成不同视点的虚拟视点视频。此处,需要说明的是,如果获取到的初始单视点视频是平面视图+深度图格式的话,则其中本身便已经携带了深度图,就不再需要生成深度图了;反之,如果初始单视点视频的格式为双目立体视图格式或平面视图格式,则需要先生成初始单视点视频的深度图,或者说,首先是要把初始单视点视频转换为平面视图+深度图格式的单视点视频,如果初始单视点视频本身已是平面视图+深度图格式,则不需要再次转换。
步骤S102中,在确定了深度图后,便可以依据当前视点的平面图像、当前视点的深度图,以及当前视点与待生成的虚拟视点视频的视点的位置关系,来生成任意一个指定视点所对应的虚拟视点视频,进而,按照此种方式,可以确定任意一个视点的虚拟视点视频。具体操作时,可以依据具体使用的场景,以生成6个不同视点所对应的虚拟视点视频(每个视点对应一个对应的虚拟视点视频,共有六个对应的虚拟视点视频),或者是生成8个不同视点所对应的虚拟视点视频(每个视点对应一个对应的虚拟视点视频,共有八个对应的虚拟视点视频)。生成虚拟视点视频前,首先需要确定的是当前视点的位置和需要生成的虚拟视点视频的视点的位置,实际操作中,需要生成的虚拟视点视频的视点的位置可以是预先录入到系统中的,而当前视点的位置,则通常是预定好的(如可以设置为距离屏幕指定距离的点)。
步骤S103中,需要依据生成的多个虚拟视点视频,来组合形成供3D显示系统呈像用的多视点视频,此处需要提及前置光栅的分光作用,正是在该作用的情况下,才可以增加视点,增加视点后,用户从这些视点的位置上来观看3D视频均是具有相同的显示效果的。
具体而言,步骤S103主要是按照既定的规则(主要是依据每个虚拟视点视频所对应的视点的相对位置)将从各个虚拟视点视频中提取出的像素进行排列,而后,播放时,在前置光栅的分光作用下,便可以使指定的多个视点上的用户均看到3D视频了。步骤S103执行结束后,就可以直接播放该多视点视频了。
由于获取到的视频可能不止是初始单视点视频,还可能是初始多视点视频,如果是获取到初始多视点视频的话,则可以直接将该初始多视点视频进行播放。
下面对这三个主要步骤进行具体说明。
步骤S102,根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频包括:
按照如下方式分别确定每个视点所对应的虚拟视点视频:
根据初始单视点视频所对应的第一视点位置和待生成的虚拟视点视频所对应的第二视点位置,分别计算初始单视点视频中每个像素的移动距离和移动方向;
根据移动距离和移动方向,对初始单视点视频中的像素进行移动,以生成第二视点位置所对应的虚拟视点视频。
具体的,图2为自由立体显示器(3D播放器的一种)显示场景深度的原理图。图中的A点为显示时场景凸出显示屏的部分,B点为场景凹进显示屏显示的部分,HA是A点的深度,HB是B点的深度,S是两眼间距离,D是观看者离显示屏的距离,RA和LA以及RB和LB间的距离为A、B两点间的视差大小。
可以从图2中直观地看到通过自由立体显示器观看景物时立体感的产生原理。此外,从图中还可以得知,通过双目视差原理的逆过程可以提取出场景在其他位置处对应的虚拟视差图像(虚拟视点视频中的某一帧图像)。
图3是通过深度图恢复场景的虚拟视差图的原理图。设场景的原图像在视点S1下,场景的深度图已知,通过深度投影原理可以提取出视点S2对应的虚拟视差图像。
图中,在视点S1下,凸出显示屏的像点A在显示屏上对应的图像像素为RA,根据三角形的相似性,求出在视点S2下像点A对应的图像像素LA。即在像素RA的位置已知的条件下,只要求出线段RALA的长度即可,因为ΔS1S2A≈ΔLARAA,所以有,
进而,能够得到:
同理,在视点S2下,凹进显示屏的像点B在显示屏上的对应的图像像素RB为,
此外,因为正视差和负视差在移动方向上相反,所以在计算时还要考虑移动方向,例如,呈负视差的像点A在视点S2下对应的图像像素RA相对于该像点在视点S1下对应的图像像素LA向左移动,相反,呈正视差的像点B在视点S2下对应的图像像素RB相对于该像点在视点S1下对应的图像像素LB向右移动。按此规律,借助场景的深度图,便可提取出视点SN对应的虚拟视差图像。
在只考虑水平视差的前提下,根据上述投影方式,在视点S2下,显示屏上将得到整个场景的投影图像,即视点S2对应的虚拟视差图像。同理,在视点S3下,显示屏上也可以得到一幅类似的投影图像,即视点S3对应的虚拟视差图像,与在视点S2下的虚拟视差图像相比,视点S3对应的虚拟视差图像的每个像素按照像素视差大小发生了平移。依次类推,在设定多个视点后,根据上述投影原理,就可以提取到每个视点对应的虚拟视差图像。
步骤S103,根据多个不同视点所对应的虚拟视点视频,生成供3D显示系统呈像用的多视点视频包括:
分别提取每个视点所对应的虚拟视点视频中指定的像素点;
按照各个视点的相对位置,将提取出的像素点按照预定的顺序进行排列,以形成多视点视频。
具体的,多视点自由立体显示器利用前置光栅的分光作用,将各视点对应视差图像(多视点视频中某一帧图像是由从不同视察图像中提取出的像素点按照既定的规则排列得到的)分别显示到相应的观看视区内。由多视点自由立体显示器的3D显示原理可知,各视点对应的视差图像的像素点交错排列在显示器上(或者说是交错排列在同一张图像中),将包含多个视点视差图像的图像称为多视点视频中的某一帧图像。图4为3D图像(多视点视频中某一帧图像)的合成原理图,图中以4个视点的视差图像为例,说明了在同一张图像中的不同视察图像的像素是如何排列的。
图4中标有数字的小矩形为显示屏的子像素,相邻的三个子像素组成显示器的一个像素。数字1,2,3,4分别表示同一场景在4个视点下对应的视差图像中的一个像素,柱面光栅的斜率和单个视点对应的子像素的斜率一致,这样可以使每一视点下的视差图像能够显示到对应的观看视区。从图中可知,对于4个视点下的视差图像而言,光栅的一个柱面覆盖4个子像素。同理,在8视点自由立体显示器中,光栅的一个柱面正好覆盖8个子像素,这样显示时,也就有了8个对应的视点。
多视点自由立体显示器为平衡竖直方向和水平方向上的分辨率,同时消除莫尔条纹,柱面光栅和单路子像素采用倾斜排列。合成3D图像时,只需要根据3D显示器的视点数,将各视点下的视差图子像素按照图4重新排列即可。将生成的8幅视差图像按照以上原理抽样合成3D图像,并按照显示器分辨率扩图至适当大小。第一个视点对应的视差图像,保留至合成的3D图像中子像素标记为1的位置,同样的,第二个视点对应的视差图像,保留至合成的3D图像中子像素标记为2的位置,依次类推对8个视点对应的视差图像做相应处理,最终合成与显示器匹配的3D图像,将视频中的每一帧图像都做类似的处理便可以得到与显示器匹配的3D视频。
如前文中的说明,如果接收到的初始单视点视频不是平面视图+深度图格式的视频的话,则需要将初始单视点视频转化为平面视图+深度图格式的视频。
下面分别就双目立体视图格式和平面视图格式生成深度图的方式进行说明。
若初始单视点视频的格式为平面视图格式,则步骤生成初始单视点视频所对应的深度图包括:
步骤1,对初始单视点视频中的前景物体进行检测,以计算物体的掩膜图像;
步骤2,根据掩膜图像对初始单视点视频进行背景重构,以得到去除前景物体的背景视频序列;
步骤3,对背景视频序列求取背景深度图序列,以及对初始单视点视频求取初始深度图序列;
步骤4,根据初始深度图序列中前景物体的初始深度信息,和背景视频序列中前景物体的几何信息,确定初始单视点视频所对应的深度图。
其中,前景物体优选指运动状态的前景物体。具体的,步骤1中,可以,利用运动信息,颜色信息等,通过背景建模,轮廓跟踪等运动检测方法对原始平面视频中的前景物体进行检测并提取。而后,可以去除面积较小的物体,以降低误检测的概率。之后,再通过颜色信息来判断多个前景物体之间的遮挡关系。
如果初始单视点视频的格式为平面视图格式,则步骤生成初始单视点视频所对应的深度图可以按照如下方式完成:
步骤11,分别提取左、右视图中的特征点;
步骤12,对左右视图中的特征点进行匹配;
步骤13,依据匹配结果来还原匹配点(相互匹配的特征点的相对坐标是重合的,因此可以使用匹配点进行替代)的三维坐标;
步骤14,依据匹配点的三位坐标推导其他点的三维坐标,进而确定每个点(可以是像素点或者像素点的集合)的相对位置关系,即得到了深度图。
步骤11中,目的是将同时出现在两张图中的点查找出来,也正是由于该点同时在两张图中均有显示,因而才有参考价值。具体使用的匹配方式可以是区域匹配,即直接利用图片中像素的灰度值来将相似的两点查找出来。还可以使用特征点匹配法,即,利用SIFT(Scale-invariant feature transform)算法,在尺度空间进行焦点检测并确定关键点的位置和其所处的尺度,然后使用关键点领域梯度的主方向作为该点的方向特征正,进而依据方向特征确定特征点。
深度信息的计算的前提是将目标的坐标转换到世界坐标系中,由于匹配出来的匹配点是呈像坐标系内的二维坐标,因而,需要将匹配点转换到世界坐标系下,生成相对的三维坐标。
具体的,在获取到左、右视图的时候,能够确定这两个视图的视点位置关系,进而可以利用旋转和平移的方式确定相对的三维坐标,并按照此种方式最后得到深度图。
上述内容介绍了得到多视点视频的过程和具体的实现方式,申请人认为,在实际操作中,还应当考虑安全性和系统的节能。
进而,本申请所提供的方法中,还包括如下步骤:
提取初始单视点视频中的水印标记;
对提取到的水印标记进行识别,以得到标识符;
验证标识符是否满足预设的要求,若满足,则执行步骤根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频。
其中,此处的水印即相当于是一种防伪标识,提取水印之后,还需要对水印进行识别以得到标识符,最终进行验证的也正是该标识符。具体而言,设置的标识符可以是某个没有实际含义的图标(如可以是图画等不具有特定文字含义的图形),也可以是具有实际含义的图标(如数字、各种文字等)。在对标识符进行验证的时候,可以将该标识符与预先记录在本地的标准符号进行对比,如果二者相似,则认为标识符满足预设的要求,反之,则不满足。
对于没有实际含义的图标而言,验证的时候,可以直接进行图形相似度判断,对于具有实际含义的图标,则可以先采用文字识别的方式确定其对应文字内容,然后验证的时候,来验证确定出的文字内容是否与标准的内容相同或相近,如果是则认为标识符满足预设的要求,反之,则不满足。
下面对提取水印标记的过程进行简要说明,步骤提取初始单视点视频中的水印标记包括:
获取初始单视点视频在一段时间内的连续多张单帧图像;
查找多张单帧图像中,特征内容(某个图案的形状)未发生变化的区域作为目标区域;
从单帧图像的目标区域中提取水印标记。
也就是,水印通常是存在与视频的全部帧画面中的,并且水印的位置是相对不变的,因此在连续多张单帧图像中均出现的区域便可以作为目标区域,进而可以从目标区域中提取出水印。
需要说明的是,水印除了连续出现在全部的帧画面中,还具有特定的属性,比如颜色属性、特定灰度属性,因此,在查找多张单帧图像中,特征内容未发生变化的区域作为目标区域的过程中,还可以按照如下方式来查找:即查找多张单帧图像中,特征内容未发生变化,且颜色或灰度值符合预设要求的区域作为目标区域。
进一步,步骤查找多张单帧图像中,特征内容未发生变化的区域作为目标区域可以按照如下步骤执行:
分别对每张单帧图像进行边缘提取,以确定每张单帧图像的边缘图;
对指定的边缘图按照预设的步长和预设的采样窗口大小进行遍历,以确定多个对比区域;
选择多个对比区域中,在每个边缘图中均存在相似区域的特定对比区域作为目标区域,相似区域的位置于特定对比区域的位置相同。
边缘提取的主要任务是确定图像的边缘,进而得到边缘图,确定边缘后,能够更为有效的确定目标区域。
确定了各个单帧图像的边缘图后,可以按照预设的采样方式采样得到多个对比区域,需要说明的是,对于每个单帧图像而言,在进行采样的时候,采样的方式均应当是相同的,也就是采样的结果是能够在不同的边缘图的相同位置均采样得到对比区域。如第一张边缘图中的一个对比区域是其左上角的一个大小为1的方形区域,则第二张边缘图中的也应当至少有一个是边缘图中左上角的一个大小为1的方形区域。这样能够保证比较不同对比区域时不会出现误差。
相似区域指的是分别在两张边缘图中采样得到的两个对比区域中是有相似的部分。比如在第一张边缘图中采样得到了对比区域A,以及,在第二张边缘图中采样得到了对比区域B,对比区域A和对比区域B具有相似的区域(比如都有形状大小均相同/相似的数字8的符号),则可以将对比区域A或者B作为目标区域。
实际操作时,符合要求(可以作为目标区域)的对比区域(具有相似区域)可能有很多,也就是,除了水印的相对位置和形状不会发生变化,如果图像中有很多背景物(如大树、房屋等静态物)的相对位置和形状也不会发生变化,这样就可能造成误判,这对该种情况,可以增加取得的连续多张单帧图像的数量,来进行辅助判断,但此种方式有一定的局限性,下面提供一个更好的判断方式。
特定对比区域指的是在其他边缘图中均存在相似区域的对比区域,原本特定对比区域可以直接作为目标区域,但一般情况下,一帧图像中是不可能在两个不同的位置都出现水印的,因此,应当从两个区域中选择一个作为目标区域。进而本申请提供了相应的处理方案。即,步骤选择在每个边缘图中均存在相似区域的对比区域作为目标区域包括:
若存在多个特定对比区域,且多个特定对比区域之间是不相邻的,则计算每个特定对比区域的标准度,并根据标准度最高的特定对比区域的位置确定目标区域;特定对比区域的标准度与第一属性值和第二属性值呈正相关性;第一属性值是依据特定区域分别与对应的多个相似区域的相似度得到的;第二属性值是依据特定对比区域中,不同边缘线之间的紧密程度得到的。
其中,第一属性值是依据特定对于区域与其相对应的相似区域的相似度得到的。比如,共有四个边缘图A、B、C、D,边缘图A中存在有两个特定对比区域,分别是区域X和区域Y,区域X与边缘图B、C、D中的相似区域(边缘图B、C、D中各有唯一的一个区域X的相似区域)的相似度分别是97、98和99,则区域X的第一属性值可以是(97+98+99)/3=98,区域Y与边缘图B、C、D中的相似区域的相似度分别是94、96和98,则区域X的第一属性值可以是(94+96+98)/3=96。
第二属性值是依据边缘线的紧密程度得到的,即,第二属性值只通过特定对比区域就可以知晓。具体的,边缘线紧密程度可以有多种不同的计算方式,下面仅说明其中的一种,具体计算过程如下:
首先将特定对比区域进行分块,形成大小相同的多个计算区域;
分别计算每个计算区域中,边缘线的长度;
统计边缘线的长度超过预定数值的计算区域的数量A,以及统计边缘线的长度超过预定数值的计算区域之间的相对距离B;
按照加权计算的方式,根据数量A和相对距离B计算第二属性值。
此处的数量A是指边缘线过于密集的计算区域的数量,一般情况下,水印不会过于复杂,因此水印所在区域的边缘线的长度不会过高。相对距离指的是不同的区域之间的距离,该距离有很多种计算方式,比如可以以此计算每个符合要求的计算区域(边缘线的长度超过预定数值的计算区域)与其他符合要求的计算区域间的距离,最后累加,也可以按照符合要求的计算区域的分布情况,整体进行计算。
该方案中,特定对比区域的标准度是与第一属性值和第二属性值呈正相关性的,上述内容说明了第一属性值和第二属性值的获取过程,下面对根据标准度最高的特定对比区域的位置确定目标区域的方式进行说明。
具体的,确定了标准度最高的特定对比区域后,就可以直接判定标准度最高的特定对比区域,以及与标准度最高的特定对比区域相邻的特定对比区域共同组成了目标区域,但,为了进一步提高准确度,还可以是进一步判断这些特定对比区域中的边缘线是否是相连接的,如果是,则可以判断标准度最高的特定对比区域,以及与标准度最高的特定对比区域相邻的特定对比区域共同组成了目标区域;如果否,则可以判断判断标准度最高的特定对比区域,以及特定参考区域共同组成了目标区域,其中,特定参考区域中的边缘线与标准度最高的特定对比区域中的边缘线是相连接的。
与上述方法相对应的,本申请还提供了一种3D播放器使用的3D视频的生成装置,包括:
获取模块,用于获取初始单视点视频,初始单视点视频的格式包括平面视图+深度图格式、双目立体视图格式和平面视图格式;
第一生成模块,用于根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频;
第二生成模块,用于根据多个不同视点所对应的虚拟视点视频,生成供3D显示系统呈像用的多视点视频。
功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种3D播放器使用的3D视频的生成方法,其特征在于,包括:
获取初始单视点视频,所述初始单视点视频的格式包括平面视图+深度图格式、双目立体视图格式和平面视图格式;
根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频;
根据多个不同视点所对应的虚拟视点视频,生成供3D显示系统呈像用的多视点视频。
2.根据权利要求1所述的方法,其特征在于,若初始单视点视频的格式为双目立体视图格式或平面视图格式,则在步骤根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频前,还包括:
生成初始单视点视频所对应的深度图。
3.根据权利要求1所述的方法,其特征在于,还包括:
提取初始单视点视频中的水印标记;
对所述提取到的水印标记进行识别,以得到标识符;
验证所述标识符是否满足预设的要求,若满足,则执行步骤根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频。
4.根据权利要求3所述的方法,其特征在于,步骤提取初始单视点视频中的水印标记包括:
获取初始单视点视频在一段时间内的连续多张单帧图像;
查找所述多张单帧图像中,特征内容未发生变化的区域作为目标区域;
从单帧图像的目标区域中提取水印标记。
5.根据权利要求4所述的方法,其特征在于,步骤查找所述多张单帧图像中,特征内容未发生变化的区域作为目标区域包括:
分别对每张单帧图像进行边缘提取,以确定每张单帧图像的边缘图;
对指定的边缘图按照预设的步长和预设的采样窗口大小进行遍历,以确定多个对比区域;
选择所述多个对比区域中,在每个边缘图中均存在相似区域的特定对比区域作为目标区域,所述相似区域的位置于所述特定对比区域的位置相同。
6.根据权利要求5所述的方法,其特征在于,步骤选择在每个边缘图中均存在相似区域的对比区域作为目标区域包括:
若存在多个特定对比区域,且多个特定对比区域之间是不相邻的,则计算每个特定对比区域的标准度,并根据标准度最高的特定对比区域的位置确定目标区域;特定对比区域的标准度与第一属性值和第二属性值呈正相关性;所述第一属性值是依据特定区域分别与对应的多个相似区域的相似度得到的;所述第二属性值是依据所述特定对比区域中,不同边缘线之间的紧密程度得到的。
7.根据权利要求1所述的方法,其特征在于,步骤根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频包括:
按照如下方式分别确定每个视点所对应的虚拟视点视频:
根据初始单视点视频所对应的第一视点位置和待生成的虚拟视点视频所对应的第二视点位置,分别计算初始单视点视频中每个像素的移动距离和移动方向;
根据所述移动距离和移动方向,对所述初始单视点视频中的像素进行移动,以生成第二视点位置所对应的虚拟视点视频。
8.根据权利要求1所述的方法,其特征在于,步骤根据多个不同视点所对应的虚拟视点视频,生成供3D显示系统呈像用的多视点视频包括:
分别提取每个视点所对应的虚拟视点视频中指定的像素点;
按照各个视点的相对位置,将提取出的像素点按照预定的顺序进行排列,以形成多视点视频。
9.根据权利要求2所述的方法,其特征在于,若初始单视点视频的格式为平面视图格式,则步骤生成初始单视点视频所对应的深度图包括:
对初始单视点视频中的前景物体进行检测,以计算所述物体的掩膜图像;
根据所述掩膜图像对初始单视点视频进行背景重构,以得到去除前景物体的背景视频序列;
对背景视频序列求取背景深度图序列,以及对初始单视点视频求取初始深度图序列;
根据初始深度图序列中前景物体的初始深度信息,和背景视频序列中前景物体的几何信息,确定初始单视点视频所对应的深度图。
10.一种3D播放器使用的3D视频的生成装置,其特征在于,包括:
获取模块,用于获取初始单视点视频,所述初始单视点视频的格式包括平面视图+深度图格式、双目立体视图格式和平面视图格式;
第一生成模块,用于根据初始单视点视频所对应的深度图,分别生成多个不同视点所对应的虚拟视点视频;
第二生成模块,用于根据多个不同视点所对应的虚拟视点视频,生成供3D显示系统呈像用的多视点视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710470958.0A CN107155101A (zh) | 2017-06-20 | 2017-06-20 | 一种3d播放器使用的3d视频的生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710470958.0A CN107155101A (zh) | 2017-06-20 | 2017-06-20 | 一种3d播放器使用的3d视频的生成方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107155101A true CN107155101A (zh) | 2017-09-12 |
Family
ID=59795019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710470958.0A Pending CN107155101A (zh) | 2017-06-20 | 2017-06-20 | 一种3d播放器使用的3d视频的生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107155101A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114035871A (zh) * | 2021-10-28 | 2022-02-11 | 深圳市优聚显示技术有限公司 | 基于人工智能的3d显示屏的显示方法、系统及计算机设备 |
CN114097248A (zh) * | 2019-12-30 | 2022-02-25 | 华为技术有限公司 | 一种视频流处理方法、装置、设备及介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1650559A (zh) * | 2001-10-18 | 2005-08-03 | 诺基亚公司 | 用于内容的受控复制和移动的系统和方法 |
CN101640809A (zh) * | 2009-08-17 | 2010-02-03 | 浙江大学 | 一种融合运动信息与几何信息的深度提取方法 |
CN101729919A (zh) * | 2009-10-30 | 2010-06-09 | 无锡景象数字技术有限公司 | 基于fpga的全自动平面视频转立体视频系统 |
CN101990081A (zh) * | 2010-11-11 | 2011-03-23 | 宁波大学 | 一种虚拟视点图像的版权保护方法 |
CN102271271A (zh) * | 2011-08-17 | 2011-12-07 | 清华大学 | 生成多视点视频的装置及方法 |
CN102957936A (zh) * | 2012-07-25 | 2013-03-06 | 中山大学 | 从视频单视点到多视点的虚拟视点生成方法 |
CN102972038A (zh) * | 2011-07-01 | 2013-03-13 | 松下电器产业株式会社 | 图像处理装置、图像处理方法、程序、集成电路 |
CN103413347A (zh) * | 2013-07-05 | 2013-11-27 | 南京邮电大学 | 基于前景背景融合的单目图像深度图提取方法 |
CN105791803A (zh) * | 2016-03-16 | 2016-07-20 | 深圳创维-Rgb电子有限公司 | 一种将二维图像转化为多视点图像的显示方法及系统 |
CN106331746A (zh) * | 2016-09-19 | 2017-01-11 | 北京小度互娱科技有限公司 | 用于识别视频文件中的水印位置的方法和装置 |
-
2017
- 2017-06-20 CN CN201710470958.0A patent/CN107155101A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1650559A (zh) * | 2001-10-18 | 2005-08-03 | 诺基亚公司 | 用于内容的受控复制和移动的系统和方法 |
CN101640809A (zh) * | 2009-08-17 | 2010-02-03 | 浙江大学 | 一种融合运动信息与几何信息的深度提取方法 |
CN101729919A (zh) * | 2009-10-30 | 2010-06-09 | 无锡景象数字技术有限公司 | 基于fpga的全自动平面视频转立体视频系统 |
CN101990081A (zh) * | 2010-11-11 | 2011-03-23 | 宁波大学 | 一种虚拟视点图像的版权保护方法 |
CN102972038A (zh) * | 2011-07-01 | 2013-03-13 | 松下电器产业株式会社 | 图像处理装置、图像处理方法、程序、集成电路 |
CN102271271A (zh) * | 2011-08-17 | 2011-12-07 | 清华大学 | 生成多视点视频的装置及方法 |
CN102957936A (zh) * | 2012-07-25 | 2013-03-06 | 中山大学 | 从视频单视点到多视点的虚拟视点生成方法 |
CN103413347A (zh) * | 2013-07-05 | 2013-11-27 | 南京邮电大学 | 基于前景背景融合的单目图像深度图提取方法 |
CN105791803A (zh) * | 2016-03-16 | 2016-07-20 | 深圳创维-Rgb电子有限公司 | 一种将二维图像转化为多视点图像的显示方法及系统 |
CN106331746A (zh) * | 2016-09-19 | 2017-01-11 | 北京小度互娱科技有限公司 | 用于识别视频文件中的水印位置的方法和装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114097248A (zh) * | 2019-12-30 | 2022-02-25 | 华为技术有限公司 | 一种视频流处理方法、装置、设备及介质 |
CN114097248B (zh) * | 2019-12-30 | 2023-03-28 | 华为技术有限公司 | 一种视频流处理方法、装置、设备及介质 |
CN114035871A (zh) * | 2021-10-28 | 2022-02-11 | 深圳市优聚显示技术有限公司 | 基于人工智能的3d显示屏的显示方法、系统及计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4764305B2 (ja) | 立体画像生成装置、方法およびプログラム | |
JP5036132B2 (ja) | 裸眼立体表示のための視差画像のクリティカルな位置合わせ | |
US20140181630A1 (en) | Method and apparatus for adding annotations to an image | |
CN101542536A (zh) | 用于合成三维图像的系统和方法 | |
US20110216160A1 (en) | System and method for creating pseudo holographic displays on viewer position aware devices | |
CN107407866A (zh) | 用于六自由度的360°体虚拟现实视频的激光雷达立体融合真人实景三维模型视频重建 | |
CN103809293B (zh) | 基于子像素的3d集成成像显示设备 | |
KR20140082610A (ko) | 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치 | |
KR20130138177A (ko) | 다중 시점 장면에서의 그래픽 표시 | |
CN103283241A (zh) | 二维图像的再投影的多样本解析 | |
JP5852093B2 (ja) | 映像処理装置、映像処理方法、プログラム | |
EP2936442A1 (en) | Method and apparatus for adding annotations to a plenoptic light field | |
CN103745448A (zh) | 光栅3d显示中超高分辨率合成图像的快速生成方法 | |
KR100980298B1 (ko) | 모델링된 2차원 영상의 3차원 영상 변환 방법 | |
CN107155101A (zh) | 一种3d播放器使用的3d视频的生成方法及装置 | |
EP2962290B1 (en) | Relaying 3d information by depth simulation using 2d pixel displacement | |
Xie et al. | Depth-tunable three-dimensional display with interactive light field control | |
Ramachandran et al. | Multiview synthesis from stereo views | |
KR100943451B1 (ko) | Tiff 포맷을 이용한 dem―tiff정사영상 제작 시스템 및 그 방법 | |
JP2001222723A (ja) | 立体視画像の生成方法及び同装置 | |
Tanaka et al. | Multimodal digital archiving and reproduction of the world cultural heritage" Gion Festival in Kyoto" | |
Song et al. | Landscape Fusion Method Based on Augmented Reality and Multiview Reconstruction | |
KR20070010306A (ko) | 촬영장치 및 깊이정보를 포함하는 영상의 생성방법 | |
KR101159705B1 (ko) | 빌보드 기반 3차원 가상현실에 의한 물체 안내 시스템 및 방법 | |
Thatte et al. | Real-World Virtual Reality With Head-Motion Parallax |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170912 |