Nothing Special   »   [go: up one dir, main page]

CN113008263A - 数据生成方法及数据生成装置 - Google Patents

数据生成方法及数据生成装置 Download PDF

Info

Publication number
CN113008263A
CN113008263A CN202110191126.1A CN202110191126A CN113008263A CN 113008263 A CN113008263 A CN 113008263A CN 202110191126 A CN202110191126 A CN 202110191126A CN 113008263 A CN113008263 A CN 113008263A
Authority
CN
China
Prior art keywords
dimensional
dimensional data
data
information
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110191126.1A
Other languages
English (en)
Other versions
CN113008263B (zh
Inventor
小山达也
西孝启
杉尾敏康
远间正真
吉川哲史
松延徹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to CN202110191126.1A priority Critical patent/CN113008263B/zh
Publication of CN113008263A publication Critical patent/CN113008263A/zh
Application granted granted Critical
Publication of CN113008263B publication Critical patent/CN113008263B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

提供数据生成方法及数据生成装置。数据生成方法是与移动体协作来动作的数据生成装置中的数据生成方法,所述数据生成方法包括:生成第1周边信息和第2周边信息的步骤,所述第1周边信息是利用二维数据并示出所述移动体的周边状况的信息,所述第2周边信息是利用三维数据并示出所述移动体的周边状况的信息;决定步骤,根据所述移动体的驾驶状况,决定对所述第1周边信息和所述第2周边信息的哪一个进行利用;利用步骤,对所述第1周边信息或所述第2周边信息进行利用,所述驾驶状况是指,所述移动体是处于自主移动中、还是处于手动驾驶中。

Description

数据生成方法及数据生成装置
本申请是2017年10月20日提交的,中国专利申请号为201780065479.9(国际申请号PCT/JP2017/037929),发明名称为“显示方法以及显示装置”的专利申请的分案申请。
技术领域
本申请涉及数据生成方法以及数据生成装置。
背景技术
在用于汽车或机器人自主地进行工作的计算机视觉、地图信息、监控、基础结构检查、或影像分发等较大的领域中,今后将会普及灵活运用了三维数据的装置或服务。三维数据通过测距仪等距离传感器、立体摄影机、或多个单眼相机的组合等各种方法来获得。
作为三维数据的一个表现方法有被称作点云数据的表现方法,该方法通过三维空间内的点群来表现三维结构的形状(例如,参照非专利文献1)。在点云数据中存放了点群的位置以及颜色。虽然预想点云数据作为三维数据的表现方法将成为主流,但是,点群的数据量非常大。因此,在三维数据的蓄积或传输中与二维的动态图像(作为一个例子,有以MPEG而被标准化后的MPEG-4AVC或HEVC等)一样,需要通过编码来进行数据量的压缩。
并且,关于点云数据的压缩,有一部分由进行点云数据关联的处理的公开的程序库(Point Cloud Library:点云库)等支持。
并且,有周知的利用三维的地图数据,检索在车辆周边的设施,并进行显示的的技术(例如,参照专利文献1)。
(现有技术文献)
(专利文献)
专利文献1国际公开第2014/020663号
在对基于这种三维数据的信息进行显示的显示装置中,希望能够显示与状况相符的恰当的信息。
发明内容
本申请的目的在于,提供一种能够显示恰当的信息的显示方法或显示装置。
本申请的一个形态所涉及的数据生成方法是与移动体协作来动作的数据生成装置中的数据生成方法,所述数据生成方法包括:生成第1周边信息和第2周边信息的步骤,所述第1周边信息是利用二维数据并示出所述移动体的周边状况的信息,所述第2周边信息是利用三维数据并示出所述移动体的周边状况的信息;决定步骤,根据所述移动体的驾驶状况,决定对所述第1周边信息和所述第2周边信息的哪一个进行利用;利用步骤,对所述第1周边信息或所述第2周边信息进行利用,所述驾驶状况是指,所述移动体是处于自主移动中、还是处于手动驾驶中。
本申请的一个形态所涉及的数据生成装置,与移动体协作来动作,所述数据生成装置包括处理器,该处理器执行以下处理:生成第1周边信息和第2周边信息,所述第1周边信息是利用二维数据并示出所述移动体的周边状况的信息,所述第2周边信息是利用三维数据并示出所述移动体的周边状况的信息;根据所述移动体的驾驶状况,决定对所述第1周边信息和所述第2周边信息的哪一个进行利用;对所述第1周边信息或所述第2周边信息进行利用,所述驾驶状况是指,所述移动体是处于自主移动中、还是处于手动驾驶中。
本申请的一个形态所涉及的显示方法是与移动体协作来动作的显示装置中的显示方法,包括:决定步骤,根据所述移动体的驾驶状况,决定对第1周边信息和第2周边信息的哪一个进行显示,所述第1周边信息是利用二维数据而生成的示出所述移动体的周边状况的信息,所述第2周边信息是利用三维数据而生成的示出所述移动体的周边状况的信息;以及显示步骤,对决定的将要显示的所述第1周边信息或所述第2周边信息进行显示。
另外,这些所有的或具体的形态可以作为系统、方法、集成电路、计算机程序或计算机可读取的CD-ROM等记录介质来实现,并且可以通过对系统、方法、集成电路、计算机程序以及记录介质进行组合来实现。
本申请能够提供一种能够显示恰当的信息的显示方法或显示装置。
附图说明
图1示出了实施方式1所涉及的编码三维数据的构成。
图2示出了属于实施方式1所涉及的GOS的最下层的SPC间的预测结构的一个例子。
图3示出了实施方式1所涉及的层间的预测结构的一个例子。
图4示出了实施方式1所涉及的GOS的编码顺序的一个例子。
图5示出了实施方式1所涉及的GOS的编码顺序的一个例子。
图6是实施方式1所涉及的三维数据编码装置的方框图。
图7是实施方式1所涉及的编码处理的流程图。
图8是实施方式1所涉及的三维数据解码装置的方框图。
图9是实施方式1所涉及的解码处理的流程图。
图10示出了实施方式1所涉及的元信息的一个例子。
图11示出了实施方式2所涉及的SWLD的构成例。
图12示出了实施方式2所涉及的服务器以及客户端的工作例。
图13示出了实施方式2所涉及的服务器以及客户端的工作例。
图14示出了实施方式2所涉及的服务器以及客户端的工作例。
图15示出了实施方式2所涉及的服务器以及客户端的工作例。
图16是实施方式2所涉及的三维数据编码装置的方框图。
图17是实施方式2所涉及的编码处理的流程图。
图18是实施方式2所涉及的三维数据解码装置的方框图。
图19是实施方式2所涉及的解码处理的流程图。
图20示出了实施方式2所涉及的WLD的构成例。
图21示出了实施方式2所涉及的WLD的八叉树结构的例子。
图22示出了实施方式2所涉及的SWLD的构成例。
图23示出了实施方式2所涉及的SWLD的八叉树结构的例子。
图24是示出实施方式3所涉及的车辆间的三维数据的收发的状态的模式图。
图25示出了在实施方式3所涉及的车辆间被传输的三维数据的一个例子。
图26是实施方式3所涉及的三维数据制作装置的方框图。
图27是实施方式3所涉及的三维数据制作处理的流程图。
图28是实施方式3所涉及的三维数据发送装置的方框图。
图29是实施方式3所涉及的三维数据发送处理的流程图。
图30是实施方式3所涉及的三维数据制作装置的方框图。
图31是实施方式3所涉及的三维数据制作处理的流程图。
图32是实施方式3所涉及的三维数据发送装置的方框图。
图33是实施方式3所涉及的三维数据发送处理的流程图。
图34是实施方式4所涉及的三维信息处理装置的方框图。
图35是实施方式4所涉及的三维信息处理方法的流程图。
图36是实施方式4所涉及的三维信息处理方法的流程图。
图37是用于说明实施方式5所涉及的三维数据的发送处理的图。
图38是实施方式5所涉及的三维数据制作装置的方框图。
图39是实施方式5所涉及的三维数据制作方法的流程图。
图40是实施方式5所涉及的三维数据制作方法的流程图。
图41是实施方式6所涉及的显示方法的流程图。
图42示出了透过实施方式6所涉及的挡风玻璃看到的周边环境的例子。
图43示出了实施方式6所涉及的平视显示器的显示例。
图44示出了实施方式6所涉及的调整后的平视显示器的显示例。
符号说明
100、400 三维数据编码装置
101、201、401、501 获得部
102、402 编码区域决定部
103 划分部
104、644 编码部
111、607 三维数据
112、211、413、414、511、634 编码三维数据
200、500 三维数据解码装置
202 解码开始GOS决定部
203 解码SPC决定部
204、625 解码部
212、512、513 解码三维数据
403 SWLD提取部
404 WLD编码部
405 SWLD编码部
411 输入三维数据
412 提取三维数据
502 头部解析部
503 WLD解码部
504 SWLD解码部
600 自身车辆
601 周围车辆
602、605 传感器检测范围
603、606 区域
604 遮挡区域
620、620A 三维数据制作装置
621、641 三维数据制作部
622 请求范围决定部
623 搜索部
624、642 接收部
626 合成部
627 检测区域决定部
628 周围状况检测部
629 自主动作控制部
631、651 传感器信息
632 第1三维数据
633 请求范围信息
635 第2三维数据
636 第3三维数据
637 委托信号
638 发送数据
639 周围状况检测结果
640、640A 三维数据发送装置
643 提取部
645 发送部
646 传输可否判断部
652 第5三维数据
654 第6三维数据
700 三维信息处理装置
701 三维地图获得部
702 自身车辆检测数据获得部
703 异常情况判断部
704 应对工作决定部
705 工作控制部
711 三维地图
712 自身车辆检测三维数据
801 车辆
802 空间
810 三维数据制作装置
811 数据接收部
812、819 通信部
813 接收控制部
814、821 格式转换部
815 传感器
816 三维数据制作部
817 三维数据合成部
818 三维数据蓄积部
820 发送控制部
822 数据发送部
831、832、834、835、836、837 三维数据
833 传感器信息
具体实施方式
当在实际的装置或服务中使用点云数据等编码数据时,需要针对所希望的空间位置或目标对象等进行随机存取,但是到目前为止,三维的编码数据中的随机存取作为功能并不存在,因此,为此的编码方法也不存在。
在本申请中,对能够提供一种在编码三维数据中能够提供随机存取功能的三维数据编码方法、三维数据解码方法、三维数据编码装置或三维数据解码装置。
本申请的一个形态所涉及的三维数据编码方法对三维数据进行编码,所述三维数据编码方法包括:划分步骤,将所述三维数据划分为分别与三维坐标对应的第一处理单位,该第一处理单位是随机存取单位;以及编码步骤,通过对多个所述第一处理单位的每一个进行编码,来生成编码数据。
据此,以每个第一处理单位的随机存取成为可能。这样,该三维数据编码方法能够提供在编码三维数据中的随机存取功能。
例如,也可以是,所述三维数据编码方法包括生成步骤,在该生成步骤中生成第一信息,该第一信息示出多个所述第一处理单位、以及与多个所述第一处理单位的每一个对应的三维坐标,所述编码数据包括所述第一信息。
例如,也可以是,所述第一信息进一步示出与所述多个第一处理单位的每一个对应的对象、时刻以及数据存放目的地中的至少一个。
例如,也可以是,在所述划分步骤,进一步将所述第一处理单位划分为多个第二处理单位,在所述编码步骤,对多个所述第二处理单位的每一个进行编码。
例如,也可以是,在所述编码步骤,针对处理对象的第一处理单位中包含的处理对象的第二处理单位,参照所述处理对象的第一处理单位中包含的其他的第二处理单位来进行编码。
据此,通过参照其他的第二处理单位,从而能够提高编码效率。
例如,也可以是,在所述编码步骤中,作为所述处理对象的第二处理单位的类型,从不参照其他的第二处理单位的第一类型、参照其他的一个第二处理单位的第二类型、以及参照其他的两个第二处理单位的第三类型中选择一个,并按照选择的类型,对所述处理对象的第二处理单位进行编码。
例如,也可以是,在所述编码步骤中,按照所述三维数据中包含的对象的数量或疏密程度,变更对所述第一类型进行选择的频度。
据此,能够对折衷的关系中的随机存取性与编码效率进行恰当地设定。
例如,也可以是,在所述编码步骤中,按照所述三维数据中包含的对象的数量或疏密程度、或者动态对象的数量或疏密程度,决定所述第一处理单位的大小。
据此,能够对折衷的关系中的随机存取性与编码效率进行恰当地设定。
例如,也可以是,所述第一处理单位包括在预先规定的方向上被空间划分的多个层,该多个层的每一层中包括一个以上的所述第二处理单位,在所述编码步骤,参照与该第二处理单位为同一层或比该第二处理单位下层的层中包括的所述第二处理单位,来对所述第二处理单位进行编码。
据此,例如能够提高在系统中的重要的层的随机存取性,并且能够抑制编码效率的降低。
例如,也可以是,在所述划分步骤,将仅包括静态对象的第二处理单位与仅包括动态对象的第二处理单位,分配到不同的第一处理单位。
据此,能够容易地对动态对象与静态对象进行控制。
例如,也可以是,在所述编码步骤中,对多个动态对象分别进行编码,所述多个动态对象的编码数据与仅包括静态对象的第二处理单位对应。
据此,能够容易地对动态对象与静态对象进行控制。
例如,也可以是,在所述划分步骤,进一步将所述第二处理单位划分为多个第三处理单位,在所述编码步骤,对多个所述第三处理单位的每一个进行编码。
例如,也可以是,所述第三处理单位包括一个以上的体素,该体素是与位置信息对应的最小单位。
例如,也可以是,所述第二处理单位包括根据由传感器得到的信息而导出的特征点群。
例如,也可以是,所述编码数据包括示出多个所述第一处理单位的编码顺序的信息。
例如,也可以是,所述编码数据包括示出多个所述第一处理单位的大小的信息。
例如,也可以是,在所述编码步骤,对多个所述第一处理单位进行并行编码。
并且,本申请的一个形态所涉及的三维数据解码方法包括解码步骤,在该解码步骤中通过对分别与三维坐标对应的第一处理单位的编码数据的每一个进行解码,从而生成所述第一处理单位的三维数据,所述第一处理单位是随机存取单位。
据此,每个第一处理单位的随机存取则成为可能。这样,该三维数据解码方法能够提供在编码三维数据中的随机存取功能。
并且,也可以是,本申请的一个形态所涉及的三维数据编码装置包括:划分部,将所述三维数据划分为分别与三维坐标对应的第一处理单位,该第一处理单位是随机存取单位;以及编码部,通过对多个所述第一处理单位的每一个进行编码,来生成编码数据。
据此,按每个第一处理单位的随机存取成为可能。这样,该三维数据编码装置能够提供在编码三维数据中的随机存取功能。
并且,也可以是,本申请的一个形态所涉及的三维数据解码装置对三维数据进行解码,所述三维数据解码装置包括解码部,该解码部通过对分别与三维坐标对应的第一处理单位的编码数据的每一个进行解码,来生成所述第一处理单位的三维数据,所述第一处理单位是随机存取单位。
据此,按每个第一处理单位的随机存取成为可能。这样,该三维数据解码装置能够提供在编码三维数据的随机存取功能。
另外,本申请通过对空间进行划分并编码的构成,能够使空间的量化、预测等成为可能,即使在不进行随机存取的情况下也有效。
并且,本申请的一个形态所涉及的三维数据编码方法包括:提取步骤,从第1三维数据提取特征量为阈值以上的第2三维数据;以及第1编码步骤,通过对所述第2三维数据进行编码,来生成第1编码三维数据。
据此,该三维数据编码方法生成对特征量为阈值以上的数据进行编码而得到的第1编码三维数据。这样,与直接对第1三维数据进行编码的情况相比,能够减少编码三维数据的数据量。因此,该三维数据编码方法能够减少传输时的数据量。
例如,也可以是,所述三维数据编码方法进一步包括第2编码步骤,在该第2编码步骤,通过对所述第1三维数据进行编码,来生成第2编码三维数据。
据此,该三维数据编码方法例如能够按照使用用途等,对第1编码三维数据与第2编码三维数据进行有选择地传输。
例如,也可以是,所述第2三维数据由第1编码方法编码,所述第1三维数据由与所述第1编码方法不同的第2编码方法编码。
据此,该三维数据编码方法能够针对第1三维数据与第2三维数据分别采用恰当的编码方法。
例如,也可以是,在所述第1编码方法,与所述第2编码方法相比,帧内预测以及帧间预测中的帧间预测被优先。
据此,该三维数据编码方法针对邻接的数据间的相关容易变低的第2三维数据,能够提高帧间预测的优先级。
例如,也可以是,在所述第1编码方法与所述第2编码方法,三维位置的表现手法不同。
据此,该三维数据编码方法针对数据数不同的三维数据,能够采用更恰当的三维位置的表现手法。
例如,也可以是,所述第1编码三维数据以及所述第2编码三维数据的至少一方包含标识符,该标识别符示出该编码三维数据是通过对所述第1三维数据进行编码而得到的编码三维数据、还是通过对所述第1三维数据中的一部分进行编码而得到的编码三维数据。
据此,解码装置能够容易地判断获得的编码三维数据是第1编码三维数据还是第2编码三维数据。
例如,也可以是,在所述第1编码步骤,以所述第1编码三维数据的数据量成为比所述第2编码三维数据的数据量小的方式,来对所述第2三维数据进行编码。
据此,该三维数据编码方法能够使第1编码三维数据的数据量比第2编码三维数据的数据量小。
例如,也可以是,在所述提取步骤进一步从所述第1三维数据,将与具有预先规定的属性的物体相对应的数据作为所述第2三维数据来提取。
据此,该三维数据编码方法能够生成包括解码装置所需要的数据的第1编码三维数据。
例如,也可以是,所述三维数据编码方法进一步包括发送步骤,在该发送步骤中,按照客户端的状态,将所述第1编码三维数据以及所述第2编码三维数据的一方发送到所述客户端。
据此,该三维数据编码方法能够按照客户端的状态来发送恰当的数据。
例如,也可以是,所述客户端的状态包括所述客户端的通信状况或所述客户端的移动速度。
例如,也可以是,所述三维数据编码方法进一步包括发送步骤,在该发送步骤中,按照客户端的请求,将所述第1编码三维数据以及所述第2编码三维数据的一方发送到所述客户端。
据此,该三维数据编码方法能够按照客户端的请求来发送恰当的数据。
并且,本申请的一个形态所涉及的三维数据解码方法包括:第1解码步骤,以第1解码方法,对第1编码三维数据进行解码,该第1编码三维数据是通过对从第1三维数据提取的特征量为阈值以上的第2三维数据进行编码而得到的;以及第2解码步骤,以与所述第1解码方法不同的第2解码方法,对通过编码所述第1三维数据而得到的第2编码三维数据进行解码。
据此,该三维数据解码方法能够针对特征量为阈值以上的数据被编码而得到的第1编码三维数据、以及第2编码三维数据,例如按照使用用途等来有选择地接收。据此,该三维数据解码方法能够减少传输时的数据量。而且,该三维数据解码方法能够针对第1三维数据与第2三维数据分别采用恰当的解码方法。
例如,也可以是,在所述第1解码方法,与所述第2解码方法相比,帧内预测以及帧间预测之中的帧间预测被优先。
据此,该三维数据解码方法针对邻接的数据间的相关容易变低的第2三维数据,能够提高帧间预测的优先级。
例如,也可以是,在所述第1解码方法与所述第2解码方法中,三维位置的表现手法不同。
据此,该三维数据解码方法针对数据数不同的三维数据,能够采用更恰当的三维位置的表现手法。
例如,也可以是,所述第1编码三维数据以及所述第2编码三维数据的至少一方包括标识符,该标识符示出该编码三维数据是通过对所述第1三维数据进行编码而得到的编码三维数据、还是对所述第1三维数据中的一部分进行编码而得到的编码三维数据,参照所述标识符,对所述第1编码三维数据以及所述第2编码三维数据进行识别。
据此,该三维数据解码方法能够容易地判断获得的编码三维数据是第1编码三维数据还是第2编码三维数据。
例如,也可以是,所述三维数据解码方法进一步包括:通知步骤,将客户端的状态通知给服务器;接收步骤,按照所述客户端的状态,接收从所述服务器发送的所述第1编码三维数据以及所述第2编码三维数据的一方。
据此,该三维数据解码方法能够按照客户端的状态,来接收恰当的数据。
例如,也可以是,所述客户端的状态包括所述客户端的通信状况或所述客户端的移动速度。
例如,也可以是,所述三维数据解码方法进一步包括:请求步骤,向服务器请求所述第1编码三维数据以及所述第2编码三维数据的一方;以及接收步骤,按照所述请求,接收从所述服务器发送的所述第1编码三维数据以及所述第2编码三维数据的一方。
据此,该三维数据解码方法能够接收与用途对应的恰当的数据。
并且,本申请的一个形态所涉及的三维数据编码装置具备:提取部,从第1三维数据提取特征量为阈值以上的第2三维数据;以及第1编码部,通过对所述第2三维数据进行编码,来生成第1编码三维数据。
据此,该三维数据编码装置生成对特征量为阈值以上的数据进行编码而得到的第1编码三维数据。据此,与直接对第1三维数据进行编码的情况相比,能够减少数据量。因此,该三维数据编码装置能够减少传输时的数据量。
并且,本申请的一个形态所涉及的三维数据解码装置具备:第1解码部,利用第1解码方法对第1编码三维数据进行解码,该第1编码三维数据是通过对从第1三维数据提取的特征量为阈值以上的第2三维数据进行编码而得到的;以及第2解码部,利用与所述第1解码方法不同的第2解码方法,对通过编码所述第1三维数据而得到的第2编码三维数据进行解码。
据此,该三维数据解码装置针对特征量为阈值以上的数据被编码而得到的第1编码三维数据、以及第2编码三维数据,例如能够按照使用用途等来有选择的接收。据此,该三维数据解码装置能够减少传输时的数据量。而且,该三维数据解码装置能够针对第1三维数据与第2三维数据分别采用恰当的解码方法。
并且,本申请的一个形态所涉及的三维数据制作方法包括:制作步骤,根据由传感器检测的信息,制作第1三维数据;接收步骤,接收通过第2三维数据被编码而得到的编码三维数据;解码步骤,通过对接收的所述编码三维数据进行解码,从而获得所述第2三维数据;以及合成步骤,通过对所述第1三维数据与所述第2三维数据进行合成,从而制作第3三维数据。
据此,该三维数据制作方法能够利用制作的第1三维数据、接收的第2三维数据,制作详细的第3三维数据。
例如,也可以是,在所述合成步骤通过对所述第1三维数据与所述第2三维数据进行合成,来制作密度比所述第1三维数据以及所述第2三维数据高的第3三维数据。
例如,也可以是,所述第2三维数据通过从第4三维数据提取特征量为阈值以上的数据,而生成的三维数据。
据此,该三维数据制作方法能够减少被传输的三维数据的数据量。
例如,也可以是,所述三维数据制作方法进一步包括搜索步骤,在该搜索步骤作为所述编码三维数据的发送源的发送装置,在所述接收步骤,从搜索到的所述发送装置接收所述编码三维数据。
据此,该三维数据制作方法例如能够通过搜索,来确定持有所需要的三维数据的发送装置。
例如,也可以是,所述三维数据制作方法进一步包括:决定步骤,决定请求范围,该请求范围是请求三维数据的三维空间的范围;以及发送步骤,将示出所述请求范围的信息,发送到所述发送装置,所述第2三维数据包括所述请求范围的三维数据。
据此,该三维数据制作方法不仅能够接收所需要的三维数据,而且能够减少被传输的三维数据的数据量。
例如,也可以是,在所述决定步骤,将包括所述传感器不能检测的遮挡区域的空间范围,决定为所述请求范围。
本申请的一个形态所涉及的三维数据发送方法包括:制作步骤,根据由传感器检测的信息,制作第5三维数据;提取步骤,通过提取所述第5三维数据的一部分,来制作第6三维数据;编码步骤,通过对所述第6三维数据进行编码,来生成编码三维数据;以及发送步骤,发送所述编码三维数据。
据此,该三维数据发送方法不仅能够将自身制作的三维数据发送到其他的装置,而且能够减少被传输的三维数据的数据量。
例如,也可以是,在所述制作步骤,根据由所述传感器检测的信息,制作第7三维数据,并通过从所述第7三维数据提取特征量为阈值以上的数据,来制作所述第5三维数据。
据此,该三维数据发送方法能够减少被传输的三维数据的数据量。
例如,也可以是,所述三维数据发送方法进一步包括接收步骤,在该接收步骤,从接收装置接收示出请求范围的信息,该请求范围是请求三维数据的三维空间的范围,在所述提取步骤,通过从所述第5三维数据提取所述请求范围的三维数据,来制作所述第6三维数据,在所述发送步骤,将所述编码三维数据发送到所述接收装置。
据此,该三维数据发送方法能够减少被传输的三维数据的数据量。
并且,本申请的一个形态所涉及的三维数据制作装置具备:制作部,根据由传感器检测的信息,制作第1三维数据;接收部,接收通过第2三维数据被编码而得到的编码三维数据;解码部,通过对接收的所述编码三维数据进行解码,从而获得所述第2三维数据;以及合成部,通过对所述第1三维数据与所述第2三维数据进行合成,从而制作第3三维数据。
据此,该三维数据制作装置能够利用制作的第1三维数据、接收的第2三维数据,制作详细的第3三维数据。
并且,本申请的一个形态所涉及的三维数据发送装置具备:制作部,根据由传感器检测的信息,制作第5三维数据;提取部,通过提取所述第5三维数据的一部分,来制作第6三维数据;编码部,通过对所述第6三维数据进行编码,从而生成编码三维数据;以及发送部,发送所述编码三维数据。
据此,该三维数据发送装置不仅能够将自身制作的三维数据发送到其他的装置,又能够减少被传输的三维数据的数据量。
并且,本申请的一个形态所涉及的三维信息处理方法包括:获得步骤,经由信道获得包括第1三维位置信息的地图数据;生成步骤,根据由传感器检测的信息,生成第2三维位置信息;判断步骤,通过对所述第1三维位置信息或所述第2三维位置信息执行异常判断处理,来判断所述第1三维位置信息或所述第2三维位置信息是否为异常;决定步骤,在判断所述第1三维位置信息或所述第2三维位置信息为异常的情况下,决定针对该异常的应对工作;以及工作控制步骤,执行所述应对工作的实施时所需要的控制。
据此,该三维信息处理方法能够检测第1三维位置信息或第2三维位置信息的异常,并能够进行应对工作。
例如,也可以是,所述第1三维位置信息,以具有三维的坐标信息的部分空间为单位而被编码,所述第1三维位置信息包括多个随机存取单位,多个随机存取单位的每一个为一个以上的部分空间的集合体,且能够被独立地解码。
据此,该三维信息处理方法能够减少获得的第1三维位置信息的数据量。
例如,也可以是,所述第1三维位置信息是三维的特征量成为规定的阈值以上的特征点被编码的数据。
据此,该三维信息处理方法能够减少获得的第1三维位置信息的数据量。
例如,也可以是,在所述判断步骤,对经由所述信道是否能够获得所述第1三维位置信息进行判断,在经由所述信道不能获得所述第1三维位置信息的情况下,将所述第1三维位置信息判断为异常。
据此,该三维信息处理方法按照通信状况等,在不能构成第1三维位置信息的情况下,进行恰当的应对工作。
例如,也可以是,所述三维信息处理方法进一步包括自身位置估计步骤,在自身位置估计步骤,利用所述第1三维位置信息以及所述第2三维位置信息,进行具有所述传感器的移动体的自身位置估计,在所述判断步骤,对所述移动体是否将会进入通信状态差的区域进行预测,在所述工作控制步骤,在预测到所述移动体将会进入通信状态差的区域的情况下,在所述移动体进入该区域之前,所述移动体获得所述第1三维信息。
据此,该三维信息处理方法在有不能获得第1三维位置信息的可能性的情况下,能够预先获得第1三维位置信息。
例如,也可以是,在所述工作控制步骤,在经由所述信道不能获得所述第1三维位置信息的情况下,通过所述信道获得比所述第1三维位置信息的范围窄的第3三维位置信息。
据此,该三维信息处理方法能够减少经由信道获得的数据的数据量,即使在通信状况差的情况下,也能够获得三维位置信息。
例如,也可以是,所述三维信息处理方法进一步包括自身位置估计步骤,在该自身位置估计步骤,利用所述第1三维位置信息以及所述第2三维位置信息,进行具有所述传感器的移动体的自身位置估计,在所述工作控制步骤,在经由所述信道不能获得所述第1三维位置信息的情况下,经由所述信道获得包括二维位置信息的地图数据,利用所述二维位置信息以及所述第2三维位置信息,进行具有所述传感器的移动体的自身位置估计。
据此,该三维信息处理方法能够减少经由信道获得的数据的数据量,因此即使在通信状况差的情况下,也能够获得三维位置信息。
例如,也可以是,所述三维信息处理方法进一步包括自动驾驶步骤,在该自动驾驶步骤,利用所述自身位置估计的结果,使所述移动体进行自动驾驶,在所述判断步骤,进一步,根据所述移动体的移动环境,判断是否进行利用了根据所述二维位置信息和所述第2三维位置信息进行的所述移动体的所述自身位置估计的结果的所述移动体的自动驾驶。
据此,该三维信息处理方法能够按照移动体的移动环境,来判断是否继续进行自动驾驶。
例如,也可以是,所述三维信息处理方法进一步包括自动驾驶步骤,在该自动驾驶步骤,利用所述自身位置估计的结果,使所述移动体进行自动驾驶,在所述工作控制步骤,根据所述移动体的移动环境,对所述自动驾驶的模式进行切换。
据此,该三维信息处理方法能够按照移动体的移动环境,来设定恰当的自动驾驶的模式。
例如,也可以是,在所述判断步骤判断所述第1三维位置信息的数据是否完备,在所述第1三维位置信息的数据不完备的情况下,判断所述第1三维位置信息为异常。
据此,该三维信息处理方法例如在第1三维位置信息毁坏了的情况下等,能够进行恰当的应对工作。
例如,在所述判断步骤,判断所述第2三维位置信息的数据的生成精度是否为基准值以上,在所述第2三维位置信息的数据的生成精度不是所述基准值以上的情况下,判断所述第2三维位置信息为异常。
据此,该三维信息处理方法在第2三维位置信息的精度低的情况下,能够进行恰当的应对工作。
例如,也可以是,在所述工作控制步骤,在所述第2三维位置信息的数据的生成精度不是所述基准值以上的情况下,根据由与所述传感器不同的代替传感器检测的信息,生成第4三维位置信息。
据此,该三维信息处理方法例如在传感器出现故障等情况下,能够利用代替传感器来获得三维位置信息。
例如,也可以是,所述三维信息处理方法进一步包括:自身位置估计步骤,利用所述第1三维位置信息以及所述第2三维位置信息,进行具有所述传感器的移动体的自身位置估计;以及自动驾驶步骤,利用所述自身位置估计的结果,使所述移动体进行自动驾驶,在所述工作控制步骤,在所述第2三维位置信息的数据的生成精度不是所述基准值以上的情况下,对所述自动驾驶的模式进行切换。
据此,该三维信息处理方法在第2三维位置信息的精度低的情况下,进行恰当的应对工作。
例如,也可以是,在所述工作控制步骤,在所述第2三维位置信息的数据的生成精度不是所述基准值以上的情况下,进行所述传感器的工作校正。
据此,该三维信息处理方法在第2三维位置信息的精度低的情况下,能够提高第2三维位置信息的精度。
并且,本申请的一个形态所涉及的三维信息处理装置具备:获得部,经由信道获得包括第1三维位置信息的地图数据;生成部,根据由传感器检测的信息,生成第2三维位置信息;判断部,通过针对所述第1三维位置信息或所述第2三维位置信息执行异常判断处理,来判断所述第1三维位置信息或所述第2三维位置信息是否为异常;决定部,在判断所述第1三维位置信息或所述第2三维位置信息为异常的情况下,决定针对该异常的应对工作;以及工作控制部,执行所述应对工作的实施时所需要的控制。
据此,该三维信息处理装置能够检测第1三维位置信息或第2三维位置信息的异常,并能够进行应对工作。
并且,本申请的一个形态所涉及的三维数据制作方法应用于具备传感器以及对三维数据与外部进行收发的通信部的移动体,所述三维数据制作方法包括:三维数据制作步骤,根据所述传感器检测的信息、以及所述通信部接收的第1三维数据,制作第2三维数据;以及发送步骤,将作为所述第2三维数据的一部分的第3三维数据发送到外部。
据此,该三维数据制作方法能够生成在移动体不能检测的范围的三维数据。即,该三维数据制作方法能够生成详细的三维数据。并且,该三维数据制作方法能够将其他的移动体等不能检测的范围的三维数据发送到该其他的移动体等。
例如,也可以是,所述三维数据制作步骤与所述发送步骤被反复执行,所述第3三维数据是具有规定的大小的小空间的三维数据,该小空间位于与当前的所述移动体的位置相距所述移动体的移动方向前方的规定距离的位置。
据此,能够减少被发送的第3三维数据的数据量。
例如,也可以是,所述规定距离,按照所述移动体的移动速度来变化。
据此,该三维数据制作方法能够设定按照移动体的移动速度的恰当的小空间,并能够将该小空间的三维数据发送到其他的移动体等。
例如,也可以是,所述规定的大小,按照所述移动体的移动速度来变化。
据此,该三维数据制作方法能够设定按照移动体的移动速度的恰当的小空间,并能够将该小空间的三维数据发送到其他的移动体等。
例如,也可以是,所述三维数据制作方法进一步,判断已发送的所述第3三维数据所对应的所述小空间的所述第2三维数据是否发生了变化,在发生了变化的情况下,将作为发生了变化的该第2三维数据的至少一部分的第4三维数据发送到外部。
据此,该三维数据制作方法能够将发生了变化的空间的第4三维数据发送到其他的移动体等。
例如,也可以是,将所述第4三维数据优先于所述第3三维数据发送。
据此,由于该三维数据制作方法能够将发生了变化的空间的第4三维数据优先发送到其他的移动体等,因此,其他的移动体等例如能够迅速地进行基于三维数据的判断等。
例如,也可以是,在发生了所述变化的情况下,在进行所述第3三维数据的发送之前,先发送所述第4三维数据。
例如,也可以是,所述第4三维数据示出,所述已发送的第3三维数据所对应的所述小空间的所述第2三维数据、与变化后的该第2三维数据的差异。
据此,该三维数据制作方法能够减少被发送的三维数据的数据量。
例如,也可以是,在所述发送步骤,在所述小空间的所述第3三维数据与所述小空间的所述第1三维数据之间没有差异的情况下,不发送该第3三维数据。
据此,能够减少被发送的第3三维数据的数据量。
例如,也可以是,在所述发送步骤,在所述小空间的所述第3三维数据与所述小空间的所述第1三维数据之间没有差异的情况下,将表示所述小空间的所述第3三维数据与所述小空间的所述第1三维数据之间没有差异的信息发送到所述外部。
例如,也可以是,所述传感器检测到的所述信息为三维数据。
并且,本申请的一个形态所涉及的三维数据制作装置被搭载于移动体,所述三维数据制作装置具备:传感器;接收部,从外部接收第1三维数据;制作部,根据所述传感器检测到的信息、以及所述第1三维数据,制作第2三维数据;以及发送部,将作为所述第2三维数据的一部分的第3三维数据发送到外部。
据此,该三维数据制作装置能够生成在移动体不能检测的范围的三维数据。即,该三维数据制作装置能够生成详细的三维数据。并且,该三维数据制作装置能够将其他的移动体等不能检测的范围的三维数据发送到该其他的移动体等。
并且,本申请的一个形态所涉及的显示方法是与移动体协作来动作的显示装置中的显示方法,该显示方法包括:决定步骤,根据所述移动体的驾驶状况,决定对第1周边信息和第2周边信息的哪一个进行显示,所述第1周边信息是利用二维数据而生成的示出所述移动体的周边状况的信息,所述第2周边信息是利用三维数据而生成的示出所述移动体的周边状况的信息;以及显示步骤,对决定的将要显示的所述第1周边信息或所述第2周边信息进行显示。
据此,该显示方法能够根据移动体的驾驶状况,来对是显示第1周边信息还是显示第2周边信息进行切换,该第1周边信息是利用二维数据生成的,该第2周边信息是利用三维数据生成的。例如,该显示方法在需要详细的信息的情况下,显示信息量多的第2周边信息,在除此以外的情况下,显示数据量以及处理量等少的第1周边信息。据此,该显示方法能够在显示与状况相符的恰当的信息的同时,减少通信数据量以及处理量等。
例如也可以是,所述驾驶状况是指,所述移动体是处于自主移动中、还是处于手动驾驶中,在所述决定步骤,在所述移动体处于自主移动中的情况下,决定为显示所述第1周边信息,在所述移动体处于手动驾驶中的情况下,决定为显示所述第2周边信息。
据此,在手动驾驶时能够显示详细的信息,同时能够减少自动驾驶时的处理量等。
例如也可以是,所述驾驶状况是所述移动体所处的区域。
据此,能够按照移动体的位置,显示恰当的信息。
例如也可以是,所述三维数据是通过从三维的点群数据中提取特征量为阈值以上的点群而得到的数据。
据此,能够减少通信数据量、或减少将要保存的数据量。
例如也可以是,所述三维数据是具有根据三维的点群数据生成的网格结构的数据。
据此,能够减少通信数据量、或减少将要保存的数据量。
例如也可以是,所述三维数据是通过从三维的点群数据中提取特征量为阈值以上的、且在自身位置估计、驾驶辅助、或自动驾驶中所需要的点群而得到的数据。
据此,能够减少通信数据量、或减少将要保存的数据量。
例如也可以是,所述三维数据是三维的点群数据。
据此,能够提高第2周边信息的精确度。
例如也可以是,在所述显示步骤,将所述第2周边信息显示到平视显示器,所述显示方法进一步按照搭乘所述移动体的用户的姿势、体型或眼睛的位置,对所述第2周边信息的显示位置进行调整。
据此,能够按照用户的姿势、体型或眼睛的位置,将信息显示在恰当的位置。
并且,本申请的一个形态所涉及的显示装置与移动体协作来动作,该显示装置包括:决定部,根据所述移动体的驾驶状况,决定对第1周边信息和第2周边信息的哪一个进行显示,所述第1周边信息是利用二维数据而生成的示出所述移动体的周边状况的影像,所述第2周边信息是利用三维数据而生成的示出所述移动体的周边状况的影像;以及显示部,对决定的将要显示的所述第1周边信息或所述第2周边信息进行显示。
据此,该显示装置能够根据移动体的驾驶状况,来对是显示第1周边信息还是显示第2周边信息进行切换,该第1周边信息是利用二维数据生成的,该第2周边信息是利用三维数据生成的。例如,该显示装置在需要详细的信息的情况下,显示信息量多的第2周边信息,在除此以外的情况下,显示数据量以及处理量等少的第1周边信息。据此,该显示装置能够在显示与状况相符的恰当的信息的同时,减少通信数据量以及处理量等。
另外,这些概括性的或具体的形态可以由系统、方法、集成电路、计算机程序或计算机可读取的CD-ROM等记录介质来实现,而且可以由系统、方法、集成电路、计算机程序以及记录介质的任意的组合来实现。
以下参照附图对实施方式进行具体说明。另外,以下将要说明的实施方式均为示出本申请的一个具体例子。以下的实施方式所示的数值、形状、材料、构成要素、构成要素的配置位置以及连接形态、步骤、步骤的顺序等均为一个例子,其主旨并非是对本申请进行限定。并且,针对以下的实施方式的构成要素之中没有记载在示出最上位概念的技术方案中的构成要素,作为任意的构成要素来说明。
(实施方式1)
首先,对本实施方式所涉及的编码三维数据(以下也记作编码数据)的数据结构进行说明。图1示出了本实施方式所涉及的编码三维数据的构成。
在本实施方式中,三维空间被划分为相当于动态图像的编码中的图片的空间(SPC),以空间为单位对三维数据进行编码。空间被进一步划分为相当于动态图像编码中的宏块等的体积(VLM),以VLM为单位进行预测以及转换。体积包括与位置坐标相对应的最小单位即多个体素(VXL)。另外,预测是指,与二维图像中进行的预测相同,参照其他的处理单位,生成与处理对象的处理单位类似的预测三维数据,并对该预测三维数据与处理对象的处理单位的差异进行编码。并且,该预测不仅包括参照同一时刻的其他的预测单位的空间预测,而且包括参照不同时刻的预测单位的时间预测。
例如,三维数据编码装置(以下也记作编码装置)在对由点云数据等的点群数据来表现的三维空间进行编码时,按照体素的大小,对点群的各个点或体素内所包含的多个点一并进行编码。若将体素细分,则能够对点群的三维形状进行高精度的表现,若将体素的大小增大,则能够对点群的三维形状进行粗略的表现。
另外,以下虽然以三维数据为点云数据的情况为例进行说明,但是,三维数据并非受点云数据所限,也可以是任意形式的三维数据。
并且,可以利用阶层结构的体素。在这种情况下,在n次的阶层中,可以按顺序示出在n-1次以下的阶层(n次的阶层的下层)中是否存在采样点。例如,在仅对n次的阶层进行解码时,当在n-1次以下的阶层存在采样点的情况下,能够视为n次阶层的体素的中心存在采样点来进行解码。
并且,编码装置通过距离传感器、立体摄影机、单眼相机、回转仪、或惯性传感器等来获得点群数据。
关于空间,与动态图像的编码同样,至少被分类为以下三个预测结构的任一个,这三个预测结构为:能够单独解码的帧内空间(I-SPC)、仅能单向参照的预测空间(P-SPC)、以及能够双向参照的双向空间(B-SPC)。并且,空间具有解码时刻和显示时刻这两种时刻信息。
并且,如图1所示,作为包括多个空间的处理单位,有作为随机存取单位的GOS(Group Of Space:空间群)。而且,作为包括多个GOS的处理单位,存在世界空间(WLD)。
世界空间所占的空间区域通过GPS或纬度以及经度信息等,与地球上的绝对位置建立了对应。该位置信息作为元信息而被存放。另外,元信息可以包含在编码数据中,也可以与编码数据分开来传输。
并且,在GOS内,所有的SPC可以是三维上的邻接,也可以存在与其他的SPC不是三维上邻接的SPC。
另外,以下将与GOS、SPC或VLM等处理单位中包含的三维数据所对应的编码、解码或参照等处理,也简单地记作对处理单位进行编码、解码或参照等。并且,处理单位中所包含的三维数据例如包括三维坐标等空间位置与颜色信息等特性值的至少一个组。
接着,对GOS中的SPC的预测结构进行说明。同一GOS内的多个SPC、或同一SPC内的多个VLM虽然彼此占有不同的空间,却持有相同的时刻信息(解码时刻以及显示时刻)。
并且,在GOS内,在解码顺序上为开头的SPC是I-SPC。并且,GOS中存在封闭式GOS和开放式GOS这两种。封闭式GOS是从开头I-SPC开始解码时,能够对GOS内的所有的SPC进行解码的GOS。在开放式GOS中,在GOS内,比开头I-SPC的显示时刻早的一部分SPC参照不同的GOS,只能在该GOS进行解码。
另外,在地图信息等的编码数据中,有从与编码顺序相反的方向对WLD进行解码的情况,若在GOS间存在依存性,则难以进行逆方向再生。因此,在这种情况下,基本上采用封闭式GOS。
并且,GOS在高度方向上具有层结构,从底下的层的SPC开始顺序进行编码或解码。
图2示出了属于GOS的最下层的层的SPC间的预测结构的一个例子。图3示出了层间的预测结构的一个例子。
在GOS内中存在一个以上的I-SPC。在三维空间内虽然存在人、动物、汽车、自行车、信号灯、或成为陆上标志的建筑物等对象,但是,尤其是将尺寸小的对象作为I-SPC来编码时有效。例如,三维数据解码装置(以下也记作解码装置)在对GOS以低处理量或高速进行解码时,仅对GOS内的I-SPC进行解码。
并且,编码装置可以按照WLD内的对象的疏密程度,对I-SPC的编码间隔或出现频率进行切换。
并且,在图3所示的构成中,编码装置或解码装置针对多个层从下层(层1)开始依次进行编码或解码。据此,例如针对自动行走的车辆等而言,能够提高信息量多的地面附近的数据的优先级。
另外,在无人机(drone)等使用的编码数据中,在GOS内,可以从高度方向的上方的层的SPC开始依次进行编码或解码。
并且,编码装置或解码装置也可以是以解码装置大致掌握GOS并能够逐渐提高分辨率的方式,来对多个层进行编码或解码。例如,编码装置或解码装置可以按照层3、8、1、9……的顺序进行编码或解码。
接着,对静态对象以及动态对象的对应方法进行说明。
在三维空间中存在建筑物或道路等静态对象或场景(以后统一称为静态对象)、以及车辆或人等动态对象(以后称为动态对象)。对象的检测可以通过从点云数据的数据、或立体摄影机等拍摄影像等中提取特征点来另外执行。在此,对动态对象的编码方法的例子进行说明。
第一方法是不区别静态对象与动态对象而进行编码的方法。第二方法是通过识别信息来区别静态对象与动态对象的方法。
例如,GOS被用作识别单位。在这种情况下,包括构成静态对象的SPC的GOS、与包括构成动态对象的SPC的GOS在编码数据内、或由与编码数据分开存放的识别信息来区別。
或者,SPC被用作识别单位。在这种情况下,仅包括构成静态对象的VLM的SPC、与包括构成动态对象的VLM的SPC,由上述的识别信息来区別。
或者,可以将VLM或VXL用作识别单位。在这种情况下,包括静态对象的VLM或VXL、与包括动态对象的VLM或VXL由上述的识别信息来区別。
并且,编码装置可以将动态对象作为一个以上的VLM或SPC来进行编码,将包括静态对象的VLM或SPC、与包括动态对象的SPC作为彼此不同的GOS来进行编码。并且,编码装置在按照动态对象的大小而GOS的大小成为可变的情况下,将GOS的大小作为元信息来另外存放。
并且,编码装置使静态对象与动态对象彼此独立地编码,针对由静态对象构成的世界空间,可以重叠动态对象。此时,动态对象由一个以上的SPC构成,各SPC与构成重叠了该SPC的静态对象一个以上的SPC对应。另外,动态对象可以不由SPC来表现,可以由一个以上的VLM或VXL来表现。
并且,编码装置可以将静态对象与动态对象作为彼此不同的流来编码。
并且,编码装置也可以生成包括构成动态对象的一个以上的SPC的GOS。而且,编码装置可以将包括动态对象的GOS(GOS_M)、与和GOS_M的空间区域对应的静态对象的GOS设定为大小相同(占有相同的空间区域)。这样,能够以GOS为单位来进行重叠处理。
构成动态对象的P-SPC或B-SPC也可以参照编码完毕的不同的GOS中包含的SPC。动态对象的位置随着时间发生变化,同一动态对象作为不同时刻的GOS而被编码的情况中,跨越GOS的参照从压缩率的观点来看是有效的。
并且,也可以按照编码数据的用途,来对上述的第一方法与第二方法进行切换。例如,在编码三维数据作为地图而被应用的情况下,由于希望与动态对象分离,因此,编码装置采用第二方法。另外,编码装置在对音乐会或体育等活动的三维数据进行编码的情况下,若无需对动态对象进行分离,则采用第一方法。
并且,GOS或SPC的解码时刻与显示时刻能够存放在编码数据内、或作为元信息存放。并且,静态对象的时刻信息可以全部相同。此时,实际的解码时刻与显示时刻可以由解码装置来决定。或者,作为解码时刻,按照每个GOS或SPC来赋予不同的值,作为显示时刻,也可以全被赋予同一个值。而且,如HEVC的HRD(Hypothetical Reference Decoder)等动态图像编码中的解码器模式所示,解码器具有规定的大小的缓冲器,只要按照解码时刻,以规定的比特率读取比特流,就可以导入不会被破坏且保证能够解码的模型。
接着,对世界空间内的GOS的配置进行说明。世界空间中的三维空间的坐标由彼此正交的三个坐标轴(x轴、y轴、z轴)来表现。通过在GOS的编码顺序中设定规定的规则,从而在空间上邻接的GOS能够在编码数据内进行连续的编码。例如在图4所示的例子中,对xz平面内的GOS进行连续的编码。在一个xz平面内的所有的GOS的编码结束后,对y轴的值进行更新。即,随着不断地编码,世界空间向y轴方向延伸。并且,GOS的索引编号被设定为编码顺序。
在此,世界空间的三维空间与GPS、或纬度以及经度等地理上的绝对坐标一一对应。或者,可以由相对于预先设定的基准位置的相对位置来表现三维空间。三维空间的x轴、y轴、z轴的方向作为基于纬度以及经度等而被决定的方向矢量来表现,该方向矢量作为元信息与编码数据一同存放。
并且,GOS的大小被设定为固定,编码装置将该大小作为元信息来存放。并且,GOS的大小例如可以根据是否为市内或者室内、室外等来进行切换。即,GOS的大小可以按照具有作为信息的价值的对象的量或性质来进行切换。或者,编码装置可以在同一世界空间内,按照对象的密度等,对GOS的大小、或GOS内的I-SPC的间隔进行恰当地切换。例如,编码装置在对象的密度越高的情况下,就越将GOS的大小设定为小、将GOS内的I-SPC的间隔设定为短。
在图5的例子中,在从第3至第10个GOS的区域中,由于对象的密度高,因此,为了实现微小粒度的随机存取,则GOS被细分。并且,从第7到第10个GOS分别存在于第3至第6个GOS的背面。
接着,对本实施方式所涉及的三维数据编码装置的构成以及工作的流程进行说明。图6是本实施方式所涉及的三维数据编码装置100的方框图。图7是示出三维数据编码装置100的工作例子的流程图。
图6所示的三维数据编码装置100通过对三维数据111进行编码,来生成编码三维数据112。该三维数据编码装置100具备:获得部101、编码区域决定部102、划分部103、以及编码部104。
如图7所示,首先,获得部101获得作为点群数据的三维数据111(S101)。
接着,编码区域决定部102从获得的点群数据所对应的空间区域中,决定编码对象的区域(S102)。例如,编码区域决定部102按照用户或车辆的位置,将该位置的周边的空间区域决定为编码对象的区域。
接着,划分部103将编码对象的区域中包含的点群数据划分为各个处理单位。在此,处理单位是上述的GOS以及SPC等。并且,该编码对象的区域例如与上述的世界空间对应。具体而言,划分部103根据预先设定的GOS的大小、动态对象的有无或大小,将点群数据划分为处理单位(S103)。并且,划分部103在各个GOS中决定在编码顺序中成为开头的SPC的开始位置。
接着,编码部104通过对各个GOS内的多个SPC进行依次编码,来生成编码三维数据112(S104)。
另外,在此,在将编码对象的区域划分为GOS以及SPC之后,虽然示出了对各个GOS进行编码的例子,不过,处理的顺序并非受上述所限。例如,可以在决定了一个GOS的构成之后,对该GOS进行编码,在此之后决定GOS的构成等顺序。
这样,三维数据编码装置100通过对三维数据111进行编码,来生成编码三维数据112。具体而言,三维数据编码装置100将三维数据划分为随机存取单位,即划分为分别与三维坐标对应的第一处理单位(GOS),将第一处理单位(GOS)划分为多个第二处理单位(SPC),将第二处理单位(SPC)划分为多个第三处理单位(VLM)。并且,第三处理单位(VLM)包括一个以上的体素(VXL),体素(VXL)是与位置信息对应的最小单位。
接着,三维数据编码装置100通过对多个第一处理单位(GOS)的每一个进行编码,来生成编码三维数据112。具体而言,三维数据编码装置100在各个第一处理单位(GOS),对多个第二处理单位(SPC)的每一个进行编码。并且,三维数据编码装置100在各个第二处理单位(SPC),对多个第三处理单位(VLM)的每一个进行编码。
例如,三维数据编码装置100在处理对象的第一处理单位(GOS)为封闭式GOS的情况下,针对处理对象的第一处理单位(GOS)中包含的处理对象的第二处理单位(SPC),参照处理对象的第一处理单位(GOS)中包含的其他的第二处理单位(SPC)进行编码。即,三维数据编码装置100不参照与处理对象的第一处理单位(GOS)不同的第一处理单位(GOS)中包含的第二处理单位(SPC)。
并且,在处理对象的第一处理单位(GOS)为开放式GOS的情况下,针对处理对象的第一处理单位(GOS)中包含的处理对象的第二处理单位(SPC),参照处理对象的第一处理单位(GOS)中包含的其他的第二处理单位(SPC)、或与处理对象的第一处理单位(GOS)不同的第一处理单位(GOS)中包含的第二处理单位(SPC)进行编码。
并且,三维数据编码装置100,作为处理对象的第二处理单位(SPC)的类型,从不参照其他的第二处理单位(SPC)的第一类型(I-SPC)、参照其他的一个第二处理单位(SPC)的第二类型(P-SPC)、以及参照其他的两个第二处理单位(SPC)的第三类型中选择一个,并按照选择的类型,对处理对象的第二处理单位(SPC)进行编码。
接着,对本实施方式所涉及的三维数据解码装置的构成以及工作的流程进行说明。图8是本实施方式所涉及的三维数据解码装置200的方框图。图9是示出三维数据解码装置200的工作例子的流程图。
图8所示的三维数据解码装置200通过对编码三维数据211进行解码,来生成解码三维数据212。在此,编码三维数据211例如是在三维数据编码装置100生成的编码三维数据112。该三维数据解码装置200具备:获得部201、解码开始GOS决定部202、解码SPC决定部203、以及解码部204。
首先,获得部201获得编码三维数据211(S201)。接着,解码开始GOS决定部202决定为解码对象的GOS(S202)。具体而言,解码开始GOS决定部202参照编码三维数据211内或与编码三维数据分别存放的元信息,将包括开始解码的空间位置、对象、或与时刻对应的SPC的GOS决定为解码对象的GOS。
接着,解码SPC决定部203决定在GOS内进行解码的SPC的类型(I、P、B)(S203)。例如,解码SPC决定部203对(1)是否仅解码I-SPC、(2)是否解码I-SPC以及P-SPC、(3)是否解码所有的类型进行决定。另外,在解码所有的SPC等预先规定了将要解码的SPC的类型的情况下,也可以不进行本步骤。
接着,解码部204获得在GOS内的解码顺序(与编码顺序相同)中为开头的SPC,在编码三维数据211内开始的地址位置,从该地址位置获得开头SPC的编码数据,从该开头SPC依次对各个SPC进行解码(S204)。并且,上述地址位置被存放在元信息等中。
这样,三维数据解码装置200对解码三维数据212进行解码。具体而言,三维数据解码装置200通过对分别与三维坐标对应的第一处理单位(GOS)的编码三维数据211的每一个进行解码,来生成作为随机存取单位的第一处理单位(GOS)的解码三维数据212。更具体而言,三维数据解码装置200在各个第一处理单位(GOS)对多个第二处理单位(SPC)的每一个进行解码。并且,三维数据解码装置200在各个第二处理单位(SPC)对多个第三处理单位(VLM)的每一个进行解码。
以下对随机存取用的元信息进行说明。该元信息由三维数据编码装置100生成,包含在编码三维数据112(211)中。
在以往的二维的动态图像的随机存取中,解码是从指定的时刻的附近的随机存取单位的开头帧开始的。然而,在世界空间中,除了时刻以外还设想了针对(坐标或对象等)的随机存取。
因此,为了至少实现对坐标、对象、以及时刻这三个要素的随机存取,准备了对各个要素与GOS的索引编号建立了对应的表。而且,将GOS的索引编号与成为GOS的开头的I-SPC的地址建立对应。图10示出了元信息中包含的表的一个例子。另外,无需使用图10所示的所有的表,至少使用一个表即可。
以下作为一个例子,对以坐标为起点的随机存取进行说明。在针对坐标(x2、y2、z2)进行存取时,首先参照坐标-GOS表,可以知道坐标为(x2、y2、z2)的地点包含在第二个GOS中。接着,参照GOS地址表,由于可以知道第二个GOS中开头的I-SPC的地址为addr(2),因此解码部204从该地址获得数据,并开始解码。
另外,地址可以是逻辑格式中的地址,也可以是HDD或存储器的物理地址。并且,也可以取代地址而采用对文件段进行确定的信息。例如,文件段是对一个以上的GOS等进行分段后的单位。
并且,在对象为跨越多个GOS的情况下,在对象GOS表中也可以示出多个对象所属的GOS。若该多个GOS为封闭式GOS,编码装置以及解码装置能够并行进行编码或解码。另外,若该多个GOS为开放式GOS,则通过多个GOS彼此相互参照,从而能够进一步提高压缩效率。
作为对象的例子有人、动物、汽车、自行车、信号灯、或成为陆上标志的建筑物等。例如,三维数据编码装置100在世界空间的编码时,从三维的点云数据等中提取对象所特有的特征点,根据该特征点来检测对象,并能够将检测的对象设定为随机存取点。
这样,三维数据编码装置100生成第一信息,该第一信息示出多个第一处理单位(GOS)、以及与多个第一处理单位(GOS)的每一个对应的三维坐标。并且,编码三维数据112(211)包括该第一信息。并且,第一信息进一步示出与多个第一处理单位(GOS)的每一个对应的对象、时刻以及数据存放目的地之中的至少一个。
三维数据解码装置200从编码三维数据211中获得第一信息,利用第一信息来确定与被指定的三维坐标、对象或时刻对应的第一处理单位的编码三维数据211,并对该编码三维数据211进行解码。
以下对其他的元信息的例子进行说明。除了随机存取用的元信息以外,三维数据编码装置100还可以生成并存放以下的元信息。并且,三维数据解码装置200也可以将该元信息在解码时利用。
在将三维数据作为地图信息来利用的情况下等,按照用途来规定档次(profile),示出该档次的信息可以包含在元信息内。例如规定了面向市区或郊外的档次、或者规定了面向飞行物的档次,并且分别定义了世界空间、SPC或VLM的最大或最小的大小等。例如,在面向市区的档次中,需要比郊外更详细的信息,因此VLM的最小尺寸被设定得较小。
元信息也可以包括示出对象的种类的标签值。该标签值与构成对象的VLM、SPC、或GOS对应。可以按照对象的种类等来设定标签值,例如标签值“0”表示“人”、标签值“1”表示“汽车”、标签值“2”表示“信号灯”。或者,在对象的种类难以判断或不需要判断的情况下,也可以使用表示大小、或是动态对象还是静态对象等性质的标签值。
并且,元信息也可以包括示出世界空间所占的空间区域的范围的信息。
并且,元信息也可以作为编码数据的流全体、或GOS内的SPC等多个SPC所共享的头信息,来存放SPC或VXL的大小。
并且,元信息也可以包括点云数据的生成中所使用的距离传感器或摄像机等识别信息,或者包括示出点云数据内的点群的位置精度的信息。
并且,元信息可以包括示出世界空间是仅由静态对象构成还是含有动态对象的信息。
以下对本实施方式的变形例进行说明。
编码装置或解码装置可以对彼此不同的2个以上的SPC或GOS并行进行编码或解码。并行进行编码或解码的GOS能够根据示出GOS的空间位置的元信息等来决定。
在将三维数据作为车辆或飞行物体等移动时的空间地图来使用、或者生成这种空间地图的情况等中,编码装置或解码装置可以对基于GPS、路径信息、或缩放倍率等而被确定的空间中包含的GOS或SPC进行编码或解码。
并且,解码装置也可以从离自身位置或行走路径近的空间开始依次进行解码。编码装置或解码装置也可以使离自身位置或行走路径远的空间的优先级比近的空间的优先级低,来进行编码或解码。在此,使优先级降低是指,降低处理顺序、降低分辨率(筛选后处理)、或降低画质(提高编码效率。例如加大量化步长)等。
并且,解码装置在对空间内被分阶层编码的编码数据进行解码时,也可以仅解码低阶层。
并且,解码装置也可以按照地图的缩放倍率或用途,先从低阶层开始进行解码。
并且,在汽车或机器人的自动走行时所进行的自身位置估计或物体识别等用途中,编码装置或解码装置也可以将距离路面规定高度以内的区域(进行识别的区域)之外的区域的分辨率降低来进行编码或解码。
并且,编码装置也可以对表现室内和室外的空间形状的点云数据分别独立地进行编码。例如通过将表现室内的GOS(室内GOS)与表现室外的GOS(室外GOS)分开,从而解码装置在利用编码数据时,能够按照视点位置来选择将要解码的GOS。
并且,编码装置可以使坐标近的室内GOS和室外GOS在编码流中邻接,来进行编码。例如,编码装置将两者的标识符对应起来,对示出在编码流内、或另外存放的元信息内建立了对应的标识符的信息进行存放。据此,解码装置能够参照元信息内的信息,来识别坐标近的室内GOS与室外GOS。
并且,编码装置也可以在室内GOS与室外GOS对GOS或SPC的大小进行切换。例如,编码装置在室内与室外相比,将GOS的大小设定得较小。并且,编码装置也可以在室内GOS和室外GOS,对从点云数据提取特征点时的精确度或对象检测的精确度等进行变更。
并且,编码装置可以将用于解码装置将动态对象与静态对象进行区分显示的信息附加到编码数据。据此,解码装置能够对动态对象与红色框或说明用的文字等进行组合来表示。另外,解码装置也可以取代动态对象而仅用红色框或说明用文字来表示。并且,解码装置可以表示更详细的对象类别。例如,汽车可以采用红色框,人可以采用黄色框。
并且,编码装置或解码装置可以按照动态对象的出现频度、或静态对象与动态对象的比例等,将动态对象与静态对象作为不同的SPC或GOS,来决定是否进行编码或解码。例如,在动态对象的出现频度或比例超过阈值的情况下,动态对象与静态对象混在的SPC或GOS则被允许,在动态对象的出现频度或比例没有超过阈值的情况下,动态对象与静态对象混在的SPC或GOS则不会被允许。
在动态对象不是从点云数据而是从摄像机的二维图像信息检测时,编码装置可以对用于识别检测结果的信息(框或文字等)与对象位置分别获得,将这些信息作为三维的编码数据的一部分来编码。在这种情况下,解码装置针对静态对象的解码结果,使表示动态对象的辅助信息(框或文字)重叠显示。
并且,编码装置可以按照静态对象的形状的复杂程度等,对VXL或VLM的疏密程度进行变更。例如,编码装置在静态对象的形状越复杂的情况下,就越将VXL或VLM设定成密。而且,编码装置可以按照VXL或VLM的疏密程度,来决定在对空间位置或色信息进行量化时的量化步长等。例如,编码装置在VXL或VLM越密的情况下,就越将量化步长设定为小。
如以上所示,本实施方式所涉及的编码装置或解码装置以具有坐标信息的空间单位,来进行空间的编码或解码。
并且,编码装置以及解码装置在空间内以体积单位来进行编码或解码。体积包括与位置信息对应的最小单位即体素。
并且,编码装置以及解码装置通过将包括坐标、对象、以及时间等的空间信息的各个要素与GOP建立了对应的表、或在各个要素间对应的表,使任意的要素之间建立对应来进行编码或解码。并且,解码装置利用被选择的要素的值来判断坐标,并根据坐标来确定体积、体素或空间,对包括该体积或体素的空间、或被确定的空间进行解码。
并且,编码装置通过特征点提取或对象识别,来判断能够由要素选择的体积、体素或空间,并作为能够随机存取的体积、体素或空间来编码。
空间被分为三种类型,即:以该空间单体能够编码或解码的I-SPC、参照任意的一个处理完毕的空间来编码或解码的P-SPC、参照任意的两个处理完毕的空间来编码或解码的B-SPC。
一个以上的体积与静态对象或动态对象对应。包含静态对象的空间与包含动态对象的空间彼此作为不同的GOS而被编码或解码。即,包含静态对象的SPC与包含动态对象的SPC被分配到不同的GOS。
动态对象按每个对象来编码或解码,与仅包含静态对象的一个以上的空间对应。即,多个动态对象被分别编码,得到的多个动态对象的编码数据与仅包含静态对象的SPC对应。
编码装置以及解码装置提高GOS内的I-SPC的优先级,来进行编码或解码。例如,编码装置以使I-SPC的劣化减少的方式(解码后,原本的三维数据能够更忠实地被再现)来进行编码。并且,解码装置例如仅对I-SPC进行解码。
编码装置可以按照世界空间内的对象的疎密程度或数值(数量),改变利用I-SPC的频度,来进行编码。即,编码装置按照三维数据中包含的对象的数量或疏密程度,来变更对I-SPC进行选择的频度。例如,编码装置在世界空间内的对象的密度越大的情况下,就越提高I空间的使用频度。
并且,编码装置以GOS为单位对随机存取点进行设定,将示出与GOS对应的空间区域的信息存放到头信息。
编码装置例如采用默认值来作为GOS的空间大小。另外,编码装置也可以按照对象或动态对象的数值(数量)或疏密程度来变更GOS的大小。例如,编码装置在对象或动态对象越密或数量越多的情况下,就越将GOS的空间大小设定为小。
并且,空间或体积包括利用深度传感器、回转仪、或摄像机等传感器得到的信息而被导出的特征点群。特征点的坐标被设定为体素的中心位置。并且,通过体素的细分化,能够实现位置信息的高精度化。
特征点群利用多个图片而被导出。多个图片至少具有以下的两种时刻信息,即:实际的时刻信息、以及与空间对应的在多个图片中的同一个时刻信息(例如,用于速率控制等的编码时刻)。
并且,以包括一个以上的空间的GOS为单位来进行编码或解码。
编码装置以及解码装置参照处理完毕的GOS内的空间,对处理对象的GOS内的P空间或B空间进行预测。
或者,编码装置以及解码装置不参照不同的GOS,利用处理对象的GOS内的处理完毕的空间,对处理对象的GOS内的P空间或B空间进行预测。
并且,编码装置以及解码装置以包括一个以上的GOS的世界空间为单位,来发送或接收编码流。
并且,GOS至少在世界空间内的一个方向上具有层结构,编码装置以及解码装置从下位层开始进行编码或解码。例如,能够随机存取的GOS属于最下位层。属于上位层的GOS仅参照属于同一层以下的层的GOS。即,GOS在预先规定的方向上被空间划分,包括分别具有一个以上的SPC的多个层。编码装置以及解码装置针对各个SPC,通过参照与该SPC为同一层或比该SPC下层的层中包含的SPC来进行编码或解码。
并且,编码装置以及解码装置在包括多个GOS的世界空间单位内,连续地对GOS进行编码或解码。编码装置以及解码装置将示出编码或解码的顺序(方向)的信息作为元数据进行写入或读取。即,编码数据包括示出多个GOS的编码顺序的信息。
并且,编码装置以及解码装置对彼此不同的两个以上的空间或GOS并行进行编码或解码。
并且,编码装置以及解码装置对空间或GOS的空间信息(坐标、大小等)进行编码或解码。
并且,编码装置以及解码装置对根据GPS、路径信息或倍率等与自己的位置或/以及区域大小有关的外部信息,而被确定的特定空间中包含的空间或GOS进行编码或解码。
编码装置或解码装置使离自己的位置远的空间的优先级低于离自己近的空间,来进行编码或解码。
编码装置按照倍率或用途,对世界空间中的一个方向进行设定,对在该方向上具有层结构的GOS进行编码。并且,解码装置针对按照倍率或用途而被设定的在世界空间的一个方向具有层结构的GOS,从下位层开始优先进行解码。
编码装置使室内和室外的空间中所包含的特征点提取、对象识别的精度、或空间区域大小等发生变化。但是,编码装置以及解码装置将坐标近的室内GOS与室外GOS在世界空间内相邻来进行编码或解码,将这些标识符也对应起来进行编码或解码。
(实施方式2)
在将点云数据的编码数据用于实际的装置或服务时,为了抑制网络带宽,而希望按照用途来对所需要的信息进行收发。然而,至今的三维数据的编码结构中不存在这样的功能,因此也没有与此相对的编码方法。
在本实施方式中将要说明的是,用于提供在三维的点云数据的编码数据中,按照用途来对所需要的信息进行收发的功能的三维数据编码方法以及三维数据编码装置、还有对该编码数据进行解码的三维数据解码方法以及三维数据解码装置。
将具有一定以上的特征量的体素(VXL)定义为特征体素(FVXL),将以FVXL构成的世界空间(WLD)定义为稀疏世界空间(SWLD)。图11示出了稀疏世界空间以及世界空间的构成例。在SWLD中包括:FGOS,是以FVXL构成的GOS;FSPC,是以FVXL构成的SPC;以及FVLM,是以FVXL构成的VLM。FGOS、FSPC以及FVLM的数据结构以及预测结构可以与GOS、SPC以及VLM相同。
特征量是指,对VXL的三维位置信息、或VXL位置的可见光信息进行表现的特征量,尤其是立体物的角部以及边缘等能够检测到较多的特征量。具体而言,该特征量虽然是以下所述的三维特征量或可见光的特征量,除此之外,只要是表示VXL的位置、亮度、或颜色信息等的特征量,可以是任意的特征量。
作为三维特征量,采用SHOT特征量(Signature of Histograms ofOrienTations:方位直方图特征)、PFH特征量(Point Feature Histograms:点特征直方图)、或PPF特征量(Point Pair Feature:点对特征)。
SHOT特征量通过对VXL周边进行划分,并对基准点与被划分的区域的法线向量的内积进行计算,进行直方图化而得到的。该SHOT特征量具有维数高、特征表现力高的特征。
PFH特征量是通过在VXL附近选择多个2点组,根据这2点算出法线向量等,并进行直方图化而得到的。该PFH特征量由于是直方图特征,针对少量干扰具有橹棒性,而且具有特征表现力高的特征。
PPF特征量是按照2点的VXL,利用法线向量等而算出的特征量。在该PPF特征量中,由于使用所有的VXL,因此针对遮蔽具有橹棒性。
并且,作为可见光的特征量,能够使用采用了图像的亮度梯度信息等信息的SIFT(Scale-Invariant Feature Transform:尺度不变特征转换)、SURF(Speeded Up RobustFeatures:加速稳健特征)、或HOG(Histogram of Oriented Gradients:方向梯度直方图)等。
SWLD是通过从WLD的各VXL算出上述特征量,并提取FVXL而生成的。在此,SWLD可以在WLD每次被更新时来更新,也可以是与WLD的更新定时无关,在一定时间经过后定期地进行更新。
SWLD可以按照每个特征量来生成。例如基于SHOT特征量的SWLD1和基于SIFT特征量的SWLD2所示,可以按照每个特征量来分别生成SWLD,并按照用途来区分使用SWLD。并且,也可以将算出的各FVXL的特征量作为特征量信息来保持到各FVXL。
接着,对稀疏世界空间(SWLD)的利用方法进行说明。由于SWLD仅包含特征体素(FVXL),因此,与包括所有的VXL的WLD相比,数据大小一般比较小。
在利用特征量来实现某种目的的应用中,通过取代WLD而利用SWLD的信息,能够抑制从硬盘的读出时间,并且能够抑制网络传输时的频带以及传输时间。例如,作为地图信息,事先将WLD和SWLD保持到服务器,通过按照来自客户端的需求来将发送的地图信息切换为WLD或SWLD,从而能够抑制网络带宽以及传输时间。以下示出具体的例子。
图12以及图13示出了SWLD以及WLD的利用例。如图12所示,在作为车载装置的客户端1需要作为自身位置判断用途的地图信息的情况下,客户端1向服务器发送自身位置估计用的地图数据的获取需求(S301)。服务器按照该获取需求将SWLD发送给客户端1(S302)。客户端1利用接收的SWLD进行自身位置判断(S303)。此时,客户端1通过测距仪等距离传感器、立体摄像机、或多个单眼相机的组合等各种方法,来获取客户端1的周边的VXL信息,根据得到的VXL信息和SWLD来估计自身位置信息。在此,自身位置信息包括客户端1的三维位置信息以及朝向等。
如图13所示,在作为车载装置的客户端2需要作为三维地图等地图描绘的用途的地图信息的情况下,客户端2将地图描绘用的地图数据的获取需求发送给服务器(S311)。服务器按照该获取需求,将WLD发送给客户端2(S312)。客户端2利用接收的WLD来进行地图描绘(S313)。此时,客户端2例如使用自己用可见光摄像机等拍摄的图像、以及从服务器获取的WLD,来制成构思图像,将制成的图像描绘到汽车导航等画面。
如以上所示,服务器在主要需要自身位置估计这种各VXL的特征量的用途中,将SWLD发送给客户端,像地图描绘那样,在需要详细的VXL信息的情况下,将WLD发送给客户端。据此,能够高效地对地图数据进行收发。
另外,客户端可以判断自己需要SWLD和WLD的哪一个,并向服务器请求SWLD或WLD的发送。并且,服务器可以根据客户端或网络的状况,来判断应该发送SWLD或WLD的哪一个。
接着,将要说明的是对稀疏世界空间(SWLD)与世界空间(WLD)的收发进行切换的方法。
可以按照网络带宽来对WLD或SWLD的接收进行切换。图14示出了这种情况下的工作例。例如,在能够使用LTE(Long Term Evolution:长期演进)环境下等的网络带宽的低速网络被使用的情况下,客户端经由低速网络来向服务器进行存取时(S321),从服务器获取作为地图信息的SWLD(S322)。另外在使用WiFi环境下等网络带宽有富余的高速网络的情况下,客户端经由高速网络来向服务器进行存取(S323),从服务器获取WLD(S324)。据此,客户端能够按照该客户端的网络带宽来获取恰当的地图信息。
具体而言,客户端在室外经由LTE来接收SWLD,在进入到设施等室内的情况下,经由WiFi来获取WLD。据此,客户端能够获取室内的更加详细的地图信息。
这样,客户端可以按照自身所使用的网络的频带,向服务器请求WLD或SWLD。或者,客户端可以将示出自身所使用的网络的频带的信息发送给服务器,服务器按照该信息,向该客户端发送恰当的数据(WLD或SWLD)。或者,服务器可以判别客户端的网络带宽,向该客户端发送恰当的数据(WLD或SWLD)。
并且,可以按照移动速度来对WLD或SWLD的接收进行切换。图15示出了这种情况下的工作例。例如,在客户端高速移动的情况下(S331),客户端从服务器接收SWLD(S332)。另外,在客户端低速移动的情况下(S333),客户端从服务器接收WLD(S334)。据此,客户端既能够抑制网络带宽,又能够按照速度来获得地图信息。具体而言,客户端在高速公路行驶中,通过接收数据量少的SWLD,从而大致能够以恰当的速度来更新地图信息。另外,在客户端在一般道路行驶时,通过接收WLD,从而能够获取更加详细的地图信息。
这样,客户端可以按照自身的移动速度向服务器请求WLD或SWLD。或者,客户端可以将示出自身的移动速度的信息发送给服务器,服务器按照该信息,向该客户端发送恰当的数据(WLD或SWLD)。或者,服务器可以判别客户端的移动速度,向该客户端发送恰当的数据(WLD或SWLD)。
并且,也可以是,客户端先从服务器获取SWLD,而后获取其中的重要区域的WLD。例如,客户端在获取地图数据时,首先以SWLD获取概略的地图信息,从中筛选建筑物、标识、或人物等的特征出现较多的区域,之后再获得筛选后的区域的WLD。据此,客户端既能够抑制来自服务器的接收数据量,又能够获取所需要的区域的详细信息。
并且,也可以是,服务器根据WLD按照每个物体来分别制作SWLD,客户端按照用途来分别进行接收。据此,能够抑制网络带宽。例如,服务器从WLD中预先识别人或车,制作出人的SWLD和车的SWLD。客户端在想获取周围的人的信息的情况下,接收人的SWLD,在想获取车的信息的情况下,接收车的SWLD。并且,这种SWLD的种类可以根据被附加在头部等的信息(标志或类型等)来区別。
接着,对本实施方式所涉及的三维数据编码装置(例如服务器)的构成以及工作的流程进行说明。图16是本实施方式所涉及的三维数据编码装置400的方框图。图17是由三维数据编码装置400进行三维数据编码处理的流程图。
图16所示的三维数据编码装置400,通过对输入三维数据411进行编码,从而生成作为编码流的编码三维数据413以及414。在此,编码三维数据413是与WLD对应的编码三维数据,编码三维数据414是与SWLD对应的编码三维数据。该三维数据编码装置400具备:获得部401、编码区域决定部402、SWLD提取部403、WLD编码部404、以及SWLD编码部405。
如图17所示,首先,获得部401获得作为三维空间内的点群数据的输入三维数据411(S401)。
接着,编码区域决定部402根据点群数据所存在的空间区域,来决定编码对象的空间区域(S402)。
接着,SWLD提取部403将编码对象的空间区域定义为WLD,根据WLD中包含的各VXL算出特征量。并且,SWLD提取部403提取特征量为预先规定的阈值以上的VXL,将提取的VXL定义为FVXL,通过将该FVXL追加到SWLD,从而生成提取三维数据412(S403)。即,从输入三维数据411提取特征量为阈值以上的提取三维数据412。
接着,WLD编码部404通过对与WLD对应的输入三维数据411进行编码,从而生成与WLD对应的编码三维数据413(S404)。此时,WLD编码部404将用于区别该编码三维数据413是包含WLD的流的信息附加到编码三维数据413的头部。
并且,SWLD编码部405通过对与SWLD对应的提取三维数据412进行编码,从而生成与SWLD对应的编码三维数据414(S405)。此时,SWLD编码部405将用于区别该编码三维数据414是包含SWLD的流的信息附加到编码三维数据414的头部。
并且,生成编码三维数据413的处理与生成编码三维数据414的处理的处理顺序也可以与上述相反。并且,上述的处理的一部分或全部也可以并行执行。
作为被赋予到编码三维数据413以及414的头部的信息例如被定义为“world_type”这种参数。在world_type=0的情况下,表示流包含WLD,在world_type=1的情况下,表示流包含SWLD。在定义其他的更多的类别的情况下,可以如world_type=2这样,增加分配的数值。并且,在编码三维数据413以及414的一方中可以包含特定的标志。例如,在编码三维数据414可以被赋予包括示出该流包含SWLD的标志。在这种情况下,解码装置可以根据标志的有无,来判别是包含WLD的流、还是包含SWLD的流。
并且,WLD编码部404对WLD进行编码时使用的编码方法可以与SWLD编码部405对SWLD进行编码时使用的编码方法不同。
例如,由于在SWLD数据被抽选,这与WLD相比,与周边的数据的相关有可能变低。因此,在用于SWLD的编码方法中,与用于WLD的编码方法相比,帧内预测以及帧间预测之中的帧间预测被优先。
并且,也可以是在用于SWLD的编码方法与用于WLD的编码方法中,三维位置的表现手法不同。例如,可以是,在FWLD由三维坐标来表现FVXL的三维位置,在WLD通过后述的八叉树来表现三维位置,并且可以是相反的。
并且,SWLD编码部405以SWLD的编码三维数据414的数据大小比WLD的编码三维数据413的数据大小小的方式进行编码。例如以上所述,SWLD与WLD相比,数据间的相关有可能降低。据此,编码効率降低,编码三维数据414的数据大小有可能比WLD的编码三维数据413的数据大小大。因此,SWLD编码部405在得到的编码三维数据414的数据大小比WLD的编码三维数据413的数据大小大的情况下,通过进行再编码,从而再次生成降低了数据大小的编码三维数据414。
例如,SWLD提取部403再次生成提取的特征点的数量减少了的提取三维数据412,SWLD编码部405对该提取三维数据412进行编码。或者,可以将SWLD编码部405中的量化程度变得粗糙。例如,在后述的八叉树结构中,通过对最下层的数据进行舍入,从而能够使量化的程度变得粗糙。
并且,SWLD编码部405在不能将SWLD的编码三维数据414的数据大小比WLD的编码三维数据413的数据大小小的情况下,也可以不生成SWLD的编码三维数据414。或者,可以将WLD的编码三维数据413复制到SWLD的编码三维数据414。即,作为SWLD的编码三维数据414,可以直接使用WLD的编码三维数据413。
接着,对本实施方式所涉及的三维数据解码装置(例如客户端)的构成以及工作的流程进行说明。图18是本实施方式所涉及的三维数据解码装置500的方框图。图19是三维数据解码装置500进行三维数据解码处理的流程图。
图18所示的三维数据解码装置500通过对编码三维数据511进行解码,从而生成解码三维数据512或513。在此,编码三维数据511例如是在三维数据编码装置400生成的编码三维数据413或414。
该三维数据解码装置500具备:获得部501、头部解析部502、WLD解码部503、以及SWLD解码部504。
如图19所示,首先,获得部501获得编码三维数据511(S501)。接着,头部解析部502对编码三维数据511的头部进行解析,判别编码三维数据511是包含WLD的流、还是包含SWLD的流(S502)。例如,参照上述的world_type的参数来进行判别。
在编码三维数据511是包含WLD的流的情况下(S503的“是”),WLD解码部503对编码三维数据511进行解码,从而生成WLD的解码三维数据512(S504)。另外,在编码三维数据511是包含SWLD的流的情况下(S503的“否”),SWLD解码部504对编码三维数据511进行解码,从而生成SWLD的解码三维数据513(S505)。
并且,与编码装置同样,WLD解码部503在对WLD进行解码时使用的解码方法、与SWLD解码部504对SWLD进行解码时使用的解码方法可以不同。例如,在用于SWLD的解码方法中,与用于WLD的解码方法相比,可以使帧内预测以及帧间预测中的帧间预测优先。
并且,在用于SWLD的解码方法与用于WLD的解码方法中,三维位置的表现手法可以不同。例如,在SWLD可以通过三维坐标来表现FVXL的三维位置,在WLD可以通过后述的八叉树来表现三维位置,并且也可以相反。
接着,对作为三维位置的表现手法的八叉树表现进行说明。三维数据中包含的VXL数据被转换为八叉树结构后被编码。图20示出了WLD的VXL的一个例子。图21示出了图20所示的WLD的八叉树结构。在图20所示的例子中,存在作为包含点群的VXL(以下,有效VXL)的三个VXL1~3。如图21所示,八叉树结构由节点和树叶构成。各节点最大具有8个节点或树叶。各树叶具有VXL信息。在此,图21所示的树叶之中,树叶1、2、3分别表示图20所示的VXL1、VXL2、VXL3。
具体而言,各节点以及树叶与三维位置对应。节点1与图20所示的所有的块对应。与节点1对应的块被划分为8个块,8个块之中,包括有效VXL的块被设定为节点,除此以外的块被设定为树叶。与节点对应的块进一步被划分为8个节点或树叶,这种处理被重复的次数与树状结构中的阶层数相同。并且,最下层的块全被设定为树叶。
并且,图22示出了从图20所示的WLD生成的SWLD的例子。图20所示的VXL1以及VXL2的特征量提取的结果被判断为FVXL1以及FVXL2,被加入到SWLD。另外,VXL3没有被判断为FVXL,因此不包含在SWLD中。图23示出了图22所示的SWLD的八叉树结构。在图23所示的八叉树结构中,图21所示的、相当于VXL3的树叶3被删除。据此,图21所示的节点3没有有效VXL,而被变更为树叶。这样,一般而言,SWLD的树叶数比WLD的树叶数少,SWLD的编码三维数据也比WLD的编码三维数据小。
以下对本实施方式的变形例进行说明。
例如也可以是,在车载装置等客户端在进行自身位置估计时,从服务器接收SWLD,利用SWLD进行自身位置估计,并进行障碍物检测的情况下,利用测距仪等距离传感器、立体摄像机、或多个单眼相机的组合等各种方法,根据自身获得的周边的三维信息来执行障碍物检测。
并且,一般而言,在SWLD中很难包含平坦区域的VXL数据。为此,服务器保持用于静止的障碍物的检测的对WLD进行了下采样的下采样世界空间(subWLD),并可以将SWLD与subWLD发送给客户端。据此,既能够抑制网络带宽,又能够在客户端侧进行自身位置估计以及障碍物检测。
并且,在客户端快速描绘三维地图数据时,地图信息为网格结构则会有方便的情况。于是,服务器可以根据WLD生成网格,作为网格世界空间(MWLD)来事先保持。例如,在客户端需要进行粗糙的三维描绘时则接收MWLD,在需要进行详细的三维描绘时则接收WLD。据此,能够抑制网络带宽。
并且,服务器虽然从各VXL中,将特征量为阈值以上的VXL设定为FVXL,不过也可以通过不同的方法来算出FVXL。例如,服务器将构成信号或交叉点等的VXL、VLM、SPC、或GOS判断为在自身位置估计、驾驶辅助、或自动驾驶等中需要,则可以作为FVXL、FVLM、FSPC、FGOS而包含在SWLD。并且,上述判断可以通过手动进行。另外,可以在基于特征量而设定的FVXL等中加入由上述方法得到的FVXL等。即,SWLD提取部403进一步可以从输入三维数据411,将与具有预先规定的属性的物体对应的数据作为提取三维数据412来提取。
并且,可以针对需要用于这些用途的状况赋予与特征量不同的标签。服务器可以将信号或交叉点等自身位置估计、驾驶辅助、或自动驾驶等中所需要的FVXL,作为SWLD的上位层(例如车道(lane)世界空间)而另外保持。
并且,服务器也可以按照随机存取单位或规定的单位,将属性附加到WLD内的VXL。属性例如包括:示出自身位置估计中所需要的或不需要的信息、或示出作为信号或交叉点等交通信息是否重要等信息。并且,属性中也可以包括车道信息(GDF:Geographic DataFiles等)中的与Feature(交叉点或道路等)的对应关系。
并且,作为WLD或SWLD的更新方法,可以采用如下的方法。
示出人、施工、或街道树(面向轨迹)的变化等更新信息作为点群或元数据被加载到服务器。服务器根据该加载来更新WLD,在此之后,利用更新的WLD来更新SWLD。
并且,在客户端对自身位置估计时自身所生成的三维信息与从服务器接收的三维信息的不匹配进行检测的情况下,可以将自身所生成的三维信息与更新通知一起发送到服务器。在这种情况下,服务器利用WLD来更新SWLD。在SWLD没有被更新的情况下,服务器判断WLD自身是旧的。
并且,作为编码流的头部信息,虽然附加了用于区别是WLD还是SWLD的信息,例如在网格世界空间或车道世界空间等存在多种世界空间的情况下,用于对他们进行区別的信息可以被附加到头部信息。并且,在特征量不同的SWLD存在多个的情况下,用于对他们分别进行区別的信息也可以被附加到头部信息。
并且,SWLD虽然由FVXL来构成,不过也可以包括没有被判断为FVXL的VXL。例如,SWLD可以包括在算出FVXL的特征量时所使用的邻接VXL。据此,即使在SWLD的各FVXL没有附加特征量信息的情况下,客户端也能够在接收SWLD时来算出FVXL的特征量。另外,此时,SWLD可以包括用于区别各VXL是FVXL还是VXL的信息。
如以上所述,三维数据编码装置400从输入三维数据411(第1三维数据)提取特征量为阈值以上的提取三维数据412(第2三维数据),通过对提取三维数据412进行编码,来生成编码三维数据414(第1编码三维数据)。
据此,三维数据编码装置400生成对特征量为阈值以上的数据进行编码而得到的编码三维数据414。这样,与直接对输入三维数据411进行编码的情况相比,能够减少数据量。因此,三维数据编码装置400能够减少传输时的数据量。
并且,三维数据编码装置400进一步通过对输入三维数据411进行编码,来生成编码三维数据413(第2编码三维数据)。
据此,三维数据编码装置400例如按照使用用途等,能够对编码三维数据413与编码三维数据414进行有选择地传输。
并且,提取三维数据412由第1编码方法而被编码,输入三维数据411由与第1编码方法不同的第2编码方法而被编码。
据此,三维数据编码装置400能够针对输入三维数据411与提取三维数据412分别采用恰当的编码方法。
并且,在第1编码方法中,与第2编码方法相比,帧内预测以及帧间预测之中的帧间预测被优先。
据此,三维数据编码装置400能够针对邻接的数据间的相关容易变低的提取三维数据412,来提高帧间预测的优先级。
并且,在第1编码方法与第2编码方法中,三维位置的表现手法不同。例如在第2编码方法中,由八叉树来表现三维位置,在第1编码方法中,由三维坐标来表现三维位置。
据此,三维数据编码装置400针对数据数(VXL或FVXL的数量)不同的三维数据,能够采用更加恰当的三维位置的表现手法。
并且,在编码三维数据413以及414的至少一方包括,示出该编码三维数据是通过对输入三维数据411进行编码而得到的编码三维数据、还是通过对输入三维数据411之中的一部分进行编码而得到的编码三维数据的标识符。即,该标识符示出编码三维数据是WLD的编码三维数据413、还是SWLD的编码三维数据414。
据此,解码装置能够容易地判断获取的编码三维数据是编码三维数据413还是编码三维数据414。
并且,三维数据编码装置400以编码三维数据414的数据量比编码三维数据413的数据量少的方式,对提取三维数据412进行编码。
据此,三维数据编码装置400能够使编码三维数据414的数据量比编码三维数据413的数据量少。
并且,三维数据编码装置400进一步,从输入三维数据411将与具有预先规定的属性的物体对应的数据,作为提取三维数据412来提取。例如,具有预先规定的属性的物体是指,自身位置估计、驾驶辅助、或自动驾驶等中所需要的物体,是信号或交叉点等。
据此,三维数据编码装置400能够生成包括解码装置所需要的数据的编码三维数据414。
并且,三维数据编码装置400(服务器)进一步按照客户端的状态,将编码三维数据413以及414的一方发送到客户端。
据此,三维数据编码装置400能够按照客户端的状态,来发送恰当的数据。
并且,客户端的状态包括客户端的通信状况(例如网络带宽)或客户端的移动速度。
并且,三维数据编码装置400进一步按照客户端的请求,将编码三维数据413以及414的一方发送到客户端。
据此,三维数据编码装置400能够按照客户端的请求,发送恰当的数据。
并且,本实施方式所涉及的三维数据解码装置500对由上述三维数据编码装置400生成的编码三维数据413或414进行解码。
即,三维数据解码装置500通过第1解码方法,对从输入三维数据411提取的特征量为阈值以上的提取三维数据412被编码而得到的编码三维数据414进行解码。并且,三维数据解码装置500对输入三维数据411被编码而得到的编码三维数据413,利用与第1解码方法不同的第2解码方法进行解码。
据此,三维数据解码装置500针对特征量为阈值以上的数据被编码而得到的编码三维数据414与编码三维数据413,例如能够按照使用用途等来有选择地接收。据此,三维数据解码装置500能够减少传输时的数据量。而且,三维数据解码装置500能够针对输入三维数据411与提取三维数据412分别采用恰当的解码方法。
并且,在第1解码方法中,与第2解码方法相比,帧内预测以及帧间预测之中的帧间预测被优先。
据此,三维数据解码装置500针对邻接的数据间的相关容易变低的提取三维数据,能够提高帧间预测的优先级。
并且,在第1解码方法与第2解码方法中,三维位置的表现手法不同。例如在第2解码方法中通过八叉树来表现三维位置,在第1解码方法中通过三维坐标来表现三维位置。
据此,三维数据解码装置500针对数据数(VXL或FVXL的数量)不同的三维数据,能够采用更恰当的三维位置的表现手法。
并且,编码三维数据413以及414的至少一方包括标识符,该标识符示出该编码三维数据是通过对输入三维数据411进行编码而得到的编码三维数据、还是通过对输入三维数据411中的一部分进行编码而得到的编码三维数据。三维数据解码装置500参照该标识符,来识别编码三维数据413以及414。
据此,三维数据解码装置500能够容易地判断获得的编码三维数据是编码三维数据413还是编码三维数据414。
并且,三维数据解码装置500进一步将客户端(三维数据解码装置500)的状态通知给服务器。三维数据解码装置500按照客户端的状态,来接收从服务器发送的编码三维数据413以及414的一方。
据此,三维数据解码装置500能够按照客户端的状态来接收恰当的数据。
并且,客户端的状态包括客户端的通信状况(例如网络带宽)或客户端的移动速度。
并且,三维数据解码装置500进一步向服务器请求编码三维数据413以及414的一方,并按照该请求,接收从服务器发送的编码三维数据413以及414的一方。
据此,三维数据解码装置500能够接收与用途对应的恰当的数据。
(实施方式3)
在本实施方式中,对车辆间的三维数据的收发方法进行说明。
图24是示出自身车辆600与周围车辆601之间的三维数据607的收发的状态的模式图。
在通过被搭载于自身车辆600的传感器(测距仪等距离传感器、立体摄影机、或多个单眼相机的组合等)来获取三维数据的情况下,由于周围车辆601等障碍物的影响,虽然在自身车辆600的传感器检测范围602内,但是会出现不能制作三维数据的区域(以后将此称为遮挡区域604)。并且,虽然获得三维数据的空间越大,自主动作的精确度就会越高,但是,仅自身车辆600的传感器检测范围是有限的。
自身车辆600的传感器检测范围602包括能够获得三维数据的区域603以及遮挡区域604。自身车辆600想要获得三维数据的范围包括自身车辆600的传感器检测范围602、以及除此以外的区域。并且,周围车辆601的传感器检测范围605包括遮挡区域604、以及自身车辆600的传感器检测范围602中没有包括的区域606。
周围车辆601将周围车辆601检测的信息传输到自身车辆600。自身车辆600通过获得前方行驶车辆等周围车辆601检测的信息,从而能够获得遮挡区域604、以及自身车辆600的传感器检测范围602以外的区域606的三维数据607。自身车辆600利用周围车辆601获得的信息,对遮挡区域604以及传感器检测范围外的区域606的三维数据进行补充。
车辆或机器人的自主动作中的三维数据的用途为自身位置估计、周围状况的检测、或者这双方。例如,在自身位置估计中根据自身车辆600的传感器信息,而使用以自身车辆600生成的三维数据。在周围状况的检测中,除了以自身车辆600生成的三维数据以外,还使用由周围车辆601获得的三维数据。
用于将三维数据607传输给自身车辆600的周围车辆601,可以按照自身车辆600的状态来决定。例如,该周围车辆601是自身车辆600直行时的前方行驶车辆、自身车辆600右转时的对向车辆、自身车辆600后退时的后方车辆。并且,也可以是,自身车辆600的驾驶人直接指定用于将三维数据607传输到自身车辆600的周围车辆601。
并且,自身车辆600也可以搜索想要获得三维数据607的空间内包含的、持有自身车辆600不能获得的区域的三维数据的周围车辆601。自身车辆600不能获得的区域是指;遮挡区域604或传感器检测范围602以外的区域606等。
并且,自身车辆600也可以根据自身车辆600的传感器信息,来确定遮挡区域604。例如,自身车辆600将自身车辆600的传感器检测范围602内包含的、不能制作三维数据的区域确定为遮挡区域604。
以下对传输三维数据607的是前方行驶车辆的情况下的工作例子进行说明。图25示出了这种情况下的被传输的三维数据的一个例子。
如图25所示,从前方行驶车辆传输的三维数据607例如是点云数据的稀疏世界空间(SWLD)。即,前方行驶车辆根据该前方行驶车辆的传感器所检测的信息,制作WLD的三维数据(点云数据),通过从WLD的三维数据提取特征量为阈值以上的数据,来制作SWLD的三维数据(点云数据)。并且,前方行驶车辆将制作的SWLD的三维数据传输到自身车辆600。
自身车辆600接受SWLD,并将接受的SWLD合并到自身车辆600所制作的点云数据。
被传输的SWLD具有绝对坐标(三维图的坐标系中的SWLD的位置)的信息。自身车辆600根据该绝对坐标,对由自身车辆600生成的点云数据进行叠加,从而能够实现合并处理。
从周围车辆601传输的SWLD可以是自身车辆600的传感器检测范围602外、且周围车辆601的传感器检测范围605内的区域606的SWLD、或者可以是相对于自身车辆600的遮挡区域604的SWLD、或者可以是这双方的SWLD。并且,被传输的SWLD也可以是,上述的SWLD中的、周围车辆601在进行周围状况的检测时使用的区域的SWLD。
并且,周围车辆601可以按照基于自身车辆600与周围车辆601的速度差的可通信时间,使被传输的点云数据的密度发生变化。例如,在速度差大而可通信时间短的情况下,周围车辆601可以通过从SWLD中提取特征量大的三维点,来降低点云数据的密度(数据量)。
并且,周围状况的检测是指,判断是否有人、车辆、以及道路施工用的器材等的存在,确定其种类,并对其位置、移动方向以及移动速度等进行的检测。
并且,也可以是,自身车辆600取代由周围车辆601生成的三维数据607而获得周围车辆601的制动信息、或者除了三维数据607以外,还获得周围车辆601的制动信息。在此,周围车辆601的制动信息例如是示出周围车辆601的加速器或制动器被踩下、或者示出被踩下的程度的信息。
并且,在各个车辆生成的点云数据,考虑车辆间的低延迟通信,将三维空间细分为随机存取单位。另外,在从服务器下载的地图数据,与车辆间通信的情况相比,三维地图等被划分为大的随机存取单位。
前方行驶车辆的前方的区域或后方行驶车辆的后方的区域等容易成为遮挡区域的区域的数据,作为面向低延迟的数据,被划分为小的随机存取单位。
在高速行驶时,由于正面的重要性增高,各车辆在高速行驶时,将视角窄的范围的SWLD,以小的随机存取单位来制作。
在前方行驶车辆为了进行传输而制作的SWLD内,包括以自身车辆600能够获得点云数据的区域的情况下,前方行驶车辆可以通过去除该区域的点云数据来减少传输量。
接着,对作为本实施方式所涉及的三维数据接收装置的三维数据制作装置620的构成以及工作进行说明。
图26是本实施方式所涉及的三维数据制作装置620的方框图。该三维数据制作装置620例如被包括在上述的自身车辆600,通过将接收的第2三维数据635与三维数据制作装置620所制作的第1三维数据632进行合成,从而制作更密的第3三维数据636。
该三维数据制作装置620具备:三维数据制作部621、请求范围决定部622、搜索部623、接收部624、解码部625、以及合成部626。图27是示出三维数据制作装置620的工作的流程图。
首先,三维数据制作部621利用由自身车辆600具备的传感器检测的传感器信息631,制作第1三维数据632(S621)。接着,请求范围决定部622决定请求范围,该请求范围是指制作的第1三维数据632中的数据不够的三维空间范围(S622)。
接着,搜索部623对持有请求范围的三维数据的周围车辆601进行搜索,将示出请求范围的请求范围信息633,发送到通过搜索而确定的周围车辆601(S623)。接着,接收部624从周围车辆601接收作为请求范围的编码流的编码三维数据634(S624)。另外,搜索部623可以针对确定的范围中存在的所有的车辆无差别地发出请求,从有应答的对方接收编码三维数据634。并且,搜索部623并非受限于车辆,也可以向信号机或标识等物体发出请求,并从该物体接收编码三维数据634。
接着,通过解码部625对接收的编码三维数据634进行解码,而获得第2三维数据635(S625)。接着,通过合成部626对第1三维数据632与第2三维数据635进行合成,来制作更密的第3三维数据636(S626)。
接着,对本实施方式所涉及的三维数据发送装置640的构成以及工作进行说明。图28是三维数据发送装置640的方框图。
三维数据发送装置640例如包括在上述的周围车辆601中,将周围车辆601制作的第5三维数据652加工为自身车辆600所请求的第6三维数据654,并通过对第6三维数据654进行编码来生成编码三维数据634,将编码三维数据634发送到自身车辆600。
三维数据发送装置640具备:三维数据制作部641、接收部642、提取部643、编码部644、以及发送部645。图29是示出三维数据发送装置640的工作流程图。
首先,三维数据制作部641利用由周围车辆601具备的传感器检测的传感器信息651,制作第5三维数据652(S641)。接着,接收部642接收从自身车辆600发送的请求范围信息633(S642)。
接着,通过提取部643从第5三维数据652提取由请求范围信息633表示的请求范围的三维数据,将第5三维数据652加工成第6三维数据654(S643)。接着,通过编码部644对第6三维数据654进行编码,从而生成作为编码流的编码三维数据634(S644)。于是,发送部645向自身车辆600发送编码三维数据634(S645)。
另外,在此,虽然对自身车辆600具备三维数据制作装置620,周围车辆601具备三维数据发送装置640的例子进行了说明,但是,各个车辆也可以具有三维数据制作装置620和三维数据发送装置640的功能。
以下,对三维数据制作装置620为实现自身车辆600的周围状况的检测处理的周围状况检测装置的情况下的构成以及工作进行说明。图30是示出这种情况下的三维数据制作装置620A的构成的方框图。图30所示的三维数据制作装置620A除了图26所示的三维数据制作装置620的构成以外,还具备:检测区域决定部627、周围状况检测部628、以及自主动作控制部629。并且,三维数据制作装置620A包括在自身车辆600中。
图31是由三维数据制作装置620A进行自身车辆600的周围状况检测处理的流程图。
首先,三维数据制作部621利用由自身车辆600具备的传感器检测的、自身车辆600的检测范围的传感器信息631,制作作为点云数据的第1三维数据632(S661)。另外,三维数据制作装置620A还可以利用传感器信息631,来进行自身位置估计。
接着,检测区域决定部627决定作为想要检测周围状况的空间区域的检测对象范围(S662)。例如,检测区域决定部627按照自身车辆600的行驶方向以及速度等自主动作(自动驾驶)的状况,算出为了进行安全的自主动作而在周围状况检测中所需要的区域,并将该区域决定为检测对象范围。
接着,请求范围决定部622将遮挡区域604、以及虽然是自身车辆600的传感器的检测范围外但却是周围状况检测所需要的空间区域,决定为请求范围(S663)。
在由步骤S663决定的请求范围存在的情况下(S664的“是”),搜索部623对持有与请求范围有关的信息的周围车辆进行搜索。例如,搜索部623可以向周围车辆询问是否持有与请求范围有关的信息,根据请求范围与周围车辆的位置,来判断该周围车辆是否持有与请求范围有关的信息。接着,搜索部623针对通过搜索而确定的周围车辆601,发送用于委托三维数据的传输的委托信号637。并且,搜索部623在接收到从周围车辆601发送的、表示接受委托信号637的委托的允许信号之后,将示出请求范围的请求范围信息633发送到周围车辆601(S665)。
接着,接收部624检测作为与请求范围有关的信息的发送数据638的传输通知,并接受该发送数据638(S666)。
另外,三维数据制作装置620A也可以不搜索发送请求的对方,而针对确定的范围内存在的所有的车辆,无差别地发出请求,从应答为持有与请求范围有关的信息的对方接收发送数据638。并且,搜索部623并非受车辆所限,也可以向信号机或标识等物体发出请求,并从该物体接收发送数据638。
并且,发送数据638包括由周围车辆601生成的、请求范围的三维数据被编码而得到的编码三维数据634、以及请求范围的周围状况检测结果639的至少一方。周围状况检测结果639示出周围车辆601所检测的人以及车辆的位置、移动方向以及移动速度等。并且,发送数据638也可以包括示出周围车辆601的位置以及移动等信息。例如,发送数据638也可以包括周围车辆601的制动信息。
在被接收的发送数据638中包括编码三维数据634的情况下(S667的“是”),通过解码部625对编码三维数据634进行解码,从而获得SWLD的第2三维数据635(S668)。即,第2三维数据635是通过从第4三维数据(WLD)提取特征量为阈值以上的数据,而被生成的三维数据(SWLD)。
接着,通过合成部626对第1三维数据632与第2三维数据635进行合成,从而生成第3三维数据636(S669)。
接着,周围状况检测部628利用周围状况检测时所需要的空间区域的点云数据即第3三维数据636,来检测自身车辆600的周围状况(S670)。另外,在被接收的发送数据638中包括周围状况检测结果639的情况下,周围状况检测部628除了第3三维数据636以外还利用周围状况检测结果639,来检测自身车辆600的周围状况。并且,在被接收的发送数据638中包括周围车辆601的制动信息的情况下,周围状况检测部628除了第3三维数据636以外还利用该制动信息,来检测自身车辆600的周围状况。
接着,自主动作控制部629根据由周围状况检测部628进行的周围状况检测结果,来控制自身车辆600的自主动作(自动驾驶)(S671)。另外,可以通过UI(用户接口)等,将周围状况检测结果提示给驾驶人。
并且,在步骤S663不存在请求范围的情况下(S664的“否”),即基于传感器信息631制作了周围状况检测时所需要的所有的空间区域的信息的情况下,周围状况检测部628利用周围状况检测时所需要的空间区域的点云数据即第1三维数据632,来检测自身车辆600的周围状况(S672)。于是,自主动作控制部629根据由周围状况检测部628进行的周围状况检测结果,来控制自身车辆600的自主动作(自动驾驶)(S671)。
并且,在被接收的发送数据638中不包括编码三维数据634的情况下(S667的“否”),即在发送数据638中仅包括周围车辆601的周围状况检测结果639或制动信息的情况下,周围状况检测部628利用第1三维数据632、以及周围状况检测结果639或制动信息,来检测自身车辆600的周围状况(S673)。于是,自主动作控制部629根据由周围状况检测部628进行的周围状况检测结果,来控制自身车辆600的自主动作(自动驾驶)(S671)。
接着,对将发送数据638发送向上述的三维数据制作装置620A的三维数据发送装置640A进行说明。图32是该三维数据发送装置640A的方框图。
图32所示的三维数据发送装置640A除了图28所示的三维数据发送装置640的构成以外,还具备传输可否判断部646。并且,三维数据发送装置640A包括在周围车辆601中。
图33是示出三维数据发送装置640A的工作例的流程图。首先,三维数据制作部641利用周围车辆601所具备的传感器检测的传感器信息651,来制作第5三维数据652(S681)。
接着,接收部642从自身车辆600,接收用于委托三维数据的传输请求的委托信号637(S682)。接着,传输可否判断部646决定是否应答由委托信号637示出的委托(S683)。例如,传输可否判断部646根据用户预先设定的内容,来决定是否应答委托。另外,也可以是,接收部642先接受请求范围等来自对方的请求,传输可否判断部646根据该内容来决定是否应答委托。例如,传输可否判断部646可以在持有请求范围的三维数据的情况下,决定为应答委托,在没有请求范围的三维数据的情况下,决定为不应答委托。
在应答委托的情况下(S683的“是”),三维数据发送装置640A将允许信号发送到自身车辆600,接收部642接收示出请求范围的请求范围信息633(S684)。接着,提取部643从作为点云数据的第5三维数据652取出请求范围的点云数据,制作包括取出的点云数据的SWLD即第6三维数据654的发送数据638(S685)。
即,可以是,三维数据发送装置640A根据传感器信息651制作第7三维数据(WLD),通过从第7三维数据(WLD)提取特征量为阈值以上的数据,来制作第5三维数据652(SWLD)。并且可以是,三维数据制作部641预先制作SWLD的三维数据,在提取部643从SWLD的三维数据提取请求范围的SWLD的三维数据,也可以是,提取部643根据请求范围的WLD的三维数据,生成请求范围的SWLD的三维数据。
并且,发送数据638可以包括由周围车辆601进行的请求范围的周围状况检测结果639、以及周围车辆601的制动信息。并且,发送数据638也可以不包括第6三维数据654,而可以仅包括由周围车辆601进行的请求范围的周围状况检测结果639、以及周围车辆601的制动信息的至少一方。
在发送数据638包括第6三维数据654的情况下(S686的“是”),编码部644对第6三维数据654进行编码,从而生成编码三维数据634(S687)。
于是,发送部645将包括编码三维数据634的发送数据638发送到自身车辆600(S688)。
并且,在发送数据638不包括第6三维数据654的情况下(S686的“否”),发送部645将包括由周围车辆601进行的请求范围的周围状况检测结果639、以及周围车辆601的制动信息的至少一方的发送数据638发送到自身车辆600(S688)。
以下对本实施方式的变形例进行说明。
例如,从周围车辆601传输的信息也可以不是周围车辆制作的三维数据或周围状况检测结果,而可以是周围车辆601自身的正确的特征点信息。自身车辆600利用该周围车辆601的特征点信息,来校正自身车辆600所获得的点云数据内的前方行驶车辆的特征点信息。据此,自身车辆600能够提高自身位置估计时的匹配精确度。
并且,前方行驶车辆的特征点信息例如是由色信息以及坐标信息构成的三维点信息。据此,即使自身车辆600的传感器是激光传感器、或是立体摄影机,也能够不依存于其种类,而使用前方行驶车辆的特征点信息。
另外,自身车辆600也并非受传输时所限,而可以在算出自身位置估计时的精确度时,使用SWLD的点云数据。例如,在自身车辆600的传感器为立体摄影机等撮像装置的情况下,对自身车辆600以摄像机拍摄的图像上的二维点进行检测,利用该二维点来估计自身位置。并且,自身车辆600在进行自身位置的估计的同时,制作周边物体的点云数据。自身车辆600将其中的SWLD的三维点,再次投影到二维图像上,根据二维图像上的检测点与再次进行的投影点的误差,来评价自身位置估计的精确度。
并且,在自身车辆600的传感器为LIDAR等激光传感器的情况下,自身车辆600根据利用制作的点云数据的SWLD、与三维地图的SWLD通过迭代最近点算法(Iterative ClosestPoint)而算出的误差,来对自身位置估计的精确度进行评价。
并且,在经由5G等基站或服务器的通信状态差的情况下,自身车辆600可以从周围车辆601获得三维地图。
并且,关于不能从自身车辆600的周边的车辆来获得的远处的信息,可以通过车与车之间的通信来获得。例如,关于在前方几百米或几公里处刚刚发生的交通事故信息等,自身车辆600可以通过与对向车辆会车时的通信、或在周围车辆依次传递的方式等来获得。此时,被传输的数据的数据形式为,作为动态的三维地图的上位层的元信息被传输。
并且,周围状况的检测结果、以及自身车辆600检测的信息可以通过用户接口来提示给用户。例如,通过重叠到导航的画面或挡风玻璃,来实现这些信息的提示。
并且,也可以不支援自动驾驶,在具有巡航定速的车辆,发现以自动驾驶模式行驶的周围车辆时,而可以跟踪该周围车辆。
并且,在不能获得三维地图、或因遮挡区域过多等原因而不能进行自身位置估计的情况下,自身车辆600可以将工作模式从自动驾驶模式切换为周围车辆的跟踪模式。
并且,在被跟踪的车辆可以将被跟踪的状况向用户发出警告,用户能够指定的是否允许跟踪的用户接口也可以被搭载。此时可以在跟踪车辆设计广告显示,在被跟踪一侧设计支付奖励等。
并且,被传输的信息虽然基本上是作为三维数据的SWLD,也可以是与被设定在自身车辆600的请求设定或前方行驶车辆的公开设定对应的信息。例如,被传输的信息可以是密度大的点云数据的WLD、也可以是由前方行驶车辆进行的周围状况的检测结果、前方行驶车辆的制动信息。
并且,自身车辆600接收WLD,将WLD的三维数据视觉化,并利用GUI将被视觉化后的三维数据提示给驾驶人。此时,自身车辆600可以采用自身车辆600制作的点云数据与接收的点云数据能够由用户区别的方式,采用不同的颜色表示信息,以进行提示。
并且,在自身车辆600利用GUI将自身车辆600所检测的信息和周围车辆601的检测结果提示给驾驶人的情况下,以自身车辆600所检测的信息与接收的检测结果能够由用户区別的方式,将信息进行颜色区分等来提示。
如以上所述,在本实施方式所涉及的三维数据制作装置620,三维数据制作部621根据传感器检测的传感器信息631,制作第1三维数据632。接收部624接收通过第2三维数据635被编码而得到的编码三维数据634。解码部625通过对接收的编码三维数据634进行解码,从而获得第2三维数据635。合成部626通过对第1三维数据632与第2三维数据635进行合成,从而制作第3三维数据636。
据此,三维数据制作装置620能够利用制作的第1三维数据632、接收的第2三维数据635,来制作详细的第3三维数据636。
并且,合成部626通过对第1三维数据632与第2三维数据635进行合成,从而能够制作密度比第1三维数据632以及第2三维数据635高的第3三维数据636。
并且,第2三维数据635(例如SWLD)是通过从第4三维数据(例如WLD)提取特征量为阈值以上的数据而被生成的三维数据。
据此,三维数据制作装置620能够减少传输的三维数据的数据量。
并且,三维数据制作装置620还包括搜索部623,对作为编码三维数据634的发送源的发送装置进行搜索。接收部624从搜索到的发送装置接收编码三维数据634。
据此,三维数据制作装置620例如能够通过搜索,来确定持有所需要的三维数据的发送装置。
并且,三维数据制作装置进一步具备请求范围决定部622,决定请求范围,该请求范围是请求三维数据的三维空间的范围。搜索部623将示出请求范围的请求范围信息633发送到发送装置。第2三维数据635包括请求范围的三维数据。
据此,三维数据制作装置620不仅能够接收所需要的三维数据,而且能够减少传输的三维数据的数据量。
并且,请求范围决定部622将包括传感器不能检测的遮挡区域604的空间范围,决定为请求范围。
并且,在本实施方式所涉及的三维数据发送装置640,三维数据制作部641根据传感器所检测的传感器信息651,来制作第5三维数据652。提取部643通过对第5三维数据652的一部分进行提取,从而制作第6三维数据654。编码部644通过对第6三维数据654进行编码,从而生成编码三维数据634。发送部645对编码三维数据634进行发送。
据此,三维数据发送装置640不仅能够将自身制作的三维数据发送到其他的装置,而且还能够减少传输的三维数据的数据量。
并且,三维数据制作部641根据传感器所检测的传感器信息651,来制作第7三维数据(例如WLD),通过从第7三维数据提取特征量为阈值以上的数据,从而制作第5三维数据652(例如SWLD)。
据此,三维数据发送装置640能够减少传输的三维数据的数据量。
并且,三维数据发送装置640进一步具备接收部642,从接收装置接收示出请求范围的请求范围信息633,所述请求范围是请求三维数据的三维空间的范围。提取部643通过从第5三维数据652提取请求范围的三维数据,从而制作第6三维数据654。发送部645将编码三维数据634发送到接收装置。
据此,三维数据发送装置640能够减少传输的三维数据的数据量。
(实施方式4)
在本实施方式中,对基于三维地图的自身位置估计中的有关异常状况的工作进行说明。
使机动车的自动驾驶、机器人、或者无人机等飞行物体等移动体自主的移动等用途今后将会扩大。作为实现这种自主的移动的方法的一个例子有,移动体一边估计自己在三维地图内的位置(自身位置估计),一边按照地图来行驶的方法。
自身位置估计是通过对三维地图、与搭载于自身车辆的测距仪(LiDAR等)或立体相机等传感器所获得的自身车辆周边的三维信息(以后称为自身车辆检测三维数据)进行匹配,并对三维地图内的自身车辆位置进行估计而实现的。
三维地图如HERE公司提出的HD地图等所示,不仅是三维的点云,而且可以包括道路以及交叉路口的形状信息等二维的地图数据、或堵塞以及事故等以实际时间发生变化的信息。由三维数据、二维数据、实际时间中发生变化的元数据等多个层次构成三维地图,装置可以仅获得需要的数据,或者也可以参考所需要的数据。
点云的数据可以是上述的SWLD,也可以包括不是特征点的点群数据。并且,点云的数据的收发基本上以一个或多个随机存取单位来执行。
作为三维地图与自身车辆检测三维数据的匹配方法,能够采用以下的方法。例如,装置对彼此的点云中的点群的形状进行比较,将特征点间的类似度高的部位决定为同一位置。并且,在三维地图由SWLD构成的情况下,装置对构成SWLD的特征点、与从自身车辆检测三维数据提取的三维特征点进行比较并进行匹配。
在此,为了高精度地进行自身位置估计,需要满足如下的(A)和(B),(A)已经能够获得三维地图和自身车辆检测三维数据,(B)他们的精度满足预先决定的基准。但是,在以下的这种异常情况中,(A)或(B)不能满足。
(1)通过通信路径不能获得三维地图。
(2)不存在三维地图,或者获得的三维地图被损坏。
(3)自身车辆的传感器出现故障,或者由于天气不好,自身车辆检测三维数据的生成精度不够。
以下对为了应对这些异常情况的工作进行说明。以下虽然以车辆为例对其工作进行说明,以下的方法也能够适用于机器人或无人机等进行自主移动的所有的运动物体。
以下将要说明的是为了对应三维地图或自身车辆检测三维数据中的异常情况的本实施方式所涉及的三维信息处理装置的构成以及工作。图34是示出本实施方式所涉及的三维信息处理装置700的构成例的方框图。图35是由三维信息处理装置700进行的三维信息处理方法的流程图。
三维信息处理装置700例如被搭载于机动车等移动物体。如图34所示,三维信息处理装置700具备:三维地图获得部701、自身车辆检测数据获得部702、异常情况判断部703、应对工作决定部704、以及工作控制部705。
另外,三维信息处理装置700也可以具备获得二维图像的相机,或者可以具备采用了超声波或激光的一维数据的传感器等用于检测自身车辆周边的结构物体或移动物体的未图示的二维或一维传感器。并且,三维信息处理装置700也可以具备通信部(未图示),该通信部用于通过4G或5G等移动体通信网、或者车与车之间的通信、道路与车之间的通信,来获得三维地图。
如图35所示,三维地图获得部701获得行驶路径附近的三维地图711(S701)。例如,三维地图获得部701通过移动体通信网、或车与车之间的通信、道路与车之间的通信获得三维地图711。
接着,自身车辆检测数据获得部702根据传感器信息,获得自身车辆检测三维数据712(S702)。例如,自身车辆检测数据获得部702根据由自身车辆所具备的传感器获得的传感器信息,生成自身车辆检测三维数据712。
接着,异常情况判断部703通过针对获得的三维地图711以及自身车辆检测三维数据712的至少一方执行预先决定的检查,来检测异常情况(S703)。即,异常情况判断部703对获得的三维地图711以及自身车辆检测三维数据712的至少一方判断是否为异常。
在步骤S703,在异常情况被检测出的情况下(S704的“是”)、应对工作决定部704决定针对异常情况的应对工作(S705)。接着,工作控制部705对三维地图获得部701等在应对工作的实施中所需要的各处理部的工作进行控制(S706)。
另外,在步骤S703,在异常情况没有检测出的情况下(S704的“否”),三维信息处理装置700结束处理。
并且,三维信息处理装置700利用三维地图711和自身车辆检测三维数据712,进行具有三维信息处理装置700的车辆的自身位置估计。接着,三维信息处理装置700利用自身位置估计的结果,使该车辆进行自动驾驶。
据此,三维信息处理装置700经由信道,获得包括第1三维位置信息的地图数据(三维地图711)。例如,第1三维位置信息以具有三维的坐标信息的部分空间为单位而被编码,第1三维位置信息包括多个随机存取单位,多个随机存取单位的每一个为一个以上的部分空间的集合体,且能够被独立解码。例如,第1三维位置信息是三维的特征量成为规定的阈值以上的特征点被编码的数据(SWLD)。
并且,三维信息处理装置700根据由传感器检测的信息,生成第2三维位置信息(自身车辆检测三维数据712)。接着,三维信息处理装置700通过针对第1三维位置信息或第2三维位置信息执行异常判断处理,来判断第1三维位置信息或所述第2三维位置信息是否为异常。
三维信息处理装置700在判断第1三维位置信息或第2三维位置信息为异常的情况下,决定针对该异常的应对工作。接着,三维信息处理装置700执行在应对工作的实施时所需要的控制。
据此,三维信息处理装置700能够检测第1三维位置信息或第2三维位置信息的异常,并能够进行应对工作。
以下对异常情况1即经由通信不能获得三维地图711的情况下的应对工作进行说明。
在进行自身位置估计时需要三维地图711,但是在车辆没有事先获得与到达目的地的路径对应的三维地图711的情况下,则需要通过通信来获得三维地图711。然而,由于信道的拥塞或电波接收状态的恶化等,会有车辆不能获得行驶路径上的三维地图711的情况。
异常情况判断部703确认到达目的地的路径上的所有的区间、或从当前位置的规定的范围内的区间中的三维地图711是否已经获得,在不能获得的情况下,判断为异常情况1。即,异常情况判断部703判断经由信道是否能够获得三维地图711(第1三维位置信息),在经由信道不能获得三维地图711的情况下,判断三维地图711为异常。
在判断为异常情况1的情况下,应对工作决定部704从以下的两个应对工作之中选择其中的一方,(1)继续进行自身位置估计,以及(2)停止自身位置估计。
首先,(1)对继续进行自身位置估计的情况下的应对工作的具体例子进行说明。在继续进行自身位置估计的情况下,则需要到达目的地的路径上的三维地图711。
例如,车辆对已经获得了三维地图711的范围内能够利用信道的场所进行判断,移动到该场所,获得三维地图711。此时,车辆可以获得到达目的地的所有的三维地图711,也可以在自身车辆的存储器或HDD等记录部中能够保持的上限大小内,按每个随机存取单位来获得三维地图711。
另外也可以进行如下的工作,车辆另外获得路径上的通信状态,在能够预测到路径上的通信状态变差的情况下,在到达通信状态差的区间之前,事先获得该区间的三维地图711,或者事先获得能够获得的最大范围的三维地图711。即,三维信息处理装置700预测车辆是否将会进入通信状态差的区域。三维信息处理装置700在预测到车辆将会进入通信状态差的区域的情况下,在该车辆进入该区域之前,获得三维地图711。
并且也可以是,车辆对比通常时的范围窄的、构成路径上的自身位置估计时所需要的最小限的三维地图711的随机存取单位进行确定,并接收确定的随机存取单位。即,三维信息处理装置700在经由信道不能获得三维地图711(第1三维位置信息)的情况下,可以经由信道获得比第1三维位置信息的范围窄的第3三维位置信息。
并且,车辆在不能向三维地图711的分发服务器进行访问的情况下,可以从在自身车辆周边行驶的其其他车辆等移动体获得三维地图711,此时的其其他车辆等为已经获得了到达目的地的路径上的三维地图711、且能够与自身车辆通信的移动体。
接着,对(2)停止自身位置估计的情况下的应对工作的具体例子进行说明。在这种情况下,不需要到达目的地的路径上的三维地图711。
例如,车辆将基于自身位置估计的自动驾驶等功能不能继续执行的状况通知给驾驶人,将工作模式转移为由驾驶人进行的人工操作模式。
通常在进行自身位置估计时,虽然有按照人的存在而级别不同的情况,但是执行自动驾驶。另外,自身位置估计的结果也有利用人在驾驶时的导航等的可能性。因此,自身位置估计的结果并非必需要用于自动驾驶。
并且,在车辆不能利用4G或5G等移动体通信网等通常使用的信道的情况下,确认经由道路与车辆间的Wi-Fi(注册商标)或毫米波通信、或者车与车之间的通信等其他的信道路径,是否能够获得三维地图711,可以将使用的信道切换为能够获得三维地图711的信道。
并且,在车辆不能获得三维地图711的情况下,也可以获得二维地图,利用二维地图与自身车辆检测三维数据712来继续进行自动驾驶。即,三维信息处理装置700在经由信道不能获得三维地图711的情况下,可以经由信道获得包括二维位置信息的地图数据(二维地图),利用二维位置信息与自身车辆检测三维数据712进行车辆的自身位置估计。
具体而言,车辆在自身位置估计中使用二维地图和自身车辆检测三维数据712,在周边的车辆、歩行人、以及障碍物等检测中使用自身车辆检测三维数据712。
在此,HD地图等的地图数据除了能够包括由三维的点云等构成的三维地图711,而且能够包括二维的地图数据(二维地图)、从二维的地图数据中提取了道路形状或交叉路口等具有特征的信息的简易版的地图数据、示出堵塞、事故或施工等实际时间信息的元数据。例如,地图数据具有从下位层开始依次配置的三维数据(三维地图711)、二维数据(二维地图)、元数据的层结构。
在此,二维的数据与三维的数据相比,数据小。因此,即使通信状态不好,车辆也能够获得二维地图。并且,车辆能够在通信状态良好的区间统一获得大范围的二维地图。因此,车辆在信道的状态差而难于获得三维地图711的情况下,可以不接收三维地图711而接收包括二维地图的层。另外,由于元数据的数据大小小,因此,例如车辆可以不受通信状态的影响而时常接收元数据。
在采用了二维地图和自身车辆检测三维数据712的自身位置估计的方法中例如有以下的两种方法。
第1个方法是进行二维特征量的匹配的方法。具体而言,车辆从自身车辆检测三维数据712提取二维的特征量,进行提取的二维的特征量与二维地图的匹配。
例如,车辆将自身车辆检测三维数据712投影到与二维地图为相同的平面,进行得到的二维数据与二维地图的匹配。匹配是利用从两者提取的二维的图像特征量执行的。
在三维地图711包括SWLD的情况下,三维地图711可以同时存放三维空间内的特征点上的三维特征量、以及与二维地图为同一平面内的二维的特征量。例如,在二维的特征量中被赋予识别信息。或者,二维的特征量被存放在与三维数据以及二维地图不同的层,车辆在获得二维地图的同时获得二维的特征量的数据。
在二维地图将道路内的白线、护栏以及建筑物等距离地上的高度不同的(不在同一平面内)位置的信息在同一地图内表示的情况下,车辆从自身车辆检测三维数据712的多个高度数据中提取特征量。
并且,示出二维地图中的特征点与三维地图711中的特征点的对应关系的信息,可以作为地图数据的元信息来存放。
第2个方法是进行三维特征量的匹配的方法。具体而言,车辆获得与二维地图的特征点对应的三维特征量,对获得的三维特征量、与自身车辆检测三维数据712的三维特征量进行匹配。
具体而言,与二维地图的特征点对应的三维特征量被存放在地图数据。车辆在获得二维地图时,也获得该三维特征量。另外,在三维地图711包括SWLD的情况下,通过赋予用于识别SWLD的特征点中的与二维地图的特征点对应的特征点的信息,从而,车辆能够根据识别信息,来决定与二维地图一起获得的三维特征量。另外,在这种情况下,由于只要能够表现二维位置即可,因此与表现三维位置的情况相比,能够减少数据量。
并且,在使用二维地图进行自身位置估计时,与三维地图711相比,自身位置估计的精度降低。因此,车辆判断即使在估计精度降低的情况下是否继续进行自动驾驶,只有在判断为能够继续的情况下才继续进行自动驾驶。
自动驾驶是否能够继续进行会受到如下的影响,即车辆行驶中的道路是市区地带、还是高速公路等其他的车辆或歩行人的进入较少的道路,或者道路宽度、道路的混乱程度(车辆或歩行人的密度)等行驶环境。而且,能够在企业用地、大街、或者建筑物内等配置用于使相机等传感器进行识别的标记。在这些特定的区域、由于能够由二维的传感器高精度地识别标记、例如通过在二维地图内包括标记的位置信息,从而能够执行高精度的自身位置估计。
并且,通过在地图内包括示出各区域是否为特定区域的识别信息等,从而车辆能够判断该车辆是否存在于特定区域内。车辆在该车辆存在于特定区域内的情况下,判断为继续自动驾驶。这样,车辆可以根据二维地图使用时的自身位置估计的精度、或车辆的行驶环境,来判断是否可以继续自动驾驶。
这样,三维信息处理装置700根据车辆的行驶环境(移动体的移动环境),能够判断是否进行采用了如下结果的车辆的自动驾驶,该结果是利用二维地图和自身车辆检测三维数据712进行了车辆的自身位置估计的结果。
并且,也可以是,车辆不进行是否可以继续进行自动驾驶的判断,而是按照自身位置估计的精度或车辆的行驶环境,来切换自动驾驶的级别(模式)。在此,对自动驾驶的级别(模式)的切换例如是指,对速度进行限制、增加驾驶人的操作量(降低自动驾驶的自动级别)、获得前方行驶车辆的行驶信息并参考该信息进行的模式切换、获得设定为同一目的地的车辆的驾驶信息并利用该信息进行的自动驾驶的模式切换等。
并且,地图可以包括与位置信息建立了对应的、示出利用二维地图进行自身位置估计的情况下的自动驾驶的推荐级别的信息。推荐级别可以是按照交通量等而发生动态变化的元数据。据此,车辆可以不必按照周边的环境等依次判断级别,而能够仅通过获得地图内的信息来决定级别。并且,通过多个车辆参照同一地图,从而能够将各个车辆的自动驾驶的级别保持稳定。另外,推荐级别也可以不是推荐的,而是必需遵守的级别。
并且,车辆可以按照是否有驾驶人(是有人还是无人),来进行自动驾驶的级别的切换。例如,车辆在有人的情况下降低自动驾驶的级别,在无人的情况下停止。车辆通过识别周边的通行人、车辆以及交通标识,来判断能够安全停止的位置。或者,地图可以包括示出车辆能够安全停止的位置的位置信息,车辆可以参照该位置信息来判断能够安全停止的位置。
接着,对异常情况2即三维地图711不存在、或获得的三维地图711损坏了的情况下的应对工作进行说明。
异常情况判断部703对属于以下的(1)和(2)的哪一种情况进行确认,在在属于其中的某个情况下判断为异常情况2,(1)到达目的地的路径上的一部分或所有的区间中的三维地图711不存在于成为访问目的地的分发服务器等而不能获得,或者(2)已获得的三维地图711的一部分或全部发生损坏。即,异常情况判断部703判断三维地图711的数据是否完备,在三维地图711的数据不完备的情况下,判断三维地图711为异常。
在判断为异常情况2的情况下,执行以下的应对工作。首先,对(1)不能获得三维地图711的情况下的应对工作的例子进行说明。
例如,车辆设定不通过没有三维地图711的区间的路径。
并且,车辆由于不存在代替的路径、或即使存在代替的路径但距离会大宽度度增加等理由,而不能设定代替的路径的情况下,设定包括没有三维地图711的区间的路径。并且,车辆在该区间向驾驶人通知进行驾驶模式的切换,以将驾驶模式切换为人工操作模式。
(2)在已获得的三维地图711的一部分或全部为毁坏的情况下,进行以下的应对工作。
车辆对三维地图711中的毁坏部位进行确定,通过通信来请求毁坏部位的数据,并获得该毁坏部位的数据,利用获得的数据对三维地图711进行更新。此时,车辆可以通过三维地图711中的绝对坐标或相对坐标等位置信息来指定毁坏部位,也可以通过构成毁坏部位的随机存取单位的索引编号来指定。在这种情况下,车辆以获得的随机存取单位来替换包括毁坏部位的随机存取单位。
接着,对异常情况3即自身车辆的传感器由于故障或不好的天气而不能生成自身车辆检测三维数据712的情况下的应对工作进行说明。
异常情况判断部703确认自身车辆检测三维数据712的生成误差是否在允许范围内,若不在允许范围则判断为异常情况3。即,异常情况判断部703判断自身车辆检测三维数据712的数据的生成精度是否为基准值以上,在自身车辆检测三维数据712的数据的生成精度不是基准值以上的情况下,将自身车辆检测三维数据712判断为异常。
作为自身车辆检测三维数据712的生成误差是否为允许范围内的确认方法,能够采用以下的方法。
根据测距仪或立体相机等自身车辆的三维传感器中的深度方向以及扫描方向的分辨率、或能够生成的点群的密度等,来预先决定正常工作时的自身车辆检测三维数据712的空间分辨率。并且,车辆根据三维地图711中包含的元信息等,来获得三维地图711的空间分辨率。
车辆利用两者的空间分辨率,来估计在根据三维特征量等对自身车辆检测三维数据712与三维地图711进行匹配时的匹配误差的基准值。作为匹配误差,能够利用每个特征点的三维特征量的误差、多个特征点间的三维特征量的误差的平均值等统计量、或多个特征点间的空间的距离的误差等。与基准值偏离的允许范围被事先设定。
车辆在开始行驶前或行驶中生成的自身车辆检测三维数据712与三维地图711的匹配误差不是允许范围内的情况下,判断为异常情况3。
或者可以是,车辆利用具有用于精度检查的已知的三维形状的测试模式,来获得针对行驶开始前等测试模式的自身车辆检测三维数据712,根据形状误差是否为允许范围内,来判断是否为异常情况3。
例如,车辆在行驶开始前每次都进行上述判断。或者,车辆通过在行驶中以一定的时间间隔等进行上述判断,从而获得匹配误差的时间序列变化。车辆在匹配误差具有增加倾向时,即使误差在允许范围内,也可以判断为是异常情况3。并且,车辆根据时间序列变化,在能够预测成为异常的情况下,可以通过对催促検査或修理的消息进行显示等,将预测到成为异常的状况通知给用户。并且,车辆针对因不好的天气等一时性的原因造成的异常、以及因传感器的故障导致的异常,通过时间序列变化来判断,可以仅将由于传感器的故障导致的异常通知给用户。
并且,车辆在判断为异常情况3的情况下,对如下三种应对工作的任一个进行选择,或者有选择地执行,(1)使应急用的代替传感器工作(救援模式)、(2)切换运转模式、(3)进行三维传感器的工作校正。
首先,(1)对使应急用的代替传感器工作的情况进行说明。车辆使与通常运转时所使用的三维传感器不同的应急用的代替传感器工作。即,三维信息处理装置700在自身车辆检测三维数据712的数据的生成精度不是基准值以上的情况下,根据与通常的传感器不同的代替由传感器所检测的信息,来生成自身车辆检测三维数据712(第4三维位置信息)。
具体而言,在车辆并用多个相机或LiDAR来获得自身车辆检测三维数据712的情况下,车辆根据自身车辆检测三维数据712的匹配误差超过允许范围的方向等,来确定工作不良的传感器。于是,车辆使与工作不良的传感器对应的代替传感器工作。
代替传感器可以是三维传感器,也可以是获得二维图像的相机,还可以是超声波等一维传感器等。在代替传感器为三维传感器以外的传感器的情况下,由于会有自身位置估计的精度降低、或不能进行自身位置估计的情况,因此,车辆可以按照代替传感器的种类来对自动驾驶的模式进行切换。
例如,车辆在代替传感器为三维传感器的情况下,继续进行自动驾驶模式。并且,车辆在代替传感器为二维传感器的情况下,将运转模式从完全自动驾驶变更为以人的运转操作为前提的准自动驾驶模式。并且,车辆在代替传感器为一维传感器的情况下,将运转模式切换为不能进行自动的制动控制的人工操作模式。
并且,车辆也可以根据行驶环境,对自动驾驶模式进行切换。例如,车辆在代替传感器为二维传感器的情况下,若在高速公路行驶中则继续进行完全自动驾驶模式,若在市区行驶中则将运转模式切换为准自动驾驶模式。
并且,车辆在没有代替传感器的情况下,若仅以进行正常工作的传感器能够获得充分数量的特征点,则可以继续自身位置估计。但是,由于不能进行针对特定方向的检测,因此,车辆将运转模式切换为准自动驾驶或人工操作模式。
接着,(2)对切换运转模式的应对工作进行说明。车辆将运转模式从自动驾驶模式切换为人工操作模式。或者,车辆可以在直到能够安全停止的路肩等场所为止继续自动驾驶,而后再停止。并且,车辆可以在停止后,将运转模式切换为人工操作模式。这样,三维信息处理装置700在自身车辆检测三维数据712的生成精度不是基准值以上的情况下,对自动驾驶的模式进行切换。
接着,(3)将要说明进行三维传感器的工作校正的应对工作。车辆根据匹配误差发生的方向等,来确定工作不良的三维传感器,进行确定的传感器的校准。具体而言,作为传感器,在使用多个LiDAR或相机的情况下,由各传感器再构成的三维空间的一部分重叠。即,重叠部分的数据由多个传感器获得。在正常的传感器与工作不良的传感器,针对重叠部分获得的三维的点群数据不同。因此,车辆以使工作不良的传感器能够获得与正常的传感器等同的三维的点群数据的方式,进行LiDAR的原点校正、或相机的曝光、聚焦等,对预先决定的部位的工作进行调整。
在调整后,若匹配误差能够在允许范围内,车辆则继续刚才的运转模式。另外,在调整后,若匹配精度不能在允许范围内,车辆进行上述的(1)使应急用的代替传感器工作的应对工作、或(2)进行切换运转模式的应对工作。
这样,三维信息处理装置700在自身车辆检测三维数据712的数据的生成精度不是基准值以上的情况下,进行传感器的工作校正。
以下对应对工作的选择方法进行说明。应对工作可以由驾驶人等用户来选择,也可以不通过用户而由车辆自动选择。
并且,车辆也可以根据是否有驾驶人同乗,来对控制进行切换。例如,在驾驶人同乗的情况下,车辆使向人工操作模式的切换优先。另外,在没有驾驶人同乗的情况下,车辆使移动到安全的场所来停止的模式优先。
示出停止场所的信息可以作为元信息包含在三维地图711中。或者,车辆可以向对自动驾驶的运行信息进行管理的服务发出停止场所的应答请求,从而获得示出停止场所的信息。
并且,在车辆运行在规定的路线的情况下等,车辆的运转模式可以被移向经由信道的由操作员对车辆的运行进行管理的模式。尤其是,在以完全自动驾驶模式行驶中的车辆中,自身位置估计功能的异常的危险性高。因此,车辆在异常情况的检测时、或检测出的异常不能修正的情况下,经由信道,向对运行信息进行管理的服务通知异常的发生。该服务可以向在该车辆的周边行驶的车辆等通知发生了异常车辆的存在、或发出使附近的停止场所空出的指示。
并且,在检测异常情况时,车辆可以使行驶速度比通常时慢。
在车辆为进行出租车等配车服务的自动驾驶车、且该车辆发生了异常情况时,该车辆向运行管理中心联系,以停止在安全的场所。并且,配车服务也可以分发替代的车辆。或者可以是由配车服务的利用者来驾驶车辆。在这些状况中,可以并用费用的打折或赋予特别积分等。
并且,在异常情况1的应对方法中,虽然基于二维地图对自身位置估计的方法进行了说明,即使在通常时,也可以利用二维地图进行自身位置估计。图36是这种情况下的自身位置估计处理的流程图。
首先,车辆获得行驶路径附近的三维地图711(S711)。接着,车辆根据传感器信息,获得自身车辆检测三维数据712(S712)。
接着,车辆判断在进行自身位置估计时是否需要三维地图711(S713)。具体而言,车辆根据二维地图使用时的自身位置估计的精度、以及行驶环境,来判断是否需要三维地图711。例如,采用与上述的异常情况1的应对方法相同的方法。
在判断为不需要三维地图711的情况下(S714的“否”),车辆获得二维地图(S715)。此时,车辆可以同时获得异常情况1的应对方法中说明的附加信息。并且,车辆可以根据三维地图711来生成二维地图。例如,车辆可以从三维地图711中提取任意的平面,来生成二维地图。
接着,车辆利用自身车辆检测三维数据712和二维地图,进行自身位置估计(S716)。另外,采用了二维地图的自身位置估计的方法,例如与上述的异常情况1的应对方法中说明的方法相同。
另外,在判断为需要三维地图711的情况下(S714的“是”),车辆获得三维地图711(S717)。接着,车辆利用自身车辆检测三维数据712和三维地图711,进行自身位置估计(S718)。
另外,车辆可以按照自身车辆的通信设备的对应速度、或信道的状况,来对基本上采用二维地图、还是采用三维地图711进行切换。例如,在接收三维地图711的同时,预先设定行驶时所需要的通信速度,在行驶时的通信速度为设定值以下的情况下,车辆基本上利用二维地图,在行驶时的通信速度比设定值大的情况下,基本上利用三维地图711。另外,车辆也可以不对是利用二维地图还是利用三维地图进行切换判断,而基本上使用二维地图。
(实施方式5)
在本实施方式中,对给后方车辆的三维数据发送方法等进行说明。图37示出了发送给后方车辆等的三维数据的对象空间的例子。
车辆801将车辆801的前方的与车辆801相距距离L的宽度W、高度H、深度D的长方体的空间802中包括的点云数据(点群)等三维数据,以Δt的时间间隔,发送到对道路状况进行监控的交通云监控或后方车辆。
车辆801在车辆或人从外部进入到空间802等,从而过去发送完毕的空间802中包括的三维数据发生了变化的情况下,也对发生了变化的空间的三维数据进行发送。
另外,在图37中虽然示出了空间802的形状为长方体的例子,空间802只要包括从后方车辆来看成为死角的前方道路上的空间即可,并非必需是长方体。
距离L希望被设定成接收了三维数据的后方车辆能够安全停止的距离。例如,距离L被设定为如下的距离之和,即:后方车辆在三维数据的接收的期间中移动的距离、与后方车辆直到按照接收的数据来开始减速为止移动的距离、与后方车辆从原则上开始到安全停止所需要的距离的和。由于这些距离是按照速度来变化的,因此如L=a×V+b(a、b是常数)所示,距离L可以按照车辆的速度V来变化。
宽度W被设定为至少比车辆801行驶的车道的宽度大的值。更优选地,宽度W被设定为包括左右的行车道或路缘带等邻接空间在内的大小。
深度D虽然可以是固定值,也可以如D=c×V+d(c、d为常数)所示,按照车辆的速度V来变化。并且,通过以D>V×Δt的方式来设定D,从而能够使发送空间与过去发送完毕的空间重复。据此,车辆801能够更确实地不会遗漏地将行驶路上的空间发送给后方车辆等。
这样,通过将车辆801发送的三维数据限定成针对后方车辆是有用的空间,从而能够有效地减少发送的三维数据的容量,实现通信的低延迟化以及低成本化。
接着,对本实施方式所涉及的三维数据制作装置810的构成进行说明。图38是示出本实施方式所涉及的三维数据制作装置810的构成例的方框图。该三维数据制作装置810例如被搭载于车辆801。三维数据制作装置810与外部的交通云监控、前方车辆或后方车辆进行三维数据的收发,同时对三维数据进行制作并蓄积。
三维数据制作装置810具备:数据接收部811、通信部812、接收控制部813、格式转换部814、多个传感器815、三维数据制作部816、三维数据合成部817、三维数据蓄积部818、通信部819、发送控制部820、格式转换部821、以及数据发送部822。
数据接收部811从交通云监控或前方车辆接收三维数据831。三维数据831例如包括含有自身车辆的传感器815不能检测的区域的信息,该信息例如是点云数据、可见光影像、深度信息、传感器位置信息、或速度信息等。
通信部812与交通云监控或前方车辆进行通信,将数据发送请求等发送到交通云监控或前方车辆。
接收控制部813经由通信部812,将对应的格式等信息与通信对方交换,确立与通信对方的通信。
格式转换部814通过对数据接收部811接收的三维数据831进行格式转换等来生成三维数据832。并且,格式转换部814在三维数据831被压缩或编码的情况下,进行扩展或解码处理。
多个传感器815是LIDAR、可见光相机或红外线相机等获得车辆801的外部的信息的传感器群,生成传感器信息833。例如,在传感器815为LIDAR等激光传感器的情况下,传感器信息833是点云数据(点群数据)等三维数据。另外,传感器815也可以不是多个。
三维数据制作部816根据传感器信息833生成三维数据834。三维数据834例如包括点云数据、可见光影像、深度信息、传感器位置信息、或速度信息的信息。
三维数据合成部817通过将交通云监控或前方车辆等制作的三维数据832,合成到根据自身车辆的传感器信息833而制作的三维数据834,从而能够构筑自身车辆的传感器815不能检测的前方车辆的前方的空间也包括在内的三维数据835。
三维数据蓄积部818对生成的三维数据835等进行蓄积。
通信部819与交通云监控或后方车辆进行通信,将数据发送请求等发送到交通云监控或后方车辆。
发送控制部820经由通信部819,将对应的格式等信息与通信对方进行交换,确立与通信对方的通信。并且,发送控制部820根据在三维数据合成部817生成的三维数据832的三维数据构筑信息、以及来自通信对方的数据发送请求,来决定作为发送对象的三维数据的空间的发送区域。
具体而言,发送控制部820按照来自交通云监控或后方车辆的数据发送请求,来决定包括后方车辆的传感器不能检测的自身车辆的前方的空间的发送区域。并且,发送控制部820通过根据三维数据构筑信息来判断能够发送的空间或已发送空间的更新有无等,从而决定发送区域。例如,发送控制部820将既是由数据发送请求指定的区域、又是对应的三维数据835存在的区域决定为发送区域。并且,发送控制部820将通信对方所对应的格式、以及发送区域通知给格式转换部821。
格式转换部821通过将被蓄积在三维数据蓄积部818的三维数据835中的发送区域的三维数据836,转换为与接收侧对应的格式,来生成三维数据837。另外,也可以通过格式转换部821对三维数据837进行压缩或编码,来减少数据量。
数据发送部822将三维数据837发送到交通云监控或后方车辆。该三维数据837例如包括含有成为后方车辆的死角的区域的信息,该信息是自身车辆的前方的点云数据、可见光影像、深度信息、或传感器位置信息等。
另外,在此虽然以格式转换部814以及821进行格式转换等为例进行了说明,但是也可以不进行格式转换。
通过此构成,三维数据制作装置810从外部获得在自身车辆的传感器815不能检测的区域的三维数据831,并通过对三维数据831与基于自身车辆的传感器815检测到的传感器信息833的三维数据834进行合成,来生成三维数据835。据此,三维数据制作装置810能够生成自身车辆的传感器815不能检测的范围的三维数据。
并且,三维数据制作装置810能够按照来自交通云监控或后方车辆的数据发送请求,将包括后方车辆的传感器不能检测的自身车辆的前方的空间的三维数据发送到交通云监控或后方车辆等。
接着,对三维数据制作装置810中的给后方车辆的三维数据的发送顺序进行说明。图39是示出通过三维数据制作装置810向交通云监控或后方车辆发送三维数据的顺序的一个例子的流程图。
首先,三维数据制作装置810生成并更新包括自身车辆801的前方道路上的空间802的空间的三维数据835(S801)。具体而言,三维数据制作装置810将交通云监控或前方车辆等制作的三维数据831,合成到基于自身车辆801的传感器信息833制作的三维数据834,通过进行这种合成,来构筑自身车辆的传感器815不能检测的前方车辆的前方的空间也包括在内的三维数据835。
接着,三维数据制作装置810判断已发送的空间中包含的三维数据835是否发生了变化(S802)。
在由于车辆或人从外部进入到已发送的空间等而该空间中包含的三维数据835发生了变化的情况下(S802的“是”),三维数据制作装置810将包含发生了变化的空间的三维数据835的三维数据发送到交通云监控或后方车辆(S803)。
另外,三维数据制作装置810虽然可以按照以规定的间隔来发送三维数据的发送定时,来发送发生了变化的空间的三维数据,不过也可以在检测到变化后立即进行发送。即,三维数据制作装置810可以将发生了变化的空间的三维数据,比以规定的间隔来发送的三维数据优先发送。
并且,三维数据制作装置810也可以将发生了变化的空间的所有的三维数据,作为发生了变化的空间的三维数据来发送,也可以仅发送三维数据的差异(例如出现或消失的三维点的信息、或三维点的变位信息等)。
并且,也可以是,三维数据制作装置810在发送发生了变化的空间的三维数据之前,先将紧急刹车警报等与自身车辆的危险回避工作有关的元数据发送到后方车辆。据此,后方车辆能够提早确认到前方车辆的紧急刹车等,从而能够尽快地开始减速等危险回避工作。
在已发送的空间中包含的三维数据835没有发生变化的情况下(S802的“否”)或步骤S803之后,三维数据制作装置810将自身车辆801的前方距离L上的规定的形状的空间中包含的三维数据发送到交通云监控或后方车辆(S804)。
并且,例如步骤S801~S804的处理以规定的时间间隔反复执行。
并且,三维数据制作装置810在当前的发送对象的空间802的三维数据835、与三维地图之间没有差异的情况下,也可以不发送空间802的三维数据837。
图40是示出这种情况下的三维数据制作装置810的工作的流程图。
首先,三维数据制作装置810生成并更新包括自身车辆801的前方道路上的空间802的空间的三维数据835(S811)。
接着,三维数据制作装置810判断生成的空间802的三维数据835中是否有与三维地图的不同之处的更新(S812)。即,三维数据制作装置810判断生成的空间802的三维数据835与三维地图之间是否有差异。在此,三维地图是由交通云监控等基础设施侧的装置管理的三维的地图信息。例如,该三维地图可以作为三维数据831而被获得。
在有更新的情况下(S812的“是”),三维数据制作装置810与上述同样,将空间802中包含的三维数据发送到交通云监控或后方车辆(S813)。
另外,在没有更新的情况下(S812的“否”),三维数据制作装置810不向交通云监控以及后方车辆发送空间802中包含的三维数据(S814)。另外,三维数据制作装置810通过将空间802的体积设定为零,从而可以控制成空间802的三维数据不被发送。并且,三维数据制作装置810也可以将表示空间802中没有更新的信息发送到交通云监控或后方车辆。
如以上所述,例如在道路上没有障碍物的情况下,生成的三维数据835与基础设施侧的三维地图之间不会产生差异,因此不进行数据的发送。这样,能够抑制不要的数据的发送。
另外,在上述说明中虽然将三维数据制作装置810被搭载于车辆作为例子,不过,三维数据制作装置810并非受搭载于车辆所限,其可以搭载于任意的移动体。
如以上所示,本实施方式所涉及的三维数据制作装置810被搭载于具备传感器815、以及将三维数据与外部进行收发的通信部(数据接收部811或数据发送部822等)的移动体。三维数据制作装置810根据传感器815检测的传感器信息833、以及数据接收部811接收的三维数据831(第1三维数据),制作三维数据835(第2三维数据)。三维数据制作装置810将作为三维数据835的一部分的三维数据837发送到外部。
据此,三维数据制作装置810能够生成自身车辆不能检测的范围的三维数据。并且,三维数据制作装置810能够将其他的车辆等不能检测的范围的三维数据发送到该其他的车辆。
并且,三维数据制作装置810对三维数据835的制作、与三维数据837的发送,以规定的间隔反复进行。三维数据837是位于从当前的车辆801的位置到车辆801的移动方向前方的规定距离L上的具有规定的大小的小空间802的三维数据。
据此,由于被发送的三维数据837的范围被限制,因此能够减少发送的三维数据837的数据量。
并且,规定距离L按照车辆801的移动速度V来变化。例如,移动速度V越大,则规定距离L越长。据此,车辆801能够按照车辆801的移动速度V来设定恰当的小空间802,并能够将该小空间802的三维数据837发送到后方车辆等。
并且,规定的大小按照车辆801的移动速度V来变化。例如,移动速度V越大,则规定的大小就越大。例如,移动速度V越大,则作为小空间802的车辆的移动方向的长度的深度D就越大。据此,车辆801能够按照车辆801的移动速度V来设定恰当的小空间802,并能够将该小空间802的三维数据837发送到后方车辆等。
并且,三维数据制作装置810判断已发送的三维数据837所对应的小空间802的三维数据835中是否有变化。在三维数据制作装置810判断为有变化的情况下,将有作为变化的三维数据835的至少一部分的三维数据837(第4三维数据),发送到外部的后方车辆等。
据此,车辆801能够将发生了变化的空间的三维数据837发送到后方车辆等。
并且,三维数据制作装置810将发生了变化的三维数据837(第4三维数据),比进行定期发送的通常的三维数据837(第3三维数据)优先发送。具体而言,三维数据制作装置810在进行定期发送的通常的三维数据837(第3三维数据)的发送之前,先发送发生了变化的三维数据837(第4三维数据)。即,三维数据制作装置810不等待进行定期发送的通常的三维数据837的发送,而对发生了变化的三维数据837(第4三维数据)进行非定期发送。
据此,由于车辆801能够优先将发生了变化的空间的三维数据837发送到后方车辆等,因此,后方车辆等能够根据三维数据进行迅速地判断。
并且,发生了变化的三维数据837(第4三维数据)示出,已发送的三维数据837所对应的小空间802的三维数据835、与变化后的三维数据835的差异。据此,能够减少发送的三维数据837的数据量。
并且,三维数据制作装置810在小空间802的三维数据837、与小空间802的三维数据831之间没有差异的情况下,不发送小空间802的三维数据837。而且,三维数据制作装置810也可以将示出小空间802的三维数据837、与小空间802的三维数据831之间没有差异的信息发送到外部。
据此,由于能够抑制不必要的三维数据837的发送,因此能够减少发送的三维数据837的数据量。
(实施方式6)
在本实施方式中,对显示从三维地图等得到的信息的显示装置以及显示方法、三维地图等的保存装置以及保存方法进行说明。
车辆或机器人等移动体为了车辆的自动驾驶或机器人的自主移动,从而灵活应用通过服务器或其他车辆的通信而得到的三维地图以及从搭载在自身车辆的传感器获得的二维影像或自身车辆检测三维数据。这些数据之中用户想要视听或保存的数据会根据状况而不同。以下对按照不同的状况来对显示进行切换的显示装置进行说明。
图41是示出通过显示装置的显示方法的概要的流程图。显示装置被搭载在车辆或机器人等移动体。另外,以下,以移动体为车辆(机动车)的例子进行说明。
首先,显示装置按照车辆的驾驶状况,决定显示二维周边信息和三维周边信息的哪一个(S901)。另外,二维周边信息与技术方案中的第1周边信息对应,三维周边信息与技术方案中的第2周边信息对应。在此,周边信息是示出移动体的周边的信息,例如是从车辆向规定的方向看时的影像、或车辆的周边的地图。
二维周边信息是利用二维数据来生成的信息。在此,二维数据是指二维的地图信息或影像。例如,二维周边信息是从二维地图得到的车辆周边的地图、或通过被搭载于车辆的相机得到的影像。并且,二维周边信息例如不包括三维的信息。即,在二维周边信息是车辆周边的地图的情况下,该地图中不包括高度方向的信息。并且,在二维周边信息是通过相机获得的影像的情况下,该影像不包括深度方向的信息。
并且,三维周边信息是利用三维数据而生成的信息。在此,三维数据例如是三维地图。另外,三维数据可以是示出从其他车辆或服务器获得的、或由自身车辆检测到的车辆周边的对象物的三维位置或三维形状的信息等。例如,三维周边信息是利用三维地图生成的车辆周边的二维或三维的影像或地图。并且,三维周边信息例如包括三维的信息。例如,在三维周边信息是车辆前方的影像的情况下,该影像包括示出到该影像内的对象物的距离的信息。并且,在该影像中,例如显示被前方的车辆挡住的行人等。并且,在三维周边信息中也可以是将示出这些距离或行人等的信息被重叠到由搭载于车辆的传感器得到的影像上。并且,在三维周边信息中,也可以将高度方向的信息重叠到二维的地图。
并且,三维数据可以被三维显示,从三维数据得到的二维影像或二维地图也可以被显示到二维的显示器等。
在步骤S901,在决定为对三维周边信息进行显示的情况下(S902的“是”),显示装置显示三维周边信息(S903)。并且,在步骤S901,在决定为对二维周边信息进行显示的情况下(S902的“否”),显示装置显示二维周边信息(S904)。这样,显示装置对在步骤S901决定的将要显示的三维周边信息或二维周边信息进行显示。
以下对具体例进行说明。在第一个例子中,显示装置按照车辆是自动驾驶还是手动驾驶,来对将要显示的周边信息进行切换。具体而言,在自动驾驶时,由于驾驶人员无需详细知道详细的周边的道路信息,显示装置对二维周边信息(例如二维地图)进行显示。另外,在手动驾驶时,为了进行安全的驾驶而显示三维周边信息(例如三维地图),以便能够知道周边的道路信息的详细情况。
并且,在自动驾驶时,由于向用户显示自身车辆根据怎样的信息来进行驾驶,因此,显示装置可以显示给驾驶操作带来影响的信息(例如,在自身位置估计中利用的SWLD、车道、路标、以及周边状况检测结果等)。例如,显示装置可以将这些信息添加到二维地图。
另外,上述的自动驾驶时以及手动驾驶时所显示的周边信息仅为一个例子,显示装置也可以在自动驾驶时显示三维周边信息,在手动驾驶时显示二维周边信息。并且,在自动驾驶时以及手动驾驶时的至少一方,除了二维或三维的地图或影像之外,显示装置还可以显示元数据或周边状况检测结果,并且可以取代二维或三维的地图或影像而显示元数据或周边状况检测结果。在此,元数据是指,示出从服务器或其他车辆获得的对象物的三维位置或三维形状的信息。并且,周边状况检测结果是示出以自身车辆检测的对象物的三维位置或三维形状的信息。
在第二个例子中,显示装置按照驾驶环境对将要显示的周边信息进行切换。例如,显示装置按照外界的亮度,来切换将要显示的周边信息。具体而言,显示装置在自身车辆周边明亮的情况下,显示通过搭载于自身车辆的相机得到的二维影像、或显示利用该二维影像制作的三维周边信息。另外,显示装置在自身车辆周边黑暗的情况下,由于通过搭载于自身车辆的相机得到的二维影像较暗而不易于观看,因此,显示利用激光雷达或毫米波雷达制作的三维周边信息。
并且,显示装置也可以根据目前自身车辆所在的区域即驾驶区域,来对将要显示的周边信息进行切换。例如,显示装置以能够将在观光地、市中心、或目的地附近等的周边的建筑物的信息等提供给用户的方式,来显示三维周边信息。另外,由于考虑到山间或郊外等大多不需要周边的详细信息的情况,因此显示装置可以显示二维周边信息。
并且,显示装置也可以根据天气状态来对将要显示的周边信息进行切换。例如,在晴天的情况下,显示装置显示利用相机或激光雷达制作的三维周边信息。另外,在雨天或浓雾的情况下,由于通过相机或激光雷达制作的三维周边信息中容易含有噪声,因此,显示装置对利用毫米波雷达制作的三维周边信息进行显示。
并且,这些显示的切换可以是系统自动地执行,也可以是由用户手动执行。
并且,三维周边信息根据如下的一个以上的数据而被生成,这些数据是指:根据WLD而生成的密点群数据、根据MWLD而生成的网格数据、根据SWLD而生成的稀疏数据、根据车道世界空间而生成的车道数据、包括道路以及交叉点的三维的形状信息等的二维的地图数据、以及包括按照实际时间发生变化的三维位置或三维形状信息的元数据或自身车辆检测结果。
另外,上述的WLD是三维的点群数据,SWLD是通过从WLD提取特征量为阈值以上的点群而得到的数据。并且,MWLD是具有从WLD生成的网格结构的数据。车道世界空间是通过从WLD提取特征量为阈值以上、且自身位置估计、驾驶辅助、或自动驾驶等所需要的点群而得到的数据。
在此,MWLD以及SWLD与WLD相比,数据量较少。因此,在需要更详细的数据的情况下能够通过利用WLD,而在除此以外的情况下通过利用MWLD或SWLD,能够恰当地减少通信数据量以及处理量。并且,车道世界空间与SWLD相比,数据量较少。因此,通过利用车道世界空间,从而能够进一步减少通信数据量以及处理量。
并且,以上虽然以对二维周边信息和三维周边信息进行切换为例做了说明,显示装置也可以根据上述的条件,来对在三维周边信息的生成时所使用的数据的种类(WLD、SWLD等)进行切换。即,在上述的说明中,在显示装置对三维周边信息进行显示的例子中,可以显示根据数据量较多的第1数据(例如WLD或SWLD)生成的三维周边信息,在对二维周边信息进行显示的例子中,可以显示不根据二维周边信息而是根据第2数据(例如SWLD或车道世界空间)生成的三维周边信息,该第2数据是比上述的第1数据的数据量少的数据。
并且,显示装置将二维周边信息或三维周边信息,例如显示到自身车辆所搭载的二维显示器、平视显示器、或头戴式显示器。或者,显示装置可以通过无线通信,将二维周边信息或三维周边信息传送到像智能电话这样的移动终端并进行显示。即,显示装置并非受限于搭载在移动体,而可以与移动体配合地动作。例如,在持有智能电话等的显示装置的用户搭乘于移动体的情况下,或驾驶移动体的情况下,将基于移动体的自身位置估计的移动体的位置等移动体的信息显示到显示装置、或者将这些信息与周边信息一起显示到显示装置。
并且,显示装置在对三维地图进行显示时,可以对三维地图进行渲染,而作为二维数据来显示,也可以利用三维显示器或三维全息照相,而作为三维数据来显示。
接着,对三维地图的保存方法进行说明。车辆或机器人等移动体由于是车辆的自动驾驶或机器人的自主移动,因此活用从与服务器或其他车辆的通信得到的三维地图、以及自身车辆所搭载的传感器得到的二维影像、或者自身车辆检测三维数据。可以考虑到这些数据之中,用户想要视听或保存的数据会因状况而不同。以下对与状况相对应的数据的保存方法进行说明。
保存装置被搭载在车辆或机器人等移动体。另外,以下以移动体为车辆(机动车)的例子进行说明。并且,保存装置也可以包括在上述的显示装置中。
在第一个例子中,保存装置根据地域,来决定是否保存三维地图。在此,通过将三维地图保存到自身车辆的存储介质,从而在保存的空间内可以不与服务器通信就能够进行自动驾驶。但是,由于存储容量受到限制,因此只能保存有限的数据。为此,保存装置被限定为以下所示的保存地区。
例如,保存装置优先保存上班的路径或自家周边等经常通过的地域的三维地图。据此,经常利用的地域的数据不必每次都获取,从而能够有效地减少通信数据量。另外,优先保存是指,在预先决定的存储容量内,保存优先级高的数据。例如,在存储容量内不能保存新的数据的情况下,删除比该新的数据的优先级低的数据。
并且,保存装置对通信环境差的地域的三维地图优先保存。据此,在通信环境差的地域,由于无需通过通信来获得数据,因此能够抑制因通信不良而导致的三维地图不能获得的状况的发生。
或者,保存装置对交通量多的地域的三维地图进行优先保存。据此,能够优先保存事故多发地域的三维地图。据此,在这样的地域能够抑制因通信不良而不能获得三维地图所造成的自动驾驶或驾驶辅助的精确度降低。
或者,保存装置对交通量少的地域的三维地图进行优先保存。在此,在交通量少的地域,不能使用自动追随前方行驶车辆的自动驾驶模式的可能性增高。据此,会有需要更详细的周边信息的情况。因此,通过对交通量少的地域的三维地图进行优先保存,从而能够提高这种地域中的自动驾驶或驾驶辅助的精确度。
另外,可以对上述的多个保存方法进行组合。并且,对这些三维地图进行优先保存的地域可以通过系统自动地决定,也可以由用户指定。
并且,保存装置可以删除在保存之后经过了规定期间的三维地图,也可以更新为最新的数据。据此,旧的地图数据则不会被利用。并且,保存装置在对地图数据进行更新时,通过对旧的地图与新的地图进行比较,从而检测具有差异的差异空间区域即差异区域,通过对旧的地图添加新的地图的差异区域的数据、或从旧的地图中除去差异区域的数据,这样可以仅更新发生了变化的区域的数据。
并且,在该例子中,保存的三维地图被用于自动驾驶。因此,通过将SWLD用作该三维地图,从而能够减少通信数据量等。另外,三维地图并非受SWLD所限,也可以是WLD等其他的种类的数据。
在第二个例子中,保存装置根据事件来保存三维地图。
例如,保存装置将行驶中遇到的特殊的事件作为三维地图来保存。据此,用户可以在事后视听事件的详细。以下示出作为三维地图而保存的事件的例子。另外,保存装置也可以保存从三维地图生成的三维周边信息。
例如,保存装置在冲突事故的前后或感觉到危险时等保存三维地图。
或者,保存装置保持美丽的景色、人聚集的场所、或观光地等具有特征的场面的三维地图。
这些将要保存的事件可以由系统自动决定,也可以由用户事先指定。例如作为对这些事件进行判断的方法,可以采用机器学习。
并且,在该例子中,保存的三维地图被用于视听。因此,通过将WLD用作该三维地图,从而能够提供高画质的影像。另外,三维地图并非受WLD所限,也可以是SWLD等其他的种类的数据。
以下对显示装置按照用户来控制显示的方法进行说明。在显示装置将通过车辆间的通信而得到的周边状况检测结果重叠到地图并进行显示时,通过对周边车辆以线框来表现、或者对周边车辆附加透明度来表现等,从而能够看到被周边车辆遮住的检测物体。或者,显示装置可以对从上空的视点看到的影像进行显示,也可以使自身车辆、周边车辆以及周边状况检测结果能够通过俯视来看到。
在利用平视显示器将周边状况检测结果或点群数据重叠到透过图42所示的挡风玻璃看到的周边环境中的情况下,由于用户的姿势、体型或眼睛的位置的不同,因此重叠信息的位置也会发生偏离。图43示出了在位置发生了偏离的情况下的平视显示器的显示例。
为了进行这种偏离的校正,显示装置利用车辆内相机或座位上搭载的传感器的信息,来检测用户的姿势、体型或眼睛的位置。显示装置按照检测到的用户的姿势、体型或眼睛的位置,来调整重叠信息的位置。图44示出了调整后的平视显示器的显示例。
另外,这种重叠位置的调整可以利用被搭载在车辆的控制装置,由用户手动执行。
并且,显示装置可以将灾害时的安全场所显示到地图上,并提示给用户。或者,车辆可以将灾害内容以及移动向安全的场所的消息传达给用户,直到到达安全的场所为止执行自动驾驶。
例如,车辆将发生地震时不会被海啸卷入的海拔高的地域设定为目的地。此时,车辆可以通过与服务器的通信,获得因地震而难于通行的道路信息,按照避开这种道路的路径等灾害内容来进行处理。
并且,自动驾驶中可以包括移动模式、以及开车远游模式等多个模式。
在移动模式中,车辆考虑到着时间早、费用低、行驶距离短、走行距离短、以及燃费低等,来决定到达目的地的路径,并按照决定的路径进行自动驾驶。
在开车远游模式中,车辆以在用户指定的时间到达目的地的方式,来自动地决定路径。例如,在用户设定了目的地和到达时间时,车辆以能够进行周边观光、并以设定时间到达目的地的方式来决定路径并按照决定的路径进行自动驾驶。
以上对本申请的实施方式所涉及的三维数据制作装置以及显示装置进行了说明,但是本申请并非受这些实施方式所限。
并且,上述的实施方式所涉及的三维数据制作装置或显示装置中包括的各处理部典型的作为集成电路的LSI来实现。这些可以被个别的制成一个芯片,也可以是其中的一部分或全部被制成一个芯片。
并且,集成电路化并非受LSI所限,也可以由专用电路或通用处理器来实现。也可以利用在LSI制造后可编程的FPGA(Field Programmable Gate Array:现场可编程门阵列)、或能够重构LSI内部的电路单元的连接或设定的可重构处理器。
并且,在上述的各实施方式中,各构成要素可以由专用的硬件来构成,或者可以通过执行适于各构成要素的软件程序来实现。各构成要素也可以通过CPU或处理器等程序执行部读出被记录在硬盘或半导体存储器等记录介质的软件程序并执行来实现。
并且,本申请可以作为由三维数据制作装置或显示装置执行的三维数据制作方法或显示方法来实现。
并且,方框图中的功能块的划分为一个例子,多个功能块可以作为一个功能块来实现,一个功能块也可以划分为多个,一部分的功能也可以移动到其他的功能块。并且,具有类似的功能的多个功能块的功能也可以由单一的硬件或软件进行并行处理或者进行时间分割处理。
并且,关于流程图中的各步骤的执行顺序,是为了对本申请进行具体说明而举出的例子,也可以是上述以外的顺序。并且,上述步骤的一部分也可以与其他的步骤同时(并行)执行。
以上基于实施方式对一个或多个形态所涉及的三维数据制作装置以及显示装置进行了说明,但是,本申请并非受这些实施方式所限。在不脱离本申请的主旨的范围内,将本领域技术人员能够想到的各种变形执行于本实施方式而得到的形态、以及对不同的实施方式中的构成要素进行组合而得到的形态均包含在一个或多个形态的范围内。
本申请能够适用于显示装置。

Claims (9)

1.一种数据生成方法,是与移动体协作来动作的数据生成装置中的数据生成方法,
所述数据生成方法包括:
生成第1周边信息和第2周边信息的步骤,所述第1周边信息是利用二维数据并示出所述移动体的周边状况的信息,所述第2周边信息是利用三维数据并示出所述移动体的周边状况的信息;
决定步骤,根据所述移动体的驾驶状况,决定对所述第1周边信息和所述第2周边信息的哪一个进行利用;以及
利用步骤,对所述第1周边信息或所述第2周边信息进行利用,
所述驾驶状况是指,所述移动体是处于自主移动中、还是处于手动驾驶中。
2.如权利要求1所述的数据生成方法,
在所述决定步骤,在所述移动体处于自主移动中的情况下,决定为利用所述第1周边信息,在所述移动体处于手动驾驶中的情况下,决定为利用所述第2周边信息。
3.如权利要求1所述的数据生成方法,
所述驾驶状况是所述移动体所处的区域。
4.如权利要求1所述的数据生成方法,
所述三维数据是,通过从三维的点群数据中提取特征量为阈值以上的点群而得到的数据。
5.如权利要求1所述的数据生成方法,
所述三维数据是,具有根据三维的点群数据生成的网格结构的数据。
6.如权利要求1所述的数据生成方法,
所述三维数据是,通过从三维的点群数据中提取特征量为阈值以上的、且在自身位置估计、驾驶辅助、或自动驾驶中所需要的点群而得到的数据。
7.如权利要求1所述的数据生成方法,
所述三维数据是三维的点群数据。
8.如权利要求1所述的数据生成方法,
在所述利用步骤,将所述第2周边信息显示到平视显示器,
所述数据生成方法进一步,
按照搭乘所述移动体的用户的姿势、体型或眼睛的位置,对所述第2周边信息的显示位置进行调整。
9.一种数据生成装置,与移动体协作来动作,
所述数据生成装置包括处理器,该处理器执行以下处理:
生成第1周边信息和第2周边信息,所述第1周边信息是利用二维数据并示出所述移动体的周边状况的信息,所述第2周边信息是利用三维数据并示出所述移动体的周边状况的信息;
根据所述移动体的驾驶状况,决定对所述第1周边信息和所述第2周边信息的哪一个进行利用;
对所述第1周边信息或所述第2周边信息进行利用,
所述驾驶状况是指,所述移动体是处于自主移动中、还是处于手动驾驶中。
CN202110191126.1A 2016-11-01 2017-10-20 数据生成方法及数据生成装置 Active CN113008263B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110191126.1A CN113008263B (zh) 2016-11-01 2017-10-20 数据生成方法及数据生成装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662415645P 2016-11-01 2016-11-01
US62/415645 2016-11-01
PCT/JP2017/037929 WO2018083999A1 (ja) 2016-11-01 2017-10-20 表示方法及び表示装置
CN202110191126.1A CN113008263B (zh) 2016-11-01 2017-10-20 数据生成方法及数据生成装置
CN201780065479.9A CN109906608B (zh) 2016-11-01 2017-10-20 显示方法以及显示装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201780065479.9A Division CN109906608B (zh) 2016-11-01 2017-10-20 显示方法以及显示装置

Publications (2)

Publication Number Publication Date
CN113008263A true CN113008263A (zh) 2021-06-22
CN113008263B CN113008263B (zh) 2024-04-30

Family

ID=62075657

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201780065479.9A Active CN109906608B (zh) 2016-11-01 2017-10-20 显示方法以及显示装置
CN202110191126.1A Active CN113008263B (zh) 2016-11-01 2017-10-20 数据生成方法及数据生成装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201780065479.9A Active CN109906608B (zh) 2016-11-01 2017-10-20 显示方法以及显示装置

Country Status (5)

Country Link
US (4) US10719984B2 (zh)
EP (4) EP3536556B1 (zh)
JP (2) JP7061964B2 (zh)
CN (2) CN109906608B (zh)
WO (1) WO2018083999A1 (zh)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017200527A1 (en) * 2016-05-16 2017-11-23 Hewlett-Packard Development Company, L.P. Generating a shape profile for a 3d object
KR20200026196A (ko) * 2017-07-10 2020-03-10 소니 주식회사 정보 처리 장치 및 방법
CN110914703A (zh) * 2017-07-31 2020-03-24 深圳市大疆创新科技有限公司 对点云中基于运动的不准确性的校正
WO2019107536A1 (ja) * 2017-11-30 2019-06-06 三菱電機株式会社 三次元地図生成システム、三次元地図生成方法および三次元地図生成プログラム
JP7110635B2 (ja) * 2018-03-19 2022-08-02 株式会社デンソー 制御装置
JP6766843B2 (ja) * 2018-05-17 2020-10-14 株式会社Soken 自己位置推定装置
JP7171240B2 (ja) * 2018-05-30 2022-11-15 パイオニア株式会社 情報出力装置
JP6793883B2 (ja) * 2018-06-11 2020-12-02 三菱電機株式会社 車両走行制御装置、車両走行制御方法、制御回路および記憶媒体
EP3816940A4 (en) * 2018-06-27 2021-09-08 Panasonic Intellectual Property Corporation of America METHOD FOR CODING THREE-DIMENSIONAL DATA, METHOD FOR DECODING THREE-DIMENSIONAL DATA, DEVICE FOR CODING THREE-DIMENSIONAL DATA AND DEVICE FOR DECODING THREE-DIMENSIONAL DATA
JP7374089B2 (ja) 2018-07-13 2023-11-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP6987714B2 (ja) * 2018-07-27 2022-01-05 日立Astemo株式会社 電子制御装置
EP3832603A4 (en) * 2018-08-03 2021-09-22 Panasonic Intellectual Property Corporation of America METHOD FOR CODING THREE-DIMENSIONAL DATA, METHOD FOR DECODING THREE-DIMENSIONAL DATA, DEVICE FOR CODING THREE-DIMENSIONAL DATA AND DEVICE FOR DECODING THREE-DIMENSIONAL DATA
EP3836089A4 (en) 2018-08-10 2021-09-01 Panasonic Intellectual Property Corporation of America METHOD FOR CODING THREE-DIMENSIONAL DATA, METHOD FOR DECODING THREE-DIMENSIONAL DATA, DEVICE FOR CODING THREE-DIMENSIONAL DATA AND DEVICE FOR DECODING THREE-DIMENSIONAL DATA
KR102711775B1 (ko) * 2018-09-11 2024-09-30 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 3차원 데이터 부호화 방법, 3차원 데이터 복호 방법, 3차원 데이터 부호화 장치, 및 3차원 데이터 복호 장치
CN112789658A (zh) * 2018-10-02 2021-05-11 索尼公司 图像处理装置和方法
CN112997498A (zh) * 2018-11-13 2021-06-18 松下电器(美国)知识产权公司 三维数据编码方法、三维数据解码方法、三维数据编码装置及三维数据解码装置
US10823855B2 (en) * 2018-11-19 2020-11-03 Fca Us Llc Traffic recognition and adaptive ground removal based on LIDAR point cloud statistics
WO2020138353A1 (ja) * 2018-12-26 2020-07-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
KR102319036B1 (ko) * 2019-01-30 2021-10-28 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 자율 주행 차량을 위한 포인트 클라우드 고스트 효과 검출 시스템
US10824947B2 (en) * 2019-01-31 2020-11-03 StradVision, Inc. Learning method for supporting safer autonomous driving without danger of accident by estimating motions of surrounding objects through fusion of information from multiple sources, learning device, testing method and testing device using the same
US11112252B2 (en) * 2019-02-14 2021-09-07 Hitachi Ltd. Sensor fusion for accurate localization
US11593647B2 (en) * 2019-03-01 2023-02-28 Stats Llc System and method for multi-task learning
KR20210135226A (ko) * 2019-03-11 2021-11-12 소니그룹주식회사 정보 처리 장치, 재생 처리 장치, 정보 처리 방법 및 재생 처리 방법
US11965754B2 (en) 2019-03-13 2024-04-23 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, and mobile body apparatus
JP2020184129A (ja) * 2019-05-06 2020-11-12 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 異常診断装置
JP2020183166A (ja) * 2019-05-07 2020-11-12 アルパイン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP7363118B2 (ja) * 2019-06-14 2023-10-18 マツダ株式会社 外部環境認識装置
US20200408533A1 (en) * 2019-06-28 2020-12-31 DeepMap Inc. Deep learning-based detection of ground features using a high definition map
CN114430845A (zh) * 2019-09-26 2022-05-03 松下电器(美国)知识产权公司 三维数据编码方法、三维数据解码方法、三维数据编码装置、以及三维数据解码装置
CN112204568A (zh) * 2019-09-30 2021-01-08 深圳市大疆创新科技有限公司 路面标识识别方法及装置
US10771272B1 (en) * 2019-11-01 2020-09-08 Microsoft Technology Licensing, Llc Throttling and prioritization for multichannel audio and/or multiple data streams for conferencing
JP7475466B2 (ja) * 2020-02-20 2024-04-26 トムトム グローバル コンテント ベスローテン フエンノートシャップ 自律車両における自動運転システムで使用される高精度地図
EP4131203A4 (en) * 2020-04-01 2023-09-13 Panasonic Intellectual Property Management Co., Ltd. INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING METHOD
JP7417466B2 (ja) 2020-05-07 2024-01-18 株式会社トヨタマップマスター 情報処理装置、情報処理方法及び情報処理プログラム
JP7417465B2 (ja) 2020-05-07 2024-01-18 株式会社トヨタマップマスター 情報処理装置、情報処理方法及び情報処理プログラム
US11479268B2 (en) * 2020-07-30 2022-10-25 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous control of vehicle driving modes in certain traffic situations
US11953602B2 (en) * 2020-11-18 2024-04-09 GM Global Technology Operations LLC Detecting three-dimensional structure models at runtime in vehicles
WO2023149264A1 (ja) * 2022-02-01 2023-08-10 キヤノン株式会社 制御システム、制御方法、及び記憶媒体
WO2023149308A1 (ja) * 2022-02-01 2023-08-10 キヤノン株式会社 制御システム、制御方法、及び記憶媒体
WO2023149292A1 (ja) * 2022-02-01 2023-08-10 キヤノン株式会社 情報処理システム、制御方法、及び記憶媒体
WO2023149376A1 (ja) * 2022-02-01 2023-08-10 キヤノン株式会社 制御システム、制御方法、及び記憶媒体

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60157963A (ja) * 1984-01-30 1985-08-19 Nippon Denso Co Ltd ステアリングホイ−ル位置自動調整装置
EP0875730A1 (en) * 1997-05-02 1998-11-04 Pioneer Electronic Corporation Device for and method of displaying map information for vehicle navigation apparatus
JP2005292064A (ja) * 2004-04-05 2005-10-20 Sony Corp ナビゲーション装置、およびデータ処理方法、並びにコンピュータ・プログラム
WO2006015892A1 (de) * 2004-08-05 2006-02-16 Robert Bosch Gmbh Verfahren zur darstellung von navigationshinweisen und zugehorige navigationsvorrichtung
WO2006072296A1 (de) * 2004-12-23 2006-07-13 Atlas Elektronik Gmbh Verfahren zum detektieren und neutralisieren von unterwasserobjekten
US20080033642A1 (en) * 2006-06-30 2008-02-07 Aisin Aw Co., Ltd. Navigation apparatuses, methods, and programs
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
JP2009199572A (ja) * 2008-01-25 2009-09-03 Kazuo Iwane 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置
CN101650891A (zh) * 2008-08-12 2010-02-17 三星电子株式会社 创建3维网络地图的方法和控制自动行进设备的方法
WO2010032058A1 (en) * 2008-09-19 2010-03-25 Mbda Uk Limited Method and apparatus for displaying stereographic images of a region
JP2011073466A (ja) * 2009-09-29 2011-04-14 Nippon Seiki Co Ltd 車両用表示装置
JP2011203643A (ja) * 2010-03-26 2011-10-13 Nippon Seiki Co Ltd 車両用ヘッドアップディスプレイ装置
US20110274343A1 (en) * 2010-05-07 2011-11-10 Honeywell International, Inc. System and method for extraction of features from a 3-d point cloud
JP2011244465A (ja) * 2011-06-29 2011-12-01 Mitsubishi Electric Corp 画像表示システム
JP2012018170A (ja) * 2008-08-29 2012-01-26 Mitsubishi Electric Corp 俯瞰画像生成装置、地図データ生成システム、俯瞰画像生成装置の俯瞰画像生成方法および俯瞰画像生成プログラム
CN102393967A (zh) * 2011-06-27 2012-03-28 中国科学院软件研究所 基于虚拟驾驶的线形要素矢量化作业方法
US20120226439A1 (en) * 2011-03-04 2012-09-06 Hon Hai Precision Industry Co., Ltd. Navigation device and navigation mode switch method
US8736463B1 (en) * 2012-01-30 2014-05-27 Google Inc. Object bounding box estimation
CN103942085A (zh) * 2013-12-31 2014-07-23 中国人民解放军空军航空大学军事仿真技术研究所 一种舰载直升机飞行模拟器的着舰仿真方法
JP2015108519A (ja) * 2013-12-03 2015-06-11 日産自動車株式会社 情報表示装置
CN105571588A (zh) * 2016-03-10 2016-05-11 赛度科技(北京)有限责任公司 一种无人机三维空中航路地图构建及其航路显示方法
US20160260326A1 (en) * 2015-03-03 2016-09-08 Honda Motor Co., Ltd. Pedestrian intersection alert system and method thereof

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69628091T2 (de) 1995-06-13 2004-04-01 Matsushita Electric Industrial Co., Ltd., Kadoma Fahrzeugnavigationsvorrichtung und Aufzeichnungsmedium zur Programmabspeicherung dafür
US6373472B1 (en) * 1995-10-13 2002-04-16 Silviu Palalau Driver control interface system
JP3556093B2 (ja) * 1998-05-27 2004-08-18 富士通テン株式会社 経路案内装置
JP3517364B2 (ja) * 1998-11-27 2004-04-12 富士通テン株式会社 ナビゲーションシステム
JP2003061075A (ja) * 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd 物体追跡装置、物体追跡方法および侵入者監視システム
JP4598653B2 (ja) * 2005-05-13 2010-12-15 本田技研工業株式会社 衝突予知装置
US7894951B2 (en) * 2005-10-21 2011-02-22 Deere & Company Systems and methods for switching between autonomous and manual operation of a vehicle
JP2008039642A (ja) * 2006-08-08 2008-02-21 Denso Corp ナビゲーション装置、画像生成方法及び画像生成プログラム
US7869943B1 (en) * 2007-12-21 2011-01-11 Honeywell International Inc. Flight management systems and methods for use with an aerial vehicle
US8577154B2 (en) * 2008-06-16 2013-11-05 University Of Southern California Automated single viewpoint human action recognition by matching linked sequences of key poses
JP2011035592A (ja) * 2009-07-31 2011-02-17 Nintendo Co Ltd 表示制御プログラムおよび情報処理システム
US9390544B2 (en) * 2009-10-20 2016-07-12 Robert Bosch Gmbh 3D navigation methods using nonphotorealistic (NPR) 3D maps
US8565958B1 (en) * 2011-06-02 2013-10-22 Google Inc. Removing extraneous objects from maps
KR101841668B1 (ko) * 2012-02-15 2018-03-27 한국전자통신연구원 입체 모델 생성 장치 및 방법
US20140375638A1 (en) 2012-07-30 2014-12-25 Mitsubishi Electric Corporation Map display device
US9052721B1 (en) * 2012-08-28 2015-06-09 Google Inc. Method for correcting alignment of vehicle mounted laser scans with an elevation map for obstacle detection
US8473144B1 (en) * 2012-10-30 2013-06-25 Google Inc. Controlling vehicle lateral lane positioning
US8676431B1 (en) 2013-03-12 2014-03-18 Google Inc. User interface for displaying object-based indications in an autonomous driving system
US9098773B2 (en) * 2013-06-27 2015-08-04 Chevron U.S.A. Inc. System and method of detecting objects in scene point cloud
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US9819925B2 (en) * 2014-04-18 2017-11-14 Cnh Industrial America Llc Stereo vision for sensing vehicles operating environment
JP6304628B2 (ja) * 2014-05-12 2018-04-04 パナソニックIpマネジメント株式会社 表示装置および表示方法
JP2015215505A (ja) * 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 表示装置、および表示方法
GB201409625D0 (en) * 2014-05-30 2014-07-16 Isis Innovation Vehicle localisation
DE102014214667A1 (de) * 2014-07-25 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Anzeigen von dynamischen sicherheitsrelevanten dreidimensionalen Inhalten auf einer Anzeigeeinrichtung
JP7345237B2 (ja) * 2014-11-05 2023-09-15 シエラ・ネバダ・コーポレイション 移動体用の改良型環境表示を生成するためのシステムおよび方法
US9715016B2 (en) * 2015-03-11 2017-07-25 The Boeing Company Real time multi dimensional image fusing
US9285805B1 (en) * 2015-07-02 2016-03-15 Geodigital International Inc. Attributed roadway trajectories for self-driving vehicles
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
WO2017131838A2 (en) 2015-11-13 2017-08-03 Flir Systems, Inc. Sonar sensor fusion and model based virtual and augmented reality systems and methods
US10733776B2 (en) * 2016-06-12 2020-08-04 Apple Inc. Gesture based controls for adjusting display areas
US10970553B2 (en) 2017-11-15 2021-04-06 Uatc, Llc Semantic segmentation of three-dimensional data

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60157963A (ja) * 1984-01-30 1985-08-19 Nippon Denso Co Ltd ステアリングホイ−ル位置自動調整装置
EP0875730A1 (en) * 1997-05-02 1998-11-04 Pioneer Electronic Corporation Device for and method of displaying map information for vehicle navigation apparatus
JP2005292064A (ja) * 2004-04-05 2005-10-20 Sony Corp ナビゲーション装置、およびデータ処理方法、並びにコンピュータ・プログラム
WO2006015892A1 (de) * 2004-08-05 2006-02-16 Robert Bosch Gmbh Verfahren zur darstellung von navigationshinweisen und zugehorige navigationsvorrichtung
WO2006072296A1 (de) * 2004-12-23 2006-07-13 Atlas Elektronik Gmbh Verfahren zum detektieren und neutralisieren von unterwasserobjekten
US20080033642A1 (en) * 2006-06-30 2008-02-07 Aisin Aw Co., Ltd. Navigation apparatuses, methods, and programs
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
EP2120009A1 (en) * 2007-02-16 2009-11-18 Mitsubishi Electric Corporation Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data
JP2009199572A (ja) * 2008-01-25 2009-09-03 Kazuo Iwane 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置
CN101650891A (zh) * 2008-08-12 2010-02-17 三星电子株式会社 创建3维网络地图的方法和控制自动行进设备的方法
JP2012018170A (ja) * 2008-08-29 2012-01-26 Mitsubishi Electric Corp 俯瞰画像生成装置、地図データ生成システム、俯瞰画像生成装置の俯瞰画像生成方法および俯瞰画像生成プログラム
WO2010032058A1 (en) * 2008-09-19 2010-03-25 Mbda Uk Limited Method and apparatus for displaying stereographic images of a region
JP2011073466A (ja) * 2009-09-29 2011-04-14 Nippon Seiki Co Ltd 車両用表示装置
JP2011203643A (ja) * 2010-03-26 2011-10-13 Nippon Seiki Co Ltd 車両用ヘッドアップディスプレイ装置
US20110274343A1 (en) * 2010-05-07 2011-11-10 Honeywell International, Inc. System and method for extraction of features from a 3-d point cloud
US20120226439A1 (en) * 2011-03-04 2012-09-06 Hon Hai Precision Industry Co., Ltd. Navigation device and navigation mode switch method
CN102393967A (zh) * 2011-06-27 2012-03-28 中国科学院软件研究所 基于虚拟驾驶的线形要素矢量化作业方法
JP2011244465A (ja) * 2011-06-29 2011-12-01 Mitsubishi Electric Corp 画像表示システム
US8736463B1 (en) * 2012-01-30 2014-05-27 Google Inc. Object bounding box estimation
JP2015108519A (ja) * 2013-12-03 2015-06-11 日産自動車株式会社 情報表示装置
CN103942085A (zh) * 2013-12-31 2014-07-23 中国人民解放军空军航空大学军事仿真技术研究所 一种舰载直升机飞行模拟器的着舰仿真方法
US20160260326A1 (en) * 2015-03-03 2016-09-08 Honda Motor Co., Ltd. Pedestrian intersection alert system and method thereof
CN105571588A (zh) * 2016-03-10 2016-05-11 赛度科技(北京)有限责任公司 一种无人机三维空中航路地图构建及其航路显示方法

Also Published As

Publication number Publication date
EP4035943A1 (en) 2022-08-03
CN113008263B (zh) 2024-04-30
EP4035943B1 (en) 2023-08-30
JP2022105503A (ja) 2022-07-14
US11238648B2 (en) 2022-02-01
EP3778305A1 (en) 2021-02-17
EP3536556A4 (en) 2019-09-11
CN109906608B (zh) 2021-03-12
CN109906608A (zh) 2019-06-18
US20220108523A1 (en) 2022-04-07
EP4253153A2 (en) 2023-10-04
WO2018083999A1 (ja) 2018-05-11
US10719984B2 (en) 2020-07-21
US20190251743A1 (en) 2019-08-15
US11748947B2 (en) 2023-09-05
JP7311670B2 (ja) 2023-07-19
JP7061964B2 (ja) 2022-05-02
EP4253153A3 (en) 2024-01-10
EP3778305B1 (en) 2022-03-30
EP3536556B1 (en) 2020-09-23
US20230351688A1 (en) 2023-11-02
US20200258298A1 (en) 2020-08-13
JPWO2018083999A1 (ja) 2019-09-19
EP3536556A1 (en) 2019-09-11

Similar Documents

Publication Publication Date Title
CN109906608B (zh) 显示方法以及显示装置
CN109690243B (zh) 三维数据制作方法以及三维数据制作装置
CN111148967B (zh) 三维数据制作方法、客户端装置以及服务器
CN109478338B (zh) 三维数据制作方法、发送方法、制作装置、发送装置
JP7402695B2 (ja) 情報送信方法及びクライアント装置
CN111936819B (zh) 信息发送方法及客户端装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant