Nothing Special   »   [go: up one dir, main page]

JP5968178B2 - Image processing apparatus for remote control, remote control system, and image processing method for remote control - Google Patents

Image processing apparatus for remote control, remote control system, and image processing method for remote control Download PDF

Info

Publication number
JP5968178B2
JP5968178B2 JP2012217108A JP2012217108A JP5968178B2 JP 5968178 B2 JP5968178 B2 JP 5968178B2 JP 2012217108 A JP2012217108 A JP 2012217108A JP 2012217108 A JP2012217108 A JP 2012217108A JP 5968178 B2 JP5968178 B2 JP 5968178B2
Authority
JP
Japan
Prior art keywords
dimensional
detection
remote control
target
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012217108A
Other languages
Japanese (ja)
Other versions
JP2014071655A (en
Inventor
成寿 亀尾
成寿 亀尾
塘中 哲也
哲也 塘中
黒田 淳
淳 黒田
林 真一
真一 林
宏 松浦
宏 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2012217108A priority Critical patent/JP5968178B2/en
Publication of JP2014071655A publication Critical patent/JP2014071655A/en
Application granted granted Critical
Publication of JP5968178B2 publication Critical patent/JP5968178B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法に関するものである。   The present invention relates to an image processing device for remote control, a remote control system, and an image processing method for remote control.

例えば車両等の操縦対象の遠隔操縦を行う場合、車両が走行する地形や障害物等を検知する検知手段として3次元で物体を検知可能な例えばレーザレーダ等が車両に設置されている。そして、車両を遠隔操縦する操縦者は、検知手段による検知結果に基づいた画像で構成される3次元マップをモニタで確認しながら車両を遠隔操縦する。具体的には、検知手段で検知された物体の3次元座標に応じた3次元マップがモニタに表示される。
このような遠隔監視装置の一例として特許文献1には、車両に設置された赤外線カメラにより車両前方の特定範囲の赤外線画像を撮影し、車両に設置された3次元形状測定装置により特定範囲の3次元形状を検知し、演算処理装置により3次元形状から車両が通りやすい路面領域を検出し、赤外線画像上において路面領域が滑らかに見えるように画像処理した補正赤外線画像を形成し、表示装置により補正赤外線画像を表示する装置が開示されている。
For example, when performing remote control of an object to be controlled such as a vehicle, a laser radar or the like that can detect an object in three dimensions is installed in the vehicle as a detection unit that detects terrain or obstacles on which the vehicle travels. Then, a driver who remotely controls the vehicle remotely controls the vehicle while confirming on the monitor a three-dimensional map composed of images based on the detection result by the detection means. Specifically, a three-dimensional map corresponding to the three-dimensional coordinates of the object detected by the detecting means is displayed on the monitor.
As an example of such a remote monitoring device, Patent Document 1 discloses that an infrared image of a specific range ahead of a vehicle is taken by an infrared camera installed in the vehicle, and a specific range of 3 is measured by a three-dimensional shape measuring device installed in the vehicle. Detecting the three-dimensional shape, the road surface area where the vehicle is easy to pass from the three-dimensional shape is detected by the arithmetic processing device, and a corrected infrared image is formed on the infrared image so that the road surface region looks smooth and corrected by the display device An apparatus for displaying an infrared image is disclosed.

特開2011−39727号公報JP 2011-39727 A

図11は、車両100に設置されたレーザレーダ102によって検知対象が検知され、遠隔操縦装置104のモニタ106に表示される画面の例を示している。図11に示される画面Aは、遠隔操縦を行う操縦者に表示させるべき正確な画面を示しており、検知対象を示すボクセル108が一つ表示されている。しかし、検知対象が人や車両等の移動体である場合、レーザレーダ102は検知対象の3次元座標を取得する毎に、その時刻での検知対象の位置情報が蓄積され、図11に示される画面Bのように検知対象の移動履歴が複数のボクセル108として、そのままモニタ106に表示されることとなる。
上記画面Bのような表示がモニタ106にされると、操縦者による車両100の操縦に支障をきたす恐れがある。
FIG. 11 shows an example of a screen that is detected by the laser radar 102 installed in the vehicle 100 and is displayed on the monitor 106 of the remote control device 104. A screen A shown in FIG. 11 shows an accurate screen to be displayed to a pilot who performs remote control, and one voxel 108 indicating a detection target is displayed. However, when the detection target is a moving object such as a person or a vehicle, the laser radar 102 accumulates the position information of the detection target at that time each time the three-dimensional coordinates of the detection target are acquired, as shown in FIG. As shown in the screen B, the movement history of the detection target is displayed as it is on the monitor 106 as a plurality of voxels 108.
When the display as shown in the screen B is displayed on the monitor 106, there is a possibility that the operator may hinder the operation of the vehicle 100.

本発明は、このような事情に鑑みてなされたものであって、操縦対象の周囲を遠隔地に配置される表示手段に正確に表示できる、遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and is capable of accurately displaying the periphery of an operation target on display means disposed at a remote place, an image processing apparatus for remote control, a remote control system, and a remote control An object is to provide an image processing method for steering.

上記課題を解決するために、本発明の遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法は以下の手段を採用する。   In order to solve the above problems, the image processing apparatus for remote control, the remote control system, and the image processing method for remote control of the present invention employ the following means.

本発明の第一態様に係る遠隔操縦用画像処理装置は、操縦対象を遠隔操縦するための画像を表示手段に表示させる遠隔操縦用画像処理装置であって、前記操縦対象に設置され、検知対象の位置を縦、横、及び深さの3次元で検知する3次元検知手段と、所定形状の画像を当てはめて前記表示手段の画面に表示させる座標として、前記3次元検知手段によって検知された前記検知対象毎の3次元座標を記憶する記憶手段と、前記3次元検知手段によって検知された前記検知対象毎の前記3次元座標のうち、前記記憶手段に記憶されていない前記3次元座標を抽出して前記記憶手段に追加して記憶させる追加座標抽出手段と、前記3次元座標の時間変化に基づいて前記検知対象が移動したか否かを判定し、移動したと判定した前記検知対象に対応する前記3次元座標を前記記憶手段からの削除対象として抽出する削除座標抽出手段と、を備える。   An image processing device for remote control according to the first aspect of the present invention is a remote control image processing device for displaying an image for remotely controlling a control object on a display means, and is installed on the control object and is a detection target. The three-dimensional detection means for detecting the position of the three-dimensionally in the vertical, horizontal, and depth, and the coordinates detected by the three-dimensional detection means as coordinates to be displayed on the screen of the display means by applying an image of a predetermined shape Out of the three-dimensional coordinates for each detection target detected by the three-dimensional detection means and the storage means for storing the three-dimensional coordinates for each detection target, the three-dimensional coordinates not stored in the storage means are extracted. Additional coordinate extraction means for adding and storing in the storage means, and determining whether or not the detection target has moved based on a time change of the three-dimensional coordinates, and corresponding to the detection target determined to have moved That and a deletion coordinate extracting means for extracting for deletion from the 3-dimensional coordinates said storing means.

本構成に係る遠隔操縦用画像処理装置は、操縦対象を遠隔操縦するための画像を表示手段に表示させる装置であって、操縦対象に設置された3次元検知手段によって、検知対象の位置を縦、横、及び深さの3次元で検知する。3次元検知手段は、例えばレーザレーダである。操縦対象は、例えば車両である。検知対象は、操縦対象が移動する地形や障害物等である。   The image processing apparatus for remote control according to this configuration is an apparatus that displays an image for remotely maneuvering the operation target on the display unit, and the position of the detection target is vertically moved by the three-dimensional detection unit installed on the operation target. , Lateral, and depth in three dimensions. The three-dimensional detection means is, for example, a laser radar. The operation target is, for example, a vehicle. The detection target is terrain or an obstacle that the control target moves.

遠隔操縦用画像処理装置は、所定形状の画像を当てはめて表示手段の画面に表示させる座標として、3次元検知手段によって検知された検知対象毎の3次元座標を記憶手段に記憶する。所定形状の画像は、例えば立方体(ボクセル)である。すなわち、記憶手段に記憶された3次元座標に対応する表示手段の画面上の位置に立方体が表示されることによって、操縦者は操縦対象の周囲を遠隔地で把握することができる。   The remote control image processing apparatus stores the three-dimensional coordinates for each detection target detected by the three-dimensional detection means in the storage means as coordinates to be displayed on the screen of the display means by applying an image of a predetermined shape. The image having the predetermined shape is, for example, a cube (voxel). That is, by displaying the cube at a position on the screen of the display means corresponding to the three-dimensional coordinates stored in the storage means, the pilot can grasp the periphery of the operation target at a remote place.

そして、3次元検知手段によって検知された検知対象毎の3次元座標のうち、記憶手段に記憶されていない3次元座標が、追加座標抽出手段によって抽出されて記憶手段に追加して記憶される。   Of the three-dimensional coordinates for each detection target detected by the three-dimensional detection means, the three-dimensional coordinates that are not stored in the storage means are extracted by the additional coordinate extraction means, and are added and stored in the storage means.

しかし、記憶手段に3次元座標を逐次追加して記憶させるだけでは、検知対象の位置を示す立方体が時々刻々と検知対象の移動と共に追加して表示手段に表示されることとなる。すなわち、存在しない検知対象が表示手段に表示されるので、操縦対象の周囲が表示手段に正確に表示されることとならない。   However, simply adding and storing the three-dimensional coordinates in the storage means sequentially causes a cube indicating the position of the detection target to be added and displayed on the display means along with the movement of the detection target. That is, since the detection target that does not exist is displayed on the display unit, the periphery of the maneuvering target is not accurately displayed on the display unit.

そこで、削除座標抽出手段によって、3次元座標の時間変化に基づいて検知対象が移動したか否かが判定され、移動したと判定された検知対象に対応する3次元座標が記憶手段からの削除対象として抽出される。   Therefore, it is determined by the deletion coordinate extraction means whether or not the detection target has moved based on the time change of the three-dimensional coordinates, and the three-dimensional coordinates corresponding to the detection target determined to have moved are deleted from the storage means. Extracted as

これにより、削除対象として抽出された3次元座標が記憶手段から削除され、存在しない検知対象が表示手段に表示されることが防止されるので、本構成は、操縦対象の周囲を遠隔地に配置される表示手段に正確に表示することができる。   As a result, the three-dimensional coordinates extracted as the deletion target are deleted from the storage unit, and the detection target that does not exist is prevented from being displayed on the display unit. Displayed on the display means.

上記第一態様では、前記削除座標抽出手段が、前記3次元検知手段によって検知される範囲を分割して得られた領域毎に、前記3次元座標により示される深さを求め、前記深さが過去に求めた深さよりも深い前記領域に対応する前記3次元座標を前記記憶手段からの削除対象として抽出することが好ましい。   In the first aspect, the deletion coordinate extraction unit obtains a depth indicated by the three-dimensional coordinates for each region obtained by dividing the range detected by the three-dimensional detection unit, and the depth is It is preferable to extract the three-dimensional coordinates corresponding to the region deeper than the depth obtained in the past as a deletion target from the storage unit.

本構成は、3次元検知手段によって検知される範囲を分割して得られた領域毎に、3次元座標により示される深さを求める。この深さは、操縦対象から検知対象までの距離のことであり、深さが過去に求めた深さよりも深い場合は、検知対象が移動したことを示す。なぜなら、3次元検知手段によって過去に検知された検知対象が移動し、該検知対象の背後に位置するものをその後3次元検知手段が検知したこととなるためである。すなわち、深さが過去に求めた深さよりも深い場合、換言すると検知対象を検知した位置がより奥に移動した場合、対応する領域の検知対象は、移動したと判定される。   This structure calculates | requires the depth shown by a three-dimensional coordinate for every area | region obtained by dividing | segmenting the range detected by a three-dimensional detection means. This depth is the distance from the operation target to the detection target. When the depth is deeper than the depth obtained in the past, this indicates that the detection target has moved. This is because the detection target detected in the past by the three-dimensional detection means moves, and then the three-dimensional detection means detects what is behind the detection target. That is, when the depth is deeper than the depth obtained in the past, in other words, when the position where the detection target is detected moves further back, it is determined that the detection target of the corresponding region has moved.

そして、深さが過去に求めた深さよりも深い領域に対応する3次元座標が、記憶手段からの削除対象として抽出される。
従って、本構成は、簡易に削除対象を抽出することができる。
Then, three-dimensional coordinates corresponding to a region whose depth is deeper than the depth obtained in the past are extracted as a deletion target from the storage unit.
Therefore, this configuration can easily extract the deletion target.

上記第一態様では、前記削除座標抽出手段が、前記3次元検知手段と前記検知対象を示す前記3次元座標とを結ぶ直線上に位置する過去に検知された前記3次元座標を、前記記憶手段からの削除対象として抽出することが好ましい。   In the first aspect, the deletion coordinate extracting means stores the three-dimensional coordinates detected in the past located on a straight line connecting the three-dimensional detection means and the three-dimensional coordinates indicating the detection target with the storage means. It is preferable to extract as an object to be deleted.

本構成は、3次元検知手段と検知対象を示す3次元座標とを結ぶ直線上、すなわち新たに検知された3次元座標を向くベクトル上であって過去に検知された3次元座標を、すでに移動した検知対象と判定し、記憶手段からの削除対象として抽出する。
従って、本構成は、簡易に削除対象を抽出することができる。
This configuration has already moved a previously detected three-dimensional coordinate on a straight line connecting the three-dimensional detection means and the three-dimensional coordinate indicating the detection target, that is, on a vector that faces the newly detected three-dimensional coordinate. It is determined as a detection target and extracted as a deletion target from the storage means.
Therefore, this configuration can easily extract the deletion target.

上記第一態様では、前記削除座標抽出手段が、前記3次元検知手段と前記検知対象を示す前記3次元座標とを結ぶ直線上に位置する過去に検知された前記3次元座標であって、前記3次元検知手段による検知誤差に基づく削除範囲に位置する過去に検知された前記3次元座標を前記削除対象として抽出することが好ましい。   In the first aspect, the deleted coordinate extraction unit is the three-dimensional coordinate detected in the past located on a straight line connecting the three-dimensional detection unit and the three-dimensional coordinate indicating the detection target, It is preferable to extract the three-dimensional coordinates detected in the past located in the deletion range based on the detection error by the three-dimensional detection means as the deletion target.

本構成は、3次元検知手段による検知には誤差が含まれているため、3次元検知手段の検知誤差の影響を受ける範囲に位置する3次元座標を削除対象としないので、削除する必要のない3次元座標を削除することを防止できる。   In this configuration, since the error is included in the detection by the three-dimensional detection means, the three-dimensional coordinates located in the range affected by the detection error of the three-dimensional detection means are not targeted for deletion, so there is no need to delete them. It is possible to prevent deleting the three-dimensional coordinates.

上記第一態様では、前記操縦対象に設置され、前記検知対象を撮像して2次元の画像情報を取得する撮像手段を備え、前記削除座標抽出手段が、前記撮像手段で取得された前記画像情報により示される色の変化に基づいて、移動したと判定された前記検知対象に対応する前記3次元座標も前記記憶手段からの削除対象として抽出することが好ましい。   In the first aspect, the image information acquired by the imaging unit is provided on the steering target, the imaging unit including an imaging unit that captures the detection target and acquires two-dimensional image information. It is preferable that the three-dimensional coordinates corresponding to the detection target determined to have moved are also extracted as the deletion target from the storage unit on the basis of the color change indicated by.

本構成は、3次元検知手段では検知され難い移動する検知対象、例えば、操縦対象からの距離が略同一であって一方が移動せずに他方が移動する検知対象(壁に沿って移動している人等)があっても、色の変化を撮像手段によって検知できる。
このように本構成は、撮像手段で取得された画像情報により示される色の変化からも移動した検知対象を抽出して削除するので、より確実に削除対象とする3次元座標を抽出することができる。
This configuration is a detection target that is difficult to detect by the three-dimensional detection means, for example, a detection target that is substantially the same distance from the control target and that one does not move and the other moves (moves along the wall) Color change can be detected by the imaging means.
As described above, the present configuration extracts and deletes the detection target that has moved from the color change indicated by the image information acquired by the imaging unit, and thus can more reliably extract the three-dimensional coordinates to be deleted. it can.

本発明の第二態様に係る遠隔操縦用画像処理装置は、操縦対象を遠隔操縦するための画像を表示手段に表示させる遠隔操縦用画像処理装置であって、前記操縦対象に設置され、検知対象の位置を縦、横、及び深さの3次元で検知する3次元検知手段と、前記操縦対象に設置され、前記検知対象を撮像して2次元の画像情報を取得する撮像手段と、所定形状の画像を当てはめて前記表示手段の画面に表示させる座標として、前記3次元検知手段によって検知された前記検知対象毎の3次元座標を記憶する記憶手段と、前記3次元検知手段によって検知された前記検知対象毎の前記3次元座標のうち、前記記憶手段に記憶されていない前記3次元座標を抽出して前記記憶手段に追加して記憶させる追加座標抽出手段と、前記撮像手段で取得された前記画像情報に基づいて、移動した前記検知対象を抽出する抽出手段と、前記抽出手段によって抽出された前記検知対象に対応する前記3次元座標を前記記憶手段からの削除対象として抽出する削除座標抽出手段と、を備える。   An image processing device for remote control according to the second aspect of the present invention is a remote control image processing device for displaying an image for remotely controlling a control object on a display means, which is installed on the control object and is a detection target. A three-dimensional detection means for detecting the position of the object in three dimensions of length, width, and depth; an imaging means that is installed on the steering object and images the detection object to acquire two-dimensional image information; and a predetermined shape As the coordinates to be displayed on the screen of the display means by applying the image of the above, the storage means for storing the three-dimensional coordinates for each detection target detected by the three-dimensional detection means, and the detection detected by the three-dimensional detection means Of the three-dimensional coordinates for each detection target, the three-dimensional coordinates that are not stored in the storage unit are extracted and added to the storage unit to be stored, and the additional coordinate extraction unit that is acquired by the imaging unit Extraction means for extracting the moved detection object based on the image information, and deletion coordinate extraction for extracting the three-dimensional coordinates corresponding to the detection object extracted by the extraction means as deletion objects from the storage means Means.

本構成に係る遠隔操縦用画像処理装置は、操縦対象を遠隔操縦するための画像を表示手段に表示させる装置であって、操縦対象に設置された3次元検知手段によって、検知対象の位置を縦、横、及び深さの3次元で検知し、撮像手段によって、検知対象を撮像して2次元の画像情報を取得する。3次元検知手段は、例えばレーザレーダである。操縦対象は、例えば車両である。検知対象は、操縦対象が移動する地形や障害物等である。   The image processing apparatus for remote control according to this configuration is an apparatus that displays an image for remotely maneuvering the operation target on the display unit, and the position of the detection target is vertically moved by the three-dimensional detection unit installed on the operation target. , Lateral and depth are detected in three dimensions, and the imaging target is imaged by the imaging means to acquire two-dimensional image information. The three-dimensional detection means is, for example, a laser radar. The operation target is, for example, a vehicle. The detection target is terrain or an obstacle that the control target moves.

遠隔操縦用画像処理装置は、所定形状の画像を当てはめて表示手段の画面に表示させる座標として、3次元検知手段によって検知された検知対象毎の3次元座標を記憶手段に記憶する。所定形状の画像は、例えば立方体(ボクセル)ある。すなわち、記憶手段に記憶された3次元座標に対応する表示手段の画面上の位置に立方体が表示されることによって、操縦者は操縦対象の周囲を遠隔地で把握することができる。   The remote control image processing apparatus stores the three-dimensional coordinates for each detection target detected by the three-dimensional detection means in the storage means as coordinates to be displayed on the screen of the display means by applying an image of a predetermined shape. The image having the predetermined shape is, for example, a cube (voxel). That is, by displaying the cube at a position on the screen of the display means corresponding to the three-dimensional coordinates stored in the storage means, the pilot can grasp the periphery of the operation target at a remote place.

そして、3次元検知手段によって検知された検知対象毎の3次元座標のうち、記憶手段に記憶されていない3次元座標が、追加座標抽出手段によって抽出されて記憶手段に追加して記憶される。   Of the three-dimensional coordinates for each detection target detected by the three-dimensional detection means, the three-dimensional coordinates that are not stored in the storage means are extracted by the additional coordinate extraction means, and are added and stored in the storage means.

しかし、記憶手段に3次元座標を逐次追加して記憶させるだけでは、検知対象を示す立方体が時々刻々と検知対象の移動と共に追加して表示手段に表示されることとなる。すなわち、存在しない検知対象が表示手段に表示されるので、操縦対象の周囲が表示手段に正確に表示されることとならない。   However, only by sequentially adding and storing the three-dimensional coordinates in the storage means, a cube indicating the detection target is added with the movement of the detection target every moment and displayed on the display means. That is, since the detection target that does not exist is displayed on the display unit, the periphery of the maneuvering target is not accurately displayed on the display unit.

そこで、抽出手段によって、撮像手段で取得された前記画像情報に基づいて、移動した検知対象が抽出され、抽出された検知対象に対応する3次元座標が削除座標抽出手段によって記憶手段からの削除対象として抽出される。   Therefore, the moving detection target is extracted based on the image information acquired by the imaging unit by the extraction unit, and the three-dimensional coordinates corresponding to the extracted detection target are deleted from the storage unit by the deletion coordinate extraction unit. Extracted as

これにより、記憶手段から削除対象として抽出された3次元座標が削除され、存在しない検知対象が表示手段に表示されることが防止されるので、本構成は、操縦対象の周囲を遠隔地に配置される表示手段に正確に表示することができる。   As a result, the three-dimensional coordinates extracted as the deletion target from the storage unit are deleted, and the detection target that does not exist is prevented from being displayed on the display unit. Displayed on the display means.

本発明の第三態様に係る遠隔操縦システムは、操縦対象、及び遠隔操縦装置を備える遠隔操縦システムであって、前記操縦対象が、請求項1から請求項6の何れか1項に記載の遠隔操縦用画像処理装置と、前記追加座標抽出手段によって前記記憶手段に追加して記憶される前記3次元座標である追加座標、及び前記削除座標抽出手段によって抽出された前記3次元座標である削除座標を前記遠隔操縦装置へ送信する送信手段と、を備え、前記遠隔操縦装置が、前記操縦対象を遠隔操作するための画像を表示する表示手段と、前記送信手段からの前記追加座標及び前記削除座標を受信する受信手段と、前記受信手段によって受信された前記追加座標を記憶すると共に、前記受信手段によって受信された前記削除座標が削除される表示用記憶手段と、前記表示用記憶手段に記憶されている前記三次元座標に前記所定形状の画像を当てはめて前記表示手段に表示させる表示画面作成手段と、を備える。   A remote control system according to a third aspect of the present invention is a remote control system including a control target and a remote control device, wherein the control target is the remote control according to any one of claims 1 to 6. The steering image processing apparatus, the additional coordinates that are the three-dimensional coordinates additionally stored in the storage means by the additional coordinate extracting means, and the deleted coordinates that are the three-dimensional coordinates extracted by the deleted coordinate extracting means Transmitting means for transmitting to the remote control device, wherein the remote control device displays an image for remotely operating the operation target, and the additional coordinates and the deletion coordinates from the transmission means. And a storage means for display in which the additional coordinates received by the receiving means are stored and the deleted coordinates received by the receiving means are deleted. , And a display screen generation means for displaying on said display means by applying an image of the predetermined shape in the three-dimensional coordinates stored in the display storage section.

本構成に係る遠隔操縦システムは、操縦対象及び遠隔操縦装置を備える。操縦対象と遠隔操縦装置は、例えば無線により遠隔操作に必要な種々の情報を送受信する。   The remote control system according to this configuration includes a control target and a remote control device. The control target and the remote control device transmit and receive various information necessary for remote control, for example, wirelessly.

上記記載の遠隔操縦用画像処理装置を備える操縦対象は、追加座標抽出手段によって記憶手段に追加して記憶される3次元座標である追加座標、及び削除座標抽出手段によって抽出された3次元座標である削除座標を遠隔操縦装置へ送信手段から送信する。このように、表示手段の画面に所定形状の画像を更新して表示させるための情報として、操縦対象からは追加座標及び削除座標のみが更新情報として送信される。これにより、操縦対象から遠隔操縦装置へ送信される情報量が少なくて済む。   The control target including the remote control image processing device described above is an additional coordinate that is a three-dimensional coordinate that is additionally stored in the storage unit by the additional coordinate extraction unit, and a three-dimensional coordinate that is extracted by the deletion coordinate extraction unit. A certain deletion coordinate is transmitted from the transmission means to the remote control device. As described above, as the information for updating and displaying the image of the predetermined shape on the screen of the display means, only the added coordinates and the deleted coordinates are transmitted as update information from the operation target. Thereby, the amount of information transmitted from the control target to the remote control device can be reduced.

一方、遠隔操縦装置は、操縦対象が備える送信手段からの追加座標及び削除座標を、受信手段によって受信する。そして、表示用記憶手段が、受信手段によって受信された追加座標を記憶すると共に、受信手段によって受信された削除座標が表示用記憶手段から削除される。これにより、操作対象が備える記憶手段と遠隔操縦装置が備える表示用記憶手段とに記憶される三次元座標は同一となるので、遠隔操縦装置による操縦対象の操縦がより正確に行える。   On the other hand, the remote control device receives the addition coordinates and the deletion coordinates from the transmission means included in the control target by the reception means. Then, the display storage means stores the additional coordinates received by the receiving means, and the deleted coordinates received by the receiving means are deleted from the display storage means. Thereby, since the three-dimensional coordinates stored in the storage means included in the operation target and the display storage means included in the remote control device are the same, the control of the control target by the remote control device can be performed more accurately.

そして、表示画面作成手段によって、表示用記憶手段に記憶されている三次元座標に所定形状の画像が当てはめられて表示手段に表示される。   Then, the display screen creation means applies an image of a predetermined shape to the three-dimensional coordinates stored in the display storage means and displays the image on the display means.

以上のことから、削除対象として抽出された3次元座標が記憶手段から削除され、存在しない検知対象が表示手段に表示されることが防止されるので、本構成は、操縦対象の周囲を遠隔地に配置される表示手段に正確に表示することができる。   From the above, since the three-dimensional coordinates extracted as the deletion target are deleted from the storage unit and the non-existing detection target is prevented from being displayed on the display unit, this configuration can Can be accurately displayed on the display means.

本発明の第四態様に係る遠隔操縦用画像処理方法は、前記操縦対象に設置され、検知対象の位置を縦、横、及び深さの3次元で検知する3次元検知手段と、所定形状の画像を当てはめて前記表示手段の画面に表示させる座標として、前記3次元検知手段によって検知された前記検知対象毎の3次元座標を記憶する記憶手段と、を備え、操縦対象を遠隔操縦するための画像を表示手段に表示させる遠隔操縦用画像処理装置による遠隔操縦用画像処理方法であって、前記3次元検知手段によって検知された前記検知対象毎の前記3次元座標のうち、前記記憶手段に記憶されていない前記3次元座標を抽出して前記記憶手段に追加して記憶させる第1工程と、前記3次元座標の時間変化に基づいて前記検知対象が移動したか否かを判定し、移動したと判定した前記検知対象に対応する前記3次元座標を前記記憶手段からの削除対象として抽出する第2工程と、を含む。   An image processing method for remote control according to a fourth aspect of the present invention includes a three-dimensional detection unit that is installed on the control target and detects the position of the detection target in three dimensions of length, width, and depth, and a predetermined shape. Storage means for storing three-dimensional coordinates for each of the detection targets detected by the three-dimensional detection means as coordinates to be displayed on the screen of the display means by applying an image, and for remotely maneuvering the control target An image processing method for remote control by a remote control image processing apparatus for displaying an image on a display means, wherein among the three-dimensional coordinates for each detection target detected by the three-dimensional detection means, stored in the storage means The first step of extracting the three-dimensional coordinates that have not been extracted and adding and storing them in the storage means, and determining whether or not the detection object has moved based on the time change of the three-dimensional coordinates, moved The determined the three-dimensional coordinates corresponding to the detection target and a second step of extracting for deletion from the storage means.

本発明の第五態様に係る遠隔操縦用画像処理方法は、前記操縦対象に設置され、検知対象の位置を縦、横、及び深さの3次元で検知する3次元検知手段と、前記操縦対象に設置され、検知対象を撮像して2次元の画像情報を取得する撮像手段と、所定形状の画像を当てはめて前記表示手段の画面に表示させる座標として、前記3次元検知手段によって検知された前記検知対象毎の3次元座標を記憶する記憶手段と、を備え、操縦対象を遠隔操縦するための画像を表示手段に表示させる遠隔操縦用画像処理装置による遠隔操縦用画像処理方法であって、前記3次元検知手段によって検知された前記検知対象毎の前記3次元座標のうち、前記記憶手段に記憶されていない前記3次元座標を抽出して前記記憶手段に追加して記憶させる第1工程と、前記撮像手段で取得された前記画像情報に基づいて、移動した前記検知対象を抽出する第2工程と、前記第2工程によって抽出した前記検知対象に対応する前記3次元座標を前記記憶手段からの削除対象として抽出する第3工程と、を含む。   The image processing method for remote control according to the fifth aspect of the present invention includes a three-dimensional detection unit that is installed on the control target and detects the position of the detection target in three dimensions of length, width, and depth, and the control target. An imaging unit that captures a detection target and acquires two-dimensional image information; and coordinates that are displayed on the screen of the display unit by applying an image of a predetermined shape, and detected by the three-dimensional detection unit An image processing method for remote control by a remote control image processing apparatus, comprising: storage means for storing three-dimensional coordinates for each detection target; and displaying images for remote control of the control target on a display means, A first step of extracting the three-dimensional coordinates that are not stored in the storage means out of the three-dimensional coordinates for each of the detection targets detected by the three-dimensional detection means, and adding and storing them in the storage means; Based on the image information acquired by the imaging means, a second step of extracting the moved detection object, and the three-dimensional coordinates corresponding to the detection object extracted by the second step from the storage means And a third step of extracting as a deletion target.

本発明によれば、操縦対象の周囲を遠隔地に配置される表示手段に正確に表示できる、という優れた効果を有する。   According to the present invention, there is an excellent effect that the periphery of the maneuvering target can be accurately displayed on the display unit disposed in a remote place.

本発明の第1実施形態に係る遠隔操縦される車両を示す図である。1 is a diagram showing a remotely operated vehicle according to a first embodiment of the present invention. 本発明の第1実施形態に係る遠隔操縦システムの構成を示すブロック図である。It is a block diagram which shows the structure of the remote control system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るモニタに表示される画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen displayed on the monitor which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るレーザレーダで検知される範囲の分割領域を示す模式図である。It is a schematic diagram which shows the division area of the range detected with the laser radar which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る遠隔操縦システムの構成を示すブロック図である。It is a block diagram which shows the structure of the remote control system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る削除対象となるボクセルを示す模式図である。It is a schematic diagram which shows the voxel used as the deletion object which concerns on 2nd Embodiment of this invention. 誤って削除されるボクセルの例を示す模式図である。It is a schematic diagram which shows the example of the voxel deleted accidentally. 本発明の第2実施形態に係る削除範囲を示す模式図である。It is a schematic diagram which shows the deletion range which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る遠隔操縦システムの構成を示すブロック図である。It is a block diagram which shows the structure of the remote control system which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る遠隔操縦システムの構成を示すブロック図である。It is a block diagram which shows the structure of the remote control system which concerns on 4th Embodiment of this invention. 従来の遠隔監視装置のモニタに表示される画像を示す模式図である。It is a schematic diagram which shows the image displayed on the monitor of the conventional remote monitoring apparatus.

以下に、本発明に係る遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法の一実施形態について、図面を参照して説明する。   Hereinafter, an embodiment of an image processing device for remote control, a remote control system, and an image processing method for remote control according to the present invention will be described with reference to the drawings.

〔第1実施形態〕
以下、本発明の第1実施形態について説明する。
[First Embodiment]
The first embodiment of the present invention will be described below.

図1は、本第1実施形態に係る遠隔操縦システム10の操縦対象である車両12を示す図である。   FIG. 1 is a diagram illustrating a vehicle 12 that is a target of a remote control system 10 according to the first embodiment.

車両12は、無人で走行可能とされており、遠隔操縦システム10の遠隔操縦装置20(図2も参照)によって遠隔操縦される。   The vehicle 12 can run unattended, and is remotely controlled by a remote control device 20 (see also FIG. 2) of the remote control system 10.

そして、車両12は、検知対象の位置を縦、横、及び深さの3次元で検知する3次元検知手段としてレーザレーダ14が設置されている。検知対象は、車両12が移動する地形や人を含む障害物等である。なお、レーザレーダ14の設置位置は、一例として車両12の屋根であるが、これに限らず、他の設置位置でもよい。   The vehicle 12 is provided with a laser radar 14 as a three-dimensional detection means for detecting the position of the detection target in three dimensions of length, width, and depth. The detection target is a terrain on which the vehicle 12 moves or an obstacle including a person. In addition, although the installation position of the laser radar 14 is the roof of the vehicle 12 as an example, it is not limited to this and may be another installation position.

レーザレーダ14は所定数のレーザを照射し、各レーザの反射点の位置(x,y,z)が検知対象の位置とされる。レーザレーダ14の検知範囲は、図1に示されるように車両12の周方向(ヨー方向)と車両12の高さ方向(ピッチ方向)であり、レーザレーダ14そのものが車両12の周方向に角度θn(例えば360度)で回転し、高さ方向に角度φnで回動することで、車両12の周囲を検知する。これにより、車両12の周囲の検知対象が検知される。   The laser radar 14 emits a predetermined number of lasers, and the position (x, y, z) of the reflection point of each laser is set as a detection target position. As shown in FIG. 1, the detection range of the laser radar 14 is the circumferential direction (yaw direction) of the vehicle 12 and the height direction (pitch direction) of the vehicle 12, and the laser radar 14 itself is angled with respect to the circumferential direction of the vehicle 12. The periphery of the vehicle 12 is detected by rotating at θn (for example, 360 degrees) and rotating at an angle φn in the height direction. Thereby, the detection target around the vehicle 12 is detected.

図2は、第1実施形態に係る遠隔操縦システム10の構成を示すブロック図である。なお、図2に示されるブロック図は、遠隔操縦装置20が備えるモニタ22に車両12の周囲を表示させるために用いられる構成を主に示したものである。モニタ22は、遠隔操縦装置20によって車両12の周囲を操縦者が把握するためのものである。   FIG. 2 is a block diagram showing the configuration of the remote control system 10 according to the first embodiment. The block diagram shown in FIG. 2 mainly shows the configuration used for displaying the surroundings of the vehicle 12 on the monitor 22 provided in the remote control device 20. The monitor 22 is for the operator to grasp the surroundings of the vehicle 12 by the remote control device 20.

車両12は、レーザレーダ14の他に、車両位置情報取得部24、遠隔操縦用画像処理装置26、及び送信部28を備える。   In addition to the laser radar 14, the vehicle 12 includes a vehicle position information acquisition unit 24, a remote control image processing device 26, and a transmission unit 28.

車両位置情報取得部24は、GPS(Global Positioning System)であり、車両12の位置を緯度及び経度によって特定する。   The vehicle position information acquisition unit 24 is a GPS (Global Positioning System), and specifies the position of the vehicle 12 by latitude and longitude.

遠隔操縦用画像処理装置26は、ボクセル作成部30、追加ボクセル抽出部32、深さマップ作成部34、削除ボクセル抽出部36、及び車両用記憶部38を備える。   The remote control image processing device 26 includes a voxel creation unit 30, an additional voxel extraction unit 32, a depth map creation unit 34, a deletion voxel extraction unit 36, and a vehicle storage unit 38.

ボクセル作成部30は、レーザレーダ14による検知結果(x,y,z)と車両位置情報取得部24による車両12の位置情報に基づいて、レーザレーダ14によって検知された検知対象の位置を示す3次元座標を世界座標系に変換し、変換した3次元座標を所定形状の画像を当てはめて遠隔操縦装置20が備えるモニタ22の画面に表示させる座標とする。所定形状の画像は、例えば立方体あり、これを以下ボクセルという。   The voxel creation unit 30 indicates the position of the detection target detected by the laser radar 14 based on the detection result (x, y, z) by the laser radar 14 and the position information of the vehicle 12 by the vehicle position information acquisition unit 24. The dimensional coordinate is converted into the world coordinate system, and the converted three-dimensional coordinate is applied to an image of a predetermined shape as a coordinate to be displayed on the screen of the monitor 22 included in the remote control device 20. An image having a predetermined shape is, for example, a cube, which is hereinafter referred to as a voxel.

すなわち、3次元座標に対応するモニタ22の画面上の位置にボクセルが表示されることによって、操縦者は車両12の周囲を遠隔地で把握することができる。   That is, the voxel is displayed at a position on the screen of the monitor 22 corresponding to the three-dimensional coordinates, so that the operator can grasp the surroundings of the vehicle 12 at a remote place.

より具体的には、レーザレーダ14から照射される複数本のレーザが、例えば建物に反射した場合、その反射点の位置毎に3次元座標が得られる。そして、得られた複数の3次元座標を中心としたボクセル40が、モニタ22の画面上で配置されることで、図3に示されるように建物が表わされる。図3の例では、建物のみをボクセル40で表示しているが、地面等も含むレーザレーダ14の検知対象は、全てボクセル40で表わされる。このようにして、車両12の周囲がモニタ22に表示されることとなる。なお、説明を容易にするために図3では、モニタ22の画面上にボクセル40の中心(黒点)が表示されているが、実際にはボクセル40の中心は表示されなくてもよい。   More specifically, when a plurality of laser beams emitted from the laser radar 14 are reflected, for example, on a building, three-dimensional coordinates are obtained for each position of the reflection point. And the building is represented as FIG. 3 shows by arrange | positioning the obtained voxel 40 centering on the some three-dimensional coordinate on the screen of the monitor 22. FIG. In the example of FIG. 3, only the building is displayed by the voxel 40, but all detection targets of the laser radar 14 including the ground and the like are represented by the voxel 40. In this way, the periphery of the vehicle 12 is displayed on the monitor 22. For ease of explanation, in FIG. 3, the center (black dot) of the voxel 40 is displayed on the screen of the monitor 22, but the center of the voxel 40 may not actually be displayed.

追加ボクセル抽出部32は、レーザレーダ14によって検知された検知対象毎の3次元座標のうち、車両用記憶部38に記憶されていない3次元座標を抽出して車両用記憶部38に追加して記憶させる。抽出した3次元座標は、車両用記憶部38と共に送信部28に出力される。   The additional voxel extraction unit 32 extracts three-dimensional coordinates that are not stored in the vehicle storage unit 38 from the three-dimensional coordinates for each detection target detected by the laser radar 14 and adds them to the vehicle storage unit 38. Remember. The extracted three-dimensional coordinates are output to the transmission unit 28 together with the vehicle storage unit 38.

追加ボクセル抽出部32による3次元座標の抽出及び車両用記憶部38への記憶によって、車両用記憶部38には世界座標系でボクセル40を配置する位置を示したボクセルマップが構築されることとなる。   By the extraction of the three-dimensional coordinates by the additional voxel extraction unit 32 and the storage in the vehicle storage unit 38, a voxel map indicating the position where the voxel 40 is arranged in the world coordinate system is constructed in the vehicle storage unit 38; Become.

深さマップ作成部34は、レーザレーダ14による検知結果(x,y,z)と車両位置情報取得部24による車両12の位置情報に基づいて、レーザレーダ14によって検知された検知対象の位置を示す3次元座標を世界座標系に変換する。そして、深さマップ作成部34は、レーザレーダ14によって検知される範囲を分割して得られた領域(以下、「分割領域」という。)毎に、3次元座標により示される深さを求める。この深さは、車両12から検知対象までの距離のことである。   The depth map creation unit 34 determines the position of the detection target detected by the laser radar 14 based on the detection result (x, y, z) by the laser radar 14 and the position information of the vehicle 12 by the vehicle position information acquisition unit 24. Convert the three-dimensional coordinates shown to the world coordinate system. The depth map creation unit 34 obtains the depth indicated by the three-dimensional coordinates for each region obtained by dividing the range detected by the laser radar 14 (hereinafter referred to as “divided region”). This depth is the distance from the vehicle 12 to the detection target.

例えば、図4に示されるようにレーザレーダ14の検知範囲が、例えば、車両12の周方向に360度及び高さ方向にN度から−N度までであり、分割領域として周方向に8分割し、高さ方向に3分割することによって、24の分割領域が得られる。
そして、分割領域毎に深さD(θn,φn)が求められたマップが深さマップである。
For example, as shown in FIG. 4, the detection range of the laser radar 14 is, for example, 360 degrees in the circumferential direction of the vehicle 12 and from N degrees to −N degrees in the height direction, and is divided into eight in the circumferential direction as divided areas. Then, by dividing into three in the height direction, 24 divided regions are obtained.
A map in which the depth D t (θn, φn) is obtained for each divided region is a depth map.

削除ボクセル抽出部36は、深さマップにより示される深さD(θn,φn)が過去に求めた深さD(θn,φn)よりも深い分割領域を求め、該分割領域に対応する3次元座標を車両用記憶部38からの削除対象として抽出する。 The deletion voxel extraction unit 36 obtains a divided region in which the depth D 1 (θn, φn) indicated by the depth map is deeper than the depth D 0 (θn, φn) obtained in the past, and corresponds to the divided region. The three-dimensional coordinates are extracted as a deletion target from the vehicle storage unit 38.

送信部28は、追加ボクセル抽出部32によって車両用記憶部38に追加して記憶される3次元座標である追加座標、及び削除ボクセル抽出部36によって抽出された3次元座標である削除座標を遠隔操縦装置20へ送信する。   The transmission unit 28 remotely transmits additional coordinates, which are three-dimensional coordinates added and stored in the vehicle storage unit 38 by the additional voxel extraction unit 32, and deletion coordinates, which are three-dimensional coordinates extracted by the deletion voxel extraction unit 36. Transmit to the control device 20.

遠隔操縦装置20は、モニタ22の他に受信部42、表示用記憶部44、及び表示画面作成部46を備える。   In addition to the monitor 22, the remote control device 20 includes a receiving unit 42, a display storage unit 44, and a display screen creation unit 46.

受信部42は、送信部28からの追加座標及び削除座標を受信する。   The receiving unit 42 receives the added coordinates and the deleted coordinates from the transmitting unit 28.

表示用記憶部44は、受信部42によって受信された追加座標を記憶すると共に、受信部42によって受信された削除座標が削除される。   The display storage unit 44 stores the additional coordinates received by the receiving unit 42 and deletes the deleted coordinates received by the receiving unit 42.

表示画面作成部46は、表示用記憶部44に記憶されている三次元座標にボクセル40を当てはめてモニタ22に表示させる。   The display screen creation unit 46 applies the voxels 40 to the three-dimensional coordinates stored in the display storage unit 44 and causes the monitor 22 to display them.

なお、遠隔操縦用画像処理装置26及び遠隔操縦装置20は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びコンピュータ読み取り可能な記録媒体等から構成されている。そして、各種機能を実現するための一連の処理は、一例として、プログラムの形式で記録媒体等に記録されており、このプログラムをCPUがRAM等に読み出して、情報の加工・演算処理を実行することにより、各種機能が実現される。   Note that the remote control image processing device 26 and the remote control device 20 include, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), a computer-readable recording medium, and the like. A series of processes for realizing various functions is recorded on a recording medium or the like in the form of a program as an example, and the CPU reads the program into a RAM or the like to execute information processing / arithmetic processing. As a result, various functions are realized.

次に、本第1実施形態に係る遠隔操縦システム10の作用を説明する。   Next, the operation of the remote control system 10 according to the first embodiment will be described.

遠隔操縦用画像処理装置26によって車両用記憶部38に3次元座標を逐次追加して記憶させるだけでは、検知対象の位置を示すボクセル40が時々刻々と検知対象の移動と共に追加してモニタ22に表示されることとなる。すなわち、存在しない検知対象がモニタ22に表示されるので、車両12の周囲がモニタ22に正確に表示されることとならない。   By simply adding and storing three-dimensional coordinates in the vehicle storage unit 38 by the remote control image processing device 26, a voxel 40 indicating the position of the detection target is added along with the movement of the detection target every moment and is added to the monitor 22. Will be displayed. That is, since the detection target that does not exist is displayed on the monitor 22, the periphery of the vehicle 12 is not accurately displayed on the monitor 22.

そこで、削除ボクセル抽出部36によって、3次元座標の時間変化に基づいて検知対象が移動したか否かが判定され、移動したと判定された検知対象に対応する3次元座標が車両用記憶部38からの削除対象として抽出される。なお、以下の説明において、3次元座標の削除とボクセル40の削除は、同義である。   Therefore, the deletion voxel extraction unit 36 determines whether or not the detection target has moved based on the time change of the three-dimensional coordinates, and the three-dimensional coordinates corresponding to the detection target determined to have moved are stored in the vehicle storage unit 38. It is extracted as a deletion target. In the following description, the deletion of the three-dimensional coordinate and the deletion of the voxel 40 are synonymous.

本第1実施形態に係る削除ボクセル抽出部36は、上述したように深さマップにより示される深さが過去に求めた深さよりも深い分割領域に対応する3次元座標を車両用記憶部38からの削除対象として抽出する。深さが過去に求めた深さよりも深い場合は、検知対象が移動したことを示す。なぜなら、過去に検知された検知対象が移動し、該検知対象の背後に位置するものをその後レーザレーダ14が検知したこととなるためである。すなわち、深さが過去に求めた深さよりも深い場合、換言すると検知対象を検知した位置(レーザの反射点)がより奥に移動した場合、対応する分割領域の検知対象は、移動したと判定される。   As described above, the deleted voxel extraction unit 36 according to the first embodiment obtains, from the vehicle storage unit 38, the three-dimensional coordinates corresponding to the divided region where the depth indicated by the depth map is deeper than the depth obtained in the past. To be deleted. When the depth is deeper than the depth obtained in the past, it indicates that the detection target has moved. This is because the detection target detected in the past has moved, and the laser radar 14 has subsequently detected an object located behind the detection target. That is, when the depth is deeper than the depth obtained in the past, in other words, when the position where the detection target is detected (the reflection point of the laser) moves deeper, it is determined that the detection target of the corresponding divided region has moved. Is done.

これにより、本第2実施形態に係る削除ボクセル抽出部36は、簡易に削除対象を抽出することができる。   Thereby, the deletion voxel extraction unit 36 according to the second embodiment can easily extract the deletion target.

そして、車両12は、追加ボクセル抽出部32によって車両用記憶部38に追加して記憶される3次元座標である追加座標、及び削除ボクセル抽出部36によって抽出された3次元座標である削除座標を遠隔操縦装置20へ送信部28から送信する。このように、モニタ22の画面にボクセル40を更新して表示させるための情報として、車両12からは追加座標及び削除座標のみが更新情報として送信される。これにより、車両12から遠隔操縦装置20へ送信される情報量が少なくて済む。   The vehicle 12 then adds the additional coordinates, which are the three-dimensional coordinates added and stored in the vehicle storage unit 38 by the additional voxel extraction unit 32, and the deletion coordinates, which are the three-dimensional coordinates extracted by the deletion voxel extraction unit 36. The data is transmitted from the transmission unit 28 to the remote control device 20. Thus, as information for updating and displaying the voxel 40 on the screen of the monitor 22, only the additional coordinates and the deleted coordinates are transmitted as update information from the vehicle 12. Thereby, the amount of information transmitted from the vehicle 12 to the remote control device 20 can be reduced.

一方、遠隔操縦装置20は、車両12が備える送信部28からの追加座標及び削除座標を受信部42によって受信する。そして、表示用記憶部44が、受信部42によって受信された追加座標を記憶すると共に、受信部42によって受信された削除座標が表示用記憶部44から削除される。これにより、車両12が備える車両用記憶部38と遠隔操縦装置20が備える表示用記憶部44とに記憶される三次元座標は同一となるので、遠隔操縦装置20による操縦対象の操縦がより正確に行える。   On the other hand, the remote control device 20 receives the additional coordinates and the deleted coordinates from the transmission unit 28 included in the vehicle 12 by the reception unit 42. Then, the display storage unit 44 stores the additional coordinates received by the reception unit 42, and the deletion coordinates received by the reception unit 42 are deleted from the display storage unit 44. As a result, the three-dimensional coordinates stored in the vehicle storage unit 38 included in the vehicle 12 and the display storage unit 44 included in the remote control device 20 are the same, so that the operation of the operation target by the remote control device 20 is more accurate. Can be done.

そして、表示画面作成部46によって、表示用記憶部44に記憶されている三次元座標にボクセル40が当てはめられてモニタ22に表示される。   The display screen creation unit 46 applies the voxel 40 to the three-dimensional coordinates stored in the display storage unit 44 and displays the voxel 40 on the monitor 22.

以上説明したように、本第1実施形態に係る遠隔操縦システム10は、削除対象として抽出した3次元座標を車両用記憶部38及び表示用記憶部44から削除することで、存在しない検知対象がモニタ22に表示されることが防止され、車両12の周囲を遠隔地に配置されるモニタ22に正確に表示することができる。   As described above, the remote control system 10 according to the first embodiment deletes the three-dimensional coordinates extracted as the deletion target from the vehicle storage unit 38 and the display storage unit 44, so that the non-existing detection target is detected. The display on the monitor 22 is prevented, and the periphery of the vehicle 12 can be accurately displayed on the monitor 22 disposed in a remote place.

〔第2実施形態〕
以下、本発明の第2実施形態について説明する。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described.

図5は、本第2実施形態に係る遠隔操縦システム10の構成を示す。なお、図5における図2と同一の構成部分については図2と同一の符号を付して、その説明を省略する。   FIG. 5 shows a configuration of the remote control system 10 according to the second embodiment. In FIG. 5, the same components as those in FIG. 2 are denoted by the same reference numerals as those in FIG.

上述した第1実施形態に係る遠隔操縦システム10は、深さマップ作成部34を備えていたが、本第2実施形態に係る遠隔操縦システム10は、深さマップ作成部34を備えず、かつ削除ボクセル抽出部36の機能が第1実施形態に係る削除ボクセル抽出部36と異なる。   Although the remote control system 10 according to the first embodiment described above includes the depth map creation unit 34, the remote control system 10 according to the second embodiment does not include the depth map creation unit 34, and The function of the deletion voxel extraction unit 36 is different from that of the deletion voxel extraction unit 36 according to the first embodiment.

本第2実施形態に係る削除ボクセル抽出部36は、レーザレーダ14と検知対象を示す3次元座標とを結ぶ直線上に位置する過去に検知された3次元座標を、車両用記憶部38及び表示用記憶部44からの削除対象として抽出する。   The deletion voxel extraction unit 36 according to the second embodiment includes a vehicle storage unit 38 and a display of previously detected three-dimensional coordinates located on a straight line connecting the laser radar 14 and a three-dimensional coordinate indicating a detection target. Extracted as a deletion target from the storage unit 44.

これにより、レーザレーダ14と検知対象を示す3次元座標とを結ぶ直線上、すなわち新たに検知された3次元座標を向くベクトル上に位置する過去に検知された3次元座標が、すでに移動した検知対象であると削除ボクセル抽出部36によって判定され、削除対象として抽出される。従って、本第2実施形態に係る削除ボクセル抽出部36は、簡易に削除対象を抽出することができる。   As a result, the previously detected three-dimensional coordinates located on the straight line connecting the laser radar 14 and the three-dimensional coordinates indicating the detection target, that is, on the vector that faces the newly detected three-dimensional coordinates, have already moved. The deletion voxel extraction unit 36 determines that the object is an object, and the object is extracted as an object to be deleted. Therefore, the deletion voxel extraction unit 36 according to the second embodiment can easily extract the deletion target.

図6は、本第2実施形態に係る削除ボクセル抽出部36によって削除対象として抽出されるボクセル40(三次元座標)を示す模式図である。図6に示されるように、新たに作成されたボクセル40Aと車両12との間に位置し、過去に作成されたボクセル40Bが削除対象となる。   FIG. 6 is a schematic diagram showing voxels 40 (three-dimensional coordinates) extracted as deletion targets by the deletion voxel extraction unit 36 according to the second embodiment. As shown in FIG. 6, a voxel 40 </ b> B that is located between the newly created voxel 40 </ b> A and the vehicle 12 and has been created in the past is a deletion target.

また、レーザレーダ14が、例えば64本のレーザを照射して、x度の間隔で周方向に360度で回転している場合、(360/x)×64箇所において上記判定を行うこととなる。   Further, when the laser radar 14 irradiates, for example, 64 lasers and rotates at 360 degrees in the circumferential direction at intervals of x degrees, the above determination is made at (360 / x) × 64 locations. .

ここで、レーザレーダ14による検知には誤差が含まれている。このため、図7の例に示されるように、新たな検知により得られたボクセル40C(3次元座標)に誤差が含まれると、ボクセル40Cとレーザレーダ14(車両12)との間に位置するボクセル40であって、本来削除対象とならないボクセル40D,40Eが削除対象となる場合がある。   Here, the detection by the laser radar 14 includes an error. Therefore, as shown in the example of FIG. 7, if an error is included in the voxel 40C (three-dimensional coordinates) obtained by the new detection, it is located between the voxel 40C and the laser radar 14 (vehicle 12). In some cases, voxels 40D and 40E that are voxels 40 and are not originally targeted for deletion may be targeted for deletion.

そこで、本第2実施形態に係る削除ボクセル抽出部36は、レーザレーダ14と検知対象を示す3次元座標とを結ぶ直線上に位置する過去に検知された3次元座標であって、図8に示されるようにレーザレーダ14の検知誤差に基づく削除範囲L’に位置する過去に検知された3次元座標を削除対象として抽出する。これにより、本第2実施形態に係る削除ボクセル抽出部36は、レーザレーダ14の検知誤差の影響を受ける範囲に位置する3次元座標(ボクセル40)を削除対象としないので、削除する必要のない3次元座標を削除することを防止できる。   Therefore, the deleted voxel extraction unit 36 according to the second embodiment is a three-dimensional coordinate detected in the past located on a straight line connecting the laser radar 14 and the three-dimensional coordinate indicating the detection target. As shown, three-dimensional coordinates detected in the past located in the deletion range L ′ based on the detection error of the laser radar 14 are extracted as deletion targets. As a result, the deleted voxel extraction unit 36 according to the second embodiment does not need to delete the three-dimensional coordinates (voxel 40) located in the range affected by the detection error of the laser radar 14, and thus does not need to be deleted. It is possible to prevent deleting the three-dimensional coordinates.

削除範囲L’は、下記(1)式に示されるようにレーザレーダ14と新たに検知した3次元座標との間の距離Lから算出される。

Figure 0005968178
The deletion range L ′ is calculated from the distance L between the laser radar 14 and the newly detected three-dimensional coordinate as shown in the following equation (1).
Figure 0005968178

Vはボクセル40の一辺のサイズ(以下、「ボクセルサイズ」という。)であり、σは距離Lでの誤差標準偏差である。 V is the size of one side of the voxel 40 (hereinafter referred to as “voxel size”), and σ L is the error standard deviation at the distance L.

ここで、削除範囲L’にボクセルサイズVが含まれている理由は以下の通りである。   Here, the reason why the voxel size V is included in the deletion range L ′ is as follows.

削除範囲L’での誤差標準偏差σ’は、下記(2)式に示される。

Figure 0005968178
'Error standard deviation sigma L in' deletion range L is shown in the following equation (2).
Figure 0005968178

誤差標準偏差σ’がボクセルサイズVよりも大きければ誤って削除される可能性がある。そのため、σ’≦Vを削除の条件とし、一例として(2)式においてσ’=Vとすることで、(1)式が得られる。 If the error standard deviation σ L ′ is larger than the voxel size V, it may be deleted erroneously. Therefore, σ L ′ ≦ V is set as a deletion condition, and as an example, σ L ′ = V in equation (2), thereby obtaining equation (1).

以上説明したように、本第2実施形態に係る遠隔操縦システム10は、レーザレーダ14と検知対象を示す3次元座標とを結ぶ直線上に位置する過去に検知された3次元座標を、車両用記憶部38からの削除対象として抽出するので、簡易に削除対象を抽出することができる。   As described above, the remote control system 10 according to the second embodiment uses the three-dimensional coordinates detected in the past located on the straight line connecting the laser radar 14 and the three-dimensional coordinates indicating the detection target for the vehicle. Since it is extracted as a deletion target from the storage unit 38, the deletion target can be easily extracted.

〔第3実施形態〕
以下、本発明の第3実施形態について説明する。
[Third Embodiment]
Hereinafter, a third embodiment of the present invention will be described.

図9は、本第3実施形態に係る遠隔操縦システム10の構成を示す。なお、図9における図2と同一の構成部分については図2と同一の符号を付して、その説明を省略する。   FIG. 9 shows the configuration of the remote control system 10 according to the third embodiment. In FIG. 9, the same components as those in FIG. 2 are denoted by the same reference numerals as those in FIG.

本第3実施形態に係る車両12は、検知対象を撮像して2次元の画像情報を取得するカメラ50が設置されている。なお、カメラ50による撮像範囲の座標とレーザレーダ14による検知範囲の座標は、一致するように校正(キャリブレーション)されている。   The vehicle 12 according to the third embodiment is provided with a camera 50 that captures a detection target and acquires two-dimensional image information. The coordinates of the imaging range by the camera 50 and the coordinates of the detection range by the laser radar 14 are calibrated (calibrated) so as to match.

カメラ50は、レーザレーダ14では検知され難い移動する検知対象、例えば、車両12からの距離が略同一であって一方が移動せずに他方が移動する検知対象(例えば壁に沿って移動している人等)があっても、これらを色の変化によって検知できる。
そこで、遠隔操縦用画像処理装置26は、色変化判定部52を備える。
The camera 50 is a detection object that is difficult to be detected by the laser radar 14, for example, a detection object that is substantially the same distance from the vehicle 12 and one of which does not move and the other moves (for example, moves along the wall). Even if there are people), these can be detected by color change.
Therefore, the remote control image processing device 26 includes a color change determination unit 52.

色変化判定部52は、カメラ50によって取得された画像情報の時間変化から、色が変化した領域を判定する。色変化判定部52は、例えば、色の変化が閾値K以上であれば、色が変化した領域として判定する。   The color change determination unit 52 determines the area where the color has changed from the time change of the image information acquired by the camera 50. For example, if the color change is equal to or greater than the threshold value K, the color change determination unit 52 determines that the color has changed.

本第3実施形態に係る削除ボクセル抽出部36は、第1実施形態と同様に深さマップにより示される深さが過去に求めた深さよりも深い分割領域に対応する3次元座標を車両用記憶部38からの削除対象として抽出する。そして、これに加え、本第3実施形態に係る削除ボクセル抽出部36は、色変化判定部52によって判定された領域に対応する3次元座標も車両用記憶部38からの削除対象として抽出する。   The deleted voxel extraction unit 36 according to the third embodiment stores the three-dimensional coordinates corresponding to the divided area where the depth indicated by the depth map is deeper than the depth obtained in the past, as in the first embodiment. This is extracted as a deletion target from the unit 38. In addition to this, the deletion voxel extraction unit 36 according to the third embodiment also extracts the three-dimensional coordinates corresponding to the region determined by the color change determination unit 52 as a deletion target from the vehicle storage unit 38.

すなわち、本第3実施形態に係る削除ボクセル抽出部36は、カメラ50で取得された画像情報により示される色の変化に基づいて、移動したと判定された検知対象に対応する3次元座標も車両用記憶部38からの削除対象として抽出する。   That is, the deletion voxel extraction unit 36 according to the third embodiment also uses the three-dimensional coordinates corresponding to the detection target determined to have moved based on the change in color indicated by the image information acquired by the camera 50. It is extracted as a deletion target from the storage unit 38.

従って、移動した検知対象であっても、レーザレーダ14による検知結果からは削除対象とされなかった3次元座標であっても、カメラ50によって取得された画像情報により、削除対象と判定される。これにより、本第2実施形態に係る遠隔操縦システム10は、より確実に削除対象とする3次元座標を抽出することができる。   Therefore, even if it is a detection object that has moved, even if it is a three-dimensional coordinate that has not been deleted from the detection result of the laser radar 14, it is determined as a deletion object based on the image information acquired by the camera 50. Thereby, the remote control system 10 according to the second embodiment can more reliably extract the three-dimensional coordinates to be deleted.

〔第4実施形態〕
以下、本発明の第4実施形態について説明する。
[Fourth Embodiment]
The fourth embodiment of the present invention will be described below.

図10は、本第4実施形態に係る遠隔操縦システム10の構成を示す。なお、図10における図2と同一の構成部分については図2と同一の符号を付して、その説明を省略する。   FIG. 10 shows the configuration of the remote control system 10 according to the fourth embodiment. Note that the same components in FIG. 10 as those in FIG. 2 are denoted by the same reference numerals as those in FIG.

本第4実施形態に係る遠隔操縦用画像処理装置26は、深さマップ作成部34を備えていない一方、車両12にはカメラ50が設置され、遠隔操縦用画像処理装置26には移動体抽出部60が備えられている。   The remote control image processing device 26 according to the fourth embodiment does not include the depth map creation unit 34, while the vehicle 12 is provided with a camera 50, and the remote control image processing device 26 has a moving object extraction. A part 60 is provided.

カメラ50は、検知対象を撮像して2次元の画像情報を取得する。なお、カメラ50による撮像範囲の座標とレーザレーダ14による検知範囲の座標は、一致するように校正(キャリブレーション)されている。   The camera 50 captures a detection target and acquires two-dimensional image information. The coordinates of the imaging range by the camera 50 and the coordinates of the detection range by the laser radar 14 are calibrated (calibrated) so as to match.

移動体抽出部60は、カメラ50で取得された画像情報に基づいて、移動した検知対象を抽出する。なお、画像情報に基づいて移動した検知対象を抽出する方法は、従来既知の方法で良い。   The moving body extracting unit 60 extracts the moved detection target based on the image information acquired by the camera 50. In addition, the method of extracting the detection target which moved based on image information may be a conventionally known method.

そして、削除ボクセル抽出部36は、移動体抽出部60によって抽出された検知対象に対応する3次元座標を車両用記憶部38からの削除対象として抽出する。   Then, the deletion voxel extraction unit 36 extracts the three-dimensional coordinates corresponding to the detection target extracted by the moving body extraction unit 60 as the deletion target from the vehicle storage unit 38.

これにより、本第4実施形態に係る遠隔操縦システム10は、削除対象として抽出された3次元座標が車両用記憶部38及び表示用記憶部44から削除され、存在しない検知対象がモニタ22に表示されることが防止される。従って、本第1実施形態に係る遠隔操縦システム10は、車両12の周囲を遠隔地に配置されるモニタ22に正確に表示することができる。   Thereby, in the remote control system 10 according to the fourth embodiment, the three-dimensional coordinates extracted as the deletion target are deleted from the vehicle storage unit 38 and the display storage unit 44, and the non-existing detection target is displayed on the monitor 22. Is prevented. Therefore, the remote control system 10 according to the first embodiment can accurately display the periphery of the vehicle 12 on the monitor 22 disposed in the remote place.

以上、本発明を、上記各実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記各実施形態に多様な変更又は改良を加えることができ、該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。   As mentioned above, although this invention was demonstrated using said each embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various changes or improvements can be added to the above-described embodiments without departing from the gist of the invention, and embodiments to which the changes or improvements are added are also included in the technical scope of the present invention.

例えば、上記各実施形態では、遠隔操縦システム10による操縦対象を車両12とする形態について説明したが、本発明は、これに限定されるものではなく、操縦対象を例えば航空機やロボット等とする形態としてもよい。   For example, in each of the above-described embodiments, the form in which the object to be controlled by the remote control system 10 is the vehicle 12 has been described. However, the present invention is not limited to this, and the form in which the object to be controlled is, for example, an aircraft or a robot. It is good.

また、上記各実施形態では、検知対象の位置を縦、横、及び深さの3次元で検知する3次元検知手段としてレーザレーダを用いる形態について説明したが、本発明は、これに限定されるものではなく、3次元検知手段としてステレオカメラ等を用いる形態としてもよい。   In each of the above embodiments, a description has been given of a mode in which a laser radar is used as a three-dimensional detection means for detecting the position of a detection target in three dimensions of length, width, and depth, but the present invention is limited to this. Instead of this, a stereo camera or the like may be used as the three-dimensional detection means.

また、上記各実施形態では、レーザレーダ14を周方向に360度で回転させる形態について説明したが、本発明は、これに限定されるものではなく、レーザレーダ14を360度未満の所定範囲で回動させる形態としてもよい。   Further, in each of the above embodiments, the mode in which the laser radar 14 is rotated at 360 degrees in the circumferential direction has been described. However, the present invention is not limited to this, and the laser radar 14 is within a predetermined range of less than 360 degrees. It is good also as a form to rotate.

10 遠隔操縦システム
12 車両
14 レーザレーダ
20 遠隔操縦装置
26 遠隔操縦用画像処理装置
28 送信部
32 追加ボクセル抽出部
36 削除ボクセル抽出部
38 車両用記憶部
42 受信部
44 表示用記憶部
46 表示画面作成部
50 カメラ
60 移動体抽出部
DESCRIPTION OF SYMBOLS 10 Remote control system 12 Vehicle 14 Laser radar 20 Remote control device 26 Remote control image processing device 28 Transmitter 32 Additional voxel extraction unit 36 Deletion voxel extraction unit 38 Vehicle storage unit 42 Reception unit 44 Display storage unit 46 Display screen creation 50 Camera 60 Moving object extraction unit

Claims (9)

操縦対象を遠隔操縦するための画像を表示手段に表示させる遠隔操縦用画像処理装置であって、
前記操縦対象に設置され、検知対象の位置を縦、横、及び深さの3次元で検知する3次元検知手段と、
所定形状の画像を当てはめて前記表示手段の画面に表示させる座標として、前記3次元検知手段によって検知された前記検知対象毎の3次元座標を記憶する記憶手段と、
前記3次元検知手段によって検知された前記検知対象毎の前記3次元座標のうち、前記記憶手段に記憶されていない前記3次元座標を抽出して前記記憶手段に追加して記憶させる追加座標抽出手段と、
前記3次元座標の時間変化に基づいて前記検知対象が移動したか否かを判定し、移動したと判定した前記検知対象に対応する前記3次元座標を前記記憶手段からの削除対象として抽出する削除座標抽出手段と、
を備える遠隔操縦用画像処理装置。
An image processing apparatus for remote control that displays on a display means an image for remotely controlling a control object,
A three-dimensional detection means that is installed in the steering target and detects the position of the detection target in three dimensions of length, width, and depth;
Storage means for storing three-dimensional coordinates for each detection target detected by the three-dimensional detection means as coordinates to be displayed on the screen of the display means by applying an image of a predetermined shape;
Additional coordinate extraction means for extracting the three-dimensional coordinates not stored in the storage means out of the three-dimensional coordinates for each detection target detected by the three-dimensional detection means, and adding and storing them in the storage means When,
Deletion that determines whether or not the detection target has moved based on a time change of the three-dimensional coordinates, and extracts the three-dimensional coordinates corresponding to the detection target that has been determined to have moved as a deletion target from the storage unit Coordinate extraction means;
An image processing apparatus for remote control comprising:
前記削除座標抽出手段は、前記3次元検知手段によって検知される範囲を分割して得られた領域毎に、前記3次元座標により示される深さを求め、前記深さが過去に求めた深さよりも深い前記領域に対応する前記3次元座標を前記記憶手段からの削除対象として抽出する請求項1記載の遠隔操縦用画像処理装置。   The deletion coordinate extraction unit obtains a depth indicated by the three-dimensional coordinate for each region obtained by dividing the range detected by the three-dimensional detection unit, and the depth is obtained from a depth obtained in the past. The remote control image processing apparatus according to claim 1, wherein the three-dimensional coordinates corresponding to the deepest region are extracted as deletion targets from the storage unit. 前記削除座標抽出手段は、前記3次元検知手段と前記検知対象を示す前記3次元座標とを結ぶ直線上に位置する過去に検知された前記3次元座標を、前記記憶手段からの削除対象として抽出する請求項1記載の遠隔操縦用画像処理装置。   The deletion coordinate extracting means extracts the three-dimensional coordinates detected in the past located on a straight line connecting the three-dimensional detection means and the three-dimensional coordinates indicating the detection target as a deletion target from the storage means. The image processing apparatus for remote control according to claim 1. 前記削除座標抽出手段は、前記3次元検知手段と前記検知対象を示す前記3次元座標とを結ぶ直線上に位置する過去に検知された前記3次元座標であって、前記3次元検知手段による検知誤差に基づく削除範囲に位置する過去に検知された前記3次元座標を前記削除対象として抽出する請求項3記載の遠隔操縦用画像処理装置。   The deletion coordinate extracting means is the three-dimensional coordinates detected in the past located on a straight line connecting the three-dimensional detection means and the three-dimensional coordinates indicating the detection target, and is detected by the three-dimensional detection means. The image processing apparatus for remote control according to claim 3, wherein the three-dimensional coordinates detected in the past located in a deletion range based on an error are extracted as the deletion target. 前記操縦対象に設置され、前記検知対象を撮像して2次元の画像情報を取得する撮像手段を備え、
前記削除座標抽出手段は、前記撮像手段で取得された前記画像情報により示される色の変化に基づいて、移動したと判定された前記検知対象に対応する前記3次元座標も前記記憶手段からの削除対象として抽出する請求項1から請求項4何れか1項記載の遠隔操縦用画像処理装置。
An imaging unit that is installed on the steering target and that captures the detection target to acquire two-dimensional image information;
The deletion coordinate extraction means also deletes the three-dimensional coordinates corresponding to the detection target determined to have moved based on the color change indicated by the image information acquired by the imaging means from the storage means. The image processing device for remote control according to any one of claims 1 to 4, wherein the image processing device is extracted as a target.
操縦対象を遠隔操縦するための画像を表示手段に表示させる遠隔操縦用画像処理装置であって、
前記操縦対象に設置され、検知対象の位置を縦、横、及び深さの3次元で検知する3次元検知手段と、
前記操縦対象に設置され、前記検知対象を撮像して2次元の画像情報を取得する撮像手段と、
所定形状の画像を当てはめて前記表示手段の画面に表示させる座標として、前記3次元検知手段によって検知された前記検知対象毎の3次元座標を記憶する記憶手段と、
前記3次元検知手段によって検知された前記検知対象毎の前記3次元座標のうち、前記記憶手段に記憶されていない前記3次元座標を抽出して前記記憶手段に追加して記憶させる追加座標抽出手段と、
前記撮像手段で取得された前記画像情報に基づいて、移動した前記検知対象を抽出する抽出手段と、
前記抽出手段によって抽出された前記検知対象に対応する前記3次元座標を前記記憶手段からの削除対象として抽出する削除座標抽出手段と、
を備える遠隔操縦用画像処理装置。
An image processing apparatus for remote control that displays on a display means an image for remotely controlling a control object,
A three-dimensional detection means that is installed in the steering target and detects the position of the detection target in three dimensions of length, width, and depth;
An imaging unit installed on the steering target and capturing the two-dimensional image information by imaging the detection target;
Storage means for storing three-dimensional coordinates for each detection target detected by the three-dimensional detection means as coordinates to be displayed on the screen of the display means by applying an image of a predetermined shape;
Additional coordinate extraction means for extracting the three-dimensional coordinates not stored in the storage means out of the three-dimensional coordinates for each detection target detected by the three-dimensional detection means, and adding and storing them in the storage means When,
Extraction means for extracting the detected object that has moved based on the image information acquired by the imaging means;
A deletion coordinate extraction unit that extracts the three-dimensional coordinates corresponding to the detection target extracted by the extraction unit as a deletion target from the storage unit;
An image processing apparatus for remote control comprising:
操縦対象、及び遠隔操縦装置を備える遠隔操縦システムであって、
前記操縦対象は、
請求項1から請求項6の何れか1項に記載の遠隔操縦用画像処理装置と、
前記追加座標抽出手段によって前記記憶手段に追加して記憶される前記3次元座標である追加座標、及び前記削除座標抽出手段によって抽出された前記3次元座標である削除座標を前記遠隔操縦装置へ送信する送信手段と、
を備え、
前記遠隔操縦装置は、
前記操縦対象を遠隔操作するための画像を表示する表示手段と、
前記送信手段からの前記追加座標及び前記削除座標を受信する受信手段と、
前記受信手段によって受信された前記追加座標を記憶すると共に、前記受信手段によって受信された前記削除座標が削除される表示用記憶手段と、
前記表示用記憶手段に記憶されている前記三次元座標に前記所定形状の画像を当てはめて前記表示手段に表示させる表示画面作成手段と、
を備える遠隔操縦システム。
A remote control system including a control object and a remote control device,
The pilot object is
The image processing device for remote control according to any one of claims 1 to 6,
The additional coordinates, which are the three-dimensional coordinates additionally stored in the storage means by the additional coordinate extraction means, and the deleted coordinates, which are the three-dimensional coordinates extracted by the deletion coordinate extraction means, are transmitted to the remote control device. Sending means to
With
The remote control device includes:
Display means for displaying an image for remotely operating the maneuvering object;
Receiving means for receiving the additional coordinates and the deleted coordinates from the transmitting means;
Storing the additional coordinates received by the receiving means, and display storage means for deleting the deleted coordinates received by the receiving means;
Display screen creation means for applying the image of the predetermined shape to the three-dimensional coordinates stored in the display storage means and causing the display means to display;
Remote control system with
前記操縦対象に設置され、検知対象の位置を縦、横、及び深さの3次元で検知する3次元検知手段と、所定形状の画像を当てはめて前記表示手段の画面に表示させる座標として、前記3次元検知手段によって検知された前記検知対象毎の3次元座標を記憶する記憶手段と、を備え、操縦対象を遠隔操縦するための画像を表示手段に表示させる遠隔操縦用画像処理装置による遠隔操縦用画像処理方法であって、
前記3次元検知手段によって検知された前記検知対象毎の前記3次元座標のうち、前記記憶手段に記憶されていない前記3次元座標を抽出して前記記憶手段に追加して記憶させる第1工程と、
前記3次元座標の時間変化に基づいて前記検知対象が移動したか否かを判定し、移動したと判定した前記検知対象に対応する前記3次元座標を前記記憶手段からの削除対象として抽出する第2工程と、
を含む遠隔操縦用画像処理方法。
As the coordinates that are installed on the steering object and detect the position of the detection object in three dimensions of length, width, and depth, and coordinates to be displayed on the screen of the display means by applying an image of a predetermined shape, Storage means for storing three-dimensional coordinates for each detection target detected by the three-dimensional detection means, and remote control by a remote control image processing device for displaying an image for remote control of the control target on the display means Image processing method for
A first step of extracting the three-dimensional coordinates not stored in the storage means out of the three-dimensional coordinates for each of the detection targets detected by the three-dimensional detection means, and adding and storing them in the storage means; ,
A determination is made as to whether or not the detection object has moved based on a time change of the three-dimensional coordinates, and the three-dimensional coordinates corresponding to the detection object that has been determined to have moved are extracted as deletion objects from the storage means. Two steps,
An image processing method for remote control including:
前記操縦対象に設置され、検知対象の位置を縦、横、及び深さの3次元で検知する3次元検知手段と、前記操縦対象に設置され、検知対象を撮像して2次元の画像情報を取得する撮像手段と、所定形状の画像を当てはめて前記表示手段の画面に表示させる座標として、前記3次元検知手段によって検知された前記検知対象毎の3次元座標を記憶する記憶手段と、を備え、操縦対象を遠隔操縦するための画像を表示手段に表示させる遠隔操縦用画像処理装置による遠隔操縦用画像処理方法であって、
前記3次元検知手段によって検知された前記検知対象毎の前記3次元座標のうち、前記記憶手段に記憶されていない前記3次元座標を抽出して前記記憶手段に追加して記憶させる第1工程と、
前記撮像手段で取得された前記画像情報に基づいて、移動した前記検知対象を抽出する第2工程と、
前記第2工程によって抽出した前記検知対象に対応する前記3次元座標を前記記憶手段からの削除対象として抽出する第3工程と、
を含む遠隔操縦用画像処理方法。
A three-dimensional detection unit that is installed on the control target and detects the position of the detection target in three dimensions of length, width, and depth; and a two-dimensional image information that is set on the control target and images the detection target. Imaging means for obtaining; and storage means for storing three-dimensional coordinates for each detection target detected by the three-dimensional detection means as coordinates to be displayed on the screen of the display means by applying an image of a predetermined shape. An image processing method for remote control by a remote control image processing device for displaying an image for remotely controlling a control object on a display means,
A first step of extracting the three-dimensional coordinates not stored in the storage means out of the three-dimensional coordinates for each of the detection targets detected by the three-dimensional detection means, and adding and storing them in the storage means; ,
A second step of extracting the detected detection object based on the image information acquired by the imaging means;
A third step of extracting the three-dimensional coordinates corresponding to the detection target extracted in the second step as a deletion target from the storage unit;
An image processing method for remote control including:
JP2012217108A 2012-09-28 2012-09-28 Image processing apparatus for remote control, remote control system, and image processing method for remote control Active JP5968178B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012217108A JP5968178B2 (en) 2012-09-28 2012-09-28 Image processing apparatus for remote control, remote control system, and image processing method for remote control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012217108A JP5968178B2 (en) 2012-09-28 2012-09-28 Image processing apparatus for remote control, remote control system, and image processing method for remote control

Publications (2)

Publication Number Publication Date
JP2014071655A JP2014071655A (en) 2014-04-21
JP5968178B2 true JP5968178B2 (en) 2016-08-10

Family

ID=50746803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012217108A Active JP5968178B2 (en) 2012-09-28 2012-09-28 Image processing apparatus for remote control, remote control system, and image processing method for remote control

Country Status (1)

Country Link
JP (1) JP5968178B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6614607B2 (en) * 2015-07-09 2019-12-04 株式会社Ihiエアロスペース Remote control system and method
JP6418181B2 (en) 2016-03-04 2018-11-07 トヨタ自動車株式会社 Remote control system, vehicle and remote control device
JP6578998B2 (en) * 2016-03-08 2019-09-25 トヨタ自動車株式会社 Car sharing system
JP6319507B1 (en) 2017-12-08 2018-05-09 トヨタ自動車株式会社 Vehicle remote control system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2078286A1 (en) * 2006-10-30 2009-07-15 Tele Atlas B.V. Method and apparatus for detecting objects from terrestrial based mobile mapping data
JP5473304B2 (en) * 2008-12-02 2014-04-16 三菱電機株式会社 Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program
JP5442353B2 (en) * 2009-08-10 2014-03-12 株式会社Ihi Image display apparatus and method for vehicle control

Also Published As

Publication number Publication date
JP2014071655A (en) 2014-04-21

Similar Documents

Publication Publication Date Title
JP7297017B2 (en) Method and apparatus for calibrating external parameters of on-board sensors and related vehicles
CN109017570B (en) Vehicle surrounding scene presenting method and device and vehicle
EP3164769B1 (en) Machine safety dome
EP2481637B1 (en) Parking Assistance System and Method
US20180273029A1 (en) System for Parking a Vehicle
JP6445808B2 (en) Image display system
US11257369B2 (en) Off road route selection and presentation in a drive assistance system equipped vehicle
US20170269613A1 (en) Inspection system and method for performing inspections in a storage facility
JPWO2019098353A1 (en) Vehicle position estimation device and vehicle control device
WO2016125332A1 (en) System for detecting moving object outside vehicle body
US20140232871A1 (en) Method for manually calibrating a camera mounted on vehicle
CN112824997B (en) Method and system for localized lane of travel awareness
JP5968178B2 (en) Image processing apparatus for remote control, remote control system, and image processing method for remote control
KR102604821B1 (en) Apparatus and method for estimating location of vehicle
JP2023067985A (en) Information processing device, control method, program and storage medium
JP2016078665A (en) Moving body
WO2022004494A1 (en) Industrial vehicle
US20210263533A1 (en) Mobile object and method for controlling mobile object
KR20200038140A (en) Apparatus and method for updating high definition map
CN110346799A (en) A kind of obstacle detection method and equipment
JP7146271B2 (en) Buried object measuring device, method, and program
JP7227879B2 (en) Surrounding Observation System, Surrounding Observation Program and Surrounding Observation Method
JP2021182177A (en) Vehicle steering system and vehicle steering method
US20230065761A1 (en) Remote driver support method, remote driver support system, and storage medium
US20230136871A1 (en) Camera calibration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160705

R151 Written notification of patent or utility model registration

Ref document number: 5968178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151