JP7492059B2 - Periphery monitoring device and surroundings monitoring method - Google Patents
Periphery monitoring device and surroundings monitoring method Download PDFInfo
- Publication number
- JP7492059B2 JP7492059B2 JP2023071988A JP2023071988A JP7492059B2 JP 7492059 B2 JP7492059 B2 JP 7492059B2 JP 2023071988 A JP2023071988 A JP 2023071988A JP 2023071988 A JP2023071988 A JP 2023071988A JP 7492059 B2 JP7492059 B2 JP 7492059B2
- Authority
- JP
- Japan
- Prior art keywords
- monitoring device
- target
- image
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 68
- 238000012544 monitoring process Methods 0.000 title claims description 23
- 238000000034 method Methods 0.000 title claims description 17
- 239000002131 composite material Substances 0.000 claims description 42
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 27
- 238000013500 data storage Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 description 22
- 238000003786 synthesis reaction Methods 0.000 description 22
- 238000009877 rendering Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000009434 installation Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、主として、カメラ映像を用いた周辺監視装置に関する。 The present invention primarily relates to a surroundings monitoring device that uses camera images.
特許文献1は、カメラ等の撮像装置を画像入力手段として用いた侵入物体監視システムを開示する。特許文献1には、洋上での侵入船検出を行う際に、洋上での光の反射等の誤検出を除去するマスク領域を自動的に設定することが開示されている。
しかし、上記特許文献1の構成は、画素値の変化に基づいてマスク領域を作成しているため、洋上での光の反射と船とが紛らわしい場合にマスク領域を正しく設定できず、誤検出又は検出漏れが生じてしまう点で改善の余地があった。
However, the configuration of
本発明は以上の事情に鑑みてされたものであり、その目的は、高精度な物標検出が可能な物標対象領域を適切に設定することにある。 The present invention has been made in consideration of the above circumstances, and its purpose is to appropriately set a target target area that enables highly accurate target detection.
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。 The problem that the present invention aims to solve is as described above. Next, we will explain the means for solving this problem and its effects.
この発明の周辺監視装置は、海図データを記憶する海図データ記憶部と、カメラの撮影映像を入力する撮影映像入力部と、前記海図データに基づいて検出対象領域を設定する領域設定部と、前記検出対象領域において検出された物標の物標情報を取得する物標情報取得部と、前記物標が検出された位置に対応する前記撮影映像の位置に、前記物標情報を合成した合成映像を生成する合成映像生成部と、を備える。 The perimeter monitoring device of the present invention includes a nautical chart data storage unit that stores nautical chart data, a captured image input unit that inputs an image captured by a camera, an area setting unit that sets a detection target area based on the nautical chart data, a target information acquisition unit that acquires target information of a target detected in the detection target area, and a composite image generation unit that generates a composite image by combining the target information at a position in the captured image corresponding to the position where the target was detected.
前記物標情報取得部は、前記検出対象領域に対して画像認識することにより検出された物標の物標情報を取得し、前記画像認識を行う前記検出対象領域の内側と外側とを区切る境界は、閉じた折れ線図形で表され、前記領域設定部は、前記折れ線図形の複数の頂点の位置情報を記憶する。 The target information acquisition unit acquires target information of the target detected by performing image recognition on the detection target area, and the boundary separating the inside and outside of the detection target area where the image recognition is performed is represented by a closed polygonal line figure, and the area setting unit stores position information of multiple vertices of the polygonal line figure.
また、この発明の周辺監視装置では、前記合成映像生成部は、前記検出対象領域を表す図形を含んで前記合成映像を生成する。 In addition, in the surroundings monitoring device of the present invention, the composite image generating unit generates the composite image including a graphic representing the detection target area.
また、この発明の周辺監視装置では、前記画像認識を行う前記検出対象領域は、ユーザからの操作によって変形してから指定可能である。 In addition, in the perimeter monitoring device of the present invention, the detection target area in which the image recognition is performed can be modified and then specified by a user operation.
次に、図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施形態に係る周辺監視装置1の全体的な構成を示すブロック図である。図2は、港湾監視施設4に備えられる各種の機器を示す側面図である。
Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of a
図1に示す周辺監視装置1は、例えば図2に示すような港湾監視施設4に設置される。周辺監視装置1は、カメラ(撮影装置)3で撮影した映像をベースとして、港湾の船舶(監視対象)の動静監視を支援する情報を重畳した映像を生成することができる。従って、周辺監視装置1は、映像生成装置として機能する。周辺監視装置1が生成した映像は、ディスプレイ2に表示される。
The
ディスプレイ2は、例えば、港湾監視施設4でオペレータが 監視業務を行う監視デスクに配置されたディスプレイとして構成することができる。ただし、ディスプレイ2は上記に限定されず、例えば、港湾監視施設4から周囲の状況を監視する監視補助者が携帯する携帯型コンピュータのディスプレイ等とすることが可能である。
周辺監視装置1は、港湾監視施設4に設置されたカメラ3によって撮影された周囲の映像と、当該周囲の付加表示情報(後に詳述)を仮想現実的に表現する図形と、を合成することにより、ディスプレイ2への出力映像である合成映像を生成する。
The
次に、主に図1を参照して、周辺監視装置1に電気的に接続されるカメラ3及び各種の機器について説明する。
Next, referring mainly to FIG. 1, we will explain the
カメラ3は、港湾監視施設4の周囲を撮影する可視光ビデオカメラとして構成されている。カメラ3は広角型のカメラとして構成されており、見通しの良い高い場所にやや下向きで取り付けられている。このカメラ3はライブ出力機能を有しており、撮影結果としての動画データ(映像データ)をリアルタイムで生成して周辺監視装置1に出力することができる。
Camera 3 is configured as a visible light video camera that captures the surroundings of port monitoring facility 4. Camera 3 is configured as a wide-angle camera, and is mounted facing slightly downward in a high location with good visibility. This
カメラ3は、原則として定点撮影を行う。ただし、カメラ3は図略の回転機構を介して取り付けられており、パン/チルト動作を指示する信号が周辺監視装置1から入力されることにより、その撮影方向を変更することができる。
In principle,
本実施形態の周辺監視装置1は、上記のカメラ3のほか、各種の機器としてのAIS受信機9、レーダ装置(物標検出部)12等と電気的に接続されている。
In this embodiment, the
AIS受信機9は、船舶から送信されるAIS情報を受信する。AIS情報には、監視対象の港湾を航行している船舶の位置(緯度・経度)、当該船舶の長さ及び幅、当該船舶の種類及び識別情報、当該船舶の船速、針路及び目的地等の、様々な情報が含まれる。
The AIS
レーダ装置12は、監視対象の港湾に存在する船舶等の物標を探知することができる。また、このレーダ装置12は物標を捕捉及び追尾することが可能な公知の目標追尾機能(Target Tracking、TT)を有しており、当該物標の位置及び速度ベクトル(TT情報)を求めることができる。
The
周辺監視装置1は、ユーザが操作するキーボード36及びマウス37に接続されている。ユーザは、キーボード36及びマウス37を操作することで、映像の生成に関する各種の指示を行うことができる。この指示には、カメラ3のパン/チルト動作等が含まれる。
The
次に、周辺監視装置1の構成について、主に図1を参照して詳細に説明する。
Next, the configuration of the
図1に示すように、周辺監視装置1は、撮影映像入力部21と、付加表示情報取得部(物標情報取得部)17と、カメラ位置/向き設定部25と、レーダ位置/向き設定部26と、画像認識部(物標検出部)28と、画像認識領域設定部(領域設定部)31と、追尾対象領域設定部(領域設定部)32と、海図データ記憶部33と、合成映像生成部20と、を備える。
As shown in FIG. 1, the
具体的には、周辺監視装置1は公知のコンピュータとして構成され、図示しないが、CPU、ROM、RAM、及びHDD等を備える。更に、周辺監視装置1は、後述の3次元画像処理を高速で行うためのGPUを備えている。そして、例えばHDDには、本発明の周辺監視方法を実行させるためのソフトウェアが記憶されている。このハードウェアとソフトウェアの協働により、周辺監視装置1を、撮影映像入力部21、付加表示情報取得部17、カメラ位置/向き設定部25、レーダ位置/向き設定部26、画像認識部28、画像認識領域設定部31、追尾対象領域設定部32、海図データ記憶部33、及び合成映像生成部20等として機能させることができる。符号35はプロセッシングサーキットリーである。
Specifically, the
撮影映像入力部21は、カメラ3が出力する映像データを、例えば30フレーム毎秒で入力することができる。撮影映像入力部21は、入力された映像データを、画像認識部28及び合成映像生成部20(後述のデータ合成部23)に出力する。
The captured
付加表示情報取得部17は、AIS受信機9及びレーダ装置12から周辺監視装置1に入力した情報と、画像認識部28が取得した情報と、に基づいて、カメラ3で撮影した映像に対して付加的に表示する情報(付加表示情報、物標情報)を取得する。この付加表示情報としては様々なものが考えられるが、例えば、AIS受信機9から得られる船舶の位置及び速度、レーダ装置12から得られる物標の位置及び速度、画像認識部28から得られる物標の位置及び速度等とすることができる。付加表示情報取得部17は、取得した情報を合成映像生成部20に出力する。なお、付加表示情報の詳細は後述する。
The additional display
カメラ位置/向き設定部25は、港湾監視施設4におけるカメラ3の位置(撮影位置)及び向きを設定することができる。カメラ3の位置の情報は、具体的には、緯度、経度、及び高度を示す情報である。カメラ3の向きの情報は、具体的には、方位角及び俯角を示す情報である。これらの情報は、例えばカメラ3の設置作業時に測定を行うこと等により得ることができる。カメラ3の向きは上述のとおり所定の角度範囲で変更可能であるが、カメラ3のパン/チルト操作がされると、それに応じて、最新の向きの情報がカメラ位置/向き設定部25に設定される。カメラ位置/向き設定部25は、設定されている情報を、合成映像生成部20、付加表示情報取得部17及び画像認識領域設定部31に出力する。
The camera position/
レーダ位置/向き設定部26は、レーダ装置12のアンテナの位置及び向きを設定することができる。アンテナの位置の情報は、具体的には、緯度及び経度を示す情報である。アンテナの向きの情報は、具体的には、方位を示す情報である。アンテナは通常は水平面内で回転するが、ここでいうアンテナの向きは、レーダ装置12の探知方向の基準となる方位(基準方位)を意味する。これらの情報は、当該アンテナの設置作業時に測定を行うこと等により得ることができる。
The radar position/
周辺監視装置1のレーダ位置/向き設定部26に設定されているアンテナの位置及び向きの情報は、レーダ装置12にも同様に設定されている。レーダ位置/向き設定部26は、設定されている情報を、付加表示情報取得部17及び追尾対象領域設定部32に出力する。
The antenna position and orientation information set in the radar position/
画像認識部28は、撮影映像入力部21から取得した画像のうち船舶等と考えられる部分を切り出して、予め登録されている物標画像データベースと照合することにより、船舶、ダイバー、漂流物等の物標を認識する。具体的には、画像認識部28は、移動する物体をフレーム間差分法等により検出し、差異が生じた領域を切り出して、画像データベースと照合する。照合の方法としては、テンプレートマッチング等、公知の適宜の方法を用いることができる。画像認識は、他の公知の方法、例えばニューラルネットワークを用いて実現することもできる。画像認識部28は、認識された物標のそれぞれについて、画像上で認識された位置の情報を付加表示情報取得部17に出力する。
The
画像認識領域設定部31は、画像認識部28に撮影映像入力部21から入力される映像のうち、画像認識部28が画像認識を行う対象となる領域を設定する。本実施形態において画像認識部28は水面に浮かぶものを認識することを想定しているので、画像認識領域設定部31としては通常、水面が現れている一部の領域だけを画像認識の対象領域とする。
The image recognition
画像認識の対象領域の内側と外側とを区切る境界は、例えば、閉じた折れ線図形で表すことができる。画像認識領域設定部31は、折れ線図形の複数の頂点の位置情報(緯度及び経度)を記憶する。
The boundary separating the inside and outside of the target area for image recognition can be represented, for example, by a closed polygonal line figure. The image recognition
カメラ3は通常、水面を大きく写すように設置されるが、例えば図3の例に示すように、カメラ3の視野に水面と同時に陸上が入ることがある。この場合、画像認識領域設定部31において陸上の部分を除外するように画像認識の対象領域を設定することで、例えば道路を走行する自動車等を画像認識部28が物標として認識することを回避することができる。この結果、認識精度を高めることができ、また、処理の負荷を低減させることができる。
The
図1の追尾対象領域設定部32は、レーダ装置12が上述の目標追尾機能で物標を追尾する対象となる領域を設定する。レーダ装置12は水面に浮かぶものを探知することを想定しているので、追尾対象領域設定部32においても画像認識領域設定部31と同様に、陸上の部分を除外するように物標追尾対象が設定される。これにより、水面の物標だけを適切に探知することができる。
The tracking target
レーダ装置12による追尾の対象領域の内側と外側とを区切る境界は、画像認識の対象領域と同様に、閉じた折れ線図形で表すことができる。追尾対象領域設定部32は、折れ線図形の複数の頂点の位置情報(緯度及び経度)を記憶する。
The boundary separating the inside and outside of the target area tracked by the
海図データ記憶部33は、海図データを記憶する。この海図データとしては、例えば航海用電子海図が用いられている。海図データには、水面と陸地との境界線(水陸境界線)のベクトルデータが含まれている。境界線の表現方法は任意であるが、例えば、陸域の輪郭を折れ線による閉じた図形で表現し、それぞれの頂点の位置情報(緯度及び経度)を順に記述することが考えられる。
The chart
海図データ記憶部33は、水陸境界線を示すベクトルデータを、画像認識領域設定部31及び追尾対象領域設定部32に出力する。これにより、画像認識領域設定部31及び追尾対象領域設定部32に対する領域の設定が容易になる。
The nautical chart
合成映像生成部20は、ディスプレイ2に映し出す合成映像を生成するものである。当該合成映像生成部20は、3次元シーン生成部(表示用データ生成部)22と、データ合成部(表示出力部)23と、を備える。
The composite
3次元シーン生成部22は、図4に示すように、3次元仮想空間40に、付加表示情報に対応する仮想現実オブジェクト41v,42v,・・・を配置することにより、仮想現実の3次元シーンを構築する。これにより、3次元シーンのデータである3次元シーンデータ(3次元表示用データ)48が生成される。なお、3次元シーンの詳細は後述する。
As shown in FIG. 4, the three-dimensional
データ合成部23は、3次元シーン生成部22が生成した3次元シーンデータ48を描画することで付加表示情報を3次元的に表現する図形を生成するとともに、図5に示す合成映像、即ち、当該図形41f,42f,・・・とカメラ3の撮影映像とを合成した映像を出力する処理を行う。図5に示すように、この合成映像では、カメラ3で撮影された映像に、付加表示情報を示す図形41f,42f,・・・が重ねられている。データ合成部23は、生成された合成映像をディスプレイ2に出力する。なお、図形の生成処理及びデータ合成処理の詳細は後述する。
The
次に、前述の付加表示情報取得部17で取得される付加表示情報について詳細に説明する。図3は、周辺監視装置1において表示の対象となる付加表示情報の例を説明する概念図である。
Next, the additional display information acquired by the aforementioned additional display
付加表示情報は、カメラ3で撮影した映像に対して付加的に表示する情報であり、周辺監視装置1に接続される機器の目的及び機能に応じて様々なものが考えられる。例示すると、AIS受信機9に関しては、受信した上述のAIS情報(例えば、船舶の位置及び向き等)を付加表示情報とすることができる。レーダ装置12に関しては、探知された物標の位置及び速度等を付加表示情報とすることができる。これらの情報は、それぞれの機器から周辺監視装置1にリアルタイムで入力される。
The additional display information is information that is additionally displayed on the image captured by the
また、本実施形態において、付加表示情報には、画像認識部28が画像認識を行うことにより識別された物標の位置及び速度等が含まれる。
In addition, in this embodiment, the additional display information includes the position and speed of the target identified by the
レーダ装置12から得られた情報に含まれる物標の位置及び速度ベクトルは、レーダ装置12のアンテナの位置及び向きを基準とした相対的なものである。従って、付加表示情報取得部17は、レーダ装置12から得られた物標の位置及び速度ベクトルを、レーダ位置/向き設定部26から得られた情報に基づいて、地球基準に変換する。
The target position and velocity vector contained in the information obtained from the
同様に、画像認識部28から得られた物標の位置及び速度ベクトルは、カメラ3の位置及び向きを基準とした相対的なものである。従って、付加表示情報取得部17は、画像認識部28から得られた物標の位置及び速度ベクトルを、カメラ位置/向き設定部25から得られた情報に基づいて、地球基準に変換する。
Similarly, the target position and velocity vector obtained from the
以下、付加表示情報の例を説明する。図3のカメラ映像で示す状況において、港湾内で大きな船舶41rがカメラ映像の右側へ向かって航行中であることが、AIS受信機9が取得したAIS情報により検出されている。小さな船舶42rがカメラ映像の右側へ向かって高速で航行中であることが、レーダ装置12により検出されている。更に、小さな船舶43rが手前側に向かって高速で航行中であることが、画像認識部28により検出されている。
An example of additional display information is described below. In the situation shown in the camera image of FIG. 3, the AIS information acquired by the
それぞれの付加表示情報には、少なくとも、それが配置される海面(水面)における地点の位置(緯度及び経度)を示す情報が含まれている。例えば、船舶41r,42r,43rを示す付加表示情報には、当該船舶41r,42r,43rの位置を示す情報が含まれている。
Each piece of additional display information includes at least information indicating the position (latitude and longitude) of the point on the sea surface (water surface) where it is located. For example, the additional display
次に、3次元シーン生成部22による3次元シーンの構築、及び、データ合成部23による映像の合成について、図4を参照して詳細に説明する。図4は、3次元仮想空間40に仮想現実オブジェクト41v,42v,・・・を配置して生成される3次元シーンデータ48と、当該3次元仮想空間40に配置される映写スクリーン51と、を説明する概念図である。
Next, the construction of a three-dimensional scene by the three-dimensional
3次元シーン生成部22によって仮想現実オブジェクト41v,42v,・・・が配置される3次元仮想空間40は、図4に示すように直交座標系で構成される。この直交座標系の原点は、カメラ3の設置位置の真下の高度ゼロの点に定められる。3次元仮想空間40において、原点を含む水平な面であるxz平面が海面(水面)を模擬するように設定される。図4の例では、座標軸は、+z方向が常にカメラ3の方位角と一致し、+x方向が右方向、+y方向が上方向となるように定められる。この3次元仮想空間40内の各地点(座標)は、カメラ3の周囲の現実の位置に対応するように設定される。
The three-dimensional
図4には、図3に示す港湾の状況に対応して、仮想現実オブジェクト41v,42v,43vを3次元仮想空間40内に配置した例が示されている。本実施形態において、仮想現実オブジェクト41v,42v,・・・は、認識された物標(即ち、船舶41r,42r,43r)の位置を示す下向きの円錐と、当該物標の速度ベクトルを示す矢印と、を含んでいる。円錐及び矢印は、何れも3次元形状である。下向きの円錐は、その真下に物標が位置することを表現している。矢印の向きは物標の速度の向きを表現し、矢印の長さは速度の大きさを表現している。
Figure 4 shows an example in which
各仮想現実オブジェクト41v,42v,43vは、カメラ3の方位角を基準として、それが表す付加表示情報のカメラ3に対する相対位置を反映させるように、xz平面又はそれより少し上に配置される。これらの仮想現実オブジェクト41v,42v,・・・が配置される位置を決定するにあたっては、図1に示すカメラ位置/向き設定部25で設定されたカメラ3の位置及び向きを用いた計算が行われる。
Each
3次元シーン生成部22は、上記のようにして、3次元シーンデータ48を生成する。図4の例では、仮想現実オブジェクト41v,42v,・・・がカメラ3の真下を原点とした方位基準で配置されるので、図3の状態からカメラ3の方位角が変化すると、当該仮想現実オブジェクト41v,42v,・・・を再配置した新しい3次元シーンが構築されて、3次元シーンデータ48が更新される。また、例えば図3の状態から船舶41r,42r,43rが移動する等して付加表示情報の内容が変更されると、最新の付加表示情報を反映するように3次元シーンデータ48が更新される。
The three-dimensional
更に、データ合成部23は、3次元仮想空間40に、カメラ3の撮影映像が映写される位置及び範囲を定める映写スクリーン51を配置する。この映写スクリーン51と仮想現実オブジェクト41v,42v,・・・の両方が視野に含まれるように後述の視点カメラ55の位置及び向きを設定することで、映像の合成を実現することができる。
Furthermore, the
データ合成部23は、視点カメラ55を、現実空間におけるカメラ3の位置及び向きを3次元仮想空間40においてシミュレートするように配置する。また、データ合成部23は、映写スクリーン51を、当該視点カメラ55に正対するように配置する。カメラ3の位置のシミュレートに関し、カメラ3の位置は、図1に示すカメラ位置/向き設定部25の設定値に基づいて得ることができる。
The
3次元仮想空間40における視点カメラ55の方位角は、カメラ3のパン動作によって方位角が変化しても、変化することはない。その代わり、データ合成部23は、カメラ3をパン動作させると、変化した方位角の分だけ、3次元仮想空間40における仮想現実オブジェクト41v,42v,・・・を、原点を中心に水平面内で回転させるように再配置する。
The azimuth angle of the
視点カメラ55の俯角は、カメラ3の俯角と常に等しくなるように制御される。データ合成部23は、カメラ3のチルト動作による俯角の変化(視点カメラ55の俯角の変化)に連動して、3次元仮想空間40に配置される映写スクリーン51の位置及び向きを、視点カメラ55と正対する状態を常に保つように変化させる。
The depression angle of the
そして、データ合成部23は、3次元シーンデータ48及び映写スクリーン51に対して公知のレンダリング処理を施すことにより、2次元の画像を生成する。より具体的には、データ合成部23は、3次元仮想空間40に視点カメラ55を配置するとともに、レンダリング処理の対象となる範囲を定める視錐台56を、当該視点カメラ55を頂点とし、その視線方向が中心軸となるように定義する。続いて、データ合成部23は、各オブジェクト(仮想現実オブジェクト41v,42v,・・・及び映写スクリーン51)を構成するポリゴンのうち、当該視錐台56の内部に位置するポリゴンの頂点座標を、透視投影により、ディスプレイ2での合成映像の表示領域に相当する2次元の仮想スクリーンの座標に変換する。そして、この仮想スクリーン上に配置された頂点に基づいて、所定の解像度でピクセルの生成・加工処理を行うことにより、2次元の画像を生成する。
Then, the
このようにして生成された2次元の画像には、3次元シーンデータ48の描画が行われることにより得られた図形(言い換えれば、仮想現実オブジェクト41v,42v,・・・のレンダリング結果としての図形)が含まれる。また、2次元の画像の生成過程において、映写スクリーン51に相当する位置には、カメラ3の撮影映像が貼り付けられるように配置される。これにより、データ合成部23による映像の合成が実現される。
The two-dimensional image generated in this manner includes figures obtained by drawing the three-dimensional scene data 48 (in other words, figures resulting from the rendering of the
映写スクリーン51は、視点カメラ55を中心とする球殻に沿うように湾曲した形状となっているので、透視投影による撮影映像の歪みを防止することができる。また、カメラ3は広角カメラであり、その撮影映像には図3に示すようにレンズ歪みが生じているが、当該レンズ歪みは、映写スクリーン51に撮影映像が貼り付けられる時点で除去されている。レンズ歪みを除去する方法は任意であるが、例えば、補正前の画素の位置と補正後の画素の位置を対応付けたルックアップテーブルを用いることが考えられる。これにより、図4に示す3次元仮想空間40と撮影映像を良好に整合させることができる。
次に、カメラ3で撮影した映像と合成映像との関係を、例を参照して説明する。
Next, we will explain the relationship between the image captured by
図5には、図3に示す撮影映像に対し、図4の3次元シーンデータ48のレンダリングによる上記の2次元の画像を合成した結果が示されている。ただし、図5では、カメラ3による撮影映像が現れている部分が、それ以外の部分と区別し易くなるように便宜的に破線で示されている(これは、合成映像を表す他の図においても同様である)。図5の合成映像では、付加表示情報を表現する図形41f,42f,43fが、撮影映像に重なるように配置されている。
Figure 5 shows the result of combining the captured image shown in Figure 3 with the above-mentioned two-dimensional image created by rendering the three-
上記の図形41f,42f,・・・は、図4に示す3次元シーンデータ48を構成する仮想現実オブジェクト41v,42v,・・・の3次元形状を、カメラ3と同じ位置及び向きの視点で描画した結果として生成される。従って、カメラ3による写実的な映像に対して図形41f,42f,・・・を重ねた場合でも、見た目の違和感が殆ど生じないようにすることができる。
The above figures 41f, 42f, ... are generated as a result of drawing the three-dimensional shapes of the
これにより、船舶を示すマーク及び速度を示す矢印があたかも水面上の空中に浮かんでいるように見える、自然で現実感の高い拡張現実の映像を得ることができる。また、ユーザは、ディスプレイ2に映し出された海面を眺めることで、仮想現実を表す図形41f,42f,・・・が網羅的に視界に入るので、取りこぼしなく必要な情報を得ることができる。
This makes it possible to obtain a natural and highly realistic augmented reality image in which the mark indicating the ship and the arrow indicating the speed appear to be floating in the air above the water surface. In addition, by gazing at the sea surface projected on the
上述したように、カメラ3から入力された撮影映像は、3次元仮想空間40の映写スクリーン51に映写される時点でレンズ歪みが除去されている。しかしながら、データ合成部23は、レンダリング後の合成映像に対し、上述のルックアップテーブルを用いた逆変換により、レンズ歪みを再び付与する。これにより、図5と図3とを比較すれば分かるように、合成前のカメラ映像との関係で違和感が生じにくい合成映像を得ることができる。ただし、レンズ歪みの付与は省略しても良い。
As described above, lens distortion is removed from the captured image input from
データ合成部23は、図5に示すように、合成映像において図形41f,42f,43fの近傍の位置に、監視のために有用な情報を記述した文字情報を更に合成している。文字情報の内容は任意であり、例えば、船舶を識別する情報、船舶の大きさを示す情報、どの装置から取得したかを示す情報等、様々な内容を表示することができる。船舶を識別する情報は、例えばAIS情報から得ることができる。船舶の大きさを示す情報は、AIS情報から得ることができるが、画像認識部28による画像認識時に検出された画像の大きさから、又は、レーダ装置12において得られた追尾エコーの大きさから、計算により得ることもできる。これにより、情報が充実した監視画面を実現することができる。
As shown in FIG. 5, the
図5に示すように、本実施形態では、AIS受信機9から得られたAIS情報に基づく付加表示情報を表す図形41fと、画像認識部28による画像認識結果に基づく付加表示情報を表す図形42fと、レーダ装置12のレーダ追尾結果に基づく付加表示情報を表す図形43fと、が撮影映像に合成されている。これにより、統合された表示を実現でき、ユーザは、多様な情報源から得られる情報を1つの合成映像で分かり易く監視することができる。この結果、監視負担を良好に軽減することができる。
As shown in FIG. 5, in this embodiment, a figure 41f representing additional display information based on the AIS information obtained from the
図5では、船舶41rについて、AIS受信機9から得られたAIS情報に基づく付加表示情報が表示されている。同一の船舶41rを、画像認識部28が認識したり、レーダ装置12が追尾したりすることも考えられるが、この場合でも、合成映像生成部20は、船舶41rの部分には、AIS情報に基づく付加表示情報を優先して表示する。これにより、信頼度の高い情報を優先して表示することができる。
In FIG. 5, additional display information based on AIS information obtained from the
図5の合成映像には、方位目盛り46が表示されている。方位目盛り46は、画面の左端と右端とを繋ぐように円弧状に形成されている。方位目盛り46には、映像に対応した方位を示す数値が記載されている。これにより、ユーザは、カメラ3が見ている方位を直感的に把握することができる。
A
例えばカメラ3がチルトして合成映像上で方位目盛り46が他の図形41f,42f,43fと重なったり、撮影映像の水面と重なってしまう場合には、データ合成部23は、方位目盛り46が合成される位置を映像の上下方向に自動的に移動させる。これにより、方位目盛り46が他の表示の邪魔にならないようにすることができる。
For example, if the
次に、海図データを用いた画像認識領域の設定について説明する。 Next, we will explain how to set the image recognition area using nautical chart data.
上述のとおり、画像認識領域設定部31は、画像認識部28が画像認識を行う対象となる領域を設定する。ユーザは、カメラ3の撮影映像をディスプレイ2に表示させた状態で、画像認識の対象領域をマウス37等で指定することで、上述の領域を指定することができる。
As described above, the image recognition
画像認識の対象領域をユーザに指定させるとき、海図データ記憶部33は、記憶している海図データのうち、水陸境界線を表すベクトルデータを画像認識領域設定部31に出力する。画像認識領域設定部31は、この境界線ベクトルデータを合成映像生成部20に出力する。
When the user specifies the target area for image recognition, the nautical chart
合成映像生成部20の3次元シーン生成部22は、図6に示すように、水陸境界線を表す仮想現実オブジェクト49vをxz平面に配置した3次元シーンデータ48を生成する。仮想現実オブジェクト49vが配置される位置は、カメラ3の方位角を基準として、水陸境界線のカメラ3に対する相対位置を反映させるように配置される。そして、データ合成部23は、上述と全く同様にレンダリング処理を行い、図7に示すような合成映像をディスプレイに出力する。
The three-dimensional
図7の合成映像において、仮想現実オブジェクト49vがレンダリングされた結果としての図形49fは、カメラ3による撮影映像の水面にあたかも置かれるかのように合成映像上に配置されている。境界線ベクトルデータは現実の境界線と一致しているはずなので、カメラ3に映る水面の形状と図形49fの形状は整合している。
In the composite image of Figure 7, figure 49f, which is the result of rendering
従って、ユーザは、図形49fを参考にして、画像認識領域を容易かつ適切に設定することができる。ユーザは、例えば、図7に示される図形49fに囲まれた領域をそのまま画像認識領域として指定することができる。また、ユーザは、撮影映像とのズレを修正するようにマウス操作等により領域を変形してから、画像認識領域として指定することもできる。 The user can therefore easily and appropriately set the image recognition area by referring to figure 49f. For example, the user can directly specify the area surrounded by figure 49f shown in FIG. 7 as the image recognition area. The user can also deform the area by using the mouse or other methods to correct any misalignment with the captured image, and then specify it as the image recognition area.
なお、海図データ記憶部33が記憶する境界線ベクトルデータは、追尾対象領域設定部32において追尾対象領域を設定するのに用いることもできる。追尾対象領域は、レーダ位置/向き設定部26に設定されているアンテナの位置/向きと、境界線ベクトルデータと、に基づいて、水域に限定するように計算して定めることができる。これにより、ユーザは、追尾対象領域を容易にかつ正確に設定することができる。
The boundary vector data stored in the nautical chart
画像認識の対象領域の境界、及び、レーダ追尾の対象領域の境界は、水陸境界線を用いず、他の境界線を用いて定義することもできる。例えば、海図データに含まれるデータのうち、所定の深さに相当する等深線を、認識の境界としても良い。また、水陸境界線から所定の距離だけ水域側にオフセットするようにして境界線を作り、当該境界線を認識の境界としても良い。これにより、例えば大型船だけを監視する場合は所定の水深以上の領域となるように対象領域を限定する等、目的に応じた監視を実現し易くなる。 The boundaries of the target area for image recognition and the target area for radar tracking can also be defined using other boundaries rather than the land-water boundary line. For example, contour lines corresponding to a specified depth from the data included in the nautical chart data can be used as the recognition boundary. Also, a boundary line can be created by offsetting the land-water boundary line a specified distance toward the water area, and this boundary line can be used as the recognition boundary. This makes it easier to realize monitoring according to the purpose, for example, when monitoring only large ships, the target area can be limited to an area with a specified water depth or greater.
画像認識、或いは、レーダ追尾のパラメータを、海図データに含まれる情報に応じて変更しても良い。例えば、水深が浅い領域では大型船舶は航行できないので、海図データに基づいて取得した水深が小さい場合には、画像認識部28が小型船舶の画像データベースとテンプレートマッチングしたり、レーダ装置12が小さなレーダエコーだけを追尾対象としたりすること等が考えられる。これにより、適切な監視を実現することができる。
The parameters of image recognition or radar tracking may be changed according to the information contained in the nautical chart data. For example, since large ships cannot navigate in shallow water areas, when the water depth obtained based on the nautical chart data is small, the
図8には、周辺監視装置1において行われる一連の処理がフローチャートによって示されている。
Figure 8 shows a flowchart of a series of processes performed by the
図8のフローがスタートすると、周辺監視装置1は、準備作業として、外部から入力された海図データを海図データ記憶部33に記憶する(ステップS101)。次に、周辺監視装置1は、カメラ3が撮影した撮影映像を撮影映像入力部21から入力する(ステップS102)。周辺監視装置1の合成映像生成部20は、この撮影映像と、海図データ記憶部33から取得した境界線ベクトルデータと、を合成した合成映像を生成してディスプレイ2に出力する(ステップS103)。
When the flow in FIG. 8 starts, the
ユーザは、ディスプレイ2の画面を見ながら、画像認識領域を適宜設定する(ステップS104)。ステップS103及びS104を省略して、画像認識領域の境界が境界線ベクトルデータと同一となるように周辺監視装置1側で自動的に設定しても良い。
The user sets the image recognition area appropriately while watching the screen of the display 2 (step S104). Steps S103 and S104 may be omitted, and the
その後、通常の運用が開始される。具体的に説明すると、周辺監視装置1は、カメラ3が撮影した撮影映像を撮影映像入力部21から入力する(ステップS105)。続いて、周辺監視装置1の画像認識部28が、画像認識領域を対象とした画像認識を行い、これにより検出された物標の物標情報を取得する(ステップS106)。次に、合成映像生成部20は、物標が検出された位置に対応する撮影映像の位置に、物標情報を合成した合成映像を生成してディスプレイ2に出力する(ステップS107)。その後、処理はステップS105に戻り、ステップS105~S107の処理が反復される。
After that, normal operation is started. More specifically, the
以上に説明したように、本実施形態の周辺監視装置1は、海図データ記憶部33と、撮影映像入力部21と、画像認識領域設定部31と、付加表示情報取得部17と、合成映像生成部20と、を備える。海図データ記憶部33は、海図データを記憶する。撮影映像入力部21は、カメラ3の撮影映像を入力する。画像認識領域設定部31は、海図データに基づいて検出対象領域を設定する。付加表示情報取得部17は、検出対象領域において検出された物標の物標情報を取得する。合成映像生成部20は、物標が検出された位置に対応する撮影映像の位置に、物標情報を合成した合成映像を生成する。
As described above, the
これにより、画像認識を行う領域を、海図データの水陸境界線を用いて容易に設定することができる。 This makes it easy to set the area for image recognition using land-water boundaries in nautical chart data.
以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。 The above describes a preferred embodiment of the present invention, but the above configuration can be modified, for example, as follows:
カメラ3において上記のパン/チルト機能を省略し、撮影方向を変更不能に構成してもよい。
The pan/tilt function described above may be omitted from
3次元シーン生成部22が3次元シーンデータ48を生成するにあたって、上記の実施形態では、図4で説明したように、仮想現実オブジェクト41v,42v,・・・がカメラ3の位置を原点としたカメラ方位基準で配置されている。しかしながら、仮想現実オブジェクト41v,42v,・・・を、カメラ方位基準ではなく、+z方向が常に真北となる真北基準で配置してもよい。この場合、カメラ3のパン動作によって方位角が変化したときは、仮想現実オブジェクト41v,42v,・・・を再配置する代わりに、3次元仮想空間40においてカメラ3の位置及び向きの変化をシミュレートするように視点カメラ55の方位角を変更してレンダリングを行うことで、上述のカメラ方位基準の場合と全く同じレンダリング結果を得ることができる。
When the three-dimensional
また、3次元仮想空間40の座標系は、カメラ3の真下の位置を原点にすることに代えて、地球上に適宜定められた固定点を原点とし、例えば、+z方向が真北、+x方向が真東となるように定められてもよい。
In addition, instead of using the position directly below the
周辺監視装置1に接続される機器(付加表示情報の情報源)は、図1で説明したものに限るものではなく、その他の機器が含まれていてもよい。そのような機器として、例えば、赤外線カメラ、音響センサ等を挙げることができる。
The devices (sources of additional display information) connected to the
画像認識領域設定部31において設定される対象領域、及び、追尾対象領域設定部32において設定される対象領域は、折れ線図形に代えて、他の図形、例えば滑らかな曲線で表すこともできる。また、ベクトルデータに代えてラスタデータ(マスク画像)の形で、対象領域を設定することもできる。
The target area set in the image recognition
付加表示情報を表す図形は、図5に示すものに限られない。例えば、船舶41r,42r,43rが検出された位置に、船舶の3次元モデルをレンダリングした図形を表示することもできる。これにより、より臨場感のある表示を実現することができる。図4の3次元仮想空間40において、船舶の3次元モデルは、AIS情報等から得られる船舶の向きと一致する向きで配置される。3次元仮想空間40に配置される船舶の3次元モデルの大きさを、AIS情報等から得られる船舶の大きさに応じて変化させても良い。
The figures representing the additional display information are not limited to those shown in FIG. 5. For example, a figure that is a rendering of a three-dimensional model of the ship can be displayed at the position where the
3次元シーン生成部22を省略して、付加表示情報の図形41f,42f,43fについて拡張現実による表示を行わないように構成することもできる。例えば、3次元円錐形状をレンダリングした図形の代わりに、単に下向きの平面的な三角形を表示することができる。3次元シーンを構築しなくても、撮影映像における各画素と、水面上の対応する場所と、の対応関係は、カメラ3が設置されている位置と向きに基づいて計算により求めることができる。従って、上記の三角形を、水面上での検出位置に対応する映像上の位置に表示することができる。同様に、3次元シーンを構築しなくても、境界線の図形を合成した図7のような合成映像を実現することができる。
The three-dimensional
周辺監視装置1は、地上の施設に限定されず、船舶等の移動体に設けられても良い。
The
1 周辺監視装置
3 カメラ
17 付加表示情報取得部(物標情報取得部)
20 合成映像生成部
21 撮影映像入力部
28 画像認識部
31 画像認識領域設定部(領域設定部)
32 追尾対象領域設定部(領域設定部)
33 海図データ記憶部
1
20 Composite
32 Tracking target area setting unit (area setting unit)
33 Nautical chart data storage unit
Claims (16)
カメラの撮影映像を入力する撮影映像入力部と、
前記海図データに基づいて、折れ線図形を用いて検出対象領域の内側と外側とを区切る境界を設定する領域設定部と、
前記撮影映像の画像における前記検出対象領域の内側に対する画像認識によって検出された物標の物標情報を取得する物標情報取得部と、
前記物標が検出された位置に対応する前記撮影映像の位置に、前記物標情報を合成した合成映像を生成する合成映像生成部と、
を備える、
ことを特徴とする周辺監視装置。 a nautical chart data storage unit for storing nautical chart data;
a captured image input unit for inputting captured images from a camera;
an area setting unit that sets a boundary that separates an inside and an outside of a detection target area using a polygonal line figure based on the nautical chart data;
a target information acquisition unit that acquires target information of a target detected by image recognition inside the detection target area in the captured image ;
a composite image generating unit that generates a composite image by combining the target information at a position of the photographed image corresponding to the position where the target is detected;
Equipped with
A perimeter monitoring device characterized by:
前記画像認識を行う前記検出対象領域の内側と外側とを区切る境界は、閉じた折れ線図形で表される、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to claim 1,
The boundary separating the inside and outside of the detection target area in which the image recognition is performed is represented by a closed polygonal line figure.
A perimeter monitoring device characterized by:
前記領域設定部は、前記折れ線図形の複数の頂点の位置情報を記憶する、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to claim 1 or 2,
the region setting unit stores position information of a plurality of vertices of the polygonal line figure;
A perimeter monitoring device characterized by:
前記領域設定部は、水面が現れている領域の少なくとも一部を含み陸上の部分を除外するように前記検出対象領域の内側を設定する、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to any one of claims 1 to 3,
the region setting unit sets an inside of the detection target region so as to include at least a part of a region where a water surface appears and exclude a land portion;
A perimeter monitoring device characterized by:
前記合成映像生成部は、前記検出対象領域を表す図形を含んで前記合成映像を生成する、
周辺監視装置。 The surroundings monitoring device according to any one of claims 1 to 4,
the synthetic image generating unit generates the synthetic image including a graphic representing the detection target region.
Perimeter monitoring devices.
前記画像認識を行う前記検出対象領域は、ユーザからの操作によって変形してから指定可能である、
周辺監視装置。 The surroundings monitoring device according to claim 5,
The detection target area in which the image recognition is performed can be designated after being transformed by a user operation.
Perimeter monitoring devices.
前記検出対象領域は、複数の位置情報によって表される境界線によって区切られた領域である、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to any one of claims 1 to 6,
The detection target area is an area separated by a boundary line represented by a plurality of pieces of position information.
A perimeter monitoring device characterized by:
前記検出対象領域は、前記海図データに含まれる水陸境界線又は等深線で区切られた領域である、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to claim 7,
The detection target area is an area delimited by a water-land boundary or a bathymetry line included in the nautical chart data.
A perimeter monitoring device characterized by:
前記検出対象領域は、前記海図データに含まれる水陸境界線から所定距離水域側に離れた境界線で区切られた領域である、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to claim 7,
The detection target area is an area separated by a boundary line a predetermined distance away from a land-land boundary line included in the nautical chart data toward the water area side.
A perimeter monitoring device characterized by:
前記撮影映像入力部は、地上に設置されたカメラが撮像した撮影映像を入力する、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to any one of claims 1 to 9,
The photographed image input unit inputs photographed images captured by a camera installed on the ground.
A perimeter monitoring device characterized by:
前記物標情報取得部は、前記検出対象領域においてレーダ装置が検出した物標の物標情報を取得する、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to any one of claims 1 to 10,
The target information acquisition unit acquires target information of a target detected by the radar device in the detection target area.
A perimeter monitoring device characterized by:
前記物標情報は、物標の位置、物標の速度、物標の大きさのうち少なくとも何れかを表現している、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to any one of claims 1 to 11,
The target information represents at least one of a target position, a target speed, and a target size.
A perimeter monitoring device characterized by:
前記物標情報取得部は、AIS情報に基づいて前記物標情報を取得可能であり、
前記合成映像生成部は、前記AIS情報に基づく前記物標情報と、前記AIS情報以外の情報に基づく前記物標情報と、を同一の映像に合成可能である、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to any one of claims 1 to 12,
The target information acquisition unit is capable of acquiring the target information based on AIS information,
The synthetic image generation unit is capable of synthesizing the target information based on the AIS information and the target information based on information other than the AIS information into a single image.
A perimeter monitoring device characterized by:
前記合成映像生成部は、同一の物標について、前記AIS情報に基づく前記物標情報と、前記AIS情報以外の情報に基づく前記物標情報と、の両方が得られた場合に、前記AIS情報に基づく前記物標情報を優先して合成する、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to claim 13,
When both the target information based on the AIS information and the target information based on information other than the AIS information are obtained for the same target, the synthetic image generation unit preferentially synthesizes the target information based on the AIS information.
A perimeter monitoring device characterized by:
前記合成映像生成部は、前記撮影映像に対して、方位を示す方位目盛りを合成可能であり、
前記合成映像生成部は、前記方位目盛りが前記撮影映像に対して合成される上下方向の位置を自動的に変更可能である、
ことを特徴とする周辺監視装置。 The surroundings monitoring device according to any one of claims 1 to 14,
The composite image generating unit is capable of combining a direction scale indicating a direction with the captured image,
The composite image generating unit is capable of automatically changing a vertical position at which the orientation scale is composited with the captured image.
A perimeter monitoring device characterized by:
撮影装置が撮影した撮影映像を入力し、
前記海図データに基づいて、折れ線図形を用いて検出対象領域の内側と外側とを区切る境界を設定し、
前記撮影映像の画像における前記検出対象領域の内側に対する画像認識によって検出された物標の物標情報を取得し、
前記物標が検出された位置に対応する前記撮影映像の位置に、前記物標情報を合成した合成映像を生成する、
ことを特徴とする周辺監視方法。 Stores chart data,
Input the images captured by the imaging device,
Based on the nautical chart data, a boundary is set to separate an inside and an outside of a detection target area using a polygonal line diagram;
acquiring target information of a target detected by image recognition within the detection target area in the captured image ;
generating a composite image by combining the target information with the captured image at a position corresponding to the position where the target was detected;
A perimeter monitoring method comprising:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018191014 | 2018-10-09 | ||
JP2018191014 | 2018-10-09 | ||
JP2020550232A JP7346436B2 (en) | 2018-10-09 | 2019-09-09 | Surrounding monitoring device and surrounding monitoring method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020550232A Division JP7346436B2 (en) | 2018-10-09 | 2019-09-09 | Surrounding monitoring device and surrounding monitoring method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2023106401A JP2023106401A (en) | 2023-08-01 |
JP2023106401A5 JP2023106401A5 (en) | 2023-09-22 |
JP7492059B2 true JP7492059B2 (en) | 2024-05-28 |
Family
ID=70163782
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020550232A Active JP7346436B2 (en) | 2018-10-09 | 2019-09-09 | Surrounding monitoring device and surrounding monitoring method |
JP2023071988A Active JP7492059B2 (en) | 2018-10-09 | 2023-04-26 | Periphery monitoring device and surroundings monitoring method |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020550232A Active JP7346436B2 (en) | 2018-10-09 | 2019-09-09 | Surrounding monitoring device and surrounding monitoring method |
Country Status (3)
Country | Link |
---|---|
JP (2) | JP7346436B2 (en) |
CN (1) | CN112840641A (en) |
WO (1) | WO2020075429A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014099055A (en) | 2012-11-14 | 2014-05-29 | Canon Inc | Detector, detection method, and program |
JP2015088816A (en) | 2013-10-29 | 2015-05-07 | セコム株式会社 | Image monitoring system |
JP2018019359A (en) | 2016-07-29 | 2018-02-01 | キヤノン株式会社 | Ship monitoring device |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3365182B2 (en) * | 1995-12-27 | 2003-01-08 | 三菱電機株式会社 | Video surveillance equipment |
JP3560040B2 (en) | 1998-11-17 | 2004-09-02 | 沖電気工業株式会社 | Surveillance ITV camera control method |
JP2002176641A (en) | 2000-12-05 | 2002-06-21 | Matsushita Electric Ind Co Ltd | Peripheral video image presenting device |
JP2004227045A (en) | 2003-01-20 | 2004-08-12 | Wham Net Service Co Ltd | Fishery trespasser monitoring system and fishery trespasser monitoring method |
JP3777411B2 (en) * | 2003-08-08 | 2006-05-24 | 今津隼馬 | Ship navigation support device |
JP2005208011A (en) | 2004-01-26 | 2005-08-04 | Mitsubishi Heavy Ind Ltd | System and method for monitoring |
JP4445313B2 (en) | 2004-04-01 | 2010-04-07 | 古野電気株式会社 | Ship navigation support device |
JP2010041530A (en) | 2008-08-07 | 2010-02-18 | Sanyo Electric Co Ltd | Steering supporting device |
KR101048508B1 (en) * | 2011-04-11 | 2011-07-11 | (주)에디넷 | System and method for realtime monitoring of harbor image using smart device |
KR101072395B1 (en) | 2011-07-21 | 2011-10-11 | 한국해양연구원 | A augmented reality system for vessel using ceil moving transparent display device and the method using thereof |
JP6236549B1 (en) * | 2016-06-02 | 2017-11-22 | 日本郵船株式会社 | Ship navigation support device |
KR101880437B1 (en) * | 2016-10-28 | 2018-08-17 | 한국해양과학기술원 | Unmanned surface vehicle control system for providing wide viewing angle using real camera image and virtual camera image |
CN107609564B (en) * | 2017-09-19 | 2020-01-10 | 浙江大学 | Underwater target image identification method based on joint segmentation and Fourier descriptor library |
-
2019
- 2019-09-09 CN CN201980065172.8A patent/CN112840641A/en not_active Withdrawn
- 2019-09-09 JP JP2020550232A patent/JP7346436B2/en active Active
- 2019-09-09 WO PCT/JP2019/035308 patent/WO2020075429A1/en active Application Filing
-
2023
- 2023-04-26 JP JP2023071988A patent/JP7492059B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014099055A (en) | 2012-11-14 | 2014-05-29 | Canon Inc | Detector, detection method, and program |
JP2015088816A (en) | 2013-10-29 | 2015-05-07 | セコム株式会社 | Image monitoring system |
JP2018019359A (en) | 2016-07-29 | 2018-02-01 | キヤノン株式会社 | Ship monitoring device |
Also Published As
Publication number | Publication date |
---|---|
CN112840641A (en) | 2021-05-25 |
JP2023106401A (en) | 2023-08-01 |
JP7346436B2 (en) | 2023-09-19 |
JPWO2020075429A1 (en) | 2021-09-02 |
WO2020075429A1 (en) | 2020-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6840842B2 (en) | Video generator | |
JP7488925B2 (en) | Image generating device and image generating method | |
JP6857546B2 (en) | Video generator and video generation method | |
JP6720409B2 (en) | Video generator | |
JP7021259B2 (en) | Video generator and video generation method | |
JP7492059B2 (en) | Periphery monitoring device and surroundings monitoring method | |
JP7365355B2 (en) | Video generation device and video generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240516 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7492059 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |