Nothing Special   »   [go: up one dir, main page]

JP7492059B2 - Periphery monitoring device and surroundings monitoring method - Google Patents

Periphery monitoring device and surroundings monitoring method Download PDF

Info

Publication number
JP7492059B2
JP7492059B2 JP2023071988A JP2023071988A JP7492059B2 JP 7492059 B2 JP7492059 B2 JP 7492059B2 JP 2023071988 A JP2023071988 A JP 2023071988A JP 2023071988 A JP2023071988 A JP 2023071988A JP 7492059 B2 JP7492059 B2 JP 7492059B2
Authority
JP
Japan
Prior art keywords
monitoring device
target
image
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023071988A
Other languages
Japanese (ja)
Other versions
JP2023106401A (en
JP2023106401A5 (en
Inventor
浩二 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Original Assignee
Furuno Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd filed Critical Furuno Electric Co Ltd
Publication of JP2023106401A publication Critical patent/JP2023106401A/en
Publication of JP2023106401A5 publication Critical patent/JP2023106401A5/ja
Application granted granted Critical
Publication of JP7492059B2 publication Critical patent/JP7492059B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、主として、カメラ映像を用いた周辺監視装置に関する。 The present invention primarily relates to a surroundings monitoring device that uses camera images.

特許文献1は、カメラ等の撮像装置を画像入力手段として用いた侵入物体監視システムを開示する。特許文献1には、洋上での侵入船検出を行う際に、洋上での光の反射等の誤検出を除去するマスク領域を自動的に設定することが開示されている。 Patent Document 1 discloses an intruding object monitoring system that uses an imaging device such as a camera as an image input means. Patent Document 1 also discloses that when detecting an intruding ship at sea, a mask area is automatically set to eliminate false detections due to light reflections and the like at sea.

特開2002-279429号公報JP 2002-279429 A

しかし、上記特許文献1の構成は、画素値の変化に基づいてマスク領域を作成しているため、洋上での光の反射と船とが紛らわしい場合にマスク領域を正しく設定できず、誤検出又は検出漏れが生じてしまう点で改善の余地があった。 However, the configuration of Patent Document 1 creates a mask area based on changes in pixel values, so when light reflections on the ocean are confusable with ships, the mask area cannot be set correctly, resulting in false detections or missed detections, leaving room for improvement.

本発明は以上の事情に鑑みてされたものであり、その目的は、高精度な物標検出が可能な物標対象領域を適切に設定することにある。 The present invention has been made in consideration of the above circumstances, and its purpose is to appropriately set a target target area that enables highly accurate target detection.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。 The problem that the present invention aims to solve is as described above. Next, we will explain the means for solving this problem and its effects.

この発明の周辺監視装置は、海図データを記憶する海図データ記憶部と、カメラの撮影映像を入力する撮影映像入力部と、前記海図データに基づいて検出対象領域を設定する領域設定部と、前記検出対象領域において検出された物標の物標情報を取得する物標情報取得部と、前記物標が検出された位置に対応する前記撮影映像の位置に、前記物標情報を合成した合成映像を生成する合成映像生成部と、を備える。 The perimeter monitoring device of the present invention includes a nautical chart data storage unit that stores nautical chart data, a captured image input unit that inputs an image captured by a camera, an area setting unit that sets a detection target area based on the nautical chart data, a target information acquisition unit that acquires target information of a target detected in the detection target area, and a composite image generation unit that generates a composite image by combining the target information at a position in the captured image corresponding to the position where the target was detected.

前記物標情報取得部は、前記検出対象領域に対して画像認識することにより検出された物標の物標情報を取得し、前記画像認識を行う前記検出対象領域の内側と外側とを区切る境界は、閉じた折れ線図形で表され、前記領域設定部は、前記折れ線図形の複数の頂点の位置情報を記憶する。 The target information acquisition unit acquires target information of the target detected by performing image recognition on the detection target area, and the boundary separating the inside and outside of the detection target area where the image recognition is performed is represented by a closed polygonal line figure, and the area setting unit stores position information of multiple vertices of the polygonal line figure.

また、この発明の周辺監視装置では、前記合成映像生成部は、前記検出対象領域を表す図形を含んで前記合成映像を生成する。 In addition, in the surroundings monitoring device of the present invention, the composite image generating unit generates the composite image including a graphic representing the detection target area.

また、この発明の周辺監視装置では、前記画像認識を行う前記検出対象領域は、ユーザからの操作によって変形してから指定可能である。 In addition, in the perimeter monitoring device of the present invention, the detection target area in which the image recognition is performed can be modified and then specified by a user operation.

本発明の一実施形態に係る周辺監視装置の全体的な構成を示すブロック図。1 is a block diagram showing an overall configuration of a surroundings monitoring device according to an embodiment of the present invention; 港湾監視施設に備えられる各種の機器を示す側面図。FIG. 2 is a side view showing various devices provided in a port monitoring facility. カメラから入力される撮影映像の例を示す図。FIG. 2 is a diagram showing an example of a captured image input from a camera. 3次元仮想空間に仮想現実オブジェクトを配置して構築される3次元シーンデータと、当該3次元仮想空間に配置される映写スクリーンと、を説明する概念図。A conceptual diagram illustrating three-dimensional scene data constructed by placing virtual reality objects in a three-dimensional virtual space, and a projection screen placed in the three-dimensional virtual space. データ合成部が出力する合成映像を示す図。FIG. 4 is a diagram showing a composite video output by a data synthesis unit. 3次元仮想空間に水陸境界線の仮想現実オブジェクトを配置する様子を示す概念図。A conceptual diagram showing how a virtual reality object of a land-water boundary is placed in a three-dimensional virtual space. 撮影映像に水陸境界線を合成した合成映像を示す図。FIG. 13 is a diagram showing a composite image in which a land-water boundary is composited with a captured image. 周辺監視装置において行われる処理を説明するフローチャート。4 is a flowchart illustrating a process performed in the surroundings monitoring device.

次に、図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施形態に係る周辺監視装置1の全体的な構成を示すブロック図である。図2は、港湾監視施設4に備えられる各種の機器を示す側面図である。 Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of a perimeter monitoring device 1 according to one embodiment of the present invention. FIG. 2 is a side view showing various devices provided in a port monitoring facility 4.

図1に示す周辺監視装置1は、例えば図2に示すような港湾監視施設4に設置される。周辺監視装置1は、カメラ(撮影装置)3で撮影した映像をベースとして、港湾の船舶(監視対象)の動静監視を支援する情報を重畳した映像を生成することができる。従って、周辺監視装置1は、映像生成装置として機能する。周辺監視装置1が生成した映像は、ディスプレイ2に表示される。 The perimeter monitoring device 1 shown in FIG. 1 is installed in, for example, a port monitoring facility 4 as shown in FIG. 2. The perimeter monitoring device 1 can generate images based on images captured by a camera (imaging device) 3, on which information that supports monitoring of the movements of ships (monitoring targets) in the port is superimposed. Therefore, the perimeter monitoring device 1 functions as an image generating device. The images generated by the perimeter monitoring device 1 are displayed on the display 2.

ディスプレイ2は、例えば、港湾監視施設4でオペレータが 監視業務を行う監視デスクに配置されたディスプレイとして構成することができる。ただし、ディスプレイ2は上記に限定されず、例えば、港湾監視施設4から周囲の状況を監視する監視補助者が携帯する携帯型コンピュータのディスプレイ等とすることが可能である。 Display 2 can be configured, for example, as a display placed at a monitoring desk where an operator performs monitoring duties at port monitoring facility 4. However, display 2 is not limited to the above, and can be, for example, the display of a portable computer carried by a monitoring assistant who monitors the surrounding situation from port monitoring facility 4.

周辺監視装置1は、港湾監視施設4に設置されたカメラ3によって撮影された周囲の映像と、当該周囲の付加表示情報(後に詳述)を仮想現実的に表現する図形と、を合成することにより、ディスプレイ2への出力映像である合成映像を生成する。 The perimeter monitoring device 1 generates a composite image, which is an output image to the display 2, by combining an image of the surroundings captured by a camera 3 installed in a port monitoring facility 4 with a graphic that represents additional display information (described in detail later) of the surroundings in a virtual reality manner.

次に、主に図1を参照して、周辺監視装置1に電気的に接続されるカメラ3及び各種の機器について説明する。 Next, referring mainly to FIG. 1, we will explain the camera 3 and various devices electrically connected to the perimeter monitoring device 1.

カメラ3は、港湾監視施設4の周囲を撮影する可視光ビデオカメラとして構成されている。カメラ3は広角型のカメラとして構成されており、見通しの良い高い場所にやや下向きで取り付けられている。このカメラ3はライブ出力機能を有しており、撮影結果としての動画データ(映像データ)をリアルタイムで生成して周辺監視装置1に出力することができる。 Camera 3 is configured as a visible light video camera that captures the surroundings of port monitoring facility 4. Camera 3 is configured as a wide-angle camera, and is mounted facing slightly downward in a high location with good visibility. This camera 3 has a live output function, and can generate video data (image data) as the result of the capture in real time and output it to perimeter monitoring device 1.

カメラ3は、原則として定点撮影を行う。ただし、カメラ3は図略の回転機構を介して取り付けられており、パン/チルト動作を指示する信号が周辺監視装置1から入力されることにより、その撮影方向を変更することができる。 In principle, camera 3 takes pictures from a fixed point. However, camera 3 is attached via a rotation mechanism (not shown), and its shooting direction can be changed by receiving a signal from perimeter monitoring device 1 instructing pan/tilt operation.

本実施形態の周辺監視装置1は、上記のカメラ3のほか、各種の機器としてのAIS受信機9、レーダ装置(物標検出部)12等と電気的に接続されている。 In this embodiment, the perimeter monitoring device 1 is electrically connected to the camera 3, as well as various other devices such as an AIS receiver 9 and a radar device (target detection unit) 12.

AIS受信機9は、船舶から送信されるAIS情報を受信する。AIS情報には、監視対象の港湾を航行している船舶の位置(緯度・経度)、当該船舶の長さ及び幅、当該船舶の種類及び識別情報、当該船舶の船速、針路及び目的地等の、様々な情報が含まれる。 The AIS receiver 9 receives AIS information transmitted from ships. The AIS information includes various information such as the position (latitude and longitude) of the ship navigating the monitored port, the length and width of the ship, the type and identification information of the ship, the speed, course and destination of the ship, etc.

レーダ装置12は、監視対象の港湾に存在する船舶等の物標を探知することができる。また、このレーダ装置12は物標を捕捉及び追尾することが可能な公知の目標追尾機能(Target Tracking、TT)を有しており、当該物標の位置及び速度ベクトル(TT情報)を求めることができる。 The radar device 12 can detect targets such as ships present in the harbor being monitored. The radar device 12 also has a known target tracking function (Target Tracking, TT) that can capture and track targets, and can determine the position and velocity vector (TT information) of the target.

周辺監視装置1は、ユーザが操作するキーボード36及びマウス37に接続されている。ユーザは、キーボード36及びマウス37を操作することで、映像の生成に関する各種の指示を行うことができる。この指示には、カメラ3のパン/チルト動作等が含まれる。 The surroundings monitoring device 1 is connected to a keyboard 36 and a mouse 37 that are operated by the user. The user can issue various instructions related to the generation of images by operating the keyboard 36 and the mouse 37. These instructions include pan/tilt operations of the camera 3, etc.

次に、周辺監視装置1の構成について、主に図1を参照して詳細に説明する。 Next, the configuration of the perimeter monitoring device 1 will be described in detail, mainly with reference to FIG. 1.

図1に示すように、周辺監視装置1は、撮影映像入力部21と、付加表示情報取得部(物標情報取得部)17と、カメラ位置/向き設定部25と、レーダ位置/向き設定部26と、画像認識部(物標検出部)28と、画像認識領域設定部(領域設定部)31と、追尾対象領域設定部(領域設定部)32と、海図データ記憶部33と、合成映像生成部20と、を備える。 As shown in FIG. 1, the perimeter monitoring device 1 includes a captured image input unit 21, an additional display information acquisition unit (target information acquisition unit) 17, a camera position/orientation setting unit 25, a radar position/orientation setting unit 26, an image recognition unit (target detection unit) 28, an image recognition area setting unit (area setting unit) 31, a tracking target area setting unit (area setting unit) 32, a nautical chart data storage unit 33, and a composite image generation unit 20.

具体的には、周辺監視装置1は公知のコンピュータとして構成され、図示しないが、CPU、ROM、RAM、及びHDD等を備える。更に、周辺監視装置1は、後述の3次元画像処理を高速で行うためのGPUを備えている。そして、例えばHDDには、本発明の周辺監視方法を実行させるためのソフトウェアが記憶されている。このハードウェアとソフトウェアの協働により、周辺監視装置1を、撮影映像入力部21、付加表示情報取得部17、カメラ位置/向き設定部25、レーダ位置/向き設定部26、画像認識部28、画像認識領域設定部31、追尾対象領域設定部32、海図データ記憶部33、及び合成映像生成部20等として機能させることができる。符号35はプロセッシングサーキットリーである。 Specifically, the perimeter monitoring device 1 is configured as a known computer, and includes a CPU, ROM, RAM, and HDD, which are not shown. Furthermore, the perimeter monitoring device 1 includes a GPU for performing three-dimensional image processing at high speed, which will be described later. For example, the HDD stores software for executing the perimeter monitoring method of the present invention. This hardware and software work together to cause the perimeter monitoring device 1 to function as a captured image input unit 21, an additional display information acquisition unit 17, a camera position/orientation setting unit 25, a radar position/orientation setting unit 26, an image recognition unit 28, an image recognition area setting unit 31, a tracking target area setting unit 32, a nautical chart data storage unit 33, and a composite image generation unit 20, etc. Reference numeral 35 denotes a processing circuitry.

撮影映像入力部21は、カメラ3が出力する映像データを、例えば30フレーム毎秒で入力することができる。撮影映像入力部21は、入力された映像データを、画像認識部28及び合成映像生成部20(後述のデータ合成部23)に出力する。 The captured image input unit 21 can input the image data output by the camera 3 at, for example, 30 frames per second. The captured image input unit 21 outputs the input image data to the image recognition unit 28 and the composite image generation unit 20 (data synthesis unit 23 described below).

付加表示情報取得部17は、AIS受信機9及びレーダ装置12から周辺監視装置1に入力した情報と、画像認識部28が取得した情報と、に基づいて、カメラ3で撮影した映像に対して付加的に表示する情報(付加表示情報、物標情報)を取得する。この付加表示情報としては様々なものが考えられるが、例えば、AIS受信機9から得られる船舶の位置及び速度、レーダ装置12から得られる物標の位置及び速度、画像認識部28から得られる物標の位置及び速度等とすることができる。付加表示情報取得部17は、取得した情報を合成映像生成部20に出力する。なお、付加表示情報の詳細は後述する。 The additional display information acquisition unit 17 acquires information (additional display information, target information) to be additionally displayed on the image captured by the camera 3, based on the information input from the AIS receiver 9 and the radar device 12 to the perimeter monitoring device 1 and the information acquired by the image recognition unit 28. Various types of additional display information are possible, but for example, it can be the position and speed of the ship obtained from the AIS receiver 9, the position and speed of the target obtained from the radar device 12, the position and speed of the target obtained from the image recognition unit 28, etc. The additional display information acquisition unit 17 outputs the acquired information to the composite image generation unit 20. The additional display information will be described in detail later.

カメラ位置/向き設定部25は、港湾監視施設4におけるカメラ3の位置(撮影位置)及び向きを設定することができる。カメラ3の位置の情報は、具体的には、緯度、経度、及び高度を示す情報である。カメラ3の向きの情報は、具体的には、方位角及び俯角を示す情報である。これらの情報は、例えばカメラ3の設置作業時に測定を行うこと等により得ることができる。カメラ3の向きは上述のとおり所定の角度範囲で変更可能であるが、カメラ3のパン/チルト操作がされると、それに応じて、最新の向きの情報がカメラ位置/向き設定部25に設定される。カメラ位置/向き設定部25は、設定されている情報を、合成映像生成部20、付加表示情報取得部17及び画像認識領域設定部31に出力する。 The camera position/orientation setting unit 25 can set the position (shooting position) and orientation of the camera 3 in the port monitoring facility 4. The position information of the camera 3 is specifically information indicating the latitude, longitude, and altitude. The orientation information of the camera 3 is specifically information indicating the azimuth angle and depression angle. This information can be obtained, for example, by performing measurements during the installation work of the camera 3. As described above, the orientation of the camera 3 can be changed within a predetermined angle range, but when the camera 3 is panned/tilted, the latest orientation information is set in the camera position/orientation setting unit 25 accordingly. The camera position/orientation setting unit 25 outputs the set information to the composite image generation unit 20, the additional display information acquisition unit 17, and the image recognition area setting unit 31.

レーダ位置/向き設定部26は、レーダ装置12のアンテナの位置及び向きを設定することができる。アンテナの位置の情報は、具体的には、緯度及び経度を示す情報である。アンテナの向きの情報は、具体的には、方位を示す情報である。アンテナは通常は水平面内で回転するが、ここでいうアンテナの向きは、レーダ装置12の探知方向の基準となる方位(基準方位)を意味する。これらの情報は、当該アンテナの設置作業時に測定を行うこと等により得ることができる。 The radar position/orientation setting unit 26 can set the position and orientation of the antenna of the radar device 12. The antenna position information is specifically information indicating latitude and longitude. The antenna orientation information is specifically information indicating direction. Although an antenna normally rotates within a horizontal plane, the antenna orientation here refers to the direction (reference direction) that serves as the reference for the detection direction of the radar device 12. This information can be obtained by performing measurements during the installation work of the antenna.

周辺監視装置1のレーダ位置/向き設定部26に設定されているアンテナの位置及び向きの情報は、レーダ装置12にも同様に設定されている。レーダ位置/向き設定部26は、設定されている情報を、付加表示情報取得部17及び追尾対象領域設定部32に出力する。 The antenna position and orientation information set in the radar position/orientation setting unit 26 of the perimeter monitoring device 1 is also set in the radar device 12. The radar position/orientation setting unit 26 outputs the set information to the additional display information acquisition unit 17 and the tracking target area setting unit 32.

画像認識部28は、撮影映像入力部21から取得した画像のうち船舶等と考えられる部分を切り出して、予め登録されている物標画像データベースと照合することにより、船舶、ダイバー、漂流物等の物標を認識する。具体的には、画像認識部28は、移動する物体をフレーム間差分法等により検出し、差異が生じた領域を切り出して、画像データベースと照合する。照合の方法としては、テンプレートマッチング等、公知の適宜の方法を用いることができる。画像認識は、他の公知の方法、例えばニューラルネットワークを用いて実現することもできる。画像認識部28は、認識された物標のそれぞれについて、画像上で認識された位置の情報を付加表示情報取得部17に出力する。 The image recognition unit 28 recognizes targets such as ships, divers, and drifting objects by cutting out parts of the images acquired from the captured image input unit 21 that are thought to be ships, etc., and comparing them with a pre-registered target image database. Specifically, the image recognition unit 28 detects moving objects using a frame difference method or the like, cuts out areas where differences occur, and compares them with the image database. As a matching method, any suitable publicly known method such as template matching can be used. Image recognition can also be achieved using other publicly known methods, such as a neural network. The image recognition unit 28 outputs information on the position recognized on the image for each recognized target to the additional display information acquisition unit 17.

画像認識領域設定部31は、画像認識部28に撮影映像入力部21から入力される映像のうち、画像認識部28が画像認識を行う対象となる領域を設定する。本実施形態において画像認識部28は水面に浮かぶものを認識することを想定しているので、画像認識領域設定部31としては通常、水面が現れている一部の領域だけを画像認識の対象領域とする。 The image recognition area setting unit 31 sets an area within the image input to the image recognition unit 28 from the captured image input unit 21 that is to be the target of image recognition by the image recognition unit 28. In this embodiment, since the image recognition unit 28 is assumed to recognize objects floating on the water surface, the image recognition area setting unit 31 normally sets only a portion of the area in which the water surface appears as the target area for image recognition.

画像認識の対象領域の内側と外側とを区切る境界は、例えば、閉じた折れ線図形で表すことができる。画像認識領域設定部31は、折れ線図形の複数の頂点の位置情報(緯度及び経度)を記憶する。 The boundary separating the inside and outside of the target area for image recognition can be represented, for example, by a closed polygonal line figure. The image recognition area setting unit 31 stores the position information (latitude and longitude) of multiple vertices of the polygonal line figure.

カメラ3は通常、水面を大きく写すように設置されるが、例えば図3の例に示すように、カメラ3の視野に水面と同時に陸上が入ることがある。この場合、画像認識領域設定部31において陸上の部分を除外するように画像認識の対象領域を設定することで、例えば道路を走行する自動車等を画像認識部28が物標として認識することを回避することができる。この結果、認識精度を高めることができ、また、処理の負荷を低減させることができる。 The camera 3 is usually installed so as to capture a large image of the water surface, but as shown in the example of Figure 3, the field of view of the camera 3 may include land as well as the water surface. In this case, by setting the target area for image recognition in the image recognition area setting unit 31 so as to exclude the land portion, it is possible to prevent the image recognition unit 28 from recognizing, for example, a car traveling on a road as a target. As a result, it is possible to improve the recognition accuracy and reduce the processing load.

図1の追尾対象領域設定部32は、レーダ装置12が上述の目標追尾機能で物標を追尾する対象となる領域を設定する。レーダ装置12は水面に浮かぶものを探知することを想定しているので、追尾対象領域設定部32においても画像認識領域設定部31と同様に、陸上の部分を除外するように物標追尾対象が設定される。これにより、水面の物標だけを適切に探知することができる。 The tracking target area setting unit 32 in FIG. 1 sets an area in which the radar device 12 will track targets using the target tracking function described above. Since the radar device 12 is designed to detect objects floating on the water surface, the tracking target area setting unit 32 also sets the target tracking target to exclude land areas, just like the image recognition area setting unit 31. This allows only targets on the water surface to be properly detected.

レーダ装置12による追尾の対象領域の内側と外側とを区切る境界は、画像認識の対象領域と同様に、閉じた折れ線図形で表すことができる。追尾対象領域設定部32は、折れ線図形の複数の頂点の位置情報(緯度及び経度)を記憶する。 The boundary separating the inside and outside of the target area tracked by the radar device 12 can be represented by a closed polygonal line figure, similar to the target area for image recognition. The tracking target area setting unit 32 stores the position information (latitude and longitude) of multiple vertices of the polygonal line figure.

海図データ記憶部33は、海図データを記憶する。この海図データとしては、例えば航海用電子海図が用いられている。海図データには、水面と陸地との境界線(水陸境界線)のベクトルデータが含まれている。境界線の表現方法は任意であるが、例えば、陸域の輪郭を折れ線による閉じた図形で表現し、それぞれの頂点の位置情報(緯度及び経度)を順に記述することが考えられる。 The chart data storage unit 33 stores chart data. For example, an electronic navigational chart is used as the chart data. The chart data includes vector data of the boundary between the water surface and land (land-water boundary). The boundary can be expressed in any manner, but for example, it is possible to express the outline of the land area as a closed figure made up of broken lines, and to describe the position information (latitude and longitude) of each vertex in order.

海図データ記憶部33は、水陸境界線を示すベクトルデータを、画像認識領域設定部31及び追尾対象領域設定部32に出力する。これにより、画像認識領域設定部31及び追尾対象領域設定部32に対する領域の設定が容易になる。 The nautical chart data storage unit 33 outputs vector data indicating the land-water boundary to the image recognition area setting unit 31 and the tracking target area setting unit 32. This makes it easy to set areas for the image recognition area setting unit 31 and the tracking target area setting unit 32.

合成映像生成部20は、ディスプレイ2に映し出す合成映像を生成するものである。当該合成映像生成部20は、3次元シーン生成部(表示用データ生成部)22と、データ合成部(表示出力部)23と、を備える。 The composite image generating unit 20 generates a composite image to be displayed on the display 2. The composite image generating unit 20 includes a three-dimensional scene generating unit (display data generating unit) 22 and a data synthesis unit (display output unit) 23.

3次元シーン生成部22は、図4に示すように、3次元仮想空間40に、付加表示情報に対応する仮想現実オブジェクト41v,42v,・・・を配置することにより、仮想現実の3次元シーンを構築する。これにより、3次元シーンのデータである3次元シーンデータ(3次元表示用データ)48が生成される。なお、3次元シーンの詳細は後述する。 As shown in FIG. 4, the three-dimensional scene generating unit 22 constructs a three-dimensional virtual reality scene by arranging virtual reality objects 41v, 42v, ... corresponding to the additional display information in the three-dimensional virtual space 40. This generates three-dimensional scene data (three-dimensional display data) 48, which is data of the three-dimensional scene. Details of the three-dimensional scene will be described later.

データ合成部23は、3次元シーン生成部22が生成した3次元シーンデータ48を描画することで付加表示情報を3次元的に表現する図形を生成するとともに、図5に示す合成映像、即ち、当該図形41f,42f,・・・とカメラ3の撮影映像とを合成した映像を出力する処理を行う。図5に示すように、この合成映像では、カメラ3で撮影された映像に、付加表示情報を示す図形41f,42f,・・・が重ねられている。データ合成部23は、生成された合成映像をディスプレイ2に出力する。なお、図形の生成処理及びデータ合成処理の詳細は後述する。 The data synthesis unit 23 generates figures that three-dimensionally express the additional display information by drawing the three-dimensional scene data 48 generated by the three-dimensional scene generation unit 22, and performs processing to output the synthetic image shown in FIG. 5, that is, an image obtained by synthesizing the figures 41f, 42f, ... with the image captured by the camera 3. As shown in FIG. 5, in this synthetic image, figures 41f, 42f, ... indicating the additional display information are superimposed on the image captured by the camera 3. The data synthesis unit 23 outputs the generated synthetic image to the display 2. The details of the figure generation processing and the data synthesis processing will be described later.

次に、前述の付加表示情報取得部17で取得される付加表示情報について詳細に説明する。図3は、周辺監視装置1において表示の対象となる付加表示情報の例を説明する概念図である。 Next, the additional display information acquired by the aforementioned additional display information acquisition unit 17 will be described in detail. Figure 3 is a conceptual diagram illustrating an example of additional display information to be displayed on the surroundings monitoring device 1.

付加表示情報は、カメラ3で撮影した映像に対して付加的に表示する情報であり、周辺監視装置1に接続される機器の目的及び機能に応じて様々なものが考えられる。例示すると、AIS受信機9に関しては、受信した上述のAIS情報(例えば、船舶の位置及び向き等)を付加表示情報とすることができる。レーダ装置12に関しては、探知された物標の位置及び速度等を付加表示情報とすることができる。これらの情報は、それぞれの機器から周辺監視装置1にリアルタイムで入力される。 The additional display information is information that is additionally displayed on the image captured by the camera 3, and various types are possible depending on the purpose and function of the equipment connected to the perimeter monitoring device 1. For example, for the AIS receiver 9, the received AIS information (e.g., the position and orientation of the ship, etc.) can be the additional display information. For the radar device 12, the position and speed of the detected target can be the additional display information. This information is input from each equipment to the perimeter monitoring device 1 in real time.

また、本実施形態において、付加表示情報には、画像認識部28が画像認識を行うことにより識別された物標の位置及び速度等が含まれる。 In addition, in this embodiment, the additional display information includes the position and speed of the target identified by the image recognition unit 28 through image recognition.

レーダ装置12から得られた情報に含まれる物標の位置及び速度ベクトルは、レーダ装置12のアンテナの位置及び向きを基準とした相対的なものである。従って、付加表示情報取得部17は、レーダ装置12から得られた物標の位置及び速度ベクトルを、レーダ位置/向き設定部26から得られた情報に基づいて、地球基準に変換する。 The target position and velocity vector contained in the information obtained from the radar device 12 are relative to the position and orientation of the antenna of the radar device 12. Therefore, the additional display information acquisition unit 17 converts the target position and velocity vector obtained from the radar device 12 into an earth reference based on the information obtained from the radar position/orientation setting unit 26.

同様に、画像認識部28から得られた物標の位置及び速度ベクトルは、カメラ3の位置及び向きを基準とした相対的なものである。従って、付加表示情報取得部17は、画像認識部28から得られた物標の位置及び速度ベクトルを、カメラ位置/向き設定部25から得られた情報に基づいて、地球基準に変換する。 Similarly, the target position and velocity vector obtained from the image recognition unit 28 are relative to the position and orientation of the camera 3. Therefore, the additional display information acquisition unit 17 converts the target position and velocity vector obtained from the image recognition unit 28 into an earth reference based on the information obtained from the camera position/orientation setting unit 25.

以下、付加表示情報の例を説明する。図3のカメラ映像で示す状況において、港湾内で大きな船舶41rがカメラ映像の右側へ向かって航行中であることが、AIS受信機9が取得したAIS情報により検出されている。小さな船舶42rがカメラ映像の右側へ向かって高速で航行中であることが、レーダ装置12により検出されている。更に、小さな船舶43rが手前側に向かって高速で航行中であることが、画像認識部28により検出されている。 An example of additional display information is described below. In the situation shown in the camera image of FIG. 3, the AIS information acquired by the AIS receiver 9 detects that a large vessel 41r is sailing toward the right side of the camera image within the harbor. The radar device 12 detects that a small vessel 42r is sailing toward the right side of the camera image at high speed. Furthermore, the image recognition unit 28 detects that a small vessel 43r is sailing toward the near side at high speed.

それぞれの付加表示情報には、少なくとも、それが配置される海面(水面)における地点の位置(緯度及び経度)を示す情報が含まれている。例えば、船舶41r,42r,43rを示す付加表示情報には、当該船舶41r,42r,43rの位置を示す情報が含まれている。 Each piece of additional display information includes at least information indicating the position (latitude and longitude) of the point on the sea surface (water surface) where it is located. For example, the additional display information indicating ships 41r, 42r, and 43r includes information indicating the positions of the ships 41r, 42r, and 43r.

次に、3次元シーン生成部22による3次元シーンの構築、及び、データ合成部23による映像の合成について、図4を参照して詳細に説明する。図4は、3次元仮想空間40に仮想現実オブジェクト41v,42v,・・・を配置して生成される3次元シーンデータ48と、当該3次元仮想空間40に配置される映写スクリーン51と、を説明する概念図である。 Next, the construction of a three-dimensional scene by the three-dimensional scene generating unit 22 and the synthesis of images by the data synthesis unit 23 will be described in detail with reference to FIG. 4. FIG. 4 is a conceptual diagram illustrating three-dimensional scene data 48 generated by placing virtual reality objects 41v, 42v, ... in a three-dimensional virtual space 40, and a projection screen 51 placed in the three-dimensional virtual space 40.

3次元シーン生成部22によって仮想現実オブジェクト41v,42v,・・・が配置される3次元仮想空間40は、図4に示すように直交座標系で構成される。この直交座標系の原点は、カメラ3の設置位置の真下の高度ゼロの点に定められる。3次元仮想空間40において、原点を含む水平な面であるxz平面が海面(水面)を模擬するように設定される。図4の例では、座標軸は、+z方向が常にカメラ3の方位角と一致し、+x方向が右方向、+y方向が上方向となるように定められる。この3次元仮想空間40内の各地点(座標)は、カメラ3の周囲の現実の位置に対応するように設定される。 The three-dimensional virtual space 40 in which the virtual reality objects 41v, 42v, ... are placed by the three-dimensional scene generation unit 22 is configured with a Cartesian coordinate system as shown in FIG. 4. The origin of this Cartesian coordinate system is set at a point at zero altitude directly below the installation position of the camera 3. In the three-dimensional virtual space 40, the xz plane, which is a horizontal plane including the origin, is set to simulate the sea surface (water surface). In the example of FIG. 4, the coordinate axes are set so that the +z direction always coincides with the azimuth angle of the camera 3, the +x direction is to the right, and the +y direction is upward. Each point (coordinate) in this three-dimensional virtual space 40 is set to correspond to a real position around the camera 3.

図4には、図3に示す港湾の状況に対応して、仮想現実オブジェクト41v,42v,43vを3次元仮想空間40内に配置した例が示されている。本実施形態において、仮想現実オブジェクト41v,42v,・・・は、認識された物標(即ち、船舶41r,42r,43r)の位置を示す下向きの円錐と、当該物標の速度ベクトルを示す矢印と、を含んでいる。円錐及び矢印は、何れも3次元形状である。下向きの円錐は、その真下に物標が位置することを表現している。矢印の向きは物標の速度の向きを表現し、矢印の長さは速度の大きさを表現している。 Figure 4 shows an example in which virtual reality objects 41v, 42v, 43v are placed in a three-dimensional virtual space 40 in response to the port situation shown in Figure 3. In this embodiment, the virtual reality objects 41v, 42v, ... include a downward-pointing cone indicating the position of the recognized target (i.e., ships 41r, 42r, 43r) and an arrow indicating the velocity vector of the target. Both the cone and the arrow are three-dimensional shapes. The downward-pointing cone indicates that the target is located directly below it. The direction of the arrow indicates the direction of the target's velocity, and the length of the arrow indicates the magnitude of the velocity.

各仮想現実オブジェクト41v,42v,43vは、カメラ3の方位角を基準として、それが表す付加表示情報のカメラ3に対する相対位置を反映させるように、xz平面又はそれより少し上に配置される。これらの仮想現実オブジェクト41v,42v,・・・が配置される位置を決定するにあたっては、図1に示すカメラ位置/向き設定部25で設定されたカメラ3の位置及び向きを用いた計算が行われる。 Each virtual reality object 41v, 42v, 43v is positioned on the xz plane or slightly above it so as to reflect the relative position of the additional display information it represents with respect to the camera 3, based on the azimuth angle of the camera 3. When determining the positions at which these virtual reality objects 41v, 42v, ... are positioned, a calculation is performed using the position and orientation of the camera 3 set by the camera position/orientation setting unit 25 shown in FIG. 1.

3次元シーン生成部22は、上記のようにして、3次元シーンデータ48を生成する。図4の例では、仮想現実オブジェクト41v,42v,・・・がカメラ3の真下を原点とした方位基準で配置されるので、図3の状態からカメラ3の方位角が変化すると、当該仮想現実オブジェクト41v,42v,・・・を再配置した新しい3次元シーンが構築されて、3次元シーンデータ48が更新される。また、例えば図3の状態から船舶41r,42r,43rが移動する等して付加表示情報の内容が変更されると、最新の付加表示情報を反映するように3次元シーンデータ48が更新される。 The three-dimensional scene generating unit 22 generates three-dimensional scene data 48 as described above. In the example of FIG. 4, the virtual reality objects 41v, 42v, ... are positioned with an orientation reference that has the origin directly below the camera 3, so that when the azimuth angle of the camera 3 changes from the state of FIG. 3, a new three-dimensional scene is constructed in which the virtual reality objects 41v, 42v, ... are rearranged, and the three-dimensional scene data 48 is updated. In addition, when the content of the additional display information is changed, for example, by the ships 41r, 42r, 43r moving from the state of FIG. 3, the three-dimensional scene data 48 is updated to reflect the latest additional display information.

更に、データ合成部23は、3次元仮想空間40に、カメラ3の撮影映像が映写される位置及び範囲を定める映写スクリーン51を配置する。この映写スクリーン51と仮想現実オブジェクト41v,42v,・・・の両方が視野に含まれるように後述の視点カメラ55の位置及び向きを設定することで、映像の合成を実現することができる。 Furthermore, the data synthesis unit 23 places a projection screen 51 in the three-dimensional virtual space 40, which determines the position and range in which the image captured by the camera 3 is projected. The position and orientation of the viewpoint camera 55 (described below) are set so that both the projection screen 51 and the virtual reality objects 41v, 42v, ... are included in the field of view, thereby achieving image synthesis.

データ合成部23は、視点カメラ55を、現実空間におけるカメラ3の位置及び向きを3次元仮想空間40においてシミュレートするように配置する。また、データ合成部23は、映写スクリーン51を、当該視点カメラ55に正対するように配置する。カメラ3の位置のシミュレートに関し、カメラ3の位置は、図1に示すカメラ位置/向き設定部25の設定値に基づいて得ることができる。 The data synthesis unit 23 positions the viewpoint camera 55 so as to simulate the position and orientation of the camera 3 in the real space in the three-dimensional virtual space 40. The data synthesis unit 23 also positions the projection screen 51 so as to directly face the viewpoint camera 55. With regard to simulating the position of the camera 3, the position of the camera 3 can be obtained based on the setting value of the camera position/orientation setting unit 25 shown in FIG. 1.

3次元仮想空間40における視点カメラ55の方位角は、カメラ3のパン動作によって方位角が変化しても、変化することはない。その代わり、データ合成部23は、カメラ3をパン動作させると、変化した方位角の分だけ、3次元仮想空間40における仮想現実オブジェクト41v,42v,・・・を、原点を中心に水平面内で回転させるように再配置する。 The azimuth angle of the viewpoint camera 55 in the three-dimensional virtual space 40 does not change even if the azimuth angle changes due to the panning of the camera 3. Instead, when the data synthesis unit 23 pans the camera 3, it repositions the virtual reality objects 41v, 42v, ... in the three-dimensional virtual space 40 so that they rotate in the horizontal plane around the origin by the amount of the changed azimuth angle.

視点カメラ55の俯角は、カメラ3の俯角と常に等しくなるように制御される。データ合成部23は、カメラ3のチルト動作による俯角の変化(視点カメラ55の俯角の変化)に連動して、3次元仮想空間40に配置される映写スクリーン51の位置及び向きを、視点カメラ55と正対する状態を常に保つように変化させる。 The depression angle of the viewpoint camera 55 is controlled so that it is always equal to the depression angle of the camera 3. In response to the change in depression angle caused by the tilting operation of the camera 3 (change in the depression angle of the viewpoint camera 55), the data synthesis unit 23 changes the position and orientation of the projection screen 51 placed in the three-dimensional virtual space 40 so that it always faces the viewpoint camera 55 directly.

そして、データ合成部23は、3次元シーンデータ48及び映写スクリーン51に対して公知のレンダリング処理を施すことにより、2次元の画像を生成する。より具体的には、データ合成部23は、3次元仮想空間40に視点カメラ55を配置するとともに、レンダリング処理の対象となる範囲を定める視錐台56を、当該視点カメラ55を頂点とし、その視線方向が中心軸となるように定義する。続いて、データ合成部23は、各オブジェクト(仮想現実オブジェクト41v,42v,・・・及び映写スクリーン51)を構成するポリゴンのうち、当該視錐台56の内部に位置するポリゴンの頂点座標を、透視投影により、ディスプレイ2での合成映像の表示領域に相当する2次元の仮想スクリーンの座標に変換する。そして、この仮想スクリーン上に配置された頂点に基づいて、所定の解像度でピクセルの生成・加工処理を行うことにより、2次元の画像を生成する。 Then, the data synthesis unit 23 generates a two-dimensional image by performing a known rendering process on the three-dimensional scene data 48 and the projection screen 51. More specifically, the data synthesis unit 23 places a viewpoint camera 55 in the three-dimensional virtual space 40, and defines a view frustum 56 that determines the range to be subjected to the rendering process, with the viewpoint camera 55 as its vertex and its line of sight as its central axis. Next, the data synthesis unit 23 converts the vertex coordinates of polygons that are located inside the view frustum 56, among the polygons that make up each object (virtual reality objects 41v, 42v, ... and the projection screen 51), into coordinates of a two-dimensional virtual screen that corresponds to the display area of the composite image on the display 2, by perspective projection. Then, based on the vertices placed on this virtual screen, a two-dimensional image is generated by performing pixel generation and processing at a predetermined resolution.

このようにして生成された2次元の画像には、3次元シーンデータ48の描画が行われることにより得られた図形(言い換えれば、仮想現実オブジェクト41v,42v,・・・のレンダリング結果としての図形)が含まれる。また、2次元の画像の生成過程において、映写スクリーン51に相当する位置には、カメラ3の撮影映像が貼り付けられるように配置される。これにより、データ合成部23による映像の合成が実現される。 The two-dimensional image generated in this manner includes figures obtained by drawing the three-dimensional scene data 48 (in other words, figures resulting from the rendering of the virtual reality objects 41v, 42v, ...). In addition, in the process of generating the two-dimensional image, the image captured by the camera 3 is placed so as to be pasted onto the position corresponding to the projection screen 51. This allows the data synthesis unit 23 to synthesize the images.

映写スクリーン51は、視点カメラ55を中心とする球殻に沿うように湾曲した形状となっているので、透視投影による撮影映像の歪みを防止することができる。また、カメラ3は広角カメラであり、その撮影映像には図3に示すようにレンズ歪みが生じているが、当該レンズ歪みは、映写スクリーン51に撮影映像が貼り付けられる時点で除去されている。レンズ歪みを除去する方法は任意であるが、例えば、補正前の画素の位置と補正後の画素の位置を対応付けたルックアップテーブルを用いることが考えられる。これにより、図4に示す3次元仮想空間40と撮影映像を良好に整合させることができる。 Projection screen 51 is curved to fit a spherical shell centered on viewpoint camera 55, preventing distortion of the captured image due to perspective projection. Camera 3 is a wide-angle camera, and lens distortion occurs in the captured image as shown in FIG. 3, but this lens distortion is removed when the captured image is pasted onto projection screen 51. Any method can be used to remove lens distortion, but one possible method is to use a lookup table that associates pixel positions before and after correction. This allows for good alignment between the captured image and the three-dimensional virtual space 40 shown in FIG. 4.

次に、カメラ3で撮影した映像と合成映像との関係を、例を参照して説明する。 Next, we will explain the relationship between the image captured by camera 3 and the composite image using an example.

図5には、図3に示す撮影映像に対し、図4の3次元シーンデータ48のレンダリングによる上記の2次元の画像を合成した結果が示されている。ただし、図5では、カメラ3による撮影映像が現れている部分が、それ以外の部分と区別し易くなるように便宜的に破線で示されている(これは、合成映像を表す他の図においても同様である)。図5の合成映像では、付加表示情報を表現する図形41f,42f,43fが、撮影映像に重なるように配置されている。 Figure 5 shows the result of combining the captured image shown in Figure 3 with the above-mentioned two-dimensional image created by rendering the three-dimensional scene data 48 in Figure 4. However, in Figure 5, the part in which the image captured by camera 3 appears is shown by a dashed line for the sake of convenience so that it can be easily distinguished from the other parts (this is the same in other figures showing the composite image). In the composite image in Figure 5, figures 41f, 42f, and 43f representing additional display information are positioned so as to overlap the captured image.

上記の図形41f,42f,・・・は、図4に示す3次元シーンデータ48を構成する仮想現実オブジェクト41v,42v,・・・の3次元形状を、カメラ3と同じ位置及び向きの視点で描画した結果として生成される。従って、カメラ3による写実的な映像に対して図形41f,42f,・・・を重ねた場合でも、見た目の違和感が殆ど生じないようにすることができる。 The above figures 41f, 42f, ... are generated as a result of drawing the three-dimensional shapes of the virtual reality objects 41v, 42v, ... constituting the three-dimensional scene data 48 shown in FIG. 4 from a viewpoint that is in the same position and orientation as the camera 3. Therefore, even when the figures 41f, 42f, ... are superimposed on a realistic image captured by the camera 3, it is possible to ensure that almost no strange appearance occurs.

これにより、船舶を示すマーク及び速度を示す矢印があたかも水面上の空中に浮かんでいるように見える、自然で現実感の高い拡張現実の映像を得ることができる。また、ユーザは、ディスプレイ2に映し出された海面を眺めることで、仮想現実を表す図形41f,42f,・・・が網羅的に視界に入るので、取りこぼしなく必要な情報を得ることができる。 This makes it possible to obtain a natural and highly realistic augmented reality image in which the mark indicating the ship and the arrow indicating the speed appear to be floating in the air above the water surface. In addition, by gazing at the sea surface projected on the display 2, the user can obtain the necessary information without missing anything, as the figures 41f, 42f, ... representing the virtual reality are comprehensively within the user's field of vision.

上述したように、カメラ3から入力された撮影映像は、3次元仮想空間40の映写スクリーン51に映写される時点でレンズ歪みが除去されている。しかしながら、データ合成部23は、レンダリング後の合成映像に対し、上述のルックアップテーブルを用いた逆変換により、レンズ歪みを再び付与する。これにより、図5と図3とを比較すれば分かるように、合成前のカメラ映像との関係で違和感が生じにくい合成映像を得ることができる。ただし、レンズ歪みの付与は省略しても良い。 As described above, lens distortion is removed from the captured image input from camera 3 when it is projected onto projection screen 51 in three-dimensional virtual space 40. However, data synthesis unit 23 re-adds lens distortion to the rendered synthesized image by inverse conversion using the above-mentioned lookup table. As can be seen by comparing Figures 5 and 3, this makes it possible to obtain a synthesized image that is less likely to look unnatural in relation to the camera images before synthesis. However, adding lens distortion may be omitted.

データ合成部23は、図5に示すように、合成映像において図形41f,42f,43fの近傍の位置に、監視のために有用な情報を記述した文字情報を更に合成している。文字情報の内容は任意であり、例えば、船舶を識別する情報、船舶の大きさを示す情報、どの装置から取得したかを示す情報等、様々な内容を表示することができる。船舶を識別する情報は、例えばAIS情報から得ることができる。船舶の大きさを示す情報は、AIS情報から得ることができるが、画像認識部28による画像認識時に検出された画像の大きさから、又は、レーダ装置12において得られた追尾エコーの大きさから、計算により得ることもできる。これにより、情報が充実した監視画面を実現することができる。 As shown in FIG. 5, the data synthesis unit 23 further synthesizes text information describing information useful for monitoring in positions near the figures 41f, 42f, and 43f in the synthesized image. The content of the text information is arbitrary, and various contents can be displayed, for example, information identifying the ship, information indicating the size of the ship, information indicating which device the information was obtained from, etc. Information identifying the ship can be obtained, for example, from AIS information. Information indicating the size of the ship can be obtained from AIS information, but it can also be obtained by calculation from the size of the image detected during image recognition by the image recognition unit 28, or from the size of the tracking echo obtained by the radar device 12. This makes it possible to realize a monitoring screen rich in information.

図5に示すように、本実施形態では、AIS受信機9から得られたAIS情報に基づく付加表示情報を表す図形41fと、画像認識部28による画像認識結果に基づく付加表示情報を表す図形42fと、レーダ装置12のレーダ追尾結果に基づく付加表示情報を表す図形43fと、が撮影映像に合成されている。これにより、統合された表示を実現でき、ユーザは、多様な情報源から得られる情報を1つの合成映像で分かり易く監視することができる。この結果、監視負担を良好に軽減することができる。 As shown in FIG. 5, in this embodiment, a figure 41f representing additional display information based on the AIS information obtained from the AIS receiver 9, a figure 42f representing additional display information based on the image recognition result by the image recognition unit 28, and a figure 43f representing additional display information based on the radar tracking result of the radar device 12 are synthesized into the captured image. This makes it possible to realize an integrated display, and the user can easily monitor information obtained from various information sources in a single synthesized image. As a result, the monitoring burden can be effectively reduced.

図5では、船舶41rについて、AIS受信機9から得られたAIS情報に基づく付加表示情報が表示されている。同一の船舶41rを、画像認識部28が認識したり、レーダ装置12が追尾したりすることも考えられるが、この場合でも、合成映像生成部20は、船舶41rの部分には、AIS情報に基づく付加表示情報を優先して表示する。これにより、信頼度の高い情報を優先して表示することができる。 In FIG. 5, additional display information based on AIS information obtained from the AIS receiver 9 is displayed for the ship 41r. It is possible that the image recognition unit 28 recognizes the same ship 41r, or that the radar device 12 tracks it. Even in this case, the synthetic image generation unit 20 prioritizes displaying additional display information based on AIS information in the area of the ship 41r. This allows information with a high degree of reliability to be displayed with priority.

図5の合成映像には、方位目盛り46が表示されている。方位目盛り46は、画面の左端と右端とを繋ぐように円弧状に形成されている。方位目盛り46には、映像に対応した方位を示す数値が記載されている。これにより、ユーザは、カメラ3が見ている方位を直感的に把握することができる。 A compass scale 46 is displayed in the composite image of FIG. 5. The compass scale 46 is formed in an arc shape that connects the left and right edges of the screen. The compass scale 46 has numerical values written on it that indicate the compass corresponding to the image. This allows the user to intuitively grasp the compass direction that the camera 3 is looking in.

例えばカメラ3がチルトして合成映像上で方位目盛り46が他の図形41f,42f,43fと重なったり、撮影映像の水面と重なってしまう場合には、データ合成部23は、方位目盛り46が合成される位置を映像の上下方向に自動的に移動させる。これにより、方位目盛り46が他の表示の邪魔にならないようにすることができる。 For example, if the camera 3 is tilted and the compass scale 46 overlaps with other figures 41f, 42f, 43f in the composite image, or overlaps with the water surface in the captured image, the data composition unit 23 automatically moves the position where the compass scale 46 is composited in the vertical direction of the image. This prevents the compass scale 46 from interfering with other displays.

次に、海図データを用いた画像認識領域の設定について説明する。 Next, we will explain how to set the image recognition area using nautical chart data.

上述のとおり、画像認識領域設定部31は、画像認識部28が画像認識を行う対象となる領域を設定する。ユーザは、カメラ3の撮影映像をディスプレイ2に表示させた状態で、画像認識の対象領域をマウス37等で指定することで、上述の領域を指定することができる。 As described above, the image recognition area setting unit 31 sets the area in which the image recognition unit 28 performs image recognition. With the image captured by the camera 3 displayed on the display 2, the user can specify the above-mentioned area by specifying the target area for image recognition with the mouse 37 or the like.

画像認識の対象領域をユーザに指定させるとき、海図データ記憶部33は、記憶している海図データのうち、水陸境界線を表すベクトルデータを画像認識領域設定部31に出力する。画像認識領域設定部31は、この境界線ベクトルデータを合成映像生成部20に出力する。 When the user specifies the target area for image recognition, the nautical chart data storage unit 33 outputs vector data representing the land-water boundary from among the stored nautical chart data to the image recognition area setting unit 31. The image recognition area setting unit 31 outputs this boundary line vector data to the composite image generation unit 20.

合成映像生成部20の3次元シーン生成部22は、図6に示すように、水陸境界線を表す仮想現実オブジェクト49vをxz平面に配置した3次元シーンデータ48を生成する。仮想現実オブジェクト49vが配置される位置は、カメラ3の方位角を基準として、水陸境界線のカメラ3に対する相対位置を反映させるように配置される。そして、データ合成部23は、上述と全く同様にレンダリング処理を行い、図7に示すような合成映像をディスプレイに出力する。 The three-dimensional scene generation unit 22 of the composite image generation unit 20 generates three-dimensional scene data 48 in which a virtual reality object 49v representing the land-land boundary is placed on the xz plane, as shown in FIG. 6. The position at which the virtual reality object 49v is placed is based on the azimuth angle of the camera 3, and is placed so as to reflect the relative position of the land-land boundary with respect to the camera 3. The data synthesis unit 23 then performs rendering processing in exactly the same manner as described above, and outputs a composite image as shown in FIG. 7 to the display.

図7の合成映像において、仮想現実オブジェクト49vがレンダリングされた結果としての図形49fは、カメラ3による撮影映像の水面にあたかも置かれるかのように合成映像上に配置されている。境界線ベクトルデータは現実の境界線と一致しているはずなので、カメラ3に映る水面の形状と図形49fの形状は整合している。 In the composite image of Figure 7, figure 49f, which is the result of rendering virtual reality object 49v, is placed in the composite image as if it were placed on the water surface in the image captured by camera 3. Since the boundary vector data should match the real boundary line, the shape of the water surface reflected by camera 3 and the shape of figure 49f are consistent.

従って、ユーザは、図形49fを参考にして、画像認識領域を容易かつ適切に設定することができる。ユーザは、例えば、図7に示される図形49fに囲まれた領域をそのまま画像認識領域として指定することができる。また、ユーザは、撮影映像とのズレを修正するようにマウス操作等により領域を変形してから、画像認識領域として指定することもできる。 The user can therefore easily and appropriately set the image recognition area by referring to figure 49f. For example, the user can directly specify the area surrounded by figure 49f shown in FIG. 7 as the image recognition area. The user can also deform the area by using the mouse or other methods to correct any misalignment with the captured image, and then specify it as the image recognition area.

なお、海図データ記憶部33が記憶する境界線ベクトルデータは、追尾対象領域設定部32において追尾対象領域を設定するのに用いることもできる。追尾対象領域は、レーダ位置/向き設定部26に設定されているアンテナの位置/向きと、境界線ベクトルデータと、に基づいて、水域に限定するように計算して定めることができる。これにより、ユーザは、追尾対象領域を容易にかつ正確に設定することができる。 The boundary vector data stored in the nautical chart data storage unit 33 can also be used to set the tracking target area in the tracking target area setting unit 32. The tracking target area can be calculated and determined based on the antenna position/orientation set in the radar position/orientation setting unit 26 and the boundary vector data so as to be limited to water areas. This allows the user to easily and accurately set the tracking target area.

画像認識の対象領域の境界、及び、レーダ追尾の対象領域の境界は、水陸境界線を用いず、他の境界線を用いて定義することもできる。例えば、海図データに含まれるデータのうち、所定の深さに相当する等深線を、認識の境界としても良い。また、水陸境界線から所定の距離だけ水域側にオフセットするようにして境界線を作り、当該境界線を認識の境界としても良い。これにより、例えば大型船だけを監視する場合は所定の水深以上の領域となるように対象領域を限定する等、目的に応じた監視を実現し易くなる。 The boundaries of the target area for image recognition and the target area for radar tracking can also be defined using other boundaries rather than the land-water boundary line. For example, contour lines corresponding to a specified depth from the data included in the nautical chart data can be used as the recognition boundary. Also, a boundary line can be created by offsetting the land-water boundary line a specified distance toward the water area, and this boundary line can be used as the recognition boundary. This makes it easier to realize monitoring according to the purpose, for example, when monitoring only large ships, the target area can be limited to an area with a specified water depth or greater.

画像認識、或いは、レーダ追尾のパラメータを、海図データに含まれる情報に応じて変更しても良い。例えば、水深が浅い領域では大型船舶は航行できないので、海図データに基づいて取得した水深が小さい場合には、画像認識部28が小型船舶の画像データベースとテンプレートマッチングしたり、レーダ装置12が小さなレーダエコーだけを追尾対象としたりすること等が考えられる。これにより、適切な監視を実現することができる。 The parameters of image recognition or radar tracking may be changed according to the information contained in the nautical chart data. For example, since large ships cannot navigate in shallow water areas, when the water depth obtained based on the nautical chart data is small, the image recognition unit 28 may perform template matching with an image database of small ships, or the radar device 12 may track only small radar echoes. This allows for appropriate monitoring.

図8には、周辺監視装置1において行われる一連の処理がフローチャートによって示されている。 Figure 8 shows a flowchart of a series of processes performed by the surroundings monitoring device 1.

図8のフローがスタートすると、周辺監視装置1は、準備作業として、外部から入力された海図データを海図データ記憶部33に記憶する(ステップS101)。次に、周辺監視装置1は、カメラ3が撮影した撮影映像を撮影映像入力部21から入力する(ステップS102)。周辺監視装置1の合成映像生成部20は、この撮影映像と、海図データ記憶部33から取得した境界線ベクトルデータと、を合成した合成映像を生成してディスプレイ2に出力する(ステップS103)。 When the flow in FIG. 8 starts, the perimeter monitoring device 1 stores the nautical chart data input from outside in the nautical chart data storage unit 33 as a preparatory step (step S101). Next, the perimeter monitoring device 1 inputs the captured image captured by the camera 3 from the captured image input unit 21 (step S102). The composite image generation unit 20 of the perimeter monitoring device 1 generates a composite image by combining this captured image with the boundary vector data obtained from the nautical chart data storage unit 33, and outputs the composite image to the display 2 (step S103).

ユーザは、ディスプレイ2の画面を見ながら、画像認識領域を適宜設定する(ステップS104)。ステップS103及びS104を省略して、画像認識領域の境界が境界線ベクトルデータと同一となるように周辺監視装置1側で自動的に設定しても良い。 The user sets the image recognition area appropriately while watching the screen of the display 2 (step S104). Steps S103 and S104 may be omitted, and the surroundings monitoring device 1 may automatically set the boundary of the image recognition area so that it is the same as the boundary line vector data.

その後、通常の運用が開始される。具体的に説明すると、周辺監視装置1は、カメラ3が撮影した撮影映像を撮影映像入力部21から入力する(ステップS105)。続いて、周辺監視装置1の画像認識部28が、画像認識領域を対象とした画像認識を行い、これにより検出された物標の物標情報を取得する(ステップS106)。次に、合成映像生成部20は、物標が検出された位置に対応する撮影映像の位置に、物標情報を合成した合成映像を生成してディスプレイ2に出力する(ステップS107)。その後、処理はステップS105に戻り、ステップS105~S107の処理が反復される。 After that, normal operation is started. More specifically, the perimeter monitoring device 1 inputs the captured image captured by the camera 3 from the captured image input unit 21 (step S105). Next, the image recognition unit 28 of the perimeter monitoring device 1 performs image recognition on the image recognition area, thereby acquiring target information of the detected target (step S106). Next, the composite image generation unit 20 generates a composite image by combining the target information at the position of the captured image corresponding to the position where the target was detected, and outputs the composite image to the display 2 (step S107). Then, the process returns to step S105, and the processes of steps S105 to S107 are repeated.

以上に説明したように、本実施形態の周辺監視装置1は、海図データ記憶部33と、撮影映像入力部21と、画像認識領域設定部31と、付加表示情報取得部17と、合成映像生成部20と、を備える。海図データ記憶部33は、海図データを記憶する。撮影映像入力部21は、カメラ3の撮影映像を入力する。画像認識領域設定部31は、海図データに基づいて検出対象領域を設定する。付加表示情報取得部17は、検出対象領域において検出された物標の物標情報を取得する。合成映像生成部20は、物標が検出された位置に対応する撮影映像の位置に、物標情報を合成した合成映像を生成する。 As described above, the perimeter monitoring device 1 of this embodiment includes a nautical chart data storage unit 33, a captured image input unit 21, an image recognition area setting unit 31, an additional display information acquisition unit 17, and a composite image generation unit 20. The nautical chart data storage unit 33 stores nautical chart data. The captured image input unit 21 inputs the captured image of the camera 3. The image recognition area setting unit 31 sets the detection target area based on the nautical chart data. The additional display information acquisition unit 17 acquires target information of targets detected in the detection target area. The composite image generation unit 20 generates a composite image by combining the target information at a position in the captured image corresponding to the position where the target was detected.

これにより、画像認識を行う領域を、海図データの水陸境界線を用いて容易に設定することができる。 This makes it easy to set the area for image recognition using land-water boundaries in nautical chart data.

以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。 The above describes a preferred embodiment of the present invention, but the above configuration can be modified, for example, as follows:

カメラ3において上記のパン/チルト機能を省略し、撮影方向を変更不能に構成してもよい。 The pan/tilt function described above may be omitted from camera 3, making it impossible to change the shooting direction.

3次元シーン生成部22が3次元シーンデータ48を生成するにあたって、上記の実施形態では、図4で説明したように、仮想現実オブジェクト41v,42v,・・・がカメラ3の位置を原点としたカメラ方位基準で配置されている。しかしながら、仮想現実オブジェクト41v,42v,・・・を、カメラ方位基準ではなく、+z方向が常に真北となる真北基準で配置してもよい。この場合、カメラ3のパン動作によって方位角が変化したときは、仮想現実オブジェクト41v,42v,・・・を再配置する代わりに、3次元仮想空間40においてカメラ3の位置及び向きの変化をシミュレートするように視点カメラ55の方位角を変更してレンダリングを行うことで、上述のカメラ方位基準の場合と全く同じレンダリング結果を得ることができる。 When the three-dimensional scene generating unit 22 generates the three-dimensional scene data 48, in the above embodiment, as described in FIG. 4, the virtual reality objects 41v, 42v, ... are positioned based on a camera orientation reference with the position of the camera 3 as the origin. However, the virtual reality objects 41v, 42v, ... may be positioned based on a true north reference in which the +z direction is always true north, rather than based on the camera orientation. In this case, when the azimuth angle changes due to the panning operation of the camera 3, instead of repositioning the virtual reality objects 41v, 42v, ..., the azimuth angle of the viewpoint camera 55 is changed to simulate the change in the position and orientation of the camera 3 in the three-dimensional virtual space 40, and rendering is performed, thereby obtaining exactly the same rendering result as in the case of the camera orientation reference described above.

また、3次元仮想空間40の座標系は、カメラ3の真下の位置を原点にすることに代えて、地球上に適宜定められた固定点を原点とし、例えば、+z方向が真北、+x方向が真東となるように定められてもよい。 In addition, instead of using the position directly below the camera 3 as the origin, the coordinate system of the three-dimensional virtual space 40 may be set to a fixed point appropriately determined on the Earth, with the +z direction being due north and the +x direction being due east, for example.

周辺監視装置1に接続される機器(付加表示情報の情報源)は、図1で説明したものに限るものではなく、その他の機器が含まれていてもよい。そのような機器として、例えば、赤外線カメラ、音響センサ等を挙げることができる。 The devices (sources of additional display information) connected to the perimeter monitoring device 1 are not limited to those described in FIG. 1, and may include other devices. Examples of such devices include infrared cameras and acoustic sensors.

画像認識領域設定部31において設定される対象領域、及び、追尾対象領域設定部32において設定される対象領域は、折れ線図形に代えて、他の図形、例えば滑らかな曲線で表すこともできる。また、ベクトルデータに代えてラスタデータ(マスク画像)の形で、対象領域を設定することもできる。 The target area set in the image recognition area setting unit 31 and the target area set in the tracking target area setting unit 32 can be represented by other figures, such as smooth curves, instead of polygonal line figures. Also, the target area can be set in the form of raster data (mask image) instead of vector data.

付加表示情報を表す図形は、図5に示すものに限られない。例えば、船舶41r,42r,43rが検出された位置に、船舶の3次元モデルをレンダリングした図形を表示することもできる。これにより、より臨場感のある表示を実現することができる。図4の3次元仮想空間40において、船舶の3次元モデルは、AIS情報等から得られる船舶の向きと一致する向きで配置される。3次元仮想空間40に配置される船舶の3次元モデルの大きさを、AIS情報等から得られる船舶の大きさに応じて変化させても良い。 The figures representing the additional display information are not limited to those shown in FIG. 5. For example, a figure that is a rendering of a three-dimensional model of the ship can be displayed at the position where the ships 41r, 42r, and 43r are detected. This allows a more realistic display to be realized. In the three-dimensional virtual space 40 of FIG. 4, the three-dimensional model of the ship is placed in an orientation that matches the orientation of the ship obtained from AIS information, etc. The size of the three-dimensional model of the ship placed in the three-dimensional virtual space 40 may be changed depending on the size of the ship obtained from AIS information, etc.

3次元シーン生成部22を省略して、付加表示情報の図形41f,42f,43fについて拡張現実による表示を行わないように構成することもできる。例えば、3次元円錐形状をレンダリングした図形の代わりに、単に下向きの平面的な三角形を表示することができる。3次元シーンを構築しなくても、撮影映像における各画素と、水面上の対応する場所と、の対応関係は、カメラ3が設置されている位置と向きに基づいて計算により求めることができる。従って、上記の三角形を、水面上での検出位置に対応する映像上の位置に表示することができる。同様に、3次元シーンを構築しなくても、境界線の図形を合成した図7のような合成映像を実現することができる。 The three-dimensional scene generating unit 22 can be omitted, and the figures 41f, 42f, and 43f of the additional display information can be configured not to be displayed by augmented reality. For example, instead of a figure that is a rendered three-dimensional cone shape, a planar triangle that is simply pointing downward can be displayed. Even without constructing a three-dimensional scene, the correspondence between each pixel in the captured image and the corresponding location on the water surface can be calculated based on the position and orientation in which the camera 3 is installed. Therefore, the above triangle can be displayed at a position on the image that corresponds to the detected position on the water surface. Similarly, even without constructing a three-dimensional scene, a composite image such as that shown in FIG. 7 in which a boundary line figure is composited can be realized.

周辺監視装置1は、地上の施設に限定されず、船舶等の移動体に設けられても良い。 The perimeter monitoring device 1 is not limited to being installed in ground facilities, but may also be installed on a moving object such as a ship.

1 周辺監視装置
3 カメラ
17 付加表示情報取得部(物標情報取得部)
20 合成映像生成部
21 撮影映像入力部
28 画像認識部
31 画像認識領域設定部(領域設定部)
32 追尾対象領域設定部(領域設定部)
33 海図データ記憶部
1 Surroundings monitoring device 3 Camera 17 Additional display information acquisition unit (target information acquisition unit)
20 Composite image generating unit 21 Shooting image input unit 28 Image recognition unit 31 Image recognition area setting unit (area setting unit)
32 Tracking target area setting unit (area setting unit)
33 Nautical chart data storage unit

Claims (16)

海図データを記憶する海図データ記憶部と、
カメラの撮影映像を入力する撮影映像入力部と、
前記海図データに基づいて、折れ線図形を用いて検出対象領域の内側と外側とを区切る境界を設定する領域設定部と、
前記撮影映像の画像における前記検出対象領域の内側に対する画像認識によって検出された物標の物標情報を取得する物標情報取得部と、
前記物標が検出された位置に対応する前記撮影映像の位置に、前記物標情報を合成した合成映像を生成する合成映像生成部と、
を備える、
ことを特徴とする周辺監視装置。
a nautical chart data storage unit for storing nautical chart data;
a captured image input unit for inputting captured images from a camera;
an area setting unit that sets a boundary that separates an inside and an outside of a detection target area using a polygonal line figure based on the nautical chart data;
a target information acquisition unit that acquires target information of a target detected by image recognition inside the detection target area in the captured image ;
a composite image generating unit that generates a composite image by combining the target information at a position of the photographed image corresponding to the position where the target is detected;
Equipped with
A perimeter monitoring device characterized by:
請求項1に記載の周辺監視装置であって、
前記画像認識を行う前記検出対象領域の内側と外側とを区切る境界は、閉じた折れ線図形で表される、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to claim 1,
The boundary separating the inside and outside of the detection target area in which the image recognition is performed is represented by a closed polygonal line figure.
A perimeter monitoring device characterized by:
請求項1または請求項2に記載の周辺監視装置であって、
前記領域設定部は、前記折れ線図形の複数の頂点の位置情報を記憶する、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to claim 1 or 2,
the region setting unit stores position information of a plurality of vertices of the polygonal line figure;
A perimeter monitoring device characterized by:
請求項1から3までの何れか一項に記載の周辺監視装置であって、
前記領域設定部は、水面が現れている領域の少なくとも一部を含み陸上の部分を除外するように前記検出対象領域の内側を設定する、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to any one of claims 1 to 3,
the region setting unit sets an inside of the detection target region so as to include at least a part of a region where a water surface appears and exclude a land portion;
A perimeter monitoring device characterized by:
請求項1から4までの何れか一項に記載の周辺監視装置であって、
前記合成映像生成部は、前記検出対象領域を表す図形を含んで前記合成映像を生成する、
周辺監視装置。
The surroundings monitoring device according to any one of claims 1 to 4,
the synthetic image generating unit generates the synthetic image including a graphic representing the detection target region.
Perimeter monitoring devices.
請求項5に記載の周辺監視装置であって、
前記画像認識を行う前記検出対象領域は、ユーザからの操作によって変形してから指定可能である、
周辺監視装置。
The surroundings monitoring device according to claim 5,
The detection target area in which the image recognition is performed can be designated after being transformed by a user operation.
Perimeter monitoring devices.
請求項1から6までの何れか一項に記載の周辺監視装置であって、
前記検出対象領域は、複数の位置情報によって表される境界線によって区切られた領域である、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to any one of claims 1 to 6,
The detection target area is an area separated by a boundary line represented by a plurality of pieces of position information.
A perimeter monitoring device characterized by:
請求項7に記載の周辺監視装置であって、
前記検出対象領域は、前記海図データに含まれる水陸境界線又は等深線で区切られた領域である、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to claim 7,
The detection target area is an area delimited by a water-land boundary or a bathymetry line included in the nautical chart data.
A perimeter monitoring device characterized by:
請求項7に記載の周辺監視装置であって、
前記検出対象領域は、前記海図データに含まれる水陸境界線から所定距離水域側に離れた境界線で区切られた領域である、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to claim 7,
The detection target area is an area separated by a boundary line a predetermined distance away from a land-land boundary line included in the nautical chart data toward the water area side.
A perimeter monitoring device characterized by:
請求項1から9までの何れか一項に記載の周辺監視装置であって、
前記撮影映像入力部は、地上に設置されたカメラが撮像した撮影映像を入力する、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to any one of claims 1 to 9,
The photographed image input unit inputs photographed images captured by a camera installed on the ground.
A perimeter monitoring device characterized by:
請求項1から10までの何れか一項に記載の周辺監視装置であって、
前記物標情報取得部は、前記検出対象領域においてレーダ装置が検出した物標の物標情報を取得する、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to any one of claims 1 to 10,
The target information acquisition unit acquires target information of a target detected by the radar device in the detection target area.
A perimeter monitoring device characterized by:
請求項1から11までの何れか一項に記載の周辺監視装置であって、
前記物標情報は、物標の位置、物標の速度、物標の大きさのうち少なくとも何れかを表現している、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to any one of claims 1 to 11,
The target information represents at least one of a target position, a target speed, and a target size.
A perimeter monitoring device characterized by:
請求項1から12までの何れか一項に記載の周辺監視装置であって、
前記物標情報取得部は、AIS情報に基づいて前記物標情報を取得可能であり、
前記合成映像生成部は、前記AIS情報に基づく前記物標情報と、前記AIS情報以外の情報に基づく前記物標情報と、を同一の映像に合成可能である、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to any one of claims 1 to 12,
The target information acquisition unit is capable of acquiring the target information based on AIS information,
The synthetic image generation unit is capable of synthesizing the target information based on the AIS information and the target information based on information other than the AIS information into a single image.
A perimeter monitoring device characterized by:
請求項13に記載の周辺監視装置であって、
前記合成映像生成部は、同一の物標について、前記AIS情報に基づく前記物標情報と、前記AIS情報以外の情報に基づく前記物標情報と、の両方が得られた場合に、前記AIS情報に基づく前記物標情報を優先して合成する、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to claim 13,
When both the target information based on the AIS information and the target information based on information other than the AIS information are obtained for the same target, the synthetic image generation unit preferentially synthesizes the target information based on the AIS information.
A perimeter monitoring device characterized by:
請求項1から14までの何れか一項に記載の周辺監視装置であって、
前記合成映像生成部は、前記撮影映像に対して、方位を示す方位目盛りを合成可能であり、
前記合成映像生成部は、前記方位目盛りが前記撮影映像に対して合成される上下方向の位置を自動的に変更可能である、
ことを特徴とする周辺監視装置。
The surroundings monitoring device according to any one of claims 1 to 14,
The composite image generating unit is capable of combining a direction scale indicating a direction with the captured image,
The composite image generating unit is capable of automatically changing a vertical position at which the orientation scale is composited with the captured image.
A perimeter monitoring device characterized by:
海図データを記憶し、
撮影装置が撮影した撮影映像を入力し、
前記海図データに基づいて、折れ線図形を用いて検出対象領域の内側と外側とを区切る境界を設定し、
前記撮影映像の画像における前記検出対象領域の内側に対する画像認識によって検出された物標の物標情報を取得し、
前記物標が検出された位置に対応する前記撮影映像の位置に、前記物標情報を合成した合成映像を生成する、
ことを特徴とする周辺監視方法。
Stores chart data,
Input the images captured by the imaging device,
Based on the nautical chart data, a boundary is set to separate an inside and an outside of a detection target area using a polygonal line diagram;
acquiring target information of a target detected by image recognition within the detection target area in the captured image ;
generating a composite image by combining the target information with the captured image at a position corresponding to the position where the target was detected;
A perimeter monitoring method comprising:
JP2023071988A 2018-10-09 2023-04-26 Periphery monitoring device and surroundings monitoring method Active JP7492059B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018191014 2018-10-09
JP2018191014 2018-10-09
JP2020550232A JP7346436B2 (en) 2018-10-09 2019-09-09 Surrounding monitoring device and surrounding monitoring method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020550232A Division JP7346436B2 (en) 2018-10-09 2019-09-09 Surrounding monitoring device and surrounding monitoring method

Publications (3)

Publication Number Publication Date
JP2023106401A JP2023106401A (en) 2023-08-01
JP2023106401A5 JP2023106401A5 (en) 2023-09-22
JP7492059B2 true JP7492059B2 (en) 2024-05-28

Family

ID=70163782

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020550232A Active JP7346436B2 (en) 2018-10-09 2019-09-09 Surrounding monitoring device and surrounding monitoring method
JP2023071988A Active JP7492059B2 (en) 2018-10-09 2023-04-26 Periphery monitoring device and surroundings monitoring method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020550232A Active JP7346436B2 (en) 2018-10-09 2019-09-09 Surrounding monitoring device and surrounding monitoring method

Country Status (3)

Country Link
JP (2) JP7346436B2 (en)
CN (1) CN112840641A (en)
WO (1) WO2020075429A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014099055A (en) 2012-11-14 2014-05-29 Canon Inc Detector, detection method, and program
JP2015088816A (en) 2013-10-29 2015-05-07 セコム株式会社 Image monitoring system
JP2018019359A (en) 2016-07-29 2018-02-01 キヤノン株式会社 Ship monitoring device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3365182B2 (en) * 1995-12-27 2003-01-08 三菱電機株式会社 Video surveillance equipment
JP3560040B2 (en) 1998-11-17 2004-09-02 沖電気工業株式会社 Surveillance ITV camera control method
JP2002176641A (en) 2000-12-05 2002-06-21 Matsushita Electric Ind Co Ltd Peripheral video image presenting device
JP2004227045A (en) 2003-01-20 2004-08-12 Wham Net Service Co Ltd Fishery trespasser monitoring system and fishery trespasser monitoring method
JP3777411B2 (en) * 2003-08-08 2006-05-24 今津隼馬 Ship navigation support device
JP2005208011A (en) 2004-01-26 2005-08-04 Mitsubishi Heavy Ind Ltd System and method for monitoring
JP4445313B2 (en) 2004-04-01 2010-04-07 古野電気株式会社 Ship navigation support device
JP2010041530A (en) 2008-08-07 2010-02-18 Sanyo Electric Co Ltd Steering supporting device
KR101048508B1 (en) * 2011-04-11 2011-07-11 (주)에디넷 System and method for realtime monitoring of harbor image using smart device
KR101072395B1 (en) 2011-07-21 2011-10-11 한국해양연구원 A augmented reality system for vessel using ceil moving transparent display device and the method using thereof
JP6236549B1 (en) * 2016-06-02 2017-11-22 日本郵船株式会社 Ship navigation support device
KR101880437B1 (en) * 2016-10-28 2018-08-17 한국해양과학기술원 Unmanned surface vehicle control system for providing wide viewing angle using real camera image and virtual camera image
CN107609564B (en) * 2017-09-19 2020-01-10 浙江大学 Underwater target image identification method based on joint segmentation and Fourier descriptor library

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014099055A (en) 2012-11-14 2014-05-29 Canon Inc Detector, detection method, and program
JP2015088816A (en) 2013-10-29 2015-05-07 セコム株式会社 Image monitoring system
JP2018019359A (en) 2016-07-29 2018-02-01 キヤノン株式会社 Ship monitoring device

Also Published As

Publication number Publication date
CN112840641A (en) 2021-05-25
JP2023106401A (en) 2023-08-01
JP7346436B2 (en) 2023-09-19
JPWO2020075429A1 (en) 2021-09-02
WO2020075429A1 (en) 2020-04-16

Similar Documents

Publication Publication Date Title
JP6840842B2 (en) Video generator
JP7488925B2 (en) Image generating device and image generating method
JP6857546B2 (en) Video generator and video generation method
JP6720409B2 (en) Video generator
JP7021259B2 (en) Video generator and video generation method
JP7492059B2 (en) Periphery monitoring device and surroundings monitoring method
JP7365355B2 (en) Video generation device and video generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240516

R150 Certificate of patent or registration of utility model

Ref document number: 7492059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150