JP5714960B2 - Monitoring range detector - Google Patents
Monitoring range detector Download PDFInfo
- Publication number
- JP5714960B2 JP5714960B2 JP2011078228A JP2011078228A JP5714960B2 JP 5714960 B2 JP5714960 B2 JP 5714960B2 JP 2011078228 A JP2011078228 A JP 2011078228A JP 2011078228 A JP2011078228 A JP 2011078228A JP 5714960 B2 JP5714960 B2 JP 5714960B2
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- model
- unit
- imaging
- monitoring range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims description 273
- 238000003384 imaging method Methods 0.000 claims description 151
- 238000012545 processing Methods 0.000 claims description 39
- 238000009877 rendering Methods 0.000 claims description 39
- 238000012806 monitoring device Methods 0.000 claims description 32
- 238000003860 storage Methods 0.000 claims description 31
- 230000003287 optical effect Effects 0.000 claims description 28
- 239000002131 composite material Substances 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 24
- 238000009434 installation Methods 0.000 claims description 15
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 14
- 239000000203 mixture Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
本発明は、監視場所に設置された監視カメラや赤外線センサなどの監視装置の監視範囲(すなわち、監視カメラの撮像範囲や赤外線センサ等の検知範囲)を検知して利用者に通知する監視範囲検知装置に関する。 The present invention detects a monitoring range of a monitoring device such as a monitoring camera or an infrared sensor installed in a monitoring place (that is, a detection range of an imaging range of the monitoring camera or an infrared sensor) and notifies the user of the monitoring range. Relates to the device.
近年、セキュリティを目的として、監視カメラを取り付ける個人、法人、公共機関などが増加しつつある。例えば、住宅街に居住する住民が、自宅の外壁にカメラ用回転台付の監視カメラを設置し、自宅のパソコンを用いてパン、チルト、ズーム等の操作を行いながら屋外を画像監視する事例も出てきている。 In recent years, for security purposes, the number of individuals, corporations, public institutions, etc., to which surveillance cameras are attached is increasing. For example, in a case where a resident in a residential area installs a surveillance camera with a camera turntable on the outer wall of his / her home, and uses a personal computer at home to monitor images outdoors while performing operations such as panning, tilting and zooming It has come out.
しかし、このような監視カメラを用いて、利用者が意図的に、隣人の住宅内部を閲覧したり、路上にいる隣人を望遠で閲覧する等のプライバシを侵害するような使用をする可能性は否定できない。そのため、このようなパブリックスペースを監視している監視カメラの監視範囲の適切性を、通行人等の一般人によって確認したいといったニーズが高まりつつある。 However, with such a surveillance camera, there is a possibility that the user will intentionally browse the neighbor's house or infringe privacy, such as browsing the neighbor on the road with a telephoto. I can't deny it. For this reason, there is an increasing need to confirm the appropriateness of the monitoring range of a monitoring camera that monitors such a public space by a general person such as a passerby.
従来、監視カメラによって撮像された監視画像を人が目視により直接的に確認することによって、当該監視カメラが他人のプライバシを侵害していないことを確認していた。また、監視カメラの監視範囲を確認するために、当該監視カメラの設置位置や姿勢、画角情報等から算出した撮像範囲を表す画像を、地図画像上に重畳表示する技術も提案されている(特許文献1)。 Conventionally, a person directly confirms a monitoring image captured by a monitoring camera visually to confirm that the monitoring camera does not infringe the privacy of others. In addition, in order to confirm the monitoring range of the monitoring camera, a technique has also been proposed in which an image representing the imaging range calculated from the installation position and orientation of the monitoring camera, the angle of view information, and the like is superimposed and displayed on a map image ( Patent Document 1).
しかしながら、上記の従来技術では、利用者が、例えば自らの前方に監視カメラの監視範囲が存在するか否かを把握するにあたって、常に自らの現在位置と地図上に重畳表示された撮像範囲を表す画像との位置関係を確認しなければならず、実用上の手間を要していた。 However, in the above-described conventional technology, for example, when the user grasps whether or not the surveillance range of the surveillance camera exists in front of himself / herself, the user always represents his / her current position and the imaging range superimposed on the map. The positional relationship with the image had to be confirmed, which required practical work.
そこで本発明は、利用者によって所持される端末の位置や姿勢などに応じて画定される方向・範囲内に、監視カメラ等の監視装置の監視範囲が存在するか否かを検知可能とすることを目的とする。これにより、利用者は、従来技術のように地図による位置関係を常に確認することなく、例えば自らの前方の所定範囲内に監視カメラの監視範囲が存在するか否かを容易に把握できることを目的とする。 Therefore, the present invention makes it possible to detect whether or not a monitoring range of a monitoring device such as a monitoring camera exists within a direction / range defined according to the position or posture of a terminal possessed by a user. With the goal. Accordingly, the user can easily grasp whether or not the monitoring range of the monitoring camera exists within a predetermined range in front of the user without always confirming the positional relationship on the map as in the prior art. And
かかる課題を解決するために、監視装置の監視範囲を検知する監視範囲検知装置であって、撮像画像を取得する撮像部と、撮像部の現在の位置及び光軸を取得する状態取得部と、監視装置が監視する場所を3次元の仮想空間として表現した場所モデルと、監視装置の設置位置、監視方向及び監視角情報を場所モデルと対応付けた監視条件情報と、撮像部の画角と状態取得部で取得した該撮像部の現在の位置及び光軸とを場所モデルと対応付けた撮像条件情報とを記憶した記憶部と、場所モデルと監視条件情報とに基づいて監視装置の監視範囲を表す監視範囲モデルを生成し、場所モデルと撮像条件情報とに基づいて撮像部の撮像範囲を表す撮像範囲モデルを生成するモデル生成手段と、監視範囲モデルと撮像範囲モデルとが交わっているときに撮像部の視野内に監視装置の監視範囲が含まれていると判定する判定手段と、判定手段による判定結果を表示する表示部と、を有することを特徴とする監視範囲検知装置を提供する。 In order to solve such a problem, a monitoring range detection device that detects a monitoring range of a monitoring device, an imaging unit that acquires a captured image, a state acquisition unit that acquires a current position and an optical axis of the imaging unit, A place model expressing a place monitored by the monitoring device as a three-dimensional virtual space, monitoring condition information in which the installation position, monitoring direction, and monitoring angle information of the monitoring device are associated with the place model, and the angle of view and state of the imaging unit A storage unit that stores imaging condition information in which the current position and optical axis of the imaging unit acquired by the acquisition unit are associated with a location model, and a monitoring range of the monitoring device based on the location model and the monitoring condition information When the monitoring range model and the imaging range model intersect, the model generation means for generating the imaging range model that generates the imaging range model that represents the imaging range of the imaging unit based on the location model and the imaging condition information Providing a the determining means within the field of view of the imaging unit contains the monitoring range of the monitoring device, and a display unit for displaying the determination result by the determining means, the monitoring range sensing apparatus characterized by having a.
かかる構成により、本発明のモデル生成手段は、場所モデルと監視条件情報とに基づいて監視装置の監視範囲を表す3次元形状の監視範囲モデルを生成し、場所モデルと撮像条件情報とに基づいて撮像部の撮像範囲を表す3次元形状の撮像範囲モデルを生成する処理を行う。そして、本発明の判定手段は、監視範囲モデルと撮像範囲モデルとが場所モデル上において交わっているか否かを判定する処理を行う。ここで、判定手段は、監視範囲モデルと撮像範囲モデルとが交わっているときに撮像部の視野内に監視装置の監視範囲が含まれていると判定する。そして、本発明の表示部は、判定手段にて撮像部の視野内に監視装置の監視範囲が含まれていると判定したときに、判定結果として、例えばその旨を示すメッセージを表示する。
上記処理により、利用者は、撮像部の視野内に監視装置の監視範囲が含まれていることを検知することができるため、例えば自らの前方に監視装置の監視範囲が存在するか否かについて確認したい場合、撮像部の光軸が自らの前方に向くよう視野方向を制御することによって検知することが可能となる。
With this configuration, the model generation unit of the present invention generates a monitoring range model having a three-dimensional shape that represents the monitoring range of the monitoring device based on the location model and the monitoring condition information, and based on the location model and the imaging condition information. Processing for generating a three-dimensional imaging range model representing the imaging range of the imaging unit is performed. And the determination means of this invention performs the process which determines whether the monitoring range model and the imaging range model cross on the place model. Here, the determination unit determines that the monitoring range of the monitoring device is included in the field of view of the imaging unit when the monitoring range model and the imaging range model intersect. When the determination unit determines that the monitoring range of the monitoring device is included in the field of view of the imaging unit, the display unit of the present invention displays, for example, a message indicating that as a determination result.
By the above process, the user can detect that the monitoring range of the monitoring device is included in the field of view of the imaging unit. For example, whether or not the monitoring range of the monitoring device exists in front of himself / herself When it is desired to confirm, it is possible to detect by controlling the viewing direction so that the optical axis of the imaging unit is directed forward.
また、本発明の好ましい態様として、場所モデルは、監視場所に存在する物体を含めて3次元の仮想空間を表現したものとする。
例えば、場所モデルは、監視場所にある建物の壁面や柱等の建築構造物や地面などといった物体の3次元形状情報を含めて3次元の仮想空間を表現したものとして記憶部に記憶されているものとする。かかる構成により、本発明のモデル生成手段は、場所モデルの物体との干渉を考慮して監視条件情報に基づいて監視範囲モデルを生成し、当該監視範囲モデルを場所モデル内に配置する処理を行う。また、本発明のモデル生成手段は、場所モデルの物体との干渉を考慮して撮像条件情報に基づいて撮像範囲モデルを生成し、当該撮像範囲モデルを場所モデル内に配置する処理を行う。そして、本発明の判定手段は、監視範囲モデルと撮像範囲モデルとが場所モデル上において交わっているか否かによって、撮像部の視野内に前記監視装置の監視範囲が含まれているか否かを判定する処理を行う。
上記処理により、例えば、監視装置の監視範囲が壁等の物体によって遮られていたり、監視装置の監視範囲が撮像部から見て壁等の物体の陰となって隠蔽されていたりする場合、当該遮られている(又は隠蔽されている)部分の監視範囲を考慮して、撮像部の視野内に監視範囲が含まれているか否かを判定することができる。したがって、利用者は、より正確に監視装置の監視範囲を検知することができる。
Moreover, as a preferable aspect of the present invention, the place model is assumed to represent a three-dimensional virtual space including an object present at the monitoring place.
For example, the place model is stored in the storage unit as a representation of a three-dimensional virtual space including the three-dimensional shape information of an object such as a building structure or a ground such as a wall or a pillar of a building at a monitoring place. Shall. With this configuration, the model generation means of the present invention performs processing for generating a monitoring range model based on the monitoring condition information in consideration of interference with the object of the location model and arranging the monitoring range model in the location model. . The model generation means of the present invention generates an imaging range model based on imaging condition information in consideration of interference with an object of the location model, and performs processing for arranging the imaging range model in the location model. Then, the determination means of the present invention determines whether or not the monitoring range of the monitoring device is included in the field of view of the imaging unit depending on whether or not the monitoring range model and the imaging range model intersect on the place model. Perform the process.
By the above processing, for example, when the monitoring range of the monitoring device is blocked by an object such as a wall, or when the monitoring range of the monitoring device is hidden behind an object such as a wall when viewed from the imaging unit, It is possible to determine whether or not the monitoring range is included in the field of view of the imaging unit in consideration of the monitoring range of the blocked (or concealed) portion. Therefore, the user can detect the monitoring range of the monitoring device more accurately.
また、本発明の好ましい態様として、更に、判定手段にて撮像部の視野内に監視装置の監視範囲が含まれていると判定したとき、監視範囲モデルと撮像条件情報とを用いて撮像部の視野に相当するレンダリング画像を生成するレンダリング手段と、撮像部で取得した撮像画像とレンダリング画像とを合成した合成画像を出力する合成処理手段と、を備え、表示部は、合成画像を表示するものとする。
かかる構成により、本発明の判定手段にて撮像部の視野内に監視装置の監視範囲が含まれていると判定されたとき、本発明のレンダリング手段は、監視範囲モデルが配置された場所モデルと撮像条件情報とを用いて、撮像部からの視野に相当するレンダリング画像を生成する処理を行う。例えば、レンダリング手段は、監視範囲モデルが配置された場所モデル内に、撮像条件情報に基づいて設定された仮想的なカメラ(以下、「仮想カメラ」という)を配置し、当該仮想カメラから、3次元コンピュータグラフィックスのレンダリング処理を行うことにより、撮像部の視野に相当するレンダリング画像を生成する。そして、本発明の合成処理手段は、撮像部からの撮像画像とレンダリング画像とを合成した合成画像を出力する処理を行う。例えば、レンダリング画像から、監視装置の監視範囲を表す画像領域(以下、「監視範囲画像」という)を抽出し、当該監視範囲画像を撮像画像上にオーバーレイすることにより合成画像を出力する。そして、本発明の表示部により、当該合成画像を表示する。
上記処理により、利用者は、合成画像における監視範囲画像を閲覧することによって、撮像部の視野内に監視装置の監視範囲が含まれていることを検知できるだけでなく、当該監視範囲の形状を立体的に捉えることができるため、監視範囲の適切性なども確認することができる。さらに、上記処理により、撮像部の視野内に監視装置の監視範囲が含まれていると判定したときのみ監視範囲画像を再現するレンダリング処理を行うため、不要なレンダリング処理を行う必要がなく、レンダリング処理に要する処理負荷を軽減することができる。
Further, as a preferable aspect of the present invention, when the determination unit determines that the monitoring range of the monitoring device is included in the field of view of the imaging unit, the monitoring unit model and imaging condition information are used to determine the imaging unit. Rendering means for generating a rendering image corresponding to the field of view, and synthesis processing means for outputting a synthesized image obtained by synthesizing the captured image acquired by the imaging unit and the rendered image, and the display unit displays the synthesized image And
With this configuration, when the determination unit of the present invention determines that the monitoring range of the monitoring device is included in the field of view of the imaging unit, the rendering unit of the present invention includes the place model where the monitoring range model is arranged, Using the imaging condition information, a process of generating a rendering image corresponding to the visual field from the imaging unit is performed. For example, the rendering unit arranges a virtual camera (hereinafter referred to as “virtual camera”) set based on the imaging condition information in the place model where the monitoring range model is arranged, and from the virtual camera, 3 A rendering image corresponding to the field of view of the imaging unit is generated by performing a rendering process of the three-dimensional computer graphics. Then, the composition processing means of the present invention performs a process of outputting a composite image obtained by combining the captured image from the image capturing unit and the rendered image. For example, an image region representing a monitoring range of the monitoring device (hereinafter referred to as “monitoring range image”) is extracted from the rendered image, and a composite image is output by overlaying the monitoring range image on the captured image. And the said synthesized image is displayed by the display part of this invention.
Through the above processing, the user can not only detect that the monitoring range of the monitoring device is included in the field of view of the imaging unit by browsing the monitoring range image in the composite image, but also change the shape of the monitoring range to a three-dimensional shape. Therefore, the appropriateness of the monitoring range can be confirmed. Furthermore, since the above processing performs rendering processing to reproduce the monitoring range image only when it is determined that the monitoring range of the monitoring device is included in the field of view of the imaging unit, it is not necessary to perform unnecessary rendering processing and rendering The processing load required for processing can be reduced.
また、本発明の好ましい態様として、表示部は、撮像部の光軸に対して垂直となる位置に固定的に配置されるものとする。
これにより、利用者は、撮像部と共に表示部を移動可能であり、更に、表示部を閲覧する利用者の視線と撮像部の光軸とを略一致させることができるため、監視装置の監視範囲を利用者目線により確認することができる。
As a preferred aspect of the present invention, the display unit is fixedly disposed at a position perpendicular to the optical axis of the imaging unit.
Accordingly, the user can move the display unit together with the imaging unit, and can further match the user's line of sight viewing the display unit with the optical axis of the imaging unit. Can be confirmed from the user's perspective.
上記のように、本発明の監視範囲検知装置は、監視装置の監視範囲と撮像部の撮像範囲とをぞれぞれモデル化して、これらの交わりを判定することによって、利用者が、撮像部の視野内に監視範囲の監視範囲が含まれているか否かを検知することができるため、例えば利用者の前方に監視装置の監視範囲が存在するか否かについて確認することができる。 As described above, the monitoring range detection device of the present invention models the monitoring range of the monitoring device and the imaging range of the imaging unit, and determines the intersection between them, thereby allowing the user to It is possible to detect whether or not the monitoring range of the monitoring range is included in the field of view of the user, so it is possible to confirm whether or not the monitoring range of the monitoring device exists in front of the user, for example.
以下、本発明の一実施形態として、ある建物の壁面に設置され屋外の監視場所を監視している監視カメラの監視範囲(撮像範囲)を、利用者が自ら所持している監視範囲検知装置によって確認する場合の実施例について、図面を参照して説明する。すなわち、本実施例は、監視カメラが、本発明における監視装置として機能した場合の実施例である。 Hereinafter, as one embodiment of the present invention, a monitoring range detection device that a user owns a monitoring range (imaging range) of a monitoring camera that is installed on a wall of a building and that monitors an outdoor monitoring place is used. An example of confirmation will be described with reference to the drawings. That is, the present embodiment is an embodiment in the case where the surveillance camera functions as the monitoring device in the present invention.
図1は、本実施の形態の監視範囲検知装置1の利用形態を説明する模式図である。監視カメラ2は、建物9の壁面上部等に監視場所を俯瞰して撮像するよう設置され、監視場所を所定時間おきに撮影し、取得した監視画像を図示しない記録装置に順次記録する。ここで、当該監視カメラ2の監視範囲は、一点鎖線で図示された領域7であるとする。
図1に示すように、本実施例では、監視範囲検知装置1は、利用者8によって所持されるコンピュータ端末である。しかし、これに限らず、監視範囲検知装置1は、コンピュータ機能を有するヘットマウントディスプレイ等から構成されるウェアラブルコンピュータであってもよい。後述するように監視範囲検知装置1は、撮像部と表示部とを備え、撮像部によって取得した撮像画像4を表示部に表示する。また、監視範囲検知装置1は、撮像部の視野内に監視カメラ2の監視範囲7が含まれていると判定した場合、当該監視範囲7を表す監視範囲画像116を撮像画像4上に重畳した合成画像5を表示する。なお、本実施例では、図1に示すように一つの監視カメラ2のみ設置されている例を用いて説明するが、複数の監視カメラ2が設置されていても良い。
FIG. 1 is a schematic diagram for explaining a usage pattern of the monitoring
As shown in FIG. 1, in this embodiment, the monitoring
図2は、監視範囲検知装置1の構成を示している。監視範囲検知装置1は、コンピュータ機能を有しており、記憶部11、制御部12、撮像部13、状態取得部14、表示部15、入力部16を備えている。
FIG. 2 shows the configuration of the monitoring
撮像部13は、CCD素子やC−MOS素子等の撮像素子、光学系部品等を含んで構成される所謂カメラである。本実施例では、撮像部13は、所定時間おきに撮像して撮像画像4を記憶部11に一時的に記憶するものとする。撮像画像4を取得する時間間隔は、例えば1/5秒である。
The
入力部16は、キーボード、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。利用者8は、入力部16を用いて、それぞれの監視カメラ2の設置位置等の様々な撮像条件に関する情報を設定したりすることができる。
The
状態取得部14は、GPS(Global Positioning System)、距離センサ、電子コンパス、傾斜センサなどの各種センサを含んで構成され、撮像部13の現在の位置や光軸(姿勢)に関する情報を所定時間おきに取得して記憶部11に記憶する。
The
本実施例では、撮像部13の現在の位置に係る水平面上における位置情報として、GPSにより自立的に測位した結果(緯度・経度)を取得する。また、撮像部13の現在の位置における高さ情報については、超音波センサや赤外線センサ等を用いた距離センサにより地面からの距離を測定した結果を取得する。なお、高さ情報については、距離センサを用いずに、簡易的に人が所持する高さを考慮して設定された固定値(例えば1.2m〜1.7のいずれかの値)を用いてもよい。この場合、利用者8によって入力部16を用いて設定入力される。
In the present embodiment, as position information on the horizontal plane related to the current position of the
また、本実施例では、撮像部13の現在の光軸に係る情報として、電子コンパスにより自立的に測定した結果を、所定方向を基準とする角度として取得し、そして、傾斜センサから撮像部13の水平面に対する傾斜の度合いを示す傾斜情報を角度として検出する。具体的には、状態取得部14の電子コンパスは、図3(a)に示されるように、例えば北方向を基準として右回りに、北方向0°、東方向を90°、南方向を180°、西方向を270°として、撮像部13の光軸の方位角を角度θとして検出する。また、状態取得部14の傾斜センサは、図3(b)に示されるように、水平面に対する撮像部13の光軸の傾斜角を上方向への傾斜を角度θ’として、下方向への傾斜を角度−θ’として検出する。
In the present embodiment, as information related to the current optical axis of the
記憶部11は、ROM、RAM、HDD等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、場所モデル111、監視条件情報112、撮像条件情報113、監視範囲モデル114、撮像範囲モデル115が含まれる。
The
場所モデル111は、監視場所に存在する現実世界の壁・地面・柱等の物体をモデル化することにより作成された3次元形状データを含む3次元の仮想空間を表した座標情報である。場所モデル111における3次元形状データは、監視場所の形状情報に基づいて3次元CADで作成されたものでも良いし、3次元レーザースキャナー等により監視場所の3次元形状を取り込んだデータを利用しても良い。このようにして作成された場所モデル111は、利用者等により入力部16から設定登録されることにより記憶部11に記憶される。
The
監視条件情報112は、現在時刻における監視カメラ2の設置位置や光軸(監視方向)に関する設置条件情報と、焦点距離、画素数、画素サイズ、レンズ歪みに関する画角条件情報(監視角情報)とからなり、設置されている監視カメラ2毎に個別設定される。また、監視条件情報112は、場所モデル111の仮想空間における座標情報に対応付けられた値で設定されている。
ここで、監視カメラ2の設置位置に関する設置条件情報とは、監視場所内(実空間)を3次元直交座標系として表し、実空間の直交座標系で座標が既知である基準点の座標値に基準点からの相対距離、方向を測定して補正する等の公知の技術を使用して算出した座標データとして表した情報である。また、監視カメラ2の光軸に関する設置条件情報とは、上記座標軸に対する監視カメラ2の光軸の回転角度に関する情報であり、監視カメラ2のいわゆるパン角度、チルト角度から求めることができる。監視条件情報112は、初期設定時に利用者8等によって入力部16から設定登録されることにより記憶部11に記憶される。
The
Here, the installation condition information relating to the installation position of the
撮像条件情報113は、状態取得部14により取得した現在時刻における撮像部13の位置や光軸に関する端末条件情報と、個別に設定された焦点距離、画素数、画素サイズ、レンズ歪みに関する画角条件情報とからなる。
ここで、撮像部13の位置に関する端末条件情報は、状態取得部14のGPSによって取得した結果を、制御部12によって場所モデル111の仮想空間における座標情報に対応付けて変換された値として設定される。また、撮像部13の光軸に関する端末条件情報は、状態取得部14の電子コンパス及び傾斜センサによって取得した結果を、制御部12によって上記座標軸に対する撮像部13の光軸の回転角度に対応付けて変換した値として設定される。このように、撮像条件情報113の端末条件情報は、各種センサによって現在の位置や光軸に関する情報を取得する度に更新される。なお、撮像条件情報113の画角条件情報は、初期設定時に利用者8等によって入力部16から設定登録されることにより記憶部11に記憶される。
The
Here, the terminal condition information regarding the position of the
監視範囲モデル114は、監視カメラ2の監視範囲7を模してモデル化した3次元形状データである。また、撮像範囲モデル115は、撮像部13の監視範囲を模してモデル化した3次元形状データである。監視範囲モデル114及び撮像範囲モデル115は、後述するように制御部12のモデル生成手段121によって生成され、記憶部11に記憶される。
The
制御部12は、例えばCPUやDSP等の演算装置であって、記憶部11に記憶されるプログラムに従って各種の情報処理を実行する。本実施例では、制御部12は、撮像部13の視野内に監視カメラ2の監視範囲7が含まれているか否かを判定する処理を行う。また、制御部12は、撮像部13の視野内に監視カメラ2の監視範囲7が含まれている場合、監視カメラ2の撮像画像4上に、監視カメラ2の監視範囲7を表す監視範囲画像116を合成した合成画像5を生成し、表示部15に出力する処理を行う。また、制御部12は、入力部16からの設定情報や操作情報等の入力情報を記憶部11に記憶する処理を行う。
制御部12は、機能的に、モデル生成手段121と、判定手段122と、レンダリング手段123と、合成処理手段124とを含んで構成される。
The
The
モデル生成手段121は、記憶部11の監視条件情報112と場所モデル111とに基づいて監視範囲モデル114を生成し、当該監視範囲モデル114を場所モデル111上における位置情報と対応付けて記憶部11に記憶するモデリング処理を行う。また、モデル生成手段121は、記憶部11の撮像条件情報113と場所モデル111とに基づいて撮像範囲モデル115を生成し、当該撮像範囲モデル115を場所モデル111上における位置情報と対応付けて記憶部11に記憶するモデリング処理を行う。すなわち、モデリング処理によって、理論上、監視範囲モデル114と撮像範囲モデル115とが配置された場所モデル111を得られることになる。
The
図4は、監視場所の上方から地面方向を撮像している監視カメラ2に係る監視範囲モデル114の一例を表したものである。ここで、図4を用いて、モデル生成手段121における監視範囲モデル114の生成の処理を説明する。なお、図4において、符号111a、111bは、場所モデル111の一部を表したものであり、そのうち111aが地面を表し、111bが建物9の壁面を表したものとする。
FIG. 4 illustrates an example of the
モデル生成手段121は、監視範囲モデル114を生成するにあたり、まず、記憶部11の監視条件情報112から監視カメラ2の設置位置(X,Y,Z)を読み出して、その位置に対応する場所モデル111上における光学中心Oを求める。また、モデル生成手段121は、当該光学中心Oと、記憶部11の監視条件情報112から読み出した光軸(姿勢)に関する設置条件情報とから、監視カメラ2の場所モデル111上における光軸を求める。また、モデル生成手段121は、記憶部11から焦点距離fとCCDの画素の実サイズ、画像の縦横のピクセル数とレンズの歪みに関する諸元等の監視条件情報112を読み出し、監視カメラ2の場所モデル111上における投影面abcdを求める。そして、光学中心Oから投影面abcdの四つの頂点を通る四角錐Oa’b’c’d’を生成する。なお、四角錐の高さは、少なくとも四角錐の底面における四つの頂点(a’,b’,c’,d’)が場所モデル111を貫く程度の任意の高さとする。そして、モデル生成手段121は、この四角錐と場所モデル111との干渉面ABCDを公知の幾何計算により求め、当該干渉面と四角錐の頭頂点を含む四つの側面からなる立体形状OABCDを監視範囲モデル114として求める。
In generating the
このように、監視範囲モデル114の形状は、監視条件情報112の値によって変化する。例えば、監視カメラ2がズーム操作を行った場合、焦点距離fが大きくなることに伴って、四角錐の底面a’b’c’d’の辺の長さが小さくなり、干渉面の大きさも小さくなるように変化する。また、監視カメラ2に対して、パン・チルト操作を行い、図5のように床面111aと壁面111bとが監視範囲に含まれるよう監視カメラ2の光軸を移動させた場合、監視範囲モデル114の形状は、OABECDFを頂点とした3次元形状となる。なお、図4、図5はレンズのゆがみを除去した場合の監視範囲モデル114の概略を表したものである。
As described above, the shape of the
なお、本実施例では、上記のように監視条件情報112として焦点距離、画素数、画素サイズ、レンズ歪みからなる画角条件情報を用いて投影面を求め、当該投影面から監視範囲モデル114を算出するための処理を行っている。しかし、焦点距離、画素数、画素サイズ、レンズ歪みからなる画角条件情報を用いなくても監視範囲モデル114を算出することができる。例えば、監視カメラ2の種類によっては、監視カメラ2の水平角(又は垂直角)を設定することによって、当該水平角(又は垂直角)と当該監視カメラ2のアスペクト比とから一意に監視範囲を求めることができるものがある。このような監視カメラ2では、画角条件情報として水平角(又は垂直角)とアスペクト比とを設定することによって、四角錐の頭頂点Oにおける対向する2つの側面がなす角度を求めることができるため、これから上記実施例と同様に四角錐Oa’b’c’d’を求めることができ、監視範囲モデル114を生成することができる。
In the present embodiment, as described above, the projection plane is obtained using the angle of view condition information including the focal length, the number of pixels, the pixel size, and the lens distortion as the
なお、モデル生成手段121における撮像範囲モデル115の生成処理は、上記の監視範囲モデル114の生成と同様の処理であり、監視範囲モデル114が監視条件情報112を用いて生成されるのに対して、撮像範囲モデル115が撮像条件情報113を用いて生成される点が異なる。したがって、ここでは撮像範囲モデル115の生成処理の詳細な説明を省略する。
The generation process of the
判定手段122は、記憶部11の監視範囲モデル114と撮像範囲モデル115とに基づいて撮像部13の視野内に監視カメラ2の監視範囲7が含まれているか否かを判定する処理を行う。本実施例では、判定手段122は、監視範囲モデル114と撮像範囲モデル115とが3次元仮想空間内である場所モデル111上において交わっているか否かを判定し、交わっている場合に、撮像部13の視野内に監視カメラ2の監視範囲7が含まれていると判定する。
The
ここで、図6を用いて判定手段122の処理を補足説明する。図6において、符号111a、111bは、場所モデル111の一部を表したものであり、そのうち111aが地面を表し、111bが建物9の壁面を表したものとする。図6(a)に示すように、モデル生成手段121にて生成された監視範囲モデル114aと撮像範囲モデル115aとが交わっていない場合、判定手段122は撮像部13の視野内に監視カメラ2の監視範囲7が含まれていないと判定する。一方、図6(b)に示すように、モデル生成手段121にて生成された監視範囲モデル114bと撮像範囲モデル115bとが交わっている場合、判定手段122は撮像部13の視野内に監視カメラ2の監視範囲7が含まれていると判定する。
Here, the processing of the
レンダリング手段123は、判定手段122にて撮像部13の視野内に監視カメラ2の監視範囲7が含まれていると判定した場合、監視条件情報112と撮像条件情報113とに基づいて監視範囲画像116を生成する処理を行う。
When the
レンダリング手段123は、監視範囲画像116を生成するにあたって、まず、撮像条件情報113に基づいて、撮像部13に対応する仮想カメラを場所モデル111上に配置する処理も行う。この際、当該仮想カメラは、撮像部13の視野からの撮像画像に相当するレンダリング画像が得られるよう設定されるものとする。
In generating the
そして、レンダリング手段123は、当該仮想カメラを用いて、監視範囲モデル114が配置された場所モデル111を仮想的に撮像するレンダリング処理を行い、撮像部13の視野からの撮像画像に相当する仮想的な画像であるレンダリング画像を生成する処理を行う。レンダリング処理によって生成されたレンダリング画像は、記憶部11に一時的に記憶される。
The
合成処理手段124は、撮像画像4とレンダリング画像とから合成画像5を生成するオーバーレイ処理を行う。オーバーレイ処理では、合成処理手段124は、まず記憶部11に一時的に記憶されたレンダリング画像から、監視範囲モデル114に該当する部分の画像領域である監視範囲画像116を抽出する処理を行う。具体的には、予めモデリング処理にてモデル生成手段121が、監視範囲モデル114の色情報を、場所モデル111とは異なる色として設定しておく。こうすることで、合成処理手段124は、レンダリング画像から上記色情報を含む画像領域を監視範囲画像116として抽出することができる。
The
続いて、オーバーレイ処理では、撮像部13から取得した撮像画像4上に監視範囲画像116をオーバーレイする(重ね合わせる処理)ことにより合成画像5を生成する。この際、監視範囲画像116に隠れた部分における撮像画像4についても利用者8が見ることができるよう、監視範囲画像116を半透明にして重ね合わせることとする。
Subsequently, in the overlay process, the composite image 5 is generated by overlaying (superimposing) the
表示部15は、液晶ディスプレイ等の情報表示デバイスである。表示部15は、合成処理手段124から出力された合成画像5を表示する。このように、利用者8は、表示部15からの表示出力を閲覧することにより、撮像部13の視野内に監視カメラ2の監視範囲7が含まれていることを検知できる。また、利用者8は、表示部15に表示された合成画像5から監視カメラ2の監視範囲7を立体的に捉えることができるため、監視範囲7の適切性などを確認することもできる。
The
なお、表示部15は、好適には撮像部13の光軸に対して垂直となる位置に固定的に配置される。こうすることにより、利用者8は、撮像部13と共に表示部15を移動可能であり、更に、表示部15を閲覧する利用者8の視線と撮像部13の光軸とを略一致させることができるため、監視カメラ2の監視範囲7を利用者8の目線から確認することができる。
The
以下、本実施例の監視範囲検知装置1の制御部12が実行する処理の流れの一例について、図7のフローチャートに基づいて説明する。
Hereinafter, an example of the flow of processing executed by the
動作に先立ち、利用者等により入力部16を用いて監視条件情報112、撮像条件情報113の画角条件情報の設定、及び場所モデル111の登録等の各種初期設定が行なわれる(S10)。本実施例では、監視場所内に1台の監視カメラ2が設置されている場合を想定しているため、当該監視カメラ2の監視条件情報112が初期設定にて登録される。なお、複数台の監視カメラ2が設置される場合は、監視カメラ2ごとに監視条件情報112が登録される。また、場所モデル111として図8の3次元形状データが、初期設定にて登録されたとして以下の処理を説明する。
Prior to the operation, various initial settings such as setting of the
初期設定が終わると、モデル生成手段121は、監視カメラ2ごとに監視範囲モデル114を生成して記憶部11に記録するモデリング処理を、全ての監視カメラ2についての処理が終了するまで繰り返し実施する(S12、S14)。
When the initial setting is completed, the
そして、モデル生成手段121は、状態取得部14にて取得され記憶部11に記憶された撮像条件情報113を読み出し、撮像範囲モデル115を生成するモデリング処理を実施する(S16、S18)。
And the model production | generation means 121 reads the
図9は、モデリング処理後における監視範囲モデル114と撮像範囲モデル115とが設置された場所モデル111の模式図である。なお、図9において、監視範囲検知装置1、監視カメラ2及び利用者8は、本明細書における処理説明のため、便宜的に図9に表したに過ぎず、3次元形状を表す形状モデルとして場所モデル111上に配置されたものではない。
FIG. 9 is a schematic diagram of the
次に、判定手段122は、監視範囲モデル114と撮像範囲モデル115とが交わっているか否かを判定する判定処理を行う(S20、S22)。判定手段122が監視範囲モデル114と撮像範囲モデル115とが交わっていないと判定した場合(S22−No)、制御部12は処理をステップS16に戻し、モデル生成手段121により状態取得部14で取得した最新の撮像条件情報113を用いてモデリング処理を実施する。
Next, the
一方、判定手段122が監視範囲モデル114と撮像範囲モデル115とが交わっていると判定した場合(S22−Yes)、制御部12は処理をステップS24に進める。ステップS24では、レンダリング手段123は、撮像部13の視野に相当するレンダリング画像を生成するレンダリング処理を行う(S24)。
図10は、レンダリング処理によって撮像部13に対応する仮想カメラから仮想的に撮像した場合のレンダリング画像3の表した図である。図10において、符号31の画像領域は、図9における監視範囲モデル114に対応する監視範囲画像116である。また、図10において、符号32、33の画像領域は、それぞれ場所モデル111における壁面と床面に対応する画像領域である。
On the other hand, when the
FIG. 10 is a diagram illustrating the rendered image 3 when the virtual image is captured from the virtual camera corresponding to the
このように、レンダリング手段123は、判定手段122により撮像部13の視野内に監視カメラ2の監視範囲7が含まれていると判定したときのみレンダリング処理を行うため、不要なレンダリング処理を行う必要がなく、レンダリング処理に要する処理負荷を軽減することができる。
As described above, the
次に、合成処理手段124は、撮像部13により取得した撮像画像4と、ステップS24にて生成したレンダリング画像3から抽出した監視範囲画像116とを重ね合わせて合成画像5を生成するオーバーレイ処理を行う(S26)。そして、合成処理手段124は、オーバーレイ処理によって生成した合成画像5を表示部15に出力する処理を行う。これによって、表示部15は、当該合成画像5を表示する(S28)。
図11は撮像部13から取得した撮像画像4を示す図である。そして、図12はオーバーレイ処理によって図11の撮像画像4上にレンダリング画像3から抽出した監視範囲画像116を重ね合わせた合成画像5を示す図である。図12において、符号51の画像領域は、レンダリング画像3から抽出された監視範囲画像116であり、図10における符号31の画像領域に対応する画像領域である。
Next, the
FIG. 11 is a diagram illustrating the captured
このように利用者8は、表示部15に表示された合成画像5上の監視範囲画像116を確認することにより、撮像部13の視野内に監視カメラ2の監視範囲7が含まれていることを検知することができる。また、利用者8は、表示部15に表示された合成画像5から監視カメラ2の監視範囲7を立体的に捉えることができるため、監視範囲7の適切性などを確認することもできる。
As described above, the
本発明は、上記実施例に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施例で実施されてもよいものである。また、上記実施例に記載した効果は、これに限定されるものではない。 The present invention is not limited to the above embodiments, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Moreover, the effect described in the said Example is not limited to this.
上記実施例では、場所モデル111として監視場所に存在する現実世界の壁・床・柱等の物体をモデル化した3次元形状データを含む3次元の仮想空間を表した座標情報を用いている。しかし、これに限らず、監視カメラ2の設置高から求まる床面を表す平面形状のみを、場所モデル111における物体の3次元形状データとして用いてもよい。すなわち、モデル生成手段121は、監視場所を平面(地面)のみからなる仮想空間と捉えて、監視条件情報112及び撮像条件情報113に基づいて仮想空間である床面上に監視範囲モデル114及び撮像範囲モデル115を生成する処理を行う。この際、モデル生成手段121は、監視カメラの監視範囲(又は撮像部の撮像範囲)を表す四角錐等の立体形状と床面のみとの干渉を幾何計算することにより干渉面を算出して、監視範囲モデル114(又は撮像範囲モデル115)を生成する。
これにより、壁等の物体との干渉を考慮し監視範囲モデル114(又は撮像範囲モデル115)を生成できず、かつ、物体による隠蔽を考慮することはないため、結果として監視範囲を検知する正確性、及び合成画像上に再現表示される監視範囲の正確性は、低下することになる。しかし、簡易的に監視範囲モデル114(又は撮像範囲モデル115)を生成することができ、また簡易的にレンダリング画像を生成することができるため、結果として監視範囲検知装置1の計算量を減少させることができる。また、予め記憶部11に場所モデル111の3次元形状データを設定するといった手間のかかる初期設定を省略できるため、利用者は監視範囲検知装置1を手軽に利用することができ、利便性が向上することとなる。
In the above-described embodiment, coordinate information representing a three-dimensional virtual space including three-dimensional shape data obtained by modeling an object such as a real world wall, floor, or pillar existing at a monitoring place is used as the
As a result, the monitoring range model 114 (or the imaging range model 115) cannot be generated in consideration of interference with an object such as a wall, and concealment by the object is not considered. And the accuracy of the monitoring range reproduced and displayed on the composite image will be reduced. However, the monitoring range model 114 (or the imaging range model 115) can be easily generated, and a rendering image can be easily generated. As a result, the calculation amount of the monitoring
同様に、物体の3次元形状データを含まない3次元の仮想空間を表した場所モデル111を用いてもよい。この場合、監視範囲モデル114(又は撮像範囲モデル115)は、床面との干渉をも一切考慮しないものとなるため、結果として監視範囲を検知する正確性、及び合成画像上に再現表示される監視範囲の正確性は、さらに低下することになる。しかし、監視範囲検知装置1の計算量を最も抑制できるため、簡易的に監視範囲を検知又は再現したい場合には有用である。
Similarly, a
上記実施例は、判定手段122にて撮像部13の視野内に監視カメラ2の監視範囲7が含まれているか否かを判定し、当該判定結果に基づいて、レンダリング手段123により撮像部からの視野に相当するレンダリング画像を生成し、合成処理手段124により撮像画像4と当該レンダリング画像とを合成した合成画像を出力する処理を行う構成となっている。しかし、これに限らず、合成画像5を出力せずに、判定手段122による判定結果を表示部15にメッセージ表示する構成でも良い。すなわち、判定手段122は、撮像部13の視野内に監視カメラ2の監視範囲7が含まれていると判定した場合、表示部15に対して例えば「撮像部の撮像範囲内に監視カメラの監視範囲が含まれます」などのメッセージを表示させる処理を行っても良い。
これにより、利用者は、上記実施例のように合成画像5により監視カメラ2の監視範囲7を視覚的に確認することができない一方で、撮像部13の視野内に監視カメラ2の監視範囲が含まれていることを検知することについては可能であるため、例えば自らの前方に監視装置の監視範囲が存在するか否かについてのみ簡易的に検知したい場合には有効である。
In the above embodiment, the
As a result, the user cannot visually confirm the monitoring range 7 of the
上記実施例は、監視カメラ2が、本発明における監視装置として機能した場合の実施例である。しかし、これに限らず、人物から放射される赤外線の受光量の変化に基づいて人物の存否を検出する赤外線センサを、本発明における監視装置として機能させてもよい。この場合、記憶部11の監視条件情報112には、当該赤外線センサの設置位置や監視方向に関するセンサ設置条件情報と、センサの監視範囲(検知範囲)を画定する監視角情報とが記憶される。また、記憶部11の監視範囲モデル114には、制御部12のモデル生成手段121によって生成された、赤外線センサの監視範囲を模してモデル化した3次元形状データが記憶される。そして、最終的に出力される合成画像は、撮像部13にて取得した撮像画像4上に赤外線センサの監視範囲を表す画像領域、すなわち監視範囲画像を重ね合わせるよう画像処理した画像として出力される。なお、上記の赤外線センサ以外にも、マイクロ波センサや超音波センサ等の設置条件情報と監視角情報とを設定することにより監視範囲を一意に画定できる空間センサを用いてもよい。
The said Example is an Example at the time of the
1・・・監視範囲検知装置
2・・・監視カメラ
3・・・レンダリング画像
4・・・撮像画像
5・・・合成画像
7・・・監視範囲
8・・・利用者
9・・・建物
11・・・記憶部
12・・・制御部
13・・・撮像部
14・・・状態取得部
15・・・表示部
16・・・入力部
111・・・場所モデル
112・・・監視条件情報
113・・・撮像条件情報
114・・・監視範囲モデル
115・・・撮像範囲モデル
116・・・監視範囲画像
121・・・モデル生成手段
122・・・判定手段
123・・・レンダリング手段
124・・・合成処理手段
DESCRIPTION OF
Claims (4)
撮像画像を取得する撮像部と、
前記撮像部の現在の位置及び光軸を取得する状態取得部と、
前記監視装置が監視する場所を3次元の仮想空間として表現した場所モデルと、前記監視装置の設置位置、監視方向及び監視角情報を前記場所モデルと対応付けた監視条件情報と、前記撮像部の画角と前記状態取得部で取得した該撮像部の現在の位置及び光軸とを前記場所モデルと対応付けた撮像条件情報とを記憶した記憶部と、
前記場所モデルと前記監視条件情報とに基づいて前記監視装置の監視範囲を表す監視範囲モデルを生成し、前記場所モデルと前記撮像条件情報とに基づいて前記撮像部の撮像範囲を表す撮像範囲モデルを生成するモデル生成手段と、
前記監視範囲モデルと前記撮像範囲モデルとが交わっているときに前記撮像部の視野内に前記監視装置の監視範囲が含まれていると判定する判定手段と、
前記判定手段による判定結果を表示する表示部と、
を有することを特徴とする監視範囲検知装置。 A monitoring range detection device for detecting a monitoring range of a monitoring device,
An imaging unit for acquiring a captured image;
A state acquisition unit for acquiring a current position and an optical axis of the imaging unit;
A place model expressing a place monitored by the monitoring device as a three-dimensional virtual space; monitoring condition information in which the installation position, the monitoring direction, and the monitoring angle information of the monitoring device are associated with the place model; A storage unit that stores imaging condition information in which an angle of view and the current position and optical axis of the imaging unit acquired by the state acquisition unit are associated with the place model;
An imaging range model that generates a monitoring range model that represents a monitoring range of the monitoring device based on the location model and the monitoring condition information, and that represents an imaging range of the imaging unit based on the location model and the imaging condition information Model generation means for generating
Determination means for determining that the monitoring range of the monitoring device is included in the field of view of the imaging unit when the monitoring range model and the imaging range model intersect;
A display unit for displaying a determination result by the determination unit;
A monitoring range detection device comprising:
The monitoring range detection apparatus according to claim 1, wherein the place model represents a three-dimensional virtual space including an object existing at the place .
前記撮像部で取得した撮像画像と前記レンダリング画像とを合成した合成画像を出力する合成処理手段と、を備え、
前記表示部は、前記合成画像を表示することを特徴とする請求項2に記載の監視範囲検知装置。 Furthermore, when the determination unit determines that the monitoring range of the monitoring device is included in the field of view of the imaging unit, it corresponds to the field of view of the imaging unit using the monitoring range model and the imaging condition information Rendering means for generating a rendered image to be
Synthesis processing means for outputting a synthesized image obtained by synthesizing the captured image acquired by the imaging unit and the rendering image;
The monitoring range detection apparatus according to claim 2, wherein the display unit displays the composite image.
The monitoring range detection device according to claim 1, wherein the display unit is fixedly disposed at a position perpendicular to the optical axis of the imaging unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011078228A JP5714960B2 (en) | 2011-03-31 | 2011-03-31 | Monitoring range detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011078228A JP5714960B2 (en) | 2011-03-31 | 2011-03-31 | Monitoring range detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012213083A JP2012213083A (en) | 2012-11-01 |
JP5714960B2 true JP5714960B2 (en) | 2015-05-07 |
Family
ID=47266685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011078228A Active JP5714960B2 (en) | 2011-03-31 | 2011-03-31 | Monitoring range detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5714960B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9967544B2 (en) * | 2013-07-03 | 2018-05-08 | Hitachi, Ltd. | Remote monitoring system and monitoring method |
KR101559739B1 (en) * | 2015-06-11 | 2015-10-15 | 주식회사 미래엔에스 | System for merging virtual modeling and image data of cameras |
JP2023005022A (en) * | 2021-06-28 | 2023-01-18 | 株式会社Jvcケンウッド | Imaging system, imaging method, and program |
WO2023021640A1 (en) * | 2021-08-19 | 2023-02-23 | 三菱電機株式会社 | Information processing program and detection system |
WO2023225967A1 (en) * | 2022-05-26 | 2023-11-30 | 北京小米移动软件有限公司 | Anti-snooping prompt method and apparatus, and electronic device and storage medium |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330489A (en) * | 1996-06-07 | 1997-12-22 | Hitachi Ltd | Equipment monitoring method and its device |
JP3688939B2 (en) * | 1999-06-10 | 2005-08-31 | 株式会社日立製作所 | Information providing method, apparatus for implementing the same, and recording medium on which processing program is recorded |
JP2006137223A (en) * | 2004-11-10 | 2006-06-01 | Fujitsu Ten Ltd | Accident preventing device and emergency notification device for vehicle |
US20060265664A1 (en) * | 2005-05-17 | 2006-11-23 | Hitachi, Ltd. | System, method and computer program product for user interface operations for ad-hoc sensor node tracking |
JP4668014B2 (en) * | 2005-09-05 | 2011-04-13 | シャープ株式会社 | Security status notification device, security status notification method, and computer program for causing computer to execute security status notification method |
JP4780455B2 (en) * | 2006-02-28 | 2011-09-28 | サクサ株式会社 | Video surveillance apparatus and method |
JP4960659B2 (en) * | 2006-06-20 | 2012-06-27 | クボテック株式会社 | Video camera shooting control apparatus and video camera shooting control method using three-dimensional virtual space |
JP2008026185A (en) * | 2006-07-21 | 2008-02-07 | Tepco Systems Corp | Radiation visualization system |
JP4316629B2 (en) * | 2007-03-29 | 2009-08-19 | 株式会社東芝 | Image processing system, image acquisition method and program |
JP2009010728A (en) * | 2007-06-28 | 2009-01-15 | Olympus Corp | Camera setting support device |
JP2009080514A (en) * | 2007-09-25 | 2009-04-16 | Mitsubishi Electric Corp | Sensor arrangement design support system |
JP2009086729A (en) * | 2007-09-27 | 2009-04-23 | Sogo Keibi Hosho Co Ltd | Monitoring system, security device, sensor and monitoring method |
JP5016443B2 (en) * | 2007-10-25 | 2012-09-05 | ティーオーエー株式会社 | Camera installation simulator program |
JP2010182021A (en) * | 2009-02-04 | 2010-08-19 | Mitsubishi Electric Corp | Image monitor system |
JP2010193170A (en) * | 2009-02-18 | 2010-09-02 | Mitsubishi Electric Corp | Camera calibration device and monitoring area setting device |
-
2011
- 2011-03-31 JP JP2011078228A patent/JP5714960B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012213083A (en) | 2012-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113196208B (en) | Automated control of image acquisition by using acquisition device sensors | |
JP5682060B2 (en) | Image composition apparatus, image composition program, and image composition system | |
JP5093053B2 (en) | Electronic camera | |
US20160217624A1 (en) | Coordinate Geometry Augmented Reality Process | |
CN107402000A (en) | For the system and method relative to measuring instrument with reference to display device | |
JP4115117B2 (en) | Information processing apparatus and method | |
JP2017168077A (en) | Image processing method, display device, and inspection system | |
JP5727207B2 (en) | Image monitoring device | |
CN107836012A (en) | Mapping method between projection image generation method and its device, image pixel and depth value | |
JP6174968B2 (en) | Imaging simulation device | |
JP5714960B2 (en) | Monitoring range detector | |
JP2004287699A (en) | Image composition device and method | |
JP6640294B1 (en) | Mixed reality system, program, portable terminal device, and method | |
US20080316203A1 (en) | Information processing method and apparatus for specifying point in three-dimensional space | |
US11062422B2 (en) | Image processing apparatus, image communication system, image processing method, and recording medium | |
JP2005283221A (en) | Surveying data processing system, storage medium storing digital map and digital map display | |
JP2007243509A (en) | Image processing device | |
JP2011133840A (en) | Interlocked display measuring system using monitor camera image | |
KR101574636B1 (en) | Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage | |
JP2005277670A (en) | Omniazimuth video image generating apparatus, map interlocked omniazimuth video recording / display apparatus, and map interlocked omniazimuth video image utilizing apparatus | |
JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method | |
JP5714961B2 (en) | Monitoring and detection device | |
JP2018085611A (en) | Display control apparatus, ship, image display method and program | |
JP5091908B2 (en) | Object number measuring method, object number measuring apparatus, object number measuring program, and recording medium recording this program | |
JP4135934B2 (en) | Electronics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5714960 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |