Nothing Special   »   [go: up one dir, main page]

JP6052194B2 - Mobile management device - Google Patents

Mobile management device Download PDF

Info

Publication number
JP6052194B2
JP6052194B2 JP2014019158A JP2014019158A JP6052194B2 JP 6052194 B2 JP6052194 B2 JP 6052194B2 JP 2014019158 A JP2014019158 A JP 2014019158A JP 2014019158 A JP2014019158 A JP 2014019158A JP 6052194 B2 JP6052194 B2 JP 6052194B2
Authority
JP
Japan
Prior art keywords
distance
train
representative
distance image
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014019158A
Other languages
Japanese (ja)
Other versions
JP2015145186A (en
Inventor
慎 渡邉
慎 渡邉
信頼 田中
信頼 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2014019158A priority Critical patent/JP6052194B2/en
Publication of JP2015145186A publication Critical patent/JP2015145186A/en
Application granted granted Critical
Publication of JP6052194B2 publication Critical patent/JP6052194B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Train Traffic Observation, Control, And Security (AREA)

Description

この発明は、線路等の軌道に沿って走行する列車(例えば、汽車、電車、リニアモータカー)等の移動体の種別を判定する技術に関する。   The present invention relates to a technique for determining the type of a moving body such as a train (for example, a train, a train, or a linear motor car) that travels along a track such as a track.

従来、鉄道会社は、列車を停止させる目標停止位置を駅ホームに定めている。ここで言う列車とは、線路等の軌道に沿って走行する汽車、電車、リニアモータカー等である。駅ホームにおける列車の目標停止位置は、駅ホームに停止した列車に対する乗降客の乗降がスムーズに行えるように規定している。目標停止位置は、例えば駅ホーム面に目標基準位置を規定し、この目標基準位置の前後数十cm(例えば、全体で20〜30cm程度)の許容範囲を有する。例えば、駅ホーム面上における列車の後端(または前端)の位置が、その列車の位置である。列車の運転士は、列車の後端(または前端)が規定されている目標停止位置に位置するように、列車を駅ホームに停止させる。   Conventionally, railway companies have set a target stop position at a station platform to stop a train. The train mentioned here is a train, train, linear motor car, or the like that travels along a track such as a track. The target stop position of the train at the station platform is defined so that passengers can get on and off the train smoothly at the station platform. The target stop position defines a target reference position on the station platform surface, for example, and has an allowable range of several tens of centimeters (for example, about 20 to 30 cm as a whole) before and after the target reference position. For example, the position of the rear end (or front end) of a train on the station platform is the position of the train. The train driver stops the train at the station platform so that the rear end (or front end) of the train is located at the target stop position.

駅ホーム面に列車の目標停止位置(列車の後端、または前端を位置させる範囲)をペイントしておき、列車の運転士や、駅係員等がこのペイントを基準にして駅ホームに停止した列車が目標停止位置に停止しているかどうかの目視確認を行っていた。   A train where the train's target stop position (range where the rear end or front end of the train is located) is painted on the station platform, and train operators and station staff stop at the station platform based on this paint Was visually checked to see if it stopped at the target stop position.

また、列車の運転士や、駅係員等の作業負担を軽減する目的で、駅ホームに停車した列車の列車停止位置を検出し、この列車停止位置が駅ホームに規定している目標停止位置であるかどうかを判定した判定結果を出力する技術が提案されている(特許文献1参照)。特許文献1は、列車停止位置を、先頭車両の前面に設けた連結器までの距離(センサから連結器までの距離)を計測することによって検出する構成である。   In addition, for the purpose of reducing the workload of train drivers and station staff, etc., the train stop position of a train stopped at the station platform is detected, and this train stop position is the target stop position specified for the station platform. There has been proposed a technique for outputting a determination result for determining whether or not there is (see Patent Document 1). Patent document 1 is a structure which detects a train stop position by measuring the distance (distance from a sensor to a coupler) to the coupler provided in the front surface of the head vehicle.

特開2012−240519号公報JP 2012-240519 A

しかしながら、特許文献1の構成は、列車の種別に関係なく駅ホームにおける列車停止位置を検出するため、先頭車両の前面に設けた連結器までの距離を計測する構成である。すなわち、特許文献1は、列車停止位置を検出するときに、列車の種別を判定するものではなかった。   However, the configuration of Patent Document 1 is a configuration that measures the distance to a coupler provided in front of the leading vehicle in order to detect the train stop position at the station platform regardless of the type of train. That is, Patent Document 1 does not determine the type of train when detecting the train stop position.

また、特許文献1のように、先頭車両の前面に設けた連結器までの距離を計測して列車停止位置を検出する構成では、先頭車両の前面に設けた連結器までの距離を計測するセンサをホームの下に設置することになる。ホームの下は、列車の車輪とレールとの接触により飛散する錆や泥等の飛散量が多い。すなわち、ホームの下は、飛散した錆や泥等がセンサの投光レンズや受光レンズに付着しやすい環境である。このため、センサをホームの下に設置すると、投光レンズや受光レンズに付着している錆や泥等を拭き取るメンテナンス(清掃作業)の頻度が増加する。また、このメンテナンスは、作業員がホームの下に入って行うことになるので、作業員の安全を確保するために列車の運行が停止している深夜から早朝の時間帯を選択しなければならず、作業員の確保も困難であった。   Moreover, in the structure which measures the distance to the coupler provided in the front surface of the head vehicle and detects a train stop position like patent document 1, the sensor which measures the distance to the coupler provided in the front surface of the head vehicle Will be installed under the home. Under the platform, there is a large amount of rust, mud, etc. scattered by contact between the train wheels and the rails. That is, under the platform is an environment in which scattered rust, mud, and the like easily adhere to the light projecting lens and the light receiving lens of the sensor. For this reason, when the sensor is installed under the platform, the frequency of maintenance (cleaning work) for wiping off rust, mud, and the like adhering to the light projecting lens and the light receiving lens increases. In addition, since this maintenance is performed under the platform of the worker, to ensure the safety of the worker, it is necessary to select a time zone from midnight to early morning when the train operation is stopped. In addition, it was difficult to secure workers.

なお、最近では、駅ホームにおける乗降客の安全を確保するために、駅ホームの線路側の端部に沿ってホームドアを設置することが進められている。ホームドアは、列車停止位置が目標停止位置である列車のドアが対向する位置に、開閉式のドア(または柵)を有する。特許文献1に記載されたセンサを駅ホームの上方に取り付けると、ホームドアが障害物になって、駅ホーム面上における列車の後端(または前端)までの距離を検出することはできない。すなわち、列車停止位置を検出することができない。   Recently, in order to ensure the safety of passengers at the station platform, it has been promoted to install a platform door along the end of the station platform on the track side. The home door has an openable / closable door (or fence) at a position facing a train door whose train stop position is the target stop position. When the sensor described in Patent Literature 1 is attached above the station platform, the platform door becomes an obstacle, and the distance to the rear end (or front end) of the train on the station platform surface cannot be detected. That is, the train stop position cannot be detected.

この発明の目的は、軌道に沿って走行する移動体を上方からのアングルで撮像した距離画像を処理し、この移動体の種別を判定する技術を提供することにある。   An object of the present invention is to provide a technique for processing a distance image obtained by imaging a moving body traveling along a track at an angle from above and determining the type of the moving body.

また、この発明の目的は、軌道に沿って走行する移動体を上方からのアングルで撮像した距離画像から、この移動体が予め定めた許容範囲内に位置しているかどうかを判定する技術を提供することにある。   Another object of the present invention is to provide a technique for determining whether or not the moving body is located within a predetermined allowable range from a distance image obtained by imaging the moving body traveling along the track at an angle from above. There is to do.

この発明の移動体管理装置は、上記目的を達成するため、以下のように構成している。   In order to achieve the above object, the mobile management apparatus of the present invention is configured as follows.

距離画像入力部には、上方からのアングルで軌道に沿って走行する移動体の背面、または前面を撮像した距離画像が入力される。距離画像は、例えば公知のTOF(Time Of Flight)カメラや、レーザ光を利用する測距センサや、ステレオカメラで撮像できる。   The distance image input unit receives a distance image obtained by imaging the back surface or the front surface of the moving body that travels along the track at an angle from above. The distance image can be captured by, for example, a known TOF (Time Of Flight) camera, a distance measuring sensor using laser light, or a stereo camera.

距離画像処理部は、距離画像入力部に入力された距離画像を処理し、軌道に沿って走行する移動体の上端部が位置する第1の空間における移動体までの第1の代表距離と、第1の空間の下側に位置する第2の空間における移動体までの第2の代表距離と、を検出する。   The distance image processing unit processes the distance image input to the distance image input unit, and a first representative distance to the moving body in the first space where the upper end portion of the moving body traveling along the track is located; The second representative distance to the moving body in the second space located below the first space is detected.

移動体種別判定部は、距離画像処理部が検出した第1の代表距離、および第2の代表距離に基づいて、距離画像入力部に入力された距離画像に撮像されている移動体の種別を判定する。例えば、移動体種別判定部は、第1の代表距離と第2の代表距離との距離差に基づき、移動体の種別を判定する。   The moving body type determination unit determines the type of the moving body imaged in the distance image input to the distance image input unit based on the first representative distance and the second representative distance detected by the distance image processing unit. judge. For example, the mobile body type determination unit determines the type of the mobile body based on the distance difference between the first representative distance and the second representative distance.

また、以下に示す位置判定部を追加的に設けることにより、上方からのアングルで軌道に沿って走行する移動体の背面、または前面を撮像した距離画像から、この移動体が予め定めた許容範囲内に位置するかどうかの判定が行える。   In addition, by additionally providing the position determination unit shown below, the movable body is determined in advance from a distance image obtained by imaging the back surface or the front surface of the mobile body traveling along the track at an angle from above. It can be determined whether or not it is located within.

位置判定部は、距離画像処理部が検出した第1の代表距離または第2の代表距離の一方と、移動体種別判定部が判定した移動体の種別によって、この移動体が予め定めた許容範囲内に位置するかどうかを判定する。位置判定部は、例えば、移動体の種別毎に、第1の代表距離または第2の代表距離の一方に対して加える補正値を記憶しておき、検出した第1の代表距離または第2の代表距離の一方に対して、判別した種別に応じた補正値を加えた位置を、その移動体の位置として算出する。そして、位置判定部は、算出した移動体の位置が予め定めた許容範囲内であるかどうかを判定する。したがって、移動体の位置とする箇所が、距離画像入力部に入力された距離画像に撮像されていなくても、その移動体の位置を適正に算出(検出)し、移動体の位置が予め定めた許容範囲内であるかどうかを判定することができる。   The position determination unit has an allowable range determined in advance by the moving object based on one of the first representative distance or the second representative distance detected by the distance image processing unit and the type of the moving object determined by the moving object type determining unit. Determine if it is located within. The position determination unit stores, for example, a correction value to be added to one of the first representative distance or the second representative distance for each type of the moving body, and detects the detected first representative distance or the second representative distance. A position obtained by adding a correction value corresponding to the determined type to one of the representative distances is calculated as the position of the moving body. The position determination unit determines whether the calculated position of the moving body is within a predetermined allowable range. Therefore, even if the position to be the position of the moving body is not captured in the distance image input to the distance image input unit, the position of the moving body is appropriately calculated (detected), and the position of the moving body is determined in advance. It can be determined whether it is within the allowable range.

この発明によれば、軌道に沿って走行する移動体を上方からのアングルで撮像した距離画像を処理し、この移動体の種別を判定することができる。   According to the present invention, it is possible to process a distance image obtained by imaging a moving body traveling along a track at an angle from above and determine the type of the moving body.

駅ホームに停車した列車の停止位置が適正であるかどうかを判定する停止位置判定システムを示す概略図である。It is the schematic which shows the stop position determination system which determines whether the stop position of the train which stopped at the station platform is appropriate. 列車位置判定装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of a train position determination apparatus. 第1の空間、および第2の空間を説明する図である。It is a figure explaining 1st space and 2nd space. 列車種別テーブルを示す図である。It is a figure which shows a train classification table. 列車位置判定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a train position determination apparatus. 列車位置判定処理を示すフローチャートである。It is a flowchart which shows a train position determination process. 列車種別判定処理を示すフローチャートである。It is a flowchart which shows a train classification determination process. 停止判定処理を示すフローチャートである。It is a flowchart which shows a stop determination process.

以下、この発明の実施形態について説明する。   Embodiments of the present invention will be described below.

図1は、駅ホームに停車した列車の停止位置が適正であるかどうかを判定する停止位置判定システムを示す概略図である。この例にかかる停止位置判定システムは、列車位置判定装置1と、TOF(Time Of Flight)カメラ2と、ビデオカメラ3と、超音波センサ4と、を有する。   FIG. 1 is a schematic diagram illustrating a stop position determination system that determines whether or not a stop position of a train stopped at a station platform is appropriate. The stop position determination system according to this example includes a train position determination device 1, a TOF (Time Of Flight) camera 2, a video camera 3, and an ultrasonic sensor 4.

この停止位置判定システムは、駅ホームに進入してきた列車の種別を判定する。また、列車の位置が予め定めている目標停止位置の範囲内であるかどうかを判定した判定結果を出力する。この判定結果の表示は、列車の運転士や駅係員等から見えやすい位置に設置した表示器や表示灯等で行われる。これにより、列車の位置が目標停止位置であるかどうかを列車の運転士や、駅係員等に簡単に確認させることができる。ここで言う目標停止位置は、駅ホーム面に規定した目標基準位置の前後数十cm(例えば、全体で20〜30cm程度)の許容範囲を有する。駅ホーム面上における列車の後端(または前端)の位置が、その列車の位置である。   This stop position determination system determines the type of train that has entered the station platform. Moreover, the determination result which determined whether the position of the train is within the range of the predetermined target stop position is output. This determination result is displayed by a display or a lamp installed at a position that can be easily seen by train drivers, station staff, and the like. As a result, it is possible to easily check whether the train position is the target stop position by the train driver, station staff, or the like. The target stop position here has an allowable range of several tens of centimeters around the target reference position defined on the station platform surface (for example, about 20 to 30 cm as a whole). The position of the rear end (or front end) of the train on the station platform is the position of the train.

列車位置判定装置1は、駅ホームに進入してきた列車の種別を判定するとともに、ここで判定した種別に応じて列車の位置を算出(検出)する。そして、列車位置判定装置1は、駅ホームに進入してきた列車の位置が目標停止位置(許容範囲内)であるかどうかを判定し、その判定結果を出力する。この列車位置判定装置1が、この発明の実施形態にかかる移動体管理装置に相当する。また、列車位置判定装置1は、この発明の実施形態にかかる移動体管理方法を実行する装置に相当する。また、列車位置判定装置1は、この発明の実施形態にかかる移動体管理プログラムを実行するコンピュータを有する。   The train position determination device 1 determines the type of the train that has entered the station platform, and calculates (detects) the position of the train according to the type determined here. And the train position determination apparatus 1 determines whether the position of the train which has entered the station platform is the target stop position (within the allowable range), and outputs the determination result. This train position determination apparatus 1 corresponds to a mobile body management apparatus according to an embodiment of the present invention. Moreover, the train position determination apparatus 1 is corresponded to the apparatus which performs the mobile body management method concerning embodiment of this invention. Moreover, the train position determination apparatus 1 has a computer that executes a moving body management program according to the embodiment of the present invention.

列車位置判定装置1には、TOFカメラ2が撮像した距離画像、ビデオカメラ3が撮像した可視画像、超音波センサ4の検出出力が入力される。列車位置判定装置1の詳細については、後述する。   A distance image captured by the TOF camera 2, a visible image captured by the video camera 3, and a detection output of the ultrasonic sensor 4 are input to the train position determination device 1. Details of the train position determination device 1 will be described later.

TOFカメラ2は、駅ホームの上方に取り付けている。また、TOFカメラ2は、目標停止位置付近に位置する列車の背面を撮像するアングルで取り付けている。TOFカメラ2は、公知のように、撮像エリアに赤外光を照射する光源、およびn×m個の受光素子をマトリクス状に配置した撮像素子(n×m画素の撮像素子)を有する。TOFカメラ2は、撮像エリアの距離画像、および受光強度画像を同じタイミングで撮像する。TOFカメラ2は、赤外光を撮像エリアに照射してから、反射光を受光するまでの時間(飛行時間)を画素毎に計測することによって、この撮像エリアの距離画像を撮像する。また、TOFカメラ2は、各画素の受光光量によって、撮像エリアの受光強度画像を撮像する。TOFカメラ2は、撮像エリアを撮像した距離画像(以下、距離フレーム画像と言う。)を列車位置判定装置1に入力する。このTOFカメラ2のフレームレートは、例えば、10フレーム/秒である。   The TOF camera 2 is attached above the station platform. The TOF camera 2 is attached at an angle that captures the back of the train located near the target stop position. As is well known, the TOF camera 2 includes a light source that irradiates an imaging area with infrared light, and an imaging device (n × m pixel imaging device) in which n × m light receiving elements are arranged in a matrix. The TOF camera 2 captures the distance image of the imaging area and the received light intensity image at the same timing. The TOF camera 2 captures a distance image of this imaging area by measuring the time (flight time) from irradiating the imaging area with infrared light to receiving the reflected light for each pixel. Further, the TOF camera 2 captures a received light intensity image in the imaging area with the received light amount of each pixel. The TOF camera 2 inputs a distance image (hereinafter referred to as a distance frame image) obtained by imaging the imaging area to the train position determination device 1. The frame rate of the TOF camera 2 is, for example, 10 frames / second.

なお、この例では、TOFカメラ2は、撮像した撮像エリアの受光強度画像を列車位置判定装置1に入力しないものとして説明するが、撮像エリアの受光強度画像を入力してTOFカメラ2で撮像した受光強度画像、および距離画像の各画素について、その画素がノイズの影響を受けたノイズ画素であるかどうかを判定するようにしてもよい。例えば、受光強度が予め定めた閾値未満であれば、その画素をノイズ画素として判定する。列車の表面は金属であるので、この閾値をある程度高く設定することができる。このようにすれば、後述の処理において、ノイズ画素にかかる処理負荷を低減することができ、また、処理結果の信頼性の向上が図れる。   In this example, the TOF camera 2 is described as not receiving the captured light reception intensity image of the imaging area to the train position determination device 1, but the TOF camera 2 inputs the received light intensity image of the imaging area and captures it. For each pixel of the received light intensity image and the distance image, it may be determined whether the pixel is a noise pixel affected by noise. For example, if the received light intensity is less than a predetermined threshold, the pixel is determined as a noise pixel. Since the surface of the train is made of metal, this threshold can be set high to some extent. In this way, it is possible to reduce the processing load on the noise pixel in the processing described later, and to improve the reliability of the processing result.

ビデオカメラ3も、上述したTOFカメラ2と同様に、駅ホームの上方に取り付けている。また、ビデオカメラ3は、目標停止位置付近に位置する列車の背面を撮像するアングルで取り付けてもよいし、駅ホームに位置する列車の側面を撮像するアングルで取り付けてもよい。ビデオカメラ3のフレームレートは、例えば、30フレーム/秒である。ビデオカメラ3は、撮像エリアを撮像した可視画像(以下、可視フレーム画像と言う。)を列車位置判定装置1に入力する。   Similarly to the TOF camera 2 described above, the video camera 3 is also attached above the station platform. Further, the video camera 3 may be attached at an angle for imaging the back of the train located near the target stop position, or may be attached at an angle for imaging the side of the train located at the station platform. The frame rate of the video camera 3 is, for example, 30 frames / second. The video camera 3 inputs a visible image (hereinafter referred to as a visible frame image) obtained by imaging the imaging area to the train position determination device 1.

TOFカメラ2のアングルと、ビデオカメラ3のアングルとは、同じではない。   The angle of the TOF camera 2 and the angle of the video camera 3 are not the same.

超音波センサ4は、線路の枕木等に取り付けており、検知エリア内に位置する列車の有無を検知する。超音波センサ4は、列車の有無を示す2値の列車検知信号を列車位置判定装置1に入力する。   The ultrasonic sensor 4 is attached to a railroad sleeper or the like, and detects the presence or absence of a train located in the detection area. The ultrasonic sensor 4 inputs a binary train detection signal indicating the presence or absence of a train to the train position determination device 1.

図2は、列車位置判定装置の主要部の構成を示すブロック図である。列車位置判定装置1は、距離画像入力部11と、距離画像処理部12と、可視画像入力部13と、可視画像処理部14と、検知信号入力部15と、演算部16と、出力部17と、を備える。   FIG. 2 is a block diagram illustrating a configuration of a main part of the train position determination device. The train position determination apparatus 1 includes a distance image input unit 11, a distance image processing unit 12, a visible image input unit 13, a visible image processing unit 14, a detection signal input unit 15, a calculation unit 16, and an output unit 17. And comprising.

距離画像入力部11には、接続されているTOFカメラ2が撮像した距離フレーム画像が入力される。距離画像処理部12は、距離画像入力部11入力された距離フレーム画像を処理する。距離画像処理部12は、距離画像入力部11に入力された距離フレーム画像の3軸(x軸、y軸、およびz軸)を、列車の走行方向に応じて定めた3軸(X軸、Y軸、およびZ軸)の距離フレーム画像に変換する座標変換処理を行う。距離フレーム画像の3軸である、x軸は撮像素子の幅方向であり、y軸は撮像素子の高さ方向であり、z軸は撮像素子の撮像面に直交する方向である。また、列車の走行方向に応じて定めた3軸である、X軸は列車の幅方向であり、Y軸は列車の高さ方向であり、Z軸は列車の走行方向である。x軸とX軸とのなす角度α、y軸とY軸とのなす角度β、およびz軸とZ軸とのなす角度γは、TOFカメラ2の設置時に計測している。距離画像処理部12は、入力された距離フレーム画像について、x軸回りに角度α回転させ、y軸回りに角度β回転させ、さらに、z軸回りに角度γ回転させる座標変換を行うことによって、列車の走行方向に応じて定めた3軸(X軸、Y軸、およびZ軸)の距離フレーム画像を得る。距離フレーム画像の基準位置は、TOFカメラ2の撮像レンズの中心である。   A distance frame image captured by the connected TOF camera 2 is input to the distance image input unit 11. The distance image processing unit 12 processes the distance frame image input by the distance image input unit 11. The distance image processing unit 12 determines the three axes (x axis, y axis, and z axis) of the distance frame image input to the distance image input unit 11 according to the traveling direction of the train (X axis, A coordinate conversion process for converting into a distance frame image on the Y axis and the Z axis) is performed. The x-axis, which is the three axes of the distance frame image, is the width direction of the image sensor, the y-axis is the height direction of the image sensor, and the z-axis is a direction orthogonal to the image plane of the image sensor. Further, the three axes determined according to the traveling direction of the train, the X-axis is the width direction of the train, the Y-axis is the height direction of the train, and the Z-axis is the traveling direction of the train. The angle α formed by the x-axis and the X-axis, the angle β formed by the y-axis and the Y-axis, and the angle γ formed by the z-axis and the Z-axis are measured when the TOF camera 2 is installed. The distance image processing unit 12 performs coordinate conversion of the input distance frame image by rotating the angle α around the x axis, rotating the angle β around the y axis, and further rotating the angle γ around the z axis. A distance frame image of three axes (X axis, Y axis, and Z axis) determined according to the traveling direction of the train is obtained. The reference position of the distance frame image is the center of the imaging lens of the TOF camera 2.

距離画像処理部12は、上述の座標変換処理を行った距離フレーム画像(列車の走行方向に応じて定めた3軸の距離フレーム画像)を用いて、予め設定している第1の空間における列車までの代表距離Aおよび予め設定している第2の空間における列車までの代表距離Bを検出する。   The distance image processing unit 12 uses the distance frame image (three-axis distance frame image determined according to the traveling direction of the train) that has been subjected to the above-described coordinate conversion processing to train in the first space set in advance. And the representative distance A to the train in the preset second space is detected.

図3は、第1の空間、および第2の空間を説明する図である。図3(A)は、列車の背面図であり、図3(B)、(C)、(D)は、列車の背面付近の側面図である。図3(B)、(C)、(D)では、種別の異なる列車を示している。第1の空間は、図3に示すように、列車の上端部が位置する空間を含むように設定している。第2の空間は、第1の空間の下側に設定している。第1の空間、および第2の空間は、駅ホームに設置されているホームドア等の構造物が障害になることなく、目標停止位置付近に位置する列車の背面がTOFカメラ2で撮像できる空間である。一方、図3に示す、第3の空間は、駅ホームに設置されているホームドア等の構造物が障害になって、目標停止位置付近に位置する列車の背面がTOFカメラ2で撮像できない空間であってもよい。   FIG. 3 is a diagram illustrating the first space and the second space. 3A is a rear view of the train, and FIGS. 3B, 3C, and 3D are side views of the vicinity of the back of the train. 3B, 3C, and 3D show different types of trains. As shown in FIG. 3, the first space is set to include a space where the upper end of the train is located. The second space is set below the first space. The first space and the second space are spaces where the TOF camera 2 can capture the back of a train located near the target stop position without obstructing a structure such as a platform door installed in the station platform. It is. On the other hand, the third space shown in FIG. 3 is a space in which a structure such as a platform door installed in the station platform becomes an obstacle, and the back of the train located near the target stop position cannot be imaged by the TOF camera 2. It may be.

また、列車の位置は、図3(B)〜(D)に示すように、駅ホーム面上における列車の後端(または前端)の位置であり、第3の空間に属する。また、図3(B)〜(D)に示すように、列車の種別によって、背面の形状が異なるため、第1の空間における列車までの距離(代表距離A)と、第2の空間における列車までの距離(代表距離B)と、の距離差が異なる。   Moreover, the position of the train is the position of the rear end (or front end) of the train on the station platform surface, as shown in FIGS. 3B to 3D, and belongs to the third space. Also, as shown in FIGS. 3B to 3D, the shape of the back surface differs depending on the type of train, so the distance to the train in the first space (representative distance A) and the train in the second space And the distance difference (representative distance B) is different.

代表距離A、および代表距離Bを検出する処理の詳細については後述する。   Details of processing for detecting the representative distance A and the representative distance B will be described later.

可視画像入力部13には、接続されているビデオカメラ3が撮像した可視フレーム画像が入力される。可視画像処理部14は、可視画像入力部13に入力された時間的に連続する2つの可視フレーム画像の差分画像(所謂、フレーム間差分画像)を生成し、列車が停止しているかどうかを判定する。   A visible frame image captured by the connected video camera 3 is input to the visible image input unit 13. The visible image processing unit 14 generates a difference image (so-called inter-frame difference image) between two temporally continuous visible frame images input to the visible image input unit 13 and determines whether the train is stopped. To do.

検知信号入力部15には、接続されている超音波センサ4から列車の有無を示す列車検知信号が入力される。   A train detection signal indicating the presence / absence of a train is input from the connected ultrasonic sensor 4 to the detection signal input unit 15.

演算部16は、距離画像処理部12から入力された代表距離Aと、代表距離Bとの距離差に基づき、駅ホームに進入している列車の種別を判定する。また、演算部16は、ここで判定した列車の種別に応じて、駅ホームにおける列車の位置が目標停止位置であるかどうかを判定する。   The calculation unit 16 determines the type of the train entering the station platform based on the distance difference between the representative distance A and the representative distance B input from the distance image processing unit 12. Moreover, the calculating part 16 determines whether the position of the train in a station platform is a target stop position according to the classification of the train determined here.

演算部16は、メモリ(不図示)を有し、このメモリに図4に示す列車種別テーブルを記憶している。列車種別テーブルには、列車の種別毎に、代表距離Aと、代表距離Bとの距離差Cの大きさの範囲と、列車の位置を推定するのに用いる補正値と、が対応付けて登録されている。補正値は、代表距離Aまたは代表距離Bの一方(この例では代表距離A)から列車の位置を推定するのに用いる値である。   The calculating part 16 has a memory (not shown), and stores the train type table shown in FIG. 4 in this memory. In the train type table, for each type of train, a range of the magnitude of the distance difference C between the representative distance A and the representative distance B and a correction value used for estimating the position of the train are registered in association with each other. Has been. The correction value is a value used to estimate the train position from one of the representative distance A or the representative distance B (representative distance A in this example).

距離画像処理部12、および演算部16が、この発明の実施例にかかる移動体管理プログラムを実行するコンピュータに相当する。   The distance image processing unit 12 and the calculation unit 16 correspond to a computer that executes the moving object management program according to the embodiment of the present invention.

出力部17は、演算部16が判定した判定結果に応じて、駅ホームにおける列車の位置が目標停止位置であるかどうかを出力する。出力部17から出力された判定結果は、列車の運転士や駅係員等から見えやすい位置に設置した表示灯の点灯制御等に使用される。したがって、列車の運転士や駅係員等は、この表示灯の点灯/消灯を確認することにより、駅ホームにおける列車の位置が目標停止位置であるかどうかの確認が行える。   The output unit 17 outputs whether or not the position of the train on the station platform is the target stop position according to the determination result determined by the calculation unit 16. The determination result output from the output unit 17 is used for lighting control of an indicator lamp installed at a position that can be easily seen by a train driver, station staff, or the like. Therefore, a train operator, a station staff, or the like can confirm whether the position of the train on the station platform is the target stop position by confirming whether the indicator lamp is turned on or off.

また、演算部16は、駅ホームに設置されているホームドアの開閉を許可するかどうかを判定する機能を有している。出力部17は、ホームドアの開閉の許可/禁止を示す開閉許可信号を、ホームドアの開閉を制御する装置(不図示)に対して出力する。さらに、演算部16は、列車位置判定装置1本体各部の動作を制御する。さらに、列車位置判定装置1は、TOFカメラ2やビデオカメラ3に対して、撮像の開始や、撮像の停止を指示する機能も有している。   Moreover, the calculating part 16 has a function which determines whether the opening / closing of the platform door installed in the station platform is permitted. The output unit 17 outputs an open / close permission signal indicating permission / prohibition of opening / closing of the home door to a device (not shown) that controls opening / closing of the home door. Furthermore, the calculating part 16 controls operation | movement of each part of train position determination apparatus 1 main body. Furthermore, the train position determination apparatus 1 also has a function of instructing the TOF camera 2 and the video camera 3 to start imaging and stop imaging.

以下、この例にかかる列車位置判定装置1の動作について説明する。図5は、列車位置判定装置の動作を示すフローチャートである。   Hereinafter, operation | movement of the train position determination apparatus 1 concerning this example is demonstrated. FIG. 5 is a flowchart showing the operation of the train position determination device.

列車位置判定装置1は、駅ホームへの列車の進入を待つ(s1)。この時点では、列車位置判定装置1は、TOFカメラ2、およびビデオカメラ3に対して撮像の停止を指示している。列車位置判定装置1は、検知信号入力部15に入力されている超音波センサ4の列車検知信号により、駅ホームへの列車の進入を判定する。具体的には、列車位置判定装置1は、検知信号入力部15に入力されている超音波センサ4の列車検知信号が、列車無しを示す信号から、列車有りを示す信号に切り替わると、駅ホームに列車が進入したと判定する。   The train position determination device 1 waits for the train to enter the station platform (s1). At this time, the train position determination device 1 instructs the TOF camera 2 and the video camera 3 to stop imaging. The train position determination device 1 determines the approach of the train to the station platform based on the train detection signal of the ultrasonic sensor 4 input to the detection signal input unit 15. Specifically, when the train detection signal of the ultrasonic sensor 4 input to the detection signal input unit 15 is switched from a signal indicating no train to a signal indicating the presence of a train, the train position determination device 1 It is determined that a train has entered.

列車位置判定装置1は、s1で駅ホームに列車が進入したと判定すると、TOFカメラ2、およびビデオカメラ3に対して撮像の開始を指示する(s2)。これにより、TOFカメラ2は距離画像の撮像を開始するとともに、ビデオカメラ3は可視画像の撮像を開始する。TOFカメラ2は、撮像した距離フレーム画像を順次距離画像入力部11に入力する。また、ビデオカメラ3は、撮像した可視フレーム画像を順次可視画像入力部13に入力する。TOFカメラ2のフレームレートと、ビデオカメラ3のフレームレートとは、同じであってもよいし、異なっていてもよい。   When determining that the train has entered the station platform in s1, the train position determination device 1 instructs the TOF camera 2 and the video camera 3 to start imaging (s2). As a result, the TOF camera 2 starts capturing a distance image, and the video camera 3 starts capturing a visible image. The TOF camera 2 sequentially inputs the captured distance frame images to the distance image input unit 11. In addition, the video camera 3 sequentially inputs the captured visible frame images to the visible image input unit 13. The frame rate of the TOF camera 2 and the frame rate of the video camera 3 may be the same or different.

列車位置判定装置1は、列車の位置が目標停止位置であるかどうかを判定する列車位置判定処理を開始する(s3)。また、列車位置判定装置1は、列車が停止したかどうかを判定する停止判定処理を開始する(s4)。s3で開始する列車位置判定処理、およびs4で開始する停止判定処理の詳細については後述する。s3、およびs4にかかる処理の順番は、逆であってもよい。   The train position determination device 1 starts a train position determination process for determining whether or not the train position is the target stop position (s3). Moreover, the train position determination apparatus 1 starts a stop determination process for determining whether or not the train has stopped (s4). Details of the train position determination process starting at s3 and the stop determination process starting at s4 will be described later. The order of processing relating to s3 and s4 may be reversed.

列車位置判定装置1は、その時点における列車の位置が目標停止位置であり、且つ列車が停止していれば、ホームドアの開閉を許可する開閉許可信号を出力部17から出力する(s5、s6、s7)。一方、列車位置判定装置1は、その時点における列車の位置が目標停止位置でない場合、または、列車が停止していない場合、ホームドアの開閉を禁止する開閉許可信号を出力部17から出力する(s5、s6、s8)。   If the train position at that time is the target stop position and the train is stopped, the train position determination device 1 outputs an opening / closing permission signal for permitting opening / closing of the platform door from the output unit 17 (s5, s6). , S7). On the other hand, when the position of the train at that time is not the target stop position, or when the train is not stopped, the train position determination device 1 outputs an opening / closing permission signal for prohibiting the opening / closing of the home door from the output unit 17 ( s5, s6, s8).

列車位置判定装置1は、駅ホームから列車が発車したと判定するまで(s9)、上述のs5〜s8にかかる処理を繰り返す。列車位置判定装置1は、検知信号入力部15に入力されている超音波センサ4の列車検知信号により、駅ホームからの列車の発車を判定する。具体的には、列車位置判定装置1は、検知信号入力部15に入力されている超音波センサ4の列車検知信号が、列車有りを示す信号から、列車無しを示す信号に切り替わると、駅ホームから列車が発車したと判定する。   The train position determination apparatus 1 repeats the processes related to s5 to s8 described above until it is determined that the train has started from the station platform (s9). The train position determination device 1 determines the departure of the train from the station platform based on the train detection signal of the ultrasonic sensor 4 input to the detection signal input unit 15. Specifically, when the train detection signal of the ultrasonic sensor 4 input to the detection signal input unit 15 is switched from a signal indicating that there is a train to a signal indicating that there is no train, the train position determination device 1 It is determined that the train has started.

列車位置判定装置1は、s9で駅ホームから列車が発車したと判定すると、本システムを初期状態に設定し(s10)、本処理を終了し、s1に戻る。s10では、TOFカメラ2、およびビデオカメラ3に撮像の停止を指示する。また、s3で開始した列車位置判定処理、およびs4で開始した停止判定処理を停止する。   If the train position determination device 1 determines that the train has started from the station platform in s9, the train position determination device 1 sets the system to an initial state (s10), ends the processing, and returns to s1. In s10, the TOF camera 2 and the video camera 3 are instructed to stop imaging. Moreover, the train position determination process started in s3 and the stop determination process started in s4 are stopped.

次に、s3で開始する列車位置判定処理について説明する。図6は、列車位置判定処理を示すフローチャートである。この列車位置判定処理は、距離画像入力部11に入力された距離フレーム画像を用いる処理である。   Next, the train position determination process starting at s3 will be described. FIG. 6 is a flowchart showing the train position determination process. This train position determination process is a process using the distance frame image input to the distance image input unit 11.

距離画像処理部12は、処理対象の距離フレーム画像を取り込む(s21)。距離画像処理部12は、距離画像入力部11に入力された距離フレーム画像の中で、時間的に最新の距離フレーム画像を処理対象の距離フレーム画像として取り込む。   The distance image processing unit 12 takes in a distance frame image to be processed (s21). The distance image processing unit 12 captures the latest distance frame image in the distance frame image input to the distance image input unit 11 as a distance frame image to be processed.

距離画像処理部12は、処理対象の距離フレーム画像を、列車の走行方向に応じて定めた3軸(X軸、Y軸、およびZ軸)の距離フレーム画像に変換する座標変換処理を行う(s22)。   The distance image processing unit 12 performs a coordinate conversion process of converting the distance frame image to be processed into a distance frame image of three axes (X axis, Y axis, and Z axis) determined according to the traveling direction of the train ( s22).

距離画像処理部12は、座標変換処理を行った距離フレーム画像から、図3に示した第1の空間における代表距離Aを検出する(s23)。   The distance image processing unit 12 detects the representative distance A in the first space shown in FIG. 3 from the distance frame image subjected to the coordinate conversion process (s23).

s23では、座標変換処理を行った距離フレーム画像において、第1の空間に位置し、且つ後述する処理でノイズ画素と判断されていない画素の中で、Z軸方向の最少距離を代表距離Aとして仮検出する。距離画像処理部12は、仮検出した代表距離Aの画素の周囲に位置する所定数の画素(例えば、10画素程度)についてZ軸方向の距離の平均値を算出する。この平均値の算出においても、すでにノイズ画素と判断されている画素の距離を用いない。そして、距離画像処理部12は、ここで算出した平均値と、仮検出した代表距離Aと、の差の絶対値が予め定めた範囲内(例えば、10〜20mm程度)でなければ、今回仮検出した代表距離Aにかかる画素をノイズ画素と判断し、再度、上述した代表距離Aの仮検出を行う。一方、距離画像処理部12は、ここで算出した平均値と、仮検出した代表距離Aと、の差の絶対値が予め定めた範囲内であれば、仮検出した代表距離Aを、今回の処理における代表距離Aに確定する。   In s23, the minimum distance in the Z-axis direction is set as the representative distance A among the pixels located in the first space in the distance frame image subjected to the coordinate conversion process and not determined as noise pixels in the process described later. Temporarily detect. The distance image processing unit 12 calculates an average value of distances in the Z-axis direction for a predetermined number of pixels (for example, about 10 pixels) positioned around the temporarily detected representative distance A pixels. Also in the calculation of the average value, the distance of pixels that have already been determined as noise pixels is not used. If the absolute value of the difference between the average value calculated here and the temporarily detected representative distance A is not within a predetermined range (for example, about 10 to 20 mm), the distance image processing unit 12 The pixel corresponding to the detected representative distance A is determined as a noise pixel, and the above-described temporary detection of the representative distance A is performed again. On the other hand, if the absolute value of the difference between the average value calculated here and the temporarily detected representative distance A is within a predetermined range, the distance image processing unit 12 determines the temporarily detected representative distance A as the current value. The representative distance A in the process is fixed.

これにより、空間に飛来している塵、埃や雨滴等で反射された反射光を受光した画素で計測した距離を代表距離Aとして誤って検出するのを防止できる。   Thereby, it is possible to prevent erroneous detection of the distance measured by the pixel receiving the reflected light reflected by dust, dust, raindrops, etc. flying in the space as the representative distance A.

なお、上記の例では、仮検出した代表距離Aにかかる画素の周囲に位置する所定数の画素におけるZ軸方向の距離の平均値を用いて、この仮検出した代表距離Aの画素がノイズ画素であるかどうかを判定するとしたが、仮検出した代表距離Aの画素の周囲に位置する所定数の画素におけるZ軸方向の距離の2乗平均値や中間値等を用いて、この仮検出した代表距離Aの画素がノイズ画素であるかどうかを判定してもよい。   In the above example, using the average value of the distances in the Z-axis direction among a predetermined number of pixels located around the pixels corresponding to the temporarily detected representative distance A, the pixels of the temporarily detected representative distance A are noise pixels. However, this provisional detection was performed using the mean square value, intermediate value, etc. of the distance in the Z-axis direction for a predetermined number of pixels located around the temporarily detected representative distance A pixels. It may be determined whether the pixel at the representative distance A is a noise pixel.

距離画像処理部12は、座標変換処理を行った距離フレーム画像から、図3に示した第2の空間に位置する画素を全て抽出し、代表距離Bを検出する(s24)。   The distance image processing unit 12 extracts all the pixels located in the second space shown in FIG. 3 from the distance frame image subjected to the coordinate conversion process, and detects the representative distance B (s24).

s24にかかる処理は、対象とする空間が第1の空間ではなく、第2の空間である点で異なるだけで、上述のs23と実質的に同じである。   The processing relating to s24 is substantially the same as s23 described above, except that the target space is not the first space but the second space.

なお、列車位置判定装置1に対して、TOFカメラ2で撮像した受光強度画像も入力する構成であれば、上述のs23にかかる処理の前に、受光強度が予め定めた閾値未満である画素をノイズ画素として判定するステップを追加することによって、上述のs23、およびs24にかかる処理負荷を低減できるとともに、処理結果の信頼性の向上が図れる。   In addition, if the light reception intensity image imaged with the TOF camera 2 is also input to the train position determination device 1, pixels whose light reception intensity is less than a predetermined threshold value are processed before the process of s <b> 23 described above. By adding the step of determining as a noise pixel, it is possible to reduce the processing load on the above-described s23 and s24, and to improve the reliability of the processing result.

距離画像処理部12は、s23で検出した代表距離A、およびs24で検出した代表距離Bを演算部16に入力する。   The distance image processing unit 12 inputs the representative distance A detected in s23 and the representative distance B detected in s24 to the calculation unit 16.

演算部16は、距離画像処理部12から入力された代表距離A、および代表距離Bを用いて、列車の種別を判定する列車種別判定処理を行う(s25)。   The calculation unit 16 performs a train type determination process for determining the type of train using the representative distance A and the representative distance B input from the distance image processing unit 12 (s25).

図7は、列車種別判定処理を示すフローチャートである。演算部16は、距離差Cを算出する(s41)。s41で算出する距離差Cは、代表距離Aと、代表距離Bと、の距離差であり、
距離差C=代表距離A−代表距離B
により算出する。
FIG. 7 is a flowchart showing a train type determination process. The computing unit 16 calculates the distance difference C (s41). The distance difference C calculated in s41 is a distance difference between the representative distance A and the representative distance B.
Distance difference C = Representative distance A−Representative distance B
Calculated by

演算部16は、図4に示した列車種別テーブルを参照し、s41で算出した距離差Cに基づき列車種別を判定する(s42)。演算部16は、今回駅ホームに進入した列車の種別を、列車種別テーブルにおいてs41で算出した距離差Cに対応づけられている列車種別であると判定する。また、演算部16は、s41で算出した距離差Cに対応する列車種別が列車種別テーブルに登録されていなければ、s42で列車種別判定不能と判定する。例えば、TOFカメラ2が撮像した距離フレーム画像に列車の背面が撮像されていない場合に、列車種別判定不能となる。   The computing unit 16 refers to the train type table shown in FIG. 4 and determines the train type based on the distance difference C calculated in s41 (s42). The computing unit 16 determines that the type of the train that has entered the station platform this time is the train type associated with the distance difference C calculated in s41 in the train type table. In addition, when the train type corresponding to the distance difference C calculated in s41 is not registered in the train type table, the calculation unit 16 determines that the train type cannot be determined in s42. For example, when the back of the train is not captured in the distance frame image captured by the TOF camera 2, the train type cannot be determined.

図6に戻って、演算部16は、s25で列車種別が判定できると、列車位置を推定する(s26、s27)。演算部16は、s25で列車種別が判定できなければ、s21に戻る。s27では、代表距離Aから、s25で判定した列車種別に対応付けられている補正値を加えた距離(代表距離A+補正値)を、列車位置と推定する。s27で推定する列車位置は、TOFカメラ2の設置位置が基準である。   Returning to FIG. 6, if the train type can be determined in s25, the calculation unit 16 estimates the train position (s26, s27). If the train type cannot be determined in s25, the calculation unit 16 returns to s21. In s27, the distance (representative distance A + correction value) obtained by adding the correction value associated with the train type determined in s25 from the representative distance A is estimated as the train position. The train position estimated in s27 is based on the installation position of the TOF camera 2.

演算部16は、s27で推定した列車位置が、駅ホームに予め規定した目標停止位置であるかどうかを判定する(s28)。演算部16は、TOFカメラ2の設置位置から、目標停止位置までの距離を記憶している。演算部16は、s27で推定した列車位置と、記憶している目標停止位置と、を対比することにより、s28にかかる判定を行う。   The calculating part 16 determines whether the train position estimated by s27 is a target stop position prescribed | regulated previously at the station platform (s28). The calculation unit 16 stores the distance from the installation position of the TOF camera 2 to the target stop position. The calculating part 16 performs the determination concerning s28 by comparing the train position estimated by s27, and the memorize | stored target stop position.

出力部17は、演算部16がs28で判定した判定結果を出力する(s29)。この出力部17から出力された判定結果は、列車の運転士や駅係員等から見えやすい位置に設置した表示灯の点灯制御等に使用される。したがって、列車の運転士や駅係員等は、この表示灯の点灯/消灯を確認することにより、駅ホームにおける列車の位置が目標停止位置であるかどうかの確認が行える。また、上記の説明から明らかなように、列車位置判定装置1が、この図6に示す列車位置判定処理を列車が停止していないときも繰り返し実行しているので、列車を停止させる位置を列車の運転士に認識させることができる。すなわち、列車の運転士に対して、列車を停止させる位置のナビゲーションが行える。   The output unit 17 outputs the determination result determined by the calculation unit 16 in s28 (s29). The determination result output from the output unit 17 is used for lighting control of an indicator lamp installed at a position that can be easily seen by train operators, station staff, and the like. Therefore, a train operator, a station staff, or the like can confirm whether the position of the train on the station platform is the target stop position by confirming whether the indicator lamp is turned on or off. Further, as apparent from the above description, the train position determination device 1 repeatedly executes the train position determination process shown in FIG. 6 even when the train is not stopped. The driver can be recognized. That is, navigation of the position where the train is stopped can be performed for the train operator.

次に、s4で開始する停止判定処理について説明する。図8は、停止判定処理を示すフローチャートである。この停止判定処理は、可視画像入力部13に入力された可視フレーム画像を用いる処理である。   Next, the stop determination process starting at s4 will be described. FIG. 8 is a flowchart showing the stop determination process. This stop determination process is a process using the visible frame image input to the visible image input unit 13.

可視画像処理部14は、可視画像入力部13に入力された時間的に連続する一対の可視フレーム画像の差分画像(所謂、フレーム間差分画像)を生成する(s51)。フレーム間差分画像は、公知のように、一対の可視フレーム画像間の変化をあらわす画像である。   The visible image processing unit 14 generates a difference image (so-called inter-frame difference image) of a pair of visible frame images continuous in time input to the visible image input unit 13 (s51). The inter-frame difference image is an image representing a change between a pair of visible frame images, as is well known.

可視画像処理部14は、変化の度合が予め定めた閾値よりも小さいフレーム間差分画像が所定フレーム数(例えば5フレーム)連続したかどうかを判定する(s52)。可視画像処理部14は、s52で所定フレーム数連続したと判定すると、列車が停止したと判定する(s53)。一方、可視画像処理部14は、s52で所定フレーム数連続していないと判定すると、列車が停止していないと判定する(s54)。   The visible image processing unit 14 determines whether or not the inter-frame difference image whose degree of change is smaller than a predetermined threshold value continues for a predetermined number of frames (for example, 5 frames) (s52). If the visible image processing unit 14 determines that the predetermined number of frames have continued in s52, it determines that the train has stopped (s53). On the other hand, if the visible image processing unit 14 determines that the predetermined number of frames are not continued in s52, it determines that the train is not stopped (s54).

このように、この例にかかる停止位置判定システムは、列車の種別を判定することができる。また、ここで判定した列車の種別に応じて列車の位置を検出するので、列車の位置の検出が精度よく行える。   Thus, the stop position determination system according to this example can determine the type of train. Further, since the position of the train is detected according to the type of train determined here, the position of the train can be detected with high accuracy.

また、上述したように、TOFカメラ2を駅ホームの上方に取り付けるので、TOFカメラ2の撮像レンズに塵や埃等が付着するのを抑えられる。また、列車の運行状況に関係なく、TOFカメラ2の撮像レンズに付着した塵や埃等を拭き取るメンテナンス(清掃作業)が行える。   Further, as described above, since the TOF camera 2 is mounted above the station platform, it is possible to prevent dust and dirt from adhering to the imaging lens of the TOF camera 2. In addition, maintenance (cleaning work) for wiping off dust and dirt adhering to the imaging lens of the TOF camera 2 can be performed regardless of the train operation status.

また、列車が目標停止位置に停止していないときには、ホームドアの開閉を禁止するので、乗降客の安全を一層高めることができる。   In addition, when the train is not stopped at the target stop position, the opening / closing of the platform door is prohibited, so that passenger safety can be further enhanced.

また、上記の例におけるTOFカメラ2は、距離画像が得られる他の機器に置きかえてもよい。例えば、特許文献1のように、レーザ光を走査して、その反射光を検出することにより、レーザ光を走査した領域の距離画像を得る測距センサや、視差を有する2つの撮像部を備えるステレオカメラ等で置き換えてもよい。   In addition, the TOF camera 2 in the above example may be replaced with another device that can obtain a distance image. For example, as disclosed in Patent Literature 1, a laser beam is scanned and a reflected light is detected to obtain a distance image of an area scanned with the laser beam, and two imaging units having parallax are provided. It may be replaced with a stereo camera or the like.

また、駅ホームへの列車の進入判定は、TOFカメラ2が撮像している受光強度画像や、距離画像におけるフレーム間の変化から検出するように構成してもよいし、ビデオカメラ3が撮像している可視光画像におけるフレーム間の変化から検出するように構成してもよい。このようにすれば、超音波センサ4を不要にできる。ただし、この場合には、駅ホームへの列車の進入判定に用いる画像を撮像するTOFカメラ2、またはビデオカメラ3については、撮像を常時行い、撮像した画像を処理する構成にする。   Moreover, the approach determination of the train to the station platform may be configured to be detected from the received light intensity image captured by the TOF camera 2 or the change between frames in the distance image, or may be captured by the video camera 3. The visible light image may be detected from a change between frames. In this way, the ultrasonic sensor 4 can be dispensed with. However, in this case, the TOF camera 2 or the video camera 3 that captures an image used for the determination of the train approach to the station platform is configured to always perform imaging and process the captured image.

また、図8に示した停止判定処理については、TOFカメラ2が撮像した時間的に連続する一対の距離フレーム画像の差分画像(所謂、フレーム間差分画像)を生成し、行うようにしてもよい。この場合には、ビデオカメラ3を不要にできる。   In addition, the stop determination process illustrated in FIG. 8 may be performed by generating a difference image (a so-called inter-frame difference image) of a pair of time-series distance frame images captured by the TOF camera 2. . In this case, the video camera 3 can be dispensed with.

なお、TOFカメラ2は、上述したように、列車の背面ではなく、前面を撮像するアングルで取り付けていてもよい。また、列車種別テーブに登録している補正値は、代表距離Bに対する値であってもよい。   In addition, as described above, the TOF camera 2 may be attached at an angle for imaging the front surface instead of the back surface of the train. Further, the correction value registered in the train type table may be a value for the representative distance B.

1−列車位置判定装置
2−TOFカメラ
3−ビデオカメラ
4−超音波センサ
11−距離画像入力部
12−距離画像処理部
13−可視画像入力部
14−可視画像処理部
15−検知信号入力部
16−演算部
17−出力部
1-train position determination device 2-TOF camera 3-video camera 4-ultrasonic sensor 11-distance image input unit 12-distance image processing unit 13-visible image input unit 14-visible image processing unit 15-detection signal input unit 16 -Calculation unit 17-Output unit

Claims (5)

上方からのアングルで軌道に沿って走行する移動体の背面、または前面を撮像した距離画像を入力する距離画像入力部と、
前記距離画像入力部に入力された距離画像を処理し、前記軌道に沿って走行する移動体の上端部が位置する第1の空間における移動体までの第1の代表距離と、前記第1の空間の下側に位置する第2の空間における移動体までの第2の代表距離と、を検出する距離画像処理部と、
前記距離画像処理部が検出した前記第1の代表距離、および前記第2の代表距離に基づいて、前記距離画像入力部に入力された距離画像に撮像されている移動体の種別を判定する移動体種別判定部と、を備えた移動体管理装置。
A distance image input unit for inputting a distance image obtained by imaging the back surface or the front surface of the moving body traveling along the track at an angle from above;
A distance image input to the distance image input unit is processed, and a first representative distance to the moving body in a first space where an upper end portion of the moving body traveling along the track is located, and the first A distance image processing unit for detecting a second representative distance to the moving body in the second space located below the space;
Movement for determining the type of the moving body imaged in the distance image input to the distance image input unit based on the first representative distance and the second representative distance detected by the distance image processing unit A mobile body management device comprising: a body type determination unit.
前記距離画像処理部が検出した前記第1の代表距離または第2の代表距離の一方と、前記移動体種別判定部が判定した移動体の種別によって、この移動体が予め定めた許容範囲内に位置するかどうかを判定する位置判定部を備えた請求項1に記載の移動体管理装置。   Depending on one of the first representative distance or the second representative distance detected by the distance image processing unit and the type of the moving object determined by the moving object type determining unit, the moving object falls within a predetermined allowable range. The mobile body management apparatus according to claim 1, further comprising a position determination unit that determines whether or not the object is positioned. 前記移動体種別判定部は、前記距離画像処理部が検出した前記第1の代表距離と前記第2の代表距離との距離差に基づき、移動体の種別を判定する、請求項1、または2に記載の移動体管理装置。   The moving body type determination unit determines a type of moving body based on a distance difference between the first representative distance and the second representative distance detected by the distance image processing unit. The moving body management apparatus according to 1. 距離画像入力部に入力された、上方からのアングルで軌道に沿って走行する移動体の背面、または前面を撮像した距離画像を処理し、前記軌道に沿って走行する移動体の上端部が位置する第1の空間における移動体までの第1の代表距離と、前記第1の空間の下側に位置する第2の空間における移動体までの第2の代表距離と、を検出する距離画像処理ステップと、
前記距離画像処理ステップで検出した前記第1の代表距離、および前記第2の代表距離に基づいて、前記距離画像入力部に入力された距離画像に撮像されている移動体の種別を判定する移動体種別判定ステップと、を備えた移動体管理方法。
The distance image that is input to the distance image input unit and picks up the back image or the front image of the moving object that travels along the track at an angle from above, and the upper end of the moving object that travels along the track is positioned Distance image processing for detecting a first representative distance to the moving body in the first space and a second representative distance to the moving body in the second space located below the first space Steps,
Movement for determining the type of the moving body imaged in the distance image input to the distance image input unit based on the first representative distance and the second representative distance detected in the distance image processing step And a body type determination step.
距離画像入力部に入力された、上方からのアングルで軌道に沿って走行する移動体の背面、または前面を撮像した距離画像を処理し、前記軌道に沿って走行する移動体の上端部が位置する第1の空間における移動体までの第1の代表距離と、前記第1の空間の下側に位置する第2の空間における移動体までの第2の代表距離と、を検出する距離画像処理ステップと、
前記距離画像処理ステップで検出した前記第1の代表距離、および前記第2の代表距離に基づいて、前記距離画像入力部に入力された距離画像に撮像されている移動体の種別を判定する移動体種別判定ステップと、をコンピュータに実行させる移動体管理プログラム。
The distance image that is input to the distance image input unit and picks up the back image or the front image of the moving object that travels along the track at an angle from above, and the upper end of the moving object that travels along the track is positioned Distance image processing for detecting a first representative distance to the moving body in the first space and a second representative distance to the moving body in the second space located below the first space Steps,
Movement for determining the type of the moving body imaged in the distance image input to the distance image input unit based on the first representative distance and the second representative distance detected in the distance image processing step A body management program for causing a computer to execute a body type determination step.
JP2014019158A 2014-02-04 2014-02-04 Mobile management device Expired - Fee Related JP6052194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014019158A JP6052194B2 (en) 2014-02-04 2014-02-04 Mobile management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014019158A JP6052194B2 (en) 2014-02-04 2014-02-04 Mobile management device

Publications (2)

Publication Number Publication Date
JP2015145186A JP2015145186A (en) 2015-08-13
JP6052194B2 true JP6052194B2 (en) 2016-12-27

Family

ID=53889713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014019158A Expired - Fee Related JP6052194B2 (en) 2014-02-04 2014-02-04 Mobile management device

Country Status (1)

Country Link
JP (1) JP6052194B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6090190B2 (en) * 2014-02-06 2017-03-08 オムロン株式会社 Mobile management device
CN105426922B (en) 2015-12-08 2019-02-12 同方威视技术股份有限公司 Rain model recognition methods and system and safety detection method and system
DE102016107194A1 (en) * 2016-04-19 2017-10-19 OET GmbH Separator device for separating a fluid, in particular a lubricant from a coolant fluid
JP7097321B2 (en) * 2018-03-16 2022-07-07 株式会社デンソーウェーブ Railroad vehicle position detector

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2475895A (en) * 1995-04-28 1996-11-18 Schwartz Electro-Optics, Inc. Intelligent vehicle highway system sensor and method
JPH11191196A (en) * 1997-10-20 1999-07-13 Omron Corp Vehicle measuring instrument and car type discriminating device
JP4887537B2 (en) * 2007-08-02 2012-02-29 本田技研工業株式会社 Vehicle periphery monitoring device
JP5484280B2 (en) * 2010-09-21 2014-05-07 株式会社神戸製鋼所 Train stop position detection method and train stop position detection apparatus
JP2013203118A (en) * 2012-03-27 2013-10-07 Japan Transport Engineering Co Movable platform gate apparatus and controlling method of the same

Also Published As

Publication number Publication date
JP2015145186A (en) 2015-08-13

Similar Documents

Publication Publication Date Title
JP6090190B2 (en) Mobile management device
CN106192634B (en) A kind of railroad track elastic bar fastener condition automatic detection device and method
US10501059B2 (en) Stereo camera device
JP6464673B2 (en) Obstacle detection system and railway vehicle
CN105128836B (en) Autonomous emergency braking system and the wherein method of identifying rows people
JP4899424B2 (en) Object detection device
KR101030229B1 (en) Bridge inspecting system using inspection moving car
JP7247206B2 (en) Methods for inspecting railway vehicles and track sections
JP6052194B2 (en) Mobile management device
CN206034212U (en) Railway rails elastic tensioning clamp state automatic checkout device
JP5963400B2 (en) Method and apparatus for detecting train stop position
US11335036B2 (en) Image synthesizing system and image synthesizing method
WO2019244425A1 (en) Obstacle detection system and obstacle detection method
JP6277468B2 (en) Vehicle power pole position inspection device
US11270130B2 (en) Route inspection system
JP6031908B2 (en) Image processing apparatus, object detection method, and object detection program
JP3888055B2 (en) Train forward anomaly detection device using optical flow
US20190139177A1 (en) Device for detecting road surface state
JP2017218151A (en) Platform door control device and platform door control method
JP6521504B2 (en) Special signal light emitting machine inspection apparatus and track and land vehicle having the special signal light emitting machine inspection apparatus
JP4440809B2 (en) Obstacle detection device around pantograph
JP2016141213A (en) Platform door control device and platform door control method
JP6308681B2 (en) Crossover equipment monitoring device and method
AU2021371394B2 (en) Rail transportation system, method for controlling rail transportation system, and trackside facility shape measurement system
JP4106163B2 (en) Obstacle detection apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6052194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees