JP2015014514A - 識別装置 - Google Patents
識別装置 Download PDFInfo
- Publication number
- JP2015014514A JP2015014514A JP2013141104A JP2013141104A JP2015014514A JP 2015014514 A JP2015014514 A JP 2015014514A JP 2013141104 A JP2013141104 A JP 2013141104A JP 2013141104 A JP2013141104 A JP 2013141104A JP 2015014514 A JP2015014514 A JP 2015014514A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional data
- identification
- bed
- distance image
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
【課題】可搬性や汎用性に優れた識別装置を提供する。【解決手段】対象物及び該対象物との位置関係が既知である基準設置物を含む空間において前記対象物を識別する識別装置10は、前記空間に設置され、前記空間に存在する物体との距離に応じた距離画像を生成する距離画像センサ200と、前記生成された距離画像を三次元データに変換する変換手段110、130と、前記三次元データから前記基準設置物に関する三次元データを抽出する抽出手段110、130と、前記抽出された三次元データと、前記抽出された三次元データを除く三次元データとに基づいて前記対象物を識別する識別手段110、120とを備える。【選択図】図2
Description
本発明は、例えば対象物を識別可能な識別装置の技術分野に関する。
この種の装置が特許文献1に開示されている。特許文献1に開示された画像処理装置によれば、画像処理対象のエリアに配置された識別用のマーカに基づいて、画像処理対象のエリアの位置が識別される。
このため、自動的に識別対象となるエリアを認識でき、そのため当該エリアに変更があれば自動再設定をすることが可能となり、画像処理対象となるエリアの再設定を手動で行う手間がなくなり、且つ、記録されているエリア情報と、画像上の画像処理対象のエリアの位置との不一致による検知ミス等のない画像処理装置を実現することが可能になるとされている。
また、特許文献2には、監視対象の人の動作を正確かつ再現性よく検出することを可能にしたとされる監視装置が開示されている。
この監視装置は、視野領域として監視対象であるベッドの全体を含む距離画像センサを備えており、ベッド認識部が、この距離画像センサから得られる距離画像を用いてベッドの位置を抽出する構成となっている。また、人認識部が、距離画像センサが出力した距離画像のうちベッド認識部により認識されたベッドの範囲内と範囲外とにおいて人が占有する領域を検出する構成となっている。更に、動作判定部が、ベッド認識部により検出されたベッドと人認識部により検出された人の領域との組み合わせによりベッドに対する人の動作を判別する構成となっている。
特許文献1に開示された装置では、IRカメラが使用されており、赤外線を反射するマーカを使用することによって、ベッドの四隅を検出する構成となっている。このような構成では、当然ながらマーカが隠蔽或いは遮蔽されてはならないし、マーカの設置位置も限定される。更には、マーカを撮像するための照明装置やIRカメラの設置位置も限定され、且つその移動は容易ではない。即ち、特許文献1に開示された装置は、装置の設置位置や設置条件に大きな制限があるため、装置を柔軟に運用することが出来ない。
特許文献2に開示された装置では、距離画像センサの設置条件(例えば、地面とカメラがなす角度)が既知であることや、カメラがベッドの長辺方向を向いていること等を前提として、距離画像における全ピクセルを地面からの高さに変換することを可能とし、またベッドの領域の推定を可能としている。従って、特許文献1と同様に装置の設置位置や設置条件に制限があり、装置を柔軟に運用することが出来ない。
即ち、上記特許文献に開示された装置を含む従来の装置には、対象物を識別するにあたって装置の設置位置や設置条件の制約が大きく、可搬性も汎用性も低いという技術的問題点がある。
本発明は、例えばこのような技術的問題点に鑑みてなされたものであり、可搬性や汎用性に優れた識別装置を提供することを、少なくとも一つの課題とする。
上述した課題を解決するため、請求項1に記載の認識装置は、対象物及び該対象物との位置関係が既知である基準設置物を含む空間において前記対象物を識別する識別装置であって、前記空間に設置され、前記空間に存在する物体との距離に応じた距離画像を生成する距離画像センサと、前記生成された距離画像を三次元データに変換する変換手段と、前記三次元データから前記基準設置物に関する三次元データを抽出する抽出手段と、前記抽出された三次元データと、前記抽出された三次元データを除く三次元データとに基づいて前記対象物を識別する識別手段とを備える。
上述した課題を解決するため、請求項8に記載の識別方法は、対象物及び該対象物との位置関係が既知である基準設置物を含む空間において前記対象物を識別する識別方法であって、前記空間に存在する物体との距離に応じた距離画像を生成する距離画像生成工程と、前記生成された距離画像を三次元データに変換する変換工程と、前記三次元データから前記基準設置物に関する三次元データを抽出する抽出工程と、前記抽出された三次元データと、前記抽出された三次元データを除く三次元データとに基づいて前記対象物を識別する識別工程とを備える。
上述した課題を解決するため、請求項9に記載のコンピュータプログラムは、コンピュータシステムを請求項1から7のいずれか一項に記載の認識装置として機能させることを特徴とする。
上述した課題を解決するため、請求項10の記録媒体は、請求項9に記載のコンピュータプログラムが記録されることを特徴とする。
<識別装置の実施形態>
本発明の識別装置に係る実施形態は、対象物及び該対象物との位置関係が既知である基準設置物を含む空間において前記対象物を識別する識別装置であって、前記空間に設置され、前記空間に存在する物体との距離に応じた距離画像を生成する距離画像センサと、前記生成された距離画像を三次元データに変換する変換手段と、前記三次元データから前記基準設置物に関する三次元データを抽出する抽出手段と、前記抽出された三次元データと、前記抽出された三次元データを除く三次元データとに基づいて前記対象物を識別する識別手段とを備える(請求項1)。
識別装置に係る実施形態において、距離画像センサのセンシング空間には、少なくとも対象物と基準設置物とが含まれる。即ち、変換手段により得られる、距離画像を構成する各サンプル点の三次元位置を規定する三次元データ(例えば、x軸、y軸及びz軸からなる仮想的な三次元座標空間における各軸の座標値)には、対象物に関する三次元データと、基準設置物に関する三次元データとが含まれる。
一方、基準設置物と対象物との位置関係は既知であるから、識別手段は、抽出手段により抽出された、基準設置物に関する三次元データを一種の手掛かりとして、残余の三次元データに基づいて対象物を識別(或いは、認識又は検出)することができる。
この際、対象物と基準設置物との位置関係は、予め識別装置が参照情報として保持していてもよいし、その都度然るべき入力手段を介した入力操作によって与えられるものであってもよい。また、位置関係とは、三次元データにより規定される厳密な位置関係であっても、基準設置物が対象物の前後左右いずれに位置しているかといった、大まかな位置関係であってもよい。また、これら構造物と対象物との位置関係を定義することは実践的にみて困難ではなく、特に位置関係が事前に定まり得る場合には、位置関係を初期データとして与えることもできる。例えば、病室への適用を考えた場合、患者用のベッドは壁面に沿って配置されることが多く、また室内に余分な物体が設置されることは少ないから、位置関係は事前に特定され得る。
ところで、このような識別装置の実施形態に係る対象物の識別原理は、基準設置物に関する三次元データの抽出が、対象物に関する三次元データの抽出と較べて容易であることを前提としている。即ち、前者が後者と較べて容易であるので、前者と既知の位置関係とを利用して後者に辿り着くプロセスに技術的意義が生じる。逆に言えば、前者が後者と較べて容易である限りにおいて、基準設置物に関する三次元データを手掛かりとした対象物の識別の有効性が失われることはない。
ここで、対象物が、識別装置に係る実施形態の用途毎に定まる性質のものであるのに対して、基準設置物には選択の自由度がある。従って、基準設置物を、上記有効性が確保されるように選択することは困難ではない。例えば、識別装置に係る実施形態が室内空間で使用される場合、室内空間には殆どの場合、壁や柱等の構造物が存在する。対象物の形状に制限が無いのと比較して、これら構造物の表面は、多くの場合、一様又は一様とみなし得る程度に平滑或いは扁平である。この一様性は、距離画像センサにより得られる距離画像にも反映されるため、必然的にこれら構造物の抽出は相対的に容易であると言える。とりわけ壁面は、多くの場合、空間の最後方(距離画像センサからみて最も遠方)に位置するから、物体との距離に応じた距離画像における基準設置物の抽出は、比較的容易であることが多い。
従って、識別装置に係る実施形態において、距離画像センサが空間の何処に設置されているかは、対象物の識別精度に大きく影響することがない。即ち、識別装置に係る実施形態は、設置条件や設置環境に対する依存度が低く、高い可搬性と汎用性とを有する。
識別装置に係る実施形態の一の態様では、前記空間は室内空間であり、前記基準設置物は前記室内空間を区画する構造物である(請求項2)。
この態様によれば、室内空間を区画する構造物、例えば、壁、パーティション或いはカーテン等を基準設置物として、対象物を高精度に識別することができる。とりわけ、病室等、医療関係施設の室内空間には、利用者用のベッドの他、最小限の設置物しか存在しないことが多い。このような限定された環境においては特に、構造物を利用した対象物の識別が有効である。尚、病室への適用を考えた場合、患者用ベッドが対象物の好適な一形態となり得る。
また、室内空間においては、必ずこの種の構造物があるといってよい。特に、壁は、距離画像において最も遠方の点群を形成する。従って、基準設置物の抽出が比較的容易であり、もって対象物の識別も容易である。また、このような効果は、距離画像センサを室内空間の何処に設置していようと関係がない。従って、この態様によれば、距離画像センサの設置条件や設置環境に殆ど制約はなくなり、識別装置に可搬性を付与することもまた容易である。
識別装置に係る実施形態の他の態様では、前記識別手段は、前記対象物の方向及び位置を推定することにより前記対象物を識別する(請求項3)。
この態様によれば、対象物を正確に識別することができる。
尚、この態様では、前記識別手段は、前記抽出された三次元データに基づいて前記対象物の方向を推定し、前記抽出された三次元データを除く三次元データに基づいて前記対象物の位置を推定してもよい(請求項3)。
基準設置物に関する三次元データは、対象物と基準設置物との位置関係が既知であることから、対象物の方向の推定に有効に利用され得る。また、この基準設置物に関する三次元データを除く三次元データは、対象物の三次元データを含むことから、対象物の正確な位置の推定に有効に利用され得る。
識別装置に係る実施形態の他の態様では、前記基準設置物はマーカである(請求項5)。
例えば、基準設置物として、上述した構造物等が利用できない状況においては、マーカ(指標物)を利用することができる。マーカを物体の識別に利用する技術思想は上記先行技術文献にも開示されるが、この態様では、マーカそれ自体は対象物の位置そのものを規定しない。即ち、対象物との位置関係を既知とし得る限りにおいて、本態様に係るマーカの形状や設置位置に制限はない。従って、高い汎用性及び可搬性が担保される。
識別装置に係る実施形態の他の態様では、前記識別された対象物に関する前記三次元データに基づいて、前記対象物を利用する利用者の動作を推定する推定手段を備える(請求項6)。
対象物を識別することができれば、対象物を利用する利用者が居る場合において、その利用者の動作を推定することができる。特に、室内空間で対象物が固定物(例えば、ベッド)である場合等においては、例えば、距離画像センサにより生成される距離画像における、対象物周辺の空間に該当する点群に関する三次元データの時間推移等に基づいて、利用者の動作を正確に推定することができる。
識別装置に係る実施形態の他の態様では、前記取得された距離画像及び前記三次元データを表示する表示手段を備える(請求項7)。
この態様によれば、識別装置が表示手段を備えるため、本発明の識別装置に係る実施形態の操作性を向上させることができ、識別装置に係る実施形態を、より柔軟に運用することができる。尚、「表示手段を備える」とは、例えば、識別装置に係る実施形態と表示手段とがハードウェア的に一体に構成されることのみに限定されず、識別装置に係る実施形態と表示手段とが、例えば、電気配線や無線通信等を通じて電気的に接続され、一個のシステムをなすこと等を含む趣旨である。
<識別方法の実施形態>
本発明の識別方法に係る実施形態は、対象物及び該対象物との位置関係が既知である基準設置物を含む空間において前記対象物を識別する識別方法であって、前記空間に存在する物体との距離に応じた距離画像を生成する距離画像生成工程と、前記生成された距離画像を三次元データに変換する変換工程と、前記三次元データから前記基準設置物に関する三次元データを抽出する抽出工程と、前記抽出された三次元データと、前記抽出された三次元データを除く三次元データとに基づいて前記対象物を識別する識別工程とを備える(請求項8)。
識別方法に係る実施形態によれば、上記識別装置に係る実施形態の各手段と同等の作用を実現する各工程により、上記識別装置に係る実施形態と同様に、汎用性の高い対象物の識別が可能となる。
<コンピュータプログラムの実施形態>
本発明のコンピュータプログラムに係る実施形態は、コンピュータシステムを上記いずれかの識別装置として機能させる(請求項9)。
本発明のコンピュータプログラムに係る実施形態によれば、当該コンピュータプログラムを格納するROM、CD−ROM、DVD−ROM、ハードディスク等の記録媒体或いはUSB(Universal Serial Bus)メモリ等コンピュータシステムに着脱可能な固体型記憶装置から、当該コンピュータプログラムをコンピュータシステムに読み込んで実行させれば、或いは、当該コンピュータプログラムを、例えば、通信手段等を介してコンピュータシステムにダウンロードさせた後に実行させれば、上述した本発明の識別装置に係る実施形態を比較的簡単に実現できる。
<記録媒体の実施形態>
本発明の記録媒体に係る実施形態は、コンピュータプログラムに係る実施形態が記録される(請求項10)。
本発明の記録媒体に係る実施形態によれば、コンピュータシステムに装着又は接続することによって、或いはコンピュータシステムに備わる又は接続された然るべき読取装置に挿入することによって、記録している本発明のコンピュータプログラムに係る実施形態を、コンピュータシステムに読み込ませて実行させることができ、上述した本発明の識別装置に係る実施形態を比較的簡単に実現できる。
本発明のこのような作用及び他の利得は、これ以降に説明する実施例により明らかにされる。
以下、適宜図面を参照し、本発明を実現するにあたって好適な各種の実施例について説明する。
<第1実施例>
本発明の識別装置に係る第1実施例として、識別システム10について説明する。
本発明の識別装置に係る第1実施例として、識別システム10について説明する。
<実施例の構成>
<識別システム10の構成>
始めに、図1を参照し、識別システム10の概略について説明する。ここに、図1は、識別システム10の概念図である。
<識別システム10の構成>
始めに、図1を参照し、識別システム10の概略について説明する。ここに、図1は、識別システム10の概念図である。
図1において、識別システム10は、病院、医院若しくは診療所又はその他医療関連施設に設置され、壁Wによって区画される病室Rに設置されたベッドBを識別し、更にベッドBを利用する利用者の動作を遠隔地で自動監視するためのシステムであり、本発明に係る「識別装置」の一例である。
尚、利用者とは、例えば患者であり、利用者の動作とは、例えば臥床、起床、着床及び離床の各動作等を意味する。尚、図1では、後述するベッド方向推定処理及びベッド位置推定処理の説明を容易にするため、利用者は図示されていない。
尚、識別システム10の構成、設置条件、設置状況及び用途は、本発明に係る識別装置が採り得る構成及びその用途の一例に過ぎず、本発明に係る識別装置の概念に如何なる限定も与えるものでない。
図1において、識別システム10は、病室Rにおいて、例えば机、キャビネット或いはサイドボード等に設置される距離画像センサ200と、病室Rの外界(例えば、監視室やナースセンタ等)に設置された制御装置100とを含んで構成される。
制御装置100は、持ち運び可能な端末装置であり、情報を表示可能な表示部100aと情報を入力可能な入力部100bとを備える。表示部100aは、表示画面を備えた、本発明に係る「表示手段」の一例たるディスプレイ装置である。入力部100bは、識別システム10を利用する監視者によって適宜操作可能に構成されたキーボードである。尚、入力部100bは、例えば、マウス等のポインティングデバイスやタッチパネル装置等であってもよい。
尚、これ以降の説明においては、この病室Rを適宜、相互に直交するx軸(ベッドBの長手方向)、y軸(鉛直方向)及びz軸(奥行方向)により規定される三次元直交座標空間として扱うこととする。
次に、図2を参照し、識別システム10の構成について説明する。ここに、図2は、識別システム10のブロック図である。尚、同図において、図1と重複する箇所には同一の符号を付してその説明を適宜省略することとする。
図2において、制御装置100は、制御部110、ベッド位置推定部120、ベッド方向推定部130、人物動作推定部140、出力部150、表示制御部160及び記憶部170を備える。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等を備えたコンピュータ装置であり、制御装置100の他の各部の動作を統括的に制御可能に構成されている。
制御部110のROMには、制御部110により実行される各種の制御に関する制御プログラムが格納されている。この制御プログラムの中には、後述する識別制御処理に関する制御プログラムも含まれる。この識別制御処理に関する制御プログラムは、本発明に係る「コンピュータプログラム」の一例である。また、このROMは、本発明に係る「記録媒体」の一例である。尚、ROMは不揮発性記憶装置であるから、本実施例において、識別制御処理に関する制御プログラムは予め制御部110に備わることになるが、この制御プログラムは、RAM若しくはハードディスク或いは制御装置100に備わり得る他の揮発性記憶装置に書き込まれていてもよい。この場合、識別制御処理の制御プログラムのアップデート及びメンテナンス等が比較的簡便になされ得る。また、この識別制御処理の制御プログラムをネットワークで配信する、或いは識別制御処理の制御プログラムが記録された記録媒体を配布する等の措置を講じることも可能となる。
ベッド位置推定部120は、識別制御処理においてベッドBの位置を推定可能に構成された情報処理ユニットである。
ベッド方向推定部130は、識別制御処理においてベッドBの方向を推定可能に構成された情報処理ユニットである。
人物動作推定部140は、識別制御処理において利用者の動作を推定可能に構成された情報処理ユニットである。
出力部150は、識別制御処理において推定されたベッドBの方向及び位置に関する情報を、病室Rにおける識別結果情報として出力可能に構成された情報処理ユニットである。
表示制御部160は、表示部100aの表示内容を制御可能に構成された制御ユニットである。
記憶部170は、例えばハードディスク装置等の不揮発性記録媒体を有する記憶装置である。記憶部170には、後述するベッドBの基本情報が格納されている。
距離画像センサ200は、病室Rの室内空間に関する距離画像を生成可能に構成されたセンサである。距離画像センサ200は、制御装置100と電気的に接続されており、生成された距離画像及び距離画像に関する距離画像データは、制御装置100により適宜参照される構成となっている。尚、上述した三次元空間における、距離画像センサ200の設置位置に関する情報は、予め初期設定情報として与えられ、制御部110のRAMに格納されている。
<実施例の動作>
<識別制御処理の詳細>
次に、実施例の動作について説明する。
<識別制御処理の詳細>
次に、実施例の動作について説明する。
始めに、図3を参照して、制御装置100の制御部110により実行される識別制御処理の詳細について説明する。ここに、図3は識別制御処理のフローチャートである。
図3において、制御部110は、ベッド方向推定部130を制御し、ベッド方向推定処理を実行する(ステップS100)。ベッド方向推定処理については後述する。
ベッド方向推定処理が終了すると、制御部110は、ベッド位置推定部120を制御し、ベッド位置推定処理を実行する(ステップS200)。ベッド位置推定処理については後述する。
尚、ベッド方向及びベッド位置の推定が終了すると、制御部110は、出力部150を制御して識別結果情報を生成し、表示制御部160を制御して識別結果情報を表示部100aに表示させる。
識別結果情報が表示されると、制御部110は、人物動作推定部140を制御し、ベッドBの利用者の動作を推定する(ステップS300)。尚、利用者の動作の推定に関しては後述する。
利用者の動作が推定されると、制御部110は、利用者の動作の推定結果に応じた措置を行う。尚、係る措置については後述する。
<ベッド方向推定処理の詳細>
次に、図4を参照し、ベッド方向推定処理の詳細について説明する。ここに、図4は、ベッド方向推定処理のフローチャートである。尚、ベッド方向推定処理は、主として、制御部110の制御を受けたベッド方向推定部130により実行される。
次に、図4を参照し、ベッド方向推定処理の詳細について説明する。ここに、図4は、ベッド方向推定処理のフローチャートである。尚、ベッド方向推定処理は、主として、制御部110の制御を受けたベッド方向推定部130により実行される。
図4において、ベッド方向推定処理が開始されると、距離画像センサ200から距離画像が取得される(ステップS110)。
ここで、図5を参照し、距離画像について説明する。ここに、図5は、距離画像の一例を示す図である。
図5において、距離画像は、距離画像センサ200からセンサ検出範囲内に存在する物体までの距離を表す画像である。尚、図5では、分かり易いように、距離が濃淡で表されている。
図4に戻り、距離画像が取得されると、この取得された距離画像が、各々が三次元空間内の位置座標に対応付けられた、距離画像を構成する複数の三次元点群のデータ(三次元点群データ)に変換される(ステップS120)。尚、距離画像から三次元点群データを得るためのデータ変換手法は公知であるため、ここではその説明を省略することとする。
ここで、図6を参照し、距離画像から変換された点群について説明する。ここに、図6は、三次元点群の一例を示す図である。
図6において、(a)は三次元点群を上述したz軸方向に(即ち、手前から)見た図であり、(b)は三次元点群を上述したy軸方向に(即ち、上から)見た図であり、(c)は三次元点群を上述したx軸方向に(即ち、横から)見た図である。このように、三次元点群は、三次元座標空間の位置座標に対応付けられているため、三次元点群を構成する各サンプル点相互間の位置関係を保持したまま自由に回転させることができる。
図4に戻り、距離画像が三次元点群データに変換されると、この三次元点群から壁Wが抽出される(ステップS130)。尚、壁Wは、本発明に係る「基準設置物」及び「構造物」の一例である。例えば、病室Rにカーテンやパーティション等が設置されている場合、これらを本発明に係る「基準設置物」として用いることもできる。
ベッド方向推定部130は、三次元点群のうち、距離画像センサ200から遠方にある点群を壁Wとして抽出する。この際、遠方に該当するか否かの判断基準としては、例えば下記(1)乃至(3)の基準を適用することができる。
(1)距離画像センサ200からの距離が設定された閾値よりも長い点群
(2)三次元点群全体のうち、相対的に遠方に位置する所定割合の点群
(3)クラスタリング手法を用いた場合に遠方のクラスに属する点群
ベッド方向推定部130は、例えばこれらの判断基準のうち状況に適した一の判断基準を使用する。或いは、入力部100bを介して指定された一の判断基準を使用する。尚、上記(3)のクラスタリング手法としては、公知のk平均法(k-means)やガウス混合分布(GMM(Gaussian Mix-ture Model))等を使用することができる。
(2)三次元点群全体のうち、相対的に遠方に位置する所定割合の点群
(3)クラスタリング手法を用いた場合に遠方のクラスに属する点群
ベッド方向推定部130は、例えばこれらの判断基準のうち状況に適した一の判断基準を使用する。或いは、入力部100bを介して指定された一の判断基準を使用する。尚、上記(3)のクラスタリング手法としては、公知のk平均法(k-means)やガウス混合分布(GMM(Gaussian Mix-ture Model))等を使用することができる。
図4に戻り、壁Wが抽出されると、壁Wとして抽出された点群と、仮想平面とのマッチングが行われる(ステップS140)。尚、本実施例における仮想平面とのマッチングとは、壁Wとして抽出された点群を、仮想平面に沿った(理想的には、平行な)点群として垂直化することを意味する。仮想平面の設定は自由であるが、ここでは、z軸に垂直な平面が使用された場合について説明する。
仮想平面とのマッチングには、一般的なICP(Iterative Closest Point)アルゴリズムにより得られる回転行列及び並進行列が用いられる。即ち、これら回転行列及び並進行列を用いて、壁Wとして抽出された点群が仮想平面と垂直になるように三次元点群全体が回転又は移動される。
仮想平面とのマッチングが行われると、マッチングが収束したか否かが判定される(ステップS150)。具体的には、下記(1)又は(2)の判定基準が満たされた場合に、マッチングが収束した旨の判定が下される。
(1)三次元点群の回転及び移動が発生しない
(2)壁Wの抽出から三次元点群の回転及び移動までのプロセスが所定回数以上繰り返される
マッチングが収束していない場合(ステップS150:NO)、処理はステップS130に戻される。マッチングが収束した場合(ステップS150:YES)、ベッド方向推定処理は終了する。
(2)壁Wの抽出から三次元点群の回転及び移動までのプロセスが所定回数以上繰り返される
マッチングが収束していない場合(ステップS150:NO)、処理はステップS130に戻される。マッチングが収束した場合(ステップS150:YES)、ベッド方向推定処理は終了する。
ここで、ベッドBの方向の推定には、病室Rにおいて、壁WとベッドBとの関係が既知であることが利用される。即ち、ベッドBは、壁Wと平行或いは垂直に設置されるのが一般的である。とりわけ病室のような特定用途の室内空間では、その可能性は更に高くなる。ベッドBと壁Wとの位置関係に関する情報(この場合は、壁Wに沿ってベッドBが配置されること)は、予めベッドBの基本情報の一部として記憶部170に記憶されている。壁Wと仮想平面とのマッチングが完了すると、必然的にベッドBの方向が特定される。
尚、基準設置物(ここでは壁W)と対象物(ここではベッドB)との位置関係は、より具体的に、方向と三次元位置とを含む形で与えられていてもよい。
尚、本実施例において、距離画像センサ200は、病室Rを区画する壁(例えば、矩形状の部屋なら通常4個の壁がある)のうち特定の壁を識別できる訳ではない。従って、実践的には、ある壁Wに沿ってベッドBが配置されることは明確であっても、厳密にはベッドBの方向は確定しない。そこで、距離画像センサ200は、好適には、ベッドBと位置関係において相関がある壁Wがセンシング空間に含まれるように(或いは、距離画像の最遠方に所望の壁Wが現れるように)設置される。この程度の制約は、厳密な位置や角度を規定するものではないので、実践的には殆ど無いに等しい制約である。
図7は、マッチングの結果垂直化された点群を例示する図である。図7において、上方向がz軸方向である。壁Wとして抽出された点群Pw(破線枠参照)は、z軸に対して垂直化されている。
尚、本実施例では、壁WとベッドBとの関係がベッドBの基本情報として予め記憶部170に記憶されるものとしたが、壁W或いは他の基準設置物とベッドB或いは他の対象物との位置関係は、入力部100bを介した入力操作等によりその都度適宜に与えられてもよい。
<ベッド位置推定処理の詳細>
次に、図8を参照し、ベッド位置推定処理の詳細について説明する。ここに、図8は、ベッド位置推定処理のフローチャートである。尚、ベッド位置推定処理は、主として、制御部110の制御を受けたベッド位置推定部120により実行される。
次に、図8を参照し、ベッド位置推定処理の詳細について説明する。ここに、図8は、ベッド位置推定処理のフローチャートである。尚、ベッド位置推定処理は、主として、制御部110の制御を受けたベッド位置推定部120により実行される。
図8において、ベッド位置推定部120は、ベッド方向推定処理におけるステップS120で得られた全ての三次元点群のうち、壁Wに該当する三次元点群を除外する(ステップS210)。
次に、ベッド位置推定部120は、記憶部170から、ベッドBの基本情報を取得する(ステップS220)。ベッドBの基本情報には、上述した位置関係に関する情報の他に、ベッドBの大きさ(外形寸法)に関する情報が含まれる。尚、病室Rのように特定用途の室内においては、上述した位置関係も、ベッドBの大きさも決まっていることが多い。従って、医療関連施設における患者の監視用途においては、ベッドBの基本情報に相当する情報が、予め制御プログラムに固定値として記述されていてもよい。
続いて、ベッド位置推定部120は、壁Wに該当する三次元点群を除く残余の三次元点群が存在する空間(この空間内にベッドBが存在する)をボクセル化し、適当な大きさの単位空間に分割する(ステップS230)。このボクセル化に係る単位空間の大きさは任意であるが、例えば、4m四方程度の室内空間の場合、概ね5cm四方程度の単位空間としてもよい。
ボクセル化が終了すると、このボクセル化された単位空間の各々について、三次元点群の有無(点群が存在すると判断するサンプル点の数は任意)に関するバイナリ化が行われる(ステップS240)。単位空間の各々を三次元点群の有無についてバイナリ化したデータは、一時的にRAMに格納される。このバイナリ化は、距離画像センサ200の感度特性を補償するために行われる。即ち、距離画像センサ200により生成される距離画像においては、センサに近い物体程、三次元点群が密になる。三次元点群の密度はベッドBの位置推定に影響を与えるため、予めバイナリ化によりその影響が排除されるのである。
ベッド位置推定部120は、このバイナリ化されたデータに基づいてベッドBの位置を推定する(ステップS250)。
具体的には、ベッドBの基本情報からベッドBの大きさに該当する仮想的な直方体が作成され、この仮想的な直方体において、先のバイナリ化において三次元点群が存在するとされた単位空間が所定数以上連続して存在する箇所が、ベッドBであると判定される。
ベッド方向推定処理及びベッド位置推定処理により識別されたベッドBの情報(ベッドBに該当する三次元点群の三次元座標位置や三次元点群の画像)は、識別結果情報として出力される(ステップS260)。識別結果情報が出力されると、ベッド位置推定処理は終了する。
図9には、このようなベッド位置推定処理により推定されたベッド位置に基づいた、ベッドBの識別結果情報の一例が示される。
図9において、(a)は識別結果を上述したz軸方向に(即ち、手前から)見た図であり、(b)は識別結果を上述したy軸方向に(即ち、上から)見た図であり、(c)は識別結果を上述したx軸方向に(即ち、横から)見た図である。各図において、ベッドBは破線枠で表示されている。
このように、本実施例に係るベッド方向推定処理及びベッド位置推定処理によれば、距離画像において、病室Rに設置されたベッドBを正確に識別することができる。
ここで特に、ベッド方向推定処理におけるベッド方向の推定精度及びベッド位置推定処理におけるベッド位置の推定精度は、病室Rにおける距離画像センサ200の設置状態や設置環境に依存しない。従って、識別システム10は可搬性があり、また高い汎用性を有している。
また、識別制御処理が一定周期で繰り返し実行され、ベッド位置推定部120及びベッド方向推定部130が逐次動作することから、識別システム10は、距離画像センサ200の設置環境の変化や病室Rの什器の位置の変化にも、遅延無く追従することができる。
<利用者の動作の推定>
次に、図3のステップS300において人物動作推定部140により実行される、利用者の動作の推定について説明する。利用者の動作は、例えば下記(1)乃至(4)の手法を選択的に使用或いは併用することが可能である。
次に、図3のステップS300において人物動作推定部140により実行される、利用者の動作の推定について説明する。利用者の動作は、例えば下記(1)乃至(4)の手法を選択的に使用或いは併用することが可能である。
(1)距離画像の差分を利用する
最も簡単な部類に属する手法として、距離画像の差分を用いる手法がある。図3における識別制御処理は、一定周期で繰り返し実行される処理である。例えば、制御部110のRAMには、過去一定期間における、ベッドBの識別結果が保持される。ここで、病室Rに誰も居ない場合、或いはベッドBを利用する利用者が動かない(例えば、臥床している)場合、過去の距離画像と最新の距離画像とは、理想的には一致するはずである。またセンサ誤差の関係で両者が相互に一致しないとしても、利用者の動作が存在しないのであれば、その差異は極小さくて済む。従って、過去の距離画像と大きく異なる部分は、利用者の動作によるものであるとの判定が成立する。
最も簡単な部類に属する手法として、距離画像の差分を用いる手法がある。図3における識別制御処理は、一定周期で繰り返し実行される処理である。例えば、制御部110のRAMには、過去一定期間における、ベッドBの識別結果が保持される。ここで、病室Rに誰も居ない場合、或いはベッドBを利用する利用者が動かない(例えば、臥床している)場合、過去の距離画像と最新の距離画像とは、理想的には一致するはずである。またセンサ誤差の関係で両者が相互に一致しないとしても、利用者の動作が存在しないのであれば、その差異は極小さくて済む。従って、過去の距離画像と大きく異なる部分は、利用者の動作によるものであるとの判定が成立する。
(2)三次元点群の差分を利用する
上記(1)と類似するが、上記(1)が距離画像そのものの差分であるのに対して、本手法は図4のステップS120で得られた三次元点群データの差分を利用する。ベッドBの利用者(例えば、患者)が、臥床状態から起床した場合、起床状態から離床した場合、離床状態から着床した場合、或いは、着床状態から臥床した場合等には、ベッドBには殆ど変化がないが、その上方空間の三次元点群には変化が発生する。この点群の変化(例えば、変化の生じた位置や変化の大きさ)を利用者の動作として検出することができる。
上記(1)と類似するが、上記(1)が距離画像そのものの差分であるのに対して、本手法は図4のステップS120で得られた三次元点群データの差分を利用する。ベッドBの利用者(例えば、患者)が、臥床状態から起床した場合、起床状態から離床した場合、離床状態から着床した場合、或いは、着床状態から臥床した場合等には、ベッドBには殆ど変化がないが、その上方空間の三次元点群には変化が発生する。この点群の変化(例えば、変化の生じた位置や変化の大きさ)を利用者の動作として検出することができる。
(3)ベッド上の所定空間における点群を利用する
例えば、利用者がベッドBに臥床している場合と、起床している場合と、離床している場合(立ち上がっている場合)とでは、ベッドBの鉛直上方空間における三次元点群に変化が生じる。特に、ベッドBの鉛直上方には、利用者が立ち上がっていない限り物体が検出されない空間が定義され得る。従って、この空間に三次元点群が所定数以上検出された場合には、利用者が離床しているとの判断が成立し得る。
例えば、利用者がベッドBに臥床している場合と、起床している場合と、離床している場合(立ち上がっている場合)とでは、ベッドBの鉛直上方空間における三次元点群に変化が生じる。特に、ベッドBの鉛直上方には、利用者が立ち上がっていない限り物体が検出されない空間が定義され得る。従って、この空間に三次元点群が所定数以上検出された場合には、利用者が離床しているとの判断が成立し得る。
(4)動きベクトルの利用
過去フレームと現フレームとの間で、公知の再近傍点探索手法やICPにより、三次元点群を構成する各サンプル点がどのように動いたかを解析することができる。この解析された動きに基づいて利用者の動作を推定することができる。
過去フレームと現フレームとの間で、公知の再近傍点探索手法やICPにより、三次元点群を構成する各サンプル点がどのように動いたかを解析することができる。この解析された動きに基づいて利用者の動作を推定することができる。
このように利用者の動作が推定されると、動作の推定結果に応じた措置が講じられる。例えば、離床している利用者が倒れたと判断されたり、臥床しているはずの利用者が激しく動いていると判断されたりした場合等には、制御部110が、制御装置100と電気的に接続されたナースコールスイッチや警報スイッチを投入し、ナースコールや警報により、病室Rで異常が発生した可能性を告知する。
<第2実施例>
第1実施例では、本発明に係る基準設置物として壁Wが利用された。しかしながら、何らかの理由で壁等の構造物を基準設置物として利用できない場合がある。そのような場合においても対象物の識別を実現し得る本発明の第2実施例について説明する。
第1実施例では、本発明に係る基準設置物として壁Wが利用された。しかしながら、何らかの理由で壁等の構造物を基準設置物として利用できない場合がある。そのような場合においても対象物の識別を実現し得る本発明の第2実施例について説明する。
第2実施例では、壁Wに替えてマーカ(指標物)が利用される。ここで、マーカは、形状が既知であればどのようなものでもよく、またベッドBとの位置関係が既知である限りにおいて(無論距離画像センサ200のセンシング空間内である)、病室Rのどのような場所に設置されてもよい。
ここで、図10を参照し、第2実施例に係るベッド方向推定処理について説明する。ここに、図10は、第2実施例に係るベッド方向推定処理のフローチャートである。尚、同図において、図4と重複する箇所には同一の符号を付してその説明を適宜省略することとする。
図10において、距離画像が三次元点群データに変換されると(ステップS120)、マーカが検出される(ステップS131)。マーカの形状は既知であるから、三次元点群データからマーカを抽出することができる。
マーカが抽出されると、マーカとして抽出された三次元点群と、マーカ形状とを用いて、ICPアルゴリズムによる仮想平面とのマッチングが行われる(ステップS141)。即ち、第1実施例では壁Wとして抽出された三次元点群がz軸方向に垂直な平面に沿うようにマッチングが行われたが、第2実施例では、マーカの形状と仮想平面との関係性からマッチングが行われる。このようにすれば、マーカを利用してベッドBの方向を推定することができる。ベッドBの方向が推定されれば、マーカとベッドBとの位置関係が既知であることから、ベッド位置推定処理によりベッドBの位置を推定することができる。
<第3実施例>
次に、本発明の第3実施例として、第1実施例と較べて演算負荷の小さいベッド位置推定処理について、図11を参照して説明する。ここに、図11は、第3実施例に係るベッド位置推定処理のフローチャートである。尚、同図において、図8と重複する箇所には同一の符号を付してその説明を適宜省略することとする。
次に、本発明の第3実施例として、第1実施例と較べて演算負荷の小さいベッド位置推定処理について、図11を参照して説明する。ここに、図11は、第3実施例に係るベッド位置推定処理のフローチャートである。尚、同図において、図8と重複する箇所には同一の符号を付してその説明を適宜省略することとする。
図11において、ベッド位置推定部120は、ベッド方向推定処理におけるステップS120で得られた三次元点群データから、壁Wに該当する三次元点群を除外することなく、ステップS220で得られた基本情報に基づいてベッドBの位置を推定する(ステップS250)。即ち、第3実施例では、空間のボクセル化及びボクセル化されて得られた単位空間に関する三次元点群の有無についてのバイナリ化も省略される。
空間のボクセル化及びバイナリ化が省かれることによって、ベッドB以外の物体がベッドBとして識別される可能性は増加するが、空間のボクセル化と、壁Wを除くとは言え多くの三次元点群についての処理を伴うバイナリ化が省略されることによって、ベッド位置推定部120の演算負荷が大きく軽減される。
本発明は、上述した実施例に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う識別装置もまた本発明の技術的範囲に含まれるものである。
10…識別装置、100…制御装置、110…制御部、120…ベッド位置推定部、130…ベッド方向推定部、140…人物動作推定部、150…出力部、160…表示制御部、170…記憶部、200…距離画像センサ、300…表示装置、400…入力装置。
Claims (10)
- 対象物及び該対象物との位置関係が既知である基準設置物を含む空間において前記対象物を識別する識別装置であって、
前記空間に設置され、前記空間に存在する物体との距離に応じた距離画像を生成する距離画像センサと、
前記生成された距離画像を三次元データに変換する変換手段と、
前記三次元データから前記基準設置物に関する三次元データを抽出する抽出手段と、
前記抽出された三次元データと、前記抽出された三次元データを除く三次元データとに基づいて前記対象物を識別する識別手段と
を備える識別装置。 - 前記空間は室内空間であり、
前記基準設置物は前記室内空間を区画する構造物である
ことを特徴とする請求項1に記載の識別装置。 - 前記識別手段は、前記対象物の方向及び位置を推定することにより前記対象物を識別する
ことを特徴とする請求項1又は2に記載の識別装置。 - 前記識別手段は、前記抽出された三次元データに基づいて前記対象物の方向を推定し、前記抽出された三次元データを除く三次元データに基づいて前記対象物の位置を推定する
ことを特徴とする請求項3に記載の識別装置。 - 前記基準設置物はマーカである
ことを特徴とする請求項1から4のいずれか一項に記載の識別装置。 - 前記識別された対象物に関する前記三次元データに基づいて、前記対象物を利用する利用者の動作を推定する推定手段を備える
ことを特徴とする請求項1から5のいずれか一項に記載の識別装置。 - 前記取得された距離画像及び前記三次元データを表示する表示手段を備える
ことを特徴とする請求項1から6のいずれか一項に記載の識別装置。 - 対象物及び該対象物との位置関係が既知である基準設置物を含む空間において前記対象物を識別する識別方法であって、
前記空間に存在する物体との距離に応じた距離画像を生成する距離画像生成工程と、
前記生成された距離画像を三次元データに変換する変換工程と、
前記三次元データから前記基準設置物に関する三次元データを抽出する抽出工程と、
前記抽出された三次元データと、前記抽出された三次元データを除く三次元データとに基づいて前記対象物を識別する識別工程と
を備える識別方法。 - コンピュータシステムを請求項1から7のいずれか一項に記載の識別装置として機能させる
ことを特徴とするコンピュータプログラム。 - 請求項9に記載のコンピュータプログラムが記録される
ことを特徴とする記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013141104A JP2015014514A (ja) | 2013-07-04 | 2013-07-04 | 識別装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013141104A JP2015014514A (ja) | 2013-07-04 | 2013-07-04 | 識別装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015014514A true JP2015014514A (ja) | 2015-01-22 |
Family
ID=52436326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013141104A Pending JP2015014514A (ja) | 2013-07-04 | 2013-07-04 | 識別装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015014514A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190098238A (ko) * | 2016-12-29 | 2019-08-21 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 지상 환경 검출 방법 및 장치 |
WO2023210333A1 (ja) * | 2022-04-27 | 2023-11-02 | 株式会社アイシン | 乗員検知装置及び乗員検知方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0997337A (ja) * | 1995-09-29 | 1997-04-08 | Fuji Heavy Ind Ltd | 侵入物監視装置 |
JP2002221752A (ja) * | 2001-01-26 | 2002-08-09 | Vstone Kk | 撮影装置 |
JP2003196656A (ja) * | 2001-12-28 | 2003-07-11 | Matsushita Electric Works Ltd | 距離画像処理装置 |
JP2005216160A (ja) * | 2004-01-30 | 2005-08-11 | Secom Co Ltd | 画像生成装置、侵入者監視装置及び画像生成方法 |
JP2007249722A (ja) * | 2006-03-17 | 2007-09-27 | Hitachi Ltd | 物体検知装置 |
JP2012141265A (ja) * | 2011-01-06 | 2012-07-26 | Nippon Signal Co Ltd:The | 光測距装置 |
JP2012175665A (ja) * | 2011-02-24 | 2012-09-10 | Ohbayashi Corp | 画像合成方法 |
JP2013078433A (ja) * | 2011-10-03 | 2013-05-02 | Panasonic Corp | 監視装置、プログラム |
-
2013
- 2013-07-04 JP JP2013141104A patent/JP2015014514A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0997337A (ja) * | 1995-09-29 | 1997-04-08 | Fuji Heavy Ind Ltd | 侵入物監視装置 |
JP2002221752A (ja) * | 2001-01-26 | 2002-08-09 | Vstone Kk | 撮影装置 |
JP2003196656A (ja) * | 2001-12-28 | 2003-07-11 | Matsushita Electric Works Ltd | 距離画像処理装置 |
JP2005216160A (ja) * | 2004-01-30 | 2005-08-11 | Secom Co Ltd | 画像生成装置、侵入者監視装置及び画像生成方法 |
JP2007249722A (ja) * | 2006-03-17 | 2007-09-27 | Hitachi Ltd | 物体検知装置 |
JP2012141265A (ja) * | 2011-01-06 | 2012-07-26 | Nippon Signal Co Ltd:The | 光測距装置 |
JP2012175665A (ja) * | 2011-02-24 | 2012-09-10 | Ohbayashi Corp | 画像合成方法 |
JP2013078433A (ja) * | 2011-10-03 | 2013-05-02 | Panasonic Corp | 監視装置、プログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190098238A (ko) * | 2016-12-29 | 2019-08-21 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 지상 환경 검출 방법 및 장치 |
JP2020504827A (ja) * | 2016-12-29 | 2020-02-13 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 地面環境検出方法及び機器 |
KR102243118B1 (ko) * | 2016-12-29 | 2021-04-21 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 지상 환경 검출 방법 및 장치 |
US11455511B2 (en) | 2016-12-29 | 2022-09-27 | Huawei Technologies Co., Ltd. | Ground environment detection method and apparatus |
WO2023210333A1 (ja) * | 2022-04-27 | 2023-11-02 | 株式会社アイシン | 乗員検知装置及び乗員検知方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106796101B (zh) | 用于设计楼梯升降机导轨组件的方法和系统 | |
KR101708061B1 (ko) | 제어 장치, 제어 방법 및 기록 매체 | |
CN106463032B (zh) | 利用方向感应的入侵检测方法及系统 | |
CN105493154B (zh) | 用于确定增强现实环境中的平面的范围的系统和方法 | |
JP5833772B2 (ja) | 実世界オブジェクトの3dモデルおよび正しい縮尺のメタデータをキャプチャし移動させるための方法およびシステム | |
JP6423435B2 (ja) | 物理的光景を表すための方法および装置 | |
US9208580B2 (en) | Hand detection, location, and/or tracking | |
JP6620888B2 (ja) | 煙検出装置、方法及び画像処理装置 | |
US20190096089A1 (en) | Enabling use of three-dimensonal locations of features with two-dimensional images | |
KR101467663B1 (ko) | 영상 모니터링 시스템에서 영상 제공 방법 및 시스템 | |
CN107430686A (zh) | 用于移动设备定位的区域描述文件的众包创建和更新 | |
JP2016527477A (ja) | カメラ及び無線信号を用いたデバイス位置特定 | |
JP6601613B2 (ja) | 位置推定方法、位置推定装置及び位置推定プログラム | |
CN111860140A (zh) | 目标事件检测方法、装置、计算机设备和存储介质 | |
JP2015079447A5 (ja) | ||
JP2016091457A (ja) | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム | |
JP2014112292A5 (ja) | ||
JP2015079433A5 (ja) | ||
KR101330531B1 (ko) | 3차원 카메라를 이용한 가상 터치 방법 및 장치 | |
US10565786B1 (en) | Sensor placement interface | |
EP4459553A1 (en) | Method and device for optimizing three-dimensional map display | |
JP2014106597A (ja) | 自律移動体、物体情報取得装置、および物体情報取得方法 | |
JP2015014514A (ja) | 識別装置 | |
JP2013092888A (ja) | データ処理装置 | |
JP5450703B2 (ja) | 目標が位置する空間エリアを決定する方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180109 |