Nothing Special   »   [go: up one dir, main page]

JP2013500512A - 空間領域を監視する方法および装置 - Google Patents

空間領域を監視する方法および装置 Download PDF

Info

Publication number
JP2013500512A
JP2013500512A JP2012521049A JP2012521049A JP2013500512A JP 2013500512 A JP2013500512 A JP 2013500512A JP 2012521049 A JP2012521049 A JP 2012521049A JP 2012521049 A JP2012521049 A JP 2012521049A JP 2013500512 A JP2013500512 A JP 2013500512A
Authority
JP
Japan
Prior art keywords
image
image recording
distance
determined
recording unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012521049A
Other languages
English (en)
Other versions
JP5806212B2 (ja
Inventor
ヴィートフェルト,マルティーン
Original Assignee
ピルツ ゲーエムベーハー アンド コー.カーゲー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピルツ ゲーエムベーハー アンド コー.カーゲー filed Critical ピルツ ゲーエムベーハー アンド コー.カーゲー
Publication of JP2013500512A publication Critical patent/JP2013500512A/ja
Application granted granted Critical
Publication of JP5806212B2 publication Critical patent/JP5806212B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

【課題】空間領域に実質的に平行なエッジを有する構造物が存在する場合でも、できるかぎり単純かつ費用効果的に確実な空間領域の監視を可能にする。
【解決手段】空間領域を監視するために、互いに決められた距離だけ離して配置されている第1および第2の画像記録ユニットが提供され、空間領域の第1画像(40')は第1画像記録ユニットで記録し、第2画像は第2画像記録ユニットで記録する。第1および第2の画像に基づいて複数の物体の位置を判定し、各物体の位置は画像記録ユニットに対する物体(42,44)の空間距離を表し、物体の位置に応じて、スイッチング信号が生成される。空間領域は実質的に平行な複数のエッジ(48a, 48b)を有する少なくとも1つの構造物(46)を有し、構造物(46)に複数の参照マーク(56)が配置されている。画像記録ユニットと参照マーク(56)との間の複数の参照距離を判定し、参照距離に基づいて構造物(46)の構造位置を判定する。
【選択図】図5

Description

本発明は複数の可動物体を有する空間領域を監視する方法に関するものである。
前記方法は、互いに決められた距離だけ離して配置されている第1および第2の画像記録ユニットを提供するステップと、前記第1画像記録ユニットによって前記空間領域の第1画像を記録し、前記第2画像記録ユニットによって前記空間領域の第2画像を記録するステップと、前記第1および第2の画像に基づいて複数の物体の位置を判定するステップであって、各物体の位置は前記画像記録ユニットに対する物体の空間距離を表す、前記判定するステップと、前記物体の位置に依存する方法でスイッチング信号を生成するステップとを含む。
さらに本発明は複数の可動物体の空間領域を監視する装置に関し、前記装置は前記空間領域の第1画像を記録する第1画像記録ユニットと、前記空間領域の第2画像を記録する第2画像記録ユニットとを備え、前記第1および第2画像記録ユニットは互いに決められた距離だけ離して配置されており、さらに前記第1および第2の画像に基づいて複数の物体の位置を判定して、前記物体の位置に依存する方法でスイッチング信号を生成する評価・制御ユニットを備える。各物体の位置は前記画像記録ユニットに対する物体の空間距離を表す。
このような方法および装置は下記特許文献1により公知である。
本特許明細書は、自動運転している機械の危険な領域の防護に役立つ方法および装置を開示する。本装置は互いに決められた距離だけ離して配置されている少なくとも2つの画像記録ユニットを有する。各画像記録ユニットは機械が配置されている空間領域の画像を提供する。2つの画像記録ユニットの画像は、監視される空間領域の三次元画像を取得するために、少なくとも2つの異なるシーン解析方法によって評価する。すなわち、空間領域における個々の物体の位置は並列で記録される画像に基づいて判断され、前記位置は距離情報も含む。その後、決められた保護領域または保護空間に基づいて、自動運転している機械にたとえば人などの物体が、危険が生じるほどまで近づいているかどうかを決定することができる。適切であれば、機械を停止するか、または減速して運転する。
このような装置では、シーン解析方法および、特に、物体距離の判定は典型的には2つの記録画像の各々の物体および/または構造物に基づいており、その物体は識別されて、互いに割り当てされなければならない。2つの画像記録ユニットは互いに離れて配置されているため、各画像記録ユニットは異なる視野角を有する。そのため、同一の物体および/または構造物は2つの画像においては互いにずれて見え、2つの画像のある物体の相対的なずれは画像記録ユニット間の決められた距離および画像記録ユニットに対する物体の距離に依存する。その結果、画像記録ユニット間の距離が分かっているとすれば、画像に基づいて物体までの距離を判定することができる。機能的な原理は、ある意味では人の立体視に相当する。
この種の装置に関する出願人の実務的な経験により、この原理を使用した確実で正確な距離の測定は、監視される空間領域内に少なくとも実質的に平行な複数のエッジを有する構造物が存在すると、非常に複雑で難しいことが分かっている。当該エッジは、たとえば階段、格子フェンスまたは垂直ブラインドなどの三次元構造物とすることができ、または、たとえば床または壁のストライプパターンなどの二次元構造物とすることができる。平行なエッジは、2つの記録画像で1つのエッジを明確に割り当てするのをさらに難しくする。異なるエッジが互いに割り当てられるという不正確な割り当ては、一般に不正確な距離測定につながる。このことは、装置および方法を、危険領域(例:自動運転している機械の危険領域など)を防護するために使用する場合には特に問題をはらむ。
下記特許文献2は、先行技術の空間領域を監視する装置を構成するための方法を記述している。この構成は可変幾何学要素に基づいた保護空間および/保護領域の定義を含む。ある実施形態では、幾何学要素は監視すべき空間領域の実像の中または上にグラフィック生成される。実像は構成面を定義するために使用される複数の参照マークを含むことができる。こうして、可変幾何学要素は「仮想」幾何学要素と実空間領域との間の明確な関係を提供するために構成面に対して生成される。
欧州特許第1 543 270 B1号 独国特許出願公開第10 2005 063 217 A1号
しかし、平行なエッジの不正確な割り当ておよびそれから生じる測定誤差は、周知の方法では回避できない。
こうした背景に照らして、本発明の目的は、空間領域に実質的に平行なエッジを有する構造物が存在する場合でも、できるかぎり単純かつ費用効果的に確実な空間領域の監視ができる、冒頭に述べた種類の方法および装置を提供することである。
特に、機械の付近に実質的に平行なエッジを有する構造物が存在しても、自動運転している機械の危険領域を誤差なしで防護できる方法および装置を提供することが目的である。
本発明のある側面によると、空間領域が少なくとも実質的に平行な複数のエッジを有する構造物を有しており、構造物に複数の決められた参照マークが配置されており、画像記録ユニットと参照マークとの間の複数の参照距離を判定し、構造物の構造位置を参照距離に基づいて判定する、冒頭に述べた種類の方法を提供する。
本発明の別の側面によると、評価・制御ユニットは、画像記録ユニットと構造物に配置されている参照マークとの間の複数の決められた参照距離に基づいて実質的に平行な複数のエッジを有する構造物の構造距離を判定するようにさらに設計された、冒頭に述べた種類の装置を提供する。
本発明の方法および本発明の装置は、好ましくは、前述の装置の評価・制御ユニットで実行されるプログラムコードを備えるコンピュータプログラムによって実施される。
本発明の方法および本発明の装置は、問題のあるエッジ構造物を選択的にマーキングするために決められた参照マークを使用する。参照マークは少なくとも実質的に平行な複数のエッジを有する構造物に配置され、好ましくは固着されている。参照マークは、構造物およびそのすぐ近くとは異なる明領域および/または暗領域を有する目立つ面を有するので、参照マークは記録画像で明確に識別されて、互いに割り当てできる。
本発明の実施形態では、参照マークは平行なエッジを有する構造物の円周および/または角に接着結合されている接着フィルムである。一般に、参照マークはその目立つ面に対して垂直に非常に平坦である、つまり、紙またはフィルム状に具現されていて、参照マークと画像記録ユニットとの間の参照距離が参照マークの領域にある構造物の対応する距離に対して違いが全くないか、またはあってもごくわずかしかないようにすると有利である。その結果、参照マークは構造物に関する距離測定を容易にするために、構造物をマーキングするために使用する記録画像内に人工的に生成される目標点である。参照マークによって、問題のある構造物の位置は「間接的」に比較的単純かつ確実に判定できる。これは特に、画像記録ユニットに対する構造物の距離の判定を含む。参照距離は構造物の距離測定値として少なくとも一時的に使用される。
本発明の好適な改良形態では、仮想参照エリアを画成する少なくとも3つの参照マークを構造物に配置しており、仮想参照エリアは平行な複数のエッジに実質的に重なっている。したがって、本発明の装置の評価・制御ユニットは、構造物に配置されて、平面を画成している少なくとも3つの参照マークに基づいて仮想参照エリアを判定するように設計されている。
この改良形態は、構造物を基本的に改造または隠蔽することなく、構造物の問題のあるエッジの大半または全部でさえもマーキングすることができるという利点を有する。画像では「見えない」仮想参照エリアは、少なくとも3つの、好ましくは少なくとも4つの参照マークによって単純かつ高精度に判定できる。さらに、仮想参照エリアの位置(画像記録ユニットに対する距離を含む)も、並列で記録される画像に基づいて単純かつ高精度に判定できる。その結果、参照エリアは問題のあるエッジ領域をマーキングするので、この領域に的を絞った方法で個別評価の対象とすることができる。このように、本発明の装置および本発明の方法の検出の妥当性および信頼性を非常に効果的に改善できる。
別の改良形態では、平行なエッジの少なくとも1つについて、画像記録ユニットに対するエッジ距離を、第1および第2の画像に基づくとともに、仮想参照エリアにも基づいて判定する。好ましくは、構造物の複数のエッジおよび特に好ましくは全てのエッジについてエッジ距離を判定する。
この改良形態は、画像情報および画像記録ユニット間の既知の距離に加えて、参照エリアの位置および距離を表す新たに取得した情報を評価することから、問題のあるエッジの正確な距離情報を出す。他方で、距離情報は実際の画像の内容、つまり画像で見える平行なエッジに帰属される。この改良形態を使えば、全ての問題のあるエッジの明確かつ正確な距離情報を取得することが可能である。問題のあるエッジ領域を明確に判定された距離に基づいて「正常」または問題のない画像領域のように処理できるため、画像のさらなる評価、特に保護エリアの監視はこの改良形態によって簡略化される。
別の改良形態では、少なくとも1つのエッジについて、第1および/または第2の画像内のエッジ位置を判定して、永久に記憶する。
この改良形態では、二次元の少なくとも1つのエッジの位置を判定して、永久に記憶する。「永久に記憶する」とは、エッジ位置を本発明の装置のメモリに、少なくとも無停電運転の全継続時間中提供されることを意味する。好ましくは、エッジ位置は装置の不揮発性メモリに記憶して、停電後でも読み出すことができるようにする。この改良形態は、第1および第2の画像を繰り返し記録する監視動作モード中に、問題のあるエッジ領域をそれぞれの場合において記録画像に非常に単純かつ迅速に識別できるという利点を有する。周期的な監視動作モードでの新たな画像ペアの評価が簡略化されるので、この改良形態は費用効果的に実現できるリアルタイムの運転に資する。
別の改良形態では、少なくとも1つのエッジのエッジ距離も永久に記憶される。
この改良形態はさらに、問題のあるエッジ構造物を単純かつ費用効果的に考慮しながら、リアルタイムの監視動作モードを使用可能にすることにも資する。明確に判定・記憶されたエッジ距離は有利なことに、現在取得している測定値の検証のために各新たな画像ペアの評価で、および/または現在の測定値の代わりに使用できる。
別の改良形態では、第1および第2の画像は繰り返し記録され、物体の位置は繰り返し判定されて、構造物の位置は記憶されているエッジ距離に基づいて判定される。特に、個別の精密モードで判定され、記憶されているエッジ距離が永久に記憶されて、現在のエッジ距離として各新たな画像ペアに使用されると有利である。
この改良形態では、いったん判定されたエッジ距離は、繰り返し記録される画像のエッジ距離のその後の「測定値」に置き換わる。すなわち、エッジの距離は、画像記録が繰り返されるにもかかわらず、一度しか判定されず、その後永久に使用される。この改良形態は、空間的に静止したまたは動かない構造物の場合にのみ有利に採用される。対して、平行なエッジをもたないエリアを含めて、空間領域の他の全ての物体について、現在の距離を判定する。この改良形態は問題のあるエッジ領域に非常に効率的に正確な「測定値」を入手できるようになるという利点を有する。危険な機械の監視中、間違ったアラームおよびそれに伴って生じる機械の停止が簡単に回避される。他方で、この改良形態は、構造物の前景の物体が必ず画像記録ユニットに対する距離が短くなるはずで、そのため異なる距離に基づいて非常に容易に検証できることから、高い検出信頼性に資する。
別の改良形態では、参照マークのうちの少なくとも1つは構造物に永久に付着した状態にされている。記憶されているエッジ距離が永久に配置されている参照マークに基づいて受け入れられている場合には特に好適である。特に、少なくとも1つの参照マークが当初判定された位置で、および/または当初判定された参照距離に対して検出される場合にのみ受け入れられる。
この改良形態は、残されている少なくとも1つの参照マークに基づいて、構造物の画像記録ユニットに対するその距離および位置が変化していないことを確認した時のみ、記憶されているエッジ距離を「現在の測定値」として使用するため、機械を防護する時さらに高いフェールセーフ性を提供する。
別の改良形態では、可動物体の物体位置は構造物の構造位置に基づいて検証する。この場合記憶されているエッジ距離は構造物の構造位置を表して、可動物体の物体位置を少なくとも1つのエッジ距離に基づいて検証するようにすると有利である。
この改良形態では、検出された可動物体の測定物体位置が利用可能な空間領域内にあるかどうかを点検するために使用される妥当性チェックを行う。エッジ構造物が、例えば空間領域の床の格子またはストライプパターンである場合、可動物体に対する物体距離はエッジ距離より小さくなければならない。すなわち、可動物体は前景に位置しているが、平行なエッジを有する構造物は背景に相当する。このような妥当性チェックは、空間領域を監視する時にさらに高いフェールセーフ性に資するとともに、間違ったアラーム率の低下にも資する。
別の改良形態では、構造物は空間的に静止している。
この改良形態により、特に、いったん判定したエッジ距離を監視運転の過程で現在の測定値の代わりに使用しようとすると、非常に単純かつ効率的に本発明の方法を実施することが可能となる。他方で、この改良形態は、平行なエッジを有する構造物はしばしばバリア、背景マーキングおよび/または他の構造尺度の結果であるため、実務上非常に頻繁に発生する用途に適合する。この改良形態は、平行なエッジにより並列で記録される画像において明確な割り当てを達成するのが難しい空間領域を監視する時、非常に効果的に高い検出信頼性を可能にする。
いうまでもなく、前記述べた特徴および以下説明する特徴は、本発明の範囲を逸脱しない限り、それぞれ明記される組み合わせだけでなく、他の組み合わせまたは単独でも使用することができる。
本発明の方法および本発明の装置は比較的単純かつ費用効果的に実現できる。さらに、高い識別の信頼性を可能にし、同時に記録される画像において不正確な割り当てを防止する、または少なくとも減少させることを可能にする。そのため、本発明の方法および本発明の装置は、危険領域を防護するための使用に特に適している。
本発明の装置の好適な実施形態を示す模式図である。 図1の装置(一部)の平面図である。 監視対象である空間領域の第1画像および第2画像の簡略図を示している。 決められた参照マークが平行なエッジを有する構造物に配置された空間領域の別の画像を示している。 人を含む空間領域の別の画像を示している。 本発明の方法の好適な実施形態を示すフローチャートである。 本発明の方法の好適な実施形態を示す別のフローチャートである。
本発明の実施形態を図面に図示し、以下の説明で詳細に説明する。
図1では、本発明の装置の実施形態を全体として参照番号10で表している。装置10はここではロボット14の作動領域12の防護のために設置される。
ロボット14は自動運転する機械であり、その動きのために、作動領域12に進入する人にとっては危険となる。しかし、本発明の装置および本発明の方法は機械の防護に制限されない。たとえば金庫室の監視など、他の理由のために空間領域を監視するためにも使用できる。
装置10は2つの画像記録ユニット16,18を有しており、これらは互いに決められた既知の距離bだけ離れて配置されている(図2を参照)。本発明の実施形態では、装置10は第3画像記録ユニット(ここでは図示せず)を有しており、2つの画像記録ユニットはそれぞれの場合において互いに決められた既知の距離bだけ離れて配置されており、3つの画像記録ユニットは互いにL字形に配置されている。この場合、3つの画像記録ユニットは2対の画像記録ユニットを形成するが、単純化するために、これ以降は画像記録ユニット16,18を備える1対のみを説明する。少なくとも3つの画像記録ユニットのL字形の配置は、確実に任意の進行方向を有するエッジを、対のうちの少なくとも1つによって識別して、評価できるようにする。
装置10はさらに評価・制御ユニット20を有しており、これは画像記録ユニット16,18に接続されている。評価・制御ユニット20は画像記録ユニット16,18によって画像記録を制御して、記録された画像を評価し、ロボット14を画像に依存した方法で駆動する。
原則的に、評価・制御ユニット20はロボット14の作動コントローラの一部とすることができる。いくつかの実施形態では、評価・制御ユニット20は、危険な作業領域12の防護に役立つ個別の安全コントローラである。したがってロボット14の動作コントローラ(ここでは図示せず)は個別に実現できる。
評価・制御ユニット20は画像記録ユニット16,18の画像に依存した方法でスイッチング信号を生成することができ、そのスイッチング信号によってロボット14を完全に停止するか、または減速運転にすることができる。参照番号22は、評価・制御ユニット20がスイッチング信号をロボット14に送信するケーブルを表している。スイッチング信号は機械停止信号、制御信号、イネーブル信号および/または警告信号を含むことができる。
参照番号24は装置10を構成するための構成装置を表している。本発明の実施形態では、構成装置24はパーソナルコンピュータPC26とディスプレイ28とを含む。ディスプレイ28は、特に画像記録ユニット16,18によって記録される画像を表示するように設計されている。しかし、これら画像のディスプレイは主に装置10の構成および/または点検のために使用される。通常の運転動作モードでは、装置10は完全に自動で運転されるのが好ましい。つまり、評価・制御ユニット20は、ディスプレイ28に画像を表示する必要なく、画像記録ユニット16,18の画像に依存した方法でスイッチング信号22を生成する。PC26および評価・制御ユニット20は、データおよび画像の送信用の双方向データリンクを介して接続されており、前記データリンクは図1では両矢印で示されている。
参照番号32,34は画像記録ユニット16,18の記録領域を表す。見てすぐに分かるように、記録領域32,34は互いにややずれている。しかし、共通のまたは重なり合う記録領域33があり、これが監視するべき空間領域を画成し、作業領域12はここにある。共通の記録領域33内でのみ、評価・制御ユニット20は、画像記録ユニット16,18と物体との間の距離を以下に説明するように判定できる。
参照番号34は警告ゾーンを表し、参照番号36は機械停止ゾーンを表している。警告ゾーン34および機械停止ゾーン36は、ロボット14の作業領域12の周囲に少なくとも部分的に延びている監視領域である。監視領域34,36は構成装置24によって画成できる仮想保護フェンスである。
人38など、動いている物体が警告ゾーン34および/または機械停止ゾーン36に進入すると、これは装置10によって識別されて、評価・制御ユニット20がロボット14用のスイッチング信号22を生成する。人38が警告ゾーン34に進入すると、評価・制御ユニット20は、たとえば、ロボット14を減速運転する効果を有するスイッチング信号を生成してもよい。さらに音声および/または視覚的な警告信号を生成してもよい。これらの措置にもかかわらず人38が機械停止ゾーン36に進入すると、評価・制御ユニット20は、ロボット14を停止する別のスイッチング信号をさらに生成してもよい。
人38または何か他の可動物体の、ゾーン34,36のうちの1つへの侵入を検出するために、評価・制御ユニット20は記録領域33全体の三次元画像を画像記録ユニット16,18の画像に依存した方法で判定する。三次元画像は、画像記録ユニット16,18と、共通の記録領域33内の個々の物体および構造物との間の距離を表す距離情報を含む。警告ゾーンおよび機械停止ゾーン34,36は三次元画像内の座標に基づいて画成されているので、ゾーンのうちの1つへの人38の進入は、画像記録ユニット16,18からの画像データのみに基づいて検出できる。警告ゾーンおよび機械停止ゾーン34,36を構成する好ましい方法は、冒頭で引用した特許文献2に記述されており、その開示を参照することにより、その全体をここに組み込む。
距離情報を判定するための好適な方法を、図3を参照して以下簡潔に説明する。図3(A)は、例として、また簡略化して、第1画像記録ユニット16によって記録した監視される空間領域の第1画像40を示している。画像40は、ここでは例として機械42およびスイッチギアキャビネット44を示している。加えて、複数の実質的に平行なエッジ48を有する構造物46が機械42の前に図示されている。構造物46は、たとえば、機械42の前の床に配置されている、明ストライプと暗ストライプとを備えるストライプパターンとすることができよう。さらに、構造物46は、たとえば液体の排水路を備える、機械42の前に配置されている格子とすることができよう。平行または実質的に平行なエッジを有する構造物46の別の例は、格子フェンスまたは階段状の三次元構造物であってもよい。
図3(B)は、第2画像記録ユニット18によって記録した第2画像50を示している。第2画像50は第1画像40と同じ空間領域を示す。本発明の実施形態の全てにおいて、第1および第2の画像は互いに同期してかつ実質的に同時に記録される。しかし、原則的には、2つの画像記録間の時間的なずれが共通の記録領域33で可動物体の位置に小さな変化しか起こさないほど小さければ、画像40,50は時間的にずれて記録することも考えられる。
図3を参照して示されるように、第1画像40および第2画像50は同じシーンを共有している。しかし、2つの画像40,50の物体および構造物42,44,46は、参照番号52で示しているように、互いにずれてみえる。オフセットdは2つの画像記録ユニット16,18のオフセット記録領域30,32の結果である。
好ましくは、2つの画像記録ユニット16,18は平行な光学軸を有し、2つの画像記録ユニット16,18は少なくとも実質的に同一である。このケースでは、以下の関係が成り立つ。
r=b・f/d
前記式において、fは画像記録ユニットの焦点距離であり、bは2つの画像記録ユニット16,18間の距離(いわゆる基準幅)であり、rは物体または構造物のエッジと、画像記録ユニット16,18の共通の参照点との距離であり、dはいわゆる視差、つまり2つの画像のオフセット52である。既知の基準幅bおよび既知の焦点距離fが与えられていれば、画像記録ユニットに対する物体または構造物のエッジのそれぞれの距離rは、測定した視差に基づいて判定することができる。
しかし、距離rを判定する前提条件は、それぞれの視差dを判定するために、2つの画像40,50で相互に対応する構造物または物体のエッジを明確に識別して、互いに割り当てができることである。複数の平行なエッジ48a,48bを有する構造物46の場合、同じ外観を有する平行なエッジが大量に存在する場合には、相互に対応するエッジの割り当ては特に難しく、誤差を生じやすい。不正確なエッジ割り当ては不正確な距離情報につながる。
図4は、構造物46の角に4つの参照マーク56a,56b,56c,56dを配置している第1画像40’を示している。本発明の実施形態では、参照マーク56は決められた明暗パターンを有する点状または円形のフィルム片である。さらに、参照マークを構造物46に固着、たとえば接着結合すると有利である。
図4に図示するように、各参照マーク56は画像内で決められた目標点を形成するが、ここでは簡略化するために第1画像40’のみを図示している。参照マーク56は既知の特徴および/または明暗の(high-contrast)特徴に基づいて記録画像内で容易に識別されて、互いに割り当てできる。それぞれの視差に基づいて、画像記録ユニット16,18と個々の参照マーク56a,56b,56c,56dとの間の距離rを判定することができる。
図4でさらに見分けられるように、参照マーク56a,56b,56c,56dは仮想参照エリア58を画成しており、ここでは構造物46に一致して重なっている。個々の参照マーク56a,56b,56c,56dの距離は正確に判定できるため、仮想参照エリア58の位置および距離も記録画像に基づいて正確に判定できる。
本発明の実施形態では、個々の平行なエッジ48a,48bの視差および距離はこれらのデータに基づいて判定されて、それぞれのエッジ48a,48bに割り当てされる。平行なエッジ48a,48bの視差を判定するために、エッジの視差が(今では既知の)参照エリア内で比例して変化すると有利である。この追加情報によって、第1画像40’の各エッジ48a,48bについて、第2画像のそれぞれ対応するエッジを明確に割り当てできる。このように、全てのエッジ48a,48bの視差および距離を明確に、かつ誤差のないように判定できる。
図5は第1画像記録ユニット16の別の画像40”を示しており、今まさに人38が機械42に近づいているところである。人38は背景を形成する構造物46の前に位置しなければならない。人38の距離を判定できるように、平行な画像で人の輪郭エッジ39を検出して、視差を判定するためにそれを互いに割り当てる必要がある。輪郭エッジ39に関する視差に基づいて、人38がエッジ輪郭46よりもさらに遠くにいることが明らかになると、輪郭エッジ39に関する不正確なエッジの割り当てが明確に存在する。したがって、好ましくは、輪郭エッジ39に関するエッジ割り当てを補正して、補正したエッジ割り当てで視差を判定する。ここで人に対する距離が構造物46に対する距離よりも小さい場合、補正された測定は有効な測定として受け入れられる。ロボットを停止させるのは、有効な測定を生成するエッジ割り当てが可能でない場合に限られる。そうでなければ、妥当として受け入れられる距離をその後の評価で使用する。その結果、輪郭エッジ39に対する距離を判定することが可能であり、そのため平行なエッジに関わらず、監視される空間領域内の人38の三次元の位置を効果的かつ確実に判定することが可能である。
図6および図7は、2つのフローチャートに基づいた本発明の方法の好ましい実施形態を示している。図6は、実際の監視動作モードが始まる前に装置10が構成されている構成モードを示している。ステップ(62)および(64)で、画像40,50が、好ましくは同期して、画像記録ユニット16,17によって記録される。ステップ(66)は画像内の様々な物体のエッジおよび構造物のエッジに関する視差の探索に関わる。この探索は相互に対応する物体のエッジおよび構造物のエッジの識別および割り当てを含む。その後、ステップ(68)は割り当ての欠如のために、視差の判定に困難が伴う、または全く判定できない構造物の識別に関わる。図3から図5の実施例では、これは構造物46に適用される。
ステップ(70)に従い、識別された構造物に参照マーク56が配置されている。ステップ(72)および(74)に従い、別の画像ペアが画像記録ユニット16,18によって記録される。その後、ステップ(76)は別の画像で参照マークを識別することに関わる。ステップ(78)は参照マークの視差を判定することに関わる。参照マークの視差によって仮想参照エリア58を判定する。その後、ステップ(80)は構造物46の個々のエッジ48a,48bの視差を判定することに関わり、2つの画像でそれぞれ対応するエッジ48a,48bの明確な割り当てを取得するために、参照エリア58の現在既知の位置および参照マーク56の既知の視差を使用する。ステップ(82)は個々のエッジ48a,48bの視差を永久的に記憶することに関わる。さらに、ステップ(84)は個々のエッジ48a,48bの画像位置および参照マーク56の位置を記憶することに関わる。この場合、「画像位置」とは、画像記録ユニット16,18の二次元画像内のエッジおよび参照マークの位置を表す。その後、ステップ(86)に従い、たとえば、警告ゾーン34または機械停止ゾーン36などの個々の保護空間を構成することができる。保護空間は冒頭で引用した特許文献2に記述される方法に従い構成するのが好ましい。こうして装置10は図7を参照して図示される監視モードにすることができる。
図7のステップ(88)および(90)に従い、監視動作モードでも、対の画像が画像記録ユニット16,18によって記録される。
その後、ステップ(92)に従い記録された画像で参照マーク56が識別される。さらに、参照マーク56の距離および位置が視差に基づいて判定される。
ステップ(94)は、参照マーク56の距離および/または位置が参照マークの記憶されている距離および位置情報に対して変化していないかどうかを点検することに関わる。変化している場合、ステップ(96)はスイッチング信号を生成することに関わり、これは好ましい実施形態では、ロボットまたは監視される機械を停止する機械停止信号を含む。あるいは、スイッチング信号は参照マークおよび/またはエッジ構造物の領域で新たな視差判定をトリガすることができ、新たな視差判定で妥当な距離値が生じない場合に限って機械のスイッチが切られる。
参照マークの位置が構成モードで取得したデータと比較して変化していない場合、監視動作モードを継続する。ステップ(98)は記憶された画像位置に基づいて、構造物46の平行なエッジを識別することに関わる。ステップ(100)に従い、記憶されているエッジの視差を識別されたエッジ48a,48bに割り当てする。すなわち、本発明の方法の好ましい実施形態は、監視動作モード中それぞれの場合において平行なエッジ48a,48bの視差および距離を繰り返し判定する手順を不要にする。むしろ、構成モードで判定・記憶されているエッジの視差が、現行の測定値に置き換わる。
その後、ステップ(102)は別の全ての物体のエッジの視差を判定することに関わる。次にステップ(104)は保護領域の監視、すなわち、人または他の何らかの物体が決められた保護空間34,36のうちの1つに進入したかどうかを評価することに関わる。ステップ(106)に従い保護空間への侵入が検出されたら、ステップ(108)は監視される機械を停止するための機械停止信号をもう一度含むことのできる信号を生成することに関わる。保護空間への侵入が検出されなければ、ループ110に従い、方法はステップ(88),(90)の画像記録に戻る。そのため、監視モードでは図7に従う方法が周期的に繰り返される。
全体として、本発明の方法および本発明の装置は、平行なエッジの視差および距離の判定を正確に行うために、たとえば人工的なリングパターンなどの決められた参照マークを使用することによって、三次元映像で記録される画像の平行なエッジの不正確な割り当ての防止に役立つ。
平行なエッジの視差および/または距離は、好ましくは評価・制御ユニットのメモリに永久的に記憶されて、その後の監視動作モードで問題のあるエッジに割り当てられる。好ましくは、このために、二次元画像における平行なエッジの位置を判定して、視差および/または距離情報とともに記憶する。この方法によってエッジの不正確な割り当てを最小限に減らすことができる。平行なエッジに関する視差/距離を判定するために、構成モードでは少なくとも3つの参照マークを使用すると有利である。
さらに、参照マークのうちの少なくとも1つは問題のある構造物に永久的に残しておいて、前記参照マークによって、構成モードで判定される視差/距離を監視動作モードで確実に有効にするのが好ましい。そのため、平行なエッジを有する問題のある構造物が静止状態であり、監視される空間領域を画定すると、この場合の平行なエッジは監視動作モードで可動物体が移動する背景を形成するため有利である。そのため、可動物体のそれぞれの距離は背景の平行なエッジに対する距離よりも小さくなければならず、これにより単純な妥当性チェックが可能になる。
本発明の方法により、平行なエッジの視差および距離を判定する時、計算上の複雑さを大幅に低減することが可能である。さらに、不正確な割り当てとそれから生じる測定誤差とを回避することができる。

Claims (11)

  1. 可動物体(38)を有する空間領域(33)を監視する方法であって、
    互いに決められた距離(b)だけ離れて配置されている第1および第2の画像記録ユニット(16,18)を提供するステップと、
    前記第1画像記録ユニット(16)によって前記空間領域(33)の第1画像(40)を記録し、前記第2画像記録ユニット(18)によって前記空間領域(33)の第2画像(50)を記録するステップと、
    前記第1および第2の画像(40,50)に基づいて物体の位置を判定するステップであって、物体の位置は前記画像記録ユニット(16,18)に対する物体(38,42,44)の空間距離を表す、前記判定するステップと、
    前記物体の位置に依存する方法でスイッチング信号(22)を生成するステップとを含み、
    前記空間領域(33)は少なくとも実質的に平行な複数のエッジ(48)を有する構造物(46)を含んでおり、前記構造物(46)に複数の決められた参照マーク(56)が配置されており、前記画像記録ユニット(16,18)と前記参照マーク(56)との間の複数の参照距離を判定し、前記参照距離に基づいて前記構造物(46)の構造位置を判定することを特徴とする方法。
  2. 前記構造物(46)に仮想参照エリア(58)を画成する少なくとも3つの参照マーク(56)が配置されており、前記仮想参照エリア(58)は前記複数の平行なエッジ(48)に実質的に重なることを特徴とする、請求項1に記載の方法。
  3. 前記平行なエッジ(48)のうちの少なくとも1つについて、前記画像記録ユニット(16,18)に対するエッジ距離を、前記第1および第2の画像(40,50)に基づくとともに、前記仮想参照エリア(58)にも基づいて判定することを特徴とする、請求項2に記載の方法。
  4. 前記少なくとも1つのエッジ(48)について、前記第1および/または第2画像(40,50)内のエッジ位置を判定して、永久に記憶することを特徴とする、請求項3に記載の方法。
  5. 前記少なくとも1つのエッジ(48)の前記エッジ距離を永久に記憶することを特徴とする、請求項3または請求項4に記載の方法。
  6. 前記第1および第2の画像(40,50)を繰り返し記録し、前記物体の位置を繰り返し判定して、前記構造位置を各サイクルで前記記憶したエッジ距離に基づいて判定することを特徴とする、請求項5に記載の方法。
  7. 前記参照マーク(56)のうちの少なくとも1つは前記構造物(46)に永久に残したままであることを特徴とする、請求項1〜請求項6のいずれか1項に記載の方法。
  8. 可動物体(38,42,44)の前記物体の位置を前記構造物(46)の前記構造位置に基づいて検証することを特徴とする、請求項1〜請求項7のいずれか1項に記載の方法。
  9. 前記構造物(46)は空間的に静止していることを特徴とする、請求項1〜請求項8のいずれか1項に記載の方法。
  10. 可動物体(38)を有する空間領域(33)を監視する装置であって、前記装置は、前記空間領域(33)の第1画像(40)を記録する第1画像記録ユニット(16)と、前記空間領域(33)の第2画像(50)を記録する第2画像記録ユニット(18)とを備えており、前記第1および第2の画像記録ユニット(16,18)は互いに決められた距離(b)だけ離して配置されており、さらに前記第1および第2の画像(40,50)に基づいて物体の位置を判定して、前記物体の位置に依存する方法でスイッチング信号(22)を生成するように設計されている評価・制御ユニット(20)を備えており、物体の位置は、前記画像記録ユニット(16,18)に対する物体(38,42,44)の空間距離を表し、前記評価・制御ユニット(20)は前記画像記録ユニット(16,18)と前記構造物(46)に配置されている参照マーク(56)との間の複数の決められた参照距離に基づいて、実質的に平行な複数のエッジ(48)を有する構造物(46)の構造位置を判定するようにさらに設計されていることを特徴とする装置。
  11. プログラムコードを請求項10に記載の装置の評価・制御ユニットで実行すると、全体として請求項1〜請求項9のいずれか1項に従う方法を行うように設計されている前記プログラムコードを含むことを特徴とするコンピュータプログラム。
JP2012521049A 2009-07-24 2010-07-23 空間領域を監視する方法および装置 Active JP5806212B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102009035755.6 2009-07-24
DE102009035755A DE102009035755A1 (de) 2009-07-24 2009-07-24 Verfahren und Vorrichtung zum Überwachen eines Raumbereichs
PCT/EP2010/060686 WO2011009933A1 (de) 2009-07-24 2010-07-23 Verfahren und vorrichtung zum überwachen eines raumbereichs

Publications (2)

Publication Number Publication Date
JP2013500512A true JP2013500512A (ja) 2013-01-07
JP5806212B2 JP5806212B2 (ja) 2015-11-10

Family

ID=42835492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012521049A Active JP5806212B2 (ja) 2009-07-24 2010-07-23 空間領域を監視する方法および装置

Country Status (7)

Country Link
US (1) US9292924B2 (ja)
EP (1) EP2457217B1 (ja)
JP (1) JP5806212B2 (ja)
CN (1) CN102483846B (ja)
DE (1) DE102009035755A1 (ja)
HK (1) HK1168682A1 (ja)
WO (1) WO2011009933A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5924134B2 (ja) * 2012-05-30 2016-05-25 セイコーエプソン株式会社 侵入検出装置,ロボットシステム,侵入検出方法および侵入検出プログラム
DE102012209316A1 (de) * 2012-06-01 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
US9855664B2 (en) * 2015-11-25 2018-01-02 Denso Wave Incorporated Robot safety system
ES2673167B2 (es) * 2016-12-20 2018-10-10 Universidad De Extremadura Vídeo cortina de seguridad para detección redundante y direccional de acceso a zona de peligro asociada a maquinaria industrial
US11014240B2 (en) * 2017-09-05 2021-05-25 Abb Schweiz Ag Robot having dynamic safety zones
WO2019097676A1 (ja) * 2017-11-17 2019-05-23 三菱電機株式会社 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム
EP3572971B1 (de) * 2018-05-22 2021-02-24 Sick Ag Absichern eines überwachungsbereichs mit mindestens einer maschine
US20200311886A1 (en) * 2019-03-28 2020-10-01 Carl Zeiss Microscopy Gmbh Method for determining an image recording aberration
US20220012911A1 (en) * 2020-07-13 2022-01-13 United States Postal Service System and method for analyzing an image to determine spacing between a person and an object
US11486893B2 (en) * 2020-10-06 2022-11-01 Pixart Imaging Inc. Optical sensing system and optical navigation system
SE2250812A1 (en) * 2022-06-29 2023-12-30 Flasheye Ab Information carrier for providing information to a lidar sensor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000115810A (ja) * 1998-09-30 2000-04-21 Matsushita Electric Ind Co Ltd ステレオ画像処理方法および装置と侵入物体監視システム
JP2001351200A (ja) * 2000-06-09 2001-12-21 Nissan Motor Co Ltd 車載用物体検知装置
JP2004184240A (ja) * 2002-12-03 2004-07-02 Topcon Corp 画像測定装置、画像測定方法、画像処理装置
JP2005250994A (ja) * 2004-03-05 2005-09-15 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2007212187A (ja) * 2006-02-07 2007-08-23 Mitsubishi Electric Corp ステレオ写真計測装置、ステレオ写真計測方法、及びステレオ写真計測プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19536297C2 (de) * 1995-09-29 2003-10-02 Daimler Chrysler Ag Verfahren zur geometrischen Kalibrierung von optischen 3D-Sensoren zur dreidimensionalen Vermessung von Objekten und Vorrichtung hierzu
US6538732B1 (en) * 1999-05-04 2003-03-25 Everest Vit, Inc. Inspection system and method
DE10026710A1 (de) * 2000-05-30 2001-12-06 Sick Ag Optoelektronische Schutzeinrichtung
JP2002024807A (ja) * 2000-07-07 2002-01-25 National Institute Of Advanced Industrial & Technology 物体運動追跡手法及び記録媒体
US7098997B2 (en) * 2002-06-26 2006-08-29 Pentax Corporation Surveying system
DE50304602D1 (de) 2002-09-24 2006-09-21 Daimler Chrysler Ag Verfahren und vorrichtung zum absichern eines gefahrenbereichs
US7729511B2 (en) * 2002-09-24 2010-06-01 Pilz Gmbh & Co. Kg Method and device for safeguarding a hazardous area
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
EP1647357A1 (en) * 2004-10-13 2006-04-19 Robosoft N.V. Method and device for observing and securing a danger zone of a machine or the like
US7564990B2 (en) * 2005-08-18 2009-07-21 Nu Skin International, Inc. Imaging system and method for physical feature analysis
DE102005063217C5 (de) 2005-12-22 2022-08-18 Pilz Gmbh & Co. Kg Verfahren zum Konfigurieren einer Überwachungseinrichtung zum Überwachen eines Raumbereichsund entsprechende Überwachungseinrichtung
WO2007085330A1 (en) * 2006-01-30 2007-08-02 Abb Ab A method and a system for supervising a work area including an industrial robot
US20070211143A1 (en) * 2006-03-10 2007-09-13 Brodie Keith J Systems and methods for prompt picture location tagging
DE102006023787B4 (de) * 2006-05-20 2009-12-10 Sick Ag Optoelektronische Schutzeinrichtung
US20080123903A1 (en) * 2006-07-03 2008-05-29 Pentax Industrial Instruments Co., Ltd. Surveying apparatus
JP4892310B2 (ja) * 2006-09-19 2012-03-07 タイワン インスツルメント カンパニー リミテッド 測量機
DE102006057605A1 (de) * 2006-11-24 2008-06-05 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zum Überwachen eines dreidimensionalen Raumbereichs
WO2008089353A2 (en) * 2007-01-17 2008-07-24 Nielsen Media Research, Inc. Methods and apparatus for collecting media site data
DE102007007576B4 (de) * 2007-02-15 2009-01-15 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Sichern eines Arbeitsraums
US8036452B2 (en) * 2007-08-10 2011-10-11 Leica Geosystems Ag Method and measurement system for contactless coordinate measurement on an object surface
DE102007062951A1 (de) * 2007-12-21 2009-06-25 Robert Bosch Gmbh Werkzeugmaschinenvorrichtung

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000115810A (ja) * 1998-09-30 2000-04-21 Matsushita Electric Ind Co Ltd ステレオ画像処理方法および装置と侵入物体監視システム
JP2001351200A (ja) * 2000-06-09 2001-12-21 Nissan Motor Co Ltd 車載用物体検知装置
JP2004184240A (ja) * 2002-12-03 2004-07-02 Topcon Corp 画像測定装置、画像測定方法、画像処理装置
JP2005250994A (ja) * 2004-03-05 2005-09-15 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2007212187A (ja) * 2006-02-07 2007-08-23 Mitsubishi Electric Corp ステレオ写真計測装置、ステレオ写真計測方法、及びステレオ写真計測プログラム

Also Published As

Publication number Publication date
CN102483846B (zh) 2015-11-25
HK1168682A1 (en) 2013-01-04
EP2457217A1 (de) 2012-05-30
US9292924B2 (en) 2016-03-22
EP2457217B1 (de) 2013-09-11
WO2011009933A1 (de) 2011-01-27
CN102483846A (zh) 2012-05-30
US20120182419A1 (en) 2012-07-19
DE102009035755A1 (de) 2011-01-27
JP5806212B2 (ja) 2015-11-10

Similar Documents

Publication Publication Date Title
JP5806212B2 (ja) 空間領域を監視する方法および装置
JP6926917B2 (ja) オフライン検証システム
US9596451B2 (en) Device for monitoring at least one three-dimensional safety area
JP5064513B2 (ja) 3次元の空間領域を監視するための方法および装置
JP4990291B2 (ja) 空間領域のモニタ装置およびそのモニタ装置を構成する方法
US10489973B2 (en) 3D face reconstruction from gate camera
CN105357511B (zh) 深度数据检测系统
US20160040827A1 (en) Apparatus and method for safeguarding an automatically operating machine
JP2020531849A5 (ja)
JP2016140235A (ja) 車両速度を決定するための方法およびシステム
JP2017521647A5 (ja)
CN105100780A (zh) 使用选择的像素阵列分析的光学安全监视
JP6587442B2 (ja) 検知エリアを生成する方法、装置、システム及びプログラム
RU2015151727A (ru) Устройство для записи изображения в трехмерном масштабе, способ создания 3D-изображения и способ формирования устройства для записи изображения в трехмерном масштабе
CA2667600A1 (en) Method and apparatus for monitoring a spatial volume and a calibration method
JP2018048839A (ja) 三次元データ生成装置及び三次元データ生成方法、並びに三次元データ生成装置を備えた監視システム
JP2016050876A (ja) 打音検査記録装置
JP2013113610A (ja) 放射線測定方法および装置
JP6825623B2 (ja) 監視システムの設定方法及び監視システム
KR101760261B1 (ko) 블랙박스 기능을 갖는 avm 시스템 및 운용 방법
JP6825624B2 (ja) 監視システム
JP7569376B2 (ja) 飛行時間情報を用いた三角測量ベースの3次元距離測定の向上
KR101563999B1 (ko) 타이어 재료의 실시간 폭 및 두께 측정 시스템 및 그 제어 방법
JP7251407B2 (ja) センサ設置支援装置、センサ設置支援方法およびプログラム
KR101710131B1 (ko) 터널의 내공변위 측정장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140403

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140624

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140701

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140728

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150226

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150525

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150903

R150 Certificate of patent or registration of utility model

Ref document number: 5806212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250