Nothing Special   »   [go: up one dir, main page]

JP7040147B2 - 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法 - Google Patents

制御装置、ロボット、ロボットシステム,及び、物体を認識する方法 Download PDF

Info

Publication number
JP7040147B2
JP7040147B2 JP2018042505A JP2018042505A JP7040147B2 JP 7040147 B2 JP7040147 B2 JP 7040147B2 JP 2018042505 A JP2018042505 A JP 2018042505A JP 2018042505 A JP2018042505 A JP 2018042505A JP 7040147 B2 JP7040147 B2 JP 7040147B2
Authority
JP
Japan
Prior art keywords
point cloud
control device
image
cloud generation
generation process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018042505A
Other languages
English (en)
Other versions
JP2019158427A (ja
Inventor
正樹 林
知典 真野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2018042505A priority Critical patent/JP7040147B2/ja
Priority to US16/296,320 priority patent/US11126844B2/en
Publication of JP2019158427A publication Critical patent/JP2019158427A/ja
Application granted granted Critical
Publication of JP7040147B2 publication Critical patent/JP7040147B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40442Voxel map, 3-D grid map
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40594Two range sensors for recognizing 3-D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • G06V2201/121Acquisition of 3D measurements of objects using special illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

本発明は、カメラを用いた物体認識技術に関するものである。
ロボットなどの各種の装置において、3次元物体を認識する物体認識技術が利用される。物体認識技術の一つとして、カメラで撮影した画像を用いて物体の深度を計測する方法が利用されている。深度の計測方法としては、ステレオブロックマッチング法や、位相シフト法、空間コード法などの方法が知られている。これらの方法では、物体を認識するために画像を解析して点群を取得する。「点群」とは、3次元座標で位置を表現した点の集合であり、物体の輪郭を構成するものと推定される点の集合である。ステレオブロックマッチング法は、最低一回の撮影で深度計測が可能であるが、点群の位置精度は他の方法に比べて低い。一方、位相シフト法や空間コード法は、複数回の撮像が必要なものの、高精度な点群を生成可能である。
特許文献1には、位相シフト法と空間コード化法という2つの深度計測法を組み合わせることによって、測定可能な高さレンジを大きなものとするとともに、高精度な計測を実現する技術が開示されている。
特開2009-42015号公報
しかしながら、上述した従来技術では、全体の処理が完了するまでに長時間を要するという問題がある。
本発明の一形態によれば、物体の認識を実行する制御装置が提供される。この制御装置は、第1深度計測法に従って前記物体をカメラで撮影することによって第1画像を取得する第1撮像処理と、前記第1画像内の複数の画素の位置を3次元座標で表現した第1点群を生成する第1解析処理と、を含む第1点群生成処理を実行する第1点群生成部と;第2深度計測法に従って前記物体を前記カメラで撮影することによって第2画像を取得する第2撮像処理と、前記第2画像内の複数の画素の位置を前記3次元座標で表現した第2点群を生成する第2解析処理と、を含む第2点群生成処理を実行する第2点群生成部と;前記第1点群もしくは前記第2点群を用いて前記物体を認識する物体認識実行部と、を備える。前記第1点群生成処理は、前記第2点群生成処理よりも短い時間で完了する処理であり、前記第2点群生成部は、前記第1点群生成部による前記第1撮像処理の後に前記第2点群生成処理を開始し、前記第1解析処理で得られた前記第1点群が予め定められた成功条件を満足した場合には、前記第2点群生成処理を中止する。
ロボットシステムの概念図。 複数のプロセッサーを有する制御装置の一例を示す概念図。 複数のプロセッサーを有する制御装置の他の例を示す概念図。 制御装置の機能を示すブロック図。 パーツフィーダーに収容された複数の部品を示す平面図。 第1点群生成処理の説明図。 第2点群生成処理の説明図。 第1実施形態における物体認識処理の手順を示すフローチャート。 第2実施形態における物体認識処理の手順を示すフローチャート。 第3実施形態における物体認識処理の手順を示すフローチャート。
A. 第1実施形態:
図1は、ロボットシステムの概念図である。このロボットシステムは、架台700に設置されており、ロボット100と、ロボット100に接続された制御装置200と、ティーチングペンダント300と、パーツフィーダー400と、ホッパー500と、パーツトレイ600と、投影装置810と、カメラ820とを備えている。ロボット100は、架台700の天板710の下に固定されている。パーツフィーダー400と、ホッパー500と、パーツトレイ600は、架台700のテーブル部720に載置されている。ロボット100は、ティーチングプレイバック方式のロボットである。ロボット100を用いた作業は、予め作成された教示データに従って実行される。このロボットシステムには、直交する3つの座標軸X,Y,Zで規定されるシステム座標系Σsが設定されている。図1の例では、X軸とY軸は水平方向であり、Z軸は鉛直上方向である。教示データに含まれる教示点やエンドエフェクタの姿勢は、このシステム座標系Σsの座標値と各軸回りの角度で表現される。
ロボット100は、基台120と、アーム130とを備えている。アーム130は、4つの関節J1~J4で順次接続されている。これらの関節J1~J4のうち、3つの関節J1,J2,J4はねじり関節であり、1つの関節J3は並進関節である。本実施形態では4軸ロボットを例示しているが、1個以上の関節を有する任意のアーム機構を有するロボットを用いることが可能である。
アーム130の先端部に設けられたアームフランジ132には、エンドエフェクター160が装着されている。図1の例では、エンドエフェクター160は、把持機構164を用いてパーツを把持して拾い上げるグリッパーである。但し、エンドエフェクター160としては、吸着ピックアップ機構などの他の機構を取り付けることも可能である。
パーツフィーダー400は、エンドエフェクター160が把持するパーツを収容する収容装置である。パーツフィーダー400は、パーツを振動させてパーツ同士を分散させる振動機構を有するように構成されていてもよい。ホッパー500は、パーツフィーダー400にパーツを補給するパーツ補給装置である。パーツトレイ600は、パーツを個別に収容するための多数の凹部を有するトレイである。本実施形態において、ロボット100は、パーツフィーダー400の中からパーツを拾い上げて、パーツトレイ600内の適切な位置に収納する作業を実行する。但し、ロボットシステムは、これ以外の他の作業を行う場合にも適用可能である。
制御装置200は、プロセッサー210と、メインメモリー220と、不揮発性メモリー230と、表示制御部240と、表示部250と、I/Oインターフェース260とを有している。これらの各部は、バスを介して接続されている。プロセッサー210は、例えばマイクロプロセッサー又はプロセッサー回路である。制御装置200は、I/Oインターフェース260を介して、ロボット100と、ティーチングペンダント300と、パーツフィーダー400と、ホッパー500とに接続される。制御装置200は、更に、I/Oインターフェース260を介して投影装置810とカメラ820にも接続される。
制御装置200の構成としては、図1に示した構成以外の種々の構成を採用することが可能である。例えば、プロセッサー210とメインメモリー220を図1の制御装置200から削除し、この制御装置200と通信可能に接続された他の装置にプロセッサー210とメインメモリー220を設けるようにしてもよい。この場合には、当該他の装置と制御装置200とを合わせた装置全体が、ロボット100の制御装置として機能する。他の実施形態では、制御装置200は、2つ以上のプロセッサー210を有していてもよい。更に他の実施形態では、制御装置200は、互いに通信可能に接続された複数の装置によって実現されていてもよい。これらの各種の実施形態において、制御装置200は、1つ以上のプロセッサー210を備える装置又は装置群として構成される。
図2は、複数のプロセッサーによってロボットの制御装置が構成される一例を示す概念図である。この例では、ロボット100及びその制御装置200の他に、パーソナルコンピューター1400,1410と、LANなどのネットワーク環境を介して提供されるクラウドサービス1500とが描かれている。パーソナルコンピューター1400,1410は、それぞれプロセッサーとメモリーとを含んでいる。また、クラウドサービス1500においてもプロセッサーとメモリーを利用可能である。これらの複数のプロセッサーの一部又は全部を利用して、ロボット100の制御装置を実現することが可能である。
図3は、複数のプロセッサーによってロボットの制御装置が構成される他の例を示す概念図である。この例では、ロボット100の制御装置200が、ロボット100の中に格納されている点が図2と異なる。この例においても、複数のプロセッサーの一部又は全部を利用して、ロボット100の制御装置を実現することが可能である。
図4は、制御装置200の機能を示すブロック図である。制御装置200のプロセッサー210は、不揮発性メモリー230に予め記憶された各種のプログラム命令231を実行することにより、ロボット制御部211と、パーツフィーダー制御部212と、ホッパー制御部213と、物体認識部270の機能をそれぞれ実現する。
物体認識部270は、カメラ820で撮影された画像を使用して点群を生成する第1点群生成部271及び第2点群生成部272と、生成された点群を使用して物体を認識する物体認識実行部273とを含んでいる。これらの各部の機能については後述する。
不揮発性メモリー230は、プログラム命令231と教示データ232の他に、画像の撮影に使用する各種の投影パターン233と、物体認識に使用する物体の3次元モデルデータ234とを記憶する。
図5は、パーツフィーダー400に複数の部品PPが収容された状態を示す平面図である。本実施形態では、このような複数の同一の部品PPをカメラ820で撮像し、その画像を解析して部品PPを認識する物体認識処理を実行する。認識された部品PPはエンドエフェクター160で把持することが可能である。以下では、部品PPを「物体PP」とも呼ぶ。なお、物体認識処理を、ロボット以外の用途に使用してもよい。
本実施形態において、カメラ820はステレオカメラである。投影装置810は、カメラ820を用いて部品PPを撮影する際に、特定の投影パターンを照射するために設けられている。投影パターンの例については後述する。
本実施形態の物体認識処理には、以下に説明する2種類の点群生成処理を使用する。「点群」とは、画像の画素の位置を3次元座標値X[mm],Y[mm],Z[mm]で表現した点データの集合である。3次元座標としては、カメラ座標系や、システム座標系Σs、ロボット座標系などの任意の座標系を使用できる。
図6は、第1点群生成部271によって実行される第1点群生成処理の説明図である。本実施形態において、第1点群生成処理では、画像の画素の深度を計測する深度計測法として、ステレオブロックマッチング法を使用する。「深度」は、カメラ820からの距離を意味する。
第1点群生成処理では、まず、部品PPを含むステレオ画像である左画像LMと右画像RMを撮影する第1撮影処理が行われる。第1実施形態では、投影装置810を用いて、投影パターンとしてのランダムドットパターンRPを部品PPに投影した状態で撮影を行う。図6では図示の便宜上、ランダムドットパターンRPの画素を比較的大きく描いているが、実際には部品PPのサイズに比べて十分に小さい画素でランダムドットパターンRPが形成される。ランダムドットパターンRPは、部品PPの表面にテクスチャーを付与することによって、部品PPの深度を計測しやすくするために使用される。ランダムドットパターンRPを部品PPに投影した状態で部品PPの画像を撮影すれば、点群をより高精度で取得できる。但し、ランダムドットパターンRPの投影を省略してもよい。
第1点群生成処理では、次に、左画像LMと右画像RMを使用して第1解析処理を実行することによって、第1点群PG1を生成する。第1解析処理では、まず、左画像LMと右画像RMを用い、ステレオブロックマッチング法に従って視差を計算することによって、視差画像DM1を生成する。
視差画像DM1は、ステレオカメラ820の左右の視差を画素値とした画像である。視差Dとステレオカメラ820との距離Zとの関係は、次式で与えられる。
Z=f×T/D …(1)
ここで、fはカメラの焦点距離、Tはステレオカメラ820を構成する2つのカメラの光軸間の距離である。
なお、ステレオブロックマッチング法による視差計算の前に、左画像LMと右画像RMに前処理を行うようにしてもよい。前処理としては、例えば、レンズによる画像の歪みを補正する歪み補正と、左画像LMと右画像RMの向きを平行化する平行化処理とを含む幾何補正が行われる。
第1解析処理では、次に、視差画像DM1から第1点群PG1を生成する。このとき、視差画像DM1の視差Dから上記(1)式に従って算出した距離Zを使用する。前述したように、「点群」は、画像の画素の位置を3次元座標値X[mm],Y[mm],Z[mm]で表現した点データの集合である。なお、視差画像DM1の視差D又は距離Zを用いた点群生成の処理は周知なので、ここではその説明は省略する。
図7は、第2点群生成部272によって実行される第2点群生成処理の説明図である。本実施形態において、第2点群生成処理では、画像の画素の深度を計測する深度計測法として、位相シフト法を使用する。なお、位相シフト法の代わりに、空間コード法などの他の深度計測法を使用することも可能である。良く知られているように、位相シフト法も空間コード法も、複数の投影パターンを1つずつ順に物体に照射しながら複数回の撮影を行って得られた複数の画像を利用する深度計測法である。
第2点群生成処理では、まず、投影装置810を用い、投影パターンとして、複数の位相シフトパターンPH1~PH4を1つずつ選択的に投影した状態で、部品PPを含む複数の位相シフト画像PSM1~PSM4を撮影する第2撮影処理が行われる。複数の位相シフトパターンPH1~PH4は、正弦波状の濃淡を有する縞模様のパターンである。位相シフト法では、一般に、nを3以上の整数として、n枚の位相シフトパターンPH1~PHnを用いて画像の撮影が行われる。n枚の位相シフトパターンPH1~PHnは、2π/nずつ順次ずれた位相を有する正弦波状パターンである。図7の例ではn=4である。なお、位相シフト法では、ステレオカメラを使用する必要は無いので、ステレオカメラを構成する2つのカメラのうちの一方のみを使用して撮影を行えばよい。
第2点群生成処理では、次に、複数の位相シフト画像PSM1~PSM4を使用して第2解析処理を実行することによって、第2点群PG2を生成する。第2解析処理では、まず、複数の位相シフト画像PSM1~PSM4を用い、位相シフト法に従って距離画像DM2を生成する。位相シフト法を使用した距離画像DM2の生成処理は周知なので、ここではその説明は省略する。第2点群処理では、更に、距離画像DM2を用いて第2点群PG2を生成する。
なお、第2点群生成処理では、複数の異なる複数の位相シフトパターンPH1~PHnを1つずつ選択的に投影した状態で複数の位相シフト画像PSM1~PSM4を撮影する第2撮影処理を行う必要があるので、1回の撮影を行えば良い第1点群生成処理に比べて長い処理時間を有する。この点は、空間コード法も同様である。以下で説明する物体認識処理の処理手順は、この点を考慮して全体の処理時間を短縮するように工夫したものである。
図8は、第1実施形態における物体認識処理の手順を示すフローチャートである。この処理は、物体認識部270によって実行される。
ステップS110では、第1点群生成部271が、カメラ820を用いて第1深度計測法のための第1画像を取得する第1撮像処理を実行する。本実施形態において、第1深度計測法はステレオブロックマッチング法であり、ステップS110で、図6で説明した左画像LMと右画像RMが第1画像として取得される。ステップS120では、第1点群生成部271が、第2点群生成部272に対して第2点群生成処理の開始命令を発行する。
第2点群生成部272は、開始命令を受けるとステップS210に進み、図7で説明した第2点群生成処理を開始する。すなわち、ステップS210において第2深度計測法としての位相シフト法のためにn枚の第2画像を撮影し、ステップS220では位相シフト法を使用した第2解析処理を実行することによって第2点群PG2を作成する。
第1点群生成部271は、第2点群生成処理の開始命令の発行後、第1点群生成処理を継続する。すなわち、ステップS130では、ステレオブロックマッチング法を使用した第1解析処理を実行することによって第1点群PG1を生成する。
ステップS140では、第1点群生成部271は、第1点群の点群生成率が予め定めた閾値以上であるか否かを判定する。ここで、「点群生成率」とは、第1点群PG1に含まれる点群の数を、画像の画素数で除した値である。「画像の画素数」は、左画像LMと右画像RMのうちで、視差画像DM1の作成時に基準画像とした方の画像の画素数である。点群に含まれる点は、視差画像DM1から3次元座標値X[mm],Y[mm],Z[mm]を決定できた画素であり、元の画像の画素数よりも少ないのが普通である。第1点群PG1の点群生成率が閾値未満である場合には、第1点群PG1を用いて十分な精度で物体認識を行えない可能性がある。そこで、この場合にはステップS190において第1点群生成処理を中止する。
ステップS190において第1点群生成部271がその処理を中止した場合には、第2点群生成部272は、第2点群生成処理の実行を継続する。そして、ステップS230において、物体認識実行部273が、第2点群PG2を用いて物体としての部品PPの3次元形状を認識する。
点群を用いた物体の3次元形状の認識方法としては、例えば、本願の出願人により開示された特開2017-182274号公報に記載された方法を利用可能である。或いは、"Model Globally, Match Locally: Efficient and Robust 3D Object Recognition", Bertram Drost他, http://campar.in.tum.de/pub/drost2010CVPR/drost2010CVPR.pdf, に記載された方法や、「ベクトルペアマッチングによる高信頼な3次元位置姿勢認識」,秋月秀一, http://isl.sist.chukyo-u.ac.jp/Archives/vpm.pdf, に記載された方法などを利用してもよい。これらの方法は、点群と、物体の3次元モデルデータを使用した物体認識方法である。但し、3次元モデルデータを使用せずに、点群から物体の3次元形状を認識するようにしてもよい。
ステップS240では、物体認識部270が、ステップS230で得られた認識結果を出力する。具体的には、例えば、物体としての部品PPの認識結果が物体認識部270からロボット制御部211に与えられ、ロボット制御部211がこの認識結果を利用して部品PPの把持動作を実行する。
一方、ステップS140において、第1点群PG1の点群生成率が閾値以上であると判定された場合には、第1点群PG1の生成が成功したものと考えることができる。また、この第1点群PG1を用いて十分な精度で物体認識を行える可能性がある。そこで、この場合には、ステップS150において、物体認識実行部273が、第1点群PG1を用いて、物体としての部品PPの3次元形状を認識する。
ステップS160では、第1点群生成部271が、ステップS150で認識した物体の認識数が予め定められた認識数以上であるか否かを判定する。ここで、「物体の認識数」は、3次元形状が認識された物体の個数である。図5のような複数の部品PPを物体として認識する処理の場合には、3次元形状が認識された部品PPの個数が「物体の認識数」となる。物体認識数が閾値以上の場合には、第1点群PG1を用いた物体の認識が十分な精度で行われており、第1点群PG1による物体認識が成功したものと考えることができる。そこで、この場合には、ステップS170において、第1点群生成部271が、第2点群生成部272に対して第2点群生成処理の中止命令を発行する。この中止命令を受けると、第2点群生成部272は、ステップS210又はステップS220において実行している第2点群生成処理を中止する。
このように、第1実施形態では、第1点群生成部271による第1解析処理で得られた第1点群PG1が予め定められた成功条件を満足した場合に、第2点群生成処理を中止する。こうすれば、第1点群生成処理よりも長い処理時間を有する第2点群生成処理を途中で停止することができるので、全体の処理が完了するまでの時間を短縮することが可能である。
なお、第1実施形態における「成功条件」は、(i)第1点群PG1の点群生成率が予め定められた閾値以上であること、及び、(ii)第1点群PG1を用いて認識された物体の認識数が予め定められた閾値以上であること、の2つの条件を含んでいる。但し、これ以外の成功条件を使用してもよい。また、上記条件(i),(ii)のうちの一方のみを成功条件として使用してもよく、或いは、上記条件(i),(ii)の一方又は両方に他の条件を加えたものを成功条件として使用してもよい。なお、成功条件は、第1点群PG1の点群生成率が予め定めた閾値以上であること、を含むように設定することが好ましい。こうすれば、第1点群PG1に含まれる点群の数が十分に多く、第1点群PG1から物体を十分な精度で認識できる可能性が高い場合に第2点群生成処理を中止することになるので、全体の処理時間を大幅に短縮できるという利点がある。
第2点群生成処理の中止命令の発行後、物体認識部270は、ステップS180において、第1点群PG1を用いた認識結果を出力する。具体的には、例えば、物体としての部品PPの認識結果が物体認識部270からロボット制御部211に与えられ、ロボット制御部211がこの認識結果を利用して部品PPの把持動作を実行する。
以上のように、第1実施形態では、第2点群生成部272が第1点群生成部271による第1撮像処理の後に第2点群生成処理を開始し、第1点群生成部271による第1解析処理で得られた第1点群PG1が予め定められた成功条件を満足した場合に第2点群生成処理を中止する。従って、第1点群PG1によって物体を十分な精度で認識できる場合に第2点群生成処理を途中で停止することができ、全体の処理が完了するまでの時間を短縮することが可能である。
また、第1実施形態では、第1深度計測法としてステレオブロックマッチング法を使用し、第2深度計測法として位相シフト法又は空間コード法を使用している。ステレオブロックマッチング法は、比較的短時間で深度を求めることができるという特徴がある。一方、位相シフト法や空間コードは、比較的高精度に深度を求めることができるという特徴がある。位相シフト法や空間コード法は、ステレオブロックマッチング法よりも多くの撮影を必要とするので、第1点群PG1が予め定められた成功条件を満足した場合に第2点群生成処理を中止することによって、全体の処理時間を大幅に短縮できる。
なお、第1深度計測法と第2深度計測法の組み合わせとしては、上述したもの以外の種々の組み合わせを使用することが可能である。例えば、第1深度計測法として位相シフト法を使用し、第2深度計測法として空間コード法を使用してもよい。但し、第1深度計測法を用いた第1解析処理の処理時間が第2深度計測法を用いた第2点群生成処理全体の処理時間よりも短いことが好ましく、特に、第1点群処理生成処理が第2点群生成処理よりも短い時間で完了する処理であることが好ましい。こうすれば、第1点群が予め定められた成功条件を満足した場合に第2点群生成処理を中止することによる処理時間の短縮効果が顕著である。
B. 第2実施形態:
図9は、第2実施形態における物体認識処理の手順を示すフローチャートである。第2実施形態は、図8のステップS160,S170を省略し、ステップS140とステップS150の間にステップS145を追加したものであり、他の処理手順や装置構成は第1実施形態と同じである。
第2実施形態では、ステップS140において第1点群PG1の点群生成率が閾値以上であると判定された場合に、ステップS145において第1点群生成部271が、第2点群生成部272に対して第2点群生成処理の中止命令を発行する。換言すれば、第2実施形態では、第1点群PG1が満たすべき成功条件として、第1点群PG1の点群生成率が予め定められた閾値以上であることのみを使用している。こうすれば、第1実施形態よりも早期に第2点群生成処理を中止することができるので、全体の処理時間を大幅に短縮することが可能である。一方、第1実施形態のように、第1点群PG1が満たすべき成功条件として、(i)第1点群PG1の点群生成率が予め定められた閾値以上であること、及び、(ii)第1点群PG1を用いて認識された物体の認識数が予め定められた閾値以上であること、の2つの条件を含むように成功条件を構成すれば、処理時間を短縮しつつ、物体認識をより確実に行うことができるという利点がある。
C. 第3実施形態:
図10は、第3実施形態における物体認識処理の手順を示すフローチャートである。第3実施形態は、図8のステップS190において第1点群生成処理を中止した場合にステップS230aに進むように手順を変更したものであり、他の処理手順や装置構成は第1実施形態と同じである。
ステップS230aでは、物体認識実行部273が、第1点群PG1と第2点群PG2の両方を用いて物体としての部品PPの3次元形状を認識する。このように、第3実施形態では、第2点群生成処理が中止されることなく第2点群PG2が生成された場合には、第1点群PG1と第2点群PG2の両方を用いて物体の認識を実行するので、高精度で物体を認識できるという利点がある。
なお、第3実施形態は、上述した第2実施形態にも適用可能である。すなわち、図9のステップS190の後に、図10のステップS230aに進むように第2実施形態の処理手順を変更しても良い。
D. 他の実施形態:
本発明は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本発明は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本発明の課題の一部又は全部を解決するために、あるいは、本発明の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
(1)本発明の第1の形態によれば、物体の認識を実行する制御装置が提供される。この制御装置は、第1深度計測法に従って前記物体をカメラで撮影することによって第1画像を取得する第1撮像処理と、前記第1画像内の複数の画素の位置を3次元座標で表現した第1点群を生成する第1解析処理と、を含む第1点群生成処理を実行する第1点群生成部と;第2深度計測法に従って前記物体を前記カメラで撮影することによって第2画像を取得する第2撮像処理と、前記第2画像内の複数の画素の位置を前記3次元座標で表現した第2点群を生成する第2解析処理と、を含む第2点群生成処理を実行する第2点群生成部と;前記第1点群ともしくは前記第2点群の少なくとも一方を用いて前記物体を認識する物体認識実行部と;を備える。前記第1点群生成処理は、前記第2点群生成処理よりも短い時間で完了する処理であり、前記第2点群生成部は、前記第1点群生成部による前記第1撮像処理の後に前記第2点群生成処理を開始し、前記第1解析処理で得られた前記第1点群が予め定められた成功条件を満足した場合には、前記第2点群生成処理を中止する。
この制御装置によれば、第1点群が予め定められた成功条件を満足した場合に第2点群生成処理を中止するので、第1点群によって物体を十分な精度で認識できる場合に第2点群生成処理を途中で停止することができ、全体の処理が完了するまでの時間を短縮することが可能である。
(2)上記制御装置において、前記第1深度計測法は、ステレオブロックマッチング法であるものとしてもよい。
この制御装置によれば、第1深度計測法を用いて深度を比較的短時間で求めることができる。
(3)上記制御装置において、前記第1点群生成部は、ランダムドットパターンを前記物体に投影した状態で前記第1撮像処理を実行するものとしてもよい。
この制御装置によれば、ランダムドットパターンを物体に投影した状態で物体の第1画像を撮影するので、第1点群をより高精度で取得できる。
(4)上記制御装置において、前記第2深度計測法は、位相シフト法又は空間コード法であるものとしてもよい。
この制御装置によれば、第2深度計測法を用いて深度を比較的高精度に求めることができる。
(5)上記制御装置において、前記成功条件は、前記第1点群に含まれる点群の数を前記第1画像の画素数で除した点群生成率が予め定めた閾値以上であること、を含むものとしてもよい。
この制御装置によれば、第1点群に含まれる点群の数が十分に多く第1点群から物体を十分な精度で認識できる場合に第2点群生成処理を中止するので、全体の処理時間を大幅に短縮できる。
(6)上記制御装置において、前記第1画像は同一種類の複数の物体を含み、前記成功条件は、更に、前記第1点群を用いて前記物体認識実行部で認識された物体の数が予め定めた個数閾値以上であること、を含むものとしてもよい。
この制御装置によれば、第1画像に含まれる複数の物体を第1点群から十分な精度で認識できる場合に第2点群生成処理を中止するので、全体の処理時間を大幅に短縮できる。
(7)上記制御装置において、前記第2点群生成処理が中止されることなく前記第2点群が生成された場合には、前記物体認識実行部は、前記第1点群と前記第2点群の両方を用いて前記物体の認識を実行するものとしてもよい。
この制御装置によれば、第1点群と第2点群の両方を用いるので、高精度で物体を認識できる。
(8)本発明の第2形態によれば、物体の認識を実行する制御装置が提供される。この制御装置は、プロセッサーを備える。前記プロセッサーは、第1深度計測法に従って前記物体をカメラで撮影することによって第1画像を取得する第1撮像処理と、前記第1画像内の複数の画素の位置を3次元座標で表現した第1点群を生成する第1解析処理と、を含む第1点群生成処理と;第2深度計測法に従って前記物体を前記カメラで撮影することによって第2画像を取得する第2撮像処理と、前記第2画像内の複数の画素の位置を前記3次元座標で表現した第2点群を生成する第2解析処理と、を含む第2点群生成処理と;前記第1点群もしくは前記第2点群を用いて前記物体を認識する物体認識処理と;を実行する。前記第1点群生成処理は、前記第2点群生成処理よりも短い時間で完了する処理であり、前記プロセッサーは、前記第1撮像処理の後に前記第2点群生成処理を開始し、前記第1解析処理で得られた前記第1点群が予め定められた成功条件を満足した場合には、前記第2点群生成処理を中止する。
この制御装置によれば、第1点群が予め定められた成功条件を満足した場合に第2点群生成処理を中止するので、第1点群によって物体を十分な精度で認識できる場合に第2点群生成処理を途中で停止することができ、全体の処理が完了するまでの時間を短縮することが可能である。
(9)本発明の第3形態によれば、上記制御装置に接続されたロボットが提供される。
このロボットによれば、ロボットが処理対象とする物体の認識を短時間で行うことが可能となる。
(10)本発明の第4形態によれば、ロボットと、前記ロボットに接続された上記制御装置と、を備えるロボットシステムが提供される。
このロボットシステムによれば、ロボットが処理対象とする物体の認識を短時間で行うことが可能となる。
(11)本発明の第4形態によれば、物体の認識を実行する方法が提供される。この方法は、第1深度計測法に従って前記物体をカメラで撮影することによって第1画像を取得する第1撮像処理と、前記第1画像内の複数の画素の位置を3次元座標で表現した第1点群を生成する第1解析処理と、を含む第1点群生成処理を実行する工程と;第2深度計測法に従って前記物体を前記カメラで撮影することによって第2画像を取得する第2撮像処理と、前記第2画像内の複数の画素の位置を前記3次元座標で表現した第2点群を生成する第2解析処理と、を含む第2点群生成処理を実行する工程と;前記第1点群もしくは前記第2点群を用いて前記物体を認識する工程と;を備える。前記第1点群生成処理は、前記第2点群生成処理よりも短い時間で完了する処理であり、前記第1撮像処理の後に前記第2点群生成処理を開始し、前記第1解析処理で得られた前記第1点群が予め定められた成功条件を満足した場合には、前記第2点群生成処理を中止する。
この方法によれば、第1点群が予め定められた成功条件を満足した場合に第2点群生成処理を中止するので、第1点群によって物体を十分な精度で認識できる場合に第2点群生成処理を途中で停止することができ、全体の処理が完了するまでの時間を短縮することが可能である。
100…ロボット、120…基台、130…アーム、132…アームフランジ、160…エンドエフェクター、164…把持機構、200…制御装置、210…プロセッサー、211…ロボット制御部、212…パーツフィーダー制御部、213…ホッパー制御部、220…メインメモリー、230…不揮発性メモリー、231…プログラム命令、232…教示データ、233…投影パターン、234…3次元モデルデータ、240…表示制御部、250…表示部、260…I/Oインターフェース、270…物体認識部、271…第1点群生成部、272…第2点群生成部、273…物体認識実行部、300…ティーチングペンダント、400…パーツフィーダー、500…ホッパー、600…パーツトレイ、700…架台、710…天板、720…テーブル部、810…投影装置、820…カメラ、1400,1410…パーソナルコンピューター、1500…クラウドサービス

Claims (11)

  1. 物体の認識を実行する制御装置であって、
    第1深度計測法に従って前記物体をカメラで撮影することによって第1画像を取得する第1撮像処理と、前記第1画像内の複数の画素の位置を3次元座標で表現した第1点群を生成する第1解析処理と、を含む第1点群生成処理を実行する第1点群生成部と、
    第2深度計測法に従って前記物体を前記カメラで撮影することによって第2画像を取得する第2撮像処理と、前記第2画像内の複数の画素の位置を前記3次元座標で表現した第2点群を生成する第2解析処理と、を含む第2点群生成処理を実行する第2点群生成部と、
    前記第1点群もしくは前記第2点群を用いて前記物体を認識する物体認識実行部と、
    を備え、
    前記第1点群生成処理は、前記第2点群生成処理よりも短い時間で完了する処理であり、
    前記第2点群生成部は、前記第1点群生成部による前記第1撮像処理の後に前記第2点群生成処理を開始し、前記第1解析処理で得られた前記第1点群が予め定められた成功条件を満足した場合には、前記第2点群生成処理を中止する、制御装置。
  2. 請求項1に記載の制御装置であって、
    前記第1深度計測法は、ステレオブロックマッチング法である、
    制御装置。
  3. 請求項2に記載の制御装置であって、
    前記第1点群生成部は、ランダムドットパターンを前記物体に投影した状態で前記第1撮像処理を実行する、制御装置。
  4. 請求項1~3のいずれか一項に記載の制御装置であって、
    前記第2深度計測法は、位相シフト法又は空間コード法である、
    制御装置。
  5. 請求項1~4のいずれか一項に記載の制御装置であって、
    前記成功条件は、前記第1点群に含まれる点群の数を前記第1画像の画素数で除した点群生成率が予め定めた閾値以上であること、を含む、制御装置。
  6. 請求項5に記載の制御装置であって、
    前記第1画像は同一種類の複数の物体を含み、
    前記成功条件は、更に、前記第1点群を用いて前記物体認識実行部で認識された物体の数が予め定めた個数閾値以上であること、を含む、制御装置。
  7. 請求項1~6のいずれか一項に記載の制御装置であって、
    前記第2点群生成処理が中止されることなく前記第2点群が生成された場合には、前記物体認識実行部は、前記第1点群と前記第2点群の両方を用いて前記物体の認識を実行する、制御装置。
  8. 物体の認識を実行する制御装置であって、
    プロセッサーを備え、
    前記プロセッサーは、
    第1深度計測法に従って前記物体をカメラで撮影することによって第1画像を取得する第1撮像処理と、前記第1画像内の複数の画素の位置を3次元座標で表現した第1点群を生成する第1解析処理と、を含む第1点群生成処理と、
    第2深度計測法に従って前記物体を前記カメラで撮影することによって第2画像を取得する第2撮像処理と、前記第2画像内の複数の画素の位置を前記3次元座標で表現した第2点群を生成する第2解析処理と、を含む第2点群生成処理と、
    前記第1点群もしくは前記第2点群を用いて前記物体を認識する物体認識処理と、
    を実行し、
    前記第1点群生成処理は、前記第2点群生成処理よりも短い時間で完了する処理であり、
    前記プロセッサーは、前記第1撮像処理の後に前記第2点群生成処理を開始し、前記第1解析処理で得られた前記第1点群が予め定められた成功条件を満足した場合には、前記第2点群生成処理を中止する、制御装置。
  9. 請求項1~8のいずれか一項に記載の制御装置に接続されたロボット。
  10. ロボットと、
    前記ロボットに接続された請求項1~8のいずれか一項に記載の制御装置と、
    を備えるロボットシステム。
  11. 物体の認識を実行する方法であって、
    第1深度計測法に従って前記物体をカメラで撮影することによって第1画像を取得する第1撮像処理と、前記第1画像内の複数の画素の位置を3次元座標で表現した第1点群を生成する第1解析処理と、を含む第1点群生成処理を実行する工程と、
    第2深度計測法に従って前記物体を前記カメラで撮影することによって第2画像を取得する第2撮像処理と、前記第2画像内の複数の画素の位置を前記3次元座標で表現した第2点群を生成する第2解析処理と、を含む第2点群生成処理を実行する工程と、
    前記第1点群もしくは前記第2点群を用いて前記物体を認識する工程と、
    を備え、
    前記第1点群生成処理は、前記第2点群生成処理よりも短い時間で完了する処理であり、
    前記第1撮像処理の後に前記第2点群生成処理を開始し、前記第1解析処理で得られた前記第1点群が予め定められた成功条件を満足した場合には、前記第2点群生成処理を中止する、方法。
JP2018042505A 2018-03-09 2018-03-09 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法 Active JP7040147B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018042505A JP7040147B2 (ja) 2018-03-09 2018-03-09 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法
US16/296,320 US11126844B2 (en) 2018-03-09 2019-03-08 Control apparatus, robot system, and method of detecting object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018042505A JP7040147B2 (ja) 2018-03-09 2018-03-09 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法

Publications (2)

Publication Number Publication Date
JP2019158427A JP2019158427A (ja) 2019-09-19
JP7040147B2 true JP7040147B2 (ja) 2022-03-23

Family

ID=67844517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018042505A Active JP7040147B2 (ja) 2018-03-09 2018-03-09 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法

Country Status (2)

Country Link
US (1) US11126844B2 (ja)
JP (1) JP7040147B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10977480B2 (en) * 2019-03-27 2021-04-13 Mitsubishi Electric Research Laboratories, Inc. Detection, tracking and 3D modeling of objects with sparse RGB-D SLAM and interactive perception
CN113111900A (zh) * 2020-01-10 2021-07-13 牧今科技 执行用于物体识别的图像分类的方法和系统
US11772271B2 (en) 2020-01-10 2023-10-03 Mujin, Inc. Method and computing system for object recognition or object registration based on image classification
EP4094904B1 (en) * 2020-01-23 2024-05-15 OMRON Corporation Robot system control device, robot system control method, computer control program, and robot system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009047498A (ja) 2007-08-17 2009-03-05 Fujifilm Corp 立体撮像装置および立体撮像装置の制御方法並びにプログラム
US20090115779A1 (en) 2007-11-05 2009-05-07 Alan Shulman Methods and systems for navigation and terrain change detection
JP2012215394A (ja) 2011-03-31 2012-11-08 Dainippon Screen Mfg Co Ltd 三次元計測装置および三次元計測方法
JP2016091065A (ja) 2014-10-29 2016-05-23 富士通株式会社 位置・姿勢推定装置、位置・姿勢推定方法、及び、プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2996067B2 (ja) * 1993-08-06 1999-12-27 村田機械株式会社 三次元計測装置
JP2921496B2 (ja) * 1996-07-15 1999-07-19 三菱電機株式会社 画像処理装置および物体移載装置
JP4931728B2 (ja) 2007-08-08 2012-05-16 シーケーディ株式会社 三次元計測装置及び基板検査機
US10198533B2 (en) * 2013-10-22 2019-02-05 Hexagon Technology Center Gmbh Registration of multiple laser scans
US9619691B2 (en) * 2014-03-07 2017-04-11 University Of Southern California Multi-view 3D object recognition from a point cloud and change detection
US9630324B2 (en) * 2014-03-28 2017-04-25 SKUR, Inc. Enhanced system and method for control of robotic devices
US9616569B2 (en) * 2015-01-22 2017-04-11 GM Global Technology Operations LLC Method for calibrating an articulated end effector employing a remote digital camera
WO2017131838A2 (en) * 2015-11-13 2017-08-03 Flir Systems, Inc. Sonar sensor fusion and model based virtual and augmented reality systems and methods
US9846805B2 (en) * 2016-03-16 2017-12-19 Sportsmedia Technology Corporation Tracking of handheld sporting implements using computer vision
JP2017182274A (ja) 2016-03-29 2017-10-05 セイコーエプソン株式会社 情報処理装置およびコンピュータープログラム
US10366531B2 (en) * 2017-10-24 2019-07-30 Lowe's Companies, Inc. Robot motion planning for photogrammetry
JP6911777B2 (ja) * 2018-01-23 2021-07-28 トヨタ自動車株式会社 動作軌道生成装置
US11221413B2 (en) * 2018-03-14 2022-01-11 Uatc, Llc Three-dimensional object detection
JP2019158691A (ja) * 2018-03-15 2019-09-19 セイコーエプソン株式会社 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法
US10824864B2 (en) * 2018-06-25 2020-11-03 Apple Inc. Plane detection using semantic segmentation
US10369701B1 (en) * 2018-10-30 2019-08-06 Mujin, Inc. Automated package registration systems, devices, and methods
TWI677413B (zh) * 2018-11-20 2019-11-21 財團法人工業技術研究院 用於機械手臂系統之校正方法及裝置
EP3667557B1 (en) * 2018-12-13 2021-06-16 Axis AB Method and device for tracking an object
US11660758B2 (en) * 2019-03-12 2023-05-30 Bear Robotics, Inc. Robots for serving food and/or drinks
KR20200132468A (ko) * 2019-05-17 2020-11-25 삼성전자주식회사 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법
US11657527B2 (en) * 2019-05-28 2023-05-23 X Development Llc Robotic control based on 3D bounding shape, for an object, generated using edge-depth values for the object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009047498A (ja) 2007-08-17 2009-03-05 Fujifilm Corp 立体撮像装置および立体撮像装置の制御方法並びにプログラム
US20090115779A1 (en) 2007-11-05 2009-05-07 Alan Shulman Methods and systems for navigation and terrain change detection
JP2012215394A (ja) 2011-03-31 2012-11-08 Dainippon Screen Mfg Co Ltd 三次元計測装置および三次元計測方法
JP2016091065A (ja) 2014-10-29 2016-05-23 富士通株式会社 位置・姿勢推定装置、位置・姿勢推定方法、及び、プログラム

Also Published As

Publication number Publication date
US11126844B2 (en) 2021-09-21
US20190278991A1 (en) 2019-09-12
JP2019158427A (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
JP7040147B2 (ja) 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP6444027B2 (ja) 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
JP7035657B2 (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
JP6317618B2 (ja) 情報処理装置およびその方法、計測装置、並びに、作業装置
US20190287258A1 (en) Control Apparatus, Robot System, And Method Of Detecting Object
JP2016099257A (ja) 情報処理装置及び情報処理方法
JP2004090183A (ja) 物品の位置姿勢検出装置及び物品取出し装置
JP6193195B2 (ja) 移動支援装置、方法及びプログラム
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JPH055041B2 (ja)
JP2016159387A (ja) 情報処理装置、処理システム、物体移動システム、および、物体移動方法
US20230150142A1 (en) Device and method for training a machine learning model for generating descriptor images for images of objects
JP2015132523A (ja) 位置姿勢計測装置、位置姿勢計測方法及びプログラム
JP7439410B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2020071034A (ja) 三次元計測方法、三次元計測装置、及び、ロボットシステム
Motai et al. SmartView: hand-eye robotic calibration for active viewpoint generation and object grasping
CN114901441B (zh) 机器人系统的控制装置、机器人系统的控制方法、计算机控制程序及机器人系统
JP6285765B2 (ja) 情報処理装置、情報処理方法
JP6904315B2 (ja) 情報処理装置、制御システム、情報処理方法およびプログラム
JP2004362128A (ja) モデル画像照合における3次元姿勢の補正手法
JP7415013B2 (ja) ロボットの構成部材の干渉を検出するロボット装置
US11348280B2 (en) Method and computer readable medium for pose estimation
TW202339917A (zh) 機器人系統
JP2017064844A (ja) プログラム自動生成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R150 Certificate of patent or registration of utility model

Ref document number: 7040147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150