JP2018161692A - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2018161692A JP2018161692A JP2017058864A JP2017058864A JP2018161692A JP 2018161692 A JP2018161692 A JP 2018161692A JP 2017058864 A JP2017058864 A JP 2017058864A JP 2017058864 A JP2017058864 A JP 2017058864A JP 2018161692 A JP2018161692 A JP 2018161692A
- Authority
- JP
- Japan
- Prior art keywords
- holding
- target object
- manipulator
- information
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 117
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000003384 imaging method Methods 0.000 claims abstract description 182
- 230000005484 gravity Effects 0.000 claims description 31
- 230000014759 maintenance of location Effects 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000036544 posture Effects 0.000 description 171
- 238000000034 method Methods 0.000 description 66
- 230000008569 process Effects 0.000 description 43
- 238000012545 processing Methods 0.000 description 33
- 230000002093 peripheral effect Effects 0.000 description 13
- 238000013500 data storage Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000001179 sorption measurement Methods 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 2
- 229920002554 vinyl polymer Polymers 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39295—Learn position correction values to be added to reference values
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39536—Planning of hand motion, grasping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】情報処理装置120は、マニピュレータによる撮像および保持の対象となる対象物体に関する、学習データの生成に必要な学習情報として、対象物体の保持を行うときのマニピュレータの保持位置姿勢と、当該保持位置姿勢における対象物体の保持成否情報とを含む情報を取得する第一の取得手段と、対象物体が撮像された画像を取得する第二の取得手段と、第一の取得手段により取得された学習情報と、第二の取得手段により取得された画像と、第二の取得手段により取得された画像の撮像を行ったときのマニピュレータの撮像位置姿勢とに基づいて学習データを生成する生成手段と、を備える。
【選択図】 図2
Description
そこで、学習データの収集に関連する技術として、仮想的に見えのバリエーションを増やす方法が提案されている。特許文献1には、撮像した画像に拡大縮小や回転などの画像処理を加えることでバリエーションを増やす方法が開示されている。また、非特許文献1には、CG(コンピュータグラフィックス)を用いて仮想的な撮像画像を作成する方法が開示されている。
そこで、本発明は、対象物体を保持するための学習データを容易に生成することを目的としている。
マニピュレータによる撮像および保持の対象となる対象物体に関する、学習データの生成に必要な学習情報として、前記対象物体の保持を行うときの前記マニピュレータの保持位置姿勢と、当該保持位置姿勢における前記対象物体の保持成否情報とを含む情報を取得する第一の取得手段と、前記対象物体が撮像された画像を取得する第二の取得手段と、前記第一の取得手段により取得された学習情報と、前記第二の取得手段により取得された画像と、前記第二の取得手段により取得された画像の撮像を行ったときの前記マニピュレータの撮像位置姿勢とに基づいて前記学習データを生成する生成手段と、を備える。
図1は、本実施形態における情報処理装置120を備える物体認識保持装置2000の構成例を示す図である。本実施形態では、物体認識保持装置2000を、ロボットによる対象物体の認識および保持動作を行うロボットシステムに適用した場合について説明する。
情報処理装置120は、マニピュレータ400による撮像および保持の対象となる対象物体を複数の所定の撮像位置姿勢から撮像した画像に基づいて、学習データ(ラベルを付与した画像)を生成する。ロボットシステム2000は、情報処理装置120により生成された学習データを用いてモデルを機械学習し、学習したモデルを用いて画像中の対象物体を認識して保持動作を行う。本実施形態では、ロボットシステム2000は、ディープラーニングの一種であるCNN(Convolutional Neural Network)によってモデルを学習する。そして、ロボットシステム2000は、学習した学習モデル(CNNモデル)を用いて画像中の対象物体を認識し、対象物体の保持位置姿勢を求め、保持動作を行う。
本実施形態では、情報処理装置120は、所定の撮像位置姿勢にて対象物体が撮像された画像を取得し、取得した画像に対して学習情報を対応付けることで学習データを生成する。このとき、情報処理装置120は、取得した画像の撮像を行ったときのマニピュレータ400の撮像位置姿勢と学習情報として取得した保持位置姿勢とに基づいて、取得した画像に、当該画像おける上記保持位置姿勢と保持成否情報とを対応付ける。ここで、上記の画像における保持位置姿勢は、画像の撮像位置姿勢から見た実際の保持位置姿勢である。つまり、上記の画像における保持位置姿勢は、画像の撮像を行ったときのマニピュレータ400の位置姿勢と、上記の実際に対象物体の保持を行うときのマニピュレータ400の位置姿勢との相対的な位置姿勢情報である。
また、保持位置姿勢は、対象物体を保持するときのマニピュレータ400の位置姿勢であり、例えば保持装置600が吸着機構によって対象物体を吸着する場合、吸着パッドを対象物体に接触させた状態でのマニピュレータ400の位置姿勢をいう。ここで、保持とは、対象物体を把持したり吸着したりする操作であり、その後、対象物体を搬送できる状態にする操作をいう。なお、マニピュレータ400と保持装置600との位置関係が既知である場合、保持位置姿勢として、対象物体を保持するときの保持装置600の位置姿勢を用いてもよい。
また、撮像位置姿勢は、対象物体の画像の撮像を行ったときのマニピュレータ400の位置姿勢である。なお、マニピュレータ400と撮像装置500との位置関係が既知である場合、撮像位置姿勢として、画像の撮像を行ったときの撮像装置500の位置姿勢を用いてもよい。上記画像は、RGBのカラー画像、デプス画像(距離画像)およびモノクロ画像のうち少なくとも1つを含む。
図1に示すように、ロボットシステム2000は、情報処理装置120と、学習装置220と、認識装置320と、マニピュレータ400と、撮像装置500と、光源510と、保持装置600と、を備える。
情報処理装置120は、マニピュレータ400に対して制御値を出力し、マニピュレータ400を制御する。マニピュレータ400は、対象物体1を任意の位置姿勢から撮像したり、対象物体1を操作したりするために、撮像装置500、光源510および保持装置600を移動可能に構成されている。また、情報処理装置120は、撮像装置500に対して撮像トリガー(撮像の指示)を出力し、撮像トリガーを受け取った撮像装置500が撮像した画像を取得することができる。情報処理装置120は、撮像装置500から取得した画像を学習データの生成に用いる。
マニピュレータ400は、例えば、多関節ロボット等により構成することができる。マニピュレータ400は、各関節の角度を変更することで撮像装置500、保持装置600および光源510の位置姿勢を変更可能な位置姿勢変更機構を備える。位置姿勢変更機構は、電動モータによって駆動されてもよいし、油圧や空気圧等の流体圧で作動するアクチュエータによって駆動されてもよい。この位置姿勢変更機構は、情報処理装置120から出力される動作指示情報に従って駆動される。
ロボットシステム2000は、情報処理装置120によって決定された行動を実施し、対象物体1および周辺物体2を撮像したり、対象物体1を保持したり搬送したりする操作を実行する。本実施形態において、行動とは、対象物体1を撮像あるいは操作するためのロボットシステム2000の動作のことである。
なお、撮像装置500は、光源510によって光が投射されていない状態で、対象物体1および周辺物体2の画像を撮像することもできる。撮像装置500および光源510は、図1に示すように、マニピュレータ400に搭載してもよいし、撮像対象空間の上方に固定配置したり、他の作業機械に搭載したりしてもよい。また、撮像装置500および光源510は複数配置してもよい。
図2は、本実施形態における情報処理装置120を備えるロボットシステム2000の構成を示す図である。情報処理装置120は、学習情報取得部121と、目標位置姿勢生成部122と、制御部123と、画像取得部124と、学習データ生成部125と、学習データ蓄積部126と、保持成否判定部127と、を備える。
目標位置姿勢生成部122は、撮像装置500による撮像のためのマニピュレータ400の目標位置姿勢(目標の撮像位置姿勢)や、保持装置600による保持のためのマニピュレータ400の目標位置姿勢(目標の保持位置姿勢)を生成する。これらの目標位置姿勢は、ランダムで生成されてもよいし、設計者(ユーザ)が予め範囲を指定したり、具体的な値を指定したりすることで生成されてもよい。目標位置姿勢生成部122は、生成した目標位置姿勢を制御部123に出力する。
学習情報取得部121は、撮像装置500による撮像時に制御部123がマニピュレータ400から取得した撮像位置姿勢と、保持装置600による保持動作時に制御部123がマニピュレータ400から取得した保持位置姿勢とを取得する。また、学習情報取得部121は、保持成否判定部127による判定結果である保持成否情報を取得する。そして、学習情報取得部121は、取得した保持動作時の保持位置姿勢および保持成否情報を学習情報として学習データ生成部125に出力する。また、学習情報取得部121は、取得した撮像位置姿勢を、学習データの生成に必要な情報として学習データ生成部125に出力する。
なお、本実施形態では、情報処理装置120と、学習装置220と、認識装置320とが別々の装置である場合について説明するが、情報処理装置120が学習装置220および認識装置320の機能を有していてもよい。
情報処理装置120は、CPU11と、ROM12と、RAM13と、外部メモリ14と、表示部15と、入力部16と、通信I/F17と、システムバス18とを備える。
CPU11は、情報処理装置120における動作を統括的に制御するものであり、システムバス18を介して、各構成部(12〜17)を制御する。ROM12は、CPU11が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ14や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM13は、CPU11の主メモリ、ワークエリア等として機能する。つまり、CPU11は、処理の実行に際してROM12から必要なプログラム等をRAM13にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ14は、CPU11がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶することができる。また、外部メモリ14は、CPU11がプログラムを用いた処理を行うことにより得られる各種データや各種情報等を記憶することができる。外部メモリ14は、上記の学習データを保存してもよい。
図2に示す情報処理装置120の各部の機能は、CPU11がプログラムを実行することで実現することができる。ただし、図2に示す情報処理装置120の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU11の制御に基づいて動作する。
以下、ロボットシステム2000の動作について、図4を参照しながら説明する。この図4の処理は、例えばオペレータがロボットシステム2000を起動したときに開始される。ただし、開始のタイミングは、ロボットシステム2000の起動時に限定されるものではない。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS21において、情報処理装置120は、学習データを生成し保存する。学習データ生成処理の詳細については後述する。情報処理装置120が学習データを生成し終えたら、S22に移行する。S22では、学習装置220は、情報処理装置120によって保存された学習データを用いて学習モデルの学習を行い、学習モデルを保存する。この学習モデルを用いることで、対象物体1が撮像された画像を入力として、画像中の対象物体1を保持するためのマニピュレータ400の位置姿勢を得ることができる。つまり、どのような位置姿勢であれば対象物体1の保持が成功しやすいかという情報を得ることができる。
図5は、図4のS21において情報処理装置120が実行する学習データ生成処理の手順を示すフローチャートである。情報処理装置120は、CPU11が必要なプログラムを読み出して実行することにより、図5に示す処理を実現することができる。ただし、上述したように、図2に示す情報処理装置120の各要素のうち少なくとも一部が専用のハードウェアとして動作することで図5の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、情報処理装置120のCPU11の制御に基づいて動作する。
次にS212において、目標位置姿勢生成部122は、撮像のためのマニピュレータ400の目標位置姿勢である目標の撮像位置姿勢を生成し、制御部123に出力する。ここで、目標の撮像位置姿勢は、乱数で決定してもよいし、設計者(ユーザ)が予め固定値で決めておいてもよいし、範囲を指定してその範囲内で乱数により決定してもよいし、これら以外の方法で生成してもよい。例えば、図1に示すように対象物体1を含む物体がバラ積みされている場合、バラ積みされている領域の所定位置を中心した半球状に位置し、当該所定位置付近を注視点とする撮像位置姿勢をランダムに生成してもよい。
S214では、制御部123は、撮像装置500に対して撮像トリガーを出力し、画像取得部124は、撮像装置500から画像を取得する。そして、画像取得部124は、取得した画像を学習データ生成部125に出力する。
S216では、情報処理装置120は、対象物体1の保持動作に移行するか、撮像を継続するかの判定を行う。情報処理装置120は、例えば撮像回数を予め設定しておき、その回数の撮像が行われている場合に、対象物体1の保持動作に移行すると判定することができる。なお、情報処理装置120は、指定範囲内を予め決められた間隔で撮像していき、当該指定範囲内を撮像し尽したら対象物体1の保持動作に移行すると判定するようにしてもよいし、他の判定方法を用いてもよい。情報処理装置120は、撮像を継続すると判定した場合はS212に戻り、対象物体1の保持動作に移行すると判定した場合はS217に移行する。
例えば、対象物体1が平積みされている場合、撮像装置500により撮像した画像を用いて背景差分によって対象物体1の位置姿勢を推定し、その重心位置を吸着位置と決定し、距離画像から吸着位置の高さを求めて、目標の保持位置姿勢を生成してもよい。一方、対象物体1がバラ積みされている場合は、撮像装置500により撮像した画像を用いて平面を検出し、その中で距離が近い位置を吸着するように目標の保持位置姿勢を生成してもよい。また、すでに対象物体1の吸着位置を学習している場合は、生成されている学習モデルを参照することで目標の保持位置姿勢を生成してもよい。さらに、これら以外の方法で対象物体1を認識し、目標の保持位置姿勢を生成してもよい。
一方、保持装置600が把持装置である場合は、保持成否判定部127は、把持幅を評価することで保持成否判定を行う。具体的には、保持成否判定部127は、保持動作実行時に把持幅を計測し、把持幅が対象物体1の大きさに合致するようであれば保持成功と判定する。そして、把持幅が閉じ過ぎていたり開きすぎている場合は、何も保持できていなかったり、目標とは異なる物体を保持していたり、意図しない状態で保持していたりする可能性があるので保持失敗と判定する。このように、保持成否判定部127は、保持成否を判定し、その結果を保持成否情報として学習情報取得部121に出力する。
S222では、学習データ生成部125は、S220およびS221において学習情報取得部121から取得した学習情報と、S214において画像取得部124から取得した画像との対応付けを行い、学習データを生成する。そして、学習データ生成部125は、生成した学習データを学習データ蓄積部126に出力する。以下、学習データの生成方法について具体的に説明する。
本実施形態では、学習データの生成に際し、図6に示すように、それぞれの座標系を設定する。つまり、撮像装置500の座標系をΣc、マニピュレータ400の座標系をΣr、マニピュレータ400の先端座標系Σt、保持装置600の座標系をΣf、作業空間内で基準となる座標系として、ワールド座標系Σwを設定する。そして、ワールド座標系Σwからマニピュレータ座標系Σrまでの変位を(RX,RY,RZ)とし、マニピュレータ400の姿勢を表す3×3の回転行列をRMとする。
また、マニピュレータ座標系Σrから撮像装置座標系Σcまでの変位は(CX,CY,CZ)、撮像装置500の姿勢を表す3×3の回転行列はCMとする。さらに、撮像装置座標系Σcから対象物体座標系Σoまでの変位は(OX,OY,OZ)、対象物体1の姿勢を表す3×3の回転行列はOMとする。また、ワールド座標系Σwから見た対象物体1の変位は(WX,WY,WZ)、姿勢を表す3×3の回転行列はWMとする。
なお、本実施形態では、撮像装置500と保持装置600とが同一のマニピュレータ400に設置されているが、撮像装置500を移動可能なマニピュレータと保持装置600を移動可能なマニピュレータとが異なる場合にも適用可能である。
また、情報処理装置120は、対象物体1を撮像する所定の撮像位置姿勢を決定し、決定された撮像位置姿勢となるように、マニピュレータ400を制御して撮像装置500を移動し、撮像装置500に撮像を指示する。そして、情報処理装置120は、上記所定の撮像位置姿勢にて対象物体1が撮像された画像を取得し、取得された画像と学習情報とに基づいて学習データを生成する。
次に、本発明の第二の実施形態について説明する。
上述した第一の実施形態では、情報処理装置120が認識装置320による認識・保持動作の前に学習データを生成する場合について説明した。この第二の実施形態では、さらに認識装置320の認識・保持動作中(ランタイム時)にも学習データを生成する場合について説明する。
(システム構成)
本実施形態におけるロボットシステム2000の構成は、図1の構成と同様である。
(装置の構成)
本実施形態における情報処理装置120の構成は、図2に示す構成と同様である。ただし、本実施形態では、認識装置320の構成が第一の実施形態とは異なる。認識装置320は、撮像装置500から画像を取得し、学習装置220に保存された学習モデルを参照して画像中の対象物体を認識し、当該対象物体を保持するための目標位置姿勢(目標の保持位置姿勢)を生成する。そして、認識装置320は、生成された目標の保持位置姿勢にマニピュレータ400を移動するようマニピュレータ400を制御し、保持装置600に保持動作を行わせる。本実施形態では、認識装置320は、保持装置600が保持動作を行うまでのマニピュレータ400の移動中にも、対象物体1および周辺物体2の撮像を複数回行い、撮像された画像を用いて学習データを生成する。
本実施形態のロボットシステム2000による認識処理の流れは、図4と同様である。ただし、図4のS23の処理が上述した第一の実施形態とは異なる。
図7は、図4のS23において認識装置320が実行する認識・保持動作処理の手順を示すフローチャートである。認識装置320のハードウェア構成は、図3に示す情報処理装置120のハードウェア構成と同様であり、認識装置320のCPUが必要なプログラムを読み出して実行することにより、図7に示す処理を実現することができる。ただし、認識装置320の各要素のうち少なくとも一部が専用のハードウェアとして動作することで図7の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、認識装置320のCPU11の制御に基づいて動作する。
ここで、図7のS231〜S235およびS239〜S244の処理は、図5のS211〜S215およびS219〜S224の処理と同様であるため、以下、処理内容が異なる部分を中心に説明する。
このとき、目標の保持位置姿勢への移動が最短距離になったり最短時間になったりするようにマニピュレータ400の軌跡が生成されてもよいが、より多くの撮像画像が得られるようにマニピュレータ400の軌跡を生成してもよい。例えば、対象物体1を中心にして多くの位置姿勢から撮像できるような軌跡を決定してもよいし、他の方法で軌跡を決定してもよい。
S238aでは、認識装置320は、図7のS237において生成された目標位置姿勢のうちの1つを選択し、マニピュレータ400を選択された目標位置姿勢に移動する。ただし、このとき、目標の保持位置姿勢は最後に選択されるようにする。S238bでは、認識装置320は、マニピュレータ400がS238aにおいて選択された目標位置姿勢に移動された状態で、撮像装置500に対して撮像トリガーを出力し、撮像トリガーを受け取った撮像装置500が撮像した画像を取得する。S238cでは、認識装置320は、S238bにおいて取得された画像の撮像位置姿勢を取得する。
S238dでは、認識装置320は、マニピュレータ400が目標の保持位置姿勢に達しているか否かを判定する。そして、マニピュレータ400が目標の保持位置姿勢に達している場合はS238eに移行し、認識装置320は、保持装置600に対象物体1の保持動作を行わせる。一方、認識装置320は、S238dにおいてマニピュレータ400が目標の保持位置姿勢に達していないと判定すると、引き続きマニピュレータ移動動作を行うとしてS238aに戻る。つまり、認識装置320は、S237において生成された目標位置姿勢のうち、撮像動作が行われていない目標位置姿勢にマニピュレータ400を移動し、画像の取得と撮像位置姿勢の取得とを行う。この処理は、マニピュレータ400が目標の保持位置姿勢に達するまで繰り返し行われる。
なお、図7において、S232の撮像位置姿勢の生成およびS233の撮像動作のためのマニピュレータ制御は、マニピュレータ400が対象物体1を撮像可能な位置姿勢にある場合、必ずしも実行しなくてよい。また、S235の撮像位置姿勢の取得は、図8のS238cにおいて撮像位置姿勢が取得されるため、必ずしも実行しなくてもよい。さらに、本実施形態では、保持位置姿勢が決定された後に学習データ生成のための撮像を行う場合について説明したが、保持位置姿勢が決定される前にも撮像を行い、学習データ生成に用いる画像を取得するようにしてもよい。
このように、認識装置320は、対象物体1の認識・保持を行うランタイム時に、学習データの生成に必要な学習情報と学習に用いる画像とを取得し、学習データを生成することができる。したがって、効率的に学習データを生成することができ、学習データを生成する時間の短縮が図れる。
次に、本発明の第三の実施形態について説明する。
上述した第一の実施形態および第二の実施形態では、画像に対して保持位置姿勢と保持成否情報とを対応付けて学習データを生成する場合について説明した。この第三の実施形態では、さらに画像における重力方向を示す重力方向情報を対応付けて学習データを生成する場合について説明する。
図9は、本実施形態におけるロボットシステム2000Aの構成を示すブロック図である。この図9において、図2と同様の構成を有する部分には図2と同一符号を付し、以下、構成の異なる部分を中心に説明する。
ロボットシステム2000Aは、情報処理装置120Aを備える。情報処理装置120Aは、図2に示す情報処理装置120に、重力方向情報取得部128が追加された構成を有する。また、図2の学習データ生成部125、学習データ蓄積部126、学習装置220および認識装置320は、処理内容が異なる学習データ生成部129、学習データ蓄積部130、学習装置220Aおよび認識装置320Aに置換されている。
また、ロボットシステム2000Aは、マニピュレータ400の姿勢を計測する姿勢センサ700を新たに備える。
上述した第一の実施形態および第二の実施形態では、画像に対して保持位置姿勢と保持成否情報とを対応付けて学習データを生成した。そのため、マニピュレータ400と対象物体1との相対的な位置姿勢情報のみが考慮されていた。
しかしながら、対象物体1が画像に同じように写っていたとしても、対象物体1が上から撮像されて壁に接しているのか、あるいは横から撮像されて床に置かれているのかといった、画像からは状況を判断するのが困難な場合がある。上から撮像されているならば、上から吸着すればピッキングできるが、横から撮像されている場合、横から吸着すると搬送中に落下してしまうなどといった違いが生じる可能性がある。このように、画像だけで判断すると同じような状況であっても、姿勢が異なっていることでより良いピッキング方法が異なる場合がある。
姿勢センサ700は、ジャイロセンサ、加速度センサなどにより構成され、マニピュレータ400の姿勢を計測して、情報処理装置120Aへ姿勢情報を出力する。姿勢センサ700は、マニピュレータ400の姿勢を計測可能な位置に取り付けられる。例えば、姿勢センサ700は、マニピュレータ400のベースや、マニピュレータ400の先端に取り付けることができる。姿勢センサ700がマニピュレータ400先端に取り付けられている場合、マニピュレータ400の位置姿勢情報を用い、マニピュレータ400のベースの座標に変換するようにしてもよい。なお、姿勢センサ700は、マニピュレータ400との位置姿勢関係が一意に求まるのであれば、マニピュレータ400に直接取り付けられていなくてもよい。
そして、学習データ生成部129は、画像に対して保持位置姿勢および保持成否情報を対応付けると同時に、その画像における重力方向情報を対応付ける。学習データ蓄積部130は、画像と、当該画像の重力方向情報と、当該画像における保持位置姿勢と、保持成否情報との組により構成される学習データを蓄積する。また、学習装置220Aは、学習データ蓄積部130によって蓄積された上記の学習データをCNNモデル(学習モデル)の学習に用い、認識装置320Aは、学習装置220Aに保存された学習モデルを用いて対象物体1の認識・保持動作を行う。
本実施形態のロボットシステム2000Aによる認識処理の流れは、図4と同様である。ただし、各処理の内容は上述した第一の実施形態とは異なる。
図10は、図4のS21に対応するステップにおいて情報処理装置120Aが実行する学習データ生成処理の手順を示すフローチャートである。この図10の処理は、図5のS215の後にS225の処理が追加され、S222およびS223の処理がS222aおよびS223aの処理に置換されていることを除いては、図5の処理と同様である。したがって、図5と同一処理を実行する部分には図5と同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
これにより、マニピュレータ400と対象物体1との相対的な位置姿勢情報に加えて、絶対的な位置姿勢情報も対応付けて学習データを生成することができる。このように、学習に用いる画像に対して重力方向情報も付加することで、マニピュレータ400の姿勢が変化する場合であっても、画像だけでは分からない状況を踏まえてより良い保持位置姿勢を学習することができ、保持成功率を向上させることができる。
本実施形態においては、姿勢センサ700により取得した重力方向情報を用いる場合について説明したが、他のセンサからの他の情報を用いてもよい。例えば、磁気センサを用いて磁場の情報を取得し、画像と対応付けてもよい。
次に、本発明の第四の実施形態について説明する。
上述した第一の実施形態から第三の実施形態では、学習データ生成の際の保持動作実行時、単純にマニピュレータ400を目標の保持位置姿勢に移動して保持動作を行う場合について説明した。この第四の実施形態では、上記の保持動作実行時に、保持装置600の物体との接触情報を取得し、その接触情報に基づいて保持動作を行う場合について説明する。
図11は、本実施形態におけるロボットシステム2000Bの構成を示すブロック図である。この図11において、図2と同様の構成を有する部分には図2と同一符号を付し、以下、構成の異なる部分を中心に説明する。
ロボットシステム2000Bは、情報処理装置120Bを備える。情報処理装置120Bは、図2に示す情報処理装置120に、力覚情報取得部131が追加された構成を有する。また、図2の制御部123は、処理内容が異なる制御部132に置換されている。
また、ロボットシステム2000Bは、マニピュレータ400が対象物体1を保持するときの力覚情報を計測する力覚センサ800を新たに備える。
そこで、本実施形態では、マニピュレータ400の先端で保持装置600の根本にあたる部分に力覚センサ800を取り付け、保持動作実行時に、保持装置600が対象物体1に接触したかどうかを判定する。そして、その判定結果を用いて、上記の対象物体1の認識の誤差に起因する目標の保持位置姿勢のずれを修正するようにする。
本実施形態のロボットシステム2000Bによる認識処理の流れは、図4と同様である。また、図4のS21では、図5と同様の処理を実行する。ただし、図5のS218の処理の内容は上述した第一の実施形態とは異なる。S218の処理は、制御部132が、保持動作のためにマニピュレータ400を制御する処理である。以下、S218における処理の詳細について、図12を参照しながら説明する。
まずS218aにおいて、制御部132は、マニピュレータ400を制御し、図5のS217において生成された保持位置姿勢に向けて移動する。次にS218bでは、力覚情報取得部131は、力覚センサ800から力覚情報を取得する。S218cでは、制御部132は、マニピュレータ400の保持位置姿勢を取得する。
制御部132は、S218dにおいて、マニピュレータ400が目標の保持位置姿勢に達しており、かつ保持装置600が物体に接触していると判定されてS218eに移行してきた場合は、保持動作を実施すると判定する。また、制御部132は、マニピュレータ400が目標の保持位置姿勢に達していないが、取得された力覚情報が予め設定した値を上回っていたためにS218eに移行してきた場合にも、対象物体1を保持できる状態にあるとして保持動作を実施すると判定する。
制御部132は、このS218eにおいてマニピュレータ400による保持動作を実施すると判定した場合、S218fに移行し、保持装置600を制御して対象物体1の保持動作を行わせる。
これにより、情報処理装置120Bは、マニピュレータ400が保持動作のための目標の保持位置姿勢に達する前に対象物体1に接触した場合や、目標の保持位置姿勢に達しているにもかかわらず対象物体1に接触していない場合を判定することができる。つまり、情報処理装置120Bは、目標の保持位置姿勢が対象物体1を保持可能な位置姿勢であるか否かを判定することができる。
このように、情報処理装置120Bは、力覚センサ800から得られる力覚情報(接触情報)をもとに、対象物体1の保持成功率の高い保持位置姿勢を決定し、学習情報として取得する。つまり、情報処理装置120Bは、学習情報(保持位置姿勢)の修正・補完を行うことができる。したがって、目標の保持位置姿勢が実際に対象物体1を保持可能な位置姿勢からずれている場合であっても、保持動作が成功する保持位置姿勢において保持動作を実施することができ、保持成功の学習情報を効率的に集めることができる。その結果、学習時間を短縮することができる。
本実施形態においては、学習情報を修正・補完するために、力覚センサ800から取得した力覚情報を用いる場合について説明したが、他のセンサからの他の情報を用いて学習情報を修正・補完してもよい。例えば、近接センサを用いて近接覚情報を取得し、学習情報を修正・補完してもよい。
上記各実施形態においては、撮像装置500がRGBのカラー画像とデプス画像とを取得する場合について説明したが、撮像装置500は、モノクロ画像を取得する装置であってよい。また、撮像装置500は、赤外線画像を取得する装置であってもよい。
また、上記各実施形態においては、マニピュレータ400が多関節ロボットである場合について説明したが、マニピュレータ400は、撮像装置500および対象物体の少なくとも一方を移動可能であればよい。つまり、マニピュレータ400は、6軸ロボットやパラレルリンクロボットであってもよいし、直交ロボットであってもよい。また、マニピュレータ400は、ロボット以外の移動機構であってもよい。
また、上記各実施形態においては、ディープラーニングの一種であるCNNを学習して、認識器を構成する場合について説明したが、上記に限定されるものではない。特徴量としては、LBP(Local Binary Pattern)を用いてもよいし、BoF(Bag of Features)などを用いてもよい。また、識別器としては、決定木を用いてもよいし、SVM(Support Vector Machine)などを用いてもよい。
また、上記各実施形態においては、学習対象は、画像における保持位置姿勢としたが、保持可能な位置姿勢が存在しなかった場合、次の撮像候補となる位置姿勢を学習対象としてもよい。こうすることで、保持可能な位置姿勢が判定できない場合でも、別の撮像位置姿勢から保持位置姿勢を求められる可能性が高まる。
また、上記各実施形態においては、情報処理手段120は、光源510を制御し、撮像時における照明の状態を制御してもよい。例えば、同じ撮像位置姿勢においても、光源510のオン、オフや、光源510からの光の強弱の状態などを変化させて、より多くの状況を撮像してもよい。さらに、光源510に同軸照明を用いることで、異なる位置姿勢から撮像しても、対象物体1が同じように撮像できるようにしてもよい。
また、上記各実施形態においては、保持位置姿勢として学習するのは、必ずしもマニピュレータ400の位置姿勢でなくてもよい。例えば、対象物体1の底面が平面の上に置かれているような場合は、保持位置と法線方向だけでもよい。
さらに、上記各実施形態においては、保持装置600は対象物体1を保持可能な構成であれば、任意の装置を用いることができる。例えば、保持装置600は、吸着装置であってもよいし、開閉ハンドのような把持装置であってもよい。保持装置600が吸着装置である場合、保持位置姿勢は、吸着装置が対象物体1に接触する点とすればよいし、保持装置600が把持装置である場合は、保持位置姿勢は、把持中心と把持方向とすればよい。
さらに、上記各実施形態においては、保持成否は、対象物体1を保持できたか否かだけで判断する場合について説明したが、タスクとしての成否結果をもって判断してもよい。保持は成功でも、タスクとして失敗のため保持成否結果を失敗と判断する例の一つとしては、対象物体1が箱に入っており、対象物体1の保持には成功したものの、保持後に箱がずれてしまうような場合がある。この場合、箱にマーカーを付けておき、マーカーを認識することで箱のずれを求め、許容範囲以上に箱がずれている場合は保持失敗と判断し、教師信号として与える保持成否情報は失敗とする。また、対象物体1が箱に入っており、対象物体1の保持には成功したものの、対象物体1を持ち上げる際に、箱の中の対象物体1以外のものが落下したり、箱の中の対象物体1以外のものに過剰な力がかかって壊れたりするような場合も同様である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (18)
- マニピュレータによる撮像および保持の対象となる対象物体に関する、学習データの生成に必要な学習情報として、前記対象物体の保持を行うときの前記マニピュレータの保持位置姿勢と、当該保持位置姿勢における前記対象物体の保持成否情報とを含む情報を取得する第一の取得手段と、
前記対象物体が撮像された画像を取得する第二の取得手段と、
前記第一の取得手段により取得された学習情報と、前記第二の取得手段により取得された画像と、前記第二の取得手段により取得された画像の撮像を行ったときの前記マニピュレータの撮像位置姿勢とに基づいて前記学習データを生成する生成手段と、を備えることを特徴とする情報処理装置。 - 前記学習データは、前記第二の取得手段により取得された画像と教師信号となるラベルとの組であり、
前記ラベルは、前記画像の撮像を行ったときの前記マニピュレータの撮像位置姿勢と前記対象物体の保持を行うときの前記マニピュレータの保持位置姿勢との相対的な位置姿勢情報と、前記保持成否情報とを含むことを特徴とする請求項1に記載の情報処理装置。 - 前記対象物体の保持を行うための目標の保持位置姿勢を決定する第一の決定手段と、
前記第一の決定手段により決定された保持位置姿勢に基づいて、前記マニピュレータを移動し、保持を指示する第一の制御手段と、
前記対象物体の保持の成否を判定する判定手段と、をさらに備え、
前記第一の取得手段は、
前記第一の制御手段により保持が指示されたときの前記マニピュレータの位置姿勢を前記保持位置姿勢として取得し、前記判定手段による判定の結果を前記保持成否情報として取得することを特徴とする請求項1または2に記載の情報処理装置。 - 前記第一の取得手段は、
前記マニピュレータの前記対象物体との接触情報に基づいて前記保持位置姿勢を取得することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。 - 前記第一の制御手段は、
前記マニピュレータの前記対象物体との接触情報に基づいて前記対象物体を保持可能であると判定したときに、前記保持を指示することを特徴とする請求項3に記載の情報処理装置。 - 前記第二の取得手段により取得された画像における重力方向を示す重力方向情報を取得する第三の取得手段をさらに備え、
前記生成手段は、さらに前記第三の取得手段により取得された重力方向情報に基づいて前記学習データを生成することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。 - 前記対象物体を撮像するための目標の撮像位置姿勢を決定する第二の決定手段と、
前記第二の決定手段により決定された撮像位置姿勢に基づいて、前記対象物体を撮像する撮像装置および前記対象物体の少なくとも一方を移動し、前記撮像装置に撮像を指示する第二の制御手段と、をさらに備えることを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。 - 前記第二の決定手段は、
ユーザが指定した撮像位置姿勢の範囲内で前記目標の撮像位置姿勢を決定することを特徴とする請求項7に記載の情報処理装置。 - 前記第二の制御手段は、さらに前記撮像装置による前記対象物体の撮像時における照明の状態を制御することを特徴とする請求項7または8に記載の情報処理装置。
- 前記生成手段により生成された学習データを用いてモデルを学習する学習手段と、
前記学習手段により学習されたモデルに基づいて、画像中の前記対象物体を認識し、認識された前記対象物体を保持の対象として決定する認識手段と、をさらに備えることを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。 - 前記認識手段は、
前記画像を入力とし、前記学習手段により学習されたモデルに基づいて、前記第一の取得手段によって取得される前記保持位置姿勢と、前記第二の取得手段によって取得される画像の撮像を行う前記撮像位置姿勢とを決定することを特徴とする請求項10に記載の情報処理装置。 - 前記第一の取得手段は、前記マニピュレータによる複数回の撮像の対象となる前記対象物体に関する前記学習情報として、前記保持位置姿勢と、前記保持成否情報とを含む情報を取得し、
前記第二の取得手段は、前記対象物体が複数回撮像された複数の画像を取得し、
前記生成手段は、前記第一の取得手段により取得された学習情報と、前記第二の取得手段により取得された複数の画像と、前記撮像位置姿勢とに基づいて、前記学習データを生成することを特徴とする請求項1から11のいずれか1項に記載の情報処理装置。 - 前記対象物体を撮像する撮像装置と、
前記撮像装置を移動可能な前記マニピュレータと、をさらに備えることを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。 - 前記マニピュレータの姿勢を取得する姿勢センサをさらに備えることを特徴とする請求項13に記載の情報処理装置。
- 前記対象物体を保持可能な保持装置と、
前記保持装置を移動可能な前記マニピュレータと、をさらに備えることを特徴とする請求項1から14のいずれか1項に記載の情報処理装置。 - 前記保持装置が物体に接触したときの反力を取得する力覚センサをさらに備えることを特徴とする請求項15に記載の情報処理装置。
- マニピュレータによる撮像および保持の対象となる対象物体に関する、学習データの生成に必要な学習情報として、前記対象物体の保持を行うときの前記マニピュレータの保持位置姿勢と、当該保持位置姿勢における前記対象物体の保持成否情報とを含む情報を取得するステップと、
前記対象物体が撮像された画像を取得するステップと、
前記学習情報と、前記画像と、前記画像の撮像を行ったときの前記マニピュレータの撮像位置姿勢とに基づいて前記学習データを生成するステップと、を含むことを特徴とする情報処理方法。 - コンピュータを、請求項1から16のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017058864A JP6983524B2 (ja) | 2017-03-24 | 2017-03-24 | 情報処理装置、情報処理方法およびプログラム |
US15/927,670 US10839261B2 (en) | 2017-03-24 | 2018-03-21 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017058864A JP6983524B2 (ja) | 2017-03-24 | 2017-03-24 | 情報処理装置、情報処理方法およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018161692A true JP2018161692A (ja) | 2018-10-18 |
JP2018161692A5 JP2018161692A5 (ja) | 2020-05-07 |
JP6983524B2 JP6983524B2 (ja) | 2021-12-17 |
Family
ID=63581131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017058864A Active JP6983524B2 (ja) | 2017-03-24 | 2017-03-24 | 情報処理装置、情報処理方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10839261B2 (ja) |
JP (1) | JP6983524B2 (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020095805A1 (ja) * | 2018-11-09 | 2020-05-14 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP2020075340A (ja) * | 2018-11-08 | 2020-05-21 | 株式会社東芝 | 作動システム、制御装置、およびプログラム |
JP2020078852A (ja) * | 2018-11-14 | 2020-05-28 | 旭鉄工株式会社 | 学習システム、及びロボット位置調整システム |
JP2020082315A (ja) * | 2018-11-29 | 2020-06-04 | オムロン株式会社 | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム |
KR20200077145A (ko) * | 2018-12-20 | 2020-06-30 | 전자부품연구원 | 혼재 환경에서의 머니퓰레이터 제어장치, 시스템 및 방법 |
KR20200103421A (ko) * | 2019-02-25 | 2020-09-02 | 군산대학교산학협력단 | 기억 모델을 형성하는 방법 및 장치 |
WO2020184101A1 (ja) * | 2019-03-13 | 2020-09-17 | 日本電気株式会社 | 情報処理装置、駆動制御方法およびプログラム記憶媒体 |
WO2020194392A1 (ja) * | 2019-03-22 | 2020-10-01 | connectome.design株式会社 | 自律型ロボット用教師データ生成コンピュータ、方法及びプログラム |
JP2020163502A (ja) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | 物体検出方法、物体検出装置およびロボットシステム |
JP2020166371A (ja) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | 情報処理方法、情報処理装置、物体検出装置およびロボットシステム |
JP2021010984A (ja) * | 2019-07-08 | 2021-02-04 | 株式会社リコー | ロボットおよび機械学習方法 |
JP2021071878A (ja) * | 2019-10-30 | 2021-05-06 | ファナック株式会社 | アノテーション装置 |
WO2021166939A1 (ja) * | 2020-02-19 | 2021-08-26 | ファナック株式会社 | 学習用データセット生成装置および学習用データセット生成方法 |
US11396101B2 (en) | 2018-11-08 | 2022-07-26 | Kabushiki Kaisha Toshiba | Operating system, control device, and computer program product |
WO2022208843A1 (ja) * | 2021-04-01 | 2022-10-06 | 日本電信電話株式会社 | 学習データ処理装置、学習データ処理方法及び学習データ処理プログラム |
DE112021008134T5 (de) | 2021-10-25 | 2024-07-11 | Fanuc Corporation | Vorrichtung zum Erzeugen von Lerndaten, Verfahren zum Erzeugen von Lerndaten sowie Vorrichtung für maschinelles Lernen und Verfahren für maschinelles Lernen mithilfe von Lerndaten |
KR102690487B1 (ko) * | 2023-11-29 | 2024-07-31 | 문성훈 | 스마트 비젼 기술이 적용된 물류 이송 기능을 제공하는 병렬로봇 시스템 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3432099B1 (en) * | 2017-07-20 | 2021-09-01 | Siemens Aktiengesellschaft | Method and system for detection of an abnormal state of a machine |
CN111656883B (zh) * | 2018-02-09 | 2021-07-30 | 株式会社富士 | 元件图像识别用学习完成模型生成系统及方法 |
JP7044047B2 (ja) * | 2018-12-14 | 2022-03-30 | トヨタ自動車株式会社 | ロボット |
CN113727819A (zh) | 2019-02-22 | 2021-11-30 | 聪慧公司 | 非刚性包装中软体产品的机器人搬运 |
DE102019107969B3 (de) * | 2019-03-28 | 2020-08-06 | Franka Emika Gmbh | Lagewinkelanzeige beim manuellen Führen eines Robotermanipulators |
US11389957B2 (en) | 2019-09-30 | 2022-07-19 | Mitsubishi Electric Research Laboratories, Inc. | System and design of derivative-free model learning for robotic systems |
JP7358257B2 (ja) * | 2020-01-28 | 2023-10-10 | 住友重機械工業株式会社 | 制御プログラム生成装置、制御プログラム生成方法、ロール・ツー・ロール搬送システム |
WO2021178873A1 (en) * | 2020-03-06 | 2021-09-10 | Embodied Intelligance Inc. | Imaging process for detecting failure modes |
CN111906782B (zh) * | 2020-07-08 | 2021-07-13 | 西安交通大学 | 一种基于三维视觉的智能机器人抓取方法 |
JP7397208B2 (ja) * | 2020-08-20 | 2023-12-12 | ファナック株式会社 | ロボット制御システム |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10249767A (ja) * | 1997-03-13 | 1998-09-22 | Mitsubishi Electric Corp | 移動型物体把持装置及びその制御方法 |
JP2001019165A (ja) * | 1999-07-02 | 2001-01-23 | Murata Mach Ltd | ワークピッキング装置 |
US20020193909A1 (en) * | 2001-06-04 | 2002-12-19 | Parker Robert H. | Integrated robotic cell |
JP2011110629A (ja) * | 2009-11-24 | 2011-06-09 | Idec Corp | ロボット制御方法およびロボット制御システム |
JP2011198349A (ja) * | 2010-02-25 | 2011-10-06 | Canon Inc | 情報処理方法及びその装置 |
JP2012101320A (ja) * | 2010-11-10 | 2012-05-31 | Canon Inc | 画像生成装置、画像生成方法、およびプログラム |
JP2013529554A (ja) * | 2010-06-24 | 2013-07-22 | ゼンロボティクス オイ | ロボットシステムにおける物理的な物体の選択のための方法 |
JP2016196077A (ja) * | 2015-04-06 | 2016-11-24 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2016203293A (ja) * | 2015-04-21 | 2016-12-08 | 株式会社豊田自動織機 | ピッキング装置およびピッキング方法 |
JP2017030135A (ja) * | 2015-07-31 | 2017-02-09 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
JP2017039184A (ja) * | 2015-08-19 | 2017-02-23 | 富士通株式会社 | ロボット |
JP2017047505A (ja) * | 2015-09-02 | 2017-03-09 | トヨタ自動車株式会社 | 把持可否判定方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5361664B2 (ja) * | 2009-10-30 | 2013-12-04 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP2012088787A (ja) | 2010-10-15 | 2012-05-10 | Canon Inc | 画像処理装置、画像処理方法 |
JP5787642B2 (ja) * | 2011-06-28 | 2015-09-30 | キヤノン株式会社 | 対象物保持装置、対象物保持装置の制御方法、およびプログラム |
JP6514171B2 (ja) * | 2016-09-27 | 2019-05-15 | ファナック株式会社 | 最適な物品把持経路を学習する機械学習装置、及び機械学習方法 |
-
2017
- 2017-03-24 JP JP2017058864A patent/JP6983524B2/ja active Active
-
2018
- 2018-03-21 US US15/927,670 patent/US10839261B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10249767A (ja) * | 1997-03-13 | 1998-09-22 | Mitsubishi Electric Corp | 移動型物体把持装置及びその制御方法 |
JP2001019165A (ja) * | 1999-07-02 | 2001-01-23 | Murata Mach Ltd | ワークピッキング装置 |
US20020193909A1 (en) * | 2001-06-04 | 2002-12-19 | Parker Robert H. | Integrated robotic cell |
JP2011110629A (ja) * | 2009-11-24 | 2011-06-09 | Idec Corp | ロボット制御方法およびロボット制御システム |
JP2011198349A (ja) * | 2010-02-25 | 2011-10-06 | Canon Inc | 情報処理方法及びその装置 |
JP2013529554A (ja) * | 2010-06-24 | 2013-07-22 | ゼンロボティクス オイ | ロボットシステムにおける物理的な物体の選択のための方法 |
JP2012101320A (ja) * | 2010-11-10 | 2012-05-31 | Canon Inc | 画像生成装置、画像生成方法、およびプログラム |
JP2016196077A (ja) * | 2015-04-06 | 2016-11-24 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2016203293A (ja) * | 2015-04-21 | 2016-12-08 | 株式会社豊田自動織機 | ピッキング装置およびピッキング方法 |
JP2017030135A (ja) * | 2015-07-31 | 2017-02-09 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
JP2017039184A (ja) * | 2015-08-19 | 2017-02-23 | 富士通株式会社 | ロボット |
JP2017047505A (ja) * | 2015-09-02 | 2017-03-09 | トヨタ自動車株式会社 | 把持可否判定方法 |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020075340A (ja) * | 2018-11-08 | 2020-05-21 | 株式会社東芝 | 作動システム、制御装置、およびプログラム |
US11396101B2 (en) | 2018-11-08 | 2022-07-26 | Kabushiki Kaisha Toshiba | Operating system, control device, and computer program product |
JP7034971B2 (ja) | 2018-11-08 | 2022-03-14 | 株式会社東芝 | 作動システム、制御装置、およびプログラム |
JP2020075337A (ja) * | 2018-11-09 | 2020-05-21 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP7205752B2 (ja) | 2018-11-09 | 2023-01-17 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
WO2020095805A1 (ja) * | 2018-11-09 | 2020-05-14 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP2020078852A (ja) * | 2018-11-14 | 2020-05-28 | 旭鉄工株式会社 | 学習システム、及びロボット位置調整システム |
JP7207704B2 (ja) | 2018-11-14 | 2023-01-18 | 旭鉄工株式会社 | 学習システム、及びロボット位置調整システム |
CN112534471A (zh) * | 2018-11-29 | 2021-03-19 | 欧姆龙株式会社 | 图像生成装置、机器人训练系统、图像生成方法以及图像生成程序 |
JP2020082315A (ja) * | 2018-11-29 | 2020-06-04 | オムロン株式会社 | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム |
WO2020110505A1 (ja) * | 2018-11-29 | 2020-06-04 | オムロン株式会社 | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム |
KR102156231B1 (ko) * | 2018-12-20 | 2020-09-15 | 한국전자기술연구원 | 혼재 환경에서의 머니퓰레이터 제어장치, 시스템 및 방법 |
KR20200077145A (ko) * | 2018-12-20 | 2020-06-30 | 전자부품연구원 | 혼재 환경에서의 머니퓰레이터 제어장치, 시스템 및 방법 |
KR102158989B1 (ko) * | 2019-02-25 | 2020-09-23 | 군산대학교 산학협력단 | 기억 모델을 형성하는 방법 및 장치 |
KR20200103421A (ko) * | 2019-02-25 | 2020-09-02 | 군산대학교산학협력단 | 기억 모델을 형성하는 방법 및 장치 |
WO2020184101A1 (ja) * | 2019-03-13 | 2020-09-17 | 日本電気株式会社 | 情報処理装置、駆動制御方法およびプログラム記憶媒体 |
JP7384898B2 (ja) | 2019-03-13 | 2023-11-21 | 日本電気株式会社 | 情報処理装置、駆動制御方法およびコンピュータプログラム |
JPWO2020184101A1 (ja) * | 2019-03-13 | 2021-10-21 | 日本電気株式会社 | 情報処理装置、駆動制御方法およびコンピュータプログラム |
US12030175B2 (en) | 2019-03-13 | 2024-07-09 | Nec Corporation | Information processing device, driving control method, and program-recording medium |
WO2020194392A1 (ja) * | 2019-03-22 | 2020-10-01 | connectome.design株式会社 | 自律型ロボット用教師データ生成コンピュータ、方法及びプログラム |
JP2020166371A (ja) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | 情報処理方法、情報処理装置、物体検出装置およびロボットシステム |
JP7275759B2 (ja) | 2019-03-28 | 2023-05-18 | セイコーエプソン株式会社 | 物体検出方法、物体検出装置およびロボットシステム |
US11158080B2 (en) * | 2019-03-28 | 2021-10-26 | Seiko Epson Corporation | Information processing method, information processing device, object detection apparatus, and robot system |
JP2020163502A (ja) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | 物体検出方法、物体検出装置およびロボットシステム |
JP2021010984A (ja) * | 2019-07-08 | 2021-02-04 | 株式会社リコー | ロボットおよび機械学習方法 |
JP7358808B2 (ja) | 2019-07-08 | 2023-10-11 | 株式会社リコー | ロボットおよび機械学習方法 |
US11559888B2 (en) | 2019-10-30 | 2023-01-24 | Fanuc Corporation | Annotation device |
JP2021071878A (ja) * | 2019-10-30 | 2021-05-06 | ファナック株式会社 | アノテーション装置 |
JP7376318B2 (ja) | 2019-10-30 | 2023-11-08 | ファナック株式会社 | アノテーション装置 |
WO2021166939A1 (ja) * | 2020-02-19 | 2021-08-26 | ファナック株式会社 | 学習用データセット生成装置および学習用データセット生成方法 |
WO2022208843A1 (ja) * | 2021-04-01 | 2022-10-06 | 日本電信電話株式会社 | 学習データ処理装置、学習データ処理方法及び学習データ処理プログラム |
DE112021008134T5 (de) | 2021-10-25 | 2024-07-11 | Fanuc Corporation | Vorrichtung zum Erzeugen von Lerndaten, Verfahren zum Erzeugen von Lerndaten sowie Vorrichtung für maschinelles Lernen und Verfahren für maschinelles Lernen mithilfe von Lerndaten |
KR102690487B1 (ko) * | 2023-11-29 | 2024-07-31 | 문성훈 | 스마트 비젼 기술이 적용된 물류 이송 기능을 제공하는 병렬로봇 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US10839261B2 (en) | 2020-11-17 |
US20180276501A1 (en) | 2018-09-27 |
JP6983524B2 (ja) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6983524B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US11975446B2 (en) | Sensorized robotic gripping device | |
US11752625B2 (en) | Robot grip detection using non-contact sensors | |
JP7154815B2 (ja) | 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体 | |
US20210187735A1 (en) | Positioning a Robot Sensor for Object Classification | |
US11541545B2 (en) | Information processing apparatus, information processing method, and system | |
JP6450960B2 (ja) | ロボット、ロボットシステム及び教示方法 | |
JP2017177294A (ja) | ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム | |
JP6771744B2 (ja) | ハンドリングシステム及びコントローラ | |
JP2019188516A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6541397B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2017136677A (ja) | 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム | |
JP2019084601A (ja) | 情報処理装置、把持システムおよび情報処理方法 | |
JP2019150904A (ja) | 情報処理装置及び仕分システム | |
US11141866B2 (en) | Grasping apparatus, grasping determination method and grasping determination program | |
US11123872B2 (en) | Control apparatus that controls arm for gripping object | |
JP2015157343A (ja) | ロボット、ロボットシステム、制御装置、および制御方法 | |
US12097627B2 (en) | Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system | |
US20230234231A1 (en) | Teleoperation assist device, teleoperation assist method, and storage medium | |
WO2022239477A1 (ja) | 情報処理装置、システム、方法及びプログラム | |
JP2006315128A (ja) | ロボットハンドの持ち替え把持制御方法。 | |
JP2022076656A (ja) | ロボットプログラム、ワーク拾い上げ方法、制御装置およびロボットシステム | |
JP2020097072A (ja) | 制御装置、及び学習装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200324 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211124 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6983524 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |