JP2022160144A - 学習装置、学習方法、及び学習プログラム - Google Patents
学習装置、学習方法、及び学習プログラム Download PDFInfo
- Publication number
- JP2022160144A JP2022160144A JP2021064707A JP2021064707A JP2022160144A JP 2022160144 A JP2022160144 A JP 2022160144A JP 2021064707 A JP2021064707 A JP 2021064707A JP 2021064707 A JP2021064707 A JP 2021064707A JP 2022160144 A JP2022160144 A JP 2022160144A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural network
- simulator
- real environment
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000013528 artificial neural network Methods 0.000 claims abstract description 67
- 230000006870 function Effects 0.000 claims abstract description 25
- 238000011156 evaluation Methods 0.000 claims abstract description 16
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 238000012952 Resampling Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002986 genetic algorithm method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
図1は、第1の実施形態に係る学習システム100の構成の一例を示すブロック図である。
単眼深度推定は、単眼カメラで撮影した画像から深度、つまり、画像の被写体までの距離を推定する技術であり、基本的に実環境で真値深度を得ることは難しい。一方、シミュレータ20では真値深度は容易に収集できるため、以下のニューラルネットワークを学習することが可能とされる。以下、説明を簡単にするために、活性化関数f(・)を単にニューラルネットワークと称する。
Dest=fdepth(Zsim)
Zreal=fz(Ireal)
単眼カメラで撮影した画像から機械学習で走行可否判断を行う場合、走行できたか、あるいは、走行できなかったか(障害物との衝突、もしくは障害物の落下)のデータを収集する必要がある。この場合、走行できないデータを実環境で収集することは危険を伴うため、望ましくない。一方、シミュレータ20では危険を伴わずにデータを集めることが可能である。このとき、走行可能確率Pestは次式によって推定されるとする。
Pest=ftrav(Zsim)
Zreal=fz(Ireal)
まず、上述の非特許文献2を要約して、その手法の概要を説明する。制御則は、次式によって定められる。
Zg=fz(Ig)
V=fnav(Zc、Zg)
Zgx=fz(Igx)
上記第1の実施形態で説明した学習方法をより精度良く機能させるためには、実環境画像Ireal及びシミュレータ画像Isimを取得したときのそれぞれの環境及び位置姿勢を一致させることが望ましい。環境は、例えば、実環境を撮影した結果を用いてシミュレータを構築する参考文献1に記載の方法を用いて対応すればよい。
Fei Xia and et al., “Interactive Gibson Benchmark” IEEE Robotics and Automation Letters, 2020
11 プロセッサ
11A 取得部
11B 学習部
11C 生成部
11D 決定部
12 ROM
13 RAM
14 I/O
15 記憶部
15A 学習プログラム
16 表示部
17 操作部
18 通信部
20 シミュレータ
30 ロボット
100 学習システム
Claims (7)
- ニューラルネットワークの学習装置であって、
シミュレータにより生成された観測量を前記ニューラルネットワークに入力して得られる第1特徴量と、実環境から得られた観測量を前記ニューラルネットワークに入力して得られる第2特徴量とを取得する取得部と、
前記第1特徴量と前記第2特徴量との差を含む評価関数を用いて、前記ニューラルネットワークを学習する学習部と、
を備えた学習装置。 - 前記実環境で動作する物体の複数の位置姿勢候補の各々に対応して、前記シミュレータを用いて複数の観測量を生成する生成部と、
前記生成部により生成された複数の観測量のうち、前記実環境の前記物体から得られた観測量との類似度が最も高い観測量を、前記ニューラルネットワークに入力する前記シミュレータの観測量として決定する決定部と、
を更に備えた
請求項1に記載の学習装置。 - 前記複数の位置姿勢候補は、前記実環境で前記物体が観測量を収集する際に自己位置を推定した結果から得られる
請求項2に記載の学習装置。 - 前記シミュレータにより生成された観測量は、前記シミュレータにより生成された画像として表され、
前記実環境から得られた観測量は、前記実環境から得られた画像として表される
請求項1~請求項3の何れか1項に記載の学習装置。 - 前記シミュレータにより生成された観測量は、前記シミュレータにより生成された画像及び当該画像の被写体までの距離を表す深度として表され、
前記実環境から得られた観測量は、前記実環境から得られた画像及び当該画像の被写体までの距離を表す深度として表される
請求項1~請求項3の何れか1項に記載の学習装置。 - ニューラルネットワークの学習装置が実行する学習方法であって、
シミュレータにより生成された観測量を前記ニューラルネットワークに入力して得られる第1特徴量と、実環境から得られた観測量を前記ニューラルネットワークに入力して得られる第2特徴量とを取得し、
前記第1特徴量と前記第2特徴量との差を含む評価関数を用いて、前記ニューラルネットワークを学習する、
学習方法。 - ニューラルネットワークの学習プログラムであって、
コンピュータを、
シミュレータにより生成された観測量を前記ニューラルネットワークに入力して得られる第1特徴量と、実環境から得られた観測量を前記ニューラルネットワークに入力して得られる第2特徴量とを取得する取得部、及び、
前記第1特徴量と前記第2特徴量との差を含む評価関数を用いて、前記ニューラルネットワークを学習する学習部、
として機能させるための学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021064707A JP7264184B2 (ja) | 2021-04-06 | 2021-04-06 | 学習装置、学習方法、及び学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021064707A JP7264184B2 (ja) | 2021-04-06 | 2021-04-06 | 学習装置、学習方法、及び学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022160144A true JP2022160144A (ja) | 2022-10-19 |
JP7264184B2 JP7264184B2 (ja) | 2023-04-25 |
Family
ID=83657834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021064707A Active JP7264184B2 (ja) | 2021-04-06 | 2021-04-06 | 学習装置、学習方法、及び学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7264184B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019098419A (ja) * | 2017-11-28 | 2019-06-24 | キユーピー株式会社 | 粉体、粒体又は流体の取り出し動作を学習する機械学習方法およびロボット機械学習制御装置 |
JP2020075340A (ja) * | 2018-11-08 | 2020-05-21 | 株式会社東芝 | 作動システム、制御装置、およびプログラム |
JP2020115289A (ja) * | 2019-01-17 | 2020-07-30 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
-
2021
- 2021-04-06 JP JP2021064707A patent/JP7264184B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019098419A (ja) * | 2017-11-28 | 2019-06-24 | キユーピー株式会社 | 粉体、粒体又は流体の取り出し動作を学習する機械学習方法およびロボット機械学習制御装置 |
JP2020075340A (ja) * | 2018-11-08 | 2020-05-21 | 株式会社東芝 | 作動システム、制御装置、およびプログラム |
JP2020115289A (ja) * | 2019-01-17 | 2020-07-30 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7264184B2 (ja) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363058B (zh) | 使用单触发卷积神经网络的用于避障的三维对象定位 | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
Sless et al. | Road scene understanding by occupancy grid learning from sparse radar clusters using semantic segmentation | |
US11900645B2 (en) | Systems and methods for modeling and controlling physical dynamical systems using artificial intelligence | |
Premebida et al. | Intelligent robotic perception systems | |
US9111375B2 (en) | Evaluation of three-dimensional scenes using two-dimensional representations | |
JP2019517701A (ja) | 画像内の物体を検出する方法及び物体検出システム | |
CN110941272A (zh) | 自动驾驶控制方法和设备 | |
US10268188B2 (en) | Active camera movement determination for object position and extent in three-dimensional space | |
KR20180027242A (ko) | 무인 차량을 위한 주변 환경 매핑 방법 및 장치 | |
EP4172861A1 (en) | Semi-supervised keypoint based models | |
Kim et al. | An open-source low-cost mobile robot system with an RGB-D camera and efficient real-time navigation algorithm | |
US12061481B2 (en) | Robot navigation using a high-level policy model and a trained low-level policy model | |
Ahmad et al. | End-to-end probabilistic depth perception and 3d obstacle avoidance using pomdp | |
JP7264184B2 (ja) | 学習装置、学習方法、及び学習プログラム | |
Barrozo et al. | Simulation of an Autonomous Vehicle Control System Based on Image Processing | |
Boufous | Deep reinforcement learning for complete coverage path planning in unknown environments | |
Ramírez-Bedoya et al. | Implementation of reinforcement-learning algorithms in autonomous robot navigation | |
Haque et al. | Vision based trajectory following robot and swarm | |
Horita et al. | Improving multi-goal and target-driven reinforcement learning with supervised auxiliary task | |
Li et al. | Multi-altitude multi-sensor fusion framework for AUV exploration and survey | |
JP7459238B2 (ja) | ユーザ選好による強化学習基盤の自律走行最適化方法およびシステム | |
Hellwig et al. | A Hierarchical Approach to Active Pose Estimation | |
Singh et al. | Enhancing Object Mapping in SLAM using CNN. | |
Capponcelli | Comparing models for predicting performance of SLAM algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7264184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |