JP2022507635A - インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体 - Google Patents
インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP2022507635A JP2022507635A JP2021526765A JP2021526765A JP2022507635A JP 2022507635 A JP2022507635 A JP 2022507635A JP 2021526765 A JP2021526765 A JP 2021526765A JP 2021526765 A JP2021526765 A JP 2021526765A JP 2022507635 A JP2022507635 A JP 2022507635A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- intelligent vehicle
- motion
- image
- processed image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 206
- 238000000034 method Methods 0.000 title claims abstract description 142
- 230000008569 process Effects 0.000 claims description 47
- 238000013528 artificial neural network Methods 0.000 claims description 24
- 238000007781 pre-processing Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 20
- 238000004891 communication Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 11
- 240000007651 Rubus glaucus Species 0.000 description 9
- 235000011034 Rubus glaucus Nutrition 0.000 description 9
- 235000009122 Rubus idaeus Nutrition 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Electromagnetism (AREA)
Abstract
Description
方式1、ユーザの腕に装着されたアームバンド機器、運動センサユニットを介してユーザの腕の運動および姿勢を検出し、それにより、トイカーに対するラジコン制御を実現する。
座標調整モジュール724は、インテリジェント車両現在の位置の座標に従ってパンチルトの運動方向を調整するように構成され、
運動方向調整モジュール725は、インテリジェント車両現在の運動方向に従ってパンチルトの運動方向を調整するように構成される。
運動モード直進を図6hに示されたジェスチャに対応させ、運動モード停止を図6iに示されたジェスチャに対応させ、運動モード直角左旋回を図6jに示されたジェスチャに対応させ、運動モード直角右旋回を図6kに示されたジェスチャに対応させ、運動モードバックを図6lに示されたジェスチャに対応させるなどであり得る。本願実施例において、ジェスチャのカテゴリと運動モードの対応関係は、任意の設定されたジェスチャのカテゴリと運動モードとの対応関係であり得る。
処理される画像を取得するように構成される、第1取得モジュール901と、
前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得するように構成される、第1認識モジュール902と、
前記姿勢情報に従って、インテリジェント車両の運動状態を制御するように構成される、第1制御モジュール903と、を備える。
それに対応して、本願実施例は、コンピュータ機器を提供し、図10は、本願実施例のコンピュータ機器の構成の例示的な構造図であり、図10に示されたように、前記機器1000は、1つのプロセッサ1001、少なくとも1つの通信バス1002、ユーザインタフェース1003、少なくとも1つの外部通信インタフェース1004およびメモリ1005を備える。ここで、通信バス1002は、これらのコンポーネント間の接続通信を実現するように構成される。ここで、ユーザインタフェース1003は、スクリーンを備えることができ、外部通信インタフェース1004は、標準の有線インタフェースおよび無線インタフェースを含み得る。ここで、前記プロセッサ1001は、メモリに記憶された画像処理プログラムを実行して、上記の実施例によるインテリジェント車両の運動制御方法のステップを実現指せるように構成される。以上の即時コンピュータ機器および記憶媒体実施例の説明は、上記の方法実施例の説明と類似し、方法実施例と類似する有利な効果を有する。本願の即時通信機器および記憶媒体実施例に開示されていない技術的詳細は、本願方法実施例の説明を参照して理解されたい。
当業者は、上記した方法の実施例の全てまたは一部のステップは、プログラム命令に関連するハードウェアによって完了することができ、前記プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されることができ、前記プログラムが実行されるとき、上記の方法の実施例のステップを実行し、前記記憶媒体は、リムーバブルストレージ、読み取り専用メモリ(ROM:Read-Only Memory)、磁気メモリまたは光ディスクなどのプログラムコードを記憶することができる揮発性または不揮発性媒体を含む。
Claims (27)
- インテリジェント車両の運動制御方法であって、
処理される画像を取得することと、
前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することと、
前記姿勢情報に従って、インテリジェント車両の運動状態を制御することと、を含む、前記インテリジェント車両の運動制御方法。 - 前記処理される画像に対して特徴の抽出を実行する前に、前記方法は、前記処理される画像を前処理することをさらに含み、
前記処理される画像を前処理することは、前記処理される画像のサイズを正規化処理して、プリセットのサイズを満たす正規化画像を取得することと、前記正規化画像をグレースケール画像に変換することと、前記グレースケール画像のピクセルを制限して、平均ピクセル値が0である正則画像を取得することと、を含む、
請求項1に記載のインテリジェント車両の運動制御方法。 - 前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することは、ジェスチャ認識ニューラルネットワークに基づいて前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することを含む、
請求項1または2に記載のインテリジェント車両の運動制御方法。 - 前記ジェスチャ認識ニューラルネットワークに基づいて前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することは、
前記処理される画像を前記ジェスチャ認識ニューラルネットワークに入力して、ターゲット候補フレームを検出することと、
前記ジェスチャ認識ネットワーク内の前記ターゲット候補フレームを分類することにより、前記ターゲット候補フレーム内のジェスチャ、前記ジェスチャの方向および前記ジェスチャのカテゴリを決定することと、
前記ターゲット候補フレームの位置に従って前記ジェスチャの位置情報を決定することと、
前記ジェスチャの位置情報、前記ジェスチャの方向および前記ジェスチャのカテゴリに従って、前記処理される画像内のジェスチャの姿勢情報を決定することと、を含む、
請求項3に記載のインテリジェント車両の運動制御方法。 - 前記ターゲット候補フレームの位置は、
前記処理される画像の中心が原点である場合、前記処理される画像における前記ターゲット候補フレームの2つの対角の座標を前記ターゲット候補フレームの位置として使用することを含む、
請求項4に記載のインテリジェント車両の運動制御方法。 - 前記姿勢情報に従って、インテリジェント車両の運動状態を制御することは、受信された前記姿勢情報に従って前記ジェスチャに対応する命令を取得し、前記命令に従って前記インテリジェント車両の運動状態を制御することを含む、
請求項1ないし5のいずれか一項に記載のインテリジェント車両の運動制御方法。 - 前記姿勢情報に従って、インテリジェント車両の運動状態を制御する前に、前記インテリジェント車両の運動制御方法は、前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整して、収集された処理される画像にジェスチャが含まれるようにすることをさらに含む、
請求項1ないし6のいずれか一項に記載のインテリジェント車両の運動制御方法。 - 前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整することは、前記ジェスチャのターゲット候補フレームの位置に従って、前記ターゲット候補フレームの中心と前記処理される画像の中心との第1距離を決定することと、
前記第1距離の負の相関値に従って、前記カメラの画像収集焦点と前記処理される画像の中心との距離を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、を含む、
請求項7に記載のインテリジェント車両の運動制御方法。 - 前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整することは、
前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定することであって、前記ジェスチャのカテゴリおよび前記ジェスチャの方向は、前記インテリジェント車両の運動方向に一対一で対応することと、
前記現在の運動方向およびプリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、を含み、前記プリセットの対応関係表は、前記現在の運動方向と前記収集方向との対応関係を含む、
請求項7に記載のインテリジェント車両の運動制御方法。 - 前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定した後、前記インテリジェント車両の運動制御方法は、
前記ターゲット候補フレームのサイズとプリセットの候補フレームのサイズの比率を決定することと、前記比率に従って、前記第1距離および前記現在の運動方向をそれぞれ更新することと、更新された第1距離の負の相関値に従って、前記カメラの焦点と前記処理される画像の中心との距離を調整することと、更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、をさらに含む、
請求項9に記載のインテリジェント車両の運動制御方法。 - 前記比率に従って、前記第1距離および前記現在の運動方向をそれぞれ更新することは、前記比率に従って、前記第1距離および前記現在の運動方向にそれぞれ対応する第1重み値および第2重み値を決定することと、前記第1重み値に従って前記第1距離を更新して、更新された第1距離を取得することと、前記第2重み値に従って前記現在の運動方向を更新して、更新された現在の運動方向を取得することと、を含む、
請求項10に記載のインテリジェント車両の運動制御方法。 - 前記更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整した後、前記インテリジェント車両の運動制御方法は、収集方向を調整した後の前記カメラの事前収集画像を決定することと、第2距離を決定することであって、前記第2距離は、前記事前収集画像内のターゲット候補フレームの中心と前記事前収集された画像の中心との距離であり、前記ターゲット候補フレームにはジェスチャが含まれることと、前記第2距離に従って前記カメラの収集方向を調整して、前記ターゲット候補フレームが前記事前収集画像の中心領域に位置させ、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、をさらに含む、
請求項10または11に記載のインテリジェント車両の運動制御方法。 - インテリジェント車両の運動制御装置であって、
処理される画像を取得するように構成される、第1取得モジュールと、
前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得するように構成される、第1認識モジュールと、
前記姿勢情報に従って、インテリジェント車両の運動状態を制御するように構成される、第1制御モジュールと、を備える、前記インテリジェント車両の運動制御装置。 - 前記インテリジェント車両の運動制御装置は、さらに、前記処理される画像を前処理するように構成される、第1前処理モジュールを備え、前記第1前処理モジュールは、
前記処理される画像のサイズに対して正規化処理を実行して、プリセットのサイズを満たす正規化画像を取得するように構成される、第1処理サブモジュールと、
前記正規化画像をグレースケール画像に変換するように構成される、第1変換サブモジュールと、
前記グレースケール画像のピクセルを制限して、平均ピクセル値が0である正則画像を取得するように構成される、第1正則化サブモジュールと、を備える、
請求項13に記載のインテリジェント車両の運動制御装置。 - 前記第1認識モジュールは、
ジェスチャ認識ニューラルネットワークに基づいて前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得するように構成される、第1認識サブモジュールを備える、
請求項13または14に記載のインテリジェント車両の運動制御装置。 - 前記第1認識サブモジュールは、
前記処理される画像を前記ジェスチャ認識ニューラルネットワークに入力して、ターゲット候補フレームを検出するように構成される、第1検出ユニットと、
前記ジェスチャ認識ネットワーク内の前記ターゲット候補フレームを分類することにより、前記ターゲット候補フレーム内のジェスチャ、前記ジェスチャの方向および前記ジェスチャのカテゴリを決定するように構成される、第1分類ユニットと、
前記ターゲット候補フレームの位置に従って前記ジェスチャの位置情報を決定するように構成される、第1決定ユニットと、
前記ジェスチャの位置情報、前記ジェスチャの方向および前記ジェスチャのカテゴリに従って、前記処理される画像内のジェスチャの姿勢情報を決定するように構成される、第2決定ユニットと、を備える、
請求項15に記載のインテリジェント車両の運動制御装置。 - 前記ターゲット候補フレームの位置は、
前記処理される画像の中心が原点である場合、前記処理される画像における前記ターゲット候補フレームの2つの対角の座標を前記ターゲット候補フレームの位置として使用することを含む、
請求項16に記載のインテリジェント車両の運動制御装置。 - 前記第1制御モジュールは、
受信された前記姿勢情報に従って前記ジェスチャに対応する命令を取得し、前記命令に従って前記インテリジェント車両の運動状態を制御するように構成される、第1制御サブモジュールを備える、
請求項13ないし17のいずれか一項に記載のインテリジェント車両の運動制御装置。 - 前記インテリジェント車両の運動制御装置は、さらに、
前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整して、収集された処理される画像にジェスチャが含まれるようにするように構成される、第1調整モジュールを備える、
請求項13ないし18のいずれか一項に記載のインテリジェント車両の運動制御装置。 - 前記第1調整モジュールは、
前記ジェスチャのターゲット候補フレームの位置に従って、前記ターゲット候補フレームの中心と前記処理される画像の中心との第1距離を決定するように構成される、第1決定サブモジュールと、
前記第1距離の負の相関値に従って、前記カメラの画像収集焦点と前記処理される画像の中心との距離を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第1調整サブモジュールと、を備える、
請求項19に記載のインテリジェント車両の運動制御装置。 - 前記第1調整モジュールは、
前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定するように構成される、第2決定サブモジュールであって、前記ジェスチャのカテゴリおよび前記ジェスチャの方向は、前記インテリジェント車両の運動方向に一対一で対応する第2決定サブモジュールと、
前記現在の運動方向およびプリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第2調整サブモジュールと、を備え、前記プリセットの対応関係表は、前記現在の運動方向と前記収集方向との対応関係を含む、
請求項19に記載のインテリジェント車両の運動制御装置。 - 前記インテリジェント車両の運動制御装置は、さらに、
前記ターゲット候補フレームのサイズとプリセットの候補フレームのサイズとの比率を決定するように構成される、第1決定モジュールと、
前記比率に従って、前記第1距離および前記現在の運動方向をそれぞれ更新するように構成される、第1更新モジュールと、
更新された第1距離の負の相関値に従って、前記カメラの焦点と前記処理される画像の中心との距離を調整するように構成される、第2調整モジュールと、
前記更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第3調整モジュールと、を備える、
請求項21に記載のインテリジェント車両の運動制御装置。 - 前記第1更新モジュールは、
前記比率に従って、前記第1距離および前記現在の運動方向にそれぞれ対応する第1重み値および第2重み値を決定するように構成される、第3決定サブモジュールと、
前記第1重み値に従って前記第1距離を更新して、更新された第1距離を取得するように構成される、第1更新サブモジュールと、
前記第2重み値に従って前記現在の運動方向を更新して、更新された現在の運動方向を取得するように構成される、第2更新サブモジュールと、を備える、
請求項22に記載のインテリジェント車両の運動制御装置。 - 前記インテリジェント車両の運動制御装置は、さらに、
収集方向を調整した後の前記カメラの事前収集画像を決定するように構成される、第2決定モジュールと、
第2距離を決定するように構成される、第3決定モジュールであって、前記第2距離は、前記事前収集画像内のターゲット候補フレームの中心と前記事前収集された画像の中心との距離であり、前記ターゲット候補フレームにはジェスチャが含まれる、第3決定モジュールと、
前記第2距離に従って前記カメラの収集方向を調整して、前記ターゲット候補フレームが前記事前収集画像の中心領域に位置させ、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第4調整モジュールと、を備える、
請求項22または23に記載のインテリジェント車両の運動制御装置。 - コンピュータ実行可能命令が含まれる、コンピュータ記憶媒体であって、前記コンピュータ実行可能命令が実行された後、請求項1ないし12のいずれか一項に記載の方法を実現できる、前記コンピュータ記憶媒体。
- メモリとプロセッサとを備える、コンピュータ機器であって、前記メモリにコンピュータ実行可能命令が記憶され、前記プロセッサは、前記メモリ内のコンピュータ実行可能命令を実行するとき、請求項1ないし12のいずれか一項に記載の方法を実現できる、前記コンピュータ機器。
- コンピュータ実行可能命令を含む、コンピュータプログラム製品であって、当該コンピュータ実行可能命令が実行された後、請求項1ないし12のいずれか一項に記載のインテリジェント車両の運動制御方法を実現できる、前記コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910533908.1A CN110276292B (zh) | 2019-06-19 | 2019-06-19 | 智能车运动控制方法及装置、设备和存储介质 |
CN201910533908.1 | 2019-06-19 | ||
PCT/CN2020/092161 WO2020253475A1 (zh) | 2019-06-19 | 2020-05-25 | 智能车运动控制方法及装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022507635A true JP2022507635A (ja) | 2022-01-18 |
Family
ID=67961399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021526765A Pending JP2022507635A (ja) | 2019-06-19 | 2020-05-25 | インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210311469A1 (ja) |
JP (1) | JP2022507635A (ja) |
KR (1) | KR20210076962A (ja) |
CN (1) | CN110276292B (ja) |
SG (1) | SG11202106683YA (ja) |
TW (1) | TWI759767B (ja) |
WO (1) | WO2020253475A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110276292B (zh) * | 2019-06-19 | 2021-09-10 | 上海商汤智能科技有限公司 | 智能车运动控制方法及装置、设备和存储介质 |
SG10201913029SA (en) * | 2019-12-23 | 2021-04-29 | Sensetime Int Pte Ltd | Target tracking method and apparatus, electronic device, and storage medium |
SG10201912990QA (en) | 2019-12-23 | 2020-11-27 | Sensetime Int Pte Ltd | Gesture Recognition Method And Apparatus, Electronic Device, And Storage Medium |
CN113128339A (zh) * | 2021-03-15 | 2021-07-16 | 同济大学 | 一种基于行为识别的智能车辆运行控制系统和方法 |
CN113772599A (zh) * | 2021-09-15 | 2021-12-10 | 湖南星邦智能装备股份有限公司 | 一种剪叉式高空作业平台及其控制系统及方法 |
CN117857911A (zh) * | 2022-09-30 | 2024-04-09 | 北京小米移动软件有限公司 | 拍摄方法、装置、电子设备及存储介质 |
CN118097793B (zh) * | 2024-04-18 | 2024-07-02 | 广州炫视智能科技有限公司 | 一种自适应界面手势操作控制系统及其控制方法 |
CN118553022B (zh) * | 2024-07-29 | 2024-10-22 | 杭州锐见智行科技有限公司 | 一种车辆内手势识别方法、手势控制方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011525283A (ja) * | 2008-06-18 | 2011-09-15 | オブロング・インダストリーズ・インコーポレーテッド | 車両インターフェース用ジェスチャ基準制御システム |
JP2012506579A (ja) * | 2008-10-23 | 2012-03-15 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 画像内のジェスチャを認識するための装置、方法およびコンピュータ・プログラムと、デバイスを制御するための装置、方法およびコンピュータ・プログラム |
JP2014206930A (ja) * | 2013-04-15 | 2014-10-30 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体 |
JP2017505965A (ja) * | 2014-01-05 | 2017-02-23 | マノモーション アーベー | モバイル機器用三次元ジェスチャのリアルタイム認識及び追跡システム |
JP2018501671A (ja) * | 2015-11-27 | 2018-01-18 | シャオミ・インコーポレイテッド | カメラヘッド撮影角度調整方法および装置 |
US20180088677A1 (en) * | 2016-09-29 | 2018-03-29 | Alibaba Group Holding Limited | Performing operations based on gestures |
US20190056498A1 (en) * | 2016-03-01 | 2019-02-21 | Brightway Vision Ltd. | Gated imaging apparatus, system and method |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7606411B2 (en) * | 2006-10-05 | 2009-10-20 | The United States Of America As Represented By The Secretary Of The Navy | Robotic gesture recognition system |
GB0818561D0 (en) * | 2008-10-09 | 2008-11-19 | Isis Innovation | Visual tracking of objects in images, and segmentation of images |
CN102339379A (zh) * | 2011-04-28 | 2012-02-01 | 重庆邮电大学 | 手势识别方法及基于手势识别控制的智能轮椅人机系统 |
CN103365404B (zh) * | 2012-04-01 | 2016-07-06 | 联想(北京)有限公司 | 一种人机交互的方法和装置 |
CN103376890B (zh) * | 2012-04-16 | 2016-08-31 | 富士通株式会社 | 基于视觉的手势遥控系统 |
CA2909168A1 (en) * | 2013-03-15 | 2014-09-18 | Trak Surgical, Inc. | On-board tool tracking system and methods of computer assisted surgery |
CN103488294B (zh) * | 2013-09-12 | 2016-08-17 | 华南理工大学 | 一种基于用户交互习惯的非接触手势控制映射调整方法 |
US10924753B2 (en) * | 2013-12-23 | 2021-02-16 | Intel Corporation | Modular motion estimation and mode decision engine |
CN103903011A (zh) * | 2014-04-02 | 2014-07-02 | 重庆邮电大学 | 基于图像深度信息的智能轮椅手势识别控制方法 |
KR20160036242A (ko) * | 2014-09-25 | 2016-04-04 | 현대자동차주식회사 | 제스처 인식 장치, 그를 가지는 차량 및 그 제어 방법 |
CN104298354A (zh) * | 2014-10-11 | 2015-01-21 | 河海大学 | 一种人机交互的手势识别方法 |
CN105989365A (zh) * | 2015-01-30 | 2016-10-05 | 深圳市思路飞扬信息技术有限责任公司 | 助视装置、助视系统及助视方法 |
CN106331438A (zh) * | 2015-06-24 | 2017-01-11 | 小米科技有限责任公司 | 镜头对焦方法、装置及移动设备 |
CN106686429A (zh) * | 2015-11-06 | 2017-05-17 | 天津三星电子有限公司 | 一种智能电视手势检测方法及系统 |
CN105550655A (zh) * | 2015-12-16 | 2016-05-04 | Tcl集团股份有限公司 | 一种手势图像获取设备及其手势图像获取方法 |
CN105643590B (zh) * | 2016-03-31 | 2018-07-13 | 河北工业大学 | 一种手势控制的轮式移动机器人及其操作方法 |
CN205594506U (zh) * | 2016-04-12 | 2016-09-21 | 精效新软新技术(北京)有限公司 | 一种智能工作系统中的人机交互装置 |
CN108229277B (zh) * | 2017-03-31 | 2020-05-01 | 北京市商汤科技开发有限公司 | 手势识别、手势控制及多层神经网络训练方法、装置及电子设备 |
JP2018206073A (ja) * | 2017-06-05 | 2018-12-27 | 株式会社東海理化電機製作所 | 遠隔操作システム |
CN107688779A (zh) * | 2017-08-18 | 2018-02-13 | 北京航空航天大学 | 一种基于rgbd摄像头深度图像的机器人手势交互方法和装置 |
CN107741781A (zh) * | 2017-09-01 | 2018-02-27 | 中国科学院深圳先进技术研究院 | 无人机的飞行控制方法、装置、无人机及存储介质 |
CN108229318A (zh) * | 2017-11-28 | 2018-06-29 | 北京市商汤科技开发有限公司 | 手势识别和手势识别网络的训练方法及装置、设备、介质 |
CN208084321U (zh) * | 2017-12-29 | 2018-11-13 | 同方威视技术股份有限公司 | 跟随式机器人 |
CN108197580B (zh) * | 2018-01-09 | 2019-07-23 | 吉林大学 | 一种基于3d卷积神经网络的手势识别方法 |
CN108563995B (zh) * | 2018-03-15 | 2019-04-26 | 西安理工大学 | 基于深度学习的人机协作系统手势识别控制方法 |
CN109117742B (zh) * | 2018-07-20 | 2022-12-27 | 百度在线网络技术(北京)有限公司 | 手势检测模型处理方法、装置、设备及存储介质 |
CN109697407A (zh) * | 2018-11-13 | 2019-04-30 | 北京物灵智能科技有限公司 | 一种图像处理方法及装置 |
CN109618131B (zh) * | 2018-11-22 | 2021-08-24 | 亮风台(上海)信息科技有限公司 | 一种用于呈现决策辅助信息的方法与设备 |
CN109613930B (zh) * | 2018-12-21 | 2022-05-24 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 无人飞行器的控制方法、装置、无人飞行器及存储介质 |
CN109849016B (zh) * | 2019-03-28 | 2024-07-23 | 合肥工业大学 | 一种具有行走和搬运功能的家用服务机器人 |
CN110276292B (zh) * | 2019-06-19 | 2021-09-10 | 上海商汤智能科技有限公司 | 智能车运动控制方法及装置、设备和存储介质 |
-
2019
- 2019-06-19 CN CN201910533908.1A patent/CN110276292B/zh active Active
-
2020
- 2020-05-25 JP JP2021526765A patent/JP2022507635A/ja active Pending
- 2020-05-25 SG SG11202106683YA patent/SG11202106683YA/en unknown
- 2020-05-25 WO PCT/CN2020/092161 patent/WO2020253475A1/zh active Application Filing
- 2020-05-25 KR KR1020217014612A patent/KR20210076962A/ko active IP Right Grant
- 2020-06-17 TW TW109120374A patent/TWI759767B/zh active
-
2021
- 2021-06-18 US US17/351,445 patent/US20210311469A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011525283A (ja) * | 2008-06-18 | 2011-09-15 | オブロング・インダストリーズ・インコーポレーテッド | 車両インターフェース用ジェスチャ基準制御システム |
JP2012506579A (ja) * | 2008-10-23 | 2012-03-15 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 画像内のジェスチャを認識するための装置、方法およびコンピュータ・プログラムと、デバイスを制御するための装置、方法およびコンピュータ・プログラム |
JP2014206930A (ja) * | 2013-04-15 | 2014-10-30 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体 |
JP2017505965A (ja) * | 2014-01-05 | 2017-02-23 | マノモーション アーベー | モバイル機器用三次元ジェスチャのリアルタイム認識及び追跡システム |
JP2018501671A (ja) * | 2015-11-27 | 2018-01-18 | シャオミ・インコーポレイテッド | カメラヘッド撮影角度調整方法および装置 |
US20190056498A1 (en) * | 2016-03-01 | 2019-02-21 | Brightway Vision Ltd. | Gated imaging apparatus, system and method |
US20180088677A1 (en) * | 2016-09-29 | 2018-03-29 | Alibaba Group Holding Limited | Performing operations based on gestures |
Also Published As
Publication number | Publication date |
---|---|
CN110276292A (zh) | 2019-09-24 |
KR20210076962A (ko) | 2021-06-24 |
CN110276292B (zh) | 2021-09-10 |
US20210311469A1 (en) | 2021-10-07 |
SG11202106683YA (en) | 2021-07-29 |
TWI759767B (zh) | 2022-04-01 |
TW202101168A (zh) | 2021-01-01 |
WO2020253475A1 (zh) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022507635A (ja) | インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体 | |
Qi et al. | Computer vision-based hand gesture recognition for human-robot interaction: a review | |
US20210279503A1 (en) | Image processing method, apparatus, and device, and storage medium | |
Kumar et al. | A position and rotation invariant framework for sign language recognition (SLR) using Kinect | |
Natarajan et al. | Hand gesture controlled drones: An open source library | |
KR101939683B1 (ko) | 사용자 행동 실시간 인식장치 및 방법 | |
CN105739702B (zh) | 用于自然人机交互的多姿态指尖跟踪方法 | |
CN110221699B (zh) | 一种前置摄像头视频源的眼动行为识别方法 | |
CN107856039B (zh) | 一种养老陪护服务机器人系统及养老陪护方法 | |
CN105563493A (zh) | 一种高度方位自适应的服务机器人及适应方法 | |
EP2737436A1 (en) | Systems and methods of detecting body movements using globally generated multi-dimensional gesture data | |
CN108198159A (zh) | 一种图像处理方法、移动终端以及计算机可读存储介质 | |
CN104281839A (zh) | 一种人体姿势识别方法和装置 | |
Krishnaraj et al. | A Glove based approach to recognize Indian Sign Languages | |
KR20180101313A (ko) | 손 모양 및 동작 인식장치 및 방법 | |
US10964046B2 (en) | Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera | |
KR20120089948A (ko) | Mhi의 형태 정보를 이용한 실시간 동작 인식시스템 및 실시간 동작 인식 방법 | |
KR20170046519A (ko) | 손 모양 및 동작 인식장치 및 방법 | |
Naidoo et al. | Vision-based static hand gesture recognition using support vector machines | |
Dhamanskar et al. | Human computer interaction using hand gestures and voice | |
WO2022217598A1 (zh) | 肢体识别方法和装置 | |
Liu et al. | Visual gesture recognition for human robot interaction using dynamic movement primitives | |
Perera et al. | Human motion analysis from UAV video | |
KR102251076B1 (ko) | 실내 이미지를 사용하여 설계도면을 추정하는 방법 | |
Tazhigaliyeva et al. | Cyrillic manual alphabet recognition in RGB and RGB-D data for sign language interpreting robotic system (SLIRS) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210517 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221115 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230613 |