Nothing Special   »   [go: up one dir, main page]

JP2022507635A - インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体 - Google Patents

インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体 Download PDF

Info

Publication number
JP2022507635A
JP2022507635A JP2021526765A JP2021526765A JP2022507635A JP 2022507635 A JP2022507635 A JP 2022507635A JP 2021526765 A JP2021526765 A JP 2021526765A JP 2021526765 A JP2021526765 A JP 2021526765A JP 2022507635 A JP2022507635 A JP 2022507635A
Authority
JP
Japan
Prior art keywords
gesture
intelligent vehicle
motion
image
processed image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021526765A
Other languages
English (en)
Inventor
ジュンウェイ ジャン
Original Assignee
シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド filed Critical シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
Publication of JP2022507635A publication Critical patent/JP2022507635A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electromagnetism (AREA)

Abstract

本願実施例は、インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体を提供し、ここで、前記方法は、処理される画像を取得することと、前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することと、前記姿勢情報に従って、インテリジェント車両の運動状態を制御することと、を含む。【選択図】図1

Description

本願は、2019年06月19日に中国特許局に提出された、出願番号が201910533908.1である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容は、全文の参照によって本願に組み込まれる。
本願は、機器の自動運転の技術分野に関し、インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体に関するが、これらに限定されない。
関連技術において、ほとんどは、アームバンドまたはリストバンド、タッチスクリーンセンシングおよびジェスチャ画像に基づいて、異なるジェスチャによって、ワイヤレスラジコンカーの走行を制御する。例えば、タッチスクリーン上のユーザのジェスチャ動作を収集し、関連する動作に従ってジェスチャ座標を決定することにより、ジェスチャタイプを決定し、その基で関連する制御を実現する。
本願実施例は、インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体を提供する。
本願実施例は、インテリジェント車両の運動制御方法を提供し、前記方法は、処理される画像を取得することと、前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することと、前記姿勢情報に従って、インテリジェント車両の運動状態を制御することと、を含む。
いくつかの実施例において、前記処理される画像に対して特徴抽出を実行する前に、前記方法は、前記処理される画像を前処理することをさらに含み、前記処理される画像を前処理することは、前記処理される画像のサイズを正規化処理して、プリセットのサイズを満たす正規化画像を取得することと、前記正規化画像をグレースケール画像に変換することと、前記グレースケール画像のピクセルを制限して、平均ピクセル値が0である正則画像を取得することと、を含む。
いくつかの実施例において、前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することは、ジェスチャ認識ニューラルネットワークに基づいて前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することを含む。
いくつかの実施例において、前記ジェスチャ認識ニューラルネットワークに基づいて前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することは、前記処理される画像を前記ジェスチャ認識ニューラルネットワークに入力して、ターゲット候補フレームを検出することと、前記ジェスチャ認識ネットワーク内の前記ターゲット候補フレームを分類することにより、前記ターゲット候補フレーム内のジェスチャ、前記ジェスチャの方向および前記ジェスチャのカテゴリを決定することと、前記ターゲット候補フレームの位置に従って前記ジェスチャの位置情報を決定することと、前記ジェスチャの位置情報、前記ジェスチャの方向および前記ジェスチャのカテゴリに従って、前記処理される画像内のジェスチャの姿勢情報を決定することと、を含む。
いくつかの実施例において、前記ターゲット候補フレームの位置は、前記処理される画像の中心が原点である場合、前記処理される画像における前記ターゲット候補フレームの2つの対角の座標を前記ターゲット候補フレームの位置として使用することを含む。
いくつかの実施例において、前記姿勢情報に従って、インテリジェント車両の運動状態を制御することは、受信された前記姿勢情報に従って前記ジェスチャに対応する命令を取得し、前記命令に従って前記インテリジェント車両の運動状態を制御することを含む。
いくつかの実施例において、前記姿勢情報に従って、インテリジェント車両の運動状態を制御する前に、前記インテリジェント車両の運動制御方法は、前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整して、収集された処理される画像にジェスチャが含まれるようにすることをさらに含む。
いくつかの実施例において、前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整することは、前記ジェスチャのターゲット候補フレームの位置に従って、前記ターゲット候補フレームの中心と前記処理される画像の中心との第1距離を決定することと、前記第1距離の負の相関値に従って、前記カメラの画像収集焦点と前記処理される画像の中心との距離を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、を含む。
いくつかの実施例において、前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整することは、前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定することであって、ここで、前記ジェスチャのカテゴリおよび前記ジェスチャの方向は、前記インテリジェント車両の運動方向に一対一で対応することと、前記現在の運動方向およびプリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、を含み、ここで、前記プリセットの対応関係表は、前記現在の運動方向と前記収集方向との対応関係を含む。
いくつかの実施例において、前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定した後、前記方法は、前記ターゲット候補フレームのサイズとプリセットの候補フレームのサイズの比率を決定することと、前記比率に従って、前記第1距離および前記現在の運動方向をそれぞれ更新することと、更新された第1距離の負の相関値に従って、前記カメラの焦点と前記処理される画像の中心との距離を調整することと、更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、をさらに含む。
前記比率に従って、前記第1距離および前記現在の運動方向をそれぞれ更新することは、前記比率に従って、前記第1距離および前記現在の運動方向にそれぞれ対応する第1重み値および第2重み値を決定することと、前記第1重み値に従って前記第1距離を更新して、更新された第1距離を取得することと、前記第2重み値に従って前記現在の運動方向を更新して、更新された現在の運動方向を取得することと、を含む。
前記更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整した後、前記インテリジェント車両の運動制御方法は、収集方向を調整した後の前記カメラの事前収集画像を決定することと、第2距離を決定することであって、前記第2距離は、前記事前収集画像内のターゲット候補フレームの中心と前記事前収集された画像の中心との距離であり、前記ターゲット候補フレームにはジェスチャが含まれることと、前記第2距離に従って前記カメラの収集方向を調整して、前記ターゲット候補フレームが前記事前収集画像の中心領域に位置させ、調整後のカメラが収集あいた処理される画像にジェスチャが含まれるようにすることと、さらに含む。
本願実施例は、インテリジェント車両の運動制御装置を提供し、前記装置は、処理される画像を取得するように構成される、第1取得モジュールと、前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得するように構成される、第1認識モジュールと、前記姿勢情報に従って、インテリジェント車両の運動状態を制御するように構成される、第1制御モジュールと、を備える。
いくつかの実施例において、前記装置は、さらに、前記処理される画像を前処理するように構成される、第1前処理モジュールを備え、前記第1前処理モジュールは、前記処理される画像のサイズに対して正規化処理を実行して、プリセットのサイズを満たす正規化画像を取得するように構成される、第1処理サブモジュールと、前記正規化画像をグレースケール画像に変換するように構成される、第1変換サブモジュールと、前記グレースケール画像のピクセルを制限して、平均ピクセル値が0である正則画像を取得するように構成される、第1正則化サブモジュールと、を備える。
いくつかの実施例において、前記第1認識モジュールは、前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得するように構成される、第1認識サブモジュールを備える。
いくつかの実施例において、前記第1認識サブモジュールは、前記処理される画像を前記ジェスチャ認識ニューラルネットワークに入力して、ターゲット候補フレームを検出するように構成される、第1検出ユニットと、前記ジェスチャ認識ネットワーク内の前記ターゲット候補フレームを分類することにより、前記ターゲット候補フレーム内のジェスチャ、前記ジェスチャの方向および前記ジェスチャのカテゴリを決定するように構成される、第1分類ユニットと、前記ターゲット候補フレームの位置に従って前記ジェスチャの位置情報を決定するように構成される、第1決定ユニットと、前記ジェスチャの位置情報、前記ジェスチャの方向および前記ジェスチャのカテゴリに従って、前記処理される画像内のジェスチャの姿勢情報を決定するように構成される、第2決定ユニットと、を備える。
いくつかの実施例において、前記ターゲット候補フレームの位置は、前記処理される画像の中心が原点である場合、前記処理される画像における前記ターゲット候補フレームの2つの対角の座標を前記ターゲット候補フレームの位置として使用することを含む。
いくつかの実施例において、前記第1制御モジュールは、受信された前記姿勢情報に従って前記ジェスチャに対応する命令を取得し、前記命令に従って前記インテリジェント車両の運動状態を制御するように構成される、第1制御サブモジュールを備える。
いくつかの実施例において、前記装置は、さらに、前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整して、収集された処理される画像にジェスチャが含まれるようにするように構成される、第1調整モジュールを備える。
いくつかの実施例において、前記第1調整モジュールは、前記ジェスチャのターゲット候補フレームの位置に従って、前記ターゲット候補フレームの中心と前記処理される画像の中心との第1距離を決定するように構成される、第1決定サブモジュールと、前記第1距離の負の相関値に従って、前記カメラの画像収集焦点と前記処理される画像の中心との距離を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第1調整サブモジュールと、を備える。
いくつかの実施例において、前記第1調整モジュールは、前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定するように構成される、第2決定サブモジュールであって、ここで、前記ジェスチャのカテゴリおよび前記ジェスチャの方向は、前記インテリジェント車両の運動方向に一対一で対応する第2決定サブモジュールと、前記現在の運動方向およびプリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第2調整サブモジュールと、を備え、ここで、前記プリセットの対応関係表は、前記現在の運動方向と前記収集方向との対応関係を含む。
いくつかの実施例において、前記装置は、さらに、前記ターゲット候補フレームのサイズとプリセットの候補フレームのサイズとの比率を決定するように構成される、第1決定モジュールと、前記比率に従って、前記第1距離および前記現在の運動方向をそれぞれ更新するように構成される、第1更新モジュールと、更新された第1距離の負の相関値に従って、前記カメラの焦点と前記処理される画像の中心との距離を調整するように構成される、第2調整モジュールと、前記更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第3調整モジュールと、を備える。
いくつかの実施例において、前記第1更新モジュールは、前記比率に従って、前記第1距離および前記現在の運動方向にそれぞれ対応する第1重み値および第2重み値を決定するように構成される、第3決定サブモジュールと、前記第1重み値に従って前記第1距離を更新して、更新された第1距離を取得するように構成される、第1更新サブモジュールと、前記第2重み値に従って前記現在の運動方向を更新して、更新された現在の運動方向を取得するように構成される、第2更新サブモジュールと、を備える。
いくつかの実施例において、前記装置は、さらに、収集方向を調整した後の前記カメラの事前収集画像を決定するように構成される、第2決定モジュールと、第2距離を決定するように構成される、第3決定モジュールであって、前記第2距離は、前記事前収集画像内のターゲット候補フレームの中心と前記事前収集された画像の中心との距離であり、前記ターゲット候補フレームにはジェスチャが含まれる、第3決定モジュールと、前記第2距離に従って前記カメラの収集方向を調整して、前記ターゲット候補フレームが前記事前収集画像の中心領域に位置させ、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第4調整モジュールと、を備える。
本願実施例は、コンピュータ実行可能命令が記憶される、コンピュータ記憶媒体を提供し、当該コンピュータ実行可能命令が実行された後、本願実施例によるインテリジェント車両の運動制御方法におけるステップを実現できる。
本願実施例は、メモリとプロセッサとを備える、コンピュータ機器を提供し、前記メモリには、コンピュータ実行可能命令が記憶され、前記プロセッサは、前記メモリ内のコンピュータ実行可能命令を実行するとき、本願実施例によるインテリジェント車両の運動制御方法におけるステップを実現できる。
本願実施例は、さらに、コンピュータ実行可能命令を含む、コンピュータプログラム製品を提供し、当該コンピュータ実行可能命令が実行された後、本願実施例によるインテリジェント車両の運動制御方法におけるステップを実現できる。
本願実施例は、インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体を提供し、処理される画像に対して特徴抽出を実行することにより、画像内のジェスチャを効果的に認識でき、さらに、ジェスチャを正しく使用してインテリジェント車両の状態を制御でき、即ち、処理される画像内のジェスチャに対する認識の精度を向上させ、さらに、ジェスチャに基づくインテリジェント車両の状態制御の精度を向上させる。
本願実施例のインテリジェント車両の運動制御方法の実現プロセスの概略図である。 本願実施例のインテリジェント車両の運動制御方法の別の実現プロセスの概略図である。 本願実施例のインテリジェント車両の運動制御方法の別の実現プロセスの概略図である。 本願実施例のインテリジェント車両の運動制御方法の実現プロセスの概略図である。 本願実施例の画像を前処理するプロセスの実現プロセスの概略図である。 本願実施例の前処理された画像を認識する実現プロセスの概略図である。 本願実施例のジェスチャカテゴリのシナリオの概略図である。 本願実施例のパッケージ状態情報の例示的な構造図である。 本願実施例のインテリジェント車両の収集方向を調整する実現プロセスの概略図である。 本願実施例のインテリジェント車両の収集方向を調整する別の実現プロセスの概略図である。 本願実施例のインテリジェント車両の運動制御装置の構成の例示的な構造図である。 本願実施例のコンピュータ機器の構成の例示的な構造図である。
本願実施例の目的、技術的解決策および利点をより明確にするために、以下は、本願実施例における図面を参照して、発明の具体的な技術的解決策をさらに詳細に説明する。以下の実施例は、本願を説明するために使用されるが、本願の範囲を制限するものではない。
本願実施例は、まず、インテリジェント車両の運動を制御するアプリケーションシステムを提供し、当該システムは、インテリジェント車両、ラズベリーパイ、カメラとスマート教育ロボットを含み、ここで、ラズベリーパイおよびカメラは、インテリジェント車両に統合されてもよく、インテリジェント車両から独立してもよく、スマート教育ロボットはEV3などである。本願実施例において、まず、ラズベリーパイは、カメラが収集した画像に対してジェスチャ分類を実行し、ジェスチャが位置する領域を位置づけ、次に、ラズベリーパイは、分類結果をスマート教育ロボットに送信し、スマート教育ロボットは、ジェスチャの分類結果に従って制御命令を取得し、制御命令に従ってインテリジェント車両の運動を制御する。
本願実施例は、インテリジェント車両の運動制御方法を提供し、本願による方法ステップの実行主体は、ハードウェアであり得、例えば、インテリジェント車両、コンピュータ、携帯電話、サーバなどの機器であり得、または、プロセッサによってコンピュータ実行可能コードを実行する方式を介して実現する。図1は、本願実施例のインテリジェント車両の運動制御方法の実現プロセスの概略図であり、図1に示された方法を参照して説明する。
ステップS101において、処理される画像を取得する。
いくつかの実施例において、前記ステップS101は、インテリジェント車両が接続した収集装置(カメラなど)を使用して処理される画像を収集することであってもよく、インテリジェント車両でラズベリーパイを実装し、ラズベリーパイを使用して収集装置が画像収集を実行するように制御することであってもよく、他の機器によって送信された処理される画像を受信することであってもよく、前記処理される画像には、ジェスチャが含まれてもよいし、ジェスチャが含まれなくてもよい。前記処理される画像は、収集されたビデオシーケンス内の1フレームの画像であり得る。
ステップS102において、前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得する。
いくつかの実施例において、処理される画像をニューラルネットワークに入力し、当該ニューラルネットワークによって、処理される画像に対して特徴抽出が実行され、画像特徴が取得される。ジェスチャの姿勢情報は、ジェスチャの位置情報、ジェスチャの方向およびジェスチャが属するカテゴリを含む。まず、画像特徴に基づいて、ジェスチャを含む確率が特定の確率閾値より大きいターゲット候補フレームを決定し、処理される画像における当該候補フレームの第1座標を決定し、当該第1座標をジェスチャの位置情報として使用する。次に、ターゲット候補フレームを分類ネットワークに入力して、当該ターゲット候補フレームにジェスチャが含まれるか否かを決定し、ターゲット候補フレームにジェスチャが含まれると、当該ジェスチャが属するカテゴリを決定する。
ステップS103において、前記姿勢情報に従って、インテリジェント車両の運動状態を制御する。
いくつかの実施例において、前記インテリジェント車両は、スマートトイカー、様々な機能を備えた車両、様々なホイールの数を備えた車両など、またはロボットなどであり得る。前記姿勢情報に対応する命令をインテリジェント車両に送信して、前記インテリジェント車両の運動状態を調整する。前記インテリジェント車両の運動状態は、静止、方向転換、バックまたは直進などを含み、前記ステップS103は、ジェスチャが属するカテゴリに対応する命令を当該インテリジェント車両のコントローラに送信して、当該インテリジェント車両の運動方向を制御して実現でき、ラズベリーパイが姿勢情報に従って、制御命令を生成して、当該インテリジェント車両の運動方向を制御して実現することもできる。前記コントローラは、インテリジェント車両の内部のコントローラであってもよいし、前記インテリジェント車両から独立し、且つ前記インテリジェント車両の運動方向を制御するためのレゴ第3世代スマートロボット(EV3)であってもよい。
本願実施例において、ニューラルネットワークに基づいて、処理される画像に対して特徴抽出を実行し、画像特徴を正確に取得することにより、ジェスチャのカテゴリを決定し、ジェスチャのカテゴリに従って制御命令を決定し、さらにインテリジェント車両の運動方向を効果的に制御する。
本願実施例は、インテリジェント車両の運動制御方法を提供し、図2Aは、本願実施例のインテリジェント車両の運動制御方法の別の実現プロセスの概略図であり、図2Aに示された方法を参照して説明する。
ステップS201において、処理される画像を取得する。
ステップS202において、前記処理される画像のサイズに対して正規化処理を実行して、プリセットのサイズを満たす正規化画像を取得する。
いくつかの実施例において、処理される画像が、1セグメントのビデオシーケンス内のマルチフレーム画像である場合、当該ビデオシーケンスのフレームレートに従って当該ビデオシーケンスを複数の画像に分解する必要がある。次に、複数の画像のうちの各画像のサイズを正規化して、当該複数の画像のサイズを一致させ、それにより、処理される画像をニューラルネットワークに入力した後、出力した特徴図を一致にさせる。
ステップS203において、前記正規化画像をグレースケール画像に変換する。
いくつかの実施例において、正規化画像の色の特徴を無視することにより、正規化画像をグレースケール画像に変換する。
ステップS204において、前記グレースケール画像のピクセルを制限して、平均ピクセル値が0である正則画像を取得する。
いくつかの実施例において、グレースケール画像のピクセルを分散化し、即ち、画像内の各位置の平均ピクセル値を0にして、ピクセル値の範囲を[-128,127]に変更させ、0を中心にする。各位置の正および負のピクセル数が「ほぼ同じ」である場合、勾配の変化方向が不確実になり、このようにして重みの収束を加速することができるためである。
上記のステップS202ないしS204は、処理される画像を前処理する実施形態を開示し、当該方式では、まず、処理される画像に対して正規化処理を実行し、次に、色を変換し、最後に当該画像に対して正則化処理を実行して、平均ピクセル値が0である正則画像を取得し、それにより、後続の特徴抽出とジェスチャの分類に役立つ。
ステップS205において、前記処理される画像を前記ジェスチャ認識ニューラルネットワークに入力して、ターゲット候補フレームを検出する。
いくつかの実施例において、まず、処理される画像をニューラルネットワークに入力して、特徴抽出を実行し、次に、抽出された画像特徴に基づいて、ジェスチャを含む確率がプリセットの確率閾値より大きいターゲット候補フレームを決定する。
ステップS206において、前記ジェスチャ認識ネットワーク内の前記ターゲット候補フレームを分類することにより、前記ターゲット候補フレーム内のジェスチャ、前記ジェスチャの方向および前記ジェスチャのカテゴリを決定する。
いくつかの他の実施形態において、ジェスチャが属するカテゴリと方向を決定することは、プリセットのジェスチャカテゴリライブラリから前記ターゲット候補フレームの画像特徴の類似度がプリセットの類似度閾値より大きいターゲットジェスチャを探し、前記ターゲットジェスチャが属するカテゴリと方向を前記ジェスチャが属するカテゴリと方向に決定する。図6(c)に示されたように、ジェスチャ方向は上向きであり、且つジェスチャカテゴリは上に向かって親指を立てることである。
ステップS207において、前記ターゲット候補フレームの位置に従って前記ジェスチャの位置情報を決定する。
いくつかの実施例において、ターゲット候補フレームにジェスチャが含まれることに応答して、当該ターゲット候補フレームに基づいてジェスチャの位置情報を決定する。例えば、前記処理される画像の中心が原点である場合、前記処理される画像における前記ターゲット候補フレームの2つの対角の座標を前記ターゲット候補フレームの位置として使用する。いくつかの具体的な例において、前記処理される画像におけるターゲット候補フレームの左上隅および右下隅の座標をターゲット候補フレームの座標として決定して、ジェスチャの位置情報を決定する。前記処理される画像にジェスチャが含まれないことに応答して、プリセットの識別フィールドを使用して前記識別される画像を識別し、このようにして、ジェスチャを含まない画像に対する認識の繰り返しと、リソースの浪費を減らす。
ステップS208において、前記ジェスチャの位置情報、前記ジェスチャの方向および前記ジェスチャのカテゴリに従って、前記処理される画像内のジェスチャの姿勢情報を決定する。
上記のステップS205およびステップS208では、「ジェスチャの姿勢情報を決定する」実施形態を開示し、当該実施形態では、姿勢情報は、ジェスチャの位置情報、ジェスチャのカテゴリおよび方向を含み、ニューラルネットワークによって位置情報およびジェスチャのタイプを決定し、それにより、ジェスチャが属するカテゴリをより正確に認識し、インテリジェント車両の運動を効果的に制御する。
ステップS209において、前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整して、収集された処理される画像にジェスチャが含まれるようにする。
いくつかの実施例において、前記インテリジェント車両の収集方式を調整することは、インテリジェント車両の収集装置の支持部品の運動方向を調整して、収集装置の収集方向を変更することであり得、例えば、収集装置を支持するパンチルトの運動方向を調整する。
前記ステップS209は、以下のプロセスによって実現できる。まず、前記ジェスチャのターゲット候補フレームの位置に従って、前記ターゲット候補フレームの中心と前記処理される画像の中心との第1距離を決定する。次に、前記第1距離の負の相関値に従って、前記カメラの画像収集焦点と前記処理される画像の中心との距離を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにする。例えば、前記ターゲット候補フレームの位置に従って、インテリジェント車両の焦点距離から処理される画像の中心への偏差を調整して、インテリジェント車両が収集した処理される画像内のジェスチャが中心に位置させる。このようにして、インテリジェント車両の画像収集焦点を調整した後、インテリジェント車両が収集した処理される画像にジェスチャが含まれるようにする。次に、前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定し、ここで、前記ジェスチャのカテゴリおよび方向は、インテリジェント車両の運動方向に一対一で対応し、前記現在の運動方向およびプリセットの対応関係表に従って、前記インテリジェント車両と接続するカメラの収集方向を調整し、ここで、前記プリセットの対応関係表は、前記現在の運動方向と前記収集方向との対応関係を含む。このようにして、インテリジェント車両がリアルタイムで運動しても、依然としてカメラが収集した処理される画像にジェスチャが含まれ、ジェスチャが中間に位置させる。
ステップS210において、前記姿勢情報に従って、インテリジェント車両の運動状態を制御する。
本願実施例において、ニューラルネットワークを採用して処理される画像を分析して、ジェスチャのカテゴリを正確に認識し、カメラの収集方向をリアルタイムで調整することにより、インテリジェント車両が収集した処理される画像内のジェスチャが中間に位置させ、さらに、検出効果を明らかに向上し、インテリジェント車両の運動状態を効果的に制御する。
本願実施例は、インテリジェント車両の運動制御方法を提供し、図2Bは、本願実施例のインテリジェント車両の運動制御方法の別の実現プロセスの概略図であり、図2Bに示された方法を参照して説明する。
ステップS211において、処理される画像を取得する。
ステップS212において、前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得する。
いくつかの実施例において、ジェスチャの姿勢情報は、ジェスチャのカテゴリと方向を含む。
ステップS213において、前記処理される画像の中心が原点である場合、前記処理される画像における前記ターゲット候補フレームの2つの対角の座標を前記ターゲット候補フレームの位置として使用する。
いくつかの実施例において、ターゲット候補フレームにジェスチャが含まれているため、ターゲット候補フレームの位置を決定した後、ジェスチャの位置情報も決定される。
ステップS214において、前記ジェスチャのターゲット候補フレームの位置に従って、前記ターゲット候補フレームの中心と前記処理される画像の中心との第1距離を決定する。
いくつかの実施例において、ターゲット候補フレームの左上隅および右下隅の座標に従って、ターゲット候補フレームの中心の座標を決定でき、当該ターゲット候補フレームの中心の座標に基づいて、当該ターゲット候補フレームの中心と、処理される画像の中心との距離、即ち、第1距離を決定できる。
ステップS215において、ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定する。いくつかの実施例において、前記ジェスチャのカテゴリはインテリジェント車両の運動方向に一対一で対応し、表2に示されたように、例えば、ジェスチャが勝利(Victory)ジェスチャであり、且つ、ジェスチャ方向が上向きである場合、対応的に、インテリジェント車両の運動方向は直進である。
ステップS216において、前記ターゲット候補フレームのサイズとプリセットの候補フレームのサイズとの比率を決定する。
いくつかの実施例において、ユーザは、プリセットの候補フレームのサイズをカスタマイズでき、ニューラルネットワークを介してターゲット候補フレームのエッジを検出して、ターゲット候補フレームのサイズを決定し、次に、ターゲット候補フレームのサイズとプリセットの候補フレームのサイズとの比率を決定することができる。
ステップS217において、前記第1距離および前記現在の運動方向をそれぞれ更新する。
いくつかの実施例において、前記ステップS217は、以下のプロセスによって実現できる。まず、前記比率に従って、前記第1距離および前記現在の運動方向にそれぞれ対応する第1重み値および第2重み値を決定する。いくつかの具体的な例において、まず、前記比率に対応するプリセットの比率区間を決定し、当該比率が該当するプリセットの比率区間および比率区間と重み値との対応関係を表すためのマッピング表(表1に示されたように)に基づいて、前記第1距離および前記現在の運動方向にそれぞれ対応する第1重み値および第2重み値を決定する。第1距離に対してターゲット候補フレームの中心が処理される画像の中心に位置するか否かを决定したため、第1重み値を固定値に設定でき、例えば1に設定でき、第2重み値に対して、比率が増やす場合、対応的に第2重み値を増やし、表1に示されたように、例えば、ターゲット候補フレームのサイズとプリセットの候補フレームのサイズとの比率が0.8より小さい場合、第1距離に対応する第1重み値は1であり、現在の運動方向に対応する第2重み値は0.5であり、ターゲット候補フレームのサイズとプリセットの候補フレームのサイズとの比率が0.8より大きく且つ1.2より小さい場合、現在の運動方向に対応する第2重み値は0.6である。次に、前記第1重み値に従って前記第1距離を更新して、更新された第1距離を取得し、例えば、第1重み値と第1距離を乗算して、更新された第1距離を取得する。最後に、前記第2重み値に従って前記現在の運動方向を更新して、更新された現在の運動方向を取得する。例えば、インテリジェント車両で、収集装置を使用して、処理される画像を収集し、第2重み値を使用して現在の運動速度のサイズを決定し、それにより、インテリジェント車両の収集装置の運動速度を制御し、収集装置の収集方向に対する調整を実現する。
ステップS218において、更新された第1距離の負の相関値に従って、前記カメラの焦点と前記処理される画像の中心との距離を調整する。
いくつかの実施例において、前記インテリジェント車両の画像収集焦点と前記処理される画像の中心との距離を調整して、更新された第1距離と負の関連があるようにする。更新された第1距離に基づいて、非線形負の関連の方式を使用して、インテリジェント車両の焦点と前記処理される画像の中心との距離を調整し、更新された第1距離が大きい場合、ターゲット候補フレームの中心が処理される画像の中心から逸脱していることを示し、即ち、インテリジェント車両の焦点が処理される画像の中心から逸脱していることを示し、この場合、前記インテリジェント車両の焦点と前記処理される画像の中心との距離を調整して、前記第1距離と非線形負の関連があるようにする。
ステップS219において、前記更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにする。
いくつかの実施例において、前記プリセットの対応関係表は、前記現在の運動方向と前記収集方向との対応関係を表すために使用され、即ち、各運動方向は、1つのカメラの収集方向に対応することを表し、前記ステップS219は、まず、プリセットの対応関係表から、当該更新された現在の運動方向と同じターゲット運動方向、当該ターゲット運動方向のプリセットの対応関係表でのカメラの収集方向の調整方式を探し、次に、当該調整方式を使用してカメラの収集方式を調整することに理解できる。例えば、現在の運動方向が前進である場合、カメラの直立方向の上昇を減少する。現在の運動方向がバックである場合、カメラの直立方向の上昇を増加して、収集装置の位置を柔軟に調整し、ジェスチャを含む画像をよりよくキャプチャする。
上記のステップS216ないしS219は、「前記ターゲット候補フレームの位置および前記ジェスチャが属するカテゴリと方向に従って、前記インテリジェント車両と接続するカメラを調整する」ことを実現する方式を開示し、当該方式では、プリセットの候補フレームとターゲット候補フレームの比率を決定して、カメラの収集方向を調整する2つのパラメータ(即ち、第1距離およびインテリジェント車両の現在の運動方向)の重み値を決定し、この2つのパラメータを更新して、インテリジェント車両の収集装置の収集方向をリアルタイムで調整できる。
ステップS220において、収集方向を調整した後の前記カメラの事前収集画像を決定する。
いくつかの実施例において、インテリジェント車両と接続するカメラの収集方向を調整した後、事前収集された画像内のジェスチャが以前として画像の中心に位置していない可能性があり、この場合、事前収集された画像内のジェスチャと画像の中心との差距をフィードバック結果として使用して、当該フィードバック結果に基づいてカメラの収集方向を調整し続ける必要がある。例えば、ステップS219を実行する前に、ターゲット候補フレームの中心と前記処理される画像の中心との第1距離が10ミリであり、ステップS219を実行した後、事前収集された画像内のジェスチャと画像の中心との差が3ミリであると、3ミリ差を二回フィードバックとして使用し、コントローラに知らせ、依然としてカメラの収集方向を調整する必要がある。
ステップS221において、第2距離を決定する。
いくつかの実施例において、前記第2距離は、前記事前収集画像内のターゲット候補フレームの中心と前記事前収集された画像の中心との距離であり、前記ターゲット候補フレームにはジェスチャが含まれる。
ステップS222において、前記第2距離に従って前記カメラの収集方向を調整して、前記ターゲット候補フレームが前記事前収集画像の中心領域に位置させ、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにする。
ステップS223において、調整後のカメラを採用して新しい処理される画像を収集する。
ステップS224において、前記新しい処理される画像に対してジェスチャ認識を実行して、前記新しい処理される画像内のジェスチャの姿勢情報を取得する。
ステップS225において、前記新しい処理される画像内のジェスチャの姿勢情報に従って、インテリジェント車両の運動状態を制御する。
いくつかの実施例において、二回目にフィードバックされた事前収集された画像内のジェスチャのターゲット候補フレームの中心と事前収集された画像の中心との差に基づいて、カメラの収集方向を調整し続けて、ジェスチャのターゲット候補フレームの中心が事前収集された画像の中心領域に位置させ、それにより、収集された処理される画像内のジェスチャが画像中心に位置させ、ジェスチャ認識の精度を向上させることに役立つ。
本願実施例において、位置情報、ジェスチャのカテゴリおよび方向に基づいてカメラの収集方向を調整した後、ジェスチャのターゲット候補フレームが以前として処理される画像の中心に位置していない場合、両者間の差を二回フィードバックとして使用し、当該二回フィードバックに基づいて、カメラの収集方向を調整し続けて、ジェスチャが処理される画像の中心に位置させ、それにより、ジェスチャを使用してインテリジェント車両の運動をより正確に制御できる。
関連技術において、ワイヤレスラジコンインテリジェント車両は、ワイヤレスラジコン装置を使用して方向転換などの動作を実現し、ディープラーニング技術の台頭と活発な開発に伴い、ジェスチャ認識をワイヤレスラジコンカー技術案として使用することは新しいハイライトとホットスポットになった。しかしながら、ジェスチャ認識技術案は、ほとんどは、アームバンドまたはリストバンド、タッチスクリーンセンシングおよびジェスチャ画像に基づいて実現される。例えば、以下の複数の方式によって実現できる
方式1、ユーザの腕に装着されたアームバンド機器、運動センサユニットを介してユーザの腕の運動および姿勢を検出し、それにより、トイカーに対するラジコン制御を実現する。
方式2、タッチスクリーン上のユーザのジェスチャ動作を収集し、関連する動作に従ってジェスチャ座標を決定することにより、ジェスチャタイプを決定し、その基で関連する制御を実現する。
方式3、カメラを介してジェスチャ情報を収集し、人間とコンピュータとの対話のスマート画像情報処理技術を介して、車に対する制御を完了しマップを描き、自動的運動モードでの車の自動的に障害物を回避することを実現する。
方式4、ジェスチャターゲット領域を分割することを介して、エッジ検出と輪郭抽出を実行し、新しい特徴空間にマッピングすることによりジェスチャ認識を完了する。上記の特許に記載のジェスチャ認識技術案は、基礎的なジェスチャ分類を実現できるが、これらの方式のハードウェアに対する依存が大きく、認識の制度を改善する必要がある。
これに基づいて、本願実施例は、ジェスチャ認識方法を提供し、図3は、本願実施例のインテリジェント車両の運動制御方法の実現プロセスの概略図であり、図3に示された方法を参照して説明する。
ステップS301において、ラズベリーパイが、収集装置により画像を収集し、前処理および認識を実行する。
いくつかの実施例において、ラズベリーパイが収集された画像に対して実行した前処理プロセスは、まず、前記処理される画像のサイズを正規化処理して、プリセットのサイズを満たす正規化画像を取得し、次に、前記正規化画像をグレースケール画像に変換し、最後に、前記グレースケール画像のピクセルを制限して、平均ピクセル値が0である正則画像を取得することを含む。ラズベリーパイは、インテリジェント車両内のコントローラとして理解でき、処理される画像を収集し、処理される画像に対して前処理および画像認識を実行するために使用される。即ち、本願実施例は、ジェスチャに基づいてワイヤレスラジコンインテリジェント車両を認識することを実現でき、ここで、ジェスチャ認識は、ジェスチャを含む画像を収集することにより、ディープラーニング技術を適用して画像を検出し分類し、ジェスチャターゲット領域の抽出およびジェスチャ分類の2つの作業を含む。ここで、よりよい効果の画像を収集し、収集装置のパンチルトを構築するために、収集装置の位置を自由に調整して、よりよいジェスチャ画像を取得することができる。同時に、ネットワークモデルに送信された画像の一致性を向上させるために、まず、収集された画像を前処理する必要があり、前処理するプロセスは図4に示されたとおりであり、画像の前処理プロセスは、以下の4つのステップを含む。
ステップS401において、収集されたビデオフレームレートに従って、当該ビデオを前記ビデオフレームレートとマッチングする数の画像に分解して、画像セットを取得する。
例えば、まず、ビデオを分解するとき、元のビデオデータフレームレートを考慮し、ビデオのフレームレートに従って分解画像の数を决定する必要がある。例えば、フレームレートが30であると、即ち、1秒のビデオに30枚の画像があると、この1秒のビデオを30枚の画像に分解する。
ステップS402において、画像セットのうちの各画像のサイズに対して正規化処理を実行して、サイズが一致する画像セットを取得する。このようにして、画像セットの画像のサイズを正規化し、入力ニューラルネットワークの画像の特徴図の一致性を向上させる。
ステップS403において、各画像の色をグレーに変換して、グレースケール画像を取得する。
例えば、各画像の色の特徴を無視して、カラー画像をグレースケール画像に変換する。
ステップS404において、取得された各グレースケール画像に対して正則化処理を実行して、平均ピクセル値が0である正則画像を取得する。このようにして、各グレースケール画像に対して正則化処理を実行して、画像のゼロ平均値特性を改善し、重みの収束を加速する。
いくつかの実施例において、ラズベリーパイ側では、ジェスチャ分類は、ディープニューラルネットワークモデルを介して実現され、ネットワーク入力は、前処理された画像を介し、出力結果は、ジェスチャが位置する領域およびジェスチャの具体的なタイプの2つの部分を含む。本願実施例でジェスチャ認識はジェスチャ追跡機能を統合し、ジェスチャ分類の全体的なプロセスは、主に、ジェスチャ検出、ジェスチャ追跡およびジェスチャ認識の3つの段階に分ける。
第1段階、ジェスチャ検出は、ジェスチャ認識システムの最初のプロセスであり、ジェスチャターゲットの存在を判断した後、画像を追跡し認識する。関連技術では、画像に色、輪郭および運動の情報などに基づいてジェスチャがあるか否かを判断するが、このような方式は、光などの要因の影響を受け、差が比較的に大きい。これに基づいて、本願実施例は、ニューラルネットワーク方式を使用して画像特徴を自動的に抽出し、ジェスチャ分類を完了し、プロセスは図5に示されたとおりであり、以下のステップを含む。
ステップS501において、前処理された画像を取得する。
ステップS502において、ニューラルネットワークを採用して、ジェスチャのターゲット候補フレームを生成する。
いくつかの実施例において、ニューラルネットワークは、まず、前処理された画像特徴を抽出し、当該画像特徴に基づいて分類器ネットワークを構築し、次に、各候補フレームを分類し、当該候補フレームにジェスチャがあるか否かを判断する。
ステップS503において、ターゲット候補フレームにジェスチャがあるか否かを判断する。
いくつかの実施例において、ターゲット候補フレームにジェスチャがある場合、ステップS504に入り、ターゲット候補フレームにジェスチャがない場合、ステップS505に入る。
ステップS504において、ターゲット候補フレーム内のジェスチャを追跡し、ジェスチャのカテゴリを決定する。
第2段階、ジェスチャ追跡は、ジェスチャ認識システムの二番目のプロセスであり、いくつかの実施例において、本願実施例のビデオシーケンスでは、収集された画像セット内のジェスチャの連続性のため、画像をサンプリングに分析すればよく、各フレームの画像をすべて処理し分析する必要なく、選択された画像でジェスチャを検出し、ジェスチャの位置情報を決定し、このようにジェスチャのトラックを抽出して、連続するフレーム画像間の連絡を強化し、正確性およびリアルタイム性の妥協を実現し、ロバスト性追跡を実現できる。
第3段階:ジェスチャ認識は、ジェスチャ認識システムの三番目のプロセスであり、当該プロセスによって主に、ジェスチャ位置、姿勢およびジェスチャ動作が表す情報に対する説明を実現し、本願実施例は、上記のプロセスで抽出して得た特徴に対して検出追跡を実行し、追跡トラック情報を処理する。しかし、背景変化の複雑性のため、収集装置のパンチルトの位置をリアルタイムで調整することにより、ジェスチャ画像を収集する効果を向上させる。
ステップS302において、ディープラーニングに基づいてジェスチャ分類を実現し、ジェスチャが位置する領域を位置づける。
ステップS303において、シリアルポートの方式を介して検出結果をEV3に送信する。
いくつかの実施例において、ディープニューラルネットワークを介してジェスチャを分類した後、まず、ジェスチャカテゴリ、ターゲット候補フレームの左上隅座標および右下隅座標を、10バイトの空間を使用して記憶する。複数のターゲット候補フレームがある場合、当該複数のターゲット候補フレームを順次に格納し、処理される画像にジェスチャがない場合、255をマークとして認識する。次に、カスタマイズされた通信プロトコルの仕様に従って、状態情報をデータフィールドにパッケージし、データパケットのパッケージフォーマットは、図7に示されたとおりであり、状態情報601の両側にモードフラグビット602およびCRC検定ビット603をそれぞれパッケージし、次に、選択的フィールド604、再送信閾値605および制御フィールド606のヘッダとしてパッケージし、当該プロトコルデータパケットは、伝送制御プロトコル/インターネットプロトコル(TCP/IP:Transmission Control Protocol/Internet Protocol)プロトコルと互換性がある。データのパッケージが終了した後、シリアルポートを介してデータ送信を完了し、送信するとき、データパケットのバイト長さ、停止ビットおよびボーレートなどのパラメータを定義する必要がある。
ステップS304において、ジェスチャ位置座標に従って、EV3が、収集装置のパンチルト位置を調整して、ジェスチャが画像の中心に位置させる。
いくつかの実施例において、EV3は、ラズベリーパイ側から送信されたデータパケットを受信し解析し、データパケットのデータフィールドからジェスチャタイプ情報およびジェスチャ位置を取得する。次に、ジェスチャ位置情報に従って、適応フィードバックの方式を使用して、現在のインテリジェント車両の運動状態およびジェスチャ位置情報を統合し、パンチルト位置を柔軟に調整し、収集された画像効果を向上させ、当該調整プロセスは図8Aに示されたように、以下のステップを含む。
ステップS701において、ジェスチャの位置情報に従って、候補フレームの中心と、処理される画像の中心との第1距離を決定する。
いくつかの実施例において、第1距離をパンチルト調整のパラメータ規格とする。
ステップS702において、ジェスチャが属するカテゴリに従って、インテリジェント車両当時の運動方向を判断する。
ステップS703、インテリジェント車両当時の運動方向および第1距離に従って、パンチルトの運動方向に対して一級調整を実行する。
いくつかの実施例において、インテリジェント車両当時の運動方向および第1距離をパンチルトの運動方向に対して一級調整を実行するパラメータとして使用し、ブラー論理を使用して運動方向の調整およびジェスチャの調整を統合して、パンチルトの一級調整の評価指数とする。例えば、運動方向が前進である場合、パンチルトの直立方向の上昇を減少する。運動方向がバックである場合、パンチルトの直立方向の上昇を増加する。
ターゲット候補フレームのサイズと参照候補フレームのサイズの比率を決定し、当該比率に基づいて運動方向および第1距離を更新し、更新された運動方向および第1距離に基づいて、パンチルトの運動方向を調整する。
参照ジェスチャターゲットフレームのサイズを設定し、ターゲット候補フレームのサイズと参照ターゲットフレームの比率に従って、重みサイズを設定して、運動方向および第1距離のサイズを調整し、具体的なパラメータは表1を参照されたい。
ステップS704において、一級調整された収集装置の事前収集画像内の候補フレームの中心と、処理される画像の中心との距離を、フィードバック評価指数とする。
いくつかの実施例において、パンチルトに対して一級調整を実行した後、候補フレームの中心と、処理される画像の中心との第1距離を減少することができるが、候補フレームの中心と、処理される画像の中心の間には依然として差があり、この差を第2距離として使用し、二回フィードバックを実行して、当該差に基づいて、パンチルトの運動方向を調整し続けて、収集装置の収集方向を調整し続けることができる。
ステップS705において、二級フィードバック評価指数に基づいて、パンチルトの運動方向を調整し続けて、収集された画像内のジェスチャが中心に位置させる。
本願実施例において、上記のプロセスを繰り返し、即ち、パンチルトの適応調整プロセスを実現することができる。
上記のステップS701ないしS705は、図8Bに示されたモジュールによって実現できる。
ビデオシーケンスモジュール721は、ビデオシーケンスを取得するように構成される。
ジェスチャ位置モジュール722は、ビデオシーケンス内のジェスチャ位置を検出し、ジェスチャ位置を決定するように構成される。
一級調整モジュール723は、座標調整モジュール724と運動方向調整モジュール725を備え、ここで、
座標調整モジュール724は、インテリジェント車両現在の位置の座標に従ってパンチルトの運動方向を調整するように構成され、
運動方向調整モジュール725は、インテリジェント車両現在の運動方向に従ってパンチルトの運動方向を調整するように構成される。
画像の中心からのユークリッド距離モジュール726は、一級調整された収集装置の事前収集画像内の候補フレームの中心と、処理される画像の中心との距離として使用される。
ここで、画像の中心からのユークリッド距離モジュール726によって決定された距離を、フィードバック評価指数として、コントローラにフィードバックして、パンチルトの運動方向に対して二級調整を実行する。
二級調整モジュール727は、二級フィードバック評価指数に基づいて、パンチルトの運動方向を調整し続けて、収集された画像内のジェスチャが中心に位置させるように構成される。
ビデオシーケンスの分解に対して、以下のステップを介してパンチルトの位置を調整して、収集装置がジェスチャの位置を常に収集できるようにする。車体がリアルタイムで運動していることを考慮して、当時の運動方向を調整パラメータとする必要があり、プロセスは、以下のステップを含む。第1歩、取得されたジェスチャの位置座標を介して、画像中心からの距離を計算でき、当該距離をパンチルトの調整パラメータの規格とする。第2歩、ジェスチャタイプに従って、車体当時の運動方向を判断する。第3歩、ブラー論理を使用して運動方向の調整およびジェスチャの調整を統合して、パンチルトの一級調整の評価指数とする。運動方向が前進である場合、パンチルトの直立方向の上昇を減少する。運動方向がバックである場合、パンチルトの直立方向の上昇を増加する。第4歩、参照ジェスチャターゲットフレームのサイズを設定し、実のターゲットフレームサイズが参照ターゲットフレームによって設定された重みサイズに対応することに従って、2つの調整パラメータのサイズを調整し、具体的なパラメータは表1を参照されたい。第5歩、一級調整の後、次のフレームのジェスチャターゲットフレームの検出結果をフィードバックの評価指数とすることに従って、二級調整を実行する。上記のプロセスを繰り返し、即ち、パンチルトの適応調整プロセスを実現することができる。
Figure 2022507635000002
ステップS305において、EV3がジェスチャ名称を決定し、ジェスチャに従って関連する命令を完了する。
EV3は、ジェスチャタイプを介して関連する運動を完了でき、直進、バック、直角左旋回、直角右旋回、アーク左旋回、アーク右旋回および停止の、合計7つの運動モードを含む。具体的なジェスチャタイプと運動モードの対応関係は表2に示されたとおりである。レゴインテリジェント車両は、ディファレンシャルステアリングメカニズムを採用し、直角旋回するとき単一なタイヤの回転で実現し、アーク旋回するとき左右2つのタイヤの異なる旋回速度と回転角度を制御することにより実現し、旋回の角度および速度が固定しているため、アーク回転のトラックは固定する。
Figure 2022507635000003
本願実施例において、検出効果を向上させるために、収集装置のパンチルトを構築し、パンチルトの回転角度および領域を設定して、パンチルトの作業安定性を向上させ、収集装置の角度適応アルゴリズムを設計および調整し、当該アルゴリズムは、パンチルトと合わせて共に使用させる。ジェスチャの位置に従ってパンチルトをリアルタイムで調整して、検出効果を明らかに向上させることができ、ディープラーニング技術をワイヤレスラジコン分野に適用し、ほとんどのラジコン機器および嵌め込み機器に使用されることができ、互換性が強く、転移コストが低い。
他の実施例において、表2におけるジェスチャのカテゴリと運動モードとの対応関係に対して、
運動モード直進を図6hに示されたジェスチャに対応させ、運動モード停止を図6iに示されたジェスチャに対応させ、運動モード直角左旋回を図6jに示されたジェスチャに対応させ、運動モード直角右旋回を図6kに示されたジェスチャに対応させ、運動モードバックを図6lに示されたジェスチャに対応させるなどであり得る。本願実施例において、ジェスチャのカテゴリと運動モードの対応関係は、任意の設定されたジェスチャのカテゴリと運動モードとの対応関係であり得る。
ジェスチャ認識に基づくワイヤレススマート制御技術案は、特に、スマートホームシステムまたはワイヤレスラジコンシステムにおいて、多くの分野で非常に重要な作用があり、このような技術案は、すべてのラジコンインタフェースと互換性があり、機器固有のワイヤレスリモコンを置換することができる。しかしながら、ジェスチャ認識にはまだ緊急の問題がある。まず、ジェスチャの背景はほとんど乱雑で多様であり、このような背景でジェスチャが位置する領域をどのように効果的に抽出するか。次に、異なる領域、年齢、性別の人のジェスチャ形態と角度は様々である可能性があり、すべてのシステムと互換性がある壮健なモデルをどのように確立するかも、大きなチャレンジである。これらの要因を総合して、ジェスチャ認識の難易度が高くなる。なお、ジェスチャ認識の結果情報は、関連する命令が正確に実行させるために、1セットの完全な無線通信プロトコルの仕様が必要である。
本願実施例は、1セットの完全なジェスチャ認識に基づいてインテリジェント車両のワイヤレスラジコンを実行する技術案を提供し、ラズベリーパイ側でジェスチャ分類を完了し、インテリジェント車両が関連する命令を完了するように制御する。ラズベリーパイ側で、ディープニューラルネットワークモデルに基づいて、ジェスチャ領域を分割し、効果的なジェスチャ特徴を抽出して、ジェスチャ分類を完了する。ジェスチャの位置および姿勢分析に基づいて、カメラの角度を調整する適応アルゴリズムを設計し、カメラ角度を継続的に修正して、ジェスチャが画像に位置させ、ジェスチャ認識の精度を向上させ、様々な複雑な環境に適用される。
本願実施例による技術案は、ジェスチャ認識に基づくワイヤレスラジコンインテリジェント車両を実現できる。主に、以下の5つのステップに分ける。第1歩、ラズベリーパイがカメラを介して画像を収集し、関連する前処理を実行する。第2歩、ラズベリーパイ側でディープラーニング技術に基づいてジェスチャ分類を実現し、ジェスチャが位置する領域を位置づける。第3歩、ラズベリーパイが、シリアルポートの方式を介して検出結果をEV3に送信する。第4歩、ジェスチャの位置座標に従って、EV3がカメラパンチルトの位置を調整して、ジェスチャが画像の中心に位置させる。第5歩、EV3が、ジェスチャ名称を報告し、ジェスチャに従って関連する命令を完了する。
検出効果を向上させるために、この技術案は、カメラパンチルトを構築し、パンチルトの回転角度および領域を設定して、パンチルトの作業安定性を向上させる。
本願実施例によるカメラの角度を調整する適応アルゴリズムは、パンチルト合わせて共に使用され、ジェスチャの位置に従ってパンチルトをリアルタイムで調整して、検出効果を明らかに向上させることができる。
本願実施例は、ディープラーニング技術をワイヤレスラジコン分野に適用し、ほとんどのラジコン機器および嵌め込み機器に使用されることができ、互換性が強く、転移コストが低い。
本願実施例は、インテリジェント車両の運動制御装置を提供し、図9は、本願実施例のインテリジェント車両の運動制御装置の構成の例示的な構造図であり、図9に示されたように、前記装置900は、
処理される画像を取得するように構成される、第1取得モジュール901と、
前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得するように構成される、第1認識モジュール902と、
前記姿勢情報に従って、インテリジェント車両の運動状態を制御するように構成される、第1制御モジュール903と、を備える。
いくつかの実施例において、前記装置は、さらに、前記処理される画像を前処理するように構成される、第1前処理モジュールを備え、前記第1前処理モジュールは、前記処理される画像のサイズに対して正規化処理を実行して、プリセットのサイズを満たす正規化画像を取得するように構成される、第1処理サブモジュールと、前記正規化画像をグレースケール画像に変換するように構成される、第1変換サブモジュールと、前記グレースケール画像のピクセルを制限して、平均ピクセル値が0である正則画像を取得するように構成される、第1正則化サブモジュールと、を備える。
いくつかの実施例において、前記第1認識モジュール902は、前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得するように構成される、第1認識サブモジュールを備える。
いくつかの実施例において、前記第1認識サブモジュールは、前記処理される画像を前記ジェスチャ認識ニューラルネットワークに入力して、ターゲット候補フレームを検出するように構成される、第1検出ユニットと、前記ジェスチャ認識ネットワーク内の前記ターゲット候補フレームを分類することにより、前記ターゲット候補フレーム内のジェスチャ、前記ジェスチャの方向および前記ジェスチャのカテゴリを決定するように構成される、第1分類ユニットと、前記ターゲット候補フレームの位置に従って前記ジェスチャの位置情報を決定するように構成される、第1決定ユニットと、前記ジェスチャの位置情報、前記ジェスチャの方向および前記ジェスチャのカテゴリに従って、前記処理される画像内のジェスチャの姿勢情報を決定するように構成される、第2決定ユニットと、を備える。
いくつかの実施例において、前記ターゲット候補フレームの位置は、前記処理される画像の中心が原点である場合、前記処理される画像における前記ターゲット候補フレームの2つの対角の座標を前記ターゲット候補フレームの位置として使用することを含む。
いくつかの実施例において、前記第1制御モジュール903は、受信された前記姿勢情報に従って前記ジェスチャに対応する命令を取得し、前記命令に従って前記インテリジェント車両の運動状態を制御するように構成される、第1制御サブモジュールを備える。
いくつかの実施例において、前記装置は、さらに、前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整して、収集された処理される画像にジェスチャが含まれるようにするように構成される、第1調整モジュールを備える。
いくつかの実施例において、前記第1調整モジュールは、前記ジェスチャのターゲット候補フレームの位置に従って、前記ターゲット候補フレームの中心と前記処理される画像の中心との第1距離を決定するように構成される、第1決定サブモジュールと、前記第1距離の負の相関値に従って、前記カメラの画像収集焦点と前記処理される画像の中心との距離を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第1調整サブモジュールと、を備える。
いくつかの実施例において、前記第1調整モジュールは、前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定するように構成される、第2決定サブモジュールであって、ここで、前記ジェスチャのカテゴリおよび前記ジェスチャの方向は、前記インテリジェント車両の運動方向に一対一で対応する第2決定サブモジュールと、前記現在の運動方向およびプリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第2調整サブモジュールと、を備え、ここで、前記プリセットの対応関係表は、前記現在の運動方向と前記収集方向との対応関係を含む。
いくつかの実施例において、前記装置は、さらに、前記ターゲット候補フレームのサイズとプリセットの候補フレームのサイズとの比率を決定するように構成される、第1決定モジュールと、前記比率に従って、前記第1距離および前記現在の運動方向をそれぞれ更新するように構成される、第1更新モジュールと、更新された第1距離の負の相関値に従って、前記カメラの焦点と前記処理される画像の中心との距離を調整するように構成される、第2調整モジュールと、前記更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第3調整モジュールと、を備える。
いくつかの実施例において、前記第1更新モジュールは、前記比率に従って、前記第1距離および前記現在の運動方向にそれぞれ対応する第1重み値および第2重み値を決定するように構成される、第3決定サブモジュールと、前記第1重み値に従って前記第1距離を更新して、更新された第1距離を取得するように構成される、第1更新サブモジュールと、前記第2重み値に従って前記現在の運動方向を更新して、更新された現在の運動方向を取得するように構成される、第2更新サブモジュールと、を備える。
いくつかの実施例において、前記装置は、さらに、収集方向を調整した後の前記カメラの事前収集画像を決定するように構成される、第2決定モジュールと、第2距離を決定するように構成される、第3決定モジュールであって、前記第2距離は、前記事前収集画像内のターゲット候補フレームの中心と前記事前収集された画像の中心との距離であり、前記ターゲット候補フレームにはジェスチャが含まれる、第3決定モジュールと、前記第2距離に従って前記カメラの収集方向を調整して、前記ターゲット候補フレームが前記事前収集画像の中心領域に位置させ、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第4調整モジュールと、を備える。
上記の装置実施例の説明は、上記の方法実施例の説明と類似し、方法実施例と類似する有利な効果を有することに留意されたい。本願装置実施例で開示されていない技術的詳細は、本願方法実施例の説明を参照して理解されたい。本願実施例において、ソフトウェア機能モジュールの形で上記のインテリジェント車両の運動制御方法を実現し、独立した製品として販売または使用される場合、1つのコンピュータ可読記憶媒体に記憶されることもできることに留意されたい。このような理解に基づいて、本願実施例の技術的解決策は、本質的に、または既存の技術に貢献する部分は、ソフトウェア製品の形で具現されることができ、当該コンピュータソフトウェア製品は、1つの記憶媒体に記憶されて、一台の即時通信機器(端末、サーバなどであリ得る)が本願の各実施例に記載の方法の全部または一部を実行するようにするためのいくつかの命令を含む。上記した記憶媒体は、Uディスク、モバイルハードディスク、読み取り専用メモリ(ROM:Read Only Memory)、磁気ディスクまたは光ディスクなどのプログラムコードを記憶することができる様々な媒体を含む。こうして、本願実施例は、いずれかのハードウェアおよびソフトウェアの特定の組み合わせに限定されない。
それに対応して、本願実施例は、さらに、コンピュータ実行可能命令を含む、コンピュータプログラム製品を提供し、当該コンピュータ実行可能命令が実行された後、本願実施例によるインテリジェント車両の運動制御方法におけるステップを実現できる。それに対応して、本願実施例は、さらに、コンピュータ実行可能命令が記憶される、コンピュータ記憶媒体を提供し、前記コンピュータ実行可能命令がプロセッサによって実行されるとき、上記の実施例によるインテリジェント車両の運動制御方法のステップを実現する。
それに対応して、本願実施例は、コンピュータ機器を提供し、図10は、本願実施例のコンピュータ機器の構成の例示的な構造図であり、図10に示されたように、前記機器1000は、1つのプロセッサ1001、少なくとも1つの通信バス1002、ユーザインタフェース1003、少なくとも1つの外部通信インタフェース1004およびメモリ1005を備える。ここで、通信バス1002は、これらのコンポーネント間の接続通信を実現するように構成される。ここで、ユーザインタフェース1003は、スクリーンを備えることができ、外部通信インタフェース1004は、標準の有線インタフェースおよび無線インタフェースを含み得る。ここで、前記プロセッサ1001は、メモリに記憶された画像処理プログラムを実行して、上記の実施例によるインテリジェント車両の運動制御方法のステップを実現指せるように構成される。以上の即時コンピュータ機器および記憶媒体実施例の説明は、上記の方法実施例の説明と類似し、方法実施例と類似する有利な効果を有する。本願の即時通信機器および記憶媒体実施例に開示されていない技術的詳細は、本願方法実施例の説明を参照して理解されたい。
明細書の全篇に言及された「1つの実施例」または「一実施例」は、実施例と関する特定の特徴、構造または特性は、本願の少なくとも1つの実施例に含まれることを意味することを理解されたい。そのため、明細書の全様々な場所での「1つの実施例において」または「一実施例において」は、必ずしも同じ実施例を指すことは限らない。なお、これらの特定の特徴、構造または特性は、任意の適した方式で1つまたは複数の実施例に組み合わせることができる。本願の様々な実施例において、前記各プロセスの番号の大きさは実行する前後順番を意味せず、各プロセスの実行順番は、その機能と内部論理によって決定されるべきであり、本願実施例の実施プロセスに対してあらゆる制限を構成してはならないことを理解されたい。上述の本願実施例の番号は、実施例の優劣を表すものではなく、説明の便宜を図るためのものである。
本願実施例において、「備える」、「含む」またはその任意の他の変形の用語は、非排他的な含みを覆われることを意図し、それにより、一連の要素を含むプロセス、方法、アイテムまたは装置は、それらの要素を含むだけでなく、さらに、明示的に列挙されない他の要素を含み、または、これらのプロセス、方法、アイテムまたは装置の固有の要素も含むことに留意されたい。より多くの制限なしに、「1つの…を含む」という文で限定される要素は、当該要素を含むプロセス、方法、アイテムまたは装置に、別の関連要素の存在を排除しない。
本願で提供するいくつかの実施例において、開示された機器および方法は、他の方式で実現されてもよいことを理解されたい。上記で説明された機器の実施例は単なる例示的であり、例えば、前記ユニットの分割は論理的な機能の分割に過ぎない。実際の実現では、例えば、複数のユニットまたはコンポーネントを組み合わせたり、別のシステムに統合したり、一部の特徴を無視したり、実行しないなど、別の分割方法があることができる。なお、表示または議論される各構成要素間の相互結合または直接結合または通信接続は、いくつかのインタフェース、機器またはユニットを介した間接な結合または通信接続であり得、電気的、機械的または他の形態であり得る。
前記分離部材として説明されたユニットは、物理的に分離されている場合とされていない場合があり、ユニットとして表示された部材は、物理ユニットである場合もそうでない場合もあり、1箇所に構成される場合もあれば、複数のネットワークユニットに分散される場合もあり、実際のニーズに従って、その中の一部またはすべてのユニットを選択して、本願実施例の解決策の目的を実現することができる。なお、本願の各実施例における各機能ユニットは、1つの処理ユニットにすべて統合してもよいし、各ユニットを1つのユニットとして別々に使用してもよいし、2つ以上のユニットを1つのユニットに統合してもよい。上記の統合されたユニットは、ハードウェアの形態で、またはハードウェアおよびソフトウェア機能ユニットの形態で具現することができる。
当業者は、上記した方法の実施例の全てまたは一部のステップは、プログラム命令に関連するハードウェアによって完了することができ、前記プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されることができ、前記プログラムが実行されるとき、上記の方法の実施例のステップを実行し、前記記憶媒体は、リムーバブルストレージ、読み取り専用メモリ(ROM:Read-Only Memory)、磁気メモリまたは光ディスクなどのプログラムコードを記憶することができる揮発性または不揮発性媒体を含む。
または、本願の上記の統合されたユニットがソフトウェア機能モジュールの形で実現され、スタンドアロン製品として販売または使用される場合、コンピュータ読み取り可能な記憶媒体に記憶されてもよい。このような理解に基づいて、本願実施例の技術的解決策は、本質的に、または既存の技術に貢献する部分は、ソフトウェア製品の形で具現されることができ、当該コンピュータソフトウェア製品は、1つの記憶媒体に記憶されて、一台のコンピュータ機器(パーソナルコンピュータ、サーバなどであリ得る)が本願の各実施例に記載の方法の全部または一部を実行するようにするためのいくつかの命令を含む。前述した記憶媒体は、リムーバブルストレージ、ROM、磁気メモリまたは光ディスクなどのプログラムコードを記憶することができる揮発性または不揮発性媒体を含む。
上記のコンテンツは、本願の具体的な実施形態に過ぎず、本願の保護範囲はこれに限定されない。当業者は、本願に開示される技術的範囲内で容易に考えられ得る変更または置換は、すべて本願の保護範囲に含まれるべきである。したがって、本願の保護範囲は、特許請求の保護範囲を基準とするべきである。

Claims (27)

  1. インテリジェント車両の運動制御方法であって、
    処理される画像を取得することと、
    前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することと、
    前記姿勢情報に従って、インテリジェント車両の運動状態を制御することと、を含む、前記インテリジェント車両の運動制御方法。
  2. 前記処理される画像に対して特徴の抽出を実行する前に、前記方法は、前記処理される画像を前処理することをさらに含み、
    前記処理される画像を前処理することは、前記処理される画像のサイズを正規化処理して、プリセットのサイズを満たす正規化画像を取得することと、前記正規化画像をグレースケール画像に変換することと、前記グレースケール画像のピクセルを制限して、平均ピクセル値が0である正則画像を取得することと、を含む、
    請求項1に記載のインテリジェント車両の運動制御方法。
  3. 前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することは、ジェスチャ認識ニューラルネットワークに基づいて前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することを含む、
    請求項1または2に記載のインテリジェント車両の運動制御方法。
  4. 前記ジェスチャ認識ニューラルネットワークに基づいて前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得することは、
    前記処理される画像を前記ジェスチャ認識ニューラルネットワークに入力して、ターゲット候補フレームを検出することと、
    前記ジェスチャ認識ネットワーク内の前記ターゲット候補フレームを分類することにより、前記ターゲット候補フレーム内のジェスチャ、前記ジェスチャの方向および前記ジェスチャのカテゴリを決定することと、
    前記ターゲット候補フレームの位置に従って前記ジェスチャの位置情報を決定することと、
    前記ジェスチャの位置情報、前記ジェスチャの方向および前記ジェスチャのカテゴリに従って、前記処理される画像内のジェスチャの姿勢情報を決定することと、を含む、
    請求項3に記載のインテリジェント車両の運動制御方法。
  5. 前記ターゲット候補フレームの位置は、
    前記処理される画像の中心が原点である場合、前記処理される画像における前記ターゲット候補フレームの2つの対角の座標を前記ターゲット候補フレームの位置として使用することを含む、
    請求項4に記載のインテリジェント車両の運動制御方法。
  6. 前記姿勢情報に従って、インテリジェント車両の運動状態を制御することは、受信された前記姿勢情報に従って前記ジェスチャに対応する命令を取得し、前記命令に従って前記インテリジェント車両の運動状態を制御することを含む、
    請求項1ないし5のいずれか一項に記載のインテリジェント車両の運動制御方法。
  7. 前記姿勢情報に従って、インテリジェント車両の運動状態を制御する前に、前記インテリジェント車両の運動制御方法は、前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整して、収集された処理される画像にジェスチャが含まれるようにすることをさらに含む、
    請求項1ないし6のいずれか一項に記載のインテリジェント車両の運動制御方法。
  8. 前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整することは、前記ジェスチャのターゲット候補フレームの位置に従って、前記ターゲット候補フレームの中心と前記処理される画像の中心との第1距離を決定することと、
    前記第1距離の負の相関値に従って、前記カメラの画像収集焦点と前記処理される画像の中心との距離を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、を含む、
    請求項7に記載のインテリジェント車両の運動制御方法。
  9. 前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整することは、
    前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定することであって、前記ジェスチャのカテゴリおよび前記ジェスチャの方向は、前記インテリジェント車両の運動方向に一対一で対応することと、
    前記現在の運動方向およびプリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、を含み、前記プリセットの対応関係表は、前記現在の運動方向と前記収集方向との対応関係を含む、
    請求項7に記載のインテリジェント車両の運動制御方法。
  10. 前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定した後、前記インテリジェント車両の運動制御方法は、
    前記ターゲット候補フレームのサイズとプリセットの候補フレームのサイズの比率を決定することと、前記比率に従って、前記第1距離および前記現在の運動方向をそれぞれ更新することと、更新された第1距離の負の相関値に従って、前記カメラの焦点と前記処理される画像の中心との距離を調整することと、更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、をさらに含む、
    請求項9に記載のインテリジェント車両の運動制御方法。
  11. 前記比率に従って、前記第1距離および前記現在の運動方向をそれぞれ更新することは、前記比率に従って、前記第1距離および前記現在の運動方向にそれぞれ対応する第1重み値および第2重み値を決定することと、前記第1重み値に従って前記第1距離を更新して、更新された第1距離を取得することと、前記第2重み値に従って前記現在の運動方向を更新して、更新された現在の運動方向を取得することと、を含む、
    請求項10に記載のインテリジェント車両の運動制御方法。
  12. 前記更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整した後、前記インテリジェント車両の運動制御方法は、収集方向を調整した後の前記カメラの事前収集画像を決定することと、第2距離を決定することであって、前記第2距離は、前記事前収集画像内のターゲット候補フレームの中心と前記事前収集された画像の中心との距離であり、前記ターゲット候補フレームにはジェスチャが含まれることと、前記第2距離に従って前記カメラの収集方向を調整して、前記ターゲット候補フレームが前記事前収集画像の中心領域に位置させ、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにすることと、をさらに含む、
    請求項10または11に記載のインテリジェント車両の運動制御方法。
  13. インテリジェント車両の運動制御装置であって、
    処理される画像を取得するように構成される、第1取得モジュールと、
    前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得するように構成される、第1認識モジュールと、
    前記姿勢情報に従って、インテリジェント車両の運動状態を制御するように構成される、第1制御モジュールと、を備える、前記インテリジェント車両の運動制御装置。
  14. 前記インテリジェント車両の運動制御装置は、さらに、前記処理される画像を前処理するように構成される、第1前処理モジュールを備え、前記第1前処理モジュールは、
    前記処理される画像のサイズに対して正規化処理を実行して、プリセットのサイズを満たす正規化画像を取得するように構成される、第1処理サブモジュールと、
    前記正規化画像をグレースケール画像に変換するように構成される、第1変換サブモジュールと、
    前記グレースケール画像のピクセルを制限して、平均ピクセル値が0である正則画像を取得するように構成される、第1正則化サブモジュールと、を備える、
    請求項13に記載のインテリジェント車両の運動制御装置。
  15. 前記第1認識モジュールは、
    ジェスチャ認識ニューラルネットワークに基づいて前記処理される画像に対してジェスチャ認識を実行して、前記処理される画像内のジェスチャの姿勢情報を取得するように構成される、第1認識サブモジュールを備える、
    請求項13または14に記載のインテリジェント車両の運動制御装置。
  16. 前記第1認識サブモジュールは、
    前記処理される画像を前記ジェスチャ認識ニューラルネットワークに入力して、ターゲット候補フレームを検出するように構成される、第1検出ユニットと、
    前記ジェスチャ認識ネットワーク内の前記ターゲット候補フレームを分類することにより、前記ターゲット候補フレーム内のジェスチャ、前記ジェスチャの方向および前記ジェスチャのカテゴリを決定するように構成される、第1分類ユニットと、
    前記ターゲット候補フレームの位置に従って前記ジェスチャの位置情報を決定するように構成される、第1決定ユニットと、
    前記ジェスチャの位置情報、前記ジェスチャの方向および前記ジェスチャのカテゴリに従って、前記処理される画像内のジェスチャの姿勢情報を決定するように構成される、第2決定ユニットと、を備える、
    請求項15に記載のインテリジェント車両の運動制御装置。
  17. 前記ターゲット候補フレームの位置は、
    前記処理される画像の中心が原点である場合、前記処理される画像における前記ターゲット候補フレームの2つの対角の座標を前記ターゲット候補フレームの位置として使用することを含む、
    請求項16に記載のインテリジェント車両の運動制御装置。
  18. 前記第1制御モジュールは、
    受信された前記姿勢情報に従って前記ジェスチャに対応する命令を取得し、前記命令に従って前記インテリジェント車両の運動状態を制御するように構成される、第1制御サブモジュールを備える、
    請求項13ないし17のいずれか一項に記載のインテリジェント車両の運動制御装置。
  19. 前記インテリジェント車両の運動制御装置は、さらに、
    前記ターゲット候補フレームの位置および前記ジェスチャのカテゴリに従って、前記インテリジェント車両に接続されるカメラを調整して、収集された処理される画像にジェスチャが含まれるようにするように構成される、第1調整モジュールを備える、
    請求項13ないし18のいずれか一項に記載のインテリジェント車両の運動制御装置。
  20. 前記第1調整モジュールは、
    前記ジェスチャのターゲット候補フレームの位置に従って、前記ターゲット候補フレームの中心と前記処理される画像の中心との第1距離を決定するように構成される、第1決定サブモジュールと、
    前記第1距離の負の相関値に従って、前記カメラの画像収集焦点と前記処理される画像の中心との距離を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第1調整サブモジュールと、を備える、
    請求項19に記載のインテリジェント車両の運動制御装置。
  21. 前記第1調整モジュールは、
    前記ジェスチャのカテゴリおよび前記ジェスチャの方向に従って、前記インテリジェント車両の現在の運動方向を決定するように構成される、第2決定サブモジュールであって、前記ジェスチャのカテゴリおよび前記ジェスチャの方向は、前記インテリジェント車両の運動方向に一対一で対応する第2決定サブモジュールと、
    前記現在の運動方向およびプリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第2調整サブモジュールと、を備え、前記プリセットの対応関係表は、前記現在の運動方向と前記収集方向との対応関係を含む、
    請求項19に記載のインテリジェント車両の運動制御装置。
  22. 前記インテリジェント車両の運動制御装置は、さらに、
    前記ターゲット候補フレームのサイズとプリセットの候補フレームのサイズとの比率を決定するように構成される、第1決定モジュールと、
    前記比率に従って、前記第1距離および前記現在の運動方向をそれぞれ更新するように構成される、第1更新モジュールと、
    更新された第1距離の負の相関値に従って、前記カメラの焦点と前記処理される画像の中心との距離を調整するように構成される、第2調整モジュールと、
    前記更新された現在の運動方向と前記プリセットの対応関係表に従って、前記カメラの収集方向を調整して、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第3調整モジュールと、を備える、
    請求項21に記載のインテリジェント車両の運動制御装置。
  23. 前記第1更新モジュールは、
    前記比率に従って、前記第1距離および前記現在の運動方向にそれぞれ対応する第1重み値および第2重み値を決定するように構成される、第3決定サブモジュールと、
    前記第1重み値に従って前記第1距離を更新して、更新された第1距離を取得するように構成される、第1更新サブモジュールと、
    前記第2重み値に従って前記現在の運動方向を更新して、更新された現在の運動方向を取得するように構成される、第2更新サブモジュールと、を備える、
    請求項22に記載のインテリジェント車両の運動制御装置。
  24. 前記インテリジェント車両の運動制御装置は、さらに、
    収集方向を調整した後の前記カメラの事前収集画像を決定するように構成される、第2決定モジュールと、
    第2距離を決定するように構成される、第3決定モジュールであって、前記第2距離は、前記事前収集画像内のターゲット候補フレームの中心と前記事前収集された画像の中心との距離であり、前記ターゲット候補フレームにはジェスチャが含まれる、第3決定モジュールと、
    前記第2距離に従って前記カメラの収集方向を調整して、前記ターゲット候補フレームが前記事前収集画像の中心領域に位置させ、調整後のカメラが収集した処理される画像にジェスチャが含まれるようにするように構成される、第4調整モジュールと、を備える、
    請求項22または23に記載のインテリジェント車両の運動制御装置。
  25. コンピュータ実行可能命令が含まれる、コンピュータ記憶媒体であって、前記コンピュータ実行可能命令が実行された後、請求項1ないし12のいずれか一項に記載の方法を実現できる、前記コンピュータ記憶媒体。
  26. メモリとプロセッサとを備える、コンピュータ機器であって、前記メモリにコンピュータ実行可能命令が記憶され、前記プロセッサは、前記メモリ内のコンピュータ実行可能命令を実行するとき、請求項1ないし12のいずれか一項に記載の方法を実現できる、前記コンピュータ機器。
  27. コンピュータ実行可能命令を含む、コンピュータプログラム製品であって、当該コンピュータ実行可能命令が実行された後、請求項1ないし12のいずれか一項に記載のインテリジェント車両の運動制御方法を実現できる、前記コンピュータプログラム製品。
JP2021526765A 2019-06-19 2020-05-25 インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体 Pending JP2022507635A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910533908.1A CN110276292B (zh) 2019-06-19 2019-06-19 智能车运动控制方法及装置、设备和存储介质
CN201910533908.1 2019-06-19
PCT/CN2020/092161 WO2020253475A1 (zh) 2019-06-19 2020-05-25 智能车运动控制方法及装置、设备和存储介质

Publications (1)

Publication Number Publication Date
JP2022507635A true JP2022507635A (ja) 2022-01-18

Family

ID=67961399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021526765A Pending JP2022507635A (ja) 2019-06-19 2020-05-25 インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体

Country Status (7)

Country Link
US (1) US20210311469A1 (ja)
JP (1) JP2022507635A (ja)
KR (1) KR20210076962A (ja)
CN (1) CN110276292B (ja)
SG (1) SG11202106683YA (ja)
TW (1) TWI759767B (ja)
WO (1) WO2020253475A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110276292B (zh) * 2019-06-19 2021-09-10 上海商汤智能科技有限公司 智能车运动控制方法及装置、设备和存储介质
SG10201913029SA (en) * 2019-12-23 2021-04-29 Sensetime Int Pte Ltd Target tracking method and apparatus, electronic device, and storage medium
SG10201912990QA (en) 2019-12-23 2020-11-27 Sensetime Int Pte Ltd Gesture Recognition Method And Apparatus, Electronic Device, And Storage Medium
CN113128339A (zh) * 2021-03-15 2021-07-16 同济大学 一种基于行为识别的智能车辆运行控制系统和方法
CN113772599A (zh) * 2021-09-15 2021-12-10 湖南星邦智能装备股份有限公司 一种剪叉式高空作业平台及其控制系统及方法
CN117857911A (zh) * 2022-09-30 2024-04-09 北京小米移动软件有限公司 拍摄方法、装置、电子设备及存储介质
CN118097793B (zh) * 2024-04-18 2024-07-02 广州炫视智能科技有限公司 一种自适应界面手势操作控制系统及其控制方法
CN118553022B (zh) * 2024-07-29 2024-10-22 杭州锐见智行科技有限公司 一种车辆内手势识别方法、手势控制方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011525283A (ja) * 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド 車両インターフェース用ジェスチャ基準制御システム
JP2012506579A (ja) * 2008-10-23 2012-03-15 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 画像内のジェスチャを認識するための装置、方法およびコンピュータ・プログラムと、デバイスを制御するための装置、方法およびコンピュータ・プログラム
JP2014206930A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体
JP2017505965A (ja) * 2014-01-05 2017-02-23 マノモーション アーベー モバイル機器用三次元ジェスチャのリアルタイム認識及び追跡システム
JP2018501671A (ja) * 2015-11-27 2018-01-18 シャオミ・インコーポレイテッド カメラヘッド撮影角度調整方法および装置
US20180088677A1 (en) * 2016-09-29 2018-03-29 Alibaba Group Holding Limited Performing operations based on gestures
US20190056498A1 (en) * 2016-03-01 2019-02-21 Brightway Vision Ltd. Gated imaging apparatus, system and method

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7606411B2 (en) * 2006-10-05 2009-10-20 The United States Of America As Represented By The Secretary Of The Navy Robotic gesture recognition system
GB0818561D0 (en) * 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
CN102339379A (zh) * 2011-04-28 2012-02-01 重庆邮电大学 手势识别方法及基于手势识别控制的智能轮椅人机系统
CN103365404B (zh) * 2012-04-01 2016-07-06 联想(北京)有限公司 一种人机交互的方法和装置
CN103376890B (zh) * 2012-04-16 2016-08-31 富士通株式会社 基于视觉的手势遥控系统
CA2909168A1 (en) * 2013-03-15 2014-09-18 Trak Surgical, Inc. On-board tool tracking system and methods of computer assisted surgery
CN103488294B (zh) * 2013-09-12 2016-08-17 华南理工大学 一种基于用户交互习惯的非接触手势控制映射调整方法
US10924753B2 (en) * 2013-12-23 2021-02-16 Intel Corporation Modular motion estimation and mode decision engine
CN103903011A (zh) * 2014-04-02 2014-07-02 重庆邮电大学 基于图像深度信息的智能轮椅手势识别控制方法
KR20160036242A (ko) * 2014-09-25 2016-04-04 현대자동차주식회사 제스처 인식 장치, 그를 가지는 차량 및 그 제어 방법
CN104298354A (zh) * 2014-10-11 2015-01-21 河海大学 一种人机交互的手势识别方法
CN105989365A (zh) * 2015-01-30 2016-10-05 深圳市思路飞扬信息技术有限责任公司 助视装置、助视系统及助视方法
CN106331438A (zh) * 2015-06-24 2017-01-11 小米科技有限责任公司 镜头对焦方法、装置及移动设备
CN106686429A (zh) * 2015-11-06 2017-05-17 天津三星电子有限公司 一种智能电视手势检测方法及系统
CN105550655A (zh) * 2015-12-16 2016-05-04 Tcl集团股份有限公司 一种手势图像获取设备及其手势图像获取方法
CN105643590B (zh) * 2016-03-31 2018-07-13 河北工业大学 一种手势控制的轮式移动机器人及其操作方法
CN205594506U (zh) * 2016-04-12 2016-09-21 精效新软新技术(北京)有限公司 一种智能工作系统中的人机交互装置
CN108229277B (zh) * 2017-03-31 2020-05-01 北京市商汤科技开发有限公司 手势识别、手势控制及多层神经网络训练方法、装置及电子设备
JP2018206073A (ja) * 2017-06-05 2018-12-27 株式会社東海理化電機製作所 遠隔操作システム
CN107688779A (zh) * 2017-08-18 2018-02-13 北京航空航天大学 一种基于rgbd摄像头深度图像的机器人手势交互方法和装置
CN107741781A (zh) * 2017-09-01 2018-02-27 中国科学院深圳先进技术研究院 无人机的飞行控制方法、装置、无人机及存储介质
CN108229318A (zh) * 2017-11-28 2018-06-29 北京市商汤科技开发有限公司 手势识别和手势识别网络的训练方法及装置、设备、介质
CN208084321U (zh) * 2017-12-29 2018-11-13 同方威视技术股份有限公司 跟随式机器人
CN108197580B (zh) * 2018-01-09 2019-07-23 吉林大学 一种基于3d卷积神经网络的手势识别方法
CN108563995B (zh) * 2018-03-15 2019-04-26 西安理工大学 基于深度学习的人机协作系统手势识别控制方法
CN109117742B (zh) * 2018-07-20 2022-12-27 百度在线网络技术(北京)有限公司 手势检测模型处理方法、装置、设备及存储介质
CN109697407A (zh) * 2018-11-13 2019-04-30 北京物灵智能科技有限公司 一种图像处理方法及装置
CN109618131B (zh) * 2018-11-22 2021-08-24 亮风台(上海)信息科技有限公司 一种用于呈现决策辅助信息的方法与设备
CN109613930B (zh) * 2018-12-21 2022-05-24 中国科学院自动化研究所南京人工智能芯片创新研究院 无人飞行器的控制方法、装置、无人飞行器及存储介质
CN109849016B (zh) * 2019-03-28 2024-07-23 合肥工业大学 一种具有行走和搬运功能的家用服务机器人
CN110276292B (zh) * 2019-06-19 2021-09-10 上海商汤智能科技有限公司 智能车运动控制方法及装置、设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011525283A (ja) * 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド 車両インターフェース用ジェスチャ基準制御システム
JP2012506579A (ja) * 2008-10-23 2012-03-15 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 画像内のジェスチャを認識するための装置、方法およびコンピュータ・プログラムと、デバイスを制御するための装置、方法およびコンピュータ・プログラム
JP2014206930A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体
JP2017505965A (ja) * 2014-01-05 2017-02-23 マノモーション アーベー モバイル機器用三次元ジェスチャのリアルタイム認識及び追跡システム
JP2018501671A (ja) * 2015-11-27 2018-01-18 シャオミ・インコーポレイテッド カメラヘッド撮影角度調整方法および装置
US20190056498A1 (en) * 2016-03-01 2019-02-21 Brightway Vision Ltd. Gated imaging apparatus, system and method
US20180088677A1 (en) * 2016-09-29 2018-03-29 Alibaba Group Holding Limited Performing operations based on gestures

Also Published As

Publication number Publication date
CN110276292A (zh) 2019-09-24
KR20210076962A (ko) 2021-06-24
CN110276292B (zh) 2021-09-10
US20210311469A1 (en) 2021-10-07
SG11202106683YA (en) 2021-07-29
TWI759767B (zh) 2022-04-01
TW202101168A (zh) 2021-01-01
WO2020253475A1 (zh) 2020-12-24

Similar Documents

Publication Publication Date Title
JP2022507635A (ja) インテリジェント車両の運動制御方法および装置、機器並びに記憶媒体
Qi et al. Computer vision-based hand gesture recognition for human-robot interaction: a review
US20210279503A1 (en) Image processing method, apparatus, and device, and storage medium
Kumar et al. A position and rotation invariant framework for sign language recognition (SLR) using Kinect
Natarajan et al. Hand gesture controlled drones: An open source library
KR101939683B1 (ko) 사용자 행동 실시간 인식장치 및 방법
CN105739702B (zh) 用于自然人机交互的多姿态指尖跟踪方法
CN110221699B (zh) 一种前置摄像头视频源的眼动行为识别方法
CN107856039B (zh) 一种养老陪护服务机器人系统及养老陪护方法
CN105563493A (zh) 一种高度方位自适应的服务机器人及适应方法
EP2737436A1 (en) Systems and methods of detecting body movements using globally generated multi-dimensional gesture data
CN108198159A (zh) 一种图像处理方法、移动终端以及计算机可读存储介质
CN104281839A (zh) 一种人体姿势识别方法和装置
Krishnaraj et al. A Glove based approach to recognize Indian Sign Languages
KR20180101313A (ko) 손 모양 및 동작 인식장치 및 방법
US10964046B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera
KR20120089948A (ko) Mhi의 형태 정보를 이용한 실시간 동작 인식시스템 및 실시간 동작 인식 방법
KR20170046519A (ko) 손 모양 및 동작 인식장치 및 방법
Naidoo et al. Vision-based static hand gesture recognition using support vector machines
Dhamanskar et al. Human computer interaction using hand gestures and voice
WO2022217598A1 (zh) 肢体识别方法和装置
Liu et al. Visual gesture recognition for human robot interaction using dynamic movement primitives
Perera et al. Human motion analysis from UAV video
KR102251076B1 (ko) 실내 이미지를 사용하여 설계도면을 추정하는 방법
Tazhigaliyeva et al. Cyrillic manual alphabet recognition in RGB and RGB-D data for sign language interpreting robotic system (SLIRS)

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230613