Nothing Special   »   [go: up one dir, main page]

JP7273129B2 - 車線検出方法、装置、電子機器、記憶媒体及び車両 - Google Patents

車線検出方法、装置、電子機器、記憶媒体及び車両 Download PDF

Info

Publication number
JP7273129B2
JP7273129B2 JP2021191751A JP2021191751A JP7273129B2 JP 7273129 B2 JP7273129 B2 JP 7273129B2 JP 2021191751 A JP2021191751 A JP 2021191751A JP 2021191751 A JP2021191751 A JP 2021191751A JP 7273129 B2 JP7273129 B2 JP 7273129B2
Authority
JP
Japan
Prior art keywords
lane
image
keyframe
keyframe image
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021191751A
Other languages
English (en)
Other versions
JP2022028870A (ja
Inventor
ガン ヘ、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022028870A publication Critical patent/JP2022028870A/ja
Application granted granted Critical
Publication of JP7273129B2 publication Critical patent/JP7273129B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Description

本願は、コンピュータ技術及び画像処理技術に関し、特に、人工知能、自動運転、スマート交通、及び深度学習に適用できる車線検出方法、装置、電子機器、記憶媒体、プログラム製品及び車両に関する。
車両の普及及び車両自動化技術の発展に伴い、車両走行の安全性と信頼性を向上させることは、車両プロバイダー及び車両ユーザの共通の追求であり、車線検出は、車両走行の安全性と信頼性を実現する重要な要素の1つである。
従来技術では、一般的に用いられる車線検出方法は次の通りであり、訓練プロセスでは、訓練サンプルを収集し、且つ訓練サンプルに基づいて基本ネットワークモデルを訓練し、車線検出モデルを得、適用プロセスでは、収集された各フレームの画像に対して、いずれも訓練された車線検出モデルに基づいて各フレームの画像の特徴マップを決定し、且つ車線検出モデルに基づいて特徴マップに対して車線検出を行うことができる。
しかしながら、各フレームの画像に対していずれも車線検出モデルにより特徴マップを決定する必要があるため、検出の効率が低く、またコストが高いという問題を引き起こす可能性がある。
本願は、車線検出の効率を向上させるための車線検出方法、装置、電子機器、記憶媒体、プログラム製品及び車両を提供する。
本願の一態様によれば、車線検出方法を提供し、
車線を含むビデオストリームを取得し、且つ前記ビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出し、隣接するキーフレーム画像間を非キーフレーム画像として使用することと、
前記キーフレーム画像に対して、前記キーフレーム画像の特徴マップに基づいて車線検出を行い、前記非キーフレーム画像に対して、前記非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び前記非キーフレーム画像に基づいて車線検出を行うことと、を含む。
本願の他の態様によれば、車線検出装置を提供し、
車線を含むビデオストリームを取得するための取得モジュールと、
抽出モジュールであって、前記ビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出するために使用され、隣接するキーフレーム画像間を非キーフレーム画像として使用する抽出モジュールと、
前記キーフレーム画像に対して、前記キーフレーム画像の特徴マップに基づいて車線検出を行い、前記非キーフレーム画像に対して、前記非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び前記非キーフレーム画像に基づいて車線検出を行うための検出モジュールと、を含む。
本願の他の態様によれば、電子機器を提供し、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、ここで、
前記メモリに前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが上記の実施例に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
本願の他の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ可読記憶媒体を提供し、ここで、前記コンピュータ命令はコンピュータに上記の実施例に記載の方法を実行させるために使用される。
本願の他の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、プロセッサによって実行される時、上記の実施例に記載の方法を実現する。
本願の他の態様によれば、画像収集装置及び上記の実施例に記載の車線検出装置を含む車両を提供し、ここで、前記画像収集装置は、車線を含むビデオストリームを収集するために使用される。
なお、この部分に記載されている内容は、本願の実施例の肝心な又は重要な特徴を示すことを意図しておらず、本願の範囲を限定するものでもない。本願の他の特徴は、以下の明細書を通じて容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本願を限定するものではない。
本願の実施例1による模式図である。 本願の実施例2による模式図である。 本願の実施例3による模式図である。 本願の実施例による車線検出の原理を示す模式図である。 本願の実施例4による模式図である。 本願の実施例5による模式図である。 本願の実施例6による模式図である。 本願の実施例7による模式図である。 本願の実施例8による模式図である。 本願の実施例9による模式図である。 本願の実施例10による模式図である。 本願の実施例11による模式図である。
以下、図面を組み合わせて本願の例示的な実施例を説明し、理解を容易にするために、その中には本願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
図1は本願の実施例1による模式図であり、図1に示すような車線検出方法の適用シーンでは、車両101は道路102を走行し、車両101は、走行中に走行の安全性と信頼性などを確保するために、道路102の車線103を検出することができる。
関連技術では、一般的には2つの方法で車線に対する検出を実現し、1つの方法は次の通りであり、車両101に画像収集装置(図示せず、且つ画像収集装置はカメラやレーダーなどであってもよい)が設けられてもよく、画像収集装置により車線を含む画像を収集し、車両101は、車線に対する検出を実現するために車線を含む画像に対して座標計算を行うことができる。
もう1つの方法は次の通りであり、車両101は車線検出モデルを予め訓練して記憶し、同様に、車両101に画像収集装置(図示せず、且つ画像収集装置はカメラやレーダーなどであってもよい)が設けられてもよく、画像収集装置により車線を含む画像を収集し、車両101は、車線検出モデルに基づいて車線を含む画像に対して車線検出の操作を行うことができる。
しかしながら、第1の方法を用いて車線を検出する場合、一方では、計算量が相対的に大きく、プロセスが比較的面倒であり、且つ精度が低く、第2の方法を用いて車線を検出する場合、収集された各画像に対して、いずれも車線検出モデルにより特徴抽出と畳み込みなどの処理を行う必要があるため、検出効率が低いという問題を引き起こす可能性がある。
本願の発明者は創造的な労働をした後得られた本願の発明構想は次の通りであり、車線を含むビデオストリームはキーフレーム画像及び非キーフレーム画像を含むことができ、キーフレーム画像は所定の間隔のフレーム数に基づいて抽出され、非キーフレーム画像に対して、キーフレーム画像の特徴マップと合わせて車線検出を実現することができる。
上記の発明構想に基づいて、本願は、コンピュータ技術及び画像処理技術における自動運転、スマート交通、及び深度学習の技術分野に適用される車線検出方法、装置、電子機器、記憶媒体、プログラム製品及び車両を提供し、車線検出の効率を向上させるという技術的効果を達成する。
図2は本願の実施例2による模式図であり、図2に示すように、本願の実施例による車線検出方法は、ステップS201~S203を含む。
S201において、車線を含むビデオストリームを取得し、且つビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出し、隣接するキーフレーム画像間を非キーフレーム画像として使用する。
例として、本実施例の実行主体は、車線検出装置であってもよく、且つ車線検出装置が車両であってもよく、具体的には、車両に設けられたコンピュータ、サーバー、プロセッサ、車載端末、及びチップ(例えば車両のインターネットチップ)などであってもよく、本実施例はこれについて限定しない。
いくつかの実施例において、車線検出装置は、車線を含むビデオストリームを取得した後、ビデオストリーム内の各フレームの画像を抽出することができ、それにより、抽出された各フレームの画像に基づいて車線検出を行い、具体的には、所定の間隔のフレーム数を予め配置し、且つ所定の間隔のフレーム数に基づいて抽出された画像をキーフレーム画像として呼び、抽出された他の画像を非キーフレーム画像として呼ぶことができる。
例えば、所定の間隔のフレーム数は10フレームである場合、車線検出装置により10フレームごとに抽出された画像は即ちキーフレーム画像である。
なお、上記の例における所定の間隔のフレーム数は、例示的に説明することのみに使用され、所定の間隔のフレーム数を限定するものとして理解されることができず、所定の間隔のフレーム数は車線検出装置によりニーズ、履歴記録、及び試験などに応じて設定でき、本実施例はこれについて限定しない。
以下、本実施例の車線検出方法を図1に示すような適用シーンに適用し、また、車線検出装置が車両に設置された車載端末であることを例として、当該ステップについて次のように説明する。
車両にカメラ(その他の画像収集装置であってもよい)が設けられ、カメラは、車線を含むビデオストリームを収集し、ビデオストリームを車載端末に伝送し、車載端末は所定の間隔のフレーム数(例えば10フレーム)ごとにビデオストリームからキーフレーム画像を抽出し、且つ抽出された他の画像を非キーフレーム画像として使用し、つまり、隣接するキーフレーム画像との間のものは即ち非キーフレームである。
S202において、キーフレーム画像に対して、キーフレーム画像の特徴マップに基づいて車線検出を行う。
S203において、非キーフレーム画像に対して、非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び非キーフレーム画像に基づいて車線検出を行う。
本実施例において、画像を2つの異なるタイプの画像に分けることができ、1つのタイプはキーフレーム画像であり、もう1つのタイプは非キーフレーム画像である。また、異なるタイプの画像に対して、車線検出装置は異なる方法で実現することができ、即ち、キーフレーム画像に対して1つの方法で車線検出を行い、非キーフレーム画像に対してもう1つの方法で車線検出を行う。
例えば、キーフレーム画像に対して、車線検出装置は、キーフレーム画像の特徴マップに基づいて車線検出を行うことができる。
具体的には、車線検出装置はキーフレーム画像の特徴マップを決定することができ、キーフレーム画像の特徴マップは、キーフレーム画像の色特徴、テクスチャ特徴、形状特徴及び空間関係特徴を特徴づけるために使用される。
非キーフレーム画像に対して、車線検出装置は非キーフレーム画像の前のフレームのキーフレーム画像を決定し、且つ前のフレームのキーフレーム画像の特徴マップを決定し、また、非キーフレーム画像と前のフレームのキーフレーム画像の特徴マップに基づいて車線検出を行うことができる。
上記の分析から分かるように、本実施例において、2つの異なる方法で2つの異なるタイプの画像に対して車線検出を行い、具体的には、キーフレーム画像に対して、キーフレーム画像の特徴マップに基づいて車線検出を行い、非キーフレーム画像に対して、前のフレームのキーフレーム画像の特徴マップと非キーフレーム画像に基づいて車線検出を行い、上記の関連技術の車線検出の計算量が大きく、効率が低いという問題を避け、車線検出の柔軟性と多様性を実現し、また、前のフレームのキーフレーム画像の特徴マップを組み合わせて車線検出を行うことにより、各フレームの画像はいずれも車線検出モデルにより対応する特徴抽出と畳み込み計算を行うことを避け、車線検出の効率を向上させるという技術的効果を達成する。
図3は本願の実施例3による模式図であり、図3に示すように、本願の実施例による車線検出方法は、ステップS301~S304を含む。
S301において、車線を含むビデオストリームを取得し、且つビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出し、隣接するキーフレーム画像間を非キーフレーム画像として使用する。
例として、S301についての説明はS201を参照でき、ここでは繰り返しない。
S302において、キーフレーム画像に対して、キーフレーム画像の特徴マップに基づいて車線検出を行う。
例として、S302についての説明は、上記の例における車線検出装置によるキーフレーム画像に対する検出を参照でき、ここでは繰り返しない。
図4は本願の実施例による車線検出の原理を示す模式図であり、図4に示すように、本実施例において、ビデオストリームには2つのタイプの画像が含まれ、1つのタイプはキーフレーム画像であり、もう1つのタイプは非キーフレーム画像であり、キーフレーム画像に対して、車線検出装置はキーフレーム画像に基づいてキーフレーム画像の特徴マップを決定し、且つキーフレーム画像の特徴マップを決定した後、キーフレーム画像の特徴マップに基づいて車線検出を行うことができる。
また、図4に示すような原理図では、車線の確率予測の方法に基づいて、キーフレーム画像を組み合わせて車線に対する検出を実現することができる。
S303において、非キーフレーム画像に対して、前のフレームのキーフレーム画像と非キーフレーム画像との間の位置変化情報を決定する。
いくつかの実施例において、位置変化情報には、各ピクセルの位置移動情報が含まれ、S303は、前のフレームのキーフレーム画像と非キーフレーム画像をオプティカルフロー推定ネットワークモデルに入力し、前のフレームのキーフレーム画像と非キーフレーム画像との間のオプティカルフロー図を得ることを含むことができる。
ここで、オプティカルフロー図は、前のキーフレーム画像に対する非キーフレーム画像の各ピクセルの位置移動情報を特徴づける。
例えば、上記の例と図4に示すような原理図を組み合わせることで、車線検出装置は非キーフレーム画像と前のフレームのキーフレーム画像との間のオプティカルフロー図を計算することができ、また、具体的には、訓練により生成されたオプティカルフロー推定ネットワークモデルに基づいて実現することができる。
本実施例において、オプティカルフロー図を決定し、オプティカルフロー図により各ピクセルの位置移動情報を特徴づけることにより、決定された位置変化情報の信頼性と精度を向上させるという技術的効果を達成することができる。
いくつかの実施例において、オプティカルフロー推定ネットワークモデルを生成する方法は、ステップ1及びステップ2を含む。
ステップ1において、訓練サンプルセットを収集し、訓練サンプルセットに車線の相対変位が存在する第1のサンプル画像と第2のサンプル画像が含まれる。
訓練サンプルセットは、基本ネットワークモデルを訓練してオプティカルフロー推定ネットワークモデルを生成するために使用される。また、訓練サンプルセットにサンプル画像が含まれ、サンプル画像に第1のサンプル画像と第2のサンプル画像が含まれてもよく、第1のサンプル画像と第2のサンプル画像は両方とも車線を含む画像であり、第1のサンプル画像における車線と第2のサンプル画像における車線には相対変位が存在する。
なお、本実施例は第1のサンプル画像と第2のサンプル画像の数を限定せず、具体的には、車線検出装置により、ニーズ、履歴記録及び試験などに応じて設定できる。また、いくつかの実施例において、オプティカルフロー推定ネットワークモデルを訓練して生成する実行主体は、クラウドサーバーなど、車線検出装置以外の他の装置であってもよい。
ステップ2において、訓練サンプルセット、及び第1のサンプル画像と第2のサンプル画像との間のオプティカルフローフィールドに基づいて訓練ラベルとして、基本ネットワークモデルを訓練してオプティカルフロー推定ネットワークモデルを得る。
例として、オプティカルフローフィールドは、画像におけるすべてのピクセルで構成される2次元の瞬間速度フィールドを特徴づけ、即ち、オプティカルフローフィールドには、ピクセルが第1のサンプル画像から第2のサンプル画像に移動する時の運動情報など、画像における各ピクセルの運動情報を含む。
当該ステップ2は、具体的には、第1のサンプル画像と第2のサンプル画像の両方を基本ネットワークモデルに入力し、基本ネットワークモデルにより第1のサンプル画像と第2のサンプル画像との間の予測運動情報を出力し、予測運動情報とオプティカルフローフィールド(予め設定された標準値に相当する)との間の損失関数を決定し、損失関数に基づいて基本ネットワークモデルのパラメータを調整し、例えば、損失関数が予め設定されたニーズを満たす、或いは、反復回数が予め設定された反復回数閾値に達するオプティカルフロー推定ネットワークモデルを得るまで、基本ネットワークモデルの畳み込みカーネルの係数を調整するように理解されることができる。
なお、本実施例において、車線を含む第1のサンプル画像と第2のサンプル画像に基づいて訓練してオプティカルフロー推定ネットワークモデルを得ることにより、オプティカルフロー推定ネットワークモデルに基づいて位置変化情報を決定する時、位置変化情報決定の効率と信頼性を向上させるという技術的効果を達成することができる。
S304において、位置変化情報と前のフレームのキーフレーム画像の特徴マップに基づいて、非キーフレーム画像の特徴マップを決定し、且つ非キーフレーム画像の特徴マップに基づいて車線検出を行う。
上記の例と図4に示すような原理図を組み合わせて、車線検出装置は、オプティカルフロー図と前のフレームのキーフレーム画像の特徴マップに基づいて非キーフレーム画像の特徴マップを得、且つ非キーフレーム画像の特徴マップを決定した後、非キーフレーム画像の特徴マップに基づいて車線検出を行うことができる。
また、図4に示すような原理図では、車線の確率予測の方法に基づいて、非キーフレーム画像を組み合わせて車線に対する検出を実現することができる。
なお、上記の関連技術の説明を組み合わせて分かるように、関連技術において、各フレームの画像に対して、いずれも車線検出モデルを介して、車線検出により各フレームの画像に対して特徴抽出、畳み込み計算などの操作を行う必要があるため、したがって、車線検出の効率が低いという問題を引き起こす可能性があり、本実施例において、ネットワーク推定を組み合わせる方法で非キーフレーム画像の特徴マップを得ることで、時間を節約し、それにより、非キーフレーム画像の特徴マップを決定する効率を向上させ、さらに車線検出の効率を向上させるという技術的効果を達成する。
いくつかの実施例において、S304は、ステップ1及びステップ2を含むことができる。
ステップ1において、位置変化情報に基づいて、非キーフレーム画像の特徴マップ上の前のフレームのキーフレーム画像の各ピクセルの位置情報を決定する。
例として、位置変化情報は横座標の位置変化情報(ux)と縦座標の位置変化情報(uy)を含み、前のキーフレーム画像の特徴マップ上の各ピクセルの横座標は(x1)で、縦座標は(y1)である場合、非キーフレーム画像の特徴マップ上の各ピクセルの横座標は(x2=x1+ux)であり、縦座標は(y2=y1+uy)である。
ここで、上記の座標は画像の座標系を基礎とする。
ステップ2において、位置情報と前のフレームのキーフレーム画像の特徴マップに基づいて、非キーフレーム画像の特徴マップを生成する。
例として、位置情報、即ち横座標(x2=x1+ux)、縦座標(y2=y1+uy)を決定した後、車線検出装置は当該位置情報と前のフレームのキーフレーム画像の特徴マップに基づいて、当該位置情報に対応する特徴マップ(即ち非キーフレーム画像の特徴マップである)を決定することができる。
本実施例において、位置変化情報に基づいて位置情報を決定し、且つ位置情報に基づいて非キーフレーム画像の特徴マップを決定することにより、非キーフレーム画像の特徴マップを決定する効率を向上させ、計算コストを節約し、さらに車線検出の効率を向上させるという技術的効果を達成する。
図5は本願の実施例4による模式図であり、図5に示すように、本願の実施例による車線検出方法は、ステップS501~S503を含む。
S501において、車線を含むビデオストリームを取得し、且つビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出し、隣接するキーフレーム画像間を非キーフレーム画像として使用する。
例として、S501についての説明はS201を参照でき、ここでは繰り返しない。
S502において、キーフレーム画像を予め設定された車線検出モデルに入力し、キーフレーム画像の特徴マップを得、且つキーフレーム画像の特徴マップに基づいて車線検出を行う。
ここで、車線検出モデルは、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像に基づいて知識蒸留処理を行うことで生成されたものである。
本実施例において、車線検出モデルは車線検出モデルに基づいてキーフレーム画像に対して車線検出を行い、また、本実施例において、車線検出モデルと関連技術の車線検出モデルには本質的な違いがある。
例えば、関連技術において、車線検出モデルはサンプル画像に基づいて基本ネットワークモデルを訓練して生成されたものであり、本実施例において、一方では、サンプル画像自体を改善し、具体的には、収集されたサンプル画像には、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像が含まれ、昼間シーンの車線サンプル画像は、車線を含む昼間のサンプル画像であり、夜間シーンの車線サンプル画像は、車線を含む夜間のサンプル画像である。
いくつかの実施例において、夜間シーンの車線サンプル画像を得る方法は、以下のステップを含むことができる。
車線検出モデルは訓練時の昼間シーンの車線サンプル画像に基づいて生成的敵対的ネットワーク(Generative Adversarial Networks、GAN)を訓練し、昼間シーンから夜間シーンへのスタイル移行の生成的敵対的ネットワークを生成し、且つ収集された昼間シーンの車線サンプル図と昼間シーンから夜間シーンへのスタイル移行の生成的敵対的ネットワークに基づいて、夜間シーンの車線サンプル画像を生成する。
本実施例において、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像に基づいて車線検出モデルを訓練して生成することにより、異なるシーンに対する車線検出モデルの車線検出を達成し、それにより、車線検出の精度と信頼性を向上させるという技術的効果を達成することができる。
他方では、本実施例における車線検出モデルは知識蒸留処理によって得られ、即ち大型モデルによって小型モデルを指導して学習及び訓練させる方法で車線検出モデルを得、それにより、車線検出モデルの検出効率を向上させるという技術的効果を達成することができる。
いくつかの実施例において、車線検出装置は知識蒸留処理に基づいて車線検出モデルを得る方法はステップ1及びステップ2を含むことができる。
ステップ1において、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像の両方を知識蒸留処理用の残差ネットワークモデルと軽量ネットワークモデルにそれぞれ入力し、残差ネットワークモデルによって出力された第1の車線認識結果、及び軽量ネットワークモデルによって出力された第2の車線認識結果を得る。
当該ステップは、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像の両方を残差ネットワークモデルに入力し、第1の車線認識結果を得、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像の両方を軽量ネットワークモデルに入力し、第2の車線認識結果を得るように理解されることができる。
上記の例を組み合わせて、残差ネットワークモデルは知識蒸留処理のための大型ネットワークモデルとして理解されることができ、軽量ネットワークモデルは、知識蒸留処理のための小型ネットワークモデルとして理解されることができ、残差ネットワークモデルによって小型軽量ネットワークモデルを指導して学習及び訓練させる。
いくつかの実施例において、残差ネットワークモデルはresnet50であってもよく、軽量ネットワークモデルはshufflenetであってもよい。
ステップ2において、第1の車線認識結果と第2の車線認識結果に基づいて、軽量ネットワークモデルを反復して車線検出モデルを得る。
第1の車線認識結果と第2の車線認識結果を得た後、2つの結果に基づいて軽量ネットワークモデルを反復することができ、例えば、shufflenetを反復することにより、軽量ネットワークモデルを基本ネットワークモデルとしての車線検出モデルを得、それにより、適用プロセスにおける車線検出モデルの効率を向上させ、即ち車線検出モデルに基づいて車線を検出する効率を向上させるという技術的効果を達成する。
いくつかの実施例において、第1の車線認識結果は、車線の確率分布を特徴づけ、第2の車線認識結果は、車線の確率分布を特徴づけ、ステップ2はサブステップ1~3を含むことができる。
サブステップ1において、第1の車線認識結果と第2の車線認識結果との間の相対エントロピー情報を決定する。
ここで、相対エントロピー情報は車線の確率分布の間の差異の非対称性測定情報を特徴づける。
例として、車線検出装置は、第1の車線認識結果に対応する確率分布(第2の車線認識結果に対応する確率分布と区別するために、以下、第1の確率分布と呼ばれる)と第2の車線認識結果に対応する確率分布(同様に、第1の車線認識結果に対応する確率分布と区別するために、以下、第2の確率分布と呼ばれる)との間のKL(Kullback-Leibler divergence)発散を計算することができ、当該KL発散は、第1の確率分布と第2の確率分布との間の差の非対称性測定情報を特徴づける。
例として、車線検出装置は式1に基づいて相対エントロピー情報LOSSを計算することができ、
(式1)LOSS=p(x)*log(p(x))-p(x)*log(q(x))
ここで、p(x)は残差ネットワークモデルによって出力された第1の確率分布であり、q(x)は軽量ネットワークモデルによって出力された第2の確率分布である。
サブステップ2において、第1の車線認識結果と第2の車線認識結果との間の損失情報を決定する。
ここで、損失情報は、車線の確率分布の間の距離情報を特徴づける。
例として、車線検出装置は第1の確率分布と第2の確率分布との間の損失情報(Wasserstein loss)を計算することができ、当該Wasserstein lossは第1の確率分布と第2の確率分布との間の距離情報を特徴づける。
例として、車線検出装置は、式2に基づいて相対エントロピー情報LOSSを計算することができ、
Figure 0007273129000001
ここで、
Figure 0007273129000002
は軽量ネットワークモデルによって出力された第2の確率分布オベイ分布Pであり、D(x)は軽量ネットワークモデルの予測値(即ち第2の確率分布)と実際の値(予め設定された値)との間の差分情報である。
サブステップ3において、相対エントロピー情報と損失情報に基づいて、軽量ネットワークモデルを反復して車線検出モデルを得る。
例として、車線検出装置は相対エントロピー情報と損失情報に基づいて軽量ネットワークモデルを調整するための調整範囲を決定し、且つ調整範囲に基づいて軽量ネットワークモデルを調整し、具体的には、軽量ネットワークモデルの畳み込みカーネルの係数などを調整し、車線検出モデルを得ることができる。
なお、本実施例において、相対エントロピー情報と損失情報を決定し、当該2つの次元の情報に基づいて軽量ネットワークモデルを最適化反復し、車線検出モデルを得ることにより、車線検出モデルの精度と信頼性を向上させることができ、且つ車線検出モデルに基づいて車線検出を行う場合の効率を向上させるという技術的効果を達成する。
S503において、非キーフレーム画像に対して、非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び非キーフレーム画像に基づいて車線検出を行う。
例として、S503についての説明はS203の説明を参照でき、或いは、S303とS304の説明を参照でき、ここでは繰り返しない。
なお、いくつかの実施例において、車線確率予測は、車線検出モデルの一部であってもよく、したがって、キーフレーム画像に対して、車線検出装置はキーフレーム画像を車線検出モデルに入力し、且つ車線検出モデルに基づいて特徴抽出を行い、キーフレーム画像の特徴マップを得ることができ、且つキーフレーム画像の車線検出を実現するようにキーフレーム画像の特徴マップに対して車線確率予測を行い、非キーフレーム画像に対して、キーフレーム画像と非キーフレーム画像に基づいてオプティカルフロー図を決定し、且つキーフレーム画像の特徴マップとオプティカルフロー図に基づいて非キーフレーム画像の特徴マップを決定し、且つ車線検出モデルにおける車線確率予測に基づいて非キーフレーム画像の特徴マップに対して車線検出を行うことができる。
一例では、車線検出装置は、ビデオストリームに対して車線検出を行い、車線検出結果を得た後、車線検出結果に基づいて車両走行を制御することができる。
他の例では、車線検出装置は、ビデオストリームに対して車線検出を行い、車線検出結果を得た後、車線検出結果を車両に設けられた制御装置に伝送し、且つ制御装置により車線検出結果に基づいて車両走行を制御することができる。
図6は本願の実施例5による模式図であり、図6に示すように、本願の実施例による車線検出装置600は、
車線を含むビデオストリームを取得するための取得モジュール601と、
抽出モジュール602であって、ビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出するために使用され、隣接するキーフレーム画像間を非キーフレーム画像として使用する抽出モジュール602と、
キーフレーム画像に対して、キーフレーム画像の特徴マップに基づいて車線検出を行い、非キーフレーム画像に対して、非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び非キーフレーム画像に基づいて車線検出を行うための検出モジュール603と、を含む。
図7は本願の実施例6による模式図であり、図7に示すように、実施例5の上で、検出モジュール603は、
前のフレームのキーフレーム画像と非キーフレーム画像との間の位置変化情報を決定するための位置決定サブモジュール6031と、
位置変化情報と前のフレームのキーフレーム画像の特徴マップに基づいて、非キーフレーム画像の特徴マップを決定するための第1の特徴マップ決定サブモジュール6032と、
非キーフレーム画像の特徴マップに基づいて車線検出を行うための第1の検出サブモジュール6033と、を含む。
いくつかの実施例において、位置変化情報は各ピクセルの位置移動情報を含み、位置決定サブモジュール6031は、前のフレームのキーフレーム画像と非キーフレーム画像をオプティカルフロー推定ネットワークモデルに入力し、前のフレームのキーフレーム画像と前記非キーフレーム画像との間のオプティカルフロー図を得るために使用され、ここで、オプティカルフロー図は、前のキーフレーム画像に対する非キーフレーム画像の各ピクセルの位置移動情報を特徴づける。
図8は、本願の実施例7による模式図であり、図8に示すように、実施例6の上で、車線検出装置600は、
車線の相対変位が存在する第1のサンプル画像と第2のサンプル画像を含む訓練サンプルセットを収集するための収集モジュール604と、
訓練サンプルセット、及び第1のサンプル画像と第2のサンプル画像との間のオプティカルフローフィールドに基づいて訓練ラベルとして、基本ネットワークモデルを訓練してオプティカルフロー推定ネットワークモデルを得るための第1の訓練モジュール605と、をさらに含む。
いくつかの実施例において、第1の特徴マップ決定サブモジュール6032は、位置変化情報に基づいて、非キーフレーム画像の特徴マップ上の前のフレームのキーフレーム画像の各ピクセルの位置情報を決定し、且つ位置情報と前のフレームのキーフレーム画像の特徴マップに基づいて、非キーフレーム画像の特徴マップを生成するために使用される。
図9は本願の実施例8による模式図であり、図9に示すように、実施例5の上で、検出モジュール603は、
キーフレーム画像を予め設定された車線検出モデルに入力し、キーフレーム画像の特徴マップを得るための第2の特徴マップ決定サブモジュール6034と、
キーフレーム画像の特徴マップに基づいて車線検出を行うための第2の検出サブモジュール6035と、を含み、
ここで、車線検出モデルは、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像に基づいて知識蒸留処理を行うことで生成されたものである。
図10は本願の実施例9による模式図であり、図10に示すように、実施例8の上で、車線検出装置600は、
昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像の両方を知識蒸留処理用の残差ネットワークモデルと軽量ネットワークモデルにそれぞれ入力し、残差ネットワークモデルによって出力された第1の車線認識結果、及び軽量ネットワークモデルによって出力された第2の車線認識結果を得るための入力モジュール606と、
第1の車線認識結果と第2の車線認識結果に基づいて、軽量ネットワークモデルを反復して車線検出モデルを得るための第2の訓練モジュール607と、をさらに含む。
図11は本願の実施例10による模式図であり、図11に示すように、実施例9の上で、第1の車線認識結果は、車線の確率分布を特徴づけ、第2の車線認識結果は、車線の確率分布を特徴づけ、第2の訓練モジュール607は、
差異決定サブモジュール6071であって、第1の車線認識結果と第2の車線認識結果との間の相対エントロピー情報を決定し、且つ第1の車線認識結果と第2の車線認識結果との間の損失情報を決定するために使用され、ここで、相対エントロピー情報は、車線の確率分布の間の差異の非対称性測定情報を特徴づけ、損失情報は、車線の確率分布の間の距離情報を特徴づける差異決定サブモジュール6071と、
相対エントロピー情報と損失情報に基づいて、軽量ネットワークモデルを反復して車線検出モデルを得るための反復サブモジュール6072と、を含む。
本願の実施例によれば、本願は電子機器及び可読記憶媒体をさらに提供する。
図12は、本願の実施例を実施できる例示的な電子機器1200の概略ブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバー、ブレードサーバー、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルプロセッサ、セルラ電話、スマートフォン、ウェアラブルデバイス、他の類似するコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本開示の実現を限定することを意図したものではない。
図12に示すように、電子機器1200は、読み取り専用メモリ(ROM)1202に記憶されるコンピュータプログラム又は記憶ユニット1208からランダムアクセスメモリ(RAM)1203にロードされたコンピュータプログラムに基づいて、様々な適切な動作と処理を実行できる計算ユニット1201を含む。RAM1203は、機器1200の操作に必要な様々プログラムとデータをさらに記憶することができる。計算ユニット1201、ROM1202及びRAM1203はバス1204を介して相互に接続される。入力/出力(I/O)インタフェース1205もバス1204に接続される。
キーボード、マウスなどの入力ユニット1206と、様々なタイプのディスプレイ、スピーカーなどの出力ユニット1207と、ディスク、CDなどの記憶ユニット1208と、ネットワークカード、モデム、無線通信トランシーバーなどの通信ユニット1209と、を含む機器1200の複数のコンポーネントはI/Oインタフェース1205に接続される。通信ユニット1209は、機器1200がインターネットなどのコンピュータネットワーク及び/又は様々な電気通信ネットワークを介して他の機器と情報/データを交換することを許可する。
計算ユニット1201は、処理と計算能力を含む様々な汎用及び/又は専用処理コンポーネントであってもよい。計算ユニット1201のいくつかの例は、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、様々な専用人工知能(AI)計算チップ、機械学習モデルアルゴリズムを実行する様々な計算ユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット1201は、車線検出方法のような上記の各方法と処理を実行する。例えば、いくつかの実施例において、車線検出方法は、記憶ユニット1208のような機械可読媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現されることができる。いくつかの実施例において、コンピュータプログラムの一部又は全部はROM1202及び/又は通信ユニット1209を介して機器1200にロード及び/又はインストールされることができる。コンピュータプログラムがRAM1203にロードされ、且つ計算ユニット1201により実行される場合、上記の車線検出方法の1つ又は複数のステップを実行することができる。選択可能に、他の実施例において、計算ユニット1201は、他の任意の適切な方式(例えば、ファームウェア)によって車線検出方法を実行するように配置されることができる。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け(ASIC)、専用標準品(ASSP)、システムオンチップシステム(SOC)、ロードプログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は以下の内容を含み、1つ又は複数のコンピュータプログラムで実施され、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、且つデータ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで書くことができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ又は他のプログラム可能なデータ処理装置のプロセッサ又はコントローラに提供されることができ、プログラムコードはプロセッサ又はコントローラにより実行される場合、フローチャート及び/又はブロック図で規定される機能/操作が実施されるようにする。プログラムコードは、完全に機器で、一部が機器で実行されることができ、独立したソフトウェアパッケージとして、一部が機器で実行するとともに、一部がリモート機器で実行又は完全にリモート機器又はサーバーで実行されることができる。
本開示の文脈において、機械可読媒体は、命令実行システム、装置又は機器に使用されるか、命令実行システム、装置又は機器を組み合わせて使用するためのプログラムを含むか又は記憶することができる有形媒体であってもよい。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読媒体は、電子、磁気、光学、電磁気、赤外線、又は半導体システム、装置又は機器、又は上記の内容の任意の適切な組み合わせを含むが、これらに限定されない。機械可読記憶媒体のより具体的な例は、1つ又は複数のワイヤに基づいた電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラム可能な読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶機器、磁気記憶機器、又は上記の内容の任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、コンピュータ上で、ここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報をディスプレイするためのディスプレイデバイス(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置さらに、ユーザとのインタラクションを提供するために使用でき、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、また、任意の形態(音響入力、音声入力、又は触覚入力を含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバーとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションを行う)、又はこのようなバックエンドコンポーネント、ミドルウェアコンポーネント、又はフロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット及びブロックチェーンネットワークを含む。
コンピュータシステムは、クライアント及びサーバーを含むことができる。クライアントとサーバーは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションを行う。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバーの関係を有するコンピュータプログラムによって、クライアントとサーバーとの関係が生成される。サーバーはクラウドサーバーであってもよく、クラウドコンピューティングサーバー又はクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムのホスト製品であり、従来の物理ホスト及び仮想プライベートサーバ(「Virtual Private Server」、或いは「VPS」と略称する)に存在している管理の難しさが大きく、サービススケーラビリティが弱いという欠陥を解決する。サーバーは、分散システムのサーバー、又はブロックチェーンを組み合わせたサーバーであってもよい。
本願の実施例の他の態様によれば、本願の実施例は、コンピュータプログラムをさらに提供し、前記コンピュータプログラムは、プロセッサによって実行される時、上記のいずれかの実施例に記載の方法、例えば図2、図3、及び図5のいずれかの実施例に示す方法を実現する。
本願の実施例の他の態様によれば、本願の実施例は、画像収集装置及び上記のいずれかの実施例に記載の車線検出装置を含む(図6~図11のいずれかの実施例に示すような車線検出装置を含む)車両をさらに提供し、ここで、画像収集装置は、車線を含むビデオストリームを収集するために使用される。
例として、車両には車線検出装置と画像収集装置が設けられることができ、画像収集は車線を含むビデオストリームを収集し、且つビデオストリームを車線検出装置に伝送し、車線検出装置は、車線に対する検出を実現するために、上記のいずれかの実施例に記載の車線検出方法(図2、図3及び図5のいずれかの実施例に示すような車線検出方法を実行するために使用される)を実行するために使用される。
いくつかの実施例において、車両にコントローラが設けられることができ、車線検出装置は、車線検出結果をコントローラに伝送し、コントローラは車線検出結果に基づいて車両走行を制御することができる。
理解すべきものとして、上記に示される様々な形態のフローを使用して、ステップを並べ替え、追加、又は削除することができる。例えば、本願に記載されている各ステップは、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよいが、本願で開示されている技術案が所望の結果を実現できる限り、本明細書はここで限定しない。
上記の具体的な実施形態は、本願の保護範囲を限定するものではない。当業者は、設計要件と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。本願の精神と原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本願の保護範囲内に含まれるべきである。

Claims (18)

  1. 車線検出方法であって、
    車線を含むビデオストリームを取得することと、
    前記ビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出し、隣接するキーフレーム画像間を非キーフレーム画像として使用することと、
    前記キーフレーム画像に対して、前記キーフレーム画像の特徴マップに基づいて車線検出を行うことと、
    前記非キーフレーム画像に対して、前記非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び前記非キーフレーム画像に基づいて車線検出を行うことと、を含み、
    前記キーフレーム画像に対して、前記キーフレーム画像の特徴マップに基づいて車線検出を行うことは、
    前記キーフレーム画像を予め設定された車線検出モデルに入力し、前記キーフレーム画像の特徴マップを得、且つ前記キーフレーム画像の特徴マップに基づいて車線検出を行うことを含み、
    ここで、前記車線検出モデルは、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像に基づいて知識蒸留処理を行うことで生成されたものであり、大型モデルによって小型モデルを指導して学習及び訓練させる方法で得られたものである車線検出方法。
  2. 前記非キーフレーム画像に対して、前記非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び前記非キーフレーム画像に基づいて車線検出を行うことは、
    前記前のフレームのキーフレーム画像と前記非キーフレーム画像との間の位置変化情報を決定することと、
    前記位置変化情報と前記前のフレームのキーフレーム画像の特徴マップに基づいて、前記非キーフレーム画像の特徴マップを決定し、且つ前記非キーフレーム画像の特徴マップに基づいて車線検出を行うことと、を含む請求項1に記載の方法。
  3. 前記位置変化情報は各ピクセルの位置移動情報を含み、前記前のフレームのキーフレーム画像と前記非キーフレーム画像との間の位置変化情報を決定することは、
    前記前のフレームのキーフレーム画像と前記非キーフレーム画像をオプティカルフロー推定ネットワークモデルに入力し、前記前のフレームのキーフレーム画像と前記非キーフレーム画像との間のオプティカルフロー図を得、ここで、前記オプティカルフロー図は前記前のキーフレーム画像に対する前記非キーフレーム画像の各ピクセルの位置移動情報を特徴づけること、を含む請求項2に記載の方法。
  4. 車線の相対変位が存在する第1のサンプル画像と第2のサンプル画像を含む訓練サンプルセットを収集することと、
    前記訓練サンプルセット、及び前記第1のサンプル画像と前記第2のサンプル画像との間のオプティカルフローフィールドに基づいて訓練ラベルとして、基本ネットワークモデルを訓練して前記オプティカルフロー推定ネットワークモデルを得ることと、をさらに含む請求項3に記載の方法。
  5. 前記位置変化情報と前記前のフレームのキーフレーム画像の特徴マップに基づいて、前記非キーフレーム画像の特徴マップを決定することは、
    前記位置変化情報に基づいて、前記非キーフレーム画像の特徴マップ上の前記前のフレームのキーフレーム画像の各ピクセルの位置情報を決定することと、
    前記位置情報と前記前のフレームのキーフレーム画像の特徴マップに基づいて、前記非キーフレーム画像の特徴マップを生成することと、を含む請求項2に記載の方法。
  6. 前記キーフレーム画像を予め設定された車線検出モデルに入力し、前記キーフレーム画像の特徴マップを得、且つ前記キーフレーム画像の特徴マップに基づいて車線検出を行う前に、前記方法は、
    前記昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像の両方を、知識蒸留処理用の残差ネットワークモデルと軽量ネットワークモデルにそれぞれ入力し、前記残差ネットワークモデルによって出力された第1の車線認識結果、及び前記軽量ネットワークモデルによって出力された第2の車線認識結果を得ることと、
    前記第1の車線認識結果と前記第2の車線認識結果に基づいて、前記軽量ネットワークモデルを反復して前記車線検出モデルを得ることと、をさらに含む請求項に記載の方法。
  7. 前記第1の車線認識結果は、車線の確率分布を特徴づけ、前記第2の車線認識結果は、車線の確率分布を特徴づけ、前記第1の車線認識結果と前記第2の車線認識結果に基づいて、前記軽量ネットワークモデルを反復して前記車線検出モデルを得ることは、
    前記第1の車線認識結果と前記第2の車線認識結果との間の相対エントロピー情報を決定し、且つ前記第1の車線認識結果と前記第2の車線認識結果との間の損失情報を決定し、ここで、前記相対エントロピー情報は、車線の確率分布の間の差異の非対称性測定情報を特徴づけ、前記損失情報は、車線の確率分布の間の距離情報を特徴づけることと、
    前記相対エントロピー情報と前記損失情報に基づいて、前記軽量ネットワークモデルを反復して前記車線検出モデルを得ることと、を含む請求項に記載の方法。
  8. 車線検出装置であって、
    車線を含むビデオストリームを取得するための取得モジュールと、
    前記ビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出し、隣接するキーフレーム画像間を非キーフレーム画像として使用するための抽出モジュールと、
    前記キーフレーム画像に対して、前記キーフレーム画像の特徴マップに基づいて車線検出を行い、前記非キーフレーム画像に対して、前記非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び前記非キーフレーム画像に基づいて車線検出を行うための検出モジュールと、を含み、
    前記検出モジュールは、
    前記キーフレーム画像を予め設定された車線検出モデルに入力し、前記キーフレーム画像の特徴マップを得るための第2の特徴マップ決定サブモジュールと、
    前記キーフレーム画像の特徴マップに基づいて車線検出を行うための第2の検出サブモジュールと、を含み、
    ここで、前記車線検出モデルは、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像に基づいて知識蒸留処理を行うことで生成されたものであり、大型モデルによって小型モデルを指導して学習及び訓練させる方法で得られたものである車線検出装置。
  9. 前記検出モジュールは、
    前記前のフレームのキーフレーム画像と前記非キーフレーム画像との間の位置変化情報を決定するための位置決定サブモジュールと、
    前記位置変化情報と前記前のフレームのキーフレーム画像の特徴マップに基づいて、前記非キーフレーム画像の特徴マップを決定するための第1の特徴マップ決定サブモジュールと、
    前記非キーフレーム画像の特徴マップに基づいて車線検出を行うための第1の検出サブモジュールと、を含む請求項に記載の装置。
  10. 前記位置変化情報は各ピクセルの位置移動情報を含み、前記位置決定サブモジュールは、前記前のフレームのキーフレーム画像と前記非キーフレーム画像をオプティカルフロー推定ネットワークモデルに入力し、前記前のフレームのキーフレーム画像と前記非キーフレーム画像との間のオプティカルフロー図を得るために使用され、ここで、前記オプティカルフロー図は前記前のキーフレーム画像に対する前記非キーフレーム画像の各ピクセルの位置移動情報を特徴づける請求項に記載の装置。
  11. 車線の相対変位が存在する第1のサンプル画像と第2のサンプル画像を含む訓練サンプルセットを収集するための収集モジュールと、
    前記訓練サンプルセット、及び前記第1のサンプル画像と前記第2のサンプル画像との間のオプティカルフローフィールドに基づいて訓練ラベルとして、基本ネットワークモデルを訓練して前記オプティカルフロー推定ネットワークモデルを得るための第1の訓練モジュールと、をさらに含む請求項10に記載の装置。
  12. 前記第1の特徴マップ決定サブモジュールは、前記位置変化情報に基づいて、前記非キーフレーム画像の特徴マップ上の前記前のフレームのキーフレーム画像の各ピクセルの位置情報を決定し、且つ前記位置情報と前記前のフレームのキーフレーム画像の特徴マップに基づいて、前記非キーフレーム画像の特徴マップを生成するために使用される請求項に記載の装置。
  13. 前記昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像の両方を、知識蒸留処理用の残差ネットワークモデルと軽量ネットワークモデルにそれぞれ入力し、前記残差ネットワークモデルによって出力された第1の車線認識結果、及び前記軽量ネットワークモデルによって出力された第2の車線認識結果を得るための入力モジュールと、
    前記第1の車線認識結果と前記第2の車線認識結果に基づいて、前記軽量ネットワークモデルを反復して前記車線検出モデルを得るための第2の訓練モジュールと、をさらに含む請求項に記載の装置。
  14. 前記第1の車線認識結果は、車線の確率分布を特徴づけ、前記第2の車線認識結果は、車線の確率分布を特徴づけ、前記第2の訓練モジュールは、
    差異決定サブモジュールであって、前記第1の車線認識結果と前記第2の車線認識結果との間の相対エントロピー情報を決定し、且つ前記第1の車線認識結果と前記第2の車線認識結果との間の損失情報を決定するために使用され、ここで、前記相対エントロピー情報は、車線の確率分布の間の差異の非対称性測定情報を特徴づけ、前記損失情報は、車線の確率分布の間の距離情報を特徴づける差異決定サブモジュールと、
    前記相対エントロピー情報と前記損失情報に基づいて、前記軽量ネットワークモデルを反復して前記車線検出モデルを得るための反復サブモジュールと、を含む請求項13に記載の装置。
  15. 電子機器であって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、ここで、
    前記メモリに前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが請求項1~のいずれか1項に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。
  16. コンピュータ命令が記憶されている非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ命令はコンピュータに請求項1~のいずれか1項に記載の方法を実行させるために使用される非一時的なコンピュータ可読記憶媒体。
  17. コンピュータプログラムであって、前記コンピュータプログラムは、プロセッサによって実行される時、請求項1~のいずれか1項に記載の方法を実現するコンピュータプログラム。
  18. 画像収集装置及び請求項8~14のいずれか1項に記載の車線検出装置を含む車両であって、
    前記画像収集装置は、車線を含むビデオストリームを収集するために使用される車両。
JP2021191751A 2020-12-16 2021-11-26 車線検出方法、装置、電子機器、記憶媒体及び車両 Active JP7273129B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011488643.7A CN112560684B (zh) 2020-12-16 2020-12-16 车道线检测方法、装置、电子设备、存储介质以及车辆
CN202011488643.7 2020-12-16

Publications (2)

Publication Number Publication Date
JP2022028870A JP2022028870A (ja) 2022-02-16
JP7273129B2 true JP7273129B2 (ja) 2023-05-12

Family

ID=75064235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021191751A Active JP7273129B2 (ja) 2020-12-16 2021-11-26 車線検出方法、装置、電子機器、記憶媒体及び車両

Country Status (5)

Country Link
US (1) US11967132B2 (ja)
EP (1) EP3937077B1 (ja)
JP (1) JP7273129B2 (ja)
KR (1) KR102721493B1 (ja)
CN (1) CN112560684B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113449692A (zh) * 2021-07-22 2021-09-28 成都纵横自动化技术股份有限公司 一种基于无人机的地图车道信息更新方法及其系统
CN114120281A (zh) * 2021-11-29 2022-03-01 上海商汤临港智能科技有限公司 一种车道线跟踪方法、装置、计算机设备和存储介质
CN114216471A (zh) * 2021-12-01 2022-03-22 北京百度网讯科技有限公司 电子地图确定方法、装置、电子设备及存储介质
CN115049995B (zh) * 2022-02-22 2023-07-04 阿波罗智能技术(北京)有限公司 一种车道线检测方法、装置、电子设备及存储介质
CN115115822B (zh) * 2022-06-30 2023-10-31 小米汽车科技有限公司 车端图像处理方法、装置、车辆、存储介质及芯片
CN116228834B (zh) * 2022-12-20 2023-11-03 阿波罗智联(北京)科技有限公司 图像深度获取方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019525515A (ja) 2016-06-09 2019-09-05 グーグル エルエルシー マルチビューシーンのセグメンテーションおよび伝播
CN110443173A (zh) 2019-07-26 2019-11-12 华中科技大学 一种基于帧间关系的视频实例分割方法及系统
WO2020103892A1 (zh) 2018-11-21 2020-05-28 北京市商汤科技开发有限公司 车道线检测方法、装置、电子设备及可读存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9053372B2 (en) * 2012-06-28 2015-06-09 Honda Motor Co., Ltd. Road marking detection and recognition
KR102618443B1 (ko) * 2016-12-09 2023-12-27 톰톰 글로벌 콘텐트 비.브이. 비디오 기반 위치결정 및 매핑을 위한 방법 및 시스템
US10630962B2 (en) * 2017-01-04 2020-04-21 Qualcomm Incorporated Systems and methods for object location
US10740613B1 (en) * 2017-04-20 2020-08-11 Digimarc Corporation Hybrid feature point/watermark-based augmented reality
US10794710B1 (en) * 2017-09-08 2020-10-06 Perceptin Shenzhen Limited High-precision multi-layer visual and semantic map by autonomous units
CN107895492A (zh) * 2017-10-24 2018-04-10 河海大学 一种基于传统视频的高速公路智能分析方法
US10657390B2 (en) * 2017-11-27 2020-05-19 Tusimple, Inc. System and method for large-scale lane marking detection using multimodal sensor data
CN108122249A (zh) 2017-12-20 2018-06-05 长沙全度影像科技有限公司 一种基于gan网络深度学习模型的光流估计方法
CN108242062B (zh) 2017-12-27 2023-06-30 北京纵目安驰智能科技有限公司 基于深度特征流的目标跟踪方法、系统、终端及介质
CN111209780A (zh) * 2018-11-21 2020-05-29 北京市商汤科技开发有限公司 车道线属性检测方法、装置、电子设备及可读存储介质
WO2020172875A1 (zh) * 2019-02-28 2020-09-03 深圳市大疆创新科技有限公司 道路结构信息的提取方法、无人机及自动驾驶系统
CN109978756B (zh) * 2019-03-18 2021-03-09 腾讯科技(深圳)有限公司 目标检测方法、系统、装置、存储介质和计算机设备
CN110135302B (zh) 2019-04-30 2021-08-31 百度在线网络技术(北京)有限公司 训练车道线识别模型的方法、装置、设备和存储介质
US20200372791A1 (en) * 2019-05-24 2020-11-26 E-Motion Inc. Crowdsourced realtime traffic images and videos
CN110427800B (zh) * 2019-06-17 2024-09-10 平安科技(深圳)有限公司 视频物体加速检测方法、装置、服务器及存储介质
KR102305328B1 (ko) * 2019-12-24 2021-09-28 한국도로공사 카메라 기반의 자동화된 정밀도로지도 생성 시스템 및 방법
KR102327185B1 (ko) * 2019-12-24 2021-11-17 한국도로공사 정밀도로지도 갱신을 위한 객체 변화 탐지 시스템 및 그 방법
CN111178245B (zh) * 2019-12-27 2023-12-22 佑驾创新(北京)技术有限公司 车道线检测方法、装置、计算机设备和存储介质
CN112541437A (zh) * 2020-12-15 2021-03-23 北京百度网讯科技有限公司 车辆定位方法、装置、电子设备及存储介质
US11875580B2 (en) * 2021-10-04 2024-01-16 Motive Technologies, Inc. Camera initialization for lane detection and distance estimation using single-view geometry
US20230154157A1 (en) * 2021-11-16 2023-05-18 Qualcomm Incorporated Saliency-based input resampling for efficient object detection
CN114018274B (zh) * 2021-11-18 2024-03-26 阿波罗智能技术(北京)有限公司 车辆定位方法、装置及电子设备
CN114323033B (zh) * 2021-12-29 2023-08-29 北京百度网讯科技有限公司 基于车道线和特征点的定位方法、设备及自动驾驶车辆

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019525515A (ja) 2016-06-09 2019-09-05 グーグル エルエルシー マルチビューシーンのセグメンテーションおよび伝播
WO2020103892A1 (zh) 2018-11-21 2020-05-28 北京市商汤科技开发有限公司 车道线检测方法、装置、电子设备及可读存储介质
CN110443173A (zh) 2019-07-26 2019-11-12 华中科技大学 一种基于帧间关系的视频实例分割方法及系统

Also Published As

Publication number Publication date
EP3937077A1 (en) 2022-01-12
CN112560684B (zh) 2023-10-24
KR20220004939A (ko) 2022-01-12
CN112560684A (zh) 2021-03-26
JP2022028870A (ja) 2022-02-16
US11967132B2 (en) 2024-04-23
US20210312195A1 (en) 2021-10-07
KR102721493B1 (ko) 2024-10-24
EP3937077B1 (en) 2023-05-24

Similar Documents

Publication Publication Date Title
JP7273129B2 (ja) 車線検出方法、装置、電子機器、記憶媒体及び車両
US11810319B2 (en) Image detection method, device, storage medium and computer program product
JP2022177232A (ja) 画像処理方法、テキスト認識方法及び装置
EP3951741B1 (en) Method for acquiring traffic state, relevant apparatus, roadside device and cloud control platform
CN110675635B (zh) 相机外参的获取方法、装置、电子设备及存储介质
CN115147809A (zh) 一种障碍物检测方法、装置、设备以及存储介质
CN111402413A (zh) 三维视觉定位方法、装置及计算设备、存储介质
CN112085842B (zh) 深度值确定方法及装置、电子设备和存储介质
CN109816791B (zh) 用于生成信息的方法和装置
CN114429631B (zh) 三维对象检测方法、装置、设备以及存储介质
KR102595678B1 (ko) 차량 연계 방법, 차량 연계 장치, 노변 장치 및 클라우드 제어 플랫폼
CN113610856B (zh) 训练图像分割模型和图像分割的方法和装置
KR20230006628A (ko) 이미지 처리 방법과 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램
CN115375740A (zh) 位姿确定方法和三维模型的生成方法、装置、设备、介质
CN116051925B (zh) 训练样本采集方法、装置、设备以及存储介质
CN112558810A (zh) 检测指尖位置的方法、装置、设备和存储介质
KR102463890B1 (ko) 위치 정보를 생성하는 방법, 장치, 기기, 매체 및 프로그램
JP2023535661A (ja) 車両の車線区画線踏み越え認識方法、装置、電子機器、記憶媒体及びコンピュータプログラム
CN118135348A (zh) 目标模型的训练方法、目标检测方法及装置
CN117765439A (zh) 目标对象检测方法、车辆的控制方法、装置、芯片和设备
CN115019283A (zh) 对象感知方法、装置、车辆、电子设备和存储介质
CN114091587A (zh) 用于高精地图的确定对象类别的方法、装置、设备和介质
CN118692042A (zh) 车道线的检测方法、装置、电子设备与可读存储介质
CN117636127A (zh) 预训练模型的生成方法、装置、电子设备和存储介质
CN113392795A (zh) 联合检测模型训练、联合检测方法、装置、设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230427

R150 Certificate of patent or registration of utility model

Ref document number: 7273129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150