JP7273129B2 - 車線検出方法、装置、電子機器、記憶媒体及び車両 - Google Patents
車線検出方法、装置、電子機器、記憶媒体及び車両 Download PDFInfo
- Publication number
- JP7273129B2 JP7273129B2 JP2021191751A JP2021191751A JP7273129B2 JP 7273129 B2 JP7273129 B2 JP 7273129B2 JP 2021191751 A JP2021191751 A JP 2021191751A JP 2021191751 A JP2021191751 A JP 2021191751A JP 7273129 B2 JP7273129 B2 JP 7273129B2
- Authority
- JP
- Japan
- Prior art keywords
- lane
- image
- keyframe
- keyframe image
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Description
車線を含むビデオストリームを取得し、且つ前記ビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出し、隣接するキーフレーム画像間を非キーフレーム画像として使用することと、
前記キーフレーム画像に対して、前記キーフレーム画像の特徴マップに基づいて車線検出を行い、前記非キーフレーム画像に対して、前記非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び前記非キーフレーム画像に基づいて車線検出を行うことと、を含む。
車線を含むビデオストリームを取得するための取得モジュールと、
抽出モジュールであって、前記ビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出するために使用され、隣接するキーフレーム画像間を非キーフレーム画像として使用する抽出モジュールと、
前記キーフレーム画像に対して、前記キーフレーム画像の特徴マップに基づいて車線検出を行い、前記非キーフレーム画像に対して、前記非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び前記非キーフレーム画像に基づいて車線検出を行うための検出モジュールと、を含む。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、ここで、
前記メモリに前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが上記の実施例に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
(式1)LOSS1=p(x)*log(p(x))-p(x)*log(q(x))
ここで、p(x)は残差ネットワークモデルによって出力された第1の確率分布であり、q(x)は軽量ネットワークモデルによって出力された第2の確率分布である。
ここで、
は軽量ネットワークモデルによって出力された第2の確率分布オベイ分布PGであり、D(x)は軽量ネットワークモデルの予測値(即ち第2の確率分布)と実際の値(予め設定された値)との間の差分情報である。
車線を含むビデオストリームを取得するための取得モジュール601と、
抽出モジュール602であって、ビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出するために使用され、隣接するキーフレーム画像間を非キーフレーム画像として使用する抽出モジュール602と、
キーフレーム画像に対して、キーフレーム画像の特徴マップに基づいて車線検出を行い、非キーフレーム画像に対して、非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び非キーフレーム画像に基づいて車線検出を行うための検出モジュール603と、を含む。
前のフレームのキーフレーム画像と非キーフレーム画像との間の位置変化情報を決定するための位置決定サブモジュール6031と、
位置変化情報と前のフレームのキーフレーム画像の特徴マップに基づいて、非キーフレーム画像の特徴マップを決定するための第1の特徴マップ決定サブモジュール6032と、
非キーフレーム画像の特徴マップに基づいて車線検出を行うための第1の検出サブモジュール6033と、を含む。
車線の相対変位が存在する第1のサンプル画像と第2のサンプル画像を含む訓練サンプルセットを収集するための収集モジュール604と、
訓練サンプルセット、及び第1のサンプル画像と第2のサンプル画像との間のオプティカルフローフィールドに基づいて訓練ラベルとして、基本ネットワークモデルを訓練してオプティカルフロー推定ネットワークモデルを得るための第1の訓練モジュール605と、をさらに含む。
キーフレーム画像を予め設定された車線検出モデルに入力し、キーフレーム画像の特徴マップを得るための第2の特徴マップ決定サブモジュール6034と、
キーフレーム画像の特徴マップに基づいて車線検出を行うための第2の検出サブモジュール6035と、を含み、
ここで、車線検出モデルは、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像に基づいて知識蒸留処理を行うことで生成されたものである。
昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像の両方を知識蒸留処理用の残差ネットワークモデルと軽量ネットワークモデルにそれぞれ入力し、残差ネットワークモデルによって出力された第1の車線認識結果、及び軽量ネットワークモデルによって出力された第2の車線認識結果を得るための入力モジュール606と、
第1の車線認識結果と第2の車線認識結果に基づいて、軽量ネットワークモデルを反復して車線検出モデルを得るための第2の訓練モジュール607と、をさらに含む。
差異決定サブモジュール6071であって、第1の車線認識結果と第2の車線認識結果との間の相対エントロピー情報を決定し、且つ第1の車線認識結果と第2の車線認識結果との間の損失情報を決定するために使用され、ここで、相対エントロピー情報は、車線の確率分布の間の差異の非対称性測定情報を特徴づけ、損失情報は、車線の確率分布の間の距離情報を特徴づける差異決定サブモジュール6071と、
相対エントロピー情報と損失情報に基づいて、軽量ネットワークモデルを反復して車線検出モデルを得るための反復サブモジュール6072と、を含む。
Claims (18)
- 車線検出方法であって、
車線を含むビデオストリームを取得することと、
前記ビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出し、隣接するキーフレーム画像間を非キーフレーム画像として使用することと、
前記キーフレーム画像に対して、前記キーフレーム画像の特徴マップに基づいて車線検出を行うことと、
前記非キーフレーム画像に対して、前記非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び前記非キーフレーム画像に基づいて車線検出を行うことと、を含み、
前記キーフレーム画像に対して、前記キーフレーム画像の特徴マップに基づいて車線検出を行うことは、
前記キーフレーム画像を予め設定された車線検出モデルに入力し、前記キーフレーム画像の特徴マップを得、且つ前記キーフレーム画像の特徴マップに基づいて車線検出を行うことを含み、
ここで、前記車線検出モデルは、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像に基づいて知識蒸留処理を行うことで生成されたものであり、大型モデルによって小型モデルを指導して学習及び訓練させる方法で得られたものである車線検出方法。 - 前記非キーフレーム画像に対して、前記非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び前記非キーフレーム画像に基づいて車線検出を行うことは、
前記前のフレームのキーフレーム画像と前記非キーフレーム画像との間の位置変化情報を決定することと、
前記位置変化情報と前記前のフレームのキーフレーム画像の特徴マップに基づいて、前記非キーフレーム画像の特徴マップを決定し、且つ前記非キーフレーム画像の特徴マップに基づいて車線検出を行うことと、を含む請求項1に記載の方法。 - 前記位置変化情報は各ピクセルの位置移動情報を含み、前記前のフレームのキーフレーム画像と前記非キーフレーム画像との間の位置変化情報を決定することは、
前記前のフレームのキーフレーム画像と前記非キーフレーム画像をオプティカルフロー推定ネットワークモデルに入力し、前記前のフレームのキーフレーム画像と前記非キーフレーム画像との間のオプティカルフロー図を得、ここで、前記オプティカルフロー図は前記前のキーフレーム画像に対する前記非キーフレーム画像の各ピクセルの位置移動情報を特徴づけること、を含む請求項2に記載の方法。 - 車線の相対変位が存在する第1のサンプル画像と第2のサンプル画像を含む訓練サンプルセットを収集することと、
前記訓練サンプルセット、及び前記第1のサンプル画像と前記第2のサンプル画像との間のオプティカルフローフィールドに基づいて訓練ラベルとして、基本ネットワークモデルを訓練して前記オプティカルフロー推定ネットワークモデルを得ることと、をさらに含む請求項3に記載の方法。 - 前記位置変化情報と前記前のフレームのキーフレーム画像の特徴マップに基づいて、前記非キーフレーム画像の特徴マップを決定することは、
前記位置変化情報に基づいて、前記非キーフレーム画像の特徴マップ上の前記前のフレームのキーフレーム画像の各ピクセルの位置情報を決定することと、
前記位置情報と前記前のフレームのキーフレーム画像の特徴マップに基づいて、前記非キーフレーム画像の特徴マップを生成することと、を含む請求項2に記載の方法。 - 前記キーフレーム画像を予め設定された車線検出モデルに入力し、前記キーフレーム画像の特徴マップを得、且つ前記キーフレーム画像の特徴マップに基づいて車線検出を行う前に、前記方法は、
前記昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像の両方を、知識蒸留処理用の残差ネットワークモデルと軽量ネットワークモデルにそれぞれ入力し、前記残差ネットワークモデルによって出力された第1の車線認識結果、及び前記軽量ネットワークモデルによって出力された第2の車線認識結果を得ることと、
前記第1の車線認識結果と前記第2の車線認識結果に基づいて、前記軽量ネットワークモデルを反復して前記車線検出モデルを得ることと、をさらに含む請求項1に記載の方法。 - 前記第1の車線認識結果は、車線の確率分布を特徴づけ、前記第2の車線認識結果は、車線の確率分布を特徴づけ、前記第1の車線認識結果と前記第2の車線認識結果に基づいて、前記軽量ネットワークモデルを反復して前記車線検出モデルを得ることは、
前記第1の車線認識結果と前記第2の車線認識結果との間の相対エントロピー情報を決定し、且つ前記第1の車線認識結果と前記第2の車線認識結果との間の損失情報を決定し、ここで、前記相対エントロピー情報は、車線の確率分布の間の差異の非対称性測定情報を特徴づけ、前記損失情報は、車線の確率分布の間の距離情報を特徴づけることと、
前記相対エントロピー情報と前記損失情報に基づいて、前記軽量ネットワークモデルを反復して前記車線検出モデルを得ることと、を含む請求項6に記載の方法。 - 車線検出装置であって、
車線を含むビデオストリームを取得するための取得モジュールと、
前記ビデオストリームにおいて所定の間隔のフレーム数でキーフレーム画像を抽出し、隣接するキーフレーム画像間を非キーフレーム画像として使用するための抽出モジュールと、
前記キーフレーム画像に対して、前記キーフレーム画像の特徴マップに基づいて車線検出を行い、前記非キーフレーム画像に対して、前記非キーフレーム画像の前のフレームのキーフレーム画像の特徴マップ及び前記非キーフレーム画像に基づいて車線検出を行うための検出モジュールと、を含み、
前記検出モジュールは、
前記キーフレーム画像を予め設定された車線検出モデルに入力し、前記キーフレーム画像の特徴マップを得るための第2の特徴マップ決定サブモジュールと、
前記キーフレーム画像の特徴マップに基づいて車線検出を行うための第2の検出サブモジュールと、を含み、
ここで、前記車線検出モデルは、昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像に基づいて知識蒸留処理を行うことで生成されたものであり、大型モデルによって小型モデルを指導して学習及び訓練させる方法で得られたものである車線検出装置。 - 前記検出モジュールは、
前記前のフレームのキーフレーム画像と前記非キーフレーム画像との間の位置変化情報を決定するための位置決定サブモジュールと、
前記位置変化情報と前記前のフレームのキーフレーム画像の特徴マップに基づいて、前記非キーフレーム画像の特徴マップを決定するための第1の特徴マップ決定サブモジュールと、
前記非キーフレーム画像の特徴マップに基づいて車線検出を行うための第1の検出サブモジュールと、を含む請求項8に記載の装置。 - 前記位置変化情報は各ピクセルの位置移動情報を含み、前記位置決定サブモジュールは、前記前のフレームのキーフレーム画像と前記非キーフレーム画像をオプティカルフロー推定ネットワークモデルに入力し、前記前のフレームのキーフレーム画像と前記非キーフレーム画像との間のオプティカルフロー図を得るために使用され、ここで、前記オプティカルフロー図は前記前のキーフレーム画像に対する前記非キーフレーム画像の各ピクセルの位置移動情報を特徴づける請求項9に記載の装置。
- 車線の相対変位が存在する第1のサンプル画像と第2のサンプル画像を含む訓練サンプルセットを収集するための収集モジュールと、
前記訓練サンプルセット、及び前記第1のサンプル画像と前記第2のサンプル画像との間のオプティカルフローフィールドに基づいて訓練ラベルとして、基本ネットワークモデルを訓練して前記オプティカルフロー推定ネットワークモデルを得るための第1の訓練モジュールと、をさらに含む請求項10に記載の装置。 - 前記第1の特徴マップ決定サブモジュールは、前記位置変化情報に基づいて、前記非キーフレーム画像の特徴マップ上の前記前のフレームのキーフレーム画像の各ピクセルの位置情報を決定し、且つ前記位置情報と前記前のフレームのキーフレーム画像の特徴マップに基づいて、前記非キーフレーム画像の特徴マップを生成するために使用される請求項9に記載の装置。
- 前記昼間シーンの車線サンプル画像と夜間シーンの車線サンプル画像の両方を、知識蒸留処理用の残差ネットワークモデルと軽量ネットワークモデルにそれぞれ入力し、前記残差ネットワークモデルによって出力された第1の車線認識結果、及び前記軽量ネットワークモデルによって出力された第2の車線認識結果を得るための入力モジュールと、
前記第1の車線認識結果と前記第2の車線認識結果に基づいて、前記軽量ネットワークモデルを反復して前記車線検出モデルを得るための第2の訓練モジュールと、をさらに含む請求項8に記載の装置。 - 前記第1の車線認識結果は、車線の確率分布を特徴づけ、前記第2の車線認識結果は、車線の確率分布を特徴づけ、前記第2の訓練モジュールは、
差異決定サブモジュールであって、前記第1の車線認識結果と前記第2の車線認識結果との間の相対エントロピー情報を決定し、且つ前記第1の車線認識結果と前記第2の車線認識結果との間の損失情報を決定するために使用され、ここで、前記相対エントロピー情報は、車線の確率分布の間の差異の非対称性測定情報を特徴づけ、前記損失情報は、車線の確率分布の間の距離情報を特徴づける差異決定サブモジュールと、
前記相対エントロピー情報と前記損失情報に基づいて、前記軽量ネットワークモデルを反復して前記車線検出モデルを得るための反復サブモジュールと、を含む請求項13に記載の装置。 - 電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、ここで、
前記メモリに前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが請求項1~7のいずれか1項に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ命令はコンピュータに請求項1~7のいずれか1項に記載の方法を実行させるために使用される非一時的なコンピュータ可読記憶媒体。
- コンピュータプログラムであって、前記コンピュータプログラムは、プロセッサによって実行される時、請求項1~7のいずれか1項に記載の方法を実現するコンピュータプログラム。
- 画像収集装置及び請求項8~14のいずれか1項に記載の車線検出装置を含む車両であって、
前記画像収集装置は、車線を含むビデオストリームを収集するために使用される車両。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011488643.7A CN112560684B (zh) | 2020-12-16 | 2020-12-16 | 车道线检测方法、装置、电子设备、存储介质以及车辆 |
CN202011488643.7 | 2020-12-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022028870A JP2022028870A (ja) | 2022-02-16 |
JP7273129B2 true JP7273129B2 (ja) | 2023-05-12 |
Family
ID=75064235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021191751A Active JP7273129B2 (ja) | 2020-12-16 | 2021-11-26 | 車線検出方法、装置、電子機器、記憶媒体及び車両 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11967132B2 (ja) |
EP (1) | EP3937077B1 (ja) |
JP (1) | JP7273129B2 (ja) |
KR (1) | KR102721493B1 (ja) |
CN (1) | CN112560684B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113449692A (zh) * | 2021-07-22 | 2021-09-28 | 成都纵横自动化技术股份有限公司 | 一种基于无人机的地图车道信息更新方法及其系统 |
CN114120281A (zh) * | 2021-11-29 | 2022-03-01 | 上海商汤临港智能科技有限公司 | 一种车道线跟踪方法、装置、计算机设备和存储介质 |
CN114216471A (zh) * | 2021-12-01 | 2022-03-22 | 北京百度网讯科技有限公司 | 电子地图确定方法、装置、电子设备及存储介质 |
CN115049995B (zh) * | 2022-02-22 | 2023-07-04 | 阿波罗智能技术(北京)有限公司 | 一种车道线检测方法、装置、电子设备及存储介质 |
CN115115822B (zh) * | 2022-06-30 | 2023-10-31 | 小米汽车科技有限公司 | 车端图像处理方法、装置、车辆、存储介质及芯片 |
CN116228834B (zh) * | 2022-12-20 | 2023-11-03 | 阿波罗智联(北京)科技有限公司 | 图像深度获取方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019525515A (ja) | 2016-06-09 | 2019-09-05 | グーグル エルエルシー | マルチビューシーンのセグメンテーションおよび伝播 |
CN110443173A (zh) | 2019-07-26 | 2019-11-12 | 华中科技大学 | 一种基于帧间关系的视频实例分割方法及系统 |
WO2020103892A1 (zh) | 2018-11-21 | 2020-05-28 | 北京市商汤科技开发有限公司 | 车道线检测方法、装置、电子设备及可读存储介质 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9053372B2 (en) * | 2012-06-28 | 2015-06-09 | Honda Motor Co., Ltd. | Road marking detection and recognition |
KR102618443B1 (ko) * | 2016-12-09 | 2023-12-27 | 톰톰 글로벌 콘텐트 비.브이. | 비디오 기반 위치결정 및 매핑을 위한 방법 및 시스템 |
US10630962B2 (en) * | 2017-01-04 | 2020-04-21 | Qualcomm Incorporated | Systems and methods for object location |
US10740613B1 (en) * | 2017-04-20 | 2020-08-11 | Digimarc Corporation | Hybrid feature point/watermark-based augmented reality |
US10794710B1 (en) * | 2017-09-08 | 2020-10-06 | Perceptin Shenzhen Limited | High-precision multi-layer visual and semantic map by autonomous units |
CN107895492A (zh) * | 2017-10-24 | 2018-04-10 | 河海大学 | 一种基于传统视频的高速公路智能分析方法 |
US10657390B2 (en) * | 2017-11-27 | 2020-05-19 | Tusimple, Inc. | System and method for large-scale lane marking detection using multimodal sensor data |
CN108122249A (zh) | 2017-12-20 | 2018-06-05 | 长沙全度影像科技有限公司 | 一种基于gan网络深度学习模型的光流估计方法 |
CN108242062B (zh) | 2017-12-27 | 2023-06-30 | 北京纵目安驰智能科技有限公司 | 基于深度特征流的目标跟踪方法、系统、终端及介质 |
CN111209780A (zh) * | 2018-11-21 | 2020-05-29 | 北京市商汤科技开发有限公司 | 车道线属性检测方法、装置、电子设备及可读存储介质 |
WO2020172875A1 (zh) * | 2019-02-28 | 2020-09-03 | 深圳市大疆创新科技有限公司 | 道路结构信息的提取方法、无人机及自动驾驶系统 |
CN109978756B (zh) * | 2019-03-18 | 2021-03-09 | 腾讯科技(深圳)有限公司 | 目标检测方法、系统、装置、存储介质和计算机设备 |
CN110135302B (zh) | 2019-04-30 | 2021-08-31 | 百度在线网络技术(北京)有限公司 | 训练车道线识别模型的方法、装置、设备和存储介质 |
US20200372791A1 (en) * | 2019-05-24 | 2020-11-26 | E-Motion Inc. | Crowdsourced realtime traffic images and videos |
CN110427800B (zh) * | 2019-06-17 | 2024-09-10 | 平安科技(深圳)有限公司 | 视频物体加速检测方法、装置、服务器及存储介质 |
KR102305328B1 (ko) * | 2019-12-24 | 2021-09-28 | 한국도로공사 | 카메라 기반의 자동화된 정밀도로지도 생성 시스템 및 방법 |
KR102327185B1 (ko) * | 2019-12-24 | 2021-11-17 | 한국도로공사 | 정밀도로지도 갱신을 위한 객체 변화 탐지 시스템 및 그 방법 |
CN111178245B (zh) * | 2019-12-27 | 2023-12-22 | 佑驾创新(北京)技术有限公司 | 车道线检测方法、装置、计算机设备和存储介质 |
CN112541437A (zh) * | 2020-12-15 | 2021-03-23 | 北京百度网讯科技有限公司 | 车辆定位方法、装置、电子设备及存储介质 |
US11875580B2 (en) * | 2021-10-04 | 2024-01-16 | Motive Technologies, Inc. | Camera initialization for lane detection and distance estimation using single-view geometry |
US20230154157A1 (en) * | 2021-11-16 | 2023-05-18 | Qualcomm Incorporated | Saliency-based input resampling for efficient object detection |
CN114018274B (zh) * | 2021-11-18 | 2024-03-26 | 阿波罗智能技术(北京)有限公司 | 车辆定位方法、装置及电子设备 |
CN114323033B (zh) * | 2021-12-29 | 2023-08-29 | 北京百度网讯科技有限公司 | 基于车道线和特征点的定位方法、设备及自动驾驶车辆 |
-
2020
- 2020-12-16 CN CN202011488643.7A patent/CN112560684B/zh active Active
-
2021
- 2021-06-21 US US17/352,871 patent/US11967132B2/en active Active
- 2021-06-24 EP EP21181451.2A patent/EP3937077B1/en active Active
- 2021-11-26 JP JP2021191751A patent/JP7273129B2/ja active Active
- 2021-12-15 KR KR1020210179925A patent/KR102721493B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019525515A (ja) | 2016-06-09 | 2019-09-05 | グーグル エルエルシー | マルチビューシーンのセグメンテーションおよび伝播 |
WO2020103892A1 (zh) | 2018-11-21 | 2020-05-28 | 北京市商汤科技开发有限公司 | 车道线检测方法、装置、电子设备及可读存储介质 |
CN110443173A (zh) | 2019-07-26 | 2019-11-12 | 华中科技大学 | 一种基于帧间关系的视频实例分割方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
EP3937077A1 (en) | 2022-01-12 |
CN112560684B (zh) | 2023-10-24 |
KR20220004939A (ko) | 2022-01-12 |
CN112560684A (zh) | 2021-03-26 |
JP2022028870A (ja) | 2022-02-16 |
US11967132B2 (en) | 2024-04-23 |
US20210312195A1 (en) | 2021-10-07 |
KR102721493B1 (ko) | 2024-10-24 |
EP3937077B1 (en) | 2023-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7273129B2 (ja) | 車線検出方法、装置、電子機器、記憶媒体及び車両 | |
US11810319B2 (en) | Image detection method, device, storage medium and computer program product | |
JP2022177232A (ja) | 画像処理方法、テキスト認識方法及び装置 | |
EP3951741B1 (en) | Method for acquiring traffic state, relevant apparatus, roadside device and cloud control platform | |
CN110675635B (zh) | 相机外参的获取方法、装置、电子设备及存储介质 | |
CN115147809A (zh) | 一种障碍物检测方法、装置、设备以及存储介质 | |
CN111402413A (zh) | 三维视觉定位方法、装置及计算设备、存储介质 | |
CN112085842B (zh) | 深度值确定方法及装置、电子设备和存储介质 | |
CN109816791B (zh) | 用于生成信息的方法和装置 | |
CN114429631B (zh) | 三维对象检测方法、装置、设备以及存储介质 | |
KR102595678B1 (ko) | 차량 연계 방법, 차량 연계 장치, 노변 장치 및 클라우드 제어 플랫폼 | |
CN113610856B (zh) | 训练图像分割模型和图像分割的方法和装置 | |
KR20230006628A (ko) | 이미지 처리 방법과 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 | |
CN115375740A (zh) | 位姿确定方法和三维模型的生成方法、装置、设备、介质 | |
CN116051925B (zh) | 训练样本采集方法、装置、设备以及存储介质 | |
CN112558810A (zh) | 检测指尖位置的方法、装置、设备和存储介质 | |
KR102463890B1 (ko) | 위치 정보를 생성하는 방법, 장치, 기기, 매체 및 프로그램 | |
JP2023535661A (ja) | 車両の車線区画線踏み越え認識方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN118135348A (zh) | 目标模型的训练方法、目标检测方法及装置 | |
CN117765439A (zh) | 目标对象检测方法、车辆的控制方法、装置、芯片和设备 | |
CN115019283A (zh) | 对象感知方法、装置、车辆、电子设备和存储介质 | |
CN114091587A (zh) | 用于高精地图的确定对象类别的方法、装置、设备和介质 | |
CN118692042A (zh) | 车道线的检测方法、装置、电子设备与可读存储介质 | |
CN117636127A (zh) | 预训练模型的生成方法、装置、电子设备和存储介质 | |
CN113392795A (zh) | 联合检测模型训练、联合检测方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7273129 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |