Nothing Special   »   [go: up one dir, main page]

JP2021081836A - 体格推定装置および姿勢推定装置 - Google Patents

体格推定装置および姿勢推定装置 Download PDF

Info

Publication number
JP2021081836A
JP2021081836A JP2019206877A JP2019206877A JP2021081836A JP 2021081836 A JP2021081836 A JP 2021081836A JP 2019206877 A JP2019206877 A JP 2019206877A JP 2019206877 A JP2019206877 A JP 2019206877A JP 2021081836 A JP2021081836 A JP 2021081836A
Authority
JP
Japan
Prior art keywords
skeleton
occupant
posture
physique
seat
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019206877A
Other languages
English (en)
Other versions
JP7415469B2 (ja
Inventor
五大 田中
Godai Tanaka
五大 田中
義晃 戸松
Yoshiaki Tomatsu
義晃 戸松
貴之 中込
Takayuki Nakagome
貴之 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2019206877A priority Critical patent/JP7415469B2/ja
Priority to US17/070,050 priority patent/US11380009B2/en
Priority to DE102020129979.6A priority patent/DE102020129979A1/de
Publication of JP2021081836A publication Critical patent/JP2021081836A/ja
Application granted granted Critical
Publication of JP7415469B2 publication Critical patent/JP7415469B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】コストの上昇を招くことなく車内の撮像画像に含まれる乗員画像から体格を取得する装置を構成する。【解決手段】車両の室内を撮影するカメラ6の撮像画像に含まれる乗員の身体画像の複数の骨格点の位置を撮像画像の2次元座標系における骨格点座標として取得する骨格点座標取得部11を備え、予め設定された複数の骨格点間の距離となる距離情報と、複数の骨格点を結ぶ骨格ラインの基準ラインに対する角度となる角度情報と、が入力されることにより、乗員を正面から見た骨格点の配置となる正面座標を推定して出力するように機械学習を行った正面座標推定部23を備え、正面座標推定部23で推定された正面座標から乗員の体格を判定する体格判定部26を備えた。【選択図】図3

Description

本発明は、車両の車内を撮影するカメラで撮影された乗員の体格を推定する体格推定装置および乗員の姿勢を推定する姿勢推定装置に関する。
体格を推定する装置に関連する技術として特許文献1には、車両(文献では移動体)の乗員をカメラ(文献では撮像装置)で撮影し、光飛行時間測距法により乗員の特徴点までの距離を導出し、複数の特徴点までの距離に基づき乗員の姿勢を識別する識別部を備えた装置が記載されている。
この特許文献1では、ドライバーの頭部や胴体部等の各部位の骨格位置等を特徴点として推定し、識別部は各特徴点の3次元座標からドライバーの姿勢や動作を識別している。この識別ではドライバーの基本姿勢を登録しておき、基本姿勢からの変化に基づいて姿勢を識別しても良い点が記載されている。
また、特許文献2は、車両の車内を撮影するものではないが、フレーム画像から、骨格生成部が乗員の骨格を生成し、乗員(文献では人物)の頭部、胴体、肩等の各身体ジョイント及び身体パーツを推定し、乗員の姿勢を推定する装置が記載されている。
特開2019−148865号公報 特開2018−147313号公報
乗用車を例に挙げると、運転座席に着座したドライバーの運転姿勢から運転状態の把握が可能であり、ドライバーが運転座席に着座する上半身の姿勢はエアーバッグが作動した際のドライバーの保護の観点から重要である。
また、サイドエアーバッグを備えた車両では、助手席、あるいは、後部の乗員席等に着座する乗員の上半身の姿勢が、サイドエアーバッグが配置された内壁に接触するように凭れかかることは避けたいものである。
そこで、車内の乗員の体格と姿勢を把握することにより、ドライバーや乗員に対して必要なメッセージを出力することも考えられるが、特許文献1に記載された技術は、乗員を3次元座標として処理する装置を用いるため、コストの上昇を招くものである。また、この特許文献1の技術では、例えば、画像上で腕が胴部に隠れる位置にある場合に正しい測距が不能となり、3次元座標を用いるため測距情報と特徴点との関係が整合しないこともあった。
更に、特許文献2では、データベースに特徴量に対する教師データや、身体の各パーツおよび各ジョイントの位置と、データベースとから乗員の姿勢を推定するものであるが、乗員の正面から見た乗員の体形を取得するものではなかった。
このような理由から、コストの上昇を招くことなく車内の撮像画像に含まれる身体画像から、その乗員の体格を取得する装置および乗員の姿勢を推定する装置が求められる。
本発明に係る体格推定装置の特徴構成は、車両の室内を撮影するカメラと、カメラにより前記室内を撮影した撮像画像に含まれる乗員の身体画像の複数の骨格点の位置を前記撮像画像の2次元座標系における骨格点座標として取得する骨格点座標取得部を備え、前記骨格点座標で特定される複数の前記骨格点のうち予め設定された複数の前記骨格点間の距離となる距離情報と、前記骨格点座標で特定される複数の前記骨格点を結ぶ骨格ラインの基準ラインに対する角度となる角度情報と、が入力されることにより、前記乗員を正面から見た前記骨格点の配置となる正面座標を推定して出力するように機械学習を行った正面座標推定部を備え、前記正面座標推定部で推定された前記正面座標に基づいて前記乗員の体格を判定する体格判定部を備えている点にある。
この特徴構成によると、骨格点座標取得部が、カメラで撮影された撮像画像から撮像画像に含まれる乗員の複数の骨格点の位置を2次元座標系の骨格点座標として取得する。次に、複数の骨格点のうち予め設定された複数の骨格点間の距離となる距離情報と、複数の骨格点を結ぶ骨格ラインの基準ラインに対する角度となる角度情報と、に基づいて正面座標推定部が乗員を正面から見た際の正面座標を推定し、この推定に基づいて体格判定部が体格を判定する。つまり、複数の骨格点から直接的に乗員の体格を判定するものでは、乗員の姿勢により誤差の発生に繋がるものであるが、この特徴構成では、正面座標に基づいて体格を推定するため誤差を小さくして正確な体格を判定できる。
特に、この構成では、正面座標推定部が、複数の骨格点のうち予め設定された複数の骨格点間の距離となる距離情報と、複数の骨格点を結ぶ骨格ラインの基準ラインに対する角度となる角度情報とが入力されることにより、乗員を正面から見た前記骨格点の配置となる正面座標を推定して出力するように機械学習することで高精度の推定を実現している。更に、この構成では、測距のための構成を必要とせず、撮像画像に基づいて2次元座標系において推定を行うため、例えば、想定された3次元空間で骨格点座標の位置関係を判定する等の処理が不要となり、コスト上昇を抑制し、高速な処理も可能となる。
その結果、コストの上昇を招くことなく車内の撮像画像に含まれる身体画像から、その乗員を正面から見た体格として取得する装置が得られた。
上記構成に加えた構成として、体格を複数種類に区分して記憶する体格記憶部を備え、前記体格判定部は、前記乗員の体格が前記体格記憶部に記憶されている複数種類の体格の何れに含まれるかを判定しても良い。
これによると、複数種類の体格(例えば、米国NHTSAの規格(49CFR Part572)のSubpartで区分される体格)、あるいは、人体模型の規格としてAF05、AM50、AM95等に区分された体格を、体格記憶部に記憶しておくことにより、体格判定部は、推定された体格が、体格記憶部に記憶されている複数種類の体格の何れに含まれるかの判定が可能となり、身長や体重等の把握も可能となる。
上記構成に加えた構成として、前記車内の座席のシートベースの位置とシートバックの傾斜姿勢とを取得するシート位置取得部を備え、前記シート位置取得部で取得した情報に基づいて前記骨格点座標を補正する補正部を備えても良い。
これによると、シート位置取得部が、座席のシートベースの位置とシートバックの傾斜姿勢とを取得することにより、補正部が、例えば、複数の乗員について予め想定した位置の座席に着座する乗員と同様の骨格点座標を取得するように骨格点座標を補正し、適正な体格を取得することも可能となる。
上記構成に加えた構成として、前記角度情報に基づき、前記車内の座席に着座した前記乗員の上半身の姿勢を判定する姿勢判定部をさらに備えても良い。
これによると、姿勢判定部が、座席に着座した乗員の上半身の傾斜方向と傾斜角とを判別することが可能となる。これにより座席に着座した乗員の上半身と、サイドエアーバッグとの位置関係から必要なメッセージやアラ−ムの出力も可能にする。
上記構成に加えた構成として、前記骨格点座標取得部は、前記車内の座席に着座している前記乗員の上半身の前記骨格点座標を取得し、前記正面座標推定部は、前記骨格点座標取得部で取得した上半身の前記骨格点座標から前記正面座標を推定しても良い。
これによると、カメラの撮像画像に含まれる乗員の上半身だけで正面座標を推定できるため、何れの座席に着座している乗員であっても、正面から見た骨格点の配置となる正面座標を推定できる。
本発明に係る姿勢推定装置の特徴構成は、車両の室内を撮影するカメラと、カメラにより前記室内を撮影した撮像画像に含まれる乗員の身体画像の複数の骨格点の位置を前記撮像画像の2次元座標系における骨格点座標として取得する骨格点座標取得部を備え、前記骨格点座標で特定される複数の前記骨格点のうち予め設定された複数の前記骨格点間の距離となる距離情報と、前記骨格点座標で特定される複数の前記骨格点を結ぶ骨格ラインの基準ラインに対する角度となる角度情報が入力されることにより、前記乗員の姿勢を推定して出力するように機械学習を行った姿勢推定部を備えている点にある。
この特徴構成によると、骨格点座標取得部が、カメラで撮影された撮像画像から撮像画像に含まれる乗員の複数の骨格点の位置を2次元座標系の骨格点座標として取得する。次に、複数の骨格点のうち予め設定された複数の骨格点間の距離となる距離情報と、複数の骨格点を結ぶ骨格ラインの基準ラインに対する角度情報とに基づいて乗員の姿勢を推定する。つまり、姿勢推定部は、距離情報と角度情報とが入力されることにより、乗員の姿勢を推定して出力するように機械学習することで高精度での推定を実現する。また、この構成では、測距のための構成を必要とせず、撮像画像を2次元座標系だけで処理するため、コスト上昇を抑制できる。
その結果、コストの上昇を招くことなく車内の撮像画像に含まれる乗員画像から、その乗員の姿勢を推定する装置が得られた。
上記構成に加えた構成として、前記車内の座席のシートベースの位置とシートバックの傾斜姿勢とを取得するシート位置取得部を備え、前記シート位置取得部で取得した情報に基づいて前記骨格点座標を補正する補正部を備えても良い。
これによると、シート位置取得部が、座席のシートベースの位置とシートバックの傾斜姿勢とを取得することにより、補正部が、例えば、複数の乗員について予め想定した位置の座席に着座する乗員と同様の骨格点座標を取得するように骨格点座標を補正し、適正な姿勢を取得することも可能となる。
上記構成に加えた構成として、前記姿勢推定部で推定された姿勢に基づき前記乗員の体格を判定する体格判定部を備えても良い。
これによると、姿勢推定部で推定された姿勢から、体格判定部が、例えば、傾きのない姿勢を求める等の処理により体格の判定が可能となる。
乗用車の平面図である。 乗用車の座席の配置を示す平面図である。 人体情報処理装置のブロック回路図である。 カメラで撮影した車内の撮像画像である。 基準姿勢にある乗員の身体画像と骨格点等を示す図である。 前傾姿勢にある乗員の身体画像と骨格点等を示す図である。 横傾斜姿勢にある乗員の身体画像と骨格点等を示す図である。 捻れ姿勢にある乗員の身体画像と骨格点と等を示す図である。 人体情報処理装置の処理形態を示すフローチャートである。 体格推定ルーチンのフローチャートである。 別実施形態(a)の人体情報処理装置のブロック回路図である。 別実施形態(a)の体格推定ルーチンのフローチャートである。 別実施形態(b)の乗員の身体画像と骨格点等を示す図である。
以下、本発明の実施形態を図面に基づいて説明する。
〔全体構成〕
図1、図2に示すように、左右一対の前車輪1と、左右一対の後車輪2とを有する車体Aの前部にエンジンボンネット3を配置し、車体Aの中央から後端に亘る領域のルーフ4の下側の室内に複数の座席S(後述する運転席S1、助手席S2、後部座席S3の上位概念)を配置して乗用車(車両の一例)が構成されている。
図2に示すように、室内に配置された複数の座席Sは、前部の左右方向に一方に配置された運転席S1と、この横に配置された助手席S2と、この後部位置に配置されたベンチシート型の後部座席S3とで構成されている。運転席S1の前側にステアリングホイール5が配置されている。
この乗用車では、運転席S1と助手席S2とは、夫々のシートベースの前後位置と上下位置とシートバックの傾斜姿勢との制御を、電動モータを有するシート制御ユニット8(図3を参照)で任意に行えるように構成されている。
図1、図2に示すようにルーフ4の下面の前部位置にオーバヘッドコンソールを備え、これに赤外線画像の撮影が可能なカメラ6と、赤外線の照明を行うライト7とを備えている。また、カメラ6で撮影された撮像画像から乗員(ドライバーを含む乗員)の着座位置を特定し、夫々の乗員の身体画像から複数箇所の骨格点座標を取得し、その乗員の骨格を推定する人体情報処理装置C(体格推定装置の一例)を車体Aに備えている。尚、身体画像は撮像画像のうち乗員が存在する領域を切り出したものである。
〔人体情報処理装置〕
図3に示すように人体情報処理装置Cは、人体情報取得ユニット10と、体格取得ユニット20と、出力ユニット30とを備えている。これら人体情報取得ユニット10と、体格取得ユニット20と、出力ユニット30とはソフトウエアで構成されるものであるが、データを記憶する部位については半導体メモリが用いられている。尚、人体情報取得ユニット10と、体格取得ユニット20と、出力ユニット30とは一部をロジック回路等のハードウエアで構成することも可能である。
〔人体情報処理装置:人体情報取得ユニット〕
人体情報取得ユニット10は、骨格点座標取得部11と、骨格モデル記憶部12と、乗員存否判定部13と、シート位置取得部14とを備えている。
骨格点座標取得部11は、カメラ6で撮影された撮像画像のうち、複数の座席Sの何れかに着座した乗員の骨格点を取得する。ここで、複数の座席Sとは、運転席S1と、助手席S2と、後部座席S3であり、図4に示される第1領域E1、第2領域E2、3カ所の第3領域E3a、E3b、E3cの5つの領域の何れかに存在する乗員の骨格点が取得されることになる。
この処理において骨格点座標が取得された場合に、乗員存否判定部13が撮像画像の2次元座標系において骨格点座標が取得された位置に乗員が存在すると判定する。また、骨格点座標取得部11は、2次元座標系のうち乗員が存在すると判定された領域における骨格点座標を取得する。
骨格点座標取得部11は、例えば、図5に示すように乗員の骨格点座標を取得する。同図には乗員の身体画像と骨格点座標とを重ね合わせる状態で、左右の肩部の関節位置と、左右の腰部の関節位置(股関節の位置)と、首部の関節位置とを抽出し、抽出した位置を点で示している。
また、図5に示すように左右の肩部の関節位置を結ぶラインを肩部ラインLa(骨格ラインの一例)として示し、左右の腰部の関節を結ぶラインを腰部ラインLb(骨格ラインの一例)として示し、腰部ラインLbの中間から背筋に沿うラインを背筋ラインLcとして示している。尚、背筋ラインLcは、乗員の背筋に沿って上下姿勢となる直線として捉えることが可能である。
骨格点座標取得部11は、既知の骨格認識処理により撮像画像から人体の複数の関節位置の座標を求める機能を有している。骨格認識処理では骨格モデル記憶部12に記憶されている骨格モデルを参照することにより各関節位置の座標を決定する。
骨格点座標取得部11は、肘関節、手首関節、膝関節、足首関節を取得することも可能であるが、体格取得ユニット20での処理で、前述した肩部ラインLaと腰部ラインLbと背筋ラインLcとを必要とするため、これらの情報が2次元座標系(X−Y平面上の座標)で取得される。
カメラ6は動画を取得する機能を有するものであり、骨格点座標取得部11は、動画から撮像画像(フレーム)を取得し、取得した撮像画像の複数の骨格点の位置を骨格点座標として、動画のフレームレートと同じレートで取得して更新する。
図4に示すように、カメラ6により車内の撮像画像が取得される。乗員存否判定部13は、骨格点座標取得部11で骨格点座標が取得できない場合に車内に乗員が存在しないと判定し、骨格点座標が取得できる場合には、同図に示した第1領域E1、第2領域E2、3カ所の第3領域E3a、E3b、E3cの5つの領域の何れに乗員が存在するかを判別する。
尚、前述した骨格点座標取得部11は、取得した骨格点が、何れの領域のものであるかを識別可能にする識別情報を付与する。このように識別情報を付与することにより、複数の座席Sの何れに着座する乗員であっても、骨格点座標から正面座標を取得する際に座席Sに対応した補正が行われる。
つまり、カメラ6が広角レンズで撮影するものであり、複数の座席Sとカメラ6との位置関係から座席Sに着座した乗員を撮影した場合には、乗員が正面に向かう姿勢であっても、乗員は斜め前方から撮影された画像になることや、身体の一部がデフォルメされた画像になることもある。このような理由から、正面画像を推定する際に、識別情報に基づいて乗員が着座する座席Sの位置を識別すると共に、人体情報取得ユニット10(補正部の一例)は、後述するシート位置取得部14で取得するシート位置情報に基づいて複数の乗員について予め想定した座席Sに着座する乗員と同様の骨格点座標を取得するように骨格点座標の座標変換を行う等の補正を行う。
また、シート位置取得部14は、シート制御ユニット8により運転席S1と助手席S2との何れが制御された場合でも、シート制御ユニット8の制御情報から設定されたシートベースの前後方向の位置及び高さ、シートバックの傾斜角をシート位置情報として取得する。尚、シート位置取得部14として、シートベースの前後方向の位置及び高さ、シートバックの傾斜角を取得するための専用のセンサを用いても良い。
このように、人体情報取得ユニット10では、シート制御ユニット8からの情報から、運転席S1と助手席S2とに着座する乗員と、カメラ6との相対距離を正確に把握することが可能となり、運転席S1と助手席S2との乗員と、カメラ6との距離に対応した補正値を設定し、前述した骨格点座標を補正して出力する。
〔人体情報処理装置:体格取得ユニット〕
図3に示すように、体格取得ユニット20は、距離情報取得部21と、傾斜情報取得部22と、正面座標推定部23と、学習データ記憶部24と、姿勢判定部25と、体格判定部26と、体格データ記憶部27(体格記憶部の一例)とを備えている。
図5には、所定の座席Sに正常な姿勢(以下、基準姿勢と称する)で着座した乗員を斜めからカメラ6で撮影した身体画像を示しており、肩部ラインLaと、腰部ラインLbとは水平姿勢となり、背筋ラインLcは鉛直方向に伸びる姿勢となる。
カメラ6と座席Sとの位置関係、及び、カメラ6の撮像レンズの特性から、撮像画像においては、肩部ラインLaと腰部ラインLbとが水平姿勢として現れず、背筋ラインLcが鉛直方向に伸びる姿勢で現れないが、体格取得ユニット20では、これらが水平姿勢、及び、鉛直方向に沿う姿勢として処理される。
距離情報取得部21は、乗員の左右の肩部の骨格点(骨格点座標)の距離情報を取得する。つまり、図5に示すように基準姿勢にある乗員を体格取得の対象とした場合、乗員の左右の肩部の関節を骨格点(骨格点座標)とした場合に、撮像画像における骨格点の間の距離情報(肩部ラインLaの長さ)が肩部距離Wa(距離情報の一例)として取得され、左右の腰部の関節を骨格点(骨格点座標)とした場合に、この骨格点の間の距離情報(腰部ラインLbの長さ)が腰部距離Wb(距離情報の一例)として取得される。
尚、肩部距離Waと腰部距離Wbとは、2つの関節を、骨格点座標として、これらを直線で結ぶ骨格ラインの長さを撮像画像のピクセルピッチ(画素の間隔)を基準とした距離情報として取得される。つまり、後述する図6の前傾肩部距離Wax(距離情報)と、図7の横傾肩部距離Way(距離情報)と、図8の捻れ肩部距離Waz(距離情報)との何れも同様にピクセルピッチを基準とした距離情報として取得される。
更に、後述する図6の前傾腰部距離Wbx(距離情報)と、図7の横傾腰部距離Wby(距離情報)と、図8の捻れ腰部距離Wbz(距離情報)との何れも同様にピクセルピッチを基準とした距離情報として取得される。
図6には、所定の座席に着座した乗員の上半身が前傾姿勢にある身体画像を示している。同図では、左右の肩部の骨格点(骨格点座標)を結ぶラインを前傾肩部ラインLax(骨格ラインの一例)として示し、左右の腰部の骨格点(骨格点座標)を結ぶラインを前傾腰部ラインLbx(骨格ラインの一例)として示し、背筋を前傾背筋ラインLcxとして示している。この前傾姿勢では、基準姿勢の背筋ラインLcと比較して前傾背筋ラインLcxが前傾角θ1(角度情報の一例)だけ前傾している。
また、距離情報取得部21は、前傾肩部ラインLaxの長さを前傾肩部距離Wax(距離情報の一例)として取得し、前傾腰部ラインLbxの長さを前傾肩部距離Wax(距離情報の一例)として取得する。
図7には、所定の座席Sに着座した乗員の上半身が横傾姿勢にある身体画像を示している。同図では、左右の肩部の骨格点(骨格点座標)を結ぶラインを横傾肩部ラインLay(骨格ライン)として示し、左右の腰部の骨格点(骨格点座標)を結ぶラインを横傾腰部ラインLby(骨格ライン)として示し、背筋を横傾背筋ラインLcyとして示している。
これにより、距離情報取得部21は、横傾肩部ラインLayの長さを横傾肩部距離Way(距離情報)として取得し、横傾腰部ラインLbyの長さを横傾腰部距離Wby(距離情報)として取得する。
また、図7に示すように、基準姿勢の肩部ラインLaと平行する基準ラインLapに対して横傾肩部ラインLayが、横傾肩部角θ2(角度情報)だけ傾斜し、横傾背筋ラインLcyが、腰部ラインLbに対して横傾腰部角θ3(角度情報)だけ傾斜している。
図8には、所定の座席Sに着座した乗員の上半身が捻れ姿勢である身体画像を示している。同図では、左右の肩部の骨格点(骨格点座標)を結ぶラインを捻れ肩部ラインLaz(骨格ライン)として示し、左右の腰部の骨格点(骨格点座標)を結ぶラインを捻じれ腰部ラインLbz(骨格ライン)として示し、背筋を捻れ背筋ラインLCzとして示している。この捩れ姿勢では、図8では、基準姿勢の肩部ラインLaに対して捩れ肩部ラインLazが、捻れ角θ4(角度情報)だけ傾斜している。
これにより、距離情報取得部21は、捻れ肩部ラインLazの長さを捻れ肩部距離Waz(距離情報)として取得し、捩れ腰部ラインLbzの長さを捩れ腰部距離Wbz(距離情報)として取得する。
この距離情報取得部21では、前述したように運転席S1あるいは助手席S2の制御により乗員の基準となる位置から変化している場合には、前述したように、人体情報取得ユニット10(補正部の一例)によって骨格点座標が既に補正されているため、補正後の肩部距離Wa等の距離情報の取得が可能であるが、シート位置取得部14からのシート位置情報に基づいて、肩部距離Wa等の距離情報を補正することも考えられる。
傾斜情報取得部22は、図5に示すように乗員の上半身が何れの方向にも傾斜しない基準姿勢にある場合には角度情報として0度を取得する。図6に示すように乗員の上半身が前傾姿勢である場合には、前傾角θ1を取得し、図7に示すように乗員の上半身が横傾姿勢である場合には、横傾肩部角θ2と横傾腰部角θ3とを取得し、図8に示すように乗員の上半身が捻れ姿勢である場合には、捻れ角θ4を取得する。
正面座標推定部23は、距離情報取得部21で取得した距離情報と、傾斜情報取得部22で取得した角度情報とに基づき、学習データ記憶部24の学習データを参照することで撮像画像から乗員を正面から見た骨格点の配置となる正面座標を推定する。
つまり、正面座標推定部23は、骨格点座標で特定される複数の骨格点のうち予め設定された複数の骨格点の距離となる距離情報と、骨格点座標で特定される複数の骨格点を結ぶ骨格ラインの基準ラインに対する角度となる角度情報と、が入力されることにより、乗員を正面から見た骨格点の配置となる2次元座標系における正面座標を推定して出力するように機械学習を行ったものである。
学習データ記憶部24は、撮像画像の骨格点座標の距離情報と傾斜情報とに基づいて正面座標の推定を可能にするパラメータが記憶されている。具体的には、撮像画像の複数の骨格点の座標を正面座標に変換する変換パラメータ、あるいは、撮像画像の複数の骨格点の座標を2次元座標系のX−Y方向で補正する位置補正パラメータ等が記憶される。尚、学習データとしては2次元座標系で所定の基準点を基準としたから各骨格点の座標を特定するベクトルパラメータを用いるものでも良い。
姿勢判定部25は、正面座標推定部23で取得された正面座標と、傾斜情報取得部22で取得された角度情報に基づき乗員の上半身の変位量を判定する。つまり、正面座標は乗員を正面から見た基本姿勢にあり、この基本姿勢における頭部の位置の取得が容易であり、姿勢判定部25は基本姿勢にある乗員の上半身が角度情報に対応する角度だけ傾斜した場合の頭部の位置を取得する。
従って、例えば、図6に示すように乗員の上半身が基準姿勢の背筋ラインLcと比較して前傾背筋ラインLcxが前傾角θ1だけ前傾する場合には、この前傾角θ1に基づき上半身の前側への変位量が取得される。
また、姿勢判定部25は、図7に示すように乗員の上半身が横傾姿勢であり、基準ラインLapに対して横傾肩部ラインLayが、横傾肩部角θ2だけ傾斜し、横傾背筋ラインLcyが、腰部ラインLbに対して横傾腰部角θ3だけ傾斜する場合には、これらの角度に基づき上半身の横方向への変位量が容易に取得される。
これと同様に姿勢判定部25は、図8に示すように横傾背筋ラインLcyが、腰部ラインLbに対して横傾腰部角θ3だけ傾斜する場合には、この横傾腰部角θ3に基づき上半身の変位量が取得される。
体格判定部26は、正面座標推定部23が推定した正面座標の骨格点座標の距離情報(図5に示す基準姿勢の距離情報)に基づく処理や、テーブル情報を参照することや、距離情報の演算により体格を決定すると共に、決定した体格で体格データ記憶部27を参照することで体格情報を取得する。
体格データ記憶部27には、複数種類の体格(例えば、米国NHTSAの規格(49CFR Part572)のSubpartで区分される体格)、あるいは、人体模型の規格としてAF05、AM50、AM95等に区分された体格を記憶しており、体格判定部26は、前述のように決定された体格が、体格データ記憶部27に記憶された複数種類の体格の何れに属するかを判定し、判定した結果を体格情報として出力する。
〔人体情報処理装置:出力ユニット〕
出力ユニット30は、相対位置判別部31を備えて構成され、人体情報処理装置Cの外部の報知端末9に情報を出力する。
相対位置判別部31は、姿勢判定部25で判定される上半身の変位量と、体格判定部26から出力される体格情報とに基づき、例えば、ドライバーの上半身が、エアーバッグの作動時に強い衝撃を受ける可能性がある姿勢にある場合や、乗員の頭部がサイドエアーバッグに近接する方向にある場合には、報知端末9に対して、姿勢を正すメッセージを出力する。
〔人体情報処理装置の処理形態〕
人体情報処理装置Cの処理形態は、図9のフローチャートに示すように、取得した撮像画像に基づいて骨格点座標取得部11が、骨格点座標を取得する(#101、#102ステップ)。
この処理で骨格点座標の取得が不能であることを乗員存否判定部13が判定した場合には(#103ステップのNo)、本制御をリターンする。また、骨格点座標が取得できた場合には(#103ステップのYes)、乗員存否判定部13が乗員数と、乗員の位置を特定する(#104ステップ)。
つまり、#103ステップでは、図4に示す第1領域E1で運転席S1におけるドライバー(乗員)の存否を判定し、第2領域E2で助手席S2における乗員の存否を判定し、後部座席S3の3カ所の第3領域E3a、E3b、E3cにおける乗員の存否が判定され、存在が判定された場合にのみ、乗員の存在が認められる。
また、シート位置取得部14によって取得されたシート位置情報と、識別情報で識別される座席Sの夫々について骨格点座標の補正が行われる(#105ステップ)。この補正により、複数の乗員毎に予め想定した位置に着座する乗員と同様の骨格点座標を得る。
次に、撮像画像から乗員の体格を推定する(#200ステップ)。この#200ステップで乗員の体格と姿勢とを取得した後には、姿勢判定部25の判定に基づき相対位置を判定し(#106ステップ)する。この相対位置の判定として、ドライバー(乗員)とステアリングホイール5等との相対位置や、乗員とサイドエアーバッグとの相対位置関係が判定される。
この判定の結果、メッセージの出力を必要としない場合には(#107ステップのNo)、本制御をリターンし、メッセージの出力を必要とする場合には(#107ステップのYes)、報知端末9から情報を出力する。
#200ステップはサブルーチンであり、その処理形態は、図10のフローチャートに示すように、距離情報取得部21で左右の肩部、及び、左右の腰部の骨格点座標の距離(骨格点の距離の一例)を取得し、骨格ラインの傾斜角、あるいは、捻れ角を取得する(#201、#202ステップ)。
#201ステップでは、例えば、図5〜図8に示す撮像画像に対応して、肩部ラインLaの長さを肩部距離Waとして取得し、前傾肩部ラインLaxの長さを前傾肩部距離Waxとして取得する。更に、横傾肩部ラインLayの長さを横傾肩部距離Wayとして取得し、捻れ肩部ラインLazの長さを捻れ肩部距離Wazとして取得する。この距離情報は、ピクセルピッチを基準とした距離情報として取得される。
これと同様に、例えば、図5〜図8に示す撮像画像に対応して、腰部ラインLbの長さを腰部距離Wbとして取得し、前傾腰部ラインLbxの長さを前傾腰部距離Wbxとして取得する。更に、横傾腰部ラインLbyの長さを横傾腰部距離Wbyとして取得し、捻れ腰部ラインLbzの長さを捻れ腰部距離Wbzとして取得する。この距離情報は、ピクセルピッチを基準とした距離情報として取得される。
#202ステップでは、図6に示す身体画像(撮像画像)から前傾角θ1を取得し、図7に示す身体画像(撮像画像)から横傾肩部角θ2と横傾腰部角θ3とを取得し、図8に示す身体画像(撮像画像)から捻れ角θ4を取得する。
次に、正面座標推定部23が、距離情報取得部21で取得した距離情報と、複数の骨格点座標とに基づき、学習データ記憶部24の学習データを参照することで撮像画像から乗員を正面から見た骨格点の配置となる正面座標を推定する。(#203ステップ)。
撮像画像の乗員は、基準姿勢と、前傾姿勢と、横傾姿勢と、捻れ姿勢と、前傾姿勢あるいは横傾姿勢あるいは捻れ姿勢の少なくとも2つの組み合わせとなる複合姿勢とが想定されている。従って、正面座標推定部23は、学習データ記憶部24の変換パラメータ等を用いることにより、撮像画像の複数の骨格点の座標を正面座標に変換する。
次に、正面座標推定部23で推定された正面座標に基づき体格判定部26が、体格データ記憶部27の体格情報を参照することにより、撮像画像の乗員の体格がAF05、AM50、AM95等の複数種類に区分された何れの体格情報に属するかを判定する(#204ステップ)。
このように体格情報が取得された後には、取得された体格データと、傾斜情報取得部22で取得された角度情報とに基づき、出力ユニット30が必要なメッセージ等の情報を、報知端末9に出力する。報知端末9は文字やアイコン等の情報を出力するディスプレイや、音声を出力するスピーカで構成されている。これにより、例えば、ドライバーの上半身が、エアーバッグの作動時に強い衝撃を受ける可能性がある姿勢にある場合や、乗員の頭部がサイドエアーバッグに近接する方向にある場合には、報知端末9に対して、姿勢を正すメッセージが出力される。
〔実施形態の作用効果〕
このように、人体情報処理装置Cは、カメラ6からの撮像画像に基づき車内の複数の座席Sに対する乗員の存否(着座の有無)を判定するだけでなく、存在することが判定された乗員毎に、骨格点座標を取得し、乗員の姿勢に拘わらず正面から見た乗員の正面座標を推定する。そして、このように推定した正面座標から体格を判定し、必要な情報を報知端末9に出力する。
つまり、乗員の骨格点座標から直接的に乗員の体格を判定するものでは、乗員の姿勢により骨格点座標の変化が大きいため、判定された体格の誤差が大きくなるものであるが、乗員を正面から骨格点の配置となる正面座標を推定し、この推定に基づいて体格を判定するため、判定される体格の精度の向上を可能にしている。
また、正面座標を推定する際に、撮像画像の2次元座標系に重なるように複数の骨格点の配置を骨格点座標として取得し、この2次元座標系において距離情報と、角度情報とを取得するため、例えば、乗員の骨格点を3次元座標系で取得するものと比較して取得が容易であり、距離情報と角度情報との取得が極めて容易となる。
更に、正面座標推定部23は、骨格点座標で特定される複数の骨格点のうち予め設定された複数の骨格点の距離となる距離情報と、骨格点座標で特定される複数の骨格点を結ぶ骨格ラインの基準ラインに対する角度となる角度情報とが入力されることにより、乗員を正面から見た骨格点の配置となる2次元座標系における正面座標を推定して出力するように機械学習を行ったものであるため、高精度の推定を実現する。
〔別実施形態〕
本発明は、上記した実施形態以外に以下のように構成しても良い(実施形態と同じ機能を有するものには、実施形態と共通の番号、符号を付している)。
(a)人体情報処理装置Cとして、実施形態に既に記載した構成のうち、体格取得ユニット20に代えて姿勢取得ユニット40を図11に示すように構成する。
この別実施形態(a)では、人体情報取得ユニット10と、出力ユニット30とが実施形態に記載したものと共通するものであるが、姿勢取得ユニット40が実施形態に記載したものと異なっている。つまり、姿勢取得ユニット40は、実施形態と同様に距離情報取得部21と、傾斜情報取得部22と、体格判定部26と、体格データ記憶部27とを備えるものであるが、実施形態の正面座標推定部23と、学習データ記憶部24と、姿勢判定部25とを備えず、姿勢推定部28と、姿勢学習データ記憶部29を備えた点において実施形態と異なっている。
姿勢推定部28は、撮像画像の2次元座標系において、複数の骨格点座標のうち予め設定された骨格点を結ぶ骨格ラインが基準ラインに対して傾斜する傾斜姿勢と、乗員の姿勢とを関連付けて機械学習し、撮像画像から乗員の姿勢を推定する。
特に、図6に示す撮像画像を例に挙げると、同図の背筋ラインLcが基準ラインであり、図7に撮像画像を例に挙げると、同図の基準ラインLapと、腰部ラインLbとが基準ラインであり、図8に示す撮像画像を例に挙げると、基準姿勢の肩部ラインLaが基準ラインとなる。
この別実施形態(a)の制御形態は図9のフローチャートに示す基本的な制御は実施形態と共通するものであるが、図12のフローチャートに示すようにサブルーチンの制御形態の#203ステップの制御形態が異なる。
つまり、#203ステップでは、姿勢推定部28が、距離情報取得部21で取得した距離情報と、複数の骨格点座標とに基づき、姿勢学習データ記憶部29の学習データを参照することで撮像画像から乗員の姿勢、及び、上半身の変位量を推定する。
姿勢学習データ記憶部29は、撮像画像の骨格点座標の距離情報と、傾斜情報とに基づいて乗員の姿勢の推定を可能にするデータが記憶されている。乗員の姿勢として、図5に示す基準姿勢と、図6に示す前傾姿勢と、図7に示す横傾姿勢と、図8に示す捻れ姿勢と、前傾姿勢あるいは横傾姿勢あるいは捻れ姿勢の少なくとも2つの組み合わせとなる複合姿勢とが想定され、上半身の変位量の推定を可能にするデータが記憶されている。
この別実施形態(a)では、#204ステップにおいて、姿勢推定部28で推定された乗員の姿勢に基づき体格判定部26が、体格データ記憶部27の体格情報を参照することにより、撮像画像の乗員の体格が複数種類の体格(例えば、米国NHTSAの規格(49CFR Part572)のSubpartで区分される体格)、あるいは、人体模型の規格としてAF05、AM50、AM95等に区分された何れの体格情報に属するかを判定する。
このように別実施形態(a)の構成では、骨格点座標で特定される複数の骨格点のうち予め設定された複数の骨格点間の距離となる距離情報と、撮像画像から取得される骨格点座標に基づき複数の骨格点座標のうち予め設定された骨格点を結ぶ骨格ラインが基準ラインに対して傾斜する傾斜姿勢を取得することにより、乗員の上半身の姿勢の推定を実現している。更に、推定された乗員の姿勢に基づいて乗員の体格を判定するため、例えば、複数の骨格点から直接的に乗員の体格を判定するものと比較して判定される体格の誤差を小さくする。
(b)骨格点座標取得部11が、図13に示すように乗員の上半身の骨格点座標だけを取得できる状況でも、正面座標推定部23が正面座標を推定し、体格判定部26で体格を判定するように処理形態を設定する。
つまり、図13には、上半身の複数の骨格点として、左右の肩部の座標が決まり、これらの骨格点を結ぶラインとして半身肩部ラインLavを示しており、この半身肩部ラインLavの長さが、骨格点の距離となり、この半身肩部ラインLavの基準ライン(図示せず)に対する角度が角度情報となる。また、この推定を実現するために、上半身の骨格点座標から、正面座標を推定できるように、正面座標推定部23が機械学習する際の情報が設定されることになる。
従って、後部座席S3の乗員のように撮像画像に上半身だけが写り込む場合や、助手席S2であっても、下半身がブランケット等で覆われている場合にも、乗員の正面座標を推定し、体格の判定が可能となる。
(c)体格判定部26は、正面座標推定部23が推定した正面座標の骨格点座標の距離情報に基づき、体格を推定するように処理形態を設定する。つまり、正面座標の骨格点座標の距離情報が入力されることにより、乗員の体格を推定して出力するように機械学習を行うことが考えられる。このように機械学習を行うことにより体格判定部26で判定される体格の精度を高めることも可能となる。
(d)報知端末9に情報を出力する条件が成立した場合に、その条件が成立した状態が、設定時間を超えて継続する際にのみ出力するように制御形態を設定しても良い。これにより、情報が出力される頻度を低減することが可能となる。
本発明は、車両の車内を撮影するカメラで撮影された乗員の体格を推定する装置に利用できる。
6 カメラ
10 人体情報取得ユニット(補正部)
11 骨格点座標取得部
14 シート位置取得部
23 正面座標推定部
24 学習データ記憶部
25 姿勢判定部
26 体格判定部
27 体格データ記憶部(体格記憶部)
S 座席
S1 運転席(座席)
S2 助手席(座席)
S3 後部座席(座席)
Lap 基準ライン
La 肩部ライン(骨格ライン)
Lb 腰部ライン(骨格ライン)
Lax 前傾肩部ライン(骨格ライン)
Lay 横傾肩部ライン(骨格ライン)
Laz 捻れ肩部ライン(骨格ライン)
Lbx 前傾腰部ライン(骨格ライン)
Lby 横傾腰部ライン(骨格ライン)
Lbz 捻れ腰部ライン(骨格ライン)
Wa 肩部距離(距離情報)
Wb 腰部距離(距離情報)
Wax 前傾肩部距離(距離情報)
Way 横傾肩部距離(距離情報)
Waz 捻れ肩部距離(距離情報)
Wbx 前傾腰部距離(距離情報)
Wby 横傾腰部距離(距離情報)
Wbz 捻れ腰部距離(距離情報)

Claims (8)

  1. 車両の室内を撮影するカメラと、
    カメラにより前記室内を撮影した撮像画像に含まれる乗員の身体画像の複数の骨格点の位置を前記撮像画像の2次元座標系における骨格点座標として取得する骨格点座標取得部を備え、
    前記骨格点座標で特定される複数の前記骨格点のうち予め設定された複数の前記骨格点間の距離となる距離情報と、前記骨格点座標で特定される複数の前記骨格点を結ぶ骨格ラインの基準ラインに対する角度となる角度情報と、が入力されることにより、前記乗員を正面から見た前記骨格点の配置となる正面座標を推定して出力するように機械学習を行った正面座標推定部を備え、
    前記正面座標推定部で推定された前記正面座標に基づいて前記乗員の体格を判定する体格判定部を備えている体格推定装置。
  2. 体格を複数種類に区分して記憶する体格記憶部を備え、
    前記体格判定部は、前記乗員の体格が前記体格記憶部に記憶されている複数種類の体格の何れに含まれるかを判定する請求項1に記載の体格推定装置。
  3. 前記車内の座席のシートベースの位置とシートバックの傾斜姿勢とを取得するシート位置取得部を備え、
    前記シート位置取得部で取得した情報に基づいて前記骨格点座標を補正する補正部を備えている請求項1又は2に記載の体格推定装置。
  4. 前記角度情報に基づき、前記車内の座席に着座した前記乗員の上半身の姿勢を判定する姿勢判定部をさらに備えている請求項1〜3の何れか一項に記載の体格推定装置。
  5. 前記骨格点座標取得部は、前記車内の座席に着座している前記乗員の上半身の前記骨格点座標を取得し、
    前記正面座標推定部は、前記骨格点座標取得部で取得した上半身の前記骨格点座標から前記正面座標を推定する請求項1〜4の何れか一項に記載の体格推定装置。
  6. 車両の室内を撮影するカメラと、
    カメラにより前記室内を撮影した撮像画像に含まれる乗員の身体画像の複数の骨格点の位置を前記撮像画像の2次元座標系における骨格点座標として取得する骨格点座標取得部を備え、
    前記骨格点座標で特定される複数の前記骨格点のうち予め設定された複数の前記骨格点間の距離となる距離情報と、前記骨格点座標で特定される複数の前記骨格点を結ぶ骨格ラインの基準ラインに対する角度となる角度情報が入力されることにより、前記乗員の姿勢を推定して出力するように機械学習を行った姿勢推定部を備えている姿勢推定装置。
  7. 前記車内の座席のシートベースの位置とシートバックの傾斜姿勢とを取得するシート位置取得部を備え、
    前記シート位置取得部で取得した情報に基づいて前記骨格点座標を補正する補正部を備えている請求項6に記載の姿勢推定装置。
  8. 前記姿勢推定部で推定された姿勢に基づき前記乗員の体格を判定する体格判定部を備えている請求項6又は7に記載の姿勢推定装置。
JP2019206877A 2019-11-15 2019-11-15 体格推定装置および姿勢推定装置 Active JP7415469B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019206877A JP7415469B2 (ja) 2019-11-15 2019-11-15 体格推定装置および姿勢推定装置
US17/070,050 US11380009B2 (en) 2019-11-15 2020-10-14 Physique estimation device and posture estimation device
DE102020129979.6A DE102020129979A1 (de) 2019-11-15 2020-11-13 Körperbauschätzvorrichtung und Haltungsschätzvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019206877A JP7415469B2 (ja) 2019-11-15 2019-11-15 体格推定装置および姿勢推定装置

Publications (2)

Publication Number Publication Date
JP2021081836A true JP2021081836A (ja) 2021-05-27
JP7415469B2 JP7415469B2 (ja) 2024-01-17

Family

ID=75683980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019206877A Active JP7415469B2 (ja) 2019-11-15 2019-11-15 体格推定装置および姿勢推定装置

Country Status (3)

Country Link
US (1) US11380009B2 (ja)
JP (1) JP7415469B2 (ja)
DE (1) DE102020129979A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281737A1 (ja) * 2021-07-09 2023-01-12 三菱電機株式会社 体格推定装置および体格推定方法
WO2023100590A1 (ja) * 2021-12-03 2023-06-08 コニカミノルタ株式会社 要推定領域推定システム、要推定領域推定プログラム、および要推定領域推定方法
WO2024034109A1 (ja) * 2022-08-12 2024-02-15 三菱電機株式会社 体格判定装置および体格判定方法
WO2024105712A1 (ja) * 2022-11-14 2024-05-23 三菱電機株式会社 乗員体格検知装置及び乗員体格検知方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT522797B1 (de) * 2020-03-02 2021-02-15 Emotion3D Gmbh Verfahren und Vorrichtung zur Einstellung oder Steuerung einer Fahrzeugkomponente
DE102020214910A1 (de) * 2020-11-27 2022-06-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Überwachung eines Fahrzeuginnenraums
JP7600765B2 (ja) * 2021-03-02 2024-12-17 株式会社アイシン 身体情報取得装置
US11724703B2 (en) 2021-07-01 2023-08-15 Harman International Industries, Incorporated Method and system for driver posture monitoring
CN113925497B (zh) * 2021-10-22 2023-09-15 吉林大学 一种基于双目视觉测量系统的汽车乘员乘坐姿态提取方法
GB2621863A (en) * 2022-08-25 2024-02-28 Continental Automotive Tech Gmbh Pose classification and in-cabin monitoring methods and associated systems

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008002838A (ja) * 2006-06-20 2008-01-10 Takata Corp 車両乗員検出システム、作動装置制御システム、車両
JP2011205321A (ja) * 2010-03-25 2011-10-13 Nissan Motor Co Ltd 撮像装置及び被写体検出方法
WO2012046392A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
JP2017154590A (ja) * 2016-03-01 2017-09-07 富士通テン株式会社 乗員保護制御装置、乗員保護システムおよび乗員保護制御方法
JP2019148865A (ja) * 2018-02-26 2019-09-05 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体
JP2019189101A (ja) * 2018-04-26 2019-10-31 アイシン精機株式会社 乗員情報判定装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005219689A (ja) * 2004-02-09 2005-08-18 Denso Corp 乗員保護装置の制御システム
JP5762730B2 (ja) * 2010-12-09 2015-08-12 パナソニック株式会社 人検出装置および人検出方法
US9499116B2 (en) * 2015-03-03 2016-11-22 Autoliv Development Ab Occupant protection device and program
US9994125B2 (en) * 2016-01-12 2018-06-12 Ford Global Technologies, Llc System and method for vehicle seat monitoring
JP2017222337A (ja) * 2016-06-14 2017-12-21 アイシン精機株式会社 着座状態検出装置
JP2018142221A (ja) * 2017-02-28 2018-09-13 Spiber株式会社 衣類受注管理装置、情報処理方法、プログラム、及び記録媒体
JP6712555B2 (ja) 2017-03-07 2020-06-24 Kddi株式会社 オブジェクト姿勢推定方法、プログラムおよび装置
JP6760490B2 (ja) * 2017-04-10 2020-09-23 富士通株式会社 認識装置、認識方法および認識プログラム
US20190021652A1 (en) * 2017-07-19 2019-01-24 International Business Machines Corporation Monitoring the posture of a user
CN108334863B (zh) * 2018-03-09 2020-09-04 百度在线网络技术(北京)有限公司 身份认证方法、系统、终端和计算机可读存储介质
DE102019124290A1 (de) 2018-09-13 2020-03-19 Aisin Seiki Kabushiki Kaisha Vorrichtung zur Erzeugung Dreidimensionaler Skelettinformationen
CN111071113A (zh) * 2018-10-19 2020-04-28 上海商汤智能科技有限公司 车辆座椅智能调节方法和装置、车辆、电子设备、介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008002838A (ja) * 2006-06-20 2008-01-10 Takata Corp 車両乗員検出システム、作動装置制御システム、車両
JP2011205321A (ja) * 2010-03-25 2011-10-13 Nissan Motor Co Ltd 撮像装置及び被写体検出方法
WO2012046392A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
JP2017154590A (ja) * 2016-03-01 2017-09-07 富士通テン株式会社 乗員保護制御装置、乗員保護システムおよび乗員保護制御方法
JP2019148865A (ja) * 2018-02-26 2019-09-05 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体
JP2019189101A (ja) * 2018-04-26 2019-10-31 アイシン精機株式会社 乗員情報判定装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281737A1 (ja) * 2021-07-09 2023-01-12 三菱電機株式会社 体格推定装置および体格推定方法
WO2023100590A1 (ja) * 2021-12-03 2023-06-08 コニカミノルタ株式会社 要推定領域推定システム、要推定領域推定プログラム、および要推定領域推定方法
WO2024034109A1 (ja) * 2022-08-12 2024-02-15 三菱電機株式会社 体格判定装置および体格判定方法
WO2024105712A1 (ja) * 2022-11-14 2024-05-23 三菱電機株式会社 乗員体格検知装置及び乗員体格検知方法

Also Published As

Publication number Publication date
US11380009B2 (en) 2022-07-05
DE102020129979A1 (de) 2021-05-20
US20210150754A1 (en) 2021-05-20
JP7415469B2 (ja) 2024-01-17

Similar Documents

Publication Publication Date Title
JP7415469B2 (ja) 体格推定装置および姿勢推定装置
EP2674914B1 (en) Method for determining a body parameter of a person
EP3326869B1 (en) Passenger information detection device and program
JP7287239B2 (ja) 乗員体格判定装置
JP2020047273A (ja) 3次元特徴点情報生成装置
JP2008002838A (ja) 車両乗員検出システム、作動装置制御システム、車両
US11688095B2 (en) Tiptoe position estimating device and fingertip position estimating device
JP7259324B2 (ja) 室内監視装置
JP2006176075A (ja) 検知システム、乗員保護装置、車両、検知方法
CN115631484A (zh) 用于驾驶员姿势监控的方法和系统
JP2007022401A (ja) 乗員情報検出システム、乗員拘束装置、車両
KR20160000781A (ko) 자세 검출 및 자세 교정 정보 출력 장치와 그 방법
JP6814977B2 (ja) 画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム
JP2003141513A (ja) 車両用乗員頭部検出装置
JP2022106427A (ja) 降車支援装置および該方法
Ribas et al. In-Cabin vehicle synthetic data to test Deep Learning based human pose estimation models
CN104228688A (zh) 调整后视镜的方法及使用该方法的电子装置
JP2021056968A (ja) 物体判定装置
JP7500001B2 (ja) 体格判定装置および体格判定方法
JP7479575B2 (ja) 体格推定装置および体格推定方法
US20240203040A1 (en) Display control device and display control method
US20240386600A1 (en) Physique determination device and physique determination method
CN118313058A (zh) 显示区域布置方法、电子设备及存储介质
JP2024129492A (ja) 車両用運転支援システム
JP2023120663A (ja) 行動推定装置及び行動推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7415469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150