Nothing Special   »   [go: up one dir, main page]

JP7578021B2 - Driving state detection method - Google Patents

Driving state detection method Download PDF

Info

Publication number
JP7578021B2
JP7578021B2 JP2021026103A JP2021026103A JP7578021B2 JP 7578021 B2 JP7578021 B2 JP 7578021B2 JP 2021026103 A JP2021026103 A JP 2021026103A JP 2021026103 A JP2021026103 A JP 2021026103A JP 7578021 B2 JP7578021 B2 JP 7578021B2
Authority
JP
Japan
Prior art keywords
driver
driving
vehicle
driving ability
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021026103A
Other languages
Japanese (ja)
Other versions
JP2022127881A (en
Inventor
潤一郎 桑原
壮椰 青木
洋平 岩下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2021026103A priority Critical patent/JP7578021B2/en
Publication of JP2022127881A publication Critical patent/JP2022127881A/en
Application granted granted Critical
Publication of JP7578021B2 publication Critical patent/JP7578021B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

ここに開示された技術は、車両を運転する運転者(ドライバ)の運転状態を検出する技術分野に属する。 The technology disclosed herein belongs to the technical field of detecting the driving state of a driver who drives a vehicle.

近年、車両を運転する運転者の運転状態を、例えば、ドライバモニタカメラで撮影した運転者の画像や、車両に搭載された各種センサの出力データ等から検出する技術が、開発されている。例えば、特許文献1では、運転者による車両の制御の誤差値を利用して、車両の運転者の覚醒度を評価する技術が開示されている。 In recent years, technologies have been developed to detect the driving state of a driver who is driving a vehicle, for example, from an image of the driver captured by a driver monitor camera or from output data of various sensors mounted on the vehicle. For example, Patent Document 1 discloses a technology for evaluating the wakefulness of a driver of a vehicle by using an error value of the driver's control of the vehicle.

特許第6492096号公報Patent No. 6492096

ここで、運転者の覚醒低下や脇見は、ドライバモニタカメラの画像から検出することが可能である。ところが、運転者がぼんやりしていたり考え事をしていたりして漫然状態(意識の脇見)にある場合には、外見上は通常状態と区別がつかないため、ドライバモニタカメラの画像から検出することが困難である。 Here, it is possible to detect a driver's decreased alertness or inattentiveness from images captured by the driver monitor camera. However, when a driver is daydreaming or thinking about something and in a distracted state (conscious inattentiveness), this is indistinguishable from a normal state from external appearances, making it difficult to detect from images captured by the driver monitor camera.

ここに開示された技術は、運転者の覚醒低下や脇見を検出し、かつ、運転者が漫然状態にあることを検出可能にすることを目的とする。 The technology disclosed here aims to detect a driver's decreased alertness or inattentiveness, and to make it possible to detect when the driver is in a distracted state.

前記課題を解決するために、ここに開示された技術では、車両の運転者の状態を検出する運転状態検出方法であって、前記車両の周辺状況を示す情報を用いて、前記運転者の予測負荷を推定するステップ(a)と、前記車両の周辺状況を示す情報と、前記運転者の運転操作を示す情報と、前記運転者の挙動を示す情報とを用いて、前記運転者の対応行動のパフォーマンスを評価するステップ(b)と、ステップ(a)で推定した予測負荷と、ステップ(b)で評価した対応行動のパフォーマンスとを基にして、前記運転者の現在の運転能力を評価するステップ(c)と、ステップ(c)で評価した運転能力を、運転者の通常の運転能力と比較し、運転能力の発揮度合を判定するステップ(d)と、前記運転者の挙動を示す情報を用いて、運転者が眠気運転または脇見運転を行っているか否かを判定するステップ(e)と、ステップ(d)で判定した運転能力の発揮度合が所定程度以下であって、かつ、ステップ(e)で運転者が眠気運転または脇見運転を行っていないと判定したとき、前記運転者が漫然状態にあると判定するステップ(f)と、を備える、構成とした。 In order to solve the above problem, the technology disclosed herein is a driving state detection method for detecting the state of a vehicle driver, comprising: a step (a) of estimating a predicted load of the driver using information indicating the surrounding conditions of the vehicle; a step (b) of evaluating the performance of the driver's response behavior using information indicating the surrounding conditions of the vehicle, information indicating the driving operation of the driver, and information indicating the driver's behavior; a step (c) of evaluating the current driving ability of the driver based on the predicted load estimated in step (a) and the performance of the response behavior evaluated in step (b); a step (d) of comparing the driving ability evaluated in step (c) with the normal driving ability of the driver to determine the degree of driving ability; a step (e) of determining whether the driver is driving while drowsy or looking away from the road using information indicating the driver's behavior; and a step (f) of determining that the driver is in a distracted state when the degree of driving ability determined in step (d) is equal to or lower than a predetermined level and it is determined in step (e) that the driver is not driving while drowsy or looking away from the road.

この構成によると、車両の周辺状況から推定された予測負荷と、運転者の対応行動のパフォーマンスとを基にして、運転者の現在の運転能力が評価される。ここで、対応行動とは、運転者が車両外部の状況に対応して行う運転行動のことをいう。そして、評価した現在の運転能力を、運転者の通常の運転能力と比較することによって、運転能力の発揮度合が判定される。一方で、運転者の挙動を示す情報を用いて、運転者が眠気運転または脇見運転を行っているか否かが判定される。そして、運転能力の発揮度合が所定程度以下であって、かつ、運転者が眠気運転または脇見運転を行っていないと判定されたときは、運転者は漫然状態にあると判定される。したがって、運転者が本来持っている運転能力が発揮されていない状態と、眠気や脇見運転の際に見られる挙動とを総合的に判断し、運転者がぼんやりしてたり考え事をしていたりする漫然状態にあるか、眠気運転または脇見運転を行っているかを判定することができる。 According to this configuration, the driver's current driving ability is evaluated based on the predicted load estimated from the vehicle's surrounding conditions and the driver's performance of the corresponding behavior. Here, the corresponding behavior refers to the driving behavior the driver performs in response to the conditions outside the vehicle. The degree of driving ability is then determined by comparing the evaluated current driving ability with the driver's normal driving ability. Meanwhile, using information indicating the driver's behavior, it is determined whether the driver is driving while drowsy or looking away. Then, when it is determined that the degree of driving ability is below a predetermined level and the driver is not driving while drowsy or looking away, the driver is determined to be in a distracted state. Therefore, it is possible to comprehensively determine whether the driver's inherent driving ability is not being exercised and the behavior observed when driving while drowsy or looking away, and to determine whether the driver is in a distracted state where he or she is daydreaming or thinking about something, or whether he or she is driving while drowsy or looking away.

そして、前記運転状態検出方法において、前記ステップ(e)は、運転者の上下瞼間の距離が基準値と比べて所定閾値以上に小さくなったとき、運転者の頭部位置が基準位置と比べて所定閾値以上にずれたとき、または、運転者の視線方向と前記車両の進行方向とのずれが所定閾値以上に大きくなったとき、運転者が眠気運転または脇見運転を行っていると判定するステップを含む、としてもよい。 In the driving state detection method, step (e) may include a step of determining that the driver is driving while drowsy or while looking away when the distance between the driver's upper and lower eyelids becomes smaller than a predetermined threshold value compared to a reference value, when the position of the driver's head deviates from a reference position by a predetermined threshold value or more, or when the deviation between the driver's line of sight and the traveling direction of the vehicle becomes larger than a predetermined threshold value.

これによると、瞼が閉じ気味であったり、頭部が通常位置からずれたり、視線が進行方向からずれたりしているとき、眠気運転または脇見運転と判定される。一方、運転者が漫然状態にある場合は、瞼は開いており、頭部は通常の位置にあり、視線は進行方向を見ている。したがって、漫然運転と、眠気運転または脇見運転とを切り分けることができる。 According to this, when the eyelids are slightly closed, the head is not in a normal position, or the driver's gaze is not in the direction of travel, the driver is judged to be drowsy or distracted. On the other hand, when the driver is absent-minded, the eyelids are open, the head is in a normal position, and the driver's gaze is in the direction of travel. Therefore, absent-minded driving can be distinguished from drowsy driving or inattentive driving.

以上説明したように、ここに開示された技術によると、運転者の覚醒低下や脇見を検出し、かつ、運転者が漫然状態にあることを検出することができる。 As explained above, the technology disclosed herein can detect the driver's decreased alertness and inattentiveness, and can also detect when the driver is in a distracted state.

本実施形態に係る運転状態検出方法を実施するシステムの機能イメージFunctional diagram of a system for implementing the driving state detection method according to this embodiment 運転能力の発揮度合の判定手法Method for assessing driving ability 本実施形態に係る運転状態検出方法における処理の流れFlow of processing in the driving state detection method according to the present embodiment 本実施形態に係る運転状態検出方法における処理の流れFlow of processing in the driving state detection method according to the present embodiment 本実施形態に係る運転状態検出方法を実行するシステム構成例An example of a system configuration for executing the driving state detection method according to the present embodiment

以下、例示的な実施形態について、図面を参照しながら詳細に説明する。 An exemplary embodiment will be described in detail below with reference to the drawings.

図1は本実施形態に係る運転状態検出方法を実施するシステムの機能イメージ図である。図1のシステムでは、インプットとして、外界センシング情報、車両に対する運転操作の情報、および、運転者等を撮像するドライバモニタカメラの情報を受ける。外界センシング情報は、例えば、車両に搭載されたカメラやADAS(Advanced Driver Assistance Systems)車載センサ等の外部検知手段によって得られる情報であり、外部環境中の物標の情報を含む。運転操作の情報は、例えば、アクセル開度センサ、ブレーキ圧センサ等の車載センサによって得られる。ドライバモニタカメラからは、運転者の挙動、例えば、視線の動きや頭部の挙動、表情等の情報が得られる。 Figure 1 is a functional image diagram of a system that implements a driving state detection method according to this embodiment. The system in Figure 1 receives external sensing information, information on driving operations for the vehicle, and information from a driver monitor camera that captures images of the driver, etc., as inputs. The external sensing information is information obtained by external detection means such as a camera mounted on the vehicle or an on-board sensor such as an Advanced Driver Assistance Systems (ADAS), and includes information on targets in the external environment. Driving operation information is obtained by on-board sensors such as an accelerator opening sensor and a brake pressure sensor. Information on the driver's behavior, such as eye movement, head behavior, and facial expressions, is obtained from the driver monitor camera.

図1のシステムでは、アウトプットとして、漫然運転の判定と、眠気運転または脇見運転の判定を行う。漫然運転とは、運転者がぼんやりしていたり考え事をしていたりして、「意識の脇見」が発生しており、漫然状態で運転していることをいう。「意識の脇見」とは、運転に対する注意量が考え事などのために減少し、必要とされる量を下回っている状態をいう。 The system in Figure 1 outputs the following: determination of distracted driving, drowsy driving, and inattentive driving. Inattentive driving refers to a state in which the driver is daydreaming or thinking about something, resulting in "mental inattention" and driving in a distracted state. "Inattentiveness" refers to a state in which the amount of attention paid to driving is reduced due to thinking about something, and falls below the required amount.

図1のシステムの処理について詳細に説明する。 The processing of the system in Figure 1 will now be explained in detail.

ブロックAでは、外界センシング情報を用いて、予測負荷を算出する。ここで、人の認知負荷は、注意配分負荷、知覚負荷、および、予測負荷の3つの構成要素からなる。注意配分負荷は、情報を仕入れるために確認すべき場所へ目を向けるときの負荷である。知覚負荷は、目にしたものの距離や動き等を認識して解釈するときの負荷である。予測負荷は、知覚情報から将来の状況を予測するときの負荷である。ブロックAでは、予測負荷モデルが構築されており、予測負荷モデルを用いて、外界センシング情報から現在の予測負荷を推定する。 In block A, the predicted load is calculated using external sensing information. Here, a person's cognitive load consists of three components: attention allocation load, perceptual load, and predictive load. Attention allocation load is the load applied when directing the eyes to a place that should be checked in order to obtain information. Perceptual load is the load applied when recognizing and interpreting the distance and movement of something seen. Predictive load is the load applied when predicting a future situation from perceptual information. In block A, a predictive load model is constructed, and the predictive load model is used to estimate the current predicted load from external sensing information.

ここで、予測負荷モデルについて説明する。人は、手がかり情報から、記憶を再生し将来を予測するものと考えられる。例えば、先行車の減速という事象に対しては、手がかり情報として、先先行車の減速、上り坂、赤信号、急カーブ、ウィンカー、周辺の混雑、先行車の速度調整ミス、といったものがあることが、公道走行データから確認されている。例えば、走行環境において先行車がウィンカーを出したとき、運転者は、「ウィンカーの後は減速することが多い」という記憶を探索して、「先行車が減速するかもしれない」と予測するものと考えられる。 Here, we explain the predictive load model. It is thought that people recall memories and predict the future from clue information. For example, it has been confirmed from public road driving data that clue information for the event of a leading vehicle slowing down includes the vehicle slowing down, an uphill slope, a red light, a sharp curve, a blinker, congestion in the surrounding area, and a mistake in speed adjustment by the leading vehicle. For example, when a leading vehicle turns on its blinker in a driving environment, the driver is thought to search for the memory that "vehicles often slow down after turning on their blinker" and predict that "the leading vehicle may slow down."

そこで、本願発明者等は、予測負荷は余裕時間および遭遇率から構成される、という仮説を立てた。余裕時間とは、手がかり出現(上例ではウィンカー)から事象発生(上例では先行車の減速)までの時間であり、遭遇率は、事象に対する手がかりの割合(ウィンカー20%、赤信号25%、先先行車の減速25%等)である。すなわち、思い出すことに使える時間が長く、かつ遭遇した頻度が高く記憶に残っているほど、予測負荷が低いはず、という考え方である。 The inventors of this application therefore hypothesized that prediction load is composed of margin time and encounter rate. Margin time is the time from the appearance of a clue (the blinker in the above example) to the occurrence of an event (the deceleration of the preceding vehicle in the above example), and encounter rate is the ratio of clues to an event (blinker 20%, red light 25%, deceleration of the preceding vehicle 25%, etc.). In other words, the idea is that the longer the time available for recall, and the more frequently an encounter is made and the more firmly it is remembered, the lower the prediction load should be.

ところが、本願発明者等の実験によると、必ずしも想定通りの結果にならなかった。さらなる検討の結果、予測負荷には、現実世界での事象の不確実さを考慮することが必要であることが分かった。例えば、赤信号では先行車はほぼ確実に減速する一方、先先行車が減速したときは、先行車は必ずしも減速しない。つまり、手がかりに対して事象が発生する可能性は、手がかりによって異なっている。 However, according to experiments conducted by the inventors of this application, the results were not always as expected. Further investigation revealed that it was necessary to consider the uncertainty of events in the real world when developing the predictive load. For example, while a leading vehicle will almost certainly slow down when the light is red, the leading vehicle will not necessarily slow down when the vehicle ahead of it slows down. In other words, the likelihood of an event occurring in response to a clue varies depending on the clue.

そこで、予測負荷モデルは、例えば次の式で規定される。 The predicted load model is therefore defined, for example, by the following formula:

Figure 0007578021000001
Figure 0007578021000001

上式では、予測負荷モデルに、不確実さが反映されている。本願発明者等の検討によって、不確実さを反映したこの予測負荷モデルが、運転シーンへ適用できることが確認された。 In the above formula, uncertainty is reflected in the predictive load model. Through research by the present inventors, it has been confirmed that this predictive load model that reflects uncertainty can be applied to driving situations.

ブロックBでは、運転者のリスク低減行動のパフォーマンスを評価する。リスク低減行動とは、事故が発生するリスクを低減するための行動であり、例えば、先行車の減速に関して、アクセルをオフする行動である。リスク低減行動のパフォーマンスは、例えば、ウィンカー等手がかり出現から、アクセルをオフするまでの時間によって評価する。リスク低減行動は、この他にも例えば、ブレーキを踏む行動、ミラーを目視する行動、等がある。 In Block B, the performance of the driver's risk reduction behavior is evaluated. Risk reduction behavior is a behavior for reducing the risk of an accident occurring, such as taking one's foot off the accelerator to slow down the vehicle ahead. The performance of risk reduction behavior is evaluated, for example, based on the time from the appearance of a clue such as a turn signal to taking one's foot off the accelerator. Other examples of risk reduction behaviors include stepping on the brakes, looking at the mirrors, etc.

ブロックC,D,Eでは、運転者の運転能力の発揮度合を判定する。ブロックCでは、ブロックAで算出された予測負荷と、ブロックBで評価されたリスク低減行動のパフォーマンスとを合わせて、運転者の現在の運転能力として出力する。ブロックDは、ブロックCから出力された運転者の運転能力のデータを蓄積する。そして、蓄積したデータを基にして、運転者の通常の運転能力すなわち本来の運転能力を個人学習する。ブロックEでは、ブロックCから出力された運転者の現在の運転能力と、ブロックDから出力された運転者の通常の運転能力とを比較する。 Blocks C, D, and E judge the degree to which the driver is demonstrating his or her driving ability. Block C combines the predicted load calculated in Block A with the performance of risk reduction actions evaluated in Block B and outputs it as the driver's current driving ability. Block D accumulates the data on the driver's driving ability output from Block C. Then, based on the accumulated data, it performs individual learning of the driver's normal driving ability, i.e., his or her original driving ability. Block E compares the driver's current driving ability output from Block C with the driver's normal driving ability output from Block D.

図2は運転能力の発揮度合の判定手法を説明するための図である。図2では、運転能力は、横軸を予測負荷とし、縦軸をリスク低減行動のパフォーマンスとする2次元座標上に表されている。図2(a)はブロックCで得られた、運転者の現在の運転能力である。図2(b)はブロックDで得られた、運転者の通常の運転能力である。蓄積した運転能力のデータから、通常の運転能力を表すラインが得られている。そして図2(c)に示すように、図2(a)に示す現在の運転能力を図2(b)に示す通常の運転能力と比較し、運転能力の発揮度合を判定する。図2(c)では、同じ予測負荷においてリスク低減行動のパフォーマンスが悪化しているため、運転能力が低下している、すなわち運転能力の発揮度合が低いと判断される。発揮度合の程度は、例えば、現在の運転能力の座標位置と、通常の運転能力を表すラインとの距離によって評価すればよい。 Figure 2 is a diagram for explaining a method for determining the degree of driving ability. In Figure 2, driving ability is represented on a two-dimensional coordinate system with the horizontal axis representing predicted load and the vertical axis representing the performance of risk reduction behavior. Figure 2(a) shows the driver's current driving ability obtained in block C. Figure 2(b) shows the driver's normal driving ability obtained in block D. A line representing normal driving ability is obtained from the accumulated driving ability data. Then, as shown in Figure 2(c), the current driving ability shown in Figure 2(a) is compared with the normal driving ability shown in Figure 2(b) to determine the degree of driving ability. In Figure 2(c), the performance of risk reduction behavior has deteriorated under the same predicted load, so it is determined that the driving ability has decreased, that is, the degree of driving ability is low. The degree of performance may be evaluated, for example, by the distance between the coordinate position of the current driving ability and the line representing normal driving ability.

図1に戻り、一方で、ブロックXでは、ドライバモニタカメラによって撮影された運転者の映像から、運転者が眠気運転または脇見運転をしているか否かを判定する。ブロックXでは、例えば、運転者の上下瞼間の距離、頭部位置、視線方向等を用いて判定を行う。 Returning to FIG. 1, on the other hand, in block X, it is determined whether the driver is drowsy or distracted while driving based on the image of the driver captured by the driver monitor camera. In block X, the determination is made using, for example, the distance between the driver's upper and lower eyelids, the head position, the line of sight, etc.

ブロックFでは、ブロックXで運転者が眠気運転または脇見運転をしていないと判定されていない場合において、ブロックEの比較結果から、運転者の運転能力の発揮度合が所定程度以下であるとき、運転者が漫然運転をしていると判定する。 In block F, if it is not determined in block X that the driver is not drowsy or not looking away from the road, and the comparison result in block E indicates that the driver is not demonstrating driving ability to a predetermined level or below, it is determined that the driver is driving absent-mindedly.

なお、ブロックDで蓄積するデータは、運転者が漫然運転や眠気/脇見運転を行っているときのデータを含まないことが好ましい。また、図1のシステムでは、処理性能に対するノイズとして、運転者の運転特性(安全感度、許容リスクなど)、認知能力(若年者、高齢者など)、運転経験(初心者、ベテランなど)がある。 It is preferable that the data accumulated in block D does not include data when the driver is driving absent-mindedly or while drowsy/distracted. In addition, in the system of FIG. 1, noises affecting the processing performance include the driver's driving characteristics (safety sensitivity, acceptable risk, etc.), cognitive ability (young, elderly, etc.), and driving experience (beginner, veteran, etc.).

図3および図4は本実施形態に係る運転状態検出方法における処理の流れの一例を示すフローチャートである。また、図5は図3および図4の運転状態検出方法を実行するシステム構成例を示すブロック図である。コントローラ1は、例えば、プロセッサおよびメモリを備えたICチップ、あるいは、プロセッサおよびメモリを備えた、複数のICチップ等によって構成される。また、コントローラ1は、AI(Artificial Intelligence)専用チップ、GPU(Graphic Processing Unit)等を備えていてもよい。 Figures 3 and 4 are flowcharts showing an example of the process flow in the driving state detection method according to this embodiment. Also, Figure 5 is a block diagram showing an example of a system configuration for executing the driving state detection method of Figures 3 and 4. The controller 1 is, for example, configured with an IC chip equipped with a processor and memory, or multiple IC chips equipped with a processor and memory. The controller 1 may also be equipped with a dedicated chip for AI (Artificial Intelligence), a GPU (Graphic Processing Unit), etc.

図5のシステムは、コントローラ1の入力手段として、車両に搭載されたカメラやセンサ等を備える。前方カメラ10は、例えば車両の前部に設置され、車両の前方の状況を撮影するカメラである。車内カメラ11は、例えば車両の車室内に設置され、車内の状況を撮影するカメラであり、ドライバモニタカメラとして機能する。車速センサ12、加速度センサ13およびヨーレートセンサ14は、それぞれ、車両の速度、加速度、ヨーレートを検出するセンサである。操舵角センサ15、操舵トルクセンサ16、アクセル開度センサ17およびブレーキ圧センサ18は、それぞれ、車両の操舵角、操舵トルク、アクセル開度、ブレーキ圧を検出するセンサである。GPS(Global Positioning Systems)ユニット19は、車両の位置を検知するユニットである。前方カメラ10およびGPSユニット19は、外部状況を検知する手段の一例である。操舵角センサ15、操舵トルクセンサ16、アクセル開度センサ17およびブレーキ圧センサ18は、運転操作を検知する手段の一例である。 The system in FIG. 5 includes a camera and a sensor mounted on the vehicle as input means for the controller 1. The forward camera 10 is installed, for example, at the front of the vehicle and captures the situation in front of the vehicle. The in-vehicle camera 11 is installed, for example, in the passenger compartment of the vehicle and captures the situation inside the vehicle, and functions as a driver monitor camera. The vehicle speed sensor 12, the acceleration sensor 13, and the yaw rate sensor 14 are sensors that detect the speed, acceleration, and yaw rate of the vehicle, respectively. The steering angle sensor 15, the steering torque sensor 16, the accelerator opening sensor 17, and the brake pressure sensor 18 are sensors that detect the steering angle, steering torque, accelerator opening, and brake pressure of the vehicle, respectively. The GPS (Global Positioning Systems) unit 19 is a unit that detects the position of the vehicle. The forward camera 10 and the GPS unit 19 are examples of means for detecting the external situation. The steering angle sensor 15, the steering torque sensor 16, the accelerator opening sensor 17, and the brake pressure sensor 18 are examples of means for detecting the driving operation.

コントローラ1は、センターディスプレイ21やHUD(Head-Up Display)22に画像信号を送り、音声出力装置23に音声信号を送り、ステアリング制御装置24、ブレーキ制御装置25およびエンジン制御装置26に制御信号を送る。 The controller 1 sends image signals to a center display 21 and a HUD (Head-Up Display) 22, sends audio signals to an audio output device 23, and sends control signals to a steering control device 24, a brake control device 25, and an engine control device 26.

図3および図4の処理では、コントローラ1は、漫然運転判定フラグと、眠気/脇見運転判定フラグとを出力する。コントローラ1は、運転者が漫然運転を行っていると判定したとき、漫然運転判定フラグを「1」にセットする。運転者が眠気/脇見運転を行っていると判定したとき、眠気/脇見運転フラグを「1」にセットする。漫然運転判定フラグや眠気/脇見運転フラグが「1」にセットされたとき、コントローラ1は例えば、センターディスプレイ21やHUD22に警告画像を出力する信号を送り、音声出力装置23に警告音を出力する信号を送る。あるいは、ブレーキ制御装置25およびエンジン制御装置26に、車両の速度を低下させる制御信号を送る。 In the processing of FIG. 3 and FIG. 4, the controller 1 outputs a distracted driving judgment flag and a drowsiness/distracted driving judgment flag. When the controller 1 judges that the driver is driving distractedly, it sets the distracted driving judgment flag to "1". When the controller 1 judges that the driver is driving drowsy/distractedly, it sets the drowsiness/distracted driving flag to "1". When the distracted driving judgment flag or the drowsiness/distracted driving flag is set to "1", the controller 1 sends, for example, a signal to output a warning image to the center display 21 or HUD 22, and a signal to output a warning sound to the audio output device 23. Alternatively, it sends a control signal to the brake control device 25 and the engine control device 26 to reduce the speed of the vehicle.

図3の処理において、コントローラ1は、車両の周辺情報を取得し(S11a)、運転者の運転操作情報を取得し(S11b)、運転者の視線・頭部挙動情報を取得する(S11c)。車両の周辺情報は、例えば、前方カメラ10によって撮影された映像や、GPSユニット19によって取得した位置情報等を基にして、取得する。運転操作情報は、例えば、操舵角センサ15、操舵トルクセンサ16、アクセル開度センサ17およびブレーキ圧センサ18によって検出した各種データを基にして、取得する。運転者の視線・頭部挙動情報は、例えば、車内カメラ11によって撮影された映像を基にして取得する。 In the process of FIG. 3, the controller 1 acquires information about the vehicle's surroundings (S11a), acquires driving operation information of the driver (S11b), and acquires information about the driver's line of sight and head behavior (S11c). The vehicle's surroundings information is acquired, for example, based on images captured by the front camera 10 and position information acquired by the GPS unit 19. The driving operation information is acquired, for example, based on various data detected by the steering angle sensor 15, steering torque sensor 16, accelerator opening sensor 17, and brake pressure sensor 18. The driver's line of sight and head behavior information is acquired, for example, based on images captured by the in-vehicle camera 11.

コントローラ1は、車両の周辺情報を基にして、運転者の予測負荷を算出する(S12)。ここでは、車両の周辺情報から得た、例えば先行車のウィンカーのような手がかりに対して、上述したような予測負荷モデルを用いて、予測負荷を算出する。そして、コントローラ1は、運転者のリスク低減行動のパフォーマンスを評価する(S13)。例えば、先行車のウィンカーに対して、アクセルをオフするまでの時間を評価する。そして、コントローラ1は、S12で算出した予測負荷と、S13で評価したリスク低減行動のパフォーマンスとを併せて、運転者の現在の運転能力として評価する(S14)。 The controller 1 calculates the driver's predicted load based on the vehicle's surrounding information (S12). Here, the predicted load is calculated using the predicted load model described above for clues obtained from the vehicle's surrounding information, such as the blinker of the preceding vehicle. The controller 1 then evaluates the driver's performance of risk reduction behavior (S13). For example, the controller 1 evaluates the time it takes to release the accelerator in response to the blinker of the preceding vehicle. The controller 1 then evaluates the driver's current driving ability based on the predicted load calculated in S12 and the performance of risk reduction behavior evaluated in S13 (S14).

コントローラ1は、S14で求めた運転者の現在の運転能力が、運転者の通常の運転能力を下回っているか否かを判断する(S15)。上述したとおり、運転者の通常の運転能力は、通常時における運転者の過去の運転能力の累積データから個人学習されている。下回っていないときは、問題なしとして処理を終了する。一方、下回っているときは、次のステップS16に進む。 The controller 1 determines whether the driver's current driving ability obtained in S14 is below the driver's normal driving ability (S15). As described above, the driver's normal driving ability is learned from the accumulated data of the driver's past driving ability under normal circumstances. If it is not below the normal driving ability, it is determined that there is no problem and the process ends. On the other hand, if it is below the normal driving ability, the process proceeds to the next step S16.

S16では、コントローラ1は、眠気/脇見運転判定フラグが「0」であるか否かを判定する(S16)。なお、眠気/脇見運転判定フラグのセットフローに関しては、図4に記載されており、後述する。眠気/脇見運転判定フラグが「1」にセットされているときは、眠気/脇見運転判定フラグを出力し(S19)、処理を終了する。一方、眠気/脇見運転判定フラグが「0」のときは、コントローラ1は、漫然運転判定フラグを「1」にセットする(S17)。そして、漫然運転判定フラグを出力し(S18)、処理を終了する。 In S16, the controller 1 determines whether the drowsiness/inattentive driving judgment flag is "0" (S16). The flow for setting the drowsiness/inattentive driving judgment flag is shown in FIG. 4 and will be described later. When the drowsiness/inattentive driving judgment flag is set to "1", the controller 1 outputs the drowsiness/inattentive driving judgment flag (S19) and ends the process. On the other hand, when the drowsiness/inattentive driving judgment flag is "0", the controller 1 sets the absentminded driving judgment flag to "1" (S17). The controller 1 then outputs the absentminded driving judgment flag (S18) and ends the process.

図4は眠気/脇見運転判定フラグのセットフローを示す。コントローラ1は、車内カメラ11によって撮影された映像から、運転者の姿勢や表情等に関する情報を取得する(S21)。S21で取得した情報から、運転者の上下瞼間の距離について、基準値例えば初期状態における距離との差を算出する(S22)。算出した差が所定の閾値以上であるときは(S23でNo)、眠気/脇見運転判定フラグを「1」にセットする(S28)。算出した差が所定の閾値より小さいときは、S21で取得した情報から、運転者の頭部位置について、基準位置とのずれを算出する(S24)。算出したずれが所定の閾値以上であるときは(S25でNo)、眠気/脇見運転判定フラグを「1」にセットする(S28)。算出したずれが所定の閾値より小さいときは、S21で取得した情報から、視線方向と車両の進行方向とのずれを算出する(S26)。算出したずれが所定の閾値以上であるときは(S27でNo)、眠気/脇見運転判定フラグを「1」にセットする(S28)。算出したずれが所定の閾値より小さいときは、眠気/脇見運転判定フラグを「1」にセットしない。 Figure 4 shows the flow of setting the drowsiness/inattentive driving judgment flag. The controller 1 acquires information on the driver's posture, facial expression, etc. from the image captured by the in-vehicle camera 11 (S21). From the information acquired in S21, the difference between the distance between the driver's upper and lower eyelids and a reference value, for example, the distance in the initial state, is calculated (S22). If the calculated difference is equal to or greater than a predetermined threshold (No in S23), the drowsiness/inattentive driving judgment flag is set to "1" (S28). If the calculated difference is smaller than the predetermined threshold, the deviation of the driver's head position from the reference position is calculated from the information acquired in S21 (S24). If the calculated deviation is equal to or greater than a predetermined threshold (No in S25), the drowsiness/inattentive driving judgment flag is set to "1" (S28). If the calculated deviation is smaller than the predetermined threshold, the deviation between the line of sight and the vehicle's traveling direction is calculated from the information acquired in S21 (S26). If the calculated deviation is equal to or greater than the predetermined threshold (No in S27), the drowsiness/inattentive driving judgment flag is set to "1" (S28). If the calculated deviation is smaller than the predetermined threshold, the drowsiness/inattentive driving judgment flag is not set to "1".

以上のように本実施形態によると、車両の周辺状況から推定された予測負荷と、運転者のリスク低減行動のパフォーマンスとを基にして、運転者の現在の運転能力が評価される。そして、評価した現在の運転能力を、運転者の通常の運転能力と比較することによって、運転能力の発揮度合が判定される。一方で、運転者の挙動を示す情報を用いて、運転者が眠気運転または脇見運転を行っているか否かが判定される。そして、運転能力の発揮度合が所定程度以下であって、かつ、運転者が眠気運転または脇見運転を行っていないと判定されたときは、運転者は漫然状態にあると判定される。したがって、運転者が本来持っている運転能力が発揮されていない状態と、眠気や脇見運転の際に見られる挙動とを総合的に判断し、運転者がぼんやりしてたり考え事をしていたりする漫然状態にあるか、眠気運転または脇見運転を行っているかを判定することができる。 As described above, according to this embodiment, the driver's current driving ability is evaluated based on the predicted load estimated from the vehicle's surrounding conditions and the driver's performance of risk reduction behavior. The degree of driving ability is then determined by comparing the evaluated current driving ability with the driver's normal driving ability. Meanwhile, using information indicating the driver's behavior, it is determined whether the driver is driving while drowsy or looking away. When it is determined that the degree of driving ability is below a predetermined level and the driver is not driving while drowsy or looking away, the driver is determined to be in a distracted state. Therefore, it is possible to comprehensively determine whether the driver is in a distracted state where he or she is daydreaming or thinking about something, or whether the driver is driving while drowsy or looking away.

また、運転者の瞼が閉じ気味であったり、頭部が通常位置からずれたり、視線が進行方向からずれたりしているとき、眠気運転または脇見運転と判定される。一方、運転者が漫然状態にある場合は、瞼は開いており、頭部は通常の位置にあり、視線は進行方向を見ている。したがって、漫然運転と、眠気運転または脇見運転とを切り分けることができる。 In addition, if the driver's eyelids are slightly closed, the head is not in the normal position, or the driver's gaze is not in the direction of travel, the driver is judged to be drowsy or distracted. On the other hand, if the driver is absent-minded, the eyelids are open, the head is in the normal position, and the driver's gaze is in the direction of travel. Therefore, absent-minded driving can be distinguished from drowsy driving or inattentive driving.

なお、上述した実施形態では、運転者の運転能力を、リスク低減行動のパフォーマンスを用いて求めていた。ただし、本開示はこれに限られるものではなく、例えば、乗り心地を維持する行動や法規順守行動のパフォーマンスを用いて、運転者の運転能力を評価してもかまわない。すなわち、本開示では、運転者の対応行動のパフォーマンスを用いて、運転能力を評価する。ここでの「対応行動」とは、運転者が車両外部の状況に対応して行う運転行動のことをいい、リスク低減行動、乗り心地維持行動、および、法規順守行動は、運転者の対応行動の例である。 In the above-described embodiment, the driver's driving ability is determined using the performance of risk-reducing actions. However, the present disclosure is not limited to this, and the driver's driving ability may be evaluated using, for example, the performance of actions to maintain ride comfort or actions to comply with laws and regulations. That is, in the present disclosure, the driving ability is evaluated using the performance of the driver's response actions. Here, "response actions" refer to driving actions that the driver performs in response to the situation outside the vehicle, and risk-reducing actions, actions to maintain ride comfort, and actions to comply with laws and regulations are examples of the driver's response actions.

乗り心地維持行動や法規順守行動に関しては、予測負荷やパフォーマンスは、例えば以下のように評価すればよい。 For comfort maintenance behavior and regulatory compliance behavior, the predicted load and performance can be evaluated, for example, as follows:

(乗り心地維持行動)
車両の前後方向の乗り心地を維持する負荷(ペダル操作関係)については、先行車の速度が安定しないほど負荷が高い、勾配変化が激しいほど負荷が高い、走行速度が低いほど負荷が高い、といえる。具体的にいうと、先行車が一定速度で走行しているときは、自車も一定速度で走ればよいので、乗り心地に影響する加減速を生じさせる制御は発生しない。すなわち、乗り心地を維持する負荷が低い。一方、先行車が加速や減速を繰り返しているときは、滑らかな乗り心地を維持するためには状況を先読みして早めにペダル操作をする必要がある。すなわち、乗り心地を維持する負荷が高い。
(Actions to maintain ride comfort)
Regarding the load (pedal operation related) for maintaining ride comfort in the longitudinal direction of the vehicle, it can be said that the load is higher the more unstable the speed of the preceding vehicle, the more drastic the gradient change, and the lower the traveling speed. Specifically, when the preceding vehicle is traveling at a constant speed, the vehicle itself only needs to travel at a constant speed, so no control that causes acceleration/deceleration that affects the ride comfort is generated. In other words, the load for maintaining ride comfort is low. On the other hand, when the preceding vehicle is repeatedly accelerating and decelerating, it is necessary to predict the situation and operate the pedals early in order to maintain a smooth ride. In other words, the load for maintaining ride comfort is high.

また、平坦な道であれば速度を一定にしていればよいので、乗り心地に影響する加減速を生じさせる制御は発生せず、乗り心地を維持する負荷が低い。一方、上り坂や下り坂が頻繁にあるシーンでは、前もって操作しておかないと速度が出すぎたり落ちすぎたりするため、追加でアクセルやブレーキを操作する必要が発生する。すなわち、乗り心地を維持する負荷が高い。また、走行速度が高いとき、アクセス操作やブレーキ操作によって発生する前後の重力加速度は小さくなるので、調整がしやすい。したがって、乗り心地を維持する負荷が低い。一方、走行速度が低いとき、アクセル操作やブレーキ操作によって発生する前後の重力加速度は大きくなるため、乗り心地維持のためには慎重な操作が必要になる。したがって、乗り心地を維持する負荷が高い。 Also, on flat roads, it is sufficient to keep the speed constant, so there is no need for control that causes acceleration or deceleration that affects the ride comfort, and the burden of maintaining a comfortable ride is low. On the other hand, in scenes with frequent uphill and downhill sections, if the driver does not operate the accelerator or brake in advance, the speed will increase or decrease too much, and additional operation of the accelerator or brake will be required. In other words, the burden of maintaining a comfortable ride is high. Also, when the driving speed is high, the front and rear gravitational acceleration generated by accelerator and brake operations is small, making adjustments easy. Therefore, the burden of maintaining a comfortable ride is low. On the other hand, when the driving speed is low, the front and rear gravitational acceleration generated by accelerator and brake operations is large, so careful operation is required to maintain a comfortable ride. Therefore, the burden of maintaining a comfortable ride is high.

また、左右方向の乗り心地を維持する負荷(ステア操作関係)については、道路形状の変化速度が高いほど(きついカーブであるほど、高速度で走行しているほど)、負荷が高い、といえる。具体的にいうと、直線道路を走っているときは、大きなステアリング操作をする必要がない。すなわち、乗り心地を維持する負荷が低い。一方、きついカーブほど、大きなステアリング操作を行う必要があり、乗り心地を維持するためには慎重な操作が必要になる。したがって、乗り心地を維持する負荷が高い。さらに、カーブを速く走行するほど、ステアリングを速く操作する必要があるため、乗り心地を維持するためには慎重な操作が必要になる。したがって、乗り心地を維持する負荷が高い。 In addition, with regard to the load to maintain ride comfort in the lateral direction (related to steering operations), the load is higher the faster the road shape changes (the sharper the curve, the higher the driving speed). Specifically, when driving on a straight road, there is no need to make large steering operations. In other words, the load to maintain ride comfort is low. On the other hand, the sharper the curve, the larger the steering operation is required, and careful operation is required to maintain ride comfort. Therefore, the load to maintain ride comfort is high. Furthermore, the faster you drive around a curve, the faster you need to operate the steering wheel, so careful operation is required to maintain ride comfort. Therefore, the load to maintain ride comfort is high.

パフォーマンスについては、例えば、車両にかかる重力加速度の滑らかさによって、評価すればよい。例えば、躍度(加減速度の微分値)が小さいとき、パフォーマンスが高いと評価する。あるいは、カーブ走行時の前後左右Gの繋がりの滑らかさによって、評価してもよい。例えば、G-Gダイアグラムが円に近いかどうかで評価する。繋がりがなめらかだと、パフォーマンスが高いと評価する。 Performance can be evaluated, for example, based on the smoothness of the gravitational acceleration acting on the vehicle. For example, when the jerk (the derivative of acceleration/deceleration) is small, the performance is evaluated as high. Alternatively, it can be evaluated based on the smoothness of the connection between the front, rear, left and right G forces when driving around a curve. For example, it can be evaluated based on whether the G-G diagram is close to a circle. If the connection is smooth, the performance is evaluated as high.

(法規順守行動)
・信号の場合
交差点通過時に信号が赤になるタイミングを考えたとき、自車が交差点に近づいている時に赤に変わるほど、負荷が高い。具体的には例えば、自車が交差点にさしかかる30秒前に信号が赤に変わった場合、赤信号を見てゆっくり止まればよいだけである。したがって、法規順守負荷が低い。一方、自車が交差点にさしかかる3秒前に信号が赤に変わった場合、赤信号を見て即座に操作しなければいけない。したがって、法規順守負荷が高い。また、信号が緑→黄→赤に変わるタイプの信号では、赤になるまで余裕があるため負荷が低く、黄色点滅から急に赤に変わるタイプの信号では、負荷が高いといえる。
(Legal Compliance Actions)
- In the case of traffic lights When considering the timing when a traffic light turns red when passing through an intersection, the closer the vehicle is to the intersection the closer the traffic light turns red, the higher the load. Specifically, for example, if the traffic light turns red 30 seconds before the vehicle approaches the intersection, the vehicle only needs to see the red light and stop slowly. Therefore, the load of compliance with regulations is low. On the other hand, if the traffic light turns red 3 seconds before the vehicle approaches the intersection, the vehicle must see the red light and operate immediately. Therefore, the load of compliance with regulations is high. Also, for traffic lights that change from green to yellow to red, the load is low because there is a sufficient amount of time before the light turns red, but for traffic lights that suddenly change from flashing yellow to red, the load is high.

パフォーマンスは、例えば、赤(もしくは黄色)に変わってから何秒後に通過してしまったか、によって評価すればよい。例えば、止まれていたらパフォーマンスは高いと評価し、赤や黄色に変わってから10秒後に交差点を通過するとパフォーマンスは低いと評価する。 Performance can be evaluated, for example, based on how many seconds it takes for the car to pass through an intersection after the light turns red (or yellow). For example, if the car stops, performance can be evaluated as high, and if the car passes through an intersection 10 seconds after the light turns red or yellow, performance can be evaluated as low.

・標識の場合
標識の色合い、見えやすさ、位置により、標識があることの認識が容易であれば、負荷が低い。具体的には例えば、標識がかすれていてよく見ても内容が分からないとき、あるいは、標識の前に木の枝がかかっていて見えにくいときは、法規順守負荷が高い。また、標識が倒れていたりして、一般的ではない場所にあるとき、法規順守負荷が高い、といえる。
- In the case of signs: If the sign's color, visibility, and location make it easy to recognize that it exists, the burden is low. Specifically, for example, if the sign is faded and the contents are difficult to understand even when looking closely, or if a tree branch is in front of the sign and it is difficult to see, the compliance burden is high. Also, if the sign has fallen over and is in an unusual location, the compliance burden can be said to be high.

パフォーマンスは、例えば、速度標識の場合、制限速度からどれくらいオーバーしているのかによって評価すればよい。例えば、制限速度を守れていたらパフォーマンスが高い、オーバーしている程度が大きいほどパフォーマンスが低いと評価する。 For example, in the case of speed signs, performance can be evaluated based on how much the driver exceeds the speed limit. For example, performance can be evaluated as high if the driver adheres to the speed limit, and the greater the degree of exceedance, the lower the performance.

・走行車線の場合
走行車線の場合、車線がはっきり見えていれば負荷が低く、かすれて見えにくければ負荷が高い、といえる。
- In the case of driving lanes, if the lane is clearly visible, the load is low, and if it is blurred and difficult to see, the load is high.

パフォーマンスについては、例えば、車両が走行車線からどれぐらいはみ出して走行しているかによって評価すればよい。例えば、はみ出していなければパフォーマンスが高い、はみ出し量が多いほどパフォーマンスが低いと評価する。 Performance can be evaluated, for example, based on how far the vehicle is protruding from the lane. For example, if the vehicle is not protruding from the lane, the performance can be evaluated as high, and the more the vehicle protrudes from the lane, the lower the performance can be evaluated.

また、本発明の適用用途は、自動車に限られるものではない。自動車以外の、例えば電車等の移動体において、運転状態を検出するのに有効である。 The application of the present invention is not limited to automobiles. It is also effective for detecting the driving state of moving objects other than automobiles, such as trains.

また、本開示に係る技術は、単体の情報処理装置以外の形態で実現される場合もあり得る。例えば、コントローラ1が実行する処理の一部が、別の情報処理装置によって実現されてもよい。また例えば、移動体に搭載されていない情報処理装置、例えば運転者が持っているスマホやタブレット等が、処理の一部を実行してもよい。あるいは、クラウドが、処理の一部または全部を実行するような形態としてもかまわない。 The technology disclosed herein may also be realized in a form other than a single information processing device. For example, part of the processing performed by the controller 1 may be realized by another information processing device. For example, part of the processing may be performed by an information processing device not mounted on the vehicle, such as a smartphone or tablet carried by the driver. Alternatively, the technology may be realized in a form in which the cloud performs part or all of the processing.

前述の実施形態は単なる例示に過ぎず、本開示の範囲を限定的に解釈してはならない。本開示の範囲は請求の範囲によって定義され、請求の範囲の均等範囲に属する変形や変更は、全て本開示の範囲内のものである。 The above-described embodiments are merely examples and should not be interpreted as limiting the scope of the present disclosure. The scope of the present disclosure is defined by the claims, and all modifications and variations that fall within the scope of the claims are within the scope of the present disclosure.

ここに開示された技術は、運転者の覚醒低下や脇見を検出し、かつ、運転者が漫然状態にあることを検出できるので、例えば、自動車の運転の安全性向上に有用である。 The technology disclosed here can detect a driver's decreased alertness or inattentiveness, and can also detect when the driver is in a distracted state, making it useful for improving the safety of automobile driving, for example.

1 コントローラ
10 前方カメラ
11 車内カメラ(ドライバモニタカメラ)
12 車速センサ
13 加速度センサ
14 ヨーレートセンサ
15 操舵角センサ
16 操舵トルクセンサ
17 アクセル開度センサ
18 ブレーキ圧センサ
19 GPSユニット
21 センターディスプレイ
22 HUD
23 音声出力装置
24 ステアリング制御装置
25 ブレーキ制御装置
26 エンジン制御装置
1 Controller 10 Front camera 11 In-vehicle camera (driver monitor camera)
12 vehicle speed sensor 13 acceleration sensor 14 yaw rate sensor 15 steering angle sensor 16 steering torque sensor 17 accelerator opening sensor 18 brake pressure sensor 19 GPS unit 21 center display 22 HUD
23 Audio output device 24 Steering control device 25 Brake control device 26 Engine control device

Claims (2)

車両の運転者の状態を検出する運転状態検出方法であって、
前記車両の周辺状況を示す情報を用いて、前記運転者の予測負荷を推定するステップ(a)と、
前記車両の周辺状況を示す情報と、前記運転者の運転操作を示す情報と、前記運転者の挙動を示す情報とを用いて、前記運転者の対応行動のパフォーマンスを評価するステップ(b)と、
ステップ(a)で推定した予測負荷と、ステップ(b)で評価した対応行動のパフォーマンスとを基にして、前記運転者の現在の運転能力を評価するステップ(c)と、
ステップ(c)で評価した運転能力を、運転者の通常の運転能力と比較し、運転能力の発揮度合を判定するステップ(d)と、
前記運転者の挙動を示す情報を用いて、運転者が眠気運転または脇見運転を行っているか否かを判定するステップ(e)と、
ステップ(d)で判定した運転能力の発揮度合が所定程度以下であって、かつ、ステップ(e)で運転者が眠気運転または脇見運転を行っていないと判定したとき、前記運転者が漫然状態にあると判定するステップ(f)と、を備える運転状態検出方法。
A driving state detection method for detecting a state of a driver of a vehicle, comprising:
(a) estimating a predicted load of the driver using information indicative of a surrounding situation of the vehicle;
(b) evaluating the performance of the driver's response action using information indicating a surrounding situation of the vehicle, information indicating the driving operation of the driver, and information indicating the behavior of the driver;
(c) evaluating the current driving ability of the driver based on the predicted load estimated in step (a) and the performance of the corresponding behavior evaluated in step (b);
A step (d) of comparing the driving ability evaluated in the step (c) with the driver's normal driving ability to determine the degree of driving ability exercised;
A step (e) of determining whether the driver is drowsy or distracted while driving using the information indicating the driver's behavior;
and a step (f) of determining that the driver is in a distracted state when the degree of driving ability determined in step (d) is below a predetermined level and when it is determined in step (e) that the driver is not driving while drowsy or looking away from the road.
請求項1記載の運転状態検出方法において、
前記ステップ(e)は、
運転者の上下瞼間の距離が基準値と比べて所定閾値以上に小さくなったとき、運転者の頭部位置が基準位置と比べて所定閾値以上にずれたとき、または、運転者の視線方向と前記車両の進行方向とのずれが所定閾値以上に大きくなったとき、運転者が眠気運転または脇見運転を行っていると判定するステップを含む
ことを特徴とする運転状態検出方法。
2. The driving condition detection method according to claim 1,
The step (e)
A driving condition detection method comprising a step of determining that a driver is driving drowsy or looking away when the distance between the driver's upper and lower eyelids becomes smaller than a predetermined threshold value compared to a reference value, when the driver's head position deviates from a reference position by more than a predetermined threshold value, or when the deviation between the driver's line of sight and the vehicle's traveling direction becomes larger than a predetermined threshold value.
JP2021026103A 2021-02-22 2021-02-22 Driving state detection method Active JP7578021B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021026103A JP7578021B2 (en) 2021-02-22 2021-02-22 Driving state detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021026103A JP7578021B2 (en) 2021-02-22 2021-02-22 Driving state detection method

Publications (2)

Publication Number Publication Date
JP2022127881A JP2022127881A (en) 2022-09-01
JP7578021B2 true JP7578021B2 (en) 2024-11-06

Family

ID=83061160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021026103A Active JP7578021B2 (en) 2021-02-22 2021-02-22 Driving state detection method

Country Status (1)

Country Link
JP (1) JP7578021B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071519A (en) 2012-09-27 2014-04-21 Aisin Seiki Co Ltd State determination device, driving support system, and state determination method and program
US20160207455A1 (en) 2015-01-21 2016-07-21 Hyundai Motor Company Safe driving notification system using wearable device and method thereof
JP2016539446A (en) 2013-10-29 2016-12-15 キム,ジェ−チョル A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape
JP2018013811A (en) 2016-07-18 2018-01-25 株式会社デンソー Driver state determination device and driver state determination program
JP2018169481A (en) 2017-03-29 2018-11-01 京セラ株式会社 Space display device, space display system, movable body, and space display method
JP2019179370A (en) 2018-03-30 2019-10-17 株式会社デンソー Vehicle speed controller
JP2019528217A5 (en) 2017-08-21 2020-10-01

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018035533A2 (en) 2016-08-19 2018-02-22 Massachusetts Institute Of Technology Systems and methods for using an attention buffer to improve resource allocation management

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071519A (en) 2012-09-27 2014-04-21 Aisin Seiki Co Ltd State determination device, driving support system, and state determination method and program
JP2016539446A (en) 2013-10-29 2016-12-15 キム,ジェ−チョル A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape
US20160207455A1 (en) 2015-01-21 2016-07-21 Hyundai Motor Company Safe driving notification system using wearable device and method thereof
JP2018013811A (en) 2016-07-18 2018-01-25 株式会社デンソー Driver state determination device and driver state determination program
JP2018169481A (en) 2017-03-29 2018-11-01 京セラ株式会社 Space display device, space display system, movable body, and space display method
JP2019528217A5 (en) 2017-08-21 2020-10-01
JP2019179370A (en) 2018-03-30 2019-10-17 株式会社デンソー Vehicle speed controller

Also Published As

Publication number Publication date
JP2022127881A (en) 2022-09-01

Similar Documents

Publication Publication Date Title
US11027750B2 (en) Method and system for assisting drivers to drive with precaution
US11814054B2 (en) Exhaustive driving analytical systems and modelers
US12145603B2 (en) Assistance method and assistance system and assistance device using assistance method that execute processing relating to a behavior model
US9007198B2 (en) Adaptive Actuator interface for active driver warning
EP3885220B1 (en) Automatically estimating skill levels and confidence levels of drivers
JP6627811B2 (en) Concentration determination device, concentration determination method, and program for concentration determination
CN110192084B (en) Automatic driving assistance device, method, and program
JP2024546060A (en) Apparatus and method for assisting vehicle operation based on exponential risk fused situation evaluation (SAFER)
JP7617697B2 (en) Driving characteristic determination device, driving characteristic determination method, and driving characteristic determination program
JP3890996B2 (en) Driving assistance device
JP2018041328A (en) Information presentation device for vehicle
JP2010125923A (en) Emergency refuge device
JP6631570B2 (en) Operating state determining apparatus, operating state determining method, and program for determining operating state
JP7474160B2 (en) Information processing device
CN111144311A (en) Auxiliary speed control method, device and system based on attention of driver
JP5493451B2 (en) Degree of consciousness determination device and alarm device
JP7509628B2 (en) Driving Support Devices
CN115891981A (en) Driving assistance system and method based on visual recognition
JP2003141697A (en) Vehicle braking alarm device and vehicle braking control device
JP6631569B2 (en) Operating state determining apparatus, operating state determining method, and program for determining operating state
CN113393664A (en) Driving support device
WO2018168049A1 (en) Concentration degree determination device, concentration degree determination method, and program for determining concentration degree
JP7578021B2 (en) Driving state detection method
WO2018168099A1 (en) Concentration degree determination device, concentration degree determination method, and program for determining concentration degree
JP7564383B2 (en) Driving skill evaluation system, information processing device, vehicle, computer program, and recording medium having computer program recorded thereon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231219

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241007

R150 Certificate of patent or registration of utility model

Ref document number: 7578021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150