JP2021511567A - 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース - Google Patents
高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース Download PDFInfo
- Publication number
- JP2021511567A JP2021511567A JP2020537522A JP2020537522A JP2021511567A JP 2021511567 A JP2021511567 A JP 2021511567A JP 2020537522 A JP2020537522 A JP 2020537522A JP 2020537522 A JP2020537522 A JP 2020537522A JP 2021511567 A JP2021511567 A JP 2021511567A
- Authority
- JP
- Japan
- Prior art keywords
- user
- control
- processor
- stimulus
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title abstract description 8
- 230000006978 adaptation Effects 0.000 title description 5
- 238000000034 method Methods 0.000 claims abstract description 148
- 230000001537 neural effect Effects 0.000 claims abstract description 120
- 230000009471 action Effects 0.000 claims description 89
- 230000008569 process Effects 0.000 claims description 69
- 210000004556 brain Anatomy 0.000 claims description 55
- 230000000007 visual effect Effects 0.000 claims description 51
- 230000000763 evoking effect Effects 0.000 claims description 42
- 230000004424 eye movement Effects 0.000 claims description 31
- 230000003565 oculomotor Effects 0.000 claims description 30
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 238000013179 statistical model Methods 0.000 claims description 15
- 210000005036 nerve Anatomy 0.000 claims description 13
- 230000033764 rhythmic process Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 9
- 230000006399 behavior Effects 0.000 claims description 8
- 230000001953 sensory effect Effects 0.000 claims description 7
- 230000001419 dependent effect Effects 0.000 claims description 6
- 230000001052 transient effect Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000004438 eyesight Effects 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 claims description 3
- 230000009849 deactivation Effects 0.000 claims 1
- 230000007177 brain activity Effects 0.000 abstract description 33
- 238000007792 addition Methods 0.000 abstract 1
- 230000004044 response Effects 0.000 description 53
- 210000001508 eye Anatomy 0.000 description 50
- 230000006870 function Effects 0.000 description 50
- 230000004397 blinking Effects 0.000 description 49
- 230000002093 peripheral effect Effects 0.000 description 36
- 238000004458 analytical method Methods 0.000 description 35
- 238000012549 training Methods 0.000 description 21
- 238000009826 distribution Methods 0.000 description 16
- 239000002131 composite material Substances 0.000 description 14
- 230000006854 communication Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000008904 neural response Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000001149 cognitive effect Effects 0.000 description 6
- 238000000537 electroencephalography Methods 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 101100063432 Caenorhabditis elegans dim-1 gene Proteins 0.000 description 4
- 101000773151 Homo sapiens Thioredoxin-like protein 4B Proteins 0.000 description 4
- 102100030273 Thioredoxin-like protein 4B Human genes 0.000 description 4
- 230000004886 head movement Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 230000004304 visual acuity Effects 0.000 description 4
- 238000002566 electrocorticography Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000001976 improved effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000004434 saccadic eye movement Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000036992 cognitive tasks Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 238000002582 magnetoencephalography Methods 0.000 description 2
- 230000003767 neural control Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012634 optical imaging Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 230000036982 action potential Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 206010002026 amyotrophic lateral sclerosis Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 201000007293 brain stem infarction Diseases 0.000 description 1
- 235000012813 breadcrumbs Nutrition 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 210000001787 dendrite Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001095 motoneuron effect Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000008035 nerve activity Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 238000002610 neuroimaging Methods 0.000 description 1
- 208000018360 neuromuscular disease Diseases 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 208000020431 spinal cord injury Diseases 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 230000007598 synaptic excitation Effects 0.000 description 1
- 230000001720 vestibular Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7435—Displaying user selection data, e.g. icons in a graphical user interface
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
- A61B5/333—Recording apparatus specially adapted therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/372—Analysis of electroencephalograms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/377—Electroencephalography [EEG] using evoked responses
- A61B5/378—Visual stimuli
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0202—Constructional details or processes of manufacture of the input device
- G06F3/0219—Special purpose keyboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Educational Technology (AREA)
- Dermatology (AREA)
- Hospice & Palliative Care (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Social Psychology (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- Artificial Intelligence (AREA)
- Cardiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
Description
[0001] 本願は、参照によりその開示の全体を本明細書に援用する、2018年1月18日に出願され「高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース(Brain-Computer Interface with Adaptations for High-Speed, Accurate, and Intuitive User Interactions)」と題された米国仮特許出願第62/618,846号の優先権及び利益を主張する。
[0002] 本明細書に記載する実施形態は、リアルタイムの眼球運動及び/又は頭部動作追跡を脳活動追跡と統合して、人間−マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェース(UI)又はユーザエクスペリエンス(UX)を提示し更新する、脳−コンピュータインタフェースの実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、リアルタイムの視標追跡及び神経活動のオンライン分析を使用してマシンのユーザ操作を仲介する、ハードウェアに依存しない脳−コンピュータインタフェースの実装にも関する。
[0006] 眼球運動及び脳活動を追跡してユーザの注視又は注目のリアルタイムの位置決め及び所望のアクションの選択/活性化を仲介するための、ハードウェアに依存しない統合型動眼神経ハイブリッド脳コンピュータインタフェース(BCI)プラットフォームの様々な実施形態のためのシステム、装置、及び方法を本明細書に記載する。本開示は、高速度及び高精度で動作する脳コンピュータインタフェースの需要に対処するための統合型BCIシステムを提示する。
[0031] 本明細書に記載する実施形態は、人間−マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェース(UI)又はユーザエクスペリエンス(UX)をユーザに提示する間に記録される脳活動を分析する脳−コンピュータインタフェース(BCI)の実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、神経脳信号の分析を使用してインタフェース、装置、及び/又はマシンのユーザ操作を仲介する、ハードウェアに依存しない脳−コンピュータインタフェースの実装にも関する。
[0033] 本明細書で説明するように、BCIは脳活動単独で又は脳活動を動眼活動若しくは運動神経(例えばEMG)活動等の他の活動と組み合わせてコンピュータ又は外部装置を制御できるようにするハードウェア及びソフトウェア通信システムである。BCIシステムは、インタフェースによる刺激の表示、インタフェース上のユーザの注目箇所を位置決めするためのハードウェア機器、脳活動を記録し処理するための装置、及びインタフェースの制御を行うための機器を含み、インタフェースの制御はユーザの環境を制御することになり得る。これらの標準機能は(1)ポインティング制御機能、(2)アクション制御機能、及び(3)ユーザインタフェース/ユーザエクスペリエンス(UI/UX)機能として特徴付けることができる。ポインティング制御機能は、制御するための1つ又は複数のマニピュレータの小さなセットまでユーザが絞り込むことを可能にするマウスポインタ等の従来のポインティング装置と類比で説明することができる。アクション制御機能は、ユーザがアクションを実施してUI/UXの変更、ひいては接続されたマシンの変更を生じさせることを可能にする、アクション(例えば選択、選択解除等)、例えばマウスのクリック又はキーボード上のキーストロークを仲介する装置と類比で説明することができる。BCIシステムにおけるUI/UX機能は、選択メニュー、ナビゲーション制御等を提供するような他の機能に加えて、ポインティング制御機能及びアクション制御機能を実装する環境を作成し維持するオペレーティングシステムと類比で説明することができる。
[0040] 一部の実施形態では、アイトラッカ102は、2次元空間又は3次元空間内のユーザの眼球運動を素早くたどることにより、ユーザが自らの視野内のどこを見ているのかを決定するために使用することができる。例えばユーザが自らの眼球運動の随意調節を有するという条件で、ビデオベースアイトレーサ102を使用して、ユーザの目のそれぞれがユーザの視野内のどの部分空間を「指しているのか」を決定することができる。換言すれば、アイトラッカ102は、ポインティング制御機能としてユーザの眼球運動の軌跡を使用することができ、被験者の意図及び挙動に関する重要な情報を明らかにする。一部の実施形態では、ユーザが視覚空間内のどこに注目しているのか、どの刺激に注目しているのか、又はどの刺激に反応したのかの側面がBCIシステム100内で効果的に使用され得る。互いに対する両方の目の動き軌道を同時に追跡することにより、アイトラッカ102はユーザの注目の奥行をレジスタし、従って3次元空間内のポインティング制御を可能にすることもできる。
[0044] BCIシステム100の目的は、例えばユーザが意図するアクションを予測すること及び/又はユーザの活動に関連する信号を解釈してユーザが意図するアクションを決定すること等、脳活動をモニタすることでユーザの意図を明らかにすることにより、関連するUI/UX、及び/又は接続された外部装置、及び/又はマシンを能動的に制御することである。この目的の要は、脳信号をアクション制御機能にする、ユーザの意図を示し得る脳信号である。BCIシステム100は、ユーザによって行われる認知的作業によって同時に誘発され又はかかる認知的作業に関係する幾つかのシグネチャ脳信号のうちの1つ又は複数を使用することができる。これらの脳信号の一部は、人がそれらを自在に変調できるようになり得るやり方で復号することができる。制御信号と見なされるこれらの信号を使用することは、BCIシステム100がユーザの意図を解釈することを可能にし得る。
[0050] 本明細書で説明するように、BCIシステム100内のUI/UXは、ユーザ(例えばユーザの脳、目、筋肉/運動神経等)とBCI装置110との間の通信のリンクとして機能し、ユーザがポインティング制御機能によって特定の刺激に注目しそれを指さし、アクション制御機能を使用して特定の刺激を選択し又は選択解除することを可能にする。本明細書で述べるように、UI/UXは制御インタフェースの一例であり得る。UI/UXは、ディスプレイによって提示される一連の視覚的に刺激のある2次元画像を含むことができる。UI/UXは、ユーザにとって最も直感的でありユーザの意図を識別することをより容易且つ明白にするやり方で提示されるようにBCI装置110によって設計され操作され得る。UI/UXは、ユーザの注目を集めるように設計される、及び/又はユーザ制御の方法の可用性に関する情報を含むUI/UXに関する情報を伝えるように設計される1つ又は複数の刺激を提示することができる。刺激は任意の適切なやり方で提示することができる。例えば、UI/UXは刺激として「タグ」(例えば制御項目)を提示するように設計することができる。それぞれの刺激は1つ又は複数のタグを含み得る。例えばタグは、ユーザの注目を集めるために且つUI/UXを制御するその可用性を示すために特定のやり方で外観を変える視覚的アイコンとすることができる。例えば、1つ又は複数のタグのグループを特定のやり方で点滅させ又はその外観を変えさせることができる。タグ又は制御項目はアクションに関連することができる。例えば、本明細書では「タグ点滅」とも呼ぶタグの外観の一過性の変化は、1つ又は複数の特定のアクションを行うためにそれらのタグが使用可能であることを示すことができる。一度に2つ以上のタグを点滅させることができ、タグのグループ分け(「タググループ」とも呼ぶ)は任意の特定のやり方で行われる(例えばタグの行、列、疑似ランダムグループ分け等)。タグ点滅の後、ユーザがタグ点滅の位置までfoveateしたことを示す信号をアイトラッカ102が捕捉することができ、及び/又はシグネチャ脳活動の発生を示す信号を神経記録ヘッドセット104が捕捉することができる。BCI装置110は、本明細書で更に詳細に説明するように、これらの信号を分析しユーザの意図を明らかにすることができる。この決定に基づき、UI/UXはタグ点滅に関連する1つ又は複数の特定のアクションを実施することができる。
[0054] 一部の実施形態では、BCIシステム100が、幾つかの周辺センサ108(図1の破線の四角形によって示す任意選択的なユニットとして示す)及び周辺アクチュエータ(図1には不図示)を含むことができる。1つ又は複数の周辺アクチュエータは豊かで多様なユーザエクスペリエンスを提供するように構成することができ、1つ又は複数の周辺センサ108はユーザ及びユーザの環境のそれぞれから多様な入力を捕捉するように構成することができる。これらの周辺アクチュエータ112及びセンサ108は個々に又は(アイトラッカ102のように)他の装置に組み込んで適切に搭載することができる。例えばBCIシステム100は、聴覚刺激を中継するためのイヤフォン及びユーザの音声コマンド等の音を捕捉するためのマイクロフォンを含むことができる。イヤフォン(聴覚アクチュエータ又は聴覚出力装置)及びマイクロフォン(聴覚センサ又は聴覚入力装置)は、ハイブリッドシステム100に有線チャネル又は無線チャネルによって接続される独立型装置とすることができる。或いはイヤフォン及びマイクロフォンは、アイトラッカ102又は神経記録ヘッドセット104に搭載し、統合することができる。同様に、体の動きのレジスタするために、加速度計、角度計、捻転計、赤外線カメラ等の光センサ、奥行センサ、マイクロフォン等の周辺センサをBCIシステム100に含める及び/又は結合することができる。例えば、角度計を使用することができるジェスチャを形成する手足の動きをレジスタする、加速度計は体の動きをレジスタするために使用することができる。周辺センサは、ユーザの現実世界の視野を捕捉するように構成される視野カメラも含むことができる。視野カメラによって取得される信号は分析し、選択可能な選択肢等を用いてUI/UXによってスーパーインポーズされる現実世界の画像を有する拡張現実エクスペリエンス又は複合現実エクスペリエンスを生成しユーザに提示するために使用することができる。BCIシステム100に接続可能な周辺アクチュエータは、提供されるユーザエクスペリエンスを豊かにする接触及び振動等の力を加え作り出すことができる触覚装置又は運動感覚装置を含むことができる。
[0055] 一部の実施形態では、脳−コンピュータインタフェース装置(即ちBCI装置)110がとりわけ3つの主要な機能を達成するように構成され得る。第1に、BCI装置110は、本明細書に記載したように戦略的に設計されたUI/UXを生成するように構成することができる。例えば、戦略的に設計されたユーザエクスペリエンスは訓練セッション用又は試験セッション用であり得る。一部の実施形態では、ユーザエクスペリエンスは仮想現実環境及び/又は拡張現実環境として設計され得る。一部の実施形態では、UI/UXは例えば特定のユーザの履歴、反応時間、ユーザ選択等の特定のニーズに合わせて調整することができる。BCI装置110はUI/UXを生成し更新する際にこれらの全ての要件を考慮することができる。第2に、UI/UXの設計及び生成に加えて、BCI装置110は(例えばアイトラッカ102から)ポインティング制御信号及び(例えば神経記録ヘッドセット104から)アクション制御信号(及び該当する場合は周辺センサ108から周辺信号)を受信し、それらの信号を個々に又はアンサンブルとして処理してユーザの意図を明らかにするように構成することができる。BCI装置110は分析に適した任意の方法を実行することができる。例えばBCI装置110は、信号から有意味の特徴を検出し、統計モデルを構築し適用して信号を解釈し、信号を分類し、信号及び信号を誘発する刺激を採点し、任意の所与のタグ又は刺激がユーザの意図する点(例えば標的タグ又は標的刺激)である確率を計算し、標的タグ又は標的刺激及びユーザが望む関連するアクションを決定すること等ができる。第3にBCI装置110は、ユーザの意図に応じて指示されている標的タグ又は標的刺激の変更を実施することにより、ポインティング制御機能及びアクション制御機能を実装するように構成することができる。
[0061] 図2は、入力記号の一例にユーザが注目しその選択を制御する具体例の一例に関する(上記のシステム100と同様の)BCIシステムの機能を示す。図2の説明のための一連の操作上の事象の例は、刺激(例えば1組のアクションに関連する1組のタグを含む刺激)を提示すること、結果として生じる神経活動信号及び動眼信号、及び/又は該当する場合は周辺信号を取得すること、取得した信号を分析し、それらの信号を解釈してユーザの意図を推論し又は復号すること、及び(例えばアクションの1つ又は複数に関連するタグの1つ又は複数を選択することによって)UI/UXの変更を生じさせることを含む。UI/UXを変更するために実施される1つ又は複数のアクションは、ひいてはUI/UXによって接続される1つ又は複数の外部マシンを制御することもできる。
[0068] 図3A〜図3Gは、上記で開示したBCIシステム100と構造及び又は機能の点で同じ又は同様であり得る、BCIシステム300とのユーザ対話の一例及びBCIシステム300内の基礎を成す処理の一部を示す。例えば、BCIシステム300はアイトラッカ302、神経記録ヘッドセット304、BCI装置(不図示)、及びディスプレイ306を含み得る。図示の例では、ユーザが単語及び/又は文をスペルするのを助けるために、BCIシステム300がポインティング制御を実施する動眼信号並びにアクション制御を実施する神経信号の両方を使用することができる。例えばBCIシステム300は、2ステッププロセスで単語をスペルするために使用されるUI/UX371、及びUI/UX371を提示するディスプレイ306を含むことができる。図3A〜図3Cに示すように、UI/UX371はタググループ点滅379(例えばキーボード上でよく見られる文字、数字、及び記号)形式の刺激を提示することができる。
[0072] 図2に示すプロセスシーケンス、並びに図3に示すポインティング制御及びアクション制御の実装例は個々の刺激について例示され得るが、UI/UX又はユーザエクスペリエンスによって仮想的な又は拡張された多様な環境を提示する間、一連の同様のステップを有する同様のプロセスをたどることができる。プロセス400の一例を図4に示す。図4に示すように、プロセス400は、訓練セッションを形成する一連のサブステップ(破線の四角形によって任意選択的として示す)を含むことができ、又は如何なる訓練データもなしに新たな刺激を提示するために使用することができる。
[0076] 本明細書に記載の通り、BCIシステム100、300は動眼活動信号及び神経活動信号(及び他の周辺信号)をアンサンブルとして組み合わせて又は個々に処理して、高速度及び高精度でユーザの意図を明らかにしユーザの意図に作用することができる。プロセス200又はプロセス400等の1つ又は複数のプロセスを使用して適切な刺激を提示し、ユーザの意図を明らかにすることができる。以下で説明するように、BCIシステムは信号を分析しユーザの意図を明らかにするのに適した分析パイプラインを採用することができる。
[0079] 動眼信号、神経信号、又は他の周辺信号(例えばジェスチャ、体位、音声コマンド等)を含む、刺激の提示中に及び提示後に取得される信号は情報が豊富であり得る。しかし、分析手続きは、関連するエポック及び/又は特徴を信号から抽出して標的タグを分析し決定することができる。例えばBCIシステムは、単語をスペルする際に使用するための図5Aに示すUI/UX571を含むことができる。ユーザが単語をスペルするためにIの文字を使用したい可能性がある例では、図5A〜図5Bに示すようにIの文字が標的タグ585になる。図5Aに示す例では、刺激又はタグ点滅の一例が可視タグ又は文字の行又は列であり得る。例えばタグ点滅579Aの一例は、タグG〜Lの行を含む強調表示されたタググループ形式で刺激を提示する。タグ点滅579Bの別の例(現在は提示されていない、例えば文字が強調表示されていない)はタグA、G、M、S、Y、及び5を含むことができる。タグ点滅は行、列、又は外観の特定の変更によって(例えば強調表示、拡大、太文字化等によって)一緒に提示される任意選択されたタググループであり得る。
[0082] BCIシステム100、300の一部の実施形態では、又はBCIシステムを実装するためのプロセス200又は400の一部の実施形態では、ユーザの意図に関する情報を集めるために刺激の提示後に取得される信号が完全に使用され得る。BCIシステム100、300の他の一部の実施形態では、又はBCIシステムを実装するためのプロセス200又は400の一部の実施形態では、取得済みの信号によって提供される情報を最適に使用するために1つ又は複数の次元縮退法を使用することができる。例えばユーザの意図を明らかにするために使用される分析手続きは、上記で開示したように取得済みの信号から特徴を検出し及び/又は抽出する1つ又は複数のステップを含み得る。信号の特徴は、信号を表す幾つかのパラメータを含むことができる。一部の条件の例では、特徴は信号の成分(例えば主成分又は独立成分)又は他の同様の次元縮退法を使用して得られる値又はベクトルを含むこともできる。特徴の一部の例は、ピーク振幅、持続時間、周波数帯域幅、基準線からの平均偏差等を含むこともできる。特徴の1つ又は複数は他の特定のパラメータに固有であり得る。例えば特徴は、刺激提示後200ms〜500msにおけるピーク振幅、又は特定の周波数範囲内の周波数応答のピーク振幅等を含み得る。
[0084] 上記で説明したように、BCIシステムの目的の1つは1組の選択肢を刺激として提示し、特定のアクションを仲介し得る或る特定の刺激を選択するユーザの意図を脳活動の神経信号から復号することである。1組の刺激は1組の可視タグとすることができ、そのうちのユーザにとって関心のある或る特定のタグを標的タグとすることができる。従って別の言い方をすれば、BCIシステムの目的は利用可能な1組の可視タグから標的タグの同一性を特定の精度及び信頼度で識別することであり得る。標的タグを識別するプロセスは、特定のタグが提示される事前尤度、特定のタグがシグネチャ脳活動反応を誘発し得る尤度等の幾つかの情報源を組み込むことができる。
[0087] システム100、300等のBCIシステムのUI/UXにより、ユーザに刺激又はタグの一連又は組み合わせを提示することができる。タグは、マシン、装置、及び/又はインタフェースの制御をユーザに与える1つ又は複数のアクションにそれぞれ関連し得る。任意の所与のステップにおいて、タグの1つ(又は複数)が、選択時にユーザが望むアクションをもたらすことができる標的タグであり得る。上記で説明したように、目的は提示されるタグ又はタググループの組み合わせの中の標的タグを神経信号(及び動眼信号又は周辺信号等の他の関連信号)から識別することである。
[0096] 上記で説明したように、一部の実施形態ではスコアテーブルを生成するために2つ以上の分析方法を使用することができ、その方法は1つ又は複数の性能パラメータに基づいて評価される。例えば、神経活動信号は幾つかの分類器によって処理することができ、各分類器は他の分類器に対して評価される。次いで分類器のアンサンブルを一緒に使用して、スコアテーブル内に供給される複合分類スコアを形成することができる。スコアテーブルは、他の様々な情報源(例えば刺激情報、動眼信号等の他の信号源からの情報等)を用いて更新することができる。図9は、様々な特徴ベクトル及び分類方式を使用する3つ以上の異なる分類器を使用する方法の一例を示す。図9のプロットの一例に示すように、分類器のそれぞれからのラベル付けを評価する。最も優れたN個の分類器を選択し(Nは所定数又はユーザの自由裁量等である)、アンサンブル分類器又は「メランジュ」が生成される。メランジュを使用して神経信号を分析することにより、複合スコアテーブルが生成される。この複合スコアテーブルは、他の情報源(例えば刺激情報、眼球運動情報等)を用いて更新することができる。例えば複合スコアテーブルは距離テーブルによって更新されるように供給することができ、距離テーブルは、以下でより詳細に説明する他の近くのタグに対して誘発される反応に対するタグの近接度に基づく効果を組み込む。
[0099] BCIシステム100、300、及び/又はBCIシステムを実装するプロセス200、400、及び/又は700の一部の実施形態では、刺激がどのように提示されたのかに関して入手可能な情報を使用して標的タグの識別精度を改善することができる。例えばプロセス700に関して上記で説明した神経信号から計算される尤度及び信頼スコアと共に、UI/UXによって提示される刺激又はタグ点滅の空間的配置、タグ点滅の時間順序又は時系列、タググループ内のタグのグループ分け、タグ点滅に関連する突出度等を使用することができる。
[0110] BCIシステム(例えばシステム100、300)の一部の実施形態では、又はBCIシステムを実装するためのプロセス(例えばプロセス200、400、700、1100、及び/又は1400)は、1つ又は複数のアイトラッカから入手可能な眼球運動情報を組み込むように構成され得る。つまり、スコアテーブルを更新して利用可能な1組のタグから標的タグを識別するために、1つ又は複数の動眼信号に由来する情報を使用することができる。
[0116] BCIシステム(例えばシステム100、300)の一部の実施形態では、又はBCIシステムを実装するためのプロセス(例えばプロセス200、400、700、1100、1400、及び/又は1600)は、生体(又は非生体)データを取得する任意の数のセンサから入手可能な情報を組み込むように構成することができる。例えば、複合スコアテーブルを更新して利用可能な1組のタグから標的タグを識別するために、1つ又は複数の生理学的信号、又は挙動信号、又は外部信号(摂動又はユーザが現在置かれている環境内の事象等を示す)の情報を使用することができる。
[0118] 図17は、標的タグを識別するのを助けるための幾つかの情報源を組み込む、マスタスコアテーブルを生成する方法1700の一例を示す。例えば図17に示すように、スコアセットを生成するために幾つかの情報源をそれぞれ使用することができ、標的タグの識別を更新するために様々なスコアセットを適切に組み合わせることができる。
[0122] 要約すると、ユーザによってリアルタイムで操作可能な統合型脳コンピュータインタフェースの実装に使用するためのシステム及び方法を本明細書に記載した。開示したシステムは、ポインティング制御機能を実装するための眼球運動追跡システム、及びアクション制御機能を実装するための脳活動追跡システムを含む。高速且つ正確な操作を可能にするように戦略的に設計されるUI/UXの提示により、両方の機能が実装される。加えて、開示したシステム及び方法は、任意の適切なプラットフォーム上にリアルタイムBCIを実装して仮想環境、拡張環境、又は実環境のユーザ操作を仲介するために、ハードウェアに依存しないように構成される。図11は本発明のBCIシステム及び方法の使用空間の説明図を示す。
Claims (22)
- ユーザに制御インタフェースを提示するように構成されるディスプレイであって、前記制御インタフェースはアクションにそれぞれ関連する複数の制御項目を含む、ディスプレイと、
前記ユーザに関連する神経信号を記録するように構成される神経記録装置と、
前記ディスプレイ及び前記神経記録装置に動作可能に結合されるインタフェース装置であって、
メモリ、並びに
前記メモリに動作可能に結合され、
前記制御インタフェースによって1組の刺激を個々に提示することであって、前記1組の刺激の各刺激は前記複数の制御項目の1組の制御項目を含む、提示すること、
前記1組の刺激の各刺激を提示した後、その刺激に関連する1組の神経信号を前記神経記録装置から受信すること、
前記1組の刺激の各刺激の前記1組の神経信号に基づいて前記複数の制御項目の各制御項目に関連するスコアを決定すること、
前記複数の制御項目の各制御項目に関連する前記スコアに基づいて前記ユーザの注目箇所を決定することであって、前記注目箇所は前記複数の制御項目の少なくとも1つの制御項目に関連する、決定すること、及び
前記注目箇所に基づいて前記ユーザが意図するアクションを決定すること
を行うように構成されるプロセッサ
を含む、インタフェース装置と
を含む、機器。 - 前記神経信号が、事象関連電位(ERP)、運動心像信号、定常状態視覚誘発電位(SSVEP)、一過性視覚誘発電位(TVEP)、脳状態コマンド、視覚誘発電位(VEP)、P300誘発電位、感覚誘発電位、運動誘発電位等の誘発電位、ミュー律動又はベータ律動等の感覚運動律動、事象関連脱同期(ERD)、事象関連同期(ERS)、緩徐脳電位(SCP)、又は脳状態依存信号の少なくとも1つを含む脳波記録(EEG)信号を含み、
前記プロセッサが、前記1組の刺激の各刺激の前記1組の神経信号を処理して前記EEG信号から1組の特徴に関連する情報を抽出するように更に構成され、
前記プロセッサが、前記1組の特徴に関連する前記情報を使用して、前記複数の制御項目の各制御項目に関連する前記スコアを決定するように構成される、
請求項1に記載の機器。 - 前記1組の特徴が、前記神経信号に含まれる反応の振幅、前記反応の持続時間、前記反応の形状、前記1組の刺激からの刺激を前記提示することに対する前記反応のタイミング、又は前記神経信号に関連する周波数の少なくとも1つを含む、請求項2に記載の機器。
- 前記ユーザに関連する眼球運動信号を記録するように構成される視標追跡装置を更に含み、
前記プロセッサが、前記1組の刺激の各刺激を提示した後、その刺激に関連する1組の眼球運動信号を前記視標追跡装置から受信するように更に構成され、
前記プロセッサが、前記1組の刺激の各刺激に関連する前記1組の神経信号及び前記1組の眼球運動信号に基づいて前記複数の制御項目の各制御項目に関連する前記スコアを決定するように構成される、
請求項1に記載の機器。 - 前記1組の制御項目の各制御項目が視覚的表現に関連し、
前記プロセッサが、提示される前記1組の刺激の刺激ごとに、その刺激に含まれる前記1組の制御項目の各制御項目に関連する前記視覚的表現の外観を変更することによって前記1組の刺激を個々に提示するように構成される、
請求項1に記載の機器。 - 前記外観を変更することが、前記視覚的表現のサイズ、色、色調、テクスチャ、輪郭、向き、輝度、厚さ、又は移動度の少なくとも1つを変更することを含む、請求項5に記載の機器。
- 前記プロセッサが、前記複数の制御項目の各制御項目の尤度推定を計算することによって前記複数の制御項目の各制御項目に関連する前記スコアを決定するように構成され、前記複数の制御項目の各制御項目の前記尤度推定は、前記制御項目が前記ユーザの前記注目箇所に関連する尤度を示す、請求項1に記載の機器。
- 前記プロセッサは、前記ユーザが意図する前記アクションを実施するように更に構成され、前記アクションは前記複数の制御項目からの制御項目の活性化又は非活性化の少なくとも1つである、請求項1に記載の機器。
- 前記注目箇所が第1の期間中の第1の注目箇所であり、前記アクションが第1のアクションであり、前記プロセッサが、
前記第1の期間の後の第2の期間中に前記ユーザの第2の注目箇所を決定することであって、前記第2の注目箇所は前記複数の制御項目の少なくとも1つの制御項目に関連する、決定すること、
前記ユーザが意図する第2のアクションを前記第2の注目箇所に基づいて決定することであって、前記第2のアクションは前記第1のアクションと異なる、決定すること、及び
前記第1のアクションを実施した後、前記ユーザが意図する前記第2のアクションを実施すること
を行うように更に構成される、請求項8に記載の機器。 - 前記プロセッサが、1組の統計モデルを使用して少なくとも1つの分類方式に従って前記1組の刺激の各刺激に関連する前記1組の神経信号を分類するように更に構成され、
前記プロセッサが、前記1組の刺激の各刺激に関連する前記1組の神経信号の前記分類に基づき、前記複数の制御項目の各制御項目に関連する前記スコアを決定するように構成される、
請求項1に記載の機器。 - プロセッサによって実行される命令を表すコードを記憶する非一時的プロセッサ可読媒体であって、前記命令は、
1組のアクションを実行するためにユーザによって操作されるように構成される制御インタフェースを生成すること、
前記制御インタフェースによって前記ユーザに刺激を提示することであって、前記刺激は1組の制御項目を含み、前記1組の制御項目の各制御項目は前記1組のアクションの少なくとも1つのアクションに関連する、提示すること、
前記ユーザに前記刺激を提示した後、前記ユーザに関連する情報を神経記録装置から受信すること、
前記神経記録装置から受信される前記情報に基づいて前記1組の制御項目の各制御項目に関連するスコアを決定すること、
各制御項目に関連する前記スコアに基づいて前記ユーザの注目箇所を決定する、前記1組の制御項目を形成すること、
前記ユーザの前記注目箇所に関連する前記1組の制御項目から少なくとも1つの制御項目を識別すること
を前記プロセッサに行わせるためのコードを含む、非一時的プロセッサ可読媒体。 - 前記神経記録装置から受信される前記情報が前記ユーザに関連する神経信号を含み、前記神経信号は、事象関連電位(ERP)、運動心像信号、定常状態視覚誘発電位(SSVEP)、一過性視覚誘発電位(TVEP)、脳状態コマンド、視覚誘発電位(VEP)、P300誘発電位、感覚誘発電位、運動誘発電位等の誘発電位、ミュー律動又はベータ律動等の感覚運動律動、事象関連脱同期(ERD)、事象関連同期(ERS)、緩徐脳電位(SCP)、又は脳状態依存信号の少なくとも1つを含む脳波記録(EEG)信号を含み、
前記命令が、前記神経信号を処理して前記EEG信号から1組の特徴に関連する情報を抽出することを前記プロセッサに行わせるためのコードを更に含み、
前記1組の制御項目の各制御項目に関連する前記スコアを前記処理に決定させるための前記コードが、前記1組の特徴に関連する前記情報を使用して前記1組の制御項目の各制御項目に関連する前記スコアを前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記スコアが関連する各制御項目を決定する、前記1組の制御項目を形成することを前記プロセッサに行わせるための前記コードが、
前記1組の制御項目の各制御項目について尤度推定を計算することであって、前記1組の制御項目の各制御項目の前記尤度推定は、その制御項目が前記ユーザの前記注目箇所に関連する尤度を示す、尤度推定を計算すること、及び
前記1組の制御項目の各制御項目について、その制御項目の前記尤度推定に基づいて1組のスコアを決定すること
を前記プロセッサに行わせるためのコードを含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の制御項目の各制御項目の前記1組のスコアに基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記刺激が前記1組の制御項目に関連する1組の視覚的表現を含み、前記1組の視覚的表現の各視覚的表現は前記1組の制御項目の少なくとも1つの制御項目に関連し、前記1組の制御項目の他の各制御項目の前記視覚的表現に対して異なる位置において前記制御インタフェース内で配置されるように構成され、
前記1組の制御項目の各制御項目に関連する前記スコアを前記プロセッサに決定させるための前記コードが、前記1組の視覚的表現の各視覚的表現の前記位置に基づき、前記1組の制御項目に関連する1組の距離スコアを前記プロセッサに計算させるためのコードを含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の距離スコアに少なくとも部分的に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記刺激が前記1組の制御項目に関連する1組の視覚的表現を含み、前記1組の視覚的表現の各視覚的表現は前記1組の制御項目の少なくとも1つの制御項目に関連し、前記1組の制御項目の他の各制御項目の前記視覚的表現が提示されるときと異なる時点において前記制御インタフェース内で提示されるように構成され、
前記1組の制御項目の各制御項目に関連する前記スコアを前記プロセッサに決定させるための前記コードが、前記1組の視覚的表現の各視覚的表現が提示される前記時点に基づき、前記1組の制御項目に関連する1組の時間スコアを前記プロセッサに計算させるためのコードを含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の時間スコアに少なくとも部分的に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記命令が、
前記ユーザの眼球運動信号を示す情報を視標追跡装置から受信すること、及び
前記視標追跡装置から受信される前記情報に基づいて前記1組の制御項目に関連する1組の動眼スコアを決定すること
を前記プロセッサに行わせるためのコードを更に含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の動眼スコアに更に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記刺激が前記1組の制御項目に関連する1組の視覚的表現を含み、前記1組の視覚的表現の各視覚的表現は前記1組の制御項目の少なくとも1つの制御項目に関連し、
前記1組の制御項目の他の各制御項目の前記視覚的表現に対して異なる位置において前記制御インタフェース内で配置されるように、及び
前記1組の制御項目の他の各制御項目の前記視覚的表現が提示されるときと異なる時点において前記制御インタフェース内で提示されるように構成され、
前記1組の制御項目の各制御項目に関連する前記スコアを前記プロセッサに決定させるための前記コードが、
前記1組の視覚的表現の各視覚的表現の前記位置に基づき、前記1組の制御項目に関連する1組の距離スコアを計算すること、
前記1組の視覚的表現の各視覚的表現が提示される前記時点に基づき、前記1組の制御項目に関連する1組の時間スコアを計算すること、及び
視標追跡装置から受信される情報に基づいて前記1組の制御項目に関連する1組の動眼スコアを計算すること
を前記プロセッサに行わせるためのコードを含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の距離スコア、前記1組の時間スコア、及び前記1組の動眼スコアの加重平均に少なくとも部分的に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記1組の制御項目の各制御項目に関連する前記スコアを前記プロセッサに決定させるための前記コードが、
複数の分類器に関連する1組の性能パラメータを評価することに基づいて前記複数の分類器から1組の分類器を選択すること、
前記1組の分類器を使用してアンサンブル分類器を生成すること、及び
1組のスコアを生成するために前記アンサンブル分類器を使用して前記神経記録装置から受信される前記情報を分析すること
を前記プロセッサに行わせるためのコードを含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組のスコアに少なくとも部分的に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 第1の期間において制御インタフェースによってユーザに刺激を提示することであって、前記刺激は1組のアクションに関連する1組の制御項目を含む、提示すること、
前記第1の期間における前記ユーザの挙動に関連する第1の1組の入力を視標追跡装置及び神経記録装置から受信すること、
前記第1の1組の入力及び前記第1の期間において提示される前記刺激に関連する情報に基づいて第1のスコアデータセットを生成すること、
前記第1の期間において前記ユーザが意図したアクションに関連する情報を受信すること、
前記第1のスコアデータセット及び前記第1の期間において前記ユーザが意図する前記アクションに関連する前記情報を使用して1組の分類器を構成することであって、それにより前記1組の分類器が前記第1のスコアデータセットを前記第1の期間において前記ユーザが意図する前記アクションに関連付けることができる、構成すること、
前記第1の期間の後の第2の期間において、前記制御インタフェースによって前記ユーザに前記刺激を提示すること、
前記第2の期間における前記ユーザの挙動に関連する第2の1組の入力を前記視標追跡装置及び前記神経記録装置から受信すること、
前記第2の1組の入力及び前記第2の期間において提示される前記刺激に関連する情報に基づいて第2のスコアデータセットを生成すること、
前記第1のスコアデータセット及び前記第1の期間において前記ユーザが意図する前記アクションに関連する前記情報を使用して構成される前記1組の分類器を使用し、前記第2の期間において前記ユーザが意図するアクションを前記第2のスコアデータセットに基づいて決定すること
を含む、方法。 - 前記1組の分類器を使用して決定される前記アクションの精度を評価することに基づき、前記1組の分類器を修正して修正済みの1組の分類器を生成すること、
前記第1の期間及び前記第2の期間の後の第3の期間において、前記制御インタフェースによって前記ユーザに前記刺激を提示すること、
前記第3の期間における前記ユーザの挙動に関連する第3の1組の入力を前記視標追跡装置及び前記神経記録装置から受信すること、
前記第3の期間において提示される前記刺激に関連する前記第3の1組の入力及び情報に基づいて第3のスコアデータセットを生成すること、及び
前記修正済みの1組の分類器を使用し、前記第3の期間において前記ユーザが意図するアクションを前記第3のスコアデータセットに基づいて決定すること
を更に含む、請求項19に記載の方法。 - 決定される前記アクションの精度を評価することに基づき、前記視標追跡装置又は前記神経記録装置の1つ又は複数から受信される入力に適用される1組の重みを生成すること、
前記第1の期間及び前記第2の期間の後の第3の期間において、前記制御インタフェースによって前記ユーザに前記刺激を提示すること、
前記第3の期間における前記ユーザの挙動に関連する第3の1組の入力を前記視標追跡装置及び前記神経記録装置から受信すること、
前記第3の期間において提示される前記刺激に関連する前記第3の1組の入力及び情報に基づいて第3のスコアデータセットを生成すること、
加重スコアデータセットを生成するにより、前記第3のスコアデータセットに前記1組の重みを適用すること、及び
前記1組の分類器を使用し且つ前記加重スコアデータセットに基づき、前記第3の期間において前記ユーザが意図するアクションを決定すること
を更に含む、請求項19に記載の方法。 - 前記1組の重みは、決定される前記アクションの精度、前記ユーザのエクスペリエンス、及び前記ユーザに関連する履歴情報の少なくとも1つに関連する、請求項21に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024026938A JP2024075573A (ja) | 2018-01-18 | 2024-02-26 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862618846P | 2018-01-18 | 2018-01-18 | |
US62/618,846 | 2018-01-18 | ||
PCT/US2019/014315 WO2019144019A1 (en) | 2018-01-18 | 2019-01-18 | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024026938A Division JP2024075573A (ja) | 2018-01-18 | 2024-02-26 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021511567A true JP2021511567A (ja) | 2021-05-06 |
Family
ID=67301248
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020537522A Pending JP2021511567A (ja) | 2018-01-18 | 2019-01-18 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース |
JP2024026938A Pending JP2024075573A (ja) | 2018-01-18 | 2024-02-26 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024026938A Pending JP2024075573A (ja) | 2018-01-18 | 2024-02-26 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース |
Country Status (6)
Country | Link |
---|---|
US (1) | US12053308B2 (ja) |
EP (1) | EP3740126A4 (ja) |
JP (2) | JP2021511567A (ja) |
KR (1) | KR20200108888A (ja) |
CN (1) | CN111712192B (ja) |
WO (1) | WO2019144019A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102718810B1 (ko) | 2017-08-23 | 2024-10-16 | 뉴레이블 인크. | 고속 눈 추적 피처들을 갖는 뇌-컴퓨터 인터페이스 |
EP3710915A4 (en) | 2017-11-13 | 2021-08-11 | Neurable Inc. | BRAIN-COMPUTER INTERFACE WITH ADAPTATIONS FOR HIGH-SPEED, ACCURATE AND INTUITIVE USER INTERACTIONS |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
US11314329B1 (en) * | 2019-01-28 | 2022-04-26 | Meta Platforms, Inc. | Neural decoding with co-learning for brain computer interfaces |
CN114698389A (zh) * | 2019-07-31 | 2022-07-01 | 耐斯特思维有限公司 | 脑机接口 |
EP4379511A3 (en) * | 2019-11-20 | 2024-07-10 | Nextmind Sas | Brain-computer interface |
US20220409094A1 (en) * | 2019-11-20 | 2022-12-29 | Nextmind Sas | Visual brain-computer interface |
KR20210076451A (ko) * | 2019-12-16 | 2021-06-24 | 현대자동차주식회사 | 사용자 인터페이스 시스템 및 그의 동작 방법 |
US20230359275A1 (en) * | 2019-12-18 | 2023-11-09 | Nextmind Sas | Brain-computer interface |
KR20220140498A (ko) * | 2020-01-03 | 2022-10-18 | 넥스트마인드 에스에이에스 | 휴먼 인터페이스 시스템 |
US11995236B2 (en) | 2020-01-07 | 2024-05-28 | Snap Inc. | Brain-computer interface |
CN112207816B (zh) * | 2020-08-25 | 2022-08-26 | 天津大学 | 基于视图编解码的脑控机械臂系统和控制方法 |
US11461991B2 (en) | 2020-12-30 | 2022-10-04 | Imagine Technologies, Inc. | Method of developing a database of controllable objects in an environment |
CN112817451B (zh) * | 2021-01-28 | 2022-07-08 | 清华大学 | 基于稳态视觉诱发电位的多目标定位方法和装置 |
CN115390655A (zh) * | 2021-05-24 | 2022-11-25 | 华为技术有限公司 | 人机交互方法、人机交互装置及存储介质 |
CN113934300B (zh) * | 2021-10-19 | 2022-08-23 | 北京烽火万家科技有限公司 | 基于脑机接口的设备控制方法、装置、电子设备及介质 |
US11715130B2 (en) * | 2021-12-13 | 2023-08-01 | Fmr Llc | Systems and methods for designing targeted marketing campaigns |
US20230325480A1 (en) * | 2022-03-28 | 2023-10-12 | Lenovo (Singapore) Pte. Ltd | Device and method for accessing electronic device |
GB2618335B (en) * | 2022-05-03 | 2024-07-24 | L Univ Ta Malta | A method of determining a point of regard using electrooculography under non-stationary head pose and position conditions |
CN115358367B (zh) * | 2022-08-09 | 2023-04-18 | 浙江大学 | 一种基于多模型学习集成的动态自适应脑机接口解码方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4465414B2 (ja) * | 2008-07-11 | 2010-05-19 | パナソニック株式会社 | 脳波を用いた機器の制御方法および脳波インタフェースシステム |
JP2010218491A (ja) * | 2009-03-19 | 2010-09-30 | Nomura Research Institute Ltd | コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム |
JPWO2009139119A1 (ja) * | 2008-05-15 | 2011-09-15 | パナソニック株式会社 | 脳波信号の識別方法を調整する装置、方法およびプログラム |
WO2016193979A1 (en) * | 2015-06-03 | 2016-12-08 | Innereye Ltd. | Image classification by brain computer interface |
WO2017046698A1 (en) * | 2015-09-16 | 2017-03-23 | Liquidweb S.R.L. | System for controlling assistive technologies and related method |
Family Cites Families (194)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4013068A (en) | 1974-10-15 | 1977-03-22 | Settle Wayne L | Electroencephalographic activated control system |
US4158196A (en) | 1977-04-11 | 1979-06-12 | Crawford George E Jr | Man-machine interface system |
US4595990A (en) | 1980-12-31 | 1986-06-17 | International Business Machines Corporation | Eye controlled information transfer |
US5137027A (en) | 1987-05-01 | 1992-08-11 | Rosenfeld Joel P | Method for the analysis and utilization of P300 brain waves |
US5269325A (en) | 1989-05-26 | 1993-12-14 | Biomagnetic Technologies, Inc. | Analysis of biological signals using data from arrays of sensors |
US5342410A (en) | 1990-10-05 | 1994-08-30 | Eric Braverman | Apparatus and method for increasing the amplitude of P300 waves in the human brain |
US5213338A (en) | 1991-09-30 | 1993-05-25 | Brotz Gregory R | Brain wave-directed amusement device |
US5339826A (en) | 1991-12-09 | 1994-08-23 | Westinghouse Electric Corp. | Method for training material evaluation with method of EEG spectral estimation |
US5692517A (en) | 1993-01-06 | 1997-12-02 | Junker; Andrew | Brain-body actuated system |
US5363858A (en) | 1993-02-11 | 1994-11-15 | Francis Luca Conte | Method and apparatus for multifaceted electroencephalographic response analysis (MERA) |
US5325862A (en) | 1993-03-26 | 1994-07-05 | The United States Of America As Represented By The Secretary Of The Navy | Method and/or system for personal identification and impairment assessment from brain activity patterns |
JP2899194B2 (ja) | 1993-06-30 | 1999-06-02 | キヤノン株式会社 | 意思伝達支援装置及び意思伝達支援方法 |
US5638826A (en) | 1995-06-01 | 1997-06-17 | Health Research, Inc. | Communication method and system using brain waves for multidimensional control |
US5742286A (en) | 1995-11-20 | 1998-04-21 | International Business Machines Corporation | Graphical user interface system and method for multiple simultaneous targets |
US5899867A (en) | 1996-10-11 | 1999-05-04 | Collura; Thomas F. | System for self-administration of electroencephalographic (EEG) neurofeedback training |
US5931908A (en) | 1996-12-23 | 1999-08-03 | The Walt Disney Corporation | Visual object present within live programming as an actionable event for user selection of alternate programming wherein the actionable event is selected by human operator at a head end for distributed data and programming |
JPH10260773A (ja) | 1997-03-19 | 1998-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法及びその装置 |
JPH1165794A (ja) | 1997-08-25 | 1999-03-09 | Yoshimichi Yonezawa | 誘発脳波を用いた入力装置 |
US5983129A (en) | 1998-02-19 | 1999-11-09 | Cowan; Jonathan D. | Method for determining an individual's intensity of focused attention and integrating same into computer program |
US7084884B1 (en) | 1998-11-03 | 2006-08-01 | Immersion Corporation | Graphical object interactions |
US6090051A (en) | 1999-03-03 | 2000-07-18 | Marshall; Sandra P. | Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity |
GB2348520B (en) | 1999-03-31 | 2003-11-12 | Ibm | Assisting user selection of graphical user interface elements |
US6380937B1 (en) * | 1999-11-03 | 2002-04-30 | International Business Machines Corporation | Method and system for dynamically representing cluster analysis results |
US6626433B2 (en) | 2000-02-22 | 2003-09-30 | Joseph Scibetta | Card game |
US20020065851A1 (en) | 2000-06-02 | 2002-05-30 | Watson Emerson C. | System and method for creating a website |
JP2002236957A (ja) | 2001-02-09 | 2002-08-23 | Victor Co Of Japan Ltd | 電子投票装置、電子投票システム |
AU2002305384B2 (en) | 2001-05-04 | 2006-06-01 | University Of Virginia Patent Foundation | Method, apparatus, and computer program product for assessment of attentional impairments |
JP2003114820A (ja) | 2001-07-31 | 2003-04-18 | Sanyo Electric Co Ltd | 電子アルバム装置 |
JP2003058298A (ja) | 2001-08-20 | 2003-02-28 | Fuji Xerox Co Ltd | 情報分類装置、情報分類方法、情報分類プログラム及びコンピュータ読み取り可能な記録媒体 |
US7209788B2 (en) | 2001-10-29 | 2007-04-24 | Duke University | Closed loop brain machine interface |
US6948153B2 (en) | 2001-11-13 | 2005-09-20 | Prometric | Method and system for computer based testing using an amalgamated resource file |
US6712468B1 (en) | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
US20040076930A1 (en) | 2002-02-22 | 2004-04-22 | Steinberg Linda S. | Partal assessment design system for educational testing |
US20030195798A1 (en) | 2002-04-11 | 2003-10-16 | John Goci | Voter interface for electronic voting system |
WO2003093947A2 (en) | 2002-05-03 | 2003-11-13 | The Trustees Of Columbia University In The City Of New York | Single trial detection in encephalography |
US6917370B2 (en) | 2002-05-13 | 2005-07-12 | Charles Benton | Interacting augmented reality and virtual reality |
US6847844B2 (en) | 2002-06-06 | 2005-01-25 | University Of Pittsburgh Of The Commonwealth System Of Higher Education | Method of data communication with implanted device and associated apparatus |
US20040092809A1 (en) | 2002-07-26 | 2004-05-13 | Neurion Inc. | Methods for measurement and analysis of brain activity |
US20040044295A1 (en) | 2002-08-19 | 2004-03-04 | Orthosoft Inc. | Graphical user interface for computer-assisted surgery |
US7766743B2 (en) | 2002-08-29 | 2010-08-03 | Douglas Schoellkopf Jebb | Methods and apparatus for evaluating a user's affinity for a property |
US7347818B2 (en) | 2003-02-24 | 2008-03-25 | Neurotrax Corporation | Standardized medical cognitive assessment tool |
US8292433B2 (en) * | 2003-03-21 | 2012-10-23 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
US8260428B2 (en) | 2003-05-01 | 2012-09-04 | California Institute Of Technology | Method and system for training a visual prosthesis |
US7546158B2 (en) | 2003-06-05 | 2009-06-09 | The Regents Of The University Of California | Communication methods based on brain computer interfaces |
US20040249302A1 (en) | 2003-06-09 | 2004-12-09 | Cyberkinetics, Inc. | Methods and systems for processing of brain signals |
US20050046698A1 (en) | 2003-09-02 | 2005-03-03 | Knight Andrew Frederick | System and method for producing a selectable view of an object space |
US20050085744A1 (en) | 2003-10-20 | 2005-04-21 | Stmicroelectronics S.R.I. | Man-machine interfaces system and method, for instance applications in the area of rehabilitation |
WO2005051193A1 (en) * | 2003-11-28 | 2005-06-09 | The Australian National University | Assessment of neural function |
US7120486B2 (en) | 2003-12-12 | 2006-10-10 | Washington University | Brain computer interface |
CA2556210A1 (en) | 2004-02-13 | 2005-09-01 | Georgia Tech Research Corporation | Display enhanced testing for concussions and mild traumatic brain injury |
US20050191609A1 (en) | 2004-02-14 | 2005-09-01 | Adaptigroup Llc | Method and system for improving performance on standardized examinations |
US7379562B2 (en) | 2004-03-31 | 2008-05-27 | Microsoft Corporation | Determining connectedness and offset of 3D objects relative to an interactive surface |
US20050222873A1 (en) | 2004-03-31 | 2005-10-06 | Paul Nephin | Systems, methods and user interfaces for management and configuration of medical patient monitoring |
US20090099623A1 (en) | 2004-09-13 | 2009-04-16 | Neuronix Ltd. | Systems and methods for treatment of medical conditions related to the central nervous system and for enhancing cognitive functions |
WO2006051709A1 (ja) | 2004-11-10 | 2006-05-18 | Matsushita Electric Industrial Co., Ltd. | 誤操作検出装置およびこれを有する機器、誤操作検出方法、並びに機器評価方法 |
US7865235B2 (en) | 2005-09-12 | 2011-01-04 | Tan Thi Thai Le | Method and system for detecting and classifying the mental state of a subject |
US20070060830A1 (en) | 2005-09-12 | 2007-03-15 | Le Tan Thi T | Method and system for detecting and classifying facial muscle movements |
EP1924940A2 (en) | 2005-09-12 | 2008-05-28 | Emotiv Systems Pty Ltd. | System and method for interaction with a subject based on detection of mental states |
US7513775B2 (en) | 2005-10-05 | 2009-04-07 | Exam Innovations, Inc. | Presenting answer options to multiple-choice questions during administration of a computerized test |
US20070086773A1 (en) | 2005-10-14 | 2007-04-19 | Fredrik Ramsten | Method for creating and operating a user interface |
WO2007050029A2 (en) | 2005-10-28 | 2007-05-03 | Tobii Technology Ab | Eye tracker with visual feedback |
WO2007070876A2 (en) | 2005-12-15 | 2007-06-21 | Posit Science Corporation | Cognitive training using visual stimuli |
WO2007086222A1 (ja) | 2006-01-24 | 2007-08-02 | Honda Motor Co., Ltd. | 注意領域を推定するシステムおよび方法 |
US7580742B2 (en) | 2006-02-07 | 2009-08-25 | Microsoft Corporation | Using electroencephalograph signals for task classification and activity recognition |
US9101279B2 (en) * | 2006-02-15 | 2015-08-11 | Virtual Video Reality By Ritchey, Llc | Mobile user borne brain activity data and surrounding environment data correlation system |
US8029138B2 (en) | 2006-07-25 | 2011-10-04 | Novavision, Inc. | Dynamic peripheral stimuli for visual field testing and therapy |
JP5249223B2 (ja) | 2006-09-07 | 2013-07-31 | ザ プロクター アンド ギャンブル カンパニー | 感情反応及び選択傾向を測定するための方法 |
CN1927551A (zh) | 2006-09-30 | 2007-03-14 | 电子科技大学 | 一种视导脑声控的残障辅助机器人 |
US20080218472A1 (en) | 2007-03-05 | 2008-09-11 | Emotiv Systems Pty., Ltd. | Interface to convert mental states and facial expressions to application input |
JP5132182B2 (ja) | 2007-04-25 | 2013-01-30 | キヤノン株式会社 | 医療用検査システムおよびその処理方法、プログラム、記憶媒体 |
US20090082692A1 (en) | 2007-09-25 | 2009-03-26 | Hale Kelly S | System And Method For The Real-Time Evaluation Of Time-Locked Physiological Measures |
US7556377B2 (en) | 2007-09-28 | 2009-07-07 | International Business Machines Corporation | System and method of detecting eye fixations using adaptive thresholds |
WO2009057260A1 (ja) | 2007-10-29 | 2009-05-07 | Panasonic Corporation | 脳波インタフェースシステムのための起動装置、方法およびコンピュータプログラム |
WO2009056650A1 (en) | 2007-11-02 | 2009-05-07 | Siegbert Warkentin | System and methods for assessment of the aging brain and its brain disease induced brain dysfunctions by speech analysis |
US9098766B2 (en) | 2007-12-21 | 2015-08-04 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US8244475B2 (en) | 2007-12-27 | 2012-08-14 | Teledyne Scientific & Imaging, Llc | Coupling human neural response with computer pattern analysis for single-event detection of significant brain responses for task-relevant stimuli |
US8265743B2 (en) | 2007-12-27 | 2012-09-11 | Teledyne Scientific & Imaging, Llc | Fixation-locked measurement of brain responses to stimuli |
AU2009204001A1 (en) * | 2008-01-11 | 2009-07-16 | Oregon Health & Science University | Rapid serial presentation communication systems and methods |
JP4399513B2 (ja) | 2008-01-25 | 2010-01-20 | パナソニック株式会社 | 脳波インタフェースシステム、脳波インタフェース装置、方法およびコンピュータプログラム |
CN101502418B (zh) | 2008-02-05 | 2011-05-04 | 周常安 | 耳戴式脑电检测装置 |
WO2009155483A1 (en) | 2008-06-20 | 2009-12-23 | Invensys Systems, Inc. | Systems and methods for immersive interaction with actual and/or simulated facilities for process, environmental and industrial control |
US8515550B2 (en) | 2008-07-11 | 2013-08-20 | Medtronic, Inc. | Assignment of therapy parameter to multiple posture states |
CN101339455B (zh) | 2008-08-07 | 2010-09-29 | 北京师范大学 | 基于人脸识别特异性波n170成分的脑机接口系统 |
US8933957B2 (en) | 2008-08-18 | 2015-01-13 | The Boeing Company | Methods and systems for emphasizing selected aviation chart information |
US20100145215A1 (en) | 2008-12-09 | 2010-06-10 | Neurofocus, Inc. | Brain pattern analyzer using neuro-response data |
US20100223549A1 (en) | 2009-02-27 | 2010-09-02 | Greg Edwards | System and method for controlling entertainment devices using a display |
US8155736B2 (en) | 2009-03-16 | 2012-04-10 | Neurosky, Inc. | EEG control of devices using sensory evoked potentials |
CA2697566A1 (en) | 2009-03-20 | 2010-09-20 | Jon Erik Ween | Cognitive assessment tool and method |
CN101515199B (zh) | 2009-03-24 | 2011-01-05 | 北京理工大学 | 一种基于视线跟踪和p300脑电电位的字符输入装置 |
EP2682053A1 (en) | 2009-06-15 | 2014-01-08 | Brain Computer Interface LLC | A brain-computer interface test battery for the physiological assessment of nervous system health |
US20120296476A1 (en) | 2009-10-30 | 2012-11-22 | Richard John Cale | Environmental control method and system |
AU2009251137B2 (en) | 2009-12-23 | 2013-04-11 | Canon Kabushiki Kaisha | Method for Arranging Images in electronic documents on small devices |
KR20110072730A (ko) | 2009-12-23 | 2011-06-29 | 한국과학기술원 | 적응형 뇌-컴퓨터 인터페이스 장치 |
US8758018B2 (en) | 2009-12-31 | 2014-06-24 | Teledyne Scientific & Imaging, Llc | EEG-based acceleration of second language learning |
US9507418B2 (en) | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
JP4856791B2 (ja) | 2010-02-25 | 2012-01-18 | パナソニック株式会社 | 脳波インタフェースシステム、脳波インタフェース提供装置、脳波インタフェースの実行方法、および、プログラム |
EP2552305B1 (en) * | 2010-03-31 | 2017-05-17 | Agency For Science, Technology And Research | A method and system for motor rehabilitation |
US9361130B2 (en) | 2010-05-03 | 2016-06-07 | Apple Inc. | Systems, methods, and computer program products providing an integrated user interface for reading content |
US9468541B2 (en) | 2010-05-05 | 2016-10-18 | University Of Maryland College Park | Time domain-based methods for noninvasive brain-machine interfaces |
WO2011149558A2 (en) | 2010-05-28 | 2011-12-01 | Abelow Daniel H | Reality alternate |
US20110301486A1 (en) | 2010-06-03 | 2011-12-08 | Cordial Medical Europe | Measurement of auditory evoked responses |
US8750857B2 (en) | 2010-06-04 | 2014-06-10 | Qualcomm Incorporated | Method and apparatus for wireless distributed computing |
US8593375B2 (en) | 2010-07-23 | 2013-11-26 | Gregory A Maltz | Eye gaze user interface and method |
EP2598972A1 (en) | 2010-07-30 | 2013-06-05 | Katholieke Universiteit Leuven | Brain-computer interfaces and use thereof |
US20120034583A1 (en) | 2010-08-04 | 2012-02-09 | Vetprep.Com, Inc. | Veterinary exam preparation on mobile devices |
US8463721B2 (en) * | 2010-08-05 | 2013-06-11 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for recognizing events |
KR101023249B1 (ko) | 2010-08-13 | 2011-03-21 | 동국대학교 산학협력단 | 뇌파를 이용한 인지 훈련 응용 프로그램 생성 장치, 방법 및 그 기록 매체 |
US10043351B2 (en) | 2010-08-23 | 2018-08-07 | Ncr Corporation | Self-service terminal |
JP5544620B2 (ja) | 2010-09-01 | 2014-07-09 | 独立行政法人産業技術総合研究所 | 意思伝達支援装置及び方法 |
AU2011332799A1 (en) | 2010-11-24 | 2013-07-11 | Digital Artefacts, Llc | Systems and methods to assess cognitive function |
CN102098639B (zh) | 2010-12-28 | 2013-09-11 | 中国人民解放军第三军医大学野战外科研究所 | 脑机接口短消息发送控制装置及发送控制方法 |
JPWO2012137801A1 (ja) | 2011-04-07 | 2014-07-28 | Necカシオモバイルコミュニケーションズ株式会社 | 入力装置及び入力方法並びにコンピュータプログラム |
US20120257035A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
EP3462286A1 (en) | 2011-05-06 | 2019-04-03 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
WO2012154938A1 (en) | 2011-05-10 | 2012-11-15 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
JP5816917B2 (ja) | 2011-05-13 | 2015-11-18 | 本田技研工業株式会社 | 脳活動計測装置、脳活動計測方法、及び脳活動推定装置 |
JP5711056B2 (ja) | 2011-06-21 | 2015-04-30 | アイシン精機株式会社 | 脳波インターフェースシステム |
KR101293863B1 (ko) * | 2011-06-29 | 2013-08-16 | 한양대학교 산학협력단 | 안정상태 시각유발전위를 이용한 qwerty 타입의 문자 입력 인터페이스 장치 및 문자 입력 방법 |
US20150038869A1 (en) | 2011-07-16 | 2015-02-05 | Cerora, Inc. | Systems and methods for the physiological assessment of brain health and the remote quality control of eeg systems |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US20150212695A1 (en) | 2011-10-05 | 2015-07-30 | Google Inc. | Suggested action feedback |
US8878785B1 (en) | 2011-10-05 | 2014-11-04 | Google Inc. | Intent determination using geometric shape input |
CA2853709C (en) | 2011-10-27 | 2020-09-01 | Tandemlaunch Technologies Inc. | System and method for calibrating eye gaze data |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
JP5873362B2 (ja) | 2012-03-13 | 2016-03-01 | 日本放送協会 | 視線誤差補正装置、そのプログラム及びその方法 |
FR2989482B1 (fr) | 2012-04-12 | 2022-12-23 | Marc Massonneau | Procede de determination de la direction du regard d'un utilisateur. |
CN103421859B (zh) | 2012-05-14 | 2016-08-31 | 中原工学院 | 用无纺布型填料的液态淋浇发酵塔生产细菌纤维素的方法 |
JP2013244116A (ja) | 2012-05-24 | 2013-12-09 | Panasonic Corp | 注意状態推定装置及び注意状態推定方法 |
US9152226B2 (en) | 2012-06-15 | 2015-10-06 | Qualcomm Incorporated | Input method designed for augmented reality goggles |
US9824604B2 (en) | 2012-09-04 | 2017-11-21 | Conduent Business Services, Llc | Creating assessment model for educational assessment system |
EP3865056A1 (en) | 2012-09-14 | 2021-08-18 | InteraXon Inc. | Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data |
US9176581B2 (en) | 2012-09-28 | 2015-11-03 | Intel Corporation | System and method for inferring user intent based on eye movement during observation of a display screen |
US9743002B2 (en) | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
US10009644B2 (en) | 2012-12-04 | 2018-06-26 | Interaxon Inc | System and method for enhancing content using brain-state data |
US9629976B1 (en) | 2012-12-21 | 2017-04-25 | George Acton | Methods for independent entrainment of visual field zones |
CN103092340B (zh) | 2012-12-26 | 2016-03-02 | 北京大学 | 一种脑-机接口视觉刺激方法及信号识别方法 |
WO2014116826A1 (en) | 2013-01-24 | 2014-07-31 | The Trustees Of Columbia University In The City Of New York | Mobile, neurally-assisted personal assistant |
US10231614B2 (en) | 2014-07-08 | 2019-03-19 | Wesley W. O. Krueger | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
US20140228701A1 (en) | 2013-02-11 | 2014-08-14 | University Of Washington Through Its Center For Commercialization | Brain-Computer Interface Anonymizer |
US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
KR20160005013A (ko) | 2013-03-01 | 2016-01-13 | 토비 에이비 | 지연 워프 시선 상호작용 |
US9301675B2 (en) | 2013-03-15 | 2016-04-05 | Neuro Kinetics, Inc | Method and apparatus for validating testing procedures in objective ophthalmic eye testing for eye evaluation applications requiring subject compliance with eye fixation to a visual target |
WO2014138925A1 (en) | 2013-03-15 | 2014-09-18 | Interaxon Inc. | Wearable computing apparatus and method |
KR102391405B1 (ko) | 2013-03-15 | 2022-04-27 | 퍼셉트 테크놀러지스, 아이엔씨. | 개선된 광학적 및 지각적 디지털 안경류 |
US20160103487A1 (en) | 2013-03-15 | 2016-04-14 | Glen J. Anderson | Brain computer interface (bci) system based on gathered temporal and spatial patterns of biophysical signals |
WO2014172775A1 (en) | 2013-04-22 | 2014-10-30 | Personal Neuro Devices Inc. | Methods and devices for brain activity monitoring supporting mental state development and training |
EP3917167A3 (en) | 2013-06-14 | 2022-03-09 | Oticon A/s | A hearing assistance device with brain computer interface |
US9329682B2 (en) | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
US10558272B2 (en) | 2013-06-20 | 2020-02-11 | Uday Parshionikar | Gesture control via eye tracking, head tracking, facial expressions and other user actions |
US10137363B2 (en) * | 2013-06-20 | 2018-11-27 | Uday Parshionikar | Gesture based user interfaces, apparatuses and control systems |
US9389685B1 (en) | 2013-07-08 | 2016-07-12 | University Of South Florida | Vision based brain-computer interface systems for performing activities of daily living |
US10321055B2 (en) | 2013-09-03 | 2019-06-11 | Seeing Machines Limited | Low power eye tracking system and method |
WO2015044851A2 (en) | 2013-09-25 | 2015-04-02 | Mindmaze Sa | Physiological parameter measurement and feedback system |
CA2963072A1 (en) | 2013-10-29 | 2015-05-07 | Milbat - Giving Quality To Life | Walker-assist device |
KR101554412B1 (ko) | 2014-01-07 | 2015-09-18 | 한국과학기술원 | 시선 추적 및 뇌파 측정을 이용하여 사용자가 주시하는 물체에 대한 사용자의 의도를 추출하는 웨어러블 디바이스 |
KR101579364B1 (ko) | 2014-01-16 | 2015-12-21 | 서울대학교산학협력단 | 뇌파 모니터링 및 뇌 컴퓨터 인터페이스를 위한 뇌전도 전극과 취득 시스템을 내장한 무선 이어훅 이어셋 |
US9552060B2 (en) | 2014-01-28 | 2017-01-24 | Microsoft Technology Licensing, Llc | Radial selection by vestibulo-ocular reflex fixation |
CN103793058B (zh) | 2014-02-13 | 2016-09-28 | 山西大学 | 一种主动式脑机交互系统运动想象任务分类方法及装置 |
CN103955269A (zh) | 2014-04-09 | 2014-07-30 | 天津大学 | 一种基于虚拟现实环境的智能眼镜脑-机接口方法 |
CN107087431B (zh) * | 2014-05-09 | 2021-02-05 | 谷歌有限责任公司 | 用于辨别眼睛信号和连续生物识别的系统和方法 |
EP3149662A4 (en) | 2014-05-30 | 2018-05-23 | The Regents of The University of Michigan | Brain-computer interface for facilitating direct selection of multiple-choice answers and the identification of state changes |
EP3188656B1 (en) * | 2014-09-04 | 2021-12-15 | University Health Network | Method and system for brain activity signal-based treatment and/or control of user devices |
US10120413B2 (en) | 2014-09-11 | 2018-11-06 | Interaxon Inc. | System and method for enhanced training using a virtual reality environment and bio-signal data |
US20170139556A1 (en) | 2014-10-01 | 2017-05-18 | Quantum Interface, Llc | Apparatuses, systems, and methods for vehicle interfaces |
US9946339B2 (en) | 2014-10-08 | 2018-04-17 | Microsoft Technology Licensing, Llc | Gaze tracking through eyewear |
WO2016064314A1 (en) | 2014-10-24 | 2016-04-28 | Telefonaktiebolaget L M Ericsson (Publ) | Customization of help information based on eeg data |
US9936195B2 (en) | 2014-11-06 | 2018-04-03 | Intel Corporation | Calibration for eye tracking systems |
WO2016085212A1 (ko) | 2014-11-24 | 2016-06-02 | 삼성전자 주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
KR102326489B1 (ko) | 2014-11-24 | 2021-11-16 | 삼성전자주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
US20160187976A1 (en) | 2014-12-29 | 2016-06-30 | Immersion Corporation | Systems and methods for generating haptic effects based on eye tracking |
US9632664B2 (en) * | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
JP6295995B2 (ja) | 2015-04-28 | 2018-03-20 | 京セラドキュメントソリューションズ株式会社 | 情報処理装置、画像処理装置へのジョブ指示方法 |
CN104837088A (zh) | 2015-05-29 | 2015-08-12 | 成都腾悦科技有限公司 | 一种基于NFC的脑电α波信号感应蓝牙耳机 |
US20190246982A1 (en) | 2015-08-05 | 2019-08-15 | Emotiv Inc. | Method and system for collecting and processing bioelectrical signals |
JP6865175B2 (ja) | 2015-08-15 | 2021-04-28 | グーグル エルエルシーGoogle LLC | 実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号用のシステムおよび方法 |
US10491711B2 (en) | 2015-09-10 | 2019-11-26 | EEVO, Inc. | Adaptive streaming of virtual reality data |
JP6684559B2 (ja) | 2015-09-16 | 2020-04-22 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
CN108474737B (zh) | 2015-11-04 | 2021-04-06 | 奇跃公司 | 光场显示度量 |
JP6664512B2 (ja) | 2015-12-17 | 2020-03-13 | ルキシド ラブズ インコーポレイテッド | アイブレインインターフェースシステムのキャリブレーション方法、及びシステム内のスレーブデバイス、ホストデバイス |
KR101723841B1 (ko) | 2015-12-17 | 2017-04-18 | 주식회사 룩시드랩스 | 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법 |
AU2017248363A1 (en) * | 2016-04-08 | 2018-11-22 | Vizzario, Inc. | Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance |
US10522106B2 (en) | 2016-05-05 | 2019-12-31 | Ostendo Technologies, Inc. | Methods and apparatus for active transparency modulation |
US20170322679A1 (en) * | 2016-05-09 | 2017-11-09 | John C. Gordon | Modifying a User Interface Based Upon a User's Brain Activity and Gaze |
US20180039329A1 (en) * | 2016-08-04 | 2018-02-08 | David M. Tumey | Brain actuated control utilizing visually evoked potentials |
JP6813670B2 (ja) | 2016-09-30 | 2021-01-13 | 株式会社ソニー・インタラクティブエンタテインメント | 異なるレンダリング及び音像定位を使用する無線ヘッドマウントディスプレイ |
RU2627075C1 (ru) | 2016-10-28 | 2017-08-03 | Ассоциация "Некоммерческое партнерство "Центр развития делового и культурного сотрудничества "Эксперт" | Нейрокомпьютерная система для выбора команд на основе регистрации мозговой активности |
US20210113129A1 (en) | 2016-12-01 | 2021-04-22 | Sin-Ger Huang | A system for determining emotional or psychological states |
WO2018127782A1 (en) | 2017-01-03 | 2018-07-12 | Xing Zhou | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command |
US20210141453A1 (en) | 2017-02-23 | 2021-05-13 | Charles Robert Miller, III | Wearable user mental and contextual sensing device and system |
KR102718810B1 (ko) | 2017-08-23 | 2024-10-16 | 뉴레이블 인크. | 고속 눈 추적 피처들을 갖는 뇌-컴퓨터 인터페이스 |
CN107346179A (zh) * | 2017-09-11 | 2017-11-14 | 中国人民解放军国防科技大学 | 基于诱发式脑机接口的多移动目标选择方法 |
EP3710915A4 (en) | 2017-11-13 | 2021-08-11 | Neurable Inc. | BRAIN-COMPUTER INTERFACE WITH ADAPTATIONS FOR HIGH-SPEED, ACCURATE AND INTUITIVE USER INTERACTIONS |
US20190286234A1 (en) | 2018-03-19 | 2019-09-19 | MindMaze Holdiing SA | System and method for synchronized neural marketing in a virtual environment |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
-
2019
- 2019-01-18 KR KR1020207023722A patent/KR20200108888A/ko not_active Application Discontinuation
- 2019-01-18 EP EP19741853.6A patent/EP3740126A4/en active Pending
- 2019-01-18 WO PCT/US2019/014315 patent/WO2019144019A1/en unknown
- 2019-01-18 CN CN201980013115.5A patent/CN111712192B/zh active Active
- 2019-01-18 JP JP2020537522A patent/JP2021511567A/ja active Pending
-
2020
- 2020-07-10 US US16/926,331 patent/US12053308B2/en active Active
-
2024
- 2024-02-26 JP JP2024026938A patent/JP2024075573A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2009139119A1 (ja) * | 2008-05-15 | 2011-09-15 | パナソニック株式会社 | 脳波信号の識別方法を調整する装置、方法およびプログラム |
JP4465414B2 (ja) * | 2008-07-11 | 2010-05-19 | パナソニック株式会社 | 脳波を用いた機器の制御方法および脳波インタフェースシステム |
JP2010218491A (ja) * | 2009-03-19 | 2010-09-30 | Nomura Research Institute Ltd | コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム |
WO2016193979A1 (en) * | 2015-06-03 | 2016-12-08 | Innereye Ltd. | Image classification by brain computer interface |
WO2017046698A1 (en) * | 2015-09-16 | 2017-03-23 | Liquidweb S.R.L. | System for controlling assistive technologies and related method |
JP2018529171A (ja) * | 2015-09-16 | 2018-10-04 | リキッドウェブ・ソチエタ・ア・レスポンサビリタ・リミタータLIQUIDWEB S.r.l. | 支援技術を制御するためのシステムおよびその方法 |
Non-Patent Citations (3)
Title |
---|
JIANG 他: "Hybrid Brain-Computer Interface(BCI) based on the EEG and EOG signals", BIO-MEDICAL MATERIALS AND ENGINEERING, vol. 24, no. 6, JPN6023003032, 2014, pages 2919 - 2925, ISSN: 0004974624 * |
坂井 優亮 他: "P300型BCIのための注視位置と事象関連電位に関する一考察", 電子情報通信学会技術研究報告 MBE2012−30−MBE2012−35 MEとバイオサイバネティッ, vol. 第112巻,第220号, JPN6023003035, 20 September 2012 (2012-09-20), JP, pages 1 - 4, ISSN: 0004974623 * |
西納 修一 他: "文字入力型BCIの日本語の特徴を用いた高速化に関する基礎的検討", 電子情報通信学会技術研究報告 AI2016−1−AI2016−11 人工知能と知識処理, vol. 第116巻,第117号, JPN6023003034, 20 June 2016 (2016-06-20), JP, pages 47 - 50, ISSN: 0004974622 * |
Also Published As
Publication number | Publication date |
---|---|
CN111712192B (zh) | 2024-07-02 |
KR20200108888A (ko) | 2020-09-21 |
WO2019144019A1 (en) | 2019-07-25 |
EP3740126A1 (en) | 2020-11-25 |
JP2024075573A (ja) | 2024-06-04 |
US12053308B2 (en) | 2024-08-06 |
US20200337653A1 (en) | 2020-10-29 |
CN111712192A (zh) | 2020-09-25 |
EP3740126A4 (en) | 2022-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12053308B2 (en) | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions | |
US12001602B2 (en) | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions | |
US11972049B2 (en) | Brain-computer interface with high-speed eye tracking features | |
US11366517B2 (en) | Human-computer interface using high-speed and accurate tracking of user interactions | |
Krepki et al. | Berlin brain–computer interface—The HCI communication channel for discovery | |
JP2024012497A (ja) | コミュニケーション方法及びシステム | |
Barbel | NeuroGaze in Virtual Reality: Assessing an EEG and Eye Tracking Interface against Traditional Virtual Reality Input Devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230126 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230726 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240226 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240412 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20240502 |