JP7549588B2 - 盲人及び視覚障害者用の立体音響装置 - Google Patents
盲人及び視覚障害者用の立体音響装置 Download PDFInfo
- Publication number
- JP7549588B2 JP7549588B2 JP2021547324A JP2021547324A JP7549588B2 JP 7549588 B2 JP7549588 B2 JP 7549588B2 JP 2021547324 A JP2021547324 A JP 2021547324A JP 2021547324 A JP2021547324 A JP 2021547324A JP 7549588 B2 JP7549588 B2 JP 7549588B2
- Authority
- JP
- Japan
- Prior art keywords
- scenario
- user
- data
- sound
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001771 impaired effect Effects 0.000 title claims description 89
- 238000000034 method Methods 0.000 claims description 102
- 238000013473 artificial intelligence Methods 0.000 claims description 69
- 238000012545 processing Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 23
- 238000004891 communication Methods 0.000 claims description 13
- 230000007613 environmental effect Effects 0.000 claims description 13
- 210000005069 ears Anatomy 0.000 claims description 10
- 238000012015 optical character recognition Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 10
- 238000013500 data storage Methods 0.000 claims description 8
- 230000000737 periodic effect Effects 0.000 claims description 7
- 230000003213 activating effect Effects 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims description 4
- 230000001815 facial effect Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims 1
- 230000002093 peripheral effect Effects 0.000 description 22
- 241000288673 Chiroptera Species 0.000 description 17
- 238000007726 management method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000007340 echolocation Effects 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 12
- 239000004615 ingredient Substances 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000005259 measurement Methods 0.000 description 11
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 241000282412 Homo Species 0.000 description 6
- 238000010411 cooking Methods 0.000 description 6
- 235000013547 stew Nutrition 0.000 description 6
- 230000009182 swimming Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000002592 echocardiography Methods 0.000 description 3
- 235000013305 food Nutrition 0.000 description 3
- 230000008676 import Effects 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000253999 Phasmatodea Species 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 208000029257 vision disease Diseases 0.000 description 2
- 230000004393 visual impairment Effects 0.000 description 2
- 201000004569 Blindness Diseases 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000255925 Diptera Species 0.000 description 1
- 230000005355 Hall effect Effects 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000124008 Mammalia Species 0.000 description 1
- 206010071232 Protuberant ear Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 210000004958 brain cell Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000003027 ear inner Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005182 global health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 210000003370 receptor cell Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/006—Teaching or communicating with blind persons using audible presentation of the information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1041—Mechanical or electronic switches, or control elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/033—Headphones for stereophonic communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/007—Two-channel systems in which the audio signals are in digital form
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2205/00—Details of stereophonic arrangements covered by H04R5/00 but not provided for in any of its subgroups
- H04R2205/041—Adaptation of stereophonic signal reproduction for the hearing impaired
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2460/00—Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
- H04R2460/07—Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Vascular Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
Description
視覚障害のあるユーザの環境に関するシナリオベースの情報を処理するためのシステムであって、
a.情報を収集し、上記情報に関連する環境データをプロセッサに転送するように構成された複数のセンサと、
b.上記環境データを受信し、サウンド・データを出力するように適合されたプロセッサと、
c.視覚障害のあるユーザに関連付けられたポータブル通信デバイスであって、上記環境データに関連付けられた上記プロセッサからの上記サウンド・データを受信するように適合され、サウンド・データを視覚障害のあるユーザのために脳で解釈可能な音に変換するように適合されて、ユーザが上記環境をリアルタイムで理解できるようにする、ポータブル通信デバイスと、
を備えるシステム。
上記ポータブル通信デバイスが、上記ユーザの近傍にある物体からの距離及び方向を表すためにシナリオベースの立体音響サウンドを出力し、それによってユーザが環境内を移動することを可能にする、実施例1に記載のシステム。
上記立体音響サウンドが、上記ユーザの右耳と左耳との間の音の遅延に基づいて、物体からの距離及び方向に関する情報を上記ユーザに提供する、実施例2に記載のシステム。
上記デバイスが、上記距離に応答して、上記立体音響サウンドの音量を調整するように構成される、実施例2に記載のシステム。
視覚障害者の環境に関するシナリオベースの情報を処理するための方法であって、
a.ユーザ・デバイスのセンサから情報及び環境データを収集するステップであって、上記データが、ユーザの近傍にある物体に関連付けられる、ステップと、
b.シナリオベースのアルゴリズム及びデータを使用して上記情報を処理して、関連のサウンド・データを出力するステップと、
c.上記環境データに関連する上記サウンド・データを、視覚障害のあるユーザのためのシナリオベースの脳で解釈可能な音に変換して、ユーザが上記環境をリアルタイムで理解できるようにするステップと、
を含む方法。
上記変換ステップが、上記ユーザの近傍にある物体からの距離及び方向を表すために立体音響サウンドを出力し、それによってユーザが環境内を移動することを可能にする、実施例5に記載の方法。
上記立体音響サウンドが、上記ユーザの右耳と左耳との間の音の遅延に基づいて、物体の少なくとも1つからの距離及び方向に関するシナリオベースの情報をユーザに提供する、実施例6に記載の方法。
上記デバイスが、上記距離に応答して、上記シナリオベースの立体音響サウンドの音量を調整するように構成される、実施例7に記載の方法。
上記シナリオベースの立体音響サウンドが、上記ユーザの右耳と左耳との間の音の遅延に基づいて少なくとも1つの物体への方向を提供し、周期音の周期性によって距離の標示を提供し、より近い物体が、より短い周期の周期音によって表される、実施例8に記載の方法。
上記シナリオベースの立体音響サウンドが、右耳と左耳との間の音の遅延に基づいて少なくとも1つの物体への方向を提供し、音の周波数によって距離を提供し、より近い物体が、より高い周波数の音によって表される、実施例9に記載の方法。
上記シナリオベースのアルゴリズムが、光学文字認識(OCR)アルゴリズムを実装することによって、音声読み上げテキストをさらに出力する、実施例5に記載の方法。
上記OCR情報が、ユーザのパーソナル・デバイスのカメラからのものであり、上記カメラが、OCRのために、さらには上記ユーザの近傍でのテキストの再生のために使用される、実施例11に記載の方法。
上記シナリオベースのアルゴリズムが、パーソナル・デバイスに配設された人工知能(AI)アルゴリズムを使用することによって物体の音声識別を組み合わせる、実施例12に記載の方法。
カメラからの上記情報が、AIによって物体を識別し、上記近傍にある物体の名前を再生するために使用される、実施例13に記載の方法。
上記AIシナリオベースのアルゴリズムが、上記カメラによってキャプチャされた画像を処理するように適合された顔認識アルゴリズムを含む、実施例14に記載の方法。
異なる方向又は目的からの上記情報が、異なる音声及び音によって出力され、ユーザが、異なる方向及び/又は情報源からの情報を識別及び区別することができるようにする、実施例5に記載の方法。
センサ・データを処理する上記シナリオベースのアルゴリズムが、向きに依存する、実施例16に記載の方法。
上記収集ステップが、
a.異なるカバレッジ・エリアからデータを収集すること、
b.機械的に又はデジタルでスキャンするスキャン・センサを採用すること、及び
c.広角のセンサを使用してデータを収集し、データを分割して部分ごとに処理することができること
の少なくとも1つを含む、実施例7に記載の方法。
各センサからの上記情報が、シナリオ及びセンサの方向又は配置に基づいて、別の方法で処理される、実施例5に記載の方法。
上記近傍に穴又は障害物がある場合に上記ユーザに警告を提供するステップをさらに含む、実施例19に記載の方法。
ウェアラブルであり、ワイヤレス・センサを含み、それによって、システムをユーザが快適に着用できるようにする、実施例1に記載のシステム。
上記全てのセンサがメイン・コンピュータ又はデバイスに接続される、実施例21に記載のシステム。
ワイヤレス・ヘッドセットを備え、ユーザが快適に着用できるような設計にする、実施例21に記載のシステム。
上記ワイヤレス・ヘッドセットが、ユーザが携帯するメイン・コンピュータ又はデバイスに接続される、実施例23に記載のシステム。
上記シナリオベースのアルゴリズムが、全てのセンサ(方向センサ、カメラ、GPS、ナビゲーションセンサ(加速度計、磁気センサ))から収集された全てのデータを融合し、それを立体音響サウンドとして上記ユーザに送信し、様々な音や音声で物体までの距離及び方向を表す、実施例5に記載の方法。
上記センサが、ユーザの動き情報、及び周囲環境内でのユーザの向きを解釈するための加速度センサを備える、実施例5に記載の方法。
上記動き情報がナビゲーション目的で使用される、実施例26に記載の方法。
ユーザを屋外でナビゲートし、ユーザの目的地への方向をユーザに与えるためのGPSを備える、実施例1に記載のシステム。
建物内でナビゲートするためのナビゲーション・アプリケーションをさらに備え、ナビゲーション・アプリケーションが、カメラを使用して画像間のシナリオベースの相違を識別し、機械学習によって、システムが、建物の内部をマッピングしてユーザに指示するように構成される、実施例28に記載のシステム。
カメラから撮影された上記写真が、人が屋内にいるか屋外にいるかを理解するためにAIによってシナリオベースで分析され、AIがカメラの写真から、通常は屋内にある1組の光源及びアイテムを認識する場合、システムが、人が屋内にいることを理解して、建物内をナビゲートするアプリケーションを適用し、カメラが太陽及び街灯などのアイテムをキャプチャする場合、GPSの使用によって、システムが、人が屋外を移動していることを理解して、GPS又は他の屋外ナビゲーション・アプリケーションを使用して、ユーザをナビゲートする、実施例29に記載のシステム。
エコー及びノイズ・キャンセレーションを使用し、ノイズとして識別された音を除去し、ユーザが周囲サウンド情報を明瞭に得ることができるようにする、実施例29に記載のシステム。
少なくとも1つのハードウェア・プロセッサと、シナリオベースのプログラム・コードを具現化する非一時的なコンピュータ可読記憶媒体とを備えるシステムであって、プログラム・コードが、上記少なくとも1つのハードウェア・プロセッサによって実行可能であり、実施例5から20まで又は25から27までのいずれか1つに記載のシナリオベースの方法を実施する、システム。
少なくとも1つのハードウェア・プロセッサと、
a.シナリオ識別の選択であって、
i.ユーザからの介入又はコマンド、
ii.ポリシーから導出された選択、及び
iii.センサから収集されたデータに基づくAI決定によって導出されたコンテキスト
を含む任意の方法によってシナリオを表すことができる、シナリオ識別の選択と、
シナリオベースのプログラムの実装を行うアルゴリズム又はアプリケーションの実装構成要素であって、プログラム・コードが、実施例5から20まで又は25から27までのいずれか1つに記載のシナリオベースの方法を実施するために、上記少なくとも1つのハードウェア・プロセッサによって実行可能である、実装構成要素と
の少なくとも2部分のソフトウェアを有する非一時的なコンピュータ可読記憶媒体とを備えるシステム。
シナリオベースのプログラム・コードを具現化する非一時的なコンピュータ可読記憶媒体とを備えるコンピュータ・プログラム製品であって、プログラム・コードが、上記少なくとも1つのハードウェア・プロセッサによって実行可能であり、実施例5から20まで又は25から27までのいずれか1つに記載のシナリオベースの方法を実施する、コンピュータ・プログラム製品。
a.シナリオ識別の選択であって、
i.ユーザからの介入又はコマンド、
ii.ポリシーから導出された選択、及び
iii.センサから収集されたデータに基づくAI決定によって導出されたコンテキスト
を含む任意の方法によってシナリオを表すことができる、シナリオ識別の選択と、
シナリオベースのプログラムの実装を行うアルゴリズム又はアプリケーションの実装構成要素であって、プログラム・コードが、実施例5から20まで又は25から27までのいずれか1つのシナリオベースの方法を実施するために、上記少なくとも1つのハードウェア・プロセッサによって実行可能である、実装構成要素と
の少なくとも2つの部分を有するソフトウェアを備えるコンピュータ・プログラム製品。
1.ユーザからの介入又はコマンド
2.ポリシーから導出される選択
3.センサから収集されたデータに基づくAI決定により導出されたコンテキスト
Claims (23)
- 視覚障害のあるユーザの環境に関するシナリオベースのアルゴリズムを使用してシナリオベースの情報を処理するためのシステムであって、
前記情報を収集し、前記情報に関連する環境データをプロセッサに転送するように構成された複数のセンサと、
a.シナリオ識別コンポーネントと
b.App選択コンポーネントと、
を含むソフトウェアを格納するデータストレージと、
i)前記データストレージに格納された前記ソフトウェアをアクティブ化し、
ii)シナリオベースのアルゴリズムを使用して前記環境データを受信し、サウンド・データを出力する、
ように適合されたプロセッサと、
前記視覚障害のあるユーザに関連付けられたポータブル通信デバイスであって、前記環境データに関連付けられた前記プロセッサからの前記サウンド・データを受信するように適合され、前記サウンド・データを前記視覚障害のあるユーザのために脳で解釈可能な音に変換するように適合されて、前記ユーザに前記環境のリアルタイムな理解を提供するようにする、ポータブル通信デバイスであって、前記シナリオ識別コンポーネントは、前記ユーザが現在置かれているシナリオに従って、前記ユーザの識別に基づいて、前記App選択コンポーネントから特定のアプリケーション(App)を前記ユーザに提供するように構成されている、ポータブル通信デバイス、
を備えるシステム。 - 前記ポータブル通信デバイスが、前記ユーザの近傍にある物体からの距離及び方向を表すためにシナリオベースの立体音響サウンドを出力し、それによって前記ユーザが環境内を移動することを可能にする、請求項1に記載のシステム。
- 前記シナリオベースのアルゴリズムを使用して処理された前記立体音響サウンドが、前記ユーザの右耳と左耳との間の音の遅延に基づいて、前記物体からの前記距離及び方向に関する情報を前記ユーザに提供する、請求項2に記載のシステム。
- 前記ポータブル通信デバイスが、前記距離に応答して、前記立体音響サウンドの音量を調整するように構成される、請求項2に記載のシステム。
- a)コンテキストシナリオ識別のためのアルゴリズム又はコンポーネント、及びb)前記ユーザの前記識別に基づくシナリオ決定のためのアルゴリズム又はコンポーネント、を更に含み、当該a)及びb)のコンポーネント及び/又はアルゴリズムは、前記ユーザの前記識別および前記シナリオに基づいて、前記ユーザのための最適化された複数のAppの選択又は唯一のAppを出力するために互いに更新する、請求項1のシステム。
- 視覚障害のあるユーザの環境に関するシナリオベースの情報をシナリオベースのアルゴリズムを使用したシステムによって処理するための方法であって、
ユーザ・デバイスのセンサから情報及び環境データを収集するステップであって、前記環境データが前記ユーザの近傍にある物体に関連付けられている、ステップと、
シナリオ識別コンポーネントとApp選択コンポーネントとをアクティブ化するステップと、
前記ユーザの識別に基き、そして前記ユーザが現在置かれているシナリオに応答して、前記App選択コンポーネントから特定のアプリケーション(App)を前記ユーザに提供するステップと、
関連するサウンド・データを出力するためにシナリオベースのアルゴリズムを使用して前記情報を処理するステップと、
前記環境データに関連する前記サウンド・データを、前記視覚障害のあるユーザのためのシナリオベースの脳で解釈可能な音に変換して、前記ユーザが前記環境をリアルタイムで理解できるようにするステップと、
を含む方法。 - シナリオベースのアルゴリズムを使用する前記処理及び前記変換が、前記ユーザの近傍にある物体からの距離及び方向を表すために立体音響サウンドを出力し、それによって前記ユーザが環境内を移動することを可能にする、請求項6に記載の方法。
- 前記立体音響サウンドが、前記ユーザの右耳と左耳との間の音の遅延に基づいて、前記物体の少なくとも1つからの前記距離及び方向に関するシナリオベースの情報を前記ユーザに提供する、請求項7に記載の方法。
- 前記デバイスが、前記距離に応答して、前記シナリオベースの立体音響サウンドの音量を調整するように構成される、請求項8に記載の方法。
- 前記シナリオベースの立体音響サウンドが、前記ユーザの右耳と左耳との間の音の前記遅延に基づいて前記少なくとも1つの物体への方向を提供し、周期音の周期性によって前記距離の標示を提供し、より近い物体が、より短い周期の前記周期音によって表される、請求項9に記載の方法。
- 前記シナリオベースの立体音響サウンドが、右耳と左耳との間の音の遅延に基づいて前記少なくとも1つの物体への前記方向を提供し、音の周波数によって前記距離を提供し、より近い物体が、より高い周波数の音によって表される、請求項10に記載の方法。
- 前記シナリオベースのアルゴリズムが、光学文字認識(OCR)のアルゴリズムを実施することによって、音声読み上げテキストをさらに出力する、請求項6に記載の方法。
- 前記OCRによる情報が、前記ユーザのパーソナル・デバイスのカメラからのものであり、前記カメラが、前記OCRのために、さらには前記ユーザの近傍でのテキストの再生のために使用される、請求項12に記載の方法。
- 前記シナリオベースのアルゴリズムが、前記パーソナル・デバイスに配設された人工知能(AI)アルゴリズムを使用することによって物体の音声識別を組み合わせる、請求項13に記載の方法。
- 前記カメラからの前記情報が、前記AIによって物体を識別し、前記近傍にある前記物体の名前を再生するために使用される、請求項14に記載の方法。
- 前記AIのアルゴリズムが、前記カメラによってキャプチャされた画像を処理するように適合された顔認識アルゴリズムを含む、請求項15に記載の方法。
- 異なる方向又は目的からの前記情報が、前記シナリオベースのアルゴリズムを使用して処理され、異なる音声及び音によって出力され、前記ユーザが、異なる方向及び/又は情報源からの情報を識別及び区別することができるようにする、請求項6に記載の方法。
- 前記センサ・データを処理する前記シナリオベースのアルゴリズムが、向きに依存する、請求項17に記載の方法。
- 前記収集ステップが、
異なるカバレッジ・エリアからデータを収集すること、
機械的に又はデジタルでスキャンするスキャン・センサを採用すること、及び
広角のセンサを使用して分割して部分ごとに処理される前記データを収集すること、
の少なくとも1つを含む、請求項8に記載の方法。 - 各センサからの前記情報が、前記シナリオ及び前記センサの方向又は配置に基づいて、別の方法で処理される、請求項6に記載の方法。
- エコー及びノイズ・キャンセレーションを使用し、前記シナリオベースのアルゴリズムが、ノイズとして識別された音を除去し、前記ユーザが周囲サウンド情報を明瞭に得ることができるようにする、請求項20に記載の方法。
- 前記方法を実行するために、少なくとも1つのハードウェア・プロセッサによって実行可能な少なくとも2つのソフトウェア部分を実装することを含み、
第1のソフトウェア部分は、
ユーザからの介入又はコマンド、
ポリシーから導出された選択、及び
センサから収集されたデータに基づくAI決定によって導出されたコンテキスト
から選択された任意の方法によって前記シナリオを表すことができる、シナリオ識別を選択するためのソフトウェアを含み、
第2のソフトウェア部分は、前記シナリオベースのプログラムの実施を行うアルゴリズム又はアプリケーションを実施するように構成された、請求項6に記載の方法。 - a)コンテキストシナリオ識別のためのアルゴリズム又はコンポーネントと
b)前記ユーザの前記識別に基づくシナリオ決定のためのアルゴリズム又はコンポーネント、をアクティブ化することを更に含み、当該a)及びb)のコンポーネント及び/又はアルゴリズムは、前記ユーザの前記識別および前記シナリオに基づいて、前記ユーザのための最適化された複数のAppの選択又は唯一のAppを出力するために互いに更新する、請求項6の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962804568P | 2019-02-12 | 2019-02-12 | |
US62/804,568 | 2019-02-12 | ||
PCT/IL2020/050162 WO2020165899A1 (en) | 2019-02-12 | 2020-02-11 | Stereophonic apparatus for blind and visually-impaired people |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022526702A JP2022526702A (ja) | 2022-05-26 |
JPWO2020165899A5 JPWO2020165899A5 (ja) | 2023-02-20 |
JP7549588B2 true JP7549588B2 (ja) | 2024-09-11 |
Family
ID=71945267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021547324A Active JP7549588B2 (ja) | 2019-02-12 | 2020-02-11 | 盲人及び視覚障害者用の立体音響装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US11521515B2 (ja) |
EP (1) | EP3924873A4 (ja) |
JP (1) | JP7549588B2 (ja) |
KR (1) | KR20210126664A (ja) |
CN (1) | CN113678141A (ja) |
BR (1) | BR112021015739A2 (ja) |
IL (1) | IL285303B1 (ja) |
WO (1) | WO2020165899A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11670144B2 (en) * | 2020-09-14 | 2023-06-06 | Apple Inc. | User interfaces for indicating distance |
US20220187906A1 (en) * | 2020-12-16 | 2022-06-16 | Starkey Laboratories, Inc. | Object avoidance using ear-worn devices and image sensors |
CN113589321B (zh) * | 2021-06-16 | 2024-05-24 | 浙江理工大学 | 视觉障碍人员的智能导航助手 |
CN113672193B (zh) * | 2021-08-23 | 2024-05-14 | 维沃移动通信有限公司 | 音频数据播放方法与装置 |
WO2024203053A1 (ja) * | 2023-03-30 | 2024-10-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014508596A (ja) | 2011-02-24 | 2014-04-10 | アイシス イノベーション リミテッド | 視覚障害を有する個人のための光学装置 |
WO2016110775A1 (en) | 2015-01-05 | 2016-07-14 | International Business Machines Corporation | Augmenting information request |
US20170228597A1 (en) | 2016-01-06 | 2017-08-10 | Orcam Technologies Ltd. | Wearable apparatus and methods for causing a paired device to execute selected functions |
US20180036175A1 (en) | 2016-08-08 | 2018-02-08 | Univ Johns Hopkins | Object Recognition and Presentation for the Visually Impaired |
JP2018524135A (ja) | 2015-06-12 | 2018-08-30 | アイシンス、 エス.エル. | 盲人又は視覚障害者が音声や触覚によって周囲環境を解釈することを可能にするポータブルシステム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100807180B1 (ko) * | 2006-05-23 | 2008-02-27 | 한국과학기술원 | 시각장애인을 위한 길안내 서비스 시스템 및 방법 |
US9947215B2 (en) * | 2014-09-26 | 2018-04-17 | Harman International Industries, Incorporated | Pedestrian information system |
CN104983511A (zh) * | 2015-05-18 | 2015-10-21 | 上海交通大学 | 针对全盲视觉障碍者的语音帮助智能眼镜系统 |
US20180185232A1 (en) * | 2015-06-19 | 2018-07-05 | Ashkon Namdar | Wearable navigation system for blind or visually impaired persons with wireless assistance |
US11115698B2 (en) * | 2015-08-31 | 2021-09-07 | Orcam Technologies Ltd. | Systems and methods for providing recommendations based on a level of light |
CN107864440B (zh) * | 2016-07-08 | 2022-02-08 | 奥迪康有限公司 | 包括eeg记录和分析系统的助听系统 |
US9792501B1 (en) * | 2016-12-31 | 2017-10-17 | Vasuyantra Corp. | Method and device for visually impaired assistance |
US10311889B2 (en) * | 2017-03-20 | 2019-06-04 | Bose Corporation | Audio signal processing for noise reduction |
US10321258B2 (en) * | 2017-04-19 | 2019-06-11 | Microsoft Technology Licensing, Llc | Emulating spatial perception using virtual echolocation |
CA3037657C (en) * | 2018-03-22 | 2023-03-14 | Jennifer Hendrix | Route guidance and obstacle avoidance system |
CN108743266A (zh) * | 2018-06-29 | 2018-11-06 | 合肥思博特软件开发有限公司 | 一种盲人智能导航避障出行辅助方法及系统 |
US11231975B2 (en) * | 2018-09-29 | 2022-01-25 | Apple Inc. | Devices, methods, and user interfaces for providing audio notifications |
-
2020
- 2020-02-11 US US16/787,256 patent/US11521515B2/en active Active
- 2020-02-11 IL IL285303A patent/IL285303B1/en unknown
- 2020-02-11 JP JP2021547324A patent/JP7549588B2/ja active Active
- 2020-02-11 CN CN202080028065.0A patent/CN113678141A/zh active Pending
- 2020-02-11 KR KR1020217028825A patent/KR20210126664A/ko not_active Application Discontinuation
- 2020-02-11 BR BR112021015739-5A patent/BR112021015739A2/pt unknown
- 2020-02-11 EP EP20754945.2A patent/EP3924873A4/en active Pending
- 2020-02-11 WO PCT/IL2020/050162 patent/WO2020165899A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014508596A (ja) | 2011-02-24 | 2014-04-10 | アイシス イノベーション リミテッド | 視覚障害を有する個人のための光学装置 |
WO2016110775A1 (en) | 2015-01-05 | 2016-07-14 | International Business Machines Corporation | Augmenting information request |
JP2018524135A (ja) | 2015-06-12 | 2018-08-30 | アイシンス、 エス.エル. | 盲人又は視覚障害者が音声や触覚によって周囲環境を解釈することを可能にするポータブルシステム |
US20170228597A1 (en) | 2016-01-06 | 2017-08-10 | Orcam Technologies Ltd. | Wearable apparatus and methods for causing a paired device to execute selected functions |
US20180036175A1 (en) | 2016-08-08 | 2018-02-08 | Univ Johns Hopkins | Object Recognition and Presentation for the Visually Impaired |
Non-Patent Citations (1)
Title |
---|
三柳 英樹,"テクマトリックス、AIでAPIテストシナリオを自動生成する「SOAtest with Smart API Test Generator」を販売",INTERNETARCHIVE,waybackmachine,日本,Internet Archive,2018年08月20日,インターネット <URL: https://web.archive.org/web/20180820072730/https://cloud.watch.impress.co.jp/docs/news/1138590.html>,[2023年11月25日検索] |
Also Published As
Publication number | Publication date |
---|---|
EP3924873A4 (en) | 2023-10-11 |
US20200258422A1 (en) | 2020-08-13 |
KR20210126664A (ko) | 2021-10-20 |
JP2022526702A (ja) | 2022-05-26 |
US11521515B2 (en) | 2022-12-06 |
CN113678141A (zh) | 2021-11-19 |
WO2020165899A1 (en) | 2020-08-20 |
IL285303A (en) | 2021-09-30 |
BR112021015739A2 (pt) | 2021-10-26 |
EP3924873A1 (en) | 2021-12-22 |
IL285303B1 (en) | 2024-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7549588B2 (ja) | 盲人及び視覚障害者用の立体音響装置 | |
US11259108B2 (en) | Information processing device and information processing method | |
US9488833B2 (en) | Intelligent glasses for the visually impaired | |
CN204814723U (zh) | 一种导盲系统 | |
US9508269B2 (en) | Remote guidance system | |
US10024667B2 (en) | Wearable earpiece for providing social and environmental awareness | |
RU2706462C2 (ru) | Облегчение взаимодействия между пользователями и их окружающими средами с помощью гарнитуры, имеющей механизмы ввода | |
CN106843491A (zh) | 带增强现实的智能设备及电子设备 | |
US20230050825A1 (en) | Hands-Free Crowd Sourced Indoor Navigation System and Method for Guiding Blind and Visually Impaired Persons | |
US10062302B2 (en) | Vision-assist systems for orientation and mobility training | |
WO2023061927A1 (en) | Method for notifying a visually impaired user of the presence of object and/or obstacle | |
US9996730B2 (en) | Vision-assist systems adapted for inter-device communication session | |
JP6500139B1 (ja) | 視覚支援装置 | |
Vítek et al. | New possibilities for blind people navigation | |
Manjari et al. | CREATION: Computational constRained travEl aid for objecT detection in outdoor eNvironment | |
WO2020188626A1 (ja) | 視覚支援装置 | |
CN117357380A (zh) | 一种行走辅助导航方法 | |
KR20240040737A (ko) | 다수의 마이크로폰들로부터의 오디오 신호들의 프로세싱 | |
Kunapareddy et al. | Smart Vision based Assistant for Visually Impaired | |
WO2020170489A1 (ja) | 無人飛行体、情報処理方法およびプログラム | |
EP3882894B1 (en) | Seeing aid for a visually impaired individual | |
TWI808017B (zh) | 可攜式視障輔助系統 | |
CN118102204A (zh) | 一种行为指引方法、电子设备及介质 | |
US20220413795A1 (en) | Autonomous mobile body, information processing method, program, and information processing apparatus | |
CN117041879A (zh) | 针对盲人的出行方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A525 Effective date: 20211011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230210 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231130 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240229 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240430 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7549588 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |