Nothing Special   »   [go: up one dir, main page]

JP7549588B2 - 盲人及び視覚障害者用の立体音響装置 - Google Patents

盲人及び視覚障害者用の立体音響装置 Download PDF

Info

Publication number
JP7549588B2
JP7549588B2 JP2021547324A JP2021547324A JP7549588B2 JP 7549588 B2 JP7549588 B2 JP 7549588B2 JP 2021547324 A JP2021547324 A JP 2021547324A JP 2021547324 A JP2021547324 A JP 2021547324A JP 7549588 B2 JP7549588 B2 JP 7549588B2
Authority
JP
Japan
Prior art keywords
scenario
user
data
sound
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021547324A
Other languages
English (en)
Other versions
JPWO2020165899A5 (ja
JP2022526702A (ja
Inventor
ソロモン、リーロイ
ソロモン、ドロン
Original Assignee
キャン - ユー - シー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キャン - ユー - シー リミテッド filed Critical キャン - ユー - シー リミテッド
Publication of JP2022526702A publication Critical patent/JP2022526702A/ja
Publication of JPWO2020165899A5 publication Critical patent/JPWO2020165899A5/ja
Application granted granted Critical
Publication of JP7549588B2 publication Critical patent/JP7549588B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2205/00Details of stereophonic arrangements covered by H04R5/00 but not provided for in any of its subgroups
    • H04R2205/041Adaptation of stereophonic signal reproduction for the hearing impaired
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/07Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Vascular Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、概してデジタル医療の分野に関連し、より詳細には、視覚障害者を支援するための方法及び装置に関する。
科学の黎明期から、人類は、失明や視覚障害のための解決策に直面して模索してきた。盲人及び視覚障害者が、環境が及ぼす多くの危険に対処して生きることは常に困難であったが、今日、道路の増加や交通の高速化などにより、かつてないほどに環境が危険になっている。今日、盲人及び視覚障害者は、社会への統合が非常に困難である。
世界の統計によれば、3億4000万人を超える視覚障害者及び3900万人を超える盲人がいる。
医学誌「Lancet Global Health」に掲載された新しい記事によれば、世界の盲人の数は2050年までに1億1500万人に増えると英国のAnglia Ruskin大学の研究者らは主張している。研究者らは、188カ国からデータを収集した。研究責任者のRupert Bourne教授は、2050年までに視覚障害者の数が5億5000万人にまで増える可能性が高いと主張している。「軽い視覚障害でさえ、人の生活に大きな影響を与える可能性があります。その影響は、運転の禁止など、その人が独立して行える行動の減少として現れることがあります。」とBourne教授は言う。
盲人及び視覚障害者のための今日の解決策は、歩行補助杖、盲導犬、スマートフォンでのアプリケーション、並びにテキストを読み上げる及び視覚障害者の視覚を改良する最近の高価なデバイスである。
現在市場に出ているシステムは、大抵は視覚障害者専用のものであり、価格帯は、3,055ユーロ(3500ドル)から130,944ユーロ(150,000ドル)で、ほとんどの人は手に入れることができない。
上述したことから、独立して歩く、テキストを読む、物体を識別するといった能力を盲人及び視覚障害者に妥当な価格で与えるシステムが必要である。そのような解決策は存在していない。この種の解決策を購入できる価格で必要としている人は多く、この傾向は高まっている。
コウモリは視力のない生物であり、音を使ってエコーロケーションにより移動することができる数少ない哺乳類の1つであり、エコーロケーションに依拠して、障害物を検出し、進路を見つけ、餌を探す。エコーロケーションとは、音波及びエコーを使用して、物体が空間内のどこにあるかを判断するものである。コウモリは、エコーロケーションを使用して、暗闇でナビゲートして餌を見つける。コウモリは、エコーロケーションを行うために、口又は鼻から音波を送出する。音波が物体に当たると、物体はエコーを発生する。エコーは物体から跳ね返り、コウモリの耳に戻る。コウモリは、エコーを聞いて、物体の位置、大きさ、形状を把握する。
エコーロケーションを使用して、コウモリは、完全な暗闇の中で、人間の髪の毛ほどの細い物体を検出することができる。エコーロケーションにより、コウモリは、多くのコウモリが好んで食べる蚊と同じ程度の大きさの虫を見つけることができる。コウモリは、あらゆる環境的状況、シナリオ、イベントに適応し、特定のシナリオに応じてエコーロケーション能力を様々に使用することができる。
エコーロケーション・コールは通常、20~200キロヘルツの周波数範囲の超音波である。ピッチに関しては、コウモリは、一定の周波数(CFコール)と、頻繁に変調される可変周波数(FMコール)との両方でエコーロケーション・コールを生成する。ほとんどのコウモリは、CF成分とFM成分とを組み合わせて、複雑な一連のコールを生成する。低周波数の音は高周波数の音よりも遠くまで伝播するが、高周波数でのコールは、獲物のサイズ、範囲、位置、飛行速度、飛行方向など、より詳細な情報をコウモリに提供する。ラウドネスに関しては、コウモリは、最低50dBから最高120dBのコールを発する。コウモリは、リアルタイムでの実際のシナリオに従ってエコーロケーション・スキームを使用し、これは、環境の状況、及びコウモリの望み又は目的に従って変化する。
コウモリの耳及び脳細胞は、コウモリが発する音の周波数と、得られるエコーとに特に適合されている。内耳に受容体細胞が集中していることで、コウモリは周波数の変化に非常に敏感である。
ヒトの聴覚は立体音響式であり、様々な周波数及び音量(10~150dBの範囲)の音を検出することができる。ヒトの聴覚は、20Hzから、大人での20KHz及び子供での40KHzまでの範囲の周波数を検出することができる。
聴覚機能により、ヒトは音源の方向及び距離を検出することができ、異なる音/音声の相違を識別することができる。それにより、ヒトは、音によって環境について理解できる能力を備えることができる。ヒトは2つの耳を有するので、ヒトは、20,000×2×10ビット/秒=400,000ビット/秒のサウンド・データを得ることができる。これは、低ビデオ解像度に相当し、機能するのに十分である。したがって、ヒトは、コウモリのように聴覚に基づいて、見えているかのように行動することができる。
したがって、視覚障害者を支援するためのシステム及び方法を提供するという満たされていないニーズが残っている。
本発明のいくつかの態様の目的は、盲人及び視覚障害者の生活の質を改善するためのシステム、方法、デバイス、及びソフトウェアを提供することである。
本発明は、センサから収集された情報及びデータを処理し、データを、ユーザの頭/脳が処理できるように半生データとして音声でユーザに送信するシステム及び方法を提供し、それにより、ユーザが「耳で見る」ことで周囲環境を理解できるようにする。本発明のいくつかの実施例では、視覚障害者又はユーザの生活の質を改善して健常者と同じ機会を与えるための改良された方法及び装置が提供される。
本発明は、距離センサ、カメラ、及びヘッドセットを含む方法及びウェアラブル・システムを提供し、距離センサ、カメラ、及びヘッドセットは全て、盲人又は視覚障害者の周囲に関するデータを収集し、ポータブル・パーソナル通信デバイスに接続され、デバイスは、データを処理し、盲人又は視覚障害者に音声指示を送信して、物体の識別及びローカル・テキストの読み上げを提供することにより、独立して行動し、環境に対処できるようにするためのアルゴリズム及びAIを使用するように構成される。
本発明のいくつかの実施例によれば、システムは、エコーロケーションを使用する。本明細書において、エコーロケーションは、音波を使用して、物体が3次元空間のどこにあるかを決定するものである。
本発明のいくつかの実施例によれば、システムは、任意の専用コンピューティング・プラットフォーム、又は商用オフザシェルフ(COTS:Commercial off-the-shelf)コンピューティング・プラットフォーム、例えばセルラ電話、Raspberry Piプラットフォームなどのシングル・ボード・コンピュータ(SBC:single-board computer)、PC104コンピュータ、及び他のコンピューティング・プラットフォーム、例えばネットブック/ラップトップ・コンピュータなどを使用する。
本発明のいくつかの実施例によれば、システムは、センサから収集されたデータを処理するシナリオに基づくアルゴリズム又はアプリケーションを使用する。シナリオは、ユーザの介入若しくはコマンドによって、ポリシーによって、又はセンサから収集されたデータに基づくAI決定により導出されたコンテキストによって表現されることがある。
本発明のいくつかの実施例によれば、シナリオとは、盲目のユーザ又は視覚障害のあるユーザが直面する適切な状況及び目的である。例えば、盲目のユーザ又は視覚障害のあるユーザの意図が、通りを歩いて特定の終点目的地まで安全にたどり着くことである場合、GPSモジュールからのデータを用いた音声指示コマンドを備えたGPSナビゲーションSWが、Lidar又は超音波距離センサなどの距離センサと共に動作して、カメラからのデータを組み合わせて、AI SWによって歩道の道筋を識別し、盲人又は視覚障害者が歩道の道筋に従って確実に歩けるようにする。
道路の交差点に達すると、AIは、前方の道路を検出して、盲人又は視覚障害者に通知する。シナリオは道路横断シナリオに変更され、AIが車及び信号機を検出し、信号機の色を言葉で示し、車の交通の開始及び停止、並びに車の応答及び停止を通知する。これら全てに、経路を検証するため、さらには道路標識を読み取るためのコンパス及び加速度メータが付随する。別のシナリオは、盲目のユーザ又は視覚障害のあるユーザが建物内に入った状況であり、GPSによるナビゲーションが終了してAIに引き継がれ、AIは、ランプの光及び他の動かない基準点を検出し、それらをコンパス、高度計、加速度センサからのデータと融合して、位置を測定する。AIにより、盲目のユーザ又は視覚障害のあるユーザを建物内の目的地に案内するために、ドア、エレベータ、及び壁の識別が行われる。
エレベータに乗ると、システムはそれを識別してエレベータ・シナリオに進む必要があり、AIカメラは、例えば、エレベータのドアが開いているか閉じているか、エレベータのコマンド・パネルがどこにあるかを識別し、ユーザが押そうとするボタンに書いてある数字を読み上げ、フロア番号を識別し、言葉で通知する必要がある。状況の別の実例は、盲目のユーザ又は視覚障害のあるユーザがプールの近くを歩いているときである。水面は、Lidarや超音波センサなどの距離センサには床として認識されてしまうが、AIカメラは、プールの縁部を検出することができ、危険を通知することができる。
シナリオの別の実例は、盲人又は視覚障害者がシチューを調理するときである。盲人又は視覚障害者がいくつかの食材をテーブルに置き、システムは、各素材の識別及びテーブル上での位置について盲人又は視覚障害者に指示を与える。
本発明のいくつかの実施例によれば、システムは、エコー及びノイズ・キャンセレーションを使用し、ノイズとして識別された音を除去し、ユーザが周囲サウンド情報を明瞭に得ることができるようにする。
盲人に健常者のように行動できる能力を与えることによって、社会及び国家はこの変化から利益を得るであろう。盲人及び視覚障害者のための福祉や介護に社会がお金をかける必要がなくなり、また、盲人及び視覚障害者が一般の労働サイクルに容易に入ることができ、それにより生産性が向上するため、盲人及び視覚障害者は社会の負担にはならない。本発明による画期的なシステムはウェアラブルであり、そのセンサによって環境に関するデータを収集し、見えているかのように人が認識、読み取り、及び歩行することができるような独自の様式で情報を人に送信する。この製品は大量生産用に設計されている。本発明による革新的なシステムは、競合システムに比べて低コストで手頃な価格である。
エコーロケーションとは、音を使用して、物体が空間内のどこにあるかを判断するものである。聴覚機能により、ヒトは音源の方向及び距離を検出することができ、異なる音/音声の相違を識別することができる。本発明によるシステムは、いくつかの異なるタイプの距離センサ(超音波、LIDARなど)、カメラ、物体を識別してテキストを読み上げるためのニューラル・ネットワーク、及びCan-U-Cのアルゴリズムを含む。本発明によるシステムは、数十MBPSの中帯域幅でビデオ、長さ、場所としてセンサからデータを収集する。本発明によるシステムは、データを処理し、それを最大400KBPSのレートでアナログ・オーディオで送信する。これは、低解像度ビデオに相当するが、環境を理解するのに十分である。50KBPS程度のより小さい帯域幅でも機能を実施することが可能である。システムは、場所、速度、方向などの情報を符号化し、盲人又は視覚障害者が置かれているシナリオに基づいて頭で迅速に直感的に処理できる形で情報を送信する。
本発明の他の実施例では、システムのシナリオベースの動作を管理及び統括するプロセスを提供するための方法及びシステムが述べられている。この管理は、OS及びデバイス管理構成要素のタスクを取り扱うためのアルゴリズムでよく、センサ及びデバイスから収集されたデータを取り扱うことができ、盲人又は視覚障害者が置かれているシナリオに従って、処理された聴覚データが送達される。
本発明のさらなる実施例では、この方法は、少なくとも2つの部分を有するシナリオ管理構成要素(アルゴリズム)を含む。第1の部分は、ポリシー、若しくはセンサから収集されたデータに基づくコンテキストによって、又はユーザの介入若しくはコマンドによって、特定の状況で動作させるべきシナリオ識別子を決定することを目的とするソフトウェアであるシナリオ識別構成要素である。
このソフトウェアは、システムのOSの一部でよく、又はシステムのメイン・アプリケーションの一部としてのものでよい。そのシナリオに基づいて、第2の部分は、シナリオへの適切なアプリケーションの実装構成要素;アプリケーション構成であり、アルゴリズム又はサブシナリオ・アプリケーションの構成を完全な構成として実行する。アプリケーション及びアルゴリズムの構成はシナリオに従って機能し、センサがデータを収集し、OS、及びシナリオ構成の実装として実行されているアプリケーションによってデータが融合される。
本発明のさらなる実施例では、システムは、システムの一部として使用される又はシステムの一体部品として使用されることがある、任意選択の外部システム・リモート・センサ及び周辺デバイスを動作させる又は含むことがある。
以下の実施例及びその態様は、範囲を限定するものではなく例示及び図示として意図されたシステム、ツール、及び方法と共に説明及び図示される。
一実施例では、盲人及び視覚障害者を支援する装置を利用する方法が提供される。一実施例では、システムの全てのセンサ(距離、カメラ、又は他の手段)から収集された結果データ全体を組み合わせ、それらを分析し、処理されたデータ結果を立体音響サウンド(物体までの距離及び方向を表す)として送信すると、システムを使用する人が自分の周囲を理解することができる。
いくつかの実施例では、右耳と左耳との間の音の遅延に基づいて物体への方向を与える目的で、及び、いくつかの実施例では音量の強さとして(より近い物体はより高い音量の音によって表される)、又はいくつかの実施例では周期音の周期性として(より近い物体はより短い周期の周期音によって表される)、又はいくつかの実施例では音の周波数として(より近い物体はより高い周波数の音によって表される)距離を与える目的で立体音響サウンドを使用する方法が提供される。
また、一実施例では、システムは、システムのカメラがキャプチャしたものを分析して、その分析をユーザに音声で伝送するAIアルゴリズムを含み、ユーザは、物体を識別し、テキストを読み取ることができる。カメラがテキストをキャプチャする場合、OCRアルゴリズムがテキストを分析して、音でユーザに伝送することができ、又はカメラが物体をキャプチャする場合、AIは、物体が何かを分析し、音声で物体の名前をユーザに伝送する。AIは、いくつかの実施例では、カメラ写真を処理する顔認識アルゴリズムを有することがある。
また、一実施例では、いくつかの距離センサ、カメラ、パーソナル・コンピュータ、又はデバイスを含むウェアラブル・システムが提供され、これらは、小さな単一のボード又は1組のボード及びヘッドセットである。システムはワイヤレスでよく、ユーザが着用するのにより快適な設計になる。
一実施例では、目的、人から物体までの距離、及び向きに応じて、異なる音及び音声であらゆる結果データを区別する方法が提供される。
いくつかの実施例では、異なるカバレッジ・エリアからデータをスキャンして収集するために、システムは、1組の距離センサを含み、又は機械的に若しくはデジタルでスキャンするスキャン・センサを使用する。最も理想的なのは、広角で収集するセンサを使用し、データを分割して部分ごとに処理することである。
一実施例では、センサ・データを処理するアルゴリズムが向きに依存することがさらに提供される。特に距離検知を扱うとき、向きが重要である。いくつかの実施例では、水平方向を向いている人の顔に装着された長距離センサは、距離自体のみを警告し、地面を向いているセンサは、穴及び障害物のみを警告する。
いくつかの実施例では、システムは、ユーザがいる場所、向き、及び向いている方向をユーザに警告する目的で、慣性及び加速度センサ並びに磁場センサを含むこともできる。さらに、一実施例では、システム・アルゴリズムは、距離及びカメラから来た処理情報をより良くカバーするために、慣性、加速度計、及び磁気センサからの向きを使用することができる。システム・アルゴリズムは、いくつかの実施例では、距離測定用のステップ・カウンタのために、慣性、加速度計、及び磁気センサを使用することができる。
また、一実施例では、センサの照準方向情報は、正しい解釈を与えるために、及びセンサからの情報をより良く処理するために重要である。
上述した例示的な態様及び実施例に加えて、以下の詳細な説明を検討することにより、さらなる態様及び実施例が明らかになろう。
「実施例1」
視覚障害のあるユーザの環境に関するシナリオベースの情報を処理するためのシステムであって、
a.情報を収集し、上記情報に関連する環境データをプロセッサに転送するように構成された複数のセンサと、
b.上記環境データを受信し、サウンド・データを出力するように適合されたプロセッサと、
c.視覚障害のあるユーザに関連付けられたポータブル通信デバイスであって、上記環境データに関連付けられた上記プロセッサからの上記サウンド・データを受信するように適合され、サウンド・データを視覚障害のあるユーザのために脳で解釈可能な音に変換するように適合されて、ユーザが上記環境をリアルタイムで理解できるようにする、ポータブル通信デバイスと、
を備えるシステム。
「実施例2」
上記ポータブル通信デバイスが、上記ユーザの近傍にある物体からの距離及び方向を表すためにシナリオベースの立体音響サウンドを出力し、それによってユーザが環境内を移動することを可能にする、実施例1に記載のシステム。
「実施例3」
上記立体音響サウンドが、上記ユーザの右耳と左耳との間の音の遅延に基づいて、物体からの距離及び方向に関する情報を上記ユーザに提供する、実施例2に記載のシステム。
「実施例4」
上記デバイスが、上記距離に応答して、上記立体音響サウンドの音量を調整するように構成される、実施例2に記載のシステム。
「実施例5」
視覚障害者の環境に関するシナリオベースの情報を処理するための方法であって、
a.ユーザ・デバイスのセンサから情報及び環境データを収集するステップであって、上記データが、ユーザの近傍にある物体に関連付けられる、ステップと、
b.シナリオベースのアルゴリズム及びデータを使用して上記情報を処理して、関連のサウンド・データを出力するステップと、
c.上記環境データに関連する上記サウンド・データを、視覚障害のあるユーザのためのシナリオベースの脳で解釈可能な音に変換して、ユーザが上記環境をリアルタイムで理解できるようにするステップと、
を含む方法。
「実施例6」
上記変換ステップが、上記ユーザの近傍にある物体からの距離及び方向を表すために立体音響サウンドを出力し、それによってユーザが環境内を移動することを可能にする、実施例5に記載の方法。
「実施例7」
上記立体音響サウンドが、上記ユーザの右耳と左耳との間の音の遅延に基づいて、物体の少なくとも1つからの距離及び方向に関するシナリオベースの情報をユーザに提供する、実施例6に記載の方法。
「実施例8」
上記デバイスが、上記距離に応答して、上記シナリオベースの立体音響サウンドの音量を調整するように構成される、実施例7に記載の方法。
「実施例9」
上記シナリオベースの立体音響サウンドが、上記ユーザの右耳と左耳との間の音の遅延に基づいて少なくとも1つの物体への方向を提供し、周期音の周期性によって距離の標示を提供し、より近い物体が、より短い周期の周期音によって表される、実施例8に記載の方法。
「実施例10」
上記シナリオベースの立体音響サウンドが、右耳と左耳との間の音の遅延に基づいて少なくとも1つの物体への方向を提供し、音の周波数によって距離を提供し、より近い物体が、より高い周波数の音によって表される、実施例9に記載の方法。
「実施例11」
上記シナリオベースのアルゴリズムが、光学文字認識(OCR)アルゴリズムを実装することによって、音声読み上げテキストをさらに出力する、実施例5に記載の方法。
「実施例12」
上記OCR情報が、ユーザのパーソナル・デバイスのカメラからのものであり、上記カメラが、OCRのために、さらには上記ユーザの近傍でのテキストの再生のために使用される、実施例11に記載の方法。
「実施例13」
上記シナリオベースのアルゴリズムが、パーソナル・デバイスに配設された人工知能(AI)アルゴリズムを使用することによって物体の音声識別を組み合わせる、実施例12に記載の方法。
「実施例14」
カメラからの上記情報が、AIによって物体を識別し、上記近傍にある物体の名前を再生するために使用される、実施例13に記載の方法。
「実施例15」
上記AIシナリオベースのアルゴリズムが、上記カメラによってキャプチャされた画像を処理するように適合された顔認識アルゴリズムを含む、実施例14に記載の方法。
「実施例16」
異なる方向又は目的からの上記情報が、異なる音声及び音によって出力され、ユーザが、異なる方向及び/又は情報源からの情報を識別及び区別することができるようにする、実施例5に記載の方法。
「実施例17」
センサ・データを処理する上記シナリオベースのアルゴリズムが、向きに依存する、実施例16に記載の方法。
「実施例18」
上記収集ステップが、
a.異なるカバレッジ・エリアからデータを収集すること、
b.機械的に又はデジタルでスキャンするスキャン・センサを採用すること、及び
c.広角のセンサを使用してデータを収集し、データを分割して部分ごとに処理することができること
の少なくとも1つを含む、実施例7に記載の方法。
「実施例19」
各センサからの上記情報が、シナリオ及びセンサの方向又は配置に基づいて、別の方法で処理される、実施例5に記載の方法。
「実施例20」
上記近傍に穴又は障害物がある場合に上記ユーザに警告を提供するステップをさらに含む、実施例19に記載の方法。
「実施例21」
ウェアラブルであり、ワイヤレス・センサを含み、それによって、システムをユーザが快適に着用できるようにする、実施例1に記載のシステム。
「実施例22」
上記全てのセンサがメイン・コンピュータ又はデバイスに接続される、実施例21に記載のシステム。
「実施例23」
ワイヤレス・ヘッドセットを備え、ユーザが快適に着用できるような設計にする、実施例21に記載のシステム。
「実施例24」
上記ワイヤレス・ヘッドセットが、ユーザが携帯するメイン・コンピュータ又はデバイスに接続される、実施例23に記載のシステム。
「実施例25」
上記シナリオベースのアルゴリズムが、全てのセンサ(方向センサ、カメラ、GPS、ナビゲーションセンサ(加速度計、磁気センサ))から収集された全てのデータを融合し、それを立体音響サウンドとして上記ユーザに送信し、様々な音や音声で物体までの距離及び方向を表す、実施例5に記載の方法。
「実施例26」
上記センサが、ユーザの動き情報、及び周囲環境内でのユーザの向きを解釈するための加速度センサを備える、実施例5に記載の方法。
「実施例27」
上記動き情報がナビゲーション目的で使用される、実施例26に記載の方法。
「実施例28」
ユーザを屋外でナビゲートし、ユーザの目的地への方向をユーザに与えるためのGPSを備える、実施例1に記載のシステム。
「実施例29」
建物内でナビゲートするためのナビゲーション・アプリケーションをさらに備え、ナビゲーション・アプリケーションが、カメラを使用して画像間のシナリオベースの相違を識別し、機械学習によって、システムが、建物の内部をマッピングしてユーザに指示するように構成される、実施例28に記載のシステム。
「実施例30」
カメラから撮影された上記写真が、人が屋内にいるか屋外にいるかを理解するためにAIによってシナリオベースで分析され、AIがカメラの写真から、通常は屋内にある1組の光源及びアイテムを認識する場合、システムが、人が屋内にいることを理解して、建物内をナビゲートするアプリケーションを適用し、カメラが太陽及び街灯などのアイテムをキャプチャする場合、GPSの使用によって、システムが、人が屋外を移動していることを理解して、GPS又は他の屋外ナビゲーション・アプリケーションを使用して、ユーザをナビゲートする、実施例29に記載のシステム。
「実施例31」
エコー及びノイズ・キャンセレーションを使用し、ノイズとして識別された音を除去し、ユーザが周囲サウンド情報を明瞭に得ることができるようにする、実施例29に記載のシステム。
「実施例32」
少なくとも1つのハードウェア・プロセッサと、シナリオベースのプログラム・コードを具現化する非一時的なコンピュータ可読記憶媒体とを備えるシステムであって、プログラム・コードが、上記少なくとも1つのハードウェア・プロセッサによって実行可能であり、実施例5から20まで又は25から27までのいずれか1つに記載のシナリオベースの方法を実施する、システム。
「実施例33」
少なくとも1つのハードウェア・プロセッサと、
a.シナリオ識別の選択であって、
i.ユーザからの介入又はコマンド、
ii.ポリシーから導出された選択、及び
iii.センサから収集されたデータに基づくAI決定によって導出されたコンテキスト
を含む任意の方法によってシナリオを表すことができる、シナリオ識別の選択と、
シナリオベースのプログラムの実装を行うアルゴリズム又はアプリケーションの実装構成要素であって、プログラム・コードが、実施例5から20まで又は25から27までのいずれか1つに記載のシナリオベースの方法を実施するために、上記少なくとも1つのハードウェア・プロセッサによって実行可能である、実装構成要素と
の少なくとも2部分のソフトウェアを有する非一時的なコンピュータ可読記憶媒体とを備えるシステム。
「実施例34」
シナリオベースのプログラム・コードを具現化する非一時的なコンピュータ可読記憶媒体とを備えるコンピュータ・プログラム製品であって、プログラム・コードが、上記少なくとも1つのハードウェア・プロセッサによって実行可能であり、実施例5から20まで又は25から27までのいずれか1つに記載のシナリオベースの方法を実施する、コンピュータ・プログラム製品。
「実施例35」
a.シナリオ識別の選択であって、
i.ユーザからの介入又はコマンド、
ii.ポリシーから導出された選択、及び
iii.センサから収集されたデータに基づくAI決定によって導出されたコンテキスト
を含む任意の方法によってシナリオを表すことができる、シナリオ識別の選択と、
シナリオベースのプログラムの実装を行うアルゴリズム又はアプリケーションの実装構成要素であって、プログラム・コードが、実施例5から20まで又は25から27までのいずれか1つのシナリオベースの方法を実施するために、上記少なくとも1つのハードウェア・プロセッサによって実行可能である、実装構成要素と
の少なくとも2つの部分を有するソフトウェアを備えるコンピュータ・プログラム製品。
本発明は、図面と共に、本発明の好ましい実施例の以下の詳細な説明から、より完全に理解されよう。
ここで、本発明を、より完全に理解できるように、以下の例示的な図を参照して特定の好ましい実施例に関連して述べる。
ここで図を特に詳細に参照すると、図示されている詳細は、単に例として、本発明の好ましい実施例の例示的な論述を目的としており、本発明の原理及び概念的態様の最も有用で容易に理解できる説明であると考えられる内容を提供するために表される。これに関して、本発明の基本的な理解に必要な以上に本発明の構造的詳細をより詳細に示す試みはされていないが、図面と共に成される説明により、本発明のいくつかの形態が実際にどのように具現化されるかが当業者には明らかになろう。
本発明の一実施例による、物体の3次元位置データを処理して、シナリオベースの脳で解釈可能な音にするためのシステムを示す簡略概略図である。 本発明の一実施例によるシナリオ管理構成要素方法の簡略概略図である。 本発明の一実施例によるシナリオ識別構成要素方法の簡略概略図である。 本発明の一実施例による、実装構成要素方法の簡略概略図である。 本発明の一実施例による、物体の3次元位置データを処理して、シナリオベースの脳で解釈可能な音にするためのモバイル通信デバイスを示す簡略概略図である。 本発明の一実施例による、物体の3次元位置データをシナリオベースの脳で解釈可能な音に処理するための方法の簡略化された流れ図である。 本発明の一実施例による、脳で解釈可能な音としてシナリオ関連情報を提供するための方法の簡略化された流れ図である。
全ての図において、同様の参照番号は同様の部分を示す。
詳細な説明では、本発明を完全に理解できるように、多くの具体的な詳細を述べる。しかし、これらは特定の実施例であり、本発明は、本明細書に記載されて特許請求される本発明の特徴を具現化する別の様式でも実施することができることを当業者は理解されよう。
ここで図1を参照すると、図1は、本発明の一実施例による、物体の3次元位置データを処理して、シナリオベースの脳で解釈可能な音にするためのシステム(100)を示す簡略概略図である。
システム(100)は、任意の専用コンピューティング・プラットフォーム、又は商用オフザシェルフ(COTS)コンピューティング・プラットフォーム、例えばセルラ電話、Raspberry Piプラットフォームなどのシングル・ボード・コンピュータ(SBC)、PC104コンピュータ、及び他のコンピューティング・プラットフォーム、例えばネットブック/ラップトップ・コンピュータなどでよい。図に示されているシステムは、システム(100)の一部として使用することができ、さらにはシステム(100)の一体部品として使用することもできるリモート・デバイス(102)に接続するための任意選択の接続部を含む。リモート・デバイスは、ケーブルなどのワイヤを介して又はワイヤレス接続を介してシステムに接続することができる(破線)。そのような場合、接続は、他のデバイスがシステムに接続するためのポートとして機能する通信デバイス(130)を介するものである。
リモート・デバイスは、リモート・ヘッドホン、スピーカ、マイクロフォン、キーボードなどのリモート入力デバイス、超音波距離計測や三角測量距離測定などの距離測定センサなどのリモート・センサ、例えばステレオ・カメラやLidar、コンパス・センサなどの向きセンサ、加速度センサ、カメラ、及びGPSなどの測位デバイスでよい。
システムは、システムに統合された又はリモート・デバイスの一部としてのサウンド・デバイス(104)を備える。このようなサウンド・デバイスは、スピーカ又はヘッドホンでよい。サウンド・デバイスは、ステレオ・サウンド・デバイスでよい。サウンド・デバイスは、ユーザに、その周囲に関する情報を音によって提供する働きをする。システムは、システムに統合された又はリモート・デバイスの一部としてのマイク・デバイス(106)を備える。マイク・デバイスは、ユーザからのサウンド・コマンド及び他のサウンド・データの入力デバイスとして使用することができる。そのようなサウンド・コマンド及び他のサウンド・データは、OS又はアプリケーションに挿入又は記録して、加工する又はさらに処理することができる。マイク・デバイスによってキャプチャされたサウンドは、エコー及びノイズ・キャンセレーションとして使用することができ、システムは、ノイズとして識別されたサウンドを除去し、ユーザは周囲サウンド情報を明瞭に得ることができる。マイク・デバイスは、ユーザが関与しているシナリオを理解するために、OS又はシナリオ識別構成要素SWによって使用されることもある。
システムは、システムに統合された又はリモート・デバイスの一部としてのユーザ入力デバイス/ミニ・キーボード(108)を備える。入力デバイス/ミニ・キーボードは、OS、又はシステム上で実行されるアプリケーションにユーザが提供したいコマンド又は他のデータを入力するための入力デバイスとして働くことがある。入力デバイスは、入力コマンドのユーザ・ジェスチャを抽出して処理することができるカメラでもよい。
システムは、システムに統合された又はリモート・デバイスの一部としてのカメラ(110)を備える。カメラは、OS又はアプリケーションが視覚情報を抽出して処理し、システムによって処理されるシナリオに従ってデータ当てはめを行うように、視覚データをシステムに挿入する入力デバイスとして働く。シナリオの一部として、入力コマンドのためのユーザ・ジェスチャが処理されることがある。シナリオの一部として、シナリオ識別構成要素SWは、カメラからの情報を使用して、特定の瞬間又は状況に適したシナリオを決定することがある。
システムは、システムに統合された又はリモート・デバイスの一部としてのセンサ、向き決定、及び測位デバイス(112)を備える。センサ、向き決定、及び測位デバイスは、超音波距離計測や三角測量距離測定などの距離測定センサ、例えばステレオ・カメラやLidar、コンパス・センサなどの向きセンサ、加速度センサ、カメラ、及びGPSなどの測位デバイスなどのセンサである。これらのセンサはデータを収集し、OSと、シナリオ構成の実装として実行されるアプリケーションとによってデータが融合される。システムは、システムがスタンドアロンのモバイル・デバイスとして動作できるようにするためにシステムに統合された電源/バッテリ(114)を備える。システムは、システムに統合され、全ての必要なアルゴリズムを実行するために使用されるプロセッサ(120)を備える。プロセッサは、x86タイプ、ARMベース、又は任意のRISKプロセッサでよく、FPGA又はシステムオンチップ(SOC:system on a chip)でよい。ハードウェア、FPGA、GPUなどの追加のアクセラレータに接続されることもある。プロセッサは、データ記憶装置(150)に記憶されているソフトウェア(SW:software)を起動し、例えばアプリケーションとして又はアプリケーションを実行するオペレーティング・システム(OS:operating system)としてアルゴリズムを実行する。
プロセッサは、シナリオ識別構成要素SWであるソフトウェア部分と、シナリオへの適切なアプリケーションの実装構成要素;アプリケーション構成SWであるソフトウェア部分とを実行するように構成される。システムは、他のデバイスがシステムに接続して、他のモジュールからデータをインポート又はエクスポートするためのポートとして働くようにシステムに統合された通信デバイス(130)を備える。他のモジュールからデータをインポート又はエクスポートする必要があるのは、OS及びアプリケーションをその要件に従って動作させるためである。これは、OSを含むソフトウェア・アプリケーションの更新、新たなストア・アプリケーションの取得、又は必要なデータの転送を含む。システムは、他のデバイスがシステムに接続して、他の場所からデータをインポート又はエクスポートするためのポートとして働くようにシステムに統合された、セルラ・モジュールやWiFiモジュールなどの標準的なワイヤレス通信デバイス(140)を有することがある。
これらのモジュールは、上記の通信デバイスの拡張であり、一般的でない又は標準的でないことがある。標準的なワイヤレス通信デバイスは、アンテナ(146)、送信モジュール(TX)(144)、及び受信モジュール(RX)(142)を有する。システムは、システムに統合され、アルゴリズムを例えばアプリケーションとして、又はOS、及びシステムの操作に必要とされるアプリケーション・ソフトウェアとして記憶するために使用されるデータ記憶装置(150)を備える。
データ記憶装置は、シナリオ識別構成要素SW(154)であるソフトウェア部分と、シナリオへの適切なアプリケーションの実装構成要素;アプリケーション構成SW(152)であるソフトウェア部分とを保存する。これは、シナリオベースの状況に適切なようにシステムを実行するために必要とされる。シナリオ識別構成要素SW(154)は、センサから収集されたデータに基づくポリシーによって、又はユーザの介入若しくはコマンドによって、特定の状況で動作させるべきシナリオ識別子を決定することを目的としたソフトウェアである。このソフトウェアは、システムのOSの一部でよく、又はシステムのメイン・アプリケーションの一部としてのものでよい。
シナリオとは、盲目のユーザ又は視覚障害のあるユーザが直面する適切な状況及び目的である。例えば、盲目のユーザ又は視覚障害のあるユーザの意図が、通りを歩いて特定の終点目的地まで安全にたどり着くことである場合、GPSモジュールからのデータを用いた音声指示コマンドを備えたGPSナビゲーションSWが、Lidar又は超音波距離センサなどの距離センサと共に動作して、カメラからのデータを組み合わせて、AI SWによって歩道の道筋を識別し、盲人又は視覚障害者が歩道の道筋に従って確実に歩けるようにする。道路の交差点に達すると、AIは、前方の道路を検出して、盲人又は視覚障害者に通知する。シナリオは道路横断シナリオに変更され、AIが車及び信号機を検出し、信号機の色を言葉で示し、車の交通の開始及び停止、並びに車の応答及び停止を通知する。これら全てに、経路を検証するため、さらには道路標識を読み取るためのコンパス及び加速度メータが付随する。別のシナリオは、盲目のユーザ又は視覚障害のあるユーザが建物内に入った状況であり、GPSによるナビゲーションが終了してAIに引き継がれ、AIは、ランプの光及び他の動かない基準点を検出し、それらをコンパス、高度計、加速度センサからのデータと融合して、位置を測定する。
AIにより、盲目のユーザ又は視覚障害のあるユーザを建物内の目的地に案内するために、ドア、エレベータ、及び壁の識別が行われる。エレベータに乗ると、システムはそれを識別してエレベータ・シナリオに進む必要があり、AIカメラは、例えば、エレベータのドアが開いているか閉じているか、エレベータのコマンド・パネルがどこにあるかを識別し、ユーザが押そうとするボタンに書いてある数字を読み上げ、フロア番号を識別し、言葉で通知する必要がある。状況の別の実例は、盲目のユーザ又は視覚障害のあるユーザがプールの近くを歩いているときである。水面は、Lidarや超音波センサなどの距離センサには床として認識されてしまうが、AIカメラは、プールの縁部を検出することができ、危険を通知することができる。
シナリオの別の実例は、盲人又は視覚障害者がシチューを調理するときである。盲人又は視覚障害者がいくつかの食材をテーブルに置き、システムは、各素材の識別及びテーブル上での位置について盲人又は視覚障害者に指示を与える。
そのシナリオに基づいて、シナリオへの適切なアプリケーションの実装構成要素;アプリケーション構成SW(152)であるソフトウェア部分は、アルゴリズム又はサブシナリオ・アプリケーションの構成を完全な構成として実行する。アプリケーション及びアルゴリズムの構成はシナリオに従って機能し、センサがデータを収集し、OS、及びシナリオ構成の実装として実行されているアプリケーションによってデータが融合される。
図2を見ると、本発明の一実施例によるシナリオ管理構成要素方法(200)の簡略概略図が見られる。
この方法は、シナリオ識別構成要素(202)からのシナリオ識別情報/データによる繰り返しの更新をユーザに提供し、ユーザの現在の特定のシナリオに従って、アプリケーション選択構成要素(204)からの特定のアプリケーションをユーザに提供するためのアルゴリズムを含む。
この方法は、システムのシナリオベース動作を管理及び統括するように機能する。
シナリオとは、盲目のユーザ又は視覚障害のあるユーザが直面する適切な状況及び目的である。例えば、盲目のユーザ又は視覚障害のあるユーザの意図が、通りを歩いて特定の終点目的地まで安全にたどり着くことである場合、GPSモジュールからのデータを用いた音声指示コマンドを備えたGPSナビゲーションSWが、Lidar又は超音波距離センサなどの距離センサと共に動作して、カメラからのデータを組み合わせて、AI SWによって歩道の道筋を識別し、盲人又は視覚障害者が歩道の道筋に従って確実に歩けるようにする。
道路の交差点に達すると、AIは、前方の道路を検出して、盲人又は視覚障害者に通知する。シナリオは道路横断シナリオに変更され、AIが車及び信号機を検出し、信号機の色を言葉で示し、車の交通の開始及び停止、並びに車の応答及び停止を通知する。これら全てに、経路を検証するため、さらには道路標識を読み取るためのコンパス及び加速度メータが付随する。
別のシナリオは、盲目のユーザ又は視覚障害のあるユーザが建物内に入った状況であり、GPSによるナビゲーションが終了してAIに引き継がれ、AIは、ランプの光及び他の動かない基準点を検出し、それらをコンパス、高度計、加速度センサからのデータと融合して、位置を測定する。
AIにより、盲目のユーザ又は視覚障害のあるユーザを建物内の目的地に案内するために、ドア、エレベータ、及び壁の識別が行われる。エレベータに乗ると、システムはそれを識別してエレベータ・シナリオに進む必要があり、AIカメラは、例えば、エレベータのドアが開いているか閉じているか、エレベータのコマンド・パネルがどこにあるかを識別し、ユーザが押そうとするボタンに書いてある数字を読み上げ、フロア番号を識別し、言葉で通知する必要がある。状況の別の実例は、盲目のユーザ又は視覚障害のあるユーザがプールの近くを歩いているときである。水面は、Lidarや超音波センサなどの距離センサには床として認識されてしまうが、AIカメラは、プールの縁部を検出することができ、危険を通知することができる。
シナリオの別の実例は、盲人又は視覚障害者がシチューを調理するときである。盲人又は視覚障害者がいくつかの食材をテーブルに置き、システムは、各素材の識別及びテーブル上での位置について盲人又は視覚障害者に指示を与える。
シナリオ管理構成要素は、最小で2つの部分(アルゴリズム)を有する。第1の部分は、シナリオ識別構成要素(202)であり、センサから収集されたデータに基づくポリシーによって、又はユーザの介入若しくはコマンドによって、特定の状況で動作させるべきシナリオ識別子を決定することを目的としたソフトウェアである。このソフトウェアは、システムのOSの一部でよく、又はシステムのメイン・アプリケーションの一部としてのものでよい。そのシナリオに基づいて、第2の部分は、シナリオに適切なアプリケーションの実装構成要素;アプリケーション構成(204)であり、アルゴリズム又はサブシナリオ・アプリケーションの構成を完全な構成として実行する。アプリケーション及びアルゴリズムの構成はシナリオに従って機能し、センサがデータを収集し、OS、及びシナリオ構成の実装として実行されているアプリケーションによってデータが融合される。シナリオ識別構成要素(202)が優勢であり、シナリオへの適切なアプリケーションの実装構成要素;アプリケーション構成(204)に関して、アプリケーション構成の作成に使用するシナリオを決定するが、それらの間の接続は双方向性(206)である。これは、特定の構成で収集され、実装されるシナリオに従って融合されてAI分析されたセンサ・データに基づく次のシナリオ状況での推奨が、指定された状況にシナリオを適合させるためにシナリオ識別構成要素に返されるからである。
ここで図3Aを参照すると、図3Aは、本発明の一実施例によるシナリオ識別構成要素方法(300)の簡略概略図である。
この方法は、ユーザの識別子に基づいて、コンテキスト・シナリオ識別(304)用のアルゴリズム又は構成要素と、シナリオ決定用のアルゴリズム又は構成要素(302)との両方を含む。2つの構成要素/アルゴリズムは相互に更新して、ユーザの識別子と特定のリアルタイム・シナリオのコンテキストとを反映する基準に基づいて、特定のユーザのために複数のアプリケーション又はただ1つのアプリケーションの最適化された選択を出力する。
図3A:シナリオ識別構成要素(300)のオプション部分の詳細な説明。
シナリオ識別構成要素は、識別子シナリオベースの識別構成要素(302)に基づいて動作することがある。この場合、キーボードなどの入力デバイスを介して挿入されるユーザからのコマンド、又はカメラによってキャプチャされるジェスチャ、若しくは音声コマンドに基づいて、動作時に従う特定のシナリオ識別子が提供される。
シナリオ識別構成要素は、コンテキスト・シナリオベースの識別構成要素(304)に基づいて動作可能である。この場合、特定の構成で収集され、実装されるシナリオに従って融合されてAI分析されたセンサ・データに基づく次のシナリオ状況での推奨が、指定された状況にシナリオを適合させるために、シナリオへの適切なアプリケーションの実装構成要素;アプリケーション構成(350)からコンテキスト・シナリオベース識別構成要素(304)に返される。
シナリオ識別の2つの方法が、シナリオ管理構成要素アプリケーション・アルゴリズムに従って互いに並行して又は任意の組合せで動作することがあることは明らかである。
図3Bは、本発明の一実施例による実装構成要素方法(350)の簡略概略図を示す。
図3B:シナリオへの適切なアプリケーションの実装構成要素;アプリケーション構成(350)のオプション部分のより詳細な説明。
この部分は2つのサブパートを含む。第1の部分は、シナリオへの適切なアプリケーションのマッピング;アプリケーション構成(354)のためのアルゴリズムである。この部分では、特定のシナリオ構成を実行するために一緒に実行する必要があるアルゴリズム/アプリケーションのリストを作成する。第2の部分は、適切なシナリオのアプリケーション構成の起動(356)であり、シナリオへの適切なアプリケーションのマッピング;アプリケーション構成(354)が作成したリストに従って必要とされるアプリケーション/アルゴリズムを実行し、それらを接続して、エンベロープ・アルゴリズム/アプリケーションを介して一緒に動作させ、所望のシナリオに従って機能する。
ここで図4を参照すると、図4は、本発明の一実施例による、物体の3次元位置データを処理して、シナリオベースの脳で解釈可能な音にするためのモバイル通信デバイス(400)を示す簡略概略図である。モバイル・デバイスは、システム((100)、図示せず)から及び/又はリモート・センサ及び周辺デバイス(102)(本明細書で上述した)からデータを受信する。
モバイル・デバイス(130)は、データを受信してデータ記憶ユニット(416)に提供するように構築及び構成された、オペレーティング・システム及びデバイス管理ユニット(412)を備える。管理ユニット(412)は、リモート・センサ及び周辺デバイス(414)、例えばステレオ・カメラやLidar、コンパス・センサなどの向きセンサ、加速度センサ、カメラ、GPSなどの測位デバイスにデータを提供する及びそこからデータを受信するようにさらに構成される。例えば、モバイル・デバイスは、ユーザの周囲の物体に関するデータを受信し、そのデータを一連の異なる音、楽音、又はノイズに変換するように動作可能であり、これらをユーザの脳が解釈して、周囲の物体の様子をユーザに提供することができる。
図4:高レベルモバイル・デバイスシステム(400)の説明(より詳細には図1(100)を参照)。
このモバイル・デバイス(410)は、任意の専用コンピューティング・プラットフォーム、又は商用オフザシェルフ(COTS)コンピューティング・プラットフォーム、例えばセルラ電話、Raspberry Piプラットフォームなどのシングル・ボード・コンピュータ(SBC)、PC104コンピュータ、及び他のコンピューティング・プラットフォーム、例えばネットブック/ラップトップ・コンピュータなどでよい。図に示されているシステムは、任意選択の外部システムであるリモート・センサ及び周辺デバイス(102)を含み、リモート・センサ及び周辺デバイス(102)は、システム(400)の一部として使用することもでき、さらにはシステム(400)の一体部品として使用することもできる。
リモート・センサ及び周辺デバイスは、ケーブルなどのワイヤを介して又はワイヤレス接続を介してシステムに接続することができる(破線)。モバイル・デバイス(410)は、デバイス自体の一部である一体型リモート・センサ及び周辺デバイス(414)を使用することができる。リモート・センサ及び周辺デバイスは、リモート・ヘッドホン、スピーカ、マイクロフォン、キーボードなどのリモート入力デバイス、超音波距離計測や三角測量距離測定などの距離測定センサなどのリモート・センサ、例えばステレオ・カメラやLidar、コンパス・センサなどの向きセンサ、加速度センサ、カメラ、及びGPSなどの測位デバイスでよい。
データ記憶装置(416)は、システムを実行するのに必要なソフトウェア部分を記憶する。OS及びデバイス管理(412)は、デバイスを実行し、センサ及び周辺デバイスからのデータを使用し、データ記憶装置(416)に記憶されているアプリケーション及びアルゴリズムも使用して、シナリオベースの状況に適するようにシステムを実行する管理アルゴリズムである。
シナリオとは、盲目のユーザ又は視覚障害のあるユーザが直面する適切な状況及び目的である。例えば、盲目のユーザ又は視覚障害のあるユーザの意図が、通りを歩いて特定の終点目的地まで安全にたどり着くことである場合、GPSモジュールからのデータを用いた音声指示コマンドを備えたGPSナビゲーションSWが、Lidar又は超音波距離センサなどの距離センサと共に動作して、カメラからのデータを組み合わせて、AI SWによって歩道の道筋を識別し、盲人又は視覚障害者が歩道の道筋に従って確実に歩けるようにする。
道路の交差点に達すると、AIは、前方の道路を検出して、盲人又は視覚障害者に通知する。シナリオは道路横断シナリオに変更され、AIが車及び信号機を検出し、信号機の色を言葉で示し、車の交通の開始及び停止、並びに車の応答及び停止を通知する。これら全てに、経路を検証するため、さらには道路標識を読み取るためのコンパス及び加速度メータが付随する。
別のシナリオは、盲目のユーザ又は視覚障害のあるユーザが建物内に入った状況であり、GPSによるナビゲーションが終了してAIに引き継がれ、AIは、ランプの光及び他の動かない基準点を検出し、それらをコンパス、高度計、加速度センサからのデータと融合して、位置を測定する。AIにより、盲目のユーザ又は視覚障害のあるユーザを建物内の目的地に案内するために、ドア、エレベータ、及び壁の識別が行われる。
エレベータに乗ると、システムはそれを識別してエレベータ・シナリオに進む必要があり、AIカメラは、例えば、エレベータのドアが開いているか閉じているか、エレベータのコマンド・パネルがどこにあるかを識別し、ユーザが押そうとするボタンに書いてある数字を読み上げ、フロア番号を識別し、言葉で通知する必要がある。状況の別の実例は、盲目のユーザ又は視覚障害のあるユーザがプールの近くを歩いているときである。水面は、Lidarや超音波センサなどの距離センサには床として認識されてしまうが、AIカメラは、プールの縁部を検出することができ、危険を通知することができる。
シナリオの別の実例は、盲人又は視覚障害者がシチューを調理するときである。盲人又は視覚障害者がいくつかの食材をテーブルに置き、システムは、各素材の識別及びテーブル上での位置について盲人又は視覚障害者に指示を与える。
ここで図5を参照すると、図5は、本発明の一実施例による、物体の3次元位置データをシナリオベースの脳で解釈可能な音に処理するための方法(500)の簡略化された流れ図である。
一般性を失うことなく、この図は、図4(400)に述べたモバイル・デバイス(410)でのOS及びデバイス管理構成要素(412)のタスクを取り扱うための可能なアルゴリズムをより詳細に述べる。
この図は、OS及びデバイス管理構成要素(500)のタスクを取り扱うための可能なアルゴリズムをより詳細に述べる。
アルゴリズムは、スタート(502)の開始ステップから始まり、ユーザがデバイスの電源を入れる。次いで、アルゴリズムは、センサ及び周辺デバイス識別(504)のステップに進み、デバイスに取り付けられている又はデバイスに埋め込まれている全てのセンサ及び周辺デバイスをチェックして認識する。次のステップは、センサ及び周辺デバイスからのデータの取得(506)であり、アルゴリズムは、分析すべきセンサ及び周辺デバイスからデータを受信する。次いで、ユーザ要求シナリオ決定ステップ(508)を含む決定タスクがあり、選択されたシナリオがコンテキスト又はポリシーに基づいているかどうかを決定する。質問に対する回答が「はい」であり、音声コマンド若しくはジェスチャによって又はキーボード若しくは他の手段から特定のコマンドが受信された場合、適切なアプリケーションの検索ステップ(518)に進み、特定のシナリオを実行するために必要とされるアプリケーション又はアルゴリズムのリストを作成する。
次のステップは、適切な構成/アプリケーションの組合せの起動ステップ(520)のステップを実行することであり、適切なアプリケーションの検索ステップ(518)が作成したリストに従って必要とされるアプリケーション/アルゴリズムを実行し、それらを接続して、エンベロープ・アルゴリズム/アプリケーションを介して一緒に動作させ、所望のシナリオに従って機能する。
シナリオとは、盲目のユーザ又は視覚障害のあるユーザが直面する適切な状況及び目的である。例えば、盲目のユーザ又は視覚障害のあるユーザの意図が、通りを歩いて特定の終点目的地まで安全にたどり着くことである場合、GPSモジュールからのデータを用いた音声指示コマンドを備えたGPSナビゲーションSWが、Lidar又は超音波距離センサなどの距離センサと共に動作して、カメラからのデータを組み合わせて、AI SWによって歩道の道筋を識別し、盲人又は視覚障害者が歩道の道筋に従って確実に歩けるようにする。道路の交差点に達すると、AIは、前方の道路を検出して、盲人又は視覚障害者に通知する。シナリオは道路横断シナリオに変更され、AIが車及び信号機を検出し、信号機の色を言葉で示し、車の交通の開始及び停止、並びに車の応答及び停止を通知する。これら全てに、経路を検証するため、さらには道路標識を読み取るためのコンパス及び加速度メータが付随する。
別のシナリオは、盲目のユーザ又は視覚障害のあるユーザが建物内に入った状況であり、GPSによるナビゲーションが終了してAIに引き継がれ、AIは、ランプの光及び他の動かない基準点を検出し、それらをコンパス、高度計、加速度センサからのデータと融合して、位置を測定する。
AIにより、盲目のユーザ又は視覚障害のあるユーザを建物内の目的地に案内するために、ドア、エレベータ、及び壁の識別が行われる。エレベータに乗ると、システムはそれを識別してエレベータ・シナリオに進む必要があり、AIカメラは、例えば、エレベータのドアが開いているか閉じているか、エレベータのコマンド・パネルがどこにあるかを識別し、ユーザが押そうとするボタンに書いてある数字を読み上げ、フロア番号を識別し、言葉で通知する必要がある。状況の別の実例は、盲目のユーザ又は視覚障害のあるユーザがプールの近くを歩いているときである。水面は、Lidarや超音波センサなどの距離センサには床として認識されてしまうが、AIカメラは、プールの縁部を検出することができ、危険を通知することができる。
シナリオの別の実例は、盲人又は視覚障害者がシチューを調理するときである。盲人又は視覚障害者がいくつかの食材をテーブルに置き、システムは、各素材の識別及びテーブル上での位置について盲人又は視覚障害者に指示を与える。
所望のシナリオ構成を起動した後、システムは、センサ及び周辺デバイスからのデータ取得(506)のステップに戻り(破線)、又は停止(522)のステップに進み、ユーザがデバイスの電源を切断して停止する。
ユーザ要求シナリオ?(508)の「はい/いいえ」の質問への回答が「いいえ」の場合、どのシナリオを選択して表現するかを決定する方法のプロセスに進む。一般性を失うことなく、コンテキスト・シナリオベース?(510)などのいくつかの「はい/いいえ」の質問をパスすることができ、この場合には回答が「はい」の場合、AIシナリオ選択(512)のステップに進み、センサ及び周辺デバイスからのデータの取得(506)のステップから収集され、指定された状況にシナリオを適合させるために融合されてAI分析されたセンサ・データに基づいて、次のシナリオ状況に対する推奨を作成する。
次いで、選択されたシナリオが、適切なアプリケーションの検索(518)のステップに送られる。回答が「いいえ」の場合、シナリオ表現プロセスにおける次の判断ステップの「はい/いいえ」の質問に送るループを行うことができる。この図のスキームでは、一般性を失うことなく、適切な構成/アプリケーションの組合せの起動(520)のステップから、すでに述べたセンサ及び周辺デバイスからのデータの取得(506)のステップへのループバック(破線)を使用することを選択し、したがって、適切なアプリケーションの検索(518)のステップの決定はパスしており、この場合、適切なアプリケーションの検索(518)のステップに対して「ヌル(Null)」シナリオを渡し、すなわち、「ヌル」(何もしない)で、ループに戻る。
「はい/いいえ」の質問が、ポリシー・シナリオベース?(514)に基づいており、回答が「はい」の場合、ポリシー・シナリオ選択(516)のステップに進み、ポリシー・スキームに応じてシナリオが選択され、適切なアプリケーションの検索(518)のステップに転送される。「はい/いいえ」の質問に「いいえ」が与えられた場合、「Null」シナリオを、適切なアプリケーションの検索(518)のステップに渡し、「はい/いいえ」プロセスを通る全ての可能なシナリオを網羅するまでループを継続する(破線)。
ここで図6を参照すると、図6は、本発明の一実施例による、脳で解釈可能な音としてシナリオ関連情報を提供するための方法(600)の簡略化された流れ図である。
この図は、OS及びデバイス管理構成要素(600)のタスクを取り扱うための可能なアルゴリズムをより詳細に述べる。
アルゴリズムは、スタート(602)の開始ステップから始まり、ユーザがデバイスの電源を入れる。
次いで、アルゴリズムは、センサ及び周辺デバイス識別(604)のステップに進み、デバイスに取り付けられている又はデバイスに埋め込まれている全てのセンサ及び周辺デバイスをチェックして認識する。次に、センサ/デバイスに応じたアプリケーションの更新又は新たなストア・アプリケーション?(606)の「はい/いいえ」機能があり、これは、OS及びデバイス管理構成要素(600)が使用することができる、盲目のユーザ又は視覚障害のあるユーザに有益な新たなアルゴリズム/アプリケーションがあるかどうかをチェックする。
回答が「はい」の場合、ソフトウェア・パッケージを更新するプロセスを開始する。このプロセスでは、ストアからのアプリケーションの取得(608)の操作から開始して、インストールする必要のあるSWパッケージをダウンロードする。次に、アプリケーションの更新/インストール(610)が実行され、新たなSWパッケージがインストールされる。
SWパッケージをインストールした後の次のステップは、シナリオデータベースの更新(612)であり、シナリオの識別(616)及びシナリオへの適切なアプリケーションのマッピング;アプリケーション構成(618)の命令を更新し、それにより、OS及びデバイス管理構成要素(600)全体がアップグレードされる。OS及びデバイス管理構成要素(600)全体を更新した後、OS及びデバイス管理構成要素(600)全体の通常の/標準的な操作ステップに進む。
この通常の/標準的な操作ステップは、センサ及び周辺デバイスからのデータの取得(614)から始まり、アルゴリズムは、分析すべきセンサ及び周辺デバイスからデータを受信する。センサ/デバイスによるアプリケーション更新又は新たなストア・アプリケーション?(606)での「はい/いいえ」の質問に対する回答が「いいえ」である場合、センサ及び周辺デバイスからのデータの取得(614)での通常の/標準的な操作ステップの開始に直接進む。次に、シナリオの識別(616)のステップに進み、センサや周辺デバイスから受信したデータ(614)、データベースにあるシナリオ識別に関する命令、及びAI処理に基づいて、状況に対して適切なシナリオを識別する。
シナリオとは、盲目のユーザ又は視覚障害のあるユーザが直面する適切な状況及び目的である。例えば、盲目のユーザ又は視覚障害のあるユーザの意図が、通りを歩いて特定の終点目的地まで安全にたどり着くことである場合、GPSモジュールからのデータを用いた音声指示コマンドを備えたGPSナビゲーションSWが、Lidar又は超音波距離センサなどの距離センサと共に動作して、カメラからのデータを組み合わせて、AI SWによって歩道の道筋を識別し、盲人又は視覚障害者が歩道の道筋に従って確実に歩けるようにする。
道路の交差点に達すると、AIは、前方の道路を検出して、盲人又は視覚障害者に通知する。シナリオは道路横断シナリオに変更され、AIが車及び信号機を検出し、信号機の色を言葉で示し、車の交通の開始及び停止、並びに車の応答及び停止を通知する。これら全てに、経路を検証するため、さらには道路標識を読み取るためのコンパス及び加速度メータが付随する。
別のシナリオは、盲目のユーザ又は視覚障害のあるユーザが建物内に入った状況であり、GPSによるナビゲーションが終了してAIに引き継がれ、AIは、ランプの光及び他の動かない基準点を検出し、それらをコンパス、高度計、加速度センサからのデータと融合して、位置を測定する。
AIにより、盲目のユーザ又は視覚障害のあるユーザを建物内の目的地に案内するために、ドア、エレベータ、及び壁の識別が行われる。エレベータに乗ると、システムはそれを識別してエレベータ・シナリオに進む必要があり、AIカメラは、例えば、エレベータのドアが開いているか閉じているか、エレベータのコマンド・パネルがどこにあるかを識別し、ユーザが押そうとするボタンに書いてある数字を読み上げ、フロア番号を識別し、言葉で通知する必要がある。状況の別の実例は、盲目のユーザ又は視覚障害のあるユーザがプールの近くを歩いているときである。水面は、Lidarや超音波センサなどの距離センサには床として認識されてしまうが、AIカメラは、プールの縁部を検出することができ、危険を通知することができる。
シナリオの別の実例は、盲人又は視覚障害者がシチューを調理するときである。盲人又は視覚障害者がいくつかの食材をテーブルに置き、システムは、各素材の識別及びテーブル上での位置について盲人又は視覚障害者に指示を与える。
次のステップは、シナリオへの適切なアプリケーションのマッピング;アプリケーション構成(618)であり、特定のシナリオを実行するために必要とされるアプリケーション又はアルゴリズムのリストを作成する。次のステップは、適切なシナリオのアプリケーション構成の起動(620)のステップを実行することであり、シナリオへの適切なアプリケーションのマッピング;アプリケーション構成(618)のステップで作成されたリストに従って必要とされるアプリケーション/アルゴリズムを実行し、それらを接続して、エンベロープ・アルゴリズム/アプリケーションを介して一緒に動作させ、所望のシナリオに従って機能する。
所望のシナリオ構成を起動した後、システムは、センサ及び周辺デバイスからのデータ取得(614)のステップに戻り(破線)、又は停止(622)のステップに進み、ユーザがデバイスの電源を切断して停止する。
本明細書には、本発明のシステムを着用した盲人及び視覚障害者がシステム自体の補助のみによって環境に対処する、テキストを読む、及び物体を識別するのを助ける、システム、方法、コンピュータ・プログラム製品又はハードウェア製品、及びAIが開示されている。
上述したように、人間の聴覚は立体音響型であり、異なる周波数及び音量を区別することができ、これらの機能が音による環境の理解に利用され、盲人及び視覚障害者が環境に対処するためのウェアラブル技術システムを構築することができる。
したがって、いくつかの実施例では、そのようなシステムは、いくつかの距離センサ、専用の高度なアルゴリズム、及びAIを含み、センサから収集されたデータをシナリオベースで融合し、そのデータを立体音響サウンドによって(物体までの距離及び方向を表すように)システムの着用者に送信し、着用者が環境を理解してそれに従って行動できるようにする。いくつかの実施例では、立体音響サウンドは、右耳と左耳との間の音の遅延に基づいて物体への方向を与え、また、いくつかの実施例では音量の強さとして(より近い物体はより高い音量の音によって表される)、又はいくつかの実施例では周期音の周期性として(より近い物体はより短い周期の周期音によって表される)、又はいくつかの実施例では音の周波数として(より近い物体はより高い周波数の音によって表される)距離を与える。
いくつかの実施例では、環境を網羅するために、異なるカバレッジ・エリアからデータを収集するために多数のセンサを使用する、又は機械的に若しくはデジタルでスキャンするスキャン・センサ(盲人が使う歩行補助杖と同様の使用法)を使用する必要がある。最も理想的なのは、広い角度から収集するセンサを使用し、データを分割して部分ごとに処理することができることである(カメラで写真を撮影し、写真を、個別に処理される複数の部分に分割することができるのと同様に)。
いくつかの実施例では、方法は、所与の時間に各センサからの情報を個別にシナリオベースで分析し、全てのデータを結合して立体音響サウンドにする(それにより、物体までの距離及び方向を表す)ことである。あらゆる結果データは、目的、人から物体までの距離、及び向きに応じて、異なる音及び音声によって区別される。カメラの場合、システムはあらゆる写真を個別に捕捉し、独自の音声及び音を用いた適切なシナリオベースの表現を提供する。
いくつかの実施例では、センサ・データを処理するシナリオベースのアルゴリズムは、向きに依存する。特に距離検知を扱うとき、向きが重要である。例えば、障害物又は穴を見つけるためのセンサは、障害物又は穴がない場合は警告すべきではなく、何かを検出した瞬間に、それに応じて警告する。それを行うために、特定の距離がゼロ点として較正され、それよりも長い又は短い距離では、センサは、それぞれ負又は正の距離として警告する。しかし、いくつかの実施例では、水平方向を向いている人の顔に装着された長距離センサは、距離自体のみを警告し、無限の距離がゼロとして較正され、障害物が人に近づくにつれて警告が強くなる。
いくつかの実施例では、システムはカメラを備える。例えば水で満たされたプールがあるとき、距離センサは、穴を警告することもしないこともあるが、カメラからの写真を処理するAIは、水面がプールであることを検出し、プールに落ちないように人に警告する。
いくつかの実施例では、システムはワイヤレス・センサを含むことがあり、ユーザが着用するのにより快適な設計になる。全てのセンサは、人が携帯するメイン・コンピュータ又はハードウェアデバイスに接続される。パーソナル・コンピュータ又はデバイスは、小さな単一のボード又は1組のボードであるが、全てのアプリケーション、アルゴリズム、及びAIを実行することができる十分な処理ハードウェアを備える。システムは、ワイヤレス・センサ及びパーソナル・コンピュータ又は処理デバイスを含む眼鏡及びベルトとして着用可能である。
いくつかの実施例では、ヘッドセットはワイヤレスでよい。
いくつかの実施例では、シナリオベースのアルゴリズムはいくつかの部分を含み、各部分が異なるものを分析し、例えばフロント・カメラでは、テキストのOCR分析が行われ、特定の音声でそれが読み上げられる。1つのアルゴリズムは、センサが何を検出しているかを分析するAIであり、例えばカメラがカップやコンピュータのマウスの写真を撮影した場合、AIは、その物体を検出し、何であるかを分析し、特定の音声でユーザに警告する。いくつかの実施例では、AIは、カメラの写真を処理する顔認識アルゴリズムを有することもある。
いくつかの実施例では、シナリオに応じて、異なるセンサの異なる距離が、立体音響方式で警報として発出され(物体までの距離と方向を表すように)、周囲にあるものをユーザに通知し、ユーザが独立して歩いて環境に対処できるようにする。
いくつかの実施例では、本発明は、全ての距離センサ及びカメラからの全てのデータを融合し、ユーザに立体音響方式で(物体までの距離及び方向を表すように)シナリオベースで送信される。いくつかの実施例では、システムは、ユーザがいる場所、向き、及び向いている方向をユーザに警告する目的で、慣性及び加速度センサ並びに磁場センサ(ホール効果及びデジタルコンパス)を含むこともできる。
いくつかの実施例では、本発明によるシステムのシナリオベースのアルゴリズムは、距離及びカメラから来た処理情報をより良くカバーするために、慣性、加速度計、及び磁気センサからの向きを使用することができる。システム・アルゴリズムは、距離測定用のステップ・カウンタのために慣性、加速度計、及び磁気センサを使用することがある。上記の全ての情報は、いくつかの実施例では、GPS情報又は他のナビゲーション手順(ソフトウェア又はハードウェア)とシナリオベースで融合されることがあり、その結果、システムは、音声情報をGPSナビゲーション又は他のナビゲーション手順に追加する。システムは、全てのセンサを、建物内でのナビゲーションを行うアプリケーションに使用することもできる。例えば、シナリオベースのアルゴリズムは、連続カメラ写真を撮影することができ、連続写真間の相違及び変化を検出して動きを検出し、それを走行距離計からの情報と融合してステップをカウントし、またそれを慣性センサ及び加速度センサなどと融合して(太陽の認識、及び時間に応じた太陽の位置によるナビゲーションなど)、より良いナビゲーション及びマッピングを得る。いくつかの実施例では、センサの照準方向情報は、正しい解釈を与えるために、及びセンサからの情報をより良く処理するために重要である。例えばセンサが下を向いている場合、センサは、穴や障害物を検出するためのものであり、センサが水平方向に向いている場合は、人や標識などユーザの前にあるものを検出するためのものである。
いくつかの実施例では、システムは、ソフトウェアの少なくとも1つの2つの部分を含む。1つは、シナリオ識別の選択である。シナリオは、以下のものを含む任意の方法で表すことができる。
1.ユーザからの介入又はコマンド
2.ポリシーから導出される選択
3.センサから収集されたデータに基づくAI決定により導出されたコンテキスト
ソフトウェアの第2の部分は、シナリオベースのプログラムの実装を成すアルゴリズム又はアプリケーションの実装構成要素である。
本発明は、盲人及び視覚障害者の生活の質を改善するためのシステム、方法、デバイス、及びソフトウェアを提供する。
本発明のシステムは、システムのデバイス自体の助けのみによって、盲人及び視覚障害者が、テキストを読むこと、物体及び色を認識すること、並びにあらゆる環境(屋内及び屋外)において見えているかのように自由に歩いて行動することの全てを一度に可能にするように構築及び構成される。
このデバイスは、盲人及び視覚障害者が自分の能力を十分に発揮し、経済的及び社会的に社会に貢献できるようにする。盲人及び視覚障害者のための福祉や介護に社会がお金をかける必要がなくなり、また、盲人及び視覚障害者が一般の労働サイクルに容易に入ることができ、それにより生産性が向上するため、盲人及び視覚障害者は社会の負担にはならない。
本発明は、センサから収集された情報及びデータを処理するための新規のシナリオベースの方法を備えたシステムに関し、データを音声によって半生データとしてユーザに送信し、ユーザの頭/脳が処理し、それにより、ユーザは、「耳で見る」ことで周囲環境を理解ができるようになる。この技法により、システムは、コンピュータ・リソースをそれほど使用しない。
本発明のいくつかの実施例によれば、システムは、エコーロケーションを使用する。エコーロケーションは、音波を使用して、物体が3次元空間のどこにあるかを決定するものである。聴覚機能により、人間は音源から方向や距離を検出することができ、異なる音/音声の違いを識別することが可能である。このシステムは、いくつかの異なるタイプの距離センサ(超音波、LIDARなど)、カメラ、物体を識別してテキストを読み上げるためのニューラル・ネットワーク、及びCan-U-Cのシナリオベースのアルゴリズムを含む。システムは、数十MBPSの中帯域幅でビデオ、長さ、場所としてセンサからデータを収集する。
いくつかの実施例によれば、本発明のシステムは、データを処理し、それを最大400KBPSのレートでアナログ・オーディオで送信する。これは、低解像度ビデオに相当するが、環境を理解するのに十分である。50KBPS程度のより小さい帯域幅でも機能を実施することが可能である。システムは、情報、すなわち場所、速度、方向などを符号化し、それを、人の頭がそれを迅速且つ直感的に処理できる形で人にシナリオベースで送信する。
本発明は、システム、方法、及び/又はコンピュータ・プログラム製品でよい。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実施させるためのコンピュータ可読プログラム命令を有するコンピュータ可読記憶媒体を含むことがある。
コンピュータ可読記憶媒体は、命令実行デバイスが使用するための命令を保持及び記憶することができる有形のデバイスでよい。コンピュータ可読記憶媒体は、限定はしないが例えば、電子記憶デバイス、磁気記憶デバイス、光記憶デバイス、及び電磁記憶デバイス、半導体記憶デバイス、又は上記デバイスの任意の適切な組合せでよい。非網羅的なリストは、より多くのコンピュータ・ディスケット、ハードディスク、ランダム・アクセス・メモリ(RAM:random access memory)、読み出し専用メモリ(ROM:read only memory)、消去可能なプログラム可能な読み出し専用メモリ(EPROM:erasable programmable read only memory又はフラッシュメモリ)、静的ランダム・アクセス・メモリ(SRAM:static random access memory)、ポータブル・コンパクトディスク読み出し専用メモリ(CD-ROM:compact disc read only memory)、メモリスティック、命令が記録された機械的に符号化されたデバイス、及び上記のものの任意の適切な組合せである。本明細書で使用されるコンピュータ可読記憶媒体は、電波又は他の自由に伝播する電磁波、導波管又は他の伝送媒体を通って伝播する電磁波(例えば、光ファイバ・ケーブルを通過する光パルス)、又はワイヤを介して送信される電気信号などの一時的な信号自体であると解釈すべきではない。そうではなく、コンピュータ可読記憶媒体は、非一時的な(すなわち不揮発性の)媒体である。
本明細書で述べるコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理デバイスにダウンロードすることができ、又はネットワーク、例えばインターネット、ローカル・エリア・ネットワーク、ワイド・エリア・ネットワーク、及び/又はワイヤレス・ネットワークを介して外部コンピュータ又は外部記憶デバイスにダウンロードすることができる。ネットワークは、銅線伝送ケーブル、光伝送ファイバ、ワイヤレス伝送、ルータ、ファイア・ウォール、スイッチ、ゲートウェイ・コンピュータ、及び/又はエッジサーバを備える。各コンピューティング/処理デバイスでのネットワーク・アダプタ・カード又はネットワーク・インターフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、コンピュータ可読プログラム命令を転送して、それぞれのコンピューティング/処理デバイス内のコンピュータ可読記憶媒体に記憶する。
本発明の動作を実施するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA:instruction-set-architecture)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は、1つ若しくは複数のプログラミング言語の任意の組合せで書かれたソース・コード若しくはオブジェクト・コードでよく、そのようなプログラミング言語は、Java(登録商標)、Smalltalk、Matlab、C++などのオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語などの従来の手続き型プログラミング言語を含む。コンピュータ可読プログラム命令は、ユーザのコンピュータ上で完全に実行される、ユーザのコンピュータ上で一部実行される、スタンドアロン・ソフトウェア・パッケージとして実行される、一部はユーザのコンピュータ上で一部はリモート・コンピュータ上で実行される、又はリモート・コンピュータ若しくはサーバ上で完全に実行されることがある。後者のシナリオでは、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN:local area network)若しくはワイド・エリア・ネットワーク(WAN:wide area network)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続されることがあり、又は(例えば、インターネット・サービス・プロバイダを使用してインターネットを介して)外部コンピュータへの接続が行われることがある。いくつかの実施例では、例えばプログラマブルロジック回路、フィールド・プログラマブル・ゲート・アレイ(FPGA:field-programmable gate array)、プログラマブル・ロジック・アレイ(PLA:programmable logic array)を含む電子回路は、本発明の態様を実施するために、コンピュータ可読プログラム命令の状態情報を利用して電子回路をパーソナライズすることによって、コンピュータ可読プログラム命令を実行することができる。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータ、又は他のプログラム可能なデータ処理装置のプロセッサに提供されて機械を生成し、コンピュータ又は他のプログラム可能なデータ処理装置のプロセッサによって実行される命令が、機能/作用を実装するための手段を作り出す。これらのコンピュータ可読プログラム命令はまた、コンピュータ、プログラム可能なデータ処理装置、及び/又は他のデバイスに特定の様式で機能するように指示することができるコンピュータ可読記憶媒体に記憶することもでき、それにより、命令が記憶されているコンピュータ可読記憶媒体は、機能/作用の態様を実装する命令を含む製造物を含む。
コンピュータ可読プログラム命令は、コンピュータ、他のプログラム可能なデータ処理装置、又は他のデバイスにロードすることもでき、コンピュータ、他のプログラム可能な装置、又は他のデバイスにおいて一連の操作ステップを実施させて、コンピュータ実装プロセスを生成し、それにより、コンピュータ、他のプログラム可能な装置、又は他のデバイスで実行される命令が機能/作用を実現する。
本発明の様々な実施例の説明は、例示の目的で提示されているが、包括的であること又は開示する実施例に限定されることを意図されてはいない。説明した実施例の範囲及び精神から逸脱することなく、多くの修正及び変形が当業者には明らかであろう。本明細書で使用した用語は、実施例の原理、市場で見られる技術に勝る実用上の適用若しくは技術的改良を最良に説明するために、又は本明細書に開示する実施例を当業者が理解できるようにするために選択した。
本明細書に引用する参考文献は、本発明に適用可能な多くの原理を教示する。したがって、追加又は代替の詳細、特徴、及び/又は技術的背景の教示に適切な場合には、これらの刊行物の全内容を参照により本明細書に組み込む。
本発明は、本明細書に含まれる又は図面に示される説明に記載される詳細に適用を限定されないことを理解されたい。本発明は、他の実施例が可能であり、様々な形で実践及び実施することができる。添付の特許請求の範囲において定義される及びそれによって定義される本発明の範囲から逸脱することなく、本明細書において前述した本発明の実施例に様々な修正及び変更を適用することができることを当業者は容易に理解されよう。

Claims (23)

  1. 視覚障害のあるユーザの環境に関するシナリオベースのアルゴリズムを使用してシナリオベースの情報を処理するためのシステムであって、
    前記情報を収集し、前記情報に関連する環境データをプロセッサに転送するように構成された複数のセンサと、
    a.シナリオ識別コンポーネントと
    b.App選択コンポーネントと、
    を含むソフトウェアを格納するデータストレージと、
    i)前記データストレージに格納された前記ソフトウェアをアクティブ化し、
    ii)シナリオベースのアルゴリズムを使用して前記環境データを受信し、サウンド・データを出力する、
    ように適合されたプロセッサと、
    前記視覚障害のあるユーザに関連付けられたポータブル通信デバイスであって、前記環境データに関連付けられた前記プロセッサからの前記サウンド・データを受信するように適合され、前記サウンド・データを前記視覚障害のあるユーザのために脳で解釈可能な音に変換するように適合されて、前記ユーザに前記環境のリアルタイムな理解を提供するようにする、ポータブル通信デバイスであって、前記シナリオ識別コンポーネントは、前記ユーザが現在置かれているシナリオに従って、前記ユーザの識別に基づいて、前記App選択コンポーネントから特定のアプリケーション(Appを前記ユーザに提供するように構成されている、ポータブル通信デバイス、
    を備えるシステム。
  2. 前記ポータブル通信デバイスが、前記ユーザの近傍にある物体からの距離及び方向を表すためにシナリオベースの立体音響サウンドを出力し、それによって前記ユーザが環境内を移動することを可能にする、請求項1に記載のシステム。
  3. 前記シナリオベースのアルゴリズムを使用して処理された前記立体音響サウンドが、前記ユーザの右耳と左耳との間の音の遅延に基づいて、前記物体からの前記距離及び方向に関する情報を前記ユーザに提供する、請求項2に記載のシステム。
  4. 前記ポータブル通信デバイスが、前記距離に応答して、前記立体音響サウンドの音量を調整するように構成される、請求項2に記載のシステム。
  5. a)コンテキストシナリオ識別のためのアルゴリズム又はコンポーネント、及びb)前記ユーザの前記識別に基づくシナリオ決定のためのアルゴリズム又はコンポーネント、を更に含み、当該a)及びb)のコンポーネント及び又はアルゴリズムは、前記ユーザの前記識別および前記シナリオに基づいて、前記ユーザのための最適化された複数のAppの選択又は唯一のAppを出力するために互いに更新する、請求項1のシステム。
  6. 視覚障害のあるユーザの環境に関するシナリオベースの情報をシナリオベースのアルゴリズムを使用したシステムによって処理するための方法であって、
    ユーザ・デバイスのセンサから情報及び環境データを収集するステップであって、前記環境データが前記ユーザの近傍にある物体に関連付けられている、ステップと、
    シナリオ識別コンポーネントとApp選択コンポーネントとをアクティブ化するステップと、
    前記ユーザの識別に基き、そして前記ユーザが現在置かれているシナリオに応答して、前記App選択コンポーネントから特定のアプリケーション(App)を前記ユーザに提供するステップと、
    関連するサウンド・データを出力するためにシナリオベースのアルゴリズムを使用して前記情報を処理するステップと、
    前記環境データに関連する前記サウンド・データを、前記視覚障害のあるユーザのためのシナリオベースの脳で解釈可能な音に変換して、前記ユーザが前記環境をリアルタイムで理解できるようにするステップと、
    を含む方法。
  7. シナリオベースのアルゴリズムを使用する前記処理及び前記変換が、前記ユーザの近傍にある物体からの距離及び方向を表すために立体音響サウンドを出力し、それによって前記ユーザが環境内を移動することを可能にする、請求項6に記載の方法。
  8. 前記立体音響サウンドが、前記ユーザの右耳と左耳との間の音の遅延に基づいて、前記物体の少なくとも1つからの前記距離及び方向に関するシナリオベースの情報を前記ユーザに提供する、請求項7に記載の方法。
  9. 前記デバイスが、前記距離に応答して、前記シナリオベースの立体音響サウンドの音量を調整するように構成される、請求項8に記載の方法。
  10. 前記シナリオベースの立体音響サウンドが、前記ユーザの右耳と左耳との間の音の前記遅延に基づいて前記少なくとも1つの物体への方向を提供し、周期音の周期性によって前記距離の標示を提供し、より近い物体が、より短い周期の前記周期音によって表される、請求項9に記載の方法。
  11. 前記シナリオベースの立体音響サウンドが、右耳と左耳との間の音の遅延に基づいて前記少なくとも1つの物体への前記方向を提供し、音の周波数によって前記距離を提供し、より近い物体が、より高い周波数の音によって表される、請求項10に記載の方法。
  12. 前記シナリオベースのアルゴリズムが、光学文字認識(OCR)のアルゴリズムを実施することによって、音声読み上げテキストをさらに出力する、請求項6に記載の方法。
  13. 前記OCRによる情報が、前記ユーザのパーソナル・デバイスのカメラからのものであり、前記カメラが、前記OCRのために、さらには前記ユーザの近傍でのテキストの再生のために使用される、請求項12に記載の方法。
  14. 前記シナリオベースのアルゴリズムが、前記パーソナル・デバイスに配設された人工知能(AI)アルゴリズムを使用することによって物体の音声識別を組み合わせる、請求項13に記載の方法。
  15. 前記カメラからの前記情報が、前記AIによって物体を識別し、前記近傍にある前記物体の名前を再生するために使用される、請求項14に記載の方法。
  16. 前記AIのアルゴリズムが、前記カメラによってキャプチャされた画像を処理するように適合された顔認識アルゴリズムを含む、請求項15に記載の方法。
  17. 異なる方向又は目的からの前記情報が、前記シナリオベースのアルゴリズムを使用して処理され、異なる音声及び音によって出力され、前記ユーザが、異なる方向及び/又は情報源からの情報を識別及び区別することができるようにする、請求項6に記載の方法。
  18. 前記センサ・データを処理する前記シナリオベースのアルゴリズムが、向きに依存する、請求項17に記載の方法。
  19. 前記収集ステップが、
    異なるカバレッジ・エリアからデータを収集すること、
    機械的に又はデジタルでスキャンするスキャン・センサを採用すること、及び
    広角のセンサを使用して分割して部分ごとに処理される前記データを収集すること、
    の少なくとも1つを含む、請求項8に記載の方法。
  20. 各センサからの前記情報が、前記シナリオ及び前記センサの方向又は配置に基づいて、別の方法で処理される、請求項6に記載の方法。
  21. エコー及びノイズ・キャンセレーションを使用し、前記シナリオベースのアルゴリズムが、ノイズとして識別された音を除去し、前記ユーザが周囲サウンド情報を明瞭に得ることができるようにする、請求項20に記載の方法
  22. 前記方法を実行するために、少なくとも1つのハードウェア・プロセッサによって実行可能な少なくとも2つのソフトウェア部分を実装することを含み、
    第1のソフトウェア部分は、
    ユーザからの介入又はコマンド、
    ポリシーから導出された選択、及び
    センサから収集されたデータに基づくAI決定によって導出されたコンテキスト
    から選択された任意の方法によって前記シナリオを表すことができる、シナリオ識別を選択するためのソフトウェアを含み、
    第2のソフトウェア部分は、前記シナリオベースのプログラムの実施を行うアルゴリズム又はアプリケーションを実施するように構成された、請求項6に記載の方法。
  23. a)コンテキストシナリオ識別のためのアルゴリズム又はコンポーネントと
    b)前記ユーザの前記識別に基づくシナリオ決定のためのアルゴリズム又はコンポーネント、をアクティブ化することを更に含み、当該a)及びb)のコンポーネント及び又はアルゴリズムは、前記ユーザの前記識別および前記シナリオに基づいて、前記ユーザのための最適化された複数のAppの選択又は唯一のAppを出力するために互いに更新する、請求項6の方法。
JP2021547324A 2019-02-12 2020-02-11 盲人及び視覚障害者用の立体音響装置 Active JP7549588B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962804568P 2019-02-12 2019-02-12
US62/804,568 2019-02-12
PCT/IL2020/050162 WO2020165899A1 (en) 2019-02-12 2020-02-11 Stereophonic apparatus for blind and visually-impaired people

Publications (3)

Publication Number Publication Date
JP2022526702A JP2022526702A (ja) 2022-05-26
JPWO2020165899A5 JPWO2020165899A5 (ja) 2023-02-20
JP7549588B2 true JP7549588B2 (ja) 2024-09-11

Family

ID=71945267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021547324A Active JP7549588B2 (ja) 2019-02-12 2020-02-11 盲人及び視覚障害者用の立体音響装置

Country Status (8)

Country Link
US (1) US11521515B2 (ja)
EP (1) EP3924873A4 (ja)
JP (1) JP7549588B2 (ja)
KR (1) KR20210126664A (ja)
CN (1) CN113678141A (ja)
BR (1) BR112021015739A2 (ja)
IL (1) IL285303B1 (ja)
WO (1) WO2020165899A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11670144B2 (en) * 2020-09-14 2023-06-06 Apple Inc. User interfaces for indicating distance
US20220187906A1 (en) * 2020-12-16 2022-06-16 Starkey Laboratories, Inc. Object avoidance using ear-worn devices and image sensors
CN113589321B (zh) * 2021-06-16 2024-05-24 浙江理工大学 视觉障碍人员的智能导航助手
CN113672193B (zh) * 2021-08-23 2024-05-14 维沃移动通信有限公司 音频数据播放方法与装置
WO2024203053A1 (ja) * 2023-03-30 2024-10-03 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014508596A (ja) 2011-02-24 2014-04-10 アイシス イノベーション リミテッド 視覚障害を有する個人のための光学装置
WO2016110775A1 (en) 2015-01-05 2016-07-14 International Business Machines Corporation Augmenting information request
US20170228597A1 (en) 2016-01-06 2017-08-10 Orcam Technologies Ltd. Wearable apparatus and methods for causing a paired device to execute selected functions
US20180036175A1 (en) 2016-08-08 2018-02-08 Univ Johns Hopkins Object Recognition and Presentation for the Visually Impaired
JP2018524135A (ja) 2015-06-12 2018-08-30 アイシンス、 エス.エル. 盲人又は視覚障害者が音声や触覚によって周囲環境を解釈することを可能にするポータブルシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100807180B1 (ko) * 2006-05-23 2008-02-27 한국과학기술원 시각장애인을 위한 길안내 서비스 시스템 및 방법
US9947215B2 (en) * 2014-09-26 2018-04-17 Harman International Industries, Incorporated Pedestrian information system
CN104983511A (zh) * 2015-05-18 2015-10-21 上海交通大学 针对全盲视觉障碍者的语音帮助智能眼镜系统
US20180185232A1 (en) * 2015-06-19 2018-07-05 Ashkon Namdar Wearable navigation system for blind or visually impaired persons with wireless assistance
US11115698B2 (en) * 2015-08-31 2021-09-07 Orcam Technologies Ltd. Systems and methods for providing recommendations based on a level of light
CN107864440B (zh) * 2016-07-08 2022-02-08 奥迪康有限公司 包括eeg记录和分析系统的助听系统
US9792501B1 (en) * 2016-12-31 2017-10-17 Vasuyantra Corp. Method and device for visually impaired assistance
US10311889B2 (en) * 2017-03-20 2019-06-04 Bose Corporation Audio signal processing for noise reduction
US10321258B2 (en) * 2017-04-19 2019-06-11 Microsoft Technology Licensing, Llc Emulating spatial perception using virtual echolocation
CA3037657C (en) * 2018-03-22 2023-03-14 Jennifer Hendrix Route guidance and obstacle avoidance system
CN108743266A (zh) * 2018-06-29 2018-11-06 合肥思博特软件开发有限公司 一种盲人智能导航避障出行辅助方法及系统
US11231975B2 (en) * 2018-09-29 2022-01-25 Apple Inc. Devices, methods, and user interfaces for providing audio notifications

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014508596A (ja) 2011-02-24 2014-04-10 アイシス イノベーション リミテッド 視覚障害を有する個人のための光学装置
WO2016110775A1 (en) 2015-01-05 2016-07-14 International Business Machines Corporation Augmenting information request
JP2018524135A (ja) 2015-06-12 2018-08-30 アイシンス、 エス.エル. 盲人又は視覚障害者が音声や触覚によって周囲環境を解釈することを可能にするポータブルシステム
US20170228597A1 (en) 2016-01-06 2017-08-10 Orcam Technologies Ltd. Wearable apparatus and methods for causing a paired device to execute selected functions
US20180036175A1 (en) 2016-08-08 2018-02-08 Univ Johns Hopkins Object Recognition and Presentation for the Visually Impaired

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
三柳 英樹,"テクマトリックス、AIでAPIテストシナリオを自動生成する「SOAtest with Smart API Test Generator」を販売",INTERNETARCHIVE,waybackmachine,日本,Internet Archive,2018年08月20日,インターネット <URL: https://web.archive.org/web/20180820072730/https://cloud.watch.impress.co.jp/docs/news/1138590.html>,[2023年11月25日検索]

Also Published As

Publication number Publication date
EP3924873A4 (en) 2023-10-11
US20200258422A1 (en) 2020-08-13
KR20210126664A (ko) 2021-10-20
JP2022526702A (ja) 2022-05-26
US11521515B2 (en) 2022-12-06
CN113678141A (zh) 2021-11-19
WO2020165899A1 (en) 2020-08-20
IL285303A (en) 2021-09-30
BR112021015739A2 (pt) 2021-10-26
EP3924873A1 (en) 2021-12-22
IL285303B1 (en) 2024-08-01

Similar Documents

Publication Publication Date Title
JP7549588B2 (ja) 盲人及び視覚障害者用の立体音響装置
US11259108B2 (en) Information processing device and information processing method
US9488833B2 (en) Intelligent glasses for the visually impaired
CN204814723U (zh) 一种导盲系统
US9508269B2 (en) Remote guidance system
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
RU2706462C2 (ru) Облегчение взаимодействия между пользователями и их окружающими средами с помощью гарнитуры, имеющей механизмы ввода
CN106843491A (zh) 带增强现实的智能设备及电子设备
US20230050825A1 (en) Hands-Free Crowd Sourced Indoor Navigation System and Method for Guiding Blind and Visually Impaired Persons
US10062302B2 (en) Vision-assist systems for orientation and mobility training
WO2023061927A1 (en) Method for notifying a visually impaired user of the presence of object and/or obstacle
US9996730B2 (en) Vision-assist systems adapted for inter-device communication session
JP6500139B1 (ja) 視覚支援装置
Vítek et al. New possibilities for blind people navigation
Manjari et al. CREATION: Computational constRained travEl aid for objecT detection in outdoor eNvironment
WO2020188626A1 (ja) 視覚支援装置
CN117357380A (zh) 一种行走辅助导航方法
KR20240040737A (ko) 다수의 마이크로폰들로부터의 오디오 신호들의 프로세싱
Kunapareddy et al. Smart Vision based Assistant for Visually Impaired
WO2020170489A1 (ja) 無人飛行体、情報処理方法およびプログラム
EP3882894B1 (en) Seeing aid for a visually impaired individual
TWI808017B (zh) 可攜式視障輔助系統
CN118102204A (zh) 一种行为指引方法、电子设备及介质
US20220413795A1 (en) Autonomous mobile body, information processing method, program, and information processing apparatus
CN117041879A (zh) 针对盲人的出行方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A525

Effective date: 20211011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240229

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240830

R150 Certificate of patent or registration of utility model

Ref document number: 7549588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150