JP2017027401A - 表示操作装置 - Google Patents
表示操作装置 Download PDFInfo
- Publication number
- JP2017027401A JP2017027401A JP2015145926A JP2015145926A JP2017027401A JP 2017027401 A JP2017027401 A JP 2017027401A JP 2015145926 A JP2015145926 A JP 2015145926A JP 2015145926 A JP2015145926 A JP 2015145926A JP 2017027401 A JP2017027401 A JP 2017027401A
- Authority
- JP
- Japan
- Prior art keywords
- tactile
- display
- presenter
- image
- display area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
図1及び図2に示す本発明の第一実施形態による表示操作装置100は、車両に搭載され、例えば空調装置121(図3参照)及びオーディオ装置122(図3参照)といった他の車載機器への操作を受け付ける車両用のユーザーインターフェースとして機能する。表示操作装置100の各構成は、センタークラスター111及びセンターコンソール112に収容されている。表示操作装置100は、矩形の平面状に規定された仮想の空中表示領域60(図1のドットの範囲を参照)に、操作対象物61の映像を表示する。空中表示領域60は、センターコンソール112の上方であって、センタークラスター111の後方の空間に規定されている。運転席に着座する運転者及び助手席に着座する乗員等は、操作者OPとして、運転席及び助手席の間に空中表示されたバーチャルな操作対象物61の映像を操作することができる。
図7に示す本発明の第二実施形態は、第一実施形態の変形例である。第二実施形態における操作対象物261の映像には、複数の押釦262が含まれている。複数の押釦262は、超音波発生面31に沿って左右方向HDに並んでいる。押釦262には、操作者OPに向けられた押圧面263が設けられている。押圧面263は、奥側へ向かうに従って上方に僅かに傾斜している。こうした押圧面263の傾斜により、各押釦262は、触覚提示器30の位置する下方へ向けたプッシュ操作の可能な入力部として操作者OPに認識され得る。
図8及び図9示す本発明の第三実施形態は、第一実施形態の別の変形例である。第三実施形態における表示操作装置300は、操作体特定器20、第一触覚提示器330、第二触覚提示器340、空間表示器350、及び制御ユニット310を備えている。
図10及び図11示す本発明の第四実施形態は、第三実施形態の変形例である。第四実施形態による表示操作装置400は、第三実施形態の第一触覚提示器330及び第二触覚提示器340に替えて、左方触覚提示器430及び右方触覚提示器440を備えている。これら触覚提示器430,440は、空中表示領域60の左右方向HDの両側に一つずつ、互いに対向して設けられている。
図12〜図15示す本発明の第五実施形態は、第三実施形態の別の変形例である。第五実施形態による表示操作装置500の触感制御部513は、触覚提示器530及び移動機構580と電気的に接続されている。触覚提示器530は、第一実施形態と実質的に同一の構成である。触覚提示器530は、空中表示領域60に超音波発生面31を向けた姿勢を維持しつつ、空中表示領域60の周囲を移動可能とされている。
図16〜図20示す本発明の第六実施形態は、第三実施形態のさらに別の変形例である。表示操作装置600の触感制御部613は、空中表示領域60に対して互いに異なる位置に設けられた複数(三つ)の触覚提示器630,640a,640bと電気的に接続されている。下方触覚提示器630は、第一実施形態の触覚提示器30(図6参照)に相当し、空中表示領域60の下方から触感刺激を発生させる。左方触覚提示器640aは、第四実施形態の左方触覚提示器430(図10参照)に相当し、空中表示領域60の左方から触感刺激を発生させる。右方触覚提示器640bは、第四実施形態の右方触覚提示器440(図10参照)に相当し、空中表示領域60の右方から触感刺激を発生させる。
以上、本発明による複数の実施形態について説明したが、本発明は、上記実施形態に限定して解釈されるものではなく、本発明の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
Claims (11)
- 空間に表示された操作対象物(61,261,361,461)の映像を操作者(OP)に操作させる表示操作装置であって、
空間に規定される仮想の空中表示領域(60)に、前記操作対象物の映像を表示する空間表示器(50)と、
前記空中表示領域にある操作体(F)の位置を特定する位置特定器(21)と、
前記位置特定器にて位置を特定された前記操作体が前記操作対象物の映像に触れると、この操作体に非接触で触感刺激を与える触覚提示器(30,330,430,440,530,630)と、を備え、
前記操作対象物の映像は、前記操作者の一部である前記操作体において触感刺激への感度の高い高感度部位(SR)が、前記触覚提示器による触感刺激を受け易い方向を向くように、前記操作体の状態を誘導する表示態様であることを特徴とする表示操作装置。 - 前記触覚提示器は、前記空中表示領域を向く姿勢に設けられて前記操作体に触感刺激を発生させる発生面(31)を有し、
前記空間表示器は、前記発生面に沿って移動可能な接触部(62)を含む前記操作対象物の映像を表示することを特徴とする請求項1に記載の表示操作装置。 - 前記触覚提示器は、前記接触部を移動させる操作が行われた場合に、当該接触部を挟んでいる前記操作体の二つの部位のうちで移動方向前側にある部位よりも移動方向後側にある部位に対して、強い触感刺激を発生させることを特徴とする請求項2に記載の表示操作装置。
- 前記空間表示器は、前記触覚提示器へ向けてのプッシュ操作が可能な押釦部(262)を含む前記操作対象物の映像を表示することを特徴とする請求項1に記載の表示操作装置。
- 前記触覚提示器(330,530,630)は、前記空中表示領域の下方に配置され、
前記空間表示器は、面状に規定された前記空中表示領域に対して仮想の回転軸を交差させた姿勢の回転可能なダイヤル部(362)、を含む前記操作対象物の映像を表示することを特徴とする請求項1に記載の表示操作装置。 - 前記空中表示領域にある前記操作体の姿勢を特定する姿勢特定器(22)と、
前記姿勢特定器により特定された前記操作体の姿勢に基づき、前記高感度部位に触感刺激を与え易い位置へ前記触覚提示器(530)を移動させる移動機構(580)と、をさらに備えることを特徴とする請求項5に記載の表示操作装置。 - 多階層に構成されたメニュー画面群を操作可能な表示操作装置であって、
前記触覚提示器としての第一触覚提示器(330)とは別に、前記空中表示領域の奥側に配置される第二触覚提示器(340)をさらに備え、
前記空間表示器は、前記回転軸に沿って奥側へ押し込む操作により、前記メニュー画面群の階層を遷移させる前記ダイヤル部を表示し、
前記第二触覚提示器は、前記操作体によって前記ダイヤル部を奥側へ押し込む操作が行われた場合に、前記操作体に触感刺激を発生させることを特徴とする請求項5又は6に記載の表示操作装置。 - 前記空中表示領域に対して互いに異なる位置に設けられる複数の前記触覚提示器と、
前記空中表示領域にある前記操作体の姿勢を特定する姿勢特定器(22)と、
前記姿勢特定器により特定された前記操作体の姿勢に基づき、複数の前記触覚提示器のうちで、前記高感度部位に触感刺激を与え易い位置にある少なくとも一つによって前記操作体に触感刺激が与えられるよう、各前記触覚提示器を制御する触感制御部(613)と、を備えることを特徴とする請求項5に記載の表示操作装置。 - 前記触覚提示器は、前記空中表示領域の両側に一つずつ互いに対向して設けられ、
前記空間表示器は、ガイド表示部(462,463)を含む前記操作対象物の映像を表示し、
前記ガイド表示部は、二つの前記触覚提示器が並ぶ対向方向(HD)に沿って、前記操作体を前記空中表示領域内で移動させる操作を案内する表示態様であることを特徴とする請求項1に記載の表示操作装置。 - 二つの前記触覚提示器のうちで、前記高感度部位よりも感度の低い低感度部位(DR)に触感刺激を与える一方は、前記高感度部位に触感刺激を与える他方よりも、強い触感刺激を発生させることを特徴とする請求項9に記載の表示操作装置。
- 前記触覚提示器は、移動する前記操作体が当該触覚提示器に近づいてくる場合に、当該操作体が遠ざかる場合よりも強い触感刺激を発生させることを特徴とする請求項9又は10に記載の表示操作装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015145926A JP2017027401A (ja) | 2015-07-23 | 2015-07-23 | 表示操作装置 |
US15/745,963 US20180210551A1 (en) | 2015-07-23 | 2016-06-21 | Display manipulation device |
PCT/JP2016/002985 WO2017013834A1 (ja) | 2015-07-23 | 2016-06-21 | 表示操作装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015145926A JP2017027401A (ja) | 2015-07-23 | 2015-07-23 | 表示操作装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017027401A true JP2017027401A (ja) | 2017-02-02 |
JP2017027401A5 JP2017027401A5 (ja) | 2017-07-06 |
Family
ID=57834158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015145926A Pending JP2017027401A (ja) | 2015-07-23 | 2015-07-23 | 表示操作装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180210551A1 (ja) |
JP (1) | JP2017027401A (ja) |
WO (1) | WO2017013834A1 (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019023062A (ja) * | 2017-06-01 | 2019-02-14 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | システムの操縦または挙動を自動で実行するためのシステムおよび方法 |
WO2019146032A1 (ja) * | 2018-01-25 | 2019-08-01 | 三菱電機株式会社 | ジェスチャー操作装置およびジェスチャー操作方法 |
JP2019139698A (ja) * | 2018-02-15 | 2019-08-22 | 有限会社ワタナベエレクトロニクス | 非接触入力システム、方法およびプログラム |
JP2019144672A (ja) * | 2018-02-16 | 2019-08-29 | トヨタ自動車株式会社 | 操作認識装置 |
JP2020160874A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社Subaru | 車両の非接触操作装置、および車両 |
JP2020160877A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社Subaru | 車両の非接触操作装置、および車両 |
CN112805800A (zh) * | 2018-10-11 | 2021-05-14 | 欧姆龙株式会社 | 输入装置 |
JP2022503796A (ja) * | 2018-10-01 | 2022-01-12 | レイア、インコーポレイテッド | ホログラフィックリアリティシステム、マルチビューディスプレイ、および方法 |
WO2022009758A1 (ja) * | 2020-07-08 | 2022-01-13 | 株式会社ニコン | 音場生成装置、音場生成方法、および音場生成プログラム |
WO2022018926A1 (ja) * | 2020-07-22 | 2022-01-27 | 日本電産サンキョー株式会社 | 入力装置および入力装置の制御方法 |
JP2022019992A (ja) * | 2017-07-17 | 2022-01-27 | フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | ディスプレイ装置 |
US11320669B2 (en) | 2019-03-27 | 2022-05-03 | Subaru Corporation | Non-contact operating apparatus for vehicle and vehicle |
WO2024247733A1 (ja) * | 2023-06-02 | 2024-12-05 | ミネベアミツミ株式会社 | 刺激装置及び電子機器 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11635827B2 (en) * | 2016-06-28 | 2023-04-25 | Nikon Corporation | Control device, display device, program, and detection method |
CN109407908B (zh) * | 2018-09-30 | 2020-09-04 | 清华大学 | 一种带有触觉引导功能的图形显示器及其使用方法 |
DE102019211526A1 (de) * | 2019-08-01 | 2021-02-04 | Siemens Healthcare Gmbh | Verfahren und System zum Erzeugen eines angereicherten Bildes eines Zielobjekts, und entsprechendes Computerprogramm und computerlesbares Speichermedium |
EP4039520A3 (en) * | 2021-02-09 | 2022-10-26 | Hyundai Mobis Co., Ltd. | Vehicle display device |
US12141376B2 (en) * | 2021-07-08 | 2024-11-12 | Hyundai Mobis Co., Ltd. | Display control system using knobs |
EP4492202A1 (en) * | 2023-07-10 | 2025-01-15 | Leica Instruments (Singapore) Pte Ltd | Devices and methods for contactless haptic control |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012011321A1 (ja) * | 2010-07-23 | 2012-01-26 | 日本電気株式会社 | 立体表示装置及び立体表示方法 |
US20150007025A1 (en) * | 2013-07-01 | 2015-01-01 | Nokia Corporation | Apparatus |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4713070B2 (ja) * | 2003-08-26 | 2011-06-29 | ヤマハ株式会社 | ポインティングデバイス |
JP2006323492A (ja) * | 2005-05-17 | 2006-11-30 | Nippon Telegr & Teleph Corp <Ntt> | 制御装置およびプログラム |
-
2015
- 2015-07-23 JP JP2015145926A patent/JP2017027401A/ja active Pending
-
2016
- 2016-06-21 US US15/745,963 patent/US20180210551A1/en not_active Abandoned
- 2016-06-21 WO PCT/JP2016/002985 patent/WO2017013834A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012011321A1 (ja) * | 2010-07-23 | 2012-01-26 | 日本電気株式会社 | 立体表示装置及び立体表示方法 |
US20150007025A1 (en) * | 2013-07-01 | 2015-01-01 | Nokia Corporation | Apparatus |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019023062A (ja) * | 2017-06-01 | 2019-02-14 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | システムの操縦または挙動を自動で実行するためのシステムおよび方法 |
EP3409553B1 (en) * | 2017-06-01 | 2021-08-04 | Honda Research Institute Europe GmbH | System and method for automated execution of a maneuver or behavior of a system |
JP2022019992A (ja) * | 2017-07-17 | 2022-01-27 | フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | ディスプレイ装置 |
JP7366109B2 (ja) | 2017-07-17 | 2023-10-20 | フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | ディスプレイ装置 |
WO2019146032A1 (ja) * | 2018-01-25 | 2019-08-01 | 三菱電機株式会社 | ジェスチャー操作装置およびジェスチャー操作方法 |
JPWO2019146032A1 (ja) * | 2018-01-25 | 2020-07-02 | 三菱電機株式会社 | ジェスチャー操作装置およびジェスチャー操作方法 |
JP2019139698A (ja) * | 2018-02-15 | 2019-08-22 | 有限会社ワタナベエレクトロニクス | 非接触入力システム、方法およびプログラム |
JP7017675B2 (ja) | 2018-02-15 | 2022-02-09 | 有限会社ワタナベエレクトロニクス | 非接触入力システム、方法およびプログラム |
JP2019144672A (ja) * | 2018-02-16 | 2019-08-29 | トヨタ自動車株式会社 | 操作認識装置 |
JP2022503796A (ja) * | 2018-10-01 | 2022-01-12 | レイア、インコーポレイテッド | ホログラフィックリアリティシステム、マルチビューディスプレイ、および方法 |
CN112805800A (zh) * | 2018-10-11 | 2021-05-14 | 欧姆龙株式会社 | 输入装置 |
JP2020160874A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社Subaru | 車両の非接触操作装置、および車両 |
CN111746436A (zh) * | 2019-03-27 | 2020-10-09 | 株式会社斯巴鲁 | 车辆的非接触操作装置和车辆 |
US11320669B2 (en) | 2019-03-27 | 2022-05-03 | Subaru Corporation | Non-contact operating apparatus for vehicle and vehicle |
US11385715B2 (en) | 2019-03-27 | 2022-07-12 | Subaru Corporation | Non-contact operating apparatus for vehicle and vehicle |
US11440407B2 (en) | 2019-03-27 | 2022-09-13 | Subaru Corporation | Non-contact operating apparatus for vehicle and vehicle |
JP7336228B2 (ja) | 2019-03-27 | 2023-08-31 | 株式会社Subaru | 車両の非接触操作装置、および車両 |
JP2020160877A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社Subaru | 車両の非接触操作装置、および車両 |
JP7377615B2 (ja) | 2019-03-27 | 2023-11-10 | 株式会社Subaru | 車両の非接触操作装置、および車両 |
WO2022009758A1 (ja) * | 2020-07-08 | 2022-01-13 | 株式会社ニコン | 音場生成装置、音場生成方法、および音場生成プログラム |
WO2022018926A1 (ja) * | 2020-07-22 | 2022-01-27 | 日本電産サンキョー株式会社 | 入力装置および入力装置の制御方法 |
WO2024247733A1 (ja) * | 2023-06-02 | 2024-12-05 | ミネベアミツミ株式会社 | 刺激装置及び電子機器 |
Also Published As
Publication number | Publication date |
---|---|
US20180210551A1 (en) | 2018-07-26 |
WO2017013834A1 (ja) | 2017-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017013834A1 (ja) | 表示操作装置 | |
US20230320799A1 (en) | User-interface control using master controller | |
US10417880B2 (en) | Haptic device incorporating stretch characteristics | |
CN104750247B (zh) | 使用单个控制器和支持触觉的用户接口控制多个显示器的系统和方法 | |
EP2624238B1 (en) | Virtual mock up with haptic hand held aid | |
US20210030491A1 (en) | Interaction between user-interface and master controller | |
CN106919294B (zh) | 一种3d触控交互装置、其触控交互方法及显示装置 | |
CN108434726A (zh) | 自动局部触觉生成系统 | |
CN106427571A (zh) | 交互式操纵装置和用于运行所述交互式操纵装置的方法 | |
CN109643219B (zh) | 用于与在车辆中的显示设备上呈现的图像内容进行交互的方法 | |
CN102411438A (zh) | 输入装置 | |
EP3220234A1 (en) | Gesture input system | |
KR101518727B1 (ko) | 입체 인터랙션 시스템 및 입체 인터랙션 방법 | |
US20150323988A1 (en) | Operating apparatus for an electronic device | |
US20140215403A1 (en) | Method and device for making available a user interface, in particular in a vehicle | |
CN106980377A (zh) | 一种三维空间的交互系统及其操作方法 | |
JP2014041441A (ja) | 背面触覚情報提示型情報入力装置およびその方法 | |
RU2604430C2 (ru) | Взаимодействие с трехмерным виртуальным динамическим отображением | |
JP6115421B2 (ja) | 入力装置および入力システム | |
CN106066689B (zh) | 基于ar或vr系统的人机交互方法和装置 | |
KR102589770B1 (ko) | 초음파 이미징 시스템 | |
CN107783647B (zh) | 柔性屏输入设备及信息娱乐系统 | |
EP1182535A1 (en) | Haptic terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170524 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180731 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181002 |