JP2022065419A - 表示方法、及び表示装置 - Google Patents
表示方法、及び表示装置 Download PDFInfo
- Publication number
- JP2022065419A JP2022065419A JP2020174003A JP2020174003A JP2022065419A JP 2022065419 A JP2022065419 A JP 2022065419A JP 2020174003 A JP2020174003 A JP 2020174003A JP 2020174003 A JP2020174003 A JP 2020174003A JP 2022065419 A JP2022065419 A JP 2022065419A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- region
- handwriting input
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000009467 reduction Effects 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 95
- 230000003287 optical effect Effects 0.000 description 36
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 239000004973 liquid crystal related substance Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000002347 injection Methods 0.000 description 5
- 239000007924 injection Substances 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 101100340317 Arabidopsis thaliana IDL1 gene Proteins 0.000 description 3
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1645—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being suitable to be used in combination with an external overhead projector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3188—Scale or resolution adjustment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
例えば、特許文献1に記載の情報処理装置は、描画入力モードを実行している状態で、方向の異なる複数のスライド操作を検出した場合に、描画処理を実行せずに複数のスライド操作のうち一のスライド操作により指定された描画の複製を生成する。また、表示された複製を第2のスライド操作の移動量に応じて拡大する。
図1には、互いに直交するX軸、Y軸及びZ軸を示す。Y軸は、鉛直方向と平行であり、X軸及びZ軸の各々は、水平方向と平行である。図1~図3において、スクリーンSCはY軸と平行である。スクリーンSCに向かって立ったときに、X軸は、左右方向を示し、Z軸は、前後方向を示す。X軸の正方向が右方向を示し、Y軸の正方向が上方向を示し、Z軸の正方向が前方向を示す。
なお、図1ではスクリーンSCを鉛直方向に沿って配置しているが、スクリーンSCを水平方向に沿って配置してもよい。また、本実施形態では、プロジェクター100が平面のスクリーンSCに投射する場合を例示するが、投射対象はスクリーンSCに限らず、建物の壁面等の平面であってもよく、曲面や凹凸面であってもよい。
スクリーンSCは、「表示面」の一例である。
本実施形態では、投射画像PSは、例えば、手書きのテキスト画像TXと、枠画像PLとを含む。テキスト画像TX、及び枠画像PLについては、図5及び図6を参照して説明する。
本実施形態では、指示体80がユーザーの手指である場合について説明する。
検出光射出部410は、指示体80の先端部を検出する検出光IDLを、スクリーンSCをカバーする方向に射出する。具体的には、検出光射出部410は、スクリーンSCに沿って面状に、検出光IDLを射出する。検出光射出部410が射出する検出光IDLとしては、例えば近赤外光が使用される。
検出光射出部410は、第1射出部411と、第2射出部412と、第1射出部411と第2射出部412の射出方向をそれぞれ調整する調整機構420と、を備える。
その結果、検出光射出部410は、スクリーンSCの上部から下向きにほぼ180度の範囲に光を出射し、この光はスクリーンSCに沿う光の層を形成する。
検出光IDLが調整されたプロジェクター100は、指示体80による操作を検出する通常モードでは、検出光射出部410が射出する検出光IDLが指示体80によって反射された反射光である反射検出光RDLを、カメラ310の撮像画像PMから輝点として検出する。この場合には、検出光IDLが射出される領域であって、カメラ310の画角に含まれる領域において、指示体80の操作を検出できる。換言すれば、検出光射出部410が検出光IDLを射出する領域のうち、カメラ310の画角に含まれる領域が、指示体80の操作を検出可能な領域である。図2に示す検出領域DAは、指示体80の操作を検出可能な領域である。
検出領域DAは、スクリーンSCにおいて、投射画像PSを含む。
例えば、カメラ310は、可視光を遮断して近赤外光のみを通過させる近赤外フィルターをレンズの前に配置したり、レンズの前から後退させたりすることが可能な、不図示の近赤外フィルター切換機構を備えることが好ましい。
本実施形態では、プロジェクター100がホワイトボードモードで動作する場合について説明する。
図4に示すように、プロジェクター100は、図1~図3を参照して説明した投射光学系230を含む投射部200と、図1~図3を参照して説明したカメラ310を含む撮像部300と、図1~図3を参照して説明した検出光射出部410と、位置検出部600と、投射画像生成部500と、制御部700と、を備える。
プロジェクター100は、「表示装置」の一例に対応する。
投射部200は、「表示部」の一例に対応する。
また、光源部210は、光源が発した光を光変調部220に導くリフレクター、及び補助リフレクターを備えてもよい。更に、光源部210は、投射光の光学特性を高めるためのレンズ群、偏光板、及び、光源が発した光の光量を光変調部220に至る経路上で低減させる調光素子等を備えてもよい。
光源部210が発する光はRGBの3色の色光に分離され、それぞれ対応する液晶パネルに入射される。3枚の液晶パネルの各々は、透過型の液晶パネルであり、透過する光を変調して画像光を生成する。各液晶パネルを通過して変調された画像光は、クロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系230に射出される。
本実施形態では、光変調部220が光変調素子として透過型の液晶パネルを備える場合について説明するが、これに限定されない。光変調素子は反射型の液晶パネルであってもよいし、デジタルマイクロミラーデバイス(Digital Micromirror Device)であってもよい。
また、投射光学系230は、スクリーンSCに投射される画像を拡大又は縮小させるズーム機構や、フォーカスの調整を行うフォーカス調整機構等を備えてもよい。
カメラ310、または、カメラ310および位置検出部600は、「検出部」の一例に対応する。
投射画像メモリー510は、第1投射画像メモリー511と、第2投射画像メモリー512とを備える。
第1投射画像メモリー511は、位置検出部600の検出結果に基づき、手書入力に対応する第1画像PT1を記憶する。
第2投射画像メモリー512は、投射部200が投射する投射画像PSに対応する画像データを記憶する。投射画像PSは、第1画像PT1、第2画像PT2、第1枠画像PL1、及び第2枠画像PL2を含む。
第1画像PT1、第2画像PT2、第1枠画像PL1、及び第2枠画像PL2については、以下に示す制御部700の説明と共に説明し、図5を参照して更に説明する。
また、投射画像生成部500は、制御部700からの指示に従って、第2投射画像メモリー512の画像を示す画像信号を光変調部220に出力して、投射部200により投射画像PSを投射させる。
更に、投射画像生成部500は、投射画像PSに対する画像処理を実行する。例えば、投射画像生成部500は、投射画像PSの台形歪み等を補正する幾何補正処理、投射画像PSを拡大又は縮小するデジタルズーム処理、投射画像PSの色調等を補正する色補正処理等を実行する。
プロセッサー710は、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)等を備える。
プロセッサー710は、単一のプロセッサーで構成されてもよいし、複数のプロセッサーがプロセッサー710として機能する構成であってもよい。プロセッサー710は、制御プログラムを実行してプロジェクター100の各部を制御する。本実施形態においては、位置検出部600および投射画像生成部500は、制御部700の一部として実現される。
制御部700の処理については、以下に説明する。また、制御部700の処理の具体例については、図5~図9を参照して説明する。
また、制御部700は、第1手書入力に対応するスクリーンSCの位置を含む第1領域AR1を決定する。
本実施形態では、制御部700は、例えば、以下の処理を実行することによって、第1画像PT1を第1領域AR1に表示する。
まず、制御部700は、第1手書入力を受け付ける。具体的には、位置検出部600が検出した第1手書入力がされた位置に基づいて、第1画像PT1を生成する。そして、制御部700は、投射画像生成部500によって、第1画像PT1を、第1投射画像メモリー511及び第2投射画像メモリー512の各々に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第1画像PT1に対応する画像信号を光変調部220に出力させて、投射部200により第1画像PT1を投射させる。このようにして、制御部700は、第1画像PT1をスクリーンSCに表示する。
本実施形態では、制御部700は、例えば、以下の処理を実行することによって、第2画像PT2を第2領域AR2に表示する。
まず、制御部700は、第1画像PT1を所定の拡大倍率で拡大した第2画像PT2を生成する。そして、制御部700は、投射画像生成部500によって、第2画像PT2を、第2投射画像メモリー512に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第2画像PT2に対応する画像信号を光変調部220に出力させて、投射部200により第2画像PT2を投射させる。このようにして、制御部700は、第2画像PT2をスクリーンSCに表示する。
また、制御部700は、第2手書入力に応じた画像に基づいて、第2画像PT2を更新する。
制御部700は、例えば、以下の処理を実行することによって、第2手書入力に応じた画像に基づいて、第2画像PT2を更新する。
まず、制御部700は、位置検出部600の検出結果に基づき、第2手書入力に応じた第3画像PT3を生成する。そして、制御部700は、第3画像PT3を、投射画像生成部500によって、第2投射画像メモリー512において、第2手書入力がされた第2領域AR2の位置に書き込ませる。なお、第3画像PT3は、第2画像PT2の一部として第2投射画像メモリー512に書き込まれる。このようにして、第2手書入力に応じた画像に基づいて、第2画像PT2を更新する。
本実施形態では、制御部700は、例えば、以下の処理を実行することによって、第2手書入力に応じた画像に基づいて、第1画像PT1を更新する。
まず、制御部700は、位置検出部600の検出結果に基づき、第2手書入力に応じた第3画像PT3を生成する。そして、制御部700は、第3画像PT3を、所定の拡大率の逆数の縮小倍率で縮小した大きさの第4画像PT4を生成する。次に、制御部700は、第4画像PT4を、投射画像生成部500によって、第1投射画像メモリー511及び第2投射画像メモリー512の各々において、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に書き込ませる。なお、第4画像PT4は、第1画像PT1の一部として第1投射画像メモリー511及び第2投射画像メモリー512の各々に書き込まれる。このようにして、第2手書入力に応じた画像に基づいて、第1画像PT1を更新する。
本実施形態では、制御部700は、例えば、以下の処理を実行することによって、更新した第1画像PT1を第1領域AR1に表示する。
まず、制御部700は、位置検出部600が検出した第1手書入力に基づいて、第1画像PT1を更新する。そして、制御部700は、投射画像生成部500によって、第1画像PT1を、第1投射画像メモリー511及び第2投射画像メモリー512の各々に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第1画像PT1に対応する画像信号を光変調部220に出力させて、投射部200により第1画像PT1を投射させる。このようにして、制御部700は、更新した第1画像PT1をスクリーンSCに表示する。
第1枠画像PL1は、「第1領域画像」の一例に対応する。第2枠画像PL2は、「第2領域画像」の一例に対応する。
本実施形態では、制御部700は、例えば、以下の処理を実行することによって、第1枠画像PL1及び第2枠画像PL2をスクリーンSCに表示する。
まず、制御部700は、第1手書入力に対応するスクリーンSCの位置を含む第1領域AR1を決定する。第1領域AR1の大きさは、例えば、予め定められた大きさである。第1領域AR1の大きさは、ユーザーが設定可能であってもよい。次に、制御部700は、スクリーンSCにおける第2領域AR2を決定する。制御部700は、例えば、第2領域AR2が第1領域AR1と重ならない位置に、第2領域AR2を決定する。
次に、制御部700は、第1枠画像PL1及び第2枠画像PL2を生成する。そして、制御部700は、生成した第1枠画像PL1及び第2枠画像PL2を、投射画像生成部500によって、第2投射画像メモリー512に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第1枠画像PL1及び第2枠画像PL2に対応する画像信号を光変調部220に出力させて、投射部200により第1枠画像PL1及び第2枠画像PL2を投射させる。このようにして、制御部700は、第1枠画像PL1及び第2枠画像PL2をスクリーンSCに表示する。
また、第2投射画像メモリー512に書き込まれた第1画像PT1、第2画像PT2、第1枠画像PL1及び第2枠画像PL2は、投射画像生成部500によって、光変調部220に出力されて、投射部200によりスクリーンSCに投射される。
図5は、制御部700の処理の第1具体例を示す図である。
図5では、まず、制御部700が、第1手書入力を受け付けて、第1手書入力に対応する第1画像PT1と、第1枠画像PL1とを表示する処理について説明する。
制御部700は、位置検出部600が検出した第1手書入力の位置に基づいて、第1画像PT1を生成する。図5では、第1画像PT1として、アルファベットの「A」を示す第1テキスト画像TX11が生成される。
まず、制御部700は、投射画像生成部500によって、第1テキスト画像TX11を、第1投射画像メモリー511及び第2投射画像メモリー512の各々に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第1テキスト画像TX11に対応する画像信号を光変調部220に出力させて、投射部200により第1テキスト画像TX11を投射させる。このようにして、制御部700は、第1テキスト画像TX11をスクリーンSCに表示する。
制御部700は、空白領域22の面積が、表示領域AR21の面積よりも大きくなるように、第2領域AR2を決定する。
制御部700は、第1画像PT1を2倍に拡大した第2画像PT2を生成する。そして、制御部700は、投射画像生成部500によって、第2画像PT2を、第2投射画像メモリー512に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第2画像PT2に対応する画像信号を光変調部220に出力させて、投射部200により第2画像PT2を投射させる。このようにして、制御部700は、第2画像PT2をスクリーンSCに表示する。
非接触状態は、図3に示す検出光IDL1よりも指示体80がスクリーンSCから離間している状態を示す。接触状態とは、図3に示す検出光IDL1よりも指示体80がスクリーンSCに近接している状態を示す。指示体80が非接触状態にあるか、接触状態にあるかは、位置検出部600によって検出される。
そこで、ユーザーは、第1領域AR1に第1手書入力を入力する代わりに、第1領域AR1よりも面積の広い第2領域AR2に第2手書入力を入力することによって、第1領域AR1に複雑な文字等を入力する。したがって、ユーザーは、第1領域AR1に複雑な文字、図形、線画等を容易に入力できる。
図6では、制御部700が、第2領域AR2に入力された第2手書入力に基づいて、第2画像PT2の一部を構成する第3画像PT3と、第1画像PT1の一部を構成する第4画像PT4をスクリーンSCに表示する。
第1領域AR1には、第1テキスト画像TX11、第1テキスト画像TX12、及び第1テキスト画像TX13と、第4テキスト画像TX14、第4テキスト画像TX15、及び第4テキスト画像TX16と、が表示される。
第1テキスト画像TX11~第1テキスト画像TX13は、第1手書入力に基づいて生成される第1画像PT1の一例に対応する。第4テキスト画像TX14~第4テキスト画像TX16は、第2手書入力に基づいて生成される第4画像PT4の一例に対応する。第4画像PT4は、第1画像PT1の一部を構成する。すなわち、第1画像PT1は、第1テキスト画像TX11~第1テキスト画像TX13、及び、第4テキスト画像TX14~第4テキスト画像TX16を含む。
第1テキスト画像TX12、及び第1テキスト画像TX13は、図5を参照して説明した第1テキスト画像TX11と同様にして、スクリーンSCに表示される。
第2テキスト画像TX22、及び第2テキスト画像TX23は、図5を参照して説明した第2テキスト画像TX21と同様にして、スクリーンSCに表示される。
第2テキスト画像TX21~第2テキスト画像TX23は、第1手書入力に基づいて生成される第2画像PT2の一例に対応する。第3テキスト画像TX24~第3テキスト画像TX26は、第2手書入力に基づいて生成される第3画像PT3の一例に対応する。第3画像PT3は、第2画像PT2の一部を構成する。すなわち、第2画像PT2は、第2テキスト画像TX21~第2テキスト画像TX23、及び、第3テキスト画像TX24~第3テキスト画像TX26を含む。
制御部700は、位置検出部600の検出結果に基づき、第2手書入力に応じた第3テキスト画像TX24~第3テキスト画像TX26を生成する。そして、制御部700は、第3テキスト画像TX24~第3テキスト画像TX26を、投射画像生成部500によって、第2投射画像メモリー512において、第2手書入力がされた第2領域AR2の位置に書き込ませる。なお、第3テキスト画像TX24~第3テキスト画像TX26は、第2画像PT2の一部として第2投射画像メモリー512に書き込まれる。このようにして、第2手書入力に応じた画像に基づいて、第2画像PT2を更新する。
また、第3テキスト画像TX24~第3テキスト画像TX26は、第2画像PT2と同様にして、スクリーンSCに表示される。具体的には、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第3テキスト画像TX24~第3テキスト画像TX26に対応する画像信号を光変調部220に出力させて、投射部200により第3テキスト画像TX24~第3テキスト画像TX26を投射させる。このようにして、制御部700は、第3テキスト画像TX24~第3テキスト画像TX26をスクリーンSCに表示する。
制御部700は、第3テキスト画像TX24~第3テキスト画像TX26の各々を、所定の拡大率の逆数の縮小倍率(ここでは、1/2倍)で縮小した大きさの第4テキスト画像TX14~第4テキスト画像TX16を生成する。次に、制御部700は、第4テキスト画像TX14~第4テキスト画像TX16を、投射画像生成部500によって、第1投射画像メモリー511及び第2投射画像メモリー512の各々において、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に書き込ませる。なお、第4テキスト画像TX14~第4テキスト画像TX16は、第1画像PT1の一部として第1投射画像メモリー511及び第2投射画像メモリー512の各々に書き込まれる。このようにして、第2手書入力に応じた画像に基づいて、第1画像PT1を更新する。
また、第4テキスト画像TX14~第4テキスト画像TX16は、第1画像PT1と同様にして、スクリーンSCに表示される。具体的には、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第4テキスト画像TX14~第4テキスト画像TX16に対応する画像信号を光変調部220に出力させて、投射部200により第4テキスト画像TX14~第4テキスト画像TX16を投射させる。このようにして、制御部700は、第4テキスト画像TX14~第4テキスト画像TX16をスクリーンSCに表示する。
なお、図7及び図8では、便宜上、制御部700が、指示体80の位置が第1領域AR1の中央位置になるように第1領域AR1を決定する場合について説明する。
図7は、制御部700の処理の第3具体例を示す図である。
図7の上段図に示すように、指示体80の位置が、スクリーンSCの中央から手書き入力を始め、書き進んだ結果、右側に距離MH1だけ移動する場合について説明する。
距離MA11、及び距離MA21は、例えば、距離MH1と一致する。
図7の下段図に示す状態になると、第1領域AR1の右端が、第2領域AR2の左端と接触し、第2領域AR2の右端は、スクリーンSCの右端に位置している。したがって、第1領域AR1を更に右側に移動することが困難になる。
図8の上段図に示す第1領域AR1及び第2領域AR2の位置は、図7の下段図に示す第1領域AR1及び第2領域AR2の位置と同一である。図8の上段図に示すように、指示体80の位置が、右側に距離MH2だけ移動する場合について説明する。
この場合には、図8の下段図に示すように、制御部700は、第1領域AR1を距離MA12だけ右側に移動し、第2領域AR2を、第2領域AR2の左端がスクリーンSCの左端に位置するように距離MA22だけ移動する。
距離MA12は、例えば距離MH2と一致する。
図8の下段図に示す状態になると、第2領域AR2の左端は、スクリーンSCの左端に位置している。第1領域AR1の左端は、第2領域AR2の右端から、例えば距離MA12だけ離間した位置にある。
また、図8の下段図に示すように、第2領域AR2がスクリーンSCの右端からスクリーンSCの左端に移動した場合に、第2領域AR2が配置される位置に、既に、文字や図形等が記載されている可能性がある。このような場合であっても、第2領域AR2を利用可能にするために、制御部700は、第2領域AR2が配置される位置に記載されている文字や図形等に、第2領域AR2を、オーバーレイして配置する。換言すれば、制御部700は、第2領域AR2を、第2領域AR2が配置される位置に記載されている文字や図形等の上層に配置する。
LW1+2×LW2≦LWS (1)
本実施形態では、幅LW2は、幅LW1の2倍であるため、式(1)より次の式(2)が成立する。
5×LW1≦LWS (2)
式(2)により、第1領域AR1の幅LW1は、スクリーンSCの幅LWSの1/5以下に設定する必要がある。なお、高さLHSは、スクリーンSCの高さを示す。
例えば、幅LW2が、幅LW1のMG倍である場合には、式(1)より次の式(3)が成立する。
(1+2×MG)×LW1≦LWS (3)
制御部700は、幅LW1、幅LW2、および、スクリーンSCにおける第1領域AR1および第2領域AR2の位置を、式(3)に基づいて決定してもよい。なお、幅LWSおよび高さLWHは、撮像部300によって得られた画像から算出することが可能である。
図9に示すように、まず、ステップS101において、制御部700は、第1手書入力を受け付ける。
次に、ステップS103において、制御部700は、第1手書入力に対応するスクリーンSCの位置を含む第1領域AR1を決定する。そして、制御部700は、第1領域AR1の外縁を示す第1枠画像PL1を生成し、第1枠画像PL1をスクリーンSCに表示する。
次に、ステップS105において、制御部700は、第1手書入力に対応する第1画像PT1を生成する。
次に、ステップS107において、制御部700は、第1画像PT1を第1領域AR1に表示する。
次に、ステップS109において、制御部700は、第2領域AR2を表示するか否かを判定する。制御部700は、例えば、第1手書入力が特定の条件を満たすか否かに基づいて、第2領域AR2を表示するか否かを判定する。特定の条件は、例えば、第1手書入力が、スクリーンSCの所定面積の範囲に対する所定回数以上の接触動作を含むことである。
第2領域AR2を表示しないと制御部700が判定した場合(ステップS109;NO)には、処理がステップS101に戻る。第2領域AR2を表示すると制御部700が判定した場合(ステップS109;YES)には、処理がステップS111に進む。
次に、ステップS113において、制御部700は、第1画像PT1を所定の拡大倍率(例えば、2倍)で拡大した第2画像PT2を生成し、第2画像PT2をスクリーンSCの第2領域AR2に表示する。
次に、ステップS115において、制御部700は、第2領域AR2において第2手書入力を受け付けたか否かを判定する。
第2領域AR2において第2手書入力を受け付けていないと制御部700が判定した場合(ステップS115;NO)には、処理がステップS123に進む。第2領域AR2において第2手書入力を受け付けたと制御部700が判定した場合(ステップS115;YES)には、処理がステップS117に進む。
次に、ステップS119において、制御部700は、第1画像PT1の表示を更新する。換言すれば、制御部700は、更新された第1画像PT1をスクリーンSCの第1領域AR1に表示する。
次に、ステップS121において、制御部700は、更新された第1画像PT1を所定の拡大率(例えば、2倍)に拡大することによって、第2画像PT2を更新する。そして、制御部700は、更新した第2画像PT2をスクリーンSCの第2領域AR2に表示する。その後、処理がステップS115に戻る。
第1手書入力を受け付けたと制御部700が判定した場合(ステップS123;YES)には、処理がステップS103に戻る。第1手書入力を受け付けていないと制御部700が判定した場合(ステップS123;NO)には、処理がステップS125へ進む。
そして、ステップS125において、制御部700は、第1手書入力、及び第2手書入力を受け付けていないとステップS123で判定してから、所定時間が経過したか否かを判定する。所定時間は、例えば、5分間である。
所定時間が経過していないと制御部700が判定した場合(ステップS125;NO)には、処理がステップS115に戻る。所定時間が経過したと制御部700が判定した場合(ステップS125;YES)には、処理が終了する。
例えば、第1領域AR1に複雑な文字、図形、線画等を示す第1画像PT1を表示する場合に、以下のようにして、第1画像PT1を表示できる。すなわち、ユーザーは、第1領域AR1に第1手書入力を行うことに換えて、第1領域AR1よりも面積の広い第2領域AR2に第1手書入力の所定の拡大率(例えば、2倍)の大きさで第2手書入力を行うことによって、第1領域AR1に第1画像PT1を表示できる。
すなわち、第2手書入力を受け付けると、第2手書入力に応じた画像を、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に、所定の拡大率(例えば、2倍)の逆数の縮小倍率(例えば、1/2倍)で縮小した大きさで、第1画像PT1の一部として表示する。よって、第2領域AR2への第2手書入力で、第1画像PT1として複雑な文字、図形、線画等を入力できる。したがって、ユーザーによる手書入力の操作性を向上できる。
よって、第2領域AR2が第1領域AR1と重ならないため、ユーザーは、第2領域AR2への第2手書入力を行いながら、第1領域AR1の表示内容を確認できる。したがって、ユーザーによる手書入力の操作性を向上できる。
よって、第1領域AR1と第2領域AR2とが、スクリーンSCの長辺に沿って配置される。したがって、第1領域AR1と第2領域AR2とを短辺に沿って配置する場合と比較して、第2領域AR2を配置しやすい。その結果、ユーザーによる手書入力の操作性を向上できる。
また、第1領域AR1に対して第1手書入力を実行している場合に、第2領域AR2に第1画像PT1を所定の拡大倍率で拡大した第2画像PT2が表示される。したがって、例えば、スクリーンSCの長辺が左右方向である場合に、教室において、教師が第1領域AR1に対して第1手書入力を実行している場合に、第2領域AR2に表示される第2画像PT2を、生徒は、教師の体に邪魔されることなく容易に視認できる。
よって、空白領域AR22の面積は、表示領域AR21の面積よりも大きいため、第2領域AR2への第2手書入力を容易に実行できる。したがって、ユーザーによる手書入力の操作性を向上できる。
すなわち、ユーザーは、第2領域AR2に対する第2手書入力、及び、第1領域AR1に対する第1手書入力のいずれを行ってもよい。したがって、ユーザーによる手書入力の操作性を向上できる。
よって、第1手書入力として、例えば、複雑な文字、図形、線画等を入力する際に、第2領域AR2が表示される。したがって、適正なタイミングで、第2領域AR2を表示できる。
したがって、第1手書き入力の位置が移動した場合にも、第2領域AR2が第1領域AR1と重ならない位置に、第2領域AR2を決定できる。
よって、ユーザーは、第1枠画像PL1及び第2枠画像PL2によって、第1領域AR1及び第2領域AR2を容易に認識できる。したがって、第1領域AR1に対する第1手書き入力、及び第2領域AR2に対する第2手書き入力を、ユーザーは容易に実行できる。その結果、ユーザーによる手書入力の操作性を向上できる。
すなわち、第2手書入力を受け付けると、第2手書入力に応じた画像を、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に、所定の拡大率(例えば、2倍)の逆数の縮小倍率(例えば、1/2倍)で縮小した大きさで、第1画像PT1の一部として表示する。よって、第2領域AR2への第2手書入力で、第1画像PT1として複雑な文字、図形、線画等を入力できる。したがって、ユーザーによる手書入力の操作性を向上できる。
本実施形態では、所定の拡大倍率が2倍である場合について説明したが、所定の拡大倍率は、1より大であればよい。例えば、所定の拡大倍率が、1.1倍でもよいし、1.5倍でもよい。また、所定の拡大倍率が、2倍より大きくてもよい。例えば、所定の拡大倍率が、3倍でもよいし、5倍でもよい。第2領域AR2への複雑な文字、図形、線画等の第2手書入力を容易にするために、所定の拡大倍率は、1.5倍~3倍が好ましい。
Claims (9)
- 表示面に対する第1手書入力を受け付けることと、
前記第1手書入力がされた前記表示面の位置を含む第1領域を決定することと、
前記第1手書入力に対応する第1画像を前記第1領域に表示することと、
前記第1画像を所定の拡大倍率で拡大した第2画像を、前記表示面の第2領域に表示することと、
前記第2領域において第2手書入力を受け付けることと、
前記第2手書入力に応じた画像を、前記第2手書入力がされた前記第2領域の位置に対応する前記第1領域の位置に、前記所定の拡大率の逆数の縮小倍率で縮小した大きさで、前記第1画像の一部として表示することと、
を含む、表示方法。 - 前記表示面の前記第1領域と重ならない位置に、前記第2領域を決定すること、
を更に含む、
請求項1に記載の表示方法。 - 前記表示面は、長辺と短辺とを有する矩形であり、
前記第1領域を決定することにおいて、前記第1領域を、前記表示面の前記長辺に沿って一方側に配置し、
前記第2領域を決定することにおいて、前記第2領域を、前記表示面の前記長辺に沿って他方側に配置する、
請求項2に記載の表示方法。 - 前記第2領域は、前記第2画像の表示される表示領域と、前記表示領域を除く領域である空白領域と、を含み、
前記空白領域の面積は、前記表示領域の面積よりも大きい、
請求項1から請求項3のいずれか1項に記載の表示方法。 - 前記第1手書入力を受け付けることは、前記第2画像を前記第2領域に表示している期間に、前記第1領域に対する前記第1手書入力を受け付けること、
を含む、
請求項1から請求項4のいずれか1項に記載の表示方法。 - 前記第2画像を前記第2領域に表示することは、前記第1手書入力が、前記表示面の所定面積の範囲に対する所定回数以上の接触動作を含む場合に、前記第2画像を前記第2領域に表示すること、
を含む、
請求項1から請求項5のいずれか1項に記載の表示方法。 - 前記表示面における前記第1手書入力がされた前記表示面の位置に応じて、前記表示面における前記第2領域の位置を移動させること、
を更に含む、請求項1から請求項6のいずれか1項に記載の表示方法。 - 前記第1領域の外縁を示す第1領域画像を前記表示面に表示することと、
前記第2領域の外縁を示す第2領域画像を前記表示面に表示することと、
を更に含む、請求項1から請求項7のいずれか1項に記載の表示方法。 - 表示面に画像を表示する表示部と、
前記表示面に対する手書入力の位置を検出する検出部と、
前記検出部の検出結果に基づき、前記表示面に表示する画像を制御する制御部と、を備え、
前記制御部は、
前記検出部の検出結果に基づいて、前記表示面に対する第1手書入力を受け付けることと、
前記第1手書入力がされた前記表示面の位置を含む第1領域を決定することと、
前記第1手書入力に対応する第1画像を前記第1領域に表示することと、
前記第1画像を所定の拡大率で拡大した第2画像を、前記表示面の第2領域に表示することと、
前記検出部の検出結果に応じて、前記第2領域において第2手書入力を受け付けることと、
前記第2手書入力に応じた画像を、前記第2手書入力がされた前記第2領域の位置に対する前記第1領域の位置に、前記所定の拡大率の逆数の縮小率で縮小した大きさで、前記第1画像の一部として表示することと、
を実行する、表示装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020174003A JP7521372B2 (ja) | 2020-10-15 | 2020-10-15 | 表示方法、及び表示装置 |
CN202111191759.9A CN114374827B (zh) | 2020-10-15 | 2021-10-13 | 显示方法和显示装置 |
US17/501,296 US11550431B2 (en) | 2020-10-15 | 2021-10-14 | Display method and display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020174003A JP7521372B2 (ja) | 2020-10-15 | 2020-10-15 | 表示方法、及び表示装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022065419A true JP2022065419A (ja) | 2022-04-27 |
JP2022065419A5 JP2022065419A5 (ja) | 2023-07-20 |
JP7521372B2 JP7521372B2 (ja) | 2024-07-24 |
Family
ID=81138466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020174003A Active JP7521372B2 (ja) | 2020-10-15 | 2020-10-15 | 表示方法、及び表示装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11550431B2 (ja) |
JP (1) | JP7521372B2 (ja) |
CN (1) | CN114374827B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023023791A (ja) * | 2021-08-06 | 2023-02-16 | セイコーエプソン株式会社 | 表示方法 |
Family Cites Families (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2986507B2 (ja) | 1990-04-27 | 1999-12-06 | 株式会社日立製作所 | 会議システム |
JP3120085B2 (ja) * | 1991-11-21 | 2000-12-25 | 株式会社セガ | 電子装置及び情報担体 |
JP3579061B2 (ja) * | 1992-08-31 | 2004-10-20 | 株式会社東芝 | 表示装置 |
JPH0877176A (ja) * | 1994-09-07 | 1996-03-22 | Hitachi Ltd | 外国語翻訳装置 |
US5838302A (en) * | 1995-02-24 | 1998-11-17 | Casio Computer Co., Ltd. | Data inputting devices for inputting typed and handwritten data in a mixed manner |
JPH0926769A (ja) * | 1995-07-10 | 1997-01-28 | Hitachi Ltd | 画像表示装置 |
JP4035187B2 (ja) | 1995-11-22 | 2008-01-16 | 富士通株式会社 | 文書作成装置 |
US6545669B1 (en) * | 1999-03-26 | 2003-04-08 | Husam Kinawi | Object-drag continuity between discontinuous touch-screens |
US9715252B2 (en) * | 2011-08-24 | 2017-07-25 | Z124 | Unified desktop docking behavior for window stickiness |
JP2003271294A (ja) | 2002-03-15 | 2003-09-26 | Canon Inc | データ入力装置、データ入力方法、及びプログラム |
US7002560B2 (en) * | 2002-10-04 | 2006-02-21 | Human Interface Technologies Inc. | Method of combining data entry of handwritten symbols with displayed character data |
JP4455185B2 (ja) | 2004-06-29 | 2010-04-21 | キヤノン株式会社 | プレゼンテーションシステム及びその制御方法並びにプログラム及び記憶媒体 |
JP4549212B2 (ja) | 2005-03-23 | 2010-09-22 | 日立ソフトウエアエンジニアリング株式会社 | 電子ボードシステム |
JP4683970B2 (ja) * | 2005-03-24 | 2011-05-18 | 任天堂株式会社 | タッチ入力プログラムおよびタッチ入力装置 |
US7750893B2 (en) * | 2005-04-06 | 2010-07-06 | Nintendo Co., Ltd. | Storage medium storing input position processing program, and input position processing device |
KR20070034767A (ko) * | 2005-09-26 | 2007-03-29 | 엘지전자 주식회사 | 다중 표시영역을 갖는 이동통신 단말기 및 이를 이용한 디스플레이 간의 데이터 표시 방법 |
US8018440B2 (en) * | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
DE202007018940U1 (de) * | 2006-08-15 | 2009-12-10 | N-Trig Ltd. | Bewegungserkennung für einen Digitalisierer |
JP4995056B2 (ja) | 2007-12-06 | 2012-08-08 | キヤノン株式会社 | 画像表示装置、その制御方法、及びプログラム |
US20110102354A1 (en) * | 2008-06-30 | 2011-05-05 | Tetsuya Fuyuno | Information processing device, display control method, and recording medium |
US20100251112A1 (en) * | 2009-03-24 | 2010-09-30 | Microsoft Corporation | Bimodal touch sensitive digital notebook |
JP5229083B2 (ja) * | 2009-04-14 | 2013-07-03 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2011150413A (ja) * | 2010-01-19 | 2011-08-04 | Sony Corp | 情報処理装置、操作入力方法及び操作入力プログラム |
JP4571230B1 (ja) | 2010-02-12 | 2010-10-27 | 善俊 張 | 手書きデータ処理装置 |
US9454304B2 (en) * | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
US9851747B2 (en) * | 2010-05-21 | 2017-12-26 | Peter G. Winsky | Electronic book reader with closely juxtaposed display screens |
JP5661547B2 (ja) * | 2011-04-26 | 2015-01-28 | 京セラ株式会社 | 携帯端末装置およびプログラム |
US20120318077A1 (en) * | 2011-06-15 | 2012-12-20 | Paca Roy | Ergonomically enhanced System and Method for Handwriting |
JP2014022901A (ja) * | 2012-07-18 | 2014-02-03 | Sharp Corp | 表示入力装置および表示入力方法 |
US20150212647A1 (en) * | 2012-10-10 | 2015-07-30 | Samsung Electronics Co., Ltd. | Head mounted display apparatus and method for displaying a content |
KR101984683B1 (ko) * | 2012-10-10 | 2019-05-31 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 제어 방법 |
KR102083918B1 (ko) * | 2012-10-10 | 2020-03-04 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 제어 방법 |
KR102063952B1 (ko) * | 2012-10-10 | 2020-01-08 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 멀티 디스플레이 방법 |
JP5458161B1 (ja) * | 2012-10-23 | 2014-04-02 | 株式会社東芝 | 電子機器および方法 |
KR102162836B1 (ko) * | 2013-08-30 | 2020-10-07 | 삼성전자주식회사 | 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법 |
US20150098653A1 (en) * | 2013-10-07 | 2015-04-09 | Kabushiki Kaisha Toshiba | Method, electronic device and storage medium |
US9411508B2 (en) | 2014-01-03 | 2016-08-09 | Apple Inc. | Continuous handwriting UI |
JPWO2015107692A1 (ja) * | 2014-01-20 | 2017-03-23 | 株式会社東芝 | 手書きのための電子機器および方法 |
JP6323035B2 (ja) | 2014-01-29 | 2018-05-16 | セイコーエプソン株式会社 | 表示装置および表示方法 |
KR102332468B1 (ko) * | 2014-07-24 | 2021-11-30 | 삼성전자주식회사 | 기능 제어 방법 및 그 전자 장치 |
JP6352766B2 (ja) | 2014-10-15 | 2018-07-04 | シャープ株式会社 | 情報処理装置、情報処理プログラムおよび情報処理方法 |
US10437461B2 (en) * | 2015-01-21 | 2019-10-08 | Lenovo (Singapore) Pte. Ltd. | Presentation of representation of handwriting input on display |
JP2016186678A (ja) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法 |
JP6451446B2 (ja) * | 2015-03-27 | 2019-01-16 | セイコーエプソン株式会社 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
US20180095653A1 (en) * | 2015-08-14 | 2018-04-05 | Martin Hasek | Device, method and graphical user interface for handwritten interaction |
JP5993072B1 (ja) | 2015-08-27 | 2016-09-14 | レノボ・シンガポール・プライベート・リミテッド | 電子機器のユーザ・インターフェース、入力の処理方法および電子機器 |
JP2017117020A (ja) | 2015-12-21 | 2017-06-29 | 株式会社リコー | 表示装置、表示システム及び方法 |
JP6716409B2 (ja) | 2016-09-23 | 2020-07-01 | 株式会社Nttドコモ | 情報処理装置 |
US10514844B2 (en) * | 2016-11-16 | 2019-12-24 | Dell Products L.P. | Automatically modifying an input area based on a proximity to one or more edges |
JP6841647B2 (ja) | 2016-12-20 | 2021-03-10 | シャープ株式会社 | 表示装置、表示方法及びプログラム |
US10503396B2 (en) * | 2017-06-02 | 2019-12-10 | Apple Inc. | Device, method, and graphical user interface for simulating and interacting with handwritten text |
JP6832822B2 (ja) * | 2017-09-29 | 2021-02-24 | シャープ株式会社 | 表示制御装置及びプログラム |
US11157047B2 (en) * | 2018-11-15 | 2021-10-26 | Dell Products, L.P. | Multi-form factor information handling system (IHS) with touch continuity across displays |
JP2020123118A (ja) * | 2019-01-30 | 2020-08-13 | セイコーエプソン株式会社 | 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター |
JP2020123115A (ja) * | 2019-01-30 | 2020-08-13 | セイコーエプソン株式会社 | 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター |
JP2020160654A (ja) | 2019-03-26 | 2020-10-01 | セイコーエプソン株式会社 | 表示装置の制御方法及び表示装置 |
JP2020160807A (ja) * | 2019-03-27 | 2020-10-01 | セイコーエプソン株式会社 | 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター |
JP2020160808A (ja) * | 2019-03-27 | 2020-10-01 | セイコーエプソン株式会社 | 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター |
JP2020061179A (ja) | 2019-12-27 | 2020-04-16 | シャープ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP7443819B2 (ja) * | 2020-02-27 | 2024-03-06 | セイコーエプソン株式会社 | 画像表示装置、画像表示方法、および画像表示プログラム |
-
2020
- 2020-10-15 JP JP2020174003A patent/JP7521372B2/ja active Active
-
2021
- 2021-10-13 CN CN202111191759.9A patent/CN114374827B/zh active Active
- 2021-10-14 US US17/501,296 patent/US11550431B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20220121317A1 (en) | 2022-04-21 |
CN114374827B (zh) | 2023-12-01 |
JP7521372B2 (ja) | 2024-07-24 |
CN114374827A (zh) | 2022-04-19 |
US11550431B2 (en) | 2023-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6059223B2 (ja) | 携帯型投射捕捉デバイス | |
US9521276B2 (en) | Portable projection capture device | |
KR100939501B1 (ko) | 2개의 투사형 영상을 제공하는 멀티미디어 재생 장치 | |
JPH0876082A (ja) | 投影表示装置 | |
CN104660946B (zh) | 投影机及其控制方法 | |
JP3733915B2 (ja) | プロジェクタ | |
JP4993029B2 (ja) | 投写型表示装置、およびその調整方法 | |
JP7521372B2 (ja) | 表示方法、及び表示装置 | |
JP6690551B2 (ja) | 投射型表示装置 | |
JP4590858B2 (ja) | 書き込み可能プロジェクタおよび光ポインタ | |
JP2017129767A (ja) | 反射体、光出射装置の調整方法、及び検出システム | |
WO2021131646A1 (ja) | 投影装置、投影方法、及び制御プログラム | |
JP2011254268A (ja) | 撮像装置、撮像方法、及びプログラム | |
JP7310649B2 (ja) | 位置検出装置の制御方法、位置検出装置、及びプロジェクター | |
JP2009511970A (ja) | 画像を表示するアセンブリ及び方法 | |
CN106993146A (zh) | 控制方法、控制装置、投影机 | |
JP2009157307A (ja) | プロジェクタ | |
JP5488584B2 (ja) | 画像処理装置及びプログラム | |
JP2023179887A (ja) | 投射画像の補正方法、プロジェクター、プロジェクションシステム、及びプログラム | |
JP2015011282A (ja) | 投影装置 | |
WO2019034057A1 (zh) | 投影仪及其控制方法 | |
JP2019106106A (ja) | インタラクティブプロジェクションシステム、インタラクティブプロジェクター、インタラクティブプロジェクターの制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210913 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230711 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240321 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7521372 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |