Nothing Special   »   [go: up one dir, main page]

JP2022065419A - 表示方法、及び表示装置 - Google Patents

表示方法、及び表示装置 Download PDF

Info

Publication number
JP2022065419A
JP2022065419A JP2020174003A JP2020174003A JP2022065419A JP 2022065419 A JP2022065419 A JP 2022065419A JP 2020174003 A JP2020174003 A JP 2020174003A JP 2020174003 A JP2020174003 A JP 2020174003A JP 2022065419 A JP2022065419 A JP 2022065419A
Authority
JP
Japan
Prior art keywords
image
area
region
handwriting input
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020174003A
Other languages
English (en)
Other versions
JP7521372B2 (ja
JP2022065419A5 (ja
Inventor
壱星 横山
Kazuhoshi Yokoyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2020174003A priority Critical patent/JP7521372B2/ja
Priority to CN202111191759.9A priority patent/CN114374827B/zh
Priority to US17/501,296 priority patent/US11550431B2/en
Publication of JP2022065419A publication Critical patent/JP2022065419A/ja
Publication of JP2022065419A5 publication Critical patent/JP2022065419A5/ja
Application granted granted Critical
Publication of JP7521372B2 publication Critical patent/JP7521372B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1645Details related to the display arrangement, including those related to the mounting of the display in the housing the display being suitable to be used in combination with an external overhead projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3188Scale or resolution adjustment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】手書入力の操作性を向上する。【解決手段】表示方法は、スクリーンSCに対する第1手書入力を受け付けることと、第1手書入力がされたスクリーンSCの位置を含む第1領域AR1を決定することと、第1手書入力に対応する第1画像PT1を第1領域AR1に表示することと、第1画像PT1を所定の拡大倍率で拡大した第2画像PT2を、スクリーンSCの第2領域AR2に表示することと、第2領域AR2において第2手書入力を受け付けることと、第2手書入力に応じた画像を、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に、所定の拡大率の逆数の縮小倍率で縮小した大きさで、第1画像PT1の一部として表示することと、を含む。【選択図】図9

Description

本発明は、表示方法、及び表示装置に関する。
情報処理装置等において、手書き入力を受け付ける種々の技術が開示されている。
例えば、特許文献1に記載の情報処理装置は、描画入力モードを実行している状態で、方向の異なる複数のスライド操作を検出した場合に、描画処理を実行せずに複数のスライド操作のうち一のスライド操作により指定された描画の複製を生成する。また、表示された複製を第2のスライド操作の移動量に応じて拡大する。
特開2020-61179号公報
しかしながら、特許文献1に記載の情報処理装置では、描画された画像を複製、及び拡大するためのスライド操作が必要であるため、操作性を向上する余地がある。
本適用例の一態様に係る表示方法は、表示面に対する第1手書入力を受け付けることと、前記第1手書入力がされた前記表示面の位置を含む第1領域を決定することと、前記第1手書入力に対応する第1画像を前記第1領域に表示することと、前記第1画像を所定の拡大倍率で拡大した第2画像を、前記表示面の第2領域に表示することと、前記第2領域において第2手書入力を受け付けることと、前記第2手書入力に応じた画像を、前記第2手書入力がされた前記第2領域の位置に対応する前記第1領域の位置に、前記所定の拡大率の逆数の縮小倍率で縮小した大きさで、前記第1画像の一部として表示することと、を含む。
本適用例の別の一態様に係る表示装置は、表示面に画像を表示する表示部と、前記表示面に対する手書入力の位置を検出する検出部と、前記検出部の検出結果に基づき、前記表示面に表示する画像を制御する制御部と、を備え、前記制御部は、前記検出部の検出結果に基づいて、前記表示面に対する第1手書入力を受け付けることと、前記第1手書入力がされた前記表示面の位置を含む第1領域を決定することと、前記第1手書入力に対応する第1画像を前記第1領域に表示することと、前記第1画像を所定の拡大率で拡大した第2画像を、前記表示面の第2領域に表示することと、前記検出部の検出結果に応じて、前記第2領域において第2手書入力を受け付けることと、前記第2手書入力に応じた画像を、前記第2手書入力がされた前記第2領域の位置に対応する前記第1領域の位置に、前記所定の拡大率の逆数の縮小率で縮小した大きさで、前記第1画像の一部として表示することと、を実行する。
本実施形態に係る表示システムの一例を示す斜視図。 表示システムの構成の一例を示す正面図。 表示システムの構成の一例を示す側面図。 本実施形態に係るプロジェクターの構成の一例を示す図。 制御部の処理の第1具体例を示す図。 制御部の処理の第2具体例を示す図。 制御部の処理の第3具体例を示す図。 制御部の処理の第4具体例を示す図。 制御部の処理の一例を示すフローチャート。
以下、図面を参照して実施形態について説明する。
まず、図1から図3を参照して、本実施形態に係る表示システム900の構成について説明する。図1は、本実施形態に係る表示システム900の一例を示す斜視図である。図2は、表示システム900の構成の一例を示す正面図であり、図3は、表示システム900の構成の一例を示す側面図である。
図1には、互いに直交するX軸、Y軸及びZ軸を示す。Y軸は、鉛直方向と平行であり、X軸及びZ軸の各々は、水平方向と平行である。図1~図3において、スクリーンSCはY軸と平行である。スクリーンSCに向かって立ったときに、X軸は、左右方向を示し、Z軸は、前後方向を示す。X軸の正方向が右方向を示し、Y軸の正方向が上方向を示し、Z軸の正方向が前方向を示す。
図1に示すように、表示システム900は、プロジェクター100を備え、プロジェクター100に対応する位置に、スクリーン板920が配置される。スクリーン板920の前面は、スクリーンSCとして使用される。本実施形態のスクリーンSCは、X軸と平行な長辺と、Y軸に平行な短辺を有する矩形である。プロジェクター100は、支持部材910によってスクリーン板920に対して、前方向、且つ上方向に固定されている。
なお、図1ではスクリーンSCを鉛直方向に沿って配置しているが、スクリーンSCを水平方向に沿って配置してもよい。また、本実施形態では、プロジェクター100が平面のスクリーンSCに投射する場合を例示するが、投射対象はスクリーンSCに限らず、建物の壁面等の平面であってもよく、曲面や凹凸面であってもよい。
プロジェクター100は、スクリーンSCに画像光を投射することによって、スクリーンSCに投射画像PSを形成する。投射画像PSは、プロジェクター100によってスクリーンSCに投射された画像を示す。プロジェクター100の通常の使用状態において、投射画像PSはスクリーンSCの内側に収まるように投射される。
スクリーンSCは、「表示面」の一例である。
投射画像PSは、例えば、プロジェクター100が生成する画像データに基づき投射される画像である。本実施形態では、画像データは、指示体80による手書き入力に基づいて、プロジェクター100が生成する。
本実施形態では、投射画像PSは、例えば、手書きのテキスト画像TXと、枠画像PLとを含む。テキスト画像TX、及び枠画像PLについては、図5及び図6を参照して説明する。
また、表示システム900では、スクリーンSCにおいて、指示体80によって位置指示操作を行うことができ、指示体80によって指示された指示位置をプロジェクター100が検出する。指示体80は、ペンや、ユーザーの手指等である。
本実施形態では、指示体80がユーザーの手指である場合について説明する。
プロジェクター100は、投射光学系230と、カメラ310を含む撮像部300と、検出光射出部410とを有する。投射光学系230は、投射画像PSをスクリーンSCに投射する。カメラ310は、投射画像PSを撮像し、撮像画像PMを出力する。カメラ310の画角、すなわち撮像範囲は、スクリーンSCにおいて、少なくとも投射画像PSを含む範囲である。投射光学系230の投射レンズ、カメラ310の撮像レンズは、プロジェクター100の下面に配置される。
図3に示すように、検出光射出部410は、指示体80の指示位置を検出するために検出光IDLを射出する。検出光射出部410は、支持部材910又はスクリーン板920に固定され、スクリーンSCの上部に配置される。
検出光射出部410は、指示体80の先端部を検出する検出光IDLを、スクリーンSCをカバーする方向に射出する。具体的には、検出光射出部410は、スクリーンSCに沿って面状に、検出光IDLを射出する。検出光射出部410が射出する検出光IDLとしては、例えば近赤外光が使用される。
検出光射出部410は、第1射出部411と、第2射出部412と、第1射出部411と第2射出部412の射出方向をそれぞれ調整する調整機構420と、を備える。
図2に示すように、第1射出部411は、スクリーンSCの右半面に沿って検出光IDLを射出し、第2射出部412は、スクリーンSCの左半面に沿って検出光IDLを射出する。第1射出部411及び第2射出部412の各々は、例えば、LED(Light Emitting Diode)等の光源と、光源が発する検出光をスクリーンSCに沿って拡散させて検出光IDLとして射出する光学素子とを有する。
第1射出部411は、角θ1の範囲に光軸を光軸LC1として面状の検出光IDLを射出し、第2射出部412は、角θ2の範囲に光軸を光軸LC2として面状の検出光IDLを射出する。角θ1及び角θ2の各々は、90度より大きい。また、図2では、便宜上、第1射出部411と、第2射出部412とを離れて記載しているが、第1射出部411と第2射出部412とは近接して配置される。
その結果、検出光射出部410は、スクリーンSCの上部から下向きにほぼ180度の範囲に光を出射し、この光はスクリーンSCに沿う光の層を形成する。
図3に示すように、検出光IDLは、スクリーンSCの表面と光の層とは接触せず、且つ近接するように、光軸LC1が調整される。プロジェクター100が指示体80によって指示された指示位置を精度よく検出するためには、操作面であるスクリーンSCの表面と検出光IDLの光の層との距離は、短い程好ましい。一方、スクリーンSCの表面と検出光IDLの光の層との距離が短くなると、スクリーンSCの表面の凸凹や障害物による誤検出が発生するようになる。スクリーンSCの表面と光の層との距離は、例えば1mm~10mmの範囲内に調整される。
検出光射出部410が検出光IDLを射出する領域は、スクリーンSCにおいて、投射画像PSに対応する領域であり、好ましくは投射画像PSを含む領域である。
検出光IDLが調整されたプロジェクター100は、指示体80による操作を検出する通常モードでは、検出光射出部410が射出する検出光IDLが指示体80によって反射された反射光である反射検出光RDLを、カメラ310の撮像画像PMから輝点として検出する。この場合には、検出光IDLが射出される領域であって、カメラ310の画角に含まれる領域において、指示体80の操作を検出できる。換言すれば、検出光射出部410が検出光IDLを射出する領域のうち、カメラ310の画角に含まれる領域が、指示体80の操作を検出可能な領域である。図2に示す検出領域DAは、指示体80の操作を検出可能な領域である。
検出領域DAは、スクリーンSCにおいて、投射画像PSを含む。
カメラ310は、検出光射出部410が発する検出光IDLの波長を含む波長領域の光を受光して撮像する第1の撮像機能を少なくとも有する。カメラ310は、更に、可視光を含む光を受光して撮像する第2の撮像機能を有し、これらの2つの撮像機能を切り換え可能に構成されていることが好ましい。
例えば、カメラ310は、可視光を遮断して近赤外光のみを通過させる近赤外フィルターをレンズの前に配置したり、レンズの前から後退させたりすることが可能な、不図示の近赤外フィルター切換機構を備えることが好ましい。
プロジェクター100は、指示体80の指示操作を検出し、指示位置を特定し、指示位置に対応する動作を行う。例えば、プロジェクター100は、指示体80の操作に対応して、文字や図形や線画等を描画し、投射画像PSとして投射するホワイトボードモードで動作する。
本実施形態では、プロジェクター100がホワイトボードモードで動作する場合について説明する。
なお、プロジェクター100は、ホワイトボードモード以外の他のモードでも動作可能であり、例えば、パーソナルコンピューター等の図示しない画像ソースから入力される画像データに基づき、投射画像PSを投射する動作モードを実行できる。
図4は、本実施形態に係るプロジェクター100の構成の一例を示す図である。
図4に示すように、プロジェクター100は、図1~図3を参照して説明した投射光学系230を含む投射部200と、図1~図3を参照して説明したカメラ310を含む撮像部300と、図1~図3を参照して説明した検出光射出部410と、位置検出部600と、投射画像生成部500と、制御部700と、を備える。
プロジェクター100は、「表示装置」の一例に対応する。
投射部200は、投射画像生成部500で処理された画像をスクリーンSCに投射する。投射部200は、光源部210、光変調部220、及び、投射光学系230、を有する。
投射部200は、「表示部」の一例に対応する。
光源部210は、画像を表示することに使用され、LEDやレーザー光源等の固体光源、及び、蛍光体素子等の蛍光体光源の少なくともいずれかを備える。
また、光源部210は、光源が発した光を光変調部220に導くリフレクター、及び補助リフレクターを備えてもよい。更に、光源部210は、投射光の光学特性を高めるためのレンズ群、偏光板、及び、光源が発した光の光量を光変調部220に至る経路上で低減させる調光素子等を備えてもよい。
光変調部220は、例えば、R、G及びBの三原色に対応した3枚の図略の液晶パネルを備える。Rは赤色を示し、Gは緑色を示し、Bは青色を示す。すなわち、光変調部220は、R色光に対応した液晶パネルと、G色光に対応した液晶パネルと、B色光に対応した液晶パネルと、を備える。
光源部210が発する光はRGBの3色の色光に分離され、それぞれ対応する液晶パネルに入射される。3枚の液晶パネルの各々は、透過型の液晶パネルであり、透過する光を変調して画像光を生成する。各液晶パネルを通過して変調された画像光は、クロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系230に射出される。
本実施形態では、光変調部220が光変調素子として透過型の液晶パネルを備える場合について説明するが、これに限定されない。光変調素子は反射型の液晶パネルであってもよいし、デジタルマイクロミラーデバイス(Digital Micromirror Device)であってもよい。
投射光学系230は、光変調部220から入射された画像光をスクリーンSC上に結像させるレンズやミラー等を備える。
また、投射光学系230は、スクリーンSCに投射される画像を拡大又は縮小させるズーム機構や、フォーカスの調整を行うフォーカス調整機構等を備えてもよい。
撮像部300は、カメラ310を有する。カメラ310は、図3を参照して説明した検出光IDLの波長を含む波長領域の光を受光して撮像する。カメラ310は、検出光射出部410が発した検出光IDLが指示体80に反射した反射光である反射検出光RDLを受光し、撮像する。したがって、カメラ310の撮像画像PMから、反射検出光RDLを検出できる。
なお、カメラ310は、近赤外光を含む光を用いて撮像する機能に加えて、可視光を含む光を用いて撮像する機能を有することが好ましい。この場合には、スクリーンSC上に投射された投射画像PSをカメラ310で撮像し、その画像を利用して投射画像生成部500が台形歪み補正、色補正等を実行することが可能である。
位置検出部600は、カメラ310の撮像画像PMから反射検出光RDLを検出する。位置検出部600は、検出した光の像について撮像画像PMにおける位置を特定し、指示体80の位置を検出する。
カメラ310、または、カメラ310および位置検出部600は、「検出部」の一例に対応する。
投射画像生成部500は、投射画像PSに対応する画像データを記憶する投射画像メモリー510を有する。投射画像メモリー510は、投射部200が投射する画像をフレーム単位で格納する、いわゆるフレームメモリーである。
投射画像メモリー510は、第1投射画像メモリー511と、第2投射画像メモリー512とを備える。
第1投射画像メモリー511は、位置検出部600の検出結果に基づき、手書入力に対応する第1画像PT1を記憶する。
第2投射画像メモリー512は、投射部200が投射する投射画像PSに対応する画像データを記憶する。投射画像PSは、第1画像PT1、第2画像PT2、第1枠画像PL1、及び第2枠画像PL2を含む。
第1画像PT1、第2画像PT2、第1枠画像PL1、及び第2枠画像PL2については、以下に示す制御部700の説明と共に説明し、図5を参照して更に説明する。
投射画像生成部500は、制御部700からの指示に従って、位置検出部600の検出結果に基づき、画像データを投射画像メモリー510に書き込む。
また、投射画像生成部500は、制御部700からの指示に従って、第2投射画像メモリー512の画像を示す画像信号を光変調部220に出力して、投射部200により投射画像PSを投射させる。
更に、投射画像生成部500は、投射画像PSに対する画像処理を実行する。例えば、投射画像生成部500は、投射画像PSの台形歪み等を補正する幾何補正処理、投射画像PSを拡大又は縮小するデジタルズーム処理、投射画像PSの色調等を補正する色補正処理等を実行する。
制御部700は、プロセッサー710及びメモリー720を備える。
プロセッサー710は、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)等を備える。
プロセッサー710は、単一のプロセッサーで構成されてもよいし、複数のプロセッサーがプロセッサー710として機能する構成であってもよい。プロセッサー710は、制御プログラムを実行してプロジェクター100の各部を制御する。本実施形態においては、位置検出部600および投射画像生成部500は、制御部700の一部として実現される。
メモリー720は、プロセッサー710が実行するプログラムやデータを不揮発的に記憶する記憶装置である。メモリー720は、磁気的記憶装置、フラッシュROM(Read Only Memory)等の半導体記憶素子、或いはその他の種類の不揮発性記憶装置により構成される。また、メモリー720は、プロセッサー710のワークエリアを構成するRAM(Random Access Memory)を含んでもよい。メモリー720は、制御部700により処理されるデータや、プロセッサー710が実行する制御プログラムを記憶する。
制御プログラムは、プロセッサー710によって実行される。制御部700は、プロセッサー710がメモリー720に記憶された制御プログラムを実行することによって、プロジェクター100の各部の制御を行う。
制御部700の処理については、以下に説明する。また、制御部700の処理の具体例については、図5~図9を参照して説明する。
制御部700は、位置検出部600の検出結果に基づき、スクリーンSCに対する第1手書入力を受け付ける。第1手書入力は、ユーザーの手指等の指示体80によって、入力される手書きの文字、図形、線画等である。
また、制御部700は、第1手書入力に対応するスクリーンSCの位置を含む第1領域AR1を決定する。
また、制御部700は、第1手書入力に対応する第1画像PT1を第1領域AR1に表示する。
本実施形態では、制御部700は、例えば、以下の処理を実行することによって、第1画像PT1を第1領域AR1に表示する。
まず、制御部700は、第1手書入力を受け付ける。具体的には、位置検出部600が検出した第1手書入力がされた位置に基づいて、第1画像PT1を生成する。そして、制御部700は、投射画像生成部500によって、第1画像PT1を、第1投射画像メモリー511及び第2投射画像メモリー512の各々に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第1画像PT1に対応する画像信号を光変調部220に出力させて、投射部200により第1画像PT1を投射させる。このようにして、制御部700は、第1画像PT1をスクリーンSCに表示する。
また、制御部700は、第1画像PT1を所定の拡大倍率で拡大した第2画像PT2を、スクリーンSCの第2領域AR2に表示する。所定の拡大倍率は、例えば、2倍である。
本実施形態では、制御部700は、例えば、以下の処理を実行することによって、第2画像PT2を第2領域AR2に表示する。
まず、制御部700は、第1画像PT1を所定の拡大倍率で拡大した第2画像PT2を生成する。そして、制御部700は、投射画像生成部500によって、第2画像PT2を、第2投射画像メモリー512に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第2画像PT2に対応する画像信号を光変調部220に出力させて、投射部200により第2画像PT2を投射させる。このようにして、制御部700は、第2画像PT2をスクリーンSCに表示する。
また、制御部700は、位置検出部600の検出結果に基づき、スクリーンSCに対する第2手書入力を受け付ける。第2手書入力は、ユーザーの手指等の指示体80によって、第2領域AR2に入力される手書きの文字、図形、線画等である。
また、制御部700は、第2手書入力に応じた画像に基づいて、第2画像PT2を更新する。
制御部700は、例えば、以下の処理を実行することによって、第2手書入力に応じた画像に基づいて、第2画像PT2を更新する。
まず、制御部700は、位置検出部600の検出結果に基づき、第2手書入力に応じた第3画像PT3を生成する。そして、制御部700は、第3画像PT3を、投射画像生成部500によって、第2投射画像メモリー512において、第2手書入力がされた第2領域AR2の位置に書き込ませる。なお、第3画像PT3は、第2画像PT2の一部として第2投射画像メモリー512に書き込まれる。このようにして、第2手書入力に応じた画像に基づいて、第2画像PT2を更新する。
また、制御部700は、第2手書入力に応じた画像を、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に、所定の拡大率の逆数の縮小倍率で縮小した大きさで、第1画像PT1の一部として表示する。すなわち、第2手書入力に応じた画像に基づいて、第1画像PT1を更新する。
本実施形態では、制御部700は、例えば、以下の処理を実行することによって、第2手書入力に応じた画像に基づいて、第1画像PT1を更新する。
まず、制御部700は、位置検出部600の検出結果に基づき、第2手書入力に応じた第3画像PT3を生成する。そして、制御部700は、第3画像PT3を、所定の拡大率の逆数の縮小倍率で縮小した大きさの第4画像PT4を生成する。次に、制御部700は、第4画像PT4を、投射画像生成部500によって、第1投射画像メモリー511及び第2投射画像メモリー512の各々において、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に書き込ませる。なお、第4画像PT4は、第1画像PT1の一部として第1投射画像メモリー511及び第2投射画像メモリー512の各々に書き込まれる。このようにして、第2手書入力に応じた画像に基づいて、第1画像PT1を更新する。
また、制御部700は、第2画像PT2を第2領域AR2に表示している期間に、第1領域AR1に対する第1手書入力を受け付ける。そして、受け付けた第1手書入力に基づいて、第1画像PT1を更新し、更新した第1画像PT1を第1領域AR1に表示する。
本実施形態では、制御部700は、例えば、以下の処理を実行することによって、更新した第1画像PT1を第1領域AR1に表示する。
まず、制御部700は、位置検出部600が検出した第1手書入力に基づいて、第1画像PT1を更新する。そして、制御部700は、投射画像生成部500によって、第1画像PT1を、第1投射画像メモリー511及び第2投射画像メモリー512の各々に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第1画像PT1に対応する画像信号を光変調部220に出力させて、投射部200により第1画像PT1を投射させる。このようにして、制御部700は、更新した第1画像PT1をスクリーンSCに表示する。
また、制御部700は、第1領域AR1の外縁を示す第1枠画像PL1と、第2領域AR2の外縁を示す第2枠画像PL2と、をスクリーンSCに表示する。
第1枠画像PL1は、「第1領域画像」の一例に対応する。第2枠画像PL2は、「第2領域画像」の一例に対応する。
本実施形態では、制御部700は、例えば、以下の処理を実行することによって、第1枠画像PL1及び第2枠画像PL2をスクリーンSCに表示する。
まず、制御部700は、第1手書入力に対応するスクリーンSCの位置を含む第1領域AR1を決定する。第1領域AR1の大きさは、例えば、予め定められた大きさである。第1領域AR1の大きさは、ユーザーが設定可能であってもよい。次に、制御部700は、スクリーンSCにおける第2領域AR2を決定する。制御部700は、例えば、第2領域AR2が第1領域AR1と重ならない位置に、第2領域AR2を決定する。
次に、制御部700は、第1枠画像PL1及び第2枠画像PL2を生成する。そして、制御部700は、生成した第1枠画像PL1及び第2枠画像PL2を、投射画像生成部500によって、第2投射画像メモリー512に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第1枠画像PL1及び第2枠画像PL2に対応する画像信号を光変調部220に出力させて、投射部200により第1枠画像PL1及び第2枠画像PL2を投射させる。このようにして、制御部700は、第1枠画像PL1及び第2枠画像PL2をスクリーンSCに表示する。
このようにして、第1投射画像メモリー511には、第1手書入力、及び第2手書入力に基づいて、第1画像PT1が書き込まれる。また、第2投射画像メモリー512には、第1画像PT1、第2画像PT2、第1枠画像PL1及び第2枠画像PL2が書き込まれる。
また、第2投射画像メモリー512に書き込まれた第1画像PT1、第2画像PT2、第1枠画像PL1及び第2枠画像PL2は、投射画像生成部500によって、光変調部220に出力されて、投射部200によりスクリーンSCに投射される。
次に、図5~図8を参照して、制御部700の処理の具体例について説明する。
図5は、制御部700の処理の第1具体例を示す図である。
図5では、まず、制御部700が、第1手書入力を受け付けて、第1手書入力に対応する第1画像PT1と、第1枠画像PL1とを表示する処理について説明する。
制御部700は、第1手書入力を受け付けて第1領域AR1を決定する。第1領域AR1は、第1手書入力の位置を含む。図5では、第1領域AR1は、例えば、スクリーンSCの左側領域SC1の左上部、すなわち、スクリーンSCの長辺に沿って一方側、に配置される。第1領域AR1は、幅LW1、高さLH1の矩形状の領域である。
制御部700は、位置検出部600が検出した第1手書入力の位置に基づいて、第1画像PT1を生成する。図5では、第1画像PT1として、アルファベットの「A」を示す第1テキスト画像TX11が生成される。
制御部700は、第1テキスト画像TX11をスクリーンSCの第1領域AR1に表示する。本実施形態では、制御部700は、例えば、以下の処理を実行することによって、第1テキスト画像TX11をスクリーンSCに表示する。
まず、制御部700は、投射画像生成部500によって、第1テキスト画像TX11を、第1投射画像メモリー511及び第2投射画像メモリー512の各々に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第1テキスト画像TX11に対応する画像信号を光変調部220に出力させて、投射部200により第1テキスト画像TX11を投射させる。このようにして、制御部700は、第1テキスト画像TX11をスクリーンSCに表示する。
制御部700は、第1枠画像PL1をスクリーンSCの第1領域AR1に表示する。本実施形態では、制御部700は、例えば、前述した処理を実行することによって、第1枠画像PL1をスクリーンSCに表示する。
このように、第1枠画像PL1がスクリーンSCに表示されるため、ユーザーは、第1手書入力を受け付ける第1領域AR1を容易に視認できる。したがって、ユーザーは、第1領域AR1に、容易に第1手書入力を行うことができる。なお、第1枠画像PL1を表示しない態様であってもよい。
次に、制御部700が、第2画像PT2と、第2枠画像PL2とを表示する処理について説明する。
制御部700は、第1手書入力を受け付けた場合に、第2領域AR2が第1領域AR1と重ならない位置に、第2領域AR2を決定する。第2領域AR2は、例えば、スクリーンSCの右側領域SC2の中央部に配置される。すなわち、第2領域AR2は、スクリーンSCの長辺に沿って他方側に配置される。第2領域AR2は、幅LW2、高さLH2の矩形状の領域である。幅LW2は、例えば、第1領域AR1の幅LW1の2倍であり、高さLH2は、例えば、第1領域AR1の高さLH1の2倍である。2倍は、「所定の拡大率」の一例に対応する。なお、制御部700は、第1手書入力を受け付けたことを契機として第2領域AR2を決定する。したがって、ユーザーが第1画像PT1を拡大するための操作を行わなくても、第2領域AR2が表示される。
第2領域AR2は、表示領域AR21と、空白領域22とを含む。表示領域AR21は、第2画像PT2が表示される領域を示す。空白領域22は、第2領域AR2のうちの表示領域AR21を除く領域を示す。
制御部700は、空白領域22の面積が、表示領域AR21の面積よりも大きくなるように、第2領域AR2を決定する。
制御部700は、第2枠画像PL2をスクリーンSCに表示する。本実施形態では、制御部700は、例えば、前述した処理を実行することによって、第2枠画像PL2をスクリーンSCに表示する。
このように、第2枠画像PL2がスクリーンSCに表示されるため、ユーザーは、第2手書入力を受け付ける第2領域AR2を容易に視認できる。したがって、ユーザーは、第2領域AR2に、容易に第2手書入力を行うことができる。なお、第2枠画像PL2を表示しない態様であってもよい。
制御部700は、第2画像PT2をスクリーンSCに表示する。本実施形態では、制御部700は、例えば、以下の処理を実行することによって、第2画像PT2をスクリーンSCに表示する。
制御部700は、第1画像PT1を2倍に拡大した第2画像PT2を生成する。そして、制御部700は、投射画像生成部500によって、第2画像PT2を、第2投射画像メモリー512に書き込ませる。次に、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第2画像PT2に対応する画像信号を光変調部220に出力させて、投射部200により第2画像PT2を投射させる。このようにして、制御部700は、第2画像PT2をスクリーンSCに表示する。
以上の説明においては、制御部700が、便宜上、第1手書入力を受け付けた場合に、第2領域AR2を決定して、第2画像PT2を表示する場合について説明したが、さらに、第1手書入力が特定の条件を満たす場合に、第2領域AR2を決定して、第2画像PT2を表示してもよい。
制御部700は、例えば、第1手書入力が、スクリーンSCの所定面積の範囲に対する所定回数以上の接触動作を含む場合に、第2画像PT2を第2領域AR2に表示してもよい。接触動作とは、指示体80がスクリーンSCに対して非接触状態から接触状態に変化する動作を示す。所定面積は、例えば、9cmであり、所定回数は、例えば、5回である。第1手書入力が行われている面積が所定面積よりも大きい場合、または、接触動作の回数が所定回数未満である場合には、制御部700は、第2画像PT2を表示しない。
非接触状態は、図3に示す検出光IDL1よりも指示体80がスクリーンSCから離間している状態を示す。接触状態とは、図3に示す検出光IDL1よりも指示体80がスクリーンSCに近接している状態を示す。指示体80が非接触状態にあるか、接触状態にあるかは、位置検出部600によって検出される。
この場合には、第1手書入力が複雑な文字、図形、線画等に対応するときに、第2画像PT2を第2領域AR2に表示する。例えば、複雑な文字を手書きで入力する場合には、狭い領域に小さい文字を入力することは、ユーザーにとって困難である。
そこで、ユーザーは、第1領域AR1に第1手書入力を入力する代わりに、第1領域AR1よりも面積の広い第2領域AR2に第2手書入力を入力することによって、第1領域AR1に複雑な文字等を入力する。したがって、ユーザーは、第1領域AR1に複雑な文字、図形、線画等を容易に入力できる。
一方、広い領域に手書き入力する場合や、入力内容が単純な場合には、第2画像PT2が表示されるとユーザーがかえって煩わしく感じる可能性がある。条件を満たさない場合には第2画像PT2を表示しないことで、さらに使い勝手を向上できる。
図6は、制御部700の処理の第2具体例を示す図である。
図6では、制御部700が、第2領域AR2に入力された第2手書入力に基づいて、第2画像PT2の一部を構成する第3画像PT3と、第1画像PT1の一部を構成する第4画像PT4をスクリーンSCに表示する。
第1領域AR1には、第1テキスト画像TX11、第1テキスト画像TX12、及び第1テキスト画像TX13と、第4テキスト画像TX14、第4テキスト画像TX15、及び第4テキスト画像TX16と、が表示される。
第1テキスト画像TX11~第1テキスト画像TX13は、第1手書入力に基づいて生成される第1画像PT1の一例に対応する。第4テキスト画像TX14~第4テキスト画像TX16は、第2手書入力に基づいて生成される第4画像PT4の一例に対応する。第4画像PT4は、第1画像PT1の一部を構成する。すなわち、第1画像PT1は、第1テキスト画像TX11~第1テキスト画像TX13、及び、第4テキスト画像TX14~第4テキスト画像TX16を含む。
第1テキスト画像TX12、及び第1テキスト画像TX13は、図5を参照して説明した第1テキスト画像TX11と同様にして、スクリーンSCに表示される。
第2領域AR2には、第2テキスト画像TX21、第2テキスト画像TX22、及び第2テキスト画像TX23と、第3テキスト画像TX24、第3テキスト画像TX25、及び第3テキスト画像TX26と、が表示される。
第2テキスト画像TX22、及び第2テキスト画像TX23は、図5を参照して説明した第2テキスト画像TX21と同様にして、スクリーンSCに表示される。
第2テキスト画像TX21~第2テキスト画像TX23は、第1手書入力に基づいて生成される第2画像PT2の一例に対応する。第3テキスト画像TX24~第3テキスト画像TX26は、第2手書入力に基づいて生成される第3画像PT3の一例に対応する。第3画像PT3は、第2画像PT2の一部を構成する。すなわち、第2画像PT2は、第2テキスト画像TX21~第2テキスト画像TX23、及び、第3テキスト画像TX24~第3テキスト画像TX26を含む。
まず、制御部700が、第3テキスト画像TX24~第3テキスト画像TX26をスクリーンSCに表示する処理の一例について説明する。
制御部700は、位置検出部600の検出結果に基づき、第2手書入力に応じた第3テキスト画像TX24~第3テキスト画像TX26を生成する。そして、制御部700は、第3テキスト画像TX24~第3テキスト画像TX26を、投射画像生成部500によって、第2投射画像メモリー512において、第2手書入力がされた第2領域AR2の位置に書き込ませる。なお、第3テキスト画像TX24~第3テキスト画像TX26は、第2画像PT2の一部として第2投射画像メモリー512に書き込まれる。このようにして、第2手書入力に応じた画像に基づいて、第2画像PT2を更新する。
また、第3テキスト画像TX24~第3テキスト画像TX26は、第2画像PT2と同様にして、スクリーンSCに表示される。具体的には、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第3テキスト画像TX24~第3テキスト画像TX26に対応する画像信号を光変調部220に出力させて、投射部200により第3テキスト画像TX24~第3テキスト画像TX26を投射させる。このようにして、制御部700は、第3テキスト画像TX24~第3テキスト画像TX26をスクリーンSCに表示する。
次に、制御部700が、第4テキスト画像TX14~第4テキスト画像TX16をスクリーンSCに表示する処理の一例について説明する。
制御部700は、第3テキスト画像TX24~第3テキスト画像TX26の各々を、所定の拡大率の逆数の縮小倍率(ここでは、1/2倍)で縮小した大きさの第4テキスト画像TX14~第4テキスト画像TX16を生成する。次に、制御部700は、第4テキスト画像TX14~第4テキスト画像TX16を、投射画像生成部500によって、第1投射画像メモリー511及び第2投射画像メモリー512の各々において、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に書き込ませる。なお、第4テキスト画像TX14~第4テキスト画像TX16は、第1画像PT1の一部として第1投射画像メモリー511及び第2投射画像メモリー512の各々に書き込まれる。このようにして、第2手書入力に応じた画像に基づいて、第1画像PT1を更新する。
また、第4テキスト画像TX14~第4テキスト画像TX16は、第1画像PT1と同様にして、スクリーンSCに表示される。具体的には、制御部700は、投射画像生成部500によって、第2投射画像メモリー512の第4テキスト画像TX14~第4テキスト画像TX16に対応する画像信号を光変調部220に出力させて、投射部200により第4テキスト画像TX14~第4テキスト画像TX16を投射させる。このようにして、制御部700は、第4テキスト画像TX14~第4テキスト画像TX16をスクリーンSCに表示する。
次に、図7及び図8を参照して、第1手書入力の位置が移動する場合における、第1領域AR1、及び第2領域AR2の位置の調整方法について説明する。
なお、図7及び図8では、便宜上、制御部700が、指示体80の位置が第1領域AR1の中央位置になるように第1領域AR1を決定する場合について説明する。
図7は、制御部700の処理の第3具体例を示す図である。
図7の上段図に示すように、指示体80の位置が、スクリーンSCの中央から手書き入力を始め、書き進んだ結果、右側に距離MH1だけ移動する場合について説明する。
この場合には、制御部700は、手書き入力を開始した時点では、指示体80の位置に基づき、図7の上段図に示すように、スクリーンSCの中央を中心として第1領域AR1の位置を決定する。第2領域AR2は、第1領域AR1と重ならない位置に表示される。例えば、図7の上段図では、第1領域AR1の右側である。位置検出部600は、指示体80の位置を繰り返し検出し、制御部700は、位置検出部600の検出結果に応じて、図7の下段図に示すように、第1領域AR1を距離MA11だけ右側に移動し、第2領域AR2を、距離MA21だけ右側に移動する。
距離MA11、及び距離MA21は、例えば、距離MH1と一致する。
図7の下段図に示す状態になると、第1領域AR1の右端が、第2領域AR2の左端と接触し、第2領域AR2の右端は、スクリーンSCの右端に位置している。したがって、第1領域AR1を更に右側に移動することが困難になる。
図8は、制御部700の処理の第4具体例を示す図である。図8は、図7の下段図に示す状態から第1領域AR1を更に右側に移動する方法の一例を示す。
図8の上段図に示す第1領域AR1及び第2領域AR2の位置は、図7の下段図に示す第1領域AR1及び第2領域AR2の位置と同一である。図8の上段図に示すように、指示体80の位置が、右側に距離MH2だけ移動する場合について説明する。
この場合には、図8の下段図に示すように、制御部700は、第1領域AR1を距離MA12だけ右側に移動し、第2領域AR2を、第2領域AR2の左端がスクリーンSCの左端に位置するように距離MA22だけ移動する。
距離MA12は、例えば距離MH2と一致する。
図8の下段図に示す状態になると、第2領域AR2の左端は、スクリーンSCの左端に位置している。第1領域AR1の左端は、第2領域AR2の右端から、例えば距離MA12だけ離間した位置にある。
このように、第1領域AR1の移動に伴い、第2領域AR2を移動することによって、第1領域AR1と重ならない位置に、第2領域AR2を決定できる。
また、図8の下段図に示すように、第2領域AR2がスクリーンSCの右端からスクリーンSCの左端に移動した場合に、第2領域AR2が配置される位置に、既に、文字や図形等が記載されている可能性がある。このような場合であっても、第2領域AR2を利用可能にするために、制御部700は、第2領域AR2が配置される位置に記載されている文字や図形等に、第2領域AR2を、オーバーレイして配置する。換言すれば、制御部700は、第2領域AR2を、第2領域AR2が配置される位置に記載されている文字や図形等の上層に配置する。
また、図8の下段図に示すように、第1領域AR1の幅LW1と、第2領域AR2の幅LW2と、スクリーンSCの幅LWSとは、次の式(1)を満たす。
LW1+2×LW2≦LWS (1)
本実施形態では、幅LW2は、幅LW1の2倍であるため、式(1)より次の式(2)が成立する。
5×LW1≦LWS (2)
式(2)により、第1領域AR1の幅LW1は、スクリーンSCの幅LWSの1/5以下に設定する必要がある。なお、高さLHSは、スクリーンSCの高さを示す。
例えば、幅LW2が、幅LW1のMG倍である場合には、式(1)より次の式(3)が成立する。
(1+2×MG)×LW1≦LWS (3)
制御部700は、幅LW1、幅LW2、および、スクリーンSCにおける第1領域AR1および第2領域AR2の位置を、式(3)に基づいて決定してもよい。なお、幅LWSおよび高さLWHは、撮像部300によって得られた画像から算出することが可能である。
図9は、制御部700の処理の一例を示すフローチャートである。
図9に示すように、まず、ステップS101において、制御部700は、第1手書入力を受け付ける。
次に、ステップS103において、制御部700は、第1手書入力に対応するスクリーンSCの位置を含む第1領域AR1を決定する。そして、制御部700は、第1領域AR1の外縁を示す第1枠画像PL1を生成し、第1枠画像PL1をスクリーンSCに表示する。
次に、ステップS105において、制御部700は、第1手書入力に対応する第1画像PT1を生成する。
次に、ステップS107において、制御部700は、第1画像PT1を第1領域AR1に表示する。
次に、ステップS109において、制御部700は、第2領域AR2を表示するか否かを判定する。制御部700は、例えば、第1手書入力が特定の条件を満たすか否かに基づいて、第2領域AR2を表示するか否かを判定する。特定の条件は、例えば、第1手書入力が、スクリーンSCの所定面積の範囲に対する所定回数以上の接触動作を含むことである。
第2領域AR2を表示しないと制御部700が判定した場合(ステップS109;NO)には、処理がステップS101に戻る。第2領域AR2を表示すると制御部700が判定した場合(ステップS109;YES)には、処理がステップS111に進む。
そして、ステップS111において、制御部700は、第1領域AR1と重ならない位置に第2領域AR2を決定する。また、第1手書入力が移動することによって第1領域AR1が移動した場合には、制御部700は、第1領域AR1と重ならない位置に第2領域AR2を移動する。そして、制御部700は、第2領域AR2の外縁を示す第2枠画像PL2を生成し、第2枠画像PL2をスクリーンSCに表示する。
次に、ステップS113において、制御部700は、第1画像PT1を所定の拡大倍率(例えば、2倍)で拡大した第2画像PT2を生成し、第2画像PT2をスクリーンSCの第2領域AR2に表示する。
次に、ステップS115において、制御部700は、第2領域AR2において第2手書入力を受け付けたか否かを判定する。
第2領域AR2において第2手書入力を受け付けていないと制御部700が判定した場合(ステップS115;NO)には、処理がステップS123に進む。第2領域AR2において第2手書入力を受け付けたと制御部700が判定した場合(ステップS115;YES)には、処理がステップS117に進む。
そして、ステップS117において、制御部700は、第2手書入力に基づいて、第1画像PT1を更新する。すなわち、制御部700は、第2手書入力に応じた画像を、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に、所定の拡大率の逆数の縮小倍率(例えば、1/2倍)で縮小した大きさで、第1画像PT1の一部として生成する。このようにして、第2手書入力に応じた画像に基づいて、第1画像PT1を更新する。
次に、ステップS119において、制御部700は、第1画像PT1の表示を更新する。換言すれば、制御部700は、更新された第1画像PT1をスクリーンSCの第1領域AR1に表示する。
次に、ステップS121において、制御部700は、更新された第1画像PT1を所定の拡大率(例えば、2倍)に拡大することによって、第2画像PT2を更新する。そして、制御部700は、更新した第2画像PT2をスクリーンSCの第2領域AR2に表示する。その後、処理がステップS115に戻る。
ステップS115でNOの場合には、ステップS123において、制御部700は、第1領域AR1に対する第1手書入力を受け付けたか否かを判定する。
第1手書入力を受け付けたと制御部700が判定した場合(ステップS123;YES)には、処理がステップS103に戻る。第1手書入力を受け付けていないと制御部700が判定した場合(ステップS123;NO)には、処理がステップS125へ進む。
そして、ステップS125において、制御部700は、第1手書入力、及び第2手書入力を受け付けていないとステップS123で判定してから、所定時間が経過したか否かを判定する。所定時間は、例えば、5分間である。
所定時間が経過していないと制御部700が判定した場合(ステップS125;NO)には、処理がステップS115に戻る。所定時間が経過したと制御部700が判定した場合(ステップS125;YES)には、処理が終了する。
図9を参照して説明したように、第2領域AR2に第2手書入力を行うことによって、第1領域AR1の第1画像PT1を更新できる。したがって、ユーザーの利便性を向上できる。
例えば、第1領域AR1に複雑な文字、図形、線画等を示す第1画像PT1を表示する場合に、以下のようにして、第1画像PT1を表示できる。すなわち、ユーザーは、第1領域AR1に第1手書入力を行うことに換えて、第1領域AR1よりも面積の広い第2領域AR2に第1手書入力の所定の拡大率(例えば、2倍)の大きさで第2手書入力を行うことによって、第1領域AR1に第1画像PT1を表示できる。
以上、図1~図9を参照して説明したように、本実施形態に係る表示方法は、スクリーンSCに対する第1手書入力を受け付けることと、第1手書入力がされたスクリーンSCの位置を含む第1領域AR1を決定することと、第1手書入力に対応する第1画像PT1を第1領域AR1に表示することと、第1画像PT1を所定の拡大倍率で拡大した第2画像PT2を、スクリーンSCの第2領域AR2に表示することと、第2領域AR2において第2手書入力を受け付けることと、第2手書入力に応じた画像を、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に、所定の拡大率の逆数の縮小倍率で縮小した大きさで、第1画像PT1の一部として表示することと、を含む。
すなわち、第2手書入力を受け付けると、第2手書入力に応じた画像を、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に、所定の拡大率(例えば、2倍)の逆数の縮小倍率(例えば、1/2倍)で縮小した大きさで、第1画像PT1の一部として表示する。よって、第2領域AR2への第2手書入力で、第1画像PT1として複雑な文字、図形、線画等を入力できる。したがって、ユーザーによる手書入力の操作性を向上できる。
また、本実施形態に係る表示方法は、スクリーンSCの第1領域AR1と重ならない位置に、第2領域AR2を決定することを、更に含む。
よって、第2領域AR2が第1領域AR1と重ならないため、ユーザーは、第2領域AR2への第2手書入力を行いながら、第1領域AR1の表示内容を確認できる。したがって、ユーザーによる手書入力の操作性を向上できる。
また、本実施形態に係る表示方法は、スクリーンSCは、長辺と、短辺とを有する矩形であり、前記第1領域AR1を決定することにおいて、第1領域AR1を、スクリーンSCの長辺に沿って一方側に配置し、前記第2領域AR2を決定することにおいて、第2領域AR2を、スクリーンSCの長辺に沿って他方側に配置する。
よって、第1領域AR1と第2領域AR2とが、スクリーンSCの長辺に沿って配置される。したがって、第1領域AR1と第2領域AR2とを短辺に沿って配置する場合と比較して、第2領域AR2を配置しやすい。その結果、ユーザーによる手書入力の操作性を向上できる。
また、第1領域AR1に対して第1手書入力を実行している場合に、第2領域AR2に第1画像PT1を所定の拡大倍率で拡大した第2画像PT2が表示される。したがって、例えば、スクリーンSCの長辺が左右方向である場合に、教室において、教師が第1領域AR1に対して第1手書入力を実行している場合に、第2領域AR2に表示される第2画像PT2を、生徒は、教師の体に邪魔されることなく容易に視認できる。
また、本実施形態に係る表示方法は、第2領域AR2は、第2画像PT2の表示される表示領域AR21と、表示領域AR21を除く領域である空白領域AR22と、を含み、空白領域AR22の面積は、表示領域AR21の面積よりも大きい。
よって、空白領域AR22の面積は、表示領域AR21の面積よりも大きいため、第2領域AR2への第2手書入力を容易に実行できる。したがって、ユーザーによる手書入力の操作性を向上できる。
また、本実施形態に係る表示方法は、前記第1手書入力を受け付けることは、第2画像PT2を第2領域AR2に表示している期間に、第1領域AR1に対する第1手書入力を受け付けること、を含む。
すなわち、ユーザーは、第2領域AR2に対する第2手書入力、及び、第1領域AR1に対する第1手書入力のいずれを行ってもよい。したがって、ユーザーによる手書入力の操作性を向上できる。
また、本実施形態に係る表示方法は、第2画像PT2を第2領域AR2に表示することは、第1手書入力が、スクリーンSCの所定面積の範囲に対する所定回数以上の接触動作を含む場合に、第2画像PT2を第2領域AR2に表示すること、を含む。
よって、第1手書入力として、例えば、複雑な文字、図形、線画等を入力する際に、第2領域AR2が表示される。したがって、適正なタイミングで、第2領域AR2を表示できる。
また、本実施形態に係る表示方法は、スクリーンSCにおける第1手書入力の位置がされたスクリーンSCの位置に応じて、スクリーンSCにおける第2領域AR2の位置を移動させること、を更に含む。
したがって、第1手書き入力の位置が移動した場合にも、第2領域AR2が第1領域AR1と重ならない位置に、第2領域AR2を決定できる。
また、本実施形態に係る表示方法は、第1領域AR1の外縁を示す第1枠画像PL1をスクリーンSCに表示することと、第2領域AR2の外縁を示す第2枠画像PL2をスクリーンSCに表示することと、を更に含む。
よって、ユーザーは、第1枠画像PL1及び第2枠画像PL2によって、第1領域AR1及び第2領域AR2を容易に認識できる。したがって、第1領域AR1に対する第1手書き入力、及び第2領域AR2に対する第2手書き入力を、ユーザーは容易に実行できる。その結果、ユーザーによる手書入力の操作性を向上できる。
本実施形態に係るプロジェクター100は、スクリーンSCに画像を表示する投射部200と、スクリーンSCに対する手書入力の位置を検出する位置検出部600と、位置検出部600の検出結果に基づき、スクリーンSCに表示する画像を制御する制御部700と、を備え、制御部700は、位置検出部600の検出結果に基づいて、スクリーンSCに対する第1手書入力を受け付けることと、第1手書入力がされたスクリーンSCの位置を含む第1領域AR1を決定することと、第1手書入力に対応する第1画像PT1を第1領域AR1に表示することと、第1画像PT1を所定の拡大率で拡大した第2画像PT2を、スクリーンSCの第2領域AR2に表示することと、位置検出部600の検出結果に応じて、第2領域AR2において第2手書入力を受け付けることと、第2手書入力に応じた画像を、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に、所定の拡大率の逆数の縮小率で縮小した大きさで、第1画像PT1の一部として表示することと、を実行する。
すなわち、第2手書入力を受け付けると、第2手書入力に応じた画像を、第2手書入力がされた第2領域AR2の位置に対応する第1領域AR1の位置に、所定の拡大率(例えば、2倍)の逆数の縮小倍率(例えば、1/2倍)で縮小した大きさで、第1画像PT1の一部として表示する。よって、第2領域AR2への第2手書入力で、第1画像PT1として複雑な文字、図形、線画等を入力できる。したがって、ユーザーによる手書入力の操作性を向上できる。
上述した本実施形態は、好適な実施の形態である。ただし、上述の実施形態に限定されるものではなく、要旨を逸脱しない範囲内において種々の変形実施が可能である。
本実施形態では、所定の拡大倍率が2倍である場合について説明したが、所定の拡大倍率は、1より大であればよい。例えば、所定の拡大倍率が、1.1倍でもよいし、1.5倍でもよい。また、所定の拡大倍率が、2倍より大きくてもよい。例えば、所定の拡大倍率が、3倍でもよいし、5倍でもよい。第2領域AR2への複雑な文字、図形、線画等の第2手書入力を容易にするために、所定の拡大倍率は、1.5倍~3倍が好ましい。
また、本実施形態では、第1手書入力が行われた場合、または、第1手書入力が、スクリーンSCの所定面積の範囲に対する所定回数以上の接触動作を含む場合に、制御部700は、第2領域AR2を表示すると判定するが、これに限定されない。例えば、第1手書入力が文字入力である場合に、制御部700は、第2領域AR2を表示すると判定してもよい。
また、本実施形態では、第1手書入力がされた位置に応じて第1領域AR1を決定し、第1領域AR1に応じて第2領域AR2を決定する場合について説明したが、これに限定されない。例えば、第2手書入力の位置に応じて第2領域AR2を決定してもよい。この場合には、第2領域AR2の位置を更に適正に決定できる。
また、図4に示した各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、或いは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクター100の他の各部の具体的な細部構成についても、趣旨を逸脱しない範囲で任意に変更可能である。
また、図9に示すフローチャートの処理単位は、制御部700の処理を理解容易にするために、主な処理内容に応じて分割したものである。図9のフローチャートに示す処理単位の分割の仕方や名称によって制限されることはなく、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、プロジェクター100の表示方法は、プロジェクター100が備えるプロセッサー710に、プロジェクター100の表示方法に対応した制御プログラムを実行させることで実現できる。また、この制御プログラムは、コンピューターで読み取り可能に記録した記録媒体に記録しておくことも可能である。記録媒体としては、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD(Hard Disk Drive)、CD-ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disc)、Blu-ray(登録商標) Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、記録媒体は、プロジェクター100が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。また、プロジェクター100の表示方法に対応した制御プログラムをサーバー装置等に記憶させておき、サーバー装置からプロジェクター100に、制御プログラムをダウンロードすることでプロジェクター100の表示方法を実現することもできる。
また、本実施形態ではプロジェクター100を例に説明したが、表示装置は、画像を表示することに用いる光源および表示パネルと、タッチセンサーとを有するタッチパネルディスプレイであってもよい。
80…指示体、100…プロジェクター(表示装置)、200…投射部(表示部)、210…光源部、220…光変調部、230…投射光学系、300…撮像部、310…カメラ、410…検出光射出部、411…第1射出部、412…第2射出部、500…投射画像生成部、510…投射画像メモリー、511…第1投射画像メモリー、512…第2投射画像メモリー、600…位置検出部(検出部)、700…制御部、710…プロセッサー、720…メモリー、900…表示システム、910…支持部材、920…スクリーン板、AR1…第1領域、AR2…第2領域、AR21…表示領域、AR22…空白領域、DA…検出領域、IDL、IDL1…検出光、LC1、LC2…光軸、LH1、LH2、LHS…高さ、LW1、LW2、LWS…幅、MA11、MA21、MA12、MA22、MH1、MH2…距離、PL1…第1枠画像(第1領域画像)、PL2…第2枠画像(第2領域画像)、PM…撮像画像、PS…投射画像、PT1…第1画像、PT2…第2画像、PT3…第3画像、PT4…第4画像、RDL…反射検出光、SC…スクリーン(表示面)、SC1…左側領域、SC2…右側領域、TX…テキスト画像、TX11~TX13…第1テキスト画像、TX14~TX16…第4テキスト画像、TX21~TX23…第2テキスト画像、TX24~TX26…第3テキスト画像、θ1、θ2…角。

Claims (9)

  1. 表示面に対する第1手書入力を受け付けることと、
    前記第1手書入力がされた前記表示面の位置を含む第1領域を決定することと、
    前記第1手書入力に対応する第1画像を前記第1領域に表示することと、
    前記第1画像を所定の拡大倍率で拡大した第2画像を、前記表示面の第2領域に表示することと、
    前記第2領域において第2手書入力を受け付けることと、
    前記第2手書入力に応じた画像を、前記第2手書入力がされた前記第2領域の位置に対応する前記第1領域の位置に、前記所定の拡大率の逆数の縮小倍率で縮小した大きさで、前記第1画像の一部として表示することと、
    を含む、表示方法。
  2. 前記表示面の前記第1領域と重ならない位置に、前記第2領域を決定すること、
    を更に含む、
    請求項1に記載の表示方法。
  3. 前記表示面は、長辺と短辺とを有する矩形であり、
    前記第1領域を決定することにおいて、前記第1領域を、前記表示面の前記長辺に沿って一方側に配置し、
    前記第2領域を決定することにおいて、前記第2領域を、前記表示面の前記長辺に沿って他方側に配置する、
    請求項2に記載の表示方法。
  4. 前記第2領域は、前記第2画像の表示される表示領域と、前記表示領域を除く領域である空白領域と、を含み、
    前記空白領域の面積は、前記表示領域の面積よりも大きい、
    請求項1から請求項3のいずれか1項に記載の表示方法。
  5. 前記第1手書入力を受け付けることは、前記第2画像を前記第2領域に表示している期間に、前記第1領域に対する前記第1手書入力を受け付けること、
    を含む、
    請求項1から請求項4のいずれか1項に記載の表示方法。
  6. 前記第2画像を前記第2領域に表示することは、前記第1手書入力が、前記表示面の所定面積の範囲に対する所定回数以上の接触動作を含む場合に、前記第2画像を前記第2領域に表示すること、
    を含む、
    請求項1から請求項5のいずれか1項に記載の表示方法。
  7. 前記表示面における前記第1手書入力がされた前記表示面の位置に応じて、前記表示面における前記第2領域の位置を移動させること、
    を更に含む、請求項1から請求項6のいずれか1項に記載の表示方法。
  8. 前記第1領域の外縁を示す第1領域画像を前記表示面に表示することと、
    前記第2領域の外縁を示す第2領域画像を前記表示面に表示することと、
    を更に含む、請求項1から請求項7のいずれか1項に記載の表示方法。
  9. 表示面に画像を表示する表示部と、
    前記表示面に対する手書入力の位置を検出する検出部と、
    前記検出部の検出結果に基づき、前記表示面に表示する画像を制御する制御部と、を備え、
    前記制御部は、
    前記検出部の検出結果に基づいて、前記表示面に対する第1手書入力を受け付けることと、
    前記第1手書入力がされた前記表示面の位置を含む第1領域を決定することと、
    前記第1手書入力に対応する第1画像を前記第1領域に表示することと、
    前記第1画像を所定の拡大率で拡大した第2画像を、前記表示面の第2領域に表示することと、
    前記検出部の検出結果に応じて、前記第2領域において第2手書入力を受け付けることと、
    前記第2手書入力に応じた画像を、前記第2手書入力がされた前記第2領域の位置に対する前記第1領域の位置に、前記所定の拡大率の逆数の縮小率で縮小した大きさで、前記第1画像の一部として表示することと、
    を実行する、表示装置。
JP2020174003A 2020-10-15 2020-10-15 表示方法、及び表示装置 Active JP7521372B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020174003A JP7521372B2 (ja) 2020-10-15 2020-10-15 表示方法、及び表示装置
CN202111191759.9A CN114374827B (zh) 2020-10-15 2021-10-13 显示方法和显示装置
US17/501,296 US11550431B2 (en) 2020-10-15 2021-10-14 Display method and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020174003A JP7521372B2 (ja) 2020-10-15 2020-10-15 表示方法、及び表示装置

Publications (3)

Publication Number Publication Date
JP2022065419A true JP2022065419A (ja) 2022-04-27
JP2022065419A5 JP2022065419A5 (ja) 2023-07-20
JP7521372B2 JP7521372B2 (ja) 2024-07-24

Family

ID=81138466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020174003A Active JP7521372B2 (ja) 2020-10-15 2020-10-15 表示方法、及び表示装置

Country Status (3)

Country Link
US (1) US11550431B2 (ja)
JP (1) JP7521372B2 (ja)
CN (1) CN114374827B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023023791A (ja) * 2021-08-06 2023-02-16 セイコーエプソン株式会社 表示方法

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2986507B2 (ja) 1990-04-27 1999-12-06 株式会社日立製作所 会議システム
JP3120085B2 (ja) * 1991-11-21 2000-12-25 株式会社セガ 電子装置及び情報担体
JP3579061B2 (ja) * 1992-08-31 2004-10-20 株式会社東芝 表示装置
JPH0877176A (ja) * 1994-09-07 1996-03-22 Hitachi Ltd 外国語翻訳装置
US5838302A (en) * 1995-02-24 1998-11-17 Casio Computer Co., Ltd. Data inputting devices for inputting typed and handwritten data in a mixed manner
JPH0926769A (ja) * 1995-07-10 1997-01-28 Hitachi Ltd 画像表示装置
JP4035187B2 (ja) 1995-11-22 2008-01-16 富士通株式会社 文書作成装置
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US9715252B2 (en) * 2011-08-24 2017-07-25 Z124 Unified desktop docking behavior for window stickiness
JP2003271294A (ja) 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
US7002560B2 (en) * 2002-10-04 2006-02-21 Human Interface Technologies Inc. Method of combining data entry of handwritten symbols with displayed character data
JP4455185B2 (ja) 2004-06-29 2010-04-21 キヤノン株式会社 プレゼンテーションシステム及びその制御方法並びにプログラム及び記憶媒体
JP4549212B2 (ja) 2005-03-23 2010-09-22 日立ソフトウエアエンジニアリング株式会社 電子ボードシステム
JP4683970B2 (ja) * 2005-03-24 2011-05-18 任天堂株式会社 タッチ入力プログラムおよびタッチ入力装置
US7750893B2 (en) * 2005-04-06 2010-07-06 Nintendo Co., Ltd. Storage medium storing input position processing program, and input position processing device
KR20070034767A (ko) * 2005-09-26 2007-03-29 엘지전자 주식회사 다중 표시영역을 갖는 이동통신 단말기 및 이를 이용한 디스플레이 간의 데이터 표시 방법
US8018440B2 (en) * 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
DE202007018940U1 (de) * 2006-08-15 2009-12-10 N-Trig Ltd. Bewegungserkennung für einen Digitalisierer
JP4995056B2 (ja) 2007-12-06 2012-08-08 キヤノン株式会社 画像表示装置、その制御方法、及びプログラム
US20110102354A1 (en) * 2008-06-30 2011-05-05 Tetsuya Fuyuno Information processing device, display control method, and recording medium
US20100251112A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Bimodal touch sensitive digital notebook
JP5229083B2 (ja) * 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2011150413A (ja) * 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力方法及び操作入力プログラム
JP4571230B1 (ja) 2010-02-12 2010-10-27 善俊 張 手書きデータ処理装置
US9454304B2 (en) * 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US9851747B2 (en) * 2010-05-21 2017-12-26 Peter G. Winsky Electronic book reader with closely juxtaposed display screens
JP5661547B2 (ja) * 2011-04-26 2015-01-28 京セラ株式会社 携帯端末装置およびプログラム
US20120318077A1 (en) * 2011-06-15 2012-12-20 Paca Roy Ergonomically enhanced System and Method for Handwriting
JP2014022901A (ja) * 2012-07-18 2014-02-03 Sharp Corp 表示入力装置および表示入力方法
US20150212647A1 (en) * 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR101984683B1 (ko) * 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR102083918B1 (ko) * 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR102063952B1 (ko) * 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
JP5458161B1 (ja) * 2012-10-23 2014-04-02 株式会社東芝 電子機器および方法
KR102162836B1 (ko) * 2013-08-30 2020-10-07 삼성전자주식회사 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법
US20150098653A1 (en) * 2013-10-07 2015-04-09 Kabushiki Kaisha Toshiba Method, electronic device and storage medium
US9411508B2 (en) 2014-01-03 2016-08-09 Apple Inc. Continuous handwriting UI
JPWO2015107692A1 (ja) * 2014-01-20 2017-03-23 株式会社東芝 手書きのための電子機器および方法
JP6323035B2 (ja) 2014-01-29 2018-05-16 セイコーエプソン株式会社 表示装置および表示方法
KR102332468B1 (ko) * 2014-07-24 2021-11-30 삼성전자주식회사 기능 제어 방법 및 그 전자 장치
JP6352766B2 (ja) 2014-10-15 2018-07-04 シャープ株式会社 情報処理装置、情報処理プログラムおよび情報処理方法
US10437461B2 (en) * 2015-01-21 2019-10-08 Lenovo (Singapore) Pte. Ltd. Presentation of representation of handwriting input on display
JP2016186678A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法
JP6451446B2 (ja) * 2015-03-27 2019-01-16 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
US20180095653A1 (en) * 2015-08-14 2018-04-05 Martin Hasek Device, method and graphical user interface for handwritten interaction
JP5993072B1 (ja) 2015-08-27 2016-09-14 レノボ・シンガポール・プライベート・リミテッド 電子機器のユーザ・インターフェース、入力の処理方法および電子機器
JP2017117020A (ja) 2015-12-21 2017-06-29 株式会社リコー 表示装置、表示システム及び方法
JP6716409B2 (ja) 2016-09-23 2020-07-01 株式会社Nttドコモ 情報処理装置
US10514844B2 (en) * 2016-11-16 2019-12-24 Dell Products L.P. Automatically modifying an input area based on a proximity to one or more edges
JP6841647B2 (ja) 2016-12-20 2021-03-10 シャープ株式会社 表示装置、表示方法及びプログラム
US10503396B2 (en) * 2017-06-02 2019-12-10 Apple Inc. Device, method, and graphical user interface for simulating and interacting with handwritten text
JP6832822B2 (ja) * 2017-09-29 2021-02-24 シャープ株式会社 表示制御装置及びプログラム
US11157047B2 (en) * 2018-11-15 2021-10-26 Dell Products, L.P. Multi-form factor information handling system (IHS) with touch continuity across displays
JP2020123118A (ja) * 2019-01-30 2020-08-13 セイコーエプソン株式会社 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2020123115A (ja) * 2019-01-30 2020-08-13 セイコーエプソン株式会社 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2020160654A (ja) 2019-03-26 2020-10-01 セイコーエプソン株式会社 表示装置の制御方法及び表示装置
JP2020160807A (ja) * 2019-03-27 2020-10-01 セイコーエプソン株式会社 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2020160808A (ja) * 2019-03-27 2020-10-01 セイコーエプソン株式会社 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2020061179A (ja) 2019-12-27 2020-04-16 シャープ株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP7443819B2 (ja) * 2020-02-27 2024-03-06 セイコーエプソン株式会社 画像表示装置、画像表示方法、および画像表示プログラム

Also Published As

Publication number Publication date
US20220121317A1 (en) 2022-04-21
CN114374827B (zh) 2023-12-01
JP7521372B2 (ja) 2024-07-24
CN114374827A (zh) 2022-04-19
US11550431B2 (en) 2023-01-10

Similar Documents

Publication Publication Date Title
JP6059223B2 (ja) 携帯型投射捕捉デバイス
US9521276B2 (en) Portable projection capture device
KR100939501B1 (ko) 2개의 투사형 영상을 제공하는 멀티미디어 재생 장치
JPH0876082A (ja) 投影表示装置
CN104660946B (zh) 投影机及其控制方法
JP3733915B2 (ja) プロジェクタ
JP4993029B2 (ja) 投写型表示装置、およびその調整方法
JP7521372B2 (ja) 表示方法、及び表示装置
JP6690551B2 (ja) 投射型表示装置
JP4590858B2 (ja) 書き込み可能プロジェクタおよび光ポインタ
JP2017129767A (ja) 反射体、光出射装置の調整方法、及び検出システム
WO2021131646A1 (ja) 投影装置、投影方法、及び制御プログラム
JP2011254268A (ja) 撮像装置、撮像方法、及びプログラム
JP7310649B2 (ja) 位置検出装置の制御方法、位置検出装置、及びプロジェクター
JP2009511970A (ja) 画像を表示するアセンブリ及び方法
CN106993146A (zh) 控制方法、控制装置、投影机
JP2009157307A (ja) プロジェクタ
JP5488584B2 (ja) 画像処理装置及びプログラム
JP2023179887A (ja) 投射画像の補正方法、プロジェクター、プロジェクションシステム、及びプログラム
JP2015011282A (ja) 投影装置
WO2019034057A1 (zh) 投影仪及其控制方法
JP2019106106A (ja) インタラクティブプロジェクションシステム、インタラクティブプロジェクター、インタラクティブプロジェクターの制御方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210913

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240624

R150 Certificate of patent or registration of utility model

Ref document number: 7521372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150