Nothing Special   »   [go: up one dir, main page]

JP5625839B2 - プロジェクタ装置、位置検出プログラム及びプロジェクタシステム - Google Patents

プロジェクタ装置、位置検出プログラム及びプロジェクタシステム Download PDF

Info

Publication number
JP5625839B2
JP5625839B2 JP2010270815A JP2010270815A JP5625839B2 JP 5625839 B2 JP5625839 B2 JP 5625839B2 JP 2010270815 A JP2010270815 A JP 2010270815A JP 2010270815 A JP2010270815 A JP 2010270815A JP 5625839 B2 JP5625839 B2 JP 5625839B2
Authority
JP
Japan
Prior art keywords
screen
image
projector
unit
display image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010270815A
Other languages
English (en)
Other versions
JP2012118473A (ja
Inventor
峰生 守部
峰生 守部
信一郎 森
信一郎 森
花田 雄一
雄一 花田
馬田 孝博
孝博 馬田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010270815A priority Critical patent/JP5625839B2/ja
Priority to US13/240,761 priority patent/US8827460B2/en
Publication of JP2012118473A publication Critical patent/JP2012118473A/ja
Application granted granted Critical
Publication of JP5625839B2 publication Critical patent/JP5625839B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Overhead Projectors And Projection Screens (AREA)

Description

本発明は、プロジェクタ装置、位置検出プログラム、画像供給方法及びプロジェクタシステムに関する。
背面投影方式のプロジェクタ装置、いわゆるリアプロジェクションシステム(rear-projection system)が知られている。背面投影方式とは、プロジェクタ装置によって投射される光をスクリーンの背面から観察者が位置するスクリーンの正面に向けて透過させることにより、スクリーンの正面に画面を表示する方式を指す。
また、背面投影方式により表示された画面上でユーザが指定する位置を検出する座標入力機能付プロジェクタ装置がある。この座標入力機能付プロジェクタ装置には、プロジェクタと略同一の位置にスクリーンの背面を撮像するビデオカメラが設けられる。さらに、ビデオカメラのレンズには、スクリーンの表面から裏面に透過する光のうちレーザビームの輝点のみを通過させるフィルタが設けられる。その上で、座標入力機能付プロジェクタ装置では、スクリーン画面上の座標指定にレーザ・ビーム・ポインタなどの座標入力手段を使用させる。これら座標入力手段及びフィルタによって、ビデオカメラは、座標入力手段による輝点だけを含む画像を出力できる。
特開平05−233148号公報
しかしながら、上記の従来技術では、ユーザが位置を指定するために余計なハードウェアが必要になるという問題がある。すなわち、上記の座標入力機能付プロジェクタでは、プロジェクタ及びカメラ以外にも、ユーザがスクリーンに向けて光を照射するための座標入力手段が必要になる。さらに、ビデオカメラのレンズには座標入力手段による輝点だけを通過させるフィルタも必要になる。
開示の技術は、上記に鑑みてなされたものであって、簡易な装置構成で画面上のユーザによる指定位置を検出することができるプロジェクタ装置、位置検出プログラム、画像供給方法及びプロジェクタシステムを提供することを目的とする。
本願の開示するプロジェクタ装置は、プロジェクタによって表示用画像が投影される透過型のスクリーンのうち当該表示用画像が投影される投影側の面を撮像する撮像部から、前記スクリーンの投影側の面が撮像された画像を取得する取得部を有する。さらに、前記プロジェクタ装置は、前記取得部によって取得された前記画像において、輝度が変化する位置を検出する検出部を有する。さらに、前記プロジェクタ装置は、前記検出部によって前記画像上で輝度の変化が検出された位置を出力する出力部を有する。
本願の開示するプロジェクタ装置の一つの態様によれば、簡易な装置構成で画面上のユーザによる指定位置を検出することができるという効果を奏する。
図1は、実施例1に係るプロジェクタシステムの外観構成を示す斜視図である。 図2は、実施例1に係るプロジェクタシステムの機能的構成を示すブロック図である。 図3は、スクリーンの正面に表示される画像の一例を示す図である。 図4は、スクリーンの背面に表示される画像の一例を示す図である。 図5は、スクリーンの正面に表示される画像の一例を示す図である。 図6は、スクリーンの背面に表示される画像の一例を示す図である。 図7は、実施例1に係る位置検出処理の手順を示すフローチャートである。 図8は、スクリーンの正面に表示される画像の一例を示す図である。 図9は、スクリーンの背面に表示される画像の一例を示す図である。 図10は、スクリーンの正面に表示される画像の一例を示す図である。 図11は、スクリーンの背面に表示される画像の一例を示す図である。 図12は、適用例1を説明するための説明図である。 図13は、適用例2を説明するための説明図である。 図14は、適用例3を説明するための説明図である。 図15は、実施例1及び実施例2に係る位置検出プログラムを実行するコンピュータの一例について説明するための図である。
以下に、本願の開示するプロジェクタ装置、位置検出プログラム、画像供給方法及びプロジェクタシステムの実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[プロジェクタ装置の構成]
図1は、実施例1に係るプロジェクタシステムの外観構成を示す斜視図である。図1に示すプロジェクタシステム10は、プロジェクタ13によって投射される投影光をスクリーン11の背面から観察者が位置するスクリーンの正面に向けて透過させることにより、スクリーンの正面に画面を表示する背面投影方式を採用する。
なお、ここでは、スクリーン11のうち画像が投影される投影側の面、すなわちプロジェクタ13からスクリーン11を隔てた反対側に位置するユーザから見てスクリーン11の背中側に位置する面を「背面」と呼ぶ。また、スクリーン11のうち投影側の面とは反対側の面、すなわちユーザと正対するスクリーン11の面を「正面」と呼ぶ。
図1に示すように、プロジェクタシステム10は、光を透過可能な透過型のスクリーン11を有する。さらに、プロジェクタシステム10は、スクリーン11の背面から正面に向けて表示用画像を投影するプロジェクタ13を有する。さらに、プロジェクタシステム10は、スクリーン11の背面を撮像可能に設けられる撮像部であるカメラ15を有する。なお、プロジェクタ13及びカメラ15は、これらのユニットを制御下に置く後述のコントローラ17に接続される。
ここで、本実施例に係るプロジェクタシステム10は、カメラ15からスクリーン11の背面が撮像された画像を取得する。以後の説明において、カメラ15が取得した画像のことを、撮画像と表現する場合がある。そして、本実施例に係るプロジェクタシステム10は、カメラ15により取得された画像のうち輝度が変化する位置を検出する。その上で、本実施例に係るプロジェクタシステム10は、画像上で輝度の変化が検出された位置を出力する。つまり、本実施例に係るプロジェクタシステム10は、ユーザの指がスクリーン11で触れた位置ではプロジェクタ13の投影光の反射量が変化するという事象を利用して、撮画像上で輝度の変化を検出した位置をユーザが画面上で指定した位置として出力する。
これを説明すると、プロジェクタ13の投影光は、ユーザの指がスクリーン11に触れていない場合にはスクリーン11を透過して正面側へ進行する。一方、ユーザの指がスクリーン11に触れている場合には、スクリーン11を透過した投影光は、スクリーン11の正面側に接しているユーザの指で反射してカメラ15の方向に戻る。このため、カメラ15により撮像された画像のうち、ユーザの指がスクリーン11の正面側に触れている位置に相当する領域は、ユーザの指が触れていない場合に撮像された画像上の該領域と比べて投影光の反射量が多くなる。従って、カメラ15により撮像された画像においてユーザの指が触れた位置に相当する領域の輝度が上がる。よって、画像上で輝度が変化した位置は、スクリーン11の正面に表示された画面上でユーザによって指定された位置である蓋然性が高いと推定できる。
なお、表示用画像と撮画像との対応付け、即ち、表示用画像上の画素位置(x1,y1)が、撮画像上のどの画素位置に相当するかは、前もって対応付けが記憶されているものとする。この対応付けは、例えば、プロジェクタ13の投影画角と光軸方向、プロジェクタ13からスクリーン11までの距離、カメラ15の撮影画角と光軸方向、カメラ15からスクリーン11までの距離により算出される。また、例えば、撮画像で位置を検出可能なマーカを表示用画像の中に含め、そのようなマーカを含んだ表示用画像をカメラ15により撮影して得た撮画像の中から、マーカ位置を特定することで、表示用画像のマーカの画素位置が撮画像上のどの画素位置に相当するかを特定することができる。撮画像の中には、表示用画像が投影されているスクリーン11の背面全体が含まれているものとする。以後の説明では、便宜上、撮画像の全面一杯に表示用画像が投影されているスクリーン11の背面全体が写されているものとする。
このように、本実施例に係るプロジェクタシステム10では、カメラ15によって撮像された撮画像を用いてソフトウェアによる画像処理を実行することにより、ユーザが画面上で指定した位置を出力できる。それゆえ、本実施例に係るプロジェクタシステム10では、上記の従来技術で述べた座標入力機能付プロジェクタなどのように、レーザビームポインタやフィルタなどのハードウェアを設ける必要はない。また、タッチパネル等で使用される静電容量や電圧の変化を検出するハードウェアも不要である。したがって、本実施例に係るプロジェクタシステム10によれば、簡易な装置構成で画面上のユーザによる指定位置を検出することが可能になる。
図2は、実施例1に係るプロジェクタシステムの機能的構成を示すブロック図である。図2に示すように、プロジェクタシステム10は、スクリーン11と、プロジェクタ13と、カメラ15と、コントローラ17とを有する。なお、図2に示した機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイス、表示デバイスや音声出力デバイスなどの機能を有するものとする。
スクリーン11は、プロジェクタ13によって投射された表示用画像を映し出す平面である。かかるスクリーン11の一例としては、背面から投影される画像が正面に向けて透過散乱されるとともに正面に触れたユーザの指などが背面側から透けて見える半透明の物質、例えば「すりガラス」などを採用できる。なお、スクリーン11には、投影光の指向性を向上させるために、スクリーン11及びプロジェクタ13の距離と同等の焦点距離を持つフレネルレンズをプロジェクタ13の投影光が入射するスクリーン11の背面に設けることもできる。
プロジェクタ13は、表示用画像をスクリーン11に投影することにより表示するユニットである。かかるプロジェクタ13がスクリーン11に投影する表示用画像は、プロジェクタ13と接続される後述のコントローラ17によってプロジェクタ13へ供給される。
かかるプロジェクタ13の一例としては、携帯電話やPHS(Personal Handyphone System)などの携帯端末に搭載されるプロジェクタを始め、公知のリアプロジェクションシステムで使用されるプロジェクタを好適に採用できる。なお、プロジェクタ13は、プロジェクタ13によって投影される表示用画像がスクリーン11の所定のスペース、例えばスクリーン全面に投影できる程度にスクリーン11から隔てて配置されるのが好ましい。
カメラ(camera)15は、画像を撮像するユニットである。かかるカメラ15の一例としては、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)が挙げられる。また、かかるカメラ15の一例として上記のプロジェクタ13と同様に、携帯端末に搭載されるカメラを採用できる。なお、カメラ15がスクリーン11の背面を撮像した画像は、カメラ15と接続される後述のコントローラ17に出力される。
ここで、カメラ15は、スクリーン11の背面を撮像可能に配置される。一例としては、図1に示すように、カメラ15は、スクリーン11に画像を投影するプロジェクタ13と略同一の位置にカメラ15の光軸を投影方向に向けて配置される。このとき、プロジェクタ13及びカメラ15が連結された携帯端末を使用する場合には、プロジェクタ13が画像を投影する方向と、カメラ15が撮像する方向とが合わない場合もある。この場合には、スクリーン11の背面をカメラ15の光軸に結像させるためのプリズムをカメラ15に設けることもできる。
コントローラ17は、プロジェクタ13及びカメラ15を制御するユニットである。コントローラ17は、OS実行部17aと、アプリ実行部17bと、表示画像記憶部17cと、供給部17dと、取得部17eと、撮画像記憶部17fと、検出部17gと、出力部17hとを有する。なお、以下では、プロジェクタ13、カメラ15及びコントローラ17を有する携帯端末においてユーザがスクリーン11に表示された画面を操作することにより携帯端末で実行されるアプリケーションに対する指示を行う場合を想定する。
OS実行部17aは、OS(Operating System)の実行を制御する処理部である。例えば、OS実行部17aは、後述の出力部17hによって取得された画面上の位置からアプリケーションの起動指示やアプリケーションに対するコマンドを検出する。一例としては、OS実行部17aは、ユーザによって指定された画面上の位置がアプリケーションのアイコン上である場合には、そのアイコンに対応するアプリケーションの起動を後述のアプリ実行部17bへ指示する。他の一例としては、OS実行部17aは、ユーザによって指定された画面上の位置が起動中のアプリケーションの操作画面内のコマンドの実行を要求するオブジェクト、例えばボタンやタブにある場合には、そのコマンドの実行をアプリ実行部17bへ指示する。なお、以下では、アプリケーションを「アプリ」と略記する。
アプリ実行部17bは、OS実行部17aによる指示に基づき、アプリの実行を制御する処理部である。一例としては、アプリ実行部17bは、OS実行部17aによりアプリの起動が指示された場合や起動中のアプリにコマンドの実行が指示された場合にアプリを動作させる。その上で、アプリ実行部17bは、図示しないグラフィックドライバ等を介して、アプリを実行することにより得られた処理結果の表示用イメージ(image)を表示用画像として後述の表示画像記憶部17cに登録する。このとき、アプリ実行部17bは、プロジェクタ13が起動されている場合には、リアプロジェクションの表示に対応するために、表示用画像の左右を反転させた上で反転後の表示用画像を後述の表示画像記憶部17cに登録する。
表示画像記憶部17cは、プロジェクタ13に表示させる表示用画像を記憶する記憶部である。一例としては、表示画像記憶部17cは、プロジェクタ13が起動されている場合に、アプリ実行部17bによって表示用画像が更新される度に後述の供給部17dによって参照されるフレームバッファとして機能する。他の一例としては、表示画像記憶部17cは、カメラ15によって撮像された撮画像との差分を比較することにより撮画像上で輝度が変化した位置を検出するために、後述の検出部17gにも参照される。
なお、表示画像記憶部17cの一態様としては、VRAM(Video Random Access Memory)、RAM(Random Access Memory)、ROM(Read Only Memory)やフラッシュメモリ(flash memory)などの半導体メモリ素子が挙げられる。なお、表示画像記憶部17cには、ハードディスク、光ディスクなどの記憶装置を採用することとしてもかまわない。
供給部17dは、表示用画像をプロジェクタ13に供給する処理部である。一例として、供給部17dは、プロジェクタ13が起動されていることを条件に、アプリ実行部17bによって表示用画像が更新される度に表示画像記憶部17cに記憶された表示用画像をプロジェクタ13に出力する。なお、ここでは、アプリ実行部17bに表示用画像の左右を反転させる場合を説明したが、供給部17dが表示用画像の左右を反転してプロジェクタ13に出力することとしてもよい。
取得部17eは、カメラ15によってスクリーン11の背面が撮像された撮画像を取得する処理部である。一例としては、取得部17eは、プロジェクタ13が起動されたことを契機に、カメラ15を起動する。そして、取得部17eは、プロジェクタ13の電源をOFFする電源OFF操作がアプリ実行部17bによって受け付けられるまで、カメラ15から画像を取得してその画像を後述の撮画像記憶部17fに登録する。その後、取得部17eは、プロジェクタ13の電源がOFFされると、カメラ15の電源もOFFにする。
撮画像記憶部17fは、撮画像を記憶する記憶部である。かかる撮画像記憶部17fには、プロジェクタ13が起動されている場合に、取得部17eによって取得された撮画像が登録される。なお、ここでは、スクリーン11の背面が撮像される度、すなわち撮画像のフレームが得られる度に、撮画像が登録される場合を想定する。撮画像記憶部17fに撮画像を登録する頻度は所定のフレーム数につき1回であってもかまわない。
なお、撮画像記憶部17fの一態様としては、VRAM、RAM、ROMやフラッシュメモリなどの半導体メモリ素子が挙げられる。また、撮画像記憶部17fには、ハードディスク、光ディスクなどの記憶装置を採用することとしてもよい。
検出部17gは、撮画像のうち輝度が変化した位置を検出する処理部である。一例としては、検出部17gは、取得部17eによって新たな撮画像が撮画像記憶部17fに登録される度に、撮画像記憶部17fに新たに登録された撮画像と、表示画像記憶部17cに記憶された表示用画像との間で輝度値の差分を検出する。なお、ここで言う「輝度値」とは、各画素の明るさの度合いを示し、例えば「1〜256」の数値で表現される。
これを説明すると、検出部17gは、撮画像および表示用画像を所定の大きさのブロックに分割する。例えば、スクリーン11の背面に投影された表示用画像が撮画像内に写っている大きさと、表示画像記憶部17cに格納されている表示用画像との画像フレームの大きさが同じであった場合、双方の画像を10ピクセル×10ピクセルのブロックに分割する。その上で、検出部17gは、撮画像および表示用画像のブロックごとに、ブロック内の各画素における輝度値の差分の合計値が所定の閾値以上であるか否かを判定する。このとき、検出部17gは、輝度値の差分の合計値が閾値以上であるブロックの撮画像上の領域、例えばXY座標を後述の出力部17hに出力する。なお、ここでは、分割するブロックの大きさを10ピクセル×10ピクセルとする場合を例示したが、ブロックの大きさは任意に変更できる。例えば、スクリーン11をタッチする指などの大きさを計測し得る指標、例えば指の横幅や年齢などを設定しておき、設定された指標に応じて任意のブロックの大きさを変更できる。また、所定の閾値としては、実験的にスクリーン11に指を接触させた場合とさせない場合とでどの程度輝度が変化するかを計測しておき、該計測値の平均を閾値として用いることができる。
このように、検出部17gは、外的要因により輝度の変化を受けない生の画像である表示用画像と、プロジェクタ13の投影光の反射量が変化するなどの要因により輝度の変化を受ける撮画像との間で輝度値の差分を検出する。かかる検出結果によって、プロジェクタシステム10では、ユーザが表示用画面が投影されたスクリーン11に触れたかどうかを判別できる。
これを図3〜図6を用いて説明する。図3及び図5は、スクリーン11の正面に表示される画像の一例を示す図である。図4及び図6は、スクリーン11の背面に表示される画像の一例を示す図である。図3及び図4は、ユーザがスクリーン11に投影された画面上に触れていない時刻T1におけるスクリーン11を正面(図3)および背面(図4)から見た様子を指す。また、図5及び図6は、ユーザが画面上に触れている時刻T2(>T1)におけるスクリーン11を正面(図5)および背面(図6)から見た様子を指す。なお、符号11aは、スクリーン11の正面を指し、符号11bは、スクリーン11の背面を指すものとする。
時刻T1の時点では、図3に示すように、プロジェクタ13によって投影された画像、すなわち3つの英字「A」、「B」及び「C」がスクリーンの正面11aに表示される。このとき、スクリーンの背面11bには、図4に示すように、スクリーンの正面11aに表示される画像の鏡像、すなわち3つの英字「A」、「B」及び「C」が左右に反転した画像が表示される。
このように、時刻T1の時点では、プロジェクタ13の投影光を遮るものはなく、プロジェクタ13の投影光は、スクリーンの背面11bからスクリーンの正面11aにほとんど透過する。
その後の時刻T2の時点では、図5に示すように、ユーザの指がスクリーンの正面11aに表示された画面上の英字「B」に触れている。このとき、スクリーンの背面11bから見ると、図6に示すように、ユーザの指が英字「B」の一部に触れており、英字「B」のうちユーザの指に触れられている部分では、プロジェクタ13の投影光の反射量が時刻T1の時点よりも多くなっていることがわかる。これは、プロジェクタ13の投影光がスクリーン11を背面側から正面側へ透過するものの、スクリーン11の正面に接している指により反射されて背面側へ戻ってくるためである。
このように、ユーザの指がスクリーンの正面11aに触れている時刻T2の時点では、ユーザの指が触れた部分の投影光の反射量が多くなる。このため、カメラ15によってスクリーンの背面11bが撮像された場合には、撮画像上でユーザの指が触れた英字「B」の一部の輝度が触れられていない場合よりも高くなる。一方、表示用画像は、ユーザの指が画面に触れようと触れまいと、図4に示した時刻T1の時点と画像の内容は変わらない。よって、検出部17gでは、ユーザの指が触れた英字「B」の一部、すなわち図6で丸く囲ったハッチング部分の領域を、輝度が変化した位置として検出できる。
なお、ここでは、撮画像および表示用画像をブロックに分割して輝度の変化を検出する場合を例示したが、これに限定されない。例えば、開示の装置は、撮画像および表示用画像の画素ごとに各画素の輝度値の差分が所定の閾値以上である場合に、その画素の位置を出力部17hに出力することとしてもかまわない。
出力部17hは、撮画像上で輝度の変化が検出された領域の位置に関する情報を出力する処理部である。例えば、出力部17hは、検出部17gによって輝度値の差分の合計値が閾値以上であると検出されたブロックの撮画像上の位置をユーザが画面上で指定した位置としてOS実行部17aに出力する。なお、以下では、ユーザがスクリーン11に投影された画面上で指定した位置を「ユーザ指定位置」と呼ぶ。
ここで、出力部17hは、ブロックが複数存在する場合に、下記に例示する態様を適応的に実施できる。一例としては、出力部17hは、複数存在するブロックのうちブロック間の距離、すなわちブロックとブロックとが離れているブロック数または画素数が所定の距離以内にあるブロック同士を含む矩形または円に合成する。そして、出力部17hは、このようにして合成した矩形または円のうち最も面積が大きい矩形または円の中心位置または重心位置をユーザ指定位置とすることができる。他の一例としては、出力部17hは、検出部17gによって検出された全てのブロックを囲むように多角形や円を形成した領域の中心位置または重心位置をユーザ指定位置とすることもできる。なお、出力部17hは、検出部17gによって画素の位置が検出された場合にも、同様にして、ユーザ指定位置を定めることができる。
なお、図2に示したコントローラ17に含まれるOS実行部17a、アプリ実行部17b、供給部17d、取得部17e、検出部17g及び出力部17hには、各種の集積回路や電子回路を採用できる。また、コントローラ17に含まれる機能部の一部を別の集積回路や電子回路とすることもできる。例えば、集積回路としては、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)が挙げられる。また、電子回路としては、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などが挙げられる。
[処理の流れ]
続いて、本実施例に係る処理の流れについて説明する。図7は、実施例1に係る位置検出処理の手順を示すフローチャートである。この位置検出処理は、プロジェクタ13が起動された場合に開始される処理であり、プロジェクタ13の電源がOFFにされるまで再帰的に繰り返してコントローラ17により実行される。
図7に示すように、プロジェクタ13が起動されると(ステップS101)、取得部17eは、カメラ15を起動して、スクリーン11の背面の撮像を開始させる(ステップS102)。
そして、検出部17gは、取得部17eによって新たに登録された撮画像を撮画像記憶部17fから取得する(ステップS103)。続いて、検出部17gは、表示画像記憶部17cに記憶された表示用画像を取得する(ステップS104)。
ここで、検出部17gは、撮画像記憶部17fに新たに登録された撮画像と、表示画像記憶部17cに記憶された表示用画像との間の、互いに対応する領域間で輝度値の差分を検出する(ステップS105)。なお、撮画像及び表示用画像の間で輝度値の差分が検出されなかった場合(ステップS105否定)には、ユーザによって画面操作が行われていないので、上記のステップS103の処理に戻る。
このとき、撮画像及び表示画像の間で輝度値の差分が検出された場合(ステップS105肯定)には、出力部17hは、輝度値の差分が検出された撮画像上の位置をユーザ指定位置としてOS実行部17aに出力する(ステップS106)。そして、OS実行部17aは、ユーザ指定位置に対応する操作がプロジェクタ13の電源OFF操作であるか否かを判定する(ステップS107)。
そして、プロジェクタ13の電源OFF操作でなければ(ステップS107否定)、アプリ実行部17bは、操作に対応する処理を実行し(ステップS108)、上記のステップS103〜ステップS107までの処理を繰り返し実行する。なお、プロジェクタ13の電源OFF操作であるならば(ステップS107肯定)、カメラ15の電源をOFFにして処理を終了する。
[実施例1の効果]
上述してきたように、本実施例に係るプロジェクタシステム10は、カメラ15からスクリーン11の背面が撮像された撮画像を取得する。そして、本実施例に係るプロジェクタシステム10は、撮画像のうち輝度が変化する位置を検出する。その上で、本実施例に係るプロジェクタシステム10は、撮画像上で輝度の変化が検出された位置を出力する。
このため、本実施例に係るプロジェクタシステム10では、カメラ15によって撮像された撮画像を用いてソフトウェアによる画像処理を実行することにより、ユーザが画面上にタッチして指定した位置を出力できる。それゆえ、本実施例に係るプロジェクタシステム10では、上記の従来技術で述べた座標入力機能付プロジェクタなどのように、レーザビームポインタやフィルタなどのハードウェアを設ける必要はない。また、タッチパネル等で使用される静電容量や電圧の変化を検出するハードウェアも不要である。したがって、本実施例に係るプロジェクタシステム10によれば、簡易な装置構成で画面上のユーザによる指定位置を検出することが可能になる。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
[輝度変化の検出方法]
上記の実施例1では、撮画像および表示用画像の間で輝度値の差分があるか否かによって撮画像上で輝度が変化した位置を検出する場合を例示したが、開示の装置はこれに限定されない。例えば、開示の装置は、撮画像の時間変化、すなわち撮画像のフレーム間の差分があるか否かによって撮画像上で輝度が変化した位置を検出するようにしてもよい。
これを説明すると、検出部17gは、新たな撮画像が撮画像記憶部17fに登録される度に、今回新たに登録された撮画像と、それよりも前に撮画像記憶部17fに登録されている撮画像、例えば1つ前のフレームとの輝度値の差分があるか否かを判定する。このようにしてフレーム間の差分を検出する場合にも、撮画像および表示画像の間で輝度値の差分を検出する場合と同様に、各々の撮画像をブロックに分割して差分の有無を判定することにより、撮画像上で輝度が変化した位置を検出できる。このようにして撮画像のフレーム間の差分の有無をブロックごとに判定することにより、輝度の変化が検出されたブロックの位置をユーザ指定位置として出力することもできる。実施例1と同様に、所定の閾値としては、実験的にスクリーン11に指を接触させた時に撮影されたフレームと接触させない時に撮影されたフレームとでどの程度輝度が変化するかを計測しておき、該計測値の平均を閾値として用いることができる。
また、ここでは、現フレームとその直前のフレームとの間で輝度値の差分がある場合にそのブロックの位置を直ちにユーザ指定位置として出力する例を説明したが、これに限定されない。一例としては、撮画像のフレーム間の差分が所定の期間、例えば1秒間にわたって継続して検出された場合にそのブロックの位置をユーザ指定位置として出力するようにしてもよい。これによって、外光などにより突発的にフレーム間で輝度値の差分が検出された場合にその位置をユーザ指定位置と誤判定することを防止できる。
[ゲル層]
また、開示のシステムでは、スクリーン11の正面に柔軟性及び透過性を持つゲル層を設けておき、輝度が変化する領域の中心の位置を検出することもできる。すなわち、スクリーン11の正面にゲル層を設けた場合には、ユーザによってゲル層が押下されるとその部分が撓んで凹む。この場合には、ユーザの指でプロジェクタ13の投影光が反射して撮画像の輝度が変化する場合とは異なり、撮画像にはユーザの指によって押下されたゲル層の部分に歪みが映る。このようにして撮画像に映った歪みを輝度の変化として検出することもできる。
これを図8〜図11を用いて説明する。図8及び図10は、スクリーン11の正面に表示される画像の一例を示す図である。図9及び図11は、スクリーン11の背面に表示される画像の一例を示す図である。図8及び図9は、ユーザが画面上に触れていない時刻T1におけるスクリーン11を正面(図8)および背面(図9)から見た様子を指す。また、図10及び図11は、ユーザが画面上に触れている時刻T2(>T1)におけるスクリーン11を正面(図10)および背面(図11)から見た様子を指す。なお、符号11aは、スクリーン11の正面を指し、符号11bは、スクリーン11の背面を指し、また、符号12は、スクリーン11の正面側に設けられたゲル層を指すものとする。
時刻T1の時点では、図8に示すように、プロジェクタ13によって投影された表示用画像、すなわち3つの英字「A」、「B」及び「C」がスクリーンの正面11aに表示される。このとき、スクリーンの背面11bには、図9に示すように、スクリーンの正面11aに表示される画像の鏡像、すなわち3つの英字「A」、「B」及び「C」が左右に反転した画像が表示される。
このように、時刻T1の時点では、ゲル層12に変形がなく、プロジェクタ13の投影光がスクリーンの背面11bからスクリーンの正面11aにほとんど透過する。
その後の時刻T2の時点では、図10に示すように、スクリーンの正面11aに貼り合わせられたゲル層12のうち画面上の英字「B」が表示された部分がユーザの指により押下されている。このとき、スクリーンの背面11bから見ると、図11に示すように、ユーザの指が触れている英字「B」の一部を囲むようにゲル層12が撓んで凹んでいる。このため、英字「B」のうちユーザの指で押下されている部分では、ゲル層12が撓む前と比べてプロジェクタ13の投影光の反射量が時刻T1の時点よりも変化していることがわかる。
このように、時刻T2の時点では、ユーザの指がゲル層12を押下した場合には、ゲル層12が撓んで変形することにより、ユーザの指が触れた部分の投影光の反射量が変化する。このため、カメラ15によってスクリーンの背面11bが撮像された場合には、撮画像上でユーザの指が触れた英字「B」の一部が歪み、その部分の輝度が押下される前とは変化する。一方、表示用画像は、ユーザの指がゲル層12を押下していようと押下していまいと、図4に示した時刻T1の時点と画像の内容は変わらない。よって、検出部17gでは、ユーザの指がゲル層12を押下した英字「B」の一部、すなわち図11で丸く囲ったハッチング部分の輝度が変化した位置を検出できる。
なお、輝度の変化の検出の仕方については、既に述べたいくつかの方法を適用することができる。例えば、実施例1のように、検出部17gが、撮画像および表示用画像を所定の大きさのブロックに分割して、該ブロック毎に輝度値の差分の合計値が所定の閾値以上ある場合に変化したと判定しても良い。また、実施例2のように、カメラ15が撮影したフレーム間の輝度の差分が所定の閾値以上ある場合に変化したと判定しても良い。
かかるゲル層12は、外力が加わって始めて変形するので、外光などにより撮画像の輝度が部分的に高くなったとしても撮画像に歪みは生じない。このため、撮画像の歪みに伴って発生する輝度の変化を検出することにより、外光などに起因して発生する撮画像上の輝度の変化をユーザによる操作として誤判定するのを防止できる。
[画像供給方法]
上記の実施例1では、コントローラ17に搭載されるアプリがプロジェクタ13に表示させる画像を供給する場合を例示したが、画像の供給元は如何なる装置であってもかまわない。一例としては、プロジェクタシステム10とネットワークを介して接続されるサーバ装置がプロジェクタ13に表示画像を供給させるようにしてもよい。この場合には、サーバ装置は、プロジェクタシステム10から撮画像上で輝度の変化が検出された位置を受信し、受信した撮画像上の位置に応じて、プロジェクタシステム10に表示対象とする画像を供給するように構成すればよい。
例えば、検出部17gが表示用画像の「B」に対応する位置を検出し、出力部17hが該位置をサーバ装置へ出力したとする。その場合には、サーバ装置は「B」がユーザにより選択されたことに応じて、次に出力すべき他の表示用画像をサーバ装置の記憶部から読み出し、該他の表示用画像をネットワークを介してアプリ実行部17bへ通知する。
[適用例1]
上記の実施例1では、スクリーン11とプロジェクタ13とカメラ15との間が解放されている場合を例示したが、開示の装置はこれに限定されない。例えば、開示の装置では、外光を遮断する暗箱によりスクリーン11の背面とプロジェクタ13及びカメラ15を覆うこととしてもかまわない。
図12は、適用例1を説明するための図である。図12に示すように、プロジェクタ装置20では、内面を黒く塗りつぶすことにより外光を遮断した暗箱21を設ける。その上で、プロジェクタ装置20では、プロジェクタ13及びカメラ15を暗箱21内に収納して配置するとともに暗箱21の一面にスクリーン11を配置する。
このような構成の下、プロジェクタ13がスクリーン11に画像を投影した場合には、プロジェクタ13やスクリーン11に照射される外光の影響を抑制できる。例えば、本適用例に係るプロジェクタ装置20によれば、スクリーン11の正面に表示される画像、すなわちユーザに見える画像およびカメラ15によって撮像される撮画像のコントラストを向上させることができる。一例として、4000ルクス程度の明るい環境下では、暗箱21を使用しない場合にはコントラスト(白色輝度÷黒色輝度)が4程度まで低下するが、暗箱21を使用した場合には8程度までコントラストを向上させることができる。また、本適用例に係るプロジェクタ装置20によれば、プロジェクタ装置20の周囲環境の明るさの変動によってコントラストが変化するのも抑制できる。
[適用例2]
上記の適用例1では、暗箱21を使用する例を説明したが、以下に、暗箱21のサイズを小型化する場合について説明する。図13は、適用例2を説明するための図である。図13に示すように、プロジェクタシステム30では、暗箱31を設けるにあたってプロジェクタ13からスクリーン11までの光路をミラー32を用いて折り返す。ミラー32により、スクリーン11の背面からカメラ15に至る光路も、折り返されることになる。これによって、本適用例に係るプロジェクタシステム30では、暗箱31を小型化することができるので、装置の携帯性を向上させることができる。さらに、プロジェクタシステム30では、スクリーン11の正面側からプロジェクタ13及びカメラ15を暗箱31に装着させる構造とした。このため、本適用例に係るプロジェクタシステム30では、プロジェクタ13及びカメラ15を暗箱31に取り付けるにあたっての操作性を向上させることもできる。プロジェクタ13及びカメラ15は常に暗箱31に取り付けられている必要は無く、着脱可能であって構わない。即ち、スクリーン11に表示用画像を投影すべきタイミングのみ取り付けられていれば構わない。
なお、図13においては、暗箱21内がミラー32を1枚だけ有する例を示しているが、ミラー32の枚数はこれに限るものではない。ミラー32の枚数を増やし、プロジェクタ13からスクリーン11までの光路をさらに折り返すことにより、暗箱21をさらに小型化させることが可能になる。
[適用例3]
上記の適用例2では、プロジェクタ13、カメラ15及びコントローラ17をそれぞれ別のユニットとして構成する場合を例示したが、本応用例では、これら3つのユニットを統合して1つのユニットとして構成する場合について説明する。図14は、適用例3を説明するための図である。図14に示すように、プロジェクタシステム40では、暗箱41及びミラー42を設ける点は上記の適用例2と共通し、プロジェクタ13、カメラ15及びコントローラ17を1つの一体型ユニット43として構成した点が異なる。これによって、本適用例に係るプロジェクタシステム40では、更なる装置の小型化を実現することが可能になる。本適用例においても、適用例2と同様に、一体型ユニット43は常に暗箱41に取り付けられている必要は無く、着脱可能であって構わない。即ち、スクリーン11に表示用画像を投影すべきタイミングのみ取り付けられていれば構わない。
[その他]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、取得部17e、検出部17g又は出力部17hをプロジェクタ装置の外部装置としてネットワーク経由で接続するようにしてもよい。また、取得部17e、検出部17g又は出力部17hを別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記のプロジェクタ装置の機能を実現するようにしてもよい。また、各記憶部に記憶される表示画像、撮画像の全部または一部を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記のプロジェクタ装置の機能を実現するようにしてもかまわない。
[位置検出プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図15を用いて、上記の実施例と同様の機能を有する位置検出プログラムを実行するコンピュータの一例について説明する。
図15は、実施例1及び実施例2に係る位置検出プログラムを実行するコンピュータの一例について説明するための図である。図15に示すように、実施例2におけるコンピュータ100は、操作部110aと、プロジェクタ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD(Hard Disk Drive)170と、RAM(Random Access Memory)180と有する。これら110〜180の各部はバス140を介して接続される。
HDD170には、図15に示すように、上記の実施例1で示した取得部17e、検出部17g及び出力部17hと同様の機能を発揮する位置検出プログラム170aが予め記憶される。この位置検出プログラム170aについては、図2に示した取得部17e、検出部17g及び出力部17hの各構成要素と同様、適宜統合又は分離しても良い。すなわち、HDD170に格納される各データは、常に全てのデータがHDD170に格納される必要はなく、処理に必要なデータのみがHDD170に格納されれば良い。
そして、CPU150が、位置検出プログラム170aをHDD170から読み出してRAM180に展開する。これにより、図15に示すように、位置検出プログラム170aは、位置検出プロセス180aとして機能する。この位置検出プロセス180aは、HDD170から読み出した各種データを適宜RAM180上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、位置検出プロセス180aは、例えば、図2に示した取得部17e、検出部17g及び出力部17hにて実行される処理、例えば図7に示す処理を含む。また、図示していないが、CPU150が図2に示したOS実行部17a、アプリ実行部17b又は供給部17dに対応するプログラムをHDD170から読み出してRAM180に展開することにより、OS実行部17a、アプリ実行部17b又は供給部17dに対応する処理を実行するプロセスが立ち上げられる。また、図2に示した表示画像記憶部17c及び撮画像記憶部17fに記憶された各種のデータは、位置検出プログラム170aによってHDD170やRAM180に格納されたり、HDD170やRAM180から読み出されて使用される。なお、CPU150上で仮想的に実現される各処理部は、常に全ての処理部がCPU150上で動作する必要はなく、処理に必要な処理部のみが仮想的に実現されれば良い。
なお、上記の位置検出プログラムについては、必ずしも最初からHDD170やROM160に記憶させておく必要はない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)プロジェクタによって表示用画像が投影される透過型のスクリーンのうち当該表示用画像が投影される投影側の面を撮像する撮像部から、前記スクリーンの投影側の面が撮像された画像を取得する取得部と、
前記取得部によって取得された前記画像において、輝度が変化する位置を検出する検出部と、
前記検出部によって前記画像上で輝度の変化が検出された位置を出力する出力部と
を有することを特徴とするプロジェクタ装置。
(付記2)前記スクリーンには、投影側の面とは反対側の面にゲル層が設けられており、
前記検出部は、前記輝度が変化する領域の中心の位置を検出することを特徴とする付記1記載のプロジェクタ装置。
(付記3)前記検出部は、前記表示用画像と前記画像とで対応する位置で輝度の差分が所定以上ある領域、もしくは、前記画像内の輝度が前記撮像部により撮像された時間に応じて所定以上変化する領域を前記位置として検出することを特徴とする付記1記載のプロジェクタ装置。
(付記4)コンピュータに、
プロジェクタによって表示用画像が投影される透過型のスクリーンのうち当該表示用画像が投影される投影側の面を撮像する撮像部から、前記スクリーンの投影側の面が撮像された画像を取得し、
前記画像のうち輝度が変化する位置を検出し、
前記画像上で輝度の変化が検出された位置を出力する処理
を実行させることを特徴とする位置検出プログラム。
(付記5)前記スクリーンには、投影側の面とは反対側の面にゲル層が設けられており、
前記輝度が変化する位置を検出する処理として、前記輝度が変化する領域の中心の位置を検出する処理を実行させることを特徴とする付記4記載の位置検出プログラム。
(付記6)前記位置を検出する処理は、前記表示用画像と前記画像とで対応する位置で輝度の差分が所定以上ある領域、もしくは、前記画像内の輝度が前記撮像部により撮像された時間に応じて所定以上変化する領域を前記位置として検出することを特徴とする付記4記載の位置検出プログラム。
(付記7)プロジェクタ装置とネットワークで接続されたサーバ装置による画像供給方法であって、
前記サーバ装置は、
前記プロジェクタ装置により、表示用画像が投影される透過型のスクリーンのうち当該表示用画像が投影される投影側の面が撮像され、撮像された画像上で輝度の変化が検出された位置を受信し、
受信した撮画像上の位置に応じて、前記プロジェクタ装置に表示対象とする画像を供給する処理
を実行することを特徴とする画像供給方法。
(付記8)表示用画像が投影される透過型のスクリーンと、
前記表示用画像を投影するプロジェクタと、
前記スクリーンのうち前記表示用画像が投影される投影側の面を撮像する撮像部と、
前記撮像部により撮像された画像を取得する取得部と、
前記取得部によって取得された前記画像において、輝度が変化する位置を検出する検出部と、
前記検出部によって前記画像上で輝度の変化が検出された位置を出力する出力部と
を有することを特徴とするプロジェクタシステム。
(付記9)表示用画像が投影される透過型のスクリーンに該表示用画像を投影するプロジェクタと、
前記スクリーンのうち前記表示用画像が投影される投影側の面を撮像する撮像部と、
前記撮像部により撮像された画像を取得する取得部と、
前記取得部によって取得された前記画像において、輝度が変化する位置を検出する検出部と、
前記検出部によって前記画像上で輝度の変化が検出された位置を出力する出力部と
を有することを特徴とするプロジェクタ装置。
10 プロジェクタシステム
11 スクリーン
13 プロジェクタ
15 カメラ
17 コントローラ
17a OS実行部
17b アプリ実行部
17c 表示画像記憶部
17d 供給部
17e 取得部
17f 撮画像記憶部
17g 検出部
17h 出力部

Claims (5)

  1. プロジェクタによって表示用画像が投影される透過型のスクリーンであって当該表示用画像が投影される投影側の面とは反対側の面にゲル層が設けられたスクリーンのうち前記投影側の面を撮像する撮像部から、前記スクリーンの投影側の面が撮像された画像を取得する取得部と、
    前記取得部によって取得された前記画像において、輝度が変化する領域の中心の位置を検出する検出部と、
    前記検出部によって検出された前記領域の中心の位置を出力する出力部と
    を有することを特徴とするプロジェクタ装置。
  2. 前記検出部は、前記表示用画像と前記画像とで対応する位置で輝度の差分が所定以上ある領域、もしくは、前記画像内の輝度が前記撮像部により撮像された時間に応じて所定以上変化する領域を前記位置として検出することを特徴とする請求項1記載のプロジェクタ装置。
  3. コンピュータに、
    プロジェクタによって表示用画像が投影される透過型のスクリーンであって当該表示用画像が投影される投影側の面とは反対側の面にゲル層が設けられたスクリーンのうち前記投影側の面を撮像する撮像部から、前記スクリーンの投影側の面が撮像された画像を取得し、
    前記画像のうち輝度が変化する領域の中心の位置を検出し、
    検出された前記領域の中心の位置を出力する処理
    を実行させることを特徴とする位置検出プログラム。
  4. 表示用画像が投影される透過型のスクリーンであって当該表示用画像が投影される投影側の面とは反対側の面にゲル層が設けられたスクリーンと、
    前記表示用画像を投影するプロジェクタと、
    前記スクリーンのうち前記表示用画像が投影される投影側の面を撮像する撮像部と、
    前記撮像部により撮像された画像を取得する取得部と、
    前記取得部によって取得された前記画像において、輝度が変化する領域の中心の位置を検出する検出部と、
    前記検出部によって検出された前記領域の中心の位置を出力する出力部と
    を有することを特徴とするプロジェクタシステム。
  5. 表示用画像が投影される透過型のスクリーンであって当該表示用画像が投影される投影側の面とは反対側の面にゲル層が設けられたスクリーンに該表示用画像を投影するプロジェクタと、
    前記スクリーンのうち前記表示用画像が投影される投影側の面を撮像する撮像部と、
    前記撮像部により撮像された画像を取得する取得部と、
    前記取得部によって取得された前記画像において、輝度が変化する領域の中心の位置を検出する検出部と、
    前記検出部によって検出された前記領域の中心の位置を出力する出力部と
    を有することを特徴とするプロジェクタ装置。
JP2010270815A 2010-12-03 2010-12-03 プロジェクタ装置、位置検出プログラム及びプロジェクタシステム Expired - Fee Related JP5625839B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010270815A JP5625839B2 (ja) 2010-12-03 2010-12-03 プロジェクタ装置、位置検出プログラム及びプロジェクタシステム
US13/240,761 US8827460B2 (en) 2010-12-03 2011-09-22 Projector system and device, recording medium storing position detection program, and image providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010270815A JP5625839B2 (ja) 2010-12-03 2010-12-03 プロジェクタ装置、位置検出プログラム及びプロジェクタシステム

Publications (2)

Publication Number Publication Date
JP2012118473A JP2012118473A (ja) 2012-06-21
JP5625839B2 true JP5625839B2 (ja) 2014-11-19

Family

ID=46162003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010270815A Expired - Fee Related JP5625839B2 (ja) 2010-12-03 2010-12-03 プロジェクタ装置、位置検出プログラム及びプロジェクタシステム

Country Status (2)

Country Link
US (1) US8827460B2 (ja)
JP (1) JP5625839B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088060A (ja) * 2013-10-31 2015-05-07 船井電機株式会社 プロジェクタ
CN108885518B (zh) * 2016-04-04 2022-01-04 夏普Nec显示器解决方案株式会社 坐标检测方法、坐标检测程序以及坐标检测系统
TWI672129B (zh) * 2017-03-17 2019-09-21 安盛生科股份有限公司 用於改善生理檢測之可用性及精確度的方法
KR102087109B1 (ko) * 2018-02-26 2020-04-23 광운대학교 산학협력단 투명 스크린을 이용하는 사용자 인식 기반 영상 표시 제어 시스템 및 방법
CN112422933A (zh) * 2019-08-21 2021-02-26 台达电子工业股份有限公司 投影装置、投影系统以及运行方法
CN111292316B (zh) * 2020-03-11 2023-09-01 成都极米科技股份有限公司 测试方法、装置、电子设备及存储介质
JP2023183998A (ja) * 2022-06-17 2023-12-28 セイコーエプソン株式会社 表示方法、及び表示システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233148A (ja) 1992-02-19 1993-09-10 Sony Tektronix Corp 座標入力機能付プロジェクタ装置
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
JP2002032193A (ja) * 2000-07-17 2002-01-31 Nec Corp 座標入力システム、座標入力方法および座標入力用プログラムを記録した記録媒体
JP4635788B2 (ja) * 2005-09-06 2011-02-23 株式会社日立製作所 弾力性素材を用いた入力装置
JP2007141177A (ja) * 2005-11-22 2007-06-07 Tokai Rika Co Ltd 操作入力装置
JP4933389B2 (ja) * 2007-09-14 2012-05-16 株式会社リコー 画像投影表示装置、画像投影表示方法、画像投影表示プログラム及び記録媒体

Also Published As

Publication number Publication date
US20120140319A1 (en) 2012-06-07
US8827460B2 (en) 2014-09-09
JP2012118473A (ja) 2012-06-21

Similar Documents

Publication Publication Date Title
JP5625839B2 (ja) プロジェクタ装置、位置検出プログラム及びプロジェクタシステム
KR101842075B1 (ko) 타겟 상으로의 프로젝션을 위해 콘텐츠를 트리밍
JP5942586B2 (ja) タブレット端末および操作受付プログラム
JP5822400B2 (ja) カメラとマーク出力とによるポインティング装置
JP3640156B2 (ja) 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
US10276133B2 (en) Projector and display control method for displaying split images
WO2010047256A1 (ja) 撮像装置、表示撮像装置および電子機器
US10152218B2 (en) Operation device, information processing apparatus comprising operation device, and operation receiving method for information processing apparatus
US9535604B2 (en) Display device, method for controlling display, and recording medium
JP2009031334A (ja) プロジェクタ及びプロジェクタの投射方法
WO2018010440A1 (zh) 一种投影画面调整方法、装置和投影终端
JP2012053584A (ja) 情報表示システムおよびプログラム
US20200089323A1 (en) Method and apparatus for interaction with virtual and real images
US20180220066A1 (en) Electronic apparatus, operating method of electronic apparatus, and non-transitory computer-readable recording medium
US20150279336A1 (en) Bidirectional display method and bidirectional display device
JP6686319B2 (ja) 画像投影装置及び画像表示システム
JP2012053603A (ja) 情報表示システム
JP2015032261A (ja) 表示装置および制御方法
KR20080092184A (ko) 프로젝션 및 가상 입력의 겸용 프로젝터 및 데이터 입력방법
US11727896B2 (en) Apparatus and method for display control, and recording medium
US20230276015A1 (en) Electronic apparatus, method of controlling the same, and computer-readable storage medium storing program
US11330236B2 (en) Projector controlling method and projector
JP7484568B2 (ja) 表示装置、表示方法、プログラム
TW201602876A (zh) 光學觸控系統
US11556173B2 (en) Electronic apparatus, method for controlling the same, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140915

R150 Certificate of patent or registration of utility model

Ref document number: 5625839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees