Nothing Special   »   [go: up one dir, main page]

JP2004295441A - Automatic photograph preparing device and method - Google Patents

Automatic photograph preparing device and method Download PDF

Info

Publication number
JP2004295441A
JP2004295441A JP2003086577A JP2003086577A JP2004295441A JP 2004295441 A JP2004295441 A JP 2004295441A JP 2003086577 A JP2003086577 A JP 2003086577A JP 2003086577 A JP2003086577 A JP 2003086577A JP 2004295441 A JP2004295441 A JP 2004295441A
Authority
JP
Japan
Prior art keywords
image
pen
unit
user
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003086577A
Other languages
Japanese (ja)
Inventor
Satoshi Tatsumi
聡 辰巳
Tadashi Noma
忠 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tatsumi Denshi Kogyo KK
Original Assignee
Tatsumi Denshi Kogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tatsumi Denshi Kogyo KK filed Critical Tatsumi Denshi Kogyo KK
Priority to JP2003086577A priority Critical patent/JP2004295441A/en
Publication of JP2004295441A publication Critical patent/JP2004295441A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic photograph preparing device and method for changing an additional image to be combined with a photographic image with a high degree of freedom according to the tastes of a user. <P>SOLUTION: In this automatic photograph preparing device for play, a scribbling time is set after one of photographic images is selected (S31), and whether a stamp image is selected is decided (S32). When the stamp image is selected, the stamp image is plotted from three-dimensional data according to elapsed time in a status that a touch pen is depressed (S33). Then, whether a scrabbling pen is selected or not is decided. When the scrabbling pen is selected, a stereoscopic image generated from the three-dimensional data are plotted along the locus of the touch pen (S35). The above processing is repeated until the scrabbling time ends (S36). Thus, the three-dimensional data are prepared according to the locus and depressing time of the touch pen so that it is possible for a user to efficiently and easily generate a composite image matching his or her tastes. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、利用者をカメラで撮影し、その撮影画像に基づき生成される合成画像を写真として出力する自動写真作成装置に関する。
【0002】
【従来の技術】
従来より、利用者をカメラで撮影し、その撮影画像を写真として出力する遊戯用写真作成装置が知られている。このような遊戯用写真作成装置は、遊戯性または娯楽性が高いことから、撮影画像と合成すべき画像(以下「付加画像」という)を、利用者の嗜好に応じて、予め用意された多種多様な背景画像および前景画像から選択したり、タッチペンやライトペン等のペン型入力手段を用いて利用者が自由に描いたりできるように構成されているものが多い。利用者によるこのような行為は、撮影画像に対してなされるため、「落書き」と呼ばれる。
【0003】
この落書きの例としては、ペン型入力手段により所定の太さや色などを有する曲線を画面上に自由に描く動作や、予め用意された複数の比較的小さな画像の1つを選択して画面上の任意の位置に貼り付け合成する動作などがある。前者の動作は「落書きペンによる落書き」と呼ばれ、画面上に当該曲線を形成する命令または曲線を形成するための位置を示すカーソルは「落書きペン」と呼ばれる。また、後者の画像は「スタンプ」と呼ばれる。
【0004】
【発明が解決しようとする課題】
しかし、遊戯用写真作成装置において、上記落書きペンまたは上記スタンプは、1つまたは複数が予め用意されるので、その種類には限界がある。そのため、利用者は、落書きペンによる軌跡やスタンプの貼り付け位置または貼り付け数を自由に決定できるとしても、用意された種類以外の外観が生じるような落書きペンまたはスタンプによる落書きをすることができない。よって、従来の遊戯用写真作成装置では、落書きペンまたはスタンプを利用者の嗜好に応じた外観が生じるように変化させることによる遊戯性または娯楽性を得ることができない。
【0005】
そこで本発明では、撮影画像と合成すべき付加画像を利用者の嗜好に応じて高い自由度で変化させることができる自動写真作成装置および自動写真作成方法を提供することを目的とする。
【0006】
【課題を解決するための手段および発明の効果】
第1の発明は、所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像を含む合成画像を表示する表示手段と、当該合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記利用者による操作を受け付ける入力手段と、
前記入力手段により受け付けられた操作に応じて、前記撮影画像に合成されるべき付加画像を生成するための3次元モデルデータに対して所定の属性を設定する設定手段と、
前記設定手段により設定される所定の属性に応じて、前記3次元モデルデータから2次元の画像である前記付加画像を生成する付加画像生成手段と、
前記付加画像と前記撮影画像とを合成することにより前記合成画像を生成する合成手段と
を備えることを特徴とする。
【0007】
このような第1の発明によれば、予め用意された(または利用者により作成された)1つまたは複数の3次元データに基づいて入力手段の操作に応じた新たな属性を有する付加画像を作成する。このことにより、撮影画像と合成すべき付加画像を利用者の嗜好に応じて高い自由度で変化させることができる。したがって、例えば落書きペンによる画像またはスタンプ画像のような付加画像を利用者の嗜好に応じた外観が生じるように変化させることによる遊戯性または娯楽性を得ることができる。
【0008】
また、当該3次元データが予め記憶される場合、当該3次元データのみから多様な付加画像を生成することができるので、必要となる記憶容量を比較的小さくすることができる。
【0009】
第2の発明は、第1の発明において、
前記入力手段は、入力位置を示す座標を取得可能なペン型入力手段であることを特徴とする。
【0010】
このような第2の発明によれば、ペン型入力手段の操作により付加画像が作成されるため、利用者は簡単な操作で自らの嗜好に合った合成画像を効率よく容易に生成することができる。特に、遊技用写真作成装置では、操作の習熟を利用者に期待できず、また撮影時間や落書き時間などの利用時間に制限が設けられているため、ペン型入力手段により簡単かつ直感的に操作可能である上記構成は極めて有効である。
【0011】
第3の発明は、第1または第2の発明において、
前記入力手段は、前記表示手段と一体的に構成されることを特徴とする。
【0012】
このような第3の発明によれば、利用者は表示手段に表示される画像(例えば撮影画像やペンの軌跡など)を見ながら付加画像を作成できるので、利用者は自らの嗜好に合った合成画像を効率よく容易に生成することができ、また撮影画像に対して化粧を行っているかのような落書きによる遊戯性または娯楽性を得ることができる。
【0013】
第4の発明は、第1から第3の発明のいずれかにおいて、
前記設定手段は、前記入力手段による入力位置の軌跡に応じて前記所定の属性を設定し、
前記付加画像生成手段は、前記3次元モデルデータから前記軌跡に応じた付加画像を作成することを特徴とする。
【0014】
このような第4の発明によれば、例えばタッチペンなどの入力手段の軌跡に応じて新たな付加画像が作成されるため、利用者は簡単な操作で自らの嗜好に合った合成画像を効率よく容易に生成することができる。特に、遊技用写真作成装置では、操作の習熟を利用者に期待できず、また撮影時間や落書き時間などの利用時間に制限が設けられているため、軌跡を利用することにより簡単かつ直感的に操作可能である上記構成は極めて有効である。
【0015】
第5の発明は、第1から第3までのいずれかの発明において、
前記設定手段は、前記入力手段による所定の入力状態の継続時間に応じて前記所定の属性を設定し、
前記付加画像生成手段は、前記3次元モデルデータから前記経過時間に応じた付加画像を作成することを特徴とする。
【0016】
このような第5の発明によれば、例えばタッチペンなどの入力手段の入力状態の継続時間(例えば押下時間)に応じて新たな付加画像が作成されるため、利用者は簡単な操作で自らの嗜好に合った合成画像を効率よく容易に生成することができる。特に、遊技用写真作成装置では、操作の習熟を利用者に期待できず、また撮影時間や落書き時間などの利用時間に制限が設けられているため、入力状態の継続時間に応じて簡単かつ直感的に操作可能である上記構成は極めて有効である。
【0017】
第6の発明は、第1から第3までのいずれかの発明において、
前記設定手段は、前記入力手段に対して前記利用者により加えられる押圧力に応じて前記所定の属性を設定し、
前記付加画像生成手段は、前記3次元モデルデータから前記押圧力に応じた付加画像を作成することを特徴とする。
【0018】
このような第6の発明によれば、例えばタッチペンなどの入力手段の押圧力(例えば筆圧)に応じて新たな付加画像が作成されるため、利用者は簡単な操作で自らの嗜好に合った合成画像を効率よく容易に生成することができる。特に、遊技用写真作成装置では、操作の習熟を利用者に期待できず、また撮影時間や落書き時間などの利用時間に制限が設けられているため、押圧力により簡単かつ直感的に操作可能である上記構成は極めて有効である。
【0019】
第7の発明は、所定の撮影領域における被写体である利用者を撮影する撮影ステップと、当該撮影ステップにより得られる撮影画像を含む合成画像を表示する表示ステップと、当該合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
前記利用者による操作を受け付ける入力ステップと、
前記入力ステップにおいて受け付けられた操作に応じて、前記撮影画像に合成されるべき付加画像を生成するための3次元モデルデータに対して所定の属性を設定する設定ステップと、
前記設定ステップにおいて設定される所定の属性に応じて、前記3次元モデルデータから2次元の画像である前記付加画像を生成する付加画像生成ステップと、
前記付加画像と前記撮影画像とを合成することにより前記合成画像を生成する合成ステップと
を含むことを特徴とする。
【0020】
第8の発明は、第7の発明に記載の自動写真作成方法をコンピュータに実行させることを特徴とするプログラムである。
【0021】
第9の発明は、第7の発明に記載の自動写真作成方法により写真として印刷されたことを特徴とする印刷媒体である。
【0022】
【発明の実施の形態】
以下、本発明の一実施形態につき添付図面を参照して説明する。
<1. 全体構成>
図1は、本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置を側面から見た図であり、図2は、この遊戯用写真作成装置の本体部4を正面から(被写体としての利用者Uから見た)図である。以下、図1および図2を参照して、本実施形態に係る遊戯用写真作成装置の全体構成について説明する。
【0023】
この遊戯用写真作成装置は、利用者Uが入る撮影室2と、利用者Uの撮影画像を含む合成画像を生成して写真シール(または写真カード)として出力する本体部4とを備えており、撮影室2内には利用者Uの背景を提供する背景パネルを備えている。
【0024】
本体部4は、利用者Uを撮影する撮像手段としてのカメラ10と、当該カメラ10の上方の適宜の位置に配置され閃光を発するフラッシュ11と、当該カメラ10の下方に配置されたCRT(Cathode Ray Tube)または液晶ディスプレイパネル等からなる表示装置であるプレビューモニタ22と、撮影画像を表示し、利用者Uによる自由な作図(落書き)を行うための画面や、操作画面などを提供する液晶ディスプレイおよび当該操作画面を覆う操作位置検出用の透明シートからなる液晶タッチパネル20と、液晶タッチパネル20に対する操作に使用されるタッチペン21とを備える。なお、図ではこのタッチペン21は1つ備えられるが、2つ以上備えられてもよい。また、液晶タッチパネル20は、上記透明シートを含まない静電誘導方式の操作位置検出機能を有する液晶タッチパネルであってもよい。カメラ10は、撮影室2の床面上に存在する利用者Uを被写体として撮影し、その撮影画像を表す画像信号を出力する。典型的には、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラが使用される。プレビューモニタ22は、上記画像信号の表す画像をリアルタイムで表示するように構成されており、カメラ10によって得られる撮影画像を確認するために使用される。液晶タッチパネル20は、後述の落書き処理の際に撮影画像を指定するための操作手段や、落書きを行うための操作手段などとして機能する。
【0025】
また本体部4は、コンピュータを中心に構成され各部の制御や上記画像合成等の画像処理を行う主制御装置およびI/O制御装置や、カメラ10により得られる撮影画像または当該撮影画像を含む合成画像を写真シール(または写真カード)として出力するプリンタ等を内蔵している。さらに、本体部4は、前面下方にコイン投入口26を、側面に写真シールの取出口28を、それぞれ備えている。さらにまた、本体部4は、本遊戯用写真作成装置の動作中は常時点灯される照明装置201L,201Rをカメラ10の左右にそれぞれ備えている。
【0026】
<2. 機能的構成>
図3は、本実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。この遊戯用写真作成装置は、機能的には、撮像部52と、確認表示部54と、メイン表示・操作部62と、出力部64と、照明部70と、I/O制御部72と、主制御部80とから構成される。
【0027】
この構成において、撮像部52は、CCD等の撮像素子を用いて構成されるカメラ10に相当し、リアルタイムに画像を取り込んで当該画像(この画像は「スルー画像」と呼ばれることがあるが、以下では「モニタ用撮影画像」というものとする)を表す画像信号を出力する。この画像信号は主制御部80に入力されて、その内部のメモリにモニタ用画像データとして一時的に記憶される。また、このモニタ用画像データは、モニタ用画像信号として主制御部80から確認表示部54に供給される。確認表示部54は、プレビューモニタ22に相当し、そのモニタ用画像信号に基づきモニタ用撮影画像をリアルタイムで表示する。
【0028】
メイン表示・操作部62は、液晶タッチパネル20に相当し、後述の落書き処理に関連する利用者Uの操作や、シャッター操作、プリント出力のための操作等を受け付け、これらの操作を示す信号は、操作信号として主制御部80に入力される。いま、利用者Uの撮影のためにシャッターボタン(不図示)が押下されたとすると、主制御部80からの指示に基づき、数秒程度の予め決められた時間の経過後にカメラ10の撮影方向にフラッシュ11から閃光が放たれ、利用者Uの撮影画像を表す信号として撮像部52から出力される画像信号が主制御部80に入力され、主制御部80内のメモリまたは補助記憶装置としてのハードディス装置等に撮影画像データとして格納される。出力部64は、本体部4に内蔵されるプリンタに相当し、主制御部80からの指示に基づき、この撮影画像データの表す画像を写真シール(または写真カード)として出力する。
【0029】
照明部70は、本体部4における照明装置201L,201Rとフラッシュ11とに相当し、主制御部80からの指示に基づきI/O制御部72によって点灯/消灯および調光が制御される。
【0030】
I/O制御部72は、本体部4に内蔵されるI/O制御装置に相当し、主制御部80からの指示に基づき、照明部70を制御すると共に、後述のコイン検出部(不図示)からの検出信号等の入力信号を主制御部80へ転送する。
【0031】
主制御部80は、本体部4に内蔵され、CPU(Central Processing Unit )や、メモリ、フレームバッファ、タイマー、補助記憶装置などを含むコンピュータを中心に構成される主制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、上述のようにして入力される操作信号に基づき各部を制御するために、上述のように各部に指示を出す。また、撮影画像に対する後述の落書き処理を行い、操作信号に基づき上記の撮影画像データの一部を書き換えることにより、撮影画像に所定画像を描画した画像である合成画像を生成する。生成された画像はフレームバッファに書き込まれることにより、メイン表示・操作部62に表示される。なお、ここで描画されるうる画像としては、後述する落書き処理により生成される立体形状の画像のほか、予め複数種類の3次元または2次元の形状を有する画像(典型的には星形を表す画像やハート形を表す画像のような周知パターンの画像であるが、これに限定されるものではなく、例えば予め取得された撮影画像であってもよい)が用意されて主制御部80内のメモリまたは補助記憶装置に格納されていてもよい。上記のような画像合成が終了すると、その後、出力部からは合成画像が写真シール等として出力される。出力された写真シール等は、本体部4の側面に設けられた取出口28から取り出される。
【0032】
上記の構成要素の他、本体部4におけるコイン投入口26に投入されたコインを検出するためのコイン検出部(不図示)が更に本体部4に設けられており、主制御部80は、コイン検出部での検出結果に基づき、利用者Uに所定時間だけ撮影や撮影画像に対する描画等による合成画像の生成など、本遊戯用写真作成装置によるプレイを許容するように各部を制御する。このコイン検出部やその検出結果に基づく主制御部80による制御動作は、従来の遊戯用写真作成装置と同様であって周知であるので、その詳しい説明を省略する。
【0033】
なお、主制御装置において実行される上記所定プログラムは、例えば、そのプログラムを記録した記録媒体であるCD−ROMによって提供される。すなわち、上記所定プログラムの記録媒体としてのCD−ROMが主制御装置内に補助記憶装置として内蔵されたCD−ROM駆動装置に装着され、そのCD−ROMから所定プログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。そして、本遊戯用写真作成装置の起動のための所定操作がなされると、ハードディスク装置にインストールされた所定プログラムは、主制御装置内のメモリに転送されてそこに一時的に格納され、主制御装置内のCPUによって実行される。これにより、主制御装置による上記各部の制御や後述の画像処理が実現される。
【0034】
<3. 動作>
上述のように本実施形態における主制御部80の動作は、その内部のCPUが上記所定プログラムを実行により実現される。図4は、このようにして実現される主制御部80の動作を示すフローチャートである。本実施形態では、コイン投入口26に所定のコインが投入されると、主制御部80(主制御装置)は、以下のように動作する。
【0035】
まず、主制御部80は、装置の初期化処理、すなわち各ハードウェアの初期化や、設定値として主制御部80に記憶されるデータの初期化処理を行う(ステップS10)。
【0036】
次に、利用者Uを撮影するための撮影処理が行われる(ステップS20)。この撮影処理が開始されると、主制御部80は、まず、予め決められた時間(以下「撮影時間」という)が経過するとタイムアウトとなるようにタイマーを設定し、そのタイマーをスタートさせる。その後、タイムアウトとなるまで、図示されないシャッターボタンまたはメイン表示・操作部62の画面に表示されるシャッターボタンが押下されたか否かを操作信号によって調べる。この間にシャッターボタンが押下されると、主制御部80は、撮影開始を利用者にメイン表示・操作部62の画面で知らせ、数秒程度の予め決められた時間の経過後に撮像部(カメラ)52に撮影信号(シャッター信号)を送る。これにより、撮像部52のシャッター動作と同期して照明部(フラッシュ)70が閃光を放ち、主制御部80がキャプチャ処理を開始する。すなわち、主制御部80は、照明部(フラッシュ)70からの閃光で照らされた利用者Uの撮影画像を表す信号として撮像部52から出力される画像信号を受け取り、メモリまたは補助記憶装置内に撮影画像の画像ファイルとして格納する。このようにして所定の撮影時間の間、シャッターボタンが押下される毎にキャプチャ処理が実行され、撮影画像が画像ファイルとして一時的に保存される。撮影時間が経過すると、タイムアウトとなって撮影処理を終了する。また、撮影時間の経過前であっても、メイン表示・操作部62に対して撮影処理の終了を指示する操作が行われると、撮影処理を終了する。
【0037】
続いて、落書きのための利用者Uによる操作を受け付け、当該操作に応じた画像処理を含む落書き処理が行われる(ステップS30)。ここで、この落書き処理の詳しい処理(サブルーチン)について説明する。図5は、このサブルーチンの手順を示すフローチャートである。
【0038】
まず、撮影画像が複数取得された場合、主制御部80は、そのうちのひとつを利用者に選択させた後、落書き処理のために予め決められた時間(以下「落書き時間」という)を設定する(ステップS31)。すなわち、撮影画像が複数取得された場合、まずこれらの撮影画像をメイン表示・操作部62の画面に表示し、いずれの画像が選択(例えばタッチペン21で画面の所定部分が押下)されたかを操作信号によって調べ、選択された撮影画像を落書き対象となるべき撮影画像(以下「対象撮影画像」という)として設定する。さらに、予め決められた時間(以下「落書き時間」という)が経過するとタイムアウトとなるようにタイマーを設定し、そのタイマーをスタートさせる。そして、この落書き時間を示すタイムアウトまでの残り時間、対象撮影画像、および各種落書きのための操作アイコン等を含む落書きのための初期画面がメイン表示・操作部62に表示される。
【0039】
次に、主制御部80は、落書きのため予めメイン表示・操作部62の初期画面に表示された所定の立体形状を有する複数のスタンプ画像の中から、いずれかの画像を選択するための操作がメイン表示・操作部62において行われたか否かを判定する(ステップS32)。この判定の結果、このようなスタンプ画像の選択操作が行われていない場合は、そのままステップS34の処理へ進み、このような選択操作が行われた場合には、当該選択操作に応じて、後述する3次元スタンプ描画処理を行い(ステップS33)、その後にステップS34の処理へ進む。
【0040】
ステップS34では、落書きのためメイン表示・操作部62の初期画面上に予め用意された所定の軌跡を有する複数の(仮想的な)落書きペンの中から、いずれかのペンを選択するための操作がメイン表示・操作部62において行われたか否かを判定する。この判定の結果、このような落書きペンの選択操作が行われていない場合は、そのままステップS36の処理へ進み、このような選択操作が行われた場合には、当該選択操作に基づき、後述する3次元落書きペン描画処理を行い(ステップS35)、その後にステップS36の処理へ進む。
【0041】
ステップS36では、落書きが終了したか否か、すなわち落書き時間が経過したか、または落書き時間の経過前にメイン表示・操作部62に対する操作により落書きが中止(または印刷開始が指示)されたか否かを判定する。この判定の結果、落書きが終了した場合、主制御部80は、図4に示す処理へ復帰し、ステップS40における印刷処理へ進む。落書き処理が終了しない場合には、ステップS32の処理に戻り、落書き処理が終了するまで上記処理が繰り返される。
【0042】
なお、図5に示す落書き処理では、3次元スタンプ描画処理および3次元落書きペン描画処理のみが含まれるが、これらに限定されるものではなく、合成画像を作成するための手書き画像描画処理や所定の画像処理などが含まれていてもよいし、予め用意された複数の背景画像または前景画像(フレーム)からひとつが適宜選択されてもよい。また、対象撮影画像の選択はステップS31のほか、例えばステップS36の処理中または処理直前において再度または繰り返して何度も行われてもよい。
【0043】
図4に示すステップS40における印刷処理では、主制御部80は、印刷指示を示す操作信号を受け取ると、これに基づき、その時点でメイン表示・操作部62に表示されている合成画像の出力を出力部(プリンタ)64に指示する。これにより、出力部64としてプリンタは、その合成画像を写真シールとして出力する。これにより、印刷処理が終了する。出力された写真シールは、本体部4の側面に設けられた取出口28から利用者Uによって取り出される。この印刷処理が終了すると、全ての処理は終了され、所定の金額に相当するコインが新たにコイン投入口26に投入されるまで待機状態となる。この待機状態において、所定の金額に相当するコインが新たに投入されると、上記と同様の処理(ステップS10〜S40)が実行され、その後、再びステップS10へ戻る。
【0044】
ここで、図5に示すステップS33の3次元スタンプ描画処理についての詳しい処理(サブルーチン)について説明する。図6は、このサブルーチンの手順を示すフローチャートである。
【0045】
まず、主制御部80は、メイン表示・操作部62の画面の中から選択されたスタンプ画像に対応する、所定の立体形状を作成するための3次元モデルを構成するデータ(以下「3次元データ」という)を補助記憶装置から呼び出し、3次元画像処理のための各種設定値とともにメモリに一時記憶する(ステップS331)。なお、スタンプ画像の選択操作は、メイン表示・操作部62の画面における所定部分をタッチペン21により押下する動作、より詳しくはタッチペン21を一旦画面上に下ろした後に上げる(画面から離す)動作によりなされる。したがって、スタンプ画像が選択されたとき、タッチペン21は上げられている。
【0046】
次に、メイン表示・操作部62に対しタッチペン21が下ろされる操作がなされたか否かを判定する(ステップS332)。この判定の結果、タッチペン21が未だ下ろされていない場合には、下ろされるまで待機し、タッチペン21が下ろされた場合に、ステップS333の処理へ進む。なお、上記待機中には所定のキャンセルのための操作に基づくキャンセル処理または所定時間の経過に基づくタイムアウト処理がなされるものとする。
【0047】
続いて、主制御部80は、メイン表示・操作部62の画面上でのタッチペン21の位置座標(X,Y)と、タッチペン21が当該画面上に下ろされたときからの経過時間TDとを取得する(ステップS333)。
【0048】
そして、上記ステップS331において呼び出された所定の3次元データから、この経過時間TDに応じて属性を変化させた新たな3次元データを作成する(ステップS334)。ここで、上記属性は、3次元データが構成する立体の配置位置、向き、大きさ、色、または表面の模様や反射率などのほか、球に徐々に近似させる(丸みを付ける)ような変形を行う場合や、放射状の星形に徐々に近似させるような変形を行う場合などに生じる、あらゆる外観を含む。また、経過時間TDは、上記属性の変化量や変化率、変形率など、上記属性の変化量または変化率と関連づけられる。例えば、経過時間TDが大きくなるほど、色が赤くなったり、大きさが大きくなったり、形が丸みを帯びたりするように、属性変化と経過時間TDとが関連づけられる。なお、上記属性の変化は、例えば、経過時間TDが大きくなることにより、最大値まで増加すると次に最小値まで戻り再び増加するような循環的な変化、または最大値まで増加すると減少に転じさらに最小値まで減少すると増加に転じるような振動的な変化が好ましい。図7は、このようなスタンプ画像の画面上での属性の変化を示す図である。図7(a)に示すスタンプ画像は、タッチペン21で押下された(タッチペン21が下ろされた)状態で維持されると時計回りに回転し、所定時間の経過後には、時計回りに90度回転された図7(b)に示すスタンプ画像となるように属性(配置方向)が変化する。
【0049】
さらに、このようにして作成された3次元データに対して、所定のレンダリングが行われることにより立体形状を表す2次元のスタンプ画像が作成される(ステップS335)。このレンダリングには、所定の座標変換、隠面消去、シェーディング、およびテクスチャマッピングなどの各種の手法が含まれるが、これらの手法は公知であるためその詳細な内容については説明を省略する。なお、ステップS334での属性の変化を上記レンダリングにより実現することができる場合、ステップS334,S335の両処理は一体的になされる。すなわち、上記ステップS331において呼び出された所定の3次元データに対して、経過時間TDに応じて属性を変化させるように所定のレンダリングが行われることにより上記スタンプ画像が作成される。
【0050】
この2次元のスタンプ画像は、画面上のタッチペン21の位置座標(X,Y)に対応するフレームバッファのアドレス位置を基点として描画される(ステップS336)。このことにより、メイン表示・操作部62に当該2次元のスタンプ画像が表示される。具体的には、すでに表示されている対象撮影画像上の一部分に、当該スタンプ画像が合成表示(例えば上書き)される。なお、ペンが画面上に下ろされたまま動かされる(ドラッグされる)場合、上記位置座標(X,Y)が変化するため、この変化に応じて上記2次元のスタンプ画像の描画位置も移動する。
【0051】
続いて、メイン表示・操作部62に対しタッチペン21が上げられる操作がなされたか否かを判定する(ステップS337)。この判定の結果、タッチペン21が下ろされている場合、ステップS333の処理に戻り、ペンが上げられるまで上記処理が繰り返される(S337→S333→S334→S335→S336→S337)。ペンが上げられた場合、3次元スタンプ画像描画処理は終了して図5に示す処理へ復帰し、ステップS34の処理へ進む。前述したように、ステップS34では、いずれかの落書きペンを選択するための操作がメイン表示・操作部62において行われたか否かが判定され、この判定の結果、当該選択操作が行われた場合には、3次元落書きペン描画処理が行われる(ステップS35)。
【0052】
ここで、上記ステップS35の3次元落書きペン描画処理についての詳しい処理(サブルーチン)について説明する。図8は、このサブルーチンの手順を示すフローチャートである。
【0053】
まず、主制御部80は、メイン表示・操作部62の画面の中から選択された落書きペンに対応する所定の3次元データを補助記憶装置から呼び出し、3次元画像処理のための各種設定値とともにメモリに一時記憶する(ステップS351)。なお、落書きペンの選択操作もスタンプ画像の選択操作と同様、タッチペン21を一旦メイン表示・操作部62の画面上に下ろした後に上げる動作によりなされるので、落書きペンが選択されたとき、タッチペン21は上げられている。
【0054】
次に、メイン表示・操作部62に対しタッチペン21が下ろされる操作がなされたか否かを判定する(ステップS352)。この判定の結果、タッチペン21が未だ下ろされていない場合には、下ろされるまで待機し、タッチペン21が下ろされた場合に、ステップS353の処理へ進む。なお、上記待機中には所定のキャンセル処理またはタイムアウト処理がなされる。
【0055】
続いて、主制御部80は、メイン表示・操作部62の画面上でのタッチペン21の現在の位置座標(X,Y)を取得し、連続的な軌跡を示す座標列としてとしてメモリに記憶する(ステップS353)。
【0056】
さらに、画面上のタッチペン21の位置座標(X,Y)に対応するフレームバッファのアドレス位置に、上記軌跡を示す連続的な線が描画される(ステップS354)。このことにより、メイン表示・操作部62に当該軌跡が表示される。具体的には、すでに表示されている対象撮影画像上の一部分に、当該軌跡が合成表示される。
【0057】
続いて、メイン表示・操作部62に対しタッチペン21が上げられる操作がなされたか否かを判定する(ステップS355)。この判定の結果、タッチペン21が下ろされている場合、ステップS353の処理に戻り、ペンが上げられるまで上記処理が繰り返される(S355→S353→S354→S355)。ペンが上げられた場合には、ステップS356の処理へ進む。
【0058】
次に、上記ステップS351において呼び出された所定の3次元データから、上記ステップS353において得られた座標列により示される当該軌跡を変形方向(の基準線)とする新たな3次元データを作成する(ステップS356)。具体的には、軌跡により与えられた変形方向の基準線に沿って引き延ばすように上記所定の3次元データを変形することにより、新たな3次元データを作成する。したがって、ここでは3次元データの形状(例えば奥行き)という属性が変化することになる。
【0059】
さらに、このようにして作成された3次元データに対して、所定のレンダリングが行われることにより立体形状を表す2次元画像が作成される(ステップS357)。なお、ステップS356,S357の両処理は、ステップS334,S335の両処理と同様に、一体的になされる場合も考えられる。この場合には、上記ステップS351において呼び出された所定の3次元データに対して、上記軌跡に応じて形状を変化させるように所定のレンダリングが行われることにより上記2次元画像が作成される。
【0060】
続いて、上記ステップS354において描画された軌跡を示す線が消去された後、上記2次元画像は、軌跡を示す線の位置に対応するフレームバッファのアドレス位置に描画される(ステップS358)。このことにより、メイン表示・操作部62に当該2次元画像が、すでに表示されている対象撮影画像上の一部分に合成表示される。その後、3次元落書きペン描画処理は終了して図5に示す処理へ復帰し、ステップS36の処理へ進む。
【0061】
図9は、このような3次元落書きペン描画処理における表示例を示す図である。メイン表示・操作部62の画面上にタッチペン21が下ろされて動かされると、図9(a)に示すような軌跡を示す線が描画される。その後、タッチペン21が上げられると、図9(b)に示すような立体形状を有する2次元画像が描画される。
【0062】
<4. 変形例>
ここで、上記ステップS35の3次元落書きペン描画処理についての変形例を示す詳しい処理(サブルーチン)について説明する。図10は、この変形例であるサブルーチンの手順を示すフローチャートである。
【0063】
まず、主制御部80は、メイン表示・操作部62の画面の中から選択された落書きペンに対応する所定の3次元データを補助記憶装置から呼び出し、3次元画像処理のための各種設定値とともにメモリに一時記憶する(ステップS551)。次に、メイン表示・操作部62に対しタッチペン21が下ろされる操作がなされたか否かを判定する(ステップS552)。この判定の結果、タッチペン21が未だ下ろされていない場合には、下ろされるまで待機し、タッチペン21が下ろされた場合に、ステップS553の処理へ進む。なお、上記待機中には所定のキャンセル処理またはタイムアウト処理がなされる。
【0064】
さらに、主制御部80は、メイン表示・操作部62の画面上でのタッチペン21の初期位置座標(X0,Y0)を取得する(ステップS353)。この初期位置座標(X0,Y0)は、画面上での落書きペンが最初に下ろされる位置に相当する。ここでは前述のように軌跡を示す線が引かれるのではなく、この初期位置から動かされる落書きペンの軌跡に沿って、立体形状を表す2次元画像が画面上に順次描画される。
【0065】
続いて、主制御部80は、メイン表示・操作部62の画面上でのタッチペン21の現在の位置座標(X,Y)を取得し、初期位置座標(X0,Y0)からの連続的な軌跡を示す座標列としてとしてメモリに記憶する(ステップS554)。もちろん、タッチペン21が上記画面上に下ろされた直後には、タッチペン21の現在の位置座標(X,Y)は初期位置座標(X0,Y0)と等しいが、その後タッチペン21が動かされるにつれて、その軌跡を示す新たな座標列が得られる。
【0066】
そして、上記ステップS551において呼び出された所定の3次元データから、上記ステップS554において得られた座標列により示される軌跡を変形方向(の基準線)とする新たな3次元データを作成する(ステップS555)。なお、この変形方向の基準線は所定の長さの初期値を有しており、タッチペン21が上記画面上に下ろされた直後であっても所定の形状を有する3次元データが作成される。ここで、上記軌跡は変形方向を規定するが、これに限定されるわけではなく、例えば、3次元データにより表される立体図形の所定部分が延ばされるように変形されるときの変形位置や変形量を規定してもよい。
【0067】
さらに、このようにして作成された3次元データに対して、所定のレンダリングが行われることにより立体形状を表す2次元画像が作成される(ステップS556)。続いて、上記2次元画像は、初期位置座標(X0,Y0)に対応するフレームバッファのアドレス位置を基点として描画される(ステップS557)。このことにより、メイン表示・操作部62に当該2次元画像が、すでに表示されている対象撮影画像上の一部分に合成表示される。
【0068】
続いて、メイン表示・操作部62に対しタッチペン21が上げられる操作がなされたか否かを判定する(ステップS558)。この判定の結果、タッチペン21が下ろされている場合、ステップS554の処理に戻り、ペンが上げられるまで上記処理が繰り返される(S558→S554→S555→S556→S557→S558)。ペンが上げられた場合、3次元落書きペン描画処理は終了して図5に示す処理へ復帰し、ステップS36の処理へ進む。
【0069】
次に、上記ステップS33の3次元スタンプ画像描画処理についての変形例を示す詳しい処理(サブルーチン)について説明する。図11は、この変形例であるサブルーチンの手順を示すフローチャートである。
【0070】
まず、主制御部80は、メイン表示・操作部62の画面の中から選択されたスタンプ画像に対応する3次元データを補助記憶装置から呼び出し、3次元画像処理のための各種設定値とともにメモリに一時記憶する(ステップS531)。次に、メイン表示・操作部62に対しタッチペン21が下ろされる操作がなされたか否かを判定する(ステップS532)。この判定の結果、タッチペン21が未だ下ろされていない場合には、下ろされるまで待機し、タッチペン21が下ろされた場合に、ステップS533の処理へ進む。
【0071】
続いて、主制御部80は、メイン表示・操作部62の画面上でのタッチペン21の位置座標(X,Y)と、タッチペン21が利用者の手により当該画面上に押しつけられるときの押圧力(以下「筆圧」という)Ftとを取得する(ステップS533)。なお、この筆圧を検知可能であるタッチペンには静電結合方式などが用いられるが、その構成は公知であるため説明を省略する。
【0072】
そして、上記ステップS531において呼び出された所定の3次元データから、この筆圧Ftに応じて属性を変化させた新たな3次元データを作成する(ステップS534)。この属性の変化の例としては、筆圧が大きくなるほどスタンプ画像が大きくなる変化などが考えられるが、この属性の変化にはあらゆる外観上の変化が含まれることについては前述した通りである。さらに、このようにして作成された3次元データに対して、所定のレンダリングが行われることにより立体形状を表す2次元のスタンプ画像が作成される(ステップS535)。なお、ステップS534,S535の両処理が一体的になされる場合があることについては前述した通りである。
【0073】
このようにして作成された2次元のスタンプ画像は、画面上のタッチペン21の位置座標(X,Y)に対応するフレームバッファのアドレス位置を基点として描画される(ステップS536)。このことにより、メイン表示・操作部62に当該2次元のスタンプ画像が表示される。
【0074】
続いて、メイン表示・操作部62に対しタッチペン21が上げられる操作がなされたか否かを判定する(ステップS537)。この判定の結果、タッチペン21が下ろされている場合、ステップS533の処理に戻り、ペンが上げられるまで上記処理が繰り返される(S537→S533→S534→S535→S536→S537)。ペンが上げられた場合、3次元スタンプ画像描画処理は終了して図5に示す処理へ復帰し、ステップS34の処理へ進む。なお、上記の繰り返し処理が利用者の動作速度よりも極めて速い速度で行われる場合、ペンを上げる利用者の動作が筆圧を小さくする動作であるものして処理が行われることもあり得るため、上記繰り返し処理の速度を遅くするか、または筆圧がほぼ一定の状態から急激に小さくなりペンが上げられた場合にのみペンが上げられたものと判定されるなどの処理が行われることが好ましい。
【0075】
また、以上のように筆圧に基づく動作は、3次元落書きペン描画処理においても適用可能である。例えば、ステップS356(またはS555)において、描画されるべき立体形状の太さ(すなわち軌跡に対して垂直方向の幅)が筆圧に応じて変化するように当該3次元データが作成されることなどが考えられる。
【0076】
上記実施形態では、各種スタンプ画像または落書きペンに対応する3次元データは、予め補助記憶装置などに記憶されているが、この3次元データは(空間上の)所定の平面を示すものであってもよい。例えば、落書きペンの断面を示す平面が3次元データとして予め記憶されており、タッチペンの軌跡に沿って当該平面が移動するときに得られる体形状が生成される構成などが考えられる。また、この3次元データは利用者により作成されてもよい。例えば、利用者がメイン表示・操作部62にタッチペンで平面的な絵(例えばハートマークなど)を描くことにより、この絵に基づく平面を示す3次元データが作成され、この3次元データに基づき各種スタンプ画像または落書きペンに対応する画像が描画される構成などが考えられる。
【0077】
上記実施形態では、入力手段としてペン型入力手段であるタッチペンが備えられるが、入力位置の座標を取得可能な入力手段として、例えば指などで押すことにより座標入力が可能なタッチパネルやディジタイザ、マウス、またはトラックボールなどであってもよい。また、筆圧に相当する押圧力を検知するための圧力検知手段が新たに備えられてもよい。さらに、3次元データから所望の2次元画像を得るために必要な属性または属性変化を入力することができる入力手段であれば、必ずしも入力位置の座標を取得可能である必要はなく、例えばボタンやキーボード、画像認識や音声認識による入力装置などであってもよい。
【0078】
<1.4 効果>
上記のように本実施形態によれば、予め用意された(または利用者により作成された)1つまたは複数の3次元データに基づいてタッチペンの操作に応じた新たな属性を有する付加画像を作成する。このことにより、撮影画像と合成すべき付加画像を利用者の嗜好に応じて高い自由度で変化させることができる。したがって、落書きペンまたはスタンプ画像を利用者の嗜好に応じた外観が生じるように変化させることによる遊戯性または娯楽性を得ることができる。また、当該3次元データが予め記憶される場合、当該3次元データのみから多様な付加画像を生成することができるので、必要となる記憶容量を比較的小さくすることができる。
【0079】
さらに、本実施形態によれば、タッチペンの軌跡、押下時間、または筆圧に応じて新たな付加画像が作成されるため、利用者は簡単な操作で自らの嗜好に合った合成画像を効率よく容易に生成することができる。特に、遊技用写真作成装置では、操作の習熟を利用者に期待できず、また撮影時間や落書き時間などの利用時間に制限が設けられているため、タッチペンにより簡単かつ直感的に操作可能である上記構成は極めて有効である。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る遊戯用写真作成装置の側面図である。
【図2】一実施形態に係る遊戯用写真作成装置の本体部を示す正面図である。
【図3】一実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。
【図4】一実施形態に係る遊戯用写真作成装置における主制御部の動作を説明するためのフローチャートである。
【図5】一実施形態におけるステップS30のサブルーチン処理の手順を示すフローチャートである。
【図6】一実施形態におけるステップS33のサブルーチン処理の手順を示すフローチャートである。
【図7】一実施形態におけるスタンプ画像の画面上での属性の変化を示す図である。
【図8】一実施形態におけるステップS35のサブルーチン処理の手順を示すフローチャートである。
【図9】一実施形態における3次元落書きペン描画処理における表示例を示す図である。
【図10】一実施形態の変形例におけるステップS35のサブルーチン処理の手順を示すフローチャートである
【図11】一実施形態の変形例におけるステップS33のサブルーチン処理の手順を示すフローチャートである
【符号の説明】
2 …撮影室
4 …本体部
10 …カメラ
20 …液晶タッチパネル
21 …タッチペン
52 …撮像部(カメラ)
54 …確認表示部(プレビューモニタ)
62 …操作部(液晶タッチパネル)
64 …出力部(プリンタ)
70 …照明部
72 …I/O制御部(I/O制御装置)
80 …主制御部(主制御装置)
TD …経過時間
Ft …筆圧
U …利用者
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic photograph creation device that photographs a user with a camera and outputs a composite image generated based on the photographed image as a photograph.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known an amusement photo creator that captures a user with a camera and outputs the captured image as a photograph. Such a game photo creation device has a high level of playability or recreation, so that an image to be combined with a photographed image (hereinafter referred to as an “additional image”) can be prepared in various types in accordance with the user's preference. Many are configured so that a user can select from various background images and foreground images, and freely draw using a pen-type input unit such as a touch pen or a light pen. Such an action by the user is performed on the photographed image, and is therefore called “graffiti”.
[0003]
Examples of the graffiti include an operation of freely drawing a curve having a predetermined thickness and color on the screen by the pen-type input means, and selecting one of a plurality of relatively small images prepared in advance on the screen. There is an operation of pasting and synthesizing at an arbitrary position. The former operation is called “graffiti with a graffiti pen”, and the cursor for indicating the command for forming the curve or the position for forming the curve on the screen is called “graffiti pen”. The latter image is called a “stamp”.
[0004]
[Problems to be solved by the invention]
However, since one or more of the graffiti pens or the stamps are prepared in advance in the amusement photo creator, the types thereof are limited. For this reason, even if the user can freely determine the locus of the doodle pen or the sticking position or the number of stickers of the stamp, the user cannot do the scribbling with the scribble pen or the stamp such that an appearance other than the prepared type is generated. . Therefore, in the conventional amusement photo creator, it is not possible to obtain the amusement or entertainment by changing the graffiti pen or the stamp so as to have an appearance according to the user's preference.
[0005]
Therefore, an object of the present invention is to provide an automatic photo creation device and an automatic photo creation method that can change an additional image to be combined with a photographed image with a high degree of freedom according to a user's preference.
[0006]
Means for Solving the Problems and Effects of the Invention
According to a first aspect of the present invention, an imaging unit for imaging a user who is a subject in a predetermined imaging region, a display unit for displaying a composite image including a captured image obtained by the imaging unit, and outputting the composite image as a photograph An automatic photo creation device comprising output means,
Input means for receiving an operation by the user;
Setting means for setting a predetermined attribute to three-dimensional model data for generating an additional image to be combined with the photographed image in accordance with an operation received by the input means;
An additional image generation unit configured to generate the additional image that is a two-dimensional image from the three-dimensional model data according to a predetermined attribute set by the setting unit;
Synthesizing means for generating the synthesized image by synthesizing the additional image and the photographed image;
It is characterized by having.
[0007]
According to the first aspect, an additional image having a new attribute corresponding to an operation of an input unit is created based on one or a plurality of three-dimensional data prepared in advance (or created by a user). create. Thus, the additional image to be combined with the captured image can be changed with a high degree of freedom according to the user's preference. Therefore, it is possible to obtain playability or entertainment by changing an additional image such as an image using a graffiti pen or a stamp image so as to have an appearance according to the user's preference.
[0008]
When the three-dimensional data is stored in advance, various additional images can be generated only from the three-dimensional data, so that the required storage capacity can be made relatively small.
[0009]
In a second aspect, in the first aspect,
The input means is a pen-type input means capable of acquiring coordinates indicating an input position.
[0010]
According to the second aspect, since the additional image is created by the operation of the pen-type input unit, the user can efficiently and easily generate a composite image that suits his / her taste by a simple operation. it can. In particular, in the game photo creation device, since the user is not expected to be proficient in the operation, and the use time such as the shooting time and the graffiti time is limited, the operation can be easily and intuitively performed by the pen-type input means. The above possible configurations are extremely effective.
[0011]
A third invention is a method according to the first or second invention,
The input means is integrally formed with the display means.
[0012]
According to the third aspect, the user can create the additional image while viewing the image (for example, the photographed image or the locus of the pen) displayed on the display means. It is possible to efficiently and easily generate a composite image, and it is possible to obtain playability or amusement by graffiti as if makeup is applied to a captured image.
[0013]
In a fourth aspect, in any one of the first to third aspects,
The setting means sets the predetermined attribute according to a locus of an input position by the input means,
The additional image generation unit may generate an additional image according to the trajectory from the three-dimensional model data.
[0014]
According to the fourth aspect, a new additional image is created according to the trajectory of an input unit such as a touch pen, so that the user can efficiently create a composite image that matches his or her taste by a simple operation. Can be easily generated. In particular, in the game photo creation device, since the user cannot expect the mastery of the operation, and the use time such as the photographing time and the graffiti time is limited, the use of the trajectory makes it easy and intuitive. The above operable configuration is extremely effective.
[0015]
According to a fifth aspect, in any one of the first to third aspects,
The setting means sets the predetermined attribute according to the duration of a predetermined input state by the input means,
The additional image generation unit may generate an additional image according to the elapsed time from the three-dimensional model data.
[0016]
According to the fifth aspect, a new additional image is created in accordance with the duration (for example, pressing time) of the input state of the input unit such as a touch pen, so that the user can perform his or her own operation with a simple operation. It is possible to efficiently and easily generate a synthesized image that matches the taste. In particular, with a game photo creation device, the user cannot expect the user to become proficient in the operation, and there are restrictions on the usage time such as shooting time and graffiti time. The above-mentioned configuration which can be operated operatively is extremely effective.
[0017]
According to a sixth aspect, in any one of the first to third aspects,
The setting means sets the predetermined attribute according to a pressing force applied by the user to the input means,
The additional image generation unit may generate an additional image according to the pressing force from the three-dimensional model data.
[0018]
According to the sixth aspect, a new additional image is created according to a pressing force (for example, a pen pressure) of an input unit such as a touch pen, so that the user can easily match his / her preference with a simple operation. The synthesized image can be efficiently and easily generated. In particular, in the game photo creation device, the user cannot expect the mastery of the operation, and since the use time such as the photographing time and the graffiti time is limited, the operation can be easily and intuitively performed by the pressing force. Some of the above configurations are extremely effective.
[0019]
According to a seventh aspect, a photographing step of photographing a user who is a subject in a predetermined photographing area, a display step of displaying a composite image including a photographed image obtained by the photographing step, and printing the composite image as a photograph An automatic photo creation method comprising:
An input step of receiving an operation by the user;
A setting step of setting a predetermined attribute to three-dimensional model data for generating an additional image to be combined with the photographed image in accordance with the operation received in the input step;
An additional image generating step of generating the additional image that is a two-dimensional image from the three-dimensional model data according to a predetermined attribute set in the setting step;
A combining step of generating the combined image by combining the additional image and the captured image;
It is characterized by including.
[0020]
An eighth invention is a program for causing a computer to execute the automatic photo creation method according to the seventh invention.
[0021]
A ninth invention is a print medium characterized by being printed as a photograph by the automatic photograph creation method according to the seventh invention.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
<1. Overall Configuration>
FIG. 1 is a side view of an amusement photo creator, which is an automatic photographic creator according to an embodiment of the present invention, and FIG. FIG. 3 is a diagram (as viewed from a user U as a subject). Hereinafter, with reference to FIG. 1 and FIG. 2, an overall configuration of the game photo creation device according to the present embodiment will be described.
[0023]
This game photo creation device includes a photographing room 2 in which a user U enters, and a main body unit 4 that generates a composite image including a photographed image of the user U and outputs it as a photo sticker (or photo card). The photographing room 2 is provided with a background panel for providing the background of the user U.
[0024]
The main body unit 4 includes a camera 10 as an imaging unit for photographing the user U, a flash 11 arranged at an appropriate position above the camera 10 to emit a flash, and a CRT (Cathode) arranged below the camera 10. (Ray Tube) or a preview monitor 22 which is a display device including a liquid crystal display panel, and a liquid crystal display for displaying a captured image and providing a screen for performing a free drawing (graffiti) by the user U, an operation screen, and the like. And a liquid crystal touch panel 20 made of a transparent sheet for detecting an operation position that covers the operation screen, and a touch pen 21 used for operations on the liquid crystal touch panel 20. Although one touch pen 21 is provided in the drawing, two or more touch pens may be provided. Further, the liquid crystal touch panel 20 may be a liquid crystal touch panel having an electrostatic induction type operation position detection function that does not include the transparent sheet. The camera 10 photographs a user U present on the floor of the photographing room 2 as a subject, and outputs an image signal representing the photographed image. Typically, a digital camera that generates a digital image signal using a CCD (charge coupled device) is used. The preview monitor 22 is configured to display an image represented by the image signal in real time, and is used to confirm a captured image obtained by the camera 10. The liquid crystal touch panel 20 functions as an operation unit for designating a captured image at the time of graffiti processing described later, an operation unit for performing graffiti, and the like.
[0025]
The main unit 4 is mainly composed of a computer, and is a main control device and an I / O control device that control each unit and perform image processing such as the image synthesis described above, a captured image obtained by the camera 10, or a synthesis including the captured image. It has a built-in printer that outputs images as photo stickers (or photo cards). Further, the main body 4 is provided with a coin insertion slot 26 on the lower front side and an outlet 28 for a photo sticker on the side face. Furthermore, the main body unit 4 includes illumination devices 201L and 201R that are always turned on during the operation of the game photo creator on the left and right sides of the camera 10, respectively.
[0026]
<2. Functional configuration>
FIG. 3 is a block diagram showing a configuration of a main part of the game photo creation device according to the present embodiment viewed from a functional aspect. Functionally, the game photograph creation device includes an imaging unit 52, a confirmation display unit 54, a main display / operation unit 62, an output unit 64, an illumination unit 70, an I / O control unit 72, And a main control unit 80.
[0027]
In this configuration, the imaging unit 52 corresponds to the camera 10 configured by using an imaging device such as a CCD, and captures an image in real time to obtain the image (this image may be referred to as a “through image”. In this case, an image signal representing the “captured monitor image” is output. This image signal is input to the main control unit 80, and is temporarily stored in the internal memory as monitor image data. The monitor image data is supplied from the main control unit 80 to the confirmation display unit 54 as a monitor image signal. The confirmation display unit 54 corresponds to the preview monitor 22, and displays a captured image for monitoring in real time based on the image signal for monitoring.
[0028]
The main display / operation unit 62 corresponds to the liquid crystal touch panel 20 and receives an operation of the user U, a shutter operation, an operation for print output, and the like related to the graffiti processing described later, and a signal indicating these operations is: It is input to the main control unit 80 as an operation signal. Now, assuming that a shutter button (not shown) is pressed for photographing by the user U, the camera 10 flashes in the photographing direction of the camera 10 after a lapse of a predetermined time of about several seconds based on an instruction from the main control unit 80. 11 emits a flash, and an image signal output from the imaging unit 52 as a signal representing a captured image of the user U is input to the main control unit 80, and a hard disk as a memory in the main control unit 80 or as an auxiliary storage device. It is stored as photographed image data in a device or the like. The output unit 64 corresponds to a printer built in the main unit 4, and outputs an image represented by the captured image data as a photo sticker (or photo card) based on an instruction from the main control unit 80.
[0029]
The illuminating unit 70 corresponds to the illuminating devices 201L and 201R and the flash 11 in the main body unit 4. Lighting / extinguishing and dimming are controlled by the I / O control unit 72 based on an instruction from the main control unit 80.
[0030]
The I / O control unit 72 corresponds to an I / O control device built in the main body unit 4, controls the illumination unit 70 based on an instruction from the main control unit 80, and also controls a coin detection unit (not shown). ) Is transferred to the main control unit 80.
[0031]
The main control unit 80 is built in the main body unit 4 and corresponds to a main control device mainly composed of a computer including a CPU (Central Processing Unit), a memory, a frame buffer, a timer, an auxiliary storage device, and the like. When the CPU executes the predetermined program stored in the CPU, the CPU issues an instruction to each unit as described above in order to control each unit based on the operation signal input as described above. In addition, a combined image, which is an image obtained by drawing a predetermined image on the captured image, is generated by performing a later-described graffiti process on the captured image and partially rewriting the captured image data based on the operation signal. The generated image is displayed on the main display / operation unit 62 by being written into the frame buffer. In addition, as an image that can be drawn here, in addition to an image of a three-dimensional shape generated by a graffiti process described later, an image having a plurality of types of three-dimensional or two-dimensional shapes (typically representing a star shape) It is an image of a well-known pattern such as an image or an image representing a heart shape, but is not limited thereto, and may be, for example, a photographed image acquired in advance. It may be stored in a memory or an auxiliary storage device. After the completion of the image synthesis as described above, the output unit outputs the synthesized image as a photo sticker or the like. The output photo sticker or the like is taken out from an outlet 28 provided on the side surface of the main body 4.
[0032]
In addition to the above-described components, a coin detection unit (not shown) for detecting a coin inserted into the coin insertion slot 26 of the main body unit 4 is further provided in the main body unit 4. Based on the detection result of the detection unit, each unit is controlled so as to allow the user U to play for a predetermined period of time by the present photo-creating apparatus, such as taking a photograph or generating a composite image by drawing a photographed image. The control operation by the main control unit 80 based on the coin detection unit and the detection result is the same as that of the conventional amusement photo creator and is well known, and therefore, detailed description thereof will be omitted.
[0033]
The predetermined program executed by the main control device is provided, for example, by a CD-ROM which is a recording medium on which the program is recorded. That is, a CD-ROM as a recording medium of the predetermined program is mounted on a CD-ROM drive device built in the main control device as an auxiliary storage device, and the predetermined program is read from the CD-ROM and is stored in the auxiliary storage device. Is installed on the hard disk device. Then, when a predetermined operation for starting the present game photo creation device is performed, a predetermined program installed in the hard disk device is transferred to a memory in the main control device and temporarily stored therein, and is stored in the main control device. It is executed by the CPU in the device. As a result, control of each unit by the main controller and image processing described later are realized.
[0034]
<3. Operation>
As described above, the operation of the main control unit 80 in the present embodiment is realized by the internal CPU executing the predetermined program. FIG. 4 is a flowchart showing the operation of the main control unit 80 realized in this way. In the present embodiment, when a predetermined coin is inserted into the coin insertion slot 26, the main controller 80 (main controller) operates as follows.
[0035]
First, the main control unit 80 performs initialization processing of the device, that is, initialization of each hardware and initialization processing of data stored in the main control unit 80 as set values (step S10).
[0036]
Next, a photographing process for photographing the user U is performed (step S20). When the photographing process is started, first, the main control unit 80 sets a timer so as to time out after a predetermined time (hereinafter referred to as “photographing time”) has elapsed, and starts the timer. After that, until a timeout occurs, it is checked by an operation signal whether a shutter button (not shown) or a shutter button displayed on the screen of the main display / operation unit 62 is pressed. If the shutter button is pressed during this time, the main control unit 80 notifies the user of the start of shooting on the screen of the main display / operation unit 62, and after a predetermined time of about several seconds elapses, the imaging unit (camera) 52 To send a shooting signal (shutter signal). Thereby, the illumination unit (flash) 70 emits a flash in synchronization with the shutter operation of the imaging unit 52, and the main control unit 80 starts the capture process. That is, the main control unit 80 receives the image signal output from the imaging unit 52 as a signal representing the captured image of the user U illuminated by the flash from the illumination unit (flash) 70, and stores the image signal in the memory or the auxiliary storage device. It is stored as an image file of the captured image. In this way, the capture process is executed each time the shutter button is pressed during the predetermined shooting time, and the shot image is temporarily stored as an image file. When the photographing time elapses, a timeout occurs and the photographing process ends. In addition, even before the lapse of the photographing time, if an operation for instructing the main display / operation unit 62 to end the photographing processing is performed, the photographing processing is ended.
[0037]
Subsequently, an operation by the user U for graffiti is received, and a graffiti process including image processing according to the operation is performed (step S30). Here, a detailed process (subroutine) of the graffiti process will be described. FIG. 5 is a flowchart showing the procedure of this subroutine.
[0038]
First, when a plurality of captured images are acquired, the main control unit 80 sets a predetermined time (hereinafter, referred to as “doodle time”) for the doodle processing after allowing the user to select one of them. (Step S31). That is, when a plurality of photographed images are acquired, first, these photographed images are displayed on the screen of the main display / operation unit 62, and it is determined which image is selected (for example, a predetermined portion of the screen is pressed with the touch pen 21). A photographed image is examined by a signal, and the selected photographed image is set as a photographed image to be a graffiti target (hereinafter, referred to as a “target photographed image”). Furthermore, a timer is set so that a timeout occurs when a predetermined time (hereinafter, referred to as “doodle time”) elapses, and the timer is started. Then, an initial screen for graffiti including the remaining time until the timeout indicating the graffiti time, the target photographed image, and operation icons for various graffiti is displayed on the main display / operation unit 62.
[0039]
Next, the main control unit 80 performs an operation for selecting any one of a plurality of stamp images having a predetermined three-dimensional shape previously displayed on the initial screen of the main display / operation unit 62 for graffiti. Is determined on the main display / operation unit 62 (step S32). If the result of this determination is that such a stamp image selection operation has not been performed, the process proceeds directly to step S34, and if such a selection operation has been performed, the process proceeds to step S34 in accordance with the selection operation. A three-dimensional stamp drawing process is performed (step S33), and thereafter, the process proceeds to step S34.
[0040]
In step S34, an operation for selecting one of a plurality of (virtual) graffiti pens having a predetermined locus prepared in advance on the initial screen of the main display / operation unit 62 for graffiti Is determined on the main display / operation unit 62. If the result of this determination is that such a selection operation of a graffiti pen has not been performed, the process proceeds directly to step S36, and if such a selection operation has been performed, it will be described later based on the selection operation. A three-dimensional graffiti pen drawing process is performed (step S35), and thereafter, the process proceeds to step S36.
[0041]
In step S36, whether or not the graffiti has ended, that is, whether or not the graffiti time has elapsed, or whether or not the graffiti has been stopped (or the start of printing has been instructed) by an operation on the main display / operation unit 62 before the elapse of the graffiti time. Is determined. As a result of this determination, when the graffiti ends, the main control unit 80 returns to the processing illustrated in FIG. 4 and proceeds to the printing processing in step S40. If the graffiti processing does not end, the process returns to step S32, and the above processing is repeated until the graffiti processing ends.
[0042]
Note that the graffiti processing shown in FIG. 5 includes only three-dimensional stamp drawing processing and three-dimensional graffiti pen drawing processing, but is not limited thereto. May be included, or one of a plurality of background images or foreground images (frames) prepared in advance may be appropriately selected. In addition to the step S31, the selection of the target photographed image may be performed again or repeatedly, for example, during or immediately before the processing of the step S36.
[0043]
In the printing process in step S40 shown in FIG. 4, upon receiving an operation signal indicating a print instruction, the main control unit 80 outputs an output of the composite image currently displayed on the main display / operation unit 62 based on the operation signal. The output unit (printer) 64 is instructed. Accordingly, the printer as the output unit 64 outputs the composite image as a photo sticker. Thus, the printing process ends. The output photo sticker is taken out by the user U from an outlet 28 provided on the side surface of the main body 4. When the printing process is completed, all the processes are completed, and a standby state is established until a coin corresponding to a predetermined amount is newly inserted into the coin insertion slot 26. In this standby state, when a coin corresponding to a predetermined amount is newly inserted, the same processing as described above (steps S10 to S40) is performed, and thereafter, the flow returns to step S10 again.
[0044]
Here, a detailed process (subroutine) of the three-dimensional stamp drawing process in step S33 shown in FIG. 5 will be described. FIG. 6 is a flowchart showing the procedure of this subroutine.
[0045]
First, the main control unit 80 generates data (hereinafter referred to as “three-dimensional data”) for forming a three-dimensional model for creating a predetermined three-dimensional shape corresponding to the stamp image selected from the screen of the main display / operation unit 62. Is called from the auxiliary storage device and temporarily stored in a memory together with various setting values for three-dimensional image processing (step S331). The operation of selecting a stamp image is performed by an operation of pressing a predetermined portion of the screen of the main display / operation unit 62 with the touch pen 21, and more specifically, an operation of once lowering the touch pen 21 on the screen and then raising (remove from the screen). You. Therefore, when the stamp image is selected, the touch pen 21 is raised.
[0046]
Next, it is determined whether or not an operation of lowering the touch pen 21 has been performed on the main display / operation unit 62 (step S332). If the result of this determination is that the touch pen 21 has not yet been lowered, the process waits until the touch pen 21 is lowered, and if the touch pen 21 has been lowered, the process proceeds to step S333. During the standby, a cancel process based on a predetermined cancel operation or a timeout process based on the elapse of a predetermined time is performed.
[0047]
Subsequently, the main control unit 80 determines the position coordinates (X, Y) of the touch pen 21 on the screen of the main display / operation unit 62 and the elapsed time TD from when the touch pen 21 is lowered on the screen. It is acquired (step S333).
[0048]
Then, from the predetermined three-dimensional data called in step S331, new three-dimensional data whose attribute is changed according to the elapsed time TD is created (step S334). Here, the above attributes include the arrangement position, orientation, size, color, surface pattern and reflectivity of the solid formed by the three-dimensional data, and a deformation that gradually approximates (rounds) a sphere. , Or a deformation that gradually approximates a radial star shape. In addition, the elapsed time TD is associated with the change amount or change rate of the attribute, such as the change amount, change rate, and deformation rate of the attribute. For example, the attribute change is associated with the elapsed time TD such that the larger the elapsed time TD, the redder the color, the larger the size, or the rounder the shape. Note that the change in the attribute is, for example, a cyclic change in which the elapsed time TD increases, increases to the maximum value, returns to the next minimum value and then increases again, or decreases to the maximum value, and then decreases. Oscillatory changes are preferred, such that when they decrease to a minimum, they turn to increase. FIG. 7 is a diagram showing a change in attribute of such a stamp image on the screen. The stamp image shown in FIG. 7A rotates clockwise when maintained in a state where the stamp pen 21 is pressed down (touch pen 21 is lowered), and rotates 90 degrees clockwise after a predetermined time has elapsed. The attribute (arrangement direction) changes so that the stamp image shown in FIG. 7B is obtained.
[0049]
Further, a predetermined rendering is performed on the three-dimensional data created in this way, thereby creating a two-dimensional stamp image representing a three-dimensional shape (step S335). The rendering includes various methods such as a predetermined coordinate transformation, hidden surface removal, shading, and texture mapping. Since these methods are known, detailed description thereof will be omitted. If the attribute change in step S334 can be realized by the above-described rendering, the processes in steps S334 and S335 are performed integrally. That is, the predetermined three-dimensional data called in step S331 is subjected to predetermined rendering so as to change the attribute according to the elapsed time TD, thereby creating the stamp image.
[0050]
The two-dimensional stamp image is drawn based on the address position of the frame buffer corresponding to the position coordinates (X, Y) of the touch pen 21 on the screen (step S336). Thus, the two-dimensional stamp image is displayed on the main display / operation unit 62. Specifically, the stamp image is superimposed (for example, overwritten) on a part of the target captured image that is already displayed. When the pen is moved (dragged) while being lowered on the screen, the position coordinates (X, Y) change, and the drawing position of the two-dimensional stamp image also moves according to the change. .
[0051]
Subsequently, it is determined whether an operation of raising the touch pen 21 has been performed on the main display / operation unit 62 (step S337). If the result of this determination is that the touch pen 21 is down, the process returns to step S333, and the above processing is repeated until the pen is raised (S337 → S333 → S334 → S335 → S336 → S337). When the pen is raised, the three-dimensional stamp image drawing processing ends, returns to the processing shown in FIG. 5, and proceeds to the processing of step S34. As described above, in step S34, it is determined whether or not an operation for selecting one of the graffiti pens has been performed on the main display / operation unit 62. As a result of this determination, if the selection operation has been performed, , A three-dimensional graffiti pen drawing process is performed (step S35).
[0052]
Here, a detailed process (subroutine) of the three-dimensional graffiti pen drawing process in step S35 will be described. FIG. 8 is a flowchart showing the procedure of this subroutine.
[0053]
First, the main control unit 80 calls predetermined three-dimensional data corresponding to the graffiti pen selected from the screen of the main display / operation unit 62 from the auxiliary storage device together with various setting values for three-dimensional image processing. It is temporarily stored in the memory (step S351). Similar to the operation of selecting a stamp image, the operation of selecting a graffiti pen is performed by once lowering the touch pen 21 on the screen of the main display / operation unit 62 and then raising the touch pen. Is raised.
[0054]
Next, it is determined whether or not an operation of lowering the touch pen 21 has been performed on the main display / operation unit 62 (step S352). If the result of this determination is that the touch pen 21 has not yet been lowered, the process waits until the touch pen 21 is lowered, and if the touch pen 21 has been lowered, the process proceeds to step S353. Note that a predetermined canceling process or a timeout process is performed during the standby.
[0055]
Subsequently, the main control unit 80 acquires the current position coordinates (X, Y) of the touch pen 21 on the screen of the main display / operation unit 62 and stores the coordinates in the memory as a coordinate sequence indicating a continuous trajectory. (Step S353).
[0056]
Further, a continuous line indicating the trajectory is drawn at the address position of the frame buffer corresponding to the position coordinates (X, Y) of the touch pen 21 on the screen (step S354). Thus, the locus is displayed on the main display / operation unit 62. Specifically, the trajectory is combined and displayed on a part of the target captured image that is already displayed.
[0057]
Subsequently, it is determined whether or not an operation of raising the touch pen 21 is performed on the main display / operation unit 62 (step S355). If the result of this determination is that the touch pen 21 is down, the process returns to step S353, and the above processing is repeated until the pen is raised (S355 → S353 → S354 → S355). If the pen is raised, the process proceeds to step S356.
[0058]
Next, from the predetermined three-dimensional data called in step S351, new three-dimensional data in which the trajectory indicated by the coordinate sequence obtained in step S353 is a deformation direction (a reference line) is created (step S353). Step S356). Specifically, new three-dimensional data is created by deforming the predetermined three-dimensional data so as to extend along a reference line in the deformation direction given by the trajectory. Therefore, here, the attribute of the shape (eg, depth) of the three-dimensional data changes.
[0059]
Further, a predetermined rendering is performed on the three-dimensional data created in this way, thereby creating a two-dimensional image representing a three-dimensional shape (step S357). Note that both the processes of steps S356 and S357 may be integrally performed, similarly to the processes of steps S334 and S335. In this case, the predetermined three-dimensional data called in step S351 is subjected to predetermined rendering so as to change the shape according to the trajectory, thereby creating the two-dimensional image.
[0060]
Subsequently, after the line indicating the locus drawn in step S354 is deleted, the two-dimensional image is drawn at the address position of the frame buffer corresponding to the position of the line indicating the locus (step S358). As a result, the two-dimensional image is displayed on the main display / operation unit 62 on a part of the target captured image that is already displayed. Thereafter, the three-dimensional graffiti pen drawing process ends, returns to the process shown in FIG. 5, and proceeds to the process of step S36.
[0061]
FIG. 9 is a diagram showing a display example in such a three-dimensional graffiti pen drawing process. When the touch pen 21 is moved down on the screen of the main display / operation unit 62, a line indicating a locus as shown in FIG. 9A is drawn. Thereafter, when the touch pen 21 is raised, a two-dimensional image having a three-dimensional shape as shown in FIG. 9B is drawn.
[0062]
<4. Modification>
Here, a detailed process (subroutine) showing a modification of the three-dimensional graffiti pen drawing process in step S35 will be described. FIG. 10 is a flowchart showing the procedure of a subroutine that is a modification example.
[0063]
First, the main control unit 80 calls predetermined three-dimensional data corresponding to the graffiti pen selected from the screen of the main display / operation unit 62 from the auxiliary storage device together with various setting values for three-dimensional image processing. It is temporarily stored in the memory (step S551). Next, it is determined whether or not an operation of lowering the touch pen 21 has been performed on the main display / operation unit 62 (step S552). If the result of this determination is that the touch pen 21 has not yet been lowered, the process waits until the touch pen 21 is lowered, and if the touch pen 21 has been lowered, the process proceeds to step S553. Note that a predetermined canceling process or a timeout process is performed during the standby.
[0064]
Further, the main control unit 80 acquires the initial position coordinates (X0, Y0) of the touch pen 21 on the screen of the main display / operation unit 62 (step S353). The initial position coordinates (X0, Y0) correspond to the position where the graffiti pen is first lowered on the screen. Here, instead of drawing the line indicating the trajectory as described above, the two-dimensional image representing the three-dimensional shape is sequentially drawn on the screen along the trajectory of the graffiti pen moved from the initial position.
[0065]
Subsequently, the main control unit 80 acquires the current position coordinates (X, Y) of the touch pen 21 on the screen of the main display / operation unit 62, and obtains a continuous trajectory from the initial position coordinates (X0, Y0). Is stored in the memory as a coordinate sequence indicating (step S554). Of course, immediately after the touch pen 21 is dropped on the screen, the current position coordinates (X, Y) of the touch pen 21 are equal to the initial position coordinates (X0, Y0). A new coordinate sequence indicating the trajectory is obtained.
[0066]
Then, from the predetermined three-dimensional data called in step S551, new three-dimensional data in which the trajectory indicated by the coordinate sequence obtained in step S554 is a deformation direction (a reference line) is created (step S555). ). The reference line in the deformation direction has an initial value of a predetermined length, and three-dimensional data having a predetermined shape is created even immediately after the touch pen 21 is dropped on the screen. Here, the trajectory defines a deformation direction, but is not limited to this. For example, a deformation position or deformation when a predetermined portion of a three-dimensional figure represented by three-dimensional data is deformed to be extended. The amount may be specified.
[0067]
Further, a predetermined rendering is performed on the three-dimensional data created in this way, thereby creating a two-dimensional image representing a three-dimensional shape (step S556). Subsequently, the two-dimensional image is drawn based on the address position of the frame buffer corresponding to the initial position coordinates (X0, Y0) (step S557). As a result, the two-dimensional image is displayed on the main display / operation unit 62 on a part of the target captured image that is already displayed.
[0068]
Subsequently, it is determined whether or not an operation of raising the touch pen 21 has been performed on the main display / operation unit 62 (step S558). If the result of this determination is that the touch pen 21 is down, the process returns to step S554, and the above processing is repeated until the pen is raised (S558 → S554 → S555 → S556 → S557 → S558). If the pen is raised, the three-dimensional graffiti pen drawing process ends, returns to the process shown in FIG. 5, and proceeds to the process of step S36.
[0069]
Next, a detailed process (subroutine) showing a modification of the three-dimensional stamp image drawing process in step S33 will be described. FIG. 11 is a flowchart showing the procedure of a subroutine that is a modification example.
[0070]
First, the main control unit 80 calls the three-dimensional data corresponding to the stamp image selected from the screen of the main display / operation unit 62 from the auxiliary storage device, and stores it in the memory together with various setting values for the three-dimensional image processing. It is temporarily stored (step S531). Next, it is determined whether or not an operation of lowering the touch pen 21 has been performed on the main display / operation unit 62 (step S532). If the result of this determination is that the touch pen 21 has not yet been lowered, the process waits until the touch pen 21 is lowered, and if the touch pen 21 has been lowered, the process proceeds to step S533.
[0071]
Subsequently, the main control unit 80 determines the position coordinates (X, Y) of the touch pen 21 on the screen of the main display / operation unit 62 and the pressing force when the touch pen 21 is pressed on the screen by the user's hand. Ft (hereinafter referred to as "pen pressure") is obtained (step S533). In addition, an electrostatic coupling method or the like is used for the touch pen capable of detecting the writing pressure.
[0072]
Then, from the predetermined three-dimensional data called in step S531, new three-dimensional data whose attributes are changed according to the pen pressure Ft is created (step S534). As an example of the change of the attribute, a change in which the stamp image becomes larger as the pen pressure becomes larger can be considered. However, as described above, the change of the attribute includes any change in appearance. Further, a predetermined rendering is performed on the three-dimensional data created in this way, thereby creating a two-dimensional stamp image representing a three-dimensional shape (step S535). It is to be noted that both the processes of steps S534 and S535 may be performed integrally as described above.
[0073]
The two-dimensional stamp image created in this way is drawn based on the address position of the frame buffer corresponding to the position coordinates (X, Y) of the touch pen 21 on the screen (step S536). Thus, the two-dimensional stamp image is displayed on the main display / operation unit 62.
[0074]
Subsequently, it is determined whether or not an operation of raising the touch pen 21 has been performed on the main display / operation unit 62 (step S537). If the result of this determination is that the touch pen 21 is down, the process returns to step S533, and the above processing is repeated until the pen is raised (S537 → S533 → S534 → S535 → S536 → S537). When the pen is raised, the three-dimensional stamp image drawing processing ends, returns to the processing shown in FIG. 5, and proceeds to the processing of step S34. If the above-described repetitive processing is performed at a speed much higher than the operation speed of the user, the processing of the user raising the pen may be performed assuming that the operation of reducing the pen pressure is performed. It is possible to perform processing such as reducing the speed of the above-described repetitive processing, or determining that the pen has been raised only when the pen pressure has risen due to a sharp decrease in the pen pressure from a substantially constant state. preferable.
[0075]
The operation based on the pen pressure as described above is also applicable to the three-dimensional graffiti pen drawing process. For example, in step S356 (or S555), the three-dimensional data is created such that the thickness of the three-dimensional shape to be drawn (that is, the width in the direction perpendicular to the locus) changes according to the pen pressure. Can be considered.
[0076]
In the above embodiment, three-dimensional data corresponding to various stamp images or graffiti pens is stored in advance in an auxiliary storage device or the like, but this three-dimensional data indicates a predetermined plane (in space). Is also good. For example, a configuration is conceivable in which a plane indicating a cross section of a graffiti pen is stored in advance as three-dimensional data, and a body shape obtained when the plane moves along the trajectory of the touch pen is generated. The three-dimensional data may be created by a user. For example, when a user draws a two-dimensional picture (for example, a heart mark) on the main display / operation unit 62 with a touch pen, three-dimensional data indicating a plane based on the picture is created. A configuration in which a stamp image or an image corresponding to a graffiti pen is drawn is conceivable.
[0077]
In the above embodiment, a touch pen, which is a pen-type input unit, is provided as an input unit.As an input unit capable of acquiring coordinates of an input position, for example, a touch panel or a digitizer capable of inputting coordinates by pressing with a finger or the like, a mouse, Alternatively, it may be a trackball or the like. Further, a pressure detecting means for detecting a pressing force corresponding to the pen pressure may be newly provided. Further, if the input means is capable of inputting an attribute or an attribute change necessary to obtain a desired two-dimensional image from three-dimensional data, it is not always necessary to be able to obtain the coordinates of the input position. It may be a keyboard, an input device based on image recognition or voice recognition, or the like.
[0078]
<1.4 Effects>
As described above, according to the present embodiment, an additional image having a new attribute corresponding to a touch pen operation is created based on one or a plurality of three-dimensional data prepared in advance (or created by a user). I do. Thus, the additional image to be combined with the captured image can be changed with a high degree of freedom according to the user's preference. Therefore, it is possible to obtain playability or entertainment by changing the graffiti pen or the stamp image so as to have an appearance according to the user's preference. When the three-dimensional data is stored in advance, various additional images can be generated only from the three-dimensional data, so that the required storage capacity can be made relatively small.
[0079]
Furthermore, according to the present embodiment, a new additional image is created according to the locus of the touch pen, the pressing time, or the pen pressure, so that the user can efficiently create a composite image that matches his / her taste with a simple operation. Can be easily generated. In particular, in the game photo creation device, since the user cannot expect the mastery of the operation, and the use time such as the shooting time and the graffiti time is limited, the operation can be easily and intuitively performed by the touch pen. The above configuration is extremely effective.
[Brief description of the drawings]
FIG. 1 is a side view of an amusement photo creator according to an embodiment of the present invention.
FIG. 2 is a front view showing a main body of the game photo creation device according to the embodiment.
FIG. 3 is a block diagram showing a configuration of a main part of the game photo creation device according to the embodiment as viewed from a functional aspect.
FIG. 4 is a flowchart for explaining the operation of a main control unit in the game picture creating device according to one embodiment.
FIG. 5 is a flowchart illustrating a procedure of a subroutine process in step S30 according to one embodiment.
FIG. 6 is a flowchart illustrating a procedure of a subroutine process in step S33 according to the embodiment.
FIG. 7 is a diagram illustrating a change in an attribute of a stamp image on a screen according to an embodiment.
FIG. 8 is a flowchart illustrating a procedure of a subroutine process in step S35 according to one embodiment.
FIG. 9 is a diagram showing a display example in a three-dimensional graffiti pen drawing process according to one embodiment.
FIG. 10 is a flowchart illustrating a procedure of a subroutine process in step S35 in a modified example of one embodiment.
FIG. 11 is a flowchart illustrating a procedure of a subroutine process in step S33 according to a modified example of the embodiment.
[Explanation of symbols]
2 ... shooting room
4 Body part
10. Camera
20… LCD touch panel
21… Touch pen
52 ... Imaging unit (camera)
54… Confirmation display section (preview monitor)
62… Operation unit (liquid crystal touch panel)
64… Output unit (printer)
70: Lighting unit
72 ... I / O control unit (I / O control device)
80… Main control unit (main control device)
TD ... elapsed time
Ft… pen pressure
U: User

Claims (9)

所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像を含む合成画像を表示する表示手段と、当該合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記利用者による操作を受け付ける入力手段と、
前記入力手段により受け付けられた操作に応じて、前記撮影画像に合成されるべき付加画像を生成するための3次元モデルデータに対して所定の属性を設定する設定手段と、
前記設定手段により設定される所定の属性に応じて、前記3次元モデルデータから2次元の画像である前記付加画像を生成する付加画像生成手段と、
前記付加画像と前記撮影画像とを合成することにより前記合成画像を生成する合成手段と
を備えることを特徴とする、自動写真作成装置。
An image pickup device for photographing a user who is a subject in a predetermined photographing area, a display device for displaying a composite image including a photographed image obtained by the image capture device, and an output device for outputting the composite image as a photograph A photo creator,
Input means for receiving an operation by the user;
Setting means for setting a predetermined attribute to three-dimensional model data for generating an additional image to be combined with the photographed image in accordance with an operation received by the input means;
An additional image generation unit configured to generate the additional image that is a two-dimensional image from the three-dimensional model data according to a predetermined attribute set by the setting unit;
An automatic photograph creation device, comprising: a combining unit that generates the combined image by combining the additional image and the captured image.
前記入力手段は、入力位置を示す座標を取得可能なペン型入力手段であることを特徴とする、請求項1に記載の自動写真作成装置。The automatic photograph creation device according to claim 1, wherein the input unit is a pen-type input unit that can acquire coordinates indicating an input position. 前記入力手段は、前記表示手段と一体的に構成されることを特徴とする、請求項1または2に記載の自動写真作成装置。The automatic photograph creation apparatus according to claim 1, wherein the input unit is configured integrally with the display unit. 前記設定手段は、前記入力手段による入力位置の軌跡に応じて前記所定の属性を設定し、
前記付加画像生成手段は、前記3次元モデルデータから前記軌跡に応じた付加画像を作成することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。
The setting means sets the predetermined attribute according to a locus of an input position by the input means,
4. The automatic photograph creation device according to claim 1, wherein the additional image generation unit creates an additional image according to the trajectory from the three-dimensional model data. 5.
前記設定手段は、前記入力手段による所定の入力状態の継続時間に応じて前記所定の属性を設定し、
前記付加画像生成手段は、前記3次元モデルデータから前記経過時間に応じた付加画像を作成することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。
The setting means sets the predetermined attribute according to the duration of a predetermined input state by the input means,
4. The automatic photograph creation device according to claim 1, wherein the additional image generation unit creates an additional image according to the elapsed time from the three-dimensional model data. 5.
前記設定手段は、前記入力手段に対して前記利用者により加えられる押圧力に応じて前記所定の属性を設定し、
前記付加画像生成手段は、前記3次元モデルデータから前記押圧力に応じた付加画像を作成することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。
The setting means sets the predetermined attribute according to a pressing force applied by the user to the input means,
4. The automatic photograph creation device according to claim 1, wherein the additional image generation unit creates an additional image according to the pressing force from the three-dimensional model data. 5.
所定の撮影領域における被写体である利用者を撮影する撮影ステップと、当該撮影ステップにより得られる撮影画像を含む合成画像を表示する表示ステップと、当該合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
前記利用者による操作を受け付ける入力ステップと、
前記入力ステップにおいて受け付けられた操作に応じて、前記撮影画像に合成されるべき付加画像を生成するための3次元モデルデータに対して所定の属性を設定する設定ステップと、
前記設定ステップにおいて設定される所定の属性に応じて、前記3次元モデルデータから2次元の画像である前記付加画像を生成する付加画像生成ステップと、
前記付加画像と前記撮影画像とを合成することにより前記合成画像を生成する合成ステップと
を含むことを特徴とする、自動写真作成方法。
An automatic step including: a photographing step of photographing a user who is a subject in a predetermined photographing area; a display step of displaying a composite image including a photographed image obtained by the photographing step; and an output step of printing the composite image as a photograph. How to create a photo,
An input step of receiving an operation by the user;
A setting step of setting a predetermined attribute to three-dimensional model data for generating an additional image to be combined with the photographed image in accordance with the operation received in the input step;
An additional image generating step of generating the additional image that is a two-dimensional image from the three-dimensional model data according to a predetermined attribute set in the setting step;
A synthesizing step of synthesizing the additional image and the photographed image to generate the synthesized image.
請求項7に記載の自動写真作成方法をコンピュータに実行させることを特徴とするプログラム。A program for causing a computer to execute the automatic photo creation method according to claim 7. 請求項7に記載の自動写真作成方法により写真として印刷されたことを特徴とする印刷媒体。A print medium printed as a photograph by the automatic photograph creation method according to claim 7.
JP2003086577A 2003-03-26 2003-03-26 Automatic photograph preparing device and method Pending JP2004295441A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003086577A JP2004295441A (en) 2003-03-26 2003-03-26 Automatic photograph preparing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003086577A JP2004295441A (en) 2003-03-26 2003-03-26 Automatic photograph preparing device and method

Publications (1)

Publication Number Publication Date
JP2004295441A true JP2004295441A (en) 2004-10-21

Family

ID=33401161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003086577A Pending JP2004295441A (en) 2003-03-26 2003-03-26 Automatic photograph preparing device and method

Country Status (1)

Country Link
JP (1) JP2004295441A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010135985A (en) * 2008-12-03 2010-06-17 Furyu Kk Photograph seal creation device, photograph seal creation method, and program
JP2013062823A (en) * 2012-10-22 2013-04-04 Furyu Kk Photograph seal creation device, photograph seal creation method, and program
JP2018101396A (en) * 2016-12-19 2018-06-28 株式会社ワコム Image processing apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010135985A (en) * 2008-12-03 2010-06-17 Furyu Kk Photograph seal creation device, photograph seal creation method, and program
JP2013062823A (en) * 2012-10-22 2013-04-04 Furyu Kk Photograph seal creation device, photograph seal creation method, and program
JP2018101396A (en) * 2016-12-19 2018-06-28 株式会社ワコム Image processing apparatus
JP6990057B2 (en) 2016-12-19 2022-01-12 株式会社ワコム Image processing equipment

Similar Documents

Publication Publication Date Title
US6621938B1 (en) Image capture apparatus and method
JP5170771B2 (en) Drawing processing program, information processing apparatus, information processing system, and information processing control method
JP5274187B2 (en) Image processing program, information processing apparatus, image processing method, and image processing system
JP3548852B2 (en) Photo sticker vending machine, image processing method of photo sticker vending machine, and program
US20100053206A1 (en) Storage medium having stored thereon image processing program and image processing apparatus
JP2007240887A (en) Automatic photographing device and method thereof
JP5782873B2 (en) Game shooting device, game shooting method and program
JP2008054234A (en) Photographing game machine
JP4214010B2 (en) Automatic photo creation device
JP4746653B2 (en) Automatic photo creation device
JP2004295441A (en) Automatic photograph preparing device and method
JP5178462B2 (en) Image creation apparatus and image creation program
JP4328182B2 (en) Automatic photo creation device and automatic photo creation method
JP2011164141A (en) Automatic photograph producing device
JP6245529B2 (en) Game shooting device, game shooting method and program
JP5527460B2 (en) Game shooting device, game shooting method and computer program
JP4452086B2 (en) Automatic photo creation device and automatic photo creation method
JP2005142788A (en) Apparatus and method for automatic creating photograph
JP4336215B2 (en) Automatic photo creation device and automatic photo creation method
JP3328679B1 (en) Drawing method for photo sticker vending and photo sticker vending machine
JP2003219328A (en) Image printing apparatus and method, printing medium, program, and printing medium unit
JP2007060325A (en) Image editing device, photo seal preparing device, image editing method and image editing program
JP2006339951A (en) Device, method and program for automatic photography
JP2004110383A (en) Image forming system, its program and information storage medium
JP2005078601A (en) Program and method for picture developing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080924

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090203