JP5550247B2 - Image processing apparatus, control method and program thereof, and storage medium - Google Patents
Image processing apparatus, control method and program thereof, and storage medium Download PDFInfo
- Publication number
- JP5550247B2 JP5550247B2 JP2009066897A JP2009066897A JP5550247B2 JP 5550247 B2 JP5550247 B2 JP 5550247B2 JP 2009066897 A JP2009066897 A JP 2009066897A JP 2009066897 A JP2009066897 A JP 2009066897A JP 5550247 B2 JP5550247 B2 JP 5550247B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- display data
- points
- moving image
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、動画像に文字列等の表示用データを挿入又は合成する画像処理装置、その制御方法及びプログラム並びに記憶媒体に関する。 The present invention relates to an image processing apparatus for inserting or synthesizing display data such as a character string into a moving image, a control method and program thereof, and a storage medium .
従来、パーソナルコンピュータに搭載されている動画像編集用アプリケーションソフトウエアでは、動画像に対して効果的な文字やアイコンなどの表示用データを挿入したり、表示用データに所望のエフェクト効果を付与することができる。これにより、動画像の面白さをより一層高めることができる。 Conventionally, moving image editing application software installed in a personal computer inserts display data such as characters and icons that are effective for moving images, or gives a desired effect to display data. be able to. Thereby, the interestingness of a moving image can be improved further.
ビデオカメラの普及により、一般のユーザも動画像を撮影する機会が増えてきており、動画像に対して表示用データを簡単に挿入する機能やエフェクトを付与する機能が望まれている。 Due to the widespread use of video cameras, general users are increasingly taking pictures of moving images, and a function for easily inserting display data into a moving image and a function for providing an effect are desired.
動画像の再生中に、ユーザに指定された位置を動画像の仮想座標に変換し、その座標を記憶することで動画像を確認しながら簡単にエフェクトを付加できる編集装置が知られている(特許文献1)。また、文字に対して複数のエフェクトの一つを選択可能にした技術も知られている(特許文献2)。 An editing apparatus is known that can easily add an effect while confirming a moving image by converting a position specified by a user into a virtual coordinate of the moving image and storing the coordinate during reproduction of the moving image ( Patent Document 1). There is also known a technique that enables one of a plurality of effects to be selected for a character (Patent Document 2).
従来の技術では、動画像に挿入した文字列や付与したエフェクトの効果をリアルタイムに確認できないという問題点がある。 In the prior art, there is a problem that can not see the effect of string or grant the effect was inserted into the moving image in real time.
本発明は、このような問題を解決する画像処理装置、その制御方法及びプログラム並びに記憶媒体を提示することを目的とする。 An object of the present invention is to present an image processing apparatus , a control method and program for solving such a problem, and a storage medium .
本発明に係る画像処理装置は、表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出手段と、動画を再生して前記表示手段に表示するように制御する表示制御手段と、前記表示制御手段で動画を再生表示している際に前記タッチ検出手段で検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御手段とを有し、前記制御手段は、2点でのタッチ操作を検出した場合に2つの入力点間の距離が開くように移動することに応じて、前記表示用データが表示されていない状態から、該2つの入力点間の距離が開く方向に前記表示用データが開くような効果を付して該表示用データが現れるように、かつ、該2つの入力点間の距離が開くように移動しても該表示用データに含まれる要素のサイズを変倍することなく、前記動画に該表示用データを合成するように制御することを特徴とする。
本発明に係る画像処理装置は、表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出手段と、動画を再生して前記表示手段に表示するように制御する表示制御手段と、前記表示制御手段で動画を再生表示している際に前記タッチ検出手段で検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御手段とを有し、前記制御手段は、2点でのタッチ操作を検出した場合に2つの入力点間の距離が小さくなるように移動することに応じて、前記表示用データが表示された状態から、該表示用データに含まれる要素のサイズを変倍することなく、前記表示用データが閉じるような効果を付して該表示用データを合成し、その後、該表示用データを消すように制御することを特徴とする。
本発明に係る画像処理装置の制御方法は、表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出ステップと、動画を再生して前記表示手段に表示するように制御する表示制御ステップと、前記表示制御ステップで動画を再生表示している際に前記タッチ検出ステップで検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御ステップとを有し、前記制御ステップは、2点でのタッチ操作を検出した場合に2つの入力点間の距離が開くように移動することに応じて、前記表示用データが表示されていない状態から、該2つの入力点間の距離が開く方向に前記表示用データが開くような効果を付して該表示用データが現れるように、かつ、該2つの入力点間の距離が開くように移動しても該表示用データに含まれる要素のサイズを変倍することなく、前記動画に該表示用データを合成するように制御することを特徴とする。
本発明に係る画像処理装置の制御方法は、表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出ステップと、動画を再生して前記表示手段に表示するように制御する表示制御ステップと、前記表示制御ステップで動画を再生表示している際に前記タッチ検出ステップで検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御ステップとを有し、前記制御ステップは、2点でのタッチ操作を検出した場合に2つの入力点間の距離が小さくなるように移動することに応じて、前記表示用データが表示された状態から、該表示用データに含まれる要素のサイズを変倍することなく、前記表示用データが閉じるような効果を付して該表示用データを合成し、その後、該表示用データを消すように制御することを特徴とする。
An image processing apparatus according to the present invention includes a touch detection unit capable of detecting touch operations at a plurality of points on a display unit, a display control unit that controls to reproduce a moving image and display the moving image on the display unit, and the display control In response to a touch operation at a plurality of points detected by the touch detection means when the moving image is reproduced and displayed by the means, the positional relationship between the input points of the touch operation at the plurality of points is set with respect to the video. And a control unit that controls the display data to be combined with the corresponding effect, and the control unit opens a distance between the two input points when a touch operation at two points is detected. The display data is added with the effect that the display data is opened in the direction in which the distance between the two input points is increased from the state in which the display data is not displayed. And the two Without even moving to open the distance between the points to scale the size of the elements included in the display data, and controls so as to synthesize the display data in the video.
An image processing apparatus according to the present invention includes a touch detection unit capable of detecting touch operations at a plurality of points on a display unit, a display control unit that controls to reproduce a moving image and display the moving image on the display unit, and the display control In response to a touch operation at a plurality of points detected by the touch detection means when the moving image is reproduced and displayed by the means, the positional relationship of each input point of the touch operation at the plurality of points is set with respect to the moving image. And a control means for controlling the display data to be synthesized with a corresponding effect, and the control means reduces the distance between the two input points when a touch operation at two points is detected. The display data is closed from the state where the display data is displayed without changing the size of the elements included in the display data. It synthesizes the display data Thereafter, and controlling so as to delete the display data.
The control method of the image processing apparatus according to the present invention includes a touch detection step capable of detecting a touch operation at a plurality of points on the display means, a display control step for controlling to reproduce and display a moving image on the display means, In response to the touch operation at a plurality of points detected in the touch detection step when the moving image is reproduced and displayed in the display control step, each input point of the touch operation at the plurality of points is applied to the video. A control step for controlling the display data to be combined with an effect corresponding to the positional relationship, and the control step is a distance between two input points when a touch operation at two points is detected. in response to moving to open, from said state where the display data is not displayed, the display denoted by the effects such as the display data in the direction in which distance is opened between the two input points is opened Day for As appears, and without even moving such that the distance between the two input points opens to scale the size of the elements included in the display data, synthesizes the display data on the moving It is characterized by controlling as follows.
The control method of the image processing apparatus according to the present invention includes a touch detection step capable of detecting a touch operation at a plurality of points on the display means, a display control step for controlling to reproduce and display a moving image on the display means, In response to the touch operation at a plurality of points detected in the touch detection step when the moving image is reproduced and displayed in the display control step, each input point of the touch operation at the plurality of points is applied to the video. A control step for controlling the display data to be combined with an effect corresponding to the positional relationship, and the control step is a distance between two input points when a touch operation at two points is detected. in response to the moves to be smaller, a state where the display data is displayed without scaling the size of the elements included in the display data, such as the display data is closed You are given the results by combining the data for the display, then and controls to turn off the display data.
本発明によれば、再生中の動画像に対してユーザがタッチパネルに行ったタッチ操作に応じた効果で表示用データを挿入し、動画像と合成することが可能となる。 According to the present invention, it is possible to insert display data with an effect corresponding to a touch operation performed on a touch panel by a user with respect to a moving image that is being reproduced, and synthesize it with the moving image.
以下、図面を参照して、本発明の実施例を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明に係る画像処理装置の一実施例を組み込んだ画像再生装置の概略構成ブロック図を示す。再生装置10は、システム制御部12、タッチパネル14、表示用データ記憶部16、入力部18、動画像記憶部20および挿入情報記憶部22を具備する。システム制御部12は、マイクロコンピュータからなる。
FIG. 1 shows a schematic block diagram of an image reproducing apparatus incorporating an embodiment of an image processing apparatus according to the present invention. The
システム制御部12は、CPU(Central Proccessing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)を有するマイクロコンピュータからなる。CPUは、RAMを作業エリアとしてROMに格納された制御プログラムを実行して各種制御を行う。
The
入力部18は、ジョグダイヤルおよびダイヤルスイッチ等の操作手段を有する。ユーザは、入力部18を介して、種々の指示をシステム制御部12に入力できる。入力制御部26は、入力部18の入力操作を適切な処理制御部に伝達する。入力制御部26から動画像制御部28に選択指示を送ることで、動画像記憶部20から所望の動画像を選択できる。同様に、入力制御部26から表示用データ読出し部24に選択指示を送ることで表示用データ記憶部16から所望の表示用データを選択できる。
The
表示用データ読出し部24は、入力制御部26により指示される表示用データを表示用データ記憶部16から読み出し、読み出した表示用データを表示用データ制御部30に送る。表示用データ記憶部16は、複数の表示用データを格納可能である。表示用データは、一般に、文字または文字列、アイコン、イメージデータ、若しくはこれらの組み合わせからなる。
The display
動画像記憶部20は、MPEG2(Moving Picture Experts Group)等の動画像圧縮形式に基づいて圧縮された動画像データを記憶する。動画像制御部28は、入力制御部26により指示された圧縮動画像データを動画像記憶部20から読み出して伸長し、伸長により復元された動画像データを動画像合成部32に供給する。動画像制御部28はまた、動画像合成部32からの動画像データを圧縮(エンコード)し、圧縮動画像データを動画像記憶部20に書き込む。
The moving image storage unit 20 stores moving image data compressed based on a moving image compression format such as MPEG2 (Moving Picture Experts Group). The moving
タッチパネル14のタッチパネル入力部14aは、入力された操作位置に応じた信号を座標検出部36に送る。座標検出部36は、タッチパネル入力部14aの入力位置を座標として算出し、その算出した座標を表示用データ制御部30に送る。また、表示制御部38から送られる動画像データの動画像がタッチパネル14の動画像表示部14bに表示される。
The touch
表示用データ制御部30は、表示用データ読出し部24により読み出された表示用データと座標検出部36により得られた入力位置座標の情報から表示用画像データを生成し、動画像合成部32に送る。表示用画像データを生成するとき、必要に応じて表示用画像データの画面上の配置が調整される。動画像合成部32は、動画像制御部28からの再生動画像データと表示用データ制御部30からの表示用画像データの一方を選択して表示制御部38に送ることも、両者の合成画像データを表示制御部38に送ることも可能である。動画像合成部32はまた、表示用データ制御部30から表示用データ画像の生成時に使用した表示用データ情報と入力位置座標を受け取り、動画像制御部28から動画像のシーン番号と再生時間(フレーム)を受け取る。動画像合成部32は、これらの情報を挿入情報生成部34に送り、必要により動画像制御部28にも送る。
The display
挿入情報生成部34は、動画像合成部32から送られる情報を関連付けて管理情報を生成する。この管理情報は少なくとも、動画像のシーン番号、再生時間(フレーム数)、表示用データおよび入力位置座標を含み、挿入情報記憶部22に保存される。
The insertion
表示制御部38は、動画像合成部32からの動画像データを動画像表示部14bに表示可能な形式に変換し、動画像表示部14bに送る。
The
挿入情報解析部39は、文字列挿入操作後の再生処理で、表示用データ挿入情報を解析する。
The insertion
動画像記憶部20、表示用データ記憶部16および挿入情報記憶部22は、HDD(Hard Disk Drive)またはフラッシュメモリなどのランダムアクセス記憶媒体からなる。
The moving image storage unit 20, the display
図2は、本実施例の表示用データ挿入処理のフローチャートを示す。ユーザが入力部18のジョグダイヤル等により指定した所望の動画像が、動画像表示部14bにより表示されているとする。ここでは、ユーザは動画像の1シーン目の10秒から13秒の間に、表示用データである文字列「到着しました!」を所望の位置に挿入することを希望しているとする。
FIG. 2 shows a flowchart of the display data insertion process of this embodiment. It is assumed that a desired moving image designated by the user using the jog dial or the like of the
動画像を再生できる状態で、ユーザの所定操作により、図2に示すフローが開始される。ユーザの指示に従い、表示用データ記憶部16の表示用データが読み出され、タッチパネル14の動画像表示部14bに表示される(S1)。表示用データ記憶部16に格納されている表示用データは、書き換え可能であり、用途によって変更できる。図3は、ステップS1でタッチパネル14に表示される表示用データの一覧表示画面40の例を示す。文字列一覧表示画面40には、メニュー項目表示部42、文字列スクロール部44、および文字列表示欄46が表示される。ユーザは、動画像に挿入したい文字列を文字列表示欄46に表示される文字列一覧から選択できる。また、文字列一覧表示画面40は、動画像の再生中でも、再生を開始する前でも、表示可能である。
The flow shown in FIG. 2 is started by a predetermined operation of the user in a state where the moving image can be reproduced. In accordance with a user instruction, display data in the display
次に、ユーザは、タッチパネル14上に表示されている文字列から挿入したい文字列を入力部18によって選択する(S2)。選択された文字列を示す表示用データは、RAMなどに一時記憶される。
Next, the user selects a character string to be inserted from the character strings displayed on the
ユーザが、ステップS2で選択した文字列を挿入したい動画像を入力部18で選択すると、タッチパネル14の動画像表示部14bにその動画像が再生表示される(S3)。また、動画像を再生してから挿入したい文字列を決定する場合には、ステップS3をステップS1の前に実行するようにすればよい。
When the user selects the moving image into which the character string selected in step S2 is to be inserted using the
図4は、ステップS3でユーザにより選択された動画像を再生している動画像再生画面50の例を示す。動画像再生画面50には、動作状態表示アイコン52、再生時間(フレーム)54、シーン番号56および再生動画像58が表示される。動作状態表示アイコン52は、再生、早送り又はスロー再生などの動作状態に応じてアイコン表示を変化させたものであってもよい。図4では、再生時間54は、シーン番号1の10秒経過した場面を再生していることを表している。
FIG. 4 shows an example of a moving
再生中の動画像において文字列を挿入したい場面になった時、ユーザは、文字列を挿入したい位置をタッチパネル14上で指定する(S4)。動画像が一時停止している場合は、タッチパネル14に位置入力を開始したと同時に、再生が始まる。この説明例では通常再生時であるとしているが、スロー再生又はコマ送り再生などでもよい。
When a scene in which a character string is desired to be inserted in the moving image being reproduced, the user designates a position on the
タッチパネル14のタッチパネル入力部14aは、入力された入力開始位置を座標検出部36に送り、座標検出部36は入力位置を座標に変換する(S5)。
The touch
ユーザがタッチパネル14に入力を開始すると同時に、その入力位置に文字列の先頭が位置するように、当該文字列がタッチパネル14の動画像表示部14bに表示される(S6)。入力を止めない限り、文字列は常に表示されている。このようにすることで、ユーザは、再生中の動画像に対して、リアルタイムで文字列の挿入効果を視覚的に確認できる。事後的に文字列付きで動画像を再生して確認するという作業が不要になる。
At the same time that the user starts input on the
図5は、ステップS6でタッチパネル14に文字列の位置入力が開始した時の、文字列挿入開始画面60の例を示す。タッチパネル14に位置入力されると、タッチパネル入力部14aが入力位置を示すデータを座標検出部36に送り、座標検出部36が入力位置64を座標に変換する。この変換動作と同時に、選択されている文字列62が、入力開始位置64に表示される。位置入力が終了するまでの間、先に説明したように、文字列62が表示され続ける。ユーザは、文字列62の挿入された動画像をその場で確認できる。
FIG. 5 shows an example of the character string
タッチパネル入力部14aへのユーザ入力の有無を判定する(S7)。ユーザ入力が検出される場合(S7)、座標検出部36が、タッチパネル入力部14aへの入力位置を座標に変換する(S8)。動画像合成部32が、ステップS8で変換された座標に相当する位置で、先に選択された表示用データを再生中の動画像に合成する(S9)。合成で得られた画像が、タッチパネル14の動画像表示部14bに表示される。挿入情報生成部34は、ステップS8で得られた座標、動画像のシーン番号、再生時間(フレーム)、及び選択された文字列を示す表示用データを相互に関連付けて内蔵RAMに一時的に保存する(S10)。ステップS7に戻り、タッチパネル入力部14aへのユーザ入力の有無を判定する。
The presence / absence of user input to the touch
タッチパネル入力部14aへのユーザ入力が検出されない場合(S7)、タッチパネル入力部14aへの位置入力が終了していることになるので、タッチパネル14での文字列の表示を終了する(S11)。このようにすることで、ユーザは、リアルタイムに再生中の動画像に対して文字列の挿入効果を確認できる。タッチパネル入力部14aは、ユーザが入力した最後の位置、すなわち入力終了位置を座標検出部36に送り、座標検出部36が座標に変換する(S12)。挿入情報生成部34が、入力終了位置の座標、動画像のシーン番号、再生時間(フレーム)及び選択された文字列と、ステップS10でRAMに一時保存したデータとを含めて管理情報を生成する(S13)。挿入情報生成部34により生成された管理情報が、挿入情報記憶部22に格納され(S14)、表示用データ挿入処理を終了する。
When the user input to the touch
図6は、ステップS14で文字列の位置入力が終了した時の文字列挿入終了画面66の例を示す。図6は、動画像の1シーン目の10秒に入力が開始され(入力開始位置64)、13秒に入力が終了する(入力終了位置70)ことを表している。入力開始位置から入力終了位置までの軌跡68に沿って文字列がリアルタイムで表示される。位置が入力されている間は、動画像のシーン番号、再生時間(フレーム)及び文字列が互いに関連付けてRAMなどに一時記憶される。そして、位置入力が終了すると、管理情報として挿入情報記憶部22に記憶される。文字列の入力が終了すると、表示されていた文字列も消える。入力開始位置64から入力終了位置70までの軌跡68に沿って文字列が挿入されるので、図7に示すように、入力開始位置76から入力終了位置78までの軌跡74が曲線になっていたとしても、何ら問題はない。その場合、表示用データ制御部30が、文字列を曲線に沿った形に調整する。
Figure 6 shows an example of a string
図8は、挿入情報記憶部22に記憶される管理情報の構成と内容の一例を示す。管理情報は、動画像のシーン番号、文字列情報、再生時間情報及び位置情報から構成される。表示用データ記憶部16には、図9に示すような、文字列番号と文字列データとを対応付ける文字列管理テーブルを記憶している。文字列情報は、この文字列管理テーブルの文字列番号からなる。再生時間情報は、動画像の再生時間を時分秒又はフレーム単位で記憶する。位置情報は、ユーザによって入力された位置を座標検出部36により変換した座標からなる。管理情報の説明は一例であり、選択された表示用データ、入力された位置情報、および再生時の動画像情報が相互に関連付けられて記憶されていればよい。
FIG. 8 shows an example of the configuration and contents of management information stored in the insertion
この管理情報を使用し、動画像再生時にユーザの指定した箇所で文字列を表示させることができる。動画像に対してユーザの指定した箇所に文字列を合成できる。また、動画像制御部28により圧縮(エンコード)することで、文字列を合成した動画像を作成できる。詳細は後述する。
Using this management information, it is possible to display a character string at a location designated by the user at the time of moving image reproduction. A character string can be synthesized at a location designated by the user for a moving image. In addition, by compressing (encoding) by the moving
次に、ユーザによる文字列挿入操作後の再生処理を実行する処理を説明する。挿入情報解析部39は、入力制御部26からの指示に従い挿入情報記憶部22から表示用データ挿入情報を読み出す。挿入情報解析部39はさらに、読み出した挿入情報を解析し、解析結果を表示用データ読出し部24に送る。
Next, processing for executing reproduction processing after a character string insertion operation by the user will be described. The insertion
動画像制御部28は、入力制御部26から動画像読出し要求を受け取ると、挿入情報解析部39に指示して挿入情報記憶部22から挿入情報解析部39に表示用データを読み出させる。
When the moving
表示用データ読出し部24は、挿入情報解析部39の解析結果により表示用データを表示用データ記憶部16から読み出し、読み出した表示用データを表示用データ制御部30に送る。表示用データ読出し部24はまた、表示用データ挿入情報に含まれる他の情報群を表示用データ制御部30に送り、表示用データ制御部30はそれらの情報を使い、表示用データ画像を作成する。
The display
ユーザにより所望の位置に文字列が挿入された後の再生処理を図10のフローチャートを参照して説明する。ここでは、表示用データは文字列であり、ユーザは動画像1シーン目の10秒から13秒の間に「到着しました!」という文字列を、先に説明した方法で指定した位置に挿入する場合を例に説明する。 A reproduction process after a character string is inserted at a desired position by the user will be described with reference to a flowchart of FIG. Here, the display data is a character string, and the user inserts the character string “Arrive!” Between 10 seconds and 13 seconds in the first scene of the moving image at the position specified by the method described above. An example of this will be described.
図10に示す処理は、動画像を再生できる状態でユーザからの所定の操作によってスタートする。ユーザの入力した指示により、動画像の再生要求を入力制御部26が受ける(S21)。入力制御部26が受けた指示により挿入情報解析部39が挿入情報記憶部22から表示用データ挿入情報(管理情報)を読み出す(S22)。
The process shown in FIG. 10 is started by a predetermined operation from the user in a state where a moving image can be reproduced. In response to an instruction input by the user, the
挿入情報解析部39は、挿入情報記憶部22から読み出した表示用データ挿入情報(管理情報)を解析する(S23)。表示用データ挿入情報を解析することで、動画像のシーン番号、文字列情報、再生時間情報および位置情報を取得でき、取得した情報はRAMに一時的に記憶される。管理情報が存在しなかった場合、挿入情報解析部39が管理情報なしと判断する。
The insertion
RAMに記憶されている管理情報の解析結果と、再生される動画像のシーン番号および再生時間が一致しているかどうかを判定する(S24)。一致しない場合(S24)、動画像記憶部20から読み出された動画像を再生表示する(S25)。このとき、管理情報が一致していないので、動画像合成部32は表示用画像データとの合成を行わない。
It is determined whether the analysis result of the management information stored in the RAM matches the scene number and playback time of the moving image to be played back (S24). If they do not match (S24), the moving image read from the moving image storage unit 20 is reproduced and displayed (S25). At this time, since the management information does not match, the moving
一致する場合(S24)、挿入情報解析部39は、管理情報の解析結果を表示用データ読出し部24、座標検出部36及び動画像合成部32に伝える(S26)。挿入情報解析部39による管理情報の解析結果を元に、表示用データ読出し部24と座標検出部36により文字列画像データを生成する(S27)。ステップS27で生成された文字列画像データと動画像合成部32が受けた管理情報の解析結果を元に、文字列画像データと動画像を合成する(S28)。ステップS28で合成された動画像を表示制御部38に送る(S29)。表示制御部38に送られた動画像は、タッチパネル14の動画像表示部14bに表示される。
If they match (S24), the insertion
図11は、ステップS29で合成された動画像を再生している合成動画像再生画面の一例を示す。ユーザがタッチパネル14上のタッチパネル入力部14aに入力操作したときに生成された管理情報を解析することで、ユーザの希望する場面でユーザに選択された文字列を動画像と合成表示できる。
FIG. 11 shows an example of a combined video playback screen that plays back the video combined in step S29. By analyzing the management information generated when the user performs an input operation on the touch
ステップS25又はS29の後、ユーザによる入力部18からの再生終了要求があったかどうか、又は、動画像の最終位置になったかどうかを判定する(S30)。どちらかの条件に合致した場合(S30)、表示用データ挿入後の再生処理を終了する。どちらの条件にも合致しない場合(S30)、ステップS24に戻る。
After step S25 or S29, it is determined whether or not there has been a reproduction end request from the
図12は、タッチパネル14上のタッチパネル入力部14aにより入力された文字列を取り消す文字列取り消し画面の例を示す。図12に示す例では、動画像1シーン目の10秒から13秒の間に挿入された「到着しました!」という文字列を取り消したいと仮定する。
FIG. 12 shows an example of a character string cancellation screen for canceling the character string input by the touch
図12に示す文字列取り消し画面には、画面確認ボタン80が表示される。タッチパネル14により文字列を挿入した後、入力部18により画面確認ボタン80が選択されると、少なくとも文字列が挿入された場面にまで遡って確認再生が行われる。確認再生中にタッチパネル入力部14aによる入力が検出されると、挿入された文字列が消去される。挿入情報記憶部22に記憶されている管理情報の該当する部分は、挿入情報生成部34により再構築される。
A
図13は、エフェクトを動画像に与える本発明に係る画像処理装置の第2実施例を組みこんだ再生装置の概略構成ブロック図を示す。図13に示す再生装置110は、再生装置10とは、システム制御部112にエフェクト決定部137を具備する点が主として異なる。再生装置110の手段112〜136,138,139の機能は、エフェクトに関する機能が追加されていることを除いて、それぞれ、再生装置10の手段12,18〜36,38,39のそれと同じである。以下では、エフェクトに関する相違点を主に説明する。
FIG. 13 is a block diagram showing the schematic configuration of a playback apparatus incorporating a second embodiment of the image processing apparatus according to the present invention for applying effects to moving images. The
表示用データ記憶部116は、表示用データとエフェクトデータを格納する。表示用データ読出し部124は、表示用データ記憶部116に記憶される表示用データおよびエフェクトデータから希望のものを読み出すことができる。
The display
座標検出部136は、タッチパネル入力部114aによる入力位置を示す座標を算出し、表示用データ制御部130とエフェクト決定部137に送る。エフェクト決定部137は、座標検出部136から送られる座標とその動きから、表示用データに付加すべきエフェクトを決定する。決定されたエフェクトは、表示用データ制御部130に通知される。
The coordinate
表示用データ制御部130は、表示用データ読出し部124により読み出された表示用データ/エフェクトデータ、座標検出部136からの座標情報、及びエフェクト決定部137からのエフェクト情報に従い、表示用画像データを生成する。生成された表示画像データは、動画像合成部132に送られる。表示用画像データを生成するとき、必要に応じて表示用画像データの画面上の配置が調整される。
The
動画像合成部132はまた、表示用データ制御部130から表示用データ画像の生成時に使用した表示用データ情報、入力位置座標及びエフェクト情報を受け取り、動画像制御部128から動画像のシーン番号と再生時間(フレーム)を受け取る。動画像合成部132は、これらの情報を挿入情報生成部134に送り、必要により動画像制御部128にも送る。
The moving
挿入情報生成部134は、動画像合成部132から送られる情報を関連付けて管理情報を生成する。この管理情報は少なくとも、動画像のシーン番号、再生時間(フレーム数)、表示用データ、入力位置座標及びエフェクト情報を含み、挿入情報記憶部122に保存される。
The insertion
図14は、図13に示す実施例の表示用データ挿入処理のフローチャートを示す。ユーザが入力部118のジョグダイヤル等により指定した所望の動画像が、動画像表示部114bにより表示されているとする。ここでは、ユーザは、動画像の1シーン目の10秒から13秒の間に、表示用データである文字列「到着しました!」を所望の位置に所望のエフェクトを付加して挿入することを希望しているとする。
FIG. 14 shows a flowchart of the display data insertion process of the embodiment shown in FIG. It is assumed that a desired moving image designated by the user using the jog dial or the like of the
動画像を再生できる状態で、ユーザの所定操作により、図14に示すフローが開始される。ユーザの指示に従い、表示用データ記憶部116の表示用データが読み出され、タッチパネル114の動画像表示部114bに表示される(S41)。表示用データ記憶部116に格納されている表示用データは、書き換え可能であり、用途によって変更できる。表示用データ記憶部116の表示用データが、選択のために、図3に示すように、一覧表示される。この文字列一覧は、動画像の再生中でも、再生を開始する前でも、表示可能である。
The flow shown in FIG. 14 is started by a predetermined operation of the user in a state where the moving image can be reproduced. In accordance with a user instruction, display data in the display
ユーザは、入力部118により、動画像に挿入したい文字列を文字列一覧から選択する(S42)。選択された文字列を示す表示用データは、RAMなどに一時記憶される。
The user uses the
ユーザが、ステップS42で選択した文字列を挿入したい動画像を入力部118で選択すると、タッチパネル114の動画像表示部114bにその動画像が、図4に示すように、再生表示される(S43)。また、動画像を再生してから挿入したい文字列を決定する場合には、ステップS43をステップS41の前に実行するようにすればよい。
When the user selects a moving image into which the character string selected in step S42 is to be inserted using the
再生中の動画像において文字列を挿入したい場面になった時、ユーザは、文字列を挿入したい位置をタッチパネル114上で指定する(S44)。動画像が一時停止している場合は、タッチパネル114に位置入力を開始したと同時に、再生が始まる。この説明例では通常再生時であるとしているが、スロー再生又はコマ送り再生などでもよい。
When a scene in which a character string is desired to be inserted in the moving image being reproduced, the user designates a position where the character string is to be inserted on the touch panel 114 (S44). When the moving image is paused, playback starts at the same time as position input on the
タッチパネル114のタッチパネル入力部114aは、入力された入力開始位置を座標検出部136に送り、座標検出部136は入力位置を座標に変換する(S45)。
The touch
表示用データ制御部130は、ユーザによるタッチパネル114への入力操作により座標検出部136から送られる座標の位置又は個数などから、文字列の表示位置と表示の要否を決定する(S46)。図15は、座標検出部136の出力座標値と文字列の表示・非表示との関係例を示す。図15に示す例では、入力座標の個数と、2点入力の場合の2点間距離によって、文字列の表示・非表示を決定する。2つの入力点間の距離が閾値より大きい場合、2点間の中間に文字列の中心を表示する。また、2点間の距離が閾値より小さい場合は、文字列を表示しない。閾値はユーザが任意に設定するものでも、内部で決められた値であってもよい。1点入力または3点以上の入力の場合には、文字列を表示しない。
The display
文字列を表示する場合(S47)、再生中の動画像に対して、選択された文字列の合成表示を開始する(S48)。図16は2点入力により文字列(「到着しました!」)を動画像上に合成表示している画面例を示す。親指と人差し指で2点を入力しており、文字列160は、両者の入力点の中間にその中央が来るように表示される。エフェクトにより文字列を表示しない場合を除き、入力を止めない限り、文字列は常に表示されている。このようにすることで、ユーザはリアルタイムに再生中の動画像に対して文字列の効果をリアルタムに確認でき、再度、再生して確認するという動作が不要になる。
When displaying a character string (S47), the composition display of the selected character string is started with respect to the moving image being reproduced (S48). FIG. 16 shows an example of a screen in which a character string (“arrived!”) Is synthesized and displayed on a moving image by inputting two points. Two points are input with the thumb and forefinger, and the
文字列を表示しない場合(S47)には、ステップS48を迂回する。 If the character string is not displayed (S47), step S48 is bypassed.
タッチパネル入力部114aへのユーザ入力の有無を判定する(S49)。ユーザ入力が検出される場合(S49)、座標検出部136が、タッチパネル入力部114aへの入力位置を座標に変換する(S50)。エフェクト決定部137は、座標検出部136からの座標を元にエフェクトを決定する(S51)。表示用データ制御部130は、選択された文字列に対して、エフェクト決定部137で決定されたエフェクトを付加した表示用画像データを作成して動画像合成部132に供給する。動画像合成部132は、当該表示用画像データを再生中の動画像に合成する(S52)。合成で得られた画像が、タッチパネル114の動画像表示部114bに表示される。このようにすることで、ユーザはリアルタイムに再生中の動画像に対して文字列のエフェクトを確認でき、再度、再生して確認するという操作が不要になる。
The presence or absence of user input to the touch
挿入情報生成部134は、ステップS50で得られた座標、動画像のシーン番号、再生時間(フレーム)、選択された文字列を示す表示用データ、及びエフェクトを示す表示用データを相互に関連付けて内蔵RAMに一時的に保存する(S53)。ステップS49に戻り、タッチパネル入力部114aへのユーザ入力の有無を判定する。
The insertion
タッチパネル入力部114aへのユーザ入力が検出されない場合(S49)、タッチパネル入力部114aへの位置入力が終了していることになるので、タッチパネル114での文字列の表示を終了する(S54)。エフェクト処理を実行中であれば、エフェクト処理を終了してから文字列の表示を消す。すなわち、エフェクト処理の途中で文字列が消えてしまうことはない。このようにすることで、ユーザは、リアルタイムに再生中の動画像に対して文字列の挿入効果を確認できる。
When the user input to the touch
タッチパネル入力部114aは、ユーザが入力した最後の位置、すなわち入力終了位置を座標検出部136に送り、座標検出部136が座標に変換する(S55)。挿入情報生成部134が、入力終了位置の座標、動画像のシーン番号、再生時間(フレーム)、選択された文字列及びエフェクトと、ステップS53でRAMに一時保存したデータとを含めて管理情報を生成する(S56)。挿入情報生成部134により生成された管理情報が、挿入情報記憶部122に格納され(S57)、表示用データ挿入処理を終了する。
The touch
図17は、タッチパネル入力部114aへの入力操作とエフェクトの関係例を示す。入力後の指の動きに応じてそれぞれエフェクトが決定される。複数のエフェクトが同時に行われることはなく、指の動きによってより近いエフェクト処理が選択される。図18は、図17に示す例における各エフェクトの表示の変化例を示す。
FIG. 17 shows a relationship example between the input operation to the touch
1点入力の場合、文字列は表示されない。 In the case of one-point input, the character string is not displayed.
2点入力で2点間の距離が設定閾値より小さい場合、文字列は表示されない。その状態で指を開くような動きをした場合、何も表示されていない状態から幕が開くような動きで文字列が表示される。図17に示す例では、指が左右に移動しているが、上下でも斜めでも構わない。指の移動する方向に対して文字列の表示が制御される。2点が回転するような動きをした場合、何も表示されていない状態から回転するような形で文字列が表示される。回転の向きは、指の移動する方向により決定される。図17に示す例では、右回りの回転を行う。 If the distance between the two points is smaller than the set threshold with two points input, the character string is not displayed. If the finger moves in such a state, the character string is displayed in such a manner that the curtain opens from a state where nothing is displayed. In the example shown in FIG. 17, the finger moves left and right, but it may be up and down or diagonal. The display of the character string is controlled in the direction in which the finger moves. When the movement is such that the two points rotate, the character string is displayed in such a manner as to rotate from a state where nothing is displayed. The direction of rotation is determined by the direction in which the finger moves. In the example shown in FIG. 17, clockwise rotation is performed.
2点入力で、2点間の距離が設定閾値より大きい場合、文字列は、2点間の中間に文字列の中心が位置するように表示される。この状態で2点を同じ方向に動かした場合、表示されている文字列も、指を動かした方向に移動する。図17に示す例では、左に移動しているが、どの方向にも移動可能である。この状態で2点間の距離を小さくするように指を動かした場合、幕が閉じるような動きで文字列が消える。図17に示す例では、左右に移動しているが、どの方向にも移動可能である。指の移動する方向に対して文字列の表示が制御される。 If the distance between the two points is greater than the set threshold when the two points are input, the character string is displayed so that the center of the character string is located in the middle between the two points. When two points are moved in the same direction in this state, the displayed character string also moves in the direction in which the finger is moved. In the example shown in FIG. 17, it moves to the left, but it can move in any direction. In this state, if the finger is moved so as to reduce the distance between the two points, the character string disappears with a movement that closes the curtain. In the example shown in FIG. 17, it moves to the left and right, but it can move in any direction. The display of the character string is controlled in the direction in which the finger moves.
また、2点が回転するような動きをした場合、表示されている文字列が回転する。回転の向きは、指の移動する方向により指定される。図17に示す例では、右回りの回転を行う。2点間の距離を広げる動きをした場合、文字列が表示される。幕が閉じるように文字列の表示を制御する。文字列が消えている時にこの操作を行った場合には、消え始めた文字列を再度、幕が開くような形で表示する。図17に示す例では、左右に移動しているが、どの方向にも移動可能であり、指の移動する方向に対して文字列の表示が制御される。 In addition, when the movement is such that the two points rotate, the displayed character string rotates. The direction of rotation is specified by the direction in which the finger moves. In the example shown in FIG. 17, clockwise rotation is performed. When moving to increase the distance between two points, a character string is displayed. Controls the display of the character string so that the curtain closes. If this operation is performed when the character string has disappeared, the character string that has begun to disappear is displayed again so that the curtain opens. In the example shown in FIG. 17, it moves left and right, but it can move in any direction, and the display of the character string is controlled in the direction in which the finger moves.
3点以上の入力があった場合、文字列は表示されない。また、入力点が1点から2点になり、且つ、その2点間の距離が小さい場合にも、文字列は表示されない。 If there are three or more inputs, the character string is not displayed. Also, the character string is not displayed when the number of input points is 1 to 2 and the distance between the two points is small.
入力点が1点から2点になり、且つ、その2点間の距離が大きい場合、先に入力されていた点から後に入力された点の方向に文字列が移動する。図17に示す例では、右から左に移動しているが、どの方向にも移動可能であり、時間的に前後する2つの入力点間の方向に対して文字列の表示が制御される。 When the number of input points changes from one point to two points and the distance between the two points is large, the character string moves in the direction from the point input earlier to the point input later. In the example shown in FIG. 17, it moves from right to left, but it can move in any direction, and the display of the character string is controlled in the direction between two input points that move back and forth in time.
入力点が2点から1点になり、かつ、1点になる前の2点間の距離が小さい場合、文字列は表示されない。入力点が2点から1点になり、1点になる前の2点間の距離が大きい場合、入力点に対して文字列が移動する。図17に示す例では、左から右に移動しているが、どの方向にも移動可能であり、入力点の変化方向に対して文字列の表示が制御される。 When the number of input points is changed from two to one and the distance between the two points before becoming one point is small, the character string is not displayed. When the number of input points changes from two to one and the distance between the two points before the point is large, the character string moves with respect to the input point. In the example shown in FIG. 17, the movement is from left to right, but the movement is possible in any direction, and the display of the character string is controlled with respect to the changing direction of the input point.
図19は2つの指による入力操作例を示す。親指と人差し指を矢印で示す軌跡170のように近づける。先に説明したように、このような操作の場合、表示されていた文字列が、幕が閉じるような動きで消えるエフェクトが選択されたことになる。
FIG. 19 shows an example of an input operation with two fingers. The thumb and index finger are brought close to each other as shown by a
図20は、文字列の入力が終了した文字列挿入終了画面の例を示している。図19に示すように、動画像の1シーン目の10秒に入力が開始され、矢印で示す軌跡170で13秒に入力が終了し、図20に示す画面になる。
FIG. 20 shows an example of a character string insertion end screen after the input of the character string is completed. As shown in FIG. 19, the input is started at 10 seconds of the first scene of the moving image, and the input is completed at 13 seconds on the
図21は、入力開始位置から入力終了位置までの軌跡170に沿って表示される文字列の表示内容の変化を示す。2つの入力点間の距離が徐々に近くなっていくことで、文字列が消えていくエフェクトが付加される。位置が入力されている間、動画像のシーン番号、再生時間(フレーム)、文字列及びエフェクトが互いに関連付けて内蔵RAMなどに一時的に記憶され、入力が終了すると管理情報として挿入情報記憶部122に記憶される。
FIG. 21 shows a change in the display content of the character string displayed along the
図22は、挿入情報記憶部122に記憶される管理情報の構成と内容の一例を示す。管理情報は、動画像のシーン番号、文字列情報、エフェクト情報、再生時間情報及び位置情報からなる。文字列情報に収用される文字列番号は、図9に示すような文字列管理テーブルで文字列データが関連付けられる。同様に、エフェクト情報に収用されるエフェクオ番号は、図23に示すようなエフェクト管理テーブルによりエフェクト処理内容と関連付けられる。表示用データ記憶部116は、このような文字列管理テーブルおよびエフェクト管理データルを記憶する。
FIG. 22 shows an example of the configuration and contents of management information stored in the insertion
再生時間情報は、動画像の再生時間を時間、分、秒およびフレーム単位で記憶される。位置情報は、ユーザによって入力された位置を座標検出部136により変換された座標として記憶する。管理情報に関する以上の説明はあくまでも一例であり、選択された表示用データ、入力位置情報、再生時の動画像情報およびエフェクト情報が互いに関連付けられていればよい。
The reproduction time information stores the reproduction time of the moving image in units of hours, minutes, seconds and frames. The position information stores the position input by the user as coordinates converted by the coordinate
この管理情報を使用し、動画像再生時に文字列を指定のエフェクトで動画像に合成して動画像制御部128により圧縮(エンコード)することで、文字列の効果を付加した動画像を作成できる。この動作の詳細は、以下に説明する。
Using this management information, when a moving image is played back, a character string is combined with the moving image with a specified effect and compressed (encoded) by the moving
挿入情報解析部139は、入力制御部126からの指示に従い挿入情報記憶部122から表示用データ挿入情報を読み出す。挿入情報解析部139はさらに、読み出した挿入情報を解析し、解析結果を表示用データ読出し部124に送る。
The insertion
動画像制御部128は、入力制御部126から動画像読出し要求を受け取ると、挿入情報解析部139に指示して挿入情報記憶部122から挿入情報解析部139に表示用データを読み出させる。
When the moving
表示用データ読出し部124は、挿入情報解析部139の解析結果により表示用データとエフェクト情報を表示用データ記憶部116から読み出し、読み出した表示用データおよびエフェクト情報を表示用データ制御部130に送る。表示用データ読出し部124はまた、表示用データ挿入情報に含まれる他の情報群を表示用データ制御部130に送り、表示用データ制御部130はそれらの情報を使い、表示用データ画像を作成する。
The display
ユーザにより所望の位置に文字列が挿入された後の再生処理を図24のフローチャートを参照して説明する。ここでは、表示用データは文字列であり、ユーザは動画像1シーン目の10秒から13秒の間に「到着しました!」という文字列を先に説明した方法で指定した位置に指定したエフェクトを付加して挿入する場合を例に説明する。 A reproduction process after a character string is inserted at a desired position by the user will be described with reference to a flowchart of FIG. Here, the display data is a character string, and the user specified the character string “Arrive!” At the position specified by the method described above between 10 seconds and 13 seconds in the first scene of the moving image. A case where an effect is added and inserted will be described as an example.
図24に示す処理は、動画像を再生できる状態でユーザからの所定の操作によってスタートする。ユーザの入力した指示により、動画像の再生要求を入力制御部126が受ける(S61)。入力制御部126が受けた指示により挿入情報解析部139が挿入情報記憶部122から表示用データ挿入情報(管理情報)を読み出す(S62)。
The process shown in FIG. 24 is started by a predetermined operation from the user in a state where a moving image can be reproduced. In response to an instruction input by the user, the
挿入情報解析部139は、挿入情報記憶部122から読み出した表示用データ挿入情報(管理情報)を解析する(S63)。表示用データ挿入情報を解析することで、動画像のシーン番号、文字列情報、再生時間情報、位置情報およびエフェクト情報を取得でき、取得した情報はRAMに一時的に記憶される。管理情報が存在しなかった場合、挿入情報解析部139が管理情報なしと判断する。
The insertion
RAMに記憶されている管理情報の解析結果と、再生される動画像のシーン番号および再生時間が一致しているかどうかを判定する(S64)。一致しない場合(S64)、動画像記憶部120から読み出された動画像を再生表示する(S65)。このとき、管理情報が一致していないので、動画像合成部132は表示用画像データとの合成を行わない。
It is determined whether the analysis result of the management information stored in the RAM matches the scene number and playback time of the moving image to be played back (S64). If they do not match (S64), the moving image read from the moving
一致する場合(S64)、挿入情報解析部139は、管理情報の解析結果を表示用データ読出し部124、座標検出部136及び動画像合成部132に伝える(S66)。挿入情報解析部139による管理情報の解析結果を元に、表示用データ読出し部124、座標検出部136およびエフェクト決定部137が、エフェクトを付加した文字列画像データを生成する(S67)。ステップS67で生成された文字列画像データと動画像合成部132が受けた管理情報の解析結果を元に、文字列画像データと動画像を合成する(S68)。ステップS68で合成された動画像を表示制御部138に送る(S69)。表示制御部138に送られた動画像は、タッチパネル114の動画像表示部114bに表示される。
When they match (S64), the insertion
図25は、ステップS69で合成された動画像を再生している合成動画像再生画面の一例を示す。ユーザがタッチパネル114上のタッチパネル入力部114aに入力操作したときに生成された管理情報を解析することで、ユーザの希望する場面でユーザに選択された文字列を、指定のエフェクト付きで動画像と合成表示できる。
FIG. 25 shows an example of a combined video playback screen that plays back the video combined in step S69. By analyzing the management information generated when the user performs an input operation on the touch
ステップS65又はS69の後、ユーザによる入力部118からの再生終了要求があったかどうか、又は、動画像の最終位置になったかどうかを判定する(S70)。どちらかの条件に合致した場合(S70)、表示用データ挿入後の再生処理を終了する。どちらの条件にも合致しない場合(S70)、ステップS64に戻る。
After step S65 or S69, it is determined whether or not there is a reproduction end request from the
図12を参照して説明したように、画面確認ボタン80を有する文字列取消し画面を使用することで、上述した方法で挿入した文字列を削除又は取り消すことができる。挿入した文字列を取り消した場合、挿入情報記憶部122に記憶される関連する管理情報も、取消し後の内容に合致するように、挿入情報生成部134により更新される。
As described with reference to FIG. 12, the character string inserted by the above-described method can be deleted or canceled by using the character string cancel screen having the
動画像記憶部20,120に記憶される動画像に指定の表示用データを合成する実施例を説明した。しかし、本発明は、カメラにおいて、撮像部による撮影中、即ち記録中の動画像にリアルタイムで指定の表示用データを合成する場合にも適用可能であることは明らかである。
The embodiment in which the designated display data is synthesized with the moving images stored in the moving
以上の説明はあくまでも一例であり、本発明は、上述の実施例に何ら限定されるものではない。 The above description is merely an example, and the present invention is not limited to the above-described embodiment.
10‥‥再生装置
12‥‥システム制御部
14a‥‥タッチパネル入力部
14b‥‥動画像表示部
16‥‥表示用データ記憶部
20‥‥動画像記憶部
22‥‥挿入情報記憶部
24‥‥表示用データ読出し部
30‥‥表示用データ制御部
32‥‥動画像合成部
34‥‥挿入情報生成部
36‥‥座標検出部
39‥‥挿入情報解析部
DESCRIPTION OF
Claims (12)
動画を再生して前記表示手段に表示するように制御する表示制御手段と、
前記表示制御手段で動画を再生表示している際に前記タッチ検出手段で検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御手段
とを有し、
前記制御手段は、2点でのタッチ操作を検出した場合に2つの入力点間の距離が開くように移動することに応じて、前記表示用データが表示されていない状態から、該2つの入力点間の距離が開く方向に前記表示用データが開くような効果を付して該表示用データが現れるように、かつ、該2つの入力点間の距離が開くように移動しても該表示用データに含まれる要素のサイズを変倍することなく、前記動画に該表示用データを合成するように制御する
ことを特徴とする画像処理装置。 Touch detection means capable of detecting touch operations at a plurality of points on the display means;
Display control means for controlling to reproduce and display a moving image on the display means;
In response to a touch operation at a plurality of points detected by the touch detection unit while the moving image is reproduced and displayed by the display control unit, each input point of the touch operation at the plurality of points is applied to the video. Control means for controlling to synthesize display data with an effect according to the positional relationship,
When the control means detects a touch operation at two points, the control means moves the two input points from a state in which the display data is not displayed in response to movement so that the distance between the two input points is increased. Even if the display data appears so that the display data appears in the direction in which the distance between the points opens , and the distance between the two input points opens, the display An image processing apparatus that controls to combine the display data with the moving image without scaling the size of the elements included in the data .
動画を再生して前記表示手段に表示するように制御する表示制御手段と、
前記表示制御手段で動画を再生表示している際に前記タッチ検出手段で検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御手段と
を有し、
前記制御手段は、2点でのタッチ操作を検出した場合に2つの入力点間の距離が小さくなるように移動することに応じて、前記表示用データが表示された状態から、該表示用データに含まれる要素のサイズを変倍することなく、前記表示用データが閉じるような効果を付して該表示用データを合成し、その後、該表示用データを消すように制御する
ことを特徴とする画像処理装置。 Touch detection means capable of detecting touch operations at a plurality of points on the display means;
Display control means for controlling to reproduce and display a moving image on the display means;
In response to a touch operation at a plurality of points detected by the touch detection unit while the moving image is reproduced and displayed by the display control unit, each input point of the touch operation at the plurality of points is applied to the video. Control means for controlling to synthesize display data with an effect according to the positional relationship,
When the control means detects a touch operation at two points, the control means moves the display data from a state in which the display data is displayed in response to movement so that the distance between the two input points becomes small. The display data is synthesized with the effect of closing the display data without changing the size of the elements included in the display, and then the display data is controlled to be erased. An image processing apparatus.
動画を再生して前記表示手段に表示するように制御する表示制御ステップと、
前記表示制御ステップで動画を再生表示している際に前記タッチ検出ステップで検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御ステップ
とを有し、
前記制御ステップは、2点でのタッチ操作を検出した場合に2つの入力点間の距離が開くように移動することに応じて、前記表示用データが表示されていない状態から、該2つの入力点間の距離が開く方向に前記表示用データが開くような効果を付して該表示用データが現れるように、かつ、該2つの入力点間の距離が開くように移動しても該表示用データに含まれる要素のサイズを変倍することなく、前記動画に該表示用データを合成するように制御する
ことを特徴とする画像処理装置の制御方法。 A touch detection step capable of detecting touch operations at a plurality of points on the display means;
A display control step for controlling to reproduce and display a moving image on the display means;
In response to the touch operation at a plurality of points detected in the touch detection step when the moving image is reproduced and displayed in the display control step, each input point of the touch operation at the plurality of points is applied to the video. A control step for controlling to synthesize display data with an effect according to the positional relationship,
In the control step, when the touch operation at two points is detected, the two input points are displayed from the state where the display data is not displayed in response to the movement so that the distance between the two input points is increased. Even if the display data appears so that the display data appears in the direction in which the distance between the points opens , and the distance between the two input points opens, the display A control method for an image processing apparatus, wherein control is performed so as to synthesize the display data with the moving image without scaling the size of elements included in the data .
動画を再生して前記表示手段に表示するように制御する表示制御ステップと、
前記表示制御ステップで動画を再生表示している際に前記タッチ検出ステップで検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御ステップ
とを有し、
前記制御ステップは、2点でのタッチ操作を検出した場合に2つの入力点間の距離が小さくなるように移動することに応じて、前記表示用データが表示された状態から、該表示用データに含まれる要素のサイズを変倍することなく、前記表示用データが閉じるような効果を付して該表示用データを合成し、その後、該表示用データを消すように制御する
ことを特徴とする画像処理装置の制御方法。 A touch detection step capable of detecting touch operations at a plurality of points on the display means;
A display control step for controlling to reproduce and display a moving image on the display means;
In response to the touch operation at a plurality of points detected in the touch detection step when the moving image is reproduced and displayed in the display control step, each input point of the touch operation at the plurality of points is applied to the video. A control step for controlling to synthesize display data with an effect according to the positional relationship,
In the control step, when the touch operation at two points is detected, the display data is displayed from the state where the display data is displayed in response to the movement so that the distance between the two input points is reduced. The display data is synthesized with the effect of closing the display data without changing the size of the elements included in the display, and then the display data is controlled to be erased. For controlling an image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009066897A JP5550247B2 (en) | 2009-03-18 | 2009-03-18 | Image processing apparatus, control method and program thereof, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009066897A JP5550247B2 (en) | 2009-03-18 | 2009-03-18 | Image processing apparatus, control method and program thereof, and storage medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010220095A JP2010220095A (en) | 2010-09-30 |
JP2010220095A5 JP2010220095A5 (en) | 2012-05-10 |
JP5550247B2 true JP5550247B2 (en) | 2014-07-16 |
Family
ID=42978414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009066897A Expired - Fee Related JP5550247B2 (en) | 2009-03-18 | 2009-03-18 | Image processing apparatus, control method and program thereof, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5550247B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5594117B2 (en) * | 2010-12-16 | 2014-09-24 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129312A (en) * | 1993-11-05 | 1995-05-19 | Oki Electric Ind Co Ltd | Picture processor |
JP2000278635A (en) * | 1999-03-26 | 2000-10-06 | Tokyo Electric Power Co Inc:The | Device for generating and editing explanation source, device for presenting explanation source and explanation aid system |
JP4178679B2 (en) * | 1999-08-27 | 2008-11-12 | ソニー株式会社 | Recording / reproducing apparatus and image display method |
JP2001197366A (en) * | 2000-01-12 | 2001-07-19 | Hitachi Ltd | Picture synthesis method and recording medium recording picture synthesis program |
JP4803883B2 (en) * | 2000-01-31 | 2011-10-26 | キヤノン株式会社 | Position information processing apparatus and method and program thereof. |
JP4903371B2 (en) * | 2004-07-29 | 2012-03-28 | 任天堂株式会社 | Game device and game program using touch panel |
JP4200960B2 (en) * | 2004-10-01 | 2008-12-24 | ソニー株式会社 | Editing apparatus, editing method, and program |
WO2008111114A1 (en) * | 2007-03-09 | 2008-09-18 | Pioneer Corporation | Av editor, av processor, and program |
-
2009
- 2009-03-18 JP JP2009066897A patent/JP5550247B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010220095A (en) | 2010-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5963204A (en) | Electronic camera with reproduction and display of images at the same timing | |
US8004594B2 (en) | Apparatus, method, and program for controlling display of moving and still images | |
JP5524653B2 (en) | Display control apparatus and control method thereof | |
JP2010288015A (en) | Information processing device, information processing method, and information processing program | |
KR20210082232A (en) | Real-time video special effects systems and methods | |
JP5701017B2 (en) | Movie playback apparatus, movie playback method, computer program, and storage medium | |
JP5528008B2 (en) | Playback apparatus and playback method | |
KR20070092419A (en) | Thumbnail recording method for providing information of video data and terminal using the same | |
JP2003009044A (en) | Method and device for recording and reproducing | |
JP2016119600A (en) | Editing device and editing method | |
KR101323331B1 (en) | Method and apparatus of reproducing discontinuous AV data | |
US8750685B2 (en) | Image processing apparatus | |
JPWO2020170604A1 (en) | Information processing equipment, information processing methods, programs | |
CN116457067A (en) | Rendering and editing recent content in a window during execution of a content application | |
JP5764005B2 (en) | Playback apparatus and playback method | |
US6577805B1 (en) | Picture recording and reproducing apparatus and method | |
JP5550247B2 (en) | Image processing apparatus, control method and program thereof, and storage medium | |
JP5077979B2 (en) | Display control apparatus, display control method, and program | |
JP4767900B2 (en) | Image reproducing apparatus, image reproducing program, recording medium, and image reproducing method | |
JP4330968B2 (en) | REPRODUCTION DEVICE, RECORDING DEVICE, REPRODUCTION PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE REPRODUCTION PROGRAM | |
JPH10108123A (en) | Image reproduction device | |
JP2012191544A (en) | Reproduction apparatus, imaging apparatus, and moving image reproduction program | |
JP5493362B2 (en) | Movie playback apparatus and program | |
JP4698961B2 (en) | Electronic camera and electronic camera control program | |
JP2008283708A (en) | Playback apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120314 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130319 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140107 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140422 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140520 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5550247 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |
|
LAPS | Cancellation because of no payment of annual fees |