Nothing Special   »   [go: up one dir, main page]

JP5550247B2 - Image processing apparatus, control method and program thereof, and storage medium - Google Patents

Image processing apparatus, control method and program thereof, and storage medium Download PDF

Info

Publication number
JP5550247B2
JP5550247B2 JP2009066897A JP2009066897A JP5550247B2 JP 5550247 B2 JP5550247 B2 JP 5550247B2 JP 2009066897 A JP2009066897 A JP 2009066897A JP 2009066897 A JP2009066897 A JP 2009066897A JP 5550247 B2 JP5550247 B2 JP 5550247B2
Authority
JP
Japan
Prior art keywords
display
display data
points
moving image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009066897A
Other languages
Japanese (ja)
Other versions
JP2010220095A (en
JP2010220095A5 (en
Inventor
俊雄 蓑島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009066897A priority Critical patent/JP5550247B2/en
Publication of JP2010220095A publication Critical patent/JP2010220095A/en
Publication of JP2010220095A5 publication Critical patent/JP2010220095A5/en
Application granted granted Critical
Publication of JP5550247B2 publication Critical patent/JP5550247B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、動画像に文字列等の表示用データを挿入又は合成する画像処理装置、その制御方法及びプログラム並びに記憶媒体に関する。 The present invention relates to an image processing apparatus for inserting or synthesizing display data such as a character string into a moving image, a control method and program thereof, and a storage medium .

特開2006−108943号公報JP 2006-108943 A 特開平7−322140号公報JP 7-322140 A

従来、パーソナルコンピュータに搭載されている動画像編集用アプリケーションソフトウエアでは、動画像に対して効果的な文字やアイコンなどの表示用データを挿入したり、表示用データに所望のエフェクト効果を付与することができる。これにより、動画像の面白さをより一層高めることができる。   Conventionally, moving image editing application software installed in a personal computer inserts display data such as characters and icons that are effective for moving images, or gives a desired effect to display data. be able to. Thereby, the interestingness of a moving image can be improved further.

ビデオカメラの普及により、一般のユーザも動画像を撮影する機会が増えてきており、動画像に対して表示用データを簡単に挿入する機能やエフェクトを付与する機能が望まれている。   Due to the widespread use of video cameras, general users are increasingly taking pictures of moving images, and a function for easily inserting display data into a moving image and a function for providing an effect are desired.

動画像の再生中に、ユーザに指定された位置を動画像の仮想座標に変換し、その座標を記憶することで動画像を確認しながら簡単にエフェクトを付加できる編集装置が知られている(特許文献1)。また、文字に対して複数のエフェクトの一つを選択可能にした技術も知られている(特許文献2)。   An editing apparatus is known that can easily add an effect while confirming a moving image by converting a position specified by a user into a virtual coordinate of the moving image and storing the coordinate during reproduction of the moving image ( Patent Document 1). There is also known a technique that enables one of a plurality of effects to be selected for a character (Patent Document 2).

従来の技術では、画像に挿入した文字列や付与したエフェクトの効果をリアルタイムに確認できないという問題点がある。 In the prior art, there is a problem that can not see the effect of string or grant the effect was inserted into the moving image in real time.

本発明は、このような問題を解決する画像処理装置、その制御方法及びプログラム並びに記憶媒体を提示することを目的とする。 An object of the present invention is to present an image processing apparatus , a control method and program for solving such a problem, and a storage medium .

発明に係る画像処理装置は、表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出手段と、動画を再生して前記表示手段に表示するように制御する表示制御手段と、前記表示制御手段で動画を再生表示している際に前記タッチ検出手段で検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御手段とを有し、前記制御手段は、2点でのタッチ操作を検出した場合に2つの入力点間の距離が開くように移動することに応じて、前記表示用データが表示されていない状態から、該2つの入力点間の距離が開く方向に前記表示用データが開くような効果を付して該表示用データが現れるように、かつ、該2つの入力点間の距離が開くように移動しても該表示用データに含まれる要素のサイズを変倍することなく、前記動画に該表示用データを合成するように制御することを特徴とする。
発明に係る画像処理装置は、表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出手段と、動画を再生して前記表示手段に表示するように制御する表示制御手段と、前記表示制御手段で動画を再生表示している際に前記タッチ検出手段で検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御手段とを有し、前記制御手段は、2点でのタッチ操作を検出した場合に2つの入力点間の距離が小さくなるように移動することに応じて、前記表示用データが表示された状態から、該表示用データに含まれる要素のサイズを変倍することなく、前記表示用データが閉じるような効果を付して該表示用データを合成し、その後、該表示用データを消すように制御することを特徴とする。
発明に係る画像処理装置の制御方法は、表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出ステップと、動画を再生して前記表示手段に表示するように制御する表示制御ステップと、前記表示制御ステップで動画を再生表示している際に前記タッチ検出ステップで検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御ステップとを有し、前記制御ステップは、2点でのタッチ操作を検出した場合に2つの入力点間の距離が開くように移動することに応じて、前記表示用データが表示されていない状態から、該2つの入力点間の距離が開く方向に前記表示用データが開くような効果を付して該表示用データが現れるように、かつ、該2つの入力点間の距離が開くように移動しても該表示用データに含まれる要素のサイズを変倍することなく、前記動画に該表示用データを合成するように制御することを特徴とする。
発明に係る画像処理装置の制御方法は、表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出ステップと、動画を再生して前記表示手段に表示するように制御する表示制御ステップと、前記表示制御ステップで動画を再生表示している際に前記タッチ検出ステップで検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御ステップとを有し、前記制御ステップは、2点でのタッチ操作を検出した場合に2つの入力点間の距離が小さくなるように移動することに応じて、前記表示用データが表示された状態から、該表示用データに含まれる要素のサイズを変倍することなく、前記表示用データが閉じるような効果を付して該表示用データを合成し、その後、該表示用データを消すように制御することを特徴とする。
An image processing apparatus according to the present invention includes a touch detection unit capable of detecting touch operations at a plurality of points on a display unit, a display control unit that controls to reproduce a moving image and display the moving image on the display unit, and the display control In response to a touch operation at a plurality of points detected by the touch detection means when the moving image is reproduced and displayed by the means, the positional relationship between the input points of the touch operation at the plurality of points is set with respect to the video. And a control unit that controls the display data to be combined with the corresponding effect, and the control unit opens a distance between the two input points when a touch operation at two points is detected. The display data is added with the effect that the display data is opened in the direction in which the distance between the two input points is increased from the state in which the display data is not displayed. And the two Without even moving to open the distance between the points to scale the size of the elements included in the display data, and controls so as to synthesize the display data in the video.
An image processing apparatus according to the present invention includes a touch detection unit capable of detecting touch operations at a plurality of points on a display unit, a display control unit that controls to reproduce a moving image and display the moving image on the display unit, and the display control In response to a touch operation at a plurality of points detected by the touch detection means when the moving image is reproduced and displayed by the means, the positional relationship of each input point of the touch operation at the plurality of points is set with respect to the moving image. And a control means for controlling the display data to be synthesized with a corresponding effect, and the control means reduces the distance between the two input points when a touch operation at two points is detected. The display data is closed from the state where the display data is displayed without changing the size of the elements included in the display data. It synthesizes the display data Thereafter, and controlling so as to delete the display data.
The control method of the image processing apparatus according to the present invention includes a touch detection step capable of detecting a touch operation at a plurality of points on the display means, a display control step for controlling to reproduce and display a moving image on the display means, In response to the touch operation at a plurality of points detected in the touch detection step when the moving image is reproduced and displayed in the display control step, each input point of the touch operation at the plurality of points is applied to the video. A control step for controlling the display data to be combined with an effect corresponding to the positional relationship, and the control step is a distance between two input points when a touch operation at two points is detected. in response to moving to open, from said state where the display data is not displayed, the display denoted by the effects such as the display data in the direction in which distance is opened between the two input points is opened Day for As appears, and without even moving such that the distance between the two input points opens to scale the size of the elements included in the display data, synthesizes the display data on the moving It is characterized by controlling as follows.
The control method of the image processing apparatus according to the present invention includes a touch detection step capable of detecting a touch operation at a plurality of points on the display means, a display control step for controlling to reproduce and display a moving image on the display means, In response to the touch operation at a plurality of points detected in the touch detection step when the moving image is reproduced and displayed in the display control step, each input point of the touch operation at the plurality of points is applied to the video. A control step for controlling the display data to be combined with an effect corresponding to the positional relationship, and the control step is a distance between two input points when a touch operation at two points is detected. in response to the moves to be smaller, a state where the display data is displayed without scaling the size of the elements included in the display data, such as the display data is closed You are given the results by combining the data for the display, then and controls to turn off the display data.

本発明によれば、再生中の動画像に対してユーザがタッチパネルに行ったタッチ操作に応じた効果で表示用データを挿入し、動画像と合成することが可能となる。 According to the present invention, it is possible to insert display data with an effect corresponding to a touch operation performed on a touch panel by a user with respect to a moving image that is being reproduced, and synthesize it with the moving image.

本発明の一実施例の概略構成ブロック図を示す。1 shows a schematic block diagram of an embodiment of the present invention. 本実施例の表示用データ挿入処理のフローチャートを示す。The flowchart of the display data insertion process of a present Example is shown. 表示用データの一覧表示画面例を示す。An example of a list display screen of display data is shown. 動画像再生画面例を示す。An example of a moving image playback screen is shown. 文字列挿入開始画面例を示す。An example of a character string insertion start screen is shown. 文字列挿入了画面例を示す。Indicating the character string inserted exit screen example. 入力開始位置から入力終了位置までの軌跡例を示す。The example of a locus | trajectory from an input start position to an input end position is shown. 管理情報の構成と内容の一例を示す。An example of the configuration and contents of management information is shown. 文字列情報の記憶と管理の例である。It is an example of storage and management of character string information. 文字列挿入操作後の再生処理のフローチャートを示す。The flowchart of the reproduction | regeneration processing after character string insertion operation is shown. 文字列を合成した動画像の再生画面例を示す。The example of the reproduction | regeneration screen of the moving image which synthesize | combined the character string is shown. 文字列取り消し画面例である。It is an example of a character string cancellation screen. 本発明の第2実施例の概略構成ブロック図を示す。The schematic block diagram of 2nd Example of this invention is shown. 図13に示す実施例の表示用データ挿入処理のフローチャートを示す。14 is a flowchart of display data insertion processing of the embodiment shown in FIG. 座標検出部の出力座標値と文字列の表示・非表示との関係例を示す。The example of a relationship between the output coordinate value of a coordinate detection part and the display / non-display of a character string is shown. 2点入力により文字列(「到着しました!」)を動画像上に合成表示している画面例を示す。An example of a screen in which a character string (“Arrived!”) Is synthesized and displayed on a moving image by inputting two points is shown. タッチパネル入力部への入力操作とエフェクト効果の関係例を示す。An example of the relationship between the input operation to the touch panel input unit and the effect is shown. 各エフェクト効果の表示の変化例を示す。The example of a change of the display of each effect effect is shown. 2つの指による入力操作例を示す。An example of an input operation with two fingers is shown. 文字列の入力が終了した文字列挿入終了画面の例を示す。The example of the character string insertion end screen after the input of the character string is shown. 入力開始位置から入力終了位置までの軌跡に沿って表示される文字列の表示内容の変化を示す。The change of the display content of the character string displayed along the locus | trajectory from an input start position to an input end position is shown. 挿入情報記憶部に記憶される管理情報の構成と内容の一例を示す。An example of a structure and content of the management information memorize | stored in an insertion information storage part is shown. エフェクト管理テーブルの構成と内容の例を示す。An example of the structure and contents of an effect management table is shown. ユーザにより所望の位置に文字列が挿入された後の再生処理のフローチャートを示す。The flowchart of the reproduction | regeneration processing after a character string is inserted in the desired position by the user is shown. 図2に示すフローで合成された動画像を再生している合成動画像再生画面の一例を示す。FIG. 3 shows an example of a synthesized moving image reproduction screen that reproduces a synthesized moving image in the flow shown in FIG. 2.

以下、図面を参照して、本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る画像処理装置の一実施例を組み込んだ画像再生装置の概略構成ブロック図を示す。再生装置10は、システム制御部12、タッチパネル14、表示用データ記憶部16、入力部18、動画像記憶部20および挿入情報記憶部22を具備する。システム制御部12は、マイクロコンピュータからなる。   FIG. 1 shows a schematic block diagram of an image reproducing apparatus incorporating an embodiment of an image processing apparatus according to the present invention. The playback apparatus 10 includes a system control unit 12, a touch panel 14, a display data storage unit 16, an input unit 18, a moving image storage unit 20, and an insertion information storage unit 22. The system control unit 12 is composed of a microcomputer.

システム制御部12は、CPU(Central Proccessing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)を有するマイクロコンピュータからなる。CPUは、RAMを作業エリアとしてROMに格納された制御プログラムを実行して各種制御を行う。   The system control unit 12 includes a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The CPU executes various kinds of control by executing a control program stored in the ROM using the RAM as a work area.

入力部18は、ジョグダイヤルおよびダイヤルスイッチ等の操作手段を有する。ユーザは、入力部18を介して、種々の指示をシステム制御部12に入力できる。入力制御部26は、入力部18の入力操作を適切な処理制御部に伝達する。入力制御部26から動画像制御部28に選択指示を送ることで、動画像記憶部20から所望の動画像を選択できる。同様に、入力制御部26から表示用データ読出し部24に選択指示を送ることで表示用データ記憶部16から所望の表示用データを選択できる。   The input unit 18 has operation means such as a jog dial and a dial switch. The user can input various instructions to the system control unit 12 via the input unit 18. The input control unit 26 transmits the input operation of the input unit 18 to an appropriate processing control unit. By sending a selection instruction from the input control unit 26 to the moving image control unit 28, a desired moving image can be selected from the moving image storage unit 20. Similarly, desired display data can be selected from the display data storage unit 16 by sending a selection instruction from the input control unit 26 to the display data reading unit 24.

表示用データ読出し部24は、入力制御部26により指示される表示用データを表示用データ記憶部16から読み出し、読み出した表示用データを表示用データ制御部30に送る。表示用データ記憶部16は、複数の表示用データを格納可能である。表示用データは、一般に、文字または文字列、アイコン、イメージデータ、若しくはこれらの組み合わせからなる。   The display data reading unit 24 reads the display data specified by the input control unit 26 from the display data storage unit 16 and sends the read display data to the display data control unit 30. The display data storage unit 16 can store a plurality of display data. The display data generally consists of characters or character strings, icons, image data, or combinations thereof.

動画像記憶部20は、MPEG2(Moving Picture Experts Group)等の動画像圧縮形式に基づいて圧縮された動画像データを記憶する。動画像制御部28は、入力制御部26により指示された圧縮動画像データを動画像記憶部20から読み出して伸長し、伸長により復元された動画像データを動画像合成部32に供給する。動画像制御部28はまた、動画像合成部32からの動画像データを圧縮(エンコード)し、圧縮動画像データを動画像記憶部20に書き込む。   The moving image storage unit 20 stores moving image data compressed based on a moving image compression format such as MPEG2 (Moving Picture Experts Group). The moving image control unit 28 reads the compressed moving image data instructed by the input control unit 26 from the moving image storage unit 20 and expands it, and supplies the moving image data restored by the expansion to the moving image combining unit 32. The moving image control unit 28 also compresses (encodes) the moving image data from the moving image combining unit 32 and writes the compressed moving image data into the moving image storage unit 20.

タッチパネル14のタッチパネル入力部14aは、入力された操作位置に応じた信号を座標検出部36に送る。座標検出部36は、タッチパネル入力部14aの入力位置を座標として算出し、その算出した座標を表示用データ制御部30に送る。また、表示制御部38から送られる動画像データの動画像がタッチパネル14の動画像表示部14bに表示される。   The touch panel input unit 14 a of the touch panel 14 sends a signal corresponding to the input operation position to the coordinate detection unit 36. The coordinate detection unit 36 calculates the input position of the touch panel input unit 14 a as coordinates, and sends the calculated coordinates to the display data control unit 30. The moving image data transmitted from the display control unit 38 is displayed on the moving image display unit 14 b of the touch panel 14.

表示用データ制御部30は、表示用データ読出し部24により読み出された表示用データと座標検出部36により得られた入力位置座標の情報から表示用画像データを生成し、動画像合成部32に送る。表示用画像データを生成するとき、必要に応じて表示用画像データの画面上の配置が調整される。動画像合成部32は、動画像制御部28からの再生動画像データと表示用データ制御部30からの表示用画像データの一方を選択して表示制御部38に送ることも、両者の合成画像データを表示制御部38に送ることも可能である。動画像合成部32はまた、表示用データ制御部30から表示用データ画像の生成時に使用した表示用データ情報と入力位置座標を受け取り、動画像制御部28から動画像のシーン番号と再生時間(フレーム)を受け取る。動画像合成部32は、これらの情報を挿入情報生成部34に送り、必要により動画像制御部28にも送る。   The display data control unit 30 generates display image data from the display data read by the display data reading unit 24 and the input position coordinate information obtained by the coordinate detection unit 36, and the moving image combining unit 32. Send to. When generating the display image data, the arrangement of the display image data on the screen is adjusted as necessary. The moving image composition unit 32 selects one of the reproduced moving image data from the moving image control unit 28 and the display image data from the display data control unit 30 and sends it to the display control unit 38. It is also possible to send data to the display control unit 38. The moving image synthesizing unit 32 also receives the display data information and the input position coordinates used when generating the display data image from the display data control unit 30, and receives the moving image scene number and playback time (from the moving image control unit 28). Frame). The moving image composition unit 32 sends these pieces of information to the insertion information generation unit 34 and also sends them to the moving image control unit 28 as necessary.

挿入情報生成部34は、動画像合成部32から送られる情報を関連付けて管理情報を生成する。この管理情報は少なくとも、動画像のシーン番号、再生時間(フレーム数)、表示用データおよび入力位置座標を含み、挿入情報記憶部22に保存される。   The insertion information generation unit 34 generates management information by associating information sent from the moving image synthesis unit 32. This management information includes at least a scene number of a moving image, a reproduction time (number of frames), display data, and input position coordinates, and is stored in the insertion information storage unit 22.

表示制御部38は、動画像合成部32からの動画像データを動画像表示部14bに表示可能な形式に変換し、動画像表示部14bに送る。   The display control unit 38 converts the moving image data from the moving image combining unit 32 into a format that can be displayed on the moving image display unit 14b, and sends the converted data to the moving image display unit 14b.

挿入情報解析部39は、文字列挿入操作後の再生処理で、表示用データ挿入情報を解析する。   The insertion information analysis unit 39 analyzes the display data insertion information in the reproduction process after the character string insertion operation.

動画像記憶部20、表示用データ記憶部16および挿入情報記憶部22は、HDD(Hard Disk Drive)またはフラッシュメモリなどのランダムアクセス記憶媒体からなる。   The moving image storage unit 20, the display data storage unit 16, and the insertion information storage unit 22 are made of a random access storage medium such as an HDD (Hard Disk Drive) or a flash memory.

図2は、本実施例の表示用データ挿入処理のフローチャートを示す。ユーザが入力部18のジョグダイヤル等により指定した所望の動画像が、動画像表示部14bにより表示されているとする。ここでは、ユーザは動画像の1シーン目の10秒から13秒の間に、表示用データである文字列「到着しました!」を所望の位置に挿入することを希望しているとする。   FIG. 2 shows a flowchart of the display data insertion process of this embodiment. It is assumed that a desired moving image designated by the user using the jog dial or the like of the input unit 18 is displayed on the moving image display unit 14b. Here, it is assumed that the user desires to insert the character string “Arrived!”, Which is display data, at a desired position between 10 and 13 seconds of the first scene of the moving image.

動画像を再生できる状態で、ユーザの所定操作により、図2に示すフローが開始される。ユーザの指示に従い、表示用データ記憶部16の表示用データが読み出され、タッチパネル14の動画像表示部14bに表示される(S1)。表示用データ記憶部16に格納されている表示用データは、書き換え可能であり、用途によって変更できる。図3は、ステップS1でタッチパネル14に表示される表示用データの一覧表示画面40の例を示す。文字列一覧表示画面40には、メニュー項目表示部42、文字列スクロール部44、および文字列表示欄46が表示される。ユーザは、動画像に挿入したい文字列を文字列表示欄46に表示される文字列一覧から選択できる。また、文字列一覧表示画面40は、動画像の再生中でも、再生を開始する前でも、表示可能である。   The flow shown in FIG. 2 is started by a predetermined operation of the user in a state where the moving image can be reproduced. In accordance with a user instruction, display data in the display data storage unit 16 is read and displayed on the moving image display unit 14b of the touch panel 14 (S1). The display data stored in the display data storage unit 16 can be rewritten and can be changed depending on the application. FIG. 3 shows an example of a list display screen 40 for display data displayed on the touch panel 14 in step S1. On the character string list display screen 40, a menu item display unit 42, a character string scroll unit 44, and a character string display field 46 are displayed. The user can select a character string to be inserted into the moving image from a character string list displayed in the character string display field 46. Further, the character string list display screen 40 can be displayed during playback of a moving image or before starting playback.

次に、ユーザは、タッチパネル14上に表示されている文字列から挿入したい文字列を入力部18によって選択する(S2)。選択された文字列を示す表示用データは、RAMなどに一時記憶される。   Next, the user selects a character string to be inserted from the character strings displayed on the touch panel 14 using the input unit 18 (S2). Display data indicating the selected character string is temporarily stored in a RAM or the like.

ユーザが、ステップS2で選択した文字列を挿入したい動画像を入力部18で選択すると、タッチパネル14の動画像表示部14bにその動画像が再生表示される(S3)。また、動画像を再生してから挿入したい文字列を決定する場合には、ステップS3をステップS1の前に実行するようにすればよい。   When the user selects the moving image into which the character string selected in step S2 is to be inserted using the input unit 18, the moving image is reproduced and displayed on the moving image display unit 14b of the touch panel 14 (S3). Further, when the character string to be inserted is determined after the moving image is reproduced, step S3 may be executed before step S1.

図4は、ステップS3でユーザにより選択された動画像を再生している動画像再生画面50の例を示す。動画像再生画面50には、動作状態表示アイコン52、再生時間(フレーム)54、シーン番号56および再生動画像58が表示される。動作状態表示アイコン52は、再生、早送り又はスロー再生などの動作状態に応じてアイコン表示を変化させたものであってもよい。図4では、再生時間54は、シーン番号1の10秒経過した場面を再生していることを表している。   FIG. 4 shows an example of a moving image playback screen 50 that plays back the moving image selected by the user in step S3. On the moving image reproduction screen 50, an operation state display icon 52, a reproduction time (frame) 54, a scene number 56, and a reproduction moving image 58 are displayed. The operation state display icon 52 may be one in which the icon display is changed according to the operation state such as reproduction, fast forward, or slow reproduction. In FIG. 4, the reproduction time 54 represents that the scene of scene number 1 that has passed 10 seconds is being reproduced.

再生中の動画像において文字列を挿入したい場面になった時、ユーザは、文字列を挿入したい位置をタッチパネル14上で指定する(S4)。動画像が一時停止している場合は、タッチパネル14に位置入力を開始したと同時に、再生が始まる。この説明例では通常再生時であるとしているが、スロー再生又はコマ送り再生などでもよい。   When a scene in which a character string is desired to be inserted in the moving image being reproduced, the user designates a position on the touch panel 14 where the character string is to be inserted (S4). When the moving image is paused, playback starts at the same time as position input on the touch panel 14 is started. In this example, it is assumed that the normal reproduction is performed, but slow reproduction or frame advance reproduction may be used.

タッチパネル14のタッチパネル入力部14aは、入力された入力開始位置を座標検出部36に送り、座標検出部36は入力位置を座標に変換する(S5)。   The touch panel input unit 14a of the touch panel 14 sends the input start position input to the coordinate detection unit 36, and the coordinate detection unit 36 converts the input position into coordinates (S5).

ユーザがタッチパネル14に入力を開始すると同時に、その入力位置に文字列の先頭が位置するように、当該文字列がタッチパネル14の動画像表示部14bに表示される(S6)。入力を止めない限り、文字列は常に表示されている。このようにすることで、ユーザは、再生中の動画像に対して、リアルタイムで文字列の挿入効果を視覚的に確認できる。事後的に文字列付きで動画像を再生して確認するという作業が不要になる。   At the same time that the user starts input on the touch panel 14, the character string is displayed on the moving image display unit 14b of the touch panel 14 so that the head of the character string is positioned at the input position (S6). The string is always displayed unless you stop typing. By doing so, the user can visually confirm the insertion effect of the character string in real time on the moving image being reproduced. The work of reproducing and confirming a moving image with a character string afterwards is unnecessary.

図5は、ステップS6でタッチパネル14に文字列の位置入力が開始した時の、文字列挿入開始画面60の例を示す。タッチパネル14に位置入力されると、タッチパネル入力部14aが入力位置を示すデータを座標検出部36に送り、座標検出部36が入力位置64を座標に変換する。この変換動作と同時に、選択されている文字列62が、入力開始位置64に表示される。位置入力が終了するまでの間、先に説明したように、文字列62が表示され続ける。ユーザは、文字列62の挿入された動画像をその場で確認できる。   FIG. 5 shows an example of the character string insertion start screen 60 when position input of the character string is started on the touch panel 14 in step S6. When position input is performed on the touch panel 14, the touch panel input unit 14a sends data indicating the input position to the coordinate detection unit 36, and the coordinate detection unit 36 converts the input position 64 into coordinates. Simultaneously with this conversion operation, the selected character string 62 is displayed at the input start position 64. Until the position input is completed, the character string 62 continues to be displayed as described above. The user can confirm the moving image in which the character string 62 is inserted on the spot.

タッチパネル入力部14aへのユーザ入力の有無を判定する(S7)。ユーザ入力が検出される場合(S7)、座標検出部36が、タッチパネル入力部14aへの入力位置を座標に変換する(S8)。動画像合成部32が、ステップS8で変換された座標に相当する位置で、先に選択された表示用データを再生中の動画像に合成する(S9)。合成で得られた画像が、タッチパネル14の動画像表示部14bに表示される。挿入情報生成部34は、ステップS8で得られた座標、動画像のシーン番号、再生時間(フレーム)、及び選択された文字列を示す表示用データを相互に関連付けて内蔵RAMに一時的に保存する(S10)。ステップS7に戻り、タッチパネル入力部14aへのユーザ入力の有無を判定する。   The presence / absence of user input to the touch panel input unit 14a is determined (S7). When a user input is detected (S7), the coordinate detection unit 36 converts the input position to the touch panel input unit 14a into coordinates (S8). The moving image combining unit 32 combines the previously selected display data with the moving image being reproduced at the position corresponding to the coordinates converted in step S8 (S9). An image obtained by the synthesis is displayed on the moving image display unit 14 b of the touch panel 14. The insertion information generation unit 34 temporarily associates the coordinates obtained in step S8, the scene number of the moving image, the reproduction time (frame), and display data indicating the selected character string with each other in the built-in RAM. (S10). It returns to step S7 and the presence or absence of the user input to the touch-panel input part 14a is determined.

タッチパネル入力部14aへのユーザ入力が検出されない場合(S7)、タッチパネル入力部14aへの位置入力が終了していることになるので、タッチパネル14での文字列の表示を終了する(S11)。このようにすることで、ユーザは、リアルタイムに再生中の動画像に対して文字列の挿入効果を確認できる。タッチパネル入力部14aは、ユーザが入力した最後の位置、すなわち入力終了位置を座標検出部36に送り、座標検出部36が座標に変換する(S12)。挿入情報生成部34が、入力終了位置の座標、動画像のシーン番号、再生時間(フレーム)及び選択された文字列と、ステップS10でRAMに一時保存したデータとを含めて管理情報を生成する(S13)。挿入情報生成部34により生成された管理情報が、挿入情報記憶部22に格納され(S14)、表示用データ挿入処理を終了する。   When the user input to the touch panel input unit 14a is not detected (S7), since the position input to the touch panel input unit 14a has been completed, the display of the character string on the touch panel 14 is terminated (S11). By doing in this way, the user can confirm the insertion effect of the character string with respect to the moving image being reproduced in real time. The touch panel input unit 14a sends the last position input by the user, that is, the input end position, to the coordinate detection unit 36, which converts the coordinate detection unit 36 into coordinates (S12). The insertion information generation unit 34 generates management information including the coordinates of the input end position, the scene number of the moving image, the reproduction time (frame), the selected character string, and the data temporarily stored in the RAM in step S10. (S13). The management information generated by the insertion information generation unit 34 is stored in the insertion information storage unit 22 (S14), and the display data insertion process ends.

図6は、ステップS14で文字列の位置入力が終了した時の文字列挿入了画面66の例を示す。図6は、動画像の1シーン目の10秒に入力が開始され(入力開始位置64)、13秒に入力が終了する(入力終了位置70)ことを表している。入力開始位置から入力終了位置までの軌跡68に沿って文字列がリアルタイムで表示される。位置が入力されている間は、動画像のシーン番号、再生時間(フレーム)及び文字列が互いに関連付けてRAMなどに一時記憶される。そして、位置入力が終了すると、管理情報として挿入情報記憶部22に記憶される。文字列の入力が終了すると、表示されていた文字列も消える。入力開始位置64から入力終了位置70までの軌跡68に沿って文字列が挿入されるので、図7に示すように、入力開始位置76から入力終了位置78までの軌跡74が曲線になっていたとしても、何ら問題はない。その場合、表示用データ制御部30が、文字列を曲線に沿った形に調整する。 Figure 6 shows an example of a string insertion exit screen 66 when the position input string is terminated at step S14. FIG. 6 shows that the input starts at 10 seconds of the first scene of the moving image (input start position 64) and ends at 13 seconds (input end position 70). A character string is displayed in real time along a locus 68 from the input start position to the input end position. While the position is input, the scene number, playback time (frame), and character string of the moving image are associated with each other and temporarily stored in a RAM or the like. When the position input is completed, it is stored in the insertion information storage unit 22 as management information. When the input of the character string is completed, the displayed character string disappears. Since the character string is inserted along the trajectory 68 from the input start position 64 to the input end position 70, the trajectory 74 from the input start position 76 to the input end position 78 is a curve as shown in FIG. But there is no problem. In that case, the display data control unit 30 adjusts the character string to a shape along the curve.

図8は、挿入情報記憶部22に記憶される管理情報の構成と内容の一例を示す。管理情報は、動画像のシーン番号、文字列情報、再生時間情報及び位置情報から構成される。表示用データ記憶部16には、図9に示すような、文字列番号と文字列データとを対応付ける文字列管理テーブルを記憶している。文字列情報は、この文字列管理テーブルの文字列番号からなる。再生時間情報は、動画像の再生時間を時分秒又はフレーム単位で記憶する。位置情報は、ユーザによって入力された位置を座標検出部36により変換した座標からなる。管理情報の説明は一例であり、選択された表示用データ、入力された位置情報、および再生時の動画像情報が相互に関連付けられて記憶されていればよい。   FIG. 8 shows an example of the configuration and contents of management information stored in the insertion information storage unit 22. The management information includes a scene number, character string information, reproduction time information, and position information of a moving image. The display data storage unit 16 stores a character string management table associating character string numbers with character string data as shown in FIG. The character string information consists of the character string number of this character string management table. The playback time information stores the playback time of the moving image in units of hours, minutes and seconds or frames. The position information includes coordinates obtained by converting the position input by the user by the coordinate detection unit 36. The description of the management information is an example, and the selected display data, the input position information, and the moving image information at the time of reproduction may be stored in association with each other.

この管理情報を使用し、動画像再生時にユーザの指定した箇所で文字列を表示させることができる。動画像に対してユーザの指定した箇所に文字列を合成できる。また、動画像制御部28により圧縮(エンコード)することで、文字列を合成した動画像を作成できる。詳細は後述する。   Using this management information, it is possible to display a character string at a location designated by the user at the time of moving image reproduction. A character string can be synthesized at a location designated by the user for a moving image. In addition, by compressing (encoding) by the moving image control unit 28, a moving image in which character strings are combined can be created. Details will be described later.

次に、ユーザによる文字列挿入操作後の再生処理を実行する処理を説明する。挿入情報解析部39は、入力制御部26からの指示に従い挿入情報記憶部22から表示用データ挿入情報を読み出す。挿入情報解析部39はさらに、読み出した挿入情報を解析し、解析結果を表示用データ読出し部24に送る。   Next, processing for executing reproduction processing after a character string insertion operation by the user will be described. The insertion information analysis unit 39 reads display data insertion information from the insertion information storage unit 22 in accordance with an instruction from the input control unit 26. The insertion information analysis unit 39 further analyzes the read insertion information and sends the analysis result to the display data reading unit 24.

動画像制御部28は、入力制御部26から動画像読出し要求を受け取ると、挿入情報解析部39に指示して挿入情報記憶部22から挿入情報解析部39に表示用データを読み出させる。   When the moving image control unit 28 receives a moving image read request from the input control unit 26, the moving image control unit 28 instructs the insertion information analysis unit 39 to read display data from the insertion information storage unit 22.

表示用データ読出し部24は、挿入情報解析部39の解析結果により表示用データを表示用データ記憶部16から読み出し、読み出した表示用データを表示用データ制御部30に送る。表示用データ読出し部24はまた、表示用データ挿入情報に含まれる他の情報群を表示用データ制御部30に送り、表示用データ制御部30はそれらの情報を使い、表示用データ画像を作成する。   The display data reading unit 24 reads display data from the display data storage unit 16 based on the analysis result of the insertion information analysis unit 39, and sends the read display data to the display data control unit 30. The display data reading unit 24 also sends another information group included in the display data insertion information to the display data control unit 30, and the display data control unit 30 uses the information to create a display data image. To do.

ユーザにより所望の位置に文字列が挿入された後の再生処理を図10のフローチャートを参照して説明する。ここでは、表示用データは文字列であり、ユーザは動画像1シーン目の10秒から13秒の間に「到着しました!」という文字列を、先に説明した方法で指定した位置に挿入する場合を例に説明する。   A reproduction process after a character string is inserted at a desired position by the user will be described with reference to a flowchart of FIG. Here, the display data is a character string, and the user inserts the character string “Arrive!” Between 10 seconds and 13 seconds in the first scene of the moving image at the position specified by the method described above. An example of this will be described.

図10に示す処理は、動画像を再生できる状態でユーザからの所定の操作によってスタートする。ユーザの入力した指示により、動画像の再生要求を入力制御部26が受ける(S21)。入力制御部26が受けた指示により挿入情報解析部39が挿入情報記憶部22から表示用データ挿入情報(管理情報)を読み出す(S22)。   The process shown in FIG. 10 is started by a predetermined operation from the user in a state where a moving image can be reproduced. In response to an instruction input by the user, the input control unit 26 receives a moving image playback request (S21). In response to an instruction received by the input control unit 26, the insertion information analysis unit 39 reads display data insertion information (management information) from the insertion information storage unit 22 (S22).

挿入情報解析部39は、挿入情報記憶部22から読み出した表示用データ挿入情報(管理情報)を解析する(S23)。表示用データ挿入情報を解析することで、動画像のシーン番号、文字列情報、再生時間情報および位置情報を取得でき、取得した情報はRAMに一時的に記憶される。管理情報が存在しなかった場合、挿入情報解析部39が管理情報なしと判断する。   The insertion information analysis unit 39 analyzes the display data insertion information (management information) read from the insertion information storage unit 22 (S23). By analyzing the display data insertion information, the scene number, character string information, reproduction time information, and position information of the moving image can be acquired, and the acquired information is temporarily stored in the RAM. When the management information does not exist, the insertion information analysis unit 39 determines that there is no management information.

RAMに記憶されている管理情報の解析結果と、再生される動画像のシーン番号および再生時間が一致しているかどうかを判定する(S24)。一致しない場合(S24)、動画像記憶部20から読み出された動画像を再生表示する(S25)。このとき、管理情報が一致していないので、動画像合成部32は表示用画像データとの合成を行わない。   It is determined whether the analysis result of the management information stored in the RAM matches the scene number and playback time of the moving image to be played back (S24). If they do not match (S24), the moving image read from the moving image storage unit 20 is reproduced and displayed (S25). At this time, since the management information does not match, the moving image combining unit 32 does not combine with the display image data.

一致する場合(S24)、挿入情報解析部39は、管理情報の解析結果を表示用データ読出し部24、座標検出部36及び動画像合成部32に伝える(S26)。挿入情報解析部39による管理情報の解析結果を元に、表示用データ読出し部24と座標検出部36により文字列画像データを生成する(S27)。ステップS27で生成された文字列画像データと動画像合成部32が受けた管理情報の解析結果を元に、文字列画像データと動画像を合成する(S28)。ステップS28で合成された動画像を表示制御部38に送る(S29)。表示制御部38に送られた動画像は、タッチパネル14の動画像表示部14bに表示される。   If they match (S24), the insertion information analysis unit 39 transmits the analysis result of the management information to the display data reading unit 24, the coordinate detection unit 36, and the moving image synthesis unit 32 (S26). Based on the analysis result of the management information by the insertion information analysis unit 39, the character string image data is generated by the display data reading unit 24 and the coordinate detection unit 36 (S27). Based on the character string image data generated in step S27 and the analysis result of the management information received by the moving image combining unit 32, the character string image data and the moving image are combined (S28). The moving image synthesized in step S28 is sent to the display control unit 38 (S29). The moving image sent to the display control unit 38 is displayed on the moving image display unit 14 b of the touch panel 14.

図11は、ステップS29で合成された動画像を再生している合成動画像再生画面の一例を示す。ユーザがタッチパネル14上のタッチパネル入力部14aに入力操作したときに生成された管理情報を解析することで、ユーザの希望する場面でユーザに選択された文字列を動画像と合成表示できる。   FIG. 11 shows an example of a combined video playback screen that plays back the video combined in step S29. By analyzing the management information generated when the user performs an input operation on the touch panel input unit 14a on the touch panel 14, the character string selected by the user in a scene desired by the user can be synthesized and displayed with the moving image.

ステップS25又はS29の後、ユーザによる入力部18からの再生終了要求があったかどうか、又は、動画像の最終位置になったかどうかを判定する(S30)。どちらかの条件に合致した場合(S30)、表示用データ挿入後の再生処理を終了する。どちらの条件にも合致しない場合(S30)、ステップS24に戻る。   After step S25 or S29, it is determined whether or not there has been a reproduction end request from the input unit 18 by the user, or whether or not the final position of the moving image has been reached (S30). If either condition is met (S30), the reproduction process after the display data is inserted is terminated. If neither condition is met (S30), the process returns to step S24.

図12は、タッチパネル14上のタッチパネル入力部14aにより入力された文字列を取り消す文字列取り消し画面の例を示す。図12に示す例では、動画像1シーン目の10秒から13秒の間に挿入された「到着しました!」という文字列を取り消したいと仮定する。   FIG. 12 shows an example of a character string cancellation screen for canceling the character string input by the touch panel input unit 14 a on the touch panel 14. In the example shown in FIG. 12, it is assumed that the character string “arrived!” Inserted between 10 seconds and 13 seconds in the first scene of the moving image is to be canceled.

図12に示す文字列取り消し画面には、画面確認ボタン80が表示される。タッチパネル14により文字列を挿入した後、入力部18により画面確認ボタン80が選択されると、少なくとも文字列が挿入された場面にまで遡って確認再生が行われる。確認再生中にタッチパネル入力部14aによる入力が検出されると、挿入された文字列が消去される。挿入情報記憶部22に記憶されている管理情報の該当する部分は、挿入情報生成部34により再構築される。   A screen confirmation button 80 is displayed on the character string cancellation screen shown in FIG. When the screen confirmation button 80 is selected by the input unit 18 after the character string is inserted by the touch panel 14, confirmation playback is performed retroactively to at least the scene where the character string is inserted. If an input from the touch panel input unit 14a is detected during the confirmation reproduction, the inserted character string is deleted. A corresponding portion of the management information stored in the insertion information storage unit 22 is reconstructed by the insertion information generation unit 34.

図13は、エフェクトを動画像に与える本発明に係る画像処理装置の第2実施例を組みこんだ再生装置の概略構成ブロック図を示す。図13に示す再生装置110は、再生装置10とは、システム制御部112にエフェクト決定部137を具備する点が主として異なる。再生装置110の手段112〜136,138,139の機能は、エフェクトに関する機能が追加されていることを除いて、それぞれ、再生装置10の手段12,18〜36,38,39のそれと同じである。以下では、エフェクトに関する相違点を主に説明する。   FIG. 13 is a block diagram showing the schematic configuration of a playback apparatus incorporating a second embodiment of the image processing apparatus according to the present invention for applying effects to moving images. The playback apparatus 110 shown in FIG. 13 is mainly different from the playback apparatus 10 in that the system control unit 112 includes an effect determination unit 137. The functions of the means 112 to 136, 138, and 139 of the playback apparatus 110 are the same as those of the means 12, 18 to 36, 38, and 39 of the playback apparatus 10, respectively, except that the function related to the effect is added. . Below, the difference regarding an effect is mainly demonstrated.

表示用データ記憶部116は、表示用データとエフェクトデータを格納する。表示用データ読出し部124は、表示用データ記憶部116に記憶される表示用データおよびエフェクトデータから希望のものを読み出すことができる。   The display data storage unit 116 stores display data and effect data. The display data reading unit 124 can read a desired one from the display data and effect data stored in the display data storage unit 116.

座標検出部136は、タッチパネル入力部114aによる入力位置を示す座標を算出し、表示用データ制御部130とエフェクト決定部137に送る。エフェクト決定部137は、座標検出部136から送られる座標とその動きから、表示用データに付加すべきエフェクトを決定する。決定されたエフェクトは、表示用データ制御部130に通知される。   The coordinate detection unit 136 calculates coordinates indicating the input position by the touch panel input unit 114 a and sends the coordinates to the display data control unit 130 and the effect determination unit 137. The effect determination unit 137 determines an effect to be added to the display data from the coordinates sent from the coordinate detection unit 136 and its movement. The determined effect is notified to the display data control unit 130.

表示用データ制御部130は、表示用データ読出し部24により読み出された表示用データ/エフェクトデータ、座標検出部36からの座標情報、及びエフェクト決定部137からのエフェクト情報に従い、表示用画像データを生成する。生成された表示画像データは、動画像合成部132に送られる。表示用画像データを生成するとき、必要に応じて表示用画像データの画面上の配置が調整される。 The display data controller 130, the display data / effect data read by the display data reading unit 1 24, the coordinate information from the coordinate detection unit 1 36, and in accordance with the effect information from the effect determination unit 137, a display Generate image data. The generated display image data is sent to the moving image composition unit 132. When generating the display image data, the arrangement of the display image data on the screen is adjusted as necessary.

動画像合成部132はまた、表示用データ制御部30から表示用データ画像の生成時に使用した表示用データ情報、入力位置座標及びエフェクト情報を受け取り、動画像制御部128から動画像のシーン番号と再生時間(フレーム)を受け取る。動画像合成部132は、これらの情報を挿入情報生成部134に送り、必要により動画像制御部128にも送る。 The moving image combining unit 132, display data information used when generating the display data image from the display data controller 1 30 receives the input position coordinate and the effect information, scene number of the moving image from the moving image control unit 128 And receive playback time (frame). The moving image composition unit 132 sends these pieces of information to the insertion information generation unit 134 and also sends them to the moving image control unit 128 as necessary.

挿入情報生成部134は、動画像合成部132から送られる情報を関連付けて管理情報を生成する。この管理情報は少なくとも、動画像のシーン番号、再生時間(フレーム数)、表示用データ、入力位置座標及びエフェクト情報を含み、挿入情報記憶部122に保存される。   The insertion information generation unit 134 generates management information in association with the information sent from the moving image synthesis unit 132. This management information includes at least a moving image scene number, a reproduction time (number of frames), display data, input position coordinates, and effect information, and is stored in the insertion information storage unit 122.

図14は、図13に示す実施例の表示用データ挿入処理のフローチャートを示す。ユーザが入力部118のジョグダイヤル等により指定した所望の動画像が、動画像表示部114bにより表示されているとする。ここでは、ユーザは、動画像の1シーン目の10秒から13秒の間に、表示用データである文字列「到着しました!」を所望の位置に所望のエフェクトを付加して挿入することを希望しているとする。   FIG. 14 shows a flowchart of the display data insertion process of the embodiment shown in FIG. It is assumed that a desired moving image designated by the user using the jog dial or the like of the input unit 118 is displayed on the moving image display unit 114b. Here, the user inserts the character string “Arrived!”, Which is display data, at a desired position with a desired effect between 10 seconds and 13 seconds of the first scene of the moving image. Suppose you want.

動画像を再生できる状態で、ユーザの所定操作により、図14に示すフローが開始される。ユーザの指示に従い、表示用データ記憶部116の表示用データが読み出され、タッチパネル114の動画像表示部114bに表示される(S41)。表示用データ記憶部116に格納されている表示用データは、書き換え可能であり、用途によって変更できる。表示用データ記憶部116の表示用データが、選択のために、図3に示すように、一覧表示される。この文字列一覧は、動画像の再生中でも、再生を開始する前でも、表示可能である。   The flow shown in FIG. 14 is started by a predetermined operation of the user in a state where the moving image can be reproduced. In accordance with a user instruction, display data in the display data storage unit 116 is read and displayed on the moving image display unit 114b of the touch panel 114 (S41). The display data stored in the display data storage unit 116 is rewritable and can be changed depending on the application. The display data in the display data storage unit 116 is displayed in a list as shown in FIG. 3 for selection. This list of character strings can be displayed during playback of a moving image or before starting playback.

ユーザは、入力部118により、動画像に挿入したい文字列を文字列一覧から選択する(S42)。選択された文字列を示す表示用データは、RAMなどに一時記憶される。   The user uses the input unit 118 to select a character string to be inserted into the moving image from the character string list (S42). Display data indicating the selected character string is temporarily stored in a RAM or the like.

ユーザが、ステップS42で選択した文字列を挿入したい動画像を入力部118で選択すると、タッチパネル114の動画像表示部114bにその動画像が、図4に示すように、再生表示される(S43)。また、動画像を再生してから挿入したい文字列を決定する場合には、ステップS43をステップS41の前に実行するようにすればよい。   When the user selects a moving image into which the character string selected in step S42 is to be inserted using the input unit 118, the moving image is reproduced and displayed on the moving image display unit 114b of the touch panel 114 as shown in FIG. 4 (S43). ). Further, when the character string to be inserted is determined after the moving image is reproduced, step S43 may be executed before step S41.

再生中の動画像において文字列を挿入したい場面になった時、ユーザは、文字列を挿入したい位置をタッチパネル114上で指定する(S44)。動画像が一時停止している場合は、タッチパネル114に位置入力を開始したと同時に、再生が始まる。この説明例では通常再生時であるとしているが、スロー再生又はコマ送り再生などでもよい。   When a scene in which a character string is desired to be inserted in the moving image being reproduced, the user designates a position where the character string is to be inserted on the touch panel 114 (S44). When the moving image is paused, playback starts at the same time as position input on the touch panel 114 is started. In this example, it is assumed that the normal reproduction is performed, but slow reproduction or frame advance reproduction may be used.

タッチパネル114のタッチパネル入力部114aは、入力された入力開始位置を座標検出部136に送り、座標検出部136は入力位置を座標に変換する(S45)。   The touch panel input unit 114a of the touch panel 114 sends the input start position input to the coordinate detection unit 136, and the coordinate detection unit 136 converts the input position into coordinates (S45).

表示用データ制御部130は、ユーザによるタッチパネル114への入力操作により座標検出部136から送られる座標の位置又は個数などから、文字列の表示位置と表示の要否を決定する(S46)。図15は、座標検出部136の出力座標値と文字列の表示・非表示との関係例を示す。図15に示す例では、入力座標の個数と、2点入力の場合の2点間距離によって、文字列の表示・非表示を決定する。2つの入力点間の距離が閾値より大きい場合、2点間の中間に文字列の中心を表示する。また、2点間の距離が閾値より小さい場合は、文字列を表示しない。閾値はユーザが任意に設定するものでも、内部で決められた値であってもよい。1点入力または3点以上の入力の場合には、文字列を表示しない。   The display data control unit 130 determines the display position of the character string and the necessity of display from the position or number of coordinates sent from the coordinate detection unit 136 by the input operation to the touch panel 114 by the user (S46). FIG. 15 shows an example of the relationship between the output coordinate value of the coordinate detection unit 136 and the display / non-display of the character string. In the example shown in FIG. 15, display / non-display of a character string is determined by the number of input coordinates and the distance between two points in the case of two-point input. When the distance between the two input points is larger than the threshold, the center of the character string is displayed in the middle between the two points. When the distance between the two points is smaller than the threshold value, the character string is not displayed. The threshold value may be arbitrarily set by the user or may be a value determined internally. In the case of one-point input or three-point input or more, no character string is displayed.

文字列を表示する場合(S47)、再生中の動画像に対して、選択された文字列の合成表示を開始する(S48)。図16は2点入力により文字列(「到着しました!」)を動画像上に合成表示している画面例を示す。親指と人差し指で2点を入力しており、文字列160は、両者の入力点の中間にその中央が来るように表示される。エフェクトにより文字列を表示しない場合を除き、入力を止めない限り、文字列は常に表示されている。このようにすることで、ユーザはリアルタイムに再生中の動画像に対して文字列の効果をリアルタムに確認でき、再度、再生して確認するという動作が不要になる。   When displaying a character string (S47), the composition display of the selected character string is started with respect to the moving image being reproduced (S48). FIG. 16 shows an example of a screen in which a character string (“arrived!”) Is synthesized and displayed on a moving image by inputting two points. Two points are input with the thumb and forefinger, and the character string 160 is displayed so that the center is positioned between the two input points. Unless the character string is not displayed by the effect, the character string is always displayed unless the input is stopped. By doing in this way, the user can confirm the effect of the character string on the moving image being reproduced in real time in real time, and the operation of reproducing and confirming again becomes unnecessary.

文字列を表示しない場合(S47)には、ステップS48を迂回する。   If the character string is not displayed (S47), step S48 is bypassed.

タッチパネル入力部114aへのユーザ入力の有無を判定する(S49)。ユーザ入力が検出される場合(S49)、座標検出部136が、タッチパネル入力部114aへの入力位置を座標に変換する(S50)。エフェクト決定部137は、座標検出部136からの座標を元にエフェクトを決定する(S51)。表示用データ制御部130は、選択された文字列に対して、エフェクト決定部137で決定されたエフェクトを付加した表示用画像データを作成して動画像合成部132に供給する。動画像合成部132は、当該表示用画像データを再生中の動画像に合成する(S52)。合成で得られた画像が、タッチパネル114の動画像表示部114bに表示される。このようにすることで、ユーザはリアルタイムに再生中の動画像に対して文字列のエフェクトを確認でき、再度、再生して確認するという操作が不要になる。   The presence or absence of user input to the touch panel input unit 114a is determined (S49). When a user input is detected (S49), the coordinate detection unit 136 converts the input position to the touch panel input unit 114a into coordinates (S50). The effect determination unit 137 determines an effect based on the coordinates from the coordinate detection unit 136 (S51). The display data control unit 130 creates display image data to which the effect determined by the effect determination unit 137 is added to the selected character string, and supplies the display image data to the moving image composition unit 132. The moving image combining unit 132 combines the display image data with the moving image being reproduced (S52). The image obtained by the synthesis is displayed on the moving image display unit 114b of the touch panel 114. By doing so, the user can confirm the effect of the character string on the moving image being reproduced in real time, and the operation of reproducing and confirming again becomes unnecessary.

挿入情報生成部134は、ステップS50で得られた座標、動画像のシーン番号、再生時間(フレーム)、選択された文字列を示す表示用データ、及びエフェクトを示す表示用データを相互に関連付けて内蔵RAMに一時的に保存する(S53)。ステップS49に戻り、タッチパネル入力部114aへのユーザ入力の有無を判定する。   The insertion information generation unit 134 correlates the coordinates obtained in step S50, the scene number of the moving image, the playback time (frame), the display data indicating the selected character string, and the display data indicating the effect. The data is temporarily stored in the built-in RAM (S53). It returns to step S49 and the presence or absence of the user input to the touch-panel input part 114a is determined.

タッチパネル入力部114aへのユーザ入力が検出されない場合(S49)、タッチパネル入力部114aへの位置入力が終了していることになるので、タッチパネル114での文字列の表示を終了する(S54)。エフェクト処理を実行中であれば、エフェクト処理を終了してから文字列の表示を消す。すなわち、エフェクト処理の途中で文字列が消えてしまうことはない。このようにすることで、ユーザは、リアルタイムに再生中の動画像に対して文字列の挿入効果を確認できる。   When the user input to the touch panel input unit 114a is not detected (S49), the position input to the touch panel input unit 114a is finished, and thus the display of the character string on the touch panel 114 is finished (S54). If the effect process is being executed, the character string display disappears after the effect process ends. That is, the character string does not disappear during the effect processing. By doing in this way, the user can confirm the insertion effect of the character string with respect to the moving image being reproduced in real time.

タッチパネル入力部114aは、ユーザが入力した最後の位置、すなわち入力終了位置を座標検出部136に送り、座標検出部136が座標に変換する(S55)。挿入情報生成部134が、入力終了位置の座標、動画像のシーン番号、再生時間(フレーム)、選択された文字列及びエフェクトと、ステップS53でRAMに一時保存したデータとを含めて管理情報を生成する(S56)。挿入情報生成部134により生成された管理情報が、挿入情報記憶部122に格納され(S57)、表示用データ挿入処理を終了する。   The touch panel input unit 114a sends the last position input by the user, that is, the input end position, to the coordinate detection unit 136, which converts the coordinate detection unit 136 into coordinates (S55). The insertion information generation unit 134 stores management information including the coordinates of the input end position, the scene number of the moving image, the playback time (frame), the selected character string and effect, and the data temporarily stored in the RAM in step S53. Generate (S56). The management information generated by the insertion information generation unit 134 is stored in the insertion information storage unit 122 (S57), and the display data insertion process ends.

図17は、タッチパネル入力部114aへの入力操作とエフェクトの関係例を示す。入力後の指の動きに応じてそれぞれエフェクトが決定される。複数のエフェクトが同時に行われることはなく、指の動きによってより近いエフェクト処理が選択される。図18は、図17に示す例における各エフェクトの表示の変化例を示す。   FIG. 17 shows a relationship example between the input operation to the touch panel input unit 114a and the effect. Each effect is determined according to the movement of the finger after the input. A plurality of effects are not performed at the same time, and a closer effect process is selected depending on the movement of the finger. FIG. 18 shows a change example of the display of each effect in the example shown in FIG.

1点入力の場合、文字列は表示されない。   In the case of one-point input, the character string is not displayed.

2点入力で2点間の距離が設定閾値より小さい場合、文字列は表示されない。その状態で指を開くような動きをした場合、何も表示されていない状態から幕が開くような動きで文字列が表示される。図17に示す例では、指が左右に移動しているが、上下でも斜めでも構わない。指の移動する方向に対して文字列の表示が制御される。2点が回転するような動きをした場合、何も表示されていない状態から回転するような形で文字列が表示される。回転の向きは、指の移動する方向により決定される。図17に示す例では、右回りの回転を行う。   If the distance between the two points is smaller than the set threshold with two points input, the character string is not displayed. If the finger moves in such a state, the character string is displayed in such a manner that the curtain opens from a state where nothing is displayed. In the example shown in FIG. 17, the finger moves left and right, but it may be up and down or diagonal. The display of the character string is controlled in the direction in which the finger moves. When the movement is such that the two points rotate, the character string is displayed in such a manner as to rotate from a state where nothing is displayed. The direction of rotation is determined by the direction in which the finger moves. In the example shown in FIG. 17, clockwise rotation is performed.

2点入力で、2点間の距離が設定閾値より大きい場合、文字列は、2点間の中間に文字列の中心が位置するように表示される。この状態で2点を同じ方向に動かした場合、表示されている文字列も、指を動かした方向に移動する。図17に示す例では、左に移動しているが、どの方向にも移動可能である。この状態で2点間の距離を小さくするように指を動かした場合、幕が閉じるような動きで文字列が消える。図17に示す例では、左右に移動しているが、どの方向にも移動可能である。指の移動する方向に対して文字列の表示が制御される。   If the distance between the two points is greater than the set threshold when the two points are input, the character string is displayed so that the center of the character string is located in the middle between the two points. When two points are moved in the same direction in this state, the displayed character string also moves in the direction in which the finger is moved. In the example shown in FIG. 17, it moves to the left, but it can move in any direction. In this state, if the finger is moved so as to reduce the distance between the two points, the character string disappears with a movement that closes the curtain. In the example shown in FIG. 17, it moves to the left and right, but it can move in any direction. The display of the character string is controlled in the direction in which the finger moves.

また、2点が回転するような動きをした場合、表示されている文字列が回転する。回転の向きは、指の移動する方向により指定される。図17に示す例では、右回りの回転を行う。2点間の距離を広げる動きをした場合、文字列が表示される。幕が閉じるように文字列の表示を制御する。文字列が消えている時にこの操作を行った場合には、消え始めた文字列を再度、幕が開くような形で表示する。図17に示す例では、左右に移動しているが、どの方向にも移動可能であり、指の移動する方向に対して文字列の表示が制御される。   In addition, when the movement is such that the two points rotate, the displayed character string rotates. The direction of rotation is specified by the direction in which the finger moves. In the example shown in FIG. 17, clockwise rotation is performed. When moving to increase the distance between two points, a character string is displayed. Controls the display of the character string so that the curtain closes. If this operation is performed when the character string has disappeared, the character string that has begun to disappear is displayed again so that the curtain opens. In the example shown in FIG. 17, it moves left and right, but it can move in any direction, and the display of the character string is controlled in the direction in which the finger moves.

3点以上の入力があった場合、文字列は表示されない。また、入力点が1点から2点になり、且つ、その2点間の距離が小さい場合にも、文字列は表示されない。   If there are three or more inputs, the character string is not displayed. Also, the character string is not displayed when the number of input points is 1 to 2 and the distance between the two points is small.

入力点が1点から2点になり、且つ、その2点間の距離が大きい場合、先に入力されていた点から後に入力された点の方向に文字列が移動する。図17に示す例では、右から左に移動しているが、どの方向にも移動可能であり、時間的に前後する2つの入力点間の方向に対して文字列の表示が制御される。   When the number of input points changes from one point to two points and the distance between the two points is large, the character string moves in the direction from the point input earlier to the point input later. In the example shown in FIG. 17, it moves from right to left, but it can move in any direction, and the display of the character string is controlled in the direction between two input points that move back and forth in time.

入力点が2点から1点になり、かつ、1点になる前の2点間の距離が小さい場合、文字列は表示されない。入力点が2点から1点になり、1点になる前の2点間の距離が大きい場合、入力点に対して文字列が移動する。図17に示す例では、左から右に移動しているが、どの方向にも移動可能であり、入力点の変化方向に対して文字列の表示が制御される。   When the number of input points is changed from two to one and the distance between the two points before becoming one point is small, the character string is not displayed. When the number of input points changes from two to one and the distance between the two points before the point is large, the character string moves with respect to the input point. In the example shown in FIG. 17, the movement is from left to right, but the movement is possible in any direction, and the display of the character string is controlled with respect to the changing direction of the input point.

図19は2つの指による入力操作例を示す。親指と人差し指を矢印で示す軌跡170のように近づける。先に説明したように、このような操作の場合、表示されていた文字列が、幕が閉じるような動きで消えるエフェクトが選択されたことになる。   FIG. 19 shows an example of an input operation with two fingers. The thumb and index finger are brought close to each other as shown by a locus 170 indicated by an arrow. As described above, in the case of such an operation, an effect has been selected in which the displayed character string disappears with a movement that closes the curtain.

図20は、文字列の入力が終了した文字列挿入終了画面の例を示している。図19に示すように、動画像の1シーン目の10秒に入力が開始され、矢印で示す軌跡170で13秒に入力が終了し、図20に示す画面になる。   FIG. 20 shows an example of a character string insertion end screen after the input of the character string is completed. As shown in FIG. 19, the input is started at 10 seconds of the first scene of the moving image, and the input is completed at 13 seconds on the locus 170 indicated by the arrow, and the screen shown in FIG. 20 is obtained.

図21は、入力開始位置から入力終了位置までの軌跡170に沿って表示される文字列の表示内容の変化を示す。2つの入力点間の距離が徐々に近くなっていくことで、文字列が消えていくエフェクトが付加される。位置が入力されている間、動画像のシーン番号、再生時間(フレーム)、文字列及びエフェクトが互いに関連付けて内蔵RAMなどに一時的に記憶され、入力が終了すると管理情報として挿入情報記憶部122に記憶される。   FIG. 21 shows a change in the display content of the character string displayed along the trajectory 170 from the input start position to the input end position. As the distance between the two input points gradually decreases, an effect is added in which the character string disappears. While the position is input, the scene number of the moving image, the playback time (frame), the character string, and the effect are temporarily associated with each other and stored in the built-in RAM or the like. Is remembered.

図22は、挿入情報記憶部122に記憶される管理情報の構成と内容の一例を示す。管理情報は、動画像のシーン番号、文字列情報、エフェクト情報、再生時間情報及び位置情報からなる。文字列情報に収用される文字列番号は、図9に示すような文字列管理テーブルで文字列データが関連付けられる。同様に、エフェクト情報に収用されるエフェクオ番号は、図23に示すようなエフェクト管理テーブルによりエフェクト処理内容と関連付けられる。表示用データ記憶部116は、このような文字列管理テーブルおよびエフェクト管理データルを記憶する。   FIG. 22 shows an example of the configuration and contents of management information stored in the insertion information storage unit 122. The management information includes a moving image scene number, character string information, effect information, reproduction time information, and position information. The character string number used in the character string information is associated with character string data in a character string management table as shown in FIG. Similarly, the effect number used for the effect information is associated with the contents of the effect processing by the effect management table as shown in FIG. The display data storage unit 116 stores such a character string management table and effect management data.

再生時間情報は、動画像の再生時間を時間、分、秒およびフレーム単位で記憶される。位置情報は、ユーザによって入力された位置を座標検出部136により変換された座標として記憶する。管理情報に関する以上の説明はあくまでも一例であり、選択された表示用データ、入力位置情報、再生時の動画像情報およびエフェクト情報が互いに関連付けられていればよい。   The reproduction time information stores the reproduction time of the moving image in units of hours, minutes, seconds and frames. The position information stores the position input by the user as coordinates converted by the coordinate detection unit 136. The above description regarding the management information is merely an example, and it is only necessary that the selected display data, input position information, moving image information at the time of reproduction, and effect information are associated with each other.

この管理情報を使用し、動画像再生時に文字列を指定のエフェクトで動画像に合成して動画像制御部128により圧縮(エンコード)することで、文字列の効果を付加した動画像を作成できる。この動作の詳細は、以下に説明する。   Using this management information, when a moving image is played back, a character string is combined with the moving image with a specified effect and compressed (encoded) by the moving image control unit 128 to create a moving image with the character string added. . Details of this operation will be described below.

挿入情報解析部139は、入力制御部126からの指示に従い挿入情報記憶部122から表示用データ挿入情報を読み出す。挿入情報解析部139はさらに、読み出した挿入情報を解析し、解析結果を表示用データ読出し部124に送る。   The insertion information analysis unit 139 reads display data insertion information from the insertion information storage unit 122 in accordance with an instruction from the input control unit 126. The insertion information analysis unit 139 further analyzes the read insertion information and sends the analysis result to the display data reading unit 124.

動画像制御部128は、入力制御部126から動画像読出し要求を受け取ると、挿入情報解析部139に指示して挿入情報記憶部122から挿入情報解析部139に表示用データを読み出させる。   When the moving image control unit 128 receives a moving image read request from the input control unit 126, the moving image control unit 128 instructs the insertion information analysis unit 139 to read display data from the insertion information storage unit 122.

表示用データ読出し部124は、挿入情報解析部139の解析結果により表示用データとエフェクト情報を表示用データ記憶部116から読み出し、読み出した表示用データおよびエフェクト情報を表示用データ制御部130に送る。表示用データ読出し部24はまた、表示用データ挿入情報に含まれる他の情報群を表示用データ制御部30に送り、表示用データ制御部30はそれらの情報を使い、表示用データ画像を作成する。 The display data reading unit 124 reads display data and effect information from the display data storage unit 116 based on the analysis result of the insertion information analysis unit 139, and sends the read display data and effect information to the display data control unit 130. . Display data reading unit 1 24 also sends other information group display data controller 1 30 included in the display data insertion information, the display data controller 1 30 uses this information, the display data Create an image.

ユーザにより所望の位置に文字列が挿入された後の再生処理を図24のフローチャートを参照して説明する。ここでは、表示用データは文字列であり、ユーザは動画像1シーン目の10秒から13秒の間に「到着しました!」という文字列を先に説明した方法で指定した位置に指定したエフェクトを付加して挿入する場合を例に説明する。   A reproduction process after a character string is inserted at a desired position by the user will be described with reference to a flowchart of FIG. Here, the display data is a character string, and the user specified the character string “Arrive!” At the position specified by the method described above between 10 seconds and 13 seconds in the first scene of the moving image. A case where an effect is added and inserted will be described as an example.

図24に示す処理は、動画像を再生できる状態でユーザからの所定の操作によってスタートする。ユーザの入力した指示により、動画像の再生要求を入力制御部126が受ける(S61)。入力制御部126が受けた指示により挿入情報解析部139が挿入情報記憶部122から表示用データ挿入情報(管理情報)を読み出す(S62)。   The process shown in FIG. 24 is started by a predetermined operation from the user in a state where a moving image can be reproduced. In response to an instruction input by the user, the input control unit 126 receives a moving image playback request (S61). In response to the instruction received by the input control unit 126, the insertion information analysis unit 139 reads display data insertion information (management information) from the insertion information storage unit 122 (S62).

挿入情報解析部139は、挿入情報記憶部122から読み出した表示用データ挿入情報管理情報)を解析する(S63)。表示用データ挿入情報を解析することで、動画像のシーン番号、文字列情報、再生時間情報、位置情報およびエフェクト情報を取得でき、取得した情報はRAMに一時的に記憶される。管理情報が存在しなかった場合、挿入情報解析部139が管理情報なしと判断する。 The insertion information analysis unit 139 analyzes the display data insertion information ( management information) read from the insertion information storage unit 122 (S63). By analyzing the display data insertion information, the scene number, character string information, reproduction time information, position information, and effect information of the moving image can be acquired, and the acquired information is temporarily stored in the RAM. When the management information does not exist, the insertion information analysis unit 139 determines that there is no management information.

RAMに記憶されている管理情報の解析結果と、再生される動画像のシーン番号および再生時間が一致しているかどうかを判定する(S64)。一致しない場合(S64)、動画像記憶部120から読み出された動画像を再生表示する(S65)。このとき、管理情報が一致していないので、動画像合成部132は表示用画像データとの合成を行わない。   It is determined whether the analysis result of the management information stored in the RAM matches the scene number and playback time of the moving image to be played back (S64). If they do not match (S64), the moving image read from the moving image storage unit 120 is reproduced and displayed (S65). At this time, since the management information does not match, the moving image combining unit 132 does not combine with the display image data.

一致する場合(S64)、挿入情報解析部139は、管理情報の解析結果を表示用データ読出し部124、座標検出部136及び動画像合成部132に伝える(S66)。挿入情報解析部139による管理情報の解析結果を元に、表示用データ読出し部124、座標検出部136およびエフェクト決定部137が、エフェクトを付加した文字列画像データを生成する(S67)。ステップS67で生成された文字列画像データと動画像合成部132が受けた管理情報の解析結果を元に、文字列画像データと動画像を合成する(S68)。ステップS68で合成された動画像を表示制御部138に送る(S69)。表示制御部138に送られた動画像は、タッチパネル114の動画像表示部114bに表示される。   When they match (S64), the insertion information analysis unit 139 transmits the analysis result of the management information to the display data reading unit 124, the coordinate detection unit 136, and the moving image synthesis unit 132 (S66). Based on the analysis result of the management information by the insertion information analysis unit 139, the display data reading unit 124, the coordinate detection unit 136, and the effect determination unit 137 generate character string image data to which the effect is added (S67). Based on the character string image data generated in step S67 and the analysis result of the management information received by the moving image combining unit 132, the character string image data and the moving image are combined (S68). The moving image synthesized in step S68 is sent to the display control unit 138 (S69). The moving image sent to the display control unit 138 is displayed on the moving image display unit 114b of the touch panel 114.

図25は、ステップS69で合成された動画像を再生している合成動画像再生画面の一例を示す。ユーザがタッチパネル114上のタッチパネル入力部114aに入力操作したときに生成された管理情報を解析することで、ユーザの希望する場面でユーザに選択された文字列を、指定のエフェクト付きで動画像と合成表示できる。   FIG. 25 shows an example of a combined video playback screen that plays back the video combined in step S69. By analyzing the management information generated when the user performs an input operation on the touch panel input unit 114a on the touch panel 114, the character string selected by the user in a scene desired by the user is converted into a moving image with a specified effect. Composite display is possible.

ステップS65又はS69の後、ユーザによる入力部118からの再生終了要求があったかどうか、又は、動画像の最終位置になったかどうかを判定する(S70)。どちらかの条件に合致した場合(S70)、表示用データ挿入後の再生処理を終了する。どちらの条件にも合致しない場合(S70)、ステップS64に戻る。   After step S65 or S69, it is determined whether or not there is a reproduction end request from the input unit 118 by the user, or whether or not the final position of the moving image has been reached (S70). If either condition is met (S70), the reproduction process after the display data is inserted is terminated. If neither condition is met (S70), the process returns to step S64.

図12を参照して説明したように、画面確認ボタン80を有する文字列取消し画面を使用することで、上述した方法で挿入した文字列を削除又は取り消すことができる。挿入した文字列を取り消した場合、挿入情報記憶部122に記憶される関連する管理情報も、取消し後の内容に合致するように、挿入情報生成部134により更新される。   As described with reference to FIG. 12, the character string inserted by the above-described method can be deleted or canceled by using the character string cancel screen having the screen confirmation button 80. When the inserted character string is canceled, the related management information stored in the insertion information storage unit 122 is also updated by the insertion information generation unit 134 so as to match the content after cancellation.

動画像記憶部20,120に記憶される動画像に指定の表示用データを合成する実施例を説明した。しかし、本発明は、カメラにおいて、撮像部による撮影中、即ち記録中の動画像にリアルタイムで指定の表示用データを合成する場合にも適用可能であることは明らかである。   The embodiment in which the designated display data is synthesized with the moving images stored in the moving image storage units 20 and 120 has been described. However, it is obvious that the present invention can be applied to a case where designated display data is synthesized in real time with a moving image being shot by the imaging unit, that is, being recorded, in the camera.

以上の説明はあくまでも一例であり、本発明は、上述の実施例に何ら限定されるものではない。   The above description is merely an example, and the present invention is not limited to the above-described embodiment.

10‥‥再生装置
12‥‥システム制御部
14a‥‥タッチパネル入力部
14b‥‥動画像表示部
16‥‥表示用データ記憶部
20‥‥動画像記憶部
22‥‥挿入情報記憶部
24‥‥表示用データ読出し部
30‥‥表示用データ制御部
32‥‥動画像合成部
34‥‥挿入情報生成部
36‥‥座標検出部
39‥‥挿入情報解析部
DESCRIPTION OF SYMBOLS 10 ... Playback apparatus 12 ... System control part 14a ... Touch-panel input part 14b ... Moving image display part 16 ... Display data storage part 20 ... Moving image storage part 22 ... Insertion information storage part 24 ... Display Data reading section 30 ... Display data control section 32 ... Moving image composition section 34 ... Insertion information generation section 36 ... Coordinate detection section 39 ... Insertion information analysis section

Claims (12)

表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出手段と、
動画を再生して前記表示手段に表示するように制御する表示制御手段と、
前記表示制御手段で動画を再生表示している際に前記タッチ検出手段で検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御手段
とを有し、
前記制御手段は、2点でのタッチ操作を検出した場合に2つの入力点間の距離が開くように移動することに応じて、前記表示用データが表示されていない状態から、該2つの入力点間の距離が開く方向に前記表示用データが開くような効果を付して該表示用データが現れるように、かつ、該2つの入力点間の距離が開くように移動しても該表示用データに含まれる要素のサイズを変倍することなく、前記動画に該表示用データを合成するように制御する
ことを特徴とする画像処理装置。
Touch detection means capable of detecting touch operations at a plurality of points on the display means;
Display control means for controlling to reproduce and display a moving image on the display means;
In response to a touch operation at a plurality of points detected by the touch detection unit while the moving image is reproduced and displayed by the display control unit, each input point of the touch operation at the plurality of points is applied to the video. Control means for controlling to synthesize display data with an effect according to the positional relationship,
When the control means detects a touch operation at two points, the control means moves the two input points from a state in which the display data is not displayed in response to movement so that the distance between the two input points is increased. Even if the display data appears so that the display data appears in the direction in which the distance between the points opens , and the distance between the two input points opens, the display An image processing apparatus that controls to combine the display data with the moving image without scaling the size of the elements included in the data .
表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出手段と、
動画を再生して前記表示手段に表示するように制御する表示制御手段と、
前記表示制御手段で動画を再生表示している際に前記タッチ検出手段で検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御手段と
を有し、
前記制御手段は、2点でのタッチ操作を検出した場合に2つの入力点間の距離が小さくなるように移動することに応じて、前記表示用データが表示された状態から、該表示用データに含まれる要素のサイズを変倍することなく、前記表示用データが閉じるような効果を付して該表示用データを合成し、その後、該表示用データを消すように制御する
ことを特徴とする画像処理装置。
Touch detection means capable of detecting touch operations at a plurality of points on the display means;
Display control means for controlling to reproduce and display a moving image on the display means;
In response to a touch operation at a plurality of points detected by the touch detection unit while the moving image is reproduced and displayed by the display control unit, each input point of the touch operation at the plurality of points is applied to the video. Control means for controlling to synthesize display data with an effect according to the positional relationship,
When the control means detects a touch operation at two points, the control means moves the display data from a state in which the display data is displayed in response to movement so that the distance between the two input points becomes small. The display data is synthesized with the effect of closing the display data without changing the size of the elements included in the display, and then the display data is controlled to be erased. An image processing apparatus.
前記制御手段は更に、前記タッチ操作の入力点数に応じた効果を付して前記表示用データを合成するように制御することを特徴とする請求項1又は2の何れか1項に記載の画像処理装置。 It said control means further image according to any one of claims 1 or 2, characterized in that controls to synthesize the display data subjected to effect corresponding to the input points of the touch operation Processing equipment. 前記制御手段は、2点でのタッチ操作を検出した場合に2つの入力点が同じ方向に移動することに応じて、該2つの入力点の移動方向に前記表示用データが移動するような効果を付して該表示用データを合成するように制御することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The control means has an effect that when the touch operation at two points is detected, the display data moves in the moving direction of the two input points in response to the two input points moving in the same direction. the image processing apparatus according to any one of claims 1 to 3, wherein the controller controls so as to synthesize the data for the display are denoted by. 前記制御手段は、前記動画のうち、該タッチ操作の開始から終了までに対応する期間に対して前記表示用データを合成するように制御することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 Wherein, among the video, any one of claims 1 to 4, wherein the controller controls so as to synthesize the display data for the duration corresponding to from the start to the end of the touch operation 1 The image processing apparatus according to item. 前記制御手段は、前記動画のうち、該タッチ操作でのタッチ位置に応じた位置に対して前記表示用データを合成するように制御することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 Wherein, among the video, any one of claims 1 to 5, wherein the controller controls so as to synthesize the display data with respect to the position corresponding to the touch position at the touch operation An image processing apparatus according to 1. 前記表示用データは文字列であることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the display data is a character string. 前記画像処理装置は撮像部を有する撮像装置であることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The image processing apparatus an image processing apparatus according to any one of claims 1 to 7, characterized in that an imaging apparatus having an imaging unit. 表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出ステップと、
動画を再生して前記表示手段に表示するように制御する表示制御ステップと、
前記表示制御ステップで動画を再生表示している際に前記タッチ検出ステップで検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御ステップ
とを有し、
前記制御ステップは、2点でのタッチ操作を検出した場合に2つの入力点間の距離が開くように移動することに応じて、前記表示用データが表示されていない状態から、該2つの入力点間の距離が開く方向に前記表示用データが開くような効果を付して該表示用データが現れるように、かつ、該2つの入力点間の距離が開くように移動しても該表示用データに含まれる要素のサイズを変倍することなく、前記動画に該表示用データを合成するように制御する
ことを特徴とする画像処理装置の制御方法。
A touch detection step capable of detecting touch operations at a plurality of points on the display means;
A display control step for controlling to reproduce and display a moving image on the display means;
In response to the touch operation at a plurality of points detected in the touch detection step when the moving image is reproduced and displayed in the display control step, each input point of the touch operation at the plurality of points is applied to the video. A control step for controlling to synthesize display data with an effect according to the positional relationship,
In the control step, when the touch operation at two points is detected, the two input points are displayed from the state where the display data is not displayed in response to the movement so that the distance between the two input points is increased. Even if the display data appears so that the display data appears in the direction in which the distance between the points opens , and the distance between the two input points opens, the display A control method for an image processing apparatus, wherein control is performed so as to synthesize the display data with the moving image without scaling the size of elements included in the data .
表示手段に対する複数点でのタッチ操作を検出可能なタッチ検出ステップと、
動画を再生して前記表示手段に表示するように制御する表示制御ステップと、
前記表示制御ステップで動画を再生表示している際に前記タッチ検出ステップで検出された複数点でのタッチ操作に応じて、前記動画に対して、該複数点でのタッチ操作の各入力点の位置関係に応じた効果を付して表示用データを合成するように制御する制御ステップ
とを有し、
前記制御ステップは、2点でのタッチ操作を検出した場合に2つの入力点間の距離が小さくなるように移動することに応じて、前記表示用データが表示された状態から、該表示用データに含まれる要素のサイズを変倍することなく、前記表示用データが閉じるような効果を付して該表示用データを合成し、その後、該表示用データを消すように制御する
ことを特徴とする画像処理装置の制御方法。
A touch detection step capable of detecting touch operations at a plurality of points on the display means;
A display control step for controlling to reproduce and display a moving image on the display means;
In response to the touch operation at a plurality of points detected in the touch detection step when the moving image is reproduced and displayed in the display control step, each input point of the touch operation at the plurality of points is applied to the video. A control step for controlling to synthesize display data with an effect according to the positional relationship,
In the control step, when the touch operation at two points is detected, the display data is displayed from the state where the display data is displayed in response to the movement so that the distance between the two input points is reduced. The display data is synthesized with the effect of closing the display data without changing the size of the elements included in the display, and then the display data is controlled to be erased. For controlling an image processing apparatus.
コンピュータを、請求項1乃至のいずれか1項に記載された画像処理装置の各手段として機能させるプログラム。 A program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 8 . コンピュータを、請求項1乃至8のいずれか1項に記載された画像処理装置の各手段として機能させるプログラムを格納したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 8.
JP2009066897A 2009-03-18 2009-03-18 Image processing apparatus, control method and program thereof, and storage medium Expired - Fee Related JP5550247B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009066897A JP5550247B2 (en) 2009-03-18 2009-03-18 Image processing apparatus, control method and program thereof, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009066897A JP5550247B2 (en) 2009-03-18 2009-03-18 Image processing apparatus, control method and program thereof, and storage medium

Publications (3)

Publication Number Publication Date
JP2010220095A JP2010220095A (en) 2010-09-30
JP2010220095A5 JP2010220095A5 (en) 2012-05-10
JP5550247B2 true JP5550247B2 (en) 2014-07-16

Family

ID=42978414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009066897A Expired - Fee Related JP5550247B2 (en) 2009-03-18 2009-03-18 Image processing apparatus, control method and program thereof, and storage medium

Country Status (1)

Country Link
JP (1) JP5550247B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5594117B2 (en) * 2010-12-16 2014-09-24 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129312A (en) * 1993-11-05 1995-05-19 Oki Electric Ind Co Ltd Picture processor
JP2000278635A (en) * 1999-03-26 2000-10-06 Tokyo Electric Power Co Inc:The Device for generating and editing explanation source, device for presenting explanation source and explanation aid system
JP4178679B2 (en) * 1999-08-27 2008-11-12 ソニー株式会社 Recording / reproducing apparatus and image display method
JP2001197366A (en) * 2000-01-12 2001-07-19 Hitachi Ltd Picture synthesis method and recording medium recording picture synthesis program
JP4803883B2 (en) * 2000-01-31 2011-10-26 キヤノン株式会社 Position information processing apparatus and method and program thereof.
JP4903371B2 (en) * 2004-07-29 2012-03-28 任天堂株式会社 Game device and game program using touch panel
JP4200960B2 (en) * 2004-10-01 2008-12-24 ソニー株式会社 Editing apparatus, editing method, and program
WO2008111114A1 (en) * 2007-03-09 2008-09-18 Pioneer Corporation Av editor, av processor, and program

Also Published As

Publication number Publication date
JP2010220095A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
US5963204A (en) Electronic camera with reproduction and display of images at the same timing
US8004594B2 (en) Apparatus, method, and program for controlling display of moving and still images
JP5524653B2 (en) Display control apparatus and control method thereof
JP2010288015A (en) Information processing device, information processing method, and information processing program
KR20210082232A (en) Real-time video special effects systems and methods
JP5701017B2 (en) Movie playback apparatus, movie playback method, computer program, and storage medium
JP5528008B2 (en) Playback apparatus and playback method
KR20070092419A (en) Thumbnail recording method for providing information of video data and terminal using the same
JP2003009044A (en) Method and device for recording and reproducing
JP2016119600A (en) Editing device and editing method
KR101323331B1 (en) Method and apparatus of reproducing discontinuous AV data
US8750685B2 (en) Image processing apparatus
JPWO2020170604A1 (en) Information processing equipment, information processing methods, programs
CN116457067A (en) Rendering and editing recent content in a window during execution of a content application
JP5764005B2 (en) Playback apparatus and playback method
US6577805B1 (en) Picture recording and reproducing apparatus and method
JP5550247B2 (en) Image processing apparatus, control method and program thereof, and storage medium
JP5077979B2 (en) Display control apparatus, display control method, and program
JP4767900B2 (en) Image reproducing apparatus, image reproducing program, recording medium, and image reproducing method
JP4330968B2 (en) REPRODUCTION DEVICE, RECORDING DEVICE, REPRODUCTION PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE REPRODUCTION PROGRAM
JPH10108123A (en) Image reproduction device
JP2012191544A (en) Reproduction apparatus, imaging apparatus, and moving image reproduction program
JP5493362B2 (en) Movie playback apparatus and program
JP4698961B2 (en) Electronic camera and electronic camera control program
JP2008283708A (en) Playback apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140520

R151 Written notification of patent or utility model registration

Ref document number: 5550247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

LAPS Cancellation because of no payment of annual fees