Nothing Special   »   [go: up one dir, main page]

JP4982553B2 - Frame processing apparatus, television receiving apparatus and frame processing method - Google Patents

Frame processing apparatus, television receiving apparatus and frame processing method Download PDF

Info

Publication number
JP4982553B2
JP4982553B2 JP2009292028A JP2009292028A JP4982553B2 JP 4982553 B2 JP4982553 B2 JP 4982553B2 JP 2009292028 A JP2009292028 A JP 2009292028A JP 2009292028 A JP2009292028 A JP 2009292028A JP 4982553 B2 JP4982553 B2 JP 4982553B2
Authority
JP
Japan
Prior art keywords
frame
image
display
eye
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009292028A
Other languages
Japanese (ja)
Other versions
JP2010158013A (en
Inventor
雅弘 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009292028A priority Critical patent/JP4982553B2/en
Publication of JP2010158013A publication Critical patent/JP2010158013A/en
Application granted granted Critical
Publication of JP4982553B2 publication Critical patent/JP4982553B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、画像フレームを処理するフレーム処理装置、このフレーム処理装置を搭載するテレビジョン受信装置、及びフレーム処理方法に関する。   The present invention relates to a frame processing apparatus that processes an image frame, a television receiving apparatus equipped with the frame processing apparatus, and a frame processing method.

立体映像の表示機能を備えたテレビジョン受信装置が知られている。立体映像を実現する仕組みは、様々なものが提案されているが、そのうちの一つは、視聴者の左右の目でそれぞれ見える画像を独立に伝送する表示方式である。さらに、この表示方式は、表示デバイスにて偏光面を変えながら左目用の画像と右目用の画像とを交互に表示させる一方で、これに連動して偏光面が交互に切り替わる眼鏡を視聴者がかけて左右の目で独立の画像を見るといった仕組みである。   There is known a television receiver having a stereoscopic image display function. Various mechanisms for realizing stereoscopic video have been proposed, and one of them is a display method for independently transmitting images that can be seen by the viewer's left and right eyes. Furthermore, this display method allows the viewer to display glasses whose left and right eye images are alternately displayed while changing the polarization plane on the display device, while the polarization plane is alternately switched in conjunction with this. The mechanism is such that the left and right eyes can see independent images.

ここで、立体放送方式対応の映像データであるか、通常の放送方式対応の映像データであるかを、受信した映像データを解析して判別し、この判別結果を利用することで、いずれの映像データを受信した場合でも、モニタに適切に映像を表示させることのできるデジタル放送受信機などもが提案されている(例えば、特許文献1参照)。   Here, by analyzing the received video data to determine whether the video data is compatible with the stereoscopic broadcasting system or the video data compatible with the normal broadcasting system, and using this determination result, which video data There has also been proposed a digital broadcast receiver or the like that can appropriately display an image on a monitor even when data is received (see, for example, Patent Document 1).

特開平10−257525号公報JP-A-10-257525

ところで、上述したような立体映像を表示させる場合、左目用の画像と右目用の画像とを混在させずに交互に表示させることが重要となる。しかしながら、表示装置上での画像表示は、画面の上から下に向けて走査線毎に順次、先に表示されている画像を更新して(書き換えて)行くことが一般的である。   By the way, when displaying the stereoscopic video as described above, it is important to display the left-eye image and the right-eye image alternately without mixing them. However, the image display on the display device generally updates (rewrites) the previously displayed image sequentially for each scanning line from the top to the bottom of the screen.

したがって、例えば画面の中央付近を走査しているタイミングでは、表示画面の上半分が右目用の画像、下半分が左目用の画像となる表示状態が存在し、視聴者がこの画面を見た場合、立体感の失われた画像として見えてしまうことになる。   Therefore, for example, at the timing of scanning near the center of the screen, there is a display state in which the upper half of the display screen is an image for the right eye and the lower half is an image for the left eye, and the viewer views this screen. It will appear as an image with a loss of stereoscopic effect.

本発明は、上記課題を解決するためになされたものであり、立体映像を適切に表示させることのできるフレーム処理装置、テレビジョン受信装置及びフレーム処理方法の提供を目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a frame processing device, a television receiving device, and a frame processing method capable of appropriately displaying a stereoscopic video.

上記目的を達成するために、本発明に係るフレーム処理装置は、三次元の映像を得るための第1及び第2の映像信号を含む立体映像信号から、前記第1の映像信号に対応する第1の画像フレームと前記第2の映像信号に対応する第2の画像フレームとを抽出する第1のフレーム抽出部と、二次元の動画を構成する複数の第3の画像フレームを含む二次元映像信号から前記第3の画像フレームを順次抽出する第2のフレーム抽出部と、前記第1、第2のフレーム抽出部により抽出された前記第1〜第3の画像フレームを記憶可能なフレーム記憶部と、前記フレーム記憶部に記憶される前記複数の第3の画像フレームのうちの、前後の画像フレームの関係から、フレーム周波数を増加させるために用いられる内挿フレームを生成して前記前後の画像フレームの間に挿入する手段と、前記フレーム記憶部に記憶される前記第1の画像フレームを複数回上書きする処理と前記フレーム記憶部に記憶される前記第2の画像フレームを複数回上書きする処理とを交互に繰り返すことによって表示画面上の表示を順次書き換える表示書換部と、前記表示書換部による前記第1、第2の互いに異なる画像フレームへの上書き期間に前記表示画面上の表示を無効にする一方で、同一の画像フレームどうしの上書き期間に前記表示画面上の表示を有効にする手段と、を備え、さらに、前記表示書換部は、前記二次元映像信号から順次抽出されて前記フレーム記憶部に記憶される前記複数の第3の画像フレーム及び前記内挿フレームにて前記表示画面上の表示を書き換えること、を特徴とする。 In order to achieve the above object, a frame processing apparatus according to the present invention provides a first video signal corresponding to the first video signal from a stereoscopic video signal including first and second video signals for obtaining a three-dimensional video. A two-dimensional image including a first frame extraction unit for extracting one image frame and a second image frame corresponding to the second image signal, and a plurality of third image frames constituting a two-dimensional moving image A second frame extraction unit for sequentially extracting the third image frame from the signal; and a frame storage unit capable of storing the first to third image frames extracted by the first and second frame extraction units. When the one of the plurality of third image frames stored in the frame store, the relationship between the images before and after the frame, the interpolation frame used to increase the frame frequency raw form and around the Picture Means to insert between the frame overwrites the frame a plurality of times the second image frame of said first image frame stored in the storage unit is stored in the processing and the frame storage unit to overwrite multiple times A display rewriting unit that sequentially rewrites the display on the display screen by alternately repeating the process, and the display on the display screen is invalidated during the overwriting period of the first and second different image frames by the display rewriting unit. Means for enabling display on the display screen during an overwriting period between the same image frames , and the display rewriting unit sequentially extracts from the 2D video signal and The display on the display screen is rewritten with the plurality of third image frames and the interpolated frames stored in the storage unit .

つまり、本発明は、第1の画像フレームを第2の画像フレームで書き換えている期間、及び第2の画像フレームを第1の画像フレームで書き換えている期間において、表示画面を非表示状態にするものである。これに加えて、本発明は、第1の画像フレームを第1の画像フレームで書き換えている期間、及び第2の画像フレームを第2の画像フレームで書き換えている期間に、表示画面を表示状態にするものである。   That is, according to the present invention, the display screen is in a non-display state during a period in which the first image frame is rewritten with the second image frame and a period in which the second image frame is rewritten with the first image frame. Is. In addition, the present invention displays the display screen during the period in which the first image frame is rewritten with the first image frame and the period in which the second image frame is rewritten with the second image frame. It is to make.

したがって、本発明によれば、表示画面の書き換えの過渡期であっても、第1の画像フレームと第2の画像フレームとが混在して表示されることなどが阻止され、これにより、立体映像を適切に表示させることが可能となる。また、本発明では、このようなフレーム処理装置を搭載させたテレビジョン受信装置を構成することもできる。   Therefore, according to the present invention, the first image frame and the second image frame are prevented from being displayed in a mixed state even during the transition period of rewriting of the display screen. Can be displayed appropriately. Further, in the present invention, a television receiving device on which such a frame processing device is mounted can be configured.

また、本発明に係るフレーム処理方法は、三次元の映像を得るための第1及び第2の映像信号を含む立体映像信号から、前記第1の映像信号に対応する第1の画像フレームと前記第2の映像信号に対応する第2の画像フレームとを抽出する第1の抽出ステップと、二次元の動画を構成する複数の第3の画像フレームを含む二次元映像信号から前記第3の画像フレームを順次抽出する第2の抽出ステップと、前記第1又は第2の抽出ステップで抽出された前記第1及び2の画像フレーム、又は前記第3の画像フレームをフレーム記憶部に記憶させる記憶ステップと、前記フレーム記憶部に記憶させた前記複数の第3の画像フレームのうちの、前後の画像フレームの関係から、フレーム周波数を増加させるために用いられる内挿フレームを生成して前記前後の画像フレームの間に挿入するステップと、前記記憶ステップで前記フレーム記憶部に記憶させた前記第1の画像フレームを複数回上書きする処理と前記記憶ステップでフレーム記憶部に記憶させた前記第2の画像フレームを複数回上書きする処理とを交互に繰り返すことによって表示画面上の表示を順次書き換えるステップと、前記第1、第2の互いに異なる画像フレームへの上書き期間に前記表示画面上の表示を無効にする一方で、同一の画像フレームどうしの上書き期間に前記表示画面上の表示を有効にするステップと、前記二次元映像信号から順次抽出されて前記フレーム記憶部に記憶される前記複数の第3の画像フレーム及び前記内挿フレームにて前記表示画面上の表示を書き換えるステップとを有することを特徴とする。 The frame processing method according to the present invention includes a first image frame corresponding to the first video signal, and a first image frame corresponding to the first video signal, from a stereoscopic video signal including first and second video signals for obtaining a three-dimensional video. A first extraction step for extracting a second image frame corresponding to the second video signal; and the third image from a two-dimensional video signal including a plurality of third image frames constituting a two-dimensional moving image. A second extraction step for sequentially extracting frames, and a storage step for storing the first and second image frames extracted in the first or second extraction step, or the third image frame in a frame storage unit. When, among the third image frame of the plurality of which is stored in the frame storage unit, from the relationship between the images before and after the frame, it generates an interpolation frame to be used to increase the frame frequency A step to insert between the image frames before and after the above has been stored in the frame store in the first image frame is stored in the frame store at the storing step and a process of overwriting multiple times the storage step Sequentially rewriting the display on the display screen by alternately repeating the process of overwriting the second image frame a plurality of times; and on the display screen during the overwriting period of the first and second different image frames. The display on the display screen during the overwriting period between the same image frames, and the two-dimensional video signal sequentially extracted and stored in the frame storage unit It is characterized by a step of rewriting the display on the display screen in a plurality of the third image frame and the interpolation frame .

本発明によれば、立体映像を適切に表示させることの可能なフレーム処理装置、テレビジョン受信装置及びフレーム処理方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the frame processing apparatus, television receiver, and frame processing method which can display a stereo image appropriately can be provided.

本発明の実施形態に係るフレーム処理部を搭載したテレビジョン受信装置の構成を示す機能ブロック図。The functional block diagram which shows the structure of the television receiver which mounts the frame process part which concerns on embodiment of this invention. 図1のフレーム処理部の構成を示す機能ブロック図。The functional block diagram which shows the structure of the frame process part of FIG. 図2のフレーム処理部が備えた左右画像分離回路によるノンインターレース変換処理を模式的に示す図。The figure which shows typically the non-interlace conversion process by the right-and-left image separation circuit with which the frame process part of FIG. 2 was provided. 図2のフレーム処理部が備えた左右画像分離回路による水平二倍伸張処理を模式的に示す図。The figure which shows typically the horizontal double expansion process by the right-and-left image separation circuit with which the frame process part of FIG. 2 was provided. 図2のフレーム処理部が備えたフレーム内挿回路による内挿フレームの生成処理を模式的に示す図。The figure which shows typically the production | generation process of the interpolation frame by the frame interpolation circuit with which the frame process part of FIG. 2 was provided. 図2のフレーム処理部が備えたフレーム群生成部による左目用、右目用フレーム群の生成処理を模式的に示す図。The figure which shows typically the production | generation process of the frame group for left eyes by the frame group production | generation part with which the frame process part of FIG. 2 was provided. 図1のテレビジョン受信装置の表示画面に表示された左目用の画像フレームを右目用の画像フレームに書き換えている途中の過渡的な状態を示す図。The figure which shows the transitional state in the middle of rewriting the image frame for left eyes displayed on the display screen of the television receiver of FIG. 1 to the image frame for right eyes. 図2のフレーム処理部が備えた表示無効部による映像表示器のバックライトに対する制御を示す図。The figure which shows control with respect to the backlight of a video display by the display invalid part with which the frame process part of FIG. 2 was provided. 図2のフレーム処理部による処理を示すフローチャート。The flowchart which shows the process by the frame process part of FIG. フレーム群生成部による図6と異なる左目用、右目用フレーム群の生成処理を模式的に示す図。The figure which shows typically the production | generation process of the frame group for left eyes and right eyes different from FIG. 6 by a frame group production | generation part.

以下、本発明を実施するための形態を図面に基づき説明する。
図1は、本発明の実施形態に係るフレーム処理部(フレーム処理装置)50を搭載したテレビジョン受信装置10の構成を示す機能ブロック図である。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
FIG. 1 is a functional block diagram showing a configuration of a television receiver 10 equipped with a frame processing unit (frame processing device) 50 according to an embodiment of the present invention.

本実施形態のテレビジョン受信装置10は、図1に示すように、デジタルテレビジョン放送受信装置である。このテレビジョン受信装置(以下「DTV装置」と記述)10は、例えばSED(Surface-conduction Electron-emitter Display)表示パネルや液晶表示パネルなどの平面パネル型の映像表示器12、スピーカ14、操作部15、及びリモートコントローラ16から送信される操作情報を受ける受光部18が、キャビネットに設けられている。映像表示器12は、表示素子が光源からの光の供給を受けて表示を行うタイプの表示装置であり、バックライト12aやこのバックライト12aを駆動するドライバ回路12bなどを備えている。   The television receiver 10 of this embodiment is a digital television broadcast receiver as shown in FIG. The television receiver (hereinafter referred to as “DTV device”) 10 includes a flat panel type video display 12 such as a surface-conduction electron-emitter display (SED) display panel or a liquid crystal display panel, a speaker 14, and an operation unit. 15 and a light receiving unit 18 that receives operation information transmitted from the remote controller 16 is provided in the cabinet. The video display 12 is a type of display device in which a display element receives a light supply from a light source for display, and includes a backlight 12a, a driver circuit 12b for driving the backlight 12a, and the like.

また、このDTV装置10は、例えばSD(Secure Digital)メモリカード、MMC(Multimedia Card)及びメモリスティックなどの第1のメモリカード19が着脱可能となっており、この第1のメモリカード19に対して番組や写真などの情報の記録再生が行なわれる。さらに、このDTV装置10は、例えば契約情報などの記録された第2のメモリカード(ICカード)20が着脱可能となっており、この第2のメモリカード20に対して情報の記録再生が行なわれる。   Further, the DTV device 10 is detachable from a first memory card 19 such as an SD (Secure Digital) memory card, an MMC (Multimedia Card), and a memory stick. Recording and playback of information such as programs and photos are performed. Further, the DTV device 10 is detachable from, for example, a second memory card (IC card) 20 on which contract information and the like are recorded, and information is recorded on and reproduced from the second memory card 20. It is.

また、このDTV装置10は、第1のLAN(Local Area Network)端子21、第2のLAN端子22、USB(Universal Serial Bus)端子23及びi.LINK(登録商標)端子24を備えている。このうち、第1のLAN端子21は、LAN対応HDD(Hard Disk Drive)専用ポートとして用いられ、接続されたNAS(Network Attached Storage)であるLAN対応のHDDに対し、イーサネット(登録商標)により情報の記録再生を行うために使用される。   The DTV apparatus 10 includes a first LAN (Local Area Network) terminal 21, a second LAN terminal 22, a USB (Universal Serial Bus) terminal 23, and an i. A LINK (registered trademark) terminal 24 is provided. Among these, the first LAN terminal 21 is used as a LAN-compatible HDD (Hard Disk Drive) dedicated port, and information on the connected LAN-compatible HDD, which is NAS (Network Attached Storage), is transmitted by Ethernet (registered trademark). It is used to record and play back.

このようにLAN対応HDD専用ポートとしての第1のLAN端子21を設けることにより、他のネットワーク環境やネットワーク使用状況などに影響されることなく、HDDに対してハイビジョン画質による番組の情報記録を安定して行なうことができる。また、第2のLAN端子22は、イーサネット(登録商標)を用いた一般的なLAN対応ポートとして用いられ、例えばハブを介して、LAN対応のHDD、PC(Personal Computer)HDD内蔵のDVD(Digital Versatile Disk)レコーダなどの機器を接続し、これらの機器と情報伝送を行なうために使用される。   By providing the first LAN terminal 21 as a LAN-compatible HDD-dedicated port in this way, it is possible to stably record program information with high-definition image quality on the HDD without being affected by other network environments or network usage conditions. Can be done. The second LAN terminal 22 is used as a general LAN-compatible port using Ethernet (registered trademark). For example, via a hub, a LAN-compatible HDD and a PC (Personal Computer) HDD built-in DVD (Digital Versatile Disk) Used to connect devices such as recorders and to transmit information with these devices.

なお、上記PCは、家庭内ネットワークにおいてコンテンツのサーバ機器として動作するための機能を持ち、さらにコンテンツのアクセスに必要なURI(Uniform Resource Identifier)情報を提供するサービスを備えたUPnP(ユニバーサルプラグアンドプレイ)対応機器などとして用いることが可能である。また、上記DVDレコーダでは、第2のLAN端子22を介して通信されるデジタル情報が制御系のみの情報であるため、DTV装置10との間でアナログの映像及び音声情報を伝送するために、専用のアナログ伝送路を設ける必要がある。さらに、この第2のLAN端子22は、ハブに接続されたルータ(ブロードバンドルータ)などを介してインターネット(ネットワーク)への接続を可能とする。   The PC has a function to operate as a content server device in a home network, and further includes a UPnP (universal plug and play) service that provides URI (Uniform Resource Identifier) information necessary for content access. ) It can be used as a compatible device. In the DVD recorder, since digital information communicated via the second LAN terminal 22 is information only for the control system, in order to transmit analog video and audio information to and from the DTV device 10, It is necessary to provide a dedicated analog transmission line. Further, the second LAN terminal 22 enables connection to the Internet (network) via a router (broadband router) connected to a hub.

USB端子23は、一般的なUSB対応ポートとして用いられ、例えばハブを介して、携帯電話、デジタルカメラ、メモリカードに対するカードリーダ/ライタ、HDD、キーボードなどのUSB機器を接続し、これらのUSB機器と情報伝送を行なうために使用される。i.LINK(登録商標)端子24は、例えばAV−HDD、D(Digital)−VHS(Video Home System)などをシリアル接続し、これらの機器と情報伝送を行うために使用される。   The USB terminal 23 is used as a general USB-compatible port. For example, a USB device such as a mobile phone, a digital camera, a memory card, a card reader / writer, an HDD, and a keyboard is connected via a hub. And used for information transmission. i. The LINK (registered trademark) terminal 24 is used for serially connecting, for example, AV-HDD, D (Digital) -VHS (Video Home System), and the like, and performing information transmission with these devices.

ここで、本実施形態のDTV装置10は、BS/CS/地上デジタル放送などをデジタルテレビ放送(二次元映像放送)と、後に詳述する立体映像放送(デジタル立体放送)とを受信可能である。また、DTV装置10は、二次元又は立体の映像データと、音声データ(及びテキスト情報)とが多重化された放送波が、図1に示すように、アンテナ25、26を介して受信される。   Here, the DTV apparatus 10 according to the present embodiment can receive BS / CS / terrestrial digital broadcasting and the like in digital television broadcasting (two-dimensional video broadcasting) and stereoscopic video broadcasting (digital stereoscopic broadcasting) described in detail later. . In addition, the DTV apparatus 10 receives broadcast waves in which two-dimensional or stereoscopic video data and audio data (and text information) are multiplexed via antennas 25 and 26 as shown in FIG. .

具体的には、図1に示すように、DTV装置10では、BS/CSデジタル放送受信用のアンテナ25で受信した衛星デジタルテレビジョン放送信号は、入力端子27を介して衛星デジタル放送用のチューナ27aに供給される。チューナ27aは、コントローラ30からの制御信号により所望のチャンネルの放送信号を選局し、この選局された放送信号をPSK(Phase Shift Keying)復調器27bに出力する。   Specifically, as shown in FIG. 1, in the DTV apparatus 10, the satellite digital television broadcast signal received by the antenna 25 for BS / CS digital broadcast reception is sent to the tuner for satellite digital broadcast via the input terminal 27. 27a. The tuner 27a selects a broadcast signal of a desired channel based on a control signal from the controller 30, and outputs the selected broadcast signal to a PSK (Phase Shift Keying) demodulator 27b.

PSK復調器27bは、コントローラ30からの制御信号により、チューナ27aで選局された放送信号を復調し、所望の番組を含んだトランスポートストリームを得て、TS復号器27cに出力する。TS復号器27cは、コントローラ30からの制御信号を基づき、トランスポートストリーム(TS)で多重化された信号のTS復号処理を行い、所望の番組のデジタルの映像信号及び音声信号をデパケットすることで得たPES(Packetized Elementary Stream)を信号処理部31内のSTDバッファへ出力する。さらに、TS復号器27cは、デジタル放送により送られているセクション情報を信号処理部31へ出力する。   The PSK demodulator 27b demodulates the broadcast signal selected by the tuner 27a according to the control signal from the controller 30, obtains a transport stream including a desired program, and outputs the transport stream to the TS decoder 27c. The TS decoder 27c performs TS decoding processing on the signal multiplexed with the transport stream (TS) based on the control signal from the controller 30, and depackets the digital video signal and audio signal of the desired program. The obtained PES (Packetized Elementary Stream) is output to the STD buffer in the signal processing unit 31. Further, the TS decoder 27 c outputs the section information transmitted by digital broadcasting to the signal processing unit 31.

一方、地上波放送受信用のアンテナ26で受信した地上デジタルテレビジョン放送信号は、入力端子28を介して地上デジタル放送用のチューナ28aに供給される。チューナ28aは、コントローラ30からの制御信号により所望のチャンネルの放送信号を選局し、この選局された放送信号をOFDM(Orthogonal Frequency Division Multiplexing)復調器28bに出力する。OFDM復調器28bは、コントローラ30からの制御信号により、チューナ28aで選局された放送信号を復調し、所望の番組を含んだトランスポートストリームを得て、TS復号器28cに出力する。   On the other hand, the terrestrial digital television broadcast signal received by the terrestrial broadcast receiving antenna 26 is supplied to the terrestrial digital broadcast tuner 28 a via the input terminal 28. The tuner 28a selects a broadcast signal of a desired channel according to a control signal from the controller 30, and outputs the selected broadcast signal to an OFDM (Orthogonal Frequency Division Multiplexing) demodulator 28b. The OFDM demodulator 28b demodulates the broadcast signal selected by the tuner 28a based on the control signal from the controller 30, obtains a transport stream including a desired program, and outputs the transport stream to the TS decoder 28c.

TS復号器28cは、コントローラ30からの制御信号に基づき、トランスポートストリーム(TS)で多重化された信号のTS復号処理を行い、所望の番組のデジタルの映像信号及び音声信号をデパケットすることにより得たPESを信号処理部31内のSTDバッファへ出力する。また、TS復号器28cは、デジタル放送により送られているセクション情報を信号処理部31へ出力する。また、アナログ復調器28eは、チューナ28dで選局されたアナログの放送信号を復調し、信号処理部31に出力する。さらに、PSK復調器27b又はOFDM復調器28bは、チューナ27a又はチューナ28aで選局された立体映像の放送波を復調し、さらに、TS復号器27c又はTS復号器28cは、復調された立体映像のストリームをデコードして信号処理部31に出力する。   The TS decoder 28c performs TS decoding processing on the signal multiplexed with the transport stream (TS) based on the control signal from the controller 30 and depackets the digital video signal and audio signal of the desired program. The obtained PES is output to the STD buffer in the signal processing unit 31. Also, the TS decoder 28c outputs section information transmitted by digital broadcasting to the signal processing unit 31. The analog demodulator 28e demodulates the analog broadcast signal selected by the tuner 28d and outputs the demodulated signal to the signal processing unit 31. Further, the PSK demodulator 27b or the OFDM demodulator 28b demodulates the broadcast wave of the stereoscopic video selected by the tuner 27a or the tuner 28a, and the TS decoder 27c or the TS decoder 28c further demodulates the demodulated stereoscopic video. Are decoded and output to the signal processing unit 31.

ここで、上記信号処理部31は、テレビ視聴時には、TS復号器27c及びTS復号器28cからそれぞれ供給されたデジタルの映像信号及び音声信号に対して、選択的に所定のデジタル信号処理を施し、グラフィック処理部32及び音声処理部33に出力する。また、信号処理部31は、テレビジョン放送以外のコンテンツの再生時には、コントローラ30から入力されたコンテンツの再生信号を選択し、所定のデジタル信号処理を施し、グラフィック処理部32及び音声処理部33に出力する。   Here, the signal processing unit 31 selectively performs predetermined digital signal processing on the digital video signal and audio signal respectively supplied from the TS decoder 27c and the TS decoder 28c when watching TV, The data is output to the graphic processing unit 32 and the audio processing unit 33. Further, the signal processing unit 31 selects a content reproduction signal input from the controller 30 when reproducing content other than television broadcasting, performs predetermined digital signal processing, and sends it to the graphic processing unit 32 and the audio processing unit 33. Output.

また、信号処理部31は、TS復号器27c(28c)から入力されたセクション情報の中から、番組を取得するための各種データや電子番組ガイド(EPG)情報、番組属性情報(番組ジャンル等)、字幕情報(サービス情報、SIやPSI)をコントローラ30へ出力する。ROM30a、RAM30b、不揮発性メモリ30cなどを備えるコントローラ30は、これら入力された情報からEPG、字幕を表示するため画像生成処理を行い、この生成した画像情報をグラフィック処理部32へ出力する。   The signal processing unit 31 also includes various data for obtaining a program, electronic program guide (EPG) information, program attribute information (program genre, etc.) from the section information input from the TS decoder 27c (28c). Subtitle information (service information, SI and PSI) is output to the controller 30. The controller 30 including the ROM 30a, the RAM 30b, the nonvolatile memory 30c, and the like performs image generation processing for displaying EPG and subtitles from these input information, and outputs the generated image information to the graphic processing unit 32.

グラフィック処理部32は、後に詳述するフレームレート変換回路59を備えている。また、本実施形態のDTV装置10は、フレーム同期信号発生回路36を備えており、フレームレート変換回路59が画像フレームを生成する際のタイミングを付与する。グラフィック処理部32は、信号処理部31内のAVデコーダから供給されるデジタルの映像信号と、OSD(On Screen Display)信号生成部34で生成されるOSD信号と、データ放送による画像データと、コントローラ30により生成されたEPG、字幕信号とを合成して映像処理部35へ出力する機能を有する。また、字幕放送による字幕を表示するとき、グラフィック処理部32は、コントローラ30からの制御に基づき、映像信号上に字幕情報を重畳する処理を行う。   The graphic processing unit 32 includes a frame rate conversion circuit 59 described in detail later. In addition, the DTV apparatus 10 of this embodiment includes a frame synchronization signal generation circuit 36, and gives a timing when the frame rate conversion circuit 59 generates an image frame. The graphic processing unit 32 includes a digital video signal supplied from an AV decoder in the signal processing unit 31, an OSD signal generated by an OSD (On Screen Display) signal generation unit 34, image data by data broadcasting, a controller 30 has a function of synthesizing the EPG generated by 30 and the caption signal and outputting them to the video processing unit 35. In addition, when displaying a caption by caption broadcasting, the graphic processing unit 32 performs a process of superimposing caption information on a video signal based on control from the controller 30.

グラフィック処理部32から出力されたデジタルの映像信号は、映像処理部35に供給される。この映像処理部35は、入力されたデジタルの映像信号を、映像表示器12で表示可能なフォーマットのアナログ映像信号に変換した後、映像表示器12に出力して映像表示させると共に、映像出力端子38を介して外部に導出させる。また、上記した音声処理部33は、入力されたデジタルの音声信号を、スピーカ14で再生可能なフォーマットのアナログ音声信号に変換した後、スピーカ14に出力して音声を再生させると共に、音声出力端子37を介して外部に導出させる。   The digital video signal output from the graphic processing unit 32 is supplied to the video processing unit 35. The video processing unit 35 converts the input digital video signal into an analog video signal in a format that can be displayed on the video display 12 and then outputs the analog video signal to the video display 12 to display the video. 38 to the outside. The audio processing unit 33 converts the input digital audio signal into an analog audio signal in a format that can be reproduced by the speaker 14 and then outputs the analog audio signal to the speaker 14 to reproduce the audio. 37 to the outside.

ここで、このDTV装置10は、上記した各種の受信動作を含むその全ての動作がコントローラ30によって統括的に制御されている。このコントローラ30は、CPU(Central Processing Unit)などを内蔵しており、操作部15からの操作情報を受け、又はリモートコントローラ16から送出された操作情報を、受光部18を介して受信し、その操作内容が反映されるように各部をそれぞれ制御している。この場合、コントローラ30は、主として、そのCPUが実行する制御プログラムを格納したROM(Read Only Memory)30aと、CPUに作業エリアを提供するRAM(Random Access Memory)30bと、各種の設定情報及び制御情報などが格納される不揮発性メモリ30cとを利用している。   Here, in the DTV device 10, all the operations including the above-described various reception operations are comprehensively controlled by the controller 30. The controller 30 includes a CPU (Central Processing Unit) and the like, receives operation information from the operation unit 15 or receives operation information sent from the remote controller 16 via the light receiving unit 18, Each unit is controlled so that the operation content is reflected. In this case, the controller 30 mainly includes a ROM (Read Only Memory) 30a storing a control program executed by the CPU, a RAM (Random Access Memory) 30b providing a work area to the CPU, various setting information and control. A nonvolatile memory 30c in which information and the like are stored is used.

また、コントローラ30は、カードI/F(Interface)41を介して、第1のメモリカード19を装着可能なカードホルダ40に接続されている。これによって、コントローラ30は、カードホルダ40に装着された第1のメモリカード19と、カードI/F41を介して情報を伝送することができる。さらに、コントローラ30は、カードI/F43を介して、第2のメモリカード20を装着可能なカードホルダ42に接続されている。これにより、コントローラ30は、カードホルダ42に装着された第2のメモリカード20と、カードI/F43を介して情報を伝送することができる。   Further, the controller 30 is connected to a card holder 40 in which the first memory card 19 can be mounted via a card I / F (Interface) 41. As a result, the controller 30 can transmit information to the first memory card 19 attached to the card holder 40 via the card I / F 41. Furthermore, the controller 30 is connected to a card holder 42 into which the second memory card 20 can be mounted via the card I / F 43. Thereby, the controller 30 can transmit information to the second memory card 20 mounted on the card holder 42 via the card I / F 43.

また、コントローラ30は、通信I/F45を介して第1のLAN端子21に接続されている。これにより、コントローラ30は、第1のLAN端子21に接続されたLAN対応のHDD25と、通信I/F45を介して情報を伝送することができる。この場合、コントローラ30は、DHCP(Dynamic Host Configuration Protocol)サーバ機能を有し、第1のLAN端子21に接続されたLAN対応のHDD25にIP(Internet Protocol)アドレスを割り当てて制御を行う。さらに、コントローラ30は、通信I/F46を介して第2のLAN端子22に接続されている。これにより、コントローラ30は、図3に示すように、第2のLAN端子22に接続された各機器と、通信I/F46を介して情報を伝送することができる。   The controller 30 is connected to the first LAN terminal 21 via the communication I / F 45. Thereby, the controller 30 can transmit information to the LAN-compatible HDD 25 connected to the first LAN terminal 21 via the communication I / F 45. In this case, the controller 30 has a DHCP (Dynamic Host Configuration Protocol) server function, and performs control by assigning an IP (Internet Protocol) address to the LAN-compatible HDD 25 connected to the first LAN terminal 21. Furthermore, the controller 30 is connected to the second LAN terminal 22 via the communication I / F 46. Thereby, as shown in FIG. 3, the controller 30 can transmit information to each device connected to the second LAN terminal 22 via the communication I / F 46.

また、コントローラ30は、USB I/F47を介してUSB端子23に接続されている。これにより、コントローラ30は、USB端子23に接続された各機器と、USB I/F47を介して情報の伝送を行う。さらに、コントローラ30は、i.LINK(登録商標)I/F48を介してi.LINK(登録商標)端子24に接続されている。これにより、コントローラ30は、i.LINK(登録商標)端子24に接続された各機器と、i.LINK(登録商標)I/F48を介して情報伝送することができる。   The controller 30 is connected to the USB terminal 23 via the USB I / F 47. As a result, the controller 30 transmits information to each device connected to the USB terminal 23 via the USB I / F 47. Further, the controller 30 is configured to i. Via the LINK® I / F 48 i. A LINK (registered trademark) terminal 24 is connected. As a result, the controller 30 makes the i. Each device connected to the LINK (registered trademark) terminal 24; i. Information can be transmitted via the LINK (registered trademark) I / F 48.

次に、本実施形態に係るフレーム処理部50の構成を上述した図1に加え、図2〜図8に基づき説明する。ここで、図2は、フレーム処理部50の構成を示す機能ブロック図である。また、図3は、フレーム抽出部53の左右画像分離回路53aによるノンインターレース変換処理を模式的に示す図である。さらに、図4は、左右画像分離回路53aによる水平二倍伸張処理を模式的に示す図であり、図5は、フレーム群生成部57のフレーム内挿回路57aによる内挿フレームの生成処理を模式的に示す図である。また、図6は、フレーム群生成部55による左目用、右目用フレーム群の生成処理を模式的に示す図であり、図7は、表示画面12cに表示された左目用の画像フレームを右目用の画像フレームに書き換えている途中の過渡的な状態を示す図である。さらに、図8は、表示無効部61による映像表示器12のバックライト12aに対する制御を示す図である。   Next, the configuration of the frame processing unit 50 according to the present embodiment will be described based on FIGS. 2 to 8 in addition to FIG. 1 described above. Here, FIG. 2 is a functional block diagram showing a configuration of the frame processing unit 50. FIG. 3 is a diagram schematically showing non-interlace conversion processing by the left and right image separation circuit 53a of the frame extraction unit 53. Further, FIG. 4 is a diagram schematically illustrating horizontal double expansion processing by the left and right image separation circuit 53a, and FIG. 5 is a schematic diagram of interpolation frame generation processing by the frame interpolation circuit 57a of the frame group generation unit 57. FIG. FIG. 6 is a diagram schematically showing the left eye and right eye frame group generation processing by the frame group generation unit 55, and FIG. 7 shows the left eye image frame displayed on the display screen 12c for the right eye. It is a figure which shows the transitional state in the middle of rewriting to the image frame of. Further, FIG. 8 is a diagram showing the control of the backlight 12 a of the video display 12 by the display invalidation unit 61.

上記フレーム処理部50を備えるDTV装置10では、立体映像放送を受信した場合、概略的には、映像表示器12で左目用の画像と右目用の画像とを1/240sec毎に切り替えながら交互に表示させる一方で、これに連動して右目側及び左目側の映像の透過/非透過が交互に切り替わる図2に示す立体映像視認眼鏡62を視聴者がかけることで、左右の目で独立の画像(立体映像)を見ることができる。   In the DTV device 10 including the frame processing unit 50, when a stereoscopic video broadcast is received, the video display 12 roughly switches between a left-eye image and a right-eye image every 1/240 sec. While displaying, on the other hand, the viewer wears the stereoscopic video viewing glasses 62 shown in FIG. 2 in which the transmission / non-transmission of the right-eye and left-eye images is alternately switched. (Stereoscopic images) can be viewed.

つまり、フレーム処理部50は、図2に示すように、信号判別回路52を有する信号入力回路51、左右画像分離回路53a及び選択回路53bを有するフレーム抽出部53、フレーム遅延回路56aを有するフレーム抽出部56、フレーム記憶部55aを有するフレーム群生成部55、フレーム内挿回路57aを有するフレーム群生成部57、切替回路58、映像信号出力部35aを有する映像処理部35、並びに表示無効部61を備える。さらに、フレーム処理部50には、上記立体映像視認眼鏡62と接続される眼鏡切替部60などが設けられている。また、フレーム処理部50のフレームレート変換回路59には、フレーム同期信号発生回路36の発生するフレーム同期信号が入力される。   That is, as shown in FIG. 2, the frame processing unit 50 includes a signal input circuit 51 having a signal discrimination circuit 52, a frame extraction unit 53 having a left / right image separation circuit 53a and a selection circuit 53b, and a frame extraction having a frame delay circuit 56a. 56, a frame group generation unit 55 having a frame storage unit 55a, a frame group generation unit 57 having a frame interpolation circuit 57a, a switching circuit 58, a video processing unit 35 having a video signal output unit 35a, and a display invalidation unit 61. Prepare. Further, the frame processing unit 50 is provided with a glasses switching unit 60 connected to the stereoscopic image viewing glasses 62 and the like. A frame synchronization signal generated by the frame synchronization signal generation circuit 36 is input to the frame rate conversion circuit 59 of the frame processing unit 50.

信号入力部として機能する信号入力回路51は、入力映像信号の種類、つまり、左目用の映像信号と右目用の映像信号とが多重化された立体映像信号であるか、又は二次元の映像を表す通常の二次元映像信号であるかを判別する。ここで、信号判別回路52を持つ信号入力回路51は、その入力インタフェースがHDMI(High-Definition Multimedia Interface)レシーバで構成されている。これにより、接続認証の際に信号判別回路52で入力映像信号の種類を取り出すことによって、入力映像信号の形式を得ることができる。また、信号判別回路52は、TS復号器27c又はTS復号器28cで得られたデータストリームのヘッダなどに記述されている情報を基に、映像信号の種類の判別することができる。   The signal input circuit 51 that functions as a signal input unit is a type of input video signal, that is, a stereoscopic video signal in which a video signal for the left eye and a video signal for the right eye are multiplexed, or a two-dimensional video. It is determined whether it is a normal two-dimensional video signal to be represented. Here, the signal input circuit 51 having the signal discriminating circuit 52 is configured with an HDMI (High-Definition Multimedia Interface) receiver as its input interface. Accordingly, the type of the input video signal can be obtained by extracting the type of the input video signal by the signal discrimination circuit 52 at the time of connection authentication. Further, the signal determination circuit 52 can determine the type of the video signal based on information described in the header of the data stream obtained by the TS decoder 27c or the TS decoder 28c.

ここで、立体映像信号の場合、種々のエンコード方式がある。例えば、図3に示すように、1走査線毎に左目用の画像データLと右目用の画像データRとが交互に多重化された画像フレームE3がある。また、図4に示すように、1つの画像フレームの左半分に左目用の画像データL、右半分に右目用の画像データRを有する画像フレームE1(E2)などもある。このようなエンコード方式の信号も、接続認証やヘッダ情報などで立体映像信号であることを知ることができる。   Here, in the case of a stereoscopic video signal, there are various encoding methods. For example, as shown in FIG. 3, there is an image frame E3 in which image data L for the left eye and image data R for the right eye are alternately multiplexed for each scanning line. As shown in FIG. 4, there is also an image frame E1 (E2) having left-eye image data L in the left half and right-eye image data R in the right half. It is possible to know that such an encoded signal is also a stereoscopic video signal through connection authentication, header information, and the like.

フレーム抽出部(第2のフレーム抽出部)56は、信号入力回路51により二次元映像信号が入力されたことが信号判別回路52により判別された場合、図5に示すように、当該入力された二次元映像信号から二次元映像用の画像フレームF1、F2…を順次抽出する。フレーム遅延回路56aは、図5に示すように、対象の画像フレームF1の1フレーム後の画像フレームF2を取得し、現画像のフレームF1と遅延された画像フレームF2とを図2に示すように、フレーム群生成部(第2のフレーム群生成部)57のフレーム内挿回路57aに送る。また、これに代えて、(図2中の破線の矢印線で示すように)上記現画像のフレームF1と遅延した画像フレームF2とをフレーム群生成部55内のフレーム記憶部55aにて取得し、これら取得した画像フレームF1、F2をフレーム記憶部55aからフレーム群生成部57側に送るようにしてもよい。これにより、フレーム群生成部55が備えるフレーム記憶部55a内の記憶領域を、有効に活用(共用)することができる。   When the signal discrimination circuit 52 determines that the 2D video signal is input by the signal input circuit 51, the frame extraction unit (second frame extraction unit) 56 receives the input as shown in FIG. Image frames F1, F2,... For 2D video are sequentially extracted from the 2D video signal. As shown in FIG. 5, the frame delay circuit 56a obtains an image frame F2 that is one frame after the target image frame F1, and the frame F1 of the current image and the delayed image frame F2 as shown in FIG. The frame group generation unit (second frame group generation unit) 57 sends it to the frame interpolation circuit 57a. Alternatively, the frame storage unit 55a in the frame group generation unit 55 acquires the frame F1 of the current image and the delayed image frame F2 (as indicated by the broken arrow line in FIG. 2). The acquired image frames F1 and F2 may be sent from the frame storage unit 55a to the frame group generation unit 57 side. Thereby, the storage area in the frame storage unit 55a included in the frame group generation unit 55 can be effectively utilized (shared).

フレーム群生成部57のフレーム内挿回路57aは、図5に示すように、フレーム抽出部56により順次抽出される複数の二次元映像用の画像フレームF1、F2…のうちで、互いに隣接する前後の画像フレームF1、F2どうしの関係から予測(例えば動き検出の結果などを基に予測)したその中間の過渡的な動画像に相当する内挿フレームD2を生成する。さらに、フレーム内挿回路57aは、図5に示すように、画像フレームF1及び生成した内挿フレームD2を基に、内挿フレームD1を生成する。さらに、フレーム内挿回路57aは、図5に示すように、内挿フレームD2及び画像フレームF2を基に内挿フレームD3を生成する。このようにして、画像フレーム数を増加させることで、スポーツなどの動きの激しい二次元動画の場合でも、これを良好に表示させることができる。   As shown in FIG. 5, the frame interpolation circuit 57 a of the frame group generation unit 57 includes a plurality of two-dimensional video image frames F1, F2,. An interpolated frame D2 corresponding to an intermediate transitional moving image predicted based on the relationship between the image frames F1 and F2 (for example, predicted based on the result of motion detection) is generated. Further, as shown in FIG. 5, the frame interpolation circuit 57a generates an interpolation frame D1 based on the image frame F1 and the generated interpolation frame D2. Further, the frame interpolation circuit 57a generates an interpolation frame D3 based on the interpolation frame D2 and the image frame F2, as shown in FIG. In this way, by increasing the number of image frames, even a two-dimensional moving image with intense movement such as sports can be displayed well.

切替回路58は、図2に示すように、信号入力回路51により二次元映像信号が入力されたことが信号判別回路52により判別された場合、フレーム内挿回路57aを有するフレーム群生成部57からの出力を選択する。また、切替回路58は、信号入力回路51により立体映像信号が入力されたことが信号判別回路52により判別された場合、フレーム群生成部55からの出力を選択する。さらに、表示無効部61の動作は、信号判別回路52の出力に応じて、on/off(実行/停止)される。つまり、立体映像信号の入力を信号判別回路52が判別した場合、表示無効部61の動作は実行状態に制御され、一方、二次元映像信号の入力を信号判別回路52が判別した場合、表示無効部61の動作は停止状態に制御される。   As shown in FIG. 2, when the signal discrimination circuit 52 determines that the two-dimensional video signal has been input by the signal input circuit 51, the switching circuit 58 starts from the frame group generation unit 57 having the frame interpolation circuit 57a. Select the output. Further, the switching circuit 58 selects the output from the frame group generation unit 55 when the signal determination circuit 52 determines that the stereoscopic video signal is input by the signal input circuit 51. Further, the operation of the display invalidating unit 61 is turned on / off (executed / stopped) according to the output of the signal discriminating circuit 52. That is, when the signal discriminating circuit 52 discriminates the input of the stereoscopic video signal, the operation of the display invalidating unit 61 is controlled to the execution state, whereas when the signal discriminating circuit 52 discriminates the input of the two-dimensional video signal, the display invalidating unit 61 The operation of the unit 61 is controlled to be stopped.

フレーム抽出部53は、図6に示すように、左目用の映像信号と右目用の映像信号とが多重化された立体映像信号、つまり多重化された画像フレームE1、E2から、左目用の画像フレームL1、L2、L3、L4…と右目用の画像フレームR1、R2、R3、R4…とを順次抽出する。フレーム抽出部53の左右画像分離回路53aは、1/60secかけて、左目用の画像フレームと右目用の画像フレームとをそれぞれ抽出し、フレーム一時記憶用のワークメモリなどに蓄える。   As shown in FIG. 6, the frame extraction unit 53 generates a left-eye image from a stereoscopic video signal obtained by multiplexing a left-eye video signal and a right-eye video signal, that is, multiplexed image frames E1 and E2. The frames L1, L2, L3, L4... And the right-eye image frames R1, R2, R3, R4. The left and right image separation circuit 53a of the frame extracting unit 53 extracts the image frame for the left eye and the image frame for the right eye over 1/60 sec, and stores them in a work memory for temporarily storing frames.

具体的には、フレーム抽出部53は、立体映像信号が図3に例示した画像フレームE3で構成されている場合、左右画像分離回路53aを制御すると共に、フレーム同期信号発生回路36が発生する例えば60Hzの同期信号を選択回路53bに取得させつつ、図3に示すように、インタレース/プログレッシブ(ノンインターレース)変換を行って、右目用の画像フレームL1、右目用の画像フレームR1を抽出する。   Specifically, the frame extraction unit 53 controls the left and right image separation circuit 53a and generates the frame synchronization signal generation circuit 36 when the stereoscopic video signal is composed of the image frame E3 illustrated in FIG. As shown in FIG. 3, the interlace / progressive (non-interlace) conversion is performed while causing the selection circuit 53b to acquire the 60 Hz synchronization signal, and the right-eye image frame L1 and the right-eye image frame R1 are extracted.

また、フレーム抽出部53は、立体映像信号が図4に例示した画像フレームE1(E2)3で構成されている場合、前記同様、左右画像分離回路53a及び選択回路53bを制御すると共に、60Hzの同期信号をフレーム同期信号発生回路36から取得し、図4に示すように、左側の画像データLを右側の画像データRを取り出すと共に、各画像データL、Rを水平方向に二倍に伸張する水平二倍伸張処理を行いながら、右目用の画像フレームL1、右目用の画像フレームR1を抽出する。   Further, when the stereoscopic video signal is composed of the image frame E1 (E2) 3 illustrated in FIG. 4, the frame extraction unit 53 controls the left and right image separation circuit 53 a and the selection circuit 53 b as well as 60 Hz. The synchronization signal is acquired from the frame synchronization signal generation circuit 36, and as shown in FIG. 4, the left image data L is extracted from the right image data R, and the image data L and R are doubled in the horizontal direction. While performing the horizontal double expansion process, the right-eye image frame L1 and the right-eye image frame R1 are extracted.

フレーム群生成部55は、図6に示すように、フレーム抽出部53により順次抽出される左目用及び右目用の画像フレームを基に、複数の左目用の画像フレームL1、L2(L3、L4)を配列した左目用フレーム群L11(L12)と複数の右目用の画像フレームR1、R2(R3、R4)を配列した右目用フレーム群R11(R12)とを交互に生成する。具体的には、フレーム群生成部55は、フレーム抽出部53により抽出された左目用及び右目用の例えば画像フレームL1、R1を個別にコピーして内挿フレームL2、R2をそれぞれ生成し、この内挿フレームL2、R2とオリジナルの画像フレームL1、R1とを配列して左目用フレーム群L11及び前記右目用フレーム群R11を生成する。これにより、1/60(f/s)の4倍のフレームレート1/240(f/s)で個々の画像フレームが順次生成される。フレーム記憶部55aは、フレーム群生成部55により交互に生成される左目用フレーム群L11(L12)と右目用フレーム群R11(R12)とを順次記憶する。   As shown in FIG. 6, the frame group generation unit 55 uses a plurality of left-eye image frames L1 and L2 (L3 and L4) based on the left-eye and right-eye image frames sequentially extracted by the frame extraction unit 53. The left-eye frame group L11 (L12) in which are arranged and the right-eye frame group R11 (R12) in which a plurality of right-eye image frames R1, R2 (R3, R4) are arranged are alternately generated. Specifically, the frame group generation unit 55 individually copies, for example, image frames L1 and R1 for the left eye and right eye extracted by the frame extraction unit 53 to generate interpolation frames L2 and R2, respectively. The interpolated frames L2 and R2 and the original image frames L1 and R1 are arranged to generate the left eye frame group L11 and the right eye frame group R11. Thus, individual image frames are sequentially generated at a frame rate 1/240 (f / s) that is four times 1/60 (f / s). The frame storage unit 55a sequentially stores the left-eye frame group L11 (L12) and the right-eye frame group R11 (R12) that are alternately generated by the frame group generation unit 55.

ここで、立体映像視認眼鏡62は、例えば、左目側と右目側との映像の透過/非透過を交互に切り替える、いわゆる液晶シャッタなどを有している。この立体映像視認眼鏡62は、眼鏡切替部60から出力される切替制御信号、つまり、表示画面12c上での左目用、右目用の画像フレームの書き換え開始のタイミングと同期するように1/240sec毎に左目側と右目側との透過/非透過が切り替わる。   Here, the stereoscopic image viewing glasses 62 include, for example, a so-called liquid crystal shutter that alternately switches between transmission and non-transmission of images on the left eye side and the right eye side. The stereoscopic video viewing glasses 62 are switched every 1/240 sec so as to synchronize with the switching control signal output from the glasses switching unit 60, that is, the rewrite start timing of the left-eye and right-eye image frames on the display screen 12c. The transmission / non-transmission between the left eye side and the right eye side is switched.

映像処理部35は、映像信号出力部35aを備えている。この映像信号出力部35aは、フレーム記憶部55aから取り出した画像フレームに対応する映像信号を、表示画面12cを有する映像表示器12側に出力し、これにより、映像表示器12の表示画素を当該映像信号で駆動させ、表示画像を更新することができる。つまり、表示書換部として機能する映像処理部35は、フレーム記憶部55aに記憶された左目用フレーム群L11(L12)及び前記右目用フレーム群R11(R12)から記憶順に一枚ずつ画像フレームを取り出し、取り出した画像フレームで表示画面上の表示を順次(画像フレームL1、L2、R1、R2、L3、L4、R3、R4…の順に)書き換える。   The video processing unit 35 includes a video signal output unit 35a. The video signal output unit 35a outputs a video signal corresponding to the image frame extracted from the frame storage unit 55a to the video display 12 side having the display screen 12c. The display image can be updated by driving with a video signal. That is, the video processing unit 35 functioning as a display rewriting unit extracts image frames one by one in the storage order from the left-eye frame group L11 (L12) and the right-eye frame group R11 (R12) stored in the frame storage unit 55a. Then, the display on the display screen is sequentially rewritten with the extracted image frames (in the order of image frames L1, L2, R1, R2, L3, L4, R3, R4...).

より具体的には、図7、図8に示すように、映像処理部35は、表示画面12cの上から下に向かって表示画像を順次更新して行くことになる。例えば、右目用の画像フレームR1を上から下に向かって書き込んで行く。この1/240secの期間では、以前表示されていた左目用の画像フレームL2が上から順次右目用の画像フレームR1に書き換えられて(更新されて)行く。この1/240sの期間は左目用の画像フレームL2と右目用の画像フレームR1とが混在して表示されている期間である。   More specifically, as shown in FIGS. 7 and 8, the video processing unit 35 sequentially updates the display image from the top to the bottom of the display screen 12c. For example, the image frame R1 for the right eye is written from top to bottom. In the period of 1/240 sec, the image frame L2 for the left eye that has been displayed before is rewritten (updated) sequentially from the top to the image frame R1 for the right eye. The period of 1/240 s is a period in which the image frame L2 for the left eye and the image frame R1 for the right eye are mixedly displayed.

ここで、図1、図2に示すように、表示無効部61は、表示書換部として機能する映像処理部35が、左目用の画像フレームL2(L4)を右目用の画像フレームR1(R3)で書き換える第1の期間、及び右目用の画像フレームR2を左目用の画像フレームL3で書き換える第2の期間、表示画面12c上の表示を無効にする。具体的には、図1、図2に示すように、表示無効部61は、前記第1及び第2の期間、バックライト12aの発光を停止させるようにドライバ回路12bを制御する。また、これに代えて、表示無効部61は、第1及び第2の期間、例えば、表示画面12c上が非表示状態となる映像信号(例えば輝度の成分を0にした映像信号)を、映像信号出力部35aより出力させる。 Here, as shown in FIGS. 1 and 2, the display invalidation unit 61 is such that the video processing unit 35 functioning as a display rewriting unit converts the left-eye image frame L2 (L4) into the right-eye image frame R1 (R3). The display on the display screen 12c is invalidated in the first period for rewriting in the first period and in the second period for rewriting the image frame R2 for the right eye with the image frame L3 for the left eye. Specifically, as shown in FIGS. 1 and 2, the display invalidation unit 61 controls the driver circuit 12b so as to stop the light emission of the backlight 12a during the first and second periods. In place of this, the display invalidation unit 61 displays a video signal (for example, a video signal in which the luminance component is set to 0) that is in a non-display state on the display screen 12c in the first and second periods, The signal is output from the signal output unit 35a.

つまり、表示無効部61は、左目用から右目用、右目用から左目用の画像フレームの書き換え期間中、表示画面12cを非表示とし、一方、左目用(右目用)の画像フレームを次の左目用(右目用)の画像フレームで書き換えている期間のみを、選択的に表示画面12cを表示状態にする。これにより、立体感の損なわれた映像が表示されることを防止することができる。   That is, the display invalidation unit 61 hides the display screen 12c during the rewriting period of the left-eye to right-eye and right-eye to left-eye image frames, while the left-eye (right-eye) image frame is displayed as the next left-eye image frame. The display screen 12c is selectively brought into the display state only during the period of rewriting with the image frame for right (for the right eye). As a result, it is possible to prevent the display of an image with a reduced stereoscopic effect.

次に、このように構成されたフレーム処理部50による処理を図9に示すフローチャートに基づき説明する。
図9に示すように、まず、信号入力回路51が映像信号を入力すると(S1)、信号判別回路52は、立体映像信号と二次元映像信号との判別を行う(S2)。立体映像信号でなく(S2のNO)、二次元映像信号である場合、フレーム抽出部56は、図5に示すように、二次元映像用の画像フレームF1、F2…を順次抽出する(S3)。次に、フレーム群生成部57のフレーム内挿回路57aは、前後の画像フレームF1、F2どうしの関係から予測した内挿フレームD1〜D3を生成する(S4)。次いで、映像処理部35は、前記各画像フレームに対応する映像信号を映像信号出力部35aから出力して、内挿フレームを含む二次元映像用の画像フレームで表示画面12cを順次書き換える(S5)。
Next, processing by the frame processing unit 50 configured as described above will be described with reference to a flowchart shown in FIG.
As shown in FIG. 9, first, when the signal input circuit 51 inputs a video signal (S1), the signal discrimination circuit 52 discriminates between a stereoscopic video signal and a two-dimensional video signal (S2). If it is not a stereoscopic video signal (NO in S2) but a 2D video signal, the frame extraction unit 56 sequentially extracts 2D video frames F1, F2,... As shown in FIG. . Next, the frame interpolation circuit 57a of the frame group generation unit 57 generates interpolation frames D1 to D3 predicted from the relationship between the previous and next image frames F1 and F2 (S4). Next, the video processing unit 35 outputs a video signal corresponding to each image frame from the video signal output unit 35a, and sequentially rewrites the display screen 12c with a 2D video frame including an interpolation frame (S5). .

一方、信号入力回路51に入力された映像信号が立体映像信号である場合(S2のYES)、フレーム抽出部56は、図6に示すように、左目用の画像フレームL1、L3、右目用の画像フレームR1、R3を順次抽出する(S6)。続いて、フレーム群生成部55は、順次抽出される左目用及び右目用の画像フレームを基に、複数の左目用の画像フレームL1、L2(L3、L4)を配列した左目用フレーム群L11(L12)と複数の右目用の画像フレームR1、R2(R3、R4)を配列した右目用フレーム群R11(R12)とを交互に生成する(S7)。   On the other hand, when the video signal input to the signal input circuit 51 is a stereoscopic video signal (YES in S2), the frame extraction unit 56, as shown in FIG. 6, the image frames L1, L3 for the left eye, Image frames R1 and R3 are sequentially extracted (S6). Subsequently, the frame group generation unit 55 arranges a plurality of left-eye image frames L1 and L2 (L3 and L4) based on the sequentially extracted left-eye and right-eye image frames. L12) and a right-eye frame group R11 (R12) in which a plurality of right-eye image frames R1, R2 (R3, R4) are arranged are alternately generated (S7).

次いで、フレーム記憶部55aは、フレーム群生成部55により交互に生成される左目用フレーム群L11(L12)と右目用フレーム群R11(R12)とを順次記憶する(S8)。次いで、映像処理部35は、左目用、右目用フレーム群から順に一枚ずつ画像フレームを取り出して、この取り出した画像フレームに対応する映像信号を映像信号出力部35aから出力して、表示画面12cを順次書き換える(S9)。さらに、表示無効部61は、左目用から右目用、右目用から左目用の画像フレームの書き換え期間中、例えばバックライト12aを消灯させて、表示画面12c上の表示を無効にする(S10)。   Next, the frame storage unit 55a sequentially stores the left-eye frame group L11 (L12) and the right-eye frame group R11 (R12) that are alternately generated by the frame group generation unit 55 (S8). Next, the video processing unit 35 extracts image frames one by one from the left-eye frame group and the right-eye frame group in order, and outputs a video signal corresponding to the extracted image frame from the video signal output unit 35a to display the display screen 12c. Are sequentially rewritten (S9). Further, the display invalidation unit 61 disables the display on the display screen 12c, for example, by turning off the backlight 12a during the rewriting period of the left-eye to right-eye and right-eye to left-eye image frames (S10).

既述したように、本実施形態に係るフレーム処理部50を備えたDTV装置10は、左目用の画像フレームを右目用の画像フレームで書き換えている期間、及び右目用の画像フレームを左目用の画像フレームで書き換えている期間において、表示画面12cを非表示状態にするものである。すなわち、DTV装置10は、左目用の画像フレームを次の左目用の画像フレームで書き換えている期間、及び右目用の画像フレームを次の右目用の画像フレームで書き換えている期間だけ、表示画面12cを選択的に表示状態にするものである。したがって、DTV装置10によれば、表示画面の書き換えの過渡期であっても、左目用の画像フレームと右目用の画像フレームとが混在して表示されることなどが阻止され、これにより、立体映像を適切に表示させることが可能となる。また、本実施形態のDTV装置10では、二次元の映像では、内挿フレームの作成により、動画のコマ数が多くなり、残像効果の少ない画像を視聴者が見ることができる。   As described above, the DTV apparatus 10 including the frame processing unit 50 according to the present embodiment is a period in which the left-eye image frame is rewritten with the right-eye image frame, and the right-eye image frame is used for the left-eye. The display screen 12c is in a non-display state during the period of rewriting with the image frame. That is, the DTV device 10 displays the display screen 12c only during a period in which the left-eye image frame is rewritten with the next left-eye image frame and only in a period in which the right-eye image frame is rewritten with the next right-eye image frame. Is selectively displayed. Therefore, according to the DTV device 10, even when the display screen is in a transitional period, the left-eye image frame and the right-eye image frame are prevented from being mixedly displayed. It is possible to display the video appropriately. Further, in the DTV device 10 of the present embodiment, in a two-dimensional image, the number of moving picture frames is increased by creating an interpolation frame, and the viewer can view an image with less afterimage effect.

以上、本発明を実施の形態により具体的に説明したが、本発明は、上記実施形態にのみ限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。例えば、上述した実施形態では、元のフレーム周波数の4倍で出力する例を示したが、図10に示すように6倍、8倍、10倍、12倍といったn倍(逓倍)としてもよい。立体映像の場合、同じ画像をn/2回出力する。二次元映像の場合は、内挿フレームをn−1個作成して出力する。なお、図10に示すように、立体映像の場合でも、前後の画像フレームどうしの関係から予測した内挿フレームL3、R3を作成してもよい。   Although the present invention has been specifically described above with reference to the embodiment, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention. For example, in the above-described embodiment, an example of outputting at 4 times the original frame frequency has been shown. However, as shown in FIG. 10, n times (multiplication) such as 6 times, 8 times, 10 times, and 12 times may be used. . In the case of stereoscopic video, the same image is output n / 2 times. In the case of 2D video, n-1 interpolation frames are created and output. As shown in FIG. 10, even in the case of a stereoscopic video, interpolation frames L3 and R3 predicted from the relationship between the previous and subsequent image frames may be created.

10…テレビジョン受信装置、12…映像表示器、12a…バックライト、12a…表示画面、35…映像処理部、35a…映像信号出力部、50…フレーム処理部、51…信号入力回路、52…信号判別回路、53,56…フレーム抽出部、55,57…フレーム群生成部、55a…フレーム記憶部、61…表示無効部、62…立体映像視認眼鏡。   DESCRIPTION OF SYMBOLS 10 ... Television receiver, 12 ... Video display device, 12a ... Backlight, 12a ... Display screen, 35 ... Video processing part, 35a ... Video signal output part, 50 ... Frame processing part, 51 ... Signal input circuit, 52 ... Signal discriminating circuit, 53, 56... Frame extraction unit, 55, 57... Frame group generation unit, 55a... Frame storage unit, 61.

Claims (6)

三次元の映像を得るための第1及び第2の映像信号を含む立体映像信号から、前記第1の映像信号に対応する第1の画像フレームと前記第2の映像信号に対応する第2の画像フレームとを抽出する第1のフレーム抽出部と、
二次元の動画を構成する複数の第3の画像フレームを含む二次元映像信号から前記第3の画像フレームを順次抽出する第2のフレーム抽出部と、
前記第1、第2のフレーム抽出部により抽出された前記第1〜第3の画像フレームを記憶可能なフレーム記憶部と、
前記フレーム記憶部に記憶される前記複数の第3の画像フレームのうちの、前後の画像フレームの関係から、フレーム周波数を増加させるために用いられる内挿フレームを生成して前記前後の画像フレームの間に挿入する手段と、
前記フレーム記憶部に記憶される前記第1の画像フレームを複数回上書きする処理と前記フレーム記憶部に記憶される前記第2の画像フレームを複数回上書きする処理とを交互に繰り返すことによって表示画面上の表示を順次書き換える表示書換部と、
前記表示書換部による前記第1、第2の互いに異なる画像フレームへの上書き期間に前記表示画面上の表示を無効にする一方で、同一の画像フレームどうしの上書き期間に前記表示画面上の表示を有効にする手段と、を備え、
さらに、前記表示書換部は、前記二次元映像信号から順次抽出されて前記フレーム記憶部に記憶される前記複数の第3の画像フレーム及び前記内挿フレームにて前記表示画面上の表示を書き換えること、
特徴とするフレーム処理装置。
From a stereoscopic video signal including first and second video signals for obtaining a three-dimensional video, a first image frame corresponding to the first video signal and a second corresponding to the second video signal. A first frame extraction unit for extracting an image frame;
A second frame extraction unit for sequentially extracting the third image frames from a two-dimensional video signal including a plurality of third image frames constituting a two-dimensional moving image;
A frame storage unit capable of storing the first to third image frames extracted by the first and second frame extraction units;
The frame store of the plurality stored in one of the third image frame, from the relation between the images before and after the frame, the image frame before and after the interpolation frame forms raw used to increase the frame frequency and the means to be inserted between,
Display screen by alternately repeating the process of overwriting the first image frame stored in the frame storage unit a plurality of times and the process of overwriting the second image frame stored in the frame storage unit a plurality of times A display rewriting unit for sequentially rewriting the above display;
While the display rewriting unit invalidates the display on the display screen during the overwriting period of the first and second different image frames, the display on the display screen is displayed during the overwriting period between the same image frames. Means for enabling ,
Further, the display rewriting unit rewrites the display on the display screen with the plurality of third image frames and the interpolated frames that are sequentially extracted from the 2D video signal and stored in the frame storage unit. ,
Frame processing apparatus according to claim.
前記表示画面は、表示素子が光源からの光の供給を受けて表示を行うタイプの表示装置の有する画面であり、
さらに、前記表示画面上の表示を無効/有効にする手段は、前記表示書換部が、前記第1の画像フレームを前記第2の画像フレームで上書きしている期間、及び前記第2の画像フレームを前記第1の画像フレームで上書きしている期間に、前記光源の発光を停止させる表示無効部を含む
ことを特徴とする請求項1記載のフレーム処理装置。
The display screen is a screen of a display device of a type in which a display element performs display by receiving supply of light from a light source,
Further, the means for invalidating / validating the display on the display screen includes a period during which the display rewriting unit overwrites the first image frame with the second image frame, and the second image frame. The frame processing device according to claim 1, further comprising: a display invalidation unit that stops light emission of the light source during a period in which the first image frame is overwritten.
前記二次元映像信号と前記立体映像信号とを入力可能な信号入力部と、前記信号入力部により入力される前記立体映像信号と前記二次元映像信号との判別を行う信号判別部、
をさらに具備することを特徴とする請求項1又は2記載のフレーム処理装置。
A signal input unit capable of inputting the two-dimensional video signal and the stereoscopic video signal; and a signal determination unit that determines the stereoscopic video signal and the two-dimensional video signal input by the signal input unit;
The frame processing apparatus according to claim 1, further comprising:
請求項1ないし3のいずれか1項に記載のフレーム処理装置を備えることを特徴とするテレビジョン受信装置。   A television receiver comprising the frame processing device according to any one of claims 1 to 3. 左目用の映像信号と右目用の映像信号とを含む立体映像信号から、左目用の画像フレームと右目用の画像フレームとを順次抽出するフレーム抽出部と、
前記フレーム抽出部により順次抽出される前記左目用及び右目用の画像フレームを基に、左目用及び右目用の画像フレームを新たに生成し、この生成した左目用の画像フレームと前記抽出された左目用の画像フレームとを続けて配列した左目用フレーム群と、前記生成した右目用の画像フレームと前記抽出された右目用の画像フレームとを続けて配列した右目用フレーム群と、を交互に生成するフレーム群生成部と、
前記左目用の画像フレーム群及び前記右目用の画像フレーム群が、順次、上書きされるフレーム記憶部と、
前記フレーム記憶部に記憶された前記左目用の画像フレーム群及び前記右目用の画像フレーム群を、記憶された順に呼び出して、表示画面上の表示を順次書き換える表示書換部と、
前記表示書換部が、左目用の画像フレームに対して次の左目用の画像フレームを前記表示画面上で上書きしている期間、及び右目用の画像フレームに対して次の右目用の画像フレームを前記表示画面上で上書きしている期間に、前記表示画面上に画像表示を行わせる手段と、
次元の映像を表す二次元映像信号と前記立体映像信号とをそれぞれ入力可能な信号入力部と、
前記信号入力部により入力される前記立体映像信号と前記二次元映像信号との判別を行う信号判別部と、
前記信号入力部により前記二次元映像信号が入力されたことが前記信号判別部により判別された場合、当該入力された二次元映像信号から二次元映像用の画像フレームを順次抽出する第2のフレーム抽出部と、
前記第2のフレーム抽出部により順次抽出される複数の前記二次元映像用の画像フレームのうちの、前後の画像フレームの関係から、フレーム周波数を増加させるために用いられる内挿フレームを生成して前記前後の画像フレームの間に挿入する第2のフレーム群生成部と、をさらに備え、
前記フレーム記憶部は、前記第2のフレーム抽出部により抽出される前記二次元映像用の画像フレームを順次記憶し、
前記第2のフレーム群生成部は、前記フレーム記憶部に順次記憶される前記二次元映像用の画像フレームを基に前記内挿フレームを生成し、
前記表示書換部は、前記二次元映像信号から抽出されて前記フレーム記憶部に順次記憶される前記複数の二次元映像用の画像フレーム及び前記内挿フレームにて前記表示画面上の表示を書き換えること、
特徴とするフレーム処理装置。
A frame extraction unit that sequentially extracts a left-eye image frame and a right-eye image frame from a stereoscopic video signal including a left-eye video signal and a right-eye video signal;
Based on the left-eye and right-eye image frames sequentially extracted by the frame extraction unit, new left-eye and right-eye image frames are generated, and the generated left-eye image frame and the extracted left-eye image are generated. The left-eye frame group in which the image frames for the left eye are successively arranged, and the right-eye frame group in which the generated right-eye image frame and the extracted right-eye image frame are successively arranged are alternately generated. A frame group generation unit to perform,
The picture frame group frames group and before Symbol right eye left eye are sequentially and frame storage unit to be overwritten,
An image frame group of the image frame group and the right eye for the eye that is stored in the frame store, call the stored order, and the information rewriting unit 130 sequentially rewrites the display on the front示画surface,
The display rewriting unit overwrites the next left-eye image frame on the display screen with respect to the left-eye image frame, and the next right-eye image frame with respect to the right-eye image frame . Means for displaying an image on the display screen during a period of overwriting on the display screen;
Two-dimensional image and two-dimensional image signal representing the the stereoscopic video signal and the input signals that can be input respectively,
A signal discriminating unit for discriminating between the stereoscopic video signal and the two-dimensional video signal input by the signal input unit;
A second frame for sequentially extracting image frames for 2D video from the input 2D video signal when the signal determination unit determines that the 2D video signal has been input by the signal input unit; An extractor;
Among the image frames for a plurality of the two-dimensional image to be sequentially extracted by the second frame extracting unit, regardless of whether these before and after the image frame, an interpolation frame to be used to increase the frame frequency generate and further comprising a second frame group generating unit to be inserted between the image frames before and after the,
The frame storage unit sequentially stores the image frames for the 2D video extracted by the second frame extraction unit;
The second frame group generation unit generates the interpolated frame based on the image frames for 2D video sequentially stored in the frame storage unit ,
The display rewriting unit rewrites the display on the display screen with the plurality of image frames for 2D video and the interpolated frames extracted from the 2D video signal and sequentially stored in the frame storage unit. ,
Frame processor said.
三次元の映像を得るための第1及び第2の映像信号を含む立体映像信号から、前記第1の映像信号に対応する第1の画像フレームと前記第2の映像信号に対応する第2の画像フレームとを抽出する第1の抽出ステップと、
二次元の動画を構成する複数の第3の画像フレームを含む二次元映像信号から前記第3の画像フレームを順次抽出する第2の抽出ステップと、
前記第1又は第2の抽出ステップで抽出された前記第1及び2の画像フレーム、又は前記第3の画像フレームをフレーム記憶部に記憶させる記憶ステップと、
前記フレーム記憶部に記憶させた前記複数の第3の画像フレームのうちの、前後の画像フレームの関係から、フレーム周波数を増加させるために用いられる内挿フレームを生成して前記前後の画像フレームの間に挿入するステップと、
前記記憶ステップで前記フレーム記憶部に記憶させた前記第1の画像フレームを複数回上書きする処理と前記記憶ステップでフレーム記憶部に記憶させた前記第2の画像フレームを複数回上書きする処理とを交互に繰り返すことによって表示画面上の表示を順次書き換えるステップと、
前記第1、第2の互いに異なる画像フレームへの上書き期間に前記表示画面上の表示を無効にする一方で、同一の画像フレームどうしの上書き期間に前記表示画面上の表示を有効にするステップと、
前記二次元映像信号から順次抽出されて前記フレーム記憶部に記憶される前記複数の第3の画像フレーム及び前記内挿フレームにて前記表示画面上の表示を書き換えるステップと
有することを特徴とするフレーム処理方法。
From a stereoscopic video signal including first and second video signals for obtaining a three-dimensional video, a first image frame corresponding to the first video signal and a second corresponding to the second video signal. A first extraction step of extracting image frames;
A second extraction step of sequentially extracting the third image frame from a two-dimensional video signal including a plurality of third image frames constituting a two-dimensional moving image;
A storage step of storing the first and second image frames extracted in the first or second extraction step, or the third image frame in a frame storage unit;
The frame memory unit has been stored in the plurality of third image frames, from the relation between the images before and after the frame, the image frame before and after the interpolation frame forms raw used to increase the frame frequency and the step to be inserted between,
A process of overwriting the first image frame stored in the frame storage unit in the storage step a plurality of times and a process of overwriting the second image frame stored in the frame storage unit in the storage step a plurality of times. Sequentially rewriting the display on the display screen by repeating alternately;
Invalidating the display on the display screen during the overwriting period of the first and second different image frames, while validating the display on the display screen during the overwriting period between the same image frames ; ,
Rewriting the display on the display screen with the plurality of third image frames and the interpolated frames that are sequentially extracted from the 2D video signal and stored in the frame storage unit;
Frame processing method characterized by having a.
JP2009292028A 2009-12-24 2009-12-24 Frame processing apparatus, television receiving apparatus and frame processing method Expired - Fee Related JP4982553B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009292028A JP4982553B2 (en) 2009-12-24 2009-12-24 Frame processing apparatus, television receiving apparatus and frame processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009292028A JP4982553B2 (en) 2009-12-24 2009-12-24 Frame processing apparatus, television receiving apparatus and frame processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008335308 Division 2008-12-26 2008-12-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011258794A Division JP2012044718A (en) 2011-11-28 2011-11-28 Frame processing device, television receiving device, and frame processing method

Publications (2)

Publication Number Publication Date
JP2010158013A JP2010158013A (en) 2010-07-15
JP4982553B2 true JP4982553B2 (en) 2012-07-25

Family

ID=42575536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009292028A Expired - Fee Related JP4982553B2 (en) 2009-12-24 2009-12-24 Frame processing apparatus, television receiving apparatus and frame processing method

Country Status (1)

Country Link
JP (1) JP4982553B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5318811B2 (en) * 2010-03-31 2013-10-16 シャープ株式会社 2D / 3D video processing device and video display device
JP5532232B2 (en) 2010-05-18 2014-06-25 ソニー株式会社 Video signal processing device, video display device, and video display system
JP2012015862A (en) * 2010-07-01 2012-01-19 Sharp Corp Image output device
US20120038823A1 (en) * 2010-08-11 2012-02-16 Jui-Liang Chien Display system
JP5100916B2 (en) * 2010-09-30 2012-12-19 パナソニック株式会社 Signal processing apparatus and video display apparatus using the same
JP2012142961A (en) * 2012-02-13 2012-07-26 Toshiba Corp Image output device and image output method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3581745B2 (en) * 1995-08-07 2004-10-27 公佑 橋本 3D image display device
CA2380105A1 (en) * 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
JP2007180765A (en) * 2005-12-27 2007-07-12 Toshiba Corp Video processor, video display device and video processing method
CN101982978B (en) * 2006-03-29 2012-09-19 辉达公司 System and method for controlling stereo glasses shutters
JP4304637B2 (en) * 2007-06-06 2009-07-29 ソニー株式会社 Liquid crystal projector and liquid crystal projector control method
JP4792054B2 (en) * 2008-03-24 2011-10-12 株式会社東芝 3D image display device, 3D image display method, and liquid crystal display

Also Published As

Publication number Publication date
JP2010158013A (en) 2010-07-15

Similar Documents

Publication Publication Date Title
US8339441B2 (en) Frame processing device, television receiving apparatus and frame processing method
JP5604827B2 (en) Transmitting apparatus, receiving apparatus, program, and communication system
JP4959830B2 (en) Video playback device
US8760468B2 (en) Image processing apparatus and image processing method
JP5502436B2 (en) Video signal processing device
JP4982553B2 (en) Frame processing apparatus, television receiving apparatus and frame processing method
US20100103165A1 (en) Image decoding method, image outputting method, and image decoding and outputting apparatuses
JP2010088092A (en) Three-dimensional video transmission system, video display device and video output device
JP2010263382A (en) Transmitter, transmission method of 3d image data, receiver, receiving method of 3d image data, relay device and relay method of 3d image data
US20110187929A1 (en) Communication apparatus
TW201145977A (en) Method and system for synchronizing 3D glasses with 3D video displays
JP2009296144A (en) Digital video data transmission apparatus, digital video data reception apparatus, digital video data transport system, digital video data transmission method, digital video data reception method, and digital video data transport method
EP2337365A2 (en) Method and system for pulldown processing for 3D video
TW201208348A (en) Image data transmitting device, control method for image data transmitting device, image data transmitting method and image data receiving device
US20130010064A1 (en) Video processing device
US20110018979A1 (en) Display controller, display control method, program, output device, and transmitter
US20100066661A1 (en) Liquid crystal panel, video display device, and video display method
JP4733764B2 (en) 3D image processing apparatus and 3D image processing method
CN103188513A (en) Device and method for displaying video
JP4881463B2 (en) Image output apparatus and image output method
JP2012044718A (en) Frame processing device, television receiving device, and frame processing method
JP2012090074A (en) Reproduction device and reproduction method
KR101689888B1 (en) Storage media, device and method for displaying 3d video
JP2011234136A (en) Video display apparatus and video display method
JP5431390B2 (en) Video output device and video output method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110829

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111128

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20111206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees