JP2014027409A - Image selection method, image selection device, encoder, image selection system, image selection program, encoding program and image encoding selection program - Google Patents
Image selection method, image selection device, encoder, image selection system, image selection program, encoding program and image encoding selection program Download PDFInfo
- Publication number
- JP2014027409A JP2014027409A JP2012164989A JP2012164989A JP2014027409A JP 2014027409 A JP2014027409 A JP 2014027409A JP 2012164989 A JP2012164989 A JP 2012164989A JP 2012164989 A JP2012164989 A JP 2012164989A JP 2014027409 A JP2014027409 A JP 2014027409A
- Authority
- JP
- Japan
- Prior art keywords
- image
- decoded
- encoding
- unit
- index value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010187 selection method Methods 0.000 title claims abstract description 11
- 230000006866 deterioration Effects 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims description 57
- 230000015556 catabolic process Effects 0.000 claims description 43
- 238000006731 degradation reaction Methods 0.000 claims description 43
- 238000004364 calculation method Methods 0.000 claims description 40
- 239000013598 vector Substances 0.000 claims description 38
- 230000008569 process Effects 0.000 claims description 36
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 description 35
- 238000003860 storage Methods 0.000 description 26
- 238000013139 quantization Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 238000009825 accumulation Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 238000009826 distribution Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000872 buffer Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000255925 Diptera Species 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Landscapes
- Television Signal Processing For Recording (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
開示の技術は、画像選択方法、画像選択装置、符号化装置、画像選択システム、画像選択プログラム、符号化プログラム、及び画像符号化選択プログラムに関する。 The disclosed technology relates to an image selection method, an image selection device, an encoding device, an image selection system, an image selection program, an encoding program, and an image encoding selection program.
複数のフレーム画像を含む動画像から任意のフレーム画像を利用者が選択して、静止画として保存したり、プリントしたりする場合がある。 There is a case where a user selects an arbitrary frame image from moving images including a plurality of frame images, and saves or prints as a still image.
なお、動画像は、各フレーム画像が符号化された状態で保存されることが多く、再生時には符号化したデータを復号して、その復号画像を表示することが多い。符号化に関する技術としては、例えば、符号化される画像データをウェーブレット変換してウェーブレット係数を取得し、該ウェーブレット係数を量子化した量子化係数を符号化する技術が知られている。 In many cases, a moving image is stored in a state where each frame image is encoded. In reproduction, the encoded data is often decoded and the decoded image is displayed. As a technique related to encoding, for example, a technique is known in which image data to be encoded is wavelet transformed to obtain wavelet coefficients, and quantized coefficients obtained by quantizing the wavelet coefficients are encoded.
復号画像全体ではなく特定の領域の画質を優先して、複数の復号画像から任意の画像を選択する場合、該領域の符号化ノイズ(例えば、ブロックノイズやモスキートノイズ等)による画質の劣化の度合いが小さい復号画像を素早く選択できることが望ましい。 When an arbitrary image is selected from a plurality of decoded images with priority given to the image quality of a specific area rather than the entire decoded image, the degree of image quality degradation due to coding noise (for example, block noise or mosquito noise) in the area It is desirable to be able to quickly select a decoded image having a small size.
しかしながら、例えば、復号画像をサムネイル表示(縮小して表示)し、この縮小画像から利用者が任意の画像を選択する方法では、表示画像のサイズが小さすぎて動画像の細かい符号化ノイズを利用者が確認することは困難である。また、復号画像を等倍表示して目視でフレーム間の符号化ノイズの比較を行うと、手間と時間がかかるという問題がある。 However, for example, in the method in which the decoded image is displayed as a thumbnail (reduced display) and the user selects an arbitrary image from the reduced image, the display image is too small and the coding noise of the moving image is used. It is difficult for a person to confirm. Further, when the decoded image is displayed at the same magnification and the coding noise is visually compared between the frames, there is a problem that it takes time and effort.
開示の技術は、一つの側面として、利用者が容易に特徴領域の画質の劣化の度合いが低い復号画像を把握できるようにすることを目的とする。 An object of the disclosed technique is to allow a user to easily grasp a decoded image with a low degree of deterioration in image quality of a feature region.
開示の技術は、動画像に含まれる複数のフレーム画像を符号化した複数の符号化データを生成すると共に、前記符号化により生じた画質の劣化の度合いを示す指標値を、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について算出する。また、開示の技術は、前記生成した複数の符号化データから復号された複数の復号画像の中から、前記指標値が示す劣化の度合いが最も低い復号画像を選択し、該選択した復号画像を提示する。 The disclosed technique generates a plurality of pieces of encoded data obtained by encoding a plurality of frame images included in a moving image, and sets an index value indicating the degree of image quality degradation caused by the encoding in each frame image. Calculation is performed for at least one type of feature region set in advance. Further, the disclosed technique selects a decoded image with the lowest degree of degradation indicated by the index value from a plurality of decoded images decoded from the plurality of generated encoded data, and selects the selected decoded image. Present.
開示の技術は、一つの側面として、利用者が容易に特徴領域の画質の劣化の度合いが低い復号画像を把握できる、という効果を有する。 As one aspect, the disclosed technology has an effect that a user can easily grasp a decoded image with a low degree of deterioration of the image quality of the characteristic region.
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。 Hereinafter, an example of an embodiment of the disclosed technology will be described in detail with reference to the drawings.
図1には、本実施形態に係る画像選択システム3が示されている。画像選択システム3は、符号化装置1及び画像選択装置2を備えている。 FIG. 1 shows an image selection system 3 according to the present embodiment. The image selection system 3 includes an encoding device 1 and an image selection device 2.
図2には、本実施形態に係る符号化装置1が示されている。符号化装置1は、例えばMPEG2やH.264等の方式により動画像を符号化する装置であって、生成部10、蓄積部40、抽出部42、及び算出部44を備えている。 FIG. 2 shows an encoding apparatus 1 according to this embodiment. The encoding device 1 is, for example, MPEG2 or H.264. It is a device that encodes a moving image by a method such as H.264, and includes a generation unit 10, a storage unit 40, an extraction unit 42, and a calculation unit 44.
なお、符号化装置1の各機能部は例えば電子回路等で実現することができ、生成部10は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現してもよい。 Each functional unit of the encoding device 1 can be realized by, for example, an electronic circuit, and the generation unit 10 may be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit).
生成部10は、動画像に含まれるフレーム画像を符号化処理し、フレーム画像毎に符号化情報を生成して所定の出力先に出力する。 The generation unit 10 performs an encoding process on a frame image included in a moving image, generates encoding information for each frame image, and outputs the encoded information to a predetermined output destination.
図3には、本実施形態に係る生成部10の構成が示されている。生成部10は、予測誤差画像生成部12、変換部14、量子化部16、逆量子化部18、逆変換部20、復号画像生成部22、予測画像生成部26、切替部32、及びエントロピー符号化部34を備えている。 FIG. 3 shows a configuration of the generation unit 10 according to the present embodiment. The generation unit 10 includes a prediction error image generation unit 12, a conversion unit 14, a quantization unit 16, an inverse quantization unit 18, an inverse conversion unit 20, a decoded image generation unit 22, a predicted image generation unit 26, a switching unit 32, and an entropy. An encoding unit 34 is provided.
予測誤差画像生成部12には、動画像に含まれるフレーム画像の画像情報が符号化対象として供給される。 The prediction error image generation unit 12 is supplied with the image information of the frame image included in the moving image as an encoding target.
また、予測誤差画像生成部12には、予測画像生成部26から予測画像の画像情報が供給される。予測画像については後述する。予測誤差画像生成部12は、符号化対象の画像情報と、予測画像の画像情報との差分を示す差分情報を演算し、この差分情報を予測誤差画像の情報として変換部14に供給する。このように、予測誤差画像生成部12において予測誤差画像が生成される。 Further, the prediction error image generation unit 12 is supplied with the image information of the prediction image from the prediction image generation unit 26. The predicted image will be described later. The prediction error image generation unit 12 calculates difference information indicating a difference between the image information to be encoded and the image information of the prediction image, and supplies the difference information to the conversion unit 14 as information of the prediction error image. In this way, the prediction error image generation unit 12 generates a prediction error image.
変換部14は、供給された予測誤差画像の情報に変換処理を施し、予測誤差画像を水平及び垂直方向の周波数成分に分離する。変換処理で得られた各周波数成分の情報は量子化部16に入力される。 The conversion unit 14 converts the supplied prediction error image information, and separates the prediction error image into horizontal and vertical frequency components. Information on each frequency component obtained by the conversion process is input to the quantization unit 16.
量子化部16は、変換部14から供給された情報を量子化する。量子化部16は量子化することにより当該予測誤差画像の符号量を低減する。量子化部16は、量子化後の情報をエントロピー符号化部34及び逆量子化部18に供給する。 The quantization unit 16 quantizes the information supplied from the conversion unit 14. The quantization unit 16 performs quantization to reduce the code amount of the prediction error image. The quantization unit 16 supplies the quantized information to the entropy encoding unit 34 and the inverse quantization unit 18.
逆量子化部18は、量子化部16から供給された情報を逆量子化して逆変換部20に供給する。 The inverse quantization unit 18 inversely quantizes the information supplied from the quantization unit 16 and supplies the information to the inverse transform unit 20.
逆変換部20は、逆量子化部18から供給された情報を逆変換処理する。ここで、逆変換処理とは、変換部14で行われる変換処理と逆方向に変換する処理をいう。 The inverse transform unit 20 performs inverse transform processing on the information supplied from the inverse quantization unit 18. Here, the reverse conversion process refers to a process of converting in the reverse direction to the conversion process performed by the conversion unit 14.
逆量子化部18及び逆変換部20によって復号処理が行われることにより、符号化前の予測誤差画像と同程度の画像の情報が得られる。該情報を再生予測誤差画像と呼称する。 By performing the decoding process by the inverse quantization unit 18 and the inverse transform unit 20, information about the same level as the prediction error image before encoding is obtained. This information is called a reproduction prediction error image.
復号画像生成部22には、逆変換部20で逆変換処理された再生予測誤差画像の画像情報が供給される。また、復号画像生成部22は、予測画像生成部26で生成された予測画像の画像情報が供給される。復号画像生成部22は、再生予測誤差画像の画像情報と予測画像の画像情報とを加算することにより、符号化対象の画像を復号した画像(復号画像)を生成し、該画像情報を蓄積部40に蓄積する。 The decoded image generation unit 22 is supplied with the image information of the reproduction prediction error image that has been subjected to the inverse transform process by the inverse transform unit 20. In addition, the decoded image generation unit 22 is supplied with the image information of the prediction image generated by the prediction image generation unit 26. The decoded image generation unit 22 generates an image (decoded image) obtained by decoding the image to be encoded by adding the image information of the reproduction prediction error image and the image information of the prediction image, and stores the image information in the storage unit Accumulate in 40.
蓄積部40は、復号画像生成部22から供給された復号画像の画像情報の各々が蓄積されるメモリである。蓄積された復号画像の画像情報は、後述するフレーム間予測画像生成部30に供給され、他のフレーム画像を符号化するときの動きベクトル検出や動き補償等で参照される。従って、蓄積された復号画像のうち、フレーム間予測画像生成部30で予測画像の生成の際に参照される復号画像は、「参照画像」とも呼ばれる。どの復号画像が参照されるかは、符号化対象フレーム画像の予測モード等に応じて定まる。 The accumulation unit 40 is a memory in which each piece of image information of the decoded image supplied from the decoded image generation unit 22 is accumulated. The stored image information of the decoded image is supplied to an inter-frame prediction image generation unit 30 described later, and is referred to for motion vector detection, motion compensation, and the like when encoding other frame images. Accordingly, among the accumulated decoded images, the decoded image referred to when the predicted image is generated by the inter-frame predicted image generation unit 30 is also referred to as a “reference image”. Which decoded image is referred to depends on the prediction mode of the encoding target frame image.
予測画像生成部26は、フレーム内予測画像生成部28及びフレーム間予測画像生成部30を有している。予測画像生成部26は、予測画像を生成して予測誤差画像生成部12及び(切替部32を介して)復号画像生成部22に供給すると共に、予測画像の生成の際に得られたサイド情報をエントロピー符号化部34に供給する。サイド情報には、例えば、動きベクトルの情報や予測モード等が含まれる。 The predicted image generation unit 26 includes an intra-frame predicted image generation unit 28 and an inter-frame predicted image generation unit 30. The prediction image generation unit 26 generates a prediction image and supplies the prediction image to the prediction error image generation unit 12 and the decoded image generation unit 22 (via the switching unit 32), and side information obtained when the prediction image is generated. Is supplied to the entropy encoding unit 34. The side information includes, for example, motion vector information and a prediction mode.
フレーム内予測画像生成部28は、フレーム内予測符号化方法で符号化を行うときの予測画像を生成する。フレーム内予測符号化方法は、他のフレーム画像を用いず、符号化対象となるフレーム画像の情報のみで画像を符号化・復号する方法である。具体的には、1枚のフレーム画像を複数のブロックに分割したときの符号化対象のブロックの周辺のブロックの画像から、所定方向に沿って近傍の画像の動きを推定して、符号化対象のブロックの画像を予測し、符号化対象のブロックの画像との差分を符号化する。 The intra-frame prediction image generation unit 28 generates a prediction image when encoding is performed using the intra-frame prediction encoding method. The intra-frame predictive encoding method is a method of encoding / decoding an image using only information of a frame image to be encoded without using another frame image. Specifically, the motion of a neighboring image along a predetermined direction is estimated from an image of a block around the block to be encoded when one frame image is divided into a plurality of blocks, and the object to be encoded The block image is predicted, and the difference from the encoding target block image is encoded.
フレーム間予測画像生成部30は、フレーム間予測符号化方法で符号化を行うときの予測画像を生成する。フレーム間予測符号化方法は、異なる時刻のフレーム画像に基づいて予測画像を生成し、符号化対象の画像と予測画像との差分(誤差)画像を符号化する方式である。 The inter-frame prediction image generation unit 30 generates a prediction image when encoding is performed using the inter-frame prediction encoding method. The inter-frame predictive encoding method is a method of generating a prediction image based on frame images at different times and encoding a difference (error) image between the encoding target image and the prediction image.
ここで、フレーム間予測画像生成部30における処理内容を具体的に説明する。ここでは、符号化対象のフレーム画像を複数のブロック(以下、符号化ブロックという)に分割したときの個々の符号化ブロックが単位とされる。そして、符号化対象のフレーム画像に時間的に近い復号画像(参照画像)から、符号化ブロックに空間的に近い複数のブロック(以下、参照ブロックという)が抽出される。更に、各参照ブロックと符号化ブロックとの相対的な位置関係(ずれ量及びずれ方向)を示す動きベクトルが動きベクトル候補として生成される。また、各参照ブロックの画像の各々と、符号化ブロックの画像との誤差が計算され、最も誤差が小さくなる動きベクトル候補が、処理対象の符号化ブロックに対する動きベクトルとして選択される。該選択された動きベクトルにより周知の動き補償が行われ、最終的に、フレーム画像単位の予測画像が生成される。なお、上記検出された動きベクトルの情報は、サイド情報としてエントロピー符号化部34にも供給される。 Here, the processing content in the inter-frame prediction image generation unit 30 will be specifically described. Here, each encoded block when the frame image to be encoded is divided into a plurality of blocks (hereinafter referred to as encoded blocks) is used as a unit. Then, a plurality of blocks (hereinafter referred to as reference blocks) spatially close to the encoded block are extracted from a decoded image (reference image) temporally close to the frame image to be encoded. Furthermore, a motion vector indicating a relative positional relationship (shift amount and shift direction) between each reference block and the encoded block is generated as a motion vector candidate. Further, an error between each of the images of each reference block and the image of the coding block is calculated, and a motion vector candidate with the smallest error is selected as a motion vector for the coding block to be processed. Known motion compensation is performed using the selected motion vector, and finally a predicted image in units of frame images is generated. The detected motion vector information is also supplied to the entropy coding unit 34 as side information.
切替部32は、フレーム内予測画像生成部28で生成された予測画像及びフレーム間予測画像生成部30で生成された予測画像の一方を選択して予測誤差画像生成部12及び復号画像生成部22に供給する。切替部32は、不図示の制御部により制御され、切替えられる。 The switching unit 32 selects one of the prediction image generated by the intra-frame prediction image generation unit 28 and the prediction image generated by the inter-frame prediction image generation unit 30 to select the prediction error image generation unit 12 and the decoded image generation unit 22. To supply. The switching unit 32 is controlled and switched by a control unit (not shown).
エントロピー符号化部34は、量子化部16から供給された量子化後の予測誤差画像の情報と、予測画像生成部26から供給されたサイド情報とをエントロピー符号化する。エントロピー符号化とは、シンボルの出現頻度に応じて、可変長の符号を割り当て符号化する処理をいう。 The entropy encoding unit 34 entropy-encodes the information on the prediction error image after quantization supplied from the quantization unit 16 and the side information supplied from the prediction image generation unit 26. Entropy coding is a process of assigning and coding a variable-length code according to the appearance frequency of a symbol.
また、エントロピー符号化部34には、後述する算出部44で算出された指標値の情報が入力される。エントロピー符号化部34は、エントロピー符号化により生成した符号化データと、算出部44から入力された指標値の情報とを含む符号化情報をフレーム画像単位で生成して出力する(図9も参照)。 Further, the entropy encoding unit 34 receives information on index values calculated by the calculation unit 44 described later. The entropy encoding unit 34 generates and outputs encoded information including encoded data generated by entropy encoding and index value information input from the calculation unit 44 in units of frame images (see also FIG. 9). ).
抽出部42は、蓄積部40に蓄積されている各復号画像から少なくとも1種類の特徴領域を抽出する。なお、特徴領域の種類によっては、生成部10において符号化の際に検出された動きベクトルの情報も、特徴領域の抽出に使用される。 The extraction unit 42 extracts at least one feature region from each decoded image stored in the storage unit 40. Depending on the type of feature region, information on a motion vector detected at the time of encoding in the generation unit 10 is also used for extracting the feature region.
なお、抽出部42において、蓄積部40に蓄積された復号画像から抽出する特徴領域の種類は予め設定されている。例えば、所定の特徴を有する領域としてもよいし、予め設定された位置及び大きさの領域としてもよい。抽出部42は、抽出した特徴領域の各画素の画素位置及び画素値の各々を算出部44に出力する。 Note that, in the extraction unit 42, the types of feature regions extracted from the decoded images stored in the storage unit 40 are set in advance. For example, it may be an area having a predetermined feature or an area having a preset position and size. The extraction unit 42 outputs the pixel position and the pixel value of each pixel of the extracted feature region to the calculation unit 44.
算出部44には、復号画像を生成する元となった符号化処理前のフレーム画像の画像情報が入力されると共に、抽出部42で抽出された特徴領域の画素位置及び画素値が入力される。上記復号画像を生成する元となった符号化処理前のフレーム画像を、元画像と呼称する。 The calculation unit 44 receives the image information of the pre-encoding frame image that is the source for generating the decoded image, and the pixel position and pixel value of the feature region extracted by the extraction unit 42. . The frame image before the encoding process that is a source for generating the decoded image is referred to as an original image.
算出部44は、特徴領域の画素値と、該特徴領域が抽出された復号画像に対応する元画像内の該特徴領域と同一位置の画素値と、を比較し、該特徴領域について、生成部10による符号化の際に生じる画質の劣化の度合いを示す指標値を算出する。算出部44は、抽出部42において抽出される特徴領域が1種類の場合には、該1種類の特徴領域について指標値を算出する。また、抽出部42において抽出される特徴領域が複数種類の場合には、該複数種類の特徴領域の各々について指標値を算出する。 The calculation unit 44 compares the pixel value of the feature region with the pixel value at the same position as the feature region in the original image corresponding to the decoded image from which the feature region has been extracted. 10 is used to calculate an index value indicating the degree of image quality degradation that occurs when encoding is performed. When there is one type of feature region extracted by the extraction unit 42, the calculation unit 44 calculates an index value for the one type of feature region. In addition, when there are a plurality of types of feature regions extracted by the extraction unit 42, an index value is calculated for each of the plurality of types of feature regions.
本実施形態において、算出部44は、PSNR(Peak Signal-to-Noise Ratio:ピーク信号対雑音比)を指標値として算出する。 In the present embodiment, the calculation unit 44 calculates PSNR (Peak Signal-to-Noise Ratio) as an index value.
なお、PSNRは、画素が取り得る最大画素値を255とすると、以下の式で算出される。 Note that PSNR is calculated by the following equation, where 255 is the maximum pixel value that a pixel can take.
式(1)により算出されるMSEを式(2)に代入してPSNRが算出される。ここで、式(1)により算出されるMSEは、特徴領域の画素値と、元画像内の該特徴領域と同一位置の画素値と、の平均二乗誤差を表す。 The PSNR is calculated by substituting the MSE calculated by the equation (1) into the equation (2). Here, MSE calculated by Expression (1) represents a mean square error between the pixel value of the feature region and the pixel value at the same position as the feature region in the original image.
なお、Npは、PSNR算出対象画素数である。
O(i,j)は、元画像の画素値である。
L(i,j)は、復号画像の画素値である。
i,jは、PSNR算出対象矩形内のx座標、y座標である。
Np is the number of PSNR calculation target pixels.
O (i, j) is a pixel value of the original image.
L (i, j) is a pixel value of the decoded image.
i and j are the x and y coordinates in the PSNR calculation target rectangle.
算出部44は、上記算出した指標値をエントロピー符号化部34に出力する。 The calculation unit 44 outputs the calculated index value to the entropy encoding unit 34.
ここで、特徴領域の抽出処理及び指標値の算出処理の具体例を説明する。本実施形態では、抽出部42により以下の5種類の特徴領域が抽出され、算出部44により該抽出された5種類の特徴領域毎に指標値が算出されるものとする。 Here, a specific example of the feature region extraction processing and the index value calculation processing will be described. In the present embodiment, it is assumed that the following five types of feature regions are extracted by the extraction unit 42, and an index value is calculated for each of the five types of extracted feature regions by the calculation unit 44.
なお、算出部44で算出される指標値としてPSNRを例に挙げて説明したが、算出部44で算出される指標値は、復号画像から抽出した特徴領域の劣化の度合いを示す値であれば特に限定されない。例えば、復号画像から抽出した特徴領域の画素値と、元画像の画素値との誤差に関する値、例えば、式(1)で示したMSEを指標値として算出してもよい。また、特徴領域の画素値と、元画像内の該特徴領域と同一位置の画素値と、の誤差の平均値を指標値として算出してもよい。 Note that although PSNR has been described as an example of the index value calculated by the calculation unit 44, the index value calculated by the calculation unit 44 is a value indicating the degree of deterioration of the feature region extracted from the decoded image. There is no particular limitation. For example, a value relating to an error between the pixel value of the feature region extracted from the decoded image and the pixel value of the original image, for example, the MSE expressed by Equation (1) may be calculated as the index value. Further, an average value of errors between the pixel value of the feature region and the pixel value at the same position as the feature region in the original image may be calculated as the index value.
(1)顔領域
抽出部42は、復号画像に対して顔認識処理を行い、復号画像から顔が存在する領域を抽出する。顔認識処理は、公知の技術を用いて行えばよく、使用する技術は特に限定されない。例えば、P. Viola and M. Jones, “Robust real-time object detection”, Proc. of IEEE Workshop on Statistical and Computational Theories in Computer Vision, pp.1-25, July 2001.等に記載の技術を採用できる。
(1) Face region The extraction unit 42 performs face recognition processing on the decoded image, and extracts a region where a face exists from the decoded image. The face recognition process may be performed using a known technique, and the technique used is not particularly limited. For example, the techniques described in P. Viola and M. Jones, “Robust real-time object detection”, Proc. Of IEEE Workshop on Statistical and Computational Theories in Computer Vision, pp.1-25, July 2001. .
図4に、顔領域の抽出結果の一例を示す。図4では、2カ所の顔領域が抽出されている。抽出部42は、顔領域の各画素の画素位置及び画素値の各々を算出部44に出力する。 FIG. 4 shows an example of the face area extraction result. In FIG. 4, two face regions are extracted. The extraction unit 42 outputs each pixel position and pixel value of each pixel in the face area to the calculation unit 44.
算出部44は、抽出部42により抽出された復号画像内の顔領域の画素値と、該復号画像に対応する元画像内の上記顔領域と同一位置の画素値と、の比較を行ない、指標値を算出する。顔領域については、1フレーム画像につき、1個の指標値が算出される。なお、図4では、顔領域が2カ所抽出されているが、2カ所の領域をまとめて顔領域として扱うため、ここでは、1つの指標値が算出されることになる。 The calculation unit 44 compares the pixel value of the face area in the decoded image extracted by the extraction unit 42 with the pixel value at the same position as the face area in the original image corresponding to the decoded image, and the index Calculate the value. For the face area, one index value is calculated for each frame image. In FIG. 4, two face areas are extracted. However, since the two areas are collectively treated as the face area, one index value is calculated here.
(2)位置及びサイズが固定の固定領域
特徴領域として抽出するN個の固定領域の位置及びサイズを予め符号化装置1に設定しておく。Nは、1以上の自然数とする。この設定は、利用者が事前に行なってもよいし、符号化装置1の製造者が出荷前に行なってもよい。
(2) Fixed Areas with Fixed Positions and Sizes The positions and sizes of N fixed areas to be extracted as feature areas are set in the encoding device 1 in advance. N is a natural number of 1 or more. This setting may be performed in advance by the user, or may be performed by the manufacturer of the encoding device 1 before shipment.
ここでは、固定領域を矩形領域とするが、矩形でなくてもよい。固定領域が矩形ではない場合には、形状も設定しておくとよい。また、図5に示す例では、N=15であるが、Nの値に制約はない。固定領域のサイズは任意である。また、各固定領域のサイズ及び形状の少なくとも一方は、位置毎に異ならせてもよいし、同一であってもよい。 Here, the fixed area is a rectangular area, but it may not be a rectangle. If the fixed area is not rectangular, the shape may be set. In the example shown in FIG. 5, N = 15, but the value of N is not limited. The size of the fixed area is arbitrary. In addition, at least one of the size and the shape of each fixed region may be different for each position or the same.
抽出部42は、復号画像から、抽出すべき特徴領域として予め設定されているN個の固定領域を抽出し、該抽出した固定領域の各画素の画素値とその画素位置を算出部44に出力する。 The extraction unit 42 extracts N fixed regions set in advance as feature regions to be extracted from the decoded image, and outputs the pixel value and the pixel position of each pixel of the extracted fixed region to the calculation unit 44. To do.
算出部44は、抽出部42により抽出された復号画像内のN個の固定領域の画素値と、該復号画像に対応する元画像内の上記固定領域と同一位置の画素値と、の比較を行ない、指標値を算出する。ここでは、N個の固定領域のそれぞれについて、指標値を算出する。従って、予め設定された領域については、1フレーム画像につき、N個の指標値が算出される。 The calculation unit 44 compares the pixel values of the N fixed regions in the decoded image extracted by the extraction unit 42 with the pixel values at the same position as the fixed region in the original image corresponding to the decoded image. And calculate the index value. Here, an index value is calculated for each of the N fixed areas. Accordingly, N index values are calculated for one frame image for a preset region.
(3)静止領域及び動領域
抽出部42は、復号画像を予め定められた大きさのMa個の矩形領域(ブロック)に分割し、各ブロック毎に、動きベクトルの大きさを算出する。抽出部42は、該算出した動きベクトルが閾値S未満の場合には、該ブロックを静止領域と判定し、該算出した動きベクトルの大きさの絶対値が閾値S以上の場合には、該矩形領域を動領域と判定する。
(3) Still Area and Moving Area The extraction unit 42 divides the decoded image into Ma rectangular areas (blocks) having a predetermined size, and calculates the size of the motion vector for each block. When the calculated motion vector is less than the threshold value S, the extraction unit 42 determines the block as a still region, and when the calculated magnitude of the motion vector is greater than or equal to the threshold value S, the extraction unit 42 The area is determined as a moving area.
また、複数のブロックが静止領域として判定された場合には、該静止領域として判定された複数のブロック全体が1つの静止領域として抽出される。複数のブロックが動領域として判定された場合には、該動領域として判定された複数のブロック全体が1つの動領域として抽出される。図6に静止領域の抽出結果の一例を示し、図7に動領域の抽出結果の一例を示す。 When a plurality of blocks are determined as still areas, the entire plurality of blocks determined as still areas are extracted as one still area. When a plurality of blocks are determined as a moving area, the entire plurality of blocks determined as the moving area are extracted as one moving area. FIG. 6 shows an example of a still region extraction result, and FIG. 7 shows an example of a motion region extraction result.
抽出部42は、静止領域の画素位置及び画素値の各々を算出部44に出力すると共に、動領域の画素位置及び画素値の各々を算出部44に出力する。 The extraction unit 42 outputs each of the pixel position and the pixel value of the still region to the calculation unit 44 and outputs each of the pixel position and the pixel value of the moving region to the calculation unit 44.
算出部44は、抽出部42により抽出された復号画像内の静止領域の画素値と、該復号画像に対応する元画像内の該静止領域と同一位置の画素値と、を比較して、指標値を算出する。また、算出部44は、抽出部42により抽出された復号画像内の動領域の画素値と、該復号画像に対応する元画像内の該動領域と同一位置の画素値と、を比較して、指標値を算出する。 The calculation unit 44 compares the pixel value of the still region in the decoded image extracted by the extraction unit 42 with the pixel value at the same position as the still region in the original image corresponding to the decoded image, Calculate the value. Further, the calculation unit 44 compares the pixel value of the moving region in the decoded image extracted by the extracting unit 42 with the pixel value at the same position as the moving region in the original image corresponding to the decoded image. The index value is calculated.
上記処理により、1フレーム分の復号画像を動領域と静止領域の2つに分類することができ、動領域、静止領域それぞれにおいて、指標値が算出される。すなわち、1フレーム画像につき、動領域1個、静止領域1個の指標値が得られる。 By the above process, the decoded image for one frame can be classified into two, that is, a moving area and a still area, and an index value is calculated in each of the moving area and the still area. That is, an index value for one moving area and one still area is obtained for each frame image.
なお、動領域か静止領域かを判定する動きベクトルとして、生成部10で検出された動きベクトルを用いてもよい。抽出部42において分割したブロックのサイズが、生成部10で動きベクトルを検出したときのサイズより大きい場合には、生成部10で検出された動きベクトルの平均値を求めてもよい。また、生成部10で検出された動きベクトルは用いずに、ブロック毎に時間の異なるフレームとのブロックマッチングを行って算出してもよい。また、ブロック分割数Ma、閾値Sの値に制約はなく、例えば、図6及び図7には、Ma=16、S=1とする例を図示した。 Note that a motion vector detected by the generation unit 10 may be used as a motion vector for determining whether the region is a moving region or a still region. When the size of the block divided by the extraction unit 42 is larger than the size when the motion vector is detected by the generation unit 10, the average value of the motion vectors detected by the generation unit 10 may be obtained. Further, instead of using the motion vector detected by the generation unit 10, the calculation may be performed by performing block matching with frames having different times for each block. In addition, there are no restrictions on the number of block divisions Ma and the threshold value S. For example, FIGS. 6 and 7 show examples in which Ma = 16 and S = 1.
(4)輝度に応じた分割領域
ここで、1画素あたり8ビットの精度とした場合、輝度値は0〜255の範囲を取る。抽出部42は、例えば、図8のテーブルに示すように、輝度値を互いに異なる複数の輝度範囲(バンド)の何れかに分類し、バンド毎の指標値を算出する。より具体的には、抽出部42は、まず、復号画像をMb個の矩形領域(ブロック)に分割し、分割したブロック毎に、該ブロックの輝度の平均値Lを算出する。そして、抽出部42は、輝度の平均値Lがどのバンドに属しているかを判定する。抽出部42は、バンド毎に、該バンドに属する各画素の画素位置及び画素値を算出部44に出力する。
(4) Divided area according to luminance When the accuracy is 8 bits per pixel, the luminance value ranges from 0 to 255. For example, as illustrated in the table of FIG. 8, the extraction unit 42 classifies the luminance value into one of a plurality of different luminance ranges (bands), and calculates an index value for each band. More specifically, the extraction unit 42 first divides the decoded image into Mb rectangular regions (blocks), and calculates the average value L of the luminance of the block for each divided block. Then, the extraction unit 42 determines which band the average luminance value L belongs to. For each band, the extraction unit 42 outputs the pixel position and pixel value of each pixel belonging to the band to the calculation unit 44.
算出部44は、バンド毎に、抽出部42により抽出された復号画像内の画素の画素値と、該復号画像に対応する元画像内の該復号画像の画素と同一位置の画素値と、を比較して、指標値を算出する。 The calculation unit 44 calculates, for each band, the pixel value of the pixel in the decoded image extracted by the extraction unit 42 and the pixel value at the same position as the pixel of the decoded image in the original image corresponding to the decoded image. In comparison, an index value is calculated.
上記処理により、1フレーム分の復号画像をMb個のブロックに分割したときの全ブロックが8つのバンドの何れかに分類され、それぞれのバンド毎に指標値が算出される。すなわち、輝度に応じたバンドの領域(分割領域)については、1フレーム画像につき、8個の指標値が算出される。 With the above processing, all blocks when a decoded image for one frame is divided into Mb blocks are classified into any of the eight bands, and an index value is calculated for each band. That is, for the band region (divided region) according to the luminance, eight index values are calculated for one frame image.
なお、ブロック分割数Mbに制約はなく、例えば、図8の左図に示すように、Mb=66が例として挙げられる。また、バンドの分割数は8に限らず、任意の数で良い。 The block division number Mb is not limited. For example, Mb = 66 is given as shown in the left diagram of FIG. Further, the number of divisions of the band is not limited to 8, and may be any number.
以上説明したように、顔領域、固定領域、静止領域、動領域、輝度に応じた分割領域、の5種類の特徴領域が抽出され、各々について指標値が算出される。 As described above, five types of feature areas, that is, a face area, a fixed area, a stationary area, a moving area, and a divided area corresponding to luminance, are extracted, and an index value is calculated for each.
全ての指標値が算出部44により算出されると、エントロピー符号化部34は、該算出された指標値の情報を、符号化情報に埋め込む。 When all the index values are calculated by the calculation unit 44, the entropy encoding unit 34 embeds the calculated index value information in the encoding information.
図9に、符号化情報のデータ構造例を示す。前述したように、エントロピー符号化部34は、各フレーム画像毎に、フレーム画像の画像情報をエントロピー符号化した符号化データと、該フレーム画像の各特徴領域についての、算出部44により算出された指標値の情報とを含む符号化情報を生成する。 FIG. 9 shows an example data structure of encoded information. As described above, the entropy encoding unit 34 is calculated by the calculation unit 44 for each frame image with respect to encoded data obtained by entropy encoding the image information of the frame image and each feature region of the frame image. Encoding information including index value information is generated.
指標値の情報は、後述する画像選択装置2において使用される。 The index value information is used in the image selection device 2 described later.
なお、本実施形態において、指標値の情報は、符号化情報内の、指標値を使用しない復号装置においても復号処理が可能となるような(復号処理に影響しない)領域に格納される。例えば、符号化方式がH.264の場合には、User data unregistered SEI messageの領域が該当する。これにより、指標値を使用しない復号装置においては、符号化情報から指標値の情報を読み飛ばして復号処理される。 In the present embodiment, the index value information is stored in an area in the encoded information that can be decoded by a decoding apparatus that does not use the index value (does not affect the decoding process). For example, the encoding method is H.264. In the case of H.264, the area of User data unregistered SEI message corresponds. Thereby, in the decoding device that does not use the index value, the decoding process is performed by skipping the index value information from the encoded information.
また、指標値の情報を符号化情報に埋め込まずに、別途任意の形式で(ただし、符号化データを含む符号化情報と該指標値とが対応するように)保存して、後述する画像選択装置2に提供してもよい。 In addition, the index value information is not embedded in the encoded information, but is saved separately in an arbitrary format (however, the encoded information including the encoded data and the index value correspond to each other), and image selection to be described later The device 2 may be provided.
また、ここでは、指標値を5種類の特徴領域の各々について算出する例について説明したが、該例に限定されず、少なくとも1種類の特徴領域について算出すればよい。 Although an example in which the index value is calculated for each of the five types of feature regions has been described here, the present invention is not limited to this example, and may be calculated for at least one type of feature region.
また、指標値の各々と、該指標値に対応する特徴領域の位置及びサイズの情報とを対応付けて符号化情報に含めてもよい。 In addition, each index value may be included in the encoded information in association with the position and size information of the feature region corresponding to the index value.
また、ここでは、符号化装置1を電子回路等により実現する例について説明したが、例えば図10に示すコンピュータ50で実現することもできる。コンピュータ50はCPU(Central Processing Unit)51、プログラムを記憶した不揮発性のプログラム記憶部52、RAM(random access memory)53、外部IF(Interface)54、画像入力IF55を備えている。CPU51、プログラム記憶部52、RAM53、外部IF54、及び画像入力IF55は、バス58を介して互いに接続されている。 Although an example in which the encoding device 1 is realized by an electronic circuit or the like has been described here, it can also be realized by, for example, a computer 50 shown in FIG. The computer 50 includes a CPU (Central Processing Unit) 51, a nonvolatile program storage unit 52 storing a program, a RAM (random access memory) 53, an external IF (Interface) 54, and an image input IF 55. The CPU 51, program storage unit 52, RAM 53, external IF 54, and image input IF 55 are connected to one another via a bus 58.
プログラム記憶部52には、動画像の各フレーム画像を符号化して符号化データを生成するプロセス、特徴領域を抽出するプロセス、及び指標値を算出するプロセスを含む符号化プログラムが記憶されている。 The program storage unit 52 stores an encoding program including a process for generating encoded data by encoding each frame image of a moving image, a process for extracting a feature region, and a process for calculating an index value.
CPU51は、プログラム記憶部52から符号化プログラムを読み出してRAM53に展開し、上記符号化プログラムの各プロセスを実行する。CPU51が各プロセスを実行することで、図2に示した生成部10、抽出部42、及び算出部44の各機能が実現される。 The CPU 51 reads out the encoded program from the program storage unit 52, expands it in the RAM 53, and executes each process of the encoded program. When the CPU 51 executes each process, the functions of the generation unit 10, the extraction unit 42, and the calculation unit 44 illustrated in FIG. 2 are realized.
RAM53には、蓄積部40に相当する記憶領域が設けられている。 The RAM 53 is provided with a storage area corresponding to the storage unit 40.
外部IF54は、記録メディア56及び操作パネルコントローラ57のインタフェースである。記録メディア56は、例えば、CD−ROMやDVD−ROM、USB(Universal Serial Bus)を介して接続可能なフラッシュメモリ等を適用することができ、生成した符号化情報等を記憶することができる。操作パネルコントローラ57は、LCD(液晶ディスプレイ)等から成る表示部及びテンキーやタッチパネル等を含み利用者による操作を受け付ける受付部が設けられた操作パネルを制御する。 The external IF 54 is an interface between the recording medium 56 and the operation panel controller 57. As the recording medium 56, for example, a flash memory connectable via a CD-ROM, a DVD-ROM, or a USB (Universal Serial Bus) can be applied, and the generated encoded information and the like can be stored. The operation panel controller 57 controls an operation panel provided with a display unit including an LCD (liquid crystal display) or the like and a reception unit that includes a numeric keypad, a touch panel, and the like and receives an operation by a user.
画像入力IF55は、動画像の画像情報等を入力するためのインタフェースである。例えば、動画像を撮像する撮像装置との接続が可能なインタフェースであってもよいし、広域ネットワーク等の通信網を介して他の装置から画像情報を取得することが可能なインタフェースであってもよい。 The image input IF 55 is an interface for inputting image information of a moving image. For example, an interface that can be connected to an imaging device that captures moving images may be used, or an interface that can acquire image information from another device via a communication network such as a wide area network. Good.
図11は、符号化プログラムの処理の流れを示すフローチャートである。 FIG. 11 is a flowchart showing the flow of processing of the encoding program.
ステップ100において、生成部10によって、符号化対象のフレーム画像(元画像)が取得される。 In step 100, the generation unit 10 obtains a frame image (original image) to be encoded.
ステップ102において、生成部10によって、取得した元画像を符号化した符号化データが生成される。 In step 102, the generation unit 10 generates encoded data obtained by encoding the acquired original image.
ステップ104において、生成部10によって、復号画像(参照画像)が生成され、蓄積部40に記憶される。 In step 104, the generation unit 10 generates a decoded image (reference image) and stores it in the storage unit 40.
ステップ106において、抽出部42によって、少なくとも1種類の特徴領域が抽出される。 In step 106, the extraction unit 42 extracts at least one type of feature region.
ステップ108において、算出部44によって、上記抽出された特徴領域毎に、指標値が算出される。 In step 108, the calculation unit 44 calculates an index value for each of the extracted feature regions.
ステップ110において、生成部10によって、上記算出された指標値を含む符号化情報が生成される。 In step 110, the generation unit 10 generates encoded information including the calculated index value.
このように、CPU51がプログラム記憶部52等の記憶部に記憶されているプログラムを読み出して実行することにより、上記ハードウェアとプログラムとを協働させて符号化装置1の機能を実現することもできる。 As described above, the CPU 51 reads out and executes the program stored in the storage unit such as the program storage unit 52, thereby realizing the function of the encoding device 1 by cooperating the hardware and the program. it can.
次に、上記符号化装置1で生成された符号化情報に含まれる指標値の情報に基づいて、複数の復号画像から画質の劣化の度合いが小さい復号画像を選択して提示する処理を行う画像選択装置2について具体例を挙げて説明する。 Next, based on the index value information included in the encoded information generated by the encoding apparatus 1, an image for performing processing of selecting and presenting a decoded image with a low degree of image quality degradation from a plurality of decoded images The selection device 2 will be described with a specific example.
図12には、本実施形態に係る画像選択装置2が示されている。画像選択装置2は、復号部71、第1蓄積部80、第2蓄積部81、選択部82、受付部83、及び提示部84を備えている。 FIG. 12 shows an image selection device 2 according to this embodiment. The image selection device 2 includes a decoding unit 71, a first storage unit 80, a second storage unit 81, a selection unit 82, a reception unit 83, and a presentation unit 84.
なお、画像選択装置2の各機能部は例えば電子回路等で実現することができ、生成部10は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現してもよい。 Each functional unit of the image selection device 2 can be realized by, for example, an electronic circuit, and the generation unit 10 may be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit).
復号部71は、符号化情報に含まれる符号化データを復号して復号画像の画像情報を生成する。復号画像の画像情報は、第1蓄積部80に蓄積される。また、復号部71は、符号化情報に含まれる指標値を抽出し、第2蓄積部81に蓄積する。 The decoding unit 71 decodes encoded data included in the encoded information and generates image information of a decoded image. The image information of the decoded image is stored in the first storage unit 80. In addition, the decoding unit 71 extracts an index value included in the encoded information and stores it in the second storage unit 81.
図13には、本実施形態に係る復号部71の構成が示されている。復号部71は、エントロピー復号部72、逆量子化部73、逆変換部74、復号画像生成部75、予測画像生成部76、及び切替部79を備えている。 FIG. 13 shows the configuration of the decoding unit 71 according to the present embodiment. The decoding unit 71 includes an entropy decoding unit 72, an inverse quantization unit 73, an inverse transformation unit 74, a decoded image generation unit 75, a predicted image generation unit 76, and a switching unit 79.
エントロピー復号部72は、符号化装置1で生成された符号化情報に含まれる符号化データ(ビットストリーム)をエントロピー復号(可変長復号)し、予測誤差画像の量子化係数と、サイド情報とを出力する。エントロピー復号とは、シンボルの出現頻度に応じて、可変長の符号を元の信号に戻す処理をいう。復号された量子化係数は逆量子化部73に供給され、復号されたサイド情報は予測画像生成部76に供給される。 The entropy decoding unit 72 performs entropy decoding (variable length decoding) on the encoded data (bit stream) included in the encoding information generated by the encoding device 1 to obtain the quantization coefficient of the prediction error image and the side information. Output. Entropy decoding refers to processing for returning a variable-length code to the original signal in accordance with the appearance frequency of symbols. The decoded quantization coefficient is supplied to the inverse quantization unit 73, and the decoded side information is supplied to the predicted image generation unit 76.
更にまた、エントロピー復号部72は、符号化情報に含まれる指標値の情報を取り出して、第2蓄積部81に蓄積する。 Furthermore, the entropy decoding unit 72 takes out index value information included in the encoded information and stores it in the second storage unit 81.
逆量子化部73は、エントロピー復号部72で復号された量子化係数を逆量子化(スケーリング)し、再生周波数係数を出力する。逆量子化部73は、スケーリングすることによって、圧縮されていた周波数の量子化係数を元のスケールに戻した再生周波数係数を生成して、逆変換部74に供給する。 The inverse quantization unit 73 performs inverse quantization (scaling) on the quantization coefficient decoded by the entropy decoding unit 72 and outputs a reproduction frequency coefficient. The inverse quantization unit 73 generates a reproduction frequency coefficient obtained by returning the quantized coefficient of the compressed frequency to the original scale by scaling, and supplies the reproduction frequency coefficient to the inverse transform unit 74.
逆変換部74は、逆量子化部73から供給された再生周波数係数を逆変換処理する。逆変換部74は、逆変換処理によって、再生周波数係数の周波数成分を元の予測誤差画像(再生予測誤差画像)へ戻す。そして、再生予測誤差画像を復号画像生成部75に供給する。 The inverse transform unit 74 performs an inverse transform process on the reproduction frequency coefficient supplied from the inverse quantization unit 73. The inverse conversion unit 74 returns the frequency component of the reproduction frequency coefficient to the original prediction error image (reproduction prediction error image) by inverse conversion processing. Then, the reproduction prediction error image is supplied to the decoded image generation unit 75.
復号画像生成部75は、予測画像生成部76により生成された予測画像と、逆量子化部73及び逆変換部74により生成された再生予測誤差画像とを加算する。加算して復号(再生)された復号画像の画像情報は、第1蓄積部80に蓄積される。蓄積された復号画像は、後述するフレーム間予測画像生成部78に供給され、他のフレーム画像を復号するときの動き補償で参照される。従って、蓄積された復号画像のうち、フレーム間予測画像生成部78で予測画像の生成の際に参照される復号画像は、「参照画像」と呼ばれる。どの復号画像が参照されるかは、復号対象フレーム画像の予測モード等に応じて定まる。 The decoded image generation unit 75 adds the prediction image generated by the prediction image generation unit 76 and the reproduction prediction error image generated by the inverse quantization unit 73 and the inverse transformation unit 74. The image information of the decoded image added and decoded (reproduced) is accumulated in the first accumulation unit 80. The accumulated decoded image is supplied to an inter-frame prediction image generation unit 78, which will be described later, and is referred to in motion compensation when other frame images are decoded. Therefore, among the accumulated decoded images, the decoded image that is referred to when the predicted image is generated by the inter-frame predicted image generation unit 78 is referred to as a “reference image”. Which decoded image is referred to depends on the prediction mode of the decoding target frame image.
予測画像生成部76は、フレーム内予測画像生成部77及びフレーム間予測画像生成部78を有している。予測画像生成部76は、エントロピー復号部72から供給されたサイド情報と、必要ならば復号画像とに基づいて、予測画像を生成し、切替部79を介して復号画像生成部75に供給する。 The predicted image generation unit 76 includes an intra-frame predicted image generation unit 77 and an inter-frame predicted image generation unit 78. The predicted image generation unit 76 generates a predicted image based on the side information supplied from the entropy decoding unit 72 and, if necessary, the decoded image, and supplies the predicted image to the decoded image generation unit 75 via the switching unit 79.
フレーム内予測画像生成部77は、サイド情報に基づいて、フレーム内予測符号化方法で符号化された符号化データを復号するときの予測画像をブロック単位で生成する。 Based on the side information, the intra-frame prediction image generation unit 77 generates a prediction image for decoding the encoded data encoded by the intra-frame prediction encoding method in units of blocks.
フレーム間予測画像生成部78は、サイド情報と復号画像とに基づいて、フレーム間予測符号化方法で符号化された符号化データを復号するときの予測画像をブロック単位で生成する。具体的には、サイド情報に含まれる動きベクトルの情報で示された復号画像内の画素値を参照して、予測画像を生成する。 The inter-frame prediction image generation unit 78 generates a prediction image when decoding encoded data encoded by the inter-frame prediction encoding method, in units of blocks, based on the side information and the decoded image. Specifically, the predicted image is generated with reference to the pixel value in the decoded image indicated by the motion vector information included in the side information.
切替部79は、フレーム内予測画像生成部77で生成された予測画像及び予測画像生成部76で生成された予測画像の一方を選択して復号画像生成部75に供給する。切替部79は、不図示の制御部により制御され、切替えられる。 The switching unit 79 selects one of the prediction image generated by the intra-frame prediction image generation unit 77 and the prediction image generated by the prediction image generation unit 76 and supplies the selected image to the decoded image generation unit 75. The switching unit 79 is controlled and switched by a control unit (not shown).
第1蓄積部80に蓄積された復号画像の画像情報は、提示部84に入力される。提示部84は、動画像から時間軸上で連続する複数のフレーム画像(第1蓄積部80に蓄積された復号画像)を抜き出してディスプレイに表示する機能を有する。例えば、提示部84は、復号画像を縮小した縮小画像(以下、サムネイル画像という)を生成し、復号画像の選択画面に組み込んで表示する。 The image information of the decoded image stored in the first storage unit 80 is input to the presentation unit 84. The presentation unit 84 has a function of extracting a plurality of frame images (decoded images stored in the first storage unit 80) continuous on the time axis from the moving image and displaying them on the display. For example, the presentation unit 84 generates a reduced image (hereinafter referred to as a thumbnail image) obtained by reducing the decoded image, and displays the reduced image by incorporating it into the selection screen for the decoded image.
図14に、選択画面300の一例を示す。 FIG. 14 shows an example of the selection screen 300.
エリア303は、サムネイル画像の表示エリアである。利用者は、エリア303に表示された複数のサムネイル画像から、復号画像の選択基準となる復号画像(以下、基準画像という)のサムネイル画像を指定することができる。基準画像の指定結果は、受付部83により受け付けられ、選択部82に入力される。また、エリア303には、画像選択装置2の選択部82が選択した復号画像の選択結果が表示される。これにより、該選択結果が利用者に提示される。 An area 303 is a thumbnail image display area. The user can designate a thumbnail image of a decoded image (hereinafter referred to as a reference image) that serves as a selection criterion for the decoded image from a plurality of thumbnail images displayed in the area 303. The specification result of the reference image is received by the receiving unit 83 and input to the selection unit 82. In the area 303, the selection result of the decoded image selected by the selection unit 82 of the image selection device 2 is displayed. Thereby, the selection result is presented to the user.
エリア301は、利用者が優先する特徴領域の種類を指定するエリアである。利用者が、不図示の操作部を操作することにより図示されるボタンを選択すると、該選択されたボタンの右側に示される特徴領域が指定される。特徴領域の指定結果は、受付部83により受け付けられ、選択部82に入力される。本実施形態では、5種類の特徴領域、すなわち、顔領域、N個の固定領域(以下、N点という)、動領域、静止領域、及び輝度に応じた分割領域(以下、輝度分布という)の中から1つを利用者に選択(指定)させる。 An area 301 is an area for designating the type of feature area that the user has priority. When the user selects a button shown by operating an operation unit (not shown), a feature region shown on the right side of the selected button is designated. The result of specifying the feature area is received by the receiving unit 83 and input to the selection unit 82. In this embodiment, five types of feature areas, that is, a face area, N fixed areas (hereinafter referred to as N points), a moving area, a stationary area, and a divided area corresponding to luminance (hereinafter referred to as luminance distribution). Let the user select (specify) one of them.
エリア302には、エリア301において指定された特徴領域の位置を示す位置画像を、基準画像のサムネイル画像に重畳した画像が表示される。更にまた、エリア301において利用者がN点、或いは輝度分布の特徴領域を指定した場合には、エリア302において、利用者は更に詳細な指定を行うことができる。ここで特徴領域の詳細を指定した指定結果は、受付部83により受け付けられ、選択部82に入力される。 In the area 302, an image obtained by superimposing the position image indicating the position of the feature region designated in the area 301 on the thumbnail image of the reference image is displayed. Furthermore, when the user designates N points in the area 301 or the feature region of the luminance distribution, the user can perform more detailed designation in the area 302. Here, the designation result specifying the details of the feature region is received by the receiving unit 83 and input to the selection unit 82.
位置画像は、例えば、前述したように、指標値の各々と、該指標値に対応する特徴領域の位置及びサイズの情報とが対応付けられて符号化情報に格納されている場合には、該特徴領域の位置及びサイズに基づいて基準画像に重畳することができる。また、特徴領域を画像処理によりその都度抽出し、該抽出した位置に位置画像を重畳してもよい。 For example, as described above, when the position image is stored in the encoded information in association with each index value and the position and size information of the feature region corresponding to the index value, It can be superimposed on the reference image based on the position and size of the feature region. Further, the feature region may be extracted each time by image processing, and the position image may be superimposed on the extracted position.
選択部82には、第1蓄積部80に蓄積された復号画像の画像情報、第2蓄積部81に蓄積された指標値の情報、及び受付部83により受け付けられた指定結果が供給される。選択部82は、受付部83により受け付けられた指定結果と、第2蓄積部81に蓄積された指標値の情報に基づいて、第1蓄積部80に蓄積されている復号画像から、画質の劣化の度合いが最も低い画像を選択し、該選択結果を提示部84に出力する。 The selection unit 82 is supplied with the image information of the decoded image accumulated in the first accumulation unit 80, the index value information accumulated in the second accumulation unit 81, and the designation result received by the reception unit 83. Based on the designation result accepted by the accepting unit 83 and the index value information accumulated in the second accumulating unit 81, the selecting unit 82 deteriorates the image quality from the decoded image accumulated in the first accumulating unit 80. The image having the lowest degree is selected, and the selection result is output to the presentation unit 84.
具体的には、エリア303から利用者が指定した基準画像を含む所定範囲内の複数の復号画像から、エリア301及びエリア302から利用者が指定した特徴領域の指標値が示す画質の劣化の度合いが最も低い復号画像を選択する。 Specifically, the degree of deterioration in image quality indicated by the index values of the feature areas designated by the user from the area 301 and the area 302 from a plurality of decoded images within a predetermined range including the reference image designated by the user from the area 303 The decoded image with the lowest is selected.
基準画像を含む所定範囲内の復号画像の具体例としては、例えば、時間軸において、基準画像及び基準画像の前後nフレーム分(nは1以上の整数)の復号画像としてもよい。また、基準画像のフレームから基準画像のs秒後のフレームまでの複数の復号画像としてもよい。また、この選択範囲は予め設定しておいてもよいし、利用者が事前に設定してもよい。 As a specific example of the decoded image within a predetermined range including the reference image, for example, the reference image and the decoded image for n frames before and after the reference image (n is an integer of 1 or more) may be used. Also, a plurality of decoded images from a frame of the reference image to a frame after s seconds of the reference image may be used. The selection range may be set in advance or may be set in advance by the user.
なお、指標値としてPSNRを用いる場合には、選択部82は、利用者により指定された特徴領域のPSNRが最大となる復号画像を選択する。 When PSNR is used as the index value, the selection unit 82 selects a decoded image that maximizes the PSNR of the feature region designated by the user.
提示部84は、選択部82から出力された選択結果が示す復号画像を、利用者に提示する。例えば、選択画面300のエリア303に表示したサムネイル画像のうち、選択部82により選択された復号画像のサムネイル画像の表示形式を他のサムネイル画像と異ならせることにより提示するようにしてもよい。 The presentation unit 84 presents the decoded image indicated by the selection result output from the selection unit 82 to the user. For example, the thumbnail image displayed in the area 303 of the selection screen 300 may be presented by making the display format of the thumbnail image of the decoded image selected by the selection unit 82 different from other thumbnail images.
以下、本実施形態の画像選択装置2の作用の具体例を説明する。 Hereinafter, a specific example of the operation of the image selection device 2 of the present embodiment will be described.
まず、復号部71は、符号化情報に含まれる符号化データを復号して、復号画像を生成する。更に、提示部84は、選択画面300をディスプレイに表示する。このとき、選択画面のエリア303に、例えば、1つの動画像のファイルから、先頭の復号画像を開始点として、該開始点から所定時間間隔に含まれる複数の復号画像を抜き出して、該複数の復号画像のサムネイル画像をディスプレイに表示してもよい。 First, the decoding unit 71 decodes encoded data included in the encoded information, and generates a decoded image. Furthermore, the presentation unit 84 displays the selection screen 300 on the display. At this time, for example, a plurality of decoded images included in a predetermined time interval are extracted from the start point in the area 303 of the selection screen, starting from the first decoded image, as a start point. A thumbnail image of the decoded image may be displayed on the display.
更にまた、このように複数のサムネイル画像が表示されている状態で、例えば、不図示の操作部により利用者が「進むボタン」を押下した場合などの所定の操作を行ったときに、提示部84が、サムネイル画像の表示を切り換えるようにしてもよい。 Furthermore, when a plurality of thumbnail images are displayed as described above, for example, when the user performs a predetermined operation such as when the user presses the “forward button” by an operation unit (not shown), the presentation unit 84 may switch the display of thumbnail images.
より具体的には、例えば、表示中のサムネイル画像のうち最後に表示されているサムネイル画像が表わす復号画像の1つ後の復号画像のサムネイル画像を生成して、エリア303に新たに追加表示する。そして、表示中のサムネイル画像のうち先頭に表示されている復号画像のサムネイル画像をエリア303から消去する。 More specifically, for example, a thumbnail image of the decoded image immediately after the decoded image represented by the last displayed thumbnail image among the currently displayed thumbnail images is generated and additionally displayed in the area 303. . Then, the thumbnail image of the decoded image displayed at the head of the displayed thumbnail images is deleted from the area 303.
或いは、表示中のサムネイル画像のうち最後に表示されている復号画像、或いは該復号画像の1つ後の復号画像を開始点として、該開始点から所定時間間隔後までに含まれる複数の復号画像のサムネイル画像に表示を切り換えるようにしてもよい。 Alternatively, a decoded image that is displayed last among the displayed thumbnail images, or a decoded image that is one after the decoded image, is used as a starting point, and a plurality of decoded images that are included between the starting point and a predetermined time interval later The display may be switched to the thumbnail image.
また、例えば、利用者が「戻るボタン」を押下した場合などの所定の操作を行ったときには、上記とは逆の表示切り替えを行なうこともできる。すなわち、表示中のサムネイル画像のうち先頭に表示されているサムネイル画像が表わす復号画像の1つ前の復号画像のサムネイル画像を生成して、エリア303に新たに追加表示する。そして、表示中のサムネイル画像のうち最後に表示されている復号画像のサムネイル画像をエリア303から消去する。 Further, for example, when a predetermined operation such as when the user presses the “return button” is performed, display switching opposite to the above can be performed. That is, a thumbnail image of the decoded image immediately before the decoded image represented by the thumbnail image displayed at the top of the currently displayed thumbnail images is generated and additionally displayed in the area 303. Then, the thumbnail image of the decoded image displayed last among the displayed thumbnail images is deleted from the area 303.
或いは、表示中のサムネイル画像のうち先頭に表示されている復号画像、或いは該復号画像の1つ前の復号画像を終了点として、該終了点から所定時間間隔前までに含まれる複数の復号画像のサムネイル画像に表示を切り換えるようにしてもよい。 Alternatively, a decoded image displayed at the head of the thumbnail images being displayed, or a decoded image immediately before the decoded image, and a plurality of decoded images included before the predetermined time interval from the end point The display may be switched to the thumbnail image.
これにより、利用者は、所望のシーンを選択画面300のエリア303に表示させることができる。 Thereby, the user can display a desired scene in the area 303 of the selection screen 300.
更に、利用者は、操作部を操作してエリア303の表示を変更しながら、所望のシーンのサムネイル画像から選択の基準となる基準画像を指定することができる。 Furthermore, the user can designate a reference image as a reference for selection from thumbnail images of a desired scene while operating the operation unit to change the display of the area 303.
利用者は、選択画面300のエリア301から、特徴領域の種類を指定する。この指定結果は、受付部83が受け付け、選択部82に出力する。利用者が、エリア301において顔領域を指定した場合の選択画面の表示例を図15に示す。エリア303には複数の復号画像に対応するサムネイル画像が表示されている。図15のエリア303に明示されているサムネイル画像Aは、利用者が基準画像として選択した復号画像のサムネイル画像である。 The user designates the type of feature area from the area 301 on the selection screen 300. The designation result is accepted by the accepting unit 83 and output to the selecting unit 82. FIG. 15 shows a display example of the selection screen when the user designates a face area in the area 301. In the area 303, thumbnail images corresponding to a plurality of decoded images are displayed. A thumbnail image A clearly shown in an area 303 in FIG. 15 is a thumbnail image of a decoded image selected as a reference image by the user.
提示部84は、エリア301において指定された特徴領域の位置を示す位置画像を、基準画像のサムネイル画像に重畳した画像をエリア302に表示する。図15に示す例では、顔領域の位置に矩形の枠画像が重畳されている。 The presentation unit 84 displays in the area 302 an image obtained by superimposing the position image indicating the position of the feature region designated in the area 301 on the thumbnail image of the reference image. In the example shown in FIG. 15, a rectangular frame image is superimposed on the position of the face area.
選択部82は、選択画面300から顔領域を指定した指定結果が、受付部83から入力されると、第2蓄積部81から、利用者が指定した基準画像を含む所定範囲内の復号画像に対応する顔領域の指標値を取得する。選択部82は、上記所定範囲内の複数の復号画像から、該取得した顔領域の指標値が示す画質の劣化の度合いが最も低い復号画像を選択する。例えば、指標値がPSNRの場合には、上記所定範囲内の複数の復号画像の中で顔領域のPSNRの値が最大であれば、劣化の度合いが最も低いと判断される。また、指標値がMSEの場合には、上記所定範囲内の複数の復号画像の中で顔領域のMSEの値が最小であれば、劣化の度合いが最も低いと判断される。選択結果は、提示部84に出力される。 When the designation result designating the face area from the selection screen 300 is input from the receiving unit 83, the selection unit 82 converts the second storage unit 81 into a decoded image within a predetermined range including the reference image designated by the user. The index value of the corresponding face area is acquired. The selection unit 82 selects a decoded image having the lowest degree of deterioration in image quality indicated by the acquired index value of the face area from the plurality of decoded images within the predetermined range. For example, when the index value is PSNR, it is determined that the degree of deterioration is the lowest if the PSNR value of the face area is the maximum among the plurality of decoded images within the predetermined range. When the index value is MSE, if the MSE value of the face area is the smallest among the plurality of decoded images within the predetermined range, it is determined that the degree of deterioration is the lowest. The selection result is output to the presentation unit 84.
提示部84は、選択結果を受け取ると、選択部82により選択された復号画像を提示する。例えば、エリア303に該選択された復号画像のサムネイル画像を時間的に連続する復号画像のサムネイル画像と共に表示し、更に、該選択された復号画像に対応するサムネイル画像の表示状態を他のサムネイル画像とは異ならせるようにしてもよい。図15において、サムネイル画像Bが選択部82により選択された復号画像のサムネイル画像であって、該サムネイル画像Bには、二重線の枠画像が重畳されている。 Upon receiving the selection result, the presentation unit 84 presents the decoded image selected by the selection unit 82. For example, the thumbnail image of the selected decoded image is displayed together with the thumbnail image of the decoded image that is temporally continuous in the area 303, and the display state of the thumbnail image corresponding to the selected decoded image is displayed as another thumbnail image. You may make it differ. In FIG. 15, a thumbnail image B is a thumbnail image of a decoded image selected by the selection unit 82, and a double-line frame image is superimposed on the thumbnail image B.
次に、利用者がN点の特徴画像を指定した場合の選択画面の表示例を図16に示す。選択画面300のエリア303に表示されているサムネイル画像Aは、利用者が選択の基準として指定した基準画像のサムネイル画像である。提示部84は、基準画像のサムネイル画像Aをエリア302に表示し、画面内のN個の固定領域から、更に領域を利用者に指定させる。この選択は、N個の固定領域の中から複数個選んでよい。利用者が固定領域を指定するとその選択結果は受付部83を介して選択部82に入力される。選択部82は、利用者が指定した基準画像を含む所定範囲内の復号画像に対応する該指定した固定領域の指標値を取得する。選択部82は、上記所定範囲内の複数の復号画像から、該取得した指標値が示す画質の劣化の度合いが最も低い復号画像を選択する。例えば、指標値がPSNRの場合には、上記所定範囲内の複数の復号画像の中で利用者が指定した固定領域のPSNRの値が最大であれば、劣化の度合いが最も低いと判断される。また、指標値がMSEの場合には、上記所定範囲内の複数の復号画像の中で利用者が指定した固定領域のMSEの値が最小であれば、劣化の度合いが最も低いと判断される。なお、利用者が指定した固定領域が複数であった場合には、複数の指標値の平均値を用いてもよいし、複数の指標値の最大値或いは最小値を代表値として用いて選択してもよい。選択部82の選択結果は、提示部84に出力される。 Next, FIG. 16 shows a display example of the selection screen when the user designates N feature images. The thumbnail image A displayed in the area 303 of the selection screen 300 is a thumbnail image of a reference image designated as a selection reference by the user. The presentation unit 84 displays the thumbnail image A of the reference image in the area 302, and allows the user to further specify an area from the N fixed areas in the screen. For this selection, a plurality of N fixed areas may be selected. When the user designates a fixed area, the selection result is input to the selection unit 82 via the reception unit 83. The selection unit 82 acquires an index value of the designated fixed area corresponding to a decoded image within a predetermined range including the reference image designated by the user. The selection unit 82 selects a decoded image having the lowest degree of image quality degradation indicated by the acquired index value from a plurality of decoded images within the predetermined range. For example, when the index value is PSNR, it is determined that the degree of deterioration is the lowest if the PSNR value of the fixed area designated by the user is the maximum among the plurality of decoded images within the predetermined range. . When the index value is MSE, if the MSE value of the fixed area designated by the user is the smallest among the plurality of decoded images within the predetermined range, it is determined that the degree of deterioration is the lowest. . When there are a plurality of fixed areas designated by the user, an average value of a plurality of index values may be used, or a maximum value or a minimum value of a plurality of index values may be selected as a representative value. May be. The selection result of the selection unit 82 is output to the presentation unit 84.
提示部84は、選択結果を受け取ると、選択部82により選択された復号画像を提示する。図16において、サムネイル画像Bが選択部82により選択された復号画像のサムネイル画像であって、該サムネイル画像Bには、二重線の枠画像が重畳されている。 Upon receiving the selection result, the presentation unit 84 presents the decoded image selected by the selection unit 82. In FIG. 16, a thumbnail image B is a thumbnail image of a decoded image selected by the selection unit 82, and a double-line frame image is superimposed on the thumbnail image B.
次に、利用者が輝度分布の特徴画像を指定した場合の選択画面の表示例を図17に示す。選択画面300のエリア303に表示されているサムネイル画像Aは、利用者が選択の基準として指定した基準画像のサムネイル画像である。提示部84は、基準画像のサムネイル画像Aをエリア302に表示し、利用者に画面内の任意の位置を指定させる。選択部82は、受付部83を介して指定位置の情報を受け取ると、該指定位置に該当する矩形領域(ブロック)の輝度の平均値Lを算出し、該輝度の平均値Lがどのバンドに属しているかを判定する。判定結果は、提示部84に出力され、提示部84は、該判定結果をエリア302に表示する。例えば、利用者が山の部分を指定することにより、指定した位置に該当するバンド2が指定される(図17のエリア302も参照)。 Next, FIG. 17 shows a display example of the selection screen when the user designates a characteristic image of the luminance distribution. The thumbnail image A displayed in the area 303 of the selection screen 300 is a thumbnail image of a reference image designated as a selection reference by the user. The presentation unit 84 displays the thumbnail image A of the reference image in the area 302 and allows the user to specify an arbitrary position in the screen. When the selection unit 82 receives the information on the designated position via the reception unit 83, the selection unit 82 calculates the average luminance value L of the rectangular area (block) corresponding to the designated position, and to which band the average luminance value L is. Determine if it belongs. The determination result is output to the presentation unit 84, and the presentation unit 84 displays the determination result in the area 302. For example, when the user designates a mountain portion, the band 2 corresponding to the designated position is designated (see also the area 302 in FIG. 17).
また、選択部82は、第2蓄積部81から、利用者が指定した基準画像を含む所定範囲内の復号画像の指標値のうち、利用者が指定したバンドの指標値を取得する。選択部82は、上記所定範囲内の複数の復号画像から、該取得したバンドの指標値が示す画質の劣化の度合いが最も低い復号画像を選択する。例えば、指標値がPSNRの場合には、上記所定範囲内の複数の復号画像の中で利用者が指定したバンドのPSNRの値が最大であれば、劣化の度合いが最も低いと判断される。また、指標値がMSEの場合には、上記所定範囲内の複数の復号画像の中で利用者が指定したバンドのMSEの値が最小であれば、劣化の度合いが最も低いと判断される。選択結果は、提示部84に出力される。 In addition, the selection unit 82 acquires, from the second storage unit 81, the index value of the band specified by the user among the index values of the decoded image within the predetermined range including the reference image specified by the user. The selection unit 82 selects a decoded image with the lowest degree of deterioration in image quality indicated by the obtained index value of the band from the plurality of decoded images within the predetermined range. For example, when the index value is PSNR, it is determined that the degree of deterioration is the lowest if the PSNR value of the band designated by the user is the maximum among the plurality of decoded images within the predetermined range. When the index value is MSE, if the MSE value of the band designated by the user among the plurality of decoded images within the predetermined range is the smallest, it is determined that the degree of deterioration is the lowest. The selection result is output to the presentation unit 84.
なお、ここでは、画像内の位置を指定することによりバンドを指定する例について説明したが、利用者はバンドを直接指定しても良い。また、指定するバンドは複数あっても良い。この場合には、各バンドの指標値の平均値を用いて、復号画像を選択する。 Although an example in which a band is specified by specifying a position in an image has been described here, the user may directly specify a band. There may be a plurality of bands to be specified. In this case, a decoded image is selected using the average value of the index values of each band.
提示部84は、選択結果を受け取ると、選択部82により選択された復号画像を提示する。図17において、サムネイル画像Bが選択部82により選択された復号画像のサムネイル画像であって、該サムネイル画像Bには、二重線の枠画像が重畳されている。 Upon receiving the selection result, the presentation unit 84 presents the decoded image selected by the selection unit 82. In FIG. 17, a thumbnail image B is a thumbnail image of a decoded image selected by the selection unit 82, and a double-line frame image is superimposed on the thumbnail image B.
なお、ここでは図示を省略するが、利用者が動領域又は静止領域を指定した場合には、該領域の指標値を用いて、上記と同様に復号画像を選択して提示することができる。 In addition, although illustration is abbreviate | omitted here, when a user designates a moving area | region or a still area | region, it can select and show a decoding image similarly to the above using the index value of the area | region.
また、上記では、画像選択装置2を電子回路等により実現する例について説明したが、例えば図18に示すコンピュータ60で実現することもできる。コンピュータ60はCPU(Central Processing Unit)61、プログラムを記憶した不揮発性のプログラム記憶部62、RAM(random access memory)63、画像処理部64、外部IF(Interface)66、及び画像出力IF67を備えている。そして、CPU61、プログラム記憶部62、RAM63、画像処理部64、外部IF66、及び画像出力部IF67はバス70を介して互いに接続されている。 In the above description, an example in which the image selection device 2 is realized by an electronic circuit or the like has been described. The computer 60 includes a CPU (Central Processing Unit) 61, a nonvolatile program storage unit 62 storing a program, a RAM (random access memory) 63, an image processing unit 64, an external IF (Interface) 66, and an image output IF 67. Yes. The CPU 61, the program storage unit 62, the RAM 63, the image processing unit 64, the external IF 66, and the image output unit IF 67 are connected to each other via a bus 70.
プログラム記憶部62には、復号された複数の復号画像から画質の劣化の度合いの小さい画像を選択する選択プロセス、利用者の指定を受け付ける受付プロセス、及び選択された復号画像を提示するプロセス含む画像選択プログラムが記憶されている。なお、画像選択プログラムに、動画像の各フレーム画像を符号化した符号化データを復号する復号プロセスが含まれていても良いし、画像選択プログラムとは別の独立したプログラムとして復号プログラムが記憶されていてもよい。 The program storage unit 62 includes an image including a selection process for selecting an image with a low degree of deterioration in image quality from a plurality of decoded images, a reception process for receiving a user designation, and a process for presenting the selected decoded image. A selection program is stored. The image selection program may include a decoding process for decoding encoded data obtained by encoding each frame image of the moving image, or the decoding program is stored as an independent program different from the image selection program. It may be.
CPU61は、画像選択装置2全体の制御を行なう。また、CPU61は、プログラム記憶部62から画像選択プログラムを読み出してRAM63に展開し、上記画像選択プログラムの各プロセスを実行する。CPU61が各プロセスを実行することで、図12に示した復号部71、選択部82、受付部83、及び提示部84の各機能が実現される。 The CPU 61 controls the entire image selection device 2. Further, the CPU 61 reads out the image selection program from the program storage unit 62 and develops it in the RAM 63, and executes each process of the image selection program. When the CPU 61 executes each process, the functions of the decryption unit 71, the selection unit 82, the reception unit 83, and the presentation unit 84 illustrated in FIG. 12 are realized.
RAM63には、第1蓄積部80及び第2蓄積部81に相当する記憶領域が設けられている。また、符号化装置1で生成された符号化情報や、選択画面300の画像情報をバッファリングするバッファ領域も備えている。 The RAM 63 is provided with storage areas corresponding to the first accumulation unit 80 and the second accumulation unit 81. Also provided is a buffer area for buffering the encoded information generated by the encoding device 1 and the image information of the selection screen 300.
画像処理部64は、復号画像の画像情報に縮小処理を施してサムネイル画像の画像情報を生成したり、選択画面300を表示するための画像情報を生成したりする等、各種画像処理を行なう。 The image processing unit 64 performs various types of image processing such as generating image information of thumbnail images by reducing the image information of the decoded image and generating image information for displaying the selection screen 300.
外部IF66は、記録メディア68及び操作パネルコントローラ69のインタフェースである。記録メディア68は、例えば、CD−RWや、USB(Universal Serial Bus)を介して接続可能なフラッシュメモリ等とすることができる。符号化装置1により生成された符号化情報が記録メディア68に記憶された場合には、該外部IF66を介して記録メディア68から符号化情報を取得することができる。操作パネルコントローラ69は、LCD(液晶ディスプレイ)等から成る表示部及びテンキーやタッチパネル等から成り利用者による操作を受け付ける受付部が設けられた操作パネルを制御する。 The external IF 66 is an interface between the recording medium 68 and the operation panel controller 69. The recording medium 68 can be, for example, a CD-RW or a flash memory that can be connected via a USB (Universal Serial Bus). When the encoded information generated by the encoding device 1 is stored in the recording medium 68, the encoded information can be acquired from the recording medium 68 via the external IF 66. The operation panel controller 69 controls an operation panel provided with a display unit including an LCD (liquid crystal display) and the like and a reception unit configured with a numeric keypad, a touch panel, and the like to receive an operation by a user.
画像出力IF67は、ディスプレイに接続され、RAM63から読出された復号画像の画像情報や、上記選択画面300の画像情報(サムネイル画像の画像情報を含む)をディスプレイに出力するためのインタフェースである。これにより、ディスプレイに復号画像やサムネイル画像が表示される。 The image output IF 67 is an interface that is connected to the display and outputs image information of the decoded image read from the RAM 63 and image information of the selection screen 300 (including image information of the thumbnail image) to the display. Thereby, the decoded image and the thumbnail image are displayed on the display.
図19は、画像選択プログラムの処理の流れを示すフローチャートである。 FIG. 19 is a flowchart showing the flow of processing of the image selection program.
ステップ200において、復号部71は、記録メディア68から符号化情報を読出してRAM63にバッファリングする。 In step 200, the decoding unit 71 reads the encoded information from the recording medium 68 and buffers it in the RAM 63.
ステップ202において、復号部71は、RAM63から符号化情報を読出して、符号化情報に含まれる符号化データを復号する。復号画像の画像情報は、RAM63の第1蓄積部80に相当する記録領域に記憶される。 In step 202, the decoding unit 71 reads the encoded information from the RAM 63, and decodes the encoded data included in the encoded information. The image information of the decoded image is stored in a recording area corresponding to the first accumulation unit 80 of the RAM 63.
ステップ204において、復号部71は、RAM63から符号化情報を読出して、符号化情報に含まれる指標値を抽出し、RAM63の第2蓄積部81に相当する記憶領域に記憶する。 In step 204, the decoding unit 71 reads the encoded information from the RAM 63, extracts an index value included in the encoded information, and stores it in a storage area corresponding to the second accumulation unit 81 of the RAM 63.
ステップ206において、提示部84は、画像処理部64を制御して、画像処理部64に、復号画像の画像情報に対する縮小処理を実行させ、サムネイル画像の画像情報を生成させる。サムネイル画像の画像情報は、RAM63に記憶される。 In step 206, the presentation unit 84 controls the image processing unit 64 to cause the image processing unit 64 to perform a reduction process on the image information of the decoded image and generate image information of the thumbnail image. The image information of the thumbnail image is stored in the RAM 63.
ステップ208において、提示部84は、選択画面300の画像情報に上記サムネイル画像の画像情報を合成して、最終的な表示画像をディスプレイに表示する。 In step 208, the presentation unit 84 combines the image information of the thumbnail image with the image information of the selection screen 300, and displays the final display image on the display.
ステップ210において、受付部83は、利用者から基準画像及び特徴領域の種類の指定を受け付ける。 In step 210, the accepting unit 83 accepts designation of the type of the reference image and the feature area from the user.
ステップ212において、選択部82は、上記受け付けられた基準画像を含む所定範囲内の複数の復号画像から、利用者が指定した特徴領域の指標値に基づいて、該指標値が示す画質の劣化の度合いが最も低い復号画像を選択する。 In step 212, the selection unit 82 uses the index value of the feature region designated by the user from a plurality of decoded images within a predetermined range including the received reference image, and the image quality degradation indicated by the index value is determined. The decoded image with the lowest degree is selected.
ステップ214において、提示部84は、上記選択結果を提示する。 In step 214, the presentation unit 84 presents the selection result.
なお、ここでは、CPU61がプログラムを実行することにより、復号部71の機能を実現する例について説明したが、該例に限定されない。例えば、復号部71は電子回路等のハードウェアにより実現し、選択部82、受付部83、及び提示部84の機能をCPU61がプログラムを実行することにより実現するようにしてもよい。この場合のハードウェア構成図を図20に示す。図20において、図12及び図18と同一の部分には同じ記号を付した。図20に示すように、復号部71をバス70に接続することで、復号部71の機能がソフトウェア処理ではなくハードウェア処理により実現されるように構成されている。このような構成によっても、上記と同様に作用する。或いは、画像選択装置2に復号部71の機能を設けず、他の装置が復号するようにしてもよい。画像選択装置2は、他の装置から復号した復号画像の画像情報及び指標値を取得して、上記画像選択の処理を行ってもよい。 In addition, although the example which implement | achieves the function of the decoding part 71 when CPU61 runs a program was demonstrated here, it is not limited to the example. For example, the decoding unit 71 may be realized by hardware such as an electronic circuit, and the functions of the selection unit 82, the reception unit 83, and the presentation unit 84 may be realized by the CPU 61 executing a program. A hardware configuration diagram in this case is shown in FIG. 20, the same parts as those in FIGS. 12 and 18 are denoted by the same reference numerals. As shown in FIG. 20, by connecting the decoding unit 71 to a bus 70, the function of the decoding unit 71 is realized by hardware processing instead of software processing. Such a configuration also acts in the same manner as described above. Alternatively, the image selection device 2 may not be provided with the function of the decoding unit 71 but may be decoded by another device. The image selection device 2 may acquire the image information and index value of the decoded image decoded from another device, and perform the image selection process.
また、上記では、利用者が基準画像を指定し、該基準画像を含む所定範囲内の復号画像から画質の劣化の度合いが低い復号画像を選択する例について説明したが、該例に限定されない。例えば、ディスプレイに表示されている(例えば、上記ではディスプレイに表示された選択画面300のエリア303に含まれる)サムネイル画像に対応する復号画像から選択するようにしてもよい。この場合には、利用者は、基準画像を指定しなくてもよい。 In the above description, an example in which a user designates a reference image and selects a decoded image with a low degree of image quality degradation from decoded images within a predetermined range including the reference image has been described. However, the present invention is not limited to this example. For example, you may make it select from the decoded image corresponding to the thumbnail image currently displayed on the display (For example, it is contained in the area 303 of the selection screen 300 displayed on the display above.). In this case, the user does not have to specify the reference image.
なお、ここでは、符号化情報に、複数種類の特徴領域の指標値の各々が含まれている例について説明したが、符号化情報に1種類の特徴領域の指標値が含まれている場合には、上記エリア301での特徴領域の種類の指定は省略される。 Here, an example has been described in which each of the index values of a plurality of types of feature areas is included in the encoded information. However, when the index values of one type of feature areas are included in the encoded information. In this case, the specification of the feature region type in the area 301 is omitted.
また、上記エリア301及びエリア302での利用者による特徴領域の種類の指定や詳細な指定のデフォルト値が予め画像選択装置2に設定されていてもよい。この場合には、利用者の指定は省略でき、受付部83による利用者からの指定の受付は省略される。 Also, the specification of the type of the feature area by the user in the area 301 and the area 302 and the default value for the detailed specification may be set in the image selection device 2 in advance. In this case, designation of the user can be omitted, and reception of designation from the user by the reception unit 83 is omitted.
また、上記では、選択部82が、利用者が指定した基準画像を含む所定範囲内の複数の復号画像から、画質の劣化の度合いが最も低い復号画像を選択する例について説明したが、該例に限定されない。例えば、利用者が、基準画像ではなく、選択範囲を指定し、選択部82は、該選択範囲内の複数の復号画像から、画質の劣化の度合いが最も低い復号画像を選択するようにしてもよい。 In the above description, an example has been described in which the selection unit 82 selects a decoded image with the lowest degree of image quality degradation from a plurality of decoded images within a predetermined range including a reference image designated by the user. It is not limited to. For example, the user may specify a selection range instead of a reference image, and the selection unit 82 may select a decoded image with the lowest degree of image quality degradation from a plurality of decoded images in the selection range. Good.
また、上記では、画質の劣化の度合いが最も低い復号画像を選択する例について説明したが、該例に限定されない。例えば、画質の劣化の度合いが最も低い復号画像だけでなく、劣化の度合いが低い順から上位P個(Pは2以上の整数)の復号画像を選択するようにしてもよい。この場合には、該選択された複数の復号画像を、劣化の度合いの順位が明示されるように提示することができる。例えば、順位が高いほど、目立つように表示する、順位を示す数値を表示する、等である。 In the above description, an example in which a decoded image having the lowest degree of image quality degradation is selected has been described, but the present invention is not limited to this example. For example, not only the decoded image with the lowest degree of image quality degradation but also the top P decoded images (P is an integer of 2 or more) may be selected in the order of the lowest degree of degradation. In this case, the selected decoded images can be presented so that the rank order of the degree of deterioration is clearly indicated. For example, the higher the ranking, the more conspicuous it is displayed, and the numerical value indicating the ranking is displayed.
以上説明したように、本実施形態によれば、特徴領域の指標値に基づいて画質の劣化の度合いの低い復号画像を選択して利用者に提示できる。これにより、利用者は、容易に特徴領域の画質の良好な復号画像を把握できる。 As described above, according to the present embodiment, a decoded image with a low degree of image quality degradation can be selected and presented to the user based on the index value of the feature region. As a result, the user can easily grasp a decoded image with good image quality in the feature region.
更にまた、図21に示すように、符号化装置1及び画像選択装置2の機能を、1台のコンピュータ90により実現し、画像選択システム3を提供することもできる。例えば、撮像機能及びディスプレイを備えた携帯端末に、符号化装置1及び画像選択装置2の各機能を設ける態様が挙げられる。 Furthermore, as shown in FIG. 21, the functions of the encoding device 1 and the image selection device 2 can be realized by a single computer 90 to provide the image selection system 3. For example, the aspect which provides each function of the encoding apparatus 1 and the image selection apparatus 2 in the portable terminal provided with the imaging function and the display is mentioned.
コンピュータ90はCPU(Central Processing Unit)91、プログラムを記憶した不揮発性のプログラム記憶部92、RAM(random access memory)93、画像処理部94、外部IF(Interface)95、画像入力IF96、画像出力IF97を備えている。そして、CPU91、プログラム記憶部92、RAM93、画像処理部94、外部IF95、画像入力IF96、画像出力IF97は、バス98を介して互いに接続されている。 The computer 90 includes a CPU (Central Processing Unit) 91, a nonvolatile program storage unit 92 that stores programs, a RAM (random access memory) 93, an image processing unit 94, an external IF (Interface) 95, an image input IF 96, and an image output IF 97. It has. The CPU 91, program storage unit 92, RAM 93, image processing unit 94, external IF 95, image input IF 96, and image output IF 97 are connected to each other via a bus 98.
プログラム記憶部92には、符号化プログラム及び画像選択プログラムを組み合わせて構成された画像符号化選択プログラムが記憶されている。 The program storage unit 92 stores an image encoding selection program configured by combining an encoding program and an image selection program.
CPU91は、プログラム記憶部92から画像符号化選択プログラムを読み出してRAM93に展開し、該符号化プログラム及び画像選択プログラムの各プロセスを実行する。CPU91が各プロセスを実行することで、図2及び図12に示した生成部10、抽出部42、算出部44、選択部82、受付部83、及び提示部84の各機能が実現される。 The CPU 91 reads out the image encoding selection program from the program storage unit 92, expands it in the RAM 93, and executes each process of the encoding program and the image selection program. When the CPU 91 executes each process, the functions of the generation unit 10, the extraction unit 42, the calculation unit 44, the selection unit 82, the reception unit 83, and the presentation unit 84 illustrated in FIGS. 2 and 12 are realized.
RAM93には、蓄積部40、第1蓄積部80、及び第2蓄積部81に相当する記憶領域が設けられている。 The RAM 93 is provided with storage areas corresponding to the storage unit 40, the first storage unit 80, and the second storage unit 81.
外部IF95は、記録メディア99及び操作パネルコントローラ89のインタフェースである。画像入力IF96は、動画像の画像情報等を入力するためのインタフェースである。画像出力IF97は、ディスプレイに接続され、RAM93から読出された復号画像の画像情報や、上記選択画面300の画像情報をディスプレイに出力するためのインタフェースである。 The external IF 95 is an interface between the recording medium 99 and the operation panel controller 89. The image input IF 96 is an interface for inputting image information of a moving image. The image output IF 97 is connected to the display and is an interface for outputting the image information of the decoded image read from the RAM 93 and the image information of the selection screen 300 to the display.
このような構成によっても、上記と同様に作用する。 Such a configuration also acts in the same manner as described above.
なお、上記では符号化プログラムがプログラム記憶部52、92に記憶されている態様を説明したが、符号化プログラムは、CD−ROMや、USBを介して接続可能なフラッシュメモリ等の可搬型の記録媒体に記録されている形態で提供することも可能である。また、画像選択プログラムがプログラム記憶部62、92に記憶されている態様を説明したが、画像データ蓄積プログラムは、CD−ROMや、USBを介して接続可能なフラッシュメモリ等の可搬型の記録媒体に記録されている形態で提供することも可能である。 In the above description, the encoding program is stored in the program storage units 52 and 92. However, the encoding program is a portable recording medium such as a CD-ROM or a flash memory that can be connected via USB. It is also possible to provide it in a form recorded on a medium. Further, although the mode in which the image selection program is stored in the program storage units 62 and 92 has been described, the image data storage program is a portable recording medium such as a CD-ROM or a flash memory connectable via USB. It is also possible to provide it in the form recorded in
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。 All documents, patent applications and technical standards mentioned in this specification are to the same extent as if each individual document, patent application and technical standard were specifically and individually stated to be incorporated by reference. Incorporated by reference in the book.
以上の実施形態に関し、更に以下の付記を開示する。 Regarding the above embodiment, the following additional notes are disclosed.
(付記1)
動画像に含まれる複数のフレーム画像を符号化した複数の符号化データを生成すると共に、前記符号化により生じた画質の劣化の度合いを示す指標値を、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について算出し、
前記生成した複数の符号化データから復号された複数の復号画像の中から、前記指標値が示す劣化の度合いが最も低い復号画像を選択し、該選択した復号画像を提示する
ことを含む画像選択方法。
(Appendix 1)
A plurality of pieces of encoded data obtained by encoding a plurality of frame images included in a moving image are generated, and at least one index value indicating the degree of image quality degradation caused by the encoding is set in advance in each frame image. Calculate for different types of feature areas,
Image selection including selecting a decoded image having the lowest degree of degradation indicated by the index value from a plurality of decoded images decoded from the plurality of generated encoded data, and presenting the selected decoded image Method.
(付記2)
前記指標値の算出の際には、前記各フレーム画像内の予め設定した複数種類の特徴領域毎に前記指標値を算出し、
前記復号画像の選択の際には、前記複数の符号化データから復号された複数の復号画像の中から、前記複数の指標値のうち利用者により予め指定された特徴領域に対応する指標値が示す劣化の度合いが最も低い復号画像を選択する
付記1に記載の画像選択方法。
(Appendix 2)
In calculating the index value, the index value is calculated for each of a plurality of preset feature areas in each frame image,
When selecting the decoded image, an index value corresponding to a feature region designated in advance by a user among the plurality of index values is selected from the plurality of decoded images decoded from the plurality of encoded data. The image selection method according to attachment 1, wherein a decoded image having the lowest degree of degradation is selected.
(付記3)
前記復号画像の選択の際には、利用者により予め指定された範囲内の復号画像、又は利用者により予め指定された復号画像を含む所定範囲内の復号画像の中から前記指標値が示す劣化の度合いが最も低い復号画像を選択する
付記1又は付記2に記載の画像選択方法。
(Appendix 3)
When the decoded image is selected, the index value indicates the degradation indicated by the decoded image within the range specified in advance by the user or the decoded image within the predetermined range including the decoded image specified by the user in advance. The image selection method according to Supplementary Note 1 or Supplementary Note 2, wherein a decoded image having the lowest degree is selected.
(付記4)
前記予め設定した特徴領域は、顔領域、位置及びサイズが予め定められた固定領域、動きベクトルが閾値未満の静止領域、動きベクトルが閾値以上の動領域、輝度に応じて分割された分割領域、のうちの少なくとも1種類を含む
付記1〜付記3の何れか1項記載の画像選択方法。
(Appendix 4)
The preset feature area includes a face area, a fixed area with a predetermined position and size, a still area with a motion vector less than a threshold, a motion area with a motion vector greater than a threshold, a divided area divided according to luminance, The image selection method according to any one of supplementary notes 1 to 3, including at least one of the above.
(付記5)
前記復号画像の選択の際には、前記劣化の度合いが低い順から上位N個(Nは2以上の整数)の復号画像を選択する
付記1〜付記4の何れか1項記載の画像選択方法。
(Appendix 5)
When selecting the decoded image, the top N decoded images (N is an integer equal to or greater than 2) are selected in the order of the degree of deterioration. Image selection method according to any one of appendix 1 to appendix 4 .
(付記6)
動画像に含まれる複数のフレーム画像を符号化して生成された複数の符号化データであって、該符号化の際に、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について、前記符号化により生じた画質の劣化の度合いを示す指標値が算出された複数の符号化データから復号された複数の復号画像の中から、前記指標値が示す劣化の度合いが最も低い復号画像を選択する選択部と、
前記選択部により選択された復号画像を提示する提示部と、
を備えた画像選択装置。
(Appendix 6)
A plurality of encoded data generated by encoding a plurality of frame images included in a moving image, and at the time of the encoding, the code for at least one type of feature region set in advance in each frame image A decoded image having the lowest degree of degradation indicated by the index value is selected from a plurality of decoded images decoded from a plurality of pieces of encoded data for which an index value indicating the degree of image quality degradation caused by the conversion is calculated. A selection section;
A presentation unit for presenting the decoded image selected by the selection unit;
An image selection device comprising:
(付記7)
前記符号化データの各々に対して、前記各フレーム画像内の予め設定した複数種類の特徴領域毎に前記指標値が算出されており、
前記選択部は、前記複数の符号化データから復号された複数の復号画像の中から、前記複数の指標値のうち利用者により予め指定された特徴領域に対応する指標値が示す劣化の度合いが最も低い復号画像を選択する
付記6に記載の画像選択装置。
(Appendix 7)
For each of the encoded data, the index value is calculated for each of a plurality of types of feature regions set in advance in each frame image,
The selection unit has a degree of deterioration indicated by an index value corresponding to a feature region designated in advance by a user among the plurality of index values from among a plurality of decoded images decoded from the plurality of encoded data. The image selection device according to appendix 6, wherein the lowest decoded image is selected.
(付記8)
前記選択部は、利用者により予め指定された範囲内の復号画像、又は利用者により予め指定された復号画像を含む所定範囲内の復号画像の中から前記指標値が示す劣化の度合いが最も低い復号画像を選択する
付記6又は付記7に記載の画像選択装置。
(Appendix 8)
The selection unit has the lowest degree of deterioration indicated by the index value from among a decoded image within a range specified in advance by a user or a decoded image within a predetermined range including a decoded image specified in advance by a user. The image selection device according to appendix 6 or appendix 7, which selects a decoded image.
(付記9)
前記予め設定した特徴領域は、顔領域、位置及びサイズが予め定められた固定領域、動きベクトルが閾値未満の静止領域、動きベクトルが閾値以上の動領域、輝度に応じて分割された分割領域、のうちの少なくとも1種類を含む
付記6〜付記8の何れか1項記載の画像選択装置。
(Appendix 9)
The preset feature area includes a face area, a fixed area with a predetermined position and size, a still area with a motion vector less than a threshold, a motion area with a motion vector greater than a threshold, a divided area divided according to luminance, The image selection device according to any one of appendix 6 to appendix 8, including at least one of the above.
(付記10)
前記選択部は、前記劣化の度合いが低い順から上位N個(Nは2以上の整数)の復号画像を選択する
付記6〜付記9の何れか1項記載の画像選択装置。
(Appendix 10)
The image selection device according to any one of appendix 6 to appendix 9, wherein the selection unit selects the top N decoded images (N is an integer equal to or greater than 2) in descending order of the degree of deterioration.
(付記11)
動画像に含まれる複数のフレーム画像を符号化した複数の符号化データを生成する生成部と、
前記符号化により生じた画質の劣化の度合いを示す指標値を、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について算出する算出部と、
を備えた符号化装置。
(Appendix 11)
A generating unit that generates a plurality of encoded data obtained by encoding a plurality of frame images included in a moving image;
A calculation unit that calculates an index value indicating a degree of image quality degradation caused by the encoding for at least one type of feature region set in advance in each frame image;
An encoding device comprising:
(付記12)
前記算出部は、前記各フレーム画像内の予め設定した複数種類の特徴領域毎に前記指標値を算出する
付記11に記載の符号化装置。
(Appendix 12)
The encoding device according to claim 11, wherein the calculation unit calculates the index value for each of a plurality of types of feature regions set in advance in the frame images.
(付記13)
前記予め設定した特徴領域は、顔領域、位置及びサイズが予め定められた固定領域、動きベクトルが閾値未満の静止領域、動きベクトルが閾値以上の動領域、輝度に応じて分割された分割領域、のうちの少なくとも1種類を含む
付記11又は付記12記載の符号化装置。
(Appendix 13)
The preset feature area includes a face area, a fixed area with a predetermined position and size, a still area with a motion vector less than a threshold, a motion area with a motion vector greater than a threshold, a divided area divided according to luminance, The encoding device according to appendix 11 or appendix 12, including at least one of the above.
(付記14)
動画像に含まれる複数のフレーム画像を符号化した複数の符号化データを生成する生成部、前記符号化により生じた画質の劣化の度合いを示す指標値を、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について算出する算出部を備えた符号化装置と、
前記符号化装置により生成された複数の符号化データから復号された複数の復号画像の中から、前記指標値が示す劣化の度合いが最も低い復号画像を選択する選択部、及び前記選択部により選択された復号画像を提示する提示部を備えた画像選択装置と、
を有する画像選択システム。
(Appendix 14)
A generating unit that generates a plurality of encoded data obtained by encoding a plurality of frame images included in a moving image, and an index value indicating a degree of image quality degradation caused by the encoding is set at least in advance in each frame image An encoding device including a calculation unit for calculating one type of feature region;
A selection unit that selects a decoded image with the lowest degree of degradation indicated by the index value from among a plurality of decoded images decoded from a plurality of encoded data generated by the encoding device, and selected by the selection unit An image selection device comprising a presentation unit for presenting the decoded image,
An image selection system.
(付記15)
前記算出部は、前記各フレーム画像内の予め設定した複数種類の特徴領域毎に前記指標値を算出し、
前記選択部は、前記複数の符号化データから復号された複数の復号画像の中から、前記複数の指標値のうち利用者により予め指定された特徴領域に対応する指標値が示す劣化の度合いが最も低い復号画像を選択する
付記14に記載の画像選択システム。
(Appendix 15)
The calculation unit calculates the index value for each of a plurality of preset feature areas in each frame image,
The selection unit has a degree of deterioration indicated by an index value corresponding to a feature region designated in advance by a user among the plurality of index values from among a plurality of decoded images decoded from the plurality of encoded data. The image selection system according to appendix 14, wherein the lowest decoded image is selected.
(付記16)
前記選択部は、利用者により予め指定された範囲内の復号画像、又は利用者により予め指定された復号画像を含む所定範囲内の復号画像の中から前記指標値が示す劣化の度合いが最も低い復号画像を選択する
付記14又は付記15に記載の画像選択システム。
(Appendix 16)
The selection unit has the lowest degree of deterioration indicated by the index value from among a decoded image within a range specified in advance by a user or a decoded image within a predetermined range including a decoded image specified in advance by a user. The image selection system according to appendix 14 or appendix 15, wherein the decoded image is selected.
(付記17)
前記予め設定した特徴領域は、顔領域、位置及びサイズが予め定められた固定領域、動きベクトルが閾値未満の静止領域、動きベクトルが閾値以上の動領域、輝度に応じて分割された分割領域、のうちの少なくとも1種類を含む
付記14〜付記16の何れか1項記載の画像選択システム。
(Appendix 17)
The preset feature area includes a face area, a fixed area with a predetermined position and size, a still area with a motion vector less than a threshold, a motion area with a motion vector greater than a threshold, a divided area divided according to luminance, The image selection system according to any one of supplementary notes 14 to 16, including at least one of the above.
(付記18)
前記選択部は、前記劣化の度合いが低い順から上位N個(Nは2以上の整数)の復号画像を選択する
付記14〜付記17の何れか1項記載の画像選択システム。
(Appendix 18)
The image selection system according to any one of appendix 14 to appendix 17, wherein the selection unit selects the top N decoded images (N is an integer equal to or greater than 2) in descending order of the degree of deterioration.
(付記19)
コンピュータに、
動画像に含まれる複数のフレーム画像を符号化して生成された符号化データであって、該符号化の際に、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について、前記符号化により生じた画質の劣化の度合いを示す指標値が算出された複数の符号化データから復号された複数の復号画像の中から、前記指標値が示す劣化の度合いが最も低い復号画像を選択し、
前記選択された復号画像を提示する
処理を実行させるための画像選択プログラム又は画像選択プログラムを記録した記録媒体。
(Appendix 19)
On the computer,
Encoded data generated by encoding a plurality of frame images included in a moving image, and at the time of encoding, at least one type of feature region set in advance in each frame image is encoded From among a plurality of decoded images decoded from a plurality of encoded data for which an index value indicating the degree of image quality degradation that has occurred is selected, a decoded image having the lowest degree of degradation indicated by the index value is selected,
An image selection program for executing a process of presenting the selected decoded image or a recording medium on which an image selection program is recorded.
(付記20)
前記符号化データの各々に対して、前記各フレーム画像内の予め設定した複数種類の特徴領域毎に前記指標値が算出されており、
前記復号画像の選択の際には、前記複数の符号化データから復号された複数の復号画像の中から、前記複数の指標値のうち利用者により予め指定された特徴領域に対応する指標値が示す劣化の度合いが最も低い復号画像を選択する
付記19に記載の画像選択プログラム又は画像選択プログラムを記録した記録媒体。
(Appendix 20)
For each of the encoded data, the index value is calculated for each of a plurality of types of feature regions set in advance in each frame image,
When selecting the decoded image, an index value corresponding to a feature region designated in advance by a user among the plurality of index values is selected from the plurality of decoded images decoded from the plurality of encoded data. The image selection program according to appendix 19, or a recording medium on which the image selection program is recorded.
(付記21)
前記復号画像の選択の際には、利用者により予め指定された範囲内の復号画像、又は利用者により予め指定された復号画像を含む所定範囲内の復号画像の中から前記指標値が示す劣化の度合いが最も低い復号画像を選択する
付記19又は付記20に記載の画像選択プログラム又は画像選択プログラムを記録した記録媒体。
(Appendix 21)
When the decoded image is selected, the index value indicates the degradation indicated by the decoded image within the range specified in advance by the user or the decoded image within the predetermined range including the decoded image specified by the user in advance. A recording medium on which the image selection program or the image selection program according to attachment 19 or 20 is recorded.
(付記22)
前記予め設定した特徴領域は、顔領域、位置及びサイズが予め定められた固定領域、動きベクトルが閾値未満の静止領域、動きベクトルが閾値以上の動領域、輝度に応じて分割された分割領域、のうちの少なくとも1種類を含む
付記19〜付記21の何れか1項記載の画像選択プログラム又は画像選択プログラムを記録した記録媒体。
(Appendix 22)
The preset feature area includes a face area, a fixed area with a predetermined position and size, a still area with a motion vector less than a threshold, a motion area with a motion vector greater than a threshold, a divided area divided according to luminance, An image selection program according to any one of Supplementary Note 19 to Supplementary Note 21, or a recording medium on which the image selection program is recorded.
(付記23)
前記復号画像の選択の際には、前記劣化の度合いが低い順から上位N個(Nは2以上の整数)の復号画像を選択する
付記19〜付記22の何れか1項記載の画像選択プログラム又は画像選択プログラムを記録した記録媒体。
(Appendix 23)
23. The image selection program according to any one of appendix 19 to appendix 22, wherein when selecting the decoded image, the top N decoded images (N is an integer equal to or greater than 2) are selected in descending order of the degree of deterioration. Or the recording medium which recorded the image selection program.
(付記24)
コンピュータに、
動画像に含まれる複数のフレーム画像を符号化した複数の符号化データを生成し、
前記符号化により生じた画質の劣化の度合いを示す指標値を、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について算出する
処理を実行させるための符号化プログラム又は符号化プログラムを記録した記録媒体。
(Appendix 24)
On the computer,
Generating a plurality of encoded data obtained by encoding a plurality of frame images included in a moving image;
An encoding program or an encoding program for executing a process of calculating an index value indicating the degree of image quality degradation caused by the encoding for at least one feature region set in advance in each frame image is recorded. recoding media.
(付記25)
前記指標値の算出の際には、前記各フレーム画像内の予め設定した複数種類の特徴領域毎に前記指標値を算出する
付記24に記載の符号化プログラム又は符号化プログラムを記録した記録媒体。
(Appendix 25)
25. The encoding program according to appendix 24, or a recording medium on which the encoding program is recorded, when calculating the index value, calculates the index value for each of a plurality of preset feature areas in each frame image.
(付記26)
前記予め設定した特徴領域は、顔領域、位置及びサイズが予め定められた固定領域、動きベクトルが閾値未満の静止領域、動きベクトルが閾値以上の動領域、輝度に応じて分割された分割領域、のうちの少なくとも1種類を含む
付記24又は付記25記載の符号化プログラム又は符号化プログラムを記録した記録媒体。
(Appendix 26)
The preset feature area includes a face area, a fixed area with a predetermined position and size, a still area with a motion vector less than a threshold, a motion area with a motion vector greater than a threshold, a divided area divided according to luminance, An encoding program according to appendix 24 or appendix 25 or a recording medium on which the encoding program is recorded.
(付記27)
コンピュータに、
動画像に含まれる複数のフレーム画像を符号化した複数の符号化データを生成し、
前記符号化により生じた画質の劣化の度合いを示す指標値を、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について算出し、
前記生成した複数の符号化データから復号された複数の復号画像の中から、前記指標値が示す劣化の度合いが最も低い復号画像を選択し、
前記選択した復号画像を提示する
処理を実行させるための画像符号化選択プログラム又は画像符号化選択プログラムを記録した記録媒体。
(Appendix 27)
On the computer,
Generating a plurality of encoded data obtained by encoding a plurality of frame images included in a moving image;
An index value indicating the degree of image quality degradation caused by the encoding is calculated for at least one type of feature region set in advance in each frame image;
From among a plurality of decoded images decoded from the generated plurality of encoded data, select a decoded image having the lowest degree of degradation indicated by the index value,
An image encoding selection program or a recording medium on which an image encoding selection program for executing the process of presenting the selected decoded image is recorded.
(付記28)
前記指標値の算出の際には、前記各フレーム画像内の予め設定した複数種類の特徴領域毎に前記指標値を算出し、
前記復号画像の選択の際には、前記複数の符号化データから復号された複数の復号画像の中から、前記複数の指標値のうち利用者により予め指定された特徴領域に対応する指標値が示す劣化の度合いが最も低い復号画像を選択する
付記27に記載の画像符号化選択プログラム又は画像符号化選択プログラムを記録した記録媒体。
(Appendix 28)
In calculating the index value, the index value is calculated for each of a plurality of preset feature areas in each frame image,
When selecting the decoded image, an index value corresponding to a feature region designated in advance by a user among the plurality of index values is selected from the plurality of decoded images decoded from the plurality of encoded data. The image encoding selection program according to attachment 27 or a recording medium on which the image encoding selection program is recorded.
(付記29)
前記復号画像の選択の際には、利用者により予め指定された範囲内の復号画像、又は利用者により予め指定された復号画像を含む所定範囲内の復号画像の中から前記指標値が示す劣化の度合いが最も低い復号画像を選択する
付記27又は付記28に記載の画像符号化選択プログラム又は画像符号化選択プログラムを記録した記録媒体。
(Appendix 29)
When the decoded image is selected, the index value indicates the degradation indicated by the decoded image within the range specified in advance by the user or the decoded image within the predetermined range including the decoded image specified by the user in advance. A recording medium on which the image encoding selection program or the image encoding selection program according to Supplementary Note 27 or 28 is selected.
(付記30)
前記予め設定した特徴領域は、顔領域、位置及びサイズが予め定められた固定領域、動きベクトルが閾値未満の静止領域、動きベクトルが閾値以上の動領域、輝度に応じて分割された分割領域、のうちの少なくとも1種類を含む
付記27〜付記29の何れか1項記載の画像符号化選択プログラム又は画像符号化選択プログラムを記録した記録媒体。
(Appendix 30)
The preset feature area includes a face area, a fixed area with a predetermined position and size, a still area with a motion vector less than a threshold, a motion area with a motion vector greater than a threshold, a divided area divided according to luminance, A recording medium on which the image encoding selection program or the image encoding selection program according to any one of appendix 27 to appendix 29 is recorded.
(付記31)
前記復号画像の選択の際には、前記劣化の度合いが低い順から上位N個(Nは2以上の整数)の復号画像を選択する
付記27〜付記30の何れか1項記載の画像符号化選択プログラム又は画像符号化選択プログラムを記録した記録媒体。
(Appendix 31)
31. When selecting the decoded image, the top N decoded images (N is an integer equal to or greater than 2) are selected in descending order of the degree of deterioration. Image coding according to any one of appendix 27 to appendix 30 A recording medium on which a selection program or an image encoding selection program is recorded.
1 符号化装置
2 画像選択装置
3 画像選択システム
10 生成部
40 蓄積部
42 抽出部
44 算出部
50、60、90 コンピュータ
71 復号部
80 第1蓄積部
81 第2蓄積部
82 選択部
83 受付部
84 提示部
DESCRIPTION OF SYMBOLS 1 Encoding apparatus 2 Image selection apparatus 3 Image selection system 10 Generation | occurrence | production part 40 Storage part 42 Extraction part 44 Calculation part 50, 60, 90 Computer 71 Decoding part 80 1st storage part 81 2nd storage part 82 Selection part 83 Reception part 84 Presenter
Claims (17)
前記生成した複数の符号化データから復号された複数の復号画像の中から、前記指標値が示す劣化の度合いが最も低い復号画像を選択し、該選択した復号画像を提示する
ことを含む画像選択方法。 A plurality of pieces of encoded data obtained by encoding a plurality of frame images included in a moving image are generated, and at least one index value indicating the degree of image quality degradation caused by the encoding is set in advance in each frame image. Calculate for different types of feature areas,
Image selection including selecting a decoded image having the lowest degree of degradation indicated by the index value from a plurality of decoded images decoded from the plurality of generated encoded data, and presenting the selected decoded image Method.
前記復号画像の選択の際には、前記複数の符号化データから復号された複数の復号画像の中から、前記複数の指標値のうち利用者により予め指定された特徴領域に対応する指標値が示す劣化の度合いが最も低い復号画像を選択する
請求項1に記載の画像選択方法。 In calculating the index value, the index value is calculated for each of a plurality of preset feature areas in each frame image,
When selecting the decoded image, an index value corresponding to a feature region designated in advance by a user among the plurality of index values is selected from the plurality of decoded images decoded from the plurality of encoded data. The image selection method according to claim 1, wherein a decoded image having the lowest degree of degradation is selected.
請求項1又は請求項2に記載の画像選択方法。 When the decoded image is selected, the index value indicates the degradation indicated by the decoded image within the range specified in advance by the user or the decoded image within the predetermined range including the decoded image specified by the user in advance. The image selection method according to claim 1 or 2, wherein a decoded image having the lowest degree is selected.
請求項1〜請求項3の何れか1項記載の画像選択方法。 The preset feature area includes a face area, a fixed area with a predetermined position and size, a still area with a motion vector less than a threshold, a motion area with a motion vector greater than a threshold, a divided area divided according to luminance, The image selection method according to claim 1, comprising at least one of the above.
請求項1〜請求項4の何れか1項記載の画像選択方法。 The image according to any one of claims 1 to 4, wherein, when selecting the decoded image, the top N decoded images (N is an integer of 2 or more) are selected in descending order of the degree of deterioration. Selection method.
前記選択部により選択された復号画像を提示する提示部と、
を備えた画像選択装置。 A plurality of encoded data generated by encoding a plurality of frame images included in a moving image, and at the time of the encoding, the code for at least one type of feature region set in advance in each frame image A decoded image having the lowest degree of degradation indicated by the index value is selected from a plurality of decoded images decoded from a plurality of pieces of encoded data for which an index value indicating the degree of image quality degradation caused by the conversion is calculated. A selection section;
A presentation unit for presenting the decoded image selected by the selection unit;
An image selection device comprising:
前記選択部は、前記複数の符号化データから復号された複数の復号画像の中から、前記複数の指標値のうち利用者により予め指定された特徴領域に対応する指標値が示す劣化の度合いが最も低い復号画像を選択する
請求項6に記載の画像選択装置。 For each of the encoded data, the index value is calculated for each of a plurality of types of feature regions set in advance in each frame image,
The selection unit has a degree of deterioration indicated by an index value corresponding to a feature region designated in advance by a user among the plurality of index values from among a plurality of decoded images decoded from the plurality of encoded data. The image selection device according to claim 6, wherein the lowest decoded image is selected.
請求項6又は請求項7に記載の画像選択装置。 The selection unit has the lowest degree of deterioration indicated by the index value from among a decoded image within a range specified in advance by a user or a decoded image within a predetermined range including a decoded image specified in advance by a user. The image selection device according to claim 6 or 7, wherein a decoded image is selected.
請求項6〜請求項8の何れか1項記載の画像選択装置。 The preset feature area includes a face area, a fixed area with a predetermined position and size, a still area with a motion vector less than a threshold, a motion area with a motion vector greater than a threshold, a divided area divided according to luminance, The image selection device according to any one of claims 6 to 8, comprising at least one of the above.
請求項6〜請求項9の何れか1項記載の画像選択装置。 The image selection device according to any one of claims 6 to 9, wherein the selection unit selects the top N decoded images (N is an integer equal to or greater than 2) in descending order of the degree of deterioration.
前記符号化により生じた画質の劣化の度合いを示す指標値を、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について算出する算出部と、
を備えた符号化装置。 A generating unit that generates a plurality of encoded data obtained by encoding a plurality of frame images included in a moving image;
A calculation unit that calculates an index value indicating a degree of image quality degradation caused by the encoding for at least one type of feature region set in advance in each frame image;
An encoding device comprising:
請求項11に記載の符号化装置。 The encoding device according to claim 11, wherein the calculation unit calculates the index value for each of a plurality of types of feature regions set in advance in the frame images.
請求項11又は請求項12記載の符号化装置。 The preset feature area includes a face area, a fixed area with a predetermined position and size, a still area with a motion vector less than a threshold, a motion area with a motion vector greater than a threshold, a divided area divided according to luminance, The encoding device according to claim 11, comprising at least one of the encoding devices.
前記符号化装置により生成された複数の符号化データから復号された複数の復号画像の中から、前記指標値が示す劣化の度合いが最も低い復号画像を選択する選択部、及び前記選択部により選択された復号画像を提示する提示部を備えた画像選択装置と、
を有する画像選択システム。 A generating unit that generates a plurality of encoded data obtained by encoding a plurality of frame images included in a moving image, and an index value indicating a degree of image quality degradation caused by the encoding is set at least in advance in each frame image An encoding device including a calculation unit for calculating one type of feature region;
A selection unit that selects a decoded image with the lowest degree of degradation indicated by the index value from among a plurality of decoded images decoded from a plurality of encoded data generated by the encoding device, and selected by the selection unit An image selection device comprising a presentation unit for presenting the decoded image,
An image selection system.
動画像に含まれる複数のフレーム画像を符号化して生成された符号化データであって、該符号化の際に、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について、前記符号化により生じた画質の劣化の度合いを示す指標値が算出された複数の符号化データから復号された複数の復号画像の中から、前記指標値が示す劣化の度合いが最も低い復号画像を選択し、
前記選択された復号画像を提示する
処理を実行させるための画像選択プログラム。 On the computer,
Encoded data generated by encoding a plurality of frame images included in a moving image, and at the time of encoding, at least one type of feature region set in advance in each frame image is encoded From among a plurality of decoded images decoded from a plurality of encoded data for which an index value indicating the degree of image quality degradation that has occurred is selected, a decoded image having the lowest degree of degradation indicated by the index value is selected,
An image selection program for executing a process of presenting the selected decoded image.
動画像に含まれる複数のフレーム画像を符号化した複数の符号化データを生成し、
前記符号化により生じた画質の劣化の度合いを示す指標値を、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について算出する
処理を実行させるための符号化プログラム。 On the computer,
Generating a plurality of encoded data obtained by encoding a plurality of frame images included in a moving image;
An encoding program for executing a process of calculating an index value indicating a degree of deterioration of image quality caused by the encoding for at least one feature region set in advance in each frame image.
動画像に含まれる複数のフレーム画像を符号化した複数の符号化データを生成し、
前記符号化により生じた画質の劣化の度合いを示す指標値を、各フレーム画像内の予め設定した少なくとも1種類の特徴領域について算出し、
前記生成した複数の符号化データから復号された複数の復号画像の中から、前記指標値が示す劣化の度合いが最も低い復号画像を選択し、
前記選択した復号画像を提示する
処理を実行させるための画像符号化選択プログラム。 On the computer,
Generating a plurality of encoded data obtained by encoding a plurality of frame images included in a moving image;
An index value indicating the degree of image quality degradation caused by the encoding is calculated for at least one type of feature region set in advance in each frame image;
From among a plurality of decoded images decoded from the generated plurality of encoded data, select a decoded image having the lowest degree of degradation indicated by the index value,
An image encoding selection program for executing a process of presenting the selected decoded image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012164989A JP6069929B2 (en) | 2012-07-25 | 2012-07-25 | Image selection method, image selection apparatus, encoding apparatus, image selection system, image selection program, encoding program, and image encoding selection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012164989A JP6069929B2 (en) | 2012-07-25 | 2012-07-25 | Image selection method, image selection apparatus, encoding apparatus, image selection system, image selection program, encoding program, and image encoding selection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014027409A true JP2014027409A (en) | 2014-02-06 |
JP6069929B2 JP6069929B2 (en) | 2017-02-01 |
Family
ID=50200702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012164989A Expired - Fee Related JP6069929B2 (en) | 2012-07-25 | 2012-07-25 | Image selection method, image selection apparatus, encoding apparatus, image selection system, image selection program, encoding program, and image encoding selection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6069929B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016046778A (en) * | 2014-08-26 | 2016-04-04 | 株式会社東芝 | Video compression apparatus and video reproducing device |
JP2016083342A (en) * | 2014-10-27 | 2016-05-19 | タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited | Estimation of physiological parameter |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08329255A (en) * | 1995-03-29 | 1996-12-13 | Toshiba Corp | Method and device for dividing region of picture |
JPH09182065A (en) * | 1995-12-22 | 1997-07-11 | Sanyo Electric Co Ltd | Hierarchical encoding method and device |
JPH10257501A (en) * | 1997-03-12 | 1998-09-25 | Toshiba Corp | Image reproducing device |
JP2002314951A (en) * | 2001-04-13 | 2002-10-25 | Canon Inc | Image processor, image processing system, scanning system conversion method, storage medium and its program |
JP2004361989A (en) * | 2003-05-30 | 2004-12-24 | Seiko Epson Corp | Image selection system, image selection program, and image selection method |
WO2007091587A1 (en) * | 2006-02-08 | 2007-08-16 | Nec Corporation | Representative image or representative image group display system, method thereof, and program thereof |
US7277485B1 (en) * | 2001-06-05 | 2007-10-02 | At&T Corp. | Computer-readable medium for content adaptive video decoding |
JP2008028707A (en) * | 2006-07-21 | 2008-02-07 | Sony Corp | Picture quality evaluating device, encoding device, and picture quality evaluating method |
WO2009133900A1 (en) * | 2008-04-30 | 2009-11-05 | 日本電気株式会社 | Picture quality evaluation system, method, and program |
JP2010206847A (en) * | 2010-06-23 | 2010-09-16 | Sanyo Electric Co Ltd | Image processing apparatus |
JP2012110008A (en) * | 2005-03-01 | 2012-06-07 | Qualcomm Inc | Region-of-interest coding in video telephony using rho domain bit allocation |
-
2012
- 2012-07-25 JP JP2012164989A patent/JP6069929B2/en not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08329255A (en) * | 1995-03-29 | 1996-12-13 | Toshiba Corp | Method and device for dividing region of picture |
JPH09182065A (en) * | 1995-12-22 | 1997-07-11 | Sanyo Electric Co Ltd | Hierarchical encoding method and device |
JPH10257501A (en) * | 1997-03-12 | 1998-09-25 | Toshiba Corp | Image reproducing device |
JP2002314951A (en) * | 2001-04-13 | 2002-10-25 | Canon Inc | Image processor, image processing system, scanning system conversion method, storage medium and its program |
US7277485B1 (en) * | 2001-06-05 | 2007-10-02 | At&T Corp. | Computer-readable medium for content adaptive video decoding |
JP2004361989A (en) * | 2003-05-30 | 2004-12-24 | Seiko Epson Corp | Image selection system, image selection program, and image selection method |
JP2012110008A (en) * | 2005-03-01 | 2012-06-07 | Qualcomm Inc | Region-of-interest coding in video telephony using rho domain bit allocation |
WO2007091587A1 (en) * | 2006-02-08 | 2007-08-16 | Nec Corporation | Representative image or representative image group display system, method thereof, and program thereof |
JP2008028707A (en) * | 2006-07-21 | 2008-02-07 | Sony Corp | Picture quality evaluating device, encoding device, and picture quality evaluating method |
WO2009133900A1 (en) * | 2008-04-30 | 2009-11-05 | 日本電気株式会社 | Picture quality evaluation system, method, and program |
JP2010206847A (en) * | 2010-06-23 | 2010-09-16 | Sanyo Electric Co Ltd | Image processing apparatus |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016046778A (en) * | 2014-08-26 | 2016-04-04 | 株式会社東芝 | Video compression apparatus and video reproducing device |
US10341660B2 (en) | 2014-08-26 | 2019-07-02 | Kabushiki Kaisha Toshiba | Video compression apparatus and video playback apparatus |
JP2016083342A (en) * | 2014-10-27 | 2016-05-19 | タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited | Estimation of physiological parameter |
Also Published As
Publication number | Publication date |
---|---|
JP6069929B2 (en) | 2017-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4114885B2 (en) | Image encoding apparatus, method, and program | |
CA2452632C (en) | Method for sub-pixel value interpolation | |
CN108924553B (en) | Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium | |
US20100232691A1 (en) | Image coding device, image decoding device, image coding method, and image decoding method | |
JPWO2010004726A1 (en) | Image encoding method, image decoding method, image encoding device, image decoding device, program, and integrated circuit | |
JP6143866B2 (en) | Image encoding apparatus, image decoding apparatus, and programs thereof | |
JP2014171097A (en) | Encoder, encoding method, decoder, and decoding method | |
WO2009087783A1 (en) | Data generator for coding, method of generating data for coding, decoder and decoding method | |
JP2008219876A (en) | Moving image encoding device, moving image encoding method and moving image decoding device | |
JP2006279917A (en) | Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system | |
JP2004173011A (en) | Apparatus and method for processing image signal, apparatus and method for generating coefficient data used therefor, and program for implementing each method | |
CN106028031B (en) | Video encoding device and method, video decoding device and method | |
US20120093227A1 (en) | Data compression method and data compression device | |
JP6069929B2 (en) | Image selection method, image selection apparatus, encoding apparatus, image selection system, image selection program, encoding program, and image encoding selection program | |
US11202074B2 (en) | Encoding apparatus and encoding method | |
JP4650894B2 (en) | Image decoding device | |
JP4580880B2 (en) | Image encoding apparatus, image decoding apparatus, and image processing system | |
JP2009218965A (en) | Image processor, imaging device mounted with the same and image reproduction device | |
JP4795141B2 (en) | Video coding / synthesizing apparatus, video coding / synthesizing method, and video transmission system | |
US20070242751A1 (en) | Moving picture decoding device and moving picture generating device | |
JP6332039B2 (en) | Screen encoding device, screen decoding device, screen encoding transmission system | |
JP6102233B2 (en) | Evaluation apparatus and image quality evaluation method in evaluation apparatus | |
JP6738091B2 (en) | Video data compression device and video data compression method | |
JP4158479B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
JP6071618B2 (en) | Image processing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6069929 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |