Nothing Special   »   [go: up one dir, main page]

JP2019185757A - Image processing device, imaging system, image processing method, and program - Google Patents

Image processing device, imaging system, image processing method, and program Download PDF

Info

Publication number
JP2019185757A
JP2019185757A JP2019046780A JP2019046780A JP2019185757A JP 2019185757 A JP2019185757 A JP 2019185757A JP 2019046780 A JP2019046780 A JP 2019046780A JP 2019046780 A JP2019046780 A JP 2019046780A JP 2019185757 A JP2019185757 A JP 2019185757A
Authority
JP
Japan
Prior art keywords
image
unit
projection method
correction
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019046780A
Other languages
Japanese (ja)
Inventor
高志 大柿
Takashi Ogaki
高志 大柿
浩 水藤
Hiroshi Mizufuji
浩 水藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/363,191 priority Critical patent/US20190306420A1/en
Publication of JP2019185757A publication Critical patent/JP2019185757A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To solve the problem that when an attempt is made to superimpose a plane image P obtained by imaging separately from an entire celestial sphere image CE on some region of the entire celestial sphere image CE, an image misalignment occurs because an equidistant cylindrical projection image EC (entire celestial sphere image CE) and a plane image P are different in a projection scheme.SOLUTION: An image processing device calculates a region CA1 that corresponds to an image P in an image EC, specifies a peripheral region image PI that includes the region CA1, and converts a superimposing image S to the projection scheme of the image P. The image processing device calculates a region CA02 that corresponds to the image P in an image S' after conversion, finds a region CA2 on the basis of a plurality of corresponding blocks in a third image obtained by dividing a second image into blocks and matching to a third image, and inversely converts the projection scheme of the region CA2 to the projection scheme of the image EC. The image processing device calculates a third corresponding region CA3 that corresponds to the region CA2 in the image EC, and superimposes the image P on the region CA3.SELECTED DRAWING: Figure 21

Description

本発明は、画像処理装置、撮影システム、画像処理方法、及びプログラムに関するものである。   The present invention relates to an image processing apparatus, a photographing system, an image processing method, and a program.

従来、広角の平面画像のうちの一部の領域に、広角の平面画像とは別に撮影することで得られた拡大の平面画像を嵌め込むことで、上記一部の領域を拡大しても鮮明な画像を表示することができる技術が開示されている(特許文献1参照)。   Conventionally, an enlarged planar image obtained by photographing separately from a wide-angle planar image is inserted into a partial area of the wide-angle planar image, so that the partial area is enlarged even when the partial area is enlarged. A technique capable of displaying a simple image is disclosed (see Patent Document 1).

ところで、近年、一度の撮影で、360°の全天球画像の元になる2つの半球画像データを得る特殊なデジタルカメラが提供されている(特許文献2参照)。このデジタルカメラは、2つの半球画像データに基づいて1つの正距円筒射影画像データを作成し、スマートフォン等の通信端末に正距円筒射影画像データを送信する。正距円筒射影画像データを得た通信端末は、正距円筒射影画像データに基づいて全天球画像を作成する。但し、そのままでは画像が湾曲して利用者が見えづらいため、通信端末に全天球画像の一部の所定領域を示す所定領域画像を表示させることで、利用者は一般のデジタルカメラで撮影された平面画像と同じ感覚で閲覧することができる。   By the way, in recent years, there has been provided a special digital camera that obtains two hemispherical image data based on a 360-degree omnidirectional image by one shooting (see Patent Document 2). This digital camera creates one equirectangular projection image data based on two hemispherical image data, and transmits the equirectangular projection image data to a communication terminal such as a smartphone. The communication terminal that has obtained the equirectangular projection image data creates an omnidirectional image based on the equirectangular projection image data. However, since the image is curved as it is, it is difficult for the user to see. Therefore, by displaying a predetermined area image indicating a predetermined area of the omnidirectional image on the communication terminal, the user is photographed with a general digital camera. Can be viewed with the same feeling as a flat image.

しかしながら、例えば、全天球画像の一部の領域に、全天球画像とは別に撮影することで得られた平面画像を重畳等する場合のように、射影方式が異なる一方の画像に他方の画像を重畳等すると、画像のズレが生じるという課題が生じる。   However, for example, in the case where a planar image obtained by shooting separately from the omnidirectional image is superimposed on a partial area of the omnidirectional image, one image having a different projection method is combined with the other image. When the images are superimposed or the like, there arises a problem that the image shifts.

請求項1に係る発明は、第1の射影方式の第1の画像と、第1の射影方式とは異なる第2の射影方式の第2の画像とを取得する取得手段と、前記第1の画像を前記第2の射影方式に変換し、第3の画像を生成する第1の射影方式変換手段と、前記第2の画像及び前記第3の画像からそれぞれ複数の特徴点を抽出する抽出手段と、前記抽出手段でそれぞれ抽出した前記第2の画像の複数の特徴点及び前記第3の画像の複数の特徴点に基づいて前記第3の画像における前記第2の画像に対応する第2の対応領域を求める対応領域算出手段と、前記第2の画像をブロック分割して前記第3の画像にマッチングさせることにより求めた前記第3の画像における複数のブロックに基づいて、前記第2の対応領域を補正する対応領域補正手段と、前記補正後の第2の対応領域に含まれる所定の複数の点を、前記第1の射影方式に変換する第2の射影方式変換手段と、前記第2の射影方式変換手段で変換した前記所定の複数の点の前記第1の画像における位置情報を求める位置算出手段と、前記位置算出手段により求めた位置情報を前記第2の画像の複数の点と対応付けて記憶する記憶手段と、を有することを特徴とする画像処理装置である。   The invention according to claim 1 is an acquisition means for acquiring a first image of the first projection method and a second image of a second projection method different from the first projection method; First projection method conversion means for converting an image into the second projection method and generating a third image, and extraction means for extracting a plurality of feature points from the second image and the third image, respectively. And a second corresponding to the second image in the third image based on the plurality of feature points of the second image and the plurality of feature points of the third image respectively extracted by the extraction means Based on a plurality of blocks in the third image obtained by dividing the second image into blocks and matching the third image with corresponding region calculation means for obtaining a corresponding region, the second correspondence Corresponding area correction means for correcting the area, and the correction A plurality of predetermined points included in the second corresponding area of the second projection method conversion unit that converts the plurality of predetermined points into the first projection method, and the plurality of the predetermined plurality of points converted by the second projection method conversion unit. Position calculating means for obtaining position information of a point in the first image, and storage means for storing the position information obtained by the position calculating means in association with a plurality of points of the second image. An image processing apparatus is characterized.

以上説明したように本発明によれば、射影方式が異なる一方の画像に他方の画像を合わせても、画像のずれを抑制することができるという効果を奏する。   As described above, according to the present invention, even if the other image is combined with one image having a different projection method, an effect of suppressing image shift can be achieved.

(a)は特殊撮影装置の左側面図であり、(b)は特殊撮影装置の背面図であり、(c)は特殊撮影装置の平面図であり、(d)は特殊撮影装置の底面図である。(A) is a left side view of the special photographing apparatus, (b) is a rear view of the special photographing apparatus, (c) is a plan view of the special photographing apparatus, and (d) is a bottom view of the special photographing apparatus. It is. 特殊撮影装置の使用イメージ図である。It is a usage image figure of a special imaging device. (a)は特殊撮影装置で撮影された半球画像(前)、(b)は特殊撮影装置で撮影された半球画像(後)、(c)は正距円筒図法により表された画像を示した図である。(A) is a hemispheric image (front) photographed by a special photographing device, (b) is a hemispheric image (rear) photographed by a special photographing device, and (c) is an image represented by equirectangular projection. FIG. (a)は正距円筒射影画像で球を被う状態を示した概念図、(b)は全天球画像を示した図である。(A) is the conceptual diagram which showed the state which covered the sphere with an equirectangular projection image, (b) is the figure which showed the omnidirectional image. 全天球画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is the figure which showed the position of a virtual camera and a predetermined area | region at the time of making a spherical image into a three-dimensional solid sphere. (a)は図5の立体斜視図、(b)は通信端末のディスプレイに所定領域の画像が表示されている状態を示す図である。(A) is a three-dimensional perspective view of FIG. 5, (b) is a figure which shows the state in which the image of the predetermined area is displayed on the display of a communication terminal. 所定領域情報と所定領域Tの画像との関係を示した図である。FIG. 6 is a diagram illustrating a relationship between predetermined area information and an image of a predetermined area T. 本発明の第1の実施形態に係る撮影システムの概略図である。1 is a schematic diagram of an imaging system according to a first embodiment of the present invention. アダプタの斜視図である。It is a perspective view of an adapter. 撮影システムの使用イメージ図である。It is a usage image figure of an imaging system. 特殊撮影装置のハードウェア構成図である。It is a hardware block diagram of a special imaging device. 一般撮影装置のハードウェア構成図である。It is a hardware block diagram of a general imaging device. スマートフォンのハードウェア構成図である。It is a hardware block diagram of a smart phone. 第1の実施形態に係る撮影システムの機能ブロック図である。It is a functional block diagram of the imaging system concerning a 1st embodiment. (a)は連携撮影装置管理テーブルの概念図、(b)連携撮影装置設定画面を示す概念図である。(A) is a conceptual diagram of a cooperative photographing device management table, (b) is a conceptual diagram showing a cooperative photographing device setting screen. 第1の実施形態に係る画像・音処理部の詳細な機能ブロック図である。It is a detailed functional block diagram of an image / sound processing unit according to the first embodiment. 対応領域補正部の詳細図である。It is detail drawing of a corresponding | compatible area correction | amendment part. 重畳表示メタデータの構成図である。It is a block diagram of superimposition display metadata. (a)は第2の対応領域における各格子領域を示した概念図、(b)は第3の対応領域における各格子領域を示した概念図である。(A) is a conceptual diagram showing each lattice region in the second corresponding region, (b) is a conceptual diagram showing each lattice region in the third corresponding region. 第1の実施形態に係る撮影方法を示したシーケンス図である。It is the sequence diagram which showed the imaging | photography method which concerns on 1st Embodiment. 重畳表示パラメータの作成処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of the production | generation process of a superimposed display parameter. 周辺領域画像を特定する際の概念図である。It is a conceptual diagram at the time of specifying a peripheral region image. 対応領域補正部の処理を示した概念図概念図である。It is a conceptual diagram conceptual diagram showing processing of a corresponding area correction unit. 動きベクトルの概念について説明する図である。It is a figure explaining the concept of a motion vector. 類似度および輝度の分散値に基づく補正処理を示し、(a)は類似に基づく有効度X、(b)は輝度の分散に基づく有効度Yについて説明する図である。FIG. 7 is a diagram illustrating correction processing based on similarity and luminance variance values, where (a) illustrates the effectiveness X based on similarity, and (b) illustrates the effectiveness Y based on luminance variance. 補正後の動きベクトルにより代表点を補正する処理の概念について説明する図である。It is a figure explaining the concept of the process which correct | amends a representative point with the motion vector after correction | amendment. 対応領域補正部の他の処理を示した概念図である。It is the conceptual diagram which showed the other process of the corresponding area correction | amendment part. 第2の対応領域CA02を平面画像Pと同じ数だけ分割した場合の全ての代表点を示した図である。FIG. 10 is a diagram showing all representative points when the second corresponding area CA02 is divided by the same number as the planar image P. 動きベクトルの補正に関する概念について説明する図である。It is a figure explaining the concept regarding correction | amendment of a motion vector. 動きベクトルの補正に関する概念について説明する図であり、(a)は非共有点における補正位置、(b)は2つのブロックにおける共有点の補正位置、(c)は4つのブロックにおける共有点の補正位置をそれぞれ示す概念図である。It is a figure explaining the concept regarding correction | amendment of a motion vector, (a) is the correction position in a non-shared point, (b) is the correction position of the shared point in two blocks, (c) is correction | amendment of the shared point in four blocks. It is a conceptual diagram which shows each position. ブロックマッチングおよび補正の有効又は無効の判定を用いた場合の補正前および補正後の重畳合成位置を示した図である。It is the figure which showed the superimposition synthetic | combination position before a correction | amendment at the time of using the valid / invalid determination of a block matching and correction | amendment. 第2の対応領域を複数の格子領域に分割する際の概念図である。It is a conceptual diagram at the time of dividing | segmenting a 2nd corresponding area | region into a some grid | lattice area | region. 正距円筒射影画像ECにおいて第3の対応領域を示す概念図である。It is a conceptual diagram which shows the 3rd corresponding | compatible area | region in the equirectangular projection image EC. 補正パラメータの作成処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of the preparation process of a correction parameter. 重畳の処理の課程における画像の概念図である。It is a conceptual diagram of the image in the process of the superimposition process. 全天球画像に平面画像を重畳した場合の二次元の概念図である。It is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image. 全天球画像に平面画像を重畳した場合の三次元の概念図である。It is a three-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image. 本実施形態の位置パラメータを用いずに、全天球画像に平面画像を重畳した場合の二次元の概念図である。It is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image without using the position parameter of the present embodiment. 本実施形態の位置パラメータを用いて、全天球画像に平面画像を重畳した場合の二次元の概念図である。It is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image using the position parameters of the present embodiment. (a)重畳表示しない場合のワイド画像の表示例、(b)重畳表示しない場合のテレ画像の表示例、(c)重畳表示する場合のワイド画像の表示例、(d)重畳表示する場合のテレ画像の表示例を示した概念図である。(A) Display example of wide image without superimposing display, (b) Display example of tele image without superimposing display, (c) Display example of wide image with superimposing display, (d) In case of superimposing display It is the conceptual diagram which showed the example of a display of a tele image. 本発明の第2の実施形態に係る撮影システムの概略図である。It is the schematic of the imaging | photography system which concerns on the 2nd Embodiment of this invention. 画像処理サーバのハードウェア構成図である。It is a hardware block diagram of an image processing server. 第2の実施形態に係る撮影システムの機能ブロック図である。It is a functional block diagram of the imaging system which concerns on 2nd Embodiment. 第2の実施形態に係る画像・音処理部の詳細な機能ブロック図である。It is a detailed functional block diagram of an image / sound processing unit according to the second embodiment. 第2の実施形態に係る撮影方法を示したシーケンス図である。It is the sequence diagram which showed the imaging | photography method which concerns on 2nd Embodiment.

以下、図面を用いて、本発明の実施形態について説明する。なお、後述の全天球画像は第1の画像の一例であり、重畳画像は第2の画像の一例である。周辺領域画像は第3の画像の一例である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the omnidirectional image described later is an example of the first image, and the superimposed image is an example of the second image. The peripheral area image is an example of a third image.

〔実施形態の概要〕
以下、本実施形態の概要について説明する。
[Outline of Embodiment]
Hereinafter, an outline of the present embodiment will be described.

まずは、図1乃至図7を用いて、全天球画像の生成方法について説明する。   First, a method for generating an omnidirectional image will be described with reference to FIGS.

まず、図1を用いて、特殊撮影装置1の外観を説明する。特殊撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は特殊撮影装置の左側面図であり、図1(b)は特殊撮影装置の背面図であり、図1(c)は特殊撮影装置の平面図であり、図1(d)は特殊撮影装置の底面図である。   First, the external appearance of the special photographing apparatus 1 will be described with reference to FIG. The special photographing apparatus 1 is a digital camera for obtaining a photographed image that is the basis of a panoramic image of a celestial sphere (360 °). 1A is a left side view of the special photographing apparatus, FIG. 1B is a rear view of the special photographing apparatus, and FIG. 1C is a plan view of the special photographing apparatus. (D) is a bottom view of the special photographing apparatus.

図1(a),図1(b),図1(c),図(d)に示されているように、特殊撮影装置1の上部には、正面側(前側)に魚眼型のレンズ102a及び背面側(後側)に魚眼型のレンズ102bが設けられている。特殊撮影装置1の内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれレンズ102a、102bを介して被写体や風景を撮影することで、半球画像(画角180°以上)を得ることができる。特殊撮影装置1の正面側と反対側の面には、シャッターボタン115aが設けられている。また、特殊撮影装置1の側面には、電源ボタン115b、Wi-Fi(Wireless Fidelity)ボタン115c、及び撮影モード切替ボタン115dが設けられている。電源ボタン115b、及びWi-Fiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮影モード切替ボタン115dは、押下される度に、静止画の撮影モードと動画の撮影モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、Wi-Fiボタン115c、及び撮影モード切替ボタン115dは、操作部115の一部であり、操作部115は、これらのボタンに限られない。   As shown in FIGS. 1 (a), 1 (b), 1 (c), and (d), a fish-eye lens is placed on the front side (front side) of the special photographing apparatus 1 at the top. A fisheye lens 102b is provided on the rear side (rear side) 102a. Inside the special imaging device 1, imaging elements (image sensors) 103a and 103b, which will be described later, are provided, and a hemispherical image (angle of view 180 °) is obtained by photographing a subject or a landscape through the lenses 102a and 102b, respectively. Above). A shutter button 115 a is provided on the surface opposite to the front side of the special imaging device 1. In addition, a power button 115b, a Wi-Fi (Wireless Fidelity) button 115c, and a shooting mode switching button 115d are provided on the side surface of the special imaging device 1. Each time the power button 115b and the Wi-Fi button 115c are pressed, they are switched on and off. The shooting mode switching button 115d switches between a still image shooting mode and a moving image shooting mode each time the button is pressed. Note that the shutter button 115a, the power button 115b, the Wi-Fi button 115c, and the shooting mode switching button 115d are part of the operation unit 115, and the operation unit 115 is not limited to these buttons.

また、特殊撮影装置1の底部150の中央には、カメラ用三脚に特殊撮影装置1や一般撮影装置3を取り付けるための三脚ねじ穴151が設けられている。また、底部150の左端側には、Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(High-Definition Multimedia Interface)端子153が設けられている。なお、HDMIは登録商標である。   A tripod screw hole 151 for attaching the special photographing device 1 or the general photographing device 3 to a camera tripod is provided at the center of the bottom 150 of the special photographing device 1. A micro USB (Universal Serial Bus) terminal 152 is provided on the left end side of the bottom 150. An HDMI (High-Definition Multimedia Interface) terminal 153 is provided on the right end side of the bottom 150. HDMI is a registered trademark.

次に、図2を用いて、特殊撮影装置1の使用状況を説明する。なお、図2は、特殊撮影装置の使用イメージ図である。特殊撮影装置1は、図2に示されているように、例えば、利用者が手に持って利用者の周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれ利用者の周りの被写体が撮像されることで、2つの半球画像を得ることができる。   Next, the use situation of the special photographing apparatus 1 will be described with reference to FIG. In addition, FIG. 2 is a use image figure of a special imaging device. As shown in FIG. 2, the special imaging device 1 is used, for example, for a user to take a picture of a subject around the user with his / her hand. In this case, two hemispherical images can be obtained by imaging the subject around the user by the imaging device 103a and the imaging device 103b shown in FIG.

次に、図3及び図4を用いて、特殊撮影装置1で撮影された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図3(a)は特殊撮影装置1で撮影された半球画像(前側)、図3(b)は特殊撮影装置で撮影された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。   Next, the outline of processing from the image captured by the special imaging device 1 to the creation of the equirectangular projection image EC and the omnidirectional image CE will be described with reference to FIGS. 3 and 4. 3A is a hemispheric image (front side) photographed by the special photographing apparatus 1, FIG. 3B is a hemispheric image photographed by the special photographing apparatus (rear side), and FIG. It is the figure which showed the image (henceforth "an equirectangular projection image") represented by the cylindrical projection. FIG. 4A is a conceptual diagram showing a state where a sphere is covered with an equirectangular projection image, and FIG. 4B is a diagram showing an omnidirectional image.

図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、特殊撮影装置1によって合成され、図3(c)に示されているように、正距円筒射影画像ECが作成される。   As shown in FIG. 3A, the image obtained by the image sensor 103a is a hemispherical image (front side) curved by a fish-eye lens 102a described later. Also, as shown in FIG. 3B, the image obtained by the image sensor 103b is a hemispherical image (rear side) curved by a fish-eye lens 102b described later. Then, the hemispherical image (front side) and the hemispherical image reversed 180 degrees (rear side) are synthesized by the special imaging device 1, and as shown in FIG. 3C, the equirectangular projection image EC. Is created.

そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。   Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), as shown in FIG. 4A, the equirectangular projection image is pasted so as to cover the spherical surface, and FIG. An omnidirectional image CE as shown in b) is created. In this way, the omnidirectional image CE is represented as an image in which the equirectangular projection image EC faces the center of the sphere. OpenGL ES is a graphics library used for visualizing 2D (2-Dimensions) and 3D (3-Dimensions) data. Note that the omnidirectional image CE may be a still image or a moving image.

以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。   As described above, since the omnidirectional image CE is an image that is pasted so as to cover the spherical surface, it is uncomfortable when viewed by a human. Therefore, by displaying a predetermined area (hereinafter referred to as “predetermined area image”) of a part of the omnidirectional image CE as a flat image with little curvature, a display that does not give a sense of incongruity to humans can be achieved. This will be described with reference to FIGS.

なお、図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球画像CEが、三次元の立体球CSで表わされている。このように生成された全天球画像CEが、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮影方向と画角を示す所定領域情報によって特定される。   FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined area when the omnidirectional image is a three-dimensional solid sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the omnidirectional image CE displayed as a three-dimensional solid sphere. FIG. 6A is a three-dimensional perspective view of FIG. 5, and FIG. 6B is a diagram showing a predetermined area image when displayed on the display. In FIG. 6A, the omnidirectional image CE shown in FIG. 4 is represented by a three-dimensional solid sphere CS. Assuming that the omnidirectional image CE generated in this way is a three-dimensional sphere CS, the virtual camera IC is positioned inside the omnidirectional image CE as shown in FIG. The predetermined area T in the omnidirectional image CE is a shooting area of the virtual camera IC, and is specified by predetermined area information indicating the shooting direction and angle of view of the virtual camera IC in the three-dimensional virtual space including the omnidirectional image CE. The

そして、図6(a)に示されている所定領域画像Qは、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。以下では、仮想カメラICの撮影方向(ea,aa)と画角(α)を用いて説明する。   Then, the predetermined area image Q shown in FIG. 6A is displayed on the predetermined display as an image of the photographing area of the virtual camera IC as shown in FIG. 6B. The image shown in FIG. 6B is a predetermined area image represented by the predetermined (default) predetermined area information. The following description will be made using the shooting direction (ea, aa) and the angle of view (α) of the virtual camera IC.

図7を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図7は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図7に示されているように、「ea」はelevation angle、「aa」はazimuth angle、「α」は画角(Angle)を示す。即ち、撮影方向(ea,aa)で示される仮想カメラICの注視点が、仮想カメラICの撮影領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図7では、一般的に以下の(式1)で示される三角関数が成り立つ。   The relationship between the predetermined area information and the image of the predetermined area T will be described with reference to FIG. FIG. 7 is a diagram showing the relationship between the predetermined region information and the relationship between the images of the predetermined region T. As shown in FIG. 7, “ea” represents an elevation angle, “aa” represents an azimuth angle, and “α” represents an angle of view. That is, the attitude of the virtual camera IC is changed so that the gazing point of the virtual camera IC indicated by the shooting direction (ea, aa) becomes the center point CP of the predetermined area T that is the shooting area of the virtual camera IC. Become. The predetermined area image Q is an image of the predetermined area T in the omnidirectional image CE. f is the distance from the virtual camera IC to the center point CP. L is a distance between an arbitrary vertex of the predetermined region T and the center point CP (2L is a diagonal line). In FIG. 7, a trigonometric function represented by the following (formula 1) is generally established.

L/f=tan(α/2)・・・(式1)
〔第1の実施形態〕
続いて、図8乃至図40を用いて、本発明の第1の実施形態について説明する。
L / f = tan (α / 2) (Formula 1)
[First Embodiment]
Subsequently, a first embodiment of the present invention will be described with reference to FIGS.

<撮影システムの概略>
まずは、図8を用いて、本実施形態の撮影システムの構成の概略について説明する。図8は、本実施形態の撮影システムの構成の概略図である。
<Outline of shooting system>
First, an outline of the configuration of the photographing system of the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram of the configuration of the photographing system of the present embodiment.

図8に示されているように、本実施形態の撮影システムは、特殊撮影装置1、一般撮影装置3、スマートフォン5、及びアダプタ9によって構成されている。特殊撮影装置1はアダプタ9を介して一般撮影装置3に接続されている。   As shown in FIG. 8, the photographing system of this embodiment includes a special photographing device 1, a general photographing device 3, a smartphone 5, and an adapter 9. The special photographing device 1 is connected to the general photographing device 3 through an adapter 9.

これらのうち、特殊撮影装置1は、上述のように、被写体や風景等を撮影して全天球(パノラマ)画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。   Among these, the special photographing device 1 is a special digital camera for photographing a subject, a landscape, and the like to obtain two hemispherical images that are the basis of the omnidirectional (panoramic) image as described above.

一般撮影装置3は、デジタル一眼レフカメラであるが、コンパクトデジタルカメラであってもよい。一般撮影装置3には、後述の操作部315の一部であるシャッターボタン315aが設けられている。   The general photographing device 3 is a digital single-lens reflex camera, but may be a compact digital camera. The general photographing apparatus 3 is provided with a shutter button 315a which is a part of an operation unit 315 described later.

スマートフォン5は、Wi-Fi、Bluetooth(登録商標)、NFC(Near Field Communication)等の近距離無線通信技術を利用して、特殊撮影装置1及び一般撮影装置3と無線通信を行なうことができる。また、スマートフォン5では、自装置に設けられた後述のディスプレイ517に、特殊撮影装置1及び一般撮影装置3からそれぞれ取得した画像を表示することができる。   The smartphone 5 can perform wireless communication with the special imaging device 1 and the general imaging device 3 using a short-range wireless communication technology such as Wi-Fi, Bluetooth (registered trademark), or NFC (Near Field Communication). Further, the smartphone 5 can display images respectively acquired from the special imaging device 1 and the general imaging device 3 on a display 517 described later provided in the device itself.

なお、スマートフォン5は、近距離無線通信技術を利用せずに、有線ケーブルによって特殊撮影装置1及び一般撮影装置3と通信を行なうようにしてもよい。また、スマートフォン5は、画像処理装置の一例であり、画像処理装置には、タブレット型PC(Personal Computer:パーソナルコンピュータ)、ノートPC、デスクトップPCも含まれる。なお、スマートフォンは、後述の通信端末の一例でもある。   Note that the smartphone 5 may communicate with the special imaging device 1 and the general imaging device 3 through a wired cable without using the short-range wireless communication technology. The smartphone 5 is an example of an image processing apparatus, and the image processing apparatus includes a tablet PC (Personal Computer), a notebook PC, and a desktop PC. Note that the smartphone is also an example of a communication terminal described later.

また、図9は、アダプタの斜視図である。図9に示されているように、アダプタ9は、シューアダプタ901、ボルト902、上部アジャスタ903、及び下部アジャスタ904によって構成されている。これらのうち、シューアダプタ901は、一般撮影装置3のアクセサリシューにスライドして取り付けられる。このシューアダプタ901の中心に、三脚ねじ穴151に回転して取り付けられるボルト902が設けられている。このボルト902には、回転可能に、上部アジャスタ903及び下部アジャスタ904が設けられている。上部アジャスタ903は、ボルト902に取り付けた物(例えば、特殊撮影装置1)を固定する役割を果たす。下部アジャスタ904は、シューアダプタ901を取り付けた物(例えば、一般撮影装置3)を固定する役割を果たす。   FIG. 9 is a perspective view of the adapter. As shown in FIG. 9, the adapter 9 includes a shoe adapter 901, a bolt 902, an upper adjuster 903, and a lower adjuster 904. Among these, the shoe adapter 901 is attached to the accessory shoe of the general photographing apparatus 3 by sliding. At the center of the shoe adapter 901, a bolt 902 that is rotatably attached to the tripod screw hole 151 is provided. The bolt 902 is provided with an upper adjuster 903 and a lower adjuster 904 so as to be rotatable. The upper adjuster 903 plays a role of fixing an object (for example, the special photographing apparatus 1) attached to the bolt 902. The lower adjuster 904 plays a role of fixing an object (for example, the general photographing apparatus 3) to which the shoe adapter 901 is attached.

図10は、撮影システムの使用イメージ図である。図10に示されているように、利用者は、スマートフォン5を衣服のポケットに入れ、アダプタ9を用いて特殊撮影装置1を取り付けた一般撮影装置3で被写体等の撮影を行なう。なお、スマートフォン5は、衣服のポケットに入れずに、特殊撮影装置1や一般撮影装置3と無線通信可能な範囲に置いてもよい。   FIG. 10 is a usage image diagram of the imaging system. As shown in FIG. 10, the user takes a picture of a subject or the like with the general photographing device 3 to which the special photographing device 1 is attached using the adapter 9 by putting the smartphone 5 in a pocket of clothes. Note that the smartphone 5 may be placed in a range where wireless communication with the special imaging device 1 or the general imaging device 3 is possible without being put in a pocket of clothes.

<<実施形態のハードウェア構成>>
次に、図11及び図13を用いて、本実施形態の特殊撮影装置1、一般撮影装置3及びスマートフォン5のハードウェア構成を詳細に説明する。
<< Hardware Configuration of Embodiment >>
Next, the hardware configuration of the special imaging device 1, the general imaging device 3, and the smartphone 5 according to the present embodiment will be described in detail with reference to FIGS.

<特殊撮影装置のハードウェア構成>
まず、図11を用いて、特殊撮影装置1のハードウェア構成を説明する。図11は、特殊撮影装置1のハードウェア構成図である。以下では、特殊撮影装置1は、2つの撮像素子を使用した全天球(全方位)特殊撮影装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に特殊撮影装置1と同じ機能を有するようにしてもよい。
<Hardware configuration of special imaging device>
First, the hardware configuration of the special photographing apparatus 1 will be described with reference to FIG. FIG. 11 is a hardware configuration diagram of the special imaging apparatus 1. In the following, the special imaging device 1 is an omnidirectional (omnidirectional) special imaging device using two image sensors, but any number of two or more image sensors may be used. In addition, it is not always necessary to use a dedicated device for omnidirectional photography. By attaching a retrofit omnidirectional imaging unit to a normal digital camera or smartphone, it has substantially the same function as the special photography device 1. Also good.

図11に示されているように、特殊撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120、及び端子121によって構成されている。   As shown in FIG. 11, the special imaging apparatus 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, and a ROM (Read Only). Memory) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, antenna 117a, electronic compass 118, gyro sensor 119, acceleration sensor 120, And a terminal 121.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。   Among these, the imaging unit 101 includes wide-angle lenses (so-called fish-eye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging units provided corresponding to the wide-angle lenses. Elements 103a and 103b are provided. The image sensors 103a and 103b are image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor that convert an optical image obtained by the fisheye lenses 102a and 102b into image data of an electric signal and output the image data. A timing generation circuit for generating a horizontal or vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。   The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I / F bus. On the other hand, the imaging elements 103a and 103b of the imaging unit 101 are connected to the imaging control unit 105 through a serial I / F bus (I2C bus or the like). The image processing unit 104, the imaging control unit 105, and the sound processing unit 109 are connected to the CPU 111 via the bus 110. Further, ROM 112, SRAM 113, DRAM 114, operation unit 115, network I / F 116, communication unit 117, and electronic compass 118 are connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているような正距円筒射影画像のデータを作成する。   The image processing unit 104 takes in the image data output from the image sensors 103a and 103b through the parallel I / F bus, performs predetermined processing on the respective image data, and then combines these image data. The data of the equirectangular projection image as shown in FIG. 3C is created.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。   In general, the imaging control unit 105 sets a command or the like in a register group of the imaging elements 103a and 103b using the I2C bus with the imaging control unit 105 as a master device and the imaging elements 103a and 103b as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to capture status data and the like of the register groups of the imaging elements 103a and 103b and send them to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。特殊撮影装置1によっては、ディスプレイ(例えば、スマートフォン5のディスプレイ517)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。   The imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some special imaging devices 1 may have a preview display function or a function corresponding to a moving image display by a display (for example, the display 517 of the smartphone 5). In this case, output of image data from the image sensors 103a and 103b is continuously performed at a predetermined frame rate (frame / min).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、特殊撮影装置1にはディスプレイが設けられていないが、表示部を設けてもよい。   Further, as will be described later, the imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the special imaging apparatus 1 is not provided with a display, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。   The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、特殊撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。   The CPU 111 controls the overall operation of the special photographing apparatus 1 and executes necessary processes. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data being processed by the image processing unit 104 and processed equirectangular projection image data.

操作部115は、シャッターボタン115aなどの操作ボタンの総称である。ユーザは操作部115を操作することで、種々の撮影モードや撮影条件などを入力する。   The operation unit 115 is a general term for operation buttons such as the shutter button 115a. The user operates the operation unit 115 to input various shooting modes and shooting conditions.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してスマートフォン5等の外部端末(装置)に送信されたりする。   The network I / F 116 is a general term for an interface circuit (USB I / F or the like) with an external medium such as an SD card or a personal computer. The network I / F 116 may be wireless or wired. Data of the equirectangular projection image stored in the DRAM 114 is recorded on an external medium via the network I / F 116, or an external terminal (device) such as the smartphone 5 via the network I / F 116 as necessary. ).

通信部117は、特殊撮影装置1に設けられたアンテナ117aを介して、Wi-Fi、NFC、Bluetooth等の近距離無線通信技術によって、スマートフォン5等の外部端末(装置)と通信を行う。この通信部117によっても、正距円筒射影画像のデータをスマートフォン5等の外部端末(装置)に送信することができる。   The communication unit 117 communicates with an external terminal (device) such as the smartphone 5 through the antenna 117a provided in the special imaging device 1 by a short-range wireless communication technology such as Wi-Fi, NFC, or Bluetooth. The communication unit 117 can also transmit the equirectangular projection image data to an external terminal (device) such as the smartphone 5.

電子コンパス118は、地球の磁気から特殊撮影装置1の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。   The electronic compass 118 calculates the azimuth of the special imaging device 1 from the earth's magnetism and outputs azimuth information. This orientation information is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image. Note that the related information includes each data of the image capturing date and time and the data capacity of the image data.

ジャイロセンサ119は、全天球カメラ20の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。   The gyro sensor 119 is a sensor that detects a change in angle (Roll angle, Pitch angle, Yaw angle) accompanying the movement of the omnidirectional camera 20. The change in angle is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image.

加速度センサ120は、3軸方向の加速度を検出するセンサである。特殊撮影装置3aは、加速度センサ120が検出した加速度に基づいて、自装置(特殊撮影装置3a)の姿勢(重力方向に対する角度)を算出する。特殊撮影装置3aに、ジャイロセンサ119と加速度センサ120の両方が設けられることによって、画像補正の精度が向上する。   The acceleration sensor 120 is a sensor that detects acceleration in three axial directions. The special imaging device 3a calculates the attitude (angle with respect to the direction of gravity) of the own device (special imaging device 3a) based on the acceleration detected by the acceleration sensor 120. By providing both the gyro sensor 119 and the acceleration sensor 120 in the special imaging device 3a, the accuracy of image correction is improved.

端子121は、Micro USB用の凹状の端子である。   The terminal 121 is a concave terminal for Micro USB.

<一般撮影装置のハードウェア構成>
次に、図12を用いて、一般撮影装置のハードウェアについて説明する。図12は、一般撮影装置3のハードウェア構成図である。図12に示されているように、一般撮影装置3は、撮像ユニット301、画像処理ユニット304、撮像制御ユニット305、マイク308、音処理ユニット309、バス310、CPU311、ROM312、SRAM313、DRAM314、操作部315、ネットワークI/F316、通信部317、アンテナ317a、電子コンパス318、及びディスプレイ319によって構成されている。画像処理ユニット304及び撮像制御ユニット305は、バス310を介してCPU311と接続される。
<Hardware configuration of general imaging device>
Next, the hardware of the general photographing apparatus will be described with reference to FIG. FIG. 12 is a hardware configuration diagram of the general photographing apparatus 3. As shown in FIG. 12, the general imaging apparatus 3 includes an imaging unit 301, an image processing unit 304, an imaging control unit 305, a microphone 308, a sound processing unit 309, a bus 310, a CPU 311, a ROM 312, an SRAM 313, a DRAM 314, an operation. The unit 315 includes a network I / F 316, a communication unit 317, an antenna 317 a, an electronic compass 318, and a display 319. The image processing unit 304 and the imaging control unit 305 are connected to the CPU 311 via the bus 310.

各構成304、310、311、312、313、314、315、316、317、317a、318は、それぞれ、図11の特殊撮影装置1における各構成104、110、111、112、113、114、115、116、117、117a、118と同様の構成であるため、その説明を省略する。   The configurations 304, 310, 311, 312, 313, 314, 315, 316, 317, 317a, and 318 are the configurations 104, 110, 111, 112, 113, 114, and 115 in the special imaging apparatus 1 of FIG. , 116, 117, 117a, and 118, the description thereof is omitted.

更に、一般撮影装置3の撮影ユニット301は、図12に示されているように、撮像素子303の前面にレンズユニット306、及びメカニカルシャッタ307が外部から撮像素子303の方向に順に設けられている。   Furthermore, as shown in FIG. 12, the photographing unit 301 of the general photographing apparatus 3 is provided with a lens unit 306 and a mechanical shutter 307 in order from the outside in the direction of the image sensor 303 on the front surface of the image sensor 303. .

撮像制御ユニット305は、基本的に撮像制御ユニット105と同様の構成及び処理を行なうが、更に、操作部315によって受け付けられた利用者の操作に基づいて、レンズユニット306、及びメカニカルシャッタ307の駆動を制御する。   The imaging control unit 305 basically performs the same configuration and processing as the imaging control unit 105, but further drives the lens unit 306 and the mechanical shutter 307 based on a user operation received by the operation unit 315. To control.

また、ディスプレイ319は、操作メニュー、撮影中又は撮影後の画像を表示させる表示手段の一例である。   The display 319 is an example of a display unit that displays an operation menu and an image during or after shooting.

<スマートフォンのハードウェア構成>
次に、図13を用いて、スマートフォンのハードウェアについて説明する。図13は、スマートフォンのハードウェア構成図である。図13に示されているように、スマートフォン5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、撮像素子I/F513a、加速度・方位センサ506、メディアI/F508、GPS受信部509を備えている。
<Smartphone hardware configuration>
Next, the hardware of the smartphone will be described with reference to FIG. FIG. 13 is a hardware configuration diagram of the smartphone. As illustrated in FIG. 13, the smartphone 5 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM 504, a CMOS sensor 505, an image sensor I / F 513 a, an acceleration / direction sensor 506, a media I / F 508, and a GPS receiving unit 509. Yes.

これらのうち、CPU501は、スマートフォン5全体の動作を制御する。ROM502は、CPU501やIPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ505は、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。撮像素子I/F513aは、CMOSセンサ512の駆動を制御する回路である。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。   Among these, the CPU 501 controls the operation of the entire smartphone 5. The ROM 502 stores programs used for driving the CPU 501 such as the CPU 501 and IPL (Initial Program Loader). The RAM 503 is used as a work area for the CPU 501. The EEPROM 504 reads or writes various data such as a smartphone program under the control of the CPU 501. The CMOS sensor 505 captures a subject (mainly a self-portrait) under the control of the CPU 501 and obtains image data. The image sensor I / F 513 a is a circuit that controls driving of the CMOS sensor 512. The acceleration / direction sensor 506 is various sensors such as an electronic magnetic compass, a gyrocompass, and an acceleration sensor that detect geomagnetism. A media I / F 508 controls reading or writing (storage) of data with respect to a recording medium 507 such as a flash memory. The GPS receiver 509 receives GPS signals from GPS satellites.

また、スマートフォン5は、遠距離通信回路511、アンテナ511a、CMOSセンサ512、撮像素子I/F513b、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519のアンテナ519a、及びタッチパネル521を備えている。   The smartphone 5 includes a long-distance communication circuit 511, an antenna 511a, a CMOS sensor 512, an image sensor I / F 513b, a microphone 514, a speaker 515, a sound input / output I / F 516, a display 517, an external device connection I / F 518, and a short distance. A communication circuit 519, an antenna 519a of the short-range communication circuit 519, and a touch panel 521 are provided.

これらのうち、遠距離通信回路511は、後述の通信ネットワーク100を介して、他の機器と通信する回路である。CMOSセンサ512は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513bは、CMOSセンサ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、Wi-Fi、NFC、Bluetooth等の通信回路である。タッチパネル521は、利用者がディスプレイ517を押下することで、スマートフォン5を操作する入力手段の一種である。   Among these, the long-distance communication circuit 511 is a circuit that communicates with other devices via a communication network 100 described later. The CMOS sensor 512 is a kind of built-in imaging unit that captures an image of a subject under the control of the CPU 501 and obtains image data. The image sensor I / F 513b is a circuit that controls driving of the CMOS sensor 512. The microphone 514 is a kind of built-in sound collecting means for inputting sound. The sound input / output I / F 516 is a circuit that processes input / output of a sound signal between the microphone 514 and the speaker 515 under the control of the CPU 501. The display 517 is a kind of display means such as a liquid crystal display or an organic EL display that displays a subject image, various icons, and the like. The external device connection I / F 518 is an interface for connecting various external devices. The short-range communication circuit 519 is a communication circuit such as Wi-Fi, NFC, or Bluetooth. The touch panel 521 is a kind of input means for operating the smartphone 5 when the user presses the display 517.

また、スマートフォン5は、バスライン510を備えている。バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   In addition, the smartphone 5 includes a bus line 510. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501.

なお、上記各プログラムが記憶されたHD(Hard Disk)やCD−ROM等の記録媒体は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。   Note that a recording medium such as an HD (Hard Disk) or a CD-ROM in which each of the above programs is stored can be provided domestically or abroad as a program product.

<<実施形態の機能構成>>
次に、図11乃至図14を用いて、本実施形態の機能構成について説明する。図14は、本実施形態の撮影システムの一部を構成する、特殊撮影装置1、一般撮影装置3、及びスマートフォン5の各機能ブロック図である。
<< Functional Configuration of Embodiment >>
Next, the functional configuration of the present embodiment will be described with reference to FIGS. FIG. 14 is a functional block diagram of the special imaging device 1, the general imaging device 3, and the smartphone 5 that constitute a part of the imaging system of the present embodiment.

<特殊撮影装置の機能構成>
まず、図11及び図14を用いて、特殊撮影装置1の機能構成について詳細に説明する。図14に示されているように、特殊撮影装置1は、受付部12、撮像部13、集音部14、画像・音処理部15、判断部17、近距離通信部18、及び記憶・読出部19を有している。これら各部は、図11に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された特殊撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of special imaging device>
First, the functional configuration of the special imaging device 1 will be described in detail with reference to FIGS. 11 and 14. As illustrated in FIG. 14, the special imaging device 1 includes a reception unit 12, an imaging unit 13, a sound collection unit 14, an image / sound processing unit 15, a determination unit 17, a short-range communication unit 18, and a storage / readout. It has a part 19. Each of these units is a function realized by any of the constituent elements shown in FIG. 11 being operated by a command from the CPU 111 in accordance with a program for the special photographing apparatus developed from the SRAM 113 onto the DRAM 114, or Means.

また、特殊撮影装置1は、図11に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。   In addition, the special photographing apparatus 1 includes a storage unit 1000 constructed by the ROM 112, the SRAM 113, and the DRAM 114 shown in FIG.

(特殊撮影装置の各機能構成)
次に、図11及び図14を用いて、特殊撮影装置1の各機能構成について更に詳細に説明する。
(Functional configuration of special imaging equipment)
Next, using FIG. 11 and FIG. 14, each functional configuration of the special imaging device 1 will be described in more detail.

特殊撮影装置1の受付部12は、主に、図11に示されている操作部115及びCPU111の処理によって実現され、利用者からの操作入力を受け付ける。   The reception unit 12 of the special imaging device 1 is mainly realized by the processing of the operation unit 115 and the CPU 111 illustrated in FIG. 11 and receives operation input from the user.

撮像部13は、主に、図11に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、被写体や風景等を撮像し、撮影画像データを得る。この撮影画像データは、図3(a),(b)に示されているように、全天球画像データの元になる2つの半球画像データである。   The imaging unit 13 is realized mainly by the processing of the imaging unit 101, the image processing unit 104, the imaging control unit 105, and the CPU 111 shown in FIG. obtain. As shown in FIGS. 3A and 3B, the captured image data is two hemispherical image data that is the basis of the omnidirectional image data.

集音部14は、図11に示されている108及び音処理ユニット109、並びにCPU111の処理によって実現され、特殊撮影装置1の周囲の音を集音する。   The sound collecting unit 14 is realized by the processing of the CPU 108, the sound processing unit 109, and the CPU 111 shown in FIG. 11, and collects sounds around the special photographing apparatus 1.

画像・音処理部15は、主にCPU111からの命令によって実現され、撮像部13によって得られた撮影画像データ、又は集音部14によって得られた音データに対して、各種処理を行なう。例えば、画像・音処理部15は、2つの撮像素子103a,103bのそれぞれによって得られた2つの半球画像データ(図3(a),(b)参照)に基づいて、正距円筒射影画像データ(図3(c)参照)を作成する。   The image / sound processing unit 15 is realized mainly by a command from the CPU 111 and performs various processes on the captured image data obtained by the imaging unit 13 or the sound data obtained by the sound collecting unit 14. For example, the image / sound processing unit 15 performs equirectangular projection image data based on two hemispherical image data (see FIGS. 3A and 3B) obtained by the two image sensors 103a and 103b, respectively. (See FIG. 3C).

判断部17は、CPU111の処理によって実現され、各種判断を行なう。   The determination unit 17 is realized by the processing of the CPU 111 and makes various determinations.

近距離通信部18は、主に、CPU111の処理、並びに通信部117及びアンテナ117aによって実現され、スマートフォン5の近距離通信部58等と、Wi-Fi等による近距離無線通信技術によって通信することができる。   The short-range communication unit 18 is mainly realized by the processing of the CPU 111, the communication unit 117, and the antenna 117a, and communicates with the short-range communication unit 58 of the smartphone 5 by a short-range wireless communication technique such as Wi-Fi. Can do.

記憶・読出部19は、主に、図11に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。   The storage / reading unit 19 is realized mainly by the processing of the CPU 111 shown in FIG. 11, and stores various data (or information) in the storage unit 1000 or stores various data (or information) from the storage unit 1000. Read out.

<一般撮影装置の機能構成>
続いて、図12及び図14を用いて、一般撮影装置3の機能構成について詳細に説明する。図14に示されているように、一般撮影装置3は、受付部32、撮像部33、集音部34、画像・音処理部35、表示制御部36、判断部37、近距離通信部38、及び記憶・読出部39を有している。これら各部は、図12に示されている各構成要素のいずれかが、SRAM313からDRAM314上に展開された特殊撮影装置用のプログラムに従ったCPU311からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of general imaging device>
Next, the functional configuration of the general imaging device 3 will be described in detail with reference to FIGS. 12 and 14. As shown in FIG. 14, the general imaging device 3 includes a reception unit 32, an imaging unit 33, a sound collection unit 34, an image / sound processing unit 35, a display control unit 36, a determination unit 37, and a short-range communication unit 38. And a storage / reading unit 39. Each of these units is a function realized by any one of the constituent elements shown in FIG. 12 being operated by a command from the CPU 311 according to a program for the special photographing device developed from the SRAM 313 to the DRAM 314, or Means.

また、一般撮影装置3は、図12に示されているROM312、SRAM313、及びDRAM314によって構築される記憶部3000を有している。   Further, the general photographing apparatus 3 has a storage unit 3000 constructed by the ROM 312, the SRAM 313, and the DRAM 314 shown in FIG.

(一般撮影装置の各機能構成)
一般撮影装置3の受付部32は、主に、図12に示されている操作部315及びCPU311の処理によって実現され、利用者からの操作入力を受け付ける。
(Functional configuration of general imaging equipment)
The reception unit 32 of the general imaging device 3 is mainly realized by the processing of the operation unit 315 and the CPU 311 illustrated in FIG. 12, and receives operation input from the user.

撮像部33は、主に、図12に示されている撮像ユニット301、画像処理ユニット304、及び撮像制御ユニット305、並びにCPU311の処理によって実現され、被写体や風景等を撮像し、撮影画像データを得る。この撮影画像データは、透視射影方式で撮影された平面画像データである。   The imaging unit 33 is mainly realized by the processing of the imaging unit 301, the image processing unit 304, the imaging control unit 305, and the CPU 311 shown in FIG. obtain. This photographed image data is planar image data photographed by the perspective projection method.

集音部34は、図12に示されているマイク308及び音処理ユニット309、並びにCPU311の処理によって実現され、一般撮影装置3の周囲の音を集音する。   The sound collecting unit 34 is realized by the processing of the microphone 308 and the sound processing unit 309 and the CPU 311 shown in FIG. 12 and collects the sound around the general photographing apparatus 3.

画像・音処理部35は、主にCPU311からの命令によって実現され、撮像部33によって得られた撮影画像データ、又は集音部34によって得られた音データに対して、各種処理を行なう。   The image / sound processing unit 35 is realized mainly by a command from the CPU 311, and performs various processes on the captured image data obtained by the imaging unit 33 or the sound data obtained by the sound collection unit 34.

表示制御部36は、図12に示されているCPU311の処理によって実現され、ディスプレイ319に、撮影中又は撮影後の撮影画像データに係る平面画像Pを表示させる。   The display control unit 36 is realized by the processing of the CPU 311 illustrated in FIG. 12, and causes the display 319 to display the planar image P related to the captured image data during or after capturing.

判断部37は、CPU311の処理によって実現され、各種判断を行なう。例えば、判断部37は、利用者によって、シャッターボタン315aが押下されたかを判断する。   The determination unit 37 is realized by the processing of the CPU 311 and performs various determinations. For example, the determination unit 37 determines whether the user has pressed the shutter button 315a.

近距離通信部38は、主に、CPU311、並びに通信部317及びアンテナ317aによって実現され、スマートフォン5の近距離通信部58等と、Wi-Fi等による近距離無線通信技術によって通信することができる。   The short-range communication unit 38 is mainly realized by the CPU 311, the communication unit 317, and the antenna 317 a, and can communicate with the short-range communication unit 58 of the smartphone 5 by a short-range wireless communication technique such as Wi-Fi. .

記憶・読出部39は、主に、図12に示されているCPU311の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。   The storage / reading unit 39 is realized mainly by the processing of the CPU 311 shown in FIG. 12, and stores various data (or information) in the storage unit 3000 or stores various data (or information) from the storage unit 3000. Read out.

<スマートフォンの機能構成>
次に、図13乃至図16を用いて、スマートフォン5の機能構成について詳細に説明する。図14に示されているように、スマートフォン5は、遠距離通信部51、受付部52、撮像部53、集音部54、画像・音処理部55、表示制御部56、判断部57、近距離通信部58、及び記憶・読出部59を有している。これら各部は、図13に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたスマートフォン5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of smartphone>
Next, the functional configuration of the smartphone 5 will be described in detail with reference to FIGS. 13 to 16. As illustrated in FIG. 14, the smartphone 5 includes a long-distance communication unit 51, a reception unit 52, an imaging unit 53, a sound collection unit 54, an image / sound processing unit 55, a display control unit 56, a determination unit 57, A distance communication unit 58 and a storage / reading unit 59 are provided. Each of these units is a function or means realized by any of the constituent elements shown in FIG. 13 being operated by a command from the CPU 501 according to the smartphone 5 program expanded from the EEPROM 504 to the RAM 503. is there.

また、スマートフォン5は、図13に示されているROM502、RAM503、及びEEPROM504によって構築される記憶部5000を有している。この記憶部5000には、連携撮影装置管理DB5001が構築されている。この連携撮影装置管理DB5001は、図15(a)連携撮影装置管理テーブルによって構成されている。図15(a)は連携撮影装置管理テーブルの概念図である。   The smartphone 5 includes a storage unit 5000 configured by the ROM 502, the RAM 503, and the EEPROM 504 illustrated in FIG. In this storage unit 5000, a cooperative photographing apparatus management DB 5001 is constructed. This cooperative photographing apparatus management DB 5001 is configured by a cooperative photographing apparatus management table in FIG. FIG. 15A is a conceptual diagram of the cooperative photographing apparatus management table.

(連携撮影装置管理テーブル)
次に、図15(a)を用いて、連携撮影装置管理テーブルについて説明する。図15(a)に示されているように、撮影装置毎に、各撮影装置の連携関係を示す関連関係情報、撮影装置のIPアドレス、及び撮影装置の装置名が関連付けて管理されている。このうち、関連関係情報は、自装置のシャッターが押下されることで撮影を開始する一の撮影装置を「メイン」とし、「メイン」の撮影装置でシャッターが押下されることに応じて撮影を開始する他の撮影装置を「サブ」として示している。なお、IPアドレスは、Wi-Fiによる通信の場合であって、USBの有線ケーブルを用いた通信の場合には製造者ID(Identification)及び製品IDに代わり、Bluetoothを用いた無線通信の場合には、BD(Bluetooth Device Address)に代わる。
(Cooperative shooting device management table)
Next, the cooperative photographing apparatus management table will be described with reference to FIG. As shown in FIG. 15A, for each image capturing device, related relationship information indicating the cooperation relationship of each image capturing device, the IP address of the image capturing device, and the device name of the image capturing device are managed in association with each other. Of these, the related relationship information indicates that one imaging device that starts imaging when the shutter of its own device is pressed is “main”, and shooting is performed in response to the shutter being pressed by the “main” imaging device. Another imaging device to start is indicated as “sub”. Note that the IP address is for Wi-Fi communication, and in the case of wireless communication using Bluetooth instead of the manufacturer ID (Identification) and product ID in the case of communication using a USB wired cable. Replaces BD (Bluetooth Device Address).

(スマートフォンの各機能構成)
スマートフォン5の遠距離通信部51は、主に、図13に示されている遠距離通信回路511及びCPU501の処理によって実現され、インターネット等の通信ネットワークを介して、他の装置(例えば、他のスマートフォン、サーバ)との間で各種データ(または情報)の送受信を行う。
(Each smartphone functional configuration)
The long-distance communication unit 51 of the smartphone 5 is mainly realized by the processing of the long-distance communication circuit 511 and the CPU 501 illustrated in FIG. 13, and is connected to another device (for example, other network) via a communication network such as the Internet. Various data (or information) is transmitted to and received from a smartphone or server.

受付部52は、主にタッチパネル521及びCPU501の処理によって実現され、利用者から各種の選択又は入力を受け付ける。タッチパネル521はディスプレイ517と共用であってもよい。また、タッチパネル以外の入力手段(ボタン)等でもよい。   The accepting unit 52 is realized mainly by the processes of the touch panel 521 and the CPU 501 and accepts various selections or inputs from the user. The touch panel 521 may be shared with the display 517. Further, input means (buttons) other than the touch panel may be used.

撮像部53は、主に、図13に示されているCMOSセンサ505,512、及びCPU501の処理によって実現され、被写体や風景等を撮像し、撮影画像データを得る。この撮影画像データは、透視射影方式で撮影された平面画像データである。   The imaging unit 53 is realized mainly by the processing of the CMOS sensors 505 and 512 and the CPU 501 shown in FIG. 13, and images a subject, a landscape, and the like to obtain captured image data. This photographed image data is planar image data photographed by the perspective projection method.

集音部54は、図13に示されているマイク514、及びCPU501の処理によって実現され、スマートフォン5の周囲の音を集音する。   The sound collection unit 54 is realized by the processing of the microphone 514 and the CPU 501 illustrated in FIG. 13 and collects sounds around the smartphone 5.

画像・音処理部55は、主にCPU501からの命令によって実現され、撮像部53によって得られた撮影画像データ、又は集音部54によって得られた音データに対して、各種処理を行なう。   The image / sound processing unit 55 is realized mainly by a command from the CPU 501, and performs various processes on the captured image data obtained by the imaging unit 53 or the sound data obtained by the sound collection unit 54.

表示制御部56は、図13に示されているCPU501の処理によって実現され、ディスプレイ517に、撮像部53による撮影中又は撮影後の撮影画像データに係る平面画像Pを表示させる。また、表示制御部56は、画像・音処理部55によって作成された重畳表示メタデータを利用して、後述の平面画像Pの各格子領域LA0を、位置パラメータで示された位置、並びに補正パラメータで示された明るさ値及び色値に合わせることで、全天球画像CEに平面画像Pを重畳して表示する。なお、位置パラメータは「位置情報」の一例である。補正パラメータは「補正情報」の一例である。   The display control unit 56 is realized by the processing of the CPU 501 illustrated in FIG. 13, and causes the display 517 to display the planar image P related to the captured image data during or after the imaging by the imaging unit 53. In addition, the display control unit 56 uses the superimposed display metadata created by the image / sound processing unit 55 to set each lattice area LA0 of the planar image P, which will be described later, to the position indicated by the position parameter and the correction parameter. By matching with the brightness value and the color value indicated by (2), the planar image P is superimposed and displayed on the omnidirectional image CE. The position parameter is an example of “position information”. The correction parameter is an example of “correction information”.

判断部57は、図13に示されているCPU501の処理によって実現され、各種判断を行なう。   The determination unit 57 is realized by the processing of the CPU 501 shown in FIG. 13 and makes various determinations.

近距離通信部58は、主に、CPU501の処理、並びに近距離通信回路519及びアンテナ519aによって実現され、特殊撮影装置1の近距離通信部18、一般撮影装置3の近距離通信部38等と、Wi-Fi等による近距離無線通信技術によって通信することができる。   The near field communication unit 58 is mainly realized by the processing of the CPU 501, the near field communication circuit 519 and the antenna 519 a, and the near field communication unit 18 of the special imaging device 1, the near field communication unit 38 of the general imaging device 3, and the like. It is possible to communicate by a short-range wireless communication technology such as Wi-Fi.

記憶・読出部59は、主に、図13に示されているCPU501の処理によって実現され、記憶部5000に、重畳表示メタデータ等の各種データ(または情報)を記憶したり、記憶部5000から重畳表示メタデータ等の各種データ(または情報)を読み出したりする。また、記憶・読出部59は、記憶部5000から各種データを取得する取得部の役割を果たす。   The storage / reading unit 59 is mainly realized by the processing of the CPU 501 shown in FIG. 13, and stores various data (or information) such as superimposed display metadata in the storage unit 5000 or from the storage unit 5000. Various data (or information) such as superimposed display metadata is read out. The storage / reading unit 59 serves as an acquisition unit that acquires various data from the storage unit 5000.

(画像・音処理部の詳細な各機能構成)
ここで、図16を用いて、画像・音処理部55の各機能構成について詳細に説明する。図16は、画像・音処理部の詳細な機能ブロック図である。
(Detailed functional configuration of image / sound processor)
Here, each functional configuration of the image / sound processor 55 will be described in detail with reference to FIG. FIG. 16 is a detailed functional block diagram of the image / sound processor.

画像・音処理部55は、大きく分けて、エンコードを行なうメタデータ作成部55aとデコードを行なう重畳部55bを有している。メタデータ作成部55aは、図20に示されている後述のステップS22の処理を実行する。また、重畳部55bは、図20に示されている後述のステップS23の処理を実行する。   The image / sound processing unit 55 includes a metadata creating unit 55a that performs encoding and a superimposing unit 55b that performs decoding. The metadata creation unit 55a executes a process of step S22 described later shown in FIG. In addition, the superimposing unit 55b performs a process of step S23 described later illustrated in FIG.

{メタデータ作成部の各機能構成}
まずは、メタデータ作成部55aの各機能構成について説明する。メタデータ作成部55aは、抽出部550、第1の対応領域算出部552、注視点特定部554、射影方式変換部556、第2の対応領域算出部558、対応領域補正部559、領域分割部560、射影方式逆変換部562、形状変換部564、補正パラメータ作成部566、及び重畳表示メタデータ作成部570を有している。なお、明るさや色の補正をする必要がない場合、形状変換部564及び補正パラメータ作成部566は不要である。また、以下に説明する画像や領域を示す符号は図21に示されている。図21は、重畳表示パラメータの作成処理の過程における画像の概念図である。
{Each functional configuration of the metadata creation unit}
First, each functional configuration of the metadata creation unit 55a will be described. The metadata creation unit 55a includes an extraction unit 550, a first corresponding region calculation unit 552, a gaze point specification unit 554, a projection method conversion unit 556, a second corresponding region calculation unit 558, a corresponding region correction unit 559, and a region division unit. 560, a projection method inverse conversion unit 562, a shape conversion unit 564, a correction parameter creation unit 566, and a superimposed display metadata creation unit 570. Note that the shape conversion unit 564 and the correction parameter creation unit 566 are not necessary when it is not necessary to correct brightness and color. Also, reference numerals indicating images and regions described below are shown in FIG. FIG. 21 is a conceptual diagram of an image in the process of creating a superimposed display parameter.

抽出部550は、各画像の局所特徴に基づき特徴点を抽出する。局所特徴とはエッジやブロブなど画像内に見られるパターンや構造で、局所特徴を数値化したものが特徴量である。本実施形態では、抽出部550は、異なる画像で各特徴点を抽出する。抽出部550が用いられる2つの画像は、歪みが著しく大きくない限り、本実施形態のように異なる射影方式であってもよい。例えば、抽出部550は、正距円筒射影方式によって得られた長方形の正距円筒射影画像ECと、透視射影方式によって得られた長方形の平面画像Pとの間、及び、平面画像Pと、射影方式変換部556によって変換された後の周辺領域画像PIとの間で用いられる。なお、正距円筒射影方式は第1の射影方式の一例であり、透視射影方式は第2の射影方式の一例である。また、正距円筒射影画像は第1の射影画像の一例であり、平面画像Pは第2の射影画像の一例である。   The extraction unit 550 extracts feature points based on local features of each image. A local feature is a pattern or structure that can be seen in an image, such as an edge or a blob, and is a feature value obtained by quantifying a local feature. In the present embodiment, the extraction unit 550 extracts each feature point from different images. The two images used by the extraction unit 550 may have different projection methods as in this embodiment as long as the distortion is not significantly large. For example, the extraction unit 550 includes a rectangular equirectangular projection image EC obtained by the equirectangular projection method, a rectangular planar image P obtained by the perspective projection method, and the planar image P. It is used between the peripheral region image PI after being converted by the method conversion unit 556. The equirectangular projection method is an example of the first projection method, and the perspective projection method is an example of the second projection method. The equirectangular projection image is an example of a first projection image, and the planar image P is an example of a second projection image.

第1の対応領域算出部552は、最初に正距円筒射影画像ECにおける複数の特徴点fp1に基づいた各特徴量fv1を求めるとともに、平面画像Pにおける複数の特徴点fp2に基づいた各特徴量fv2を求める。特徴量の記述方法はいくつかの方式が提案されているが、本実施形態においては、スケールや回転に対して不変又は頑強であることが望ましい。第1の対応領域算出部552は、続いて算出した正距円筒射影画像ECの複数の特徴点fp1の特徴量fv1と、平面画像Pにおける複数の特徴点fp2に対する特徴量fv2の類似度に基づき画像間の対応点を算出し、算出した画像間の対応点の関係から、正距円筒射影画像ECにおいて、平面画像Pに対応するホモグラフィを算出し、このホモグラフィを変換に用いることで、第1のホモグラフィ変換を行なう。ここで、対応点は、それぞれの画像から類似度に基づき選択された複数の特徴点である。その結果、第1の対応領域算出部552は、第1の対応領域CA1を算出する。この場合、平面画像Pの4頂点から成る四角形(矩形)の中心点CP1は、第1のホモグラフィ変換によって、正距円筒射影画像ECにおける注視点GP1に変換される。   The first corresponding region calculation unit 552 first obtains each feature amount fv1 based on the plurality of feature points fp1 in the equirectangular projection image EC, and each feature amount based on the plurality of feature points fp2 in the planar image P. Find fv2. Several methods have been proposed as a description method of the feature amount. In the present embodiment, it is desirable that the feature amount is invariable or robust to scale and rotation. The first corresponding area calculation unit 552 is based on the similarity between the feature quantity fv1 of the plurality of feature points fp1 of the equirectangular projection image EC and the feature quantity fv2 of the plurality of feature points fp2 in the planar image P. By calculating the corresponding points between the images, and calculating the homography corresponding to the planar image P in the equirectangular projection image EC from the calculated relationship between the corresponding points, and using this homography for conversion, A first homography transformation is performed. Here, the corresponding points are a plurality of feature points selected based on the similarity from each image. As a result, the first corresponding area calculation unit 552 calculates the first corresponding area CA1. In this case, a quadrangle (rectangular) center point CP1 composed of the four vertices of the planar image P is converted into a gazing point GP1 in the equirectangular projection image EC by the first homography conversion.

なお、平面画像Pの4頂点の頂点座標を、p1=(x1,y1)、p2=(x2,y2)、p3=(x3,y3)、p4=(x4,y4)とすると、第1の対応領域算出部552は、以下に示す(式2)に基づいて、中心点CP1(x,y)を定めることができる。   If the vertex coordinates of the four vertices of the planar image P are p1 = (x1, y1), p2 = (x2, y2), p3 = (x3, y3), and p4 = (x4, y4), the first The corresponding region calculation unit 552 can determine the center point CP1 (x, y) based on (Expression 2) shown below.

図21では平面画像Pの画像形状が長方形であるが、対角線の交点を用いることによって正方形、台形、菱形等、さまざまな四角形の部分画像に対しても中心座標を算出することができる。平面画像Pの画像形状が、長方形、正方形に限定される場合は、計算の省略化のため、対角線の中点を部分画像の中心座標PCとしてよい。対角線P1P3の中点の算出する場合の(式3)を以下に示す。   In FIG. 21, the image shape of the planar image P is a rectangle, but the center coordinates can be calculated even for partial images of various rectangles such as a square, a trapezoid, and a rhombus by using the intersection of diagonal lines. When the image shape of the planar image P is limited to a rectangle or a square, the midpoint of the diagonal line may be used as the center coordinate PC of the partial image in order to omit the calculation. (Equation 3) in the case of calculating the midpoint of the diagonal line P1P3 is shown below.

注視点特定部554は、平面画像Pの中心点CP1が第1のホモグラフィ変換後に位置する正距円筒射影画像EC上の点(本実施形態では「注視点」という)を特定する。   The gazing point specifying unit 554 specifies a point (referred to as “gazing point” in the present embodiment) on the equirectangular projection image EC where the center point CP1 of the planar image P is located after the first homography transformation.

ところで、注視点GP1の座標は、正距円筒射影画像EC上の座標であるため、緯度及び経度の表現に変換すると都合が良い。具体的には、正距円筒射影画像ECの垂直方向を−90度(−0.5π)から+90度(+0.5π)の緯度座標として表現し、水平方向を−180度(−π)から+180度(+π)の経度座標として表現する。このようにすることで、緯度・経度座標から、正距円筒射影画像ECの画像サイズに対応した画素位置座標を算出することができる。   By the way, since the coordinates of the gazing point GP1 are coordinates on the equirectangular projection image EC, it is convenient to convert them into expressions of latitude and longitude. Specifically, the vertical direction of the equirectangular projection image EC is expressed as latitude coordinates from −90 degrees (−0.5π) to +90 degrees (+ 0.5π), and the horizontal direction from −180 degrees (−π). Expressed as longitude coordinates of +180 degrees (+ π). In this way, pixel position coordinates corresponding to the image size of the equirectangular projection image EC can be calculated from the latitude / longitude coordinates.

射影方式変換部556は、正距円筒射影画像EC内の注視点GP1を中心とした周辺領域PAを、平面画像Pと同じ透視射影方式に変換することで、周辺領域画像PIを作成する。この場合、注視点GP1が変換された後の点を中心点CP2として、平面画像Pの対角画角αと同じ画角を垂直画角(又は水平画角)とした場合に特定することができる正方形の周辺領域画像PIを結果的に作成することができるように、射影変換元の周辺領域PAを特定する。以下、更に詳細に説明する。   The projection method conversion unit 556 generates the peripheral region image PI by converting the peripheral region PA around the gazing point GP1 in the equirectangular projection image EC into the same perspective projection method as that of the planar image P. In this case, it is possible to specify when the point of view after conversion of the gazing point GP1 is the center point CP2 and the same angle of view as the diagonal angle of view α of the planar image P is the vertical angle of view (or horizontal angle of view). The peripheral area PA of the projective transformation source is specified so that a possible square peripheral area image PI can be created as a result. This will be described in more detail below.

(射影方式の変換)
まず、射影方式の変換について説明する。図3乃至図5を用いて説明したように、正距円筒射影画像ECによって立体球CSを被うことで、全天球画像CEを作成している。よって、正距円筒射影画像ECの各画素データは、3次元の全天球画像の立体球CSの表面における各画素データに対応させることができる。そこで、射影方式変換部556による変換式は、正距円筒射影画像ECにおける座標を(緯度,経度)=(ea,aa)と表現し、3次元の立体球CS上の座標を直行座標(x,y,z)で表わすと、以下の(式4)で表わすことができる。
(x, y, z) = (cos(ea) × cos(aa), cos(ea) × sin(aa), sin(ea)) ・・・(式4)

但し、このときの立体球CSの半径は1とする。
(Projection method conversion)
First, the conversion of the projection method will be described. As described with reference to FIGS. 3 to 5, the omnidirectional image CE is created by covering the solid sphere CS with the equirectangular projection image EC. Therefore, each pixel data of the equirectangular projection image EC can correspond to each pixel data on the surface of the solid sphere CS of the three-dimensional omnidirectional image. Therefore, the conversion formula by the projection method conversion unit 556 expresses the coordinates in the equirectangular projection image EC as (latitude, longitude) = (ea, aa), and the coordinates on the three-dimensional solid sphere CS are orthogonal coordinates (x , Y, z), it can be expressed by the following (formula 4).
(x, y, z) = (cos (ea) × cos (aa), cos (ea) × sin (aa), sin (ea)) (Equation 4)

However, the radius of the solid sphere CS at this time is 1.

一方で、透過射影画像である平面画像Pは2次元画像であるが、これを2次元の極座標(動径,偏角)=(r,a)で表現すると、動径rは対角画角αに対応し、取り得る範囲は0 ≦ r ≦ tan(対角画角/2)となる。また、平面画像Pを2次元の直交座標系(u,v)で表わすと、極座標(動径,偏角)=(r,a)との変換関係は、以下の(式5)で表わすことができる。
u = r × cos(a), v = r × sin(a) ・・・(式5)
次に、この(式5)を3次元の座標(動径,極角,方位角)に対応させることを考える。今、立体球CSの表面のみを考えているため、3次元極座標における動径は「1」である。また、立体球CSの表面に張り付けた正距円筒射影画像ECを透視射影変換する射影は、立体球CSの中心に仮想カメラICがあると考えると、上述の2次元極座標(動径,偏角)=(r,a)を使うと、以下の(式6)、(式7)で表わすことができる。
r = tan(極角) ・・・(式6)
a = 方位角 ・・・(式7)
ここで極角をtすると、t = arctan(r)となるため、3次元極座標(動径、極角、方位角)は、(動径、極角、方位角)=(1, arctan(r), a)と表現することができる。
On the other hand, the planar image P, which is a transmission projection image, is a two-dimensional image. When this is expressed by two-dimensional polar coordinates (radial radius, declination) = (r, a), the radial radius r is a diagonal field angle. Corresponding to α, the possible range is 0 ≦ r ≦ tan (diagonal angle of view / 2). Further, when the planar image P is represented by a two-dimensional orthogonal coordinate system (u, v), the conversion relationship with polar coordinates (radial radius, declination) = (r, a) is represented by the following (formula 5). Can do.
u = r × cos (a), v = r × sin (a) (Equation 5)
Next, let us consider that this (Formula 5) corresponds to three-dimensional coordinates (radial radius, polar angle, azimuth angle). Since only the surface of the solid sphere CS is considered now, the moving radius in the three-dimensional polar coordinate is “1”. Further, the projection for perspective projection transformation of the equirectangular projection image EC attached to the surface of the solid sphere CS is considered to be the above-described two-dimensional polar coordinate (radial radius, declination) when the virtual camera IC is located at the center of the solid sphere CS. ) = (R, a) can be expressed by the following (Expression 6) and (Expression 7).
r = tan (polar angle) (Formula 6)
a = Azimuth angle (Formula 7)
If the polar angle is t, then t = arctan (r), so the three-dimensional polar coordinates (radial radius, polar angle, azimuth) are (radial radius, polar angle, azimuth) = (1, arctan (r ), a).

また3次元極座標から、直行座標系(x,y,z)へ変換するための変換式は、以下の(式8)で表わすことができる。
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) ・・・(式8)
上記の(式8)により、正距円筒射影方式による正距円筒射影画像ECと、透視射影方式による平面画像Pの相互変換ができるようになった。即ち、作成すべき平面画像Pの対角画角αに対応する動径rを用いることで、平面画像Pの各画素が、正距円筒射影画像ECのどの座標に対応するかを表す変換マップ座標を算出でき、この変換マップ座標に基づいて、正距円筒射影画像ECから、透視射影画像である周辺領域画像PIを作成することができる。
A conversion formula for converting from the three-dimensional polar coordinate to the orthogonal coordinate system (x, y, z) can be expressed by the following (Formula 8).
(x, y, z) = (sin (t) x cos (a), sin (t) x sin (a), cos (t)) (Equation 8)
According to the above (Equation 8), the equirectangular projection image EC by the equirectangular projection method and the planar image P by the perspective projection method can be mutually converted. That is, by using the radius r corresponding to the diagonal angle of view α of the planar image P to be created, the conversion map indicating which coordinate of the equirectangular projection image EC corresponds to each pixel of the planar image P. The coordinates can be calculated, and the peripheral area image PI, which is a perspective projection image, can be created from the equirectangular projection image EC based on the conversion map coordinates.

ところで、上記射影方式の変換は、正距円筒射影画像ECの(緯度,経度)が(90°,0°)となる位置が、透視射影画像である周辺領域画像PIの中心点CP2となるような変換を示している。そこで、正距円筒射影画像ECの任意の点を注視点として透視射影変換をする場合は、正距円筒射影画像ECを貼り付けた立体球CSを回転させることで、注視点の座標(緯度、経度)が(90°,0°)の位置に配置されるような座標回転を行えば良い。   By the way, in the projection method conversion, the position where the (latitude, longitude) of the equirectangular projection image EC is (90 °, 0 °) becomes the center point CP2 of the peripheral region image PI which is a perspective projection image. Shows the conversion. Therefore, when performing perspective projection conversion using an arbitrary point of the equirectangular projection image EC as a gazing point, the coordinates of the gazing point (latitude, latitude, Coordinate rotation may be performed such that (longitude) is arranged at a position of (90 °, 0 °).

この立体球CSの回転に関する変換公式は、一般の座標回転公式であるため、説明を省略する。   Since the conversion formula relating to the rotation of the solid sphere CS is a general coordinate rotation formula, description thereof is omitted.

(周辺領域画像の特定)
次に、図22を用いて、周辺領域画像PIの領域を特定する方法について説明する。なお、図22は、周辺領域画像を特定する際の概念図である。
(Identification of surrounding area image)
Next, a method for specifying the region of the peripheral region image PI will be described with reference to FIG. FIG. 22 is a conceptual diagram when specifying a peripheral area image.

対応領域算出部552が、平面画像Pと周辺領域画像PIの対応関係を判断するにあたって、周辺領域画像PI内に第2の対応領域CA02ができるだけ広く含まれていることが望ましい。よって、周辺領域画像PIを広い領域に設定すれば、第2の対応領域CA02を含まないという事態は生じない。しかし、周辺領域画像PIを、あまりにも広い領域に設定すると、その分だけ類似度を算出する対象の画素が増えるため、処理に時間が掛かってしまう。そのため、極力、周辺領域画像PIの領域は第2の対応領域CA02を含む範囲内で小さい方が良い。そこで、本実施形態では、以下に示すような方法で、周辺領域画像PIを特定する。   When the corresponding area calculation unit 552 determines the correspondence between the planar image P and the peripheral area image PI, it is desirable that the second corresponding area CA02 is included as widely as possible in the peripheral area image PI. Therefore, if the peripheral area image PI is set to a wide area, a situation in which the second corresponding area CA02 is not included does not occur. However, if the peripheral area image PI is set to an excessively large area, the number of pixels for which the similarity is calculated increases, and thus processing takes time. Therefore, it is preferable that the area of the peripheral area image PI is as small as possible within the range including the second corresponding area CA02. Therefore, in the present embodiment, the peripheral area image PI is specified by the following method.

本実施形態では、周辺領域画像PIの特定に、平面画像の35mm換算焦点距離を使用するが、これは撮影時に記録されるExifデータから取得される。35mm換算焦点距離は、いわゆる24mm x 36mmのフィルムサイズを基準とした焦点距離であるため、このフィルムの対角と、焦点距離から以下の算出式(式9)、(式10)で対応する対角画角を算出することができる。
フィルム対角 = sqrt(24*24 + 36*36) ・・・(式9)
合成用画像画角/2 = arctan((フィルム対角/2)/合成用画像35mm換算焦点距離)・・(式10)
ところで、この画角をカバーする画像は円形となるのだが、実際の撮像素子(フィルム)は長方形なので円に内接する長方形画像となっている。本実施形態では、周辺領域画像PIの垂直画角αを、平面画像Pの対角画角αと同じになるように設定する。これにより、図22(b)に示されている周辺領域画像PIは、図22(a)に示されている平面画像Pの対角画角αをカバーする円に外接する正方形となり、垂直画角αは、下記(式11)、(式12)で示されているように、正方形の対角と平面画像Pの焦点距離から算出できる。
正方形対角=sqrt(フィルム対角*フィルム対角+フィルム対角*フィルム対角)・・・(式11)
垂直画角α/2 = arctan((正方形対角/2) / 平面画像の35mm換算焦点距離))・・・(式12)
このような垂直画角αで射影変換することで、注視点を中心に平面画像Pの対角画角αにおける画像をできるだけ広くカバーでき、かつ垂直画角αが大きくなりすぎない周辺領域画像PI(透視射影画像)を作成することができる。
In the present embodiment, the 35 mm equivalent focal length of the planar image is used for specifying the peripheral area image PI, which is obtained from Exif data recorded at the time of shooting. Since the 35 mm equivalent focal length is a focal length based on a so-called 24 mm × 36 mm film size, the following calculation formulas (Equation 9) and (Equation 10) correspond to the diagonal of the film and the focal length. The angle of view can be calculated.
Film diagonal = sqrt (24 * 24 + 36 * 36) (Equation 9)
Composite image angle of view / 2 = arctan ((film diagonal / 2) / 35mm equivalent focal length of composite image) ... (Equation 10)
By the way, the image covering this angle of view is circular, but since the actual image sensor (film) is rectangular, it is a rectangular image inscribed in the circle. In the present embodiment, the vertical field angle α of the peripheral area image PI is set to be the same as the diagonal field angle α of the planar image P. As a result, the peripheral area image PI shown in FIG. 22B becomes a square circumscribing a circle covering the diagonal angle of view α of the planar image P shown in FIG. The angle α can be calculated from the diagonal of the square and the focal length of the planar image P as shown in the following (Expression 11) and (Expression 12).
Square diagonal = sqrt (film diagonal * film diagonal + film diagonal * film diagonal) ... (Formula 11)
Vertical angle of view α / 2 = arctan ((square square / 2) / 35mm equivalent focal length of planar image)) ... (Formula 12)
By performing projective transformation at such a vertical angle of view α, the peripheral region image PI that can cover the image at the diagonal angle of view α of the planar image P as wide as possible with the gazing point as the center, and the vertical angle of view α is not too large. (Perspective projection image) can be created.

(位置情報の算出)
続いて、図16に戻り、第2の対応領域算出部558は、平面画像Pにおける複数の特徴点fp2の特徴量fv2と周辺領域画像PIにおける複数の特徴点fp3の特徴量fv3を算出する。算出された各特徴量fv2,fv3の類似度に基づき画像間の対応点を算出し、算出した画像間の対応点の関係から、周辺領域画像PIにおいて、平面画像Pに対応するホモグラフィを算出し、このホモグラフィを変換に用いることで、第2のホモグラフィ変換を行なう。その結果、第2の対応領域算出部558は、第2の対応領域CA02を算出する。
(Calculation of location information)
Subsequently, returning to FIG. 16, the second corresponding region calculation unit 558 calculates the feature amounts fv2 of the plurality of feature points fp2 in the planar image P and the feature amounts fv3 of the plurality of feature points fp3 in the peripheral region image PI. Corresponding points between images are calculated based on the calculated similarities of the feature quantities fv2 and fv3, and a homography corresponding to the planar image P is calculated in the peripheral region image PI from the calculated relationship between the corresponding points between the images. The second homography conversion is performed by using this homography for the conversion. As a result, the second corresponding area calculation unit 558 calculates the second corresponding area CA02.

なお、第1のホモグラフィ変換の前に、第1のホモグラフィの算出時間を早めるために、平面画像P及び正距円筒射影画像ECのうちの少なくとも一方の画像サイズをリサイズしてもよい。例えは、平面画像Pが4000万画素で、正距円筒射影画像ECが3000万画素の場合、平面画像Pを3000万画素にリサイズしたり、両画像を1000万画素になるようにそれぞれの画像をリサイズしたりする。同様に、第2のホモグラフィ算出の前に、平面画像P及び周辺領域画像PIの少なくとも一方の画像サイズをリサイズしてもよい。   Note that, before the first homography conversion, the image size of at least one of the planar image P and the equirectangular projection image EC may be resized in order to advance the calculation time of the first homography. For example, when the planar image P is 40 million pixels and the equirectangular projection image EC is 30 million pixels, the planar image P is resized to 30 million pixels, or both images are adjusted to 10 million pixels. Or resize it. Similarly, the image size of at least one of the planar image P and the peripheral region image PI may be resized before the second homography calculation.

また、本実施形態でのホモグラフィは、正距円筒射影画像ECと平面画像Pとの射影関係を表す変換行列であり、平面画像Pにおける座標に、ホモグラフィ算出処理で算出したホモグラフィ変換行列を乗算することで、正距円筒射影画像EC(全天球画像CE)上での対応座標を算出することができる。   In addition, the homography in the present embodiment is a transformation matrix that represents the projection relationship between the equirectangular projection image EC and the plane image P. The homography transformation matrix calculated by the homography calculation process is applied to the coordinates in the plane image P. Can be used to calculate corresponding coordinates on the equirectangular projection image EC (the omnidirectional image CE).

対応領域補正部559は、第2の対応領域CA02を補正して、正距円筒射影画像EC内の平面画像Pに対応する領域に近づけた第2の対応領域CA2を作成する。ここで、図17、及び図23乃至図31を用いて、対応領域補正部559を詳細に説明する。図17は、対応領域補正部の詳細図である。   The corresponding area correction unit 559 corrects the second corresponding area CA02 to create a second corresponding area CA2 that is close to the area corresponding to the planar image P in the equirectangular projection image EC. Here, the corresponding area correction unit 559 will be described in detail with reference to FIGS. 17 and 23 to 31. FIG. 17 is a detailed diagram of the corresponding area correction unit.

対応領域補正部559は、ブロック分割部21、マッチング部22、動きベクトル算出部23、動きベクトル補正部24、及び代表点補正部25を有している。対応領域補正部559は、第2の対応領域算出部558で算出された第2の対応領域CA02のデータを入力し、第2の対応領域CA02を補正する。補正された対応領域算出結果は、領域分割部560へ出力される。   The corresponding area correction unit 559 includes a block division unit 21, a matching unit 22, a motion vector calculation unit 23, a motion vector correction unit 24, and a representative point correction unit 25. The corresponding area correction unit 559 receives the data of the second corresponding area CA02 calculated by the second corresponding area calculation unit 558, and corrects the second corresponding area CA02. The corrected corresponding area calculation result is output to the area dividing unit 560.

図23は、対応領域補正部の処理を示した概念図である。ブロック分割部21は、平面画像Pを複数のブロックに分割する。ここでは、9個に分割しているが、いくつに分割してもよい。ここで、ブロック数は、画像のサイズや画像の特性にもよるが、2個以上であれば良い。また、例えば4個から16個であれば、適切に探索でき、ブロックマッチングし易い場合がある。   FIG. 23 is a conceptual diagram showing processing of the corresponding area correction unit. The block dividing unit 21 divides the planar image P into a plurality of blocks. Here, although it is divided into nine, it may be divided into any number. Here, the number of blocks may be two or more, although it depends on the size of the image and the characteristics of the image. For example, if the number is 4 to 16, it may be possible to search appropriately and block matching may be easy.

マッチング22は、分割された各ブロックをテンプレートとして周辺領域画像PIとの対応領域をそれぞれ算出する。つまり、ブロック毎に周辺領域画像PIとの対応領域を見出す。その際、各ブロックの探索領域を周辺領域画像PIの全体ではなく、周辺領域画像PIの一部の領域に制限してもよい。たとえば、第2の対応領域算出部558が検出した結果を、ブロックマッチングする際に、平面画像Pのブロック数と同数のブロックに平面画像PIを分割し、それぞれ対応するブロックの周辺画素に限定してブロックマッチングを行うようにしてもよい。ここで、周辺画像領域PIのブロック数は、平面画像Pのブロック数と同数か、以下で設定することが望まれる。これにより、ブロックマッチングの結果が大きくずれることを防ぐことができると同時に、計算時間を削減することができる。また、周辺画素の範囲を指定することで、マッチングの精度、計算時間等のバランスを取ることができる。図23に示されているように、周辺領域画像PIにおける第2の対応領域CA02の位置は、マッチング部22で算出された実際の各ブロックの位置が異なっているため、補正が必要である。   The matching 22 calculates a corresponding area with the peripheral area image PI using each of the divided blocks as a template. That is, a corresponding area with the peripheral area image PI is found for each block. At this time, the search area of each block may be limited to a part of the peripheral area image PI, not the entire peripheral area image PI. For example, when block matching is performed on the result detected by the second corresponding area calculation unit 558, the plane image PI is divided into the same number of blocks as the number of blocks of the plane image P, and each pixel is limited to the surrounding pixels of the corresponding block. Block matching may be performed. Here, it is desirable that the number of blocks in the peripheral image region PI is the same as the number of blocks in the planar image P or set as follows. As a result, it is possible to prevent the block matching result from deviating greatly, and at the same time to reduce the calculation time. In addition, by specifying the range of peripheral pixels, it is possible to balance matching accuracy, calculation time, and the like. As shown in FIG. 23, the position of the second corresponding area CA02 in the peripheral area image PI needs to be corrected because the actual position of each block calculated by the matching unit 22 is different.

また、動きベクトル算出部23は、各ブロックの位置を補正するための動きベクトルを算出する。図24は、動きベクトルの概念について説明する図である。図24に示されているように、まず、あらかじめ動きベクトルを求めるための複数の代表点RP01〜RP04を設定する。本実施形態における代表点については後述する。   Further, the motion vector calculation unit 23 calculates a motion vector for correcting the position of each block. FIG. 24 is a diagram for explaining the concept of motion vectors. As shown in FIG. 24, first, a plurality of representative points RP01 to RP04 for obtaining a motion vector are set in advance. The representative points in this embodiment will be described later.

動きベクトルにより、基準となる各代表点の初期位置と、ブロックマッチングによる移動後の代表点の位置を比較し、そのベクトルを算出することで求めることができる。本実施形態においては、ブロックマッチング後による移動後の代表点の位置と、第2の対応領域CA02の代表点RP01〜RP04の位置(初期位置)を比較する。図24は簡易に示しているが、各ブロックの動きベクトルがそれぞれ異なっている場合を示している。また、各ブロックが同一の動きベクトルであっても良い。さらに、初期位置の代表点として、4点を選択しているが、後述するように、4点以上を選択しても良い。   The motion vector can be obtained by comparing the initial position of each representative point serving as a reference with the position of the representative point after movement by block matching, and calculating the vector. In the present embodiment, the position of the representative point after movement after block matching is compared with the positions (initial positions) of the representative points RP01 to RP04 in the second corresponding area CA02. FIG. 24 shows the case where the motion vectors of the respective blocks are different from each other. Further, each block may be the same motion vector. Furthermore, although four points are selected as representative points of the initial position, four or more points may be selected as will be described later.

第2の対応領域CA02の各代表点RP01〜PR04から図24に示されている各ブロックの四隅の点までが、各動きベクトルMV01〜MV04を示す。但し、各ブロックは、必ずしも正確にマッチングされている訳ではない。図24において、空のように物体との境がないような場合にはマッチングが正確に行われていない可能性が高い。そのため、各代表点RP01を動きベクトルMV01〜MV04に従って移動させる訳にはいかない。   The respective motion vectors MV01 to MV04 are shown from the representative points RP01 to PR04 of the second corresponding area CA02 to the four corner points of each block shown in FIG. However, each block is not necessarily matched accurately. In FIG. 24, when there is no boundary with an object such as the sky, there is a high possibility that matching is not accurately performed. Therefore, the representative points RP01 cannot be moved according to the motion vectors MV01 to MV04.

そこで、動きベクトル補正部24が、動きベクトルの補正を行う。図25は、類似度および輝度の分散値に基づく補正処理を示し、(a)は類似に基づく有効度X、(b)は輝度の分散に基づく有効度Yについて説明する図である。   Therefore, the motion vector correction unit 24 corrects the motion vector. FIG. 25 illustrates correction processing based on similarity and luminance variance values, where (a) illustrates the effectiveness X based on similarity, and (b) illustrates the effectiveness Y based on luminance variance.

この類似度は、例えば平面画像Pにおける各ブロックを周辺画像PIとの間でテンプレートマッチングする際、指標として利用されるSSD、ZNCC等の指標を指し、0から1までの値をとる実数で表される。例えば、SSDは、2つの画像間の画素値の差の二乗和を指標として利用しており、値が小さいほど類似していることを表す。また、ZNCCは、2つの画像からそれぞれ画素値の平均を引いた後、正規化相互相関をとったものを類似度として利用する指標である。なお、SSD、ZNCC以外の指標を利用するようにしてもよい。また、0から1までの実数値を取る相違度をマッチングの指標として利用する場合、1から相違度を減算した値を類似度として利用してよい。   This similarity indicates, for example, an index such as SSD or ZNCC used as an index when each block in the planar image P is template-matched with the peripheral image PI, and is represented by a real number that takes a value from 0 to 1. Is done. For example, SSD uses the sum of squares of the difference between pixel values between two images as an index, and indicates that the smaller the value, the more similar. ZNCC is an index that uses a normalized cross-correlation obtained after subtracting the average of pixel values from two images. An index other than SSD or ZNCC may be used. In addition, when using the degree of difference taking a real value from 0 to 1 as a matching index, a value obtained by subtracting the degree of difference from 1 may be used as the degree of similarity.

また、輝度の分散値とは、以下の式20で表される値Vである。   Further, the luminance dispersion value is a value V expressed by the following Expression 20.

nはブロックの画素数、最初のxは各画素の輝度値、次のxは各画素の輝度値の平均値である。 n is the number of pixels in the block, the first x is the luminance value of each pixel, and the next x is the average value of the luminance values of each pixel.

ここで、類似度に基づく有効度Xについて説明する。類似度の低いブロックはマッチングの結果が信頼できない可能性が高い。そのため、類似度の低いブロックのマッチング結果を適用してしまうと、誤ったマッチング結果に基づいて位置が補正される恐れがある。そこで、類似度の低いブロックについては、補正処理にその結果を利用しないように有効度Xを0にする。類似度が中程度のブロックについては、悪影響を最小限にしつつ、補正を行う。類似度が十分大きい場合は、有効度Xを1にする。   Here, the effectiveness X based on the similarity will be described. A block with low similarity is likely to have unreliable matching results. Therefore, if a matching result of a block with low similarity is applied, the position may be corrected based on an incorrect matching result. Therefore, for the block having a low similarity, the effectiveness X is set to 0 so that the result is not used for the correction process. For blocks with a medium similarity, correction is performed while minimizing adverse effects. When the similarity is sufficiently large, the effectiveness X is set to 1.

次に、輝度の分散値に基づく有効度Yについて説明する。輝度の分散値が小さいブロックは、特徴点が少ない画像である場合が多く、たとえ類似度が高かったとしても、マッチングの結果が信頼できない可能性が高い。そのため、輝度の分散値が低いブロックのマッチング結果を適用してしまうと、類似度が低い場合と同様に、誤ったマッチング結果に基づいて位置が補正される恐れがある。そこで、輝度の分散が小さいブロックについては、補正処理にその結果を利用しないように有効度Yを0とする。輝度の分散が中程度のブロックについては、悪影響を最小限にしつつ、補正を行う。輝度の分散値が十分大きい場合は、有効度Yを1にする。なお、類似度における基準値LX(例えば0.4)、HX(例えば0.7)、輝度の分散における基準値LY、HYは自由に指定してよいものとする。最終的な補正有効度は、以下の(式21)によって算出する。ここで、有効度Xと有効度Yの類似度の「低、中、高」のパラメータ設定の範囲は、例えば、低が0以上0.3未満、中が0.3以上0.7未満、高が0.7以上1.0までとすることができる。この類似度の程度は2段階でも、3段階以上でも良く、パラメータの範囲も任意に設定することができる。   Next, the effectiveness Y based on the luminance dispersion value will be described. A block with a small luminance variance value is often an image with few feature points, and even if the degree of similarity is high, there is a high possibility that the matching result is not reliable. Therefore, if a matching result of a block having a low luminance variance value is applied, the position may be corrected based on an incorrect matching result as in the case where the similarity is low. Therefore, for a block having a small luminance variance, the effectiveness Y is set to 0 so that the result is not used in the correction process. For a block with a moderate luminance dispersion, correction is performed while minimizing adverse effects. When the luminance variance is sufficiently large, the effectiveness Y is set to 1. It should be noted that the reference values LX (for example, 0.4) and HX (for example, 0.7) for similarity and the reference values LY and HY for luminance dispersion may be freely specified. The final correction effectiveness is calculated by the following (formula 21). Here, the range of the parameter setting of “low, medium, high” of the similarity between the effectiveness X and the effectiveness Y is, for example, low is 0 or more and less than 0.3, medium is 0.3 or more and less than 0.7, The height can be 0.7 or more and 1.0. The degree of similarity may be two or three or more, and the parameter range can be arbitrarily set.

動きベクトル補正部24において、上記算出された補正有効度を動きベクトルに乗算することで動きベクトルの値を補正するものとし、補正された動きベクトルを最終的な動きベクトルとする。類似度が高い場合のみ補正有効度を大きくすることで、マッチング結果が正しい場合は対応領域を大きく補正し、マッチング結果が誤っていた場合はその補正を最小限にする。これにより、動くベクトルが補正される。   In the motion vector correction unit 24, the motion vector value is corrected by multiplying the motion vector by the calculated correction effectiveness, and the corrected motion vector is used as a final motion vector. By increasing the correction effectiveness only when the similarity is high, the corresponding region is corrected to be large when the matching result is correct, and the correction is minimized when the matching result is incorrect. Thereby, the moving vector is corrected.

代表点補正部25は、変更後の動きベクトルに従って代表点を補正する。図26は、補正後の動きベクトルにより代表点を補正する処理の概念について説明する図である。左上と左上のブロックについては、類似度は大きいが輝度の分散値が小さいことから、特徴点が少ない画像と判断され、マッチング結果の信頼性が低い。すなわち、有効度Y=0により、補正有効度=0となり、補正は行われない。したがって、動きベクトルは0に近い値となり、第2の対応領域算出部559における位置をほぼそのまま利用するものとする。   The representative point correction unit 25 corrects the representative point according to the changed motion vector. FIG. 26 is a diagram for explaining the concept of processing for correcting a representative point using a corrected motion vector. For the upper left and upper left blocks, since the similarity is large but the variance value of luminance is small, it is determined that the image has few feature points, and the reliability of the matching result is low. That is, when the effectiveness Y = 0, the correction effectiveness = 0, and no correction is performed. Therefore, the motion vector has a value close to 0, and the position in the second corresponding area calculation unit 559 is used almost as it is.

一方、右下のブロックの代表点については、類似度が大きく、輝度の分散値も大きいため、分割ブロックにおけるマッチング結果は信頼できると判断する。すなわち、有効度X=1、有効度Y=1により、補正有効度=1となる。したがって、分割ブロックの検出位置による補正処理を行っている。また、左下ブロックの代表点については、類似度が十分大きく、輝度の分散値が中程度のため、補正有効度=Yとなる。したがって、分割ブロックによる補正がYの大きさの分だけ行われることになる。   On the other hand, for the representative point of the lower right block, since the similarity is large and the variance value of the luminance is large, it is determined that the matching result in the divided block is reliable. That is, the effectiveness X = 1, the effectiveness Y = 1, and the correction effectiveness = 1. Therefore, correction processing is performed based on the detection position of the divided block. The representative point of the lower left block has a sufficiently high similarity and a medium luminance dispersion value, so that the correction effectiveness = Y. Therefore, the correction by the divided block is performed for the size of Y.

なお、図26では、特に四隅のみのブロックを利用する場合におけるブロックの有効又は無効を切り替える例について示しているが、すべてのブロックを利用する場合に適用するようにしてもよい。   FIG. 26 shows an example of switching the validity or invalidity of a block when using only the four corner blocks. However, the present invention may be applied when all the blocks are used.

以上のような対応領域補正部559によって、最終的に代表点RP1〜RP4が求められる。   The representative points RP1 to RP4 are finally obtained by the corresponding region correction unit 559 as described above.

続いて、図28乃至図30を用いて、対応領域補正部559による他の処理方法を説明する。図27は、対応領域補正部の他の処理を示した概念図である。図23では、周辺領域画像PI内で4つのブロック関する4つの代表点RP01〜RP04について説明したが、図27では、ブロック分割された全てのブロック(ここでは、9つ)に関する16個の代表点RP011〜RP044について説明する。   Next, another processing method by the corresponding area correction unit 559 will be described with reference to FIGS. FIG. 27 is a conceptual diagram showing another process of the corresponding area correction unit. 23, four representative points RP01 to RP04 related to four blocks in the peripheral area image PI have been described, but in FIG. 27, 16 representative points related to all blocks (here, nine) divided into blocks. RP011 to RP044 will be described.

図28は、第2の対応領域CA02を平面画像Pと同じ数だけ分割した場合の全ての代表点を示した図である。図29及び図30は、図28に示されているような場合において、動きベクトルの補正に関する概念について説明する図である。図30は、動きベクトルの補正に関する概念について説明する図であり、(a)は非共有点における補正位置、(b)は2つのブロックにおける共有点の補正位置、(c)は4つのブロックにおける共有点の補正位置をそれぞれ示す概念図である。   FIG. 28 is a diagram showing all representative points when the second corresponding area CA02 is divided by the same number as the planar image P. FIG. FIG. 29 and FIG. 30 are diagrams for explaining the concept related to motion vector correction in the case shown in FIG. FIG. 30 is a diagram for explaining a concept related to motion vector correction, where (a) is a correction position at a non-shared point, (b) is a correction position of a shared point in two blocks, and (c) is in four blocks. It is a conceptual diagram which shows the correction position of a shared point, respectively.

図29及び図30(a)に示されているように、第2の対応領域CA02で分割された四隅のブロックの内の四隅の代表点の場合、代表点RP011から動きベクトルMV011で示される点BP11に対して、補正後の動きベクトルMV11が求められる。この場合、動きベクトルMV011と補正後の動きベクトルMV11は同じである。   As shown in FIGS. 29 and 30A, in the case of the representative points at the four corners of the four corner blocks divided by the second corresponding area CA02, the points indicated by the motion vector MV011 from the representative point RP011 A corrected motion vector MV11 is obtained for BP11. In this case, the motion vector MV011 and the corrected motion vector MV11 are the same.

また、図29及び図30(b)に示されているように、第2の対応領域CA02の4辺上の代表点(上記四隅の代表点を除く)の場合、例えば、代表点RP021から動きベクトルMV012,MV021で示される点BP12,BP21の重心点G1(BP21)に対して、補正後のベクトルMV21が求められる。   Further, as shown in FIGS. 29 and 30B, in the case of the representative points on the four sides of the second corresponding area CA02 (excluding the representative points at the four corners), for example, the movement from the representative point RP021 A corrected vector MV21 is obtained for the barycentric point G1 (BP21) of the points BP12 and BP21 indicated by the vectors MV012 and MV021.

更に、図29及び図30(b)に示されているように、第2の対応領域CA02の4辺上の代表点以外の代表点の場合、例えば、代表点RP02から動きベクトルMV014,MV023,MV051で示される点BP14,BP23,BP51の重心点G2(BP22)に対して、補正後のベクトルMV22が求められる。   Further, as shown in FIGS. 29 and 30B, in the case of representative points other than the representative points on the four sides of the second corresponding area CA02, for example, motion vectors MV014, MV023 from the representative point RP02. A corrected vector MV22 is obtained for the barycentric point G2 (BP22) of the points BP14, BP23, and BP51 indicated by MV051.

以上のように、対応領域補正部559が、第2の対応領域CA02を補正して、新たな第2の対応領域CA2を作成することで、最終的に後述の重畳の処理(ステップS23参照)により、後述の表示の処理(ステップS24)において、図31に示されているような表示が行われる。図31は、ブロックマッチングおよび補正の有効又は無効の判定を用いた場合の補正前および補正後の重畳合成位置を示した図である。   As described above, the corresponding area correction unit 559 corrects the second corresponding area CA02 to create a new second corresponding area CA2, thereby finally performing a superimposition process described later (see step S23). Thus, the display as shown in FIG. 31 is performed in the display process (step S24) described later. FIG. 31 is a diagram illustrating superposition and synthesis positions before and after correction when block matching and correction validity / invalidity determination are used.

図31(a)はブロックマッチングによる補正前の重畳合成位置L1および補正後重畳合成位置L2について示した図である。図31(a)の左側は青空であり、特徴点が極めて少ない。そのため、補正なしでのマッチング結果は青空領域の影響を受け、重畳合成位置L1として誤った領域が検出されてしまう。この場合、周辺領域画像PIの合成位置L1を動きベクトルを用いて平面画像Pと同一の形状に変換すると、図30(b)のように、注目対象(ここでは、電灯)が画面の真ん中に位置しないで、図31(d)に示されている平面画像Pと比較すると、大きく画像がゆがんでいる。ここで、図31(d)は、一般撮影装置3で撮影された平面画像Pそのものである。   FIG. 31A is a diagram illustrating the superimposition synthesis position L1 before correction by block matching and the post-correction superposition synthesis position L2. The left side of FIG. 31A is a blue sky, and there are very few feature points. For this reason, the matching result without correction is affected by the blue sky region, and an erroneous region is detected as the superimposed composition position L1. In this case, when the synthesis position L1 of the peripheral area image PI is converted into the same shape as the planar image P using the motion vector, the target object (in this case, the electric light) is in the middle of the screen as shown in FIG. The image is greatly distorted as compared with the planar image P shown in FIG. 31 (d) without being positioned. Here, FIG. 31D is a planar image P itself captured by the general imaging device 3.

一方、ブロックマッチングおよび補正を行った場合、周辺領域画像PIを動きベクトルを用いて平面画像Pと同一の形状に変換すると、図31(c)のように、注目対象が画面の真ん中に位置する。これは、図31(d)と比較してもほとんど違和感がなく、特徴点の少ない領域による影響をブロックマッチングによって補正できている。このように、ブロックマッチングおよび有効判定による補正は、視差の大きい画像同士のマッチング結果を改善するだけでなく、特徴点の少ない画像同士のマッチング結果を改善する場合がある。   On the other hand, when block matching and correction are performed, if the peripheral area image PI is converted into the same shape as the planar image P using a motion vector, the target object is located in the middle of the screen as shown in FIG. . This is almost uncomfortable as compared with FIG. 31 (d), and the influence of the region with few feature points can be corrected by block matching. As described above, correction by block matching and validity determination may not only improve the matching result between images with large parallax but also improve the matching result between images with few feature points.

続いて、図16に戻り、領域分割部560は、画像における一部の領域を複数の格子領域に分割する。ここで、図32を用いて、第2の対応領域を複数の格子領域に分割する方法を詳細に説明する。なお、図32は、第2の対応領域を複数の格子領域に分割する際の概念図である。   Subsequently, returning to FIG. 16, the region dividing unit 560 divides a partial region in the image into a plurality of lattice regions. Here, a method of dividing the second corresponding region into a plurality of lattice regions will be described in detail with reference to FIG. FIG. 32 is a conceptual diagram when the second corresponding region is divided into a plurality of lattice regions.

領域分割部560は、図32(a)に示されているように、対応領域算出部552が第2のホモグラフィ変換により算出した第2の対応領域CA2の頂点座標の4つの頂点から成る四角形を、図32(b)に示されているように、複数の格子領域LA2に分割する。例えば、水平方向に30、垂直方向に20ほど均等分割する。   As shown in FIG. 32A, the region dividing unit 560 is a quadrangle formed of four vertices of the vertex coordinates of the second corresponding region CA2 calculated by the corresponding region calculating unit 552 by the second homography transformation. Is divided into a plurality of lattice areas LA2, as shown in FIG. For example, the image is equally divided by 30 in the horizontal direction and 20 in the vertical direction.

次に、複数の格子領域LA2の具体的な分割方法について説明する。   Next, a specific method for dividing the plurality of lattice areas LA2 will be described.

まず、第2の対応領域CA2を均等に分割する算出式を示す。2点をA(X1,Y1)、B(X2,Y2)として、その2点間の線分を等間隔にn個に分割する場合、Aからm番目にあたる点Pmの座標は、以下に示す(式13)によって算出される。
Pm = ( X1 + (X2 − X1) ×m / n, Y1 + (Y2 − Y1) × m / n )・・・(式13)
上記の(式13)によって、線分を均等に分割した座標が算出できるため、四角形の上辺、下辺をそれぞれ分割した座標を求め、分割した座標から成る線分をさらに分割すればよい。四角形の左上、右上、右下、左下の各座標をそれぞれTL,TR,BR,BLとした場合、線分TL−TRおよび線分BR−BLを均等に30分割した座標を求める。次に、0から30番目まで分割された各座標において、同じ順番に対応する座標同士から成る線分に対し、均等に20分割した座標を求める。これにより、四角形領域を30×20個の小領域に分割するための座標を求めることができる。図32(b)では、座標一例として、TLの座標(LO00,00,LA00,00)を示している。
First, a calculation formula for equally dividing the second corresponding area CA2 is shown. When the two points are A (X1, Y1) and B (X2, Y2) and the line segment between the two points is divided into n pieces at equal intervals, the coordinates of the point Pm corresponding to the mth point from A are as follows: Calculated by (Equation 13).
Pm = (X1 + (X2−X1) × m / n, Y1 + (Y2−Y1) × m / n) (Equation 13)
Since the coordinates obtained by equally dividing the line segment can be calculated by the above (Formula 13), the coordinates obtained by dividing the upper side and the lower side of the quadrangle may be obtained, and the line segment composed of the divided coordinates may be further divided. When the coordinates of the upper left, upper right, lower right, and lower left corners of the quadrangle are TL, TR, BR, and BL, respectively, coordinates obtained by equally dividing the line segment TL-TR and the line segment BR-BL into 30 parts are obtained. Next, in each of the coordinates divided from the 0th to the 30th, coordinates obtained by equally dividing 20 into the line segments composed of the coordinates corresponding to the same order are obtained. Thereby, the coordinates for dividing the quadrangular area into 30 × 20 small areas can be obtained. FIG. 32B shows TL coordinates (LO 00,00 , LA 00,00 ) as an example of coordinates.

続いて、図16及び図21に戻り、射影方式逆変換部562は、第2の対応領域CA2の射影方式を、正距円筒射影画像ECと同じ正距円筒射影方式に逆変換することで、正距円筒射影画像ECにおいて、第2の対応領域CA2に対応する第3の対応領域CA3を算出する。具体的には、射影方式逆変換部562は、正距円筒射影画像ECにおいて、第2の対応領域CA2における複数の格子領域LA2に対応する各格子領域LA3から成る第3の対応領域CA3を算出する。第3の対応領域CAは、図21に示されているが、拡大図として、図33にも示されている。なお、図33は、正距円筒射影画像ECにおいて第3の対応領域を示す概念図である。これにより、平面画像Pは、最終的に第3の対応領域CA3に合わせるように(マッピングするように)、正距円筒射影画像ECによって作成された全天球画像CEに重畳表示される。この射影方式逆変換部562の処理により、各格子領域LA3の各格子点の座標を示す位置パラメータが作成される。位置パラメータは、図18及び図19(b)に示されている。なお、格子点は複数の点の一例である。   Subsequently, returning to FIG. 16 and FIG. 21, the projection method inverse conversion unit 562 reversely converts the projection method of the second corresponding area CA2 into the same equirectangular projection method as the equirectangular projection image EC, In the equirectangular projection image EC, a third corresponding area CA3 corresponding to the second corresponding area CA2 is calculated. Specifically, the projection method inverse transform unit 562 calculates a third corresponding area CA3 including the respective lattice areas LA3 corresponding to the plurality of lattice areas LA2 in the second corresponding area CA2 in the equirectangular projection image EC. To do. The third corresponding area CA is shown in FIG. 21, but is also shown in FIG. 33 as an enlarged view. FIG. 33 is a conceptual diagram showing a third corresponding region in the equirectangular projection image EC. Thereby, the planar image P is superimposed and displayed on the omnidirectional image CE created by the equirectangular projection image EC so as to be finally matched (mapped) with the third corresponding area CA3. By the process of the projection method inverse transform unit 562, a position parameter indicating the coordinates of each grid point in each grid area LA3 is created. The positional parameters are shown in FIGS. 18 and 19 (b). Note that the grid point is an example of a plurality of points.

以上、位置パラメータを作成することにより、正距円筒射影画像ECと平面画像Pの位置関係を算出することができる。   As described above, the positional relationship between the equirectangular projection image EC and the planar image P can be calculated by creating the positional parameters.

ところで、位置パラメータは算出されたが、このまま重畳表示を行う場合、正距円筒射影画像ECと平面画像Pとで明るさや色味が大きく異なる場合に、不自然な重畳表示となることがある。そのため、以下に示す形状変換部564及び補正パラメータ作成部566は、明るさや色味が大きく異なる場合であっても、不自然な重畳表示となることを防止する役割を果たす。   By the way, although the position parameter has been calculated, when superimposing display is performed as it is, when the equirectangular projection image EC and the flat image P are greatly different in brightness and color, an unnatural superimposition display may occur. Therefore, the shape conversion unit 564 and the correction parameter creation unit 566 described below play a role of preventing unnatural superimposition display even when the brightness and color tone are greatly different.

形状変換部564は、後述の色合わせに先立って、第2の対応領域CA2の4頂点を平面画像Pの4頂点に射影することで、第2の対応領域CA2を平面画像Pと同じ形状に変換する。具体的には、図34(a)に示されている第2の対応領域CA2の各格子領域LA2を、図34(c)に示されている平面画像Pの各格子領域LA0に合わせるために、第2の対応領域CA2の形状を平面画像Pと同じ形状に変換する。これにより、図34(a)に示されている第2の対応領域CA2は、図34(b)に示されている第2の対応領域CA2’に形状が変換される。これに伴い、格子領域LA2が格子領域LA2’に変換されるため、平面画像Pの格子領域LA0と同じ形状となる。   Prior to color matching described later, the shape conversion unit 564 projects the four vertices of the second corresponding area CA2 onto the four vertices of the planar image P, so that the second corresponding area CA2 has the same shape as the planar image P. Convert. Specifically, in order to match each lattice area LA2 of the second corresponding area CA2 shown in FIG. 34 (a) with each lattice area LA0 of the planar image P shown in FIG. 34 (c). The shape of the second corresponding area CA2 is converted into the same shape as the planar image P. As a result, the shape of the second corresponding area CA2 shown in FIG. 34 (a) is converted into the second corresponding area CA2 'shown in FIG. 34 (b). Accordingly, since the lattice area LA2 is converted into the lattice area LA2 ', the shape is the same as the lattice area LA0 of the planar image P.

補正パラメータ作成部566は、同じ形状に変換後の第2の対応領域CA2’における各格子領域LA2’の明るさ値及び色値に対して、各格子領域LA2’と同じ形状である平面画像Pの各格子領域LA0の明るさ値及び色値を合わせるための補正パラメータを作成する。具体的には、補正パラメータ作成部566は、各格子点LA0の1点を共通に格子点としてもつ4つの格子領域を構成する全ての画素の明るさ値及び色値(R,G,B)の平均値a= (Rave,Gave,Bave)を算出し、各格子点LA2’の1点を共通に格子点としてもつ4つの格子領域を構成する全ての画素の明るさ値及び色値(R’,G’,B’)の平均値a’ = (R’ave,G’ave,B’ave)を算出する。なお、上記各格子点LA0の1点および各格子点LA2’の1点が第2の対応領域CA2および第3の対応領域CA3の4隅の場合、補正パラメータ作成部566は、1つの格子領域から明るさ値および色値の平均値aおよび平均値a’を算出する。また、上記各格子点LA0の1点および各格子点LA2’の1点が第2の対応領域CA2第3の対応領域CA3の外周の点の場合、補正パラメータ作成部566は、内側2つの格子領域から明るさ値および色値の平均値aおよび平均値a’を算出する。そして、補正パラメータは、本実施形態では、平面画像Pの明るさ値及び色値を補正するためのゲインデータとなるため、以下の(式14)に示されているように、平均値a’を平均値aで除算することで、補正パラメータPaを求める。
Pa = a’/ a・・・(式14)
これにより、後述の重畳表示において、補正パラメータが示すゲイン値を、格子領域LA0毎に乗算することで、平面画像Pの色味および明るさが、正距円筒射影画像EC(全天球画像CE)の画素値と近くなり、見た目が違和感なく重畳表示することが可能となる。なお、補正パラメータは、平均値から算出されるだけでなく、平均値に代えて又は平均値に加えて、中央値、最頻値等を使って算出されるようにしてもよい。
The correction parameter creation unit 566 has a planar image P having the same shape as each grid area LA2 ′ with respect to the brightness value and color value of each grid area LA2 ′ in the second corresponding area CA2 ′ converted into the same shape. A correction parameter for matching the brightness value and the color value of each lattice area LA0 is created. Specifically, the correction parameter creation unit 566 has the brightness values and color values (R, G, B) of all the pixels constituting the four grid areas having one grid point LA0 as a grid point in common. The average value a = (R ave , G ave , B ave ) is calculated, and the brightness values and colors of all the pixels constituting the four grid areas having one grid point LA2 ′ as a grid point in common. The average value a ′ = (R ′ ave , G ′ ave , B ′ ave ) of the values (R ′, G ′, B ′) is calculated. When one point of each of the lattice points LA0 and one point of each of the lattice points LA2 ′ is the four corners of the second corresponding region CA2 and the third corresponding region CA3, the correction parameter creating unit 566 has one lattice region. Then, the average value a and the average value a ′ of the brightness value and the color value are calculated. When one point of each of the lattice points LA0 and one point of each of the lattice points LA2 ′ is a point on the outer periphery of the second corresponding area CA2 and the third corresponding area CA3, the correction parameter creating unit 566 includes two inner lattice points. An average value a and an average value a ′ of the brightness value and the color value are calculated from the area. In this embodiment, the correction parameter is gain data for correcting the brightness value and the color value of the planar image P. Therefore, as shown in the following (Expression 14), the average value a ′ Is divided by the average value a to obtain the correction parameter Pa.
Pa = a '/ a (Formula 14)
As a result, in the superimposed display described later, the gain value indicated by the correction parameter is multiplied for each lattice area LA0, so that the color and brightness of the planar image P become the equirectangular projection image EC (the omnidirectional image CE). ) And the pixel value are close to each other, and the display can be superimposed and displayed without a sense of incongruity. The correction parameter is not only calculated from the average value, but may be calculated using a median value, a mode value, or the like instead of or in addition to the average value.

また、本実施形態では明るさ値および色値の補正値の算出に画素値(R,G,B)を使用したが、輝度および色差信号であるYUVフォーマットや、JPEGのsYCC(YCbCr)フォーマット等における輝度値、色差値を用いて、同様の方法にて格子領域を構成する全ての画素の輝度値および色差値の平均値を求め、その平均値を除算することにより後述の重畳表示における補正パラメータとしてもよい。なお、RGB値からYUV、sYCC(YCbCr)に変換する方法は公知であるため詳細は省略するが、参考として(式15)を用いて、JPEG圧縮画像のフォーマットJFIF(JPEG file interchange format)形式のRGBからYCbCrへ変換する例を挙げる。   In this embodiment, the pixel values (R, G, B) are used for calculating the correction values for the brightness value and the color value. However, the YUV format for luminance and color difference signals, the JPEG sYCC (YCbCr) format, etc. Using the luminance value and color difference value in, the average value of the luminance value and color difference value of all the pixels constituting the grid area is obtained in the same way, and the average value is divided to correct the correction parameter in the superimposed display described later It is good. The method of converting RGB values to YUV and sYCC (YCbCr) is well known and will not be described in detail. However, using (Equation 15) as a reference, the JPEG compressed image format JFIF (JPEG file interchange format) format is used. Here is an example of converting from RGB to YCbCr.

重畳表示メタデータ作成部570は、位置パラメータ及び補正パラメータ等を用いて、全天球画像CEに対して平面画像Pを重畳する際の位置、並びに明るさ値及び色値の補正値を示す重畳表示メタデータを作成する。   The superimposed display metadata creation unit 570 uses the position parameter, the correction parameter, and the like to superimpose the position when the planar image P is superimposed on the omnidirectional image CE, and the correction value of the brightness value and the color value. Create display metadata.

(重畳表示メタデータ)
続いて、図18を用いて、重畳表示メタデータのデータ構造について説明する。図18は、重畳表示メタデータのデータ構造である。
(Superimposed display metadata)
Next, the data structure of the superimposed display metadata will be described with reference to FIG. FIG. 18 shows the data structure of the superimposed display metadata.

図18に示されているように、重畳表示メタデータは、正距円筒射影画像情報、平面画像情報、重畳表示情報、及びメタデータ作成情報によって構成されている。   As shown in FIG. 18, the superimposed display metadata includes equirectangular projection image information, planar image information, superimposed display information, and metadata creation information.

これらのうち、正距円筒射影画像情報は、特殊撮影装置1から撮影画像データと共に送られて来た情報である。正距円筒射影画像情報は、画像識別情報及び付属情報を含んでいる。正距円筒射影画像情報における画像識別情報は、正距円筒射影画像を識別するための画像識別情報である。図18では、正距円筒射影画像情報における画像識別情報の一例として、画像のファイル名が示されているが、画像を識別するための画像IDであってもよい。   Among these, the equirectangular projection image information is information sent together with the photographed image data from the special photographing apparatus 1. The equirectangular projection image information includes image identification information and attached information. The image identification information in the equirectangular projection image information is image identification information for identifying the equirectangular projection image. In FIG. 18, the file name of the image is shown as an example of the image identification information in the equirectangular projection image information, but an image ID for identifying the image may be used.

また、正距円筒射影画像情報における付属情報は、正距円筒射影画像情報に付属する関連情報である。図18では、付属情報の一例として、特殊撮影装置1で撮影された際に得られた正距円筒射影画像データの姿勢補正情報(Pitch,Yaw,Roll)が示されている。この姿勢補正情報は、特殊撮影装置1の画像記録フォーマットとして規格化されているExif(Exchangeable image file format)で格納されている場合があり、GPano(Google Photo Sphere schema)で提供されている各種フォーマットで格納されている場合もある。全天球画像は、同じ位置で撮影すれば、姿勢が異なっていても360°全方位の画像が撮影できるという特徴があるが、全天球画像CEを表示する場合に、姿勢情報や、どこを画像の中心にするか(注視点)を指定しなければ表示位置が決まらない。そのため、一般的には天頂が撮影者の真上に来るように全天球画像CEを補正して表示する。これにより、水平線が真っ直ぐに補正された自然な表示が可能となる。   The attached information in the equirectangular projection image information is related information attached to the equirectangular projection image information. In FIG. 18, posture correction information (Pitch, Yaw, Roll) of equirectangular projection image data obtained when captured by the special imaging device 1 is shown as an example of attached information. This posture correction information may be stored in the Exif (Exchangeable image file format) standardized as the image recording format of the special imaging device 1, and various formats provided by GPano (Google Photo Sphere schema) It may be stored in. An omnidirectional image has a feature that if it is taken at the same position, an image of 360 ° omnidirectional image can be taken even if the posture is different. The display position is not determined unless the center of the image is specified (gaze point). Therefore, generally, the omnidirectional image CE is corrected and displayed so that the zenith is directly above the photographer. As a result, a natural display in which the horizon is straightly corrected is possible.

次に、平面画像情報は、一般撮影装置3から撮影画像データと共に送られて来た情報である。平面画像情報は、画像識別情報及び付属情報を含んでいる。平面画像情報における画像識別情報は、平面画像Pを識別するための画像識別情報である。図18では、画像識別情報の一例として、画像のファイル名が示されているが、画像を識別するための画像IDであってもよい。   Next, the planar image information is information sent from the general imaging device 3 together with the captured image data. The planar image information includes image identification information and attached information. The image identification information in the planar image information is image identification information for identifying the planar image P. In FIG. 18, the file name of the image is shown as an example of the image identification information, but an image ID for identifying the image may be used.

また、平面画像情報における付属情報は、平面画像情報に付属する関連情報である。図18では、平面画像情報における付属情報の一例として、35mm換算焦点距離の値が示されている。35mm換算焦点距離の値は、全天球画像CEに平面画像Pを重畳して表示するために必須ではないが、重畳表示を行う場合に表示する画角を決めるための参考情報となるため、例として挙げている。   The attached information in the planar image information is related information attached to the planar image information. In FIG. 18, the value of 35 mm equivalent focal length is shown as an example of the attached information in the planar image information. The value of the 35 mm equivalent focal length is not essential for displaying the celestial sphere image CE by superimposing the planar image P, but serves as reference information for determining the angle of view to be displayed when superimposing display is performed. Take as an example.

次に、重畳表示情報は、スマートフォン5で作成された情報であり、領域分割数情報、各格子領域の格子点の位置(位置パラメータ)、及び明るさ値及び色値の補正値(補正パラメータ)を含んでいる。これらのうち、領域分割数情報は、第1の対応領域CA1を複数の格子領域に分割する際の水平(経度)方向の分割数及び垂直(緯度)方向の分割数を示している。   Next, the superimposed display information is information created by the smartphone 5, and includes information on the number of area divisions, positions of lattice points in each lattice area (position parameters), and correction values (correction parameters) of brightness values and color values. Is included. Among these, the area division number information indicates the number of divisions in the horizontal (longitude) direction and the number of divisions in the vertical (latitude) direction when dividing the first corresponding area CA1 into a plurality of lattice areas.

また、位置パラメータは、平面画像Pを格子状の複数の領域に分割した場合の各格子点が、正距円筒射影画像EC(全天球画像CE)のどの位置に配置されるかを示す頂点マッピング情報である。補正パラメータは、本実施形態では、平面画像Pの色値を補正するためのゲインデータである。なお、補正対象がモノクロ画像の場合もあるため、補正パラメータは、明るさ値及び色値のうち少なくとも明るさ値を合わせるためのパラメータである。   The position parameter is a vertex indicating at which position in the equirectangular projection image EC (global celestial image CE) each lattice point when the planar image P is divided into a plurality of lattice-like regions is arranged. Mapping information. In this embodiment, the correction parameter is gain data for correcting the color value of the planar image P. Since the correction target may be a monochrome image, the correction parameter is a parameter for adjusting at least the brightness value among the brightness value and the color value.

ところで、全天球画像CEを得る場合、平面画像Pと同じ射影方式である透視射影方式を用いると、360°の全方位の撮影ができない。そのため、全天球画像CEの一部の領域に、全天球画像CEとは別に撮影することで得られた平面画像Pを重畳しようとしても、正距円筒射影画像ECと平面画像Pは射影方式が異なるため、正距円筒射影画像EC(全天球画像CE)と平面画像Pが合わず、平面画像Pが全天球画像CEに上手く溶け込まない。そのため、全天球画像のように広い画角の画像は、射影方式の1つとして、正距円筒射影方式で作成されることが多い。しかし、正距円筒射影方式を用いると、いわゆるメルカトル図法のように標準緯線から離れるほど横方向の長さが拡大されるため、一般的なカメラで採用されている透視射影方式の画像とは大きく異なった画像となる。よって、単純に画像の縮尺だけを変更して重ね合わせても画像が一致せず、平面画像Pが全天球画像CEに上手く溶け込まない。そこで、本実施形態では、図21に示されている処理により、位置パラメータを作成する。   By the way, when the omnidirectional image CE is obtained, if the perspective projection method that is the same projection method as the planar image P is used, 360 ° omnidirectional imaging cannot be performed. Therefore, even if an attempt is made to superimpose a planar image P obtained by photographing separately from the omnidirectional image CE on a partial area of the omnidirectional image CE, the equirectangular projection image EC and the planar image P are projected. Since the methods are different, the equirectangular projection image EC (global celestial sphere image CE) and the planar image P do not match, and the planar image P does not merge well with the omnidirectional image CE. Therefore, an image with a wide angle of view such as an omnidirectional image is often created by an equirectangular projection method as one of the projection methods. However, if the equirectangular projection method is used, the length in the horizontal direction increases as the distance from the standard parallel as in the so-called Mercator projection, so it is greatly different from the image of the perspective projection method used in general cameras. The image will be different. Therefore, even if only the scales of the images are changed and superimposed, the images do not match, and the planar image P does not merge well with the omnidirectional image CE. Therefore, in the present embodiment, the position parameter is created by the process shown in FIG.

ここで、図19を用いて、位置パラメータ及び補正パラメータについて詳細に説明する。図19(a)は第2の対応領域における各格子領域を示した概念図である。図19(b)は第3の対応領域における各格子領域を示した概念図である。   Here, the position parameter and the correction parameter will be described in detail with reference to FIG. FIG. 19A is a conceptual diagram showing each lattice region in the second corresponding region. FIG. 19B is a conceptual diagram showing each lattice region in the third corresponding region.

図19(a)に示されているように、正距円筒射影画像ECの一部の領域である第1の対応領域CA1が平面画像Pと同じ透視射影方式に変換されることで得られる第2の対応領域CA2は、本実施形態では、水平分割数が30で垂直分割数が20の複数の格子領域に分割される。図19(a)には、各格子領域の格子点の座標(LO00,00,LA00,00),(LO01,00,LA01,00),…,(LO30,20,LA30,20)、及び、各格子領域の格子点における明るさ値及び色値の補正値(R00,00,G00,00,B00,00),(R01,00,G01,00,B01,00),…,(R30,20,G30,20,B30,20)が示されている。なお、図面を簡略化するため、4頂点における格子点の座標、並びに明るさ値及び色値の補正値が示されているが、実際には、全ての格子点の座標、並びに明るさ値及び色値の補正値が存在する。また、各明るさ値及び色値の補正値R,G,Bは、それぞれ赤色の補正ゲイン、緑色の補正ゲイン、青色の補正ゲインを示している。各明るさ値及び色値の補正値R,G,Bは、実際には、各格子点の座標を中心とする所定範囲(隣の格子点の所定範囲と重ならない範囲)内の画像の明るさ値及び色値の補正値を示している。 As shown in FIG. 19A, the first corresponding area CA1 which is a partial area of the equirectangular projection image EC is converted into the same perspective projection method as that of the planar image P. In the present embodiment, the second corresponding area CA2 is divided into a plurality of lattice areas having a horizontal division number of 30 and a vertical division number of 20. FIG. 19A shows the coordinates (LO 00,00 , LA 00,00 ), (LO 01,00 , LA 01,00 ),..., (LO 30,20 , LA 30 ) of each lattice area. , 20 ), and correction values (R 00,00 , G 00,00 , B 00,00 ), (R 01,00 , G 01,00 , B 01,00 ), ..., (R 30,20 , G 30,20 , B 30,20 ) are shown. In order to simplify the drawing, the coordinates of the grid points at the four vertices and the correction values of the brightness value and the color value are shown, but in reality, the coordinates of all the grid points, the brightness values, and There is a correction value for the color value. Further, the correction values R, G, and B of the brightness value and the color value respectively indicate a red correction gain, a green correction gain, and a blue correction gain. The correction values R, G, and B of each brightness value and color value are actually the brightness of an image within a predetermined range centered on the coordinates of each grid point (a range that does not overlap with the predetermined range of adjacent grid points). The correction values for the color value and the color value are shown.

一方、図19(b)に示されているように、第2の対応領域CA2が正距円筒射影画像ECと同じ正距円筒射影方式に逆変換されることで得られた第3の対応領域CA3は、本実施形態では、同じく水平分割数が30で垂直分割数が20の複数の格子領域に分割される。図19(b)には、各格子領域の格子点の座標(LO’00,00,LA’00,00),(LO’01,00,LA’01,00),…,(LO’30,20,LA’30,20)の座標、及び、第2の対応領域CA2の各補正値と同じ値の明るさ値及び色値の補正値が示されている。この場合も、図面を簡略化するため、4頂点における格子点の座標及び明るさ値及び色値の補正値が示されているが、実際には、全ての格子点の座標と明るさ値及び色値の補正値が存在する。 On the other hand, as shown in FIG. 19B, the third corresponding region obtained by inversely transforming the second corresponding region CA2 into the same equirectangular projection method as the equirectangular projection image EC. In the present embodiment, CA3 is similarly divided into a plurality of lattice regions having 30 horizontal divisions and 20 vertical divisions. FIG. 19B shows the coordinates (LO ′ 00,00 , LA ′ 00,00 ), (LO ′ 01,00 , LA ′ 01,00 ),..., (LO ′ 30 , 20 , LA ′ 30,20 ), and brightness value and color value correction values having the same values as the correction values of the second corresponding area CA2. In this case, too, the coordinates of the grid points, the brightness values, and the correction values of the color values at the four vertices are shown in order to simplify the drawing. There is a correction value for the color value.

次に、メタデータ作成情報は、重畳表示メタデータのバージョンを示すバージョン情報を示している。   Next, the metadata creation information indicates version information indicating the version of the superimposed display metadata.

なお、上記のように、位置パラメータは、平面画像Pと正距円筒射影画像EC(全天球画像CE)のそれぞれの位置対応関係を示すものである。しかし、位置パラメータで、平面画像Pの全ての画素位置が正距円筒射影画像EC(全天球画像CE)のどの座標に対応付けられるかの情報を表わそうとすると、一般撮影装置3が高画素数のデジタルカメラの場合、約4000万画素数分の情報を表わさなければならない。そのため、位置パラメータのデータ量が多くなり、データ記憶等の扱いが大変である。そこで、本実施形態の位置パラメータは、平面画像Pを600個(30×20)の領域に分割することで、平面画像の格子点の座標が、正距円筒射影画像EC(全天球画像CE)のどこに対応するかを示すだけのデータを示している。また、スマートフォン5は重畳表示する場合には、格子点の座標から各領域内の画像の位置を補間することで、重畳表示を実現することができる。   As described above, the position parameter indicates the positional correspondence between the planar image P and the equirectangular projection image EC (the omnidirectional image CE). However, if the position parameter is intended to represent information on which coordinates of all the pixel positions of the planar image P are associated with the equirectangular projection image EC (the omnidirectional image CE), the general imaging device 3 In the case of a digital camera having a high number of pixels, information corresponding to about 40 million pixels must be represented. For this reason, the amount of position parameter data increases, and handling of data storage and the like is difficult. Therefore, the position parameter of the present embodiment is that the plane image P is divided into 600 (30 × 20) regions, so that the coordinates of the lattice points of the plane image are the equirectangular projection image EC (the omnidirectional image CE). ) Shows only data indicating where to correspond. In addition, when the smartphone 5 performs superimposed display, the superimposed display can be realized by interpolating the position of the image in each region from the coordinates of the grid points.

{重畳部の機能構成}
続いて、図16を用い、重畳部55bの機能構成について説明する。重畳部55bは、貼付領域作成部582、補正部584、画像作成部586、画像重畳部588、及び射影変換部590を有している。
{Functional structure of superimposition unit}
Subsequently, the functional configuration of the superimposing unit 55b will be described with reference to FIG. The superimposing unit 55b includes a pasting area creating unit 582, a correcting unit 584, an image creating unit 586, an image superimposing unit 588, and a projective transformation unit 590.

これらのうち、貼付領域作成部582は、仮想の立体球CSにおいて、第3の対応領域CA3に対応する領域部分(以下、「部分立体球」という)PSを作成する。   Among these, the pasting area creation unit 582 creates an area part (hereinafter referred to as “partial solid sphere”) PS corresponding to the third corresponding area CA3 in the virtual solid sphere CS.

補正部584は、重畳表示メタデータ内の補正パラメータに基づいて、平面画像Pの明るさ値及び色値を、正距円筒射影画像ECの明るさ値及び色値に合わせる補正を行なう。なお、補正部584は、必ずしも明るさや色の補正を行なう必要はない。また、補正部584が補正パラメータによって補正を行なう場合、明るさの補正を行なっても、色の補正を行なわなくてもよい。   The correction unit 584 performs correction to match the brightness value and color value of the planar image P with the brightness value and color value of the equirectangular projection image EC based on the correction parameter in the superimposed display metadata. Note that the correction unit 584 does not necessarily have to correct brightness and color. Further, when the correction unit 584 performs correction using the correction parameter, the brightness may be corrected or the color may not be corrected.

画像作成部586は、部分立体球PSに対して、平面画像P(または、平面画像Pを補正した後の補正画像C)を貼り付けることで、重畳画像Sを作成する。また、画像作成部586は、部分立体球PSの領域に基づいて、マスクデータMを作成する。更に、画像作成部586は、立体球CSに対して、正距円筒射影画像ECを貼り付けることで全天球画像CEを作成する。   The image creating unit 586 creates the superimposed image S by pasting the planar image P (or the corrected image C after correcting the planar image P) to the partial solid sphere PS. The image creation unit 586 creates mask data M based on the region of the partial solid sphere PS. Furthermore, the image creation unit 586 creates the omnidirectional image CE by pasting the equirectangular projection image EC to the solid sphere CS.

ここで、マスクデータMは、重畳画像Sを全天球画像CEに重畳する場合に用いることが可能な透過比率データである。マスクデータMは、重畳画像Sを全天球画像CEに重畳した場合の境界周辺の明るさ及び色を、内側の重畳画像S側から外側の全天球画像CE側に徐々に近づけるために、マスク周辺の透過度が、内側から外側に向けて徐々に重畳画像S寄りから全天球画像CE寄りに高くなっている。これにより、全天球画像CEに重畳画像Sが重畳されても、極力、重畳されたことが分からないようにすることができる。なお、マスクデータMの作成は、必須ではない。   Here, the mask data M is transmission ratio data that can be used when the superimposed image S is superimposed on the omnidirectional image CE. The mask data M is used to gradually bring the brightness and color around the boundary when the superimposed image S is superimposed on the omnidirectional image CE from the inner superimposed image S side to the outer omnidirectional image CE side. The transmittance around the mask gradually increases from the superimposed image S to the omnidirectional image CE from the inside to the outside. Thereby, even if the superimposition image S is superimposed on the omnidirectional image CE, it is possible to prevent the superimposition from being recognized as much as possible. Note that the creation of the mask data M is not essential.

画像重畳部588は、全天球画像CEに対して重畳画像S及びマスクデータMを重畳する。これにより、境目が目立たないように高精細の重畳画像Sが重畳された低精細の全天球画像CEが完成する。   The image superimposing unit 588 superimposes the superimposed image S and the mask data M on the omnidirectional image CE. Thereby, the low-definition omnidirectional image CE on which the high-definition superimposed image S is superimposed so that the boundary is not conspicuous is completed.

射影変換部590は、図7に示されているように、予め定められた仮想カメラICの視線方向(所定領域Tの中心点CP)と所定領域Tの画角αに基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域Tを、ディスプレイ517で見ることができるように射影変換する。また、射影変換部590は、射影変換する際に、所定領域Tをディスプレイ517における表示領域の解像度に合わせる処理も行なう。具体的には、所定領域Tの解像度がディスプレイ517の表示領域の解像度よりも小さい場合には、射影変換部590は、所定領域Tをディスプレイ517の表示領域に合わせるように拡大する。一方、所定領域Tの解像度がディスプレイ517の表示領域の解像度よりも大きい場合には、射影変換部590は、所定領域Tをディスプレイ517の表示領域に合わせるように縮小する。これにより、表示制御部56は、ディスプレイ517の表示領域の全体に亘って、所定領域Tを示す所定領域画像Qを表示することができる。   As shown in FIG. 7, the projective transformation unit 590 generates a superimposed image S based on a predetermined line-of-sight direction of the virtual camera IC (a center point CP of the predetermined area T) and the angle of view α of the predetermined area T. Projective transformation is performed so that the predetermined area T in the omnidirectional image CE in a state where is superimposed can be seen on the display 517. Projection conversion unit 590 also performs processing for matching predetermined area T with the resolution of the display area on display 517 when performing projective conversion. Specifically, when the resolution of the predetermined area T is smaller than the resolution of the display area of the display 517, the projection conversion unit 590 enlarges the predetermined area T so as to match the display area of the display 517. On the other hand, when the resolution of the predetermined area T is larger than the resolution of the display area of the display 517, the projective transformation unit 590 reduces the predetermined area T so as to match the display area of the display 517. Thereby, the display control unit 56 can display the predetermined area image Q indicating the predetermined area T over the entire display area of the display 517.

<<実施形態の処理又は動作>>
続いて、図20乃至図40を用いて、本実施形態の処理又は動作について説明する。まず、図20を用いて、撮影システムが実行する撮影方法を説明する。図20は、本実施形態に係る撮影方法を示したシーケンス図である。なお、以下では、被写体や風景等の撮影を行なう場合について説明するが、撮影と同時に集音部14によって周囲の音を録音してもよい。
<< Processing or Operation of Embodiment >>
Subsequently, processing or operation of the present embodiment will be described with reference to FIGS. 20 to 40. First, a photographing method executed by the photographing system will be described with reference to FIG. FIG. 20 is a sequence diagram illustrating a photographing method according to the present embodiment. In the following description, a case where a subject, landscape, or the like is photographed will be described. However, ambient sounds may be recorded by the sound collection unit 14 simultaneously with photographing.

図20に示されているように、スマートフォン5の受付部52は、利用者から連携撮影開始を受け付ける(ステップS11)。この場合、図15(b)に示されているように、表示制御部56が、図15(b)に示されている連携撮影装置設定画面をディスプレイ517に表示させる。この画面には、撮影装置毎に、連携撮影する際のメインの撮影装置を指定するためのラジオボタン、連携撮影する際のサブの撮影装置を指定(選択)するためのチェックボックスが表示されている。更に、撮影装置毎に、撮影装置の装置名及び電波の受信強度が表示されている。そして、利用者が所望の撮影装置をメイン及びサブとして指定(選択)して、「確定」ボタンを押下することで、受付部が連携撮影開始を受け付ける。なお、サブの撮影装置は複数であってもよいため、チェックボックスにして複数の撮影装置を指定(選択)することができるようになっている。   As illustrated in FIG. 20, the reception unit 52 of the smartphone 5 receives the start of cooperative shooting from the user (step S11). In this case, as illustrated in FIG. 15B, the display control unit 56 causes the display 517 to display the cooperative photographing apparatus setting screen illustrated in FIG. On this screen, a radio button for designating a main imaging device for linked shooting and a check box for designating (selecting) a sub imaging device for linked shooting are displayed for each imaging device. Yes. Further, for each photographing apparatus, the name of the photographing apparatus and the reception intensity of the radio wave are displayed. Then, when the user designates (selects) a desired photographing apparatus as a main and a sub, and presses a “confirm” button, the accepting unit accepts the start of cooperative photographing. Since there may be a plurality of sub photographing apparatuses, a plurality of photographing apparatuses can be designated (selected) by using check boxes.

そして、スマートフォン5の近距離通信部58は、一般撮影装置3の近距離通信部38に対して、ポーリングにより、撮影開始の問い合わせを示す撮影開始問合情報を送信する(ステップS12)。これにより、一般撮影装置3の近距離通信部38は、撮影開始問合情報を受信する。   And the short distance communication part 58 of the smart phone 5 transmits the imaging | photography start inquiry information which shows the inquiry of a photography start by polling with respect to the short distance communication part 38 of the general imaging device 3 (step S12). Thereby, the near field communication part 38 of the general imaging device 3 receives imaging start inquiry information.

次に、一般撮影装置3の判断部37は、受付部32が利用者からシャッターボタン315aの押下を受け付けるか否かにより、撮影開始を行なったか否かを判断する(ステップS13)。   Next, the determination unit 37 of the general photographing apparatus 3 determines whether or not the photographing is started based on whether or not the reception unit 32 receives the pressing of the shutter button 315a from the user (step S13).

次に、一般撮影装置3の近距離通信部38は、スマートフォン5に対して、ステップS13による判断結果に応じた応答内容を示す応答情報を送信する(ステップS14)。ステップS13によって撮影が開始されたと判断された場合には、応答情報は、撮影開始を示す撮影開始情報を含む。この場合、応答情報は、一般撮影装置3の画像識別情報も含んでいる。一方、ステップS13によって撮影が開始されたと判断されない場合には、応答情報は、撮影待機を示す撮影待機情報を含む。これにより、スマートフォン5の近距離通信部58は、応答情報を受信する。   Next, the short-range communication unit 38 of the general imaging device 3 transmits response information indicating the response content according to the determination result in step S13 to the smartphone 5 (step S14). If it is determined in step S13 that shooting has started, the response information includes shooting start information indicating the start of shooting. In this case, the response information also includes image identification information of the general imaging device 3. On the other hand, when it is not determined in step S13 that shooting has started, the response information includes shooting standby information indicating shooting standby. Thereby, the near field communication part 58 of the smart phone 5 receives response information.

続いて、ステップS13によって、撮影が開始されたと判断された場合、及びステップS14によって受信された応答情報が撮影開始情報を含む場合について説明する。   Next, a case where it is determined in step S13 that shooting has started and a case where the response information received in step S14 includes shooting start information will be described.

まず、一般撮影装置3は、撮影を開始する(ステップS15)。この撮影の処理は、シャッターボタン315aが押下された後、撮像部33が被写体や風景等を撮像することで撮影画像データ(ここでは、平面画像データ)し、記憶・読出部39が記憶部3000に撮影画像データを記憶するまでの処理である。   First, the general photographing apparatus 3 starts photographing (step S15). In this photographing process, after the shutter button 315a is pressed, the image capturing unit 33 captures an image of a subject, a landscape, and the like, so that captured image data (in this case, planar image data) is obtained, and the storage / reading unit 39 stores the storage unit 3000. This is the process until the captured image data is stored.

次に、スマートフォン5では、近距離通信部58が、特殊撮影装置1に対して、撮影開始の要求を示す撮影開始要求情報を送信する(ステップS16)。これにより、特殊撮影装置1の近距離通信部18は撮影開始要求情報を受信する。   Next, in the smartphone 5, the short-range communication unit 58 transmits shooting start request information indicating a shooting start request to the special shooting device 1 (step S16). Thereby, the short-range communication unit 18 of the special imaging device 1 receives the imaging start request information.

一方、特殊撮影装置1は、撮影を開始する(ステップS17)。この撮影の処理は、撮像部13が被写体や風景等を撮影して撮影画像データ(図3(a),(b)に示されているような2つの半球画像データ)を生成し、画像・音処理部15が、2つの半球画像データに基づいて、図3(c)に示されているような単一の正距円筒射影画像データを作成して、記憶・読出部19が記憶部1000に正距円筒射影画像データを記憶するまでの処理である。   On the other hand, the special photographing apparatus 1 starts photographing (step S17). In this photographing process, the imaging unit 13 photographs a subject, a landscape, and the like to generate photographed image data (two hemispherical image data as shown in FIGS. 3A and 3B). The sound processing unit 15 creates single equirectangular projection image data as shown in FIG. 3C based on the two hemispherical image data, and the storage / reading unit 19 stores the storage unit 1000. This is the process until the equirectangular projection image data is stored.

次に、スマートフォン5では、近距離通信部58が、一般撮影装置3に対して、撮影画像を要求する旨を示す撮影画像要求情報を送信する(ステップS18)。この撮影画像要求情報には、ステップS14で受信された画像識別情報が含まれている。これにより、一般撮影装置3の近距離通信部38は撮影画像要求情報を受信する。   Next, in the smartphone 5, the short-range communication unit 58 transmits captured image request information indicating that a captured image is requested to the general imaging device 3 (step S <b> 18). This photographed image request information includes the image identification information received in step S14. Thereby, the short-range communication unit 38 of the general imaging device 3 receives the captured image request information.

次に、一般撮影装置3の近距離通信部38は、スマートフォン5に対して、ステップS15によって得られた平面画像データを送信する(ステップS19)。この際、送信される平面画像データを識別するための画像識別情報、及び付属情報も送信される。画像識別情報及び付属情報は、図18に平面画像情報として示されている。これにより、スマートフォン5の近距離通信部58は、平面画像データ、画像識別情報、及び付属情報を受信する。   Next, the short-range communication unit 38 of the general imaging device 3 transmits the planar image data obtained in step S15 to the smartphone 5 (step S19). At this time, image identification information for identifying the plane image data to be transmitted, and attached information are also transmitted. The image identification information and the attached information are shown as planar image information in FIG. Thereby, the near field communication part 58 of the smart phone 5 receives plane image data, image identification information, and attached information.

一方、特殊撮影装置1の近距離通信部18は、スマートフォン5に対して、ステップS18によって得られた正距円筒射影画像データを送信する(ステップS20)。この際、送信される正距円筒射影画像データを識別するための画像識別情報、及び付属情報も送信される。画像識別情報及び付属情報は、図18に正距円筒射影画像情報として示されている。これにより、スマートフォン5の近距離通信部58は、正距円筒射影画像データ、画像識別情報、及び付属情報を受信する。   On the other hand, the short-range communication unit 18 of the special imaging device 1 transmits the equirectangular projection image data obtained in step S18 to the smartphone 5 (step S20). At this time, image identification information for identifying the equirectangular projection image data to be transmitted, and attached information are also transmitted. The image identification information and attached information are shown as equidistant cylindrical projection image information in FIG. Thereby, the near field communication part 58 of the smart phone 5 receives equirectangular projection image data, image identification information, and attached information.

次に、スマートフォン5の記憶・読出部59は、ステップS19によって受信された平面画像データの電子ファイルと、及びステップS20によって受信された正距円筒射影画像データの電子ファイルを同一の電子フォルダに格納して、記憶部5000に記憶する(ステップS21)。   Next, the storage / reading unit 59 of the smartphone 5 stores the electronic file of planar image data received in step S19 and the electronic file of equirectangular projection image data received in step S20 in the same electronic folder. And it memorize | stores in the memory | storage part 5000 (step S21).

次に、スマートフォン5の画像・音処理部55は、低精細画像である全天球画像CEの一部の領域に高精細画像である平面画像Pを重畳して表示する際に利用する、重畳表示用メタデータを作成する(ステップS22)。この際、記憶・読出部59が、記憶部5000に重畳表示用メタデータを記憶する。   Next, the image / sound processing unit 55 of the smartphone 5 uses the superimposition that is used when the planar image P that is a high-definition image is superimposed and displayed on a partial region of the omnidirectional image CE that is a low-definition image. Display metadata is created (step S22). At this time, the storage / reading unit 59 stores the superimposed display metadata in the storage unit 5000.

ここで、主に、図21乃至図34を用いて、重畳表示用メタデータの作成処理について詳細に説明する。なお、一般撮影装置3と特殊撮影装置1の撮像素子の解像度が、たとえ同じであっても、特殊撮影装置1の撮像素子は360°全天球画像CEの元になる正距円筒射影画像を全て網羅しなければならないため、撮影画像における一定領域あたりの精細度が低くなる。   Here, mainly with reference to FIG. 21 to FIG. 34, the process of creating the superimposed display metadata will be described in detail. Even if the resolutions of the imaging devices of the general imaging device 3 and the special imaging device 1 are the same, the imaging device of the special imaging device 1 generates an equirectangular projection image that is the basis of the 360 ° omnidirectional image CE. Since all must be covered, the definition per fixed area in the captured image is low.

{重畳表示用メタデータの作成処理}
まず、低精細な正距円筒射影画像ECによって作成される全天球画像CEに対して、高精細な平面画像Pを重畳してディスプレイ517に表示するための重畳表示用メタデータの作成処理について説明する。重畳表示用メタデータは、図18に示されているように、位置パラメータ及び補正パラメータを含んでいるため、主に、位置パラメータ及び補正パラメータの作成方法について説明する。
{Processing for creating metadata for overlay display}
First, a process for creating superimposed display metadata for superimposing a high-definition plane image P on the omnidirectional image CE created by the low-definition equirectangular projection image EC and displaying the same on the display 517. explain. As shown in FIG. 18, the superimposed display metadata includes a position parameter and a correction parameter. Therefore, a method for creating the position parameter and the correction parameter will be mainly described.

抽出部550は、正距円筒射影方式によって得られた長方形の正距円筒射影画像ECにおける複数の特徴点fp1、及び透視射影方式によって得られた長方形の平面画像Pにおける複数の特徴点fp2を抽出する(ステップS110)。   The extraction unit 550 extracts a plurality of feature points fp1 in the rectangular equirectangular projection image EC obtained by the equirectangular projection method and a plurality of feature points fp2 in the rectangular planar image P obtained by the perspective projection method. (Step S110).

次に、第1の対応領域算出部552は、第1のホモグラフィ変換によって、正距円筒射影画像ECにおける複数の特徴点fp1の特徴量fv1と、平面画像Pにおける複数の特徴点fp2の特徴量fv2との類似度に基づき、図21に示されているように、正距円筒射影画像ECにおいて、平面画像Pに対応する四角形の第1の対応領域CA1を算出する(ステップS120)。より具体的には、第1の対応領域算出部552は、算出した正距円筒射影画像ECの複数の特徴点fp1の特徴量fv1と、平面画像Pにおける複数の特徴点fp2の特徴量fv2の類似度に基づき画像間の対応点を算出し、正距円筒射影画像ECにおいて、平面画像Pに対応するホモグラフィを求めることで得られる第1のホモグラフィ変換によって、図21に示されているように、正距円筒射影画像ECにおいて、平面画像Pに対応する四角形の第1の対応領域CA1を算出する。この処理は、正距円筒射影画像ECに対して射影方式が異なる平面画像Pを正確に対応付けることができないが、ひとまず大まかに対応位置を推定するための処理(仮決め処理)である。   Next, the first corresponding region calculation unit 552 performs the first homography conversion to feature amounts fv1 of the plurality of feature points fp1 in the equirectangular projection image EC and features of the plurality of feature points fp2 in the planar image P. Based on the similarity to the quantity fv2, as shown in FIG. 21, in the equirectangular projection image EC, a quadrangular first corresponding area CA1 corresponding to the planar image P is calculated (step S120). More specifically, the first corresponding area calculation unit 552 calculates the feature amounts fv1 of the plurality of feature points fp1 of the equirectangular projection image EC and the feature amounts fv2 of the plurality of feature points fp2 in the planar image P. FIG. 21 shows a first homography transformation obtained by calculating corresponding points between images based on the similarity and obtaining homography corresponding to the planar image P in the equirectangular projection image EC. As described above, in the equirectangular projection image EC, a quadrangular first corresponding area CA1 corresponding to the planar image P is calculated. This process is a process (provisional decision process) for roughly estimating the corresponding position for the time being, although it is impossible to accurately associate the flat image P having a different projection method with the equirectangular projection image EC.

次に、注視点特定部554は、平面画像Pの中心点CP1が第1のホモグラフィ変換後に位置する正距円筒射影画像EC上の点(注視点GP1)を特定する(ステップS130)。   Next, the gazing point identification unit 554 identifies a point (gaze point GP1) on the equirectangular projection image EC where the center point CP1 of the planar image P is located after the first homography transformation (step S130).

次に、射影方式変換部556は、図22に示されているように、周辺領域画像PIの垂直画角αが平面画像Pの対角画角αと同じになるようにすることで、結果的に周辺領域画像PIが作成できるように、正距円筒射影画像EC内で注視点GP1を中心とした周辺領域PAを、平面画像Pと同じ透視射影方式に変換する(ステップS140)。   Next, the projection method conversion unit 556 sets the vertical field angle α of the peripheral area image PI to be the same as the diagonal field angle α of the planar image P as shown in FIG. Thus, the peripheral area PA centered on the gazing point GP1 in the equirectangular projection image EC is converted into the same perspective projection method as that of the planar image P so that the peripheral area image PI can be created (step S140).

次に、抽出部550は、射影方式変換部556によって得られた周辺領域画像PIにおける複数の特徴点fp3を抽出する(ステップS150)。   Next, the extraction unit 550 extracts a plurality of feature points fp3 in the peripheral area image PI obtained by the projection method conversion unit 556 (step S150).

次に、第2の対応領域算出部558は、第2のホモグラフィ変換によって、平面画像Pにおける複数の特徴点fp2の特徴量fv2と、周辺領域画像PIにおける複数の特徴点fp3の特徴量fv3との類似度に基づき、周辺領域画像PIにおいて、平面画像Pに対応する四角形の第2の対応領域CA02を算出する(ステップS160)。なお、平面画像Pは、例えば4000万画素の高精細な画像であるため、予め適切な大きさにリサイズしておく。   Next, the second corresponding region calculation unit 558 performs the feature amount fv2 of the plurality of feature points fp2 in the planar image P and the feature amount fv3 of the plurality of feature points fp3 in the peripheral region image PI by the second homography transformation. The second corresponding area CA02 having a square shape corresponding to the planar image P is calculated in the peripheral area image PI based on the similarity to (step S160). Note that the planar image P is a high-definition image of 40 million pixels, for example, and is resized to an appropriate size in advance.

次に、対応領域補正部559が、第2の対応領域算出部558で算出された第2の対応領域CA02を補正して、第2の対応領域CA2を作成する。具体的には、上述したように、図23(図27)において、図17に示されているブロック分割部21が、平面画像Pを複数のブロックに分割する(ステップS161,S261)。そして、マッチング部22が、ブロック分割部21によって分割された各ブロックを、修正領域画像PI上にマッチングする(ステップS162,S262)。   Next, the corresponding area correction unit 559 corrects the second corresponding area CA02 calculated by the second corresponding area calculation unit 558 to create a second corresponding area CA2. Specifically, as described above, in FIG. 23 (FIG. 27), the block dividing unit 21 shown in FIG. 17 divides the planar image P into a plurality of blocks (steps S161 and S261). Then, the matching unit 22 matches each block divided by the block dividing unit 21 on the correction area image PI (steps S162 and S262).

次に、動きベクトル算出部23が、マッチング部22によってマッチングされた周辺領域画像上の対応ブロックの四隅の所定の点に対して、第2の対応領域CA02における代表点RP01等からの動きベクトルを算出する(ステップS163,S263)。更に、動きベクトル補正部24は、図25(図29、図30)に示されている方法により動きベクトルを補正する(ステップS164,S264)。その後、代表点補正部25は、代表点RP01等を補正して代表点RP1,RP2,RP3,RP4(RP11,RP14,RP41,RP44)を求めることにより、最終的にこれら4点を矩形の各頂点とする第2の対応領域CA2を作成する(ステップS165,S265)。   Next, the motion vector calculation unit 23 calculates a motion vector from the representative point RP01 and the like in the second corresponding region CA02 with respect to predetermined points at the four corners of the corresponding block on the peripheral region image matched by the matching unit 22. Calculate (steps S163 and S263). Further, the motion vector correction unit 24 corrects the motion vector by the method shown in FIG. 25 (FIGS. 29 and 30) (steps S164 and S264). Thereafter, the representative point correction unit 25 corrects the representative points RP01 and the like to obtain representative points RP1, RP2, RP3, RP4 (RP11, RP14, RP41, RP44), and finally, these four points are each rectangular. A second corresponding area CA2 as a vertex is created (steps S165 and S265).

次に、領域分割部560は、図32(b)に示されているように、第2の対応領域CA2を複数の格子領域LA2に分割する(ステップS170)。   Next, the area dividing unit 560 divides the second corresponding area CA2 into a plurality of lattice areas LA2 as shown in FIG. 32B (step S170).

次に、射影方式逆変換部562は、図21に示されているように、第2の対応領域CA2の射影方式を、正距円筒射影画像ECと同じ正距円筒射影方式に変換(逆変換)する(ステップS180)。これにより、射影方式逆変換部562は、図33に示されているように、正距円筒射影画像ECにおいて、第2の対応領域CA2内の複数の格子領域LA2に対応する各格子領域LA3から成る第3の対応領域CA3を算出する。なお、図33は、正距円筒射影画像ECにおいて第3の対応領域を示す概念図である。この射影方式逆変換部562の処理により、各格子領域LA3の各格子点の座標を示す位置パラメータが作成される。
位置パラメータは、上述のように、図18及び図19(b)に示されている。
Next, as shown in FIG. 21, the projection method inverse conversion unit 562 converts the projection method of the second corresponding area CA2 into the equirectangular projection method same as the equirectangular projection image EC (inverse conversion). (Step S180). Thereby, as shown in FIG. 33, the projection method inverse transform unit 562 starts from each lattice area LA3 corresponding to the plurality of lattice areas LA2 in the second corresponding area CA2 in the equirectangular projection image EC. A third corresponding area CA3 is calculated. FIG. 33 is a conceptual diagram showing a third corresponding region in the equirectangular projection image EC. By the process of the projection method inverse transform unit 562, a position parameter indicating the coordinates of each lattice point of each lattice region LA3 is created.
The position parameter is shown in FIGS. 18 and 19B as described above.

続いて、図21及び図34を用いて、補正パラメータの作成処理について説明する。図34は、補正パラメータの作成処理の過程における画像の概念図である。   Next, correction parameter creation processing will be described with reference to FIGS. 21 and 34. FIG. 34 is a conceptual diagram of an image in the process of the correction parameter creation process.

ステップS180の処理後、形状変換部564は、図34(a)に示されているような第2の対応領域CA2の4頂点を平面画像Pの4頂点に射影することで、第2の対応領域CA2を平面画像Pと同じ形状に変換し、図34(b)に示されているような第2の対応領域CA2’を得る(ステップS190)。   After the process of step S180, the shape conversion unit 564 projects the second correspondence by projecting the four vertices of the second corresponding area CA2 as illustrated in FIG. The area CA2 is converted into the same shape as the planar image P, and a second corresponding area CA2 ′ as shown in FIG. 34B is obtained (step S190).

次に、領域分割部560は、図34(c)に示されているように、平面画像Pを、変換後の第2の対応領域CA2’における各格子領域LA2’と同じ形状で同じ数である複数の格子領域LA0に分割する(ステップS200)。   Next, as shown in FIG. 34C, the region dividing unit 560 converts the planar image P into the same number and the same shape as each lattice region LA2 ′ in the converted second corresponding region CA2 ′. Dividing into a plurality of lattice areas LA0 (step S200).

次に、補正パラメータ作成部566は、第2の対応領域CA2’における各格子領域LA2’の色値に対して、各格子領域LA2’に対応する平面画像Pの各格子領域LA0の明るさ値及び色値を合わせるための補正パラメータを作成する(ステップS210)。   Next, the correction parameter creation unit 566 performs the brightness value of each grid area LA0 of the planar image P corresponding to each grid area LA2 ′ with respect to the color value of each grid area LA2 ′ in the second corresponding area CA2 ′. Then, a correction parameter for matching the color value is created (step S210).

最後に、重畳表示メタデータ作成部570は、図18に示されているように、特殊撮影装置1から取得した正距円筒射影画像情報、一般撮影装置3から取得した平面画像情報、予め定められている領域分割数情報、射影方式逆変換部562によって作成された位置パラメータ、補正パラメータ作成部566によって作成された補正パラメータ、及びメタデータ作成情報に基づいて、重畳表示メタデータを作成する(ステップS220)。この重畳表示メタデータは、記憶・読出部59によって、記憶部5000に記憶される。   Finally, as shown in FIG. 18, the superimposed display metadata creation unit 570 includes predetermined distance cylindrical projection image information acquired from the special imaging device 1 and planar image information acquired from the general imaging device 3. The superimposed display metadata is created based on the area division number information, the position parameter created by the projection method inverse transform unit 562, the correction parameter created by the correction parameter creation unit 566, and the metadata creation information (step) S220). The superimposed display metadata is stored in the storage unit 5000 by the storage / readout unit 59.

以上より、図20に示されているステップS22の処理が終了する。そして、記憶・読出部59及び表示制御部56は、重畳表示メタデータを用いて、重畳の処理を行なう(ステップS23)。   Thus, the process of step S22 shown in FIG. Then, the storage / reading unit 59 and the display control unit 56 perform superimposition processing using the superimposition display metadata (step S23).

{重畳の処理}
続いて、図35乃至図40を用いて、重畳の処理について詳細に説明する。図35は、重畳の処理の過程における画像の概念図である。
{Superposition processing}
Subsequently, the superimposition process will be described in detail with reference to FIGS. 35 to 40. FIG. 35 is a conceptual diagram of an image in the process of superimposition.

まず、図14に示されている記憶・読出部59(取得部)が、予め、記憶部5000から、正距円筒射影方式によって得られた正距円筒射影画像ECのデータ、透視射影方式によって得られた平面画像Pのデータ、及び重畳表示メタデータを読み出して取得しておく。   First, the storage / reading unit 59 (acquisition unit) shown in FIG. 14 obtains from the storage unit 5000 the data of the equirectangular projection image EC obtained by the equirectangular projection method, the perspective projection method. The obtained data of the plane image P and the superimposed display metadata are read out and acquired.

次に、貼付領域作成部582は、図35に示されているように、位置パラメータに基づき、仮想の立体球CSにおいて、第3の対応領域CA3に対応する部分立体球PSを作成する(ステップS310)。この際、位置パラメータで示されていない格子点以外の画素に関しては、例えば、線形補間を用いて補間する。   Next, as shown in FIG. 35, the pasting area creation unit 582 creates a partial solid sphere PS corresponding to the third corresponding area CA3 in the virtual solid sphere CS based on the position parameters (step). S310). At this time, pixels other than the lattice points not indicated by the position parameter are interpolated using, for example, linear interpolation.

次に、補正部584は、重畳表示メタデータ内の補正パラメータに基づいて、平面画像Pの明るさ値及び色値を、正距円筒射影画像ECの明るさ値及び色値に合わせる補正を行なう(ステップS320)。以降、補正後の平面画像Pは、「補正画像C」という。   Next, the correction unit 584 performs correction to match the brightness value and color value of the planar image P with the brightness value and color value of the equirectangular projection image EC based on the correction parameter in the superimposed display metadata. (Step S320). Hereinafter, the corrected planar image P is referred to as “corrected image C”.

次に、画像作成部586は、部分立体球PSに対して、補正画像Cを貼り付けることで、重畳画像Sを作成する(ステップS330)。この際、位置パラメータで示されていない格子点以外の画素に関しては、例えば、線形補間を用いて補間する。また、画像作成部586は、部分立体球PSに基づいて、マスクデータMを作成する(ステップS340)。更に、画像作成部586は、立体球CSに対して、正距円筒射影画像ECを貼り付けることで全天球画像CEを作成する(ステップS350)。そして、画像重畳部588は、全天球画像CEに対して、マスクデータMを用いて重畳画像Sを重畳する(ステップS360)。これにより、境目が目立たないように高精細の重畳画像Sが重畳された低精細の全天球画像CEが完成する。   Next, the image creation unit 586 creates the superimposed image S by pasting the corrected image C on the partial solid sphere PS (step S330). At this time, pixels other than the lattice points not indicated by the position parameter are interpolated using, for example, linear interpolation. The image creation unit 586 creates mask data M based on the partial solid sphere PS (step S340). Furthermore, the image creation unit 586 creates the omnidirectional image CE by pasting the equirectangular projection image EC on the solid sphere CS (step S350). Then, the image superimposing unit 588 superimposes the superimposed image S on the omnidirectional image CE using the mask data M (step S360). Thereby, the low-definition omnidirectional image CE on which the high-definition superimposed image S is superimposed so that the boundary is not conspicuous is completed.

次に、射影変換部590は、図7に示されているように、予め定められた仮想カメラICの視線方向(所定領域Tの中心点CP)と所定領域Tの画角αに基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域Tをディスプレイ517で見ることができるように射影変換する(ステップS370)。この際、射影変換部590は、所定領域Tをディスプレイ517における表示領域の解像度に合わせる処理も行なう。これにより、表示制御部56は、ディスプレイ517の表示領域の全体に亘って、所定領域Tを示す所定領域画像Qの表示の処理を行なうことができる(ステップS24)。ここでは、所定領域画像Q内に、平面画像Pが重畳された状態の平面画像P’である重畳画像Sが含まれている。   Next, as shown in FIG. 7, the projective transformation unit 590 is based on the predetermined visual line direction of the virtual camera IC (the center point CP of the predetermined area T) and the angle of view α of the predetermined area T. Projective transformation is performed so that the predetermined area T in the omnidirectional image CE with the superimposed image S superimposed can be seen on the display 517 (step S370). At this time, the projective transformation unit 590 also performs processing for matching the predetermined area T with the resolution of the display area on the display 517. Thereby, the display control part 56 can perform the process of the display of the predetermined area image Q which shows the predetermined area T over the whole display area of the display 517 (step S24). Here, a superimposed image S that is a planar image P ′ in which the planar image P is superimposed is included in the predetermined region image Q.

続いて、図36乃至図40を用いて、重畳表示された状態について詳細に説明する。図36は、全天球画像に平面画像を重畳した場合の二次元の概念図である。ここでは、図5に対して、平面画像Pを重畳している場合を示している。図36に示されているように、高精細な重畳画像Sは、立体球CSに張り付けられた低精細な全天球画像CEに対し、位置パラメータに従って、立体球CSの内側に重畳されている。   Next, the state of the superimposed display will be described in detail with reference to FIGS. FIG. 36 is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image. Here, the case where the planar image P is superimposed on FIG. 5 is shown. As shown in FIG. 36, the high-definition superimposed image S is superimposed on the inside of the solid sphere CS according to the position parameter with respect to the low-definition omnidirectional image CE attached to the solid sphere CS. .

図37は、全天球画像に平面画像を重畳した場合の三次元の概念図である。図37では、立体球CSに全天球画像CE及び重畳画像Sが貼り付けられ、重畳画像Sを含む画像が所定領域画像Qとなっている状態を表している。   FIG. 37 is a three-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image. FIG. 37 shows a state in which the omnidirectional image CE and the superimposed image S are pasted on the solid sphere CS and the image including the superimposed image S is the predetermined region image Q.

図38は、本実施形態の位置パラメータを用いずに、全天球画像に平面画像を重畳した場合の二次元の概念図である。図39は、本実施形態の位置パラメータを用いて、全天球画像に平面画像を重畳した場合の二次元の概念図である。   FIG. 38 is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image without using the positional parameters of the present embodiment. FIG. 39 is a two-dimensional conceptual diagram when a planar image is superimposed on an omnidirectional image using the position parameters of this embodiment.

図38(a)に示されているように、仮想カメラICが立体球CSの中心点に位置している場合を基準にすると、被写体P1は、全天球画像CE上で像P2として表され、重畳画像S上で像P3として表されている。図38(a)に示されているように、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置しているため、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。しかし、図38(b)に示されているように、仮想カメラICが立体球CSの中心点から離れると、仮想カメラICと被写体P1とを結ぶ直線上に、像P2は位置しているが、像P3はやや内側に位置している。このため、仮想カメラICと被写体P1とを結ぶ直線上における重畳画像S上の像を像P3’とすると、全天球画像CEと重畳画像Sに、像P3と像P3’との間のズレ量g分のズレが生じてしまう。これにより、全天球画像CEに対して重畳画像Sがズレて表示されてしまう。   As shown in FIG. 38A, when the virtual camera IC is positioned at the center point of the solid sphere CS, the subject P1 is represented as an image P2 on the omnidirectional image CE. , Represented as an image P3 on the superimposed image S. As shown in FIG. 38A, the image P2 and the image P3 are located on a straight line connecting the virtual camera IC and the subject P1, and thus the superimposed image S is superimposed on the omnidirectional image CE. Even if displayed in the state, the omnidirectional image CE and the superimposed image S are not displaced. However, as shown in FIG. 38B, when the virtual camera IC is separated from the center point of the solid sphere CS, the image P2 is located on a straight line connecting the virtual camera IC and the subject P1. The image P3 is located slightly inside. For this reason, when an image on the superimposed image S on the straight line connecting the virtual camera IC and the subject P1 is an image P3 ′, the omnidirectional image CE and the superimposed image S are shifted from each other between the image P3 and the image P3 ′. Deviation of the amount g occurs. Thereby, the superimposed image S is shifted from the omnidirectional image CE and displayed.

これに対して、本実施形態では、複数の格子領域によって示された位置パラメータを用いているため、図39(a)、(b)に示されているように、重畳画像Sを全天球画像CEに沿って重畳することができる。これにより、図39(a)に示されているように、仮想カメラICが立体球CSの中心点に位置する場合だけでなく、図39(b)に示されているように、仮想カメラが立体球CSの中心点から離れた場合であっても、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置することになる。よって、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。   On the other hand, in the present embodiment, since the position parameter indicated by the plurality of lattice regions is used, the superimposed image S is represented as an omnidirectional ball as shown in FIGS. 39 (a) and 39 (b). It can be superimposed along the image CE. Thereby, as shown in FIG. 39A, not only when the virtual camera IC is positioned at the center point of the solid sphere CS, but also as shown in FIG. Even when the three-dimensional sphere CS is away from the center point, the image P2 and the image P3 are located on a straight line connecting the virtual camera IC and the subject P1. Therefore, even if the superimposed image S is displayed in a state of being superimposed on the omnidirectional image CE, there is no deviation between the omnidirectional image CE and the superimposed image S.

図40(a)は重畳表示しない場合のワイド画像の表示例、図40(b)は重畳表示しない場合のテレ画像の表示例、図40(c)は重畳表示する場合のワイド画像の表示例、図40(d)は重畳表示する場合のテレ画像の表示例を示した概念図である。なお、図中の波線は、説明の便宜上表しただけであり、実際にディスプレイ517上には表示されてもよく、表示されなくてもよい。   40A shows a display example of a wide image without superimposition display, FIG. 40B shows a display example of a tele image without superimposition display, and FIG. 40C shows a display example of a wide image with superimposition display. FIG. 40D is a conceptual diagram showing a display example of a tele image when superimposed display is performed. Note that the wavy lines in the figure are merely shown for convenience of explanation, and may or may not be actually displayed on the display 517.

図40(a)に示されているように、全天球画像CEに対して平面画像Pを重畳して表示しない場合、図40(a)における波線で示される領域まで拡大表示すると、図40(b)に示されているように、低精細の画像のままとなっており、利用者は鮮明でない画像を見ることになってしまう。これに対して、図40(c)に示されているように、全天球画像CEに対して平面画像Pを重畳して表示する場合、図40(c)における波線で示される領域まで拡大表示すると、図40(d)に示されているように、高精細の画像が表示され、利用者は鮮明な画像を見ることができる。特に、波線で示されている領域に、文字が描かれた看板等が表示されている場合、高精細な平面画像Pを重畳表示しなければ、拡大表示させても文字がぼやけてしまい、何が書かれてあるのか分からない。しかし、高精細な平面画像Pを重畳表示すれば、拡大表示させても文字が鮮明に見えるため、利用者は何が書かれているのかを把握することができる。   As shown in FIG. 40 (a), when the planar image P is not superimposed and displayed on the omnidirectional image CE, when the enlarged display is performed up to the area indicated by the wavy line in FIG. 40 (a), FIG. As shown in (b), the low-definition image remains as it is, and the user will see an unclear image. On the other hand, as shown in FIG. 40 (c), when the planar image P is displayed superimposed on the omnidirectional image CE, it is enlarged to the area indicated by the wavy line in FIG. 40 (c). When displayed, a high-definition image is displayed as shown in FIG. 40D, and the user can see a clear image. In particular, when a signboard or the like on which characters are drawn is displayed in the area indicated by the wavy line, if the high-definition plane image P is not superimposed and displayed, the characters will be blurred even if they are enlarged and displayed. I don't know if is written. However, if the high-definition planar image P is displayed in a superimposed manner, the characters can be clearly seen even when enlarged and displayed, so that the user can grasp what is written.

<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、射影方式が異なる一方の画像(例えば、正距円筒射影画像EC)に他方の画像(例えば、平面画像P)を重畳しても、画像のずれを抑制することができるという効果を奏する。より詳細に説明すると、特殊撮影装置1と一般撮影装置3との画像作成時の射影方式が異なるため、一般撮影装置3から取得した平面画像Pを、特殊撮影装置1から取得した正距円筒射影画像ECによって作成した全天球画像CEに単純に重畳しても、全天球画像CEと平面画像Pが合わず、平面画像が全天球画像に上手く溶け込まない。そこで、本実施形態のスマートフォン5は、図21に示されているように、正距円筒射影画像ECにおいて、平面画像Pに対応する第1の対応領域CA1を算出することで、まずは大まかな重畳表示の位置を定める(S120参照)。そして、スマートフォン5は、第1の対応領域CA1の注視点GP1の周辺領域PAの射影方式を、平面画像Pと同じ射影方式に変換することで、周辺領域画像PIを作成する(S140参照)。次に、スマートフォン5は、周辺領域画像PIにおいて、平面画像Pに対応する第2の対応領域CA2を算出し(S160参照)、第2の対応領域CA2の射影方式を正距円筒射影画像ECの射影方式に逆変換することで、正距円筒射影画像ECにおいて、第2の対応領域CA2に対応する第3の対応領域CA3を算出する(S180参照)。これにより、図40(c)に示されているように、低精細の全天球画像CEの一部である所定領域画像の一部の領域に、高精細の平面画像Pを重畳して表示することができるため、全天球画像と平面画像の画像が合い、平面画像が全天球画像に上手く溶け込むことができるという効果を奏する。
<< Main effects of this embodiment >>
As described above, according to the present embodiment, even if the other image (for example, the planar image P) is superimposed on one image (for example, the equirectangular projection image EC) having a different projection method, the image shifts. There exists an effect that it can control. More specifically, since the projection methods used when creating the images of the special imaging device 1 and the general imaging device 3 are different, the planar image P acquired from the general imaging device 3 is converted into an equirectangular projection acquired from the special imaging device 1. Even if it is simply superimposed on the omnidirectional image CE created by the image EC, the omnidirectional image CE and the planar image P do not match, and the planar image does not merge well with the omnidirectional image. Therefore, as shown in FIG. 21, the smartphone 5 according to the present embodiment calculates a first corresponding area CA1 corresponding to the planar image P in the equirectangular projection image EC, so that rough superimposition is first performed. The display position is determined (see S120). Then, the smartphone 5 creates the peripheral region image PI by converting the projection method of the peripheral region PA of the gazing point GP1 of the first corresponding region CA1 into the same projection method as that of the planar image P (see S140). Next, the smartphone 5 calculates a second corresponding area CA2 corresponding to the planar image P in the peripheral area image PI (see S160), and sets the projection method of the second corresponding area CA2 to the equirectangular projection image EC. By performing inverse conversion to the projection method, a third corresponding area CA3 corresponding to the second corresponding area CA2 is calculated in the equirectangular projection image EC (see S180). Thereby, as shown in FIG. 40 (c), the high-definition plane image P is superimposed and displayed on a partial area of the predetermined area image that is a part of the low-definition omnidirectional image CE. Therefore, there is an effect that the image of the omnidirectional image and the image of the plane image are combined, and the image of the plane is well merged with the image of the omnidirectional image.

また、ブロックマッチング及び補正を行った場合、周辺領域画像PIを動きベクトルを用いて平面画像Pと同一の形状に変換すると、図31(c)のように、注目対象が画面の真ん中に位置する。これは、図31(d)と比較してもほとんど違和感がなく、特徴点の少ない領域による影響をブロックマッチングによって補正できている。このように、ブロックマッチング及び有効判定による補正は、視差の大きい画像同士のマッチング結果を改善するだけでなく、特徴点の少ない画像同士のマッチング結果を改善するという効果を奏する。   In addition, when block matching and correction are performed, if the peripheral area image PI is converted into the same shape as the planar image P using the motion vector, the target object is located in the middle of the screen as shown in FIG. . This is almost uncomfortable as compared with FIG. 31 (d), and the influence of the region with few feature points can be corrected by block matching. As described above, correction by block matching and validity determination has an effect of improving not only a matching result between images having a large parallax but also a matching result between images having few feature points.

更に、本実施形態によれば、全天球画像CEに重畳画像Sを重畳する位置を示す位置パラメータは、複数の格子領域によって構成された第3の対応領域によって示されるため、図39に示されているように、全天球画像CEに沿って重畳画像Sを重畳させることができる。これにより、全天球画像CEに重畳画像Sを重畳して、仮想カメラICの位置を移動しても画像のズレを抑制することができるという効果を奏する。   Furthermore, according to the present embodiment, the position parameter indicating the position at which the superimposed image S is superimposed on the omnidirectional image CE is indicated by the third corresponding region constituted by a plurality of lattice regions, and thus is shown in FIG. As shown, the superimposed image S can be superimposed along the omnidirectional image CE. Thereby, even if the superimposed image S is superimposed on the omnidirectional image CE and the position of the virtual camera IC is moved, an image shift can be suppressed.

〔第2の実施形態〕
続いて、図41乃至図45を用いて、本発明の第2の実施形態について説明する。
[Second Embodiment]
Subsequently, a second embodiment of the present invention will be described with reference to FIGS. 41 to 45.

<撮影システムの概略>
まずは、図41を用いて、本実施形態の撮影システムの構成の概略について説明する。図41は、本実施形態の撮影システムの構成の概略図である。
<Outline of shooting system>
First, an outline of the configuration of the photographing system of the present embodiment will be described with reference to FIG. FIG. 41 is a schematic diagram of the configuration of the imaging system of the present embodiment.

図41に示されているように、本実施形態の撮影システムは、第1の実施形態に係る各構成に対して、更に画像処理サーバ7が追加されている。第1の実施形態と同一の構成は、同一の符号を付して、その説明を省略する。スマートフォン5と画像処理サーバ7は、インターネットやイントラネット等の通信ネットワーク100を介して、画像処理サーバ7と相互通信することができる。   As shown in FIG. 41, the imaging system according to the present embodiment further includes an image processing server 7 in addition to the components according to the first embodiment. The same configurations as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted. The smartphone 5 and the image processing server 7 can mutually communicate with the image processing server 7 via a communication network 100 such as the Internet or an intranet.

第1の実施形態では、スマートフォン5が、重畳表示メタデータの作成や画像の重畳の処理を行なっているのに対して、本実施形態では、画像処理サーバ7がこれらの処理を行なう。
なお、本実施形態のスマートフォン5は、通信端末の一例となり、画像処理サーバが画像処理装置の一例となる。
In the first embodiment, the smartphone 5 performs the process of creating superimposed display metadata and the process of superimposing images, whereas in the present embodiment, the image processing server 7 performs these processes.
Note that the smartphone 5 of the present embodiment is an example of a communication terminal, and the image processing server is an example of an image processing apparatus.

画像処理サーバ7は、サーバコンピュータであり、複数台のサーバコンピュータで分散して画像処理を行なう場合も含まれる。   The image processing server 7 is a server computer, and includes a case where image processing is performed in a distributed manner by a plurality of server computers.

<<実施形態のハードウェア構成>>
次に、図42を用いて、本実施形態の画像処理サーバ7のハードウェア構成を詳細に説明する。図42は、画像処理サーバのハードウェア構成図である。なお、本実施形態の特殊撮影装置1、一般撮影装置3及びスマートフォン5のハードウェア構成は、第1の実施形態と同様であるため、それらの説明を省略する。
<< Hardware Configuration of Embodiment >>
Next, the hardware configuration of the image processing server 7 of this embodiment will be described in detail with reference to FIG. FIG. 42 is a hardware configuration diagram of the image processing server. Note that the hardware configurations of the special imaging device 1, the general imaging device 3, and the smartphone 5 according to the present embodiment are the same as those in the first embodiment, and thus the description thereof is omitted.

<画像処理サーバのハードウェア構成>
図42は、画像処理サーバのハードウェア構成図である。画像処理サーバ7は、コンピュータによって構築されており、図6に示されているように、CPU701、ROM702、RAM703、HD704、HDD(Hard Disk Drive)705、記録メディア706、メディアI/F707、ディスプレイ708、ネットワークI/F709、キーボード711、マウス712、CD−RWドライブ714、及び、バスライン710を備えている。なお、画像処理サーバ7は、サーバとして機能するため、キーボード711やマウス712等の入力装置や、ディスプレイ708等の出力装置はなくてもよい。
<Hardware configuration of image processing server>
FIG. 42 is a hardware configuration diagram of the image processing server. The image processing server 7 is constructed by a computer, and as shown in FIG. 6, a CPU 701, ROM 702, RAM 703, HD 704, HDD (Hard Disk Drive) 705, recording medium 706, media I / F 707, display 708. A network I / F 709, a keyboard 711, a mouse 712, a CD-RW drive 714, and a bus line 710. Since the image processing server 7 functions as a server, an input device such as a keyboard 711 and a mouse 712 and an output device such as a display 708 may not be provided.

これらのうち、CPU701は、画像処理サーバ7全体の動作を制御する。ROM702は、CPU701の駆動に用いられるプログラムを記憶する。RAM703は、CPU701のワークエリアとして使用される。HD704は、プログラム等の各種データを記憶する。HDD705は、CPU701の制御にしたがってHD704に対する各種データの読み出し又は書き込みを制御する。メディアI/F707は、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御する。ディスプレイ708は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F709は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。キーボード711は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。マウス712は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。CD−RWドライブ714は、着脱可能な記録媒体の一例としてのCD−RW(Compact Disc-ReWritable)713に対する各種データの読み出し等を制御する。   Among these, the CPU 701 controls the overall operation of the image processing server 7. The ROM 702 stores a program used for driving the CPU 701. The RAM 703 is used as a work area for the CPU 701. The HD 704 stores various data such as programs. The HDD 705 controls reading or writing of various data with respect to the HD 704 according to the control of the CPU 701. The media I / F 707 controls reading or writing (storage) of data with respect to a recording medium 706 such as a flash memory. The display 708 displays various information such as a cursor, menu, window, character, or image. A network I / F 709 is an interface for performing data communication using the communication network 100. The keyboard 711 is a kind of input means having a plurality of keys for inputting characters, numerical values, various instructions, and the like. The mouse 712 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The CD-RW drive 714 controls reading of various data with respect to a CD-RW (Compact Disc-ReWritable) 713 as an example of a removable recording medium.

また、画像処理サーバ7は、バスライン710を備えている。バスライン710は、図42に示されているCPU701等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   Further, the image processing server 7 includes a bus line 710. The bus line 710 is an address bus, a data bus, or the like for electrically connecting components such as the CPU 701 shown in FIG.

<<実施形態の機能構成>>
次に、図43及び図44を用いて、本実施形態の機能構成について説明する。図43は、本実施形態に係る撮影システムの機能ブロック図である。なお、本実施形態の特殊撮影装置1、一般撮影装置3及びスマートフォン5の機能構成は、第1の実施形態と同様であるため、それらの説明を省略する。本実施形態の場合、スマートフォン5の画像・音処理部55は、図16に示されている各機能構成を有していてもよいし、有していなくてもよい。
<< Functional Configuration of Embodiment >>
Next, the functional configuration of this embodiment will be described with reference to FIGS. 43 and 44. FIG. 43 is a functional block diagram of the photographing system according to the present embodiment. In addition, since the functional structure of the special imaging device 1, the general imaging device 3, and the smart phone 5 of this embodiment is the same as that of 1st Embodiment, those description is abbreviate | omitted. In the case of this embodiment, the image / sound processing unit 55 of the smartphone 5 may or may not have the functional configurations shown in FIG.

<画像処理サーバの機能構成>
図43に示されているように、画像処理サーバ7は、遠距離通信部71、受付部72、画像・音処理部75、表示制御部76、判断部77、及び記憶・読出部79を有している。これら各部は、図42に示されている各構成要素のいずれかが、HD704からRAM703上に展開された画像処理サーバ7用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of image processing server>
As shown in FIG. 43, the image processing server 7 includes a long-distance communication unit 71, a reception unit 72, an image / sound processing unit 75, a display control unit 76, a determination unit 77, and a storage / reading unit 79. is doing. Each of these units is a function realized by any of the constituent elements shown in FIG. 42 being operated by an instruction from the CPU 701 according to the image processing server 7 program developed from the HD 704 onto the RAM 703, or Means.

また、画像処理サーバ7は、図42に示されているROM702、RAM703、及びHD704によって構築される記憶部7000を有している。   Further, the image processing server 7 has a storage unit 7000 constructed by the ROM 702, the RAM 703, and the HD 704 shown in FIG.

(画像処理サーバの各機能構成)
画像処理サーバ7の遠距離通信部71は、主に、図42に示されているネットワークI/F707及びCPU701の処理によって実現され、通信ネットワークを介して、他の装置(例えば、他のサーバ、スマートフォン)との間で各種データ(または情報)の送受信を行う。
(Functional configuration of image processing server)
The long-distance communication unit 71 of the image processing server 7 is mainly realized by the processing of the network I / F 707 and the CPU 701 illustrated in FIG. 42, and other devices (for example, other servers, Send and receive various data (or information) to and from your smartphone.

受付部72は、主にキーボード711、マウス712、及びCPU701の処理によって実現され、利用者から各種の選択又は入力を受け付ける。   The accepting unit 72 is realized mainly by the processing of the keyboard 711, the mouse 712, and the CPU 701, and accepts various selections or inputs from the user.

画像・音処理部75は、主にCPU701からの命令によって実現され、スマートフォン5から送られて来た各種データに対して、各種処理を行なう。   The image / sound processing unit 75 is realized mainly by instructions from the CPU 701 and performs various processes on various data sent from the smartphone 5.

表示制御部76は、主にCPU701の処理によって実現され、第1の実施形態の表示制御部56と異なり、スマートフォン5のディスプレイ517に平面画像Pを表示させるための所定領域画像Qのデータを作成する。また、表示制御部76は、画像・音処理部75によって作成された重畳表示メタデータを利用して、平面画像Pの各格子領域LA0を、位置パラメータで示された位置、並びに補正パラメータで示された明るさ値及び色値に合わせることで、全天球画像CEに平面画像Pを重畳して表示させるためのデータを作成する。   The display control unit 76 is realized mainly by the processing of the CPU 701, and unlike the display control unit 56 of the first embodiment, creates data of a predetermined area image Q for displaying the planar image P on the display 517 of the smartphone 5. To do. Further, the display control unit 76 uses the superimposed display metadata created by the image / sound processing unit 75 to indicate each lattice area LA0 of the planar image P by the position indicated by the position parameter and the correction parameter. By matching with the brightness value and the color value, data for displaying the planar image P superimposed on the omnidirectional image CE is created.

判断部77は、図42に示されているCPU701の処理によって実現され、各種判断を行なう。   The determination unit 77 is realized by the processing of the CPU 701 shown in FIG. 42 and makes various determinations.

記憶・読出部79は、主に、図42に示されているCPU701の処理によって実現され、記憶部7000に、重畳表示メタデータ等の各種データ(または情報)を記憶したり、記憶部7000から重畳表示メタデータ等の各種データ(または情報)を読み出したりする。また、記憶・読出部79は、記憶部7000から各種データを取得する取得部の役割を果たす。   The storage / reading unit 79 is mainly realized by the processing of the CPU 701 shown in FIG. 42, and stores various data (or information) such as superimposed display metadata in the storage unit 7000 or from the storage unit 7000. Various data (or information) such as superimposed display metadata is read out. The storage / reading unit 79 serves as an acquisition unit that acquires various data from the storage unit 7000.

(画像・音処理部の詳細な各機能構成)
ここで、図44を用いて、画像・音処理部75の各機能構成について詳細に説明する。図44は、画像・音処理部の詳細な機能ブロック図である。
(Detailed functional configuration of image / sound processor)
Here, the functional configuration of the image / sound processor 75 will be described in detail with reference to FIG. FIG. 44 is a detailed functional block diagram of the image / sound processor.

画像・音処理部75は、大きく分けて、エンコードを行なうメタデータ作成部75aとデコードを行なう重畳部75bを有している。メタデータ作成部75aは、図45に示されている後述のステップS44の処理を実行する。また、重畳部75bは、図20に示されている後述のステップS45の処理を実行する。   The image / sound processing unit 75 is roughly divided into a metadata creating unit 75a that performs encoding and a superimposing unit 75b that performs decoding. The metadata creation unit 75a executes a process of step S44 described later shown in FIG. In addition, the superimposing unit 75b executes a process of step S45 described later illustrated in FIG.

{メタデータ作成部の各機能構成}
まずは、メタデータ作成部75aの各機能構成について説明する。メタデータ作成部75aは、抽出部750、第1の対応領域算出部752、注視点特定部754、射影方式変換部756、第2の対応領域算出部758、対応領域補正部759、領域分割部760、射影方式逆変換部762、形状変換部764、補正パラメータ作成部766、及び重畳表示メタデータ作成部770を有している。これらは、それぞれ第1の実施形態における、抽出部550、第1の対応領域算出部552、注視点特定部554、射影方式変換部556、第2の対応領域算出部558、対応領域補正部559、領域分割部560、射影方式逆変換部562、形状変換部564、補正パラメータ作成部566、及び重畳表示メタデータ作成部570と同様の機能を有するため、これらの説明は省略する。
{Each functional configuration of the metadata creation unit}
First, each functional configuration of the metadata creation unit 75a will be described. The metadata creation unit 75a includes an extraction unit 750, a first corresponding region calculation unit 752, a gazing point specification unit 754, a projection method conversion unit 756, a second corresponding region calculation unit 758, a corresponding region correction unit 759, and a region division unit. 760, a projection method inverse conversion unit 762, a shape conversion unit 764, a correction parameter creation unit 766, and a superimposed display metadata creation unit 770. These are the extraction unit 550, the first corresponding region calculation unit 552, the gaze point specification unit 554, the projection method conversion unit 556, the second corresponding region calculation unit 558, and the corresponding region correction unit 559, respectively, in the first embodiment. Since it has the same functions as the area dividing unit 560, the projection method inverse conversion unit 562, the shape conversion unit 564, the correction parameter creation unit 566, and the superimposed display metadata creation unit 570, description thereof will be omitted.

{重畳部の機能構成}
続いて、重畳部75bの機能構成について説明する。重畳部75bは、貼付領域作成部782、補正部784、画像作成部786、重畳部788、及び射影変換部790を有している。これらは、それぞれ第1の実施形態における、貼付領域作成部582、補正部584、画像作成部586、画像重畳部588、及び射影変換部590を有するため、これらの説明は省略する。
{Functional structure of superimposition unit}
Next, the functional configuration of the superimposing unit 75b will be described. The superimposing unit 75b includes a pasting area creating unit 782, a correcting unit 784, an image creating unit 786, a superimposing unit 788, and a projective transformation unit 790. Each of these includes the pasting area creation unit 582, the correction unit 584, the image creation unit 586, the image superimposing unit 588, and the projective transformation unit 590 in the first embodiment, and a description thereof will be omitted.

<<実施形態の処理又は動作>>
続いて、図45を用いて、本実施形態の処理又は動作について説明する。図45を用いて、撮影システムが実行する撮影方法を説明する。図45は、本実施形態に係る撮影方法を示したシーケンス図である。なお、ステップS31〜S41の処理は、第1の実施形態のステップS11〜S31と同様の処理であるため、これらの説明を省略する。
<< Processing or Operation of Embodiment >>
Subsequently, the processing or operation of the present embodiment will be described with reference to FIG. A photographing method executed by the photographing system will be described with reference to FIG. FIG. 45 is a sequence diagram illustrating a shooting method according to the present embodiment. In addition, since the process of step S31-S41 is a process similar to step S11-S31 of 1st Embodiment, these description is abbreviate | omitted.

スマートフォン5では、送受信部51が通信ネットワーク100を介して画像処理サーバ7に、射影方式が異なる一方の画像に他方の画像を重畳するための重畳要求を示す重畳要求情報を送信する(ステップS42)。この重畳要求情報には、記憶部5000に記憶された電子フォルダ内のデータ(平面画像データ、正距円筒射影画像データ)を送信する。これにより、画像処理サーバ7の送受信部71は、電子フォルダ内のデータを受信する。   In the smartphone 5, the transmission / reception unit 51 transmits superimposition request information indicating a superimposition request for superimposing the other image on one image having a different projection method to the image processing server 7 via the communication network 100 (step S42). . Data in the electronic folder (planar image data, equirectangular projection image data) stored in the storage unit 5000 is transmitted to the superimposition request information. Thereby, the transmission / reception unit 71 of the image processing server 7 receives the data in the electronic folder.

次に、画像処理サーバ7では、記憶・読出部79が、記憶部7000に、ステップS42で受信された電子フォルダ内のデータを記憶する(ステップS43)。そして、図44に示されているメタデータ作成部75aが、重畳表示用メタデータの作成を行なう(ステップS44)。更に、重畳部75bが、重畳の処理を行なう(ステップS45)。ステップS44,S45の処理は、それぞれステップS22,S23の処理と同様の内容であるため、これらの説明を省略する。   Next, in the image processing server 7, the storage / readout unit 79 stores the data in the electronic folder received in step S42 in the storage unit 7000 (step S43). Then, the metadata creating unit 75a shown in FIG. 44 creates superimposed display metadata (step S44). Further, the superimposing unit 75b performs a superimposing process (step S45). Since the processes of steps S44 and S45 have the same contents as the processes of steps S22 and S23, respectively, their descriptions are omitted.

次に、表示制御部76は、スマートフォン5のディスプレイ517の表示領域の全体に亘って、所定領域Tを示す所定領域画像Qを表示させる所定領域画像Qのデータを作成する。ここでは、所定領域画像Q内に、平面画像Pが重畳された状態の平面画像P’である重畳画像Sが含まれている。送受信部71は、スマートフォン5に対して、表示制御部76によって作成された所定領域画像Qのデータを送信する(ステップS46)。これにより、スマートフォンの送受信部51は、所定領域画像Qのデータを受信する。   Next, the display control unit 76 creates data of the predetermined area image Q that displays the predetermined area image Q indicating the predetermined area T over the entire display area of the display 517 of the smartphone 5. Here, a superimposed image S that is a planar image P ′ in which the planar image P is superimposed is included in the predetermined region image Q. The transmission / reception unit 71 transmits the data of the predetermined area image Q created by the display control unit 76 to the smartphone 5 (step S46). Thereby, the transmission / reception unit 51 of the smartphone receives the data of the predetermined area image Q.

次に、スマートフォン5では。表示制御部56が、ディスプレイ517上に、重畳画像Sが含まれた所定領域画像Qを表示させる(ステップS47)。   Next, with the smartphone 5. The display control unit 56 displays the predetermined area image Q including the superimposed image S on the display 517 (step S47).

<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、上記第1の実施形態と同様の効果を奏する。
<< Main effects of this embodiment >>
As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained.

また、本実施形態では、連携撮影の処理はスマートフォン5で行い、重畳表示用メタデータの作成及び重畳の処理は画像処理サーバ7で行なうため、スマートフォン5の処理能力が比較的低い場合であっても、画像のずれを抑制することができるという効果を奏する。   Further, in the present embodiment, the cooperative shooting process is performed by the smartphone 5, and the creation and superimposition process of the superimposed display metadata is performed by the image processing server 7. In addition, there is an effect that image shift can be suppressed.

〔補足〕
上記各実施形態では、図14に示されているように、スマートフォン5が、正距円筒射影画像データ、平面画像データ、及び重畳表示パラメータデータを有しているが、これに限るものではない。例えば、インターネット等の通信ネットワークを介して通信可能な管理サーバが、正距円筒射影画像データ、平面画像データ、及び重畳表示パラメータデータのうち少なくとも1つを記憶してもよい。
[Supplement]
In each of the above embodiments, as shown in FIG. 14, the smartphone 5 has equirectangular projection image data, planar image data, and superimposed display parameter data, but the present invention is not limited to this. For example, a management server that can communicate via a communication network such as the Internet may store at least one of equirectangular projection image data, planar image data, and superimposed display parameter data.

また、上記各本実施形態では、全天球画像CEに平面画像Pが重畳されているが、これに限るものではない。例えば、全天球画像CEの一部の画像を平面画像Pに置き換えてもよいし、全天球画像CEの一部の画像を削除して、この削除した部分に平面画像Pを嵌め込んでもよい。   In each of the above embodiments, the planar image P is superimposed on the omnidirectional image CE, but the present invention is not limited to this. For example, a partial image of the omnidirectional image CE may be replaced with the planar image P, or a partial image of the omnidirectional image CE may be deleted and the planar image P may be inserted into the deleted portion. Good.

また、上記第2の実施形態では、重畳の処理が画像処理サーバ7で行なわれているが(ステップS45参照)、これに限るものではない。例えば、画像処理サーバ7からスマートフォン5に重畳表示用メタデータを送信し、スマートフォン5側で重畳の処理及び表示の処理を行なってもよい。この場合、画像処理サーバ7では、図44に示されているメタデータ作成部75aが重畳表示用メタデータの作成を行なう。一方、スマートフォン5では、図16に示されている重畳部55bが重畳の処理を行い、図14に示されている表示制御部56が表示の処理を行なう。   In the second embodiment, the superimposing process is performed by the image processing server 7 (see step S45), but the present invention is not limited to this. For example, the superimposed display metadata may be transmitted from the image processing server 7 to the smartphone 5, and the overlapping process and the display process may be performed on the smartphone 5 side. In this case, in the image processing server 7, the metadata creation unit 75a shown in FIG. 44 creates metadata for superimposed display. On the other hand, in the smartphone 5, the superimposing unit 55b illustrated in FIG. 16 performs the superimposing process, and the display control unit 56 illustrated in FIG. 14 performs the displaying process.

また、上記では、全天球画像に平面画像を重畳する場合について説明したが、重畳は、合成の一例である。合成には、重畳の他に、貼り付け、嵌め込み、重ね合わせ等も含まれる。また、上記重畳画像は、合成画像の一例である。合成画像には、重畳画像の他に、貼り付け画像、嵌め込み画像、重ね合わせ画像等も含まれる。更に、画像重畳部588,788は、画像合成部の一例である。   Moreover, although the case where a planar image is superimposed on an omnidirectional image has been described above, the superimposition is an example of synthesis. In addition to superposition, the composition includes pasting, fitting, superposition, and the like. The superimposed image is an example of a composite image. In addition to the superimposed image, the composite image includes a pasted image, a fitted image, a superimposed image, and the like. Furthermore, the image superimposing units 588 and 788 are examples of an image synthesizing unit.

1 特殊撮影装置(第1の撮影装置の一例)
3 一般撮影装置(第2の撮影装置の一例)
5 スマートフォン(画像処理装置の一例)
7 画像処理サーバ(画像処理装置の一例)
21 ブロック分割部(ブロック分割手段の一例)
22 マッチング部(マッチング手段の一例)
23 動きベクトル算出部(動きベクトル算出手段の一例)
24 動きベクトル補正部(動きベクトル補正手段の一例)
25 代表点補正部(代表点補正手段の一例)
51 送受信部
52 受付部
55a メタデータ作成部
55b 重畳部
56 表示制御部
58 近距離通信部
59 記憶・読出部(取得手段の一例)
72 受付部
75 画像・音処理部
75a メタデータ作成部
75b 重畳部
76 表示制御部
78 近距離通信部
79 記憶・読出部(取得手段の一例)
517 ディスプレイ
550 抽出部(抽出手段の一例)
552 第1の対応領域算出部(第1の対応領域算出手段の一例)
554 注視点特定部(注視点特定手段の一例)
556 射影方式変換部(射影方式変換手段の一例)
558 第2の対応領域算出部(対応領域算出手段の一例/第2の対応領域算出手段の一例)
559 対応領域補正部(対応領域補正手段の一例)
560 領域分割部(領域分割手段の一例)
562 射影方式逆変換部(射影方式逆変換手段の一例)
564 形状変換部(形状変換手段の一例)
566 補正パラメータ作成部(補正情報作成手段の一例)
570 重畳表示メタデータ作成部(位置算出手段の一例)
582 添付領域作成部(添付領域作成手段の一例)
584 補正部(補正手段の一例)
586 画像作成部(画像作成手段の一例)
588 画像重畳部(画像重畳手段の一例)
590 射影変換部(射影変換手段の一例)
750 抽出部(抽出手段の一例)
752 第1の対応領域算出部(第1の対応領域算出手段の一例)
754 注視点特定部(注視点特定手段の一例)
756 射影方式変換部(射影方式変換手段の一例)
758 第2の対応領域算出部(対応領域算出手段の一例/第2の対応領域算出手段の一例)
760 領域分割部(領域分割手段の一例)
762 射影方式逆変換部(射影方式逆変換手段の一例)
764 形状変換部(形状変換手段の一例)
766 補正パラメータ作成部(補正情報作成手段の一例)
770 重畳表示メタデータ作成部(位置算出手段の一例)
782 添付領域作成部(添付領域作成手段の一例)
784 補正部(補正手段の一例)
786 画像作成部(画像作成手段の一例)
788 画像重畳部(画像重畳手段の一例)
790 射影変換部(射影変換手段の一例)
5000 記憶部(記憶手段の一例)
5001 連携撮影装置DB(連携撮影装置手段の一例)
7000 記憶部(記憶手段の一例)
1 Special shooting device (example of first shooting device)
3 General photographing device (an example of a second photographing device)
5 Smartphone (an example of an image processing device)
7 Image processing server (an example of an image processing device)
21 Block division unit (an example of block division means)
22 Matching part (an example of matching means)
23. Motion vector calculation unit (an example of motion vector calculation means)
24 motion vector correction unit (an example of motion vector correction means)
25 representative point correction unit (an example of representative point correction means)
51 Transmission / Reception Unit 52 Reception Unit 55a Metadata Creation Unit 55b Superimposition Unit 56 Display Control Unit 58 Near Field Communication Unit 59 Storage / Readout Unit (Example of Acquisition Unit)
72 Reception unit 75 Image / sound processing unit 75a Metadata creation unit 75b Superimposition unit 76 Display control unit 78 Short-range communication unit 79 Storage / reading unit (an example of an acquisition unit)
517 Display 550 Extraction Unit (Example of Extraction Unit)
552 1st corresponding area calculation part (an example of the 1st corresponding area calculation means)
554 Gaze point identification part (an example of gaze point identification means)
556 Projection method conversion unit (an example of projection method conversion means)
558 Second Corresponding Area Calculation Unit (Example of Corresponding Area Calculation Unit / Example of Second Corresponding Area Calculation Unit)
559 corresponding area correction unit (an example of corresponding area correction means)
560 area dividing unit (an example of area dividing means)
562 Projection method reverse conversion unit (an example of projection method reverse conversion means)
564 Shape converter (an example of shape converter)
566 Correction parameter creation unit (an example of correction information creation means)
570 Superimposed display metadata creation unit (an example of position calculation means)
582 Attachment area creation unit (an example of attachment area creation means)
584 Correction unit (an example of correction means)
586 Image creation unit (an example of image creation means)
588 Image superimposing unit (an example of image superimposing means)
590 Projection conversion unit (an example of projection conversion means)
750 extraction unit (an example of extraction means)
752 First corresponding area calculation unit (an example of first corresponding area calculation means)
754 Gaze point identification part (an example of gaze point identification means)
756 Projection method conversion unit (an example of projection method conversion means)
758 Second corresponding area calculation unit (an example of a corresponding area calculation unit / an example of a second corresponding area calculation unit)
760 area dividing unit (an example of area dividing means)
762 Projection method inversion unit (an example of projection method inversion unit)
764 Shape converter (an example of shape converter)
766 Correction parameter creation unit (an example of correction information creation means)
770 superimposed display metadata creation unit (an example of position calculation means)
782 Attachment region creation unit (an example of attachment region creation means)
784 Correction unit (an example of correction means)
786 Image creation unit (an example of image creation means)
788 image superimposing unit (an example of image superimposing means)
790 Projection conversion unit (an example of projection conversion means)
5000 storage unit (an example of storage means)
5001 Collaborative photographing apparatus DB (an example of cooperative photographing apparatus means)
7000 storage unit (an example of storage means)

特開2016−96487号公報Japanese Patent Laid-Open No. 2006-96487 特開2012−178135号公報JP 2012-178135 A

Claims (7)

第1の射影方式の第1の画像と、第1の射影方式とは異なる第2の射影方式の第2の画像とを取得する取得手段と、
前記第1の画像を前記第2の射影方式に変換し、第3の画像を生成する第1の射影方式変換手段と、
前記第2の画像及び前記第3の画像からそれぞれ複数の特徴点を抽出する抽出手段と、
前記抽出手段でそれぞれ抽出した前記第2の画像の複数の特徴点及び前記第3の画像の複数の特徴点に基づいて前記第3の画像における前記第2の画像に対応する第2の対応領域を求める対応領域算出手段と、
前記第2の画像をブロック分割して前記第3の画像にマッチングさせることにより求めた前記第3の画像における複数のブロックに基づいて、前記第2の対応領域を補正する対応領域補正手段と、
前記補正後の第2の対応領域に含まれる所定の複数の点を、前記第1の射影方式に変換する第2の射影方式変換手段と、
前記第2の射影方式変換手段で変換した前記所定の複数の点の前記第1の画像における位置情報を求める位置算出手段と、
前記位置算出手段により求めた位置情報を前記第2の画像の複数の点と対応付けて記憶する記憶手段と、
を有することを特徴とする画像処理装置。
Acquisition means for acquiring a first image of the first projection method and a second image of a second projection method different from the first projection method;
First projection method conversion means for converting the first image into the second projection method and generating a third image;
Extraction means for extracting a plurality of feature points from each of the second image and the third image;
A second corresponding region corresponding to the second image in the third image based on the plurality of feature points of the second image and the plurality of feature points of the third image respectively extracted by the extraction unit; Corresponding area calculation means for obtaining
Corresponding area correction means for correcting the second corresponding area based on a plurality of blocks in the third image obtained by dividing the second image into blocks and matching with the third image;
Second projection method conversion means for converting a plurality of predetermined points included in the corrected second corresponding region to the first projection method;
Position calculating means for obtaining position information in the first image of the predetermined plurality of points converted by the second projection method converting means;
Storage means for storing the position information obtained by the position calculation means in association with a plurality of points of the second image;
An image processing apparatus comprising:
前記対応領域補正手段は、
前記第2の画像を複数のブロックに分割するブロック分割手段と、
前記ブロック分割手段によって分割された各ブロックを、前記第3の画像上にマッチングするマッチング手段と、
前記マッチング手段によってマッチングされた前記第3の画像上の対応ブロックの所定の点に対して、前記第2の対応領域における代表点からの動きベクトルを算出する動きベクトル算出手段と、
前記動きベクトルに基づいて、前記第2の対応領域における代表点を補正することで、前記第2の対応領域を補正する代表点補正手段と、
を有することを特徴とする請求項1に記載の画像処理装置。
The corresponding area correction means includes
Block dividing means for dividing the second image into a plurality of blocks;
Matching means for matching each block divided by the block dividing means on the third image;
Motion vector calculating means for calculating a motion vector from a representative point in the second corresponding area for a predetermined point of the corresponding block on the third image matched by the matching means;
Representative point correcting means for correcting the second corresponding area by correcting the representative point in the second corresponding area based on the motion vector;
The image processing apparatus according to claim 1, further comprising:
請求項2に記載の画像処理装置であって、
前記対応領域補正手段は、
前記動きベクトル算出手段によって算出された動きベクトルを、前記第1の画像と前記第3の画像における類似度に基づいて補正する動きベクトル補正手段を有し、
前記代表点補正手段は、前記ベクトル補正手段による補正後の動きベクトルに基づいて、前記第2の対応領域における代表点を補正することで、前記第2の対応領域を補正することを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2,
The corresponding area correction means includes
Motion vector correction means for correcting the motion vector calculated by the motion vector calculation means based on the similarity between the first image and the third image;
The representative point correcting unit corrects the second corresponding region by correcting the representative point in the second corresponding region based on the motion vector corrected by the vector correcting unit. The image processing apparatus according to claim 2.
請求項2に記載の画像処理装置であって、
前記対応領域補正手段は、
前記動きベクトル算出手段によって算出された動きベクトルを、前記第3の画像における輝度の分散値に基づいて補正する動きベクトル補正手段を有し、
前記代表点補正手段は、前記ベクトル補正手段による補正後の動きベクトルに基づいて、前記第2の対応領域における代表点を補正することで、前記第2の対応領域を補正することを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2,
The corresponding area correction means includes
Motion vector correction means for correcting the motion vector calculated by the motion vector calculation means based on a variance value of luminance in the third image;
The representative point correcting unit corrects the second corresponding region by correcting the representative point in the second corresponding region based on the motion vector corrected by the vector correcting unit. The image processing apparatus according to claim 2.
前記画像処理装置は、スマートフォン、タブレット型パソコン、ノートパソコン、デスクトップパソコン、又はサーバコンピュータであることを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing apparatus is a smartphone, a tablet personal computer, a notebook personal computer, a desktop personal computer, or a server computer. 請求項1乃至5に記載の画像処理装置と、
被写体を撮像し、前記第1の射影方式の前記第1の画像を得る第1の撮影装置と、
被写体を撮像し、前記第2の射影方式の前記第2の画像を得る第2の撮影装置と、
を有することを特徴とする撮影システム。
An image processing apparatus according to claim 1;
A first imaging device that images a subject and obtains the first image of the first projection method;
A second imaging device that images a subject and obtains the second image of the second projection method;
An imaging system comprising:
第1の射影方式の第1の画像と、第1の射影方式とは異なる第2の射影方式の第2の画像とを取得する取得ステップと、
前記第1の画像を前記第2の射影方式に変換し、第3の画像を生成する第1の射影方式変換ステップと、
前記第2の画像及び前記第3の画像からそれぞれ複数の特徴点を抽出する抽出ステップと、
前記抽出ステップでそれぞれ抽出した前記第2の画像の複数の特徴点及び前記第3の画像の複数の特徴点に基づいて前記第3の画像における前記第2の画像に対応する第2の対応領域を求める対応領域算出ステップと、
前記第2の画像をブロック分割して前記第3の画像にマッチングさせることにより求めた前記第3の画像における複数のブロックに基づいて、前記第2の対応領域を補正する対応領域補正ステップと、
前記補正後の第2の対応領域に含まれる所定の複数の点を、前記第1の射影方式に変換する第2の射影方式変換ステップと、
前記第2の射影方式変換ステップで変換した前記所定の複数の点の前記第1の画像における位置情報を求める位置算出ステップと、
前記位置算出ステップにより求めた位置情報を前記第2の画像の複数の点と対応付けて記憶する記憶ステップと、
を実行する特徴とする画像処理方法。
An acquisition step of acquiring a first image of the first projection method and a second image of a second projection method different from the first projection method;
A first projection method conversion step of converting the first image into the second projection method and generating a third image;
An extraction step of extracting a plurality of feature points from each of the second image and the third image;
A second corresponding region corresponding to the second image in the third image based on the plurality of feature points of the second image and the plurality of feature points of the third image respectively extracted in the extraction step; A corresponding area calculating step for obtaining
A corresponding area correction step for correcting the second corresponding area based on a plurality of blocks in the third image obtained by dividing the second image into blocks and matching the third image with the third image;
A second projection method conversion step of converting a plurality of predetermined points included in the corrected second corresponding region to the first projection method;
A position calculating step for obtaining position information in the first image of the predetermined plurality of points converted in the second projective method conversion step;
A storage step of storing the position information obtained by the position calculation step in association with a plurality of points of the second image;
The image processing method characterized by performing.
JP2019046780A 2018-03-31 2019-03-14 Image processing device, imaging system, image processing method, and program Pending JP2019185757A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/363,191 US20190306420A1 (en) 2018-03-31 2019-03-25 Image processing apparatus, image capturing system, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018070486 2018-03-31
JP2018070486 2018-03-31

Publications (1)

Publication Number Publication Date
JP2019185757A true JP2019185757A (en) 2019-10-24

Family

ID=68340992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019046780A Pending JP2019185757A (en) 2018-03-31 2019-03-14 Image processing device, imaging system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2019185757A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023282458A1 (en) * 2021-07-09 2023-01-12 삼성전자 주식회사 Electronic device and operation method of electronic device
US11948308B2 (en) 2021-07-09 2024-04-02 Samsung Electronics Co., Ltd. Electronic device and operation method thereof
US12144040B2 (en) 2020-11-18 2024-11-12 Samsung Electronics Co., Ltd. Electronic device and operation method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12144040B2 (en) 2020-11-18 2024-11-12 Samsung Electronics Co., Ltd. Electronic device and operation method thereof
WO2023282458A1 (en) * 2021-07-09 2023-01-12 삼성전자 주식회사 Electronic device and operation method of electronic device
US11948308B2 (en) 2021-07-09 2024-04-02 Samsung Electronics Co., Ltd. Electronic device and operation method thereof

Similar Documents

Publication Publication Date Title
US10681271B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
JP2019057903A (en) Image processing apparatus, photographing system, image processing method, and program
US10789671B2 (en) Apparatus, system, and method of controlling display, and recording medium
US10638039B2 (en) Apparatus, system, and method of controlling image capturing, and recording medium
JP2019057264A (en) Image processing apparatus, photographing system, image processing method, and program
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
US20190340737A1 (en) Image processing apparatus, image processing system, image capturing system, image processing method, and recording medium
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US20190306420A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019075766A (en) Image processing apparatus, photographing system, image processing method, and program
JP2019164782A (en) Image processing apparatus, image capturing system, image processing method, and program
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2018110384A (en) Image processing apparatus, imaging system, image processing method and program
WO2018124267A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2018109946A (en) Display device, program, and method for display
JP2019185757A (en) Image processing device, imaging system, image processing method, and program
JP2018157538A (en) Program, imaging system, and information processing apparatus
JP2018109971A (en) Image processing device, image processing system, photographing system, image processing method, and program
JP2019164783A (en) Image processing apparatus, image capturing system, image processing method, and program
JP2019087984A (en) Information processing apparatus, imaging system, program
JP2018110385A (en) Communication terminal, imaging system, method for image processing, and program
JP7415544B2 (en) Photography system and method
JP2017162014A (en) Communication terminal, image communication system, display method, and program
JP2019175446A (en) Image processing device, imaging system, image processing method, and program