JP7135277B2 - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP7135277B2 JP7135277B2 JP2017043209A JP2017043209A JP7135277B2 JP 7135277 B2 JP7135277 B2 JP 7135277B2 JP 2017043209 A JP2017043209 A JP 2017043209A JP 2017043209 A JP2017043209 A JP 2017043209A JP 7135277 B2 JP7135277 B2 JP 7135277B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- polyhedron
- coordinates
- image processing
- placement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Image Processing (AREA)
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
従来、3次元の立体の模型等を紙等で作るため、3次元の立体形状から2次元の紙等に展開図を印刷し、展開図を切り抜いて組み立てることによって、立体の模型を作る方法が知られている。 Conventionally, in order to make a three-dimensional three-dimensional model from paper, etc., a three-dimensional model is produced by printing a development drawing from a three-dimensional three-dimensional shape on two-dimensional paper, etc., cutting out the development drawing, and assembling the three-dimensional model. Are known.
例えば、まず、コンピュータが、立体を構成する頂点の座標を抽出する。次に、コンピュータが、3個以上の頂点で構成され、かつ、頂点と関連付けされる面を抽出する。続いて、コンピュータが、隣接する2つの面において各面の端縁を形成し、かつ、隣接する2面と関連付けされている稜線を抽出する。そして、コンピュータが、抽出される隣接する2つの面のうち、展開を行う面を構成する頂点の座標を2次元座標に変換することによって、面を展開し、展開される面を形成する稜線に基づいて、次に展開する面を決定する。このようにして、立体の展開図を作成する方法が知られている(例えば、特許文献1等)。
For example, first, the computer extracts the coordinates of the vertices that make up the solid. Next, the computer extracts faces that are composed of three or more vertices and that are associated with the vertices. The computer then extracts the ridges that form the edges of each of the two adjacent surfaces and that are associated with the two adjacent surfaces. Then, the computer converts the coordinates of the vertices forming the surface to be developed out of the two adjacent surfaces to be developed into two-dimensional coordinates, thereby developing the surface so that the edges forming the surface to be developed are aligned. Based on this, the surface to be developed next is determined. In this way, a method of creating a development view of a solid is known (for example, see
しかしながら、全天球カメラ等の撮影装置で撮影された画像(以下「撮影画像」という。)を紙等に印刷して、画像が印刷された紙等を多面体形状に組み立てる場合がある。このような場合に、従来の方法では、多面体における最上部と、撮影画像の天頂とが一致しない場合があるのが課題となる。 However, there is a case where an image (hereinafter referred to as "photographed image") photographed by an imaging device such as an omnidirectional camera is printed on paper or the like, and the paper or the like on which the image is printed is assembled into a polyhedral shape. In such a case, the problem with the conventional method is that the top of the polyhedron may not match the zenith of the captured image.
本発明は、撮影画像を印刷した紙等を組み立てた多面体における最上部と、撮影画像の天頂とを一致させることができる画像処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus capable of matching the top of a polyhedron made up of sheets of paper on which a photographed image is printed and the zenith of the photographed image.
上述した課題を解決するために、本発明の一態様における、全周を撮影して撮影画像を生成する撮影装置に接続され、かつ、出力画像を画像形成装置に出力する画像処理装置は、
シート状の媒体上に前記出力画像に基づいて形成された展開図を組み立てると形成される多面体の種類および置き方を設定する設定部と、
前記多面体の種類および置き方に基づいて、前記媒体を組み立てると最上部となる箇所に、前記撮影画像における天頂が画像形成されるように、前記撮影画像における座標を、組み立てると前記多面体となる前記展開図における座標に変換する変換部と、
前記変換された座標に基づいて、前記多面体が有する複数の面のうち、底面以外の面に、前記撮影画像が画像形成されるように、前記撮影画像を前記天頂方向に縮小または前記天頂方向に平行移動させて前記出力画像を生成する出力画像生成部と
を備えることを特徴とする。
In order to solve the above-described problems, in one aspect of the present invention, an image processing apparatus that is connected to an imaging device that captures an entire circumference and generates a captured image and that outputs an output image to an image forming device includes:
a setting unit for setting the type and placement of a polyhedron formed by assembling developments formed on a sheet-like medium based on the output image;
Based on the type and placement of the polyhedron, the coordinates in the photographed image are adjusted so that the zenith in the photographed image is formed at the uppermost position when the medium is assembled, and the polyhedron is assembled. a conversion unit that converts to coordinates in the developed view;
Based on the transformed coordinates, the photographed image is reduced in the zenith direction or reduced in the zenith direction so that the photographed image is formed on a surface other than the bottom surface of the plurality of surfaces of the polyhedron. and an output image generation unit that generates the output image by parallel movement .
撮影画像を印刷した紙等を組み立てた多面体における最上部と、撮影画像の天頂とを一致させることができる画像処理装置を提供できる。 It is possible to provide an image processing apparatus capable of matching the top of a polyhedron formed by assembling paper or the like on which a photographed image is printed with the zenith of the photographed image.
以下、本発明の実施の形態について説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below.
<画像処理装置の使用例>
図1は、本発明の一実施形態に係る画像処理システムの全体構成の一例を説明する図である。図示する例では、画像処理システムでは、撮影装置の例である全天球カメラ1と、画像処理装置の例であるPC(Personal Computer)2とが接続される。また、PC2は、画像形成装置の例であるプリンタ3に接続される。
<Usage example of image processing device>
FIG. 1 is a diagram illustrating an example of the overall configuration of an image processing system according to one embodiment of the present invention. In the illustrated example, in the image processing system, an
全天球カメラ1は、複数の光学系を有するカメラ等である。例えば、全天球カメラ1は、複数の光学系を用いて撮影した画像に基づいて、全天球カメラ1の全周等の広い範囲を示す撮影画像(例えば、水平360°を写す画像である。)を生成する。
The
なお、撮影画像は、全周をすべて示す画像に限られない。例えば、撮影画像は、360°のうち、一部の範囲が欠けた画像であったり、半球分を示す画像であったり又は一部の範囲が除去された画像等でもよい。 Note that the captured image is not limited to an image showing the entire circumference. For example, the captured image may be an image in which a part of the range of 360° is missing, an image showing a hemisphere, or an image in which a part of the range is removed.
次に、全天球カメラ1は、撮影画像をPC2に入力する。そして、PC2は、撮影画像を画像処理して出力画像を生成する。続いて、PC2が出力画像をプリンタ3に出力すると、プリンタ3は、出力画像に基づいて、紙又はプラスチックシート等の媒体に画像形成を行う。
Next, the
このようにして、画像形成が行われた紙等は、画像形成が行われた箇所が切り抜かれる。そして、切り抜かれた箇所が組み立てられると、4面体、6面体、8面体、12面体、20面体、円筒体、錐又は柱等の多面体となる。なお、多面体は、これらに限られず、他の形状でもよい。 In this way, the paper or the like on which the image has been formed is cut out at the portion where the image has been formed. Then, when the cut out parts are assembled, it becomes a polyhedron such as a tetrahedron, a hexahedron, an octahedron, a dodecahedron, an icosahedron, a cylinder, a cone, or a pillar. In addition, the polyhedron is not limited to these, and other shapes may be used.
また、この例では、全天球カメラ1、PC2及びプリンタ3は、有線又は無線で接続される。例えば、PC2は、全天球カメラ1が生成する全天球画像等の撮影画像を示すデータを全天球カメラ1からダウンロードして入力する。なお、接続は、ネットワーク又はサーバ等を介してもよい。
Also, in this example, the
なお、画像処理装置の使用する構成は、図示する構成に限られない。例えば、全天球カメラ1及びPC2は、一体の装置であってもよい。また、画像処理装置は、PCに限られず、他の種類の情報処理装置でもよい。
Note that the configuration used by the image processing apparatus is not limited to the illustrated configuration. For example, the
各装置は、例えば、以下のような装置である。 Each device is, for example, the following device.
<撮影装置例>
図2は、本発明の一実施形態に係る撮影装置の一例を説明する図である。なお、図2は、全天球カメラ1の外観の一例を示す図である。具体的には、図2(a)は、全天球カメラ1の正面図の一例である。一方で、図2(b)は、全天球カメラ1の左側面図の一例である。さらに、図2(c)は、全天球カメラ1の平面図の一例である。
<Example of imaging device>
FIG. 2 is a diagram illustrating an example of an imaging device according to an embodiment of the present invention. FIG. 2 is a diagram showing an example of the appearance of the
そして、全天球カメラ1は、前面撮影素子1H1と、後面撮影素子1H2と、スイッチ1H3とを有する。この例では、前面撮影素子1H1及び後面撮影素子1H2等の光学系が撮影に用いられる。そして、それぞれの光学系を用いて撮影されたそれぞれの画像に基づいて、全天球カメラ1は、全天球画像等の撮影画像を生成する。
The
また、スイッチ1H3は、いわゆるシャッタボタンであり、ユーザが全天球カメラ1に対して撮影の指示を行うための入力装置の例である。
Also, the switch 1H3 is a so-called shutter button, and is an example of an input device for the user to instruct the
例えば、図2(a)に示すように、ユーザが全天球カメラ1を手で持ち、全天球カメラ1が有するスイッチ1H3がユーザによって押されると、全天球カメラ1は、撮影を行う。具体的には、全天球カメラ1は、図3のようにして撮影に用いられる。
For example, as shown in FIG. 2A, when the user holds the
図3は、本発明の一実施形態に係る撮影装置による撮影の一例を説明する図である。ユーザは、全天球カメラ1を手で持ち、図2に示すスイッチ1H3を押すことによって撮影を行う。このようにすると、全天球カメラ1は、図示するように、前面撮影素子1H1(図2)と、後面撮影素子1H2(図2)とによって、全天球カメラ1の全周等の広範囲を撮影することができる。このようにして撮影される画像は、例えば、以下のような画像である。
FIG. 3 is a diagram illustrating an example of photographing by the photographing device according to one embodiment of the present invention. The user takes a picture by holding the
図4は、本発明の一実施形態に係る撮影装置によって撮影された画像の一例を説明する図である。具体的には、図4(a)は、前面撮影素子1H1(図2)によって撮影される画像の一例である。一方で、図4(b)は、後面撮影素子1H2(図2)によって撮影される画像の一例である。そして、図4(c)は、前面撮影素子1H1によって撮影される画像、すなわち、図4(a)に示す画像と、後面撮影素子1H2によって撮影される画像、すなわち、図4(b)に示す画像とに基づいて生成される画像の一例である。 FIG. 4 is a diagram illustrating an example of an image captured by the imaging device according to one embodiment of the present invention. Specifically, FIG. 4A is an example of an image captured by the front imaging element 1H1 (FIG. 2). On the other hand, FIG. 4B is an example of an image captured by the rear imaging element 1H2 (FIG. 2). FIG. 4(c) shows an image captured by the front imaging element 1H1, that is, the image shown in FIG. 4(a), and an image captured by the rear imaging element 1H2, that is, that shown in FIG. 4(b). It is an example of an image generated based on the image.
まず、前面撮影素子1H1によって撮影される画像は、図4(a)に示すように、全天球カメラ1の前方側の広い範囲、例えば、画角で180°の範囲を撮影範囲とする画像である。また、図示するように、前面撮影素子1H1によって撮影される画像は、前面撮影素子1H1が広い範囲を撮影するための光学系、例えば、いわゆる魚眼レンズを用いる場合には、歪曲収差を有する。すなわち、図4(a)に示す画像は、全天球カメラ1の一方の広い範囲を示し、かつ、歪曲収差を有する、いわゆる半球画像(以下「半球画像」という。)である。
First, as shown in FIG. 4A, an image captured by the front imaging element 1H1 is an image whose imaging range is a wide range in front of the
なお、各光学系のそれぞれの画角は、180°以上かつ200°以下の範囲が望ましい。特に、画角が180°以上を超える場合には、図4(a)に示す半球画像と、図4(b)に示す半球画像とを合成する際、重畳する画像領域があるため、撮影装置は、重畳する画像領域を利用してつなぎ合わせ等を行うことができるので、全天球画像を生成しやすい。 The angle of view of each optical system is desirably in the range of 180° or more and 200° or less. In particular, when the angle of view exceeds 180° or more, when synthesizing the hemispherical image shown in FIG. 4A and the hemispherical image shown in FIG. can perform stitching or the like using the overlapping image areas, so that it is easy to generate an omnidirectional image.
一方で、後面撮影素子1H2によって撮影される画像は、図4(b)に示すように、全天球カメラ1の後方側の広い範囲、例えば、画角で180°の範囲を撮影範囲とする画像である。このように、後面撮影素子1H2によって撮影される画像は、図4(a)と同様の半球画像である。
On the other hand, as shown in FIG. 4B, the image captured by the rear imaging element 1H2 covers a wide range behind the
次に、全天球カメラ1は、歪補正処理及び合成処理等の処理を行い、図4(a)に示す前方側の半球画像と、図4(b)に示す後方側の半球画像とに基づいて、図4(c)に示す撮影画像を生成する。すなわち、図4(c)に示す画像は、いわゆるメルカトル(Mercator)図法又は正距円筒図法等の方法で生成される画像、すなわち、撮影画像の例である。このように、撮影画像は、図4(c)に示すような、いわゆる全方位カメラ又はいわゆる広角レンズのカメラ等によって、広い視野角の範囲を撮影した画像であるのが望ましい。
Next, the
さらに、スイッチ1H3がユーザによって押されることでシャッタボタンを制御するものとしているが、PC2等の表示装置から遠隔でシャッタボタンを制御するように構成してもよい。
Furthermore, although the shutter button is controlled by pressing the switch 1H3 by the user, the shutter button may be controlled remotely from a display device such as the
<撮影装置のハードウェア構成例>
図5は、本発明の一実施形態に係る撮影装置のハードウェア構成の一例を説明するブロック図である。図示するように、全天球カメラ1は、撮影ユニット1H4と、画像処理ユニット1H7、撮影制御ユニット1H8と、CPU(Central Processing Unit)1H9と、ROM(Read-Only Memory)1H10とを有する。また、全天球カメラ1は、SRAM(Static Random Access Memory)1H11と、DRAM(Dynamic Random Access Memory)1H12と、操作I/F(Interface)1H13とを有する。さらに、全天球カメラ1は、ネットワークI/F1H14と、無線I/F1H15と、アンテナ1H16とを有する。また、全天球カメラ1が有するハードウェアは、バス1H17で接続され、バス1H17を介してデータ又は信号を入出力する。
<Hardware configuration example of imaging device>
FIG. 5 is a block diagram illustrating an example of the hardware configuration of the imaging device according to one embodiment of the present invention. As illustrated, the
撮影ユニット1H4は、前面撮影素子1H1と、後面撮影素子1H2とを有する。また、前面撮影素子1H1に対応してレンズ1H5、後面撮影素子1H2に対応してレンズ1H6がそれぞれ設置される。 The imaging unit 1H4 has a front imaging element 1H1 and a rear imaging element 1H2. A lens 1H5 is provided corresponding to the front imaging element 1H1, and a lens 1H6 is provided corresponding to the rear imaging element 1H2.
前面撮影素子1H1及び後面撮影素子1H2は、いわゆるカメラユニットである。具体的には、前面撮影素子1H1及び後面撮影素子1H2は、CMOS(Complementary Metal Oxide Semiconductor)又はCCD(Charge Coupled Device)等の光学センサをそれぞれ有する。そして、前面撮影素子1H1は、レンズ1H5を通して入射する光を変換し、半球画像等を示す画像データを生成する。同様に、後面撮影素子1H2は、レンズ1H6を通して入射する光を変換し、半球画像等を示す画像データを生成する。 The front imaging element 1H1 and the rear imaging element 1H2 are so-called camera units. Specifically, the front imaging element 1H1 and the rear imaging element 1H2 each have an optical sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device). The front imaging element 1H1 converts the incident light through the lens 1H5 to generate image data representing a hemispherical image or the like. Similarly, rear-facing imaging element 1H2 converts light incident through lens 1H6 to generate image data representing, for example, a hemispherical image.
次に、撮影ユニット1H4は、前面撮影素子1H1及び後面撮影素子1H2が生成するそれぞれの画像データを画像処理ユニット1H7へ出力する。なお、出力される画像データは、例えば、図4(a)に示す前方の半球画像及び図4(b)に示す後方の半球画像等である。 Next, the imaging unit 1H4 outputs image data generated by the front imaging element 1H1 and the rear imaging element 1H2 to the image processing unit 1H7. The image data to be output is, for example, the front hemispherical image shown in FIG. 4(a) and the rear hemispherical image shown in FIG. 4(b).
さらに、前面撮影素子1H1及び後面撮影素子1H2は、高画質の撮影を行うため、レンズ以外に、絞り又はローパスフィルタ等の他の光学要素を更に有してもよい。また、前面撮影素子1H1及び後面撮影素子1H2は、高画質の撮影を行うために、いわゆる欠陥画素補正又はいわゆる手振れ補正等を行ってもよい。 Furthermore, the front imaging element 1H1 and the rear imaging element 1H2 may further have other optical elements such as a diaphragm or a low-pass filter in addition to lenses in order to perform high-quality imaging. Also, the front imaging element 1H1 and the rear imaging element 1H2 may perform so-called defective pixel correction or so-called camera shake correction in order to perform high-quality imaging.
画像処理ユニット1H7は、撮影ユニット1H4から入力される画像データに基づいて、図4(c)に示す全天球画像を生成する。なお、全天球画像を生成する処理の詳細は、後述する。 The image processing unit 1H7 generates the omnidirectional image shown in FIG. 4(c) based on the image data input from the photographing unit 1H4. The details of the process of generating the omnidirectional image will be described later.
撮影制御ユニット1H8は、全天球カメラ1が有するハードウェアを制御する制御装置である。
The imaging control unit 1H8 is a control device that controls the hardware of the
CPU1H9は、各処理を実現するための演算及びデータの加工を行う演算装置並びにハードウェアの制御を行う制御装置である。例えば、CPU1H9は、あらかじめインストールされるプログラムに基づいて、各処理を実行する。 The CPU 1H9 is an arithmetic device that performs calculations and data processing for realizing each process, and a control device that controls hardware. For example, the CPU 1H9 executes each process based on a pre-installed program.
ROM1H10、SRAM1H11及びDRAM1H12は、記憶装置の例である。具体的には、ROM1H10は、例えば、CPU1H9に処理を実行させるためのプログラム、データ又はパラメータ等を記憶する。また、SRAM1H11及びDRAM1H12は、例えば、CPU1H9がプログラムに基づいて処理を実行するのに用いられるプログラム、プログラムが使用するデータ、プログラムが生成するデータ等を記憶する。なお、全天球カメラ1は、ハードディスク等の補助記憶装置を更に有してもよい。
ROM 1H10, SRAM 1H11 and DRAM 1H12 are examples of storage devices. Specifically, the ROM 1H10 stores, for example, programs, data, parameters, etc. for causing the CPU 1H9 to execute processing. The SRAM 1H11 and DRAM 1H12 store, for example, programs used by the CPU 1H9 to execute processing based on the programs, data used by the programs, data generated by the programs, and the like. The
操作I/F1H13は、スイッチ1H3等の入力装置と接続され、全天球カメラ1に対するユーザの操作を入力する処理を行うインタフェースである。例えば、操作I/F1H13は、スイッチ等の入力装置、入力装置を接続するためのコネクタ、ケーブル、入力装置から入力される信号を処理する回路、ドライバ及び制御装置等である。なお、操作I/F1H13は、ディスプレイ等の出力装置を更に有してもよい。また、操作I/F1H13は、入力装置と、出力装置とが一体となったいわゆるタッチパネル等でもよい。さらに、操作I/F1H13は、USB(Universal Serial Bus)等のインタフェースを有し、フラッシュメモリ等の記録媒体を全天球カメラ1に接続してもよい。これによって、操作I/F1H13は、全天球カメラ1から記録媒体にデータを入出力してもよい。
The operation I/F 1H13 is an interface that is connected to an input device such as a switch 1H3 and performs processing for inputting a user's operation to the
なお、スイッチ1H3は、シャッタに係る操作以外の操作を行うための電源スイッチ及びパラメータ入力スイッチ等でもよい。 Note that the switch 1H3 may be a power switch, a parameter input switch, or the like for performing operations other than operations related to the shutter.
ネットワークI/F1H14、無線I/F1H15及びアンテナ1H16は、無線又は有線で、外部装置と全天球カメラ1を接続させる。例えば、全天球カメラ1は、ネットワークI/F1H14によって、ネットワークに接続し、PC2(図1)へデータを送信する。なお、ネットワークI/F1H14、無線I/F1H15及びアンテナ1H16は、USB等の有線で他の外部装置と接続するハードウェアでもよい。すなわち、ネットワークI/F1H14、無線I/F1H15及びアンテナ1H16は、コネクタ及びケーブル等でもよい。
A network I/F 1H14, a wireless I/F 1H15, and an antenna 1H16 connect the external device and the
バス1H17は、全天球カメラ1が有するハードウェア間で、データ等を入出力するのに用いられる。すなわち、バス1H17は、いわゆる内部バスである。具体的には、バス1H17は、例えば、PCI Express(Peripheral Component Interconnect Bus Express)等である。
A bus 1H17 is used for inputting/outputting data between the hardware of the
なお、全天球カメラ1は、撮影素子が2つである場合に限られない。例えば、3つ以上の撮影素子を有してもよい。さらに、全天球カメラ1は、1つの撮影素子の撮影角度を変えて、複数の部分画像を撮影してもよい。また、全天球カメラ1は、魚眼レンズを用いる光学系に限られない。例えば、広角レンズを用いてもよい。
Note that the
なお、全天球カメラ1が行う処理は、他の装置が行ってもよい。例えば、処理の一部又は全部は、全天球カメラ1がデータ及びパラメータ等を送信し、PC2又はネットワークで接続される他の情報処理装置が行ってもよい。このようにして、画像処理システムは、複数の情報処理装置を有し、処理を分散、冗長又は並列に行ってもよい。
Note that the processing performed by the
<画像処理装置のハードウェア構成例>
図6は、本発明の一実施形態に係る画像処理装置のハードウェア構成の一例を説明するブロック図である。図示するように、画像処理装置の一例であるPC2は、補助記憶装置2H1と、主記憶装置2H2と、入力装置2H3と、出力装置2H4と、CPU2H5と、ネットワークI/F2H6とを有する。また、PC2が有するハードウェアは、バス2H7で接続され、バス2H7を介してデータ又は信号を入出力する。
<Hardware Configuration Example of Image Processing Device>
FIG. 6 is a block diagram illustrating an example hardware configuration of an image processing apparatus according to an embodiment of the present invention. As illustrated, a
補助記憶装置2H1は、データ、パラメータ又はプログラム等を記憶する。具体的には、補助記憶装置2H1は、例えば、ハードディスク、フラッシュSSD(Solid State Drive)等である。なお、補助記憶装置2H1が記憶するデータは、ネットワークI/F2H6で接続されるファイルサーバ等が一部又は全部を冗長又は代わりに記憶してもよい。 The auxiliary storage device 2H1 stores data, parameters, programs, and the like. Specifically, the auxiliary storage device 2H1 is, for example, a hard disk, a flash SSD (Solid State Drive), or the like. The data stored in the auxiliary storage device 2H1 may be redundantly or alternatively stored partially or entirely by a file server or the like connected via the network I/F 2H6.
主記憶装置2H2は、処理を実行するためのプログラムが使用する記憶領域となる、いわゆるワークメモリ等である。すなわち、主記憶装置2H2は、データ、プログラム又はパラメータ等を記憶する。具体的には、主記憶装置2H2は、例えば、SRAM又はDRAM等である。なお、主記憶装置2H2は、記憶及び取出を行う制御装置を更に有してもよい。 The main storage device 2H2 is a so-called work memory or the like that serves as a storage area used by a program for executing processing. That is, the main storage device 2H2 stores data, programs, parameters, and the like. Specifically, the main storage device 2H2 is, for example, SRAM or DRAM. The main storage device 2H2 may further have a control device for storing and retrieving data.
入力装置2H3は、画像又は処理結果等を表示する出力装置及びユーザによる操作を入力する入力装置である。具体的には、入力装置2H3は、キーボード又はマウス等の入力装置である。そして、入力装置2H3は、例えば、表示されるGUI(Graphical User Interface)等に対するユーザによる操作を入力する。 The input device 2H3 is an output device for displaying images, processing results, etc., and an input device for inputting user's operations. Specifically, the input device 2H3 is an input device such as a keyboard or mouse. Then, the input device 2H3, for example, inputs a user's operation on a displayed GUI (Graphical User Interface) or the like.
出力装置2H4は、PC2による処理結果又は画像等をユーザに表示するディスプレイ等である。なお、入力装置2H3及び出力装置2H4は、いわゆるタッチパネル等のように、一体の装置でもよい。
The output device 2H4 is a display or the like for displaying a processing result, an image, or the like by the
CPU2H5は、各処理を実現するための演算及びデータの加工を行う演算装置並びにハードウェアの制御を行う制御装置である。なお、CPU2H5は、並列、冗長又は分散して処理するために、複数のCPU、デバイス又は複数のコア(core)から構成されてもよい。また、PC2は、処理を行うため、GPU(Graphics Processing Unit)等の補助装置を内部又は外部に更に有してもよい。
The CPU 2H5 is an arithmetic device that performs calculations and data processing for realizing each process, and a control device that controls hardware. Note that the CPU 2H5 may be composed of multiple CPUs, devices, or multiple cores for parallel, redundant, or distributed processing. In addition, the
ネットワークI/F2H6は、無線又は有線で、ネットワークを介して外部装置と接続する。具体的には、ネットワークI/F2H6は、データ等を入出力するためのアンテナ、周辺回路及びドライバ等である。例えば、PC2は、CPU2H5及びネットワークI/F2H6によって、全天球カメラ1(図1)等から画像データを入力する。一方で、PC2は、CPU2H5及びネットワークI/F2H6によって、全天球カメラ1等へデータ等を出力する。
The network I/F 2H6 is wirelessly or wiredly connected to an external device via a network. Specifically, the network I/F 2H6 is an antenna, peripheral circuits, drivers, and the like for inputting and outputting data and the like. For example, the
なお、画像処理装置は、PCに限られない。すなわち、画像処理装置は、PC以外のコンピュータでもよい。例えば、画像処理装置は、スマートフォン、PDA(Personal Digital Assistance)、タブレット、携帯電話器又はこれらの組み合わせ等でもよい。また、画像処理装置は、1つの装置に限られず、複数の装置で構成されてもよい。 Note that the image processing device is not limited to a PC. That is, the image processing apparatus may be a computer other than a PC. For example, the image processing device may be a smart phone, a PDA (Personal Digital Assistance), a tablet, a mobile phone, or a combination thereof. Further, the image processing device is not limited to one device, and may be composed of a plurality of devices.
<撮影画像の例>
図7は、本発明の一実施形態に係る撮影画像の一例を説明する図である。図は、図7(a)及び図7(b)に示す半球画像から、撮影画像を生成する例を示す。なお、図7(a)は、図4(a)に示す半球画像を光軸に対して水平方向及び垂直方向の入射角が等位となる箇所を線で結んで示す図である。以下、光軸に対して水平方向の入射角を「θ」、光軸に対して垂直方向の入射角を「φ」という。さらに、図7(b)は、図7(a)と同様に、図4(b)に示す半球画像を光軸に対して水平方向及び垂直方向の入射角が等位となる箇所を線で結んで示す図である。
<Example of captured image>
FIG. 7 is a diagram illustrating an example of a photographed image according to one embodiment of the present invention. The figure shows an example of generating a photographed image from the hemispherical images shown in FIGS. 7(a) and 7(b). FIG. 7(a) is a diagram showing the hemispherical image shown in FIG. 4(a) by connecting lines where the incident angles in the horizontal direction and the vertical direction are equal to the optical axis. Hereinafter, the angle of incidence in the horizontal direction with respect to the optical axis will be referred to as "θ", and the angle of incidence in the vertical direction with respect to the optical axis will be referred to as "φ". Further, in FIG. 7(b), similarly to FIG. 7(a), the hemispherical image shown in FIG. It is a figure shown tied.
また、図7(c)は、メルカトル図法によって処理された画像の一例を説明する図である。具体的には、図7(c)に示す画像は、例えば、図7(a)及び図7(b)に示す画像をあらかじめ生成されるLUT(LookUpTable)等で対応させ、正距円筒図法によって処理されると、生成される画像である。そして、画像が図7(c)に示す状態となった後、それぞれの画像を図7(d)に示すように合成すると、全天球画像が、撮影装置によって生成される。このように、合成処理は、例えば、図7(c)に示す状態の半球画像を2つ以上用いて、全天球画像を生成する処理である。なお、合成処理は、図7(d)に示すように、図7(c)に示す状態の半球画像を単に連続して配置する処理に限られない。例えば、全天球画像の水平方向中心がθ=180°以外の角度であると、合成処理において、撮影装置は、まず、図4(a)に示す半球画像を前処理し、前処理された画像を全天球画像の中心に配置する。次に、撮影装置は、生成する画像の左右部分に、図4(b)に示す半球画像を前処理した画像を左右部分に配置できる大きさに分割し、半球画像を合成して図4(c)に示す全天球画像を生成してもよい。 FIG. 7C is a diagram for explaining an example of an image processed by the Mercator projection. Specifically, the image shown in FIG. 7(c) is obtained by, for example, matching the images shown in FIGS. When processed, it is the image that is produced. Then, after the images are in the state shown in FIG. 7(c), the respective images are combined as shown in FIG. 7(d) to generate an omnidirectional image by the imaging device. In this way, the synthesizing process is, for example, a process of generating a spherical image using two or more hemispherical images in the state shown in FIG. 7(c). Note that the synthesizing process is not limited to the process of simply arranging the hemispherical images in the state shown in FIG. 7(c) consecutively, as shown in FIG. 7(d). For example, when the horizontal center of the omnidirectional image is at an angle other than θ=180°, in the synthesis process, the imaging device first preprocesses the hemispherical image shown in FIG. Center the image on the spherical image. Next, the photographing device divides the preprocessed images of the hemispherical images shown in FIG. A spherical image shown in c) may be generated.
なお、全天球画像を生成する処理は、正距円筒図法による処理に限られない。例えば、φ方向において、図7(b)に示す半球画像が有する画素の並びと、図7(a)に示す半球画像が有する画素並びとが、上下が逆であり、かつ、θ方向においてそれぞれの画素の並びが左右逆である、いわゆる天地逆転となる場合がある。このように、天地逆転の状態であると、撮影装置は、前処理において、図7(b)に示す半球画像を図7(a)のφ方向及びθ方向の画素の並びと揃えるために、180°Roll回転させる処理等を行ってもよい。 Note that the process of generating the omnidirectional image is not limited to the process using the equirectangular projection method. For example, in the φ direction, the pixel arrangement of the hemispherical image shown in FIG. 7B and the pixel arrangement of the hemispherical image shown in FIG. In some cases, the arrangement of the pixels is reversed left to right, which is a so-called upside down. In this way, in the upside-down state, the photographing apparatus, in preprocessing, aligns the hemispherical image shown in FIG. A process such as a 180° roll rotation may be performed.
また、全天球画像を生成する処理は、図7(a)及び図7(b)に示す半球画像が有するそれぞれの歪曲収差を補正する歪補正処理等が行われてもよい。さらに、全天球画像を生成する処理は、例えば、シェーディング補正、ガンマ補正、ホワイトバランス、手振れ補正、オプティカル・ブラック補正処理、欠陥画素補正処理、エッジ強調処理又はリニア補正処理等が行われてもよい。なお、合成処理は、例えば、半球画像の撮影範囲と、他方の半球画像の撮影範囲とが重複する場合には、重複する撮影範囲に撮影される被写体の画素を利用して補正を行うと、精度良く半球画像を合成することができる。 Further, the processing for generating the omnidirectional image may include distortion correction processing for correcting the respective distortion aberrations of the hemispherical images shown in FIGS. 7A and 7B. Furthermore, the processing for generating the omnidirectional image includes, for example, shading correction, gamma correction, white balance, camera shake correction, optical black correction processing, defective pixel correction processing, edge enhancement processing, linear correction processing, etc. good. Note that, in the synthesizing process, for example, when the imaging range of one hemispherical image and the imaging range of the other hemispherical image overlap, correction is performed using the pixels of the subject photographed in the overlapping imaging range. A hemispherical image can be synthesized with high accuracy.
このような全天球画像を生成する処理によって、全天球カメラ1は、撮影される複数の半球画像から全天球画像を生成する。なお、全天球画像は、別の処理によって生成されてもよい。
Through such processing for generating an omnidirectional image, the
<画像処理装置による全体処理例>
図8は、本発明の一実施形態に係る画像処理装置による全体処理の一例を示すフローチャートである。例えば、図1に示すPC2は、図示するような処理を行う。
<Example of overall processing by image processing device>
FIG. 8 is a flow chart showing an example of overall processing by the image processing apparatus according to one embodiment of the present invention. For example, the
<撮影画像の入力例>
ステップS101では、PC2は、撮影画像を入力する。例えば、まず、全天球カメラによる図7に示すような処理によって、全天球画像等の撮影画像が生成される。そして、図1に示すように、全天球カメラ1から、PC2に撮影画像が送信されると、PC2に、撮影画像が入力される。
<Example of captured image input>
In step S101, the
<多面体の種類の設定例>
ステップS102では、PC2は、多面体の種類を設定する。例えば、PC2は、以下のような設定画面をユーザに表示して、多面体の種類をユーザに選択させる操作を入力する。
<Example of setting the type of polyhedron>
At step S102, the
図9は、本発明の一実施形態に係る画像処理装置によって表示される多面体の種類の設定画面例を示す図である。例えば、ステップS102では、PC2は、図示するような第1設定画面PN1を表示する。
FIG. 9 is a diagram showing an example of a polyhedron type setting screen displayed by the image processing apparatus according to the embodiment of the present invention. For example, in step S102, the
図示する例では、第1設定画面PN1は、多面体を選択する操作を入力するためのGUIを表示する。具体的には、GUIは、例えば、第1ボタンBT1、第2ボタンBT2、第3ボタンBT3、第4ボタンBT4及び第5ボタンBT5である。より具体的には、ユーザは、第1ボタンBT1を押す操作を行うと、「4面体」の種類を選択することができる。同様に、ユーザは、第2ボタンBT2を押す操作を行うと、「6面体」の種類を選択することができる。このようにして、第1ボタンBT1、第2ボタンBT2、第3ボタンBT3、第4ボタンBT4及び第5ボタンBT5等のGUIを用いて、多面体の種類を設定するユーザの操作がPCに入力される。 In the illustrated example, the first setting screen PN1 displays a GUI for inputting an operation for selecting a polyhedron. Specifically, the GUI includes, for example, a first button BT1, a second button BT2, a third button BT3, a fourth button BT4, and a fifth button BT5. More specifically, the user can select the type of "tetrahedron" by pressing the first button BT1. Similarly, the user can select the type of "hexahedron" by performing an operation of pressing the second button BT2. In this way, the user's operation for setting the type of polyhedron is input to the PC using the GUI such as the first button BT1, the second button BT2, the third button BT3, the fourth button BT4, and the fifth button BT5. be.
図8に戻り、ステップS103では、PC2は、多面体の種類が設定されたか否かを判断する。そして、多面体の種類が設定されたとPC2が判断すると(ステップS103でYES)、PC2は、S104に進む。一方で、多面体の種類が設定されてないとPC2が判断すると(ステップS103でNO)、PC2は、S102に進む。
Returning to FIG. 8, in step S103, the
<置き方の設定例>
ステップS104では、PC2は、多面体の置き方を設定する。例えば、PC2は、以下のような設定画面をユーザに表示して、多面体の置き方をユーザに選択させる操作を入力する。
<Setting example of how to place>
In step S104, the
図10は、本発明の一実施形態に係る画像処理装置によって表示される多面体の置き方の設定画面例を示す図である。例えば、ステップS104では、PC2は、図示するような第2設定画面PN2を表示する。図示する第2設定画面PN2は、3種類の置き方を表示する画面の例である。置き方は、例えば、以下の3種類である。なお、以下の説明では、多面体の種類に「6面体」が設定された例で説明する。
FIG. 10 is a diagram showing an example of a setting screen for how to place a polyhedron displayed by the image processing apparatus according to the embodiment of the present invention. For example, in step S104, the
図11は、本発明の一実施形態に係る画像処理装置によって表示される多面体の置き方の一例を示す図である。図11(a)は、多面体POLが有する複数の面のうち、1面が接地する置き方の例を示す。なお、図11(a)に図示するような置き方を以下の説明では「床置き」という。図示するように、「床置き」は、多面体POLを床FRに置く場合に、床FRと接地する範囲が「面」となる場合である。なお、多面体POLを床FRに置くと、底になる面を以下の説明では「底面BF」という。また、底面BFは、多面体POLが床FRに置かれると、面に画像形成された画像が隠れる面である。 FIG. 11 is a diagram showing an example of how to place polyhedrons displayed by the image processing apparatus according to the embodiment of the present invention. FIG. 11(a) shows an example of how to place the polyhedron POL in which one of the multiple surfaces is grounded. It should be noted that the placement method shown in FIG. 11A is referred to as "floor placement" in the following description. As shown in the figure, "floor placement" is when the polyhedron POL is placed on the floor FR, and the area where the polyhedron POL contacts the floor FR is the "surface". When the polyhedron POL is placed on the floor FR, the surface that becomes the bottom will be referred to as the "bottom surface BF" in the following description. Further, the bottom surface BF is a surface on which the image formed on the surface is hidden when the polyhedron POL is placed on the floor FR.
図11(b)は、多面体POLが有する複数の頂点のうち、1点が接地する置き方の例を示す。なお、図11(b)に図示するような置き方を以下の説明では「ぶら下げ」という。例えば、図11(b)に図示するように、多面体POLが有する複数の頂点のうち、1点(以下「支点SP」という。)が接地する置き方である。なお、支点SPには、棒等が支えとして設置され、多面体POLが支えられてもよい。図示するように、「ぶら下げ」は、多面体POLを床FRに置く場合に、床FR等と接地する範囲が「点」となる場合である。 FIG. 11(b) shows an example of how to place one of the vertices of the polyhedron POL to the ground. It should be noted that the placement method shown in FIG. 11(b) is referred to as "hanging" in the following description. For example, as shown in FIG. 11(b), one of the vertices of the polyhedron POL (hereinafter referred to as "fulcrum SP") is placed on the ground. A rod or the like may be installed as a support at the fulcrum SP to support the polyhedron POL. As shown in the figure, "hanging" is a case where, when the polyhedron POL is placed on the floor FR, the range of contact with the floor FR or the like becomes a "point".
図11(c)は、多面体POLが有する複数の辺のうち、1辺が接地する置き方の例を示す。なお、図11(c)に図示するような置き方を以下の説明では「ケース置き」という。図示するように、「ケース置き」は、多面体POLを床FRに置く場合に、床FRと接地する範囲が「辺」となる場合である。なお、多面体POLを床FRに置くと、底になる辺を以下の説明では「底辺SSI」という。図示するように、「ケース置き」では、底辺SSIが接地する。 FIG. 11(c) shows an example of how to place one of the multiple sides of the polyhedron POL to the ground. In the following description, the placement as shown in FIG. 11(c) is referred to as "case placement". As shown in the figure, "placed in a case" is a case where, when the polyhedron POL is placed on the floor FR, the range of contact with the floor FR is a "side". When the polyhedron POL is placed on the floor FR, the side that becomes the bottom will be referred to as the "base SSI" in the following description. As shown, in "in case", the bottom SSI is grounded.
このように、置き方が変わると、同じ多面体であっても、最上部となる箇所が異なる。例えば、最上部は、置き方によって、以下のようになる。 In this way, if the way of placement is changed, even if it is the same polyhedron, the top part will be different. For example, the top is as follows, depending on how it is placed.
図12は、本発明の一実施形態に係る多面体における最上部の一例を示す図である。例えば、図11(a)に示すように、多面体POLが「床置き」にされると、多面体POLの最上部は、図12(a)に示すように、面SDの中心となる。また、図11(b)に示すように、多面体POLが「ぶら下げ」にされると、多面体POLの最上部は、図12(b)に示すように、点PTとなる。さらに、図11(c)に示すように、多面体POLが「ケース置き」にされると、多面体POLの最上部は、図12(c)に示すように、辺SIの中心となる。 FIG. 12 is a diagram showing an example of the top of a polyhedron according to one embodiment of the present invention. For example, when the polyhedron POL is placed "on the floor" as shown in FIG. 11(a), the top of the polyhedron POL becomes the center of the face SD as shown in FIG. 12(a). When the polyhedron POL is "hanging" as shown in FIG. 11(b), the top of the polyhedron POL becomes the point PT as shown in FIG. 12(b). Furthermore, when the polyhedron POL is "cased" as shown in FIG. 11(c), the top of the polyhedron POL becomes the center of the side SI, as shown in FIG. 12(c).
図10に戻り、図示する第2設定画面PN2では、第6ボタンBT6が押されると、「床置き」が設定され、第7ボタンBT7が押されると、「ぶら下げ」が設定される。また、第8ボタンBT8が押されると、「ケース置き」が設定される。 Returning to FIG. 10, on the illustrated second setting screen PN2, when the sixth button BT6 is pressed, "on the floor" is set, and when the seventh button BT7 is pressed, "hanging" is set. Further, when the eighth button BT8 is pressed, "put on case" is set.
図8に戻り、ステップS105では、PC2は、置き方が設定されたか否かを判断する。そして、置き方が設定されたとPC2が判断すると(ステップS105でYES)、PC2は、S106に進む。一方で、置き方が設定されてないとPC2が判断すると(ステップS105でNO)、PC2は、S104に進む。
Returning to FIG. 8, in step S105, the
<座標の変換例>
ステップS106では、PC2は、座標を変換する。例えば、以下のように、PC2は、3次元座標に対応する撮影画像上の2次元座標を計算する。以下、3次元座標を(X,Y,Z)とし、撮影画像における2次元座標を(x,y)とする。なお、Z軸は、垂直方向、すなわち、重力方向を示す軸である。また、Y軸は、奥行き方向を示す軸である。さらに、X軸は、奥行き方向に対して直交方向を示す軸である。
<Example of coordinate conversion>
At step S106, the PC2 transforms the coordinates. For example, the
図13のステップS201では、PC2は、3次元座標を正規化する。例えば、PC2は、下記(1)式を用いて3次元座標(X,Y,Z)を正規化する。 In step S201 of FIG. 13, the PC2 normalizes the three-dimensional coordinates. For example, the PC2 normalizes the three-dimensional coordinates (X, Y, Z) using the following formula (1).
続いて、PC2は、正規化された3次元座標のうち、X座標成分及びY座標成分、すなわち、(tmpx,tmpy)に基づいて、ステップS202を行う。
Subsequently, the
ステップS202では、PC2は、「tmpx=0」かつ「tmpy=0」であるか否かを判断する。そして、「tmpx=0」かつ「tmpy=0」であるとPC2が判断すると(ステップS202でYES)、PC2は、ステップS206に進む。一方で、「tmpx=0」かつ「tmpy=0」でないとPC2が判断すると(ステップS202でNO)、PC2は、ステップS203に進む。
In step S202, the
ステップS203では、PC2は、下記(2)式に基づく計算を行う。
In step S203, the
ステップS205では、PC2は、下記(3)式に基づく計算を行う。
In step S205, the
ステップS207では、PC2は、下記(5)式に基づく計算を行う。
In step S207, the
以上のように計算すると、PC2は、3次元座標(X,Y,Z)を2次元座標(x,y)に変換することができる。そのため、PC2は、多面体における各3次元座標(X,Y,Z)に画像形成させる撮影画像における2次元座標(x,y)を特定できる。
With the above calculations, the
図8に戻り、ステップS107では、PC2は、出力画像に基づいて画像形成を行う。例えば、生成される出力画像は、以下のような画像である。
Returning to FIG. 8, in step S107, the
図14は、本発明の一実施形態に係る出力画像の表示画面例を示す図である。図示する表示画面PN3は、いわゆる印刷プレビュー画面等である。 FIG. 14 is a diagram showing a display screen example of an output image according to one embodiment of the present invention. The illustrated display screen PN3 is a so-called print preview screen or the like.
図示するように、出力画像は、いわゆる展開図の形式で生成される。図示する展開図は、画像形成された画像を紙から切り抜いて組み立てると、「6面体」が形成される図の例を示す。このように、表示画面PN3に表示される出力画像が、プリンタ3(図1)に送られると、図示する展開図と同様の画像が紙等に画像形成される。 As illustrated, the output image is generated in the form of a so-called developed view. The illustrated developed view shows an example of a view in which a "hexahedron" is formed when the formed images are cut out of paper and assembled. In this way, when the output image displayed on the display screen PN3 is sent to the printer 3 (FIG. 1), an image similar to the developed view shown is formed on paper or the like.
PC2は、以下のようなデータを用いて展開図を示す出力画像を生成する。
The
<データ例>
まず、PC2には、あらかじめ下記(表1)に示すようなテーブルデータが入力される。
<Data example>
First, the
そして、上記(表1)に示す各形状には、例えば、下記(表2)に示す頂点が対応付けされる。 Each shape shown in (Table 1) above is associated with, for example, vertices shown in (Table 2) below.
次に、置き方は、例えば、下記(表3)に示すテーブルデータに基づいて定まる。 Next, the placement is determined, for example, based on the table data shown below (Table 3).
次に、形状ごとに、各展開図が有する面と、各面が有する頂点とは、例えば、下記(表4)に示すテーブルデータに基づいて定まる。なお、上記(表4)に示すテーブルデータは、あらかじめPC2に入力される。
Next, for each shape, the faces of each developed view and the vertices of each face are determined, for example, based on the table data shown below (Table 4). Note that the table data shown in (Table 4) above is input to the
このように、上記(表4)において、「形状ID」は、上記(表1)に示す「形状ID」と対応する。また、「面No.」は、多面体が有する各面を特定する番号等である。さらに、「面頂点No.」は、各面が有する頂点を特定する番号等である。具体的には、「4面体」である場合には、各面は、「三角形」であるため、各面は、3つずつ頂点を有する。したがって、上記(表4)において、各面には、3つずつ「面頂点No.」が設定される。さらにまた、「座標」は、各頂点の展開図における2次元座標を示す。 Thus, in the above (Table 4), the "shape ID" corresponds to the "shape ID" shown in the above (Table 1). "Surface No." is a number or the like specifying each surface of the polyhedron. Furthermore, the "surface vertex No." is a number or the like for specifying the vertex of each surface. Specifically, in the case of a "tetrahedron", each face is a "triangle", so each face has three vertices. Therefore, in the above (Table 4), three "face vertex numbers" are set for each face. Furthermore, "coordinates" indicates two-dimensional coordinates in the developed view of each vertex.
また、各多面体が有する各頂点は、2次元座標と、3次元座標とが下記(表5)に示すテーブルデータによって対応付けされる。 Each vertex of each polyhedron is associated with two-dimensional coordinates and three-dimensional coordinates by table data shown in Table 5 below.
さらに、画像処理装置は、以下のような補正処理を更に行うのが望ましい。 Furthermore, it is desirable that the image processing apparatus further perform the following correction processing.
画像処理装置は、まず、展開図における2次元面上で、注目点が、展開図の境界線上に位置するか否かを判断する。具体的には、画像処理装置は、上記(表4)によって、展開図を構成する各面の頂点となる座標が分かる。したがって、画像処理装置は、注目点が、展開図において、どの面の境界の内側となるかが判断できる。 The image processing apparatus first determines whether or not the point of interest is positioned on the boundary line of the developed view on the two-dimensional surface of the developed view. Specifically, the image processing apparatus can find the coordinates of the vertices of the faces forming the developed view from the above (Table 4). Therefore, the image processing apparatus can determine which plane boundary the point of interest is inside in the developed view.
次に、画像処理装置は、展開図の境界の内側にある各点が、展開図を組み立てると形成される多面体上において、どこの3次元座標となるかを計算する必要がある。そこで、まず、画像処理装置は、展開図における2次元面上で、注目点が、どの面に位置するかを特定する。そして、画像処理装置は、特定された面の中で補完を行う。例えば、展開図における2次元面上の注目点(以下「スタート頂点」という。)は、特定される面の頂点から、特定される面に対して隣接する2つの頂点(以下「終了頂点」という。)に向かう2つのベクトルの重み付け加算で表現される。 Next, the image processing device needs to calculate where each point inside the boundary of the developed view has three-dimensional coordinates on the polyhedron formed by assembling the developed views. Therefore, first, the image processing apparatus specifies on which plane the attention point is located on the two-dimensional plane in the developed view. Then, the image processing device performs interpolation within the specified plane. For example, a point of interest on a two-dimensional surface (hereinafter referred to as a "start vertex") in a developed view is determined by two vertices adjacent to the identified surface (hereinafter referred to as "end vertices") from the vertex of the identified surface. .) is represented by the weighted addition of the two vectors.
なお、展開図における2次元面上で、1つのスタート頂点及び2つの終了頂点は、多面体上の3次元座標における3つの頂点と、各頂点のそれぞれの3次元座標とを上記(表2)、上記(表4)及び上記(表5)を用いると特定できる。このようにして、画像処理装置は、2次元面上の2つのベクトルに対応する3次元空間上の2つのベクトルを特定できる。そして、画像処理装置は、スタート頂点から展開する2つのベクトルの重み付け加算の終了点として、注目点の3次元座標を特定する。 Note that one start vertex and two end vertices on the two-dimensional surface in the developed view are the three vertices in the three-dimensional coordinates on the polyhedron and the three-dimensional coordinates of each vertex as described above (Table 2), It can be specified using the above (Table 4) and the above (Table 5). In this way, the image processing device can identify two vectors on the three-dimensional space corresponding to two vectors on the two-dimensional surface. Then, the image processing device specifies the three-dimensional coordinates of the point of interest as the end point of the weighted addition of the two vectors developed from the start vertex.
さらに、撮影画像の天頂の3次元座標が、置き方に基づいて定まる最上部となる箇所の3次元座標(0,0,Z1)(Z1は、任意の値となる。)と異なる場合には、画像処理装置は、3次元での回転変換等によって、注目点の3次元座標を補正する。この回転変換は、原点から頂点までのベクトルと、原点から(0,0,Z1)、つまり、頂点を(0,0,Z1)とする場合のベクトルとの両方のベクトルに対して、垂直となる軸を中心にした回転となる。なお、原点は、多面体の中心であるとする。 Furthermore, when the three-dimensional coordinates of the zenith of the photographed image differ from the three-dimensional coordinates (0, 0, Z1) (Z1 is an arbitrary value) of the uppermost portion determined based on the orientation, , the image processing device corrects the three-dimensional coordinates of the point of interest by, for example, rotational transformation in three dimensions. This rotation transforms both the vector from the origin to the vertex and the vector from the origin to (0,0,Z1), that is, to the vertex at (0,0,Z1). rotation around an axis. Note that the origin is assumed to be the center of the polyhedron.
このような回転変換を行うため、まず、画像処理装置は、原点から頂点までのベクトルと、原点から(0,0,Z1)までのベクトルとの外積を計算する。このような外積が計算できると、画像処理装置は、回転変換の回転軸を特定できる。 To perform such rotational transformation, the image processing device first calculates the outer product of the vector from the origin to the vertex and the vector from the origin to (0, 0, Z1). If such an outer product can be calculated, the image processing apparatus can identify the axis of rotation for rotational transformation.
また、原点から頂点までのベクトルと、原点から(0,0,Z1)までのベクトルとの内積を計算すると、画像処理装置は、回転変換の回転角度を特定できる。このようにして特定された回転変換によって補正すると、画像処理装置は、撮像画像上の天頂に、最上部となる箇所を配置させる天頂補正を行うことができる。次に、図13に示す変換等を行うと、画像処理装置は、最上部となる箇所に、撮影画像における天頂が配置される展開図を画像形成できる。 Also, by calculating the inner product of the vector from the origin to the vertex and the vector from the origin to (0, 0, Z1), the image processing device can identify the rotation angle of the rotation transformation. By correcting with the rotational transformation specified in this way, the image processing apparatus can perform zenith correction for arranging the uppermost part at the zenith on the captured image. Next, when the conversion and the like shown in FIG. 13 are performed, the image processing apparatus can image-form a developed view in which the zenith in the photographed image is arranged at the uppermost portion.
以上のようなデータを用いると、画像処理装置は、多面体を組み立てた場合の3次元座標と、展開図における2次元座標とを対応させることができる。そして、図13に示す変換処理によって、各3次元座標と、撮影画像における座標とが対応付けされると、画像処理装置は、展開図の各座標に画像形成させる撮影画像の座標を特定することができる。 Using the above data, the image processing apparatus can associate the three-dimensional coordinates when the polyhedron is assembled with the two-dimensional coordinates in the developed view. Then, when each three-dimensional coordinate and the coordinate in the photographed image are associated with each other by the conversion processing shown in FIG. can be done.
<変形例1>
展開図の形状は、ユーザが以下のように選択できてもよい。
<
The shape of the developed view may be selected by the user as follows.
図15は、本発明の一実施形態に係る展開図の選択画面例を示す図である。例えば、PC2は、図示するような選択画面PN4を表示してもよい。具体的には、この例では、選択画面PN4は、「6面体」の展開図をユーザに選択させる選択画面の例を示す。 FIG. 15 is a diagram showing an example of a development view selection screen according to an embodiment of the present invention. For example, PC2 may display a selection screen PN4 as shown. Specifically, in this example, the selection screen PN4 shows an example of a selection screen that allows the user to select a developed view of a "hexahedron".
図15(a)に図示するように、選択画面PN4は、第1選択肢SEL1と、第2選択肢SEL2との展開図を選ぶことができる選択画面である。例えば、選択画面PN4において、ユーザの操作によって、第1選択肢SEL1が選択されると、印刷プレビュー画面となる表示画面PN3は、図15(b)に示すようになる。一方で、選択画面PN4において、ユーザの操作によって、第2選択肢SEL2が選択されると、印刷プレビュー画面となる表示画面PN3は、図15(c)に示すようになる。このように、ユーザは、同じ種類の多面体を画像形成させる場合であっても、展開図の種類を選択することができる。 As shown in FIG. 15(a), the selection screen PN4 is a selection screen on which a developed view of the first option SEL1 and the second option SEL2 can be selected. For example, when the user selects the first option SEL1 on the selection screen PN4, the display screen PN3 serving as a print preview screen is as shown in FIG. 15(b). On the other hand, when the user selects the second option SEL2 on the selection screen PN4, the display screen PN3 serving as a print preview screen is as shown in FIG. 15(c). In this manner, the user can select the type of developed view even when forming images of the same type of polyhedron.
<変形例2>
他にも、PC2には、ユーザの設定によって、所定の面に撮影画像と異なる所定の画像が画像形成されるように設定できてもよい。以下、所定の画像の例としてQRコード(登録商標)が画像形成される場合の例で説明する。
<
In addition, the
図16は、本発明の一実施形態に係る所定の画像の設定画面例を示す図である。例えば、PC2は、図16(a)に図示するような画像設定画面PN5を表示する。この例では、ユーザの操作によって、「あり」が選択されると、入力するファイル名の画像が、展開図において所定の面に画像形成される。一方で、ユーザの操作によって、「なし」が選択されると、展開図のすべての面には、撮影画像が示す画像が画像形成される。 FIG. 16 is a diagram showing an example of a setting screen for a predetermined image according to one embodiment of the present invention. For example, the PC2 displays an image setting screen PN5 as shown in FIG. 16(a). In this example, when "yes" is selected by the user's operation, an image of the input file name is formed on a predetermined surface in the developed view. On the other hand, when "none" is selected by the user's operation, the image indicated by the captured image is formed on all surfaces of the developed view.
なお、所定の面は、底面BFであるのが望ましい。すなわち、QRコード(登録商標)等の所定の画像は、図16(b)に示すように、底面BFに画像形成されるのが望ましい。底面BFは、床に置かれている場合には、画像が隠れてしまう面である。そのため、QRコード(登録商標)のような画像は、底面BFに画像形成され、床に置かれている間では、見えない状態であるのが望ましい。なお、所定の面は、ユーザが設定できてもよい。 It should be noted that the predetermined surface is desirably the bottom surface BF. That is, a predetermined image such as a QR code (registered trademark) is preferably formed on the bottom surface BF as shown in FIG. 16(b). The bottom surface BF is the surface where the image is hidden when placed on the floor. Therefore, it is desirable that an image such as a QR code (registered trademark) is formed on the bottom surface BF and is not visible while placed on the floor. Note that the predetermined surface may be set by the user.
一方で、図16(a)に示す画像設定画面PN5において、「なし」が選択されると、図16(c)に示すように、底面BFには、他の面と同様に、撮影画像が画像形成される。なお、所定の画像は、QRコード(登録商標)に限られず、他の画像又はコード等でもよい。 On the other hand, if "none" is selected on the image setting screen PN5 shown in FIG. 16(a), as shown in FIG. An image is formed. Note that the predetermined image is not limited to the QR code (registered trademark), and may be another image or code.
<変形例3>
展開図には、組み立てにおいて糊付けに用いられる余白、いわゆる糊代が作成されてもよい。
<
A margin used for gluing in assembly, that is, a so-called gluing margin, may be created in the developed view.
図17は、本発明の一実施形態に係る出力画像の一例を示す図である。なお、図示する展開図は、撮影画像に図4(c)に示す画像が用いられる例である。また、図示する展開図は、組み立てると「12面体」の多面体になる展開図である。 FIG. 17 is a diagram showing an example of an output image according to one embodiment of the invention. The developed view shown is an example in which the image shown in FIG. 4C is used as the captured image. Moreover, the developed view shown in the figure is a developed view that becomes a "dodecahedron" polyhedron when assembled.
図17(a)に示す出力画像は、糊代となる余白BLが各面の辺に形成される例を示す。ユーザは、展開図を紙等から切り抜いて、多面体を組み立てるのに、各面を貼り合わせる。このように、各面を貼り合わせるのに、図示するような余白BLがあると、貼り合わせに用いる接着剤又は糊等を付着させるスペースを確保することができる。 The output image shown in FIG. 17( a ) shows an example in which margins BL are formed on the sides of each surface as margins for glue. The user cuts out the developed view from paper or the like and glues the surfaces together to assemble the polyhedron. In this way, if there is a blank space BL as shown in the figure to bond the surfaces together, it is possible to secure a space for adhering an adhesive agent or paste used for bonding.
また、図17(b)に示す出力画像は、貼り合わせるための面の例である第1面BS1が形成される例を示す。この例では、第1面BS1は、第2面BS2と同様の画像が画像形成された面である。第1面BS1は、組み立てると、第2面BS2に重なる面である。すなわち、組み立てにおいて、第1面BS1が第2面BS2に重ねられると、多面体が完成する。第1面BS1のような面があると貼り合わせが容易となる。なお、第1面BS1は、図示する形状に限られず、例えば、1面の半分の大きさでもよい。 Also, the output image shown in FIG. 17B shows an example in which the first surface BS1, which is an example of a surface for bonding, is formed. In this example, the first surface BS1 is a surface on which an image similar to that of the second surface BS2 is formed. The first surface BS1 is the surface that overlaps the second surface BS2 when assembled. That is, in assembly, when the first surface BS1 is superimposed on the second surface BS2, the polyhedron is completed. The presence of a surface such as the first surface BS1 facilitates bonding. Note that the shape of the first surface BS1 is not limited to that shown in the figure, and may be half the size of one surface, for example.
このようにして、貼り合わせるための余白又は面が形成されると、画像処理装置は、組み立てやすい展開図を示す出力画像を生成することができる。また、多面体に持ち手となるスペースができるように、余白又は面等が展開図に形成されてもよい。 In this way, when a margin or a surface for pasting is formed, the image processing apparatus can generate an output image showing a developed view that is easy to assemble. In addition, margins or faces may be formed in the developed view so that spaces for handles can be made in the polyhedron.
<変形例4>
画像処理装置は、例えば、以下のように、撮影画像を縮小又は平行移動させてもよい。
<Modification 4>
The image processing device may, for example, reduce or translate the captured image as follows.
図18は、本発明の一実施形態に係る撮影画像の縮小例を示す図である。以下、図4(c)に示す画像をPC2に入力する例で説明する。したがって、この例では、入力画像IMG1は、図4(c)に示す画像と同様である。そして、画像処理装置は、入力画像IMG1を図示するように縮小して縮小画像IMG2を生成する。
FIG. 18 is a diagram showing an example of reduction of a photographed image according to one embodiment of the present invention. An example in which the image shown in FIG. 4(c) is input to the
図示するように、縮小画像IMG2は、入力画像IMG1を縦方向(y軸)について縮小した画像である。このように、撮影画像の天頂方向(図では、上方向である。)に画像が縮小された縮小画像IMG2が用いられると、撮影画像には、空白BLSが発生する。例えば、図11(a)に示すように、「4面体」の「床置き」である場合には、空白BLSが、底面BFに相当するようになる。したがって、このように、縮小がされると、撮影画像に写る被写体等が底面BF以外の面に画像形成されるため、画像処理装置は、撮影画像に写る被写体等を組み立てた多面体において見える位置に画像形成する出力画像を生成することができる。 As illustrated, reduced image IMG2 is an image obtained by reducing input image IMG1 in the vertical direction (y-axis). In this way, when the reduced image IMG2 obtained by reducing the image in the zenith direction (upward direction in the drawing) of the captured image is used, a blank BLS occurs in the captured image. For example, as shown in FIG. 11A, in the case of a "tetrahedron" and "floor placement", the blank BLS corresponds to the bottom surface BF. Therefore, when the image is reduced in this way, the subject and the like appearing in the photographed image are formed on a surface other than the bottom surface BF. An imaging output image can be generated.
なお、画像処理装置は、以下のように、撮影画像を平行移動させてもよい。 Note that the image processing apparatus may translate the captured image as follows.
図19は、本発明の一実施形態に係る撮影画像の平行移動例を示す図である。以下、図18と同様に、図4(c)に示す画像をPC2に入力する例で説明する。そして、画像処理装置は、入力画像IMG1を図示するように平行移動させて平行移動画像IMG3を生成する。例えば、入力画像IMG1において天頂に近い上部分(図では、入力画像IMG1の上部分である。)に、被写体がなく、空等の風景が写る場合には、上部分は、多面体に画像形成される画像から省略されてもよい場合がある。 FIG. 19 is a diagram showing an example of parallel movement of a captured image according to one embodiment of the present invention. An example of inputting the image shown in FIG. Then, the image processing apparatus translates the input image IMG1 as shown in the figure to generate a translated image IMG3. For example, when there is no object in the upper part of the input image IMG1 near the zenith (the upper part of the input image IMG1 in the drawing) and a landscape such as the sky is captured, the upper part is formed into a polyhedral image. may be omitted from the image.
そこで、図示するように、画像処理装置は、入力画像IMG1を天頂方向に向かって平行移動させて平行移動画像IMG3を生成する。このように、平行移動が行われると、平行移動画像IMG3は、入力画像IMG1の上部分が省略され、平行移動画像IMG3の下部分に、図18と同様に空白BLSが発生する。 Therefore, as shown in the figure, the image processing apparatus translates the input image IMG1 toward the zenith direction to generate a translated image IMG3. When parallel movement is performed in this manner, the upper portion of input image IMG1 is omitted from parallel-shifted image IMG3, and a blank BLS is generated in the lower portion of parallel-shifted image IMG3 as in FIG.
このようにして、画像処理装置は、撮影画像に写る被写体等を組み立てた多面体において見える位置に画像形成する出力画像を生成することができる。 In this way, the image processing apparatus can generate an output image in which an object or the like appearing in a photographed image is formed at a visible position in an assembled polyhedron.
他にも、入力画像の下部分に所定の被写体が写る場合がある。例えば、全天球カメラを用いて撮影する場合には、シャッタボタンを押すユーザの指等が所定の被写体となって写る場合がある。なお、画像処理装置は、例えば、肌色が所定の範囲以上あるか否か等を判定することによって、指等の所定の被写体を認識することができる。このように、所定の被写体が入力画像の下部分に写る場合には、画像処理装置は、所定の被写体が底面に画像形成されるように、画像を縮小又は平行移動させてもよい。 In addition, there are cases where a predetermined subject appears in the lower portion of the input image. For example, when an image is captured using an omnidirectional camera, a user's finger or the like that presses the shutter button may be captured as a predetermined subject. Note that the image processing apparatus can recognize a predetermined subject such as a finger, for example, by determining whether or not the skin color is within a predetermined range. In this way, when the predetermined subject appears in the lower part of the input image, the image processing device may reduce or translate the image so that the predetermined subject is imaged on the bottom.
<変形例5>
撮影画像において天頂となる座標は、指定できてもよい。以下、図4(c)に示す画像をPC2に入力する例で説明する。例えば、画像処理装置は、以下のような処理を行う。
<Modification 5>
The coordinates of the zenith in the captured image may be specified. An example in which the image shown in FIG. 4(c) is input to the
図20は、本発明の一実施形態に係る画像処理装置による天頂となる座標を変更する処理の一例を示すフローチャートである。 FIG. 20 is a flow chart showing an example of processing for changing the zenith coordinates by the image processing apparatus according to the embodiment of the present invention.
ステップS301では、PC2は、新しく天頂となる座標を指定する。以下、図を用いて座標の指定方法を説明する。 In step S301, the PC2 designates the new zenith coordinates. A method of specifying coordinates will be described below with reference to the drawings.
図21は、本発明の一実施形態に係る撮影画像における天頂となる座標の指定例を示す図である。図示するように、入力画像IMG1において、例えば、天頂となる座標が第1座標P1であるとする。すなわち、第1座標P1が、初期値である。そして、ユーザの操作等による指定によって、天頂とする座標は、変更されてもよい。具体的には、ユーザは、例えば、第2座標P2を指定する。このようにすると、指定された第2座標P2が、天頂となるように変更される。具体的には、PC2は、以下のように処理する。 FIG. 21 is a diagram showing an example of designation of the zenith coordinates in the captured image according to one embodiment of the present invention. As shown in the figure, in the input image IMG1, for example, assume that the zenith coordinate is the first coordinate P1. That is, the first coordinate P1 is the initial value. Then, the coordinates of the zenith may be changed by designation by a user's operation or the like. Specifically, the user specifies, for example, the second coordinates P2. By doing so, the specified second coordinate P2 is changed to be the zenith. Specifically, PC2 processes as follows.
図20に戻り、ステップS302では、PC2は、指定された座標の3次元座標を計算する。例えば、PC2は、下記(6)式に基づいて、指定された座標の3次元座標を計算する。
Returning to FIG. 20, in step S302, the PC2 calculates the three-dimensional coordinates of the designated coordinates. For example, the
以上のように、処理が行われると、PC2は、ユーザが指定する撮影画像における座標を撮影画像の天頂とすることができる。
As described above, when the processing is performed, the
<機能構成例>
図22は、本発明の一実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。例えば、PC2は、設定部2F1と、変換部2F2と、出力画像生成部2F3とを備える。また、図示するように、PC2は、指定部2F4を更に備える機能構成であるのが望ましい。
<Example of functional configuration>
FIG. 22 is a functional block diagram showing an example of the functional configuration of the image processing device according to one embodiment of the present invention. For example, the
設定部2F1は、多面体の種類を設定する。なお、設定部2F1は、例えば、入力装置2H3(図6)等によって実現される。 The setting unit 2F1 sets the type of polyhedron. The setting unit 2F1 is implemented by, for example, the input device 2H3 (FIG. 6).
変換部2F2は、展開図が画像形成された媒体を組み立てると最上部となる箇所に、撮影画像における天頂が画像形成されるように、撮影画像における座標を、組み立てると多面体となり、媒体に画像形成される展開図における座標に変換する。なお、変換部2F2は、例えば、CPU2H5(図6)等によって実現される。 The conversion unit 2F2 converts the coordinates in the photographed image so that the zenith in the photographed image is formed at the uppermost position when the medium on which the image of the developed view is formed is assembled into a polyhedron, and the image is formed on the medium. Transform to coordinates in the developed view. Note that the conversion unit 2F2 is implemented by, for example, the CPU 2H5 (FIG. 6).
出力画像生成部2F3は、変換部2F2によって変換された座標に基づいて、出力画像IMGOUTを生成する。なお、出力画像生成部2F3は、例えば、CPU2H5(図6)等によって実現される。 The output image generator 2F3 generates an output image IMGOUT based on the coordinates converted by the converter 2F2. Note that the output image generation unit 2F3 is implemented by, for example, the CPU 2H5 (FIG. 6).
指定部2F4は、頂点となる座標を指定する。例えば、指定部2F4は、入力装置2H3(図6)等によって実現される。 The designation part 2F4 designates the coordinates of the vertex. For example, the designation unit 2F4 is implemented by the input device 2H3 (FIG. 6) or the like.
展開図は、組み立てると、多面体となる図である。そして、多面体は、様々な種類があり、さらに、多面体は、様々な置き方がされる。そこで、PC2は、設定部2F1によって、例えば、図9及び図10のように、多面体の種類及び多面体の置き方等をユーザに設定させる設定画面を表示する。このような、設定画面があると、ユーザは、多面体の種類及び多面体の置き方等をPC2に設定することができる。
A development view is a view that becomes a polyhedron when assembled. There are various types of polyhedrons, and the polyhedrons are placed in various ways. Therefore, the setting unit 2F1 of the
そして、例えば、図12に示すように、多面体は、種類及び置き方によって、最上部となる箇所が異なる。そこで、PC2は、例えば、上記(表3)のように、多面体の種類及び置き方ごとに、最上部となる座標をあらかじめ記憶する。このようにすると、PC2は、各多面体の種類及び置き方において、最上部となる箇所の3次元座標を把握できる。
Then, for example, as shown in FIG. 12, the uppermost part of the polyhedron differs depending on the type and placement. Therefore, the
さらに、PC2は、変換部2F2による処理、例えば、図13に示す処理によって、最上部となる箇所の3次元座標を撮影画像上の2次元座標に変換することができる。すなわち、図13に示す処理によって、PC2は、撮影画像が有する所定の画素を多面体において配置することができる。そのため、PC2は、撮影画像の天頂となる点を多面体の最上部となるように出力画像IMGOUTを生成できる。
Furthermore, the
出力画像IMGOUTは、展開図を媒体に画像形成するための画像である。そして、例えば、上記(表5)等によって、展開図における2次元座標と、3次元座標とが対応できると、PC2は、出力画像IMGOUTを生成できる。このようにして、PC2は、撮影画像を印刷した紙等を組み立てた多面体における最上部と、撮影画像の天頂とを一致させて出力画像を生成することができる。
The output image IMGOUT is an image for forming an image of a developed view on a medium. Then, for example, when the two-dimensional coordinates and the three-dimensional coordinates in the developed view can be corresponded according to the above (Table 5), the PC2 can generate the output image IMGOUT. In this way, the
また、指定部2F4を備える機能構成であると、例えば、図20及び図21に示すように頂点となる座標が、指定できる。
(その他の実施形態)
なお、本発明に係る実施形態は、プログラミング言語等で記述されるプログラムによって実現されてもよい。すなわち、本発明に係る実施形態は、画像処理装置等のコンピュータに画像処理方法を実行させるためのプログラムによって実現されてもよい。なお、プログラムは、フラッシュメモリ、SD(登録商標)カード又は光学ディスク等のコンピュータが読み取り可能な記録媒体に記憶して頒布することができる。また、プログラムは、インターネット等の電気通信回線を通じて頒布することができる。
Further, if the functional configuration includes the designating section 2F4, for example, the coordinates of the vertex can be designated as shown in FIGS. 20 and 21. FIG.
(Other embodiments)
Note that the embodiments of the present invention may be implemented by a program written in a programming language or the like. That is, the embodiments of the present invention may be realized by a program for causing a computer such as an image processing device to execute an image processing method. The program can be stored in a computer-readable recording medium such as a flash memory, an SD (registered trademark) card, or an optical disk and distributed. Also, the program can be distributed through telecommunication lines such as the Internet.
また、本発明に係る実施形態において、処理の一部又は全部は、例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)等のプログラマブル・デバイス(PD)で処理され、実現されてもよい。さらに、本発明に係る実施形態において、処理の一部又は全部は、ASIC(Application Specific Integrated Circuit)で処理され、実現されてもよい。 Also, in embodiments according to the present invention, some or all of the processing may be processed and implemented in a programmable device (PD), such as a field programmable gate array (FPGA). Furthermore, in the embodiment according to the present invention, part or all of the processing may be processed and implemented by ASIC (Application Specific Integrated Circuit).
以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されない。すなわち、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。 Although preferred embodiments of the invention have been described in detail above, the invention is not limited to such specific embodiments. That is, various modifications and changes are possible within the scope of the present invention described in the claims.
1 全天球カメラ
2 PC
3 プリンタ
IMGOUT 出力画像
POL 多面体
BF 底面
1
3 Printer IMGOUT Output image POL Polyhedron BF Bottom
Claims (8)
シート状の媒体上に前記出力画像に基づいて形成された展開図を組み立てると形成される多面体の種類および置き方を設定する設定部と、
前記多面体の種類および置き方に基づいて、前記媒体を組み立てると最上部となる箇所に、前記撮影画像における天頂が画像形成されるように、前記撮影画像における座標を、組み立てると前記多面体となる前記展開図における座標に変換する変換部と、
前記変換された座標に基づいて、前記多面体が有する複数の面のうち、底面以外の面に、前記撮影画像が画像形成されるように、前記撮影画像を前記天頂方向に縮小または前記天頂方向に平行移動させて前記出力画像を生成する出力画像生成部と
を備える画像処理装置。 An image processing device that is connected to an imaging device that captures an entire circumference and generates a captured image, and that outputs an output image to an image forming device,
a setting unit for setting the type and placement of a polyhedron formed by assembling developments formed on a sheet-like medium based on the output image;
Based on the type and placement of the polyhedron, the coordinates in the photographed image are adjusted so that the zenith in the photographed image is formed at the uppermost position when the medium is assembled, and the polyhedron is formed when the medium is assembled. a conversion unit that converts to coordinates in the developed view;
Based on the transformed coordinates, the photographed image is reduced in the zenith direction or reduced in the zenith direction so that the photographed image is formed on a surface other than the bottom surface of the plurality of surfaces of the polyhedron. An image processing apparatus comprising: an output image generation unit configured to generate the output image by parallel movement.
前記変換部は、前記多面体の種類および置き方に基づいて、前記媒体を組み立てると最上部となる箇所に、指定された座標の前記天頂が画像形成されるように、前記撮影画像における座標を、組み立てると前記多面体となる前記展開図における座標に変換する請求項1乃至5のいずれか1項に記載の画像処理装置。 further comprising a designation unit that designates the coordinates of the zenith,
Based on the type and placement of the polyhedron, the conversion unit converts the coordinates in the photographed image so that the zenith with the specified coordinates is formed at the uppermost position when the medium is assembled. 6. The image processing apparatus according to any one of claims 1 to 5 , wherein the coordinates are converted into the coordinates in the developed view which becomes the polyhedron when assembled.
前記画像処理装置が、シート状の媒体上に前記出力画像に基づいて形成された展開図を組み立てると形成される多面体の種類および置き方を設定する設定手順と、
前記画像処理装置が、前記多面体の種類および置き方に基づいて、前記媒体を組み立てると最上部となる箇所に、前記撮影画像における天頂が画像形成されるように、前記撮影画像における座標を、組み立てると前記多面体となる前記展開図における座標に変換する変換手順と、
前記画像処理装置が、前記変換された座標に基づいて、前記多面体が有する複数の面のうち、底面以外の面に、前記撮影画像が画像形成されるように、前記撮影画像を前記天頂方向に縮小または前記天頂方向に平行移動させて前記出力画像を生成する出力画像生成手順と
を含む画像処理方法。 An image processing method performed by an image processing device that is connected to a photographing device that photographs the entire circumference and generates a photographed image, and that outputs an output image to an image forming device,
a setting procedure for setting the type and placement of a polyhedron formed when the image processing apparatus assembles a developed view formed on a sheet-like medium based on the output image;
The image processing device assembles the coordinates in the photographed image so that the zenith in the photographed image is formed at the uppermost position when the medium is assembled, based on the type and placement of the polyhedron. and a conversion procedure for converting to coordinates in the developed view that becomes the polyhedron;
The image processing device moves the photographed image in the zenith direction so that the photographed image is formed on a surface other than the bottom surface of the plurality of surfaces of the polyhedron based on the transformed coordinates. and an output image generating step of generating the output image by reducing or translating it in the zenith direction.
前記コンピュータが、シート状の媒体上に前記出力画像に基づいて形成された展開図を組み立てると形成される多面体の種類および置き方を設定する設定手順と、
前記コンピュータが、前記多面体の種類および置き方に基づいて、前記媒体を組み立てると最上部となる箇所に、前記撮影画像における天頂が画像形成されるように、前記撮影画像における座標を、組み立てると前記多面体となる前記展開図における座標に変換する変換手順と、
前記コンピュータが、前記変換された座標に基づいて、前記多面体が有する複数の面のうち、底面以外の面に、前記撮影画像が画像形成されるように、前記撮影画像を前記天頂方向に縮小または前記天頂方向に平行移動させて前記出力画像を生成する出力画像生成手順と
を実行させるためのプログラム。 A program for executing an image processing method on a computer that is connected to an imaging device that captures an entire circumference and generates a captured image and that outputs an output image to an image forming device, comprising:
a setting procedure for setting the type and placement of a polyhedron formed when the computer assembles a developed view formed on a sheet medium based on the output image;
When the computer assembles the coordinates in the photographed image so that the zenith in the photographed image is formed at the uppermost position when the medium is assembled, based on the type and placement of the polyhedron. a transformation procedure for transforming into coordinates in the development of the polyhedron;
The computer reduces or reduces the photographed image in the zenith direction so that the photographed image is formed on a surface other than the bottom surface of the plurality of surfaces of the polyhedron, based on the converted coordinates. A program for executing an output image generation procedure for generating the output image by parallel movement in the zenith direction.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/452,887 US9971556B2 (en) | 2016-07-05 | 2017-03-08 | Image processing apparatus, image processing method, and recording medium |
EP17160014.1A EP3267392B1 (en) | 2016-07-05 | 2017-03-09 | Image processing apparatus, image processing method, and program for polyhedron developement generation |
CN201710153463.5A CN107580157B (en) | 2016-07-05 | 2017-03-15 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016133774 | 2016-07-05 | ||
JP2016133774 | 2016-07-05 | ||
JP2017018970 | 2017-02-03 | ||
JP2017018970 | 2017-02-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018124952A JP2018124952A (en) | 2018-08-09 |
JP7135277B2 true JP7135277B2 (en) | 2022-09-13 |
Family
ID=63111470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017043209A Active JP7135277B2 (en) | 2016-07-05 | 2017-03-07 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7135277B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000302183A (en) | 1999-04-21 | 2000-10-31 | Konica Corp | Film unit package with lens and packaging method therefor |
JP2010123007A (en) | 2008-11-21 | 2010-06-03 | Casio Computer Co Ltd | Image processor |
JP2013127739A (en) | 2011-12-19 | 2013-06-27 | Dainippon Printing Co Ltd | Image processing device, image processing method, program for image processing device, and image display device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004086274A (en) * | 2002-08-23 | 2004-03-18 | Kanazawa Inst Of Technology | Information processor |
-
2017
- 2017-03-07 JP JP2017043209A patent/JP7135277B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000302183A (en) | 1999-04-21 | 2000-10-31 | Konica Corp | Film unit package with lens and packaging method therefor |
JP2010123007A (en) | 2008-11-21 | 2010-06-03 | Casio Computer Co Ltd | Image processor |
JP2013127739A (en) | 2011-12-19 | 2013-06-27 | Dainippon Printing Co Ltd | Image processing device, image processing method, program for image processing device, and image display device |
Also Published As
Publication number | Publication date |
---|---|
JP2018124952A (en) | 2018-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106803884B (en) | Image processing apparatus | |
JP5835383B2 (en) | Information processing method, information processing apparatus, and program | |
JP5835384B2 (en) | Information processing method, information processing apparatus, and program | |
CN109218606B (en) | Image pickup control apparatus, control method thereof, and computer readable medium | |
JP6513300B1 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM | |
JP2019075766A (en) | Image processing apparatus, photographing system, image processing method, and program | |
JP7296712B2 (en) | Image processing device, image processing method, and program | |
JP6350695B2 (en) | Apparatus, method, and program | |
CN107580157B (en) | Image processing apparatus, image processing method, and program | |
JP6673459B2 (en) | Image processing apparatus, image processing system, and program | |
JP7135277B2 (en) | Image processing device, image processing method and program | |
US10785470B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP6583486B2 (en) | Information processing method, information processing program, and information processing apparatus | |
JP2019087984A (en) | Information processing apparatus, imaging system, program | |
JP2007148784A (en) | Image composition system and image composition method | |
JP6128185B2 (en) | Apparatus, method, and program | |
JP6825458B2 (en) | Image processing device, photographing device, and image processing method | |
JP2019204560A (en) | program | |
JP7197211B2 (en) | Three-dimensional graphics data creation method, program, and three-dimensional graphics data creation system | |
JP2022084529A (en) | Device, system, method and program | |
JP2016021267A (en) | Device, method, and program | |
JP2017224330A (en) | Device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211112 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220706 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220706 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220714 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220815 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7135277 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |