JP3403143B2 - Image processing method, apparatus and storage medium - Google Patents
Image processing method, apparatus and storage mediumInfo
- Publication number
- JP3403143B2 JP3403143B2 JP2000082610A JP2000082610A JP3403143B2 JP 3403143 B2 JP3403143 B2 JP 3403143B2 JP 2000082610 A JP2000082610 A JP 2000082610A JP 2000082610 A JP2000082610 A JP 2000082610A JP 3403143 B2 JP3403143 B2 JP 3403143B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- space
- data
- ray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000012545 processing Methods 0.000 claims description 29
- 238000005070 sampling Methods 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、光線空間データを
用いてユーザによる操作に応じた仮想空間の画像を生成
するためのものである。 BACKGROUND OF THE INVENTION The present invention collects ray space data.
Generate an image of virtual space according to user's operation using
It is for doing.
【0002】ここで、光線空間データの記録手法につい
て説明する。Now, a method of recording the light space data will be described.
【0003】第1図に示すように実空間に座標系O-X-Y-
Zを設置する。Z軸に垂直な基準面P(Z=z)を通過する
光線を、光線がPを横切る位置(x,y)と、光線の方
向を示す変数θ、φで表すことにする。すなわち、1本
の光線は(x, y, z,θ,φ)の5つの変数により一意に定
められる。この光線の光強度を表す関数をfと定義する
と、この空間中の光線群データはf(x, y, z,θ,φ)で表
現することが出来る。この5次元の空間を「光線空間」
と呼ぶ。As shown in FIG. 1, the coordinate system OXY-
Install Z. A ray passing through a reference plane P (Z = z) perpendicular to the Z axis is represented by a position (x, y) where the ray crosses P and variables θ and φ indicating the direction of the ray. That is, one ray is uniquely determined by the five variables (x, y, z, θ, φ). If the function expressing the light intensity of this ray is defined as f, the ray group data in this space can be expressed by f (x, y, z, θ, φ). This five-dimensional space is called "ray space"
Call.
【0004】ここで、基準面Pをz=0に設定し、光線の
垂直方向の視差情報、すなわちφ方向の自由度を省略す
ると、光線の自由度を(x,θ)の2次元に縮退させること
ができる。このx-θ2次元空間は、光線空間の部分空間
となる。そして、実空間中の点(X,Z)を通る光線
(第2図)は、u = tanθとおくと、x−u空間上で
は、第3図に示すように、
[数1]
X = x + u・Z
という直線上に写像される。Here, if the reference plane P is set to z = 0 and the parallax information in the vertical direction of the light beam, that is, the degree of freedom in the φ direction is omitted, the degree of freedom of the light beam is reduced to two dimensions (x, θ). Can be made. This x-θ two-dimensional space is a subspace of the ray space. Then, if a ray (Fig. 2) passing through a point (X, Z) in the real space is set as u = tan θ, as shown in Fig. 3 in x-u space, [Equation 1] X = It is mapped on the line x + u ・ Z.
【0005】カメラによる撮影とは、カメラの入射瞳を
通過する光線を撮像面で受光し、その明るさや色を画像
化する操作に相当する。言い換えると、入射瞳位置とい
う実空間中の1点を通る光線群を画像として画素数分獲
得していることになる。ここでは、φ方向の自由度を省
略し、X−Z平面内のみでの光線の振舞いを考えている
ので、画像中のY軸との直交面と交わる線分上の画素の
みを考えることになる。このように、画像の撮影によっ
て1点を通る光線を集めることができ、1回の撮影でx
−u空間の1本の線分上のデータを獲得することができ
る。Shooting with a camera corresponds to an operation of receiving a light ray passing through an entrance pupil of the camera on an image pickup surface and imaging its brightness and color. In other words, a group of light rays passing through one point in the real space called the entrance pupil position is acquired as an image for the number of pixels. Here, since the degree of freedom in the φ direction is omitted and the behavior of light rays is considered only in the XZ plane, only pixels on a line segment that intersects the plane orthogonal to the Y axis in the image are considered. Become. In this way, the light rays that pass through one point can be collected by taking an image, and x
-Data on one line segment in u space can be acquired.
【0006】この撮影を視点位置を変え多数行うと、多
数の点を通る光線群を獲得することができる。第4図の
ようにN台のカメラを用いて実空間を撮影すると、n番
目(n=1,2,・・・,N)のカメラCnの入射瞳位置
(Xn, Zn)に対応して、第5図のごとく、
[数2]
x + u・Zn = Xn
の直線上のデータを入力することができる。このよう
に、十分に多数の視点からの撮影を行うことによって、
x−u空間を密にデータで埋めていくことができる。If a large number of this photographing is performed by changing the viewpoint position, a ray group passing through a large number of points can be obtained. When the real space is photographed using N cameras as shown in FIG. 4, it corresponds to the entrance pupil position (Xn, Zn) of the n-th (n = 1, 2, ..., N) camera Cn. , As shown in FIG. 5, it is possible to input the data on the straight line of [Equation 2] x + u · Zn = Xn. In this way, by shooting from a sufficient number of viewpoints,
The xu space can be densely filled with data.
【0007】逆に、x−u空間のデータ(第6図)か
ら、新しい任意の視点位置からの観察画像を生成するこ
とができる(第7図)。この図に示すように、目の形で
表した新しい視点位置E(X,Z)からの観察画像は、
x−u空間上の数式1の直線上のデータをx−u空間か
ら読み出すことによって生成できる。On the contrary, an observation image from a new arbitrary viewpoint position can be generated from the data in the xu space (FIG. 6) (FIG. 7). As shown in this figure, the observation image from the new viewpoint position E (X, Z) expressed in the form of eyes is
It can be generated by reading the data on the straight line of Expression 1 on the xu space from the xu space.
【発明が解決しようとする問題点】光線空間データの大
きな特徴の1つには、光線空間データが1つ1つの画素
毎に定義されていることである。即ち、1シーンのフレ
ームデータはそのフレームの画素数分の光線空間データ
によって表現されることになる。従って、光線空間デー
タのデータ量はシーンの複雑さに依存せずに、単に、シ
ーンの大きさと解像度のみ、すなわち、生成すべきシー
ンの総画素数のみに演算量は依存する。通常のCGデー
タであれば、シーンが複雑になれば、ポリゴンの数を増
やさなければその複雑さを表現できず、それにより演算
量が増加するため、描画のパフォーマンスが低下する
が、光線空間データの場合は、描画する画像の総画素数
が一定であれば、シーンの複雑さによらず、描画パフォ
ーマンスは一定となる。One of the major characteristics of ray space data is that ray space data is defined for each pixel. That is, the frame data of one scene is represented by the ray space data for the number of pixels of the frame. Therefore, the data amount of the ray space data does not depend on the complexity of the scene, but the calculation amount depends only on the size and resolution of the scene, that is, only the total number of pixels of the scene to be generated. In the case of normal CG data, if the scene becomes complicated, the complexity cannot be expressed unless the number of polygons is increased. As a result, the amount of calculation increases, and thus the rendering performance deteriorates. In this case, if the total number of pixels of the image to be drawn is constant, the drawing performance will be constant regardless of the complexity of the scene.
【0008】このような光線空間データを用いて生成し
た仮想空間内をユーザがウォークスルーする場合を考え
る。この時ユーザにウォークスルーしているような感覚
を与えるには、秒間数十フレームの画像を生成し、提示
する必要がある。Consider a case where a user walks through a virtual space created using such ray space data. At this time, in order to give the user the feeling of walking through, it is necessary to generate and present an image of several tens of frames per second.
【0009】しかし、各フレーム中で光線空間データか
ら再構成される画像の総画素数が多いと1フレームの描
画に時間がかかり、描画フレームレートが移動速度に追
随できない場合が発生する。However, if the total number of pixels of the image reconstructed from the ray space data in each frame is large, it takes time to draw one frame, and the drawing frame rate may not follow the moving speed.
【0010】また、シーン中の物体をユーザが高速に操
作(移動や回転など)した場合でも、その物体が光線空
間データから生成・描画されたものである場合、物体の
画素数が多いと、描画が間に合わなくなる。Even when the user operates (moves or rotates) an object in the scene at high speed, if the object is generated and drawn from the ray space data, the number of pixels of the object is large. Drawing cannot be done in time.
【0011】本発明は、上記従来技術の問題点を解決す
るために提案されたもので、その目的は、光線空間デー
タの如く、空間情報を画像情報が含むような画像データ
から画像を再構成する場合に、例えば空間を移動すると
きなどのように、解像度を低下させても問題ない場合に
は、サンプリングレートを低下させて、記録時の画像情
報の解像度を下回る解像度で画像情報を読みとって画像
を再構成することにより、高い描画フレームレートを確
保した画像処理装置及び方法を提案することにある。The present invention has been proposed in order to solve the above-mentioned problems of the prior art, and its object is to reconstruct an image from image data including spatial information such as ray space data. In this case, if there is no problem in lowering the resolution, such as when moving in space, lower the sampling rate and read the image information at a resolution lower than the resolution of the image information during recording. An object of the present invention is to propose an image processing apparatus and method that secure a high drawing frame rate by reconstructing an image.
【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明の画像処理装置が以下の構成を備
える。 すなわち、光線空間データを用いてユーザによる
操作に応じた仮想空間の画像を生成するための画像処理
装置であって、 前記光線空間データを記録した記録手段
と、ユーザによる操作に応じて、前記記録手段から読み
出す光線空間データの画素間隔を示すサンプリングレー
トを設定する設定手段と、当該設定手段により設定され
たサンプリングレートに従って前記記録手段から光線空
間データを読み出して前記仮想空間の画像を再構成する
再構成手段と、当該再構成手段により再構成された画像
を、設定されている画像サイズとなるように拡大すべく
画素補間処理を行う補間手段とを備えることを特徴とす
る。 The objects of the present invention are achieved.
Therefore, for example, the image processing apparatus of the present invention has the following configuration.
Get That is, by the user using the ray space data
Image processing for generating virtual space images according to operations
A device for recording the light space data, and a device for reading from the recording device in response to an operation by a user.
Setting means for setting a sampling rate indicating a pixel interval of the light ray space data to be emitted, and light ray sky from the recording means according to the sampling rate set by the setting means.
A reconstruction means for reconstructing an image of the virtual space is read between the data, the reconstructed image by the reconstruction means
To enlarge the image so that it has the set image size.
Characterized in that it comprises an interpolation unit for performing pixel interpolation processing.
【0012】サンプリングレートを例えば仮想空間の移
動速度などに基づいて決定すると、そのサンプリングレ
ートで画像情報が読み出されて画像が再構成されようと
する。このレートは記録されたときの解像度を下回るも
のであることによって、画像再構成の際に要する時間は
短縮化される。しかも、解像度の低下分は画素補間(例
えばテクスチャマッピングなど)によって補われる。When the sampling rate is determined based on, for example, the moving speed of the virtual space, the image information is read out at the sampling rate and the image is about to be reconstructed. Since this rate is lower than the resolution at which it was recorded, the time required for image reconstruction is shortened. Moreover, the decrease in resolution is compensated by pixel interpolation (for example, texture mapping).
【0013】本発明の目的を達成するために、例えば本
発明の画像処理方法は以下の構成を備える。 すなわち、
メモリに記録された光線空間データを用いてユーザによ
る操作に応じた仮想空間の画像を生成するための画像処
理装置が行う画像処理方法であって、 ユーザによる操作
に応じて、前記メモリから読み出す光線空間データの画
素間隔を示すサンプリングレートを設定する設定工程
と、当該設定工程で設定されたサンプリングレートに従
って、前記メモリから光線空間データを読み出して前記
仮想空間の画像を再構成する再構成工程と、当該再構成
工程で再構成された画像を、設定されている画像サイズ
となるように拡大すべく画素補間処理を行う補間工程と
を備えることを特徴とする。In order to achieve the object of the present invention, for example, a book
The image processing method of the invention has the following configuration. That is,
The user can use the ray space data recorded in the memory.
Image processing to generate an image of virtual space according to the operation
An image processing method performed by a processing device, which is operated by a user.
Image of the ray space data read from the memory according to
A setting step of setting a sampling rate that indicates the elementary interval, according to the sampling rate set in the setting step, the reading light field data from the memory
A reconstruction step for reconstructing an image of the virtual space, the reconstruction
Image reconstructed in process, set image size
Characterized in that it comprises an interpolation step of performing pixel interpolation processing so as to expand so as to.
【0014】上記課題は、画像処理方法、あるいはこの
方法を実現するプログラムを記憶する記憶媒体によって
も達成される。The above object can also be achieved by an image processing method or a storage medium for storing a program for realizing this method.
【0015】[0015]
【発明の実施の形態】以下、添付図面を参照しながら、
本発明を適用した画像処理装置及び画像処理方法を詳細
に説明する。この画像処理装置及び画像処理方法は、仮
想空間をウオークスルーするとき、あるいは、光線空間
により表現された仮想空間中の物体を操作(移動や回転
など)するときには、光線空間データの読取サンプリン
グレートを下げて解像度を下げることにより、空間移動
速度に描画フレームレートを追随させ、一方、解像度が
低下した分は、テクスチャマッピングにより、画素補間
を行うというものである。DETAILED DESCRIPTION OF THE INVENTION Referring to the accompanying drawings,
An image processing apparatus and an image processing method to which the present invention is applied will be described in detail. The image processing apparatus and the image processing method set the reading sampling rate of the ray space data when walking through the virtual space or when manipulating (moving or rotating) an object in the virtual space represented by the ray space. By lowering the resolution by lowering the resolution, the drawing frame rate is made to follow the spatial movement speed, and on the other hand, when the resolution is lowered, pixel interpolation is performed by texture mapping.
【0016】第8図は、本実施形態における光線空間デ
ータの量子化を説明する。即ち、この実施形態の画像処
理装置が扱う光線空間データは、主走査方向の画素数が
NのCCDを有し、画角がwで、光軸とZ軸との交角が
αであるカメラを用いて得た画像データであるとする。
CCDの各画素に順に、0,…,N-1と順番をつけ、j番目
の画素を通過する光線がZ軸となす角度をθ、またj番
目の画素を通過する光線がX軸と交わる位置をxとする
と、
[数3]
N/2tan(θ−α)=(N/2−j)tan(w/2)
が成立する。尚、第8図では、Y軸について写像してい
る。そこで、任意のY=mライン目のj番目の画素につ
いて式3が成立するとすると、式3から、画素jに対応
する角度θを求めることができる。即ち、i番目の画像
データをI"(i)で表すと、これを(x,θ)空間の画像デー
タI'に変換し、u=tanθによりさらに(x, u)空間の画像
データIに変換するものとすると、
[数4]
I"(i) = I'(x,θ) = I(x, u)
となる。FIG. 8 illustrates the quantization of the ray space data in this embodiment. That is, the ray space data handled by the image processing apparatus of this embodiment is a camera having a CCD with a number of pixels N in the main scanning direction, an angle of view w, and an intersection angle α between the optical axis and the Z axis is α. It is assumed that the image data is obtained by using.
Each pixel of the CCD is sequentially numbered 0, ..., N-1, the angle formed by the ray passing through the jth pixel with the Z axis is θ, and the ray passing through the jth pixel intersects with the X axis. When the position is x, [Equation 3] N / 2tan (θ−α) = (N / 2−j) tan (w / 2) holds. In FIG. 8, the Y axis is mapped. Therefore, if Expression 3 holds for the j-th pixel on the arbitrary Y = m line, the angle θ corresponding to the pixel j can be obtained from Expression 3. That is, when the i-th image data is represented by I ″ (i), this is converted into image data I ′ in the (x, θ) space, and u = tan θ is further converted into the image data I in the (x, u) space. If conversion is performed, [Equation 4] I ″ (i) = I ′ (x, θ) = I (x, u).
【0017】uとxとはそれぞれもとの画像の解像度を保
存するように量子化する。例えば、x軸に関しては、隣
り合う2つの光線のx軸上での間隔の最小値を求め、こ
の間隔で量子化する。また、u軸に関しては、カメラ視
点位置からの2つの隣接画素のなす角度の正接で量子化
する。U and x are quantized so as to preserve the resolution of the original image. For example, regarding the x-axis, the minimum value of the interval between two adjacent rays on the x-axis is obtained, and quantization is performed at this interval. The u axis is quantized by the tangent of the angle formed by two adjacent pixels from the camera viewpoint position.
【0018】このようにすると、第10図に示すよう
に、光線空間データは直線上に離散的にサンプルされた
点となる。By doing so, as shown in FIG. 10, the ray space data becomes points sampled discretely on a straight line.
【0019】仮想空間でユーザあるいは物体が高速に移
動する時の移動の滑らかさは、描画フレームレートに依
存する。即ち、描画フレームレートが速いほどユーザあ
るいは物体は滑らかに仮想空間を移動しているような感
覚になり、遅いとギクシャクした動きとなり空間内での
移動に違和感を感じるようになる。従って、ユーザある
いは物体の移動速度が早い場合にも滑らかな仮想空間の
移動を実現するには、描画レートを向上させる必要があ
る。しかしながら、これは光線空間データから再構成す
る画像の総画素数を増大させる事を意味し、そのため、
描画が間に合わない懼れがある。そこで、本実施形態で
は、第10図でのサンプルレートを変更する。即ち、2
つおきの画素のサンプルが描画に間に合うほどに適当な
らば、2つおきにサンプルする。ユーザの移動速度は、
本実施形態では、マウスの移動速度で検出する。この速
度をvcm/sとすると、このときの描画に対する負荷の程
度は、k.v(kは所定の定数)となる。サンプルレート
tは可能な限り大きな値に設定すべきである。負荷k.v
に対応するサンプルレートt(画素おき)は、負荷k.v
の関数である。サンプルレートtは、それ以下に設定し
たならば、描画が間に合わないような数値であって、本
システムの描画速度と負荷k.vの値に応じて前もって決
定することができる。このようなtが決定されたなら
ば、第10図においてtサンプル点毎に光線空間データ
をサンプルする。t画素おきのサンプリングにより処理
データ量を減らして、ユーザあるいは物体の移動やスク
ロールに対処する。尚、データ量を減らして解像度が劣
化しても、ユーザあるいは物体が空間内を移動中は、そ
れを観察しているユーザの視覚特性、すなわち、動きの
ある物体やシーンに対してそれらの細部の識別能力は低
下するので、解像度の低下した空間は問題とはならな
い。The smoothness of movement when the user or object moves at high speed in the virtual space depends on the drawing frame rate. That is, the faster the drawing frame rate, the more the user or the object feels as if moving smoothly in the virtual space, and the slower the motion becomes jerky, the more uncomfortable the movement in the space becomes. Therefore, in order to realize smooth movement in the virtual space even when the moving speed of the user or the object is high, it is necessary to improve the drawing rate. However, this means increasing the total number of pixels in the image reconstructed from the ray space data, and therefore
There is a feeling that the drawing is not in time. Therefore, in this embodiment, the sample rate in FIG. 10 is changed. That is, 2
If every third pixel is suitable for drawing, then every second pixel is sampled. The user's moving speed is
In this embodiment, the movement speed of the mouse is used for detection. If this speed is set to vcm / s, the degree of load for drawing at this time is kv (k is a predetermined constant). The sample rate t should be set as large as possible. Load kv
The sample rate t (every pixel) corresponding to is the load kv
Is a function of. The sample rate t is a numerical value such that drawing will not be completed in time if set to a value lower than that, and can be determined in advance in accordance with the drawing speed of the present system and the value of the load kv. When such t is determined, the ray space data is sampled at every t sample points in FIG. The amount of processing data is reduced by sampling every t pixels to cope with the movement or scrolling of the user or the object. It should be noted that even if the amount of data is reduced and the resolution is degraded, the visual characteristics of the user or the object observing the same while moving in space, that is, the details of the moving object or the scene of the moving object or scene. The reduced resolution space is not a problem because the discriminative ability of the is reduced.
【0020】第11図は、本実施形態のシステム構成を
示す。第11図に示したハード構成は通常のワークステ
ーションの構成である。図中、特に、ディスク25には
光線空間データが第9図のように大量に記憶されてい
る。このシステムでは、ユーザに仮想空間をCRT23
上に提示するものである。このとき、ユーザはマウス2
8を操作してその仮想空間を自由にウオークスルーした
り、仮想空間中の物体を操作(移動や回転など)するこ
とができる。ウオークスルーあるいは物体を操作する速
度は、マウス28の移動速度である。第12図は、第1
1図のシステムの制御手順を示す。FIG. 11 shows the system configuration of this embodiment. The hardware configuration shown in FIG. 11 is that of a normal workstation. In the figure, in particular, the disk 25 stores a large amount of ray space data as shown in FIG. In this system, the virtual space CRT23 is provided to the user.
It is presented above. At this time, the user uses the mouse 2
8 can be operated to freely walk through the virtual space, or an object in the virtual space can be operated (moved, rotated, etc.). The speed at which the walkthrough or the object is operated is the moving speed of the mouse 28. FIG. 12 shows the first
The control procedure of the system of FIG. 1 is shown.
【0021】ステップS2でシステムが起動されると、
ステップS4で、マウス28に対するユーザの操作に基
づいて、マウスの移動方向と移動量vとが求められる。
ステップS6では、CRT23の表示範囲の大きさから
画像サイズを決定する。ステップS8では、サンプルレ
ートt(画素)をマウスの移動量vから決定して、この
サンプルレートt(画素)で光線空間データをディスク
25から読み出して画像を再構成する。When the system is started in step S2,
In step S4, the moving direction and the moving amount v of the mouse are obtained based on the user's operation on the mouse 28.
In step S6, the image size is determined from the size of the display range of the CRT 23. In step S8, the sample rate t (pixels) is determined from the movement amount v of the mouse, and the light space data is read from the disk 25 at the sample rate t (pixels) to reconstruct the image.
【0022】ステップS10では、画像拡大を行う。こ
の拡大は、ステップS8で行われた画像再構成は、サン
プルレートtでの間引きであるから画像は縮小する。そ
こで、ステップS6で決定した画像サイズとなるよう
に、画像の拡大を行うもので、周知のハードウエアであ
るテクスチャマッパ24を用いて行う。こうすることに
より画像補間が行われて求める解像度での画像表示が実
現する。In step S10, the image is enlarged. This enlargement reduces the image because the image reconstruction performed in step S8 is thinning at the sample rate t. Therefore, the image is enlarged so that the image size is determined in step S6, and the texture mapper 24, which is well-known hardware, is used. By doing so, image interpolation is performed and image display at a desired resolution is realized.
【0023】本発明は更に種々変形が可能である。The present invention can be modified in various ways.
【0024】変形例1:上記実施形態では、同じサイト
にある光線空間データ形式の画像データベースから画像
を再構成する場合を扱ったが、本発明は、データベース
がネットワークを介して遠隔にある場合にも適用可能で
ある。それは,本システムをネットワークを介して利用
している場合、ネットワークの負荷により転送レートが
変動することが、上記実施形態において観測者(ユー
ザ)がウオークスルーする際にその移動速度に描画レー
トが間に合わない場合と同じ問題が発生するからであ
る。即ち、ネットワークを介すると、画像の変化もしく
は動きが少なくても、フレームレートが下がるので、受
信側の画像処理装置のCPUは余裕があるもののデータが
こないので、ギクシャクした映像になるという問題であ
る。このような問題の対処に本発明を適用すると、送信
側と受信側との間の画像データのサンプリングレートを
ネットワークのデータ転送速度に応じて設定することに
より、映像的には画質劣化が起こるものの、動きの滑ら
かな映像を提供することが可能になる。Modification 1: In the above embodiment, the case of reconstructing an image from the image database of the ray space data format at the same site was dealt with, but the present invention is applied to the case where the database is remote via the network. Is also applicable. This is because when the system is used via a network, the transfer rate may fluctuate due to the load of the network. In the above embodiment, when the observer (user) walks through, the drawing rate is in time with the moving speed. This is because the same problem as when there is no case occurs. In other words, if there is little change or movement of the image through the network, the frame rate will decrease, so the CPU of the image processing device on the receiving side has a margin, but there is no data, so the problem is that the image becomes jerky. . When the present invention is applied to deal with such a problem, although the image data is deteriorated in image quality by setting the sampling rate of the image data between the transmitting side and the receiving side according to the data transfer rate of the network. It becomes possible to provide a smooth motion picture.
【0025】この変形例の処理を図13に示す。同図の
フローチャートにおいて、図12と同じ処理は同じ符号
を付し、説明を省略する。図12と異なるのは、ステッ
プS31の処理で、ネットワークのデータ転送レートを
判別し、ステップS81の画像生成処理において、デー
タ転送レートも参照して画像のサンプリングレートを設
定していることである。The processing of this modified example is shown in FIG. In the flowchart of the figure, the same processes as those in FIG. 12 are designated by the same reference numerals, and the description thereof will be omitted. The difference from FIG. 12 is that the data transfer rate of the network is determined in the process of step S31 and the image transfer rate is also referred to in the image generation process of step S81 to set the sampling rate of the image.
【0026】変形例2:移動速度の検出はマウス以外で
も可能である。要は、ウオークスルーやスクロールなど
の移動速度が検出されればよい。Modification 2: The movement speed can be detected by means other than the mouse. The point is that the moving speed such as walk-through or scrolling should be detected.
【0027】また、上記実施形態では、ユーザの移動速
度に対する負荷の増加を線形と仮定したが、この形式に
制限されない。例えば、解像度(画像の総画素数)を速
度の自乗に反比例するように設定しても良い。さらに
は、実際に実測値を求めて決定してもよい。Further, in the above embodiment, it is assumed that the load increase with respect to the moving speed of the user is linear, but the present invention is not limited to this form. For example, the resolution (total number of pixels of the image) may be set to be inversely proportional to the square of the speed. Further, the actual measurement value may be actually obtained and determined.
【0028】変形例3:上記実施形態では、光線空間デ
ータは計算によって求めていたが、前もってテーブル化
したRAMやROMを用いても良い。Modified Example 3: In the above embodiment, the ray space data is obtained by calculation, but RAM or ROM which is tabulated in advance may be used.
【0029】変形例4:表示装置はCRTに限られな
い。レンティキュラタイプやHMDタイプの表示装置に
適用できる。Modification 4: The display device is not limited to the CRT. It can be applied to lenticular type and HMD type display devices.
【0030】[0030]
【発明の効果】以上説明したように本発明によれば、光
線空間データによる仮想空間がコンピュータによる処理
負荷の大きなものであっても、サンプリングレートを下
げて解像度を下げることにより、負荷増大を抑えること
ができる。特に、負荷処理の増大が例えばユーザ操作に
よる仮想空間の移動や仮想空間中の物体の移動によって
起こるものであれば、サンプリングレートを下げること
による解像度の低下は、ユーザの視覚にとっては問題と
はならない。尚、解像度の低下分は画素補間によって補
われるので、画質の劣化はある程度に抑えられる。また
請求項6に記載された発明によれば、設定されたサンプ
リングレートによる光線空間データの読み出しを比較的
簡単に行うことが出来る。 As described above, according to the present invention, even if the virtual space based on the ray space data has a large processing load on the computer, the load is suppressed by lowering the sampling rate and the resolution. be able to. In particular, if the increase in load processing is caused by the movement of the virtual space or the movement of the object in the virtual space by the user operation, the reduction in the resolution by lowering the sampling rate does not pose a problem to the user's vision. . Note that the deterioration of the image quality can be suppressed to some extent because the deterioration of the resolution is compensated by the pixel interpolation. Also
According to the invention described in claim 6, the set sump
Reading of light space data by ring rate is relatively
It can be done easily.
【図1】 光線空間の定義を説明する図。FIG. 1 is a diagram illustrating the definition of a ray space.
【図2】 実空間中の点(x、z)を通過する光線群を
表す図。FIG. 2 is a diagram showing a ray group passing through a point (x, z) in a real space.
【図3】 実空間中の点(x、z)を通過する光線群を
光線空間に写像したときの図。FIG. 3 is a diagram when a ray group passing through a point (x, z) in the real space is mapped to the ray space.
【図4】 複数のカメラによる光線群のサンプリングを
示す図。FIG. 4 is a diagram showing sampling of a ray group by a plurality of cameras.
【図5】 複数のカメラによりサンプリングされた光線
群が光線空間に写像された様子を表す図。FIG. 5 is a diagram showing a state in which a ray group sampled by a plurality of cameras is mapped to a ray space.
【図6】 光線空間データから実空間中の点(x、z)
で観測できる画像を再構成する原理を説明する図。FIG. 6 Point (x, z) in real space from ray space data
For explaining the principle of reconstructing an image that can be observed in.
【図7】 光線のサンプリングに使用した複数のカメラ
と画像を再構成したい視点位置との関係を説明する図。FIG. 7 is a diagram illustrating a relationship between a plurality of cameras used for sampling rays and a viewpoint position at which an image is to be reconstructed.
【図8】 実施形態における量子化を説明する図。FIG. 8 is a diagram illustrating quantization in the embodiment.
【図9】 実施形態における光線空間データの記憶を説
明する図。FIG. 9 is a diagram illustrating storage of ray space data according to the embodiment.
【図10】 実施形態における光線空間データのサンプ
リング記憶を説明する図。FIG. 10 is a diagram illustrating sampling storage of ray space data according to the embodiment.
【図11】 実施形態のハード構成を示すブロック図。FIG. 11 is a block diagram showing a hardware configuration of the embodiment.
【図12】 実施形態の制御手順を示すフローチャー
ト。FIG. 12 is a flowchart showing a control procedure of the embodiment.
【図13】 本発明の変形例1における処理のフローチ
ャート。FIG. 13 is a flowchart of processing according to the first modification of the present invention.
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 光線記述に基づく3次元実写空間のイ ンタラクティブ操作,電子情報通信学会 論文誌,日本,社団法人電子情報通信学 会,1998年 5月25日,VOL.J81− D−2 NO.5,p850−860 適応的テクスチャマッピングを用いた Time Critical Rend eringの実現,情報処理学会研究報 告96−CG−79,日本,社団法人情報処 理学会,1996年 2月23日,p39−46 (58)調査した分野(Int.Cl.7,DB名) G06T 15/00 - 17/50 H04N 13/00 - 13/04 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) References Interactive operation of 3D live-action space based on ray description, IEICE Transactions, Japan, The Institute of Electronics, Information and Communication Engineers, May 25, 1998, VOL . J81-D-2 NO. 5, p850-860 Realization of Time Critical Rendering using adaptive texture mapping, IPSJ Research Report 96-CG-79, Japan, Information Processing Society of Japan, February 23, 1996, p39-46. (58) Fields investigated (Int.Cl. 7 , DB name) G06T 15/00-17/50 H04N 13/00-13/04
Claims (13)
作に応じた仮想空間の画像を生成するための画像処理装
置であって、 前記光線空間データを 記録した記録手段と、ユーザによる操作に応じて、前記記録手段から読み出す
光線空間データの画素間隔を示す サンプリングレートを
設定する設定手段と、 当該設定手段により設定されたサンプリングレートに従
って前記記録手段から光線空間データを読み出して前記
仮想空間の画像を再構成する再構成手段と、当該再構成手段により再構成された画像を、設定されて
いる画像サイズとなるように拡大すべく画素補間処理を
行う 補間手段とを備えることを特徴とする画像処理装
置。1. A user operation using ray space data.
Image processing device for generating virtual space images according to the work
And recording means for recording the light space data, and reading from the recording means in response to a user operation.
Said reading and setting means for setting the sampling rate of a pixel interval of the light space data, the light space data from said recording means in accordance with a sampling rate set by the setting means
The reconstruction means for reconstructing the image of the virtual space and the image reconstructed by the reconstruction means are set.
Pixel interpolation processing to enlarge so that the image size is
The image processing apparatus characterized by comprising an interpolation means for performing.
た仮想空間の移動速度に基づいてサンプリングレートを
決定することを特徴とする請求項1に記載の画像処理装
置。2. The image processing apparatus according to claim 1, wherein the setting unit determines the sampling rate based on the moving speed of the virtual space designated by the user.
た仮想空間中の物体の操作速度に基づいてサンプリング
レートを決定することを特徴とする請求項1に記載の画
像処理装置。3. The image processing apparatus according to claim 1, wherein the setting unit determines the sampling rate based on an operation speed of an object in the virtual space designated by the user.
わる位置xと、光線がZ軸となす角度の正接であるuで
示される(x,u)空間で管理されることを特徴とする
請求項1に記載の画像処理装置。 4. The ray space data includes rays intersecting the X axis.
Where x is the tangent of the angle the ray makes with the Z axis
Characterized by being managed in the indicated (x, u) space
The image processing apparatus according to claim 1.
での間隔の最小値で量子化され、前記uは、カメラ視点
位置からの2つの隣接画素のなす角度の正接で量子化さ
れることを特徴とする請求項4に記載の画像処理装置。 5. The x is on the x-axis of two adjacent rays.
Is quantized by the minimum value of the interval at
Quantized by the tangent of the angle between two adjacent pixels from the position
The image processing apparatus according to claim 4, wherein the image processing apparatus is provided.
空間データは、前記設定手段により設定されたサンプリ
ングレートに従って、(x,u)空間において直線上に
離散的にサンプルされたデータであることを特徴とする
請求項4に記載の画像処理装置。 6. A light beam read by the reconstructing means.
The spatial data is the sample data set by the setting means.
On a straight line in (x, u) space according to
Characterized by discretely sampled data
The image processing apparatus according to claim 4.
いてユーザによる操作に応じた仮想空間の画像を生成す
るための画像処理装置が行う画像処理方法で あって、 ユーザによる操作に応じて、前記メモリから読み出す光
線空間データの画素間隔を示す サンプリングレートを設
定する設定工程と、 当該設定工程で設定されたサンプリングレートに従っ
て、前記メモリから光線空間データを読み出して前記仮
想空間の画像を再構成する再構成工程と、当該再構成工程で再構成された画像を、設定されている
画像サイズとなるように拡大すべく画素補間処理を行う
補間工程とを備えることを特徴とする画像処理方法。7. The light space data recorded in the memory is used.
And generate an image of the virtual space according to the user's operation.
An image processing method because the image processing apparatus is performed in response to operation by a user, the light read from the memory
A setting step of setting a sampling rate of a pixel spacing of line space data in accordance with a sampling rate set in the setting step, the from the memory reads the light space data temporary
The reconstruction process for reconstructing the image of the virtual space and the image reconstructed in the reconstruction process are set.
An image processing method characterized by comprising the <br/> interpolation step of performing pixel interpolation processing so as to expand so that the image size.
れた仮想空間の移動速度に基づいてサンプリングレート
を決定することを特徴とする請求項7に記載の画像処理
方法。8. The image processing method according to claim 7 , wherein in the setting step , the sampling rate is determined based on the moving speed of the virtual space designated by the user.
れた仮想空間中の物体の操作速度に基づいてサンプリン
グレートを決定することを特徴とする請求項7に記載の
画像処理方法。9. The image processing method according to claim 7 , wherein in the setting step , the sampling rate is determined based on an operation speed of an object in the virtual space designated by the user.
交わる位置xと、光線がZ軸となす角度の正接であるu
で示される(x,u)空間で管理されることを特徴とす
る請求項7に記載の画像処理方法。 10. The ray space data is such that a ray is on the X axis.
U, which is the tangent of the intersecting position x and the angle the ray makes with the Z axis
Is managed in the (x, u) space indicated by
The image processing method according to claim 7.
上での間隔の最小値で量子化され、前記uは、カメラ視
点位置からの2つの隣接画素のなす角度の正接で量子化
されることを特徴とする請求項10に記載の画像処理方
法。 11. The x is the x-axis of two adjacent rays.
Is quantized by the minimum value of the above interval,
Quantize with the tangent of the angle between two adjacent pixels from the point position
The image processing method according to claim 10, wherein
Law.
間データは、前記設定工程で設定されたサンプリングレ
ートに従って、(x,u)空間において直線上に離散的
にサンプルされたデータであることを特徴とする請求項
10に記載の画像処理方法。 12. A ray sky read in the reconstructing step.
Interval data is the sampling level set in the setting process.
The discretization on a straight line in (x, u) space according to
The data is sampled in
10. The image processing method according to 10.
光線空間データを用いてユーザによる操作に応じた仮想
空間の画像を生成するための画像処理装置として機能さ
せるためのプログラムを格納するコンピュータ読み取り
可能な記憶媒体であって、当該プログラムは、 ユーザによる操作に応じて、前記メモリから読み出す光
線空間データの画素間 隔を示すサンプリングレートを設
定する設定工程と、 当該設定工程で設定されたサンプリングレートに従っ
て、前記メモリから光線空間データを読み出して前記仮
想空間の画像を再構成する再構成工程と、 当該再構成工程で再構成された画像を、設定されている
画像サイズとなるように拡大すべく画素補間処理を行う
補間工程とを備えることを特徴とするコンピュータ読み
取り可能な記憶媒体。 13. A computer recorded in a memory
Virtual according to user operation using ray space data
Functions as an image processing device for generating spatial images.
Computer reading that stores the program for
The storage medium is a storage medium that can be read, and the program is an optical read from the memory in response to a user operation.
Set the sampling rate of a pixel interval of the line space data
According to the setting process to be set and the sampling rate set in the setting process.
Read out the light space data from the memory,
The reconstruction process for reconstructing the image of the virtual space and the image reconstructed in the reconstruction process are set.
Pixel interpolation processing is performed to enlarge the image size.
Computer reading characterized by comprising an interpolation step
Removable storage medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000082610A JP3403143B2 (en) | 1999-03-26 | 2000-03-23 | Image processing method, apparatus and storage medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8466099 | 1999-03-26 | ||
JP11-84660 | 1999-03-26 | ||
JP2000082610A JP3403143B2 (en) | 1999-03-26 | 2000-03-23 | Image processing method, apparatus and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000348201A JP2000348201A (en) | 2000-12-15 |
JP3403143B2 true JP3403143B2 (en) | 2003-05-06 |
Family
ID=26425654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000082610A Expired - Fee Related JP3403143B2 (en) | 1999-03-26 | 2000-03-23 | Image processing method, apparatus and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3403143B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016092698A1 (en) * | 2014-12-12 | 2016-06-16 | キヤノン株式会社 | Image processing device, image processing method, and program |
EP3846161A4 (en) * | 2018-08-29 | 2021-10-20 | Sony Group Corporation | Information processing device, information processing method, and program |
-
2000
- 2000-03-23 JP JP2000082610A patent/JP3403143B2/en not_active Expired - Fee Related
Non-Patent Citations (2)
Title |
---|
光線記述に基づく3次元実写空間のインタラクティブ操作,電子情報通信学会論文誌,日本,社団法人電子情報通信学会,1998年 5月25日,VOL.J81−D−2 NO.5,p850−860 |
適応的テクスチャマッピングを用いたTime Critical Renderingの実現,情報処理学会研究報告96−CG−79,日本,社団法人情報処理学会,1996年 2月23日,p39−46 |
Also Published As
Publication number | Publication date |
---|---|
JP2000348201A (en) | 2000-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Massey et al. | Salient stills: Process and practice | |
KR101956149B1 (en) | Efficient Determination of Optical Flow Between Images | |
US6556236B1 (en) | Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments | |
US20160021355A1 (en) | Preprocessor for Full Parallax Light Field Compression | |
US9576335B2 (en) | Method, device, and computer program for reducing the resolution of an input image | |
CN101422035A (en) | Image high-resolution upgrading device, image high-resolution upgrading method, image high-resolution upgrading program and image high-resolution upgrading system | |
US11961266B2 (en) | Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture | |
WO2020146911A2 (en) | Multi-stage multi-reference bootstrapping for video super-resolution | |
US20100054578A1 (en) | Method and apparatus for interactive visualization and distribution of very large image data sets | |
CN113436130B (en) | Intelligent sensing system and device for unstructured light field | |
JP4217305B2 (en) | Image processing device | |
EP3247108A1 (en) | Multi-resolution lightfield rendering using image pyramids | |
JP3352475B2 (en) | Image display device | |
GB2456802A (en) | Image capture and motion picture generation using both motion camera and scene scanning imaging systems | |
US7126603B2 (en) | Method and system for creating interactive walkthroughs of real-world environment from set of densely captured images | |
US20230394833A1 (en) | Method, system and computer readable media for object detection coverage estimation | |
WO2022208440A1 (en) | Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture | |
Hirose et al. | Transmission of realistic sensation: Development of a virtual dome | |
JP3403143B2 (en) | Image processing method, apparatus and storage medium | |
JP2024114712A (en) | Imaging apparatus, imaging method, and program | |
US6906708B1 (en) | Image processing method and apparatus, and storage medium | |
Kropp et al. | Acquiring and rendering high-resolution spherical mosaics | |
JP3387856B2 (en) | Image processing method, image processing device, and storage medium | |
CN112634139B (en) | Optical field super-resolution imaging method, device and equipment | |
CN117956130A (en) | Video processing method, device, equipment, system and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3403143 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080229 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090228 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100228 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100228 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110228 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120229 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130228 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140228 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |