JP2013073514A - Image generation method, image generation device and operation support system - Google Patents
Image generation method, image generation device and operation support system Download PDFInfo
- Publication number
- JP2013073514A JP2013073514A JP2011213489A JP2011213489A JP2013073514A JP 2013073514 A JP2013073514 A JP 2013073514A JP 2011213489 A JP2011213489 A JP 2011213489A JP 2011213489 A JP2011213489 A JP 2011213489A JP 2013073514 A JP2013073514 A JP 2013073514A
- Authority
- JP
- Japan
- Prior art keywords
- image
- turning
- output image
- plane
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Component Parts Of Construction Machinery (AREA)
Abstract
Description
本発明は、旋回動作可能な被操作体に取り付けられる撮像手段が撮像する入力画像に基づいて出力画像を生成する画像生成方法、画像生成装置、及びその装置を用いた操作支援システムに関する。 The present invention relates to an image generation method, an image generation apparatus, and an operation support system using the apparatus, which generate an output image based on an input image captured by an imaging unit attached to an operation target capable of turning.
従来、カメラからの入力画像を、三次元空間上の所定の空間モデルにマッピングし、そのマッピングした空間データを参照しながら、その三次元空間における任意の仮想視点から見た視点変換画像を生成して表示する画像生成装置が知られている(例えば、特許文献1参照。)。 Conventionally, an input image from a camera is mapped to a predetermined spatial model in a three-dimensional space, and a viewpoint conversion image viewed from an arbitrary virtual viewpoint in the three-dimensional space is generated while referring to the mapped spatial data. An image generation apparatus that displays the image is known (for example, see Patent Document 1).
この画像生成装置は、車両に搭載されたカメラが撮像した画像を、その車両を囲む複数の平面又は曲面で構成される立体的な空間モデルに投影し、その空間モデルに投影した画像を用いて視点変換画像(路面を真上から見た状態を仮想的に映し出す路面画像と水平方向を映し出す水平画像とを組み合わせた画像である。)を生成し、生成した視点変換画像を運転者に対して表示する。 This image generation apparatus projects an image captured by a camera mounted on a vehicle onto a three-dimensional space model composed of a plurality of planes or curved surfaces surrounding the vehicle, and uses the image projected on the space model. Generates a viewpoint conversion image (a combination of a road image that virtually shows the road surface viewed from directly above and a horizontal image that reflects the horizontal direction), and the generated viewpoint conversion image is displayed to the driver. indicate.
これにより、この画像生成装置は、車両を運転する運転者がその視点変換画像を見たときに、その視点変換画像における物体と、車外にある実際の物体とを違和感なく対応付けられるようにしている。 Thereby, when the driver who drives the vehicle looks at the viewpoint conversion image, the image generation apparatus can associate the object in the viewpoint conversion image with the actual object outside the vehicle without a sense of incongruity. Yes.
しかしながら、特許文献1に記載の画像生成装置は、車両に搭載されることを前提としており、旋回動作が可能な作業機械等の被操作体への搭載を想定していないため、旋回時に見易い出力画像を生成することができない。 However, since the image generation device described in Patent Document 1 is assumed to be mounted on a vehicle and is not assumed to be mounted on an operation target such as a work machine capable of turning, an output that is easy to see when turning An image cannot be generated.
上述の点に鑑み、本発明は、旋回動作可能な被操作体に取り付けられる撮像手段が撮像する入力画像に基づいて旋回時に見易い出力画像を生成する画像生成方法、画像生成装置、及びその装置を用いた操作支援システムを提供することを目的とする。 In view of the above-described points, the present invention provides an image generation method, an image generation apparatus, and an apparatus for generating an output image that is easy to see at the time of turning based on an input image picked up by an image pickup unit attached to an object to be turned. An object is to provide an operation support system used.
上述の目的を達成するために、本発明の実施例に係る画像生成装置は、旋回動作可能な被操作体に取り付けられた撮像手段が撮像する入力画像に基づいて出力画像を生成する画像生成装置であって、前記被操作体の旋回状態を検出する旋回状態検出手段と、前記被操作体のCG画像を前記出力画像上に重畳表示するCG画像表示制御手段と、前記出力画像の更新状態を制御する出力画像更新制御手段と、を備え、前記旋回状態検出手段が旋回の開始を検出した場合に、前記CG画像表示制御手段は前記CG画像を前記出力画像上で旋回させることを特徴とする。 In order to achieve the above-described object, an image generation apparatus according to an embodiment of the present invention generates an output image based on an input image captured by an imaging unit attached to an object to be rotated. A turning state detecting unit for detecting a turning state of the operated body, a CG image display control unit for superimposing and displaying a CG image of the operated body on the output image, and an update state of the output image. Output image update control means for controlling, and when the turning state detecting means detects the start of turning, the CG image display control means turns the CG image on the output image. .
また、本発明の実施例に係る操作支援システムは、被操作体の移動又は操作を支援する操作支援システムであって、上述の画像生成装置と、前記被操作体を移動させ或いは操作するための操作室に設置され、該画像生成装置が生成する画像を表示する表示部と、を備えることを特徴とする。 An operation support system according to an embodiment of the present invention is an operation support system that supports movement or operation of an object to be operated, for moving or operating the above-described image generation device and the object to be operated. And a display unit that is installed in an operation room and displays an image generated by the image generation apparatus.
また、本発明の実施例に係る画像生成方法は、旋回動作可能な被操作体に取り付けられた撮像手段が撮像する入力画像に基づいて出力画像を生成する画像生成方法であって、前記被操作体の旋回状態を検出する旋回状態検出ステップと、前記被操作体のCG画像を前記出力画像上に重畳表示するCG画像表示制御ステップと、前記出力画像の更新状態を制御する出力画像更新制御ステップと、を備え、前記旋回状態検出ステップにおいて旋回の開始が検出された場合に、前記CG画像表示制御ステップにおいて前記CG画像を前記出力画像上で旋回させることを特徴とする。 An image generation method according to an embodiment of the present invention is an image generation method for generating an output image based on an input image captured by an imaging unit attached to an object to be rotated. A turning state detecting step for detecting a turning state of the body, a CG image display control step for superimposing and displaying a CG image of the object to be operated on the output image, and an output image updating control step for controlling the update state of the output image. When the start of turning is detected in the turning state detection step, the CG image is turned on the output image in the CG image display control step.
上述の手段により、本発明は、旋回動作可能な被操作体に取り付けられる撮像手段が撮像する入力画像に基づいて旋回時に見易い出力画像を生成する画像生成方法、画像生成装置、及びその装置を用いた操作支援システムを提供することができる。 With the above-described means, the present invention uses an image generation method, an image generation apparatus, and an apparatus for generating an output image that is easy to see at the time of turning based on an input image picked up by an image pickup means attached to an object to be turned. It was possible to provide an operation support system.
以下、図面を参照しつつ、本発明を実施するための最良の形態の説明を行う。 Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.
図1は、本発明に係る画像生成装置の構成例100を概略的に示すブロック図である。 FIG. 1 is a block diagram schematically showing a configuration example 100 of an image generation apparatus according to the present invention.
画像生成装置100は、例えば、建設機械に搭載されたカメラ2が撮影した入力画像に基づいて出力画像を生成しその出力画像を運転者に提示する装置であって、制御部1、カメラ2、入力部3、記憶部4、及び表示部5で構成される。 The image generating apparatus 100 is an apparatus that generates an output image based on an input image taken by a camera 2 mounted on a construction machine and presents the output image to a driver, for example, a control unit 1, a camera 2, An input unit 3, a storage unit 4, and a display unit 5 are included.
図2は、画像生成装置100が搭載されるショベル60の構成例を示す図であり、ショベル60は、クローラ式の下部走行体61の上に、旋回機構62を介して、上部旋回体63を旋回軸PVの周りで旋回自在に搭載している。 FIG. 2 is a diagram illustrating a configuration example of the excavator 60 on which the image generating apparatus 100 is mounted. The excavator 60 is configured such that the upper swing body 63 is placed on the crawler-type lower traveling body 61 via the swing mechanism 62. It is mounted so as to be pivotable around the pivot axis PV.
また、上部旋回体63は、その前方左側部にキャブ(運転室)64を備え、その前方中央部に掘削アタッチメントEを備え、その右側面、左側面、及び後面にカメラ2(右側方カメラ2R、左側方カメラ2L、後方カメラ2B)を備えている。なお、キャブ64内の運転者が視認し易い位置には表示部5が設置されているものとする。 The upper swing body 63 includes a cab (operator's cab) 64 on the front left side, a drilling attachment E on the front center, and the camera 2 (right camera 2R on the right side, left side, and rear side). Left side camera 2L and rear camera 2B). In addition, the display part 5 shall be installed in the position in the cab 64 where the driver | operator is easy to visually recognize.
次に、画像生成装置100の各構成要素について説明する。 Next, each component of the image generation apparatus 100 will be described.
制御部1は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、NVRAM(Non-Volatile Random Access Memory)等を備えたコンピュータであって、例えば、後述する座標対応付け手段10、出力画像生成手段11、及び旋回時画像制御手段12のそれぞれに対応するプログラムをROMやNVRAMに記憶し、一時記憶領域としてRAMを利用しながら各手段に対応する処理をCPUに実行させる。 The control unit 1 is a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), an NVRAM (Non-Volatile Random Access Memory), etc. A program corresponding to each of the attaching means 10, the output image generating means 11, and the turning image control means 12 is stored in a ROM or NVRAM, and processing corresponding to each means is executed on the CPU while using the RAM as a temporary storage area. Let
カメラ2は、ショベル60の周辺を映し出す入力画像を取得するための装置であり、例えば、キャブ64にいる運転者の死角となる領域を撮影できるよう上部旋回体63の右側面、左側面、及び後面に取り付けられる(図2参照。)、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備えた右側方カメラ2R、左側方カメラ2L、及び後方カメラ2Bである。なお、カメラ2は、上部旋回体63の右側面、左側面、及び後面以外の位置(例えば、前面である。)に取り付けられていてもよく、広い範囲を撮影できるよう広角レンズ又は魚眼レンズが装着されていてもよい。 The camera 2 is a device for acquiring an input image that reflects the periphery of the excavator 60. For example, the right side surface, the left side surface, and the left side surface of the upper swing body 63 so as to be able to capture an area that is a blind spot of the driver in the cab 64 A right-side camera 2R, a left-side camera 2L, and a rear camera 2B that are mounted on the rear surface (see FIG. 2) and have an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 2 may be attached to a position (for example, the front surface) other than the right side surface, the left side surface, and the rear surface of the upper swing body 63, and is equipped with a wide-angle lens or a fish-eye lens so that a wide range can be photographed. May be.
また、カメラ2は、制御部1からの制御信号に応じて入力画像を取得し、取得した入力画像を制御部1に対して出力する。なお、カメラ2は、魚眼レンズ又は広角レンズを用いて入力画像を取得した場合には、それらレンズを用いることによって生じる見掛け上の歪曲やアオリを補正した補正済みの入力画像を制御部1に対して出力するが、その見掛け上の歪曲やアオリを補正していない入力画像をそのまま制御部1に対して出力してもよい。その場合には、制御部1がその見掛け上の歪曲やアオリを補正することとなる。 In addition, the camera 2 acquires an input image according to a control signal from the control unit 1 and outputs the acquired input image to the control unit 1. In addition, when the camera 2 acquires an input image using a fisheye lens or a wide-angle lens, the corrected input image obtained by correcting apparent distortion and tilt caused by using these lenses is transmitted to the control unit 1. Although it is output, an input image in which the apparent distortion or tilt is not corrected may be output to the control unit 1 as it is. In that case, the control unit 1 corrects the apparent distortion and tilt.
入力部3は、操作者が画像生成装置100に対して各種情報を入力できるようにするための装置であり、例えば、タッチパネル、ボタンスイッチ、ポインティングデバイス、キーボード等である。 The input unit 3 is a device that allows an operator to input various types of information to the image generation device 100, and is, for example, a touch panel, a button switch, a pointing device, a keyboard, or the like.
記憶部4は、各種情報を記憶するための装置であり、例えば、ハードディスク、光学ディスク、又は半導体メモリ等である。 The storage unit 4 is a device for storing various types of information, and is, for example, a hard disk, an optical disk, or a semiconductor memory.
表示部5は、画像情報を表示するための装置であり、例えば、建設機械のキャブ64(図2参照。)内に設置された液晶ディスプレイ又はプロジェクタ等であって、制御部1が出力する各種画像を表示する。 The display unit 5 is a device for displaying image information. For example, the display unit 5 is a liquid crystal display, a projector, or the like installed in a cab 64 (see FIG. 2) of a construction machine. Display an image.
また、画像生成装置100は、入力画像に基づいて処理対象画像を生成し、その処理対象画像に画像変換処理を施すことによって周辺障害物との位置関係や距離感を直感的に把握できるようにする出力画像を生成した上で、その出力画像を運転者に提示するようにしてもよい。 Further, the image generating apparatus 100 generates a processing target image based on the input image, and performs an image conversion process on the processing target image so that the positional relationship with the surrounding obstacles and a sense of distance can be intuitively grasped. After generating the output image to be performed, the output image may be presented to the driver.
「処理対象画像」は、入力画像に基づいて生成される、画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)の対象となる画像であり、例えば、地表を上方から撮像するカメラによる入力画像であってその広い画角により水平方向の画像(例えば、空の部分である。)を含む入力画像を画像変換処理で用いる場合に、その水平方向の画像が不自然に表示されないよう(例えば、空の部分が地表にあるものとして扱われないよう)その入力画像を所定の空間モデルに投影した上で、その空間モデルに投影された投影画像を別の二次元平面に再投影することによって得られる、画像変換処理に適した画像である。なお、処理対象画像は、画像変換処理を施すことなくそのまま出力画像として用いられてもよい。 The “processing target image” is an image that is generated based on an input image and that is a target of image conversion processing (for example, scale conversion, affine conversion, distortion conversion, viewpoint conversion processing, etc.). When an input image including a horizontal image (for example, an empty portion) is used in an image conversion process with an image captured from above by a camera that captures the image from above, the horizontal image is The input image is projected onto a predetermined spatial model so that it is not unnaturally displayed (for example, the sky part is not treated as being on the ground surface), and then the projected image projected onto the spatial model is changed to another two. It is an image suitable for image conversion processing, which is obtained by reprojecting onto a dimensional plane. The processing target image may be used as an output image as it is without performing an image conversion process.
「空間モデル」は、少なくとも、処理対象画像が位置する平面である処理対象画像平面以外の平面又は曲面(例えば、処理対象画像平面に平行な平面、又は、処理対象画像平面との間で角度を形成する平面若しくは曲面である。)を含む、一又は複数の平面若しくは曲面で構成される、入力画像の投影対象である。 The “spatial model” is a plane or curved surface other than the processing target image plane that is the plane on which the processing target image is located (for example, a plane parallel to the processing target image plane or an angle with the processing target image plane). A plane or a curved surface to be formed), and a projection target of an input image composed of one or a plurality of planes or curved surfaces.
なお、画像生成装置100は、処理対象画像を生成することなく、その空間モデルに投影された投影画像に画像変換処理を施すことによって出力画像を生成するようにしてもよい。また、投影画像は、画像変換処理を施すことなくそのまま出力画像として用いられてもよい。 Note that the image generation apparatus 100 may generate an output image by performing image conversion processing on the projection image projected on the space model without generating a processing target image. Further, the projection image may be used as an output image as it is without being subjected to image conversion processing.
図3は、入力画像が投影される空間モデルMDの一例を示す図であり、図3(A)は、ショベル60を側方から見たときのショベル60と空間モデルMDとの間の関係を示し、図3(B)は、ショベル60を上方から見たときのショベル60と空間モデルMDとの間の関係を示す。 FIG. 3 is a diagram illustrating an example of a spatial model MD onto which an input image is projected. FIG. 3A illustrates a relationship between the excavator 60 and the spatial model MD when the excavator 60 is viewed from the side. FIG. 3B shows the relationship between the excavator 60 and the space model MD when the excavator 60 is viewed from above.
図3で示されるように、空間モデルMDは、半円筒形状を有し、その底面内部の平面領域R1とその側面内部の曲面領域R2とを有する。 As shown in FIG. 3, the space model MD has a semi-cylindrical shape, and includes a planar region R1 inside the bottom surface and a curved region R2 inside the side surface.
また、図4は、空間モデルMDと処理対象画像平面との間の関係の一例を示す図であり、処理対象画像平面R3は、例えば、空間モデルMDの平面領域R1を含む平面である。なお、図4は、明確化のために、空間モデルMDを、図3で示すような半円筒形状ではなく、円筒形状で示しているが、空間モデルMDは、半円筒形状及び円筒形状の何れであってもよいものとする。以降の図においても同様である。また、処理対象画像平面R3は、上述のように、空間モデルMDの平面領域R1を含む円形領域であってもよく、空間モデルMDの平面領域R1を含まない環状領域であってもよい。 FIG. 4 is a diagram illustrating an example of a relationship between the space model MD and the processing target image plane, and the processing target image plane R3 is a plane including the plane area R1 of the space model MD, for example. 4 shows the space model MD not in a semi-cylindrical shape as shown in FIG. 3 but in a cylindrical shape for the sake of clarity, the space model MD may be either a semi-cylindrical shape or a cylindrical shape. It may be. The same applies to the subsequent drawings. Further, as described above, the processing target image plane R3 may be a circular area including the plane area R1 of the spatial model MD, or may be an annular area not including the plane area R1 of the spatial model MD.
次に、制御部1が有する各種手段について説明する。 Next, various units included in the control unit 1 will be described.
座標対応付け手段10は、カメラ2が撮像した入力画像が位置する入力画像平面上の座標と、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付けるための手段であり、例えば、予め設定された、或いは、入力部3を介して入力される、カメラ2の光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等のカメラ2に関する各種パラメータと、予め決定された、入力画像平面、空間モデルMD、及び処理対象画像平面R3の相互の位置関係とに基づいて、入力画像平面上の座標と、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付け、それらの対応関係を記憶部4の入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41に記憶する。 The coordinate association means 10 is a means for associating coordinates on the input image plane where the input image captured by the camera 2 is located, coordinates on the space model MD, and coordinates on the processing target image plane R3. For example, various parameters relating to the camera 2 such as optical center, focal length, CCD size, optical axis direction vector, camera horizontal direction vector, projection method, etc., which are set in advance or input via the input unit 3 And the coordinates on the input image plane, the coordinates on the space model MD, and the processing target image based on the predetermined positional relationship among the input image plane, the spatial model MD, and the processing target image plane R3. The coordinates on the plane R3 are associated with each other, and the corresponding relationship is stored in the input image / space model correspondence map 40 and the space model / processing object image correspondence map 41 of the storage unit 4. .
なお、座標対応付け手段10は、処理対象画像を生成しない場合には、空間モデルMD上の座標と処理対象画像平面R3上の座標との対応付け、及び、その対応関係の空間モデル・処理対象画像対応マップ41への記憶を省略する。 When the processing target image is not generated, the coordinate association unit 10 associates the coordinates on the spatial model MD with the coordinates on the processing target image plane R3, and the spatial model / processing target of the corresponding relationship. The storage in the image correspondence map 41 is omitted.
出力画像生成手段11は、出力画像を生成するための手段であり、例えば、処理対象画像にスケール変換、アフィン変換、又は歪曲変換を施すことによって、処理対象画像平面R3上の座標と出力画像が位置する出力画像平面上の座標とを対応付け、その対応関係を記憶部4の処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10がその値を記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。 The output image generation unit 11 is a unit for generating an output image. For example, by performing scale conversion, affine conversion, or distortion conversion on the processing target image, the coordinates on the processing target image plane R3 and the output image are changed. The input image / space model in which the coordinates on the output image plane that is positioned are associated, the correspondence is stored in the processing target image / output image correspondence map 42 of the storage unit 4, and the value is stored in the coordinate association means 10. With reference to the correspondence map 40 and the spatial model / processing object image correspondence map 41, the value of each pixel in the output image (for example, the luminance value, hue value, saturation value, etc.) and the value of each pixel in the input image. To generate an output image.
また、出力画像生成手段11は、予め設定された、或いは、入力部3を介して入力される、仮想カメラの光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等の各種パラメータに基づいて、処理対象画像平面R3上の座標と出力画像が位置する出力画像平面上の座標とを対応付け、その対応関係を記憶部4の処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10がその値を記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。 Further, the output image generation means 11 is preset or input via the input unit 3, the optical center of the virtual camera, the focal length, the CCD size, the optical axis direction vector, the camera horizontal direction vector, the projection method. The coordinates on the processing target image plane R3 and the coordinates on the output image plane where the output image is located are associated with each other based on various parameters such as the processing target image / output image correspondence map 42 in the storage unit 4. And the values of each pixel in the output image (for example, the luminance value) while referring to the input image / spatial model correspondence map 40 and the spatial model / processing object image correspondence map 41 stored by the coordinate matching means 10. , Hue value, saturation value, etc.) and the value of each pixel in the input image are associated with each other to generate an output image.
なお、出力画像生成手段11は、仮想カメラの概念を用いることなく、処理対象画像のスケールを変更して出力画像を生成するようにしてもよい。 Note that the output image generation unit 11 may generate the output image by changing the scale of the processing target image without using the concept of the virtual camera.
また、出力画像生成手段11は、処理対象画像を生成しない場合には、施した画像変換処理に応じて空間モデルMD上の座標と出力画像平面上の座標とを対応付け、入力画像・空間モデル対応マップ40を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。この場合、出力画像生成手段11は、処理対象画像平面R3上の座標と出力画像平面上の座標との対応付け、及び、その対応関係の処理対象画像・出力画像対応マップ42への記憶を省略する。 Further, when the processing target image is not generated, the output image generation unit 11 associates the coordinates on the space model MD with the coordinates on the output image plane in accordance with the applied image conversion process, and the input image / space model. With reference to the correspondence map 40, the output image is generated by associating the value of each pixel in the output image (for example, luminance value, hue value, saturation value, etc.) with the value of each pixel in the input image. In this case, the output image generation unit 11 omits the association between the coordinates on the processing target image plane R3 and the coordinates on the output image plane, and the storage of the correspondence relationship in the processing target image / output image correspondence map 42. To do.
旋回時画像制御手段12は、上部旋回体63の旋回時における出力画像の表示部5への表示態様を制御する手段である。なお、旋回時画像制御手段12の詳細については後述する。 The turning image control means 12 is a means for controlling the display mode of the output image on the display unit 5 when the upper turning body 63 is turning. The details of the turning image control means 12 will be described later.
次に、座標対応付け手段10及び出力画像生成手段11による具体的な処理の一例について説明する。 Next, an example of specific processing by the coordinate association unit 10 and the output image generation unit 11 will be described.
座標対応付け手段10は、例えば、ハミルトンの四元数を用いて、入力画像平面上の座標と空間モデル上の座標とを対応付けることができる。 The coordinate association means 10 can associate the coordinates on the input image plane with the coordinates on the space model using, for example, a Hamilton quaternion.
図5は、入力画像平面上の座標と空間モデル上の座標との対応付けを説明するための図であり、カメラ2の入力画像平面は、カメラ2の光学中心Cを原点とするUVW直交座標系における一平面として表され、空間モデルは、XYZ直交座標系における立体面として表されるものとする。 FIG. 5 is a diagram for explaining the correspondence between the coordinates on the input image plane and the coordinates on the space model. The input image plane of the camera 2 has UVW orthogonal coordinates with the optical center C of the camera 2 as the origin. The space model is represented as a three-dimensional surface in the XYZ orthogonal coordinate system.
最初に、座標対応付け手段10は、空間モデル上の座標(XYZ座標系上の座標)を入力画像平面上の座標(UVW座標系上の座標)に変換するため、XYZ座標系の原点を光学中心C(UVW座標系の原点)に並行移動させた上で、X軸をU軸に、Y軸をV軸に、Z軸を−W軸(符号「−」は方向が逆であることを意味する。これは、UVW座標系がカメラ前方を+W方向とし、XYZ座標系が鉛直下方を−Z方向としていることに起因する。)にそれぞれ一致させるようXYZ座標系を回転させる。 First, the coordinate association unit 10 converts the coordinates on the space model (coordinates on the XYZ coordinate system) into coordinates on the input image plane (coordinates on the UVW coordinate system), so that the origin of the XYZ coordinate system is optically converted. After moving parallel to the center C (the origin of the UVW coordinate system), the X axis is the U axis, the Y axis is the V axis, and the Z axis is the -W axis (the sign "-" indicates that the direction is reversed) This means that the XYZ coordinate system is rotated so that the UVW coordinate system coincides with the + W direction in front of the camera and the XYZ coordinate system in the −Z direction vertically below.
なお、カメラ2が複数存在する場合、カメラ2のそれぞれが個別のUVW座標系を有することとなるので、座標対応付け手段10は、複数のUVW座標系のそれぞれに対して、XYZ座標系を並行移動させ且つ回転させることとなる。 When there are a plurality of cameras 2, each of the cameras 2 has an individual UVW coordinate system. Therefore, the coordinate association unit 10 uses an XYZ coordinate system in parallel with each of the plurality of UVW coordinate systems. It will be moved and rotated.
上述の変換は、カメラ2の光学中心CがXYZ座標系の原点となるようにXYZ座標系を並行移動させた後に、Z軸が−W軸に一致するよう回転させ、更に、X軸がU軸に一致するよう回転させることによって実現されるので、座標対応付け手段10は、この変換をハミルトンの四元数で記述することにより、それら二回の回転を一回の回転演算に纏めることができる。 In the above conversion, the XYZ coordinate system is translated so that the optical center C of the camera 2 is the origin of the XYZ coordinate system, and then the Z axis is rotated so as to coincide with the −W axis. Since it is realized by rotating to coincide with the axis, the coordinate matching means 10 can combine these two rotations into one rotation calculation by describing this transformation in Hamilton's quaternion. it can.
ところで、あるベクトルAを別のベクトルBに一致させるための回転は、ベクトルAとベクトルBとが張る面の法線を軸としてベクトルAとベクトルBとが形成する角度だけ回転させる処理に相当し、その角度をθとすると、ベクトルAとベクトルBとの内積から、角度θは、 By the way, the rotation for making one vector A coincide with another vector B corresponds to the process of rotating the vector A and the vector B by the angle formed by using the normal line of the surface extending between the vector A and the vector B as an axis. If the angle is θ, from the inner product of the vector A and the vector B, the angle θ is
また、ベクトルAとベクトルBとが張る面の法線の単位ベクトルNは、ベクトルAとベクトルBとの外積から Further, the unit vector N of the normal line between the vector A and the vector B is obtained from the outer product of the vector A and the vector B.
なお、四元数は、i、j、kをそれぞれ虚数単位とした場合、 Note that the quaternion has i, j, and k as imaginary units,
四元数Qは、実成分tを0(ゼロ)としながら、純虚成分a、b、cで三次元ベクトル(a,b,c)を表現することができ、また、t、a、b、cの各成分により任意のベクトルを軸とした回転動作を表現することもできる。 The quaternion Q can represent a three-dimensional vector (a, b, c) with pure imaginary components a, b, c while setting the real component t to 0 (zero), and t, a, b , C can also be used to express a rotational motion with an arbitrary vector as an axis.
更に、四元数Qは、連続する複数回の回転動作を統合して一回の回転動作として表現することができ、例えば、任意の点S(sx,sy,sz)を、任意の単位ベクトルC(l,m,n)を軸としながら角度θだけ回転させたときの点D(ex,ey,ez)を以下のように表現することができる。 Further, the quaternion Q can be expressed as a single rotation operation by integrating a plurality of continuous rotation operations. For example, an arbitrary point S (sx, sy, sz) can be expressed as an arbitrary unit vector. A point D (ex, ey, ez) when rotated by an angle θ with C (l, m, n) as an axis can be expressed as follows.
また、本実施例において、X軸上にある点X’と原点とを結ぶ線をU軸に一致させる回転を表す四元数をQxとすると、「Z軸を−W軸に一致させ、更に、X軸をU軸に一致させる回転」を表す四元数Rは、 In this embodiment, if the quaternion representing the rotation that matches the line connecting the point X ′ and the origin on the X axis with the U axis is Q x , “Z axis is made to match −W axis, Furthermore, the quaternion R representing "the rotation that makes the X axis coincide with the U axis"
以上により、空間モデル(XYZ座標系)上の任意の座標Pを入力画像平面(UVW座標系)上の座標で表現したときの座標P’は、 As described above, the coordinate P ′ when an arbitrary coordinate P on the space model (XYZ coordinate system) is expressed by a coordinate on the input image plane (UVW coordinate system) is
空間モデル(XYZ座標系)上の座標を入力画像平面(UVW座標系)上の座標に変換した後、座標対応付け手段10は、カメラ2の光学中心C(UVW座標系上の座標)と空間モデル上の任意の座標PをUVW座標系で表した座標P’とを結ぶ線分CP’と、カメラ2の光軸Gとが形成する入射角αを算出する。 After the coordinates on the space model (XYZ coordinate system) are converted to the coordinates on the input image plane (UVW coordinate system), the coordinate association means 10 determines the optical center C (coordinates on the UVW coordinate system) of the camera 2 and the space. An incident angle α formed by a line segment CP ′ connecting an arbitrary coordinate P on the model with a coordinate P ′ represented in the UVW coordinate system and the optical axis G of the camera 2 is calculated.
また、座標対応付け手段10は、カメラ2の入力画像平面R4(例えば、CCD面)に平行で且つ座標P’を含む平面Hにおける、平面Hと光軸Gとの交点Eと座標P’とを結ぶ線分EP’と、平面HにおけるU’軸とが形成する偏角φ、及び線分EP’の長さを算出する。 In addition, the coordinate association unit 10 includes an intersection E between the plane H and the optical axis G, and a coordinate P ′ in a plane H that is parallel to the input image plane R4 (for example, CCD plane) of the camera 2 and includes the coordinate P ′. Are calculated, and the deviation angle φ formed by the line segment EP ′ connecting the two and the U ′ axis in the plane H, and the length of the line segment EP ′.
カメラの光学系は、通常、像高さhが入射角α及び焦点距離fの関数となっているので、座標対応付け手段10は、通常射影(h=ftanα)、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等の適切な射影方式を選択して像高さhを算出する。 In the optical system of the camera, the image height h is usually a function of the incident angle α and the focal length f. Therefore, the coordinate matching means 10 performs normal projection (h = ftanα) and orthographic projection (h = fsinα). Image height by selecting an appropriate projection method such as stereo projection (h = 2 ftan (α / 2)), equisolid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc. Calculate h.
その後、座標対応付け手段10は、算出した像高さhを偏角φによりUV座標系上のU成分及びV成分に分解し、入力画像平面R4の一画素当たりの画素サイズに相当する数値で除算することにより、空間モデルMD上の座標P(P’)と入力画像平面R4上の座標とを対応付けることができる。 Thereafter, the coordinate matching means 10 decomposes the calculated image height h into U and V components on the UV coordinate system by the declination φ, and is a numerical value corresponding to the pixel size per pixel of the input image plane R4. By dividing, the coordinates P (P ′) on the space model MD can be associated with the coordinates on the input image plane R4.
なお、入力画像平面R4のU軸方向における一画素当たりの画素サイズをaUとし、入力画像平面R4のV軸方向における一画素当たりの画素サイズをaVとすると、空間モデルMD上の座標P(P’)に対応する入力画像平面R4上の座標(u,v)は、 Incidentally, when the pixel size per one pixel in the U axis direction of the input image plane R4 and a U, the pixel size per one pixel in the V axis direction of the input image plane R4 and a V, coordinates P of the space model MD The coordinates (u, v) on the input image plane R4 corresponding to (P ′) are
このようにして、座標対応付け手段10は、空間モデルMD上の座標と、カメラ毎に存在する一又は複数の入力画像平面R4上の座標とを対応付け、空間モデルMD上の座標、カメラ識別子、及び入力画像平面R4上の座標を関連付けて入力画像・空間モデル対応マップ40に記憶する。 In this way, the coordinate association unit 10 associates the coordinates on the space model MD with the coordinates on one or a plurality of input image planes R4 existing for each camera, and coordinates on the space model MD, the camera identifier. And the coordinates on the input image plane R4 are stored in the input image / space model correspondence map 40 in association with each other.
また、座標対応付け手段10は、四元数を用いて座標の変換を演算するので、オイラー角を用いて座標の変換を演算する場合と異なり、ジンバルロックを発生させることがないという利点を有する。しかしながら、座標対応付け手段10は、四元数を用いて座標の変換を演算するものに限定されることはなく、オイラー角を用いて座標の変換を演算するようにしてもよい。 Further, since the coordinate association unit 10 calculates the coordinate conversion using the quaternion, unlike the case where the coordinate conversion is calculated using the Euler angle, there is an advantage that no gimbal lock is generated. . However, the coordinate association unit 10 is not limited to the one that calculates the coordinate conversion using the quaternion, and may perform the coordinate conversion using the Euler angle.
なお、複数の入力画像平面R4上の座標への対応付けが可能な場合、座標対応付け手段10は、空間モデルMD上の座標P(P’)を、その入射角αが最も小さいカメラに関する入力画像平面R4上の座標に対応付けるようにしてもよく、操作者が選択した入力画像平面R4上の座標に対応付けるようにしてもよい。 Note that, when it is possible to associate the coordinates on the plurality of input image planes R4, the coordinate associating means 10 inputs the coordinates P (P ′) on the spatial model MD with respect to the camera having the smallest incident angle α. It may be associated with coordinates on the image plane R4, or may be associated with coordinates on the input image plane R4 selected by the operator.
次に、空間モデルMD上の座標のうち、曲面領域R2上の座標(Z軸方向の成分を持つ座標)を、XY平面上にある処理対象画像平面R3に再投影する処理について説明する。 Next, a process of reprojecting coordinates on the curved surface area R2 (coordinates having a component in the Z-axis direction) among the coordinates on the spatial model MD onto the processing target image plane R3 on the XY plane will be described.
図6は、座標対応付け手段10による座標間の対応付けを説明するための図であり、図6(A)は、一例として通常射影(h=ftanα)を採用するカメラ2の入力画像平面R4上の座標と空間モデルMD上の座標との間の対応関係を示す図であって、座標対応付け手段10は、カメラ2の入力画像平面R4上の座標とその座標に対応する空間モデルMD上の座標とを結ぶ線分のそれぞれがカメラ2の光学中心Cを通過するようにして、両座標を対応付ける。 FIG. 6 is a diagram for explaining the association between coordinates by the coordinate association means 10, and FIG. 6A shows an input image plane R4 of the camera 2 that employs a normal projection (h = ftanα) as an example. FIG. 6 is a diagram showing a correspondence relationship between the coordinates on the upper surface and the coordinates on the space model MD, and the coordinate associating means 10 displays the coordinates on the input image plane R4 of the camera 2 and the space model MD corresponding to the coordinates. Both the coordinates are made to correspond to each other so that each of the line segments connecting the coordinates passes through the optical center C of the camera 2.
図6(A)の例では、座標対応付け手段10は、カメラ2の入力画像平面R4上の座標K1を空間モデルMDの平面領域R1上の座標L1に対応付け、カメラ2の入力画像平面R4上の座標K2を空間モデルMDの曲面領域R2上の座標L2に対応付ける。このとき、線分K1−L1及び線分K2−L2は共にカメラ2の光学中心Cを通過する。 In the example of FIG. 6A, the coordinate association means 10 associates the coordinate K1 on the input image plane R4 of the camera 2 with the coordinate L1 on the plane area R1 of the space model MD, and inputs the image 2 R4 of the camera 2. The upper coordinate K2 is associated with the coordinate L2 on the curved surface region R2 of the space model MD. At this time, both the line segment K1-L1 and the line segment K2-L2 pass through the optical center C of the camera 2.
なお、カメラ2が通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する場合、座標対応付け手段10は、それぞれの射影方式に応じて、カメラ2の入力画像平面R4上の座標K1、K2を空間モデルMD上の座標L1、L2に対応付けるようにする。 In addition, when the camera 2 employs a projection method other than normal projection (for example, orthographic projection, stereoscopic projection, equisolid angle projection, equidistant projection, etc.), the coordinate association unit 10 uses each projection method. Accordingly, the coordinates K1 and K2 on the input image plane R4 of the camera 2 are associated with the coordinates L1 and L2 on the space model MD.
具体的には、座標対応付け手段10は、所定の関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に基づいて、入力画像平面上の座標と空間モデルMD上の座標とを対応付ける。この場合、線分K1−L1及び線分K2−L2がカメラ2の光学中心Cを通過することはない。 Specifically, the coordinate association unit 10 is configured to use a predetermined function (for example, orthographic projection (h = fsin α), stereoscopic projection (h = 2 ftan (α / 2)), or equal solid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc.), the coordinates on the input image plane are associated with the coordinates on the space model MD. In this case, the line segment K1-L1 and the line segment K2-L2 do not pass through the optical center C of the camera 2.
図6(B)は、空間モデルMDの曲面領域R2上の座標と処理対象画像平面R3上の座標との間の対応関係を示す図であり、座標対応付け手段10は、XZ平面上に位置する平行線群PLであって、処理対象画像平面R3との間で角度βを形成する平行線群PLを導入し、空間モデルMDの曲面領域R2上の座標とその座標に対応する処理対象画像平面R3上の座標とが共に平行線群PLのうちの一つに乗るようにして、両座標を対応付ける。 FIG. 6B is a diagram showing a correspondence relationship between coordinates on the curved surface region R2 of the space model MD and coordinates on the processing target image plane R3, and the coordinate association unit 10 is positioned on the XZ plane. The parallel line group PL that forms an angle β with the processing target image plane R3 is introduced, and the coordinates on the curved surface region R2 of the spatial model MD and the processing target image corresponding to the coordinates are introduced. The coordinates on the plane R3 are associated with each other such that the coordinates are on one of the parallel line groups PL.
図6(B)の例では、座標対応付け手段10は、空間モデルMDの曲面領域R2上の座標L2と処理対象画像平面R3上の座標M2とが共通の平行線に乗るとして、両座標を対応付けるようにする。 In the example of FIG. 6B, the coordinate matching means 10 assumes that the coordinate L2 on the curved surface region R2 of the space model MD and the coordinate M2 on the processing target image plane R3 are on a common parallel line, and both coordinates are obtained. Make it correspond.
なお、座標対応付け手段10は、空間モデルMDの平面領域R1上の座標を曲面領域R2上の座標と同様に平行線群PLを用いて処理対象画像平面R3上の座標に対応付けることが可能であるが、図6(B)の例では、平面領域R1と処理対象画像平面R3とが共通の平面となっているので、空間モデルMDの平面領域R1上の座標L1と処理対象画像平面R3上の座標M1とは同じ座標値を有するものとなっている。 The coordinate association means 10 can associate the coordinates on the plane area R1 of the spatial model MD with the coordinates on the processing target image plane R3 using the parallel line group PL in the same manner as the coordinates on the curved surface area R2. However, in the example of FIG. 6B, since the plane area R1 and the processing target image plane R3 are a common plane, the coordinates L1 on the plane area R1 of the spatial model MD and the processing target image plane R3 The coordinate M1 has the same coordinate value.
このようにして、座標対応付け手段10は、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付け、空間モデルMD上の座標及び処理対象画像R3上の座標を関連付けて空間モデル・処理対象画像対応マップ41に記憶する。 In this way, the coordinate association unit 10 associates the coordinates on the spatial model MD with the coordinates on the processing target image plane R3, and associates the coordinates on the spatial model MD with the coordinates on the processing target image R3. It is stored in the spatial model / processing object image correspondence map 41.
図6(C)は、処理対象画像平面R3上の座標と一例として通常射影(h=ftanα)を採用する仮想カメラ2Vの出力画像平面R5上の座標との間の対応関係を示す図であり、出力画像生成手段11は、仮想カメラ2Vの出力画像平面R5上の座標とその座標に対応する処理対象画像平面R3上の座標とを結ぶ線分のそれぞれが仮想カメラ2Vの光学中心CVを通過するようにして、両座標を対応付ける。 FIG. 6C is a diagram illustrating a correspondence relationship between the coordinates on the processing target image plane R3 and the coordinates on the output image plane R5 of the virtual camera 2V that adopts the normal projection (h = ftanα) as an example. The output image generation means 11 passes through the optical center CV of the virtual camera 2V each of the line segments connecting the coordinates on the output image plane R5 of the virtual camera 2V and the coordinates on the processing target image plane R3 corresponding to the coordinates. In this way, the two coordinates are associated with each other.
図6(C)の例では、出力画像生成手段11は、仮想カメラ2Vの出力画像平面R5上の座標N1を処理対象画像平面R3(空間モデルMDの平面領域R1)上の座標M1に対応付け、仮想カメラ2Vの出力画像平面R5上の座標N2を処理対象画像平面R3上の座標M2に対応付ける。このとき、線分M1−N1及び線分M2−N2は共に仮想カメラ2Vの光学中心CVを通過する。 In the example of FIG. 6C, the output image generation unit 11 associates the coordinates N1 on the output image plane R5 of the virtual camera 2V with the coordinates M1 on the processing target image plane R3 (plane area R1 of the space model MD). The coordinate N2 on the output image plane R5 of the virtual camera 2V is associated with the coordinate M2 on the processing target image plane R3. At this time, both the line segment M1-N1 and the line segment M2-N2 pass through the optical center CV of the virtual camera 2V.
なお、仮想カメラ2Vが通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する場合、出力画像生成手段11は、それぞれの射影方式に応じて、仮想カメラ2Vの出力画像平面R5上の座標N1、N2を処理対象画像平面R3上の座標M1、M2に対応付けるようにする。 Note that when the virtual camera 2V employs a projection method other than normal projection (for example, orthographic projection, stereoscopic projection, equisolid angle projection, equidistant projection, etc.), the output image generation unit 11 uses each projection method. Accordingly, the coordinates N1 and N2 on the output image plane R5 of the virtual camera 2V are associated with the coordinates M1 and M2 on the processing target image plane R3.
具体的には、出力画像生成手段11は、所定の関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に基づいて、出力画像平面R5上の座標と処理対象画像平面R3上の座標とを対応付ける。この場合、線分M1−N1及び線分M2−N2が仮想カメラ2Vの光学中心CVを通過することはない。 Specifically, the output image generation means 11 is a predetermined function (for example, orthographic projection (h = fsin α), stereoscopic projection (h = 2 ftan (α / 2)), equal solid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc.), the coordinates on the output image plane R5 and the coordinates on the processing target image plane R3 are associated with each other. In this case, the line segment M1-N1 and the line segment M2-N2 do not pass through the optical center CV of the virtual camera 2V.
このようにして、出力画像生成手段11は、出力画像平面R5上の座標と、処理対象画像平面R3上の座標とを対応付け、出力画像平面R5上の座標及び処理対象画像R3上の座標を関連付けて処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10が記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値と入力画像における各画素の値とを関連付けて出力画像を生成する。 In this way, the output image generation unit 11 associates the coordinates on the output image plane R5 with the coordinates on the processing target image plane R3, and sets the coordinates on the output image plane R5 and the coordinates on the processing target image R3. Each of the output images is stored in the processing target image / output image correspondence map 42 in association with each other in the output image while referring to the input image / spatial model correspondence map 40 and the spatial model / processing target image correspondence map 41 stored by the coordinate matching means 10. An output image is generated by associating the pixel value with the value of each pixel in the input image.
なお、図6(D)は、図6(A)〜図6(C)を組み合わせた図であり、カメラ2、仮想カメラ2V、空間モデルMDの平面領域R1及び曲面領域R2、並びに、処理対象画像平面R3の相互の位置関係を示す。 FIG. 6D is a combination of FIGS. 6A to 6C. The camera 2, the virtual camera 2V, the plane area R1 and the curved area R2 of the space model MD, and the processing target. The mutual positional relationship of image plane R3 is shown.
次に、図7を参照しながら、空間モデルMD上の座標と処理対象画像平面R3上の座標とを対応付けるために座標対応付け手段10が導入する平行線群PLの作用について説明する。 Next, the operation of the parallel line group PL introduced by the coordinate association unit 10 to associate the coordinates on the space model MD with the coordinates on the processing target image plane R3 will be described with reference to FIG.
図7(A)は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度βが形成される場合の図であり、図7(B)は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度β1(β1>β)が形成される場合の図である。また、図7(A)及び図7(B)における空間モデルMDの曲面領域R2上の座標La〜Ldのそれぞれは、処理対象画像平面R3上の座標Ma〜Mdのそれぞれに対応するものとし、図7(A)における座標La〜Ldのそれぞれの間隔は、図7(B)における座標La〜Ldのそれぞれの間隔と等しいものとする。なお、平行線群PLは、説明目的のためにXZ平面上に存在するものとしているが、実際には、Z軸上の全ての点から処理対象画像平面R3に向かって放射状に延びるように存在するものとする。なお、この場合のZ軸を「再投影軸」と称することとする。 FIG. 7A is a diagram in the case where the angle β is formed between the parallel line group PL positioned on the XZ plane and the processing target image plane R3, and FIG. 7B is the diagram on the XZ plane. It is a figure in case angle (beta) 1 ((beta) 1> (beta)) is formed between the parallel line group PL and the process target image plane R3. Also, each of the coordinates La to Ld on the curved surface region R2 of the spatial model MD in FIGS. 7A and 7B corresponds to the coordinates Ma to Md on the processing target image plane R3, respectively. Assume that the intervals between the coordinates La to Ld in FIG. 7A are equal to the intervals between the coordinates La to Ld in FIG. The parallel line group PL is assumed to exist on the XZ plane for the purpose of explanation, but actually exists so as to extend radially from all points on the Z axis toward the processing target image plane R3. It shall be. In this case, the Z axis is referred to as a “reprojection axis”.
図7(A)及び図7(B)で示されるように、処理対象画像平面R3上の座標Ma〜Mdのそれぞれの間隔は、平行線群PLと処理対象画像平面R3との間の角度が増大するにつれて線形的に減少する(空間モデルMDの曲面領域R2と座標Ma〜Mdのそれぞれとの間の距離とは関係なく一様に減少する。)。一方で、空間モデルMDの平面領域R1上の座標群は、図7の例では、処理対象画像平面R3上の座標群への変換が行われないので、座標群の間隔が変化することはない。 As shown in FIGS. 7A and 7B, the distance between the coordinates Ma to Md on the processing target image plane R3 is such that the angle between the parallel line group PL and the processing target image plane R3 is the same. As it increases, it decreases linearly (it decreases uniformly regardless of the distance between the curved surface region R2 of the spatial model MD and each of the coordinates Ma to Md). On the other hand, since the coordinate group on the plane region R1 of the space model MD is not converted into the coordinate group on the processing target image plane R3 in the example of FIG. 7, the interval between the coordinate groups does not change. .
これら座標群の間隔の変化は、出力画像平面R5(図6参照。)上の画像部分のうち、空間モデルMDの曲面領域R2に投影された画像に対応する画像部分のみが線形的に拡大或いは縮小されることを意味する。 The change in the interval between these coordinate groups is such that only the image portion corresponding to the image projected on the curved surface region R2 of the spatial model MD is linearly enlarged or out of the image portion on the output image plane R5 (see FIG. 6). It means to be reduced.
次に、図8を参照しながら、空間モデルMD上の座標と処理対象画像平面R3上の座標とを対応付けるために座標対応付け手段10が導入する平行線群PLの代替例について説明する。 Next, an alternative example of the parallel line group PL introduced by the coordinate association unit 10 to associate the coordinates on the space model MD with the coordinates on the processing target image plane R3 will be described with reference to FIG.
図8(A)は、XZ平面上に位置する補助線群ALの全てがZ軸上の始点T1から処理対象画像平面R3に向かって延びる場合の図であり、図8(B)は、補助線群ALの全てがZ軸上の始点T2(T2>T1)から処理対象画像平面R3に向かって延びる場合の図である。また、図8(A)及び図8(B)における空間モデルMDの曲面領域R2上の座標La〜Ldのそれぞれは、処理対象画像平面R3上の座標Ma〜Mdのそれぞれに対応するものとし(図8(A)の例では、座標Mc、Mdは、処理対象画像平面R3の領域外となるため図示されていない。)、図8(A)における座標La〜Ldのそれぞれの間隔は、図8(B)における座標La〜Ldのそれぞれの間隔と等しいものとする。なお、補助線群ALは、説明目的のためにXZ平面上に存在するものとしているが、実際には、Z軸上の任意の一点から処理対象画像平面R3に向かって放射状に延びるように存在するものとする。なお、図7と同様、この場合のZ軸を「再投影軸」と称することとする。 FIG. 8A is a diagram in the case where all of the auxiliary line groups AL located on the XZ plane extend from the start point T1 on the Z axis toward the processing target image plane R3, and FIG. It is a figure in case all the line groups AL extend toward the process target image plane R3 from the starting point T2 (T2> T1) on the Z axis. 8A and 8B, the coordinates La to Ld on the curved surface region R2 of the spatial model MD correspond to the coordinates Ma to Md on the processing target image plane R3 ( In the example of FIG. 8A, the coordinates Mc and Md are not shown because they are outside the region of the processing target image plane R3.) The intervals between the coordinates La to Ld in FIG. It is assumed that the interval between the coordinates La to Ld in 8 (B) is equal. The auxiliary line group AL is assumed to exist on the XZ plane for the purpose of explanation, but actually exists so as to extend radially from an arbitrary point on the Z axis toward the processing target image plane R3. It shall be. As in FIG. 7, the Z axis in this case is referred to as a “reprojection axis”.
図8(A)及び図8(B)で示されるように、処理対象画像平面R3上の座標Ma〜Mdのそれぞれの間隔は、補助線群ALの始点と原点Oとの間の距離(高さ)が増大するにつれて非線形的に減少する(空間モデルMDの曲面領域R2と座標Ma〜Mdのそれぞれとの間の距離が大きいほど、それぞれの間隔の減少幅が大きくなる。)。一方で、空間モデルMDの平面領域R1上の座標群は、図8の例では、処理対象画像平面R3上の座標群への変換が行われないので、座標群の間隔が変化することはない。 As shown in FIGS. 8A and 8B, the distance between the coordinates Ma to Md on the processing target image plane R3 is the distance (high) between the starting point of the auxiliary line group AL and the origin O. As the distance between the curved surface region R2 of the space model MD and each of the coordinates Ma to Md is larger, the width of reduction of each interval is larger. On the other hand, since the coordinate group on the plane region R1 of the spatial model MD is not converted into the coordinate group on the processing target image plane R3 in the example of FIG. 8, the interval between the coordinate groups does not change. .
これら座標群の間隔の変化は、平行線群PLのときと同様、出力画像平面R5(図6参照。)上の画像部分のうち、空間モデルMDの曲面領域R2に投影された画像に対応する画像部分のみが非線形的に拡大或いは縮小されることを意味する。 The change in the interval between these coordinate groups corresponds to the image projected on the curved surface region R2 of the spatial model MD in the image portion on the output image plane R5 (see FIG. 6), as in the case of the parallel line group PL. It means that only the image portion is enlarged or reduced nonlinearly.
このようにして、画像生成装置100は、空間モデルMDの平面領域R1に投影された画像に対応する出力画像の画像部分(例えば、路面画像である。)に影響を与えることなく、空間モデルMDの曲面領域R2に投影された画像に対応する出力画像の画像部分(例えば、水平画像である。)を線形的に或いは非線形的に拡大或いは縮小させることができるので、ショベル60の近傍の路面画像(ショベル60を真上から見たときの仮想画像)に影響を与えることなく、ショベル60の周囲に位置する物体(ショベル60から水平方向に周囲を見たときの画像における物体)を迅速且つ柔軟に拡大或いは縮小させることができ、ショベル60の死角領域の視認性を向上させることができる。 In this way, the image generation device 100 does not affect the image portion (for example, a road surface image) of the output image corresponding to the image projected on the plane region R1 of the space model MD, and does not affect the space model MD. Since the image portion (for example, a horizontal image) of the output image corresponding to the image projected on the curved surface area R2 can be linearly or nonlinearly enlarged or reduced, the road surface image in the vicinity of the excavator 60 Without affecting the excavator 60 (virtual image when viewed from directly above), an object located in the periphery of the excavator 60 (an object in the image when viewed in the horizontal direction from the excavator 60) can be quickly and flexibly The visibility of the blind spot area of the excavator 60 can be improved.
次に、図9及び図10を参照しながら、空間モデルMDに投影された画像から直接的に出力画像を生成する場合と、空間モデルMDに投影された画像を処理対象画像に再投影しその再投影された処理対象画像から出力画像を生成する場合との違いを説明する。 Next, referring to FIG. 9 and FIG. 10, when an output image is generated directly from an image projected on the space model MD, an image projected on the space model MD is reprojected on a processing target image, and A difference from the case of generating an output image from the reprojected processing target image will be described.
図9(A)は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度βが形成される場合の図であり、図9(B)は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度β2(β2<β)が形成される場合の図である。また、図9(A)における空間モデルMDの平面領域R1及び曲面領域R2、処理対象画像平面R3、並びに、通常射影(h=ftanα)を採用する仮想カメラ2Vの出力画像平面R5及び光学中心CVの位置と、図9(B)のそれぞれとは、共通するものとする。 FIG. 9A is a diagram in the case where the angle β is formed between the parallel line group PL positioned on the XZ plane and the processing target image plane R3, and FIG. 9B is the diagram on the XZ plane. It is a figure in case angle (beta) 2 ((beta) 2 <(beta)) is formed between the parallel line group PL and the process target image plane R3 which are located. In addition, the plane region R1 and the curved surface region R2, the processing target image plane R3, and the output image plane R5 and the optical center CV of the virtual camera 2V adopting the normal projection (h = ftanα) in FIG. 9A. And the positions in FIG. 9B are common.
また、図9(A)及び図9(B)において、平面領域R1を含む処理対象画像平面R3上の座標M1は、出力画像平面R5上の座標N1に対応し、曲面領域R2上の座標L2は、処理対象画像平面R3上の座標M2、及び出力画像平面R5上の座標N2に対応し、距離D1(D3)は、出力画像平面R5の中心点(仮想カメラ2Vの光軸GVとの交点)と座標N1との間のX軸上の距離を示し、距離D2(D4)は、出力画像平面R5の中心点と座標N2との間のX軸上の距離を示す。 9A and 9B, the coordinate M1 on the processing target image plane R3 including the plane area R1 corresponds to the coordinate N1 on the output image plane R5, and the coordinate L2 on the curved area R2 Corresponds to the coordinate M2 on the processing target image plane R3 and the coordinate N2 on the output image plane R5, and the distance D1 (D3) is the center point of the output image plane R5 (intersection with the optical axis GV of the virtual camera 2V) ) And the coordinate N1 on the X axis, and the distance D2 (D4) indicates the distance on the X axis between the center point of the output image plane R5 and the coordinate N2.
図9(A)及び図9(B)で示されるように、平行線群PLと処理対象画像平面R3との間の角度がβのときの距離D2(図9(A)参照。)は、その角度が減少するにつれて増大し、その角度がβ2のときに距離D4(図9(B)参照。)となるが、その角度がβのときの距離D1(図9(A)参照。)は、その角度の変化にかかわらず一定であり、その角度がβ2のときの距離D3(図9(B)参照。)に等しい。 As shown in FIGS. 9A and 9B, the distance D2 (see FIG. 9A) when the angle between the parallel line group PL and the processing target image plane R3 is β is as follows. The angle increases as the angle decreases, and becomes the distance D4 (see FIG. 9B) when the angle is β2, but the distance D1 (see FIG. 9A) when the angle is β. It is constant regardless of the change in the angle, and is equal to the distance D3 (see FIG. 9B) when the angle is β2.
このように距離D2が距離D4に変化すること、及び、距離D1(D3)が不変であることは、図7及び図8で説明した作用と同様に、出力画像平面R5上の画像部分のうち、空間モデルMDの曲面領域R2に投影された画像に対応する画像部分(例えば、水平画像である。)のみが拡大或いは縮小されることを意味する。 As described above, the distance D2 is changed to the distance D4 and the distance D1 (D3) is not changed in the image portion on the output image plane R5 as in the operation described with reference to FIGS. This means that only the image portion (for example, a horizontal image) corresponding to the image projected on the curved surface region R2 of the space model MD is enlarged or reduced.
なお、空間モデルMDに投影された画像に基づいて直接的に出力画像を生成した場合には、空間モデルMDの平面領域R1と曲面領域R2とを別々に取り扱うことができないため(別々に拡大縮小処理の対象とすることができないため)、曲面領域R2に投影された画像に対応する出力画像平面R5上の画像部分のみを拡大或いは縮小することができないこととなる。 Note that when the output image is directly generated based on the image projected on the space model MD, the plane region R1 and the curved surface region R2 of the space model MD cannot be handled separately (separate enlargement / reduction). Therefore, only the image portion on the output image plane R5 corresponding to the image projected on the curved surface area R2 cannot be enlarged or reduced.
図10は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度βが形成される場合の図であり、通常射影(h=ftanα)を採用する仮想カメラ2Vの光学中心CVを空間モデルMDの外側(光学中心CVのX座標の値を平面領域R1の半径よりも大きくした状態をいう。)に移動させたときの状態を示す。 FIG. 10 is a diagram in the case where an angle β is formed between the parallel line group PL positioned on the XZ plane and the processing target image plane R3. The virtual camera 2V adopting the normal projection (h = ftan α) is shown in FIG. The state when the optical center CV is moved to the outside of the space model MD (the state in which the value of the X coordinate of the optical center CV is larger than the radius of the plane region R1) is shown.
図10で示されるように、出力画像生成手段11は、処理対象画像平面R3(平面領域R1)上の座標M1と出力画像平面R5上の座標N1とを、線分M1−N1が光学中心CVを通るように対応付け、また、曲面領域R2上の座標L2に対応する処理対象画像平面R3上の座標M2と出力画像平面R5上の座標N2とを、線分M2−N2が光学中心CVを通るように対応付けるので、空間モデルMDの曲面領域R2に投影された画像から直接的に出力画像を生成する場合のように、円筒の側壁外面を見ることとなって適切な出力画像を生成できないという問題(空間モデルMD上の座標と出力画像平面R5上の座標とを対応付けることができないという問題)を引き起こすことなく、適切な出力画像を生成することができる。 As shown in FIG. 10, the output image generation means 11 has a coordinate M1 on the processing target image plane R3 (plane area R1) and a coordinate N1 on the output image plane R5, and a line segment M1-N1 has an optical center CV. And the coordinates M2 on the processing target image plane R3 and the coordinates N2 on the output image plane R5 corresponding to the coordinates L2 on the curved surface region R2, and the line segment M2-N2 has the optical center CV. Since the images are associated so as to pass, an appropriate output image cannot be generated by viewing the outer surface of the side wall of the cylinder as in the case of generating an output image directly from an image projected on the curved surface region R2 of the space model MD. An appropriate output image can be generated without causing a problem (a problem that coordinates on the space model MD and coordinates on the output image plane R5 cannot be associated).
なお、図9及び図10は、通常射影を採用する仮想カメラ2Vに関する説明であるが、通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する仮想カメラ2Vについても同様の説明が適用され、その場合、出力画像生成手段11は、処理対象画像平面R3(平面領域R1)上の座標M1と出力画像平面R5上の座標N1とを、線分M1−N1が光学中心CVを通るように(関数h=ftanαに従って)対応付ける代わりに、それぞれの射影方式に対応する関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に従って出力画像平面R5上の座標と処理対象画像平面R3上の座標とを対応付ける。この場合、線分M1−N1が仮想カメラ2Vの光学中心CVを通過することはない。 FIGS. 9 and 10 illustrate the virtual camera 2 </ b> V that employs normal projection. However, projection methods other than normal projection (e.g., orthographic projection, stereoscopic projection, equisolid angle projection, equidistant projection, etc.) are used. The same description is applied to the virtual camera 2V adopting the above), and in this case, the output image generation unit 11 uses the coordinates M1 on the processing target image plane R3 (plane area R1) and the coordinates N1 on the output image plane R5. Instead of associating the line segment M1-N1 with the optical center CV (according to the function h = ftanα), a function corresponding to each projection method (for example, orthographic projection (h = fsinα), stereoscopic projection (h = 2ftan (α / 2)), equal solid angle projection (h = 2fsin (α / 2)), equidistant projection (h = fα), etc.) and the coordinates on the output image plane R5 and the processing target image plane R3. Upper seat Associate a mark with the mark. In this case, the line segment M1-N1 does not pass through the optical center CV of the virtual camera 2V.
次に、図11を参照しながら、画像生成装置100が処理対象画像を生成する処理(以下、「処理対象画像生成処理」とする。)、及び、生成した処理対象画像を用いて出力画像を生成する処理(以下、「出力画像生成処理」とする。)について説明する。なお、図11は、処理対象画像生成処理(ステップS1〜ステップS3)及び出力画像生成処理(ステップS4〜ステップS6)の流れを示すフローチャートである。また、カメラ2(入力画像平面R4)、空間モデル(平面領域R1及び曲面領域R2)、並びに、処理対象画像平面R3の配置は予め決定されているものとする。 Next, referring to FIG. 11, the image generation apparatus 100 generates a processing target image (hereinafter referred to as “processing target image generation processing”), and an output image is generated using the generated processing target image. Processing to be generated (hereinafter referred to as “output image generation processing”) will be described. FIG. 11 is a flowchart showing the flow of the process target image generation process (steps S1 to S3) and the output image generation process (steps S4 to S6). Further, it is assumed that the arrangement of the camera 2 (input image plane R4), the space model (plane area R1 and curved surface area R2), and the processing target image plane R3 is determined in advance.
最初に、制御部1は、座標対応付け手段10により、処理対象画像平面R3上の座標と空間モデルMD上の座標とを対応付ける(ステップS1)。 First, the control unit 1 associates the coordinates on the processing target image plane R3 with the coordinates on the space model MD using the coordinate association unit 10 (step S1).
具体的には、座標対応付け手段10は、平行線群PLと処理対象画像平面R3との間に形成される角度を取得し、処理対象画像平面R3上の一座標から延びる平行線群PLの一つが空間モデルMDの曲面領域R2と交差する点を算出し、算出した点に対応する曲面領域R2上の座標を、処理対象画像平面R3上のその一座標に対応する曲面領域R2上の一座標として導き出し、その対応関係を空間モデル・処理対象画像対応マップ41に記憶する。なお、平行線群PLと処理対象画像平面R3との間に形成される角度は、記憶部4等に予め記憶された値であってもよく、入力部3を介して操作者が動的に入力する値であってもよい。 Specifically, the coordinate association unit 10 obtains an angle formed between the parallel line group PL and the processing target image plane R3, and the parallel line group PL extending from one coordinate on the processing target image plane R3. One point that intersects the curved surface region R2 of the space model MD is calculated, and a coordinate on the curved surface region R2 corresponding to the calculated point is set to one on the curved surface region R2 corresponding to the one coordinate on the processing target image plane R3. The coordinates are derived as coordinates, and the corresponding relationship is stored in the space model / processing object image correspondence map 41. It should be noted that the angle formed between the parallel line group PL and the processing target image plane R3 may be a value stored in advance in the storage unit 4 or the like. It may be a value to be entered.
また、座標対応付け手段10は、処理対象画像平面R3上の一座標が空間モデルMDの平面領域R1上の一座標と一致する場合には、平面領域R1上のその一座標を、処理対象画像平面R3上のその一座標に対応する一座標として導き出し、その対応関係を空間モデル・処理対象画像対応マップ41に記憶する。 In addition, when one coordinate on the processing target image plane R3 matches one coordinate on the plane area R1 of the space model MD, the coordinate association unit 10 uses the one coordinate on the plane area R1 as the processing target image. It is derived as one coordinate corresponding to the one coordinate on the plane R3, and the correspondence is stored in the space model / processing object image correspondence map 41.
その後、制御部1は、座標対応付け手段10により、上述の処理によって導き出された空間モデルMD上の一座標と入力画像平面R4上の座標とを対応付ける(ステップS2)。 Thereafter, the control unit 1 causes the coordinate association unit 10 to associate one coordinate on the spatial model MD derived by the above-described processing with a coordinate on the input image plane R4 (step S2).
具体的には、座標対応付け手段10は、通常射影(h=ftanα)を採用するカメラ2の光学中心Cの座標を取得し、空間モデルMD上の一座標から延びる線分であり、光学中心Cを通過する線分が入力画像平面R4と交差する点を算出し、算出した点に対応する入力画像平面R4上の座標を、空間モデルMD上のその一座標に対応する入力画像平面R4上の一座標として導き出し、その対応関係を入力画像・空間モデル対応マップ40に記憶する。 Specifically, the coordinate association unit 10 acquires the coordinates of the optical center C of the camera 2 that employs normal projection (h = ftanα), is a line segment extending from one coordinate on the space model MD, and the optical center A point where the line segment passing through C intersects the input image plane R4 is calculated, and the coordinates on the input image plane R4 corresponding to the calculated point are set on the input image plane R4 corresponding to the one coordinate on the space model MD. And the corresponding relationship is stored in the input image / space model correspondence map 40.
その後、制御部1は、処理対象画像平面R3上の全ての座標を空間モデルMD上の座標及び入力画像平面R4上の座標に対応付けたか否かを判定し(ステップS3)、未だ全ての座標を対応付けていないと判定した場合には(ステップS3のNO)、ステップS1及びステップS2の処理を繰り返すようにする。 Thereafter, the control unit 1 determines whether or not all the coordinates on the processing target image plane R3 are associated with the coordinates on the space model MD and the coordinates on the input image plane R4 (step S3), and all the coordinates are still set. Are determined to be not associated (NO in step S3), the processes in steps S1 and S2 are repeated.
一方、制御部1は、全ての座標を対応付けたと判定した場合には(ステップS3のYES)、処理対象画像生成処理を終了させた上で出力画像生成処理を開始させ、出力画像生成手段11により、処理対象画像平面R3上の座標と出力画像平面R5上の座標とを対応付ける(ステップS4)。 On the other hand, when it is determined that all the coordinates are associated (YES in step S3), the control unit 1 ends the processing target image generation process, starts the output image generation process, and outputs the output image generation unit 11. Thus, the coordinates on the processing target image plane R3 are associated with the coordinates on the output image plane R5 (step S4).
具体的には、出力画像生成手段11は、処理対象画像にスケール変換、アフィン変換、又は歪曲変換を施すことによって出力画像を生成し、施したスケール変換、アフィン変換、又は歪曲変換の内容によって定まる、処理対象画像平面R3上の座標と出力画像平面R5上の座標との間の対応関係を処理対象画像・出力画像対応マップ42に記憶する。 Specifically, the output image generation unit 11 generates an output image by performing scale conversion, affine conversion, or distortion conversion on the processing target image, and is determined by the content of the applied scale conversion, affine conversion, or distortion conversion. The correspondence relationship between the coordinates on the processing target image plane R3 and the coordinates on the output image plane R5 is stored in the processing target image / output image correspondence map 42.
或いは、出力画像生成手段11は、仮想カメラ2Vを用いて出力画像を生成する場合には、採用した射影方式に応じて対象処理画像平面R3上の座標から出力画像平面R5上の座標を算出し、その対応関係を処理対象画像・出力画像対応マップ42に記憶するようにしてもよい。 Alternatively, when generating the output image using the virtual camera 2V, the output image generation unit 11 calculates the coordinates on the output image plane R5 from the coordinates on the target processing image plane R3 according to the adopted projection method. The correspondence relationship may be stored in the processing target image / output image correspondence map 42.
或いは、出力画像生成手段11は、通常射影(h=ftanα)を採用する仮想カメラ2Vを用いて出力画像を生成する場合には、その仮想カメラ2Vの光学中心CVの座標を取得した上で、出力画像平面R5上の一座標から延びる線分であり、光学中心CVを通過する線分が処理対象画像平面R3と交差する点を算出し、算出した点に対応する処理対象画像平面R3上の座標を、出力画像平面R5上のその一座標に対応する処理対象画像平面R3上の一座標として導き出し、その対応関係を処理対象画像・出力画像対応マップ42に記憶するようにしてもよい。 Alternatively, when generating an output image using the virtual camera 2V that employs normal projection (h = ftanα), the output image generation unit 11 acquires the coordinates of the optical center CV of the virtual camera 2V, A line segment extending from one coordinate on the output image plane R5 and calculating a point where a line segment passing through the optical center CV intersects the processing target image plane R3, and on the processing target image plane R3 corresponding to the calculated point. The coordinates may be derived as one coordinate on the processing target image plane R3 corresponding to the one coordinate on the output image plane R5, and the correspondence relationship may be stored in the processing target image / output image correspondence map 42.
その後、制御部1は、出力画像生成手段11により、入力画像・空間モデル対応マップ40、空間モデル・処理対象画像対応マップ41、及び処理対象画像・出力画像対応マップ42を参照しながら入力画像平面R4上の座標と空間モデルMD上の座標との対応関係、空間モデルMD上の座標と処理対象画像平面R3上の座標との対応関係、及び処理対象画像平面R3上の座標と出力画像平面R5上の座標との対応関係を辿り、出力画像平面R5上の各座標に対応する入力画像平面R4上の座標が有する値(例えば、輝度値、色相値、彩度値等である。)を取得し、その取得した値を、対応する出力画像平面R5上の各座標の値として採用する(ステップS5)。なお、出力画像平面R5上の一座標に対して複数の入力画像平面R4上の複数の座標が対応する場合、出力画像生成手段11は、それら複数の入力画像平面R4上の複数の座標のそれぞれの値に基づく統計値(例えば、平均値、最大値、最小値、中間値等である。)を導き出し、出力画像平面R5上のその一座標の値としてその統計値を採用するようにしてもよい。 After that, the control unit 1 uses the output image generation unit 11 to refer to the input image / space model correspondence map 40, the space model / processing target image correspondence map 41, and the processing target image / output image correspondence map 42. Correspondence between coordinates on R4 and coordinates on space model MD, correspondence between coordinates on space model MD and coordinates on processing target image plane R3, and coordinates on processing target image plane R3 and output image plane R5 The correspondence with the upper coordinates is traced, and values (for example, luminance values, hue values, saturation values, etc.) possessed by the coordinates on the input image plane R4 corresponding to the respective coordinates on the output image plane R5 are acquired. Then, the acquired value is adopted as the value of each coordinate on the corresponding output image plane R5 (step S5). When a plurality of coordinates on the plurality of input image planes R4 correspond to one coordinate on the output image plane R5, the output image generation unit 11 respectively outputs the plurality of coordinates on the plurality of input image planes R4. A statistical value (for example, an average value, a maximum value, a minimum value, an intermediate value, or the like) based on the value of L is derived, and the statistical value is adopted as the value of the one coordinate on the output image plane R5. Good.
その後、制御部1は、出力画像平面R5上の全ての座標の値を入力画像平面R4上の座標の値に対応付けたか否かを判定し(ステップS6)、未だ全ての座標の値を対応付けていないと判定した場合には(ステップS6のNO)、ステップS4及びステップS5の処理を繰り返すようにする。 Thereafter, the control unit 1 determines whether or not all the coordinate values on the output image plane R5 are associated with the coordinate values on the input image plane R4 (step S6), and all the coordinate values are still associated. If it is determined that it is not attached (NO in step S6), the processes in steps S4 and S5 are repeated.
一方、制御部1は、全ての座標の値を対応付けたと判定した場合には(ステップS6のYES)、出力画像を生成して、この一連の処理を終了させる。 On the other hand, if the control unit 1 determines that all coordinate values are associated (YES in step S6), the control unit 1 generates an output image and ends the series of processes.
なお、画像生成装置100は、処理対象画像を生成しない場合には、処理対象画像生成処理を省略し、出力画像生成処理におけるステップS4の“処理対象画像平面上の座標”を“空間モデル上の座標”で読み替えるものとする。 Note that when the processing target image is not generated, the image generation apparatus 100 omits the processing target image generation processing, and sets “coordinates on the processing target image plane” in step S4 in the output image generation processing as “on the spatial model”. It shall be read as “coordinates”.
以上の構成により、画像生成装置100は、建設機械と周辺障害物との位置関係を操作者に直感的に把握させることが可能な処理対象画像及び出力画像を生成することができる。 With the above configuration, the image generation apparatus 100 can generate a processing target image and an output image that allow the operator to intuitively grasp the positional relationship between the construction machine and the surrounding obstacle.
また、画像生成装置100は、処理対象画像平面R3から空間モデルMDを経て入力画像平面R4に遡るように座標の対応付けを実行することにより、処理対象画像平面R3上の各座標を入力画像平面R4上の一又は複数の座標に確実に対応させることができ、入力画像平面R4から空間モデルMDを経て処理対象画像平面R3に至る順番で座標の対応付けを実行する場合と比べ(この場合には、入力画像平面R4上の各座標を処理対象画像平面R3上の一又は複数の座標に確実に対応させることができるが、処理対象画像平面R3上の座標の一部が、入力画像平面R4上の何れの座標にも対応付けられない場合があり、その場合にはそれら処理対象画像平面R3上の座標の一部に補間処理等を施す必要がある。)、より良質な処理対象画像を迅速に生成することができる。 Further, the image generation apparatus 100 associates coordinates on the processing target image plane R3 from the processing target image plane R3 to the input image plane R4 through the spatial model MD, thereby obtaining the coordinates on the processing target image plane R3. One or more coordinates on R4 can be reliably associated, and compared with a case where coordinates are associated in the order from the input image plane R4 to the processing target image plane R3 via the spatial model MD (in this case) Can reliably correspond each coordinate on the input image plane R4 to one or a plurality of coordinates on the processing target image plane R3. However, a part of the coordinates on the processing target image plane R3 is part of the input image plane R4. In some cases, the coordinates may not be associated with any of the above coordinates, and in such a case, it is necessary to perform interpolation processing or the like on a part of the coordinates on the processing target image plane R3). It is possible to rapidly generate.
また、画像生成装置100は、空間モデルMDの曲面領域R2に対応する画像のみを拡大或いは縮小する場合には、平行線群PLと処理対象画像平面R3との間に形成される角度を変更して空間モデル・処理対象画像対応マップ41における曲面領域R2に関連する部分のみを書き換えるだけで、入力画像・空間モデル対応マップ40の内容を書き換えることなく、所望の拡大或いは縮小を実現させることができる。 Further, when enlarging or reducing only the image corresponding to the curved surface region R2 of the space model MD, the image generating apparatus 100 changes the angle formed between the parallel line group PL and the processing target image plane R3. Thus, it is possible to realize a desired enlargement or reduction without rewriting the contents of the input image / space model correspondence map 40 only by rewriting only the portion related to the curved surface region R2 in the space model / processing object image correspondence map 41. .
また、画像生成装置100は、出力画像の見え方を変更する場合には、スケール変換、アフィン変換又は歪曲変換に関する各種パラメータの値を変更して処理対象画像・出力画像対応マップ42を書き換えるだけで、入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41の内容を書き換えることなく、所望の出力画像(スケール変換画像、アフィン変換画像又は歪曲変換画像)を生成することができる。 Further, when changing the appearance of the output image, the image generating apparatus 100 simply rewrites the processing target image / output image correspondence map 42 by changing the values of various parameters relating to scale conversion, affine transformation, or distortion transformation. The desired output image (scale-converted image, affine-transformed image, or distortion-converted image) can be generated without rewriting the contents of the input image / space model correspondence map 40 and the space model / processing object image correspondence map 41.
同様に、画像生成装置100は、出力画像の視点を変更する場合には、仮想カメラ2Vの各種パラメータの値を変更して処理対象画像・出力画像対応マップ42を書き換えるだけで、入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41の内容を書き換えることなく、所望の視点から見た出力画像(視点変換画像)を生成することができる。 Similarly, when changing the viewpoint of the output image, the image generating apparatus 100 simply changes the values of various parameters of the virtual camera 2V and rewrites the processing target image / output image correspondence map 42 to change the input image / space. An output image (viewpoint conversion image) viewed from a desired viewpoint can be generated without rewriting the contents of the model correspondence map 40 and the space model / processing object image correspondence map 41.
次に、図12〜図14を参照しながら、カメラ2と空間モデルMDとの間の位置関係について説明する。なお、図12〜図14では、説明の便宜上、右側方カメラ2R及び後方カメラ2Bの2つのカメラと空間モデルMDとの間の位置関係を説明するが、左側方カメラ2Lを加えた3つのカメラが存在する場合や4つ以上のカメラが存在する場合にも同様の説明が適用される。 Next, the positional relationship between the camera 2 and the space model MD will be described with reference to FIGS. 12 to 14, for convenience of explanation, the positional relationship between the two cameras, the right camera 2R and the rear camera 2B, and the space model MD will be described, but three cameras including the left camera 2L are added. The same description is applied to the case where there is 4 or more than four cameras.
図12(A)は、図3(B)と同様に、ショベル60を上方から見たときのカメラ2と空間モデルMDとの間の位置関係を示す図であり、図12(B)は、図4と同様に、空間モデルMDを斜め上方から見たときのカメラ2と空間モデルMDとの間の位置関係を示す図であり、図12(C)は、画像生成装置100が生成する処理対象画像を示す図である。 FIG. 12A is a diagram showing a positional relationship between the camera 2 and the space model MD when the excavator 60 is viewed from above, as in FIG. 3B, and FIG. 4 is a diagram illustrating a positional relationship between the camera 2 and the space model MD when the space model MD is viewed from obliquely above, and FIG. 12C illustrates a process generated by the image generation apparatus 100. It is a figure which shows a target image.
また、図12(B)で最も分かり易く示されるように、円筒状の空間モデルMDの円筒中心軸は、再投影軸及びショベル60の旋回軸PV(Z軸)に一致するものとし、Y軸上には、Z軸方向に平行に延びる棒状の物体OBJが存在するものとする。 12B, the cylindrical center axis of the cylindrical space model MD is assumed to coincide with the reprojection axis and the pivot axis PV (Z axis) of the excavator 60, and the Y axis It is assumed that there is a rod-like object OBJ that extends parallel to the Z-axis direction.
図12(B)において、後方カメラ2Bの光軸G1及び右側方カメラ2Rの光軸G2はそれぞれ、空間モデルMDの平面領域R1及び処理対象画像平面R3が位置する平面(XY平面)と交差し、また、光軸G1と光軸G2とは、円筒中心軸(再投影軸)上の点J1で交差するものとする。なお、光軸G1と光軸G2とは、XY平面に平行な一平面に投影されたときの成分のそれぞれが円筒中心軸(再投影軸)上の点で交差するものであれば、ねじれの位置の関係にあってもよい。 In FIG. 12B, the optical axis G1 of the rear camera 2B and the optical axis G2 of the right-side camera 2R intersect with the plane (XY plane) where the plane area R1 of the spatial model MD and the processing target image plane R3 are located, respectively. The optical axis G1 and the optical axis G2 intersect at a point J1 on the cylindrical center axis (reprojection axis). Note that the optical axis G1 and the optical axis G2 are twisted as long as each component when projected onto a plane parallel to the XY plane intersects at a point on the cylindrical central axis (reprojection axis). It may be in a positional relationship.
また、後方カメラ2Bの光学中心から円筒中心軸(再投影軸)に下ろした垂線は、右側方カメラ2Rの光学中心から円筒中心軸(再投影軸)に下ろした垂線と互いに垂直な関係にあるものとする。なお、本実施例では、それら二つの垂線は、平面領域R1及び処理対象画像平面R3が位置する平面と平行な一平面上に存在しながら点J2で直交しているが、それぞれ別の平面上に位置し、ねじれの位置の関係にあるものであってもよい。 In addition, the perpendicular drawn from the optical center of the rear camera 2B to the cylindrical center axis (reprojection axis) is perpendicular to the perpendicular drawn from the optical center of the right camera 2R to the cylindrical center axis (reprojection axis). Shall. In the present embodiment, the two perpendiculars are orthogonal to each other at a point J2 while existing on one plane parallel to the plane on which the plane region R1 and the processing target image plane R3 are located. It may be located in the relationship of the position of twist.
図12(A)及び図12(B)で示されたカメラ2と空間モデルMDとの間の位置関係により、画像生成装置100は、図12(C)で示されるように、Y軸上においてZ軸方向に平行に延びる棒状の物体OBJが、平面領域R1に投影された画像に対応する路面画像部分でY軸方向に平行な方向(右側方カメラ2Rの光学中心と物体OBJ上の点とを通る直線の方向)に延在し、且つ、曲面領域R2に投影された画像に対応する水平画像部分で同じくY軸方向に平行な方向(再投影軸上の点(平行線群PL又は補助線群ALの始点)と物体OBJ上の点とを通る直線の方向)に延在するよう(すなわち、路面画像部分と水平画像部分との間の境界で折れ曲がることなく)、処理対象画像を生成することができる。 Due to the positional relationship between the camera 2 and the space model MD shown in FIGS. 12A and 12B, the image generation apparatus 100 is arranged on the Y axis as shown in FIG. A bar-like object OBJ extending in parallel with the Z-axis direction is parallel to the Y-axis direction in the road surface image portion corresponding to the image projected on the plane area R1 (the optical center of the right-side camera 2R and the point on the object OBJ). In the horizontal image portion corresponding to the image projected on the curved surface region R2 and in the same direction parallel to the Y-axis direction (a point on the reprojection axis (parallel line group PL or auxiliary) The processing target image is generated so as to extend in the direction of the straight line passing through the point of the line group AL) and the point on the object OBJ (that is, without bending at the boundary between the road surface image portion and the horizontal image portion). can do.
図13(A)〜(C)は、図12(A)〜(C)と同様の図であり、円筒状の空間モデルMDの円筒中心軸は、再投影軸及びショベル60の旋回軸PV(Z軸)に一致するものとし、Y軸上には、Z軸方向に平行に延びる棒状の物体OBJが存在し、更に、右側方カメラ2Rの光軸G2の方向にも、XY平面からZ軸方向に平行に延びる棒状の物体OBJ1が存在するものとする。 FIGS. 13A to 13C are views similar to FIGS. 12A to 12C. The cylindrical center axis of the cylindrical space model MD is the reprojection axis and the pivot axis PV ( Z-axis), and there is a rod-like object OBJ extending parallel to the Z-axis direction on the Y-axis, and also in the direction of the optical axis G2 of the right-side camera 2R from the XY plane to the Z-axis. It is assumed that there is a rod-like object OBJ1 extending in parallel to the direction.
図13(B)において、後方カメラ2Bの光軸G1及び右側方カメラ2Rの光軸G2はそれぞれ、図12の位置関係と同様、空間モデルMDの平面領域R1及び処理対象画像平面R3が位置する平面(XY平面)と交差し、また、光軸G1と光軸G2とは、円筒中心軸(再投影軸)上の点J1で交差するものとする。なお、光軸G1と光軸G2とは、XY平面に平行な一平面に投影されたときの成分のそれぞれが円筒中心軸(再投影軸)上の点で交差するものであれば、ねじれの位置の関係にあってもよい。 In FIG. 13B, the optical axis G1 of the rear camera 2B and the optical axis G2 of the right-side camera 2R are respectively located in the plane area R1 of the spatial model MD and the processing target image plane R3, as in the positional relationship of FIG. It is assumed that the plane intersects with the plane (XY plane), and the optical axis G1 and the optical axis G2 intersect at a point J1 on the cylindrical central axis (reprojection axis). Note that the optical axis G1 and the optical axis G2 are twisted as long as each component when projected onto a plane parallel to the XY plane intersects at a point on the cylindrical central axis (reprojection axis). It may be in a positional relationship.
一方、後方カメラ2Bの光学中心から円筒中心軸(再投影軸)に下ろした垂線は、右側方カメラ2Rの光学中心から円筒中心軸(再投影軸)に下ろした垂線と互いに垂直な関係とはならず、後方カメラ2Bの光学中心から円筒中心軸(再投影軸)に下ろした垂線が、右側方カメラ2Rの光学中心からその垂線に下ろした垂線と円筒中心軸(再投影軸)上にない点J2で直交するものとする。なお、本実施例では、後方カメラ2B及び右側方カメラ2Rの光学中心は、平面領域R1及び処理対象画像平面R3が位置する平面と平行な一平面上に存在しているが、それぞれ別の平面上に位置し、互いの垂線がねじれの位置の関係にあるものであってもよい。 On the other hand, the perpendicular drawn from the optical center of the rear camera 2B to the cylinder central axis (reprojection axis) is perpendicular to the perpendicular drawn from the optical center of the right camera 2R to the cylinder central axis (reprojection axis). In other words, the perpendicular drawn from the optical center of the rear camera 2B to the cylinder center axis (reprojection axis) is not on the perpendicular and the cylinder center axis (reprojection axis) drawn from the optical center of the right side camera 2R to the perpendicular. It shall be orthogonal at point J2. In this embodiment, the optical centers of the rear camera 2B and the right-side camera 2R exist on one plane parallel to the plane on which the plane area R1 and the processing target image plane R3 are located. It may be located above and the perpendiculars to each other may be in a torsional position relationship.
図13(A)及び図13(B)で示されたカメラ2と空間モデルMDとの間の位置関係により、画像生成装置100は、図13(C)で示されるように、Y軸上においてZ軸方向に平行に延びる棒状の物体OBJが、平面領域R1に投影された画像に対応する路面画像部分でY軸方向から僅かに離れる方向(右側方カメラ2Rの光学中心と物体OBJ上の点とを通る直線の方向)に延在し、且つ、曲面領域R2に投影された画像に対応する水平画像部分でY軸方向に平行な方向(再投影軸上の点(平行線群PL又は補助線群ALの始点)と物体OBJ上の点とを通る直線の方向)に延在するよう(すなわち、路面画像部分と水平画像部分との間の境界で僅かに折れ曲がって)、処理対象画像を生成することとなる。 Due to the positional relationship between the camera 2 and the space model MD shown in FIGS. 13A and 13B, the image generation apparatus 100 is arranged on the Y axis as shown in FIG. A direction in which the rod-like object OBJ extending parallel to the Z-axis direction is slightly separated from the Y-axis direction in the road surface image portion corresponding to the image projected on the plane region R1 (the point on the optical center of the right camera 2R and the object OBJ) And a direction parallel to the Y-axis direction (a point on the reprojection axis (parallel line group PL or auxiliary) in the horizontal image portion corresponding to the image projected onto the curved surface region R2 The image to be processed is extended so as to extend in the direction of a straight line passing through the point of the line group AL) and a point on the object OBJ (that is, slightly bent at the boundary between the road surface image portion and the horizontal image portion). Will be generated.
一方で、画像生成装置100は、図13(C)で示されるように、右側方カメラ2Rの光軸G2の方向にあるZ軸方向に平行に延びる棒状の物体OBJ1が、平面領域R1に投影された画像に対応する路面画像部分で光軸G2方向に平行な方向(右側方カメラ2Rの光学中心と物体OBJ上の点とを通る直線の方向)に延在し、且つ、曲面領域R2に投影された画像に対応する水平画像部分で同じく光軸G2方向に平行な方向(再投影軸上の点(平行線群PL又は補助線群ALの始点)と物体OBJ上の点とを通る直線の方向)に延在するよう(すなわち、路面画像部分と水平画像部分との間の境界で折れ曲がることなく)、処理対象画像を生成することができる。 On the other hand, as shown in FIG. 13C, the image generating apparatus 100 projects a rod-like object OBJ1 extending in parallel with the Z-axis direction in the direction of the optical axis G2 of the right-side camera 2R onto the plane region R1. A road surface image portion corresponding to the image that extends in a direction parallel to the direction of the optical axis G2 (the direction of a straight line passing through the optical center of the right-side camera 2R and a point on the object OBJ) and in the curved surface region R2 A straight line passing through a direction parallel to the optical axis G2 direction (a point on the reprojection axis (the start point of the parallel line group PL or the auxiliary line group AL) and a point on the object OBJ in the horizontal image portion corresponding to the projected image. The image to be processed can be generated so as to extend in the direction (i.e., without bending at the boundary between the road surface image portion and the horizontal image portion).
図14(A)〜(C)は、図12(A)〜(C)と同様の図であり、円筒状の空間モデルMDの円筒中心軸は、再投影軸及びショベル60の旋回軸PV(Z軸)に一致するものとし、Y軸上には、Z軸方向に平行に延びる棒状の物体OBJが存在するものとし、更に、右側方カメラ2Rの光軸G2の方向にも、XY平面からZ軸方向に平行に延びる棒状の物体OBJ2が存在するものとする。 14A to 14C are views similar to FIGS. 12A to 12C. The cylindrical center axis of the cylindrical space model MD is the reprojection axis and the pivot axis PV ( Z-axis), a rod-like object OBJ extending parallel to the Z-axis direction is present on the Y-axis, and also in the direction of the optical axis G2 of the right-side camera 2R from the XY plane. It is assumed that there is a rod-like object OBJ2 that extends parallel to the Z-axis direction.
図14(B)において、後方カメラ2Bの光軸G1及び右側方カメラ2Rの光軸G2はそれぞれ、図12の位置関係と同様、空間モデルMDの平面領域R1及び処理対象画像平面R3が位置する平面(XY平面)と交差し、後方カメラ2Bの光学中心から円筒中心軸(再投影軸)に下ろした垂線は、右側方カメラ2Rの光学中心から円筒中心軸(再投影軸)に下ろした垂線と互いに垂直な関係であるものとする。なお、本実施例では、後方カメラ2B及び右側方カメラ2Rの光学中心は、平面領域R1及び処理対象画像平面R3が位置する平面と平行な一平面上に存在するが、それぞれ別の平面上に位置し、互いの垂線がねじれの位置の関係にあるものであってもよい。 In FIG. 14B, the optical axis G1 of the rear camera 2B and the optical axis G2 of the right-side camera 2R are respectively located in the plane area R1 of the spatial model MD and the processing target image plane R3, as in the positional relationship of FIG. A perpendicular line intersecting the plane (XY plane) and dropping from the optical center of the rear camera 2B to the cylinder center axis (reprojection axis) is a perpendicular line drawn from the optical center of the right side camera 2R to the cylinder center axis (reprojection axis). And are perpendicular to each other. In this embodiment, the optical centers of the rear camera 2B and the right camera 2R exist on one plane parallel to the plane where the plane region R1 and the processing target image plane R3 are located, but on different planes. They may be positioned and their perpendiculars may be in a twisted position relationship.
一方、光軸G1と光軸G2とは、円筒中心軸(再投影軸)上で交差することなく、円筒中心軸(再投影軸)上にない点J1で交差するものとする。なお、光軸G1と光軸G2とは、XY平面に平行な一平面に投影されたときの成分のそれぞれが円筒中心軸(再投影軸)上にない点で交差するものであれば、ねじれの位置の関係にあってもよい。 On the other hand, the optical axis G1 and the optical axis G2 do not intersect on the cylindrical center axis (reprojection axis), and intersect at a point J1 that is not on the cylindrical center axis (reprojection axis). Note that the optical axis G1 and the optical axis G2 are twisted if the components when projected onto one plane parallel to the XY plane intersect at a point that is not on the cylindrical central axis (reprojection axis). It may be in the relationship of position.
図14(A)及び図14(B)で示されたカメラ2と空間モデルMDとの間の位置関係により、画像生成装置100は、図14(C)で示されるように、右側方カメラ2Rの光軸G2の方向にあるZ軸方向に平行に延びる棒状の物体OBJ2が、平面領域R1に投影された画像に対応する路面画像部分で光軸G2方向に平行な方向(右側方カメラ2Rの光学中心と物体OBJ上の点とを通る直線の方向)に延在し、且つ、曲面領域R2に投影された画像に対応する水平画像部分でY軸方向にほぼ平行な方向(再投影軸上の点(平行線群PL又は補助線群ALの始点)と物体OBJ2上の点とを通る直線の方向)に延在するよう(すなわち、路面画像部分と水平画像部分との間の境界で僅かに折れ曲がって)、処理対象画像を生成することとなる。 Due to the positional relationship between the camera 2 and the space model MD shown in FIGS. 14A and 14B, the image generation apparatus 100 has the right-side camera 2R as shown in FIG. 14C. A bar-like object OBJ2 extending in parallel with the Z-axis direction in the direction of the optical axis G2 is parallel to the optical axis G2 direction in the road surface image portion corresponding to the image projected onto the plane region R1 (of the right side camera 2R). A direction (in the direction of a straight line passing through the optical center and a point on the object OBJ) and a direction parallel to the Y-axis direction (on the reprojection axis) in the horizontal image portion corresponding to the image projected onto the curved surface region R (In the direction of a straight line passing through the point on the parallel line group PL or the auxiliary line group AL) and a point on the object OBJ2) (ie, slightly at the boundary between the road surface image portion and the horizontal image portion) To create a processing target image. .
一方、画像生成装置100は、図14(C)で示されるように、Y軸上においてZ軸方向に平行に延びる棒状の物体OBJが、平面領域R1に投影された画像に対応する路面画像部分でY軸方向に平行な方向(右側方カメラ2Rの光学中心と物体OBJ上の点とを通る直線の方向)に延在し、且つ、曲面領域R2に投影された画像に対応する水平画像部分で同じくY軸方向に平行な方向(再投影軸上の点(平行線群PL又は補助線群ALの始点)と物体OBJ上の点とを通る直線の方向)に延在するよう(すなわち、路面画像部分と水平画像部分との間の境界で折れ曲がることなく)、処理対象画像を生成することができる。 On the other hand, as shown in FIG. 14C, the image generation apparatus 100 is configured such that a road surface image portion corresponding to an image in which a rod-like object OBJ extending in parallel with the Z-axis direction on the Y-axis is projected onto the plane region R1. And a horizontal image portion corresponding to an image extending in a direction parallel to the Y-axis direction (a direction of a straight line passing through the optical center of the right camera 2R and a point on the object OBJ) and projected onto the curved surface region R2. In a direction parallel to the Y-axis direction (the direction of a straight line passing through a point on the reprojection axis (the start point of the parallel line group PL or the auxiliary line group AL) and a point on the object OBJ) (that is, The image to be processed can be generated without bending at the boundary between the road surface image portion and the horizontal image portion.
このように、画像生成装置100は、空間モデルMDの円筒中心軸(再投影軸)とカメラの光軸とを交差させるようにして空間モデルMDを配置することによって、カメラの光軸方向にある物体が路面画像部分と水平画像部分との間の境界で折れ曲がることがないように、処理対象画像を生成することができる。なお、この利点は、カメラが一台のみの場合にもカメラが三台以上の場合にも当てはまる。 Thus, the image generating apparatus 100 is in the optical axis direction of the camera by arranging the spatial model MD so that the cylindrical central axis (reprojection axis) of the spatial model MD intersects the optical axis of the camera. The processing target image can be generated so that the object is not bent at the boundary between the road surface image portion and the horizontal image portion. Note that this advantage applies to both a single camera and three or more cameras.
また、画像生成装置100は、後方カメラ2B及び右側方カメラ2Rの光学中心のそれぞれから空間モデルMDの円筒中心軸(再投影軸)に下ろした垂線のそれぞれが互いに垂直となるようにして空間モデルMDを配置することによって、ショベル60の右真横及び真後ろにある物体が路面画像部分と水平画像部分との間の境界で折れ曲がることがないように、処理対象画像を生成することができる。なお、この利点は、カメラが三台以上の場合にも当てはまる。 In addition, the image generation apparatus 100 is configured so that the perpendiculars drawn from the optical centers of the rear camera 2B and the right camera 2R to the cylindrical center axis (reprojection axis) of the spatial model MD are perpendicular to each other. By arranging the MD, it is possible to generate the processing target image so that the object right next to and right behind the excavator 60 is not bent at the boundary between the road surface image portion and the horizontal image portion. This advantage also applies when there are three or more cameras.
なお、図12〜図14で示されるカメラ2(右側方カメラ2R、後方カメラ2B)と空間モデルMDとの間の位置関係及び作用効果は、画像生成装置100が処理対象画像を生成する場合に対応するものであるが、画像生成装置100が処理対象画像を生成しない場合(処理対象画像平面R3が存在しない場合)にも当てはまるものであり、この場合、図12(C)、図13(C)、及び図14(C)の処理対象画像は、空間モデルMDに投影された画像を用いて生成される出力画像で読み替えられるものとする。 Note that the positional relationship and operational effects between the camera 2 (right camera 2R, rear camera 2B) and the space model MD shown in FIGS. 12 to 14 are obtained when the image generation apparatus 100 generates a processing target image. This also applies to the case where the image generation apparatus 100 does not generate the processing target image (the case where the processing target image plane R3 does not exist). In this case, FIGS. 12C and 13C ) And the processing target image in FIG. 14C are read as output images generated using the images projected on the space model MD.
図15は、ショベル60に搭載された3台のカメラ2(右側方カメラ2R、左側方カメラ2L、及び後方カメラ2B)の入力画像を用いて生成される出力画像を表示部5に表示させたときの表示例であり、画像生成装置100は、入力画像の一部を空間モデルMDの平面領域R1に投影し、且つ、入力画像の別の一部を空間モデルMDの曲面領域R2に投影した上で処理対象画像平面R3に再投影して処理対象画像を生成し、その生成した処理対象画像に基づいて、平面領域R1に投影された画像に対応する、ショベル60の近傍を上空から見下ろす画像と、曲面領域R2に投影された画像に対応する、すなわち、処理対象画像平面R3に再投影された画像に対応する、ショベル60から水平方向に周辺を見た画像とを組み合わせて表示している。 In FIG. 15, an output image generated using input images of three cameras 2 (the right side camera 2 </ b> R, the left side camera 2 </ b> L, and the rear camera 2 </ b> B) mounted on the excavator 60 is displayed on the display unit 5. The image generation apparatus 100 projects a part of the input image onto the plane area R1 of the space model MD and projects another part of the input image onto the curved area R2 of the space model MD. The image which reprojects on the process target image plane R3 above, generates a process target image, and looks down the vicinity of the excavator 60 corresponding to the image projected on the plane region R1 from the sky based on the generated process target image. And the image corresponding to the image projected onto the curved surface area R2, that is, corresponding to the image re-projected onto the processing target image plane R3, in combination with the image viewed in the horizontal direction from the shovel 60. That.
なお、出力画像は、画像生成装置100が処理対象画像を生成しない場合には、空間モデルMDに投影された画像に画像変換処理(例えば、視点変換処理である。)を施すことによって生成されるものとする。 When the image generation apparatus 100 does not generate the processing target image, the output image is generated by performing image conversion processing (for example, viewpoint conversion processing) on the image projected on the space model MD. Shall.
また、出力画像は、ショベル60の周囲の画像を違和感なく表示できるよう、円形にトリミングされ、その円の中心CTRが空間モデルMDの円筒中心軸上で、且つ、ショベル60の旋回軸PV上となるように生成される。この場合、空間モデルMDの円筒中心軸は、再投影軸と一致するものであってもよく、一致しないものであってもよい。 Further, the output image is trimmed in a circle so that an image around the excavator 60 can be displayed without a sense of incongruity, and the center CTR of the circle is on the cylindrical central axis of the space model MD and on the pivot axis PV of the excavator 60. Is generated as follows. In this case, the cylindrical central axis of the space model MD may or may not coincide with the reprojection axis.
なお、空間モデルMDの半径は、例えば、5メートルであり、平行線群PLが処理対象画像平面R3との間で形成する角度、又は、補助線群ALの始点高さは、ショベル60の旋回中心から掘削アタッチメントEの最大到達距離(例えば12メートルである。)だけ離れた位置に物体(例えば、作業員である。)が存在する場合にその物体が表示部5で十分大きく(例えば、7ミリメートル以上である。)表示されるように、設定され得る。 The radius of the space model MD is, for example, 5 meters, and the angle formed between the parallel line group PL and the processing target image plane R3 or the starting point height of the auxiliary line group AL is the turning of the shovel 60. When an object (for example, a worker) exists at a position away from the center by a maximum reachable distance (for example, 12 meters) of the excavation attachment E, the object is sufficiently large (for example, 7) It can be set to be displayed.
更に、出力画像は、ショベル60のCG(Computer Graphic)画像70を、掘削アタッチメントEの向きが表示部5の画面上方と一致し、且つ、その旋回中心が中心CTRと一致するように配置する。ショベル60と出力画像に現れる物体との間の位置関係をより分かり易くするためである。なお、出力画像は、方位等の各種情報を含む額縁画像をその周囲に配置するようにしてもよい。 Furthermore, the output image arranges the CG (Computer Graphic) image 70 of the excavator 60 so that the orientation of the excavation attachment E coincides with the upper portion of the screen of the display unit 5 and the turning center thereof coincides with the center CTR. This is to make the positional relationship between the shovel 60 and the object appearing in the output image easier to understand. Note that a frame image including various kinds of information such as an orientation may be arranged around the output image.
この状態において、画像生成装置100は、図9で示されるように、平面領域R1に投影された画像に対応する出力画像における画像部分に影響を与えることなく、曲面領域R2に投影され更に処理対象画像平面R3に再投影された画像に対応する出力画像における画像部分のみを拡大或いは縮小させたり、図10で示されるように、曲面領域R2に投影され更に処理対象画像平面R3に再投影された画像に対応する出力画像における画像部分を真上から見下ろすべく、その画像部分を表示部5の画面領域における任意の位置(例えば、中央)に移動させたりすることができる。 In this state, as shown in FIG. 9, the image generating apparatus 100 is projected onto the curved surface region R2 without further affecting the image portion in the output image corresponding to the image projected onto the planar region R1, and is further processed. Only the image portion in the output image corresponding to the image re-projected on the image plane R3 is enlarged or reduced, or as shown in FIG. 10, it is projected on the curved surface area R2 and further re-projected on the processing target image plane R3. In order to look down on the image portion of the output image corresponding to the image from directly above, the image portion can be moved to an arbitrary position (for example, the center) in the screen area of the display unit 5.
ここで、図16〜図18を参照しながら、上部旋回体63の旋回時における出力画像の表示部5への表示について詳細に説明する。なお、図16は、旋回時画像制御手段12の構成例を示すブロック図である。 Here, the display of the output image on the display unit 5 when the upper swing body 63 is turned will be described in detail with reference to FIGS. FIG. 16 is a block diagram illustrating a configuration example of the turning image control unit 12.
図16に示すように、旋回時画像制御手段12は、例えば、旋回状態検出手段120、CG画像表示制御手段121、及び出力画像更新制御手段122で構成される。 As shown in FIG. 16, the turning-time image control unit 12 includes, for example, a turning state detection unit 120, a CG image display control unit 121, and an output image update control unit 122.
旋回状態検出手段120は、上部旋回体63の旋回状態を検出する機能要素であり、例えば、旋回操作レバー(図示せず。)の出力に基づいて、操作者による上部旋回体63の旋回操作が行われたか否かを検出する。また、旋回状態検出手段120は、旋回操作レバーの出力に基づいて、上部旋回体63の旋回方向、旋回速度、旋回角度等を検出してもよい。なお、旋回状態検出手段120は、旋回機構62に取り付けられた旋回機構62の旋回状態を検出するレゾルバ(図示せず。)の出力に基づいて、上部旋回体63の旋回方向、旋回速度、旋回角度等を検出してもよい。 The turning state detection means 120 is a functional element that detects the turning state of the upper turning body 63. For example, the turning operation of the upper turning body 63 by the operator is performed based on the output of a turning operation lever (not shown). Detect whether it was done or not. Further, the turning state detection means 120 may detect the turning direction, turning speed, turning angle, and the like of the upper turning body 63 based on the output of the turning operation lever. The turning state detection means 120 is based on the output of a resolver (not shown) that detects the turning state of the turning mechanism 62 attached to the turning mechanism 62, and the turning direction, turning speed, and turning of the upper turning body 63. An angle or the like may be detected.
また、旋回状態検出手段120は、カメラ2が撮像した入力画像、又は、出力画像生成手段11が生成する出力画像における被写体の動きに基づいて、上部旋回体63の旋回方向、旋回速度、旋回角度等を検出してもよい。具体的には、旋回状態検出手段120は、入力画像又は出力画像に対してオプティカルフローを適用し、上部旋回体63の旋回方向、旋回速度、旋回角度等を検出してもよい。 Further, the turning state detection unit 120 is based on the movement of the subject in the input image captured by the camera 2 or the output image generated by the output image generation unit 11, the turning direction, the turning speed, and the turning angle of the upper turning body 63. Etc. may be detected. Specifically, the turning state detection unit 120 may detect the turning direction, turning speed, turning angle, and the like of the upper turning body 63 by applying an optical flow to the input image or the output image.
CG画像表示制御手段121は、ショベル60のCG画像70の表示態様を制御する機能要素であり、例えば、上部旋回体63の旋回時に、上部旋回体63の旋回に合わせてCG画像70を中心CTR周りに旋回させる。 The CG image display control means 121 is a functional element that controls the display mode of the CG image 70 of the excavator 60. For example, when the upper turning body 63 turns, the CG image 70 is centered on the CTR according to the turning of the upper turning body 63. Rotate around.
CG画像70は、例えば、ショベル60のうちの上部旋回体63を簡略化して表現した画像である。 For example, the CG image 70 is a simplified representation of the upper swing body 63 of the excavator 60.
CG画像表示制御手段121は、掘削アタッチメントEの状態に合わせてその掘削アタッチメントEに相当する部分の画像を伸縮させてもよい。具体的には、CG画像表示制御手段121は、ブームを上昇させたりアームを閉じたりしたときにその掘削アタッチメントEに相当する部分の画像を短縮し、ブームを下降させたりアームを開いたりしたときにその掘削アタッチメントEに相当する部分の画像を伸長する。 The CG image display control unit 121 may expand and contract an image of a portion corresponding to the excavation attachment E according to the state of the excavation attachment E. Specifically, the CG image display control unit 121 shortens the image corresponding to the excavation attachment E when the boom is raised or the arm is closed, and the boom is lowered or the arm is opened. The image corresponding to the excavation attachment E is expanded.
また、CG画像表示制御手段121は、旋回状態検出手段120の検出結果に応じて、CG画像70の旋回を制御する。具体的には、CG画像表示制御手段121は、旋回状態検出手段120が検出する上部旋回体63の旋回方向及び旋回速度に合致するようにCG画像70の旋回方向及び旋回速度を制御する。 Further, the CG image display control unit 121 controls the turning of the CG image 70 according to the detection result of the turning state detection unit 120. Specifically, the CG image display control means 121 controls the turning direction and turning speed of the CG image 70 so as to match the turning direction and turning speed of the upper turning body 63 detected by the turning state detection means 120.
出力画像更新制御手段122は、所定のフレームレートで更新されるリアルタイム画像としての出力画像の更新の継続・停止を制御する機能要素である。 The output image update control means 122 is a functional element that controls continuation / stop of the update of the output image as a real-time image updated at a predetermined frame rate.
出力画像更新制御手段122は、例えば、旋回状態検出手段120の検出結果に応じて出力画像の更新の継続・停止を切り換える。具体的には、出力画像更新制御手段122は、旋回状態検出手段120により上部旋回体63の旋回の開始が検出された場合に、出力画像の更新を停止させる。その後、出力画像更新制御手段122は、旋回状態検出手段120により上部旋回体63の旋回の停止が検出された場合に、出力画像の更新を再開させる。 The output image update control unit 122 switches, for example, whether or not to update the output image according to the detection result of the turning state detection unit 120. Specifically, the output image update control means 122 stops the update of the output image when the turning state detection means 120 detects the start of turning of the upper turning body 63. Thereafter, the output image update control unit 122 restarts the update of the output image when the turning state detection unit 120 detects that the turning of the upper-part turning body 63 is stopped.
次に、図17及び図18を参照しながら、旋回時画像制御手段12が上部旋回体63の旋回時に出力画像の表示態様を制御する処理(以下、「第一旋回時画像制御処理」とする。)の流れについて説明する。なお、図17は、第一旋回時画像制御処理の流れを示すフローチャートである。また、図18は、第一旋回時画像制御処理にしたがって上部旋回体63の旋回時に表示部5に表示される出力画像の推移を示す図である。なお、旋回時画像制御手段12は、ショベル60が稼働中、所定周期で繰り返しこの第一旋回時画像制御処理を実行する。 Next, referring to FIGS. 17 and 18, the turning image control means 12 controls the display mode of the output image when the upper turning body 63 turns (hereinafter referred to as “first turning image control process”). .) Will be described. FIG. 17 is a flowchart showing the flow of the first turning image control process. FIG. 18 is a diagram showing a transition of an output image displayed on the display unit 5 when the upper swing body 63 is turned according to the first turning image control process. The turning image control unit 12 repeatedly executes the first turning image control process at a predetermined cycle while the excavator 60 is in operation.
最初に、旋回時画像制御手段12は、旋回状態検出手段120により、上部旋回体63の旋回が開始されたか否かを判定する(ステップS11)。 First, the turning-time image control means 12 determines whether or not the turning of the upper turning body 63 is started by the turning state detection means 120 (step S11).
上部旋回体63の旋回が開始されていないと判定した場合(ステップS11のNO)、旋回時画像制御手段12は、今回の第一旋回時画像制御処理を終了させる。 When it is determined that the turning of the upper turning body 63 has not been started (NO in step S11), the turning-time image control unit 12 ends the current first turning-time image control process.
図18(A)は、上部旋回体63の旋回が開始されていないときに表示部5に表示される出力画像の一例を示し、図15に対応する。また、図18(A)は、CG画像70から見て右斜め上方向に物体71に対応する画像が存在し、CG画像70から見て右斜め下方向に物体72に対応する画像が存在する状態を示す。なお、領域R6は、カメラ2によって撮像されていない領域を示す。ショベル60の前方は操作者が肉眼で視認可能であるためショベル60の前方にはカメラが設置されていないためである。但し、画像生成装置100はこの構成に限定されず、ショベル60の前方にもカメラが設置された構成を採用してもよい。この場合、領域R6は存在せず、画像生成装置100は、ショベル60を中心とした全方位の出力画像を表示部5に表示する。 FIG. 18A shows an example of an output image displayed on the display unit 5 when the turning of the upper turning body 63 has not started, and corresponds to FIG. In FIG. 18A, an image corresponding to the object 71 exists in the upper right direction when viewed from the CG image 70, and an image corresponding to the object 72 exists in the lower right direction as viewed from the CG image 70. Indicates the state. The region R6 indicates a region that has not been picked up by the camera 2. This is because the camera is not installed in front of the shovel 60 because the operator can visually recognize the front of the shovel 60 with the naked eye. However, the image generation apparatus 100 is not limited to this configuration, and a configuration in which a camera is installed in front of the excavator 60 may be adopted. In this case, the region R <b> 6 does not exist, and the image generation device 100 displays an omnidirectional output image centered on the excavator 60 on the display unit 5.
一方、上部旋回体63の旋回が開始されたと判定した場合(ステップS11のYES)、旋回時画像制御手段12は、出力画像更新制御手段122により、出力画像の更新を停止させ(ステップS12)、CG画像表示制御手段121により、出力画像内でCG画像70を中心CTR周りに旋回させる(ステップS13)。出力画像の更新を停止させるのは、出力画像を見易くするためである。具体的には、出力画像の更新を停止させずに上部旋回体63を旋回させると、出力画像は、上部旋回体63の旋回方向とは反対の方向に回転する。例えば、上部旋回体63を右方向に旋回させると、出力画像は、表示部5において左方向(反時計回り)に回転する。このような表示は、CG画像70の出力画像内での旋回状態に対して表示されている出力画像の位置関係がずれるため、操作者に違和感を与えるおそれがある。旋回時画像制御手段12は、操作者にこのような違和感を与えるのを防止するため、出力画像の更新を停止させる。 On the other hand, when it is determined that the turning of the upper-part turning body 63 has been started (YES in step S11), the turning-time image control means 12 causes the output image update control means 122 to stop updating the output image (step S12). The CG image display control means 121 turns the CG image 70 around the center CTR in the output image (step S13). The reason for stopping the update of the output image is to make the output image easier to see. Specifically, when the upper swing body 63 is turned without stopping the update of the output image, the output image rotates in a direction opposite to the turning direction of the upper swing body 63. For example, when the upper swing body 63 is turned rightward, the output image rotates leftward (counterclockwise) on the display unit 5. Such display may cause the operator to feel uncomfortable because the positional relationship of the output image displayed with respect to the turning state in the output image of the CG image 70 is shifted. The turning-time image control means 12 stops the update of the output image in order to prevent such an uncomfortable feeling for the operator.
図18(B)は、上部旋回体63が右方向に90度旋回するときに表示部5に表示される出力画像の状態を示す。また、破線で示すCG画像は、画面上方向を向いていたCG画像70が、90度旋回後の状態に相当する画面右方向を向くCG画像70に推移することを表し、実際には表示されない。但し、CG画像表示制御手段121は、旋回開始前のCG画像を旋回中のCG画像70とは別にそのまま表示させておいてもよい。旋回開始直後からの旋回角度をより分かり易く表示するためである。なお、CG画像70の右方向(時計回り)の回転速度は、旋回状態検出手段120が検出した上部旋回体63の右方向の旋回速度に一致するように調整される。出力画像を見た操作者が上部旋回体63の旋回方向、旋回速度、旋回角度等を正確且つ容易に認識できるようにするためである。 FIG. 18B shows a state of an output image displayed on the display unit 5 when the upper swing body 63 turns 90 degrees rightward. A CG image indicated by a broken line indicates that the CG image 70 facing upward on the screen changes to a CG image 70 facing rightward on the screen corresponding to the state after turning 90 degrees, and is not actually displayed. . However, the CG image display control means 121 may display the CG image before the start of turning as it is, separately from the CG image 70 during turning. This is because the turning angle immediately after the start of turning is displayed more clearly. Note that the rotational speed in the right direction (clockwise) of the CG image 70 is adjusted to coincide with the rightward turning speed of the upper swing body 63 detected by the turning state detection means 120. This is because the operator who sees the output image can accurately and easily recognize the turning direction, turning speed, turning angle, and the like of the upper turning body 63.
また、図18(B)は、出力画像更新制御手段122により出力画像の更新が停止されているため、図18(A)の状態と比べ、物体71及び物体72の位置が変化していないことを示す。 In FIG. 18B, since the output image update control unit 122 stops updating the output image, the positions of the object 71 and the object 72 are not changed as compared with the state of FIG. Indicates.
この場合、旋回時画像制御手段12は、上部旋回体63が旋回中であることを表すテキストメッセージやシンボル画像を出力画像上に表示させるようにしてもよく、出力画像の更新が停止されていることを表すテキストメッセージやシンボル画像を表示させるようにしてもよい。表示部5に表示されている出力画像がリアルタイム画像でないことを操作者に認識させるためである。 In this case, the turning image control means 12 may display a text message or symbol image indicating that the upper turning body 63 is turning on the output image, and the update of the output image is stopped. You may make it display the text message and symbol image showing this. This is to make the operator recognize that the output image displayed on the display unit 5 is not a real-time image.
また、制御部1は、出力画像の更新が停止された場合であっても、カメラ2が撮像した入力画像に基づいて、ショベル60の周辺の物体と旋回中の上部旋回体63との接近を検知するようにしてもよい。更新が停止された出力画像には現れない物体と上部旋回体63との接触を防止するためである。なお、制御部1は、出力画像の更新が停止されたか否かにかかわらず、カメラ2が撮像した入力画像に基づいて、ショベル60の周辺の物体と旋回中の上部旋回体63との接近を検知するようにしてもよい。また、制御部1は、図示しないレーダセンサや赤外線センサ等の出力に基づいてショベル60の周辺の物体と旋回中の上部旋回体63との接近を検知するようにしてもよい。 Moreover, even when the update of the output image is stopped, the control unit 1 makes the approach of the object around the excavator 60 and the upper turning body 63 that is turning based on the input image captured by the camera 2. You may make it detect. This is to prevent contact between the object that does not appear in the output image whose update is stopped and the upper swing body 63. Note that the control unit 1 makes the approach of the object around the excavator 60 and the upper turning body 63 that is turning based on the input image captured by the camera 2 regardless of whether or not the update of the output image is stopped. You may make it detect. Further, the control unit 1 may detect the approach of an object around the excavator 60 and the upper turning body 63 that is turning based on the output of a radar sensor or an infrared sensor (not shown).
制御部1は、ショベル60の周辺の物体と旋回中の上部旋回体63との接近が検知された場合、警報や警告メッセージを音声出力し、警告メッセージを表示部5に表示する。旋回時画像制御手段12は、ショベル60の周辺の物体と旋回中の上部旋回体63との接近が検知された場合、出力画像の更新を再開させ、現在の状況をリアルタイムに表示する。上部旋回体63に接近する物体を操作者が確実に認識できるようにするためである。 When the approach of the object around the excavator 60 and the upper turning body 63 that is turning is detected, the control unit 1 outputs a warning or a warning message and displays the warning message on the display unit 5. When the approach of the object in the vicinity of the excavator 60 and the upper turning body 63 that is turning is detected, the turning image control unit 12 restarts the update of the output image and displays the current state in real time. This is because the operator can reliably recognize an object approaching the upper swing body 63.
その後、旋回時画像制御手段12は、旋回状態検出手段120により、上部旋回体63の旋回が停止されたか否かを判定する(ステップS14)。 Thereafter, the turning-time image control means 12 determines whether or not the turning of the upper turning body 63 is stopped by the turning state detection means 120 (step S14).
上部旋回体63の旋回が停止されていないと判定した場合(ステップS14のNO)、旋回時画像制御手段12は、CG画像表示制御手段121により、出力画像内でのCG画像70の旋回を継続させる。 When it is determined that the turning of the upper-part turning body 63 is not stopped (NO in step S14), the turning-time image control means 12 continues turning of the CG image 70 in the output image by the CG image display control means 121. Let
一方、上部旋回体63の旋回が停止されたと判定した場合(ステップS14のYES)、旋回時画像制御手段12は、CG画像表示制御手段121により、CG画像70を旋回開始前の状態に復帰させ(ステップS15)、出力画像更新制御手段122により、出力画像の更新を再開させる(ステップS16)。 On the other hand, when it is determined that the turning of the upper-part turning body 63 has been stopped (YES in step S14), the turning-time image control means 12 causes the CG image display control means 121 to return the CG image 70 to the state before the turning start. (Step S15), the output image update control means 122 restarts the update of the output image (Step S16).
具体的には、旋回時画像制御手段12は、CG画像表示制御手段121により、CG画像70が画面上方向を向くようにCG画像70の配置を瞬時に切り換える。また、旋回時画像制御手段12は、この切り換えとほぼ同時に出力画像の更新を再開させ、カメラ2が撮像した画像が再びリアルタイムで表示部5に表示されるようにする。 Specifically, the turning-time image control means 12 causes the CG image display control means 121 to instantaneously switch the arrangement of the CG images 70 so that the CG images 70 are directed upward on the screen. Further, the turning-time image control means 12 restarts the update of the output image almost simultaneously with this switching so that the image captured by the camera 2 is again displayed on the display unit 5 in real time.
図18(C)は、上部旋回体63が右方向に90度旋回して停止したときに表示部5に表示される出力画像の状態を示す。また、図18(C)は、図18(A)及び図18(B)においてCG画像70から見て右斜め上方向にあった物体71に対応する画像、及び、右斜め下方向にあった物体72に対応する画像のそれぞれが、CG画像から見て左斜め上方向、右斜め上方向に移動した状態を示す。上部旋回体63の旋回により物体71及び物体72と上部旋回体63との間の位置関係が変化したためである。なお、破線で示すCG画像は旋回停止直前の上部旋回体63の配置を表し、破線で示す2つの矩形は出力画像の更新が再開される直前の物体71及び物体72のそれぞれに対応する画像の配置を表すが、何れも実際には表示されない。 FIG. 18C shows a state of an output image displayed on the display unit 5 when the upper swing body 63 turns 90 degrees rightward and stops. Further, FIG. 18C is an image corresponding to the object 71 that is in the upper right direction when viewed from the CG image 70 in FIGS. 18A and 18B, and the lower right direction. Each of the images corresponding to the object 72 is in a state of moving in the diagonally upward left direction and diagonally upward right as viewed from the CG image. This is because the positional relationship between the object 71 and the object 72 and the upper swing body 63 is changed by the swing of the upper swing body 63. Note that the CG image indicated by the broken line represents the arrangement of the upper swing body 63 immediately before the turning stop, and the two rectangles indicated by the broken line are images corresponding to the object 71 and the object 72 immediately before the update of the output image is resumed. Represents an arrangement, but none are actually displayed.
次に、図19を参照しながら、旋回時画像制御手段12が上部旋回体63の旋回時に出力画像の表示態様を制御する処理の別の一例(以下、「第二旋回時画像制御処理」とする。)について説明する。なお、図19は、第二旋回時画像制御処理にしたがって上部旋回体63の旋回時に表示部5に表示される出力画像の推移を示す図であり、図18に対応する。また、旋回時画像制御手段12は、ショベル60が稼働中、所定周期で繰り返しこの第二旋回時画像制御処理を実行する。 Next, referring to FIG. 19, another example of processing in which the turning-time image control means 12 controls the display mode of the output image when the upper turning body 63 turns (hereinafter referred to as “second turning-time image control processing”). ). FIG. 19 is a diagram illustrating a transition of an output image displayed on the display unit 5 when the upper swing body 63 is turned according to the second turning image control process, and corresponds to FIG. Further, the turning image control means 12 repeatedly executes the second turning image control process at predetermined intervals while the excavator 60 is in operation.
図19に示す第二旋回時画像制御処理は、下部走行体61の前進方向を画面上方向に一致させる点で、第一旋回時画像制御処理と相違する。具体的には、下部走行体61の向きと上部旋回体63の旋回位置(旋回方向、旋回角度)に基づいて、画像処理により、下部走行体61の前進方向を画面上方向に一致させるように出力画像を変換した上で表示部5に表示している。図18に示す第一旋回時画像制御処理は、掘削アタッチメントEの延在方向、すなわち、操作者の向きを画面上方向に一致させるためである。しかしながら、第二旋回時画像制御処理は、その他の点に関しては、第一旋回時画像制御処理と同様であるため、以下では相違点のみを詳細に説明する。 The second turning image control process shown in FIG. 19 is different from the first turning image control process in that the forward traveling direction of the lower traveling body 61 is matched with the screen upper direction. Specifically, based on the orientation of the lower traveling body 61 and the turning position (turning direction, turning angle) of the upper swing body 63, the forward direction of the lower travel body 61 is made to coincide with the upper direction of the screen by image processing. The output image is converted and displayed on the display unit 5. The image control process at the time of the first turning shown in FIG. 18 is for making the extending direction of the excavation attachment E, that is, the direction of the operator coincide with the upward direction on the screen. However, since the second turning image control process is the same as the first turning image control process in other respects, only the differences will be described in detail below.
図19(A)は、上部旋回体63の旋回が開始されていないときに表示部5に表示される出力画像の状態を示す。また、図19(A)は、CG画像70から見て左斜め上方向に物体73に対応する画像が存在し、CG画像70から見て右斜め下方向に物体74に対応する画像が存在する状態を示す。なお、領域R6は、カメラ2によって撮像されていない領域を示す。但し、画像生成装置100は、ショベル60の前方にもカメラが設置された構成を採用してもよい。その場合、領域R6は存在しない。 FIG. 19A shows a state of an output image displayed on the display unit 5 when the upper swing body 63 has not started to turn. In FIG. 19A, an image corresponding to the object 73 exists in the upper left direction as viewed from the CG image 70, and an image corresponding to the object 74 exists in the lower right direction as viewed from the CG image 70. Indicates the state. The region R6 indicates a region that has not been picked up by the camera 2. However, the image generating apparatus 100 may adopt a configuration in which a camera is installed in front of the excavator 60. In that case, the region R6 does not exist.
図19(B)は、上部旋回体63が右方向に90度旋回するときに、表示部5に表示される出力画像の状態を示す。また、破線で示すCG画像は、左斜め下方向を向いていたCG画像70が、90度旋回後の状態に相当する左斜め上方向を向くCG画像70に推移することを表し、実際には表示されない。但し、CG画像表示制御手段121は、旋回開始前のCG画像を旋回中のCG画像70とは別にそのまま表示させておいてもよい。旋回開始直後からの旋回角度をより分かり易く表示するためである。なお、CG画像の右方向(時計回り)の回転速度は、旋回状態検出手段120が検出した上部旋回体63の右方向の旋回速度に一致するように調整される。出力画像を見た操作者が上部旋回体63の旋回方向、旋回速度、旋回角度等を正確且つ容易に認識できるようにするためである。 FIG. 19B shows a state of an output image displayed on the display unit 5 when the upper swing body 63 turns 90 degrees rightward. In addition, the CG image indicated by a broken line indicates that the CG image 70 facing the lower left direction changes to the CG image 70 facing the upper left direction corresponding to the state after turning 90 degrees. Do not show. However, the CG image display control means 121 may display the CG image before the start of turning as it is, separately from the CG image 70 during turning. This is because the turning angle immediately after the start of turning is displayed more clearly. The rotational speed in the right direction (clockwise) of the CG image is adjusted so as to coincide with the rightward turning speed of the upper turning body 63 detected by the turning state detecting means 120. This is because the operator who sees the output image can accurately and easily recognize the turning direction, turning speed, turning angle, and the like of the upper turning body 63.
また、図19(B)は、出力画像更新制御手段122により出力画像の更新が停止されているため、図19(A)の状態と比べ、物体73及び物体74の位置が変化していないことを示す。 In FIG. 19B, since the output image update control unit 122 stops updating the output image, the positions of the object 73 and the object 74 are not changed compared to the state of FIG. Indicates.
図19(C)は、上部旋回体63が右方向に90度旋回して停止したときに表示部5に表示される出力画像の状態を示す。なお、破線で示す矩形は出力画像の更新が再開される直前の物体73に対応する画像の配置を表すが、実際には表示されない。 FIG. 19C shows a state of an output image displayed on the display unit 5 when the upper turning body 63 turns 90 degrees to the right and stops. A rectangle indicated by a broken line represents an arrangement of an image corresponding to the object 73 immediately before the update of the output image is resumed, but is not actually displayed.
また、図19(C)は、CG画像70から見て左斜め下方向にあった領域R6が左斜め上方向に移動した状態を示す。これは、第二旋回時画像制御処理では、下部走行体61の前進方向が画面上方向に一致するよう、出力画像が制御されるためである。したがって、旋回状態検出手段120により上部旋回体63の旋回の停止が検出された場合であっても、CG画像表示制御手段121は、CG画像70を旋回開始前の状態に復帰させない。その結果、旋回状態検出手段120により上部旋回体63の旋回の停止が検出され、出力画像更新制御手段122により出力画像の更新が再開されると、左斜め下方向にあった領域R6は、上部旋回体63の旋回後の向きに合わせて、左斜め上方向に移動する。 FIG. 19C shows a state in which the region R6 that is in the diagonally downward left direction when viewed from the CG image 70 is moved in the diagonally upward left direction. This is because in the second turning image control process, the output image is controlled so that the forward traveling direction of the lower traveling body 61 coincides with the screen upward direction. Therefore, even when the turning state detection unit 120 detects that the upper turning body 63 has stopped turning, the CG image display control unit 121 does not return the CG image 70 to the state before the turning start. As a result, when the turning state detection unit 120 detects the stop of the turning of the upper swing body 63 and the output image update control unit 122 resumes the update of the output image, the region R6 that is in the diagonally lower left direction It moves in the diagonally upward left direction in accordance with the direction of the turning body 63 after turning.
以上の構成により、画像生成装置100は、旋回時画像制御手段12により上部旋回体63の旋回に合わせて出力画像上のCG画像70を旋回させるので、旋回状態を操作者に容易に認識させることができ、操作者にとって見易い出力画像を生成することができる。 With the above configuration, the image generation apparatus 100 rotates the CG image 70 on the output image in accordance with the turning of the upper turning body 63 by the turning-time image control unit 12, so that the operator can easily recognize the turning state. And an output image that is easy for the operator to view can be generated.
また、画像生成装置100は、旋回時画像制御手段12により上部旋回体63の旋回中に出力画像の更新を停止させるので、旋回中に出力画像が旋回方向とは反対の方向に回転することによって操作者に違和感を抱かせてしまうのを防止することができる。 Further, since the image generation apparatus 100 stops the update of the output image during the turning of the upper turning body 63 by the turning image control means 12, the output image rotates in the direction opposite to the turning direction during the turning. It is possible to prevent the operator from feeling uncomfortable.
なお、旋回時画像制御手段12は、画像処理により、旋回方向とは反対の方向への出力画像の回転を見かけ上相殺した上で、出力画像の更新を継続させてもよい。この場合、旋回時画像制御手段12は、旋回中に出力画像が旋回方向とは反対の方向に回転するのを防止しながらも、リアルタイム画像を表示部5に表示させることができる。 The turning-time image control means 12 may continue to update the output image after apparently canceling the rotation of the output image in the direction opposite to the turning direction by image processing. In this case, the turning image control means 12 can display the real-time image on the display unit 5 while preventing the output image from rotating in the direction opposite to the turning direction during turning.
また、画像生成装置100は、旋回時画像制御手段12により、上部旋回体63の旋回方向、旋回速度、及び旋回角度に合わせて出力画像上のCG画像70を旋回させるので、旋回状態を操作者に正確に認識させることができる。 Further, the image generating apparatus 100 causes the turning image control means 12 to turn the CG image 70 on the output image in accordance with the turning direction, turning speed, and turning angle of the upper turning body 63, so that the turning state is changed to the operator. Can be recognized accurately.
また、画像生成装置100は、旋回状態検出手段120が旋回の停止を検出した場合に、CG画像表示制御手段121により、旋回させたCG画像70を旋回前の状態に復帰させた上で、出力画像更新制御手段122により、停止させた出力画像の更新を再開させる。その結果、画像生成装置100は、上部旋回体63の旋回が停止した後、操作者を混乱させることなく速やかにリアルタイム画像の表示を再開させることができる。 In addition, when the turning state detection unit 120 detects that the turning is stopped, the image generation apparatus 100 returns the turned CG image 70 to the state before the turning by the CG image display control unit 121, and outputs it. The update of the output image that has been stopped is restarted by the image update control means 122. As a result, after the turning of the upper turning body 63 is stopped, the image generating apparatus 100 can quickly restart the display of the real-time image without confusing the operator.
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.
例えば、上述の実施例において、画像生成装置100は、空間モデルとして円筒状の空間モデルMDを採用するが、多角柱等の他の柱状の形状を有する空間モデルを採用してもよく、底面及び側面の二面から構成される空間モデルを採用してもよく、或いは、側面のみを有する空間モデルを採用してもよい。 For example, in the above-described embodiment, the image generation apparatus 100 employs the cylindrical spatial model MD as the spatial model, but may employ a spatial model having other columnar shapes such as a polygonal column, A spatial model composed of two side surfaces may be adopted, or a spatial model having only side surfaces may be adopted.
また、画像生成装置100は、バケット、アーム、ブーム、旋回機構等の可動部材を備えながら自走する建設機械にカメラと共に搭載され、周囲画像をその運転者に提示しながらその建設機械の移動及びそれら可動部材の操作を支援する操作支援システムに組み込まれているが、産業用機械若しくは固定式クレーン等のように旋回動作可能な可動部材を有するが自走はしない他の被操作体にカメラと共に搭載され、それら他の被操作体の操作を支援する操作支援システムに組み入れられてもよい。 The image generating apparatus 100 is mounted with a camera on a self-propelled construction machine having movable members such as a bucket, an arm, a boom, and a turning mechanism. The image generating apparatus 100 moves and moves the construction machine while presenting a surrounding image to the driver. It is built in an operation support system that supports the operation of these movable members, but it has a movable member that can be swiveled, such as an industrial machine or a fixed crane, but does not self-propelled along with the camera. It may be incorporated in an operation support system that is mounted and supports the operation of these other objects.
1・・・制御部 2・・・カメラ 2R・・右側方カメラ 2L・・・左側方カメラ 2B・・後方カメラ 3・・・入力部 4・・・記憶部 5・・・表示部 10・・・座標対応付け手段 11・・・出力画像生成手段 12・・・旋回時画像制御手段 40・・・入力画像・空間モデル対応マップ 41・・・空間モデル・処理対象画像対応マップ 42・・・処理対象画像・出力画像対応マップ 60・・・ショベル 61・・・下部走行体 62・・・旋回機構 63・・・上部旋回体 64・・・キャブ 70・・・CG画像 71〜74・・・物体 120・・・旋回状態検出手段 121・・・CG画像表示制御手段 122・・・出力画像更新制御手段 DESCRIPTION OF SYMBOLS 1 ... Control part 2 ... Camera 2R ... Right side camera 2L ... Left side camera 2B ... Rear camera 3 ... Input part 4 ... Memory | storage part 5 ... Display part 10 ... -Coordinate association means 11 ... Output image generation means 12 ... Turning image control means 40 ... Input image / spatial model correspondence map 41 ... Spatial model / processing target image correspondence map 42 ... Processing Target image / output image correspondence map 60 ... excavator 61 ... lower traveling body 62 ... turning mechanism 63 ... upper turning body 64 ... cab 70 ... CG image 71-74 ... object DESCRIPTION OF SYMBOLS 120 ... Turning state detection means 121 ... CG image display control means 122 ... Output image update control means
Claims (6)
前記被操作体の旋回状態を検出する旋回状態検出手段と、
前記被操作体のCG画像を前記出力画像上に重畳表示するCG画像表示制御手段と、
前記出力画像の更新状態を制御する出力画像更新制御手段と、を備え、
前記旋回状態検出手段が旋回の開始を検出した場合に、前記CG画像表示制御手段は前記CG画像を前記出力画像上で旋回させる、
ことを特徴とする画像生成装置。 An image generating device that generates an output image based on an input image captured by an imaging means attached to an object to be rotated.
A turning state detecting means for detecting a turning state of the operated body;
CG image display control means for superimposing and displaying the CG image of the object to be operated on the output image;
Output image update control means for controlling the update state of the output image,
When the turning state detecting means detects the start of turning, the CG image display control means turns the CG image on the output image.
An image generation apparatus characterized by that.
ことを特徴とする請求項1に記載の画像生成装置。 When the turning state detecting means detects the start of turning, the output image update control means stops updating the output image;
The image generating apparatus according to claim 1.
ことを特徴とする請求項1又は2に記載の画像生成装置。 The CG image display control means turns the CG image on the output image according to a turning direction, a turning speed, and a turning angle detected by the turning state detecting means.
The image generation apparatus according to claim 1, wherein the image generation apparatus is an image generation apparatus.
ことを特徴とする請求項1乃至3の何れか一項に記載の画像生成装置。 When the turning state detection means detects the stop of turning, the CG image display control means returns the turned CG image to the state before turning, and the output image update control means stops the output image. Resume updates for
The image generation apparatus according to claim 1, wherein the image generation apparatus is an image generation apparatus.
請求項1乃至4の何れか一項に記載の画像生成装置と、
前記被操作体を移動させ或いは操作するための操作室に設置され、該画像生成装置が生成する画像を表示する表示部と、
を備えることを特徴とする操作支援システム。 An operation support system that supports movement or operation of an object to be operated,
An image generation device according to any one of claims 1 to 4,
A display unit installed in an operation room for moving or operating the object to be operated, and displaying an image generated by the image generation device;
An operation support system comprising:
前記被操作体の旋回状態を検出する旋回状態検出ステップと、
前記被操作体のCG画像を前記出力画像上に重畳表示するCG画像表示制御ステップと、
前記出力画像の更新状態を制御する出力画像更新制御ステップと、を備え、
前記旋回状態検出ステップにおいて旋回の開始が検出された場合に、前記CG画像表示制御ステップにおいて前記CG画像を前記出力画像上で旋回させる、
ことを特徴とする画像生成方法。 An image generation method for generating an output image based on an input image captured by an imaging means attached to an operation target capable of turning,
A turning state detecting step for detecting a turning state of the object to be operated;
A CG image display control step of superimposing and displaying the CG image of the object to be operated on the output image;
An output image update control step for controlling an update state of the output image, and
When the start of turning is detected in the turning state detection step, the CG image is turned on the output image in the CG image display control step.
An image generation method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011213489A JP5638494B2 (en) | 2011-09-28 | 2011-09-28 | Image generation method, image generation apparatus, and operation support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011213489A JP5638494B2 (en) | 2011-09-28 | 2011-09-28 | Image generation method, image generation apparatus, and operation support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013073514A true JP2013073514A (en) | 2013-04-22 |
JP5638494B2 JP5638494B2 (en) | 2014-12-10 |
Family
ID=48477943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011213489A Active JP5638494B2 (en) | 2011-09-28 | 2011-09-28 | Image generation method, image generation apparatus, and operation support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5638494B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014224410A (en) * | 2013-05-16 | 2014-12-04 | 住友建機株式会社 | Periphery monitoring device for work machine |
JP2014224412A (en) * | 2013-05-16 | 2014-12-04 | 住友建機株式会社 | Periphery monitoring device for work machine |
JP2014224411A (en) * | 2013-05-16 | 2014-12-04 | 住友建機株式会社 | Periphery monitoring device for work machine |
CN109703461A (en) * | 2017-10-26 | 2019-05-03 | 夏普株式会社 | vehicle driving support device |
CN113443561A (en) * | 2020-03-27 | 2021-09-28 | 住友重机械建机起重机株式会社 | Crane and monitoring device for crane |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06162393A (en) * | 1992-11-20 | 1994-06-10 | Alpine Electron Inc | Method for drawing map in on-vehicle navigator |
GB2426106A (en) * | 2005-05-11 | 2006-11-15 | Harborough Rail Systems Ltd | Instability alarm for a vehicle with a load bearing arm |
JP2008095307A (en) * | 2006-10-06 | 2008-04-24 | Hitachi Constr Mach Co Ltd | Circumference monitor of work machine |
JP2008144378A (en) * | 2006-12-06 | 2008-06-26 | Shin Caterpillar Mitsubishi Ltd | Controller for remote controlled working machine |
JP2008163719A (en) * | 2007-01-05 | 2008-07-17 | Hitachi Constr Mach Co Ltd | Circumference monitor of working machine |
US20090293012A1 (en) * | 2005-06-09 | 2009-11-26 | Nav3D Corporation | Handheld synthetic vision device |
JP2011071919A (en) * | 2009-09-28 | 2011-04-07 | Sumitomo Heavy Ind Ltd | Surrounding image presenting apparatus and operation supporting system |
WO2011148946A1 (en) * | 2010-05-24 | 2011-12-01 | 日立建機株式会社 | Work machine safety device |
-
2011
- 2011-09-28 JP JP2011213489A patent/JP5638494B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06162393A (en) * | 1992-11-20 | 1994-06-10 | Alpine Electron Inc | Method for drawing map in on-vehicle navigator |
GB2426106A (en) * | 2005-05-11 | 2006-11-15 | Harborough Rail Systems Ltd | Instability alarm for a vehicle with a load bearing arm |
US20090293012A1 (en) * | 2005-06-09 | 2009-11-26 | Nav3D Corporation | Handheld synthetic vision device |
JP2008095307A (en) * | 2006-10-06 | 2008-04-24 | Hitachi Constr Mach Co Ltd | Circumference monitor of work machine |
JP2008144378A (en) * | 2006-12-06 | 2008-06-26 | Shin Caterpillar Mitsubishi Ltd | Controller for remote controlled working machine |
JP2008163719A (en) * | 2007-01-05 | 2008-07-17 | Hitachi Constr Mach Co Ltd | Circumference monitor of working machine |
JP2011071919A (en) * | 2009-09-28 | 2011-04-07 | Sumitomo Heavy Ind Ltd | Surrounding image presenting apparatus and operation supporting system |
WO2011148946A1 (en) * | 2010-05-24 | 2011-12-01 | 日立建機株式会社 | Work machine safety device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014224410A (en) * | 2013-05-16 | 2014-12-04 | 住友建機株式会社 | Periphery monitoring device for work machine |
JP2014224412A (en) * | 2013-05-16 | 2014-12-04 | 住友建機株式会社 | Periphery monitoring device for work machine |
JP2014224411A (en) * | 2013-05-16 | 2014-12-04 | 住友建機株式会社 | Periphery monitoring device for work machine |
CN109703461A (en) * | 2017-10-26 | 2019-05-03 | 夏普株式会社 | vehicle driving support device |
CN113443561A (en) * | 2020-03-27 | 2021-09-28 | 住友重机械建机起重机株式会社 | Crane and monitoring device for crane |
CN113443561B (en) * | 2020-03-27 | 2024-06-07 | 住友重机械建机起重机株式会社 | Crane and monitoring device for crane |
Also Published As
Publication number | Publication date |
---|---|
JP5638494B2 (en) | 2014-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5550970B2 (en) | Image generating apparatus and operation support system | |
JP5135380B2 (en) | Processing target image generation apparatus, processing target image generation method, and operation support system | |
JP5090496B2 (en) | Image generating apparatus and operation support system | |
JP5362639B2 (en) | Image generating apparatus and operation support system | |
JP5497617B2 (en) | Image generating apparatus and operation support system | |
JP6029306B2 (en) | Perimeter monitoring equipment for work machines | |
JP2014183500A (en) | Periphery monitoring apparatus for working machine | |
JP6740259B2 (en) | Work machine | |
JP5638494B2 (en) | Image generation method, image generation apparatus, and operation support system | |
JP5752631B2 (en) | Image generation method, image generation apparatus, and operation support system | |
JP6169381B2 (en) | Excavator | |
JP6873889B2 (en) | Excavator and excavator surrounding image generator | |
JP6302622B2 (en) | Perimeter monitoring equipment for work machines | |
JP6295026B2 (en) | Excavator | |
JP5808679B2 (en) | Image generating apparatus and operation support system | |
JP6246185B2 (en) | Excavator | |
JP2014236232A (en) | Image generation device and operation supporting system | |
JP2013145470A (en) | Image generation device and operation support system | |
JP2014123955A (en) | Shovel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140617 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141021 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141022 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5638494 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |