JP2019080174A - 画像処理装置、撮像システム、通信システム、画像処理方法、およびプログラム - Google Patents
画像処理装置、撮像システム、通信システム、画像処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2019080174A JP2019080174A JP2017205739A JP2017205739A JP2019080174A JP 2019080174 A JP2019080174 A JP 2019080174A JP 2017205739 A JP2017205739 A JP 2017205739A JP 2017205739 A JP2017205739 A JP 2017205739A JP 2019080174 A JP2019080174 A JP 2019080174A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- angle
- view
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 170
- 238000012545 processing Methods 0.000 title claims abstract description 112
- 238000004891 communication Methods 0.000 title claims description 34
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000006243 chemical reaction Methods 0.000 claims abstract description 73
- 238000000034 method Methods 0.000 claims abstract description 32
- 230000008569 process Effects 0.000 claims abstract description 24
- 230000004044 response Effects 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 24
- 230000005540 biological transmission Effects 0.000 description 23
- 238000003860 storage Methods 0.000 description 23
- 238000010276 construction Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 230000009466 transformation Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000010365 information processing Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000003705 background correction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Cameras In General (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】 複数の画像を合成して全周囲の画像を形成するときに、複数の画像の重複部分を平均化すると、画像の情報が失われる。【解決手段】 画像処理ボード23は、所定の画角で撮像領域を撮像する複数のカメラ21A,21Bを有し、一のカメラ21Aの撮像領域が他のカメラ21Bの撮像領域と重複する撮像システム20において撮像された全周囲の画像を処理する。画像処理ボード23の変換部2302は、複数のカメラ21A,21Bによって撮像された複数の画像のうち、少なくとも一の画像に対し、画角を基の画角よりも小さな所定の画角とした画像に変換して、変換された少なくとも一の画像を含む複数の画像を合成して全天球画像を生成する。【選択図】図12
Description
本発明は、画像処理装置、撮像システム、通信システム、画像処理方法、およびプログラムに関する。
例えば、建機の事故が発生した場合、事故現場周辺の把握、事故原因の究明または対策のため、ドライブレコーダーの撮影画像が用いられる。大型建機の場合は、機体の様々な箇所にセンサを設置して、機体周囲の視覚情報を得ることができる。しかし、小型建機の場合は、センサを取り付ける箇所も限られている。このため、広範囲の画像を取得可能な小型の撮像装置が求められる。
特許文献1には、反対側に向いている第1と第2のレンズを有し、各レンズは180゜以上の視野を有するカメラ本体であってカメラの作動に応答して該第1と第2のレンズは重なった画像部分を取り込めるようにされているカメラ本体と、該第1と第2のレンズにより取り込まれた該画像部分は球状画像を形成できるものであり、この画像部分を記憶するメモリと、該メモリに接続され、画像部分を整合させ、かつ該第1と第2の両レンズの一緒に重なった画像部分を平均することにより継ぎ目なしの球状画像を作る画像部分継ぎ合わせ器とを備えた球状画像を取り込むための装置が開示されている。
しかし、個人が使用する通常の画像においては、継ぎ目のない視認性が要請されるのに対し、例えば、周囲の監視などの目的においては、情報の欠落がないことが要請される。上記の文献に記載の画像処理方法によると、複数の画像を合成して全周囲の画像を形成するときに、複数の画像の重複部分の平均化の処理により、画像の情報が失われるという課題がある。
請求項1に係る発明の画像処理装置は、所定の画角で撮像領域を撮像する複数の撮像手段を有し、前記複数の撮像手段の一の撮像手段の撮像領域が他の撮像手段の撮像領域と重複する撮像システムにおいて、撮像された全周囲の画像を処理する画像処理装置であって、前記複数の撮像手段によって撮像された複数の画像のうち、少なくとも一の画像に対し、画角を基の画角よりも小さな所定の画角とした画像に変換する変換手段と、前記変換手段によって変換された少なくとも一の画像を含む前記複数の画像を合成する合成手段と、を有する。
本発明によると、複数の画像を合成して全周囲の画像を形成するときに、複数の画像の重複部分の情報が失われることを防ぐことが可能になるという効果を奏する。
以下、図面を用いて、本発明の実施形態について説明する。
<<<全体構成>>>
図1は、本発明の一実施形態に係る通信システムの全体構成図である。以下、通信端末を単に端末と表す。図1に示されているように、通信システム1は、端末10A,10B、撮像システム20、および管理システム50によって構築されている。端末10A,10Bのうち任意のものを端末10と表す。
図1は、本発明の一実施形態に係る通信システムの全体構成図である。以下、通信端末を単に端末と表す。図1に示されているように、通信システム1は、端末10A,10B、撮像システム20、および管理システム50によって構築されている。端末10A,10Bのうち任意のものを端末10と表す。
端末10は、通信機能を有する情報処理装置であり、例えば、タブレット、スマートフォン、シングルボードコンピュータなどのスマートデバイス、あるいはPC(Personal Computer)などの情報処理装置である。以下、端末10Aは、スマートデバイスであり、端末10BはPCである場合について説明する。
撮像システム20は、移動体20Mに搭載されており、撮影機能、画像処理機能、および通信機能を有する情報処理システムである。移動体20Mとしては、特に限定されないが、フォークリフト、トラック、乗用車、または二輪車などの自動車、もしくはドローン、ヘリコプター、小型飛行機などの飛翔体が例示される。
管理システム50は、通信機能および画像処理機能を有する情報処理装置である。管理システム50は、端末10からの要求に基づいて端末10へ画像を送信するWebサーバとして機能する。
端末10Aおよび撮像システム20は、Wi−Fi(Wireless Fidelity)またはbluetooth(登録商標)などの無線通信、もしくはUSB(Universal Serial Bus)ケーブルなどを介した有線通信によって接続されている。端末10Aは、Wi−Fi、無線LANなどを介して、あるいは基地局を介してインターネット2Iと接続する。これにより、端末10Aは、インターネット2I上の管理システム50との間で通信を確立する。また、端末10Bは、LANを介してインターネット2Iと接続する。これにより、端末10Bは、管理システム50との間で通信を確立する。以下、インターネット2I、LAN、ならびに有線および無線の各種通信路を通信ネットワーク2と表す。
<<撮像システム>>
図2は、一実施形態に係る撮像システムの全体構成図である。撮像システム20は、カメラ21A,21Bと、固定装置22と、画像処理ボード23と、を有する。カメラ21A,21Bのうち任意のものをカメラ21と表す。カメラ21と画像処理ボード23とはケーブルにより電気的に接続されている。なお、カメラ21と画像処理ボード23とは無線通信により接続されていてもよい。
図2は、一実施形態に係る撮像システムの全体構成図である。撮像システム20は、カメラ21A,21Bと、固定装置22と、画像処理ボード23と、を有する。カメラ21A,21Bのうち任意のものをカメラ21と表す。カメラ21と画像処理ボード23とはケーブルにより電気的に接続されている。なお、カメラ21と画像処理ボード23とは無線通信により接続されていてもよい。
カメラ21A,21Bは、筐体219A,219Bに、それぞれ撮像体211A,211B、コントローラ215、およびバッテリなどの部品を収容してなる。以下、撮像体211A,211Bのうち任意のものを撮像体211と表す。なお、図2では、カメラ21Aにコントローラ215が収容された一例の構成を示している。この場合、カメラ21A,21Bで撮像された画像は、ケーブル等を介して、カメラ21Aのコントローラ215に入力され、処理される。ただし、カメラ21A,21Bにそれぞれコントローラが設けられており、それぞれのコントローラにおいてそれぞれのカメラで撮像した画像を処理してもよい。
撮像体211A,211Bは、それぞれ結像光学系212A,212Bと、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子213A,213Bを備える。以下、撮像素子213A,213Bのうち任意のものを撮像素子213と表す。結像光学系212A,212Bは、それぞれ例えば6群7枚の魚眼レンズとして構成されている。上記魚眼レンズは、例えば、180°(=360°/n;光学系数n=2)より大きい全画角を有し、好適には、185°以上の画角を有し、より好適には、190°以上の画角を有する。このような広角な結像光学系212A,212Bと撮像素子213A,213Bとを1個ずつ組み合わせたものを広角撮像光学系と表す。
カメラ21A,21Bは、それぞれ、固定装置22の固定板221に、固定ネジ222よって固定されている。固定板221は、強固で外的要因により変形しにくいものが望ましい。固定板221は、固定ネジ222により、取付部223に固定される。取付部223は、取付位置に合わせて変更可能な任意の形状を有しており、移動体20Mにおける所定の位置に取り付けられる。
2つの結像光学系212A,212Bの光学素子(レンズ、プリズム、フィルタおよび開口絞り)は、撮像素子213A,213Bに対して位置が定められる。また、結像光学系212A,212Bの光学素子の光学中心軸OPは、対応する撮像素子213A,213Bの受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように固定装置22によって位置決めが行われる。
結像光学系212A,212Bは、同一仕様のものであり、それぞれの光学中心軸OPが合致するように、互いに逆向きに組み合わせて固定されている。撮像素子213A,213Bは、受光した光分布を画像信号に変換し、コントローラ上の画像処理手段に順次、画像フレーム(フレームデータ)を出力する。撮像素子213A,213Bでそれぞれ撮像された画像は、画像処理ボード23へ転送されて、合成処理がされて、これにより、立体角4πステラジアンの画像(以下「全天球画像」と参照する。)が生成される。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。そして、全天球画像の連続するフレームにより、全天球動画が構成される。以下、全天球画像および全天球動画を生成する処理について説明する。ただし、この処理は、水平面のみ360度を撮影した、いわゆるパノラマ画像およびパノラマ動画を生成する処理に置き換え可能である。
図3は、撮像システムによる撮影範囲の一例を示す図である。図3においてカメラ21A,21Bは、距離Lだけ離されて背中合わせに配置されている。カメラ21Aにより撮影される範囲CAと、カメラ21Bにより撮影される範囲CBと、は範囲CABにおいて重複する。カメラ21A,21Bの光学中心軸OPは、一致している。これにより、カメラ21Aにより撮影された画像とカメラ21Bにより撮影された画像において、重複する範囲CABで位置ずれが生じない。上記の配置で撮影する場合、カメラ21Aの撮影範囲CAと、カメラ21Bの撮影範囲CBのどちらにも含まれない死角となる範囲ABが生じる。
図4は、小型建機に搭載された撮像システムによる撮影範囲の一例を示す。図4の(A)は、小型建機を側面側から見た側面図であり、図4の(B)は、小型建機を上面側から見た上面図である。移動体20Mとしての小型建機に最低2台のカメラ21A,21Bを搭載することで、建機の全周囲、および操作者の手元や足元が撮影される。大型建機と異なり、小型建機では、カメラの設置スペースが限られており、周辺監視のために大規模な撮像システムを導入し難い。図4の撮像システム20によると、小型・軽量な少数の装置により、建機の全周囲を撮像できる点で好ましい。また、図4において、死角となる範囲ABは、小型建機の全周囲を撮影する目的においては必要性が低い。なお、全周囲とは、監視が必要な範囲としてユーザにより定められた範囲である。全周囲としては、後述の変換処理後に全天球画像を生成可能な撮影範囲であることが好ましいが、例えば、小型建機にカメラを設置したときには、全天球のうち小型建機の上部または下部が欠けたパノラマ画像でもよい。
<<ハードウェア構成>>
図5は、一実施形態に係る画像処理ボードのハードウェア構成図である。図5を用いて、画像処理ボードのハードウェア構成について説明する。画像処理ボード23のハードウェア構成は、一般的な情報処理装置のハードウェア構成と同様である。
図5は、一実施形態に係る画像処理ボードのハードウェア構成図である。図5を用いて、画像処理ボードのハードウェア構成について説明する。画像処理ボード23のハードウェア構成は、一般的な情報処理装置のハードウェア構成と同様である。
画像処理ボード23は、CPU101(Central Processing Unit)と、ROM102(Read Only Memory)と、RAM103(Random Access Memory)と、SSD104(Solid State Drive)と、メディアI/F105(Interface)と、ネットワークI/F107と、ユーザI/F108と、バスライン110と、を有する。
CPU101は、画像処理ボード23全体の動作を制御する。ROM102は、画像処理ボード23上で動作する各種プログラムを記憶する。RAM103は、CPU101のワークエリアとして使用される。SSD104は、各種プログラムで使用されるデータを記憶する。SSD104は、HDD(Hard Disk Drive)などの任意の不揮発性の記憶装置に置き換え可能である。メディアI/F105は、外部メモリなどの記録メディア106に記憶されている情報を読み出したり、記録メディア106に情報を書き込んだりするためのインタフェースである。ネットワークI/F107は、通信ネットワーク2を介して他の装置と通信するためのインタフェースである。ユーザI/F108は、ユーザに画像情報を提供したり、ユーザから操作入力を受け付けたりするためのインタフェースである。ユーザI/F108は、例えば、タッチパネル機能を搭載した液晶ディスプレイまたは有機EL(Electro Luminescence)ディスプレイ、もしくはキーボードおよびマウスである。バスライン110は、上記各構成要素を図5に示されているように電気的に接続するためのアドレスバスまたはデータバスである。
端末10および管理システム50のハードウェア構成は、画像処理ボード23のハードウェア構成と同様であるので説明を省略する。
図6は、一実施形態におけるカメラのコントローラのハードウェア構成図である。カメラ21のコントローラ215は、CPU(Central Processing Unit)252と、ROM(Read Only Memory)254と、画像処理ブロック256と、動画圧縮ブロック258と、DRAM(Dynamic Random Access Memory)I/F260を介して接続されるDRAM272と、外部センサI/F264を介して接続される加速度センサ276とを含む。
CPU252は、カメラ21の各部の動作を制御する。ROM254は、CPU252が解読可能なコードで記述された制御プログラムや各種パラメータを格納する。画像処理ブロック256は、撮像素子213と接続され、撮像された画像の画像信号が入力される。画像処理ブロック256は、ISP(Image Signal Processor)などを含み、撮像素子213A,213Bから入力された画像信号に対し、シェーディング補正、ベイヤー補間、ホワイト・バランス補正、ガンマ補正などを行う。
動画圧縮ブロック258は、MPEG-4 AVC/H.264などの動画圧縮および伸張を行うコーデック・ブロックである。DRAM272は、各種信号処理および画像処理を施す際にデータを一時的に保存する記憶領域を提供する。加速度センサ276は、3軸の加速度成分を検出し、検出された加速度成分は、鉛直方向を検出して全天球画像の天頂補正を施すために用いられる。
カメラ21は、さらに、外部ストレージI/F262と、USB(Universal Serial Bus)I/F266と、シリアルブロック268と、映像出力I/F269とを含む。外部ストレージI/F262には、外部ストレージ274が接続される。外部ストレージI/F262は、メモリカードスロットに挿入されたメモリカードなどの外部ストレージ274に対する読み書きを制御する。USBI/F266には、USBコネクタ278が接続される。USBI/F266は、USBコネクタ278を介して接続されるパーソナル・コンピュータなどの外部機器とのUSB通信を制御する。シリアルブロック268は、パーソナル・コンピュータなどの外部機器とのシリアル通信を制御し、無線NIC(Network Interface Card)280が接続される。映像出力I/F269は、画像処理ボード23と接続するためのインタフェースである。
<<機能構成>>
次に、一実施形態に係る撮像システム20の機能構成について説明する。図7は、一実施形態に係る撮像システム20の機能ブロック図である。
次に、一実施形態に係る撮像システム20の機能構成について説明する。図7は、一実施形態に係る撮像システム20の機能ブロック図である。
カメラ21の電源がオン状態になると、カメラ用の制御プログラムはメインメモリにロードされる。CPU252は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、カメラ21の後述する各機能部および処理が実現される。
カメラ21は、撮影部2101と、動画圧縮部2102と、画像管理部2103と、送信部2109と、を有する。また、カメラ21は、ROM254、DRAM272、または外部ストレージ274により構築される記憶部2100を有する。
撮影部2101は、撮像素子213によって実現され、静止画を撮像し、または動画を撮影する。動画圧縮部2102は、動画圧縮ブロック258の処理により、動画の圧縮および伸張を行う。画像管理部2103は、CPU252からの命令によって、画像データと射影変換情報とを対応付けて管理する。送信部2109は、CPU252からの命令、および映像出力I/F269の処理によって、画像処理ボード23との通信を制御する。
画像処理ボード23は、射影変換情報管理部2301と、変換部2302と、表示部2303と、送受信部2309と、を有する。また、画像処理ボード23は、ROM102、RAM103、またはSSD104により構築される記憶部2300を有する。
射影変換情報管理部2301は、CPU101からの命令により、カメラ21によって撮影された画像の射影変換情報を管理する。変換部2302は、CPU101からの命令により、一組の画像データのそれぞれの画角を変換し、射影変換情報を用いて変換された画像データを単位球にテクスチャマッピングすることにより全天球画像を合成する。表示部2303は、CPU101からの命令、およびユーザI/F108のディスプレイの処理により、合成された全天球画像を表示する。送受信部2309は、CPU101からの命令、およびネットワークI/F107の処理により、他の装置との通信を制御する。
<<原理>>
続いて、カメラ21で撮影された画像から、全天球画像を生成する原理について説明する。まず、撮像システム20が撮影する方向について説明する。図8は、撮影方向を説明するための説明図である。図8の(A)は、カメラに対して、3軸の方向を定義する様子を示している。ここでは、カメラの正面方向、すなわちレンズの光学中心軸方向をRoll軸、カメラの上下方向をYaw軸、カメラの横方向をPitch軸と定義している。
続いて、カメラ21で撮影された画像から、全天球画像を生成する原理について説明する。まず、撮像システム20が撮影する方向について説明する。図8は、撮影方向を説明するための説明図である。図8の(A)は、カメラに対して、3軸の方向を定義する様子を示している。ここでは、カメラの正面方向、すなわちレンズの光学中心軸方向をRoll軸、カメラの上下方向をYaw軸、カメラの横方向をPitch軸と定義している。
カメラ21の方向は、一のカメラ21Aのレンズ(結像光学系212A,212B)の向きを基準として、(Yaw, Pitch, Roll)の角度で表すことができる。例えば、図8の(B)のカメラ21では、カメラ21Aは、基準となる方向に対して正面を向いているため、(Yaw, Pitch, Roll)=(0,0,0)である。一方で、カメラ21Bは、基準となる向き、すなわち、光学中心軸方向(Roll軸方向)に対して反対方向であり、Yaw軸に対して180°回転していることから、(Yaw, Pitch, Roll)=(180,0,0)である。
カメラ21は、(Yaw, Pitch, Roll)のデータを撮影方向データとして結像光学系ごとに取得することで、各結像光学系の位置関係を決定し、画像データと併せて、画像処理ボード23に送信する。これにより、画像処理ボード23は、各カメラ21による各撮影画像(魚眼画像)の位置関係を特定して、各撮影画像から全天球画像に変換することができる。なお、図8の(B)の例では、結像光学系が2個の場合を例に示したが、この個数に限定するものではない。画像処理ボード23は、結像光学系ごとの撮影方向データを取得することで、撮影画像(魚眼画像)から全天球画像に変換できる。また、撮影方向データを決定する際に、カメラ21のある一方向を基準としてもよいし、一つの結像光学系の撮影方向を基準に相対的に表してもよい。
次に、魚眼画像から全天球画像への変換について説明する。図9は、魚眼レンズを用いたカメラにおける射影関係を説明するための説明図である。本実施形態において、1つの魚眼レンズで撮影された画像は、撮影地点から概ね半球分の方位を撮影したものとなる。また、魚眼レンズは、図9の(A)に示すように、光学中心軸に対する入射角度φに対応した像高hの画像を生成する。像高hと、入射角度φとの関係は、所定の投影モデルに応じた射影関数で決定される。射影関数は、魚眼レンズの性質によって異なるが、等距離射影方式と呼ばれる投影モデルの魚眼レンズでは、fを焦点距離として、下記式(1)で表現される。図9の(C)は、入射角度φと像高hの関係の一例を示す。
h=f×φ ・・・(1)
h=f×φ ・・・(1)
他の投影モデルとしては、中心投影方式(h=f・tanφ)、立体射影方式(h=2f・tan(φ/2))、等立体角射影方式(h=2f・sin(φ/2))および正射影方式(h=f・sinφ)を挙げることができる。いずれの方式においても、光学中心軸からの入射角度φと焦点距離fとに対応して結像の像高hが決定される。また、本実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成を採用するものとし、得られる部分画像は、図9の(B)に示すように、撮影範囲の概ね半球分が投影されたイメージサークル全体を含む平面画像(魚眼画像)となる。
続いて魚眼画像から全天球画像への変換について説明する。図10は、全天球カメラが撮影した魚眼画像を3次元球体にテクスチャマッピングする例を示す図である。図10の(A)は魚眼画像を、図10の(B)は画像がテクスチャマッピングされる単位球を、それぞれ示している。図10の(A)の魚眼画像は、図9の(B)に対応しており、座標(u,v)に点Pを有する。魚眼画像において、中心Oを通りU軸に平行な線と、OPが成す角度をaとし、OPの距離(像高)をhとする。点Pから、図9の(C)に示す射影データのテーブルに基づいて、線形補正などの各種手法により、像高hに対する入射角度φが求められる。aおよびφを用いることで、点P(u,v)を、対応する3次元球体上の点P´(x,y,z)に変換することができる。
図10の(B)において、P´をXY平面上に射影した点をQ´(x,y,0)、球体の中心をO´とすると、図10の(A)における角aは、図10の(B)における直線O´Q´とX軸のなす角となる。また、入射角度φは、直線O´P´とZ軸のなす角となる。Z軸はXY平面に垂直であることから、直線O´P´とXY平面のなす角Q´O´P´は、90−φとなる。以上より、点P’の座標(x,y,z)は、下記式(2−1)〜(2−3)によって求めることができる。
(2−1)〜(2−3)によって点P´の座標を求めた上で、撮影方向データを用いて、撮影時にカメラ21が向いていた方向に回転させると、図8で定義された回転は、下記式3のようになる。なお、図8で定義されるPitch軸、Yaw軸、Roll軸は、図10の(B)のX軸、Y軸、Z軸にそれぞれ対応する。
さらに、(3−1)〜(3−3)式をまとめると、下記式(4)が得られる。(4)式を用いることで、魚眼画像から撮影方向に合わせて透視射影変換を行うことができる。
図11は、魚眼画像から透視射影変換する例を示す図である。図11では、2つの魚眼レンズで撮像された画像から、自由な方向の透視射影変換した例を示しており、図11の(A)は、撮影された魚眼画像を示している。図11の(A)のような魚眼画像は、図10で示したように3次元球面上に対応する座標を求めることで、図11の(B)のように半球体状の画像とすることができる。図11では、2つの魚眼画像を基に変換することから、図11の(B)では2つの半球体状の画像がから構成される。なお、図8の(B)において、濃い色で示される領域は、各半球が重複する領域を示している。
図11の(B)の半球形状の画像を適切な配置でつなぐことによって、全天球画像を作成することができる。さらに、図11(C)のように、球状に画像を配置した中心に、透視射影カメラを仮想的に配置して、任意の方向、画角で画像を切り出すことで、ユーザは全天球画像を視認することができる。
図12は、2つの魚眼レンズで撮影された画像から変換される半球体状の画像を示す。図12の(A)に示すように、カメラ21A,21Bによって撮影された画像を単位球にテクスチャマッピングした半球体状の画像IA,IBは、それぞれ180°よりも広角な画角を有する。このため、画像IA,IBをそのまま合成しても、360°の全天球画像は得られない。撮像システム20の画像処理ボード23は、180°よりも広角な画像IA,IBをそれぞれ、画角が180°の画像IA´,IB´に変換する。すなわち、画像処理ボード23は、画像IA,IBにおける各端部A,Bが端部A´,B´の位置になるように変換する。続いて、画像処理ボード23は、図12の(B)に示すように、画角を180°に変換した画像IA´,IB´を合成して全天球画像を生成する。なお、撮像システム20は、画像IA´,IB´の画角の和が360°になるように画像IA,IBを変換すればよく、例えば、画像IA,IBの画角がそれぞれ190°である場合、一方を、170°の画角に変換し、他方の画角を190°のまま変換しなくてもよい。
図13は、画像の変換方法を説明するための図である。図13の(A)は、カメラ21A,21Bによって撮影される広角の魚眼画像を、単位球にテクスチャマッピングした半球体状の画像IA,IBを示す。図13の(A)に示すように、画像IA,IBの画角をθとする。画像IA,IBを、画角が180°の画像IA´,IB´に線形伸縮させて全天球画像を得るためには、式(1)の代わりに、式(5)を使用することで実現できる。
h=f×φ×180°/θ (5)
h=f×φ×180°/θ (5)
図13の(B)は、画像IAを線形伸縮させて画像IA´にした場合、どのように画像が変換されるかを示す。変換前の画像IAの画素α1、α2、α3、α4は、変換後の画像IA´において、それぞれ、画素α1´、α2´、α3´、α4´の位置に移動する。画角の中心位置を0°とすると、画像IAにおいて、θ/2°、θ/4°、-θ/6°、-θ/2°の位置にあった画素は、画像IA´において、それぞれ、90°、45°、-30°、-90°の位置に移動する。
図14は、撮像システムにおいて撮影された画像を伸縮して180°の画像に変換する例を示す。図14の(A)は変換前の画像を示す。画像IAにおける画素α5は、変換後の画像IA´における画素α5´の位置に移動する。重複する領域の画像IABにおける画素α6,β6は、変換後の画像IA,IBの双方に存在することになり、それぞれ画素α6´,β6´の位置に移動する。変換された画像IA´,IB´をつなぎ合わせると、画素α6´,β6´に同じ撮影対象が表示されることになる。つまり、重複する領域の画像IABにおける撮影対象は、つなぎ合わせ処理を完了した時点で、二箇所に表示される。
以上説明した通り、上記の各式によって、魚眼画像から3次元球面に変換するテーブルが作成される。本実施形態では、画像処理ボード23において、このような変換を行うために、撮影方向データや射影データなどの射影変換情報を付加情報として画像データに加えて、カメラ21から画像処理ボード23へ配信する。
<<処理>>
続いて、撮像システム20における処理について説明する。まず、カメラ21から画像処理ボード23へ、画像データを送信する処理について説明する。
続いて、撮像システム20における処理について説明する。まず、カメラ21から画像処理ボード23へ、画像データを送信する処理について説明する。
図15は、画像データおよび射影変換情報を送信する処理を示すフロー図である。射影変換情報は、撮像システム20の各カメラ21が撮影する方向の角度(Yaw, Pitch, Roll)を示す撮影方向データ、および画像の像高(h)と撮影装置に対する光の入射角(φ)とを対応付けた射影変換データ(テーブル)とを含む。
撮像システム20のカメラ21A,21Bが撮影を開始すると、撮影部2101は、撮影された各魚眼画像の画像データ、撮影方向を示す各撮影方向データ、および各射影変換データを記憶部2100に記憶する。以下、撮影された画像が動画である場合について説明する。画像データは、動画圧縮部2102によって圧縮処理された動画のフレームデータを含む。画像管理部2103は、記憶された画像データと射影変換情報(撮影方向データおよび射影変換データ)とを対応付ける(ステップS11)。この対応付けは、データが記録された時刻や、フラグなどを用いて行われる。
カメラ21の送信部2109は、記憶部2100から射影変換情報を読み込み(ステップS12)、画像データごとの射影変換情報を画像処理ボード23へ送信する(ステップS13)。
さらに、送信部2109は、動画圧縮部216が処理した動画のフレームデータを読み込み(ステップS14)、フレームデータを画像処理ボード23に送信する(ステップS15)。送信部2109は、送信したフレームデータが最終フレームであるかを判定し(ステップS16)、最終フレームであれば(YES)、処理を終了する。最終フレームでなければ(NO)、ステップS14に戻り、送信部2109は、フレームデータを読み込む処理と配信する処理とを、最終フレームまで繰り返す。
続いて、画像データおよび射影変換情報を受信した画像処理ボード23側の処理について説明する。図16は、画像データおよび射影変換情報に基づいて全天球画像を生成する処理を示すフロー図である。
画像処理ボード23の送受信部2309は、カメラ21によって送信された画像データごとの射影変換情報(撮影方向データおよび射影変換データ)(ステップS13参照)を受信する(ステップS21)。画像処理ボード23の射影変換情報管理部2301は、受信された画像データごとの射影変換情報を記憶部2300に記憶する(ステップS22)。
画像処理ボード23の送受信部2309は、カメラ21によって送信された(ステップS13参照)魚眼画像の画像データの受信を開始する(ステップS23)。受信された画像データは、バッファとして、記憶部2300に記憶される。
画像処理ボード23の変換部2302は、記憶部2300に記憶された一組の画像データを読み出す。一組の画像データとは、カメラ21A,21Bによって撮影された動画におけるフレームデータであって、同時刻の画像として対応付けられたものである。画像処理ボード23の変換部2302は、これらの画像データに対応する射影変換情報を記憶部2300から読み出す。
一組の画像データにおける各フレームは、それぞれ、180°以上の画角を有する。変換部2302は、読み出された一組の画像データのそれぞれを180°の画角に変換し、射影変換情報を用いて変換された一組の画像データを単位球にテクスチャマッピングすることにより全天球画像を合成する(ステップS24)。180°よりも広角な画像を180°の画角に変換する処理には、上記の原理に記載の方法が用いられる。この場合、変換部2302は、魚眼画像から画素ごとにa,hを求め、画像データごとの射影変換情報における射影変換データおよび式(5)を用いて画素ごとにφを求め、これを式(2−1)〜式(2−3)に当てはめて座標(x,y,z)を算出する。
変換部2302は、変換された全天球画像のフレームデータを、記憶部2300に記憶する(ステップS25)。変換部2302は、変換された画像データが、動画における最終フレームであるか判断し(ステップS26)、最終フレームであれば(YES)処理を終了する。ステップS26において最終フレームではない(NO)と判断された場合、変換部2302は、残りのフレームに関して、ステップS24〜S25のテクスチャマッピングおよび全天球画像のフレームデータの記憶の処理を繰り返す。
処理の終了後、記憶部2300には、全天球画像のフレームデータからなる動画データが構築される。ユーザによる要求の入力に応じて、表示部2303は、記憶部2300に記憶されている動画データを読み出し、動画データの各フレームデータに基づいて、全天球画像の所定領域を外部のディスプレイから表示させる。図17は、ディスプレイの表示例である。動画データは、180°よりも広角の2つの魚眼画像を合成して得られる。このため、図14を用いて説明したように、2つのカメラ21A,21Bの撮像範囲が重複する領域の撮影対象は、複数表示される。このように、本実施形態によると、重複する領域の画像を破棄せずに全天球画像を生成することができる。
<<<実施形態の変形例A>>>
続いて、実施形態の変形例Aについて、上記の実施形態と異なる点について説明する。図18は、本発明の一実施形態に係る撮像システムの全体構成図である。図18の(A)は、撮像システムが搭載された移動体を示す。図18の(A)に示されているように撮像システム20´は、移動体20M´としての乗用車に、カメラ21A,21B,21C,21Dと、画像処理ボード23と、が搭載されてなる。カメラ21A,21B,21C,21Dのうち任意のものをカメラ21と表す。カメラ21A,21B,21C,21Dのハードウェア構成は、上記実施形態におけるカメラ21と同様である。カメラ21は、画像処理ボード23との間で、有線または無線の通信路により接続されている。
続いて、実施形態の変形例Aについて、上記の実施形態と異なる点について説明する。図18は、本発明の一実施形態に係る撮像システムの全体構成図である。図18の(A)は、撮像システムが搭載された移動体を示す。図18の(A)に示されているように撮像システム20´は、移動体20M´としての乗用車に、カメラ21A,21B,21C,21Dと、画像処理ボード23と、が搭載されてなる。カメラ21A,21B,21C,21Dのうち任意のものをカメラ21と表す。カメラ21A,21B,21C,21Dのハードウェア構成は、上記実施形態におけるカメラ21と同様である。カメラ21は、画像処理ボード23との間で、有線または無線の通信路により接続されている。
図18において、カメラ21Aは移動体20M´の前方に取り付けられており、カメラ21Bは移動体20M´の後方に取り付けられており、カメラ21Cは右側のサイドミラーに取り付けられており、カメラ21Dは左側のサイドミラーに取り付けられている。カメラ21A,21Bは、それぞれの光学中心軸が合致するようにして、互いに逆向きに固定されている。カメラ21C,21Dは、それぞれの光学中心軸が合致するようにして、互いに逆向きに固定されている。カメラ21A,21Bの光学中心軸と、カメラ21C,21Dの光学中心軸とは、交差している。これにより、各カメラ21A,21B,21C,21Dで撮影した画像を合成したときに、上下にずれのない全天球画像が得られる。
実施形態の変形例Aでは、撮像システム20´において、撮像方向データを決定するために、例えばカメラ21A,21Bにおける光学中心軸方向をRoll軸、カメラ21C,21Dにおける光学中心軸方向をPitch軸、Roll軸およびPitch軸に対し垂直方向をYaw軸に設定してもよい。
図18の(B)は、撮像システムによる撮影範囲の一例を示す図である。撮像システム20´において、カメラ21A,21B,21C,21Dの画角は、それぞれ180°である。カメラ21Aによって撮影される範囲CAと、カメラ21Cによって撮影される範囲CCと、は範囲CACにおいて重複する。カメラ21Cによって撮影される範囲CCと、カメラ21Bによって撮影される範囲CBと、は範囲CBCにおいて重複する。カメラ21Bによって撮影される範囲CBと、カメラ21Dによって撮影される範囲CDと、は範囲CBDにおいて重複する。カメラ21Dによって撮影される範囲CDと、カメラ21Aによって撮影される範囲CAと、は範囲CADにおいて重複する。図18の(B)によると、撮像システム20´の4つのカメラ21´により自動車の全周囲を撮影することができる。
図19は、画像の伸縮方法を説明するための図である。図19は、カメラ21A,21B,21C,21Dによって撮影される画角180°の半球の画像IA,IB,IC,IDを示す。実施形態の変形例Aでは、画角θ(=180°)の画像IA,IB,IC,IDを、図19に示すように、画角が90°の画像IA´,IB´,IC´,ID´に線形伸縮させる。画角θを180°から90°に変換するために、画像処理ボード23は、式(1)の代わりに、式(6)を用いる。
h=f×φ×90°/θ (6)
h=f×φ×90°/θ (6)
図20は、全天球画像を生成する概念を示す概念図である。図20の(A)は、180°の画角の画像IA,IB,IC,IDから90°の画角に変換された各画像IA´,IB´,IC´,ID´を示す。画角を変換することにより、カメラ21A,21B,21C,21Dによって重複して撮像される領域の画像IAC´、IBC´、IBD´、IAD´も圧縮される。図20の(A)は、変換された各画像IA´,IB´,IC´,ID´を合成して得られる全天球画像を示す。全天球画像は、画角90°の4つの画像を合成して得られる。このため、図20の(B)のように、4つのカメラ21A,21B,21C,21Dの撮像範囲が重複する領域の撮影対象は、重複して表示される。このように、本実施形態によると、重複する領域の画像を破棄せずに全天球画像を生成することができる。
実施形態の変形例Aにおける処理は、撮影される画像が4つである点、式(6)を用いて180°の画角を90°に変換する点を除いて、上記の実施形態と同様である。
<<<実施形態の変形例B>>>
続いて、実施形態の変形例Bについて、上記の実施形態と異なる点を説明する。図21は、一実施形態に係る通信システム1を構築する端末10A,10B、カメラ21、画像処理ボード23、および管理システム50の機能ブロック図である。
続いて、実施形態の変形例Bについて、上記の実施形態と異なる点を説明する。図21は、一実施形態に係る通信システム1を構築する端末10A,10B、カメラ21、画像処理ボード23、および管理システム50の機能ブロック図である。
カメラ21の機能構成は、上記実施形態と同様である。画像処理ボード23の送受信部2309の機能構成は、上記実施形態と同様である。
端末10Aは、送受信部1009Aを有する。送受信部1009Aは、CPU101からの命令、およびネットワークI/F107の処理により、他の装置との通信を制御する。
管理システム50は、射影変換情報管理部5001と、変換部5002と、送受信部5009と、を有する。また、管理システム50は、ROM102、RAM103、またはSSD104により構築される記憶部5000を有する。射影変換情報管理部5001は、CPU101からの命令により、カメラ21によって撮影された画像に係る射影変換情報を管理する。変換部5002は、CPU101からの命令により、一組の画像データのそれぞれに対し画角を変換し、変換した各画像データに対し射影変換情報を用いて単位球にテクスチャマッピングすることにより全天球画像を合成する。送受信部5009は、CPU101からの命令、およびネットワークI/F107の処理により、他の装置との通信を制御する。
端末10Bは、送受信部1009Bと、受付部1001と、表示部1002と、を有する。送受信部1009Bは、CPU101からの命令、およびネットワークI/F107の処理により、他の装置との通信を制御する。受付部1001は、CPU101からの命令、およびユーザI/F108のタッチパネルの処理により、ユーザによる操作入力を受け付ける。表示部1002は、CPU101からの命令、およびユーザI/F108のディスプレイの処理により、画像を表示する。
図22は、一実施形態における通信システム1において、全天球画像を生成し、再生する処理を示すシーケンス図である。カメラ21は、撮影を開始すると、上記の実施形態のステップS11〜S13と同様の処理により、画像処理ボード23へ、画像データごとの射影変換情報を送信する(ステップS31)。
画像処理ボード23の送受信部2309は、カメラ21によって送信された射影変換情報を受信すると、受信した射影変換情報を端末10Aへ送信する(ステップS32)。
端末10Aの送受信部1009Aは、画像処理ボード23によって送信された射影変換情報を受信すると、受信した射影変換情報を管理システム50へ送信する(ステップS33)。管理システム50の送受信部5009は、端末10Aによって送信された射影変換情報を受信する。
カメラ21A,21Bは、上記の実施形態のステップS14〜S16と同様の処理により、撮影した動画のフレームデータを画像処理ボード23へ送信する(ステップS41)。
画像処理ボード23の送受信部2309は、カメラ21によって送信された動画のフレームデータを受信すると、受信した動画のフレームデータを端末10Aへ送信する(ステップS42)。
端末10Aの送受信部1009Aは、画像処理ボード23によって送信された動画のフレームデータを受信すると、受信した動画のフレームデータを管理システム50へ送信する(ステップS43)。管理システム50の送受信部5009は、端末10Aによって送信された動画のフレームデータを受信する。
管理システム50は、受信した射影変換情報および動画のフレームデータを用いて、ステップS21〜S26と同様の処理により全天球画像の動画データを生成する(ステップS51)。すなわち、上記の実施形態では、画像処理ボード23によって実行されていた全天球画像の生成処理を、実施形態の変形例Bでは、管理システム50が実行する。生成された動画データは、記憶部5000に記憶される。
端末10Bのユーザが、全天球画像を表示するための操作入力を行うと、受付部1001は、全天球画像の要求を受け付ける。端末10Bの送受信部1009Bは、全天球画像の要求を管理システム50へ送信する(ステップS61)。
管理システム50の送受信部5009は、端末10Bによって送信された全天球画像の要求を受信する。この要求に応じて、管理システム50の送受信部5009は、記憶部5000から全天球画像の動画データを読み出して、端末10Bへ送信する。
端末10Bの送受信部1009Bは、管理システム50によって送信された全天球画像の動画データを受信する。表示部1002は、受信した動画データに基づいて、全天球画像をディスプレイから表示(再生)させる(ステップS71)。
<<実施形態の主な効果>>
上記実施形態の画像処理方法によると、所定の画角で撮像領域を撮像する複数のカメラ21A,21B(撮像手段の一例)を有し、一のカメラ21Aの撮像領域が他のカメラ21Bの撮像領域と重複する撮像システム20において、画像処理ボード23(画像処理装置の一例)は、撮像された全周囲の画像を処理する。画像処理ボード23の変換部2302(変換手段の一例、合成手段の一例)は、複数のカメラ21A,21Bによって撮像された複数の画像のうち、少なくとも一の画像に対し、画角を基の画角よりも小さな所定の画角とした画像に変換して、変換された少なくとも一の画像を含む複数の画像を合成して画像を生成する(変換処理の一例、合成処理の一例)。これにより、複数の画像を合成して全周囲の画像を形成するときに、複数の画像の重複部分の情報が失われることを防ぐことができる。
上記実施形態の画像処理方法によると、所定の画角で撮像領域を撮像する複数のカメラ21A,21B(撮像手段の一例)を有し、一のカメラ21Aの撮像領域が他のカメラ21Bの撮像領域と重複する撮像システム20において、画像処理ボード23(画像処理装置の一例)は、撮像された全周囲の画像を処理する。画像処理ボード23の変換部2302(変換手段の一例、合成手段の一例)は、複数のカメラ21A,21Bによって撮像された複数の画像のうち、少なくとも一の画像に対し、画角を基の画角よりも小さな所定の画角とした画像に変換して、変換された少なくとも一の画像を含む複数の画像を合成して画像を生成する(変換処理の一例、合成処理の一例)。これにより、複数の画像を合成して全周囲の画像を形成するときに、複数の画像の重複部分の情報が失われることを防ぐことができる。
画像処理ボード23の変換部2302は、複数のカメラ21A,21Bによって取得される複数の画像の画角の和が360°になるように画角を変換する。これにより、画像処理ボード23は、複数の画像を合成して全天球画像を生成するときに、複数の画像の重複部分が生じないので、画像の損失を防ぐことができる。
撮像システム20は、2つのカメラ21A,21Bを備える。画像処理ボード23の変換部2302は、2つのカメラ21A,21Bのそれぞれによって取得される180°より広角の画像を180°の画角の画像に変換する。これにより、小型建機のようにカメラの設置スペースが少ない場合でも、2つのカメラ21A,21Bを設置することで、小型建機の全周囲を撮像できるようになる。
2つのカメラ21A,21Bにおけるカメラ21A(第1の撮像手段の一例)およびカメラ21B(第2の撮像手段の一例)は、所定の間隔を置いて、それぞれ異なる方向が撮像されるように配置されている。これにより、同じ位置にカメラ21A,21Bを配置した場合に車体などの死角により撮像できなかった領域が、所定の間隔を置いて配置することで撮像可能になる。
実施形態の変形例Aにおいて、撮像システム20は、4つのカメラ21A,21B,21C,21Dを備える。画像処理ボード23の変換部2302は、4つのカメラ21A,21B,21C,21Dのそれぞれによって取得される90°より広角の画像を90°の画角の画像に変換する。これにより、2つのカメラ21A,21Bを設置しただけでは、死角により全周囲が撮影できない場合でも、4つのカメラ21A,21B,21C,21を設置することで、全周囲を撮像できるようになる。
2つのカメラ21A,21B,21C,21Dにおけるカメラ21A(第1の撮像手段の一例)、カメラ21B(第2の撮像手段の一例)、カメラ21C(第3の撮像手段の一例)、およびカメラ21D(第4の撮像手段の一例)は、所定の間隔を置いて、それぞれ異なる方向が撮像されるように配置されている。これにより、同じ位置にカメラ21A,21B,21C,21Dを配置した場合に車体などの死角により撮像できなかった領域を、所定の間隔を置いて配置することで撮像可能になる。
<<実施形態の補足>>
端末10、撮像システム20、および管理システム50用のプログラムは、インストール可能な形式又は実行可能な形式のファイルによって、コンピュータで読み取り可能な記録媒体に記録されて流通されるようにしてもよい。また、上記記録媒体の他の例として、CD−R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、ブルーレイディスク等が挙げられる。また、上記記録媒体、あるいは、これらプログラムが記憶されたHD(Hard Disk)は、プログラム製品(Program Product)として、国内又は国外へ提供できる。
端末10、撮像システム20、および管理システム50用のプログラムは、インストール可能な形式又は実行可能な形式のファイルによって、コンピュータで読み取り可能な記録媒体に記録されて流通されるようにしてもよい。また、上記記録媒体の他の例として、CD−R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、ブルーレイディスク等が挙げられる。また、上記記録媒体、あるいは、これらプログラムが記憶されたHD(Hard Disk)は、プログラム製品(Program Product)として、国内又は国外へ提供できる。
また、上記実施形態における端末10、撮像システム20、および管理システム50は、単一の装置によって構築されてもよいし、各部(機能又は手段)を分割して任意に割り当てられた複数の装置によって構築されていてもよい。
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路を含むプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)や従来の回路モジュール等のデバイスを含むものとする。
1 通信システム
2 通信ネットワーク
10 端末
20 撮像システム
21 カメラ
23 画像処理ボード
50 管理システム
1001 受付部
1002 表示部
1009A,1009B 送受信部
2101 撮影部
2102 動画圧縮部
2103 画像管理部
2109 送信部
2301 射影変換情報管理部
2302 変換部
2303 表示部
2309 送受信部
5001 射影変換情報管理部
5002 変換部
5009 送受信部
2 通信ネットワーク
10 端末
20 撮像システム
21 カメラ
23 画像処理ボード
50 管理システム
1001 受付部
1002 表示部
1009A,1009B 送受信部
2101 撮影部
2102 動画圧縮部
2103 画像管理部
2109 送信部
2301 射影変換情報管理部
2302 変換部
2303 表示部
2309 送受信部
5001 射影変換情報管理部
5002 変換部
5009 送受信部
Claims (10)
- 所定の画角で撮像領域を撮像する複数の撮像手段を有し、前記複数の撮像手段の一の撮像手段の撮像領域が他の撮像手段の撮像領域と重複する撮像システムにおいて、撮像された全周囲の画像を処理する画像処理装置であって、
前記複数の撮像手段によって撮像された複数の画像のうち、少なくとも一の画像に対し、画角を基の画角よりも小さな所定の画角とした画像に変換する変換手段と、
前記変換手段によって変換された少なくとも一の画像を含む前記複数の画像を合成する合成手段と、
を有する画像処理装置。 - 前記変換手段は、前記複数の撮像手段によって取得される複数の画像の画角の和が360°になるように前記画角を変換する請求項1に記載の画像処理装置。
- 前記複数の撮像手段と、
請求項1または2に記載の画像処理装置と、
を有する撮像システム。 - 2つの撮像手段を備えており、
前記変換手段は、前記2つの撮像手段のそれぞれによって取得される180°より広角の画像を180°の画角の画像に変換する請求項3に記載の撮像システム。 - 前記2つの撮像手段における第1の撮像手段および第2の撮像手段は、所定の間隔を置いて、それぞれ異なる方向が撮像されるように配置されている請求項4に記載の撮像システム。
- 4つの撮像手段を備えており、
前記変換手段は、前記4つの撮像手段のそれぞれによって取得される90°より広角の画像を90°の画角の画像に変換する請求項3に記載の撮像システム。 - 前記4つの撮像手段における第1の撮像手段、第2の撮像手段、第3の撮像手段、および第4の撮像手段は、所定の間隔を置いて、それぞれ異なる方向が撮像されるように配置されている請求項6に記載の撮像システム。
- 通信端末と、
請求項1または2に記載の画像処理装置と、を有し、
前記画像処理装置は、前記通信端末による要求に応じて、前記合成手段によって合成された画像を前記通信端末へ送信する
通信システム。 - 所定の画角で撮像領域を撮像する複数の撮像手段を有し、前記複数の撮像手段の一の撮像手段の撮像領域が他の撮像手段の撮像領域と重複する撮像システムにおいて、撮像された全周囲の画像を処理する画像処理装置に、
前記複数の撮像手段によって撮像された複数の画像のうち、少なくとも一の画像に対し、画角を基の画角よりも小さな所定の画角とした画像に変換する変換処理と、
前記変換処理によって変換された少なくとも一の画像を含む前記複数の画像を合成する合成処理と、
を実行させる画像処理方法。 - 所定の画角で撮像領域を撮像する複数の撮像手段を有し、前記複数の撮像手段の一の撮像手段の撮像領域が他の撮像手段の撮像領域と重複する撮像システムにおいて、撮像された全周囲の画像を処理する画像処理装置に、
前記複数の撮像手段によって撮像された複数の画像のうち、少なくとも一の画像に対し、画角を基の画角よりも小さな所定の画角とした画像に変換する変換処理と、
前記変換処理によって変換された少なくとも一の画像を含む前記複数の画像を合成する合成処理と、
を実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017205739A JP2019080174A (ja) | 2017-10-25 | 2017-10-25 | 画像処理装置、撮像システム、通信システム、画像処理方法、およびプログラム |
US16/166,199 US20190124274A1 (en) | 2017-10-25 | 2018-10-22 | Image processing apparatus, imaging system, communication system, image processing method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017205739A JP2019080174A (ja) | 2017-10-25 | 2017-10-25 | 画像処理装置、撮像システム、通信システム、画像処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019080174A true JP2019080174A (ja) | 2019-05-23 |
Family
ID=66169597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017205739A Pending JP2019080174A (ja) | 2017-10-25 | 2017-10-25 | 画像処理装置、撮像システム、通信システム、画像処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190124274A1 (ja) |
JP (1) | JP2019080174A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021182154A1 (ja) * | 2020-03-09 | 2021-09-16 | ソニーグループ株式会社 | 撮影補助装置 |
EP4016464A1 (en) | 2020-11-26 | 2022-06-22 | Ricoh Company, Ltd. | Apparatus, system, method, and carrier means |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11250540B2 (en) | 2018-12-28 | 2022-02-15 | Ricoh Company, Ltd. | Image processing apparatus, image capturing system, image processing method, and recording medium |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008049921A1 (de) * | 2008-09-29 | 2010-04-15 | Mobotix Ag | Verfahren zur Videodatenstrom-Erzeugung |
JP5659305B2 (ja) * | 2011-11-07 | 2015-01-28 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
US9589350B1 (en) * | 2013-05-30 | 2017-03-07 | 360 Lab Llc. | Utilizing three overlapping images for exposure correction during panoramic image stitching |
US9918136B2 (en) * | 2014-05-29 | 2018-03-13 | Nextvr Inc. | Methods and apparatus for delivering content and/or playing back content |
JP2019511016A (ja) * | 2016-01-03 | 2019-04-18 | ヒューマンアイズ テクノロジーズ リミテッド | フレームのパノラマフレームへのステッチング |
US10148874B1 (en) * | 2016-03-04 | 2018-12-04 | Scott Zhihao Chen | Method and system for generating panoramic photographs and videos |
US9947108B1 (en) * | 2016-05-09 | 2018-04-17 | Scott Zhihao Chen | Method and system for automatic detection and tracking of moving objects in panoramic video |
US10148875B1 (en) * | 2016-05-17 | 2018-12-04 | Scott Zhihao Chen | Method and system for interfacing multiple channels of panoramic videos with a high-definition port of a processor |
US10051192B1 (en) * | 2016-06-05 | 2018-08-14 | Scott Zhihao Chen | System and apparatus for adjusting luminance levels of multiple channels of panoramic video signals |
US10165182B1 (en) * | 2016-12-29 | 2018-12-25 | Scott Zhihao Chen | Panoramic imaging systems based on two laterally-offset and vertically-overlap camera modules |
-
2017
- 2017-10-25 JP JP2017205739A patent/JP2019080174A/ja active Pending
-
2018
- 2018-10-22 US US16/166,199 patent/US20190124274A1/en not_active Abandoned
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021182154A1 (ja) * | 2020-03-09 | 2021-09-16 | ソニーグループ株式会社 | 撮影補助装置 |
EP4016464A1 (en) | 2020-11-26 | 2022-06-22 | Ricoh Company, Ltd. | Apparatus, system, method, and carrier means |
US11928775B2 (en) | 2020-11-26 | 2024-03-12 | Ricoh Company, Ltd. | Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image |
Also Published As
Publication number | Publication date |
---|---|
US20190124274A1 (en) | 2019-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9030524B2 (en) | Image generating apparatus, synthesis table generating apparatus, and computer readable storage medium | |
US20200296282A1 (en) | Imaging system, imaging apparatus, and system | |
US20210084221A1 (en) | Image processing system and image processing method | |
JP6919334B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
US10594941B2 (en) | Method and device of image processing and camera | |
CN110060206B (zh) | 图像处理系统、图像生成装置和生成图像的方法 | |
KR101916616B1 (ko) | 화상 캡처링 장치, 화상 캡처 시스템, 화상 처리 방법, 정보 처리 장치, 및 컴퓨터-판독 가능 저장 매체 | |
JP7192592B2 (ja) | 撮像装置、画像通信システム、画像処理方法、プログラム | |
US11006042B2 (en) | Imaging device and image processing method | |
US10897573B2 (en) | Image capturing system, terminal and computer readable medium which correct images | |
JP2016048856A (ja) | 画像表示システム、画像表示装置、画像表示方法、およびプログラム | |
JP2019080174A (ja) | 画像処理装置、撮像システム、通信システム、画像処理方法、およびプログラム | |
JP2022130180A (ja) | 画像処理方法、プログラム、画像処理装置および画像処理システム | |
US11928775B2 (en) | Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image | |
KR102442089B1 (ko) | 이미지의 관심 영역의 위치에 따라 이미지를 다면체에 매핑하는 장치 및 그 영상 처리 방법 | |
JP6610741B2 (ja) | 画像表示システム、画像表示装置、画像表示方法、およびプログラム | |
US20240257301A1 (en) | Information processing apparatus and information processing system | |
JP7234802B2 (ja) | 撮像システム、端末及びプログラム | |
JP7091734B2 (ja) | 入力装置、診断システム、入力方法、及びプログラム | |
JP2022084529A (ja) | 装置、システム、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180209 |