JP6132767B2 - 超半球視が可能なオプトロニクシステム - Google Patents
超半球視が可能なオプトロニクシステム Download PDFInfo
- Publication number
- JP6132767B2 JP6132767B2 JP2013528621A JP2013528621A JP6132767B2 JP 6132767 B2 JP6132767 B2 JP 6132767B2 JP 2013528621 A JP2013528621 A JP 2013528621A JP 2013528621 A JP2013528621 A JP 2013528621A JP 6132767 B2 JP6132767 B2 JP 6132767B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dynamic range
- lens
- function
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000001276 controlling effect Effects 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000005286 illumination Methods 0.000 claims description 4
- 230000009471 action Effects 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 2
- 230000000087 stabilizing effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 21
- 238000001514 detection method Methods 0.000 description 6
- 238000013139 quantization Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 230000004297 night vision Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010257 thawing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/67—Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
- H04N25/671—Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/06—Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/011—Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0147—Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/40—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
- H04N25/46—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/77—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Exposure Control For Cameras (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Secondary Cells (AREA)
Description
−主に戦車の装甲、壁および防護手段を透視する、環状に配置されたエピスコープまたは潜望鏡、または
−2軸に関して向きを調整できるが、直ちにパノラマ全体をカバーすることはできない、可動台座に搭載されたPTZ(Pan、Tilt、Zoom(パン、チルト、ズーム)の略語)型カメラ、または
−ビデオストリームネットワークの管理が必要な、パノラマをカバーする分散された複数のカメラのネットワーク、または
−レンズの焦点に配置されて、全体で赤道面のシーンを例えば1〜10Hzのレートで360°走査する線形アレイ型センサを用いる装置が挙げられる。
−多数の死角があり環境全体が完全に認識可能とならず、これは例えば市街地を移動中且つ各種方向に転回可能であって、各種方向からの脅威に晒されている車両にとって重要である。
−あるいは、検知すべき物体、事象、または脅威が識別できなければならない範囲に関して、それらの角度寸法の点で解像度が極めて不充分であるためである。これは必然的に以下を伴う。
・擲弾筒(またはRPG(Rocket Propelled Grenade(ロケット推進擲弾)の略語)を用いて威嚇しているか、または市街地の建物の屋上に潜んでいる狙撃手の最大150mの射程距離の認識、
・最大500mの半径内(市街地でこれを超えることは稀)で地上を移動している車両の認識(見通しの良い環境では1500mの距離での検知が可能)、
・地雷(またはIED(Improvised Explosive Device(簡易爆発物)の略語))等、地上に置かれた物体、すなわち移動時に回避を決断すべく検知可能でなければならない、数十メートル離して置かれた、寸法が数十cmまたは数mの物体の認識、
−あるいは、人間の能力に近い程度に知覚を代替する、すなわち車両の移動速度および乗員が行なうであろう対応の決断速度に関してリアルタイムで環境およびその変化を連続的に認識できるようになるにはリフレッシュレートが極めて不充分である。例えばCCDカメラに取り付けられたレンズの使用に依存し、1〜10Hzのレートで赤道面を360°走査し、約20度の角度高に制限された装置が存在する。これらの装置は、高精細度ビデオレート(HD25〜50Hz)と互換性を有する小さいマトリクス(2Mピクセル以下)、または2Mピクセル超であるがレートが(1〜10Hzのオーダーに)制限される大きいマトリクス、あるいは同様に走査周波数が1〜10Hz制限されて360°走査する線形アレイに依存している。
−当該マトリクス検知器はビデオレートを有すると共に、
i.各ピクセルが相関2重サンプリングを用いて電荷電圧変換を保証可能であるピクセルのL×Cアレイ、但しL、C>2000、および
ii.2C個の並列化されたアナログ/デジタル変換素子、すなわち各変換素子自体が、低レベル且つ大ゲインの出力を有する第1のADCおよび高レベル且つ低ゲインの出力を有する第2のADCを含むアナログ/デジタル変換素子を含むものであることを特徴とし、
−超半球レンズが仰角の関数として制御される焦点距離fを有し、当該焦点距離は赤道面において最も長く、f数すなわちf/Dが0.9〜1.6の範囲(Dはレンズの直径)であることを特徴とし、
−露光時間および/または信号に印加されるゲインの制御により、取得された画像のダイナミックレンジをシーンのダイナミックレンジに適合させる手段を特徴とし、
−当該処理装置が、
i.温度および検知器の露光時間の関数として適合されたコマンドテーブルにより検知器の不均一性を修正する手段と、
ii.複数の隣接するピクセルの重み付き総和を求める手段と、
iii.取得された画像のダイナミックレンジをシーンのダイナミックレンジに適合させる手段、検知された画像のダイナミックレンジを、シーンの照明に伴い増大する検知器の時間的ノイズの関数として圧縮する手段および、画像の高空間周波数の復元および低空間周波数の補償により、検知された画像のダイナミックレンジを表示画面および/または肉眼ダイナミックレンジに適合させる手段とを含むことを特徴とする。
−焦点距離4.5mm、12ピクセル/°の魚眼レンズ。360°の視野をカバーするのに1または2個のレンズで充分である。
−焦点距離8mm、120°に対し21ピクセル/°の魚眼レンズ。360°の視野をカバーするのに3個のレンズが必要である。
−半径方向解像度が20〜22あるいはそれ以上のピクセル/°の範囲で仰角に応じて変化する半径方向解像度で360°の視野をカバーすることが可能になる(そのようなレンズ1個で充分である)極めて大きい歪曲収差を有する、またはPanomorph(商標)型レンズ。そのようなレンズの垂直方向の向きにより、仰角が減少するに従い増大し、負の仰角でより良好な接線解像度を得ることが可能になる。Panomorph(商標)レンズは、Immervision社が開発し、仏国特許第2826221号明細書および同第2827680号明細書に記述されている広角アナモルフィック対物レンズであって、歪曲収差を制御し、少なくとも360度×180度の視野をカバーする拡大された画像を生成する。検知器上に(ニーズに適合された)そのようなレンズにより形成された画像の幾何配置は、方位または赤道面において360°、仰角または子午面の220°の適用範囲を示す。
−マニュアルモードへ切り替わることにより、カメラは自動制御モードで生じた直近の設定を保持する。
−あるいは、カメラが10μsの最短露光時間および低ゲインに設定された「デフォルト」状態にカメラを初期化することを操作者が選択する。操作者が、画像の暗い領域で信号を識別できないことに気付いたならば、信号のオフセット制御を介して輝度調節をより高く設定する。画像の有用な明るい領域において信号が飽和しない場合、操作者はコントラスト制御をより高く設定する。このコントラスト制御は、40msの限界内でコントラストを上げることにより露光時間の制御に作用し、次いで使用するゲインに作用する。極めて高いゲイン(極めて弱い照明条件の場合)において、操作者が、画像の暗い領域で過剰なノイズに気付いた場合、引き続き40msを超えて露光時間を増やして、2×2、次いで4×4個の隣接ピクセルの総和(または「ビニング」)モードを命じることができる。好適には、この総和または「ビニング」は、各ピクセルのノイズレベルにより重み付けすることができる。操作者は必要に応じて、画像の暗い領域を画面の黒色のすぐ上のレベルに調整すべく明るさのレベルを再調整する。従って、毎秒25画像、すなわち画像のダイナミックレンジにおけるSNRを下げることなく、138Mピクセル/秒のオーダーの高いスループットで動作することができる。
−センサ10内に組み込まれたFPGAまたはDSPにより実行されるかまたはコンピュータ20のレベルで実行される、検知器の不均一性のリアルタイム修正。これは少なくともオフセットを減算し、温度および検知器の露光時間の関数として適合された修正のテーブルによる暗電流を減算して、ピクセルの応答の不均一性の修正を保証する均一な輝度フィールドまたは平面フィールドによる除算を実行する。また、コンピュータは、復元された画像の大域的信号対ノイズ比を向上させるべく各ピクセルの応答の非線形性および各ピクセルの時間ノイズレベルの不均一性を考慮に入れることができる。
−自動的に、または操作者により手動で命じられて、レートを25〜100Hzの間で変化させるべく検知器を制御するカメラの電子機器により実行される画像レートの制御。そのようなモードは、日中条件下での移動に、または画像の流動性を増して待ち時間を短縮するためにより低い照明レベルがこれを許す場合に極めて有用である。
−例えば各ピクセルのノイズの逆数(1/ノイズ)で重み付けされた隣接ピクセルの信号Sを総和し、全体にノイズの総和を乗算することによる重み付き「ビニング」モード。この重み付き「ビニング」モードは、例えば2×2、3×3、または4×4ピクセルに対して実行できる。
−12ビットへの線形出力がシーンのダイナミックレンジおよびセンサのダイナミックレンジに不充分適当であるため、検知器の16ビットへの線形出力。2×11ビットのデジタル化は、センサのアナログ性能、および不均一性を修正する動作の細かさの限界である。当該ピクセルは、1電子未満のRMS(Root Mean Square(二乗平均平方根)の略語)ノイズレベルを有することができる。0.5電子のRMSノイズが、間隔当たり0.6電子で符号化されたデジタル信号について最もノイズが少ないピクセルにおいて測定され、より低いノイズレベルは疑いなく実現可能である。最も弱い信号は実際、完全な暗闇において0の信号、次いで1ピクセルに1光電子を伴う。従って、1電子未満の、または実際にRMSノイズレベルより低い符号化間隔は、信号処理にとってデジタル符号化が寄与するノイズを制限するのに役立つ。当該RMS量子化ノイズは、量子化間隔を√12で除算した値に等しい。ここで、当該量子化ノイズは、0.6√12=0.17に等しく、実際に0.5電子のRMSノイズに比べて小さい。ピクセルは、35000電子を超える飽和レベルを有していてよい。従って、65536レベルまたは16ビットに対する線形符号化が人々のニーズに合う。2個の異なる入力ゲインを有するより小さいダイナミックレンジの2個の変換器による符号化の方がよりよく適合している場合もある(2個のスロープによる符号化)。従って、11ビットに対する低ゲイン符号化は、17〜35000電子の範囲で17電子の間隔を置いた2048レベルにおいて高レベルを符号化する。高ゲイン符号化は、暗闇(例えば0.5電子)におけるノイズに適合された最低レベルから、低ゲインコンバータの最低レベルの二乗、すなわち最低292よりも高いレベルまでの符号化を行なう。実際、ポアソンの法則で記述される統計量に従うN個の光電子に等しい振幅の信号のRMSノイズは√Nに等しい振幅を有している。従って、この292レベル以降、RMSノイズは量子化間隔より小さくなる。従って、0からの1024電子の符号化は、高ゲイン出力に対して11ビット未満で0.5電子の符号化間隔で実行することができる。従って、高ゲインと低ゲイン出力とのゲインの比は35000/1024、すなわち34である。結果的に生じる最終的なノイズに対する量子化レベルの影響を制限しながら不均一性および非線形性を修正する算術演算を実行するため、且つより低いノイズレベルおよび潜在的に実現可能な、より高い飽和を実現する可能にするために、以前の解析に関して若干のマージンを有するように2×12ビットに対する変換が好適である。
−シーンのダイナミックレンジ全体にわたり異なる法則により修正された画像レベルを圧縮すべく不均一性および非線形性を修正する演算の後で出力端における信号を変換するテーブル(「参照テーブル」として知られる)の管理、例えば、いくつかのスロープへの応答、平方根応答、対数応答、ヒストグラム等化である。これにより、データスループットの損失を最小限に抑えながら、信号のダイナミックレンジを維持することが可能になる。
−自動化された設備またはマン−マシンインターフェース40により駆動された、関心対象領域の高速な読み取りおよび表示。これらの関心対象領域は、任務の関数としての各種の方法で画定され、動作は、車両の状態が移動中または静止位置のいずれであっても各人より実行される。例えば、部隊指揮官は潜在的脅威の区間を監視し、射撃手は自分の視界方向の区間をカバーする画像を使用することができ、車両運転手は移動中の車両前方にある前方区間(または後退中あるいは後面視機能が必要な場合は後方区間)をカバーする画像を使用することができる。車両が前進している場合、光流解析に基づく画像処理ソフトウェアが自動的に、シーンの新たに発見される区間を部隊指揮官に対して表示することができる。車両が静止している場合、画像処理ソフトウェアは、シーン内の事象(出現、消失、動作の検知)を自動的に検知し、乗員に向けた警報、車両の環境を表示する状況画面上に検知ブリップおよび光跡を生成し、操作者が脅威の有無を認識して対応できるように高速および全解像度で画像を生成する。最後に、車両または車両が存在するネットワークは、警報の発生および対象の指定が可能な他のセンサを備えていてよく、このために本システムが角度区間の画像を操作者に配信可能である。
−ノイズ源を処理して信号をそれらのより大きいダイナミックレンジで復元するための、検知器から生じた信号の低レベル処理。
−各画像素子またはピクセルにより実際にカバーされた仰角および方位角の関数として画像または副画像を画面30に配信するための、表示された画像の区間の関数としてレンズの焦点距離の定義を利用するアルゴリズム的手段により光学的組合せおよび検知器の歪曲収差を補償する処理。
−プラットフォームの基準フレームに従い表示画像に挿入する検知および警報の生成等、多岐にわたる機能を保証するための、プラットフォームの情報と整合する、且つ環境の関数としての画像の処理。
−検知された画像のダイナミックレンジを表示手段および/または肉眼ダイナミックレンジに適合させて、ユーザーの人間工学的および動作ニーズに合致するよう、これらの画面またはマン−マシンインターフェース30上に画像を復元する処理。従って本システムは例えば、ピーク照明、またはピクセルを飽和させる、画像内における点状または擬似点状の過剰照明を検知する。これらは例えば日中は太陽に、夜間は街灯およびビーコンに関連付けられる。これらの領域は、画像上では白で表示され、露光時間および上述のゲインの自動制御には寄与しない。更に、シーンのダイナミックレンジが極めて強い場合、例えば直射日光を受ける領域および陰となっている暗い領域が同時に存在する場合、画像の表示は、高空間周波数(画像の詳細)を復元し、例えばファジーマスク技術またはマルチゾーン正規化あるいはウェーブレット フィルタリングにより低周波数における輝度の変化を補償する。
−センサのレンズは更に絞り、センサの絞り(存在する場合)の開閉制御、センサの温度制御、レンズの前面ジオプタの除霜および除氷、レンズを集光制御)を含む。
−露光時間の制御、
−検知器のゲインの制御、
−歪曲収差および車両動作の修正を伴う、画像の区間または関心対象領域における広角パノラマ画像の表示、レーダー、拡大鏡種類の管理。露光時間、検知器のゲイン、ディスプレイの上述の制御は例えば連続的に実行される。既定値として、例えばセンサの絞りは閉じていて、露光時間およびゲインは最小である。次いで画像のヒストグラムが作成され、本例では黒い画像である。次に、絞りが開かれ、最低レベルから最高レベルまで広がっていることを確認しながら得られた画像のヒストグラムが作成される。次に、絞りが開いた状態で、露光時間が増やされる。露光時間が充分でない(すなわち、ヒストグラムの充分に広がっていない)場合、露光時間および任意選択的にゲインが更に増やされる。逆に、完全に飽和した白い画像からを出発することが可能である。上で示したように、絞りをなくして露光時間およびゲインを調整することも可能である。信号を減衰および/またはスペクトル帯域を制限すべくレンズに適用されたフィルタを使用することも可能である。
−コンテキスト データ(北、速度ベクトルの方向、マッピング、味方の位置、脅威の領域等)の画像への挿入。
−警報を生成し、復元された画像に挿入するための、(シーンから生じた)画像内の事象、動き、新規物の自動検知。
−車両の歪曲収差および動作の修正を伴うウィンドウ化された画像の表示。
−ヘルメットに装着されて、車両に装着された地上基準フレーム内でのユーザーの頭部の向きの制御により制御される、視準されたマイクロ表示ゴーグルによる透過的な装甲機能の実装。
−地上で取得された画像の組の地形基準フレーム(または地上パノラマの3次元表示)内で、地形または車両基準フレーム内でこれらの画像の移動および復元を行なう間、モザイク形式での表示を行なう機能。
−例えば車両指揮官が、運転手に向かうべき方向を指示し、または射撃手に当人の視認手段で監視すべき領域を指示できるようにするための、各ユーザーから得られた画像および挿入情報の他の乗員への配信。
−移動中における、画像内の光流の不連続性を検知する自動処理による、または操作者がキーボードまたはジョイスティックを用いた、画像内の新たに確認された領域の切り取り。
−対象指定情報の例えば兵器システムへの送信。
−慣性基準に基づき、または画像の大域的動作を検知した際に画像安定化を行なうソフトウェアによる、吊り下げ式慣性基準フレーム(車両に搭載された画面)内の、または倍率>1でズームされた画像の安定化。
−車両に固定された倍率1の視準された画面(車両と同一基準フレーム)に画像を表示するために限られた遅延での直接出力。
−センサと視準された画面との間の相対動作(タレット動作、プローブプラットフォーム等)を補償し、画像の取得と表示の間の遅延を処理する出力。
−頭部に装着されてキャビン内の基準点を見ているか、またはキャビンに搭載されている「頭部トラッカ」装置による、あるいは頭部に装着された慣性センサによる、車両に搭載された慣性センサによる、および両者の間で異なる計算によるプラットフォームに対するユーザーの頭部の相対的な動作に補償する出力。
−最大150mの距離にある、高さ25mの建物の上にいる狙撃手、
−500m離れた戦車、
−20m離れて地上に置かれた30cmの物体(地雷、IED)
の認識が可能になる。
これにより、
−乗員の防護を保証し、
−関係者の協力を支え、
−戦術的情報を取得することが優先される。
−移動中の撮像、
−静止中の自動偵察、動きを検知した際に警報を生成する、またはより好適には脅威を分類する自動処理、
―任務の記録および報告、
―TIS(Tactical Information System(戦術情報システム))から得られた状況の拡張現実感への挿入。実際、車両はデジタル化された戦場の情報を共有するネットワーク内に存在する。この点で、当該車両は地理位置情報を受信してネットワークに配信する。これにより味方の位置および例えばネットワークから得られた脅威の位置等、大量の情報を人々のシステムにより復元されたパノラマ画像に挿入することができる。
−非リアルタイムまたはリアルタイム画像サーバ。
−日中および夜間視
−狙撃手、車両、地雷等、多様な脅威からの防護
−最大500mの車両認識範囲
−5.5Mピクセルのモノラル検知器システム
−リアルタイム超半球視
−高さに適合された解像度を有するパノラマレンズ
−プラットフォームとの一体化が容易
−低コスト
−使い勝手の良いMMI
−回転素子が無いため、こちらが監視している場所を察知されない「ステルス型」静的センサ
−処理動作:LLL(Low−Light Level(低光レベル)の略語)、自動検知、プラットフォーム動作の管理、前方移動に伴い明らかにされた領域の位置特定。
Claims (5)
- シーンの超半球視が可能なビデオオプトロニクシステム(100)であって、超半球レンズ、および前記レンズの焦点面に配置されたマトリクス検知器アレイを備えたセンサ(10)と、検知された画像を処理する処理装置(20)と、処理された画像の表示手段(30)とを含み、
−前記マトリクス検知器がビデオレートを有すると共に、
i.各ピクセルが相関2重サンプリングを用いて電荷電圧変換を保証可能であるL×C個のピクセル、但しL、C>2000、および
ii.2C個の並列化されたアナログ/デジタル変換素子(またはADC群)、すなわち各変換素子自体が、低レベル且つ大ゲインの出力を有する第1のADCおよび高レベル且つ低ゲインの出力を有する第2のADCを含むアナログ/デジタル変換素子を含むものであることを特徴とし、
−前記超半球レンズが仰角の関数として制御される焦点距離fを有し、前記焦点距離が赤道面において最も長く、開口数f/Dが0.9〜1.6の範囲(Dはレンズの直径)であることを特徴とし、
−露光時間および/または信号に印加されるゲインの制御により、前記検知された画像のダイナミックレンジを前記シーンのダイナミックレンジに適合させる手段を特徴とし、
−前記処理装置が、
i.温度および検知器の露光時間の関数として適合された修正テーブルにより前記検知器の不均一性を修正する手段と、
ii.複数の隣接するピクセルの重み付き総和を求める手段と、
iii.前記検知された画像のダイナミックレンジを、前記シーンの照明に伴い増大する前記検知器の時間的ノイズの関数として圧縮する手段および、前記検知された画像のダイナミックレンジを、前記画像の高空間周波数の復元および低空間周波数の補償により、前記表示手段および/または肉眼ダイナミックレンジに適合させる手段とを含むことを特徴とするビデオオプトロニクシステム。 - 前記センサの前記レンズが絞りを含み、前記絞りの開口の制御により、前記検知された画像のダイナミックレンジを前記シーンのダイナミックレンジに適合させる手段を含むことを特徴とする、請求項1に記載の超半球視が可能なビデオオプトロニクシステム。
- 焦点距離を画定する手段、および前記レンズの歪曲収差を、表示すべきシーンの区間の関数として、前記システムのユーザーのニーズの関数として、または前記処理装置により実行される自動処理動作の関数として修正する手段を含むことを特徴とする、請求項1〜2のいずれか1項に記載の超半球視が可能なビデオオプトロニクシステム。
- 前記処理装置が、前記検知器の露光時間、ゲイン、および画像レートを、環境条件の関数として制御する手段と、前記画像を前記システムまたは表示手段の動作の関数として安定させる手段と、前記シーンの新たに明らかにされた領域を検知する手段と、前記シーン内の事象または動作を検知して追跡する手段と、前記表示手段により表示された画像に他のインターフェース(50)から得られた情報を挿入する手段とを含むことを特徴とする、請求項1〜3のいずれか1項に記載の超半球視が可能なビデオオプトロニクシステム。
- 2または3個のセンサ(10)を含む、請求項1〜4のいずれか1項に記載の超半球視が可能なビデオオプトロニクシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1003654A FR2964818B1 (fr) | 2010-09-14 | 2010-09-14 | Systeme optronique a vision supra hemispherique |
FR10/03654 | 2010-09-14 | ||
PCT/EP2011/065721 WO2012034963A1 (fr) | 2010-09-14 | 2011-09-12 | Systeme optronique a vision supra hemispherique |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013542637A JP2013542637A (ja) | 2013-11-21 |
JP6132767B2 true JP6132767B2 (ja) | 2017-05-24 |
Family
ID=43769195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013528621A Active JP6132767B2 (ja) | 2010-09-14 | 2011-09-12 | 超半球視が可能なオプトロニクシステム |
Country Status (12)
Country | Link |
---|---|
US (1) | US9025004B2 (ja) |
EP (1) | EP2616864B1 (ja) |
JP (1) | JP6132767B2 (ja) |
CN (1) | CN103097935B (ja) |
CA (1) | CA2811231C (ja) |
DK (1) | DK2616864T3 (ja) |
ES (1) | ES2632550T3 (ja) |
FR (1) | FR2964818B1 (ja) |
HR (1) | HRP20170843T1 (ja) |
IL (1) | IL225141A (ja) |
PL (1) | PL2616864T3 (ja) |
WO (1) | WO2012034963A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9829715B2 (en) | 2012-01-23 | 2017-11-28 | Nvidia Corporation | Eyewear device for transmitting signal and communication method thereof |
JP6164846B2 (ja) * | 2012-03-01 | 2017-07-19 | キヤノン株式会社 | 撮像装置、撮像システム、撮像装置の駆動方法 |
USRE47984E1 (en) | 2012-07-02 | 2020-05-12 | Nvidia Corporation | Near-eye optical deconvolution displays |
US9841537B2 (en) | 2012-07-02 | 2017-12-12 | Nvidia Corporation | Near-eye microlens array displays |
US9557565B2 (en) * | 2012-07-02 | 2017-01-31 | Nvidia Corporation | Near-eye optical deconvolution displays |
US9494797B2 (en) | 2012-07-02 | 2016-11-15 | Nvidia Corporation | Near-eye parallax barrier displays |
US9582075B2 (en) | 2013-07-19 | 2017-02-28 | Nvidia Corporation | Gaze-tracking eye illumination from display |
US9880325B2 (en) | 2013-08-14 | 2018-01-30 | Nvidia Corporation | Hybrid optics for near-eye displays |
FR3017480B1 (fr) * | 2014-02-07 | 2017-09-08 | Thales Sa | Procede de detection et de classification d'evenements d'une scene |
FR3019279B1 (fr) | 2014-03-28 | 2018-06-22 | Safran Electronics & Defense | Tourelleau optronique arme |
DE102014222855B4 (de) * | 2014-11-10 | 2019-02-21 | Siemens Healthcare Gmbh | Optimierte Signalerfassung von quantenzählenden Detektoren |
DE102014226342B4 (de) * | 2014-12-18 | 2020-02-20 | Robert Bosch Gmbh | Wärmebildkamera |
CN105698848B (zh) * | 2015-12-14 | 2018-03-30 | 杭州九极科技有限公司 | 一种智能冰火监测机器人 |
RU2703967C1 (ru) * | 2019-05-06 | 2019-10-22 | Вячеслав Михайлович Смелков | Телевизионная камера цветного изображения для панорамного компьютерного сканирования |
RU2703965C1 (ru) * | 2019-05-06 | 2019-10-22 | Вячеслав Михайлович Смелков | Датчик видеосигнала основных цветов для панорамного телевизионно-компьютерного наблюдения цветного изображения |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5919483A (ja) * | 1982-07-24 | 1984-01-31 | Sankyo Seiki Mfg Co Ltd | 固体撮像素子の暗電流補償方法 |
US5023725A (en) * | 1989-10-23 | 1991-06-11 | Mccutchen David | Method and apparatus for dodecahedral imaging system |
FI97665C (fi) * | 1995-11-21 | 1997-01-27 | Planmed Oy | Menetelmät ja laitteet kohteen kuvantamisessa |
US6449103B1 (en) * | 1997-04-16 | 2002-09-10 | Jeffrey R. Charles | Solid catadioptric omnidirectional optical system having central coverage means which is associated with a camera, projector, medical instrument, or similar article |
FR2826221B1 (fr) | 2001-05-11 | 2003-12-05 | Immervision Internat Pte Ltd | Procede d'obtention et d'affichage d'une image panoramique numerique a resolution variable |
FR2827680B1 (fr) | 2001-07-20 | 2003-10-10 | Immervision Internat Pte Ltd | Procede de capture d'une image panoramique au moyen d'un capteur d'image de forme rectangulaire |
US7456879B2 (en) | 2003-08-29 | 2008-11-25 | Aptina Imaging Corporation | Digital correlated double sampling using dual analog path |
US7966642B2 (en) * | 2003-09-15 | 2011-06-21 | Nair Ajith N | Resource-adaptive management of video storage |
JP4283794B2 (ja) * | 2005-09-14 | 2009-06-24 | ディーエスオー株式会社 | 監視装置 |
JP2008134494A (ja) * | 2006-11-29 | 2008-06-12 | Topcon Corp | 超広角光学系、撮像レンズ装置 |
US7733397B2 (en) * | 2006-12-22 | 2010-06-08 | Palo Alto Research Center Incorporated | Sensor surface with 3D curvature formed by electronics on a continuous 2D flexible substrate |
JP4609428B2 (ja) * | 2006-12-27 | 2011-01-12 | ソニー株式会社 | 固体撮像装置、固体撮像装置の駆動方法および撮像装置 |
JP2009152881A (ja) * | 2007-12-20 | 2009-07-09 | Sony Corp | 画像信号処理回路、画像信号処理装置及び画像信号処理方法 |
JP5377035B2 (ja) * | 2008-05-27 | 2013-12-25 | キヤノン株式会社 | 画像形成装置 |
JP2010166528A (ja) * | 2009-01-19 | 2010-07-29 | Toshiba Corp | 固体撮像装置 |
-
2010
- 2010-09-14 FR FR1003654A patent/FR2964818B1/fr active Active
-
2011
- 2011-09-12 DK DK11754427.0T patent/DK2616864T3/en active
- 2011-09-12 WO PCT/EP2011/065721 patent/WO2012034963A1/fr active Application Filing
- 2011-09-12 EP EP11754427.0A patent/EP2616864B1/fr active Active
- 2011-09-12 CN CN201180044197.3A patent/CN103097935B/zh active Active
- 2011-09-12 CA CA2811231A patent/CA2811231C/en active Active
- 2011-09-12 PL PL11754427T patent/PL2616864T3/pl unknown
- 2011-09-12 ES ES11754427.0T patent/ES2632550T3/es active Active
- 2011-09-12 US US13/823,069 patent/US9025004B2/en active Active
- 2011-09-12 JP JP2013528621A patent/JP6132767B2/ja active Active
-
2013
- 2013-03-10 IL IL225141A patent/IL225141A/en active IP Right Grant
-
2017
- 2017-06-02 HR HRP20170843TT patent/HRP20170843T1/hr unknown
Also Published As
Publication number | Publication date |
---|---|
CN103097935A (zh) | 2013-05-08 |
US9025004B2 (en) | 2015-05-05 |
WO2012034963A1 (fr) | 2012-03-22 |
FR2964818B1 (fr) | 2012-09-28 |
DK2616864T3 (en) | 2017-07-31 |
FR2964818A1 (fr) | 2012-03-16 |
PL2616864T3 (pl) | 2017-08-31 |
EP2616864A1 (fr) | 2013-07-24 |
IL225141A (en) | 2016-12-29 |
CN103097935B (zh) | 2015-11-25 |
JP2013542637A (ja) | 2013-11-21 |
CA2811231A1 (en) | 2012-03-22 |
US20130176386A1 (en) | 2013-07-11 |
EP2616864B1 (fr) | 2017-04-19 |
CA2811231C (en) | 2018-10-23 |
ES2632550T3 (es) | 2017-09-14 |
RU2013116986A (ru) | 2014-10-20 |
HRP20170843T1 (hr) | 2017-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6132767B2 (ja) | 超半球視が可能なオプトロニクシステム | |
US8446509B2 (en) | Methods of creating a virtual window | |
US9270976B2 (en) | Multi-user stereoscopic 3-D panoramic vision system and method | |
US8339583B2 (en) | Visual detection of clear air turbulence | |
US20090195652A1 (en) | Interactive Virtual Window Vision System For Mobile Platforms | |
US20060268360A1 (en) | Methods of creating a virtual window | |
US20120229596A1 (en) | Panoramic Imaging and Display System With Intelligent Driver's Viewer | |
US5534697A (en) | Electro-optical sensor system for use in observing objects | |
US20140160235A1 (en) | System and method for monitoring at least one observation area | |
CN102665084A (zh) | 周围环境显示装置以及带有这种周围环境显示装置的交通工具和全景图像的显示方法 | |
RU2722771C1 (ru) | Оптико-электронное устройство наблюдения для наземного транспортного средства | |
CA2938227C (en) | Method for detecting and classifying events of a scene | |
US10397474B2 (en) | System and method for remote monitoring at least one observation area | |
CN102591014B (zh) | 一种全景视觉观察系统及其工作方法 | |
Larochelle et al. | Two generations of Canadian active imaging systems: ALBEDOS and ELVISS | |
RU2574324C2 (ru) | Оптико-электронная система, имеющая сверхполусферический обзор | |
RU2809472C1 (ru) | Мобильный тепловизионный комплекс | |
US20230039414A1 (en) | Synthetic georeferenced wide-field of view imaging system | |
McDaniel et al. | EO/IR sensors for border security applications | |
Schlemmer et al. | Near-field observation platform | |
Schwalm et al. | Design solutions for thermal imaging devices in military vehicles | |
PULPEA et al. | Study of electro-optic surveillance system to development of new obscurant smoke system for military vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140910 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150728 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20151028 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20151130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160607 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170321 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6132767 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |