Nothing Special   »   [go: up one dir, main page]

JP6132767B2 - 超半球視が可能なオプトロニクシステム - Google Patents

超半球視が可能なオプトロニクシステム Download PDF

Info

Publication number
JP6132767B2
JP6132767B2 JP2013528621A JP2013528621A JP6132767B2 JP 6132767 B2 JP6132767 B2 JP 6132767B2 JP 2013528621 A JP2013528621 A JP 2013528621A JP 2013528621 A JP2013528621 A JP 2013528621A JP 6132767 B2 JP6132767 B2 JP 6132767B2
Authority
JP
Japan
Prior art keywords
image
dynamic range
lens
function
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013528621A
Other languages
English (en)
Other versions
JP2013542637A (ja
Inventor
ミダヴァイン、ティエリ
Original Assignee
テールズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テールズ filed Critical テールズ
Publication of JP2013542637A publication Critical patent/JP2013542637A/ja
Application granted granted Critical
Publication of JP6132767B2 publication Critical patent/JP6132767B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Exposure Control For Cameras (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Secondary Cells (AREA)

Description

本発明の技術分野は、プラットフォーム(地上、海上または航空)、またはサイトの車両、車両の列を防護するための監視および偵察に関する。
上記監視または偵察は一般に、プラットフォームに搭乗している監視員または乗員により保証され、任意選択的に遠隔制御可能である。
上述の偵察任務を保証する既存の装置のうち、
−主に戦車の装甲、壁および防護手段を透視する、環状に配置されたエピスコープまたは潜望鏡、または
−2軸に関して向きを調整できるが、直ちにパノラマ全体をカバーすることはできない、可動台座に搭載されたPTZ(Pan、Tilt、Zoom(パン、チルト、ズーム)の略語)型カメラ、または
−ビデオストリームネットワークの管理が必要な、パノラマをカバーする分散された複数のカメラのネットワーク、または
−レンズの焦点に配置されて、全体で赤道面のシーンを例えば1〜10Hzのレートで360°走査する線形アレイ型センサを用いる装置が挙げられる。
これらのオプトロニク型手段が信号を配信し、当該信号は任意選択的に処理され、次いで画面に表示される。
これらの手段は、以下のいずれかの理由により極めて不充分である。
−多数の死角があり環境全体が完全に認識可能とならず、これは例えば市街地を移動中且つ各種方向に転回可能であって、各種方向からの脅威に晒されている車両にとって重要である。
−あるいは、検知すべき物体、事象、または脅威が識別できなければならない範囲に関して、それらの角度寸法の点で解像度が極めて不充分であるためである。これは必然的に以下を伴う。
・擲弾筒(またはRPG(Rocket Propelled Grenade(ロケット推進擲弾)の略語)を用いて威嚇しているか、または市街地の建物の屋上に潜んでいる狙撃手の最大150mの射程距離の認識、
・最大500mの半径内(市街地でこれを超えることは稀)で地上を移動している車両の認識(見通しの良い環境では1500mの距離での検知が可能)、
・地雷(またはIED(Improvised Explosive Device(簡易爆発物)の略語))等、地上に置かれた物体、すなわち移動時に回避を決断すべく検知可能でなければならない、数十メートル離して置かれた、寸法が数十cmまたは数mの物体の認識、
−あるいは、人間の能力に近い程度に知覚を代替する、すなわち車両の移動速度および乗員が行なうであろう対応の決断速度に関してリアルタイムで環境およびその変化を連続的に認識できるようになるにはリフレッシュレートが極めて不充分である。例えばCCDカメラに取り付けられたレンズの使用に依存し、1〜10Hzのレートで赤道面を360°走査し、約20度の角度高に制限された装置が存在する。これらの装置は、高精細度ビデオレート(HD25〜50Hz)と互換性を有する小さいマトリクス(2Mピクセル以下)、または2Mピクセル超であるがレートが(1〜10Hzのオーダーに)制限される大きいマトリクス、あるいは同様に走査周波数が1〜10Hz制限されて360°走査する線形アレイに依存している。
最後に、これら従来の手段は全て、可視または近赤外線領域において感度が高く、日中の動作に限定されるか、または脅威を識別するには不充分な熱赤外線型の夜間視能力を提供し、日中は可視または近赤外線カメラで得られる画像よりも使い勝手が悪い画像を配信するものである。
従って、今日まで、視野、解像度、監視の永続性、レートおよび日中/夜間視に関して、上述の要件の全てを同時に満たすシステムが依然として必要とされている。
より正確には、本発明の主題は、シーンの超半球視が可能なビデオオプトロニクシステムであって、超半球レンズおよび当該レンズの焦点面に配置されたマトリクス検知器アレイを備えたセンサと、取得された画像を処理する装置および処理された画像の表示手段とを含んでいる。当該システムは主に、
−当該マトリクス検知器はビデオレートを有すると共に、
i.各ピクセルが相関2重サンプリングを用いて電荷電圧変換を保証可能であるピクセルのL×Cアレイ、但しL、C>2000、および
ii.2C個の並列化されたアナログ/デジタル変換素子、すなわち各変換素子自体が、低レベル且つ大ゲインの出力を有する第1のADCおよび高レベル且つ低ゲインの出力を有する第2のADCを含むアナログ/デジタル変換素子を含むものであることを特徴とし、
−超半球レンズが仰角の関数として制御される焦点距離fを有し、当該焦点距離は赤道面において最も長く、f数すなわちf/Dが0.9〜1.6の範囲(Dはレンズの直径)であることを特徴とし、
−露光時間および/または信号に印加されるゲインの制御により、取得された画像のダイナミックレンジをシーンのダイナミックレンジに適合させる手段を特徴とし、
−当該処理装置が、
i.温度および検知器の露光時間の関数として適合されたコマンドテーブルにより検知器の不均一性を修正する手段と、
ii.複数の隣接するピクセルの重み付き総和を求める手段と、
iii.取得された画像のダイナミックレンジをシーンのダイナミックレンジに適合させる手段、検知された画像のダイナミックレンジを、シーンの照明に伴い増大する検知器の時間的ノイズの関数として圧縮する手段および、画像の高空間周波数の復元および低空間周波数の補償により、検知された画像のダイナミックレンジを表示画面および/または肉眼ダイナミックレンジに適合させる手段とを含むことを特徴とする。
本発明の特徴によれば、レンズの焦点距離を画定する手段、および観察されたシーンの区間の関数として歪曲収差を修正する手段を含んでいる。
センサは、潜在的脅威の規模および位置に適合された解像度と共に、半球またはより大きい適用範囲を保証する。マルチメガ・ピクセルセンサは、シーン内の光源の存在と互換性を有しながら、日中照明レベルから夜間照明レベルまで調整可能な感度レベルによりビデオレートまたはより速いレートで読み取ることができる。後者の態様は、都市部での使用に有利である。
センサおよびコンピュータ内に分散された処理機能の組により、ユーザーの任務に仕様が適合されたMMI(Machine Man Interfaces(マン−マシンインターフェース))の1つまたは複数の画面に画像を配信することが可能になる。
本発明の主題はまた、本明細書に記述する、超半球視が可能なビデオオプトロニクシステムを備えた移動可能プラットフォームである。
本発明はこのように、ユーザーがプラットフォーム内に留まったまま外に出る必要なしに自分の外部環境をリアルタイムで認識できるようにする。特に、本システムは戦場または危険な環境において乗員を防護するのに役立つ。実際、パノラマ内におけるこれらの脅威の距離および潜在的位置に関する角度寸法に解像度が適合されていて、ユーザーにビデオレートで完全リアルタイムの日中および夜間視を提供可能にする。
本発明の他の特徴および利点は、本発明による例示的なシステムを模式的に示す図1を参照しながら、非限定的な例に関する以下の詳細説明を精査すれば明らかになろう。
本発明による例示的なシステムの模式図である。
図1に示す本発明によるシステム100は、センサ10、コンピュータ20、ユーザー用の画像ディスプレイ装置等のMMIインターフェース30、およびユーザーによりシステムの特定の機能を制御する装置等のMMIインターフェース40を含んでいる。
更に、本システムは、移動速度、地図上での位置および方位(例えばGPSシステムにより配信された)の測定値、あるいは例えば兵士または他の味方の移動プラットフォームの位置を与える情報の受信等、プラットフォームまたはプラットフォームに一体化された他の設備50から発せられた情報を受信することができる。
本システムは、地上車両等のプラットフォーム上に搭載される。
センサ10は、レンズおよび検知器を含んでいる。
視野における解像度が可変な超大口径レンズは、軸が天頂を向いている半球よりも大きい角度領域をカバーする。レンズは更に、例えば赤道面において、カバー範囲を広げるべく、特定の角度領域で解像度が増大するように顕著な歪曲収差を示すことができる。
当該レンズには例えば以下の種類がある。
−焦点距離4.5mm、12ピクセル/°の魚眼レンズ。360°の視野をカバーするのに1または2個のレンズで充分である。
−焦点距離8mm、120°に対し21ピクセル/°の魚眼レンズ。360°の視野をカバーするのに3個のレンズが必要である。
−半径方向解像度が20〜22あるいはそれ以上のピクセル/°の範囲で仰角に応じて変化する半径方向解像度で360°の視野をカバーすることが可能になる(そのようなレンズ1個で充分である)極めて大きい歪曲収差を有する、またはPanomorph(商標)型レンズ。そのようなレンズの垂直方向の向きにより、仰角が減少するに従い増大し、負の仰角でより良好な接線解像度を得ることが可能になる。Panomorph(商標)レンズは、Immervision社が開発し、仏国特許第2826221号明細書および同第2827680号明細書に記述されている広角アナモルフィック対物レンズであって、歪曲収差を制御し、少なくとも360度×180度の視野をカバーする拡大された画像を生成する。検知器上に(ニーズに適合された)そのようなレンズにより形成された画像の幾何配置は、方位または赤道面において360°、仰角または子午面の220°の適用範囲を示す。
220°にわたる子午面の角度適用範囲は、車両への設置を最適化して、例えば車両が前進または転回可能な前方区画および3/4後方左側と右側にカバー範囲を広げるべく方位角の関数として異なっていてよい。この超半球レンズは、仰角の関数として画定される可変焦点距離fを示し、焦点距離は赤道面で最も長く、f数すなわちf/Dが0.9〜1.6の範囲、Dはレンズの直径である。
検知器は、日中および夜間に可視または近赤外線域においてビデオレート(25〜50Hz)以上で動作し、少なくとも5メガピクセルを含んでいる。例えば、2560行(L)×2160列(C)のピクセルを含んでいる。CMOS型の検知器は更に、読み取りおよび表示モード、並びに更に後述するように条件に適合された露光時間の管理が可能である。最後に、この種の検知器はデジタル信号を直接配信することができる。
焦点面に配置された検知器は典型的に、25Hzで動作する、低ノイズ(2電子未満)および大ダイナミックレンジ(80dB超)のCMOS4T(ピクセル内に4トランジスタ)以上のマトリクスである。各ピクセルは、相関する2重サンプリングを利用し、各ピクセル内で電荷電圧変換が実行され、これにより検知器が超低ノイズレベルおよび大きい瞬時ダイナミックレンジを有することが保証される。更に、例えば10μs未満の持続期間から40msの持続期間にわたる露光時間(または積分時間)の制御により日中および夜間動作することができる。夜間条件において、超低レベルで、復元された画像のSNR(信号対ノイズ比)を向上させるべく露光時間を例えば100msまで増やし、画像レートを例えば10Hzまで下げることが可能である。
検知器は近赤外線(650nm〜1μm)で動作するが、これは光子束および当該帯域のより大きいアルベドのコントラストを利用するために夜間視における可視領域にとって好適である。
マトリクスの各列には例えば2個の同一の並列化されたADCが関連付けられていて、一方は高光レベル且つ低ゲインの入力を有しているためピクセルの飽和レベル(例えば35000電子)の符号化が可能になり、他方は、(Nビットのダイナミックレンジにわたりノイズより低いかまたは1電子未満の量子化レベルで光電子を符号化する)ゲインにより、低光レベル且つ大ゲインの入力を有している。これら2個のゲインは任意選択的に制御可能である。これにより、各種の光レベルについて各列のピクセルの出力の損失なしに信号の符号化を保証することが可能になる。この瞬時ダイナミックレンジおよび検知器の出力のゲインのこのダイナミックスイングに加え、レートを10Hzまで下げることにより、露光時間を10μs〜40msの間で、または100mまでにさえ変化可能にさせる露光時間の制御可能なダイナミックスイングが存在する。露光時間のレベルの、および並列に出力している低ゲインおよび高ゲインレベルのこのリアルタイムコマンドは、これらのレベルを制御するMMI40、またはカメラ内のプロセッサにより保証される自動制御機能のいずれかにより得られる。操作者は、画面に復元された画像の明るさとコントラストを制御する2個のカーソルを介して、以下のように調整を行なう。
−マニュアルモードへ切り替わることにより、カメラは自動制御モードで生じた直近の設定を保持する。
−あるいは、カメラが10μsの最短露光時間および低ゲインに設定された「デフォルト」状態にカメラを初期化することを操作者が選択する。操作者が、画像の暗い領域で信号を識別できないことに気付いたならば、信号のオフセット制御を介して輝度調節をより高く設定する。画像の有用な明るい領域において信号が飽和しない場合、操作者はコントラスト制御をより高く設定する。このコントラスト制御は、40msの限界内でコントラストを上げることにより露光時間の制御に作用し、次いで使用するゲインに作用する。極めて高いゲイン(極めて弱い照明条件の場合)において、操作者が、画像の暗い領域で過剰なノイズに気付いた場合、引き続き40msを超えて露光時間を増やして、2×2、次いで4×4個の隣接ピクセルの総和(または「ビニング」)モードを命じることができる。好適には、この総和または「ビニング」は、各ピクセルのノイズレベルにより重み付けすることができる。操作者は必要に応じて、画像の暗い領域を画面の黒色のすぐ上のレベルに調整すべく明るさのレベルを再調整する。従って、毎秒25画像、すなわち画像のダイナミックレンジにおけるSNRを下げることなく、138Mピクセル/秒のオーダーの高いスループットで動作することができる。
システム100は以下の機能を保証する。
−センサ10内に組み込まれたFPGAまたはDSPにより実行されるかまたはコンピュータ20のレベルで実行される、検知器の不均一性のリアルタイム修正。これは少なくともオフセットを減算し、温度および検知器の露光時間の関数として適合された修正のテーブルによる暗電流を減算して、ピクセルの応答の不均一性の修正を保証する均一な輝度フィールドまたは平面フィールドによる除算を実行する。また、コンピュータは、復元された画像の大域的信号対ノイズ比を向上させるべく各ピクセルの応答の非線形性および各ピクセルの時間ノイズレベルの不均一性を考慮に入れることができる。
−自動的に、または操作者により手動で命じられて、レートを25〜100Hzの間で変化させるべく検知器を制御するカメラの電子機器により実行される画像レートの制御。そのようなモードは、日中条件下での移動に、または画像の流動性を増して待ち時間を短縮するためにより低い照明レベルがこれを許す場合に極めて有用である。
−例えば各ピクセルのノイズの逆数(1/ノイズ)で重み付けされた隣接ピクセルの信号Sを総和し、全体にノイズの総和を乗算することによる重み付き「ビニング」モード。この重み付き「ビニング」モードは、例えば2×2、3×3、または4×4ピクセルに対して実行できる。
−12ビットへの線形出力がシーンのダイナミックレンジおよびセンサのダイナミックレンジに不充分適当であるため、検知器の16ビットへの線形出力。2×11ビットのデジタル化は、センサのアナログ性能、および不均一性を修正する動作の細かさの限界である。当該ピクセルは、1電子未満のRMS(Root Mean Square(二乗平均平方根)の略語)ノイズレベルを有することができる。0.5電子のRMSノイズが、間隔当たり0.6電子で符号化されたデジタル信号について最もノイズが少ないピクセルにおいて測定され、より低いノイズレベルは疑いなく実現可能である。最も弱い信号は実際、完全な暗闇において0の信号、次いで1ピクセルに1光電子を伴う。従って、1電子未満の、または実際にRMSノイズレベルより低い符号化間隔は、信号処理にとってデジタル符号化が寄与するノイズを制限するのに役立つ。当該RMS量子化ノイズは、量子化間隔を√12で除算した値に等しい。ここで、当該量子化ノイズは、0.6√12=0.17に等しく、実際に0.5電子のRMSノイズに比べて小さい。ピクセルは、35000電子を超える飽和レベルを有していてよい。従って、65536レベルまたは16ビットに対する線形符号化が人々のニーズに合う。2個の異なる入力ゲインを有するより小さいダイナミックレンジの2個の変換器による符号化の方がよりよく適合している場合もある(2個のスロープによる符号化)。従って、11ビットに対する低ゲイン符号化は、17〜35000電子の範囲で17電子の間隔を置いた2048レベルにおいて高レベルを符号化する。高ゲイン符号化は、暗闇(例えば0.5電子)におけるノイズに適合された最低レベルから、低ゲインコンバータの最低レベルの二乗、すなわち最低292よりも高いレベルまでの符号化を行なう。実際、ポアソンの法則で記述される統計量に従うN個の光電子に等しい振幅の信号のRMSノイズは√Nに等しい振幅を有している。従って、この292レベル以降、RMSノイズは量子化間隔より小さくなる。従って、0からの1024電子の符号化は、高ゲイン出力に対して11ビット未満で0.5電子の符号化間隔で実行することができる。従って、高ゲインと低ゲイン出力とのゲインの比は35000/1024、すなわち34である。結果的に生じる最終的なノイズに対する量子化レベルの影響を制限しながら不均一性および非線形性を修正する算術演算を実行するため、且つより低いノイズレベルおよび潜在的に実現可能な、より高い飽和を実現する可能にするために、以前の解析に関して若干のマージンを有するように2×12ビットに対する変換が好適である。
−シーンのダイナミックレンジ全体にわたり異なる法則により修正された画像レベルを圧縮すべく不均一性および非線形性を修正する演算の後で出力端における信号を変換するテーブル(「参照テーブル」として知られる)の管理、例えば、いくつかのスロープへの応答、平方根応答、対数応答、ヒストグラム等化である。これにより、データスループットの損失を最小限に抑えながら、信号のダイナミックレンジを維持することが可能になる。
−自動化された設備またはマン−マシンインターフェース40により駆動された、関心対象領域の高速な読み取りおよび表示。これらの関心対象領域は、任務の関数としての各種の方法で画定され、動作は、車両の状態が移動中または静止位置のいずれであっても各人より実行される。例えば、部隊指揮官は潜在的脅威の区間を監視し、射撃手は自分の視界方向の区間をカバーする画像を使用することができ、車両運転手は移動中の車両前方にある前方区間(または後退中あるいは後面視機能が必要な場合は後方区間)をカバーする画像を使用することができる。車両が前進している場合、光流解析に基づく画像処理ソフトウェアが自動的に、シーンの新たに発見される区間を部隊指揮官に対して表示することができる。車両が静止している場合、画像処理ソフトウェアは、シーン内の事象(出現、消失、動作の検知)を自動的に検知し、乗員に向けた警報、車両の環境を表示する状況画面上に検知ブリップおよび光跡を生成し、操作者が脅威の有無を認識して対応できるように高速および全解像度で画像を生成する。最後に、車両または車両が存在するネットワークは、警報の発生および対象の指定が可能な他のセンサを備えていてよく、このために本システムが角度区間の画像を操作者に配信可能である。
センサ10およびコンピュータ20は以下の各種のリアルタイム処理機能を保証する。
−ノイズ源を処理して信号をそれらのより大きいダイナミックレンジで復元するための、検知器から生じた信号の低レベル処理。
−各画像素子またはピクセルにより実際にカバーされた仰角および方位角の関数として画像または副画像を画面30に配信するための、表示された画像の区間の関数としてレンズの焦点距離の定義を利用するアルゴリズム的手段により光学的組合せおよび検知器の歪曲収差を補償する処理。
−プラットフォームの基準フレームに従い表示画像に挿入する検知および警報の生成等、多岐にわたる機能を保証するための、プラットフォームの情報と整合する、且つ環境の関数としての画像の処理。
−検知された画像のダイナミックレンジを表示手段および/または肉眼ダイナミックレンジに適合させて、ユーザーの人間工学的および動作ニーズに合致するよう、これらの画面またはマン−マシンインターフェース30上に画像を復元する処理。従って本システムは例えば、ピーク照明、またはピクセルを飽和させる、画像内における点状または擬似点状の過剰照明を検知する。これらは例えば日中は太陽に、夜間は街灯およびビーコンに関連付けられる。これらの領域は、画像上では白で表示され、露光時間および上述のゲインの自動制御には寄与しない。更に、シーンのダイナミックレンジが極めて強い場合、例えば直射日光を受ける領域および陰となっている暗い領域が同時に存在する場合、画像の表示は、高空間周波数(画像の詳細)を復元し、例えばファジーマスク技術またはマルチゾーン正規化あるいはウェーブレット フィルタリングにより低周波数における輝度の変化を補償する。
システム100により実行されて、センサ10、コンピュータ20、およびMMI30、40の間で配信される処理動作は以下の通りである。
−センサのレンズは更に絞り、センサの絞り(存在する場合)の開閉制御、センサの温度制御、レンズの前面ジオプタの除霜および除氷、レンズを集光制御)を含む。
−露光時間の制御、
−検知器のゲインの制御、
−歪曲収差および車両動作の修正を伴う、画像の区間または関心対象領域における広角パノラマ画像の表示、レーダー、拡大鏡種類の管理。露光時間、検知器のゲイン、ディスプレイの上述の制御は例えば連続的に実行される。既定値として、例えばセンサの絞りは閉じていて、露光時間およびゲインは最小である。次いで画像のヒストグラムが作成され、本例では黒い画像である。次に、絞りが開かれ、最低レベルから最高レベルまで広がっていることを確認しながら得られた画像のヒストグラムが作成される。次に、絞りが開いた状態で、露光時間が増やされる。露光時間が充分でない(すなわち、ヒストグラムの充分に広がっていない)場合、露光時間および任意選択的にゲインが更に増やされる。逆に、完全に飽和した白い画像からを出発することが可能である。上で示したように、絞りをなくして露光時間およびゲインを調整することも可能である。信号を減衰および/またはスペクトル帯域を制限すべくレンズに適用されたフィルタを使用することも可能である。
また、システム100により実行され、センサ10、コンピュータ20、およびMMI30、40の間で分散された以下の処理動作を挙げることもできる。
−コンテキスト データ(北、速度ベクトルの方向、マッピング、味方の位置、脅威の領域等)の画像への挿入。
−警報を生成し、復元された画像に挿入するための、(シーンから生じた)画像内の事象、動き、新規物の自動検知。
−車両の歪曲収差および動作の修正を伴うウィンドウ化された画像の表示。
−ヘルメットに装着されて、車両に装着された地上基準フレーム内でのユーザーの頭部の向きの制御により制御される、視準されたマイクロ表示ゴーグルによる透過的な装甲機能の実装。
−地上で取得された画像の組の地形基準フレーム(または地上パノラマの3次元表示)内で、地形または車両基準フレーム内でこれらの画像の移動および復元を行なう間、モザイク形式での表示を行なう機能。
−例えば車両指揮官が、運転手に向かうべき方向を指示し、または射撃手に当人の視認手段で監視すべき領域を指示できるようにするための、各ユーザーから得られた画像および挿入情報の他の乗員への配信。
−移動中における、画像内の光流の不連続性を検知する自動処理による、または操作者がキーボードまたはジョイスティックを用いた、画像内の新たに確認された領域の切り取り。
−対象指定情報の例えば兵器システムへの送信。
センサ10が車両に固定された状態で、コンピュータ20は好適には以下を実行する手段を備えている。
−慣性基準に基づき、または画像の大域的動作を検知した際に画像安定化を行なうソフトウェアによる、吊り下げ式慣性基準フレーム(車両に搭載された画面)内の、または倍率>1でズームされた画像の安定化。
−車両に固定された倍率1の視準された画面(車両と同一基準フレーム)に画像を表示するために限られた遅延での直接出力。
−センサと視準された画面との間の相対動作(タレット動作、プローブプラットフォーム等)を補償し、画像の取得と表示の間の遅延を処理する出力。
−頭部に装着されてキャビン内の基準点を見ているか、またはキャビンに搭載されている「頭部トラッカ」装置による、あるいは頭部に装着された慣性センサによる、車両に搭載された慣性センサによる、および両者の間で異なる計算によるプラットフォームに対するユーザーの頭部の相対的な動作に補償する出力。
これにより、移動中に取得された地上の画像の組を集約することが可能になり、足元または車両の下を含む地上または車道の視認が可能になって、全体的な視認能力を提供する。
更に、移動中に、画像内の光流の不連続性の測定により、確認済み領域を検知して、新たな脅威を確認すべき監視対象フィールドに乗員の注意を向けることが可能になる。
画像ディスプレイ手段はシステム固有であるか、または利用可能な画像を復元する動作の処理への適合が実行される既存の表示手段を用いる。これらの画像表示手段は、任意選択的に触覚方式のフラット画面(またはマルチフラット画面)、視準画面、あるいは頭部に固定またはヘルメットに装着されたマイクロ視準画面であってよい。これらはエピスコープまたは戦車指揮官カメラ復元手段等の既存の監視システムと一体化されていてよい。これらの画面および表示画像は、各車両およびその乗員の任務に関する特定のニーズを満たす。
本発明によるシステムは、プラットフォームのマスキングにおいて潜在的な問題を管理すべく、または立体視能力を提供すべく2または3個のセンサを含んでいてよい。
本発明によるシステムは、装甲車両の乗員に対し日中および夜間のパノラマ視をリアルタイムで提供する。本システムは、環境を認識するための、および潜在的脅威から乗員を防護するための多様なニーズを満たす。本システムにより
−最大150mの距離にある、高さ25mの建物の上にいる狙撃手、
−500m離れた戦車、
−20m離れて地上に置かれた30cmの物体(地雷、IED)
の認識が可能になる。
これにより、
−乗員の防護を保証し、
−関係者の協力を支え、
−戦術的情報を取得することが優先される。
本システムは、人間を補助する機器を構成し、以下の機能を保証する。
−移動中の撮像、
−静止中の自動偵察、動きを検知した際に警報を生成する、またはより好適には脅威を分類する自動処理、
―任務の記録および報告、
―TIS(Tactical Information System(戦術情報システム))から得られた状況の拡張現実感への挿入。実際、車両はデジタル化された戦場の情報を共有するネットワーク内に存在する。この点で、当該車両は地理位置情報を受信してネットワークに配信する。これにより味方の位置および例えばネットワークから得られた脅威の位置等、大量の情報を人々のシステムにより復元されたパノラマ画像に挿入することができる。
−非リアルタイムまたはリアルタイム画像サーバ。
本発明によるシステムの利点は以下の通りである。
−日中および夜間視
−狙撃手、車両、地雷等、多様な脅威からの防護
−最大500mの車両認識範囲
−5.5Mピクセルのモノラル検知器システム
−リアルタイム超半球視
−高さに適合された解像度を有するパノラマレンズ
−プラットフォームとの一体化が容易
−低コスト
−使い勝手の良いMMI
−回転素子が無いため、こちらが監視している場所を察知されない「ステルス型」静的センサ
−処理動作:LLL(Low−Light Level(低光レベル)の略語)、自動検知、プラットフォーム動作の管理、前方移動に伴い明らかにされた領域の位置特定。

Claims (5)

  1. シーンの超半球視が可能なビデオオプトロニクシステム(100)であって、超半球レンズ、および前記レンズの焦点面に配置されたマトリクス検知器アレイを備えたセンサ(10)と、検知された画像を処理する処理装置(20)と、処理された画像の表示手段(30)とを含み、
    −前記マトリクス検知器がビデオレートを有すると共に、
    i.各ピクセルが相関2重サンプリングを用いて電荷電圧変換を保証可能であるL×C個のピクセル、但しL、C>2000、および
    ii.2C個の並列化されたアナログ/デジタル変換素子(またはADC群)、すなわち各変換素子自体が、低レベル且つ大ゲインの出力を有する第1のADCおよび高レベル且つ低ゲインの出力を有する第2のADCを含むアナログ/デジタル変換素子を含むものであることを特徴とし、
    −前記超半球レンズが仰角の関数として制御される焦点距離fを有し、前記焦点距離が赤道面において最も長く、開口数f/Dが0.9〜1.6の範囲(Dはレンズの直径)であることを特徴とし、
    −露光時間および/または信号に印加されるゲインの制御により、前記検知された画像のダイナミックレンジを前記シーンのダイナミックレンジに適合させる手段を特徴とし、
    −前記処理装置が、
    i.温度および検知器の露光時間の関数として適合された修正テーブルにより前記検知器の不均一性を修正する手段と、
    ii.複数の隣接するピクセルの重み付き総和を求める手段と、
    iii.前記検知された画像のダイナミックレンジを、前記シーンの照明に伴い増大する前記検知器の時間的ノイズの関数として圧縮する手段および、前記検知された画像のダイナミックレンジを、前記画像の高空間周波数の復元および低空間周波数の補償により、前記表示手段および/または肉眼ダイナミックレンジに適合させる手段とを含むことを特徴とするビデオオプトロニクシステム。
  2. 前記センサの前記レンズが絞りを含み、前記絞りの開口の制御により、前記検知された画像のダイナミックレンジを前記シーンのダイナミックレンジに適合させる手段を含むことを特徴とする、請求項1に記載の超半球視が可能なビデオオプトロニクシステム。
  3. 焦点距離を画定する手段、および前記レンズの歪曲収差を、表示すべきシーンの区間の関数として、前記システムのユーザーのニーズの関数として、または前記処理装置により実行される自動処理動作の関数として修正する手段を含むことを特徴とする、請求項1〜2のいずれか1項に記載の超半球視が可能なビデオオプトロニクシステム。
  4. 前記処理装置が、前記検知器の露光時間、ゲイン、および画像レートを、環境条件の関数として制御する手段と、前記画像を前記システムまたは表示手段の動作の関数として安定させる手段と、前記シーンの新たに明らかにされた領域を検知する手段と、前記シーン内の事象または動作を検知して追跡する手段と、前記表示手段により表示された画像に他のインターフェース(50)から得られた情報を挿入する手段とを含むことを特徴とする、請求項1〜3のいずれか1項に記載の超半球視が可能なビデオオプトロニクシステム。
  5. 2または3個のセンサ(10)を含む、請求項1〜4のいずれか1項に記載の超半球視が可能なビデオオプトロニクシステム。
JP2013528621A 2010-09-14 2011-09-12 超半球視が可能なオプトロニクシステム Active JP6132767B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1003654A FR2964818B1 (fr) 2010-09-14 2010-09-14 Systeme optronique a vision supra hemispherique
FR10/03654 2010-09-14
PCT/EP2011/065721 WO2012034963A1 (fr) 2010-09-14 2011-09-12 Systeme optronique a vision supra hemispherique

Publications (2)

Publication Number Publication Date
JP2013542637A JP2013542637A (ja) 2013-11-21
JP6132767B2 true JP6132767B2 (ja) 2017-05-24

Family

ID=43769195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013528621A Active JP6132767B2 (ja) 2010-09-14 2011-09-12 超半球視が可能なオプトロニクシステム

Country Status (12)

Country Link
US (1) US9025004B2 (ja)
EP (1) EP2616864B1 (ja)
JP (1) JP6132767B2 (ja)
CN (1) CN103097935B (ja)
CA (1) CA2811231C (ja)
DK (1) DK2616864T3 (ja)
ES (1) ES2632550T3 (ja)
FR (1) FR2964818B1 (ja)
HR (1) HRP20170843T1 (ja)
IL (1) IL225141A (ja)
PL (1) PL2616864T3 (ja)
WO (1) WO2012034963A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9829715B2 (en) 2012-01-23 2017-11-28 Nvidia Corporation Eyewear device for transmitting signal and communication method thereof
JP6164846B2 (ja) * 2012-03-01 2017-07-19 キヤノン株式会社 撮像装置、撮像システム、撮像装置の駆動方法
USRE47984E1 (en) 2012-07-02 2020-05-12 Nvidia Corporation Near-eye optical deconvolution displays
US9841537B2 (en) 2012-07-02 2017-12-12 Nvidia Corporation Near-eye microlens array displays
US9557565B2 (en) * 2012-07-02 2017-01-31 Nvidia Corporation Near-eye optical deconvolution displays
US9494797B2 (en) 2012-07-02 2016-11-15 Nvidia Corporation Near-eye parallax barrier displays
US9582075B2 (en) 2013-07-19 2017-02-28 Nvidia Corporation Gaze-tracking eye illumination from display
US9880325B2 (en) 2013-08-14 2018-01-30 Nvidia Corporation Hybrid optics for near-eye displays
FR3017480B1 (fr) * 2014-02-07 2017-09-08 Thales Sa Procede de detection et de classification d'evenements d'une scene
FR3019279B1 (fr) 2014-03-28 2018-06-22 Safran Electronics & Defense Tourelleau optronique arme
DE102014222855B4 (de) * 2014-11-10 2019-02-21 Siemens Healthcare Gmbh Optimierte Signalerfassung von quantenzählenden Detektoren
DE102014226342B4 (de) * 2014-12-18 2020-02-20 Robert Bosch Gmbh Wärmebildkamera
CN105698848B (zh) * 2015-12-14 2018-03-30 杭州九极科技有限公司 一种智能冰火监测机器人
RU2703967C1 (ru) * 2019-05-06 2019-10-22 Вячеслав Михайлович Смелков Телевизионная камера цветного изображения для панорамного компьютерного сканирования
RU2703965C1 (ru) * 2019-05-06 2019-10-22 Вячеслав Михайлович Смелков Датчик видеосигнала основных цветов для панорамного телевизионно-компьютерного наблюдения цветного изображения

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5919483A (ja) * 1982-07-24 1984-01-31 Sankyo Seiki Mfg Co Ltd 固体撮像素子の暗電流補償方法
US5023725A (en) * 1989-10-23 1991-06-11 Mccutchen David Method and apparatus for dodecahedral imaging system
FI97665C (fi) * 1995-11-21 1997-01-27 Planmed Oy Menetelmät ja laitteet kohteen kuvantamisessa
US6449103B1 (en) * 1997-04-16 2002-09-10 Jeffrey R. Charles Solid catadioptric omnidirectional optical system having central coverage means which is associated with a camera, projector, medical instrument, or similar article
FR2826221B1 (fr) 2001-05-11 2003-12-05 Immervision Internat Pte Ltd Procede d'obtention et d'affichage d'une image panoramique numerique a resolution variable
FR2827680B1 (fr) 2001-07-20 2003-10-10 Immervision Internat Pte Ltd Procede de capture d'une image panoramique au moyen d'un capteur d'image de forme rectangulaire
US7456879B2 (en) 2003-08-29 2008-11-25 Aptina Imaging Corporation Digital correlated double sampling using dual analog path
US7966642B2 (en) * 2003-09-15 2011-06-21 Nair Ajith N Resource-adaptive management of video storage
JP4283794B2 (ja) * 2005-09-14 2009-06-24 ディーエスオー株式会社 監視装置
JP2008134494A (ja) * 2006-11-29 2008-06-12 Topcon Corp 超広角光学系、撮像レンズ装置
US7733397B2 (en) * 2006-12-22 2010-06-08 Palo Alto Research Center Incorporated Sensor surface with 3D curvature formed by electronics on a continuous 2D flexible substrate
JP4609428B2 (ja) * 2006-12-27 2011-01-12 ソニー株式会社 固体撮像装置、固体撮像装置の駆動方法および撮像装置
JP2009152881A (ja) * 2007-12-20 2009-07-09 Sony Corp 画像信号処理回路、画像信号処理装置及び画像信号処理方法
JP5377035B2 (ja) * 2008-05-27 2013-12-25 キヤノン株式会社 画像形成装置
JP2010166528A (ja) * 2009-01-19 2010-07-29 Toshiba Corp 固体撮像装置

Also Published As

Publication number Publication date
CN103097935A (zh) 2013-05-08
US9025004B2 (en) 2015-05-05
WO2012034963A1 (fr) 2012-03-22
FR2964818B1 (fr) 2012-09-28
DK2616864T3 (en) 2017-07-31
FR2964818A1 (fr) 2012-03-16
PL2616864T3 (pl) 2017-08-31
EP2616864A1 (fr) 2013-07-24
IL225141A (en) 2016-12-29
CN103097935B (zh) 2015-11-25
JP2013542637A (ja) 2013-11-21
CA2811231A1 (en) 2012-03-22
US20130176386A1 (en) 2013-07-11
EP2616864B1 (fr) 2017-04-19
CA2811231C (en) 2018-10-23
ES2632550T3 (es) 2017-09-14
RU2013116986A (ru) 2014-10-20
HRP20170843T1 (hr) 2017-08-25

Similar Documents

Publication Publication Date Title
JP6132767B2 (ja) 超半球視が可能なオプトロニクシステム
US8446509B2 (en) Methods of creating a virtual window
US9270976B2 (en) Multi-user stereoscopic 3-D panoramic vision system and method
US8339583B2 (en) Visual detection of clear air turbulence
US20090195652A1 (en) Interactive Virtual Window Vision System For Mobile Platforms
US20060268360A1 (en) Methods of creating a virtual window
US20120229596A1 (en) Panoramic Imaging and Display System With Intelligent Driver's Viewer
US5534697A (en) Electro-optical sensor system for use in observing objects
US20140160235A1 (en) System and method for monitoring at least one observation area
CN102665084A (zh) 周围环境显示装置以及带有这种周围环境显示装置的交通工具和全景图像的显示方法
RU2722771C1 (ru) Оптико-электронное устройство наблюдения для наземного транспортного средства
CA2938227C (en) Method for detecting and classifying events of a scene
US10397474B2 (en) System and method for remote monitoring at least one observation area
CN102591014B (zh) 一种全景视觉观察系统及其工作方法
Larochelle et al. Two generations of Canadian active imaging systems: ALBEDOS and ELVISS
RU2574324C2 (ru) Оптико-электронная система, имеющая сверхполусферический обзор
RU2809472C1 (ru) Мобильный тепловизионный комплекс
US20230039414A1 (en) Synthetic georeferenced wide-field of view imaging system
McDaniel et al. EO/IR sensors for border security applications
Schlemmer et al. Near-field observation platform
Schwalm et al. Design solutions for thermal imaging devices in military vehicles
PULPEA et al. Study of electro-optic surveillance system to development of new obscurant smoke system for military vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151028

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170418

R150 Certificate of patent or registration of utility model

Ref document number: 6132767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250