JPH10142490A - Environment recognition device and camera - Google Patents
Environment recognition device and cameraInfo
- Publication number
- JPH10142490A JPH10142490A JP8318566A JP31856696A JPH10142490A JP H10142490 A JPH10142490 A JP H10142490A JP 8318566 A JP8318566 A JP 8318566A JP 31856696 A JP31856696 A JP 31856696A JP H10142490 A JPH10142490 A JP H10142490A
- Authority
- JP
- Japan
- Prior art keywords
- value
- distance
- environment recognition
- frequency distribution
- distribution information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 59
- 238000012545 processing Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 13
- DETVQFQGSVEQBH-PMACEKPBSA-N (2s)-2-amino-3-[1-[1-[3-[(2s)-2-amino-2-carboxyethyl]indol-1-yl]ethyl]indol-3-yl]propanoic acid Chemical compound C1=C(C[C@H](N)C(O)=O)C2=CC=CC=C2N1C(C)N1C2=CC=CC=C2C(C[C@H](N)C(O)=O)=C1 DETVQFQGSVEQBH-PMACEKPBSA-N 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 34
- 238000004364 calculation method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 230000002411 adverse Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005375 photometry Methods 0.000 description 3
- 102100033350 ATP-dependent translocase ABCB1 Human genes 0.000 description 2
- 108010047230 Member 1 Subfamily B ATP Binding Cassette Transporter Proteins 0.000 description 2
- 108010087367 P-glycoprotein 2 Proteins 0.000 description 2
- 102100039032 Phosphatidylcholine translocator ABCB4 Human genes 0.000 description 2
- 238000007664 blowing Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000004804 winding Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 101000721712 Homo sapiens NTF2-related export protein 1 Proteins 0.000 description 1
- 101000844521 Homo sapiens Transient receptor potential cation channel subfamily M member 5 Proteins 0.000 description 1
- 101000878457 Macrocallista nimbosa FMRFamide Proteins 0.000 description 1
- 102100025055 NTF2-related export protein 1 Human genes 0.000 description 1
- 102100031215 Transient receptor potential cation channel subfamily M member 5 Human genes 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 101150013335 img1 gene Proteins 0.000 description 1
- 101150071665 img2 gene Proteins 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000009021 linear effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、外界の距離分布情
報に基づいて画面を個々の物体毎に切り分けるが如く領
域分割し、各領域を評価することにより環境認識を行う
環境認識装置及び該環境認識装置を具備したカメラの改
良に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an environment recognizing apparatus and an environment recognizing apparatus for recognizing an environment by dividing a screen into individual objects based on distance distribution information of the outside world and evaluating each area. The present invention relates to improvement of a camera provided with a recognition device.
【0002】[0002]
【従来の技術】複数の方向に存在する物体までの距離を
光学的に測定する技術として、本願出願人による特公平
4−67607号が開示されている。この技術によれ
ば、被写界に存在する物体の距離分布情報が得られ、そ
の分布情報から被写界の物体配置状況を認識することが
可能である。2. Description of the Related Art Japanese Patent Publication No. 4-67607 by the present applicant discloses a technique for optically measuring the distance to an object existing in a plurality of directions. According to this technique, distance distribution information of an object existing in a scene can be obtained, and it is possible to recognize an object arrangement state of the scene from the distribution information.
【0003】従来行われていた典型的な環境認識方法に
ついて、以下に説明する。[0003] A typical environment recognition method which has been conventionally performed will be described below.
【0004】図21(a)に示した様なシーンをCCD
等を用いたステレオカメラなどで撮影する。そして、該
ステレオカメラで得られる、互いに視差を持った2つの
画像をそれぞれ「m×n」個のブロックに分割し、一方
のカメラで撮影した画像のあるブロック内の信号と他方
のカメラで撮影した対応するブロック内の信号の間で公
知の相関演算を行うと、三角測量の原理により、前ブロ
ック内の物体までの距離やデフォーカスを測定すること
ができる。この測定をすべてのブロックに対して行うこ
とにより、図21(b)の様な「m×n」ブロックから
成る距離分布情報が得られる。A scene such as that shown in FIG.
Shoot with a stereo camera using Then, the two images having parallax obtained by the stereo camera are each divided into “m × n” blocks, and a signal in a certain block of an image captured by one camera and a signal captured by the other camera are used. When a known correlation operation is performed between the signals in the corresponding block, the distance to the object in the previous block and the defocus can be measured by the principle of triangulation. By performing this measurement for all blocks, distance distribution information composed of “m × n” blocks as shown in FIG. 21B is obtained.
【0005】次に、被写界を構成する各物体を画面上で
分離するために領域分割(グルーピング)を行う。この
グルーピングが行われると、前述の「m×n」ブロック
からなる被写界空間は、図21(c)の様に物体毎に領
域分割される(図中の斜線部分は像信号のコントラスト
不足などで、相関演算結果の信頼性が低いと判断された
領域である)。[0005] Next, region division (grouping) is performed to separate each object constituting the scene on the screen. When this grouping is performed, the object space composed of the aforementioned “m × n” blocks is divided into regions for each object as shown in FIG. 21C (the hatched portions in FIG. 21 indicate insufficient contrast of the image signal). In this case, it is determined that the reliability of the correlation operation result is low.
【0006】領域分割(グルーピング)の手法として、
被写界空間を構成するブロックとこれに隣接するブロッ
クに関する二つのパラメータの類似度を比較して、類似
度が高ければ同一物体、類似度が低ければ別の物体と判
断する方法が存在する。前記パラメータとして用いられ
る情報は、緻密な距離分布データが得られる場合には面
の法線ベクトルであることが多く、本従来例のように比
較的荒い距離分布データの場合には単純に距離値やデフ
ォーカス値などが用いられる。As a method of area division (grouping),
There is a method of comparing the similarity between two parameters relating to a block constituting the object space and a block adjacent thereto, and determining that the similar object is the same if the similarity is high and another object if the similarity is low. The information used as the parameter is often a surface normal vector when dense distance distribution data is obtained, and is simply a distance value when the distance distribution data is relatively rough as in the conventional example. And a defocus value.
【0007】例えば、図21(b)の各ブロックの距離
情報に対して、隣接する左右の二つのブロックの距離情
報を比較してこの距離の差が所定値以内であれば「二つ
のブロックを構成する物体は同一物体を形成する」と判
断し、また距離の差が所定値より大きければ「二つのブ
ロックを構成する物体は別物体である」と判断する。す
べてのブロックとその隣接関係にあるブロックとの間
で、前述の判断を行うことで、画面全体を物体毎に領域
分けすることができ、分割された各領域は一つの物体を
表すグループとして扱うことができる。For example, the distance information of each block shown in FIG. 21B is compared with the distance information of two adjacent blocks on the right and left. It is determined that the constituent objects form the same object. "If the distance difference is greater than a predetermined value, it is determined that the objects forming the two blocks are different objects. By performing the above-described determination between all blocks and blocks adjacent to each other, the entire screen can be divided into regions for each object, and each divided region is treated as a group representing one object be able to.
【0008】このように画面内を物体毎に領域分割して
環境を認識する技術は、例えば自らの進行方向を決定す
る自動走行ロボットや、前後の障害物を判断して自動的
に危険回避を行う車に利用可能である。As described above, the technique of recognizing the environment by dividing the screen into regions for each object includes, for example, an automatic traveling robot that determines its own traveling direction, and automatically avoids danger by judging obstacles before and after. Available to do cars.
【0009】さらに、各領域を評価して画面内の主要物
体を検出することにより主被写体を自動認識し、該主被
写体に焦点を合せるカメラや、主被写体のみを測光して
逆光状況下に於ても主被写体に適正に露出を合せること
が可能なカメラ、または室内で人物が存在する方向を判
断して適切に送風制御するエアコンなど、幅広い技術分
野で利用可能である。Further, the main subject is automatically recognized by evaluating each area and detecting a main object in the screen, and a camera that focuses on the main subject, or a photometer of only the main subject, which is measured under a backlight condition. However, it can be used in a wide range of technical fields, such as a camera that can properly adjust the exposure to the main subject, and an air conditioner that determines the direction in which a person is present in a room and appropriately controls air blowing.
【0010】[0010]
【発明が解決しようとする課題】従来は、比較的荒い距
離分布情報に基づき領域分割を行う場合、隣接する二つ
の領域の距離(あるいはデフォーカス量)などの差が所
定値以下かどうかで、二つのブロックが同一物体である
かどうかを判定していたのは前述の通りである。しか
し、このような方法では正確な領域分割を行うことがで
きない場合があった。Conventionally, when region division is performed based on relatively rough distance distribution information, it is determined whether a difference in distance (or defocus amount) between two adjacent regions is equal to or less than a predetermined value. As described above, it is determined whether the two blocks are the same object. However, there are cases where accurate region division cannot be performed by such a method.
【0011】例えば、二人の人間が体の一部が重なるよ
うに前後に並んでいる場合、たとえ二人の平均的な距離
差が前記の所定値以上存在する場合でも、体のごく一部
が接しているだけで、この部分の距離差が前述の所定値
以下になる場合があり、二つの物体を一つの領域として
まとめてしまう場合があった。[0011] For example, when two humans are arranged back and forth so that a part of the body overlaps, even if the average distance difference between the two persons is equal to or more than the predetermined value, only a part of the body is Just in contact with each other, the distance difference in this portion may be equal to or less than the above-described predetermined value, and the two objects may be combined as one region.
【0012】また、相関演算により距離を求めているの
で、同一演算ブロック内に遠近二つの物体像が映り込ん
でいる場合、二つの物体の間の距離が導出されることが
ある(必ずしも中間ではなく、どの距離になるかは像信
号のパターンに依存する)。このような「遠近競合」と
呼ばれる状態が生じた場合、二つの物体の距離差が前記
所定値以上であっても、境界の一部に中間的な距離値が
算出され、結果的に二つの物体を一つの物体としてまと
めて領域分けしてしまうことがあった。In addition, since the distance is obtained by the correlation operation, when two object images are reflected in the same operation block, the distance between the two objects may be derived. The distance depends on the pattern of the image signal). When such a state referred to as “perspective conflict” occurs, even if the distance difference between the two objects is equal to or greater than the predetermined value, an intermediate distance value is calculated in a part of the boundary, and as a result, the two In some cases, objects are grouped into one object and divided into regions.
【0013】以上のように従来の方法では、被写界の物
体配置を正確に認識できないことがあるため、主要物体
の認識を誤り、例えば、カメラの場合では焦点調節量の
算出や露光量の算出を正確に行えないことがあった。As described above, in the conventional method, there is a case where the object arrangement in the object scene cannot be accurately recognized. Therefore, the recognition of the main object is erroneous. For example, in the case of a camera, the calculation of the focus adjustment amount and the exposure amount In some cases, calculations could not be performed accurately.
【0014】(発明の目的)本発明の第1の目的は、距
離の頻度分布情報を領域分割に利用することにより、距
離差が少ない物体が存在する状況に於ても、正確な環境
認識を行える環境認識装置を提供することにある。(Object of the Invention) A first object of the present invention is to use the frequency distribution information of distances for area division, thereby enabling accurate environment recognition even in a situation where an object having a small distance difference exists. It is an object of the present invention to provide an environment recognition device that can perform the operation.
【0015】本発明の第2の目的は、距離の頻度分布情
報の極大値を検出し、極大値の前後に境界値を設定する
ことにより、正確な環境認識を行える環境認識装置を提
供することにある。A second object of the present invention is to provide an environment recognizing apparatus capable of detecting a maximum value of distance frequency distribution information and setting a boundary value before and after the maximum value, thereby enabling accurate environment recognition. It is in.
【0016】本発明の第3の目的は、距離の頻度分布情
報の極値の尖鋭度を評価し、所定の尖鋭度を有する極値
の情報のみを領域分割に利用することにより、さらに正
確な環境認識を行える環境認識装置を提供することにあ
る。A third object of the present invention is to evaluate the sharpness of the extreme value of the frequency distribution information of the distance, and to use only the information of the extreme value having a predetermined sharpness for the area division, thereby obtaining a more accurate value. An object of the present invention is to provide an environment recognition device capable of performing environment recognition.
【0017】本発明の第4の目的は、距離の頻度分布情
報の極小値を領域分割に利用することにより、さらに正
確な環境認識を行える環境認識装置を提供することにあ
る。A fourth object of the present invention is to provide an environment recognizing apparatus capable of performing more accurate environment recognition by using the minimum value of distance frequency distribution information for area division.
【0018】本発明の第5の目的は、デフォーカスの頻
度分布情報を領域分割に利用することにより、正確な環
境認識を行える環境認識装置を提供することにある。A fifth object of the present invention is to provide an environment recognizing apparatus capable of performing accurate environment recognition by using frequency distribution information of defocus for area division.
【0019】本発明の第6の目的は、デフォーカスの頻
度分布情報の極大値を検出し、極大値の前後に境界値を
設定することにより、さらに正確な環境認識を行える環
境認識装置を提供することにある。A sixth object of the present invention is to provide an environment recognizing apparatus capable of detecting a local maximum value of the defocus frequency distribution information and setting a boundary value before and after the local maximum value, thereby enabling more accurate environmental recognition. Is to do.
【0020】本発明の第7の目的は、デフォーカスの頻
度分布情報の極値の尖鋭度を評価し、所定の尖鋭度を有
する極値の情報のみを領域分割に利用することにより、
さらに正確な環境認識を行える環境認識装置を提供する
ことにある。A seventh object of the present invention is to evaluate the sharpness of the extreme value of the frequency distribution information of defocus, and to use only the information of the extreme value having a predetermined sharpness for region division.
It is another object of the present invention to provide an environment recognition device capable of performing accurate environment recognition.
【0021】本発明の第8の目的は、デフォーカスの頻
度分布情報の極小値を領域分割に利用することにより、
さらに正確な環境認識を行える環境認識装置を提供する
ことにある。An eighth object of the present invention is to utilize the minimum value of the defocus frequency distribution information for area division,
It is another object of the present invention to provide an environment recognition device capable of performing accurate environment recognition.
【0022】本発明の第9の目的は、環境認識装置によ
り得られる環境認識結果から主被写体領域を検出し、主
被写体領域の検出結果に基づき適切な撮影パラメータを
設定することのできるカメラを提供することにある。A ninth object of the present invention is to provide a camera capable of detecting a main subject region from an environment recognition result obtained by an environment recognition device and setting appropriate photographing parameters based on the main subject region detection result. Is to do.
【0023】本発明の第10の目的は、検出された主被
写体に対して焦点を調節することにより、撮影者が焦点
調節位置を意識することなく、正確に主被写体を判定し
て自動的に焦点を合わせることのできるカメラを提供す
ることにある。A tenth object of the present invention is to adjust the focus with respect to the detected main subject so that the photographer can accurately determine the main subject without being conscious of the focus adjustment position and automatically determine the main subject. It is to provide a camera that can be focused.
【0024】本発明の第11の目的は、検出された主被
写体領域の光量に基づき、露出を調節することにより、
逆光などの悪条件下などに於ても、主被写体に正確に露
出を合せることのできるカメラを提供することにある。An eleventh object of the present invention is to adjust the exposure based on the detected light amount of the main subject area,
An object of the present invention is to provide a camera capable of accurately adjusting the exposure of a main subject even under adverse conditions such as backlight.
【0025】本発明の第12の目的は、検出された主被
写体領域の情報に基づき、焦点距離を調節することによ
り、撮影者が焦点距離を調節することなく、主被写体に
対して適切な画角を自動的に設定することのできるカメ
ラを提供することにある。A twelfth object of the present invention is to adjust the focal length based on the detected information of the main subject region, so that the photographer can adjust the focal length without adjusting the focal length. An object of the present invention is to provide a camera capable of automatically setting a corner.
【0026】[0026]
【課題を解決するための手段】上記第1の目的を達成す
るために、請求項1又は9記載の本発明は、外界の距離
分布情報に基づいて画面を個々の物体毎に切り分けるが
如く領域分割する領域分割手段を備え、該領域分割手段
の出力を基に環境認識を行う環境認識装置において、前
記領域分割手段は、前記距離分布情報に基づいて距離の
頻度分布情報を作成し、該頻度分布情報を領域分割の判
定要素の一つとして用いるようにしている。In order to achieve the first object, the present invention according to the first or ninth aspect of the present invention provides an image processing system in which a screen is divided into individual objects based on distance distribution information of the outside world. In an environment recognition apparatus comprising an area dividing means for dividing and performing environment recognition based on an output of the area dividing means, the area dividing means creates distance frequency distribution information based on the distance distribution information, The distribution information is used as one of the determination factors for region division.
【0027】更に詳述すると、被写界空間の距離分布情
報から該情報の頻度分布を作成する。この頻度の分布に
於ては、例えば一部のみが近接する複数の物体が存在す
る場合に於ても、個々の物体の平均的な距離が異なりさ
えすれば、個々の物体の存在は頻度分布の別々のピーク
として現れることが多いという点に着目し、頻度分布の
情報に基づき領域分割を行うようにしている。More specifically, a frequency distribution of the information is created from the distance distribution information of the object space. In this frequency distribution, for example, even when there are a plurality of objects that are only partially close to each other, as long as the average distance of each object is different, the existence of each object is Focusing on the fact that they often appear as separate peaks, the region is divided based on information on frequency distribution.
【0028】上記第2の目的を達成するために、請求項
2又は9記載の本発明は、頻度分布情報の極大値を検出
し、該極大値の前後の所定分量だけ離れた距離に境界値
を設定し、この境界値の情報に基づいて領域分割を行う
ようにしている。In order to achieve the second object, the present invention according to claim 2 or 9, detects a maximum value of the frequency distribution information, and sets a boundary value at a distance separated by a predetermined amount before and after the maximum value. Is set, and the area is divided based on the information of the boundary value.
【0029】上記第3の目的を達成するために、請求項
3又は9記載の本発明は、検出したすべての極値に対し
てその尖鋭度を評価し、所定値以上の尖鋭度を有する極
値の情報のみを領域分割の判定要素の一つとして用いる
ようにしている。In order to achieve the third object, the present invention according to claim 3 or 9 evaluates the sharpness of all the detected extreme values, and evaluates the extreme value having a sharpness not less than a predetermined value. Only the value information is used as one of the determination elements for the area division.
【0030】上記第4の目的を達成するために、請求項
4又は9記載の本発明は、頻度分布情報の極小値を検出
し、極小値の距離をもって境界値と設定し、この境界値
の情報に基づいて領域分割を行うようにしている。In order to achieve the fourth object, the present invention according to claim 4 or 9, detects a minimum value of the frequency distribution information, sets a boundary value with a distance of the minimum value, and sets a boundary value of this boundary value. The region is divided based on the information.
【0031】上記第5の目的を達成するために、請求項
5又は10記載の本発明は、被写界のデフォーカスの分
布情報に基づき、画面を個々の物体毎に切り分けるが如
く領域分割する前記領域分割手段を備え、該領域分割手
段の出力に基づいて環境認識を行う環境認識装置におい
て、前記領域分割手段は、前記デフォーカス分布情報に
基づいてデフォーカスの頻度分布情報を作成し、該頻度
分布情報を前記領域分割の判定要素の一つとして用いる
ようにしている。In order to achieve the fifth object, the present invention according to claim 5 or 10 divides a screen into regions based on distribution information of defocus of an object field as if each screen were divided into individual objects. In an environment recognition apparatus comprising the area dividing means and performing environment recognition based on an output of the area dividing means, the area dividing means creates frequency distribution information of defocus based on the defocus distribution information, The frequency distribution information is used as one of the determination elements for the area division.
【0032】更に詳述すると、被写界空間のデフォーカ
ス分布情報から該情報の頻度分布を作成する。この頻度
の分布に於ては、例えば一部のみが近接する複数の物体
が存在する場合に於ても、個々の物体の平均的なデフォ
ーカスが異なりさえすれば、個々の物体の存在は頻度分
布の別々のピークとして現れることが多いという点に着
目し、頻度分布の情報に基づき領域分割を行うようにし
ている。More specifically, a frequency distribution of the information is created from the defocus distribution information in the object space. In this frequency distribution, for example, even when there are a plurality of objects that are only partially adjacent to each other, as long as the average defocus of each object is different, the existence of each object is Focusing on the fact that they often appear as separate peaks in the distribution, the region is divided based on the information on the frequency distribution.
【0033】上記第6の目的を達成するために、請求項
6又は10記載の本発明は、頻度分布情報の極大値を検
出し、該極大値の前後の所定分量だけ離れたデフォーカ
ス値に境界値を設定し、この境界値の情報に基づいて領
域分割を行うようにしている。In order to achieve the sixth object, according to the present invention, a maximum value of the frequency distribution information is detected and a defocus value separated by a predetermined amount before and after the maximum value is detected. A boundary value is set, and area division is performed based on the information of the boundary value.
【0034】上記第7の目的を達成するために、請求項
7又は10記載の本発明は、検出したすべての極値に対
してその尖鋭度を評価し、所定値以上の尖鋭度を有する
極値の情報のみを領域分割の判定要素の一つとして用い
るようにしている。In order to achieve the seventh object, the present invention according to claim 7 or 10 evaluates the sharpness of all the detected extreme values, and evaluates the extreme having a sharpness not less than a predetermined value. Only the value information is used as one of the determination elements for the area division.
【0035】上記第8の目的を達成するために、請求項
8又は10記載の本発明は、頻度分布情報の極大値と極
小値を検出し、極大値の前後に存在する極小値のデフォ
ーカス値をもって境界値と設定し、この境界値の情報に
基づいて領域分割を行うようにしている。In order to achieve the eighth object, the present invention according to claim 8 or 10, detects the maximum value and the minimum value of the frequency distribution information, and defocuses the minimum value existing before and after the maximum value. The value is set as a boundary value, and the area is divided based on the information of the boundary value.
【0036】上記第9の目的を達成するために、請求項
11記載の本発明は、前述の請求項9又は10記載の環
境認識装置と、該環境認識装置の環境認識結果から主被
写体の領域を検出する主被写体検出手段と設けた構成に
している。According to a ninth aspect of the present invention, there is provided an environment recognition apparatus according to the ninth or tenth aspect, and an area of a main subject is obtained from an environment recognition result of the environment recognition apparatus. And a main subject detecting means for detecting the
【0037】上記第10の目的を達成するために、請求
項12記載の本発明は、主被写体検出手段の出力結果に
基づいて主被写体に焦点を合わせる自動焦点調節手段を
備えた構成にしている。In order to achieve the tenth object, the present invention according to the twelfth aspect has an automatic focus adjusting means for focusing on a main subject based on an output result of the main subject detecting means. .
【0038】上記第11の目的を達成するために、請求
項13記載の本発明は、主被写体検出手段の出力結果に
基づいて主被写体領域の光量を測定する測定手段と、そ
の光量に基づいて露光量を調節する自動露光量調節手段
とを備えた構成にしている。In order to achieve the eleventh object, the present invention according to a thirteenth aspect is directed to a measuring means for measuring a light amount of a main subject area based on an output result of a main subject detecting means, An automatic exposure amount adjusting means for adjusting the exposure amount is provided.
【0039】上記第12の目的を達成するために、請求
項14記載の本発明は、主被写体検出手段の出力結果に
基づいて主被写体が適切な大きさになるようにレンズの
焦点距離を調節する自動焦点調節手段を備えた構成にし
ている。In order to achieve the twelfth object, according to the present invention, the focal length of the lens is adjusted so that the main subject has an appropriate size based on the output result of the main subject detecting means. The automatic focus adjustment means is provided.
【0040】[0040]
【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on illustrated embodiments.
【0041】カメラの自動測距点選択機能を例に、被写
界の物体配置状況を認識する本発明の実施の第1の形態
について説明する。A first embodiment of the present invention for recognizing an object arrangement state of an object scene will be described with an example of an automatic ranging point selection function of a camera.
【0042】図1は撮影画面内のデフォーカスあるいは
距離の分布を検出するためのカメラの光学構成要素の配
置図であり、図中、1は撮影レンズ、2はフィールドレ
ンズ、3は二次結像レンズ、4はエリアセンサである。
前記エリアセンサ4の2つの撮像画面4a,4b上には
各々撮影レンズ1のお互いに異なる瞳位置からの光束が
導かれ、フィールドレンズ2,二次結像レンズ3により
定まる結像倍率で再結像される。前記エリアセンサ4は
撮影レンズ1に対して撮影フィルム面と光学的に等価な
位置にあり、撮像画面4a,4bは各々撮影画面の一部
または撮影画面に等しい視野を有している。FIG. 1 is an arrangement diagram of optical components of a camera for detecting a defocus or distance distribution in a photographing screen. In the drawing, reference numeral 1 denotes a photographing lens, 2 denotes a field lens, and 3 denotes a secondary connection. The image lens 4 is an area sensor.
Light beams from different pupil positions of the photographing lens 1 are guided onto the two imaging screens 4a and 4b of the area sensor 4, respectively, and re-formed at an imaging magnification determined by the field lens 2 and the secondary imaging lens 3. Imaged. The area sensor 4 is located at a position optically equivalent to the photographic film surface with respect to the photographic lens 1, and the imaging screens 4a and 4b each have a part of the photographic screen or a field of view equal to the photographic screen.
【0043】図2は図1に示した検出光学系をカメラに
適用した場合のレイアウトを示したものであり、図中、
5はクイックリターンミラー、6はペンタプリズム、7
は分割プリズム、8は反射ミラーであり、他は図1と同
様である。FIG. 2 shows a layout when the detection optical system shown in FIG. 1 is applied to a camera.
5 is a quick return mirror, 6 is a pentaprism, 7
Is a split prism, 8 is a reflection mirror, and the other is the same as FIG.
【0044】また、図3は図2のレイアウトをカメラ上
部方向より見た図である。FIG. 3 is a view of the layout of FIG. 2 as viewed from above the camera.
【0045】以上の様な構成により、所定の視差を持っ
た撮像画面4aと4bを得ることができる。With the above configuration, the imaging screens 4a and 4b having a predetermined parallax can be obtained.
【0046】尚、前述の構成を有するカメラについて
は、特願平5−278433号等で詳細に開示されてい
る。The camera having the above configuration is disclosed in detail in Japanese Patent Application No. 5-278433.
【0047】図4は上記の如き各装置を備えたカメラの
具体的な構成の一例を示す回路図であり、先ず各部の構
成について説明する。FIG. 4 is a circuit diagram showing an example of a specific configuration of a camera provided with each of the above devices. First, the configuration of each unit will be described.
【0048】図4において、PRSはカメラの各種の制
御を司る、例えば、内部にCPU(中央処理装置),R
OM,RAM,A/D変換機能を有する1チップのマイ
クロコンピュータ(以下、マイコンと記す)である。該
マイコンPRSはROMに格納されたカメラのシーケン
ス・プログラムに従って、自動露出制御機能,自動焦点
調節機能,フィルムの巻き上げ・巻き戻し等のカメラの
一連の動作を行っている。その為にマイコンPRSは、
通信用信号SO,SI,SCLK、通信選択信号CLC
M,CDDR,CICCを用いて、カメラ本体内の周辺
回路および後述のレンズ内制御装置と通信を行って、各
々の回路やレンズの動作を制御する。In FIG. 4, a PRS controls various controls of the camera, for example, a CPU (central processing unit) and an R
This is a one-chip microcomputer (hereinafter, referred to as a microcomputer) having an OM, a RAM, and an A / D conversion function. The microcomputer PRS performs a series of camera operations such as an automatic exposure control function, an automatic focus adjustment function, and film winding / rewinding in accordance with a camera sequence program stored in the ROM. For that, the microcomputer PRS
Communication signals SO, SI, SCLK, communication selection signal CLC
By using M, CDDR, and CICC, communication is performed with peripheral circuits in the camera body and a control unit in the lens described later to control the operation of each circuit and lens.
【0049】SOはマイコンPRSから出力されるデー
タ信号、SIはマイコンPRSに入力されるデータ信
号、SCLKは前記データ信号SO,SIの同期クロッ
クである。SO is a data signal output from the microcomputer PRS, SI is a data signal input to the microcomputer PRS, and SCLK is a synchronous clock of the data signals SO and SI.
【0050】LCMはレンズ通信バッファ回路であり、
カメラが動作中のときにはレンズ用電源端子VLに電力
を供給するとともに、マイコンPRSからの選択信号C
LCMが高電位レベル(以下、“H”と略記し、低電位
レベルは“L”と略記する)のときには、カメラとレン
ズ間の通信バッファとなる。LCM is a lens communication buffer circuit,
When the camera is in operation, power is supplied to the lens power supply terminal VL and a selection signal C from the microcomputer PRS is supplied.
When the LCM is at a high potential level (hereinafter, abbreviated as “H” and the low potential level is abbreviated as “L”), it serves as a communication buffer between the camera and the lens.
【0051】マイコンPRSが選択信号CLCMを
“H”にして、クロックSCLKに同期して所定のデー
タをSOとして送出すると、レンズ通信バッファ回路L
CMはカメラ・レンズ間通信接点を介して、前記SCL
K,SOの各々のバッファ信号LCK,DCLをレンズ
へ出力する。それと同時にレンズからの信号DLCのバ
ッファ信号をSIとして出力し、マイコンPRSはSC
LKに同期してレンズのデータをSIとして入力する。When the microcomputer PRS sets the selection signal CLCM to "H" and sends out predetermined data as SO in synchronization with the clock SCLK, the lens communication buffer circuit L
The CM is connected to the SCL via the camera-lens communication contact.
The buffer signals LCK and DCL of K and SO are output to the lens. At the same time, the buffer signal of the signal DLC from the lens is output as SI, and the microcomputer PRS outputs SC.
The lens data is input as SI in synchronization with LK.
【0052】DDRは各種のスイッチSWSの検知及び
表示用回路であり、信号CDDRが“H”のとき選択さ
れ、SO,SI,SCLKを用いてマイコンPRSから
制御される。即ち、マイコンPRSから送られてくるデ
ータに基づいてカメラの表示部材DSPの表示を切り換
えたり、カメラの各種操作部材のオン,オフ状態を通信
によってマイコンPRSに報知する。OLCはカメラ上
部に位置する外部液晶表示装置であり、ILCはファイ
ンダ内液晶表示装置である。DDR is a circuit for detecting and displaying various switches SWS, is selected when the signal CDDR is "H", and is controlled by the microcomputer PRS using SO, SI and SCLK. That is, based on data sent from the microcomputer PRS, the display of the display member DSP of the camera is switched, and the on / off state of various operation members of the camera is notified to the microcomputer PRS by communication. OLC is an external liquid crystal display device located above the camera, and ILC is a liquid crystal display device in the viewfinder.
【0053】SW1,SW2は不図示のレリーズボタン
に連動したスイッチであり、レリーズボタンの第1段階
の押下によりスイッチSW1がオンし、引き続いて第2
段階の押下でスイッチSW2がオンする。マイコンPR
Sは、前記スイッチSW1のオンで測光,自動焦点調節
を行い、スイッチSW2のオンをトリガとして露出制御
とその後のフィルムの巻き上げを行う。SW1 and SW2 are switches linked to a release button (not shown). The switch SW1 is turned on by pressing the release button in the first stage, and the second switch is subsequently turned on.
The switch SW2 is turned on by pressing down in stages. Microcomputer PR
In step S, photometry and automatic focus adjustment are performed when the switch SW1 is turned on, and exposure control and subsequent film winding are performed with the switch SW2 turned on as a trigger.
【0054】尚、スイッチSW2はマイコンPRSの
「割り込み入力端子」に接続され、スイッチSW1のオ
ン時のプログラム実行中でも、該スイッチSW2のオン
によって割り込みがかかり、直ちに所定の割り込みプロ
グラムへ制御を移すことができる。The switch SW2 is connected to the "interrupt input terminal" of the microcomputer PRS. Even when a program is executed when the switch SW1 is turned on, an interrupt is generated by turning on the switch SW2, and control is immediately transferred to a predetermined interrupt program. Can be.
【0055】MTR1はフィルム給送用の、MTR2は
ミラーアップ・ダウン及びシャッタばねチャージ用の、
それぞれモータであり、各々のモータ駆動回路MDR
1,MDR2により正転,逆転の制御が行われる。マイ
コンPRSからモータ駆動回路MDR1,MDR2に入
力されている信号M1F,M1R,M2F,M2Rは、
モータ制御用の信号である。MTR1 is for film feeding, MTR2 is for mirror up / down and shutter spring charging,
Each is a motor, and each motor drive circuit MDR
1, MDR2 controls forward rotation and reverse rotation. The signals M1F, M1R, M2F, M2R input from the microcomputer PRS to the motor drive circuits MDR1, MDR2 are
This is a signal for motor control.
【0056】MG1,MG2は各々シャッタ先幕用及び
後幕走行開始用マグネットで、信号SMG1,SMG2
により増幅トランジスタTR1,TR2を介して通電さ
れ、マイコンPRSによりシャッタ制御が行われる。MG1 and MG2 denote magnets for starting the first and second curtains of the shutter, respectively.
Is supplied through the amplification transistors TR1 and TR2, and the microcomputer PRS controls the shutter.
【0057】尚、前記モータ駆動回路MDR1,MDR
2や、シャッタ制御に関しては、本発明と直接関りがな
いので、詳しい説明は省略する。The motor drive circuits MDR1, MDR
2 and shutter control are not directly related to the present invention, and therefore, detailed description is omitted.
【0058】レンズ内制御回路(以下、レンズ内マイコ
ンと記す)LPRSにLCKと同期して入力される信号
DCLは、カメラからレンズLNSに対する命令のデー
タであり、命令に対するレンズLNS側での動作は予め
決められている。レンズ内マイコンLPRSは所定の手
続きに従ってその命令を解析し、焦点調節や絞り制御の
動作や、DLCによりレンズの各部動作状況(焦点調節
光学系の駆動状況や、絞りの駆動状態等)や各種パラメ
ータ(開放Fナンバー,焦点距離,デフォーカス量対焦
点調節光学系の移動量の係数,各種ピント補正量等)の
出力を行う。A signal DCL input to a lens control circuit (hereinafter referred to as a lens microcomputer) LPRS in synchronization with LCK is command data from the camera to the lens LNS. It is predetermined. The microcomputer LPRS in the lens analyzes the instruction in accordance with a predetermined procedure, and performs the operation of focus adjustment and aperture control, the operation status of each part of the lens by the DLC (driving status of the focus adjustment optical system, driving status of the aperture, etc.) and various parameters. (An open F number, a focal length, a defocus amount versus a coefficient of a moving amount of the focus adjusting optical system, various focus correction amounts, and the like) are output.
【0059】この実施の形態では、ズームレンズの例を
示しており、カメラから焦点調節の命令が送られた場合
には、同時に送られてくる駆動量・方向に従って焦点調
節用モータLTMRを信号LMF,LMRによって駆動
して、光学系を光軸方向に移動させて焦点調節を行う。
光学系の移動量は光学系に連動して回動するパルス板の
パターンをフォトカプラにて検出し、移動量に応じた数
のパルスを出力するエンコーダ回路ENCFのパルス信
号SENCFでモニタし、レンズ内マイコンLPRS内
のカウンタで計数しており、所定の移動が完了した時点
でレンズ内マイコンLPRS自身が信号LMF,LMR
を“L”にして,前記焦点調節用モータLMTRを制動
する。This embodiment shows an example of a zoom lens. When a focus adjustment command is sent from a camera, a focus adjustment motor LTMR is sent to a signal LMF in accordance with the simultaneously transmitted drive amount and direction. , LMR to adjust the focus by moving the optical system in the direction of the optical axis.
The amount of movement of the optical system is monitored by a pulse signal SENCF of an encoder circuit ENCF that detects a pattern of a pulse plate that rotates in conjunction with the optical system with a photocoupler and outputs a number of pulses corresponding to the amount of movement. The microcomputer LPRS in the lens counts with a counter in the microcomputer LPRS, and when the predetermined movement is completed, the microcomputer LPRS in the lens itself outputs signals LMF and LMR.
Is set to “L” to brake the focus adjustment motor LMTR.
【0060】このため、一旦カメラから焦点調節の命令
が送られた後は、カメラ側のマイコンPRSはレンズの
駆動が終了するまで、レンズ駆動に関して全く関与する
必要がない。また、カメラから要求があった場合には、
上記カウンタの内容をカメラに送出することも可能な構
成になっている。For this reason, once the focus adjustment command is sent from the camera, the microcomputer PRS on the camera side does not need to be involved in driving the lens at all until the driving of the lens is completed. Also, if there is a request from the camera,
The content of the counter can be transmitted to the camera.
【0061】カメラから絞り制御の命令が送られた場合
は、同時に送られてくる絞り段数に従って、絞り駆動用
としては公知のステッピングモータDMTRを駆動す
る。When an aperture control command is sent from the camera, a known stepping motor DMTR for driving the aperture is driven in accordance with the number of aperture stages sent at the same time.
【0062】尚、前記ステッピングモータはオープン制
御が可能なため、動作をモニタするためのエンコーダを
必要としない。Since the stepping motor can perform open control, it does not require an encoder for monitoring the operation.
【0063】ENCZはズーム光学系に付随したエンコ
ーダ回路であり、レンズ内マイコンLPRSは該エンコ
ーダ回路ENCZからの信号SENCZを入力してズー
ム位置を検出する。レンズ内マイコンLPRS内には各
ズーム位置におけるレンズ・パラメータが格納されてお
り、カメラ側のマイコンPRSから要求があった場合に
は、現在のズーム位置に対応したパラメータをカメラに
送出する。ENCZ is an encoder circuit associated with the zoom optical system, and the microcomputer LPRS in the lens receives the signal SENCZ from the encoder circuit ENCZ to detect the zoom position. The lens microcomputer LPRS stores lens parameters at each zoom position, and when requested by the microcomputer PRS on the camera side, sends parameters corresponding to the current zoom position to the camera.
【0064】ICCはCCD等から構成される焦点検出
と露出制御(測光)用のエリアセンサ及びその駆動部を
具備したセンサ・駆動回路であり、信号CICCが
“H”のときに選択され、信号SO,SI,SCLKを
用いてマイコンPRSにて制御される。The ICC is a sensor / drive circuit including a focus detection and exposure control (photometry) area sensor composed of a CCD or the like and a drive unit therefor. The ICC is selected when the signal CICC is "H". It is controlled by the microcomputer PRS using SO, SI, and SCLK.
【0065】φV,φH,φRは二つのエリアセンサ出
力の読み出しの為の信号やリセット信号であり、マイコ
ンPRSから信号に基づいてセンサ・駆動回路ICC内
の駆動部によりセンサ制御信号が生成される。センサ出
力はセンサ部からの読み出し後増幅され、出力信号IM
AGEとしてマイコンPRSのアナログ入力端子に入力
され、マイコンPRSはこの信号をA/D変換した後、
そのデジタル値をRAM上の所定のアドレスへ順次格納
してゆく。そして、これらデジタル変換された信号を用
いて被写界の環境認識と焦点調節あるいは測光を行うこ
とになる。.Phi.V, .phi.H, and .phi.R are signals for reading the outputs of the two area sensors and reset signals, and a sensor control signal is generated by the drive unit in the sensor / drive circuit ICC based on the signal from the microcomputer PRS. . The sensor output is amplified after reading from the sensor unit, and the output signal IM
The signal is input to the analog input terminal of the microcomputer PRS as AGE, and the microcomputer PRS converts the signal into a digital signal.
The digital values are sequentially stored at predetermined addresses on the RAM. Then, using these digitally converted signals, environment recognition and focus adjustment or photometry of the object scene are performed.
【0066】尚、上記図4ではカメラとレンズが別体
(レンズ交換が可能)となるもので表現されているが、
カメラ・レンズ一体なるものでも何等問題なく、これ等
に限定されるものではない。In FIG. 4, the camera and the lens are shown as being separate (lens can be replaced).
There is no problem even if the camera and lens are integrated, and the invention is not limited to these.
【0067】図5は、被写界空間の距離の頻度分布を利
用して物体配置状況を認識し、主要被写体を検出した
後、該主要被写体にレンズの焦点を合せる機能を有する
カメラの動作、特に環境を認識して主被写体を判断する
測距点選択の動作を示すフローチャートであり、以下こ
れに従って説明する。FIG. 5 shows an operation of a camera having a function of recognizing an object arrangement state using a frequency distribution of distances in the object space, detecting a main subject, and then focusing a lens on the main subject. In particular, it is a flowchart showing an operation of selecting a distance measuring point for recognizing an environment and determining a main subject, and will be described below.
【0068】撮影者がレリーズボタンを押すとスイッチ
SW1がオンになり、マイコンPRS内のCPUはRO
Mに記録されているプログラムに従い、図5のフローチ
ャートに従った制御を開始する。When the photographer presses the release button, the switch SW1 is turned on, and the CPU in the microcomputer PRS switches to RO.
According to the program recorded in M, control according to the flowchart of FIG. 5 is started.
【0069】ステップ(101)においては、センサ画
像の取り込みを行う。センサ画像の取り込みは次のよう
にして実行される。In step (101), a sensor image is captured. The capture of the sensor image is executed as follows.
【0070】まず、センサのリセットを行う。具体的に
は、制御信号φV,φH,φRをマイコンPRSにて同
時に一定時間“H”にすることで、センサ・駆動回路I
CC内部でリセット動作が行われる。次に、マイコンP
RSから蓄積開始命令を送り蓄積を開始し、後に蓄積終
了を検知する。そして、制御信号φV,φHを駆動して
センサ出力IMAGEを順次読み出し、マイコンPRS
にてA/D変換してRAMに格納する。これにより、こ
のステップ(101)でのセンサ画像の取り込みが完了
する。尚、二つのセンサの出力信号データはRAM上の
所定領域IMG1,IMG2に格納される。First, the sensor is reset. More specifically, the control signals φV, φH, and φR are simultaneously set to “H” for a certain period of time by the microcomputer PRS, so that the sensor / drive circuit I
A reset operation is performed inside the CC. Next, the microcomputer P
An accumulation start command is sent from the RS to start accumulation, and the end of accumulation is detected later. Then, the control signals φV and φH are driven to sequentially read the sensor output IMAGE, and the microcomputer PRS
A / D converted and stored in RAM. Thus, the capture of the sensor image in this step (101) is completed. The output signal data of the two sensors is stored in predetermined areas IMG1 and IMG2 on the RAM.
【0071】次のステップ(102)においては、「m
×n」ブロック(m,nは1以上の整数)で構成される
距離分布情報(距離マップ)の作成を行う。ここで実行
される距離マップ作成について、図6のフローチャート
を用いて説明する。In the next step (102), “m
A distance distribution information (distance map) composed of “× n” blocks (m and n are integers equal to or greater than 1) is created. The creation of the distance map executed here will be described with reference to the flowchart of FIG.
【0072】図6のステップ(201)においては、ブ
ロックの座標を指示する変数x,yを初期化する。そし
て、次のステップ(202)において、ブロック(x,
y)の距離演算に必要な信号をRAM上の画像データI
MG1の中から抽出し、RAM上の所定アドレスAにコ
ピーする。続くステップ(203)においては、ブロッ
ク(x,y)の距離演算に必要なもう一方の信号をIM
G2の中から抽出し、RAM上の所定アドレスBにコピ
ーする。次いでステップ(204)において、アドレス
AとアドレスBに記録された輝度分布信号に対して公知
の相関演算COR(A,B)を実行し、二つの像信号の
ずれ量δを算出する。In step (201) of FIG. 6, variables x and y indicating the coordinates of the block are initialized. Then, in the next step (202), block (x,
The signal necessary for the distance calculation of y) is stored in the image data I on the RAM.
It is extracted from MG1 and copied to a predetermined address A on the RAM. In the following step (203), another signal necessary for the distance calculation of the block (x, y)
G2 is extracted and copied to a predetermined address B on the RAM. Next, in step (204), a well-known correlation operation COR (A, B) is performed on the luminance distribution signals recorded at the address A and the address B, and a shift amount δ between the two image signals is calculated.
【0073】次のステップ(205)においては、上記
の像ずれ量δからデフォーカス又は距離値の算出を公知
の関数f(δ)により実行し、RAM上の距離分布記録
用に確保された所定のアドレスD(x,y)に距離値又
はデフォーカスを格納する。ここでは、距離値を算出す
る場合について説明を行う。In the next step (205), the defocus or the calculation of the distance value is executed from the above-mentioned image shift amount δ by a known function f (δ), and a predetermined value secured for the distance distribution recording on the RAM is recorded. The distance value or the defocus is stored at the address D (x, y) of the data. Here, a case where the distance value is calculated will be described.
【0074】次のステップ(206)においては、xの
値を一つ増加して、処理対象を隣接ブロックに移す。そ
して、ステップ(207)において、xと距離マップの
x方向の解像度mとの比較を行い、「x<m」が真(こ
の関係に有ることを意味する)と判定した場合は先のス
テップ(202)に戻り、x方向の隣のブロックに対し
て前述と同様に距離値の演算と格納を繰り返す。In the next step (206), the value of x is increased by one, and the processing target is moved to an adjacent block. Then, in step (207), x is compared with the resolution m of the distance map in the x direction, and when it is determined that “x <m” is true (meaning that this relationship is satisfied), the previous step (207) is performed. Returning to 202), the calculation and storage of the distance value are repeated for the adjacent block in the x direction in the same manner as described above.
【0075】一方上記ステップ(207)において、
「x<m」が偽(この関係に無いことを意味する)と判
定した場合はステップ(208)へ移り、xを初期化
し、yを1増加する。そして、次のステップ(209)
において、yの値を評価し、「y<n」が真と判定した
ときは再びステップ(202)に戻り、次のブロック列
に対する演算を開始する。また、「y<n」が偽と判定
したときは、すべてのブロックに対する距離演算が完了
したとして、距離マップの作成を終了する。On the other hand, in the above step (207),
If it is determined that “x <m” is false (meaning that this relationship is not satisfied), the process proceeds to step (208), x is initialized, and y is incremented by one. Then, the next step (209)
In step (2), the value of y is evaluated, and when it is determined that "y <n" is true, the process returns to step (202) again to start the operation for the next block sequence. When it is determined that “y <n” is false, the distance calculation for all the blocks is completed, and the creation of the distance map ends.
【0076】図5の説明に戻り、次のステップ(10
3)においては、頻度分布の作成を行う。以下、この頻
度分布作成について、図7のフローチャートを用いて説
明する。Returning to the description of FIG. 5, the next step (10
In 3), a frequency distribution is created. Hereinafter, creation of the frequency distribution will be described with reference to the flowchart of FIG.
【0077】ステップ(301)においては、頻度分布
データを作成するためにRAMに確保されている変数H
(0)〜H(tnum −1)の内容を0クリアする。ここ
で、H(t)(但し、0<t<tnum )は、tで表現さ
れる所定の距離範囲内に存在するデータの個数を表し、
tnum は頻度分布データの個数を表す。In step (301), the variable H secured in the RAM for creating frequency distribution data
The contents of (0) to H (t num -1) are cleared to 0. Here, H (t) (where 0 <t <t num ) represents the number of data existing within a predetermined distance range represented by t.
t num represents the number of frequency distribution data.
【0078】この距離範囲の設定方法の一例を説明す
る。An example of a method for setting the distance range will be described.
【0079】演算対象とする距離検出範囲が例えば10
cm〜100mである場合、この距離範囲を等間隔、例
えば1m毎に区切って領域を100分割する方法が考え
られる(この場合、tnum =100)。The distance detection range to be calculated is, for example, 10
In the case of cm to 100 m, a method of dividing this distance range into equal parts, for example, every 1 m, and dividing the area into 100 parts can be considered (in this case, t num = 100).
【0080】また、距離に逆比例してレンズの焦点深度
は深くなるので、この特性を反映するために、距離範囲
を対数空間に変換して、例えば10cm〜100mを−
2.0〜2.0 (=log100.01〜log10100)として
この範囲を0.1 毎に区切って領域を20分割する方法が
考えられる(この場合、tnum =20)。Since the depth of focus of the lens increases in inverse proportion to the distance, the distance range is converted to a logarithmic space to reflect this characteristic.
2.0~2.0 (= log 10 0.01~log 10 100 ) as a method of 20 divided areas separated this range every 0.1 are considered (in this case, t num = 20).
【0081】他にも、装置の特性や用途に合せて、何等
かの非線形分割を施すことも、もちろん可能である。In addition, it is of course possible to perform some kind of non-linear division according to the characteristics and use of the device.
【0082】この実施の形態では、前述の様に対数空間
で等間隔となるように領域を分割する場合について説明
する。In this embodiment, a case will be described in which regions are divided so as to be equally spaced in logarithmic space as described above.
【0083】次のステップ(302)においては、ブロ
ックの座標を指示する変数x,yを初期化し、続くステ
ップ(303)において、ブロック(x,y)の距離値
D(x,y)が含まれる距離範囲を検索して、その範囲
を表す番号tを決定する。距離範囲が複雑な非線形特性
を有する場合などは、距離範囲を一つ一つ検索して調べ
ていくが、本実施の形態の場合は、前述のように距離範
囲は対数空間で等間隔になるように分割しているので、
tは t=INT(log10(D(x,y)/dmin )/s) で直接求めることができる。ここで、INTは少数以下
切り捨ての関数、sは対数空間での範囲幅(前述の例だ
と、s=0.1)である。また、dmin は距離検出範囲の最
小値(前述の場合、dmin =10cm)であり、最至近
の範囲番号を0とするための調整に用いている。In the next step (302), variables x and y indicating the coordinates of the block are initialized. In the following step (303), the distance value D (x, y) of the block (x, y) is included. A distance range is searched for, and a number t representing the range is determined. When the distance range has complicated nonlinear characteristics, the distance range is searched and examined one by one, but in the case of the present embodiment, the distance ranges are equally spaced in logarithmic space as described above. Is divided into
t can be directly obtained by t = INT (log 10 (D (x, y) / d min ) / s). Here, INT is a function of rounding down to the nearest whole number, and s is a range width in logarithmic space (s = 0.1 in the above example). Also, d min is the minimum value of the distance detection range (d min = 10 cm in the case described above), and is used for adjusting the closest range number to 0.
【0084】次のステップ(304)においては、tに
対応する頻度分布の値を1つ増加する。そして、ステッ
プ(305)において、xの値を1つ増加して隣接ブロ
ックに処理を移す。続くステップ(306)において
は、xと距離マップx方向の解像度mとの比較を行い、
「x<m」が真と判定した場合はステップ(303)に
戻り、次のブロックに対して前述と同様に頻度分布作成
を続ける。In the next step (304), the value of the frequency distribution corresponding to t is increased by one. Then, in step (305), the value of x is incremented by one and the process is shifted to an adjacent block. In the following step (306), x is compared with the resolution m in the distance map x direction,
If it is determined that “x <m” is true, the process returns to step (303), and the generation of the frequency distribution is continued for the next block as described above.
【0085】一方、上記ステップ(306)において
「x<m」が偽と判定した場合はステップ(307)に
移り、xを初期化し、yを1増加する。そして、ステッ
プ(308)において、yの値を評価し、ここで「y<
n」が真と判定したときは再びステップ(303)に戻
り、次のブロック例に対する演算を開始する。また、
「y<n」が偽と判定したときは、すべてのブロックの
データを頻度分布データに反映する作業が完了して、頻
度分布の作成を終了する。On the other hand, if it is determined in step (306) that "x <m" is false, the process proceeds to step (307), where x is initialized and y is incremented by one. Then, in step (308), the value of y is evaluated, and “y <
When it is determined that "n" is true, the process returns to step (303) again, and the calculation for the next block example is started. Also,
When it is determined that “y <n” is false, the work of reflecting the data of all the blocks in the frequency distribution data is completed, and the creation of the frequency distribution ends.
【0086】尚、図7のフローチャートでは明記してい
ないが、低コントラストなどの原因により相関演算の信
頼性が低いと判定されたブロックの場合には、当然その
演算結果の距離値の信頼性も低いため、こうしたブロッ
クのデータは頻度分布に加える必要は全くない。Although not explicitly shown in the flowchart of FIG. 7, in the case of a block for which the reliability of the correlation calculation is determined to be low due to a low contrast or the like, the reliability of the distance value of the calculation result naturally also increases. Because of its low, the data of these blocks need not be added to the frequency distribution at all.
【0087】こうした処理は、距離マップを作成する
際、各ブロックの演算結果の信頼性を配列変数に記録し
ておき、頻度分布作成の際にその配列変数の値を参照し
て、信頼性の低いブロックであれば頻度分布へのデータ
登録(図7ではステップ(303)と(304))をパ
スするようにすれば良く、容易に実現可能であるが、本
発明の本質ではないのでこの部分のフローは省略してい
る。In such processing, when creating a distance map, the reliability of the operation result of each block is recorded in an array variable, and when creating a frequency distribution, the reliability of the block is referred to by referring to the value of the array variable. In the case of a low block, data registration to the frequency distribution (steps (303) and (304) in FIG. 7) may be passed, and can be easily realized. Is omitted.
【0088】再び図5の説明に戻り、ステップ(10
4)においては、頻度分布中の極値、本実施の形態の場
合は特に極大値の検出を行う。例えば、図8のようなヒ
ストグラムが得られた場合、その極大値である図中のp
eak−Aやpeak−B,peak−Cの距離値を検
出する。Returning to the description of FIG. 5, step (10)
In 4), an extremum in the frequency distribution, particularly a maximal value in the case of the present embodiment, is detected. For example, when a histogram as shown in FIG. 8 is obtained, the local maximum value p
The distance values of peak-A, peak-B, and peak-C are detected.
【0089】この検出の方法を、図9のフローチャート
を用いて説明する。The method of this detection will be described with reference to the flowchart of FIG.
【0090】ステップ(401)において、極大値の番
号を表す数値uを初期化する。次のステップ(402)
においては、頻度分布のデータ番号を表す数値tを1に
初期化する。続くステップ(403)においては、頻度
分布の値H(t)と、前後の頻度分布の値H(t−
1),H(t+1)とを比較し、H(t)が頂点を形成
しているかどうか調べる。この結果、H(t)>H(t
−1) かつ H(t)>H(t+1)であれば、H
(t)は極大値を形成していると判定することができ、
ステップ(404)に移る。そして、このステップ(4
04)において、RAM上に確保された極値記憶用の変
数P(u)にtが表す距離の代表値を記憶する。代表値
は、tが表す距離範囲の中央の値が適当であり、例えば
「10s(t+0.5)・dmin 」で与えられる。In step (401), the numerical value u representing the maximum value number is initialized. Next step (402)
In, the numerical value t representing the data number of the frequency distribution is initialized to 1. In the following step (403), the value H (t) of the frequency distribution and the value H (t-
1) and H (t + 1) are checked to see if H (t) forms a vertex. As a result, H (t)> H (t
-1) and if H (t)> H (t + 1), then H
(T) can be determined to form a local maximum,
Move to step (404). Then, this step (4)
At 04), a representative value of the distance represented by t is stored in the extreme value storage variable P (u) secured on the RAM. As the representative value, an appropriate value at the center of the distance range represented by t is appropriate, for example, given as “10 s (t + 0.5) · d min ”.
【0091】次のステップ(405)においては、頂点
の番号を表す数値uを1だけ増加させ、続くステップ
(405)において、検出対象頻度分布のデータ番号を
表す数値tを1だけ増加させ、検出対象の頻度分布を変
更する。そして、ステップ(406)において、tが頻
度分布データの範囲内であるかどうか、すなわち「t<
tnum 」であるかどうかを調べ、「t<tnum 」が真で
あれば、極値の検索途中であるのでステップ(403)
に戻り、「t<tnum 」が偽であれば、検索は終了した
ものとして次のステップ(407)に移る。In the next step (405), the numerical value u representing the number of the vertex is incremented by one, and in the following step (405), the numerical value t representing the data number of the frequency distribution to be detected is incremented by one. Change the frequency distribution of the target. Then, in step (406), whether or not t is within the range of the frequency distribution data, that is, “t <
examine whether it is a t num "," t <t num "it is if it is true, because it is the way the search of the extreme step (403)
If “t <t num ” is false, it is determined that the search has been completed, and the process proceeds to the next step (407).
【0092】ステップ(407)においては、後の処理
のために実際に登録された頂点の数を変数unum に保存
して頂点検出処理は終了する。In step (407), the number of vertices actually registered for later processing is stored in a variable u num , and the vertex detection processing ends.
【0093】再び図5の説明に戻り、上述の様にして極
大点の検出が終了すると、ステップ(105)の境界値
設定に移る。この境界値とは、次のステップ(106)
で領域分割を行う際に参照される値である。Returning to the description of FIG. 5, when the detection of the maximum point is completed as described above, the process proceeds to the step (105) for setting the boundary value. This boundary value is determined in the next step (106).
Is a value that is referred to when performing region division by.
【0094】本実施の形態における境界値設定の概念に
ついて説明する。The concept of setting a boundary value in the present embodiment will be described.
【0095】ヒストグラムにおいて、ピーク部分の距離
周辺にはある物体が存在する可能性が高い。したがっ
て、ピークの前後の所定距離範囲を一つのグループとし
て認識するのが妥当である。すなわち、二つの所定値R
f,Rb(ともに正の実数)を設定しておき、ピーク位
置の距離dに対して近距離側の境界値として「d−R
f」、遠距離側の境界値として「d+Rb」を設定する
と、前記物体に対して領域分割を適切に行うことができ
るようになる。例えば、主要物体の検出対象を人間と限
定した場合、特にカメラなどの場合には人間はカメラに
正対することが多いので奥行きはせいぜい50cm程度
と考えられ、Rf,Rbをそれぞれ30cm程度に設定
することが考えられる。In the histogram, there is a high possibility that an object exists around the distance of the peak portion. Therefore, it is appropriate to recognize the predetermined distance range before and after the peak as one group. That is, two predetermined values R
f and Rb (both positive real numbers) are set in advance, and “d−R−R” is set as a boundary value on the short distance side with respect to the distance d of the peak position.
If "f" and "d + Rb" are set as the boundary values on the long distance side, the object can be appropriately divided into regions. For example, when the detection target of the main object is limited to a human, particularly in the case of a camera or the like, since a human often faces the camera, the depth is considered to be at most about 50 cm, and Rf and Rb are set to about 30 cm, respectively. It is possible.
【0096】また、物体毎に領域を分割するという観点
から考察すると、近距離の物体は距離に対する分割を細
かく、遠距離の物体は分割の幅を大きくとるなどの非線
型性を持たせることが効果的であり、この効果を実現す
るためには対数空間で所定値を加減算して境界値を決定
するのが妥当である。例えば、「log10(d)−R
f」と「log10(d)+Rb」として対数空間で境界
値を設定する方法が考えられる。これは実距離では境界
値を「d×10-Rf 」,「d×10Rb」に設定すること
に相当し、前述の効果が得られる。もちろん実距離で直
接「d×10-Rf」,「d×10Rb」を求めて境界値と
して設定可能であるのは明らかである。Considering from the viewpoint of dividing a region for each object, it is possible to provide a non-linear property such that an object at a short distance has a fine division with respect to a distance, and an object at a long distance has a large division width. It is effective, and in order to realize this effect, it is appropriate to determine a boundary value by adding or subtracting a predetermined value in a logarithmic space. For example, "log 10 (d) -R
A method of setting a boundary value in logarithmic space as “f” and “log 10 (d) + Rb” can be considered. This is equivalent to setting the boundary values to “d × 10 −Rf ” and “d × 10 Rb ” at the actual distance, and the above-described effect is obtained. Of course, it is obvious that “d × 10 −Rf ” and “d × 10 Rb ” can be directly obtained and set as the boundary values at the actual distance.
【0097】前述のように極大点の前後に境界値を設定
することにより、極大点に反映された物体を一つのグル
ープとして領域分割を行うことが可能となる。As described above, by setting the boundary values before and after the maximum point, it is possible to divide the area as a group of the objects reflected on the maximum point.
【0098】例を示す。図10(a)に示すシーンに対
してこれまでの処理を施すと、図10(b)のように3
つの極大点peak−D,peak−E,peak−F
を有するヒストグラムが生成される。peak−Dとp
eak−Eは、それぞれ被写体11と12により形成さ
れ、peak−Fは背景により形成される。peak−
D,peak−E,peak−Fに対して境界値を設定
すると、図中のborder−Df,border−D
r,border−Ef,border−Er,bor
der−Ff,border−Frで表される距離が境
界値になる。後の領域分割では、隣接ブロックの二つの
距離の間にこれらの境界値が存在する場合には隣接ブロ
ックの間が物体の境界であると判断する。この処理を画
面すべての隣接関係を構成するブロック間に実施するこ
とにより、前述のケースにおいて三つの被写体11,1
2と背景は明確に分離することができる。An example will be described. When the processing described so far is performed on the scene shown in FIG. 10A, three scenes are obtained as shown in FIG.
Peak-D, peak-E, and peak-F
Is generated. peak-D and p
The peak-E is formed by the subjects 11 and 12, respectively, and the peak-F is formed by the background. peak-
When boundary values are set for D, peak-E, and peak-F, border-Df, border-D in FIG.
r, border-Ef, border-Er, bor
The distance represented by der-Ff and border-Fr is the boundary value. In the subsequent region division, if these boundary values exist between two distances between adjacent blocks, it is determined that the boundary between the adjacent blocks is the boundary of the object. By performing this processing between blocks constituting the adjacent relationship of all the screens, in the case described above, the three subjects 11, 1
2 and the background can be clearly separated.
【0099】さらに、二つの物体の一部が接近している
場合、従来方法では隣接ブロックの単に距離差に基づい
て領域分割を行ってために誤判断が生じていたが、この
実施の形態では、距離差が少ないブロックは図10
(b)のarea−Aの分布内に存在することになるの
で、二つの物体を明確に分離できる。つまり、二つの物
体の一部が接近している場合においても、個々の物体の
平均的な距離が異なりさえすれば、個々の物体の存在は
頻度分布の別々のピークとして現れることが多いという
点に着目し、頻度分布の情報に基づき領域分割の境界値
を決定する様にしている為、距離差が少ない物体が存在
する状況であっても、又遠近競合が生じる状況に於て
も、正確に二つの物体を分離できる。Furthermore, when a part of two objects is close to each other, an erroneous determination occurs because the conventional method divides an area based on a mere distance difference between adjacent blocks. The block with a small distance difference is shown in FIG.
Since the object exists in the area-A distribution of (b), the two objects can be clearly separated. In other words, even when two objects are close to each other, the presence of each object often appears as a separate peak in the frequency distribution, as long as the average distance of each object is different. And focus on the frequency distribution information to determine the boundary value of the area division. Therefore, even if there is an object with a small distance difference, or even if there is a perspective conflict, accurate Can be separated into two objects.
【0100】このステップ(105)で行われる境界値
設定について、図11のフローチャートを用いて説明す
る。The setting of the boundary value performed in step (105) will be described with reference to the flowchart of FIG.
【0101】ステップ(501)において、極大値の番
号を表す数値uを初期化し、次のステップ(502)に
おいて、極大値の近距離側の境界値として「P(u)・
10-Rf 」を演算して、境界値を記録するメモリS(2
u)に記録する。続くステップ(503)においては、
極大値の遠距離側の境界値として「P(u)・10Rb」
をメモリS(2u+1)に記録する。そして、ステップ
(504)において、次の極大値の処理に移るために数
値uの値を1だけ増加させる。In step (501), a numerical value u representing the number of the maximum value is initialized, and in the next step (502), “P (u) ·
10 −Rf ”to store the boundary value in the memory S (2
Record in u). In the following step (503),
“P (u) · 10 Rb ” as the boundary value on the long distance side of the maximum value
Is stored in the memory S (2u + 1). Then, in step (504), the value of the numerical value u is increased by 1 in order to proceed to the processing of the next maximum value.
【0102】次のステップ(505)においては、uの
値を、前処理で求めた極大値の数unum と比較して、す
べての極大値に対する処理が完了したかどうかを調べ
る。この結果、「u<unum 」であれば、完了していな
いのでステップ(502)に戻り、「u<unum 」が偽
であれば、すべての極値に対する処理が完了する。In the next step (505), the value of u is compared with the maximum number u num of the maximum values obtained in the preprocessing to check whether or not the processing for all the maximum values has been completed. As a result, if “u <u num ”, the process is not completed, and the process returns to step (502). If “u <u num ” is false, the processing for all extreme values is completed.
【0103】以上の処理により、すべての境界値が、R
AM上に確保されたメモリS(0)〜S(2unum −
1)に記憶される。By the above processing, all the boundary values become R
The memories S (0) to S (2u num −
It is stored in 1).
【0104】再び図5の説明に戻り、上記の様にして境
界値の設定が完了すると、次はステップ(106)にお
いて、実際に領域分割を行う。Returning to the description of FIG. 5 again, when the setting of the boundary value is completed as described above, next, in step (106), the area is actually divided.
【0105】例えば、図12の様に、画面の左上のブロ
ックから図中の矢印のようにラスタ・スキャンしながら
分割処理を行う場合、注目ブロックG(x,y)の上の
ブロックG(x,y−1)と、左ブロックG(x−1,
y)との間で、同じグループかどうかの判定を行えば、
結果的にすべての隣接ブロック間で同一ブロックかどう
かの判定を行うことができる。このとき、画面の上辺
(y=0)と左辺(x=0)のブロックは、それぞれ上
のブロックと左のブロックが存在しないので、それらに
対する処理は行わない。For example, as shown in FIG. 12, when performing division processing while performing raster scanning from the upper left block of the screen as indicated by the arrow in the figure, the block G (x, y) above the block of interest G (x, y) , Y−1) and the left block G (x−1,
y), if it is determined whether the group is the same,
As a result, it can be determined whether or not all adjacent blocks are the same block. At this time, the blocks on the upper side (y = 0) and the left side (x = 0) of the screen do not have the upper block and the left block, respectively, so that no processing is performed on them.
【0106】また、判定の結果はRAM上のメモリG
(0,0)〜G(m−1,n−1)に記録する。まず、
(x,y)=(0,0)のブロックはグループ番号g=
1として登録して、領域が異なるグループが検出されれ
ばgの数を一つ増やしてそのブロックのグループ番号と
する。The result of the judgment is stored in the memory G on the RAM.
Record in (0,0) to G (m-1, n-1). First,
The block of (x, y) = (0, 0) has a group number g =
Registered as 1, and if a group having a different area is detected, the number of g is increased by one and set as the group number of the block.
【0107】この処理により、例えば図10(a)のよ
うな撮影シーンは、図13のように各グループ毎に番号
が与えられる。By this processing, for example, a photographing scene as shown in FIG. 10A is given a number for each group as shown in FIG.
【0108】こうした、番号付けの処理自体は「ラベリ
ング法」と呼ばれる公知技術であるので、領域分け全体
のフローチャートは省略するが、本実施の形態のキーポ
イントの一つであり、領域分け処理の中で行われる「隣
接ブロックが同一グループかどうかを判定するアルゴリ
ズム」を以下に説明する。Since the numbering process itself is a known technique called “labeling method”, a flowchart of the entire area division is omitted, but it is one of the key points of the present embodiment. The “algorithm for determining whether adjacent blocks are in the same group” performed in the description will be described below.
【0109】図14は、スキャン中のある注目ブロック
G(x,y)とその左のブロックG(x−1,y)との
ブロックの間で、二つのブロックが同一物体であるか別
物体であるか判定する場合のフローチャートである。FIG. 14 shows that two blocks are the same object or different objects between a block of interest G (x, y) being scanned and a block G (x−1, y) on the left. It is a flowchart at the time of determining whether it is.
【0110】ステップ(601)においては、注目ブロ
ックG(x,y)の距離値D(x,y)をワーク用の変
数d1 に、次のステップ(602)においては、比較ブ
ロックG(x−1,y)の距離値D(x−1,y)をワ
ーク用の変数d2 に、それぞれコピーする。[0110] In step (601), the block of interest G (x, y) distance value D (x, y) of the variable d 1 for work, in the next step (602), comparison block G (x The distance value D (x−1, y) of (−1, y) is copied to the variable for work d 2 .
【0111】次のステップ(603)においては、境界
値の番号を表す数値uと、二つのブロックが同一か否か
を表すフラグFlagを初期化する。「Flag=0」
で二つの物体が同一であることを表し、「Flag=
1」で二つの物体が別個であることを表すものとする。In the next step (603), a numerical value u representing a boundary value number and a flag Flag representing whether or not two blocks are the same are initialized. "Flag = 0"
Indicates that the two objects are the same, and “Flag =
"1" indicates that the two objects are distinct.
【0112】続くステップ(604)においては、比較
する二つの距離の間に境界値S(u)が存在するかどう
かを調べる。「d1 <S(u)and S(u)<d2 」は
「d1 <d2 」の場合の条件であり、d2 <S(u)an
d S(u)<d1 」は「d2<d1 」の場合の条件であ
る。In the following step (604), it is checked whether or not a boundary value S (u) exists between the two distances to be compared. “D 1 <S (u) and S (u) <d 2 ” is a condition for “d 1 <d 2 ”, and d 2 <S (u) an
d S (u) <d 1 "is a condition in the case of" d 2 <d 1 ".
【0113】これらの論理和をとった結果が真であれ
ば、二つのブロックは別個の物体であると判定すること
ができるので、次のステップ(605)にて、フラグを
立てて終了する。If the result of the logical sum is true, it can be determined that the two blocks are separate objects. Therefore, in the next step (605), a flag is set and the processing is terminated.
【0114】一方、論理和が偽であれば、次の境界値と
の比較を行うためにステップ(606)でuの値を一つ
増やす。そして、次のステップ(607)において、u
が境界値の個数をオーバーしていないかどうか調べ、オ
ーバーしていなければステップ(604)に戻り、次の
境界値でのチェックを行う。また、オーバーしていれ
ば、Flag=0のままチェックは終了したことにな
り、二つのブロックは同一物体であるとして終了する。On the other hand, if the logical sum is false, the value of u is increased by one in step (606) in order to compare with the next boundary value. Then, in the next step (607), u
Is checked to see if it exceeds the number of boundary values, and if not, the flow returns to step (604) to check for the next boundary value. If it is over, the check ends with Flag = 0, and the two blocks are ended as the same object.
【0115】以上の判定をすべてのブロックのすべての
隣接関係について行い、領域分割(グルーピング)が完
了する。The above determination is made for all the adjacencies of all the blocks, and the area division (grouping) is completed.
【0116】再び図5の説明に戻り、次のステップ(1
07)においては、撮影空間を構成する各領域(各グル
ープ)の特性を評価して、すべてのグループの中から主
被写体を表すグループを決定する。Returning to the description of FIG. 5, the next step (1)
In step 07), the characteristics of each region (each group) constituting the shooting space are evaluated, and a group representing the main subject is determined from all the groups.
【0117】例えば図21(c)の場合、図示した11
〜17の各グループすべてについて、平均的な距離や、
領域の幅,高さ、画面上の位置などの特性をそれぞれ演
算して、それらを総合評価して主被写体と考えられる領
域を判定する。For example, in the case of FIG.
The average distance for each of the ~ 17 groups,
Characteristics such as the width, height, position on the screen, and the like of the region are calculated, and are comprehensively evaluated to determine a region considered as a main subject.
【0118】例えば、以下の(1)式の様な主被写体度
評価関数が考えられる。For example, a main subject degree evaluation function represented by the following equation (1) can be considered.
【0119】 (主被写体度)=W1 ×(幅)×(高さ)+W2 /(画面中心からの距離) +W3 /(平均距離) ………(1) 上記(1)式に於て、W1 ,W2 ,W3 は重み付けの定
数、画面中心からの距離は画面中心と領域の重心位置と
の距離であり、また平均距離は領域内の全ブロックの平
均距離を表している。この主被写体度をすべての領域に
対して演算して、この主被写体度が最も大きい被写体を
主要被写体として判定する。(Main subject degree) = W 1 × (width) × (height) + W 2 / (distance from screen center) + W 3 / (average distance) (1) In the above equation (1) Te, W 1, W 2, W 3 is a constant weighting, the distance from the center is the distance between the center of gravity position of the screen center and the regions, the average distance represents the average distance of all blocks in the area . The main subject degree is calculated for all areas, and the subject having the highest main subject degree is determined as the main subject.
【0120】主被写体を表す領域が、例えば図10
(a)の11と判定した後、ステップ(108)に於て
この領域内の距離情報に基づき「合焦距離」を決定し、
この距離に焦点が合うようにレンズ駆動を行う。合焦距
離の決定方法は、前記領域に含まれるすべてのブロック
の距離平均や、領域内で最至近のブロックの距離などが
考えられる。The area representing the main subject is, for example, as shown in FIG.
After determining 11 in (a), in step (108), the “focusing distance” is determined based on the distance information within this area,
The lens is driven so as to focus on this distance. As a method of determining the focusing distance, the average of the distances of all the blocks included in the area, the distance of the nearest block in the area, and the like can be considered.
【0121】以上、ステップ(102)からステップ
(108)までの演算は、マイコンPRS内で行われ
る。As described above, the calculations from step (102) to step (108) are performed in the microcomputer PRS.
【0122】続くステップ(109)においては、上記
ステップ(108)で決定した距離に焦点が合うように
マイコンPRSからレンズLNSに対して焦点調節の命
令が送られ、レンズ内マイコンLPRSが焦点調節用モ
ータLMTRを制御して主被写体に焦点を合せ主被写体
への焦点調節が完了する。In the following step (109), a command for focus adjustment is sent from the microcomputer PRS to the lens LNS so that the focus is adjusted to the distance determined in step (108). The main object is focused by controlling the motor LMTR, and the focus adjustment on the main object is completed.
【0123】以上のように、距離の頻度分布情報を利用
して画面を領域分割し、物体毎のグループに分け、さら
にすべてのグループの中から主被写体と考えられるグル
ープを選択して、その物体に対して合焦するようにレン
ズを駆動することで、撮影者は主被写体の位置を意識す
ることなく構図に専念するだけで、主被写体に焦点があ
った写真を得ることが可能である。As described above, the screen is divided into regions using the frequency distribution information of distances, divided into groups for each object, and a group considered as the main subject is selected from all the groups, and the object is selected. By driving the lens so as to focus on, the photographer can obtain a photograph in which the main subject is focused only by focusing on the composition without being conscious of the position of the main subject.
【0124】さらに本実施の形態では、距離の頻度分布
の極大値の前後に、領域分割の境界値を設定することに
より、従来の方法では分離できなかった複数の物体を分
離することが可能となり、環境を正確に認識することが
できる。この結果、実施の形態のようにカメラの場合、
合焦距離の正確な判断を行うことができるようになる。Further, in this embodiment, by setting the boundary value of the area division before and after the maximum value of the frequency distribution of the distance, it becomes possible to separate a plurality of objects that could not be separated by the conventional method. , Can accurately recognize the environment. As a result, in the case of the camera as in the embodiment,
An accurate determination of the focusing distance can be performed.
【0125】また、本実施の形態では、環境認識の結果
を焦点検出に利用したが、主被写体と考えられる領域の
輝度情報に基づき露出を決定することにより、逆光状態
などの悪条件下に於ても主被写体に露出があった写真を
得ることができる。Further, in this embodiment, the result of environment recognition is used for focus detection. However, by determining the exposure based on the luminance information of the area considered as the main subject, it can be used under adverse conditions such as a backlight condition. Even so, a photograph in which the main subject is exposed can be obtained.
【0126】また、主被写体領域が判れば、例えば主被
写体が画面内で50%の面積を占めるように、ズームモ
ータZMF,ZMRを駆動することにより焦点距離を調
整して、主被写体に自動的に画角を合せるオートズーム
機能も容易に実現できる。When the main subject area is known, the focal length is adjusted by driving the zoom motors ZMF and ZMR so that the main subject occupies 50% of the area of the screen, and the main subject is automatically set. The automatic zoom function that adjusts the angle of view to the angle can be easily realized.
【0127】尚、以上の説明では距離の分布情報を利用
した場合の説明を行ったが、分布情報の要素として距離
ではなくデフォーカス量を用いて、同様の処理を行うこ
とが可能である。In the above description, the case where distance distribution information is used has been described. However, similar processing can be performed using the defocus amount instead of the distance as an element of the distribution information.
【0128】また、本実施の形態では、距離マップは
「m×n」の桝目上のブロックに対して作成したが、距
離測定ブロックの分布は必ずしも桝目状である必要はな
く、例えば千鳥配置などであっても問題なく、同様の処
理が可能である。Further, in the present embodiment, the distance map is created for the blocks on the “m × n” cells. However, the distribution of the distance measurement blocks does not necessarily have to be a cell shape. However, the same processing can be performed without any problem.
【0129】(実施の第2の形態)本発明の実施の第2
の形態は、上記実施の第1の形態に対して、極大値の検
出の精度をさらに高めたものであり、全体の処理の流れ
は図5に準ずる。(Second Embodiment) A second embodiment of the present invention will be described.
In this embodiment, the detection accuracy of the local maximum value is further improved with respect to the first embodiment described above, and the entire processing flow is in accordance with FIG.
【0130】この実施の第2の形態では、図5のステッ
プ(104)の極大値検出の方法が異なる。In the second embodiment, the method of detecting the maximum value in step (104) in FIG. 5 is different.
【0131】極大値として検出すべき点は、図15のp
eak−Gやpeak−H,peak−Jのようにある
程度の尖鋭度のあるピークが望ましく、peak−Iの
様に僅かな変動により生じた極大値は、そこに特定の物
体が存在することにより生じたピークではないことが多
いので、極大値として検出しないことが望ましい。The point to be detected as the maximum value is indicated by p in FIG.
A peak having a certain degree of sharpness, such as peak-G, peak-H, and peak-J, is desirable. The maximum value caused by a slight fluctuation, such as peak-I, depends on the presence of a specific object. Since it is often not a generated peak, it is desirable not to detect it as a local maximum.
【0132】そこで、本発明の実施の第2の形態では、
極大値の尖鋭度を評価して、所定値以上の尖鋭度を有す
る極値のみを後の領域分割点の決定に用いるようにす
る。Therefore, in a second embodiment of the present invention,
The sharpness of the maximum value is evaluated, and only the extreme value having a sharpness equal to or more than a predetermined value is used for determining a region division point later.
【0133】この極大値評価について、図16のフロー
チャートを用いて説明する。This maximum value evaluation will be described with reference to the flowchart of FIG.
【0134】ステップ(701)において、極大値の番
号を表す数値uを初期化し、次のステップ(702)に
おいて、頻度分布のデータ番号を表す数値tを1に初期
化する。そして、ステップ(703)において、頻度分
布の値H(t)と、前後の頻度分布の値H(t−1),
H(t+1)とを比較し、H(t)が頂点を形成してい
るかどうか調べる。この結果、H(t)>H(t−1)
かつ H(t)>H(t+1)であれば、H(t)は
極大値を形成していると判断することができ、ステップ
(704)に移る。また、極大値を形成していない場合
にはステップ(709)へ移る。In step (701), the numerical value u representing the number of the maximum value is initialized, and in the next step (702), the numerical value t representing the data number of the frequency distribution is initialized to 1. Then, in step (703), the value H (t) of the frequency distribution, the values H (t−1) of the frequency distribution before and after,
Compare with H (t + 1) to see if H (t) forms a vertex. As a result, H (t)> H (t-1)
If H (t)> H (t + 1), it can be determined that H (t) forms a local maximum, and the flow proceeds to step (704). If the maximum value has not been formed, the process proceeds to step (709).
【0135】ステップ(704)とステップ(705)
においては、検出された極大値と前後に所定値eだけ離
れた頻度分布の値の差をRAM上に確保した変数a,b
にコピーする。そして、ステップ(706)において、
これらの値をしきい値Tと比較して、いずれかの値がし
きい値を上回っていればこのピークは所定の尖鋭度を有
するものと判定して、ステップ(707)以降の極大値
登録へ移る。上記ステップ(706)で、a,bのいず
れの値も所定値を上回っていない場合、極大値の尖鋭度
は低いものと判定して、ステップ(709)へ移る。Step (704) and Step (705)
, Variables a and b in which the difference between the detected local maximum value and the value of the frequency distribution separated by a predetermined value e before and after is stored in the RAM.
Copy to Then, in step (706),
These values are compared with a threshold value T, and if any of the values exceeds the threshold value, it is determined that the peak has a predetermined sharpness, and the local maximum value registration after step (707) is performed. Move to In step (706), if none of the values a and b exceeds the predetermined value, it is determined that the sharpness of the local maximum value is low, and the process proceeds to step (709).
【0136】ステップ(707)においては、RAM上
に確保された極値記憶用の変数P(u)にtが表す距離
の代表値を記憶する。tが表す距離の代表値は、tが表
す距離範囲の中央の値が適当であり、例えば10
s(t+0.5)・dmin で与えられる。次のステップ(70
8)においては、頂点の番号を表す数値uを1だけ増加
させ、続くステップ(709)において、検出対象頻度
分布のデータ番号を表す数値tを1だけ増加させ、検出
対象の頻度分布を変更する。In step (707), the representative value of the distance represented by t is stored in the extreme value storage variable P (u) secured on the RAM. The central value of the distance range represented by t is appropriate as the representative value of the distance represented by t.
It is given by s (t + 0.5) · d min . The next step (70
In 8), the numerical value u representing the number of the vertex is increased by 1 and in the following step (709), the numerical value t representing the data number of the frequency distribution of the detection target is increased by 1 to change the frequency distribution of the detection target. .
【0137】次のステップ(710)においては、頻度
分布のデータ番号を表す数値tが頻度分布データの範囲
内であるかどうか、すなわち「t<tnum 」であるかど
うかを調べ、「t<tnum 」が真であれば、極値の検索
途中であるのでステップ(703)に戻る。また、「t
<tnum 」が偽であれば、検索は終了したものとしてス
テップ(711)に移る。In the next step (710), it is checked whether or not the numerical value t representing the data number of the frequency distribution is within the range of the frequency distribution data, ie, whether or not “t <t num ”. If “t num ” is true, the process returns to step (703) because the search for the extremum is in progress. Also, "t
If <t num ”is false, it is determined that the search has been completed, and the process proceeds to step (711).
【0138】ステップ(711)においては、後の処理
のために実際に登録された頂点の数を変数unum に保存
して頂点検出処理は終了する。In step (711), the number of vertices actually registered for later processing is stored in a variable u num and the vertex detection processing ends.
【0139】以上のフローにより、後の領域分割の境界
値として利用される極大値は所定値以上の尖鋭度を有す
る極大値に限定されることになるので、微細な極大値に
影響されることがなく実施の第1の形態に比べてさらに
精度良く環境を認識することが可能となる。According to the above flow, the local maximum value used as the boundary value for the subsequent area division is limited to the local maximum value having a sharpness equal to or more than the predetermined value, and therefore, the local maximum value is affected by the fine local maximum value. Therefore, it is possible to recognize the environment more accurately than in the first embodiment.
【0140】また、本実施の形態においても利用データ
は距離に限るものではなく、デフォーカスの情報や像ず
れ量に基づいて同様の判定を行うことも可能である。Also, in the present embodiment, the use data is not limited to the distance, and a similar determination can be made based on the defocus information and the image shift amount.
【0141】(実施の第3の形態)本発明の実施の第3
の形態は、頻度分布の極小値を利用して、領域分割に利
用する境界値を設定するものである。(Third Embodiment) A third embodiment of the present invention.
In the embodiment, a boundary value used for area division is set by using a local minimum value of the frequency distribution.
【0142】全体の処理の流れは、実施の第1の形態に
準ずるが、図5のステップ(104)の極値検出と、ス
テップ(105)の境界値設定の内容が異なる。Although the flow of the entire process conforms to the first embodiment, the contents of the extreme value detection in step (104) in FIG. 5 and the setting of the boundary value in step (105) are different.
【0143】本実施の形態では、図5のステップ(10
4)の極値検出において、極大値と極小値の位置を記憶
する。この処理について、図17のフローチャートを用
いて説明する。In the present embodiment, step (10) in FIG.
In the extremum detection of 4), the positions of the maximal value and the minimal value are stored. This processing will be described with reference to the flowchart in FIG.
【0144】ステップ(801)において、極大値の番
号を表す変数uを初期化し、次のステップ(802)に
おいて、頻度分布のデータ番号を表す数値tを1に初期
化する。次のステップ(803)においては、処理の開
始を表すフラグFirstの値を1とする。そして、ス
テップ(804)において、頻度分布の値H(t)と、
前後の頻度分布の値H(t−1),H(t+1)とを比
較し、H(t)が極大値を形成しているかどうか調べ
る。この結果、H(t)>H(t−1) かつ H
(t)>H(t+1)であれば、H(t)は極大値を形
成していると判定することができ、ステップ(805)
に移る。In step (801), a variable u representing the number of the maximum value is initialized, and in the next step (802), the numerical value t representing the data number of the frequency distribution is initialized to 1. In the next step (803), the value of the flag First indicating the start of the process is set to 1. Then, in step (804), the value H (t) of the frequency distribution
A comparison is made between the values H (t-1) and H (t + 1) of the frequency distribution before and after to determine whether or not H (t) forms a local maximum value. As a result, H (t)> H (t−1) and H
If (t)> H (t + 1), it can be determined that H (t) forms a local maximum, and step (805)
Move on to
【0145】ステップ(805)においては、極値が最
初に検出されたものであるかどうか調べ、最初の極値で
あればステップ(806)に移り、最初の極値が極大値
であることを表すフラグを立てる。そして、次のステッ
プ(807)において、最初の極値登録が完了したの
で、処理の開始を表すフラグFirstの値を0とする。In step (805), it is checked whether or not the extremum is the first one detected. If the extremum is the first extremum, the process proceeds to step (806), and it is determined that the first extremum is the maximum value. Set a flag to represent. Then, in the next step (807), since the first extreme value registration has been completed, the value of the flag First indicating the start of the process is set to 0.
【0146】また、上記ステップ(804)にて極大値
ではないと判定した場合は、ステップ(808)に移
り、H(t)が極小値を形成しているかどうか調べる。
この結果、H(t)<H(t−1) かつ H(t)<
H(t+1)であれば、H(t)は極小値を形成してい
ると判定することができ、ステップ(809)に移る。If it is determined in step (804) that the value is not the local maximum, the process proceeds to step (808) to check whether or not H (t) forms a local minimum.
As a result, H (t) <H (t-1) and H (t) <
If it is H (t + 1), it can be determined that H (t) forms a minimum value, and the routine goes to step (809).
【0147】ステップ(809)においては、極値が最
初に検出されたものであるかどうか調べ、最初の極値で
あればステップ(810)に移り、最初の極値が最小値
であることを表すフラグを立てる。そして、次のステッ
プ(811)において、最初の極値登録が完了したの
で、処理の開始を表すフラグFirstの値を0とする。In step (809), it is checked whether or not the extreme value is the first one detected. If the extreme value is the first extreme value, the process proceeds to step (810), and it is determined that the first extreme value is the minimum value. Set a flag to represent. Then, in the next step (811), since the first extreme value registration has been completed, the value of the flag First indicating the start of the process is set to 0.
【0148】極大値か極小値が検出された場合、ステッ
プ(812)において、RAM上に確保された極値記憶
用の変数P(u)にtが表す距離の代表値を記憶する。
tが表す距離の代表値は、tが表す距離範囲の中央の値
が適当であり、例えば10s(t+0.5)・dmin で与えられ
る。If the maximum value or the minimum value is detected, in step (812), the representative value of the distance represented by t is stored in the variable P (u) for storing the extreme value secured on the RAM.
The central value of the distance range represented by t is appropriate as the representative value of the distance represented by t, and is given by, for example, 10 s (t + 0.5) · d min .
【0149】次に、ステップ(813)において、極値
の番号を表す数値uを1だけ増加させ、続くステップ
(814)において、検出対象頻度分布のデータ番号を
表す数値tを1だけ増加させ、検出対象を変更する。そ
して、ステップ(815)において、tが頻度分布デー
タの範囲内であるかどうか、すなわち「t<tnum 」で
あるかどうかを調べ、「t<tnum 」が真であれば、極
値の検索途中であるのでステップ(804)に戻る。Next, in step (813), the numerical value u representing the extreme value number is increased by 1, and in the following step (814), the numerical value t representing the data number of the frequency distribution to be detected is increased by 1. Change the detection target. Then, in step (815), it is checked whether or not t is within the range of the frequency distribution data, that is, whether or not “t <t num ”. If “t <t num ” is true, the extreme value Since the search is in progress, the process returns to step (804).
【0150】このループを繰り返した場合、P(u)に
は極大値と極小値が交互に記録される。従って、フラグ
FirstMAX が1であれば、奇数と偶数のuに対してP
(u)はそれぞれ極大値と極小値、フラグFirstMAX が
0であれば、その逆を表すことになる。When this loop is repeated, the maximum value and the minimum value are alternately recorded in P (u). Therefore, if the flag FirstMAX is 1, P is set for odd and even u.
(U) represents the maximum value and the minimum value, respectively, and if the flag FirstMAX is 0, the opposite is true.
【0151】また、上記ステップ(815)にて「t<
tnum 」が偽であれば、検索は終了したものとしてステ
ップ(816)に移り、後の処理のために、実際に登録
された頂点の数を変数uunm に保存して頂点検出処理は
終了する。In the above step (815), "t <
If “t num ” is false, it is determined that the search has been completed, and the process proceeds to step (816), where the number of vertices actually registered is stored in a variable u unm for later processing, and the vertex detection process ends. I do.
【0152】次に、ステップ(105)の境界値設定に
ついて説明する。Next, the setting of the boundary value in step (105) will be described.
【0153】本実施の形態では、極大値の前後に存在す
る極小値に、領域分割の境界値を設定する。また、極大
値と極小値が所定距離より離れている場合には、極小値
ではなく極大値から前所定距離だけ離れた距離に境界値
を設定する。この境界値の設定のフローを図18を用い
て説明する。In the present embodiment, the boundary value of the area division is set to the minimum value existing before and after the maximum value. When the maximum value and the minimum value are more than a predetermined distance, the boundary value is set not at the minimum value but at a distance away from the maximum value by a predetermined distance before. The flow of setting the boundary value will be described with reference to FIG.
【0154】ステップ(901)において、境界値の番
号を表す変数vを初期化し、次のステップ(902)に
おいて、上記ステップ(104)で設定したフラグFir
stMAX が1かどうかを調べる。もし、「FirstMAX =
1」であれば、最初の極値が極大値であり、0であれば
最初の極値は極小値である。そこで、極大値であれば、
ステップ(904)にて極大値の番号を表す数値uを最
初の極大値の番号0とし、最初が極小値であれば、ステ
ップ(905)にて上記数値uを最初の極大値の番号1
に設定する。In step (901), a variable v representing the number of the boundary value is initialized. In the next step (902), the flag Fir set in step (104) is set.
Checks whether stMAX is 1. If "FirstMAX =
If "1", the first extremum is the maximum value, and if 0, the first extremum is the minimum value. So, if the maximum value,
In step (904), the numerical value u representing the number of the local maximum value is set to the first local maximum value number 0. If the local minimum value is first, the numerical value u is set to the first local maximum number number 1 in step (905).
Set to.
【0155】次にステップ(905)においては、極大
値の番号を表す数値uが1以上かどうか調べ、1以上で
あれば、極大値の手前の極小値を境界値に設定するため
にステップ(906)に移り、極大値と極小値の間の距
離差が所定距離Tより大きいかどうかを調べる。この結
果、所定距離より小さければ、次のステップ(907)
において、境界値を表す変数S(v)に極小値の値を設
定し、一方、所定距離より大きければステップ(90
8)へ移り、極大値から所定距離だけ手前の位置に境界
値を設定する。そして、次のステップ(909)におい
ては、境界値の番号を表す変数vの値を一つ増加させ
る。Next, in step (905), it is checked whether the numerical value u representing the number of the maximum value is 1 or more, and if it is 1 or more, the step (905) is performed in order to set the minimum value before the maximum value as the boundary value. In step 906), it is checked whether the distance difference between the maximum value and the minimum value is larger than a predetermined distance T. As a result, if it is smaller than the predetermined distance, the next step (907)
, A minimum value is set to a variable S (v) representing a boundary value.
Move to 8), and set a boundary value at a position a predetermined distance before the local maximum value. Then, in the next step (909), the value of the variable v indicating the number of the boundary value is increased by one.
【0156】また、ステップ(905)にて極大値の番
号を表す数値uが1より小さいとき(すなわちu=0の
とき)は、最初の極大値の前に極小値は存在しないこと
になるので、そのままステップ(910)へ移る。When the value u representing the number of the local maximum value is smaller than 1 (ie, when u = 0) in step (905), there is no local minimum value before the first local maximum value. Then, the process directly proceeds to step (910).
【0157】ステップ(910)では、極大値の番号を
表す数値uが「umax −1」より小さいかどうか調べ、
小さければ極大値の後ろ側の極小値を境界値として設定
するためにステップ(911)に移る。そして、このス
テップ(911)において、極大値と極小値の間の距離
差が所定距離Tより大きいかどうかを調べる。この結
果、所定距離より小さければ、ステップ(912)にお
いて、境界値を表す変数S(v)に極小値の値を設定
し、一方、所定距離より大きければ、ステップ(91
3)へ移り、極大値から所定距離だけ遠方の位置に境界
値を設定する。そして、次のステップ(914)におい
て、境界値の番号を表す変数vの値を一つ増加させる。In step (910), it is checked whether or not the numerical value u representing the number of the maximum value is smaller than "u max -1".
If it is smaller, the process moves to step (911) to set the local minimum value after the local maximum value as the boundary value. Then, in this step (911), it is checked whether or not the distance difference between the local maximum value and the local minimum value is larger than the predetermined distance T. As a result, if the distance is smaller than the predetermined distance, in step (912), the value of the minimum value is set to the variable S (v) representing the boundary value.
Move to 3), and set a boundary value at a position distant by a predetermined distance from the local maximum value. Then, in the next step (914), the value of the variable v indicating the number of the boundary value is increased by one.
【0158】上記ステップ(910)にて極大値の番号
を表す数値uがumax 以上である場合は、極大値の後ろ
に極小値が存在しなかったことになり、そのままステッ
プ(915)へ移る。If the numerical value u representing the maximum number in step (910) is equal to or greater than u max , it means that there is no minimum value after the maximum value, and the process directly proceeds to step (915). .
【0159】ステップ(915)においては、次の極大
値に処理を移すために極大値の番号を表す数値uの値を
2だけ増加させる。そして、次のステップ(916)に
おいて、上記数値uの値がunum より小さいかどうか調
べ、小さければ未だデータが存在するので、次の境界値
を設定するためにステップ(905)に戻る。また、上
記数値uの値がunum 以上の場合、すべての極値につい
て境界値設定が完了したことになり処理は終了する。In the step (915), the value of the numerical value u representing the number of the maximum value is increased by 2 in order to shift the processing to the next maximum value. Then, in the next step (916), it is checked whether or not the value of the numerical value u is smaller than u num . If it is smaller, there is still data, so the flow returns to step (905) to set the next boundary value. If the value of the numerical value u is equal to or greater than u num , the boundary value setting has been completed for all extreme values, and the process ends.
【0160】以上の処理により、境界値は図19の点1
4,15の様に、極大値の前後の極小値に境界値が設定
される。また、極大値と極小値の間の距離が長すぎる場
合には、点13のように極大値から所定量離れた位置に
境界値が設定され、適切な境界値が設定できることにな
る。By the above processing, the boundary value is changed to the point 1 in FIG.
A boundary value is set at a local minimum value before and after the local maximum value, as in 4,15. If the distance between the local maximum value and the local minimum value is too long, the boundary value is set at a position away from the local maximum value by a predetermined amount, such as the point 13, so that an appropriate boundary value can be set.
【0161】極大値と極小値の距離差のしきい値Tを単
に実距離で設定した例を示したが、距離を対数空間に変
換した状態で差をとる方法も可能である。Although the example in which the threshold value T of the distance difference between the local maximum value and the local minimum value is simply set by the actual distance has been described, a method of obtaining the difference in a state where the distance is converted into a logarithmic space is also possible.
【0162】以上のフローにより、後の領域分割の境界
値として利用される境界値は、物体と物体の間に設定さ
れる事になり、適切に環境を認識することが可能とな
る。According to the above flow, the boundary value used as the boundary value for the subsequent area division is set between the objects, and the environment can be appropriately recognized.
【0163】また、本実施の形態においても利用データ
は距離に限るものではなく、デフォーカスの情報に基づ
いて同様の判定を行うことも可能である。Also, in the present embodiment, the use data is not limited to the distance, and a similar determination can be made based on defocus information.
【0164】(実施の第4の形態)本発明の実施の第4
の形態は、従来の方法にさらに頻度分布データによる手
法を組合せたものであり、領域分割の手法として非常に
精度が高いものである。全体の処理の流れは図5に準ず
る。(Fourth Embodiment) A fourth embodiment of the present invention will be described.
Is a combination of a conventional method and a method based on frequency distribution data, and is extremely accurate as a region dividing method. The flow of the entire process conforms to FIG.
【0165】この実施の第4の形態では、図5のステッ
プ(106)の領域分割の判定手法が異なり、他は処理
は、前述の実施の第1の形態に準ずる。In the fourth embodiment, the method of determining the area division in step (106) in FIG. 5 is different, and the other processes are the same as those in the first embodiment.
【0166】領域分割の判定方法について、図20の境
界判定フローチャートを用いて説明する。The method of determining the area division will be described with reference to the flowchart of FIG.
【0167】ステップ(1001)において、注目ブロ
ックG(x,y)の距離値D(x,y)をワーク用の変
数d1 に、次のステップ(1002)において、比較ブ
ロックG(x−1,y)の距離値D(x−1,y)をワ
ーク用の変数d2 に、それぞれコピーする。In step (1001), the distance value D (x, y) of the block of interest G (x, y) is set to the variable d 1 for the work. In the next step (1002), the comparison block G (x−1) is set. , Y) are copied to the variable for work d 2 .
【0168】次のステップ(1003)においては、境
界値の番号を表す数値uと、二つのブロックが同一か否
かを表すフラグFlagを初期化する。「Flag=
0」で二つの物体が同一であることを表し、「Flag
=1」で二つの物体が別個であることを表すものとす
る。In the next step (1003), a numerical value u representing a boundary value number and a flag Flag representing whether or not two blocks are the same are initialized. "Flag =
"0" indicates that the two objects are the same, and "Flag
= 1 "indicates that the two objects are distinct.
【0169】次のステップ(1004)においては、二
つのブロックの距離の差が所定値Tsより小さいかどう
か調べる。小さければ、二つの物体は同一物体である可
能性が高いものとしてステップ(1005)に移る。ま
た、距離差がTs以上であれば、二つの物体は別物体と
してステップ(1006)に移る。In the next step (1004), it is checked whether the difference between the distances of the two blocks is smaller than a predetermined value Ts. If it is smaller, it is determined that the two objects are likely to be the same object, and the process proceeds to step (1005). If the distance difference is equal to or greater than Ts, the two objects are determined as different objects, and the process proceeds to step (1006).
【0170】ステップ(1005)においては、比較す
る二つの距離の間に境界値S(u)が存在するかどうか
を調べる。「d1 <S(u)and S(u)<d2 」は
「d1<d2 」の場合の条件であり、「d2 <S(u)a
nd S(u)<d1 」は「d2<d1 」の場合の条件であ
る。In step (1005), it is checked whether or not a boundary value S (u) exists between the two distances to be compared. “D 1 <S (u) and S (u) <d 2 ” is a condition for “d 1 <d 2 ”, and “d 2 <S (u) a
“nd S (u) <d 1 ” is a condition in the case of “d 2 <d 1 ”.
【0171】これらの論理和をとった結果が真であれ
ば、二つのブロックは別個の物体であると判定すること
ができるので、ステップ(1006)でフラグを立てて
終了する。If the result of the logical sum is true, it is possible to determine that the two blocks are separate objects, so that a flag is set in step (1006) and the processing ends.
【0172】一方、論理和が偽であれば、次の境界値と
の比較を行うためにステップ(1007)で極大値の番
号を表す数値uの値を一つ増やす。そして、次のステッ
プ(1008)において、極大値の番号を表す数値uが
境界値の個数をオーバーしていないかどうか調べ、オー
バーしていなければステップ(1005)に戻り、次の
境界値でのチェックを行う。また、オーバーしていれ
ば、「Flag=0」のままチェックは終了したことに
なり、二つのブロックは同一物体であるとして終了す
る。On the other hand, if the logical sum is false, the value of the numerical value u representing the maximum number is increased by one in step (1007) in order to compare with the next boundary value. Then, in the next step (1008), it is checked whether or not the numerical value u representing the number of the maximum value exceeds the number of boundary values, and if not, the process returns to step (1005), and the next boundary value is used. Perform a check. If it is over, the check ends with "Flag = 0", and the two blocks are ended as the same object.
【0173】以上の判定をすべてのブロックのすべての
隣接関係について行い、領域分割(グルーピング)が完
了する。The above determination is made for all adjacent relations of all blocks, and the area division (grouping) is completed.
【0174】以上の方法で領域分割を行うことにより、
従来一つの領域としてまとめて分割してしまう一部のみ
が近接する複数物体でも、頻度分布により設定した境界
値でさらにチェックを行うことにより、正しく領域分割
を行うことができる。By performing the area division by the above method,
Even in the case of a plurality of objects in which only a part which is conventionally divided into a single region and which is only partly close to each other, the region can be correctly divided by further checking with a boundary value set by the frequency distribution.
【0175】(変形例)本発明は、一眼レフカメラに適
用した例を述べているが、ビデオカメラや電子スチルカ
メラ等の映像装置にも適用可能である。更には、以下の
様な装置にも適用可能である。(Modification) Although the present invention has been described as applied to a single-lens reflex camera, it is also applicable to video devices such as video cameras and electronic still cameras. Further, the present invention is applicable to the following devices.
【0176】例えば、自らの進行方向を決定する自動走
行ロボットや、前後の障害物を判断して自動的に危険回
避を行う車に利用可能である。さらには、室内で人物が
存在する方向を判断して適切に送風制御するエアコンな
ど、幅広い技術分野で利用可能である。For example, the present invention can be used for an automatic traveling robot that determines its own traveling direction, and a vehicle that determines obstacles in front and behind to automatically avoid danger. Furthermore, the present invention can be used in a wide range of technical fields, such as an air conditioner that determines the direction in which a person is present in a room and controls air blowing appropriately.
【0177】また、本発明は、以上の実施の各形態、又
はそれらの技術を適当に組み合わせた構成にしてもよ
い。Further, the present invention may have a configuration in which the above embodiments or their techniques are appropriately combined.
【0178】[0178]
【発明の効果】以上説明したように、請求項1及び9記
載の本発明によれば、距離の頻度分布情報の極値の情報
を領域分割に利用することにより、従来誤判定が多かっ
た距離差が少ない物体が存在する状況においても、正し
く領域分割を行うことができるようになり、正確な環境
認識を実現することができる。As described above, according to the first and ninth aspects of the present invention, by using the extreme value information of the frequency distribution information of the distance for the area division, the distance which has conventionally been frequently misjudged is determined. Even in a situation where there is an object having a small difference, it is possible to correctly perform region division, and it is possible to realize accurate environment recognition.
【0179】また、請求項2及び9記載の本発明によれ
ば、距離の頻度分布情報の極大値を検出し、極大値の前
後に、領域分割の判定要素として用いる境界値を設定す
ることにより、正しく領域分割を行うことができるよう
になり、正確な環境認識を実現することができる。According to the second and ninth aspects of the present invention, a local maximum value of distance frequency distribution information is detected, and a boundary value used as a determination element for area division is set before and after the local maximum value. Thus, the region can be correctly divided, and accurate environment recognition can be realized.
【0180】また、請求項3及び9記載の本発明によれ
ば、距離の頻度分布情報の極値の尖鋭度を評価し、所定
の尖鋭度を有する極値の情報のみを領域分割に利用する
ことにより、さらに正しく領域分割を行うことができる
ようになり、正確な環境認識を実現することができる。According to the third and ninth aspects of the present invention, the sharpness of the extreme value of the distance frequency distribution information is evaluated, and only the extreme value information having a predetermined sharpness is used for area division. As a result, the region can be more correctly divided, and accurate environment recognition can be realized.
【0181】また、請求項4及び9記載の本発明によれ
ば、距離の頻度分布情報の極小値を領域分割に利用する
ことにより、正しく領域分割を行うことができるように
なり、正確な環境認識を実現することができる。Further, according to the present invention as set forth in claims 4 and 9, the minimum value of the frequency distribution information of the distance is used for the area division, so that the area can be correctly divided, and an accurate environment can be obtained. Recognition can be realized.
【0182】また、請求項5及び10記載の記載の本発
明によれば、デフォーカスの頻度分布情報の極値の情報
を領域分割に利用することにより、従来誤判定が多かっ
た距離差が少ない物体が存在する状況においても、正し
く領域分割を行うことができるようになり、正確な環境
認識を実現することができる。According to the present invention as set forth in claims 5 and 10, by using extreme value information of the defocus frequency distribution information for area division, the distance difference in which erroneous determination has conventionally been large is small. Even in a situation where an object exists, it is possible to correctly perform region division, and to realize accurate environment recognition.
【0183】また、請求項6及び10記載の本発明によ
れば、デフォーカスの頻度分布情報の極大値を検出し、
極大値の前後に、領域分割の判定要素として用いる境界
値を設定することにより、正しく領域分割を行うことが
できるようになり、正確な環境認識を実現することがで
きる。According to the sixth and tenth aspects of the present invention, the local maximum value of the defocus frequency distribution information is detected.
By setting a boundary value to be used as a determination element for area division before and after the maximum value, area division can be performed correctly, and accurate environment recognition can be realized.
【0184】また、請求項7及び10記載の本発明によ
れば、デフォーカスの頻度分布情報の極値の尖鋭度を評
価し、所定の尖鋭度を有する極値の情報のみを領域分割
に利用することにより、さらに正しく領域分割を行うこ
とができるようになり、正確な環境認識を実現すること
ができる。According to the present invention, the sharpness of the extreme value of the frequency distribution information of defocus is evaluated, and only the information of the extreme value having a predetermined sharpness is used for area division. By doing so, it becomes possible to perform the area division more correctly, and it is possible to realize accurate environment recognition.
【0185】また、請求項8及び10記載の本発明によ
れば、デフォーカスの頻度分布情報の極小値を領域分割
に利用することにより、正しく領域分割を行うことがで
きるようになり、正確な環境認識を実現することができ
る。According to the present invention as set forth in claims 8 and 10, by using the minimum value of the frequency distribution information of defocus for area division, it becomes possible to perform area division correctly, and Environmental recognition can be realized.
【0186】また、請求項11記載の本発明によれば、
距離またはデフォーカス情報を利用した環境認識装置を
備えており、主被写体に対して適切な撮影パラメータを
自動的に設定することができるカメラを実現することが
できる。Further, according to the present invention described in claim 11,
A camera that includes an environment recognition device that uses distance or defocus information and can automatically set appropriate shooting parameters for a main subject can be realized.
【0187】また、請求項12記載の本発明によれば、
距離またはデフォーカス情報を利用した環境認識装置を
備えており、主被写体に対して自動的に焦点調節を行う
カメラを実現することができる。Further, according to the present invention described in claim 12,
A camera that includes an environment recognition device that uses distance or defocus information and that automatically adjusts the focus of a main subject can be realized.
【0188】また、請求項13記載の本発明によれば、
距離またはデフォーカス情報を利用した環境認識装置を
備えており、逆光などの悪条件下等においても、正確に
主被写体に露出を合せることが可能なカメラを実現する
ことができる。Further, according to the present invention described in claim 13,
It is possible to realize a camera that includes an environment recognition device that uses distance or defocus information and can accurately adjust the exposure of the main subject even under adverse conditions such as backlight.
【0189】また、請求項14記載の本発明によれば、
距離またはデフォーカス情報を利用した環境認識装置を
備えており、撮影者がレンズの焦点距離の調節を行うこ
となく、主被写体に適切に画角を調節することが可能な
カメラを実現することができる。According to the fourteenth aspect of the present invention,
It is possible to realize a camera that has an environment recognition device that uses distance or defocus information and allows the photographer to adjust the angle of view appropriately for the main subject without adjusting the focal length of the lens. it can.
【図1】本発明の実施の第1の形態に係るカメラの光学
系配置図である。FIG. 1 is an arrangement diagram of an optical system of a camera according to a first embodiment of the present invention.
【図2】図1の光学系の更に詳細な構造を示した斜視図
である。FIG. 2 is a perspective view showing a more detailed structure of the optical system of FIG. 1;
【図3】図2の光学系の平面図である。FIG. 3 is a plan view of the optical system of FIG. 2;
【図4】本発明の実施の第1の形態に係るカメラの電気
的構成を示すブロック図である。FIG. 4 is a block diagram showing an electrical configuration of the camera according to the first embodiment of the present invention.
【図5】図4のカメラの主要部分の動作を示すフローチ
ャートである。FIG. 5 is a flowchart showing an operation of a main part of the camera of FIG. 4;
【図6】図5のステップ(102)における距離マップ
作成時の動作を示すフローチャートである。FIG. 6 is a flowchart showing an operation at the time of creating a distance map in step (102) of FIG. 5;
【図7】図5のステップ(103)における頻度分布作
成時の動作を示すフローチャートである。FIG. 7 is a flowchart showing an operation at the time of creating a frequency distribution in step (103) of FIG. 5;
【図8】図7の動作により作成されるヒストグラム例で
ある。8 is an example of a histogram created by the operation of FIG. 7;
【図9】図5のステップ(104)における極値検出時
の動作を示すフローチャートである。FIG. 9 is a flowchart showing an operation at the time of detecting an extreme value in step (104) of FIG. 5;
【図10】図11の境界値設定の動作説明を助ける為の
図である。FIG. 10 is a diagram for helping to explain the operation of setting the boundary value in FIG. 11;
【図11】図5のステップ(105)における境界値設
定時の動作を示すフローチャートである。FIG. 11 is a flowchart showing an operation when setting a boundary value in step (105) of FIG. 5;
【図12】本発明の実施の第1の形態における領域分割
方法を説明する為の図である。FIG. 12 is a diagram for describing an area dividing method according to the first embodiment of the present invention.
【図13】同じく本発明の実施の第1の形態におけるラ
ベリング結果の一例を示す図である。FIG. 13 is a diagram illustrating an example of a labeling result according to the first embodiment of the present invention.
【図14】同じく本発明の実施の第1の形態における境
界判定時の動作を示すフローチャートである。FIG. 14 is a flowchart showing an operation at the time of boundary determination according to the first embodiment of the present invention.
【図15】本発明の実施の第2の形態に係るカメラの検
出すべきピークを説明する為の図である。FIG. 15 is a diagram for explaining peaks to be detected by the camera according to the second embodiment of the present invention.
【図16】本発明の実施の第2の形態に係るカメラの境
大値検出時の動作を示すフローチャートである。FIG. 16 is a flowchart showing an operation of the camera according to the second embodiment of the present invention when detecting a boundary maximum value.
【図17】本発明の実施の第2の形態に係るカメラの境
値検出時の動作を示すフローチャートである。FIG. 17 is a flowchart showing an operation of the camera according to the second embodiment of the present invention when detecting a boundary value.
【図18】本発明の実施の第3の形態に係るカメラの境
界値設定時の動作を示すフローチャートである。FIG. 18 is a flowchart showing an operation when setting a boundary value of the camera according to the third embodiment of the present invention.
【図19】本発明の実施の第3の形態に係るカメラにお
いて境界値設定例を示す図である。FIG. 19 is a diagram showing an example of setting a boundary value in a camera according to a third embodiment of the present invention.
【図20】本発明の実施の第4の形態に係るカメラの境
界判定時の動作を示すフローチャートである。FIG. 20 is a flowchart showing an operation of the camera at the time of boundary determination according to the fourth embodiment of the present invention.
【図21】カメラでの撮影シーンの一例を示す図であ
る。FIG. 21 is a diagram illustrating an example of a shooting scene with a camera.
1 撮影レンズ 4 エリアセンサ 4a,4b 撮像画面 11〜17 距離マップから抽出した被写体例 PRS マイコン ICC エリアセンサ LNS レンズ LPRS レンズ内マイコン Reference Signs List 1 shooting lens 4 area sensor 4a, 4b imaging screen 11-17 subject example extracted from distance map PRS microcomputer ICC area sensor LNS lens LPRS microcomputer in lens
Claims (14)
個々の物体毎に切り分けるが如く領域分割する領域分割
手段を備え、該領域分割手段の出力を基に環境認識を行
う環境認識装置において、前記領域分割手段は、前記距
離分布情報に基づいて距離の頻度分布情報を作成し、該
頻度分布情報を領域分割の判定要素の一つとして用いる
ことを特徴とする環境認識装置。1. An environment recognition apparatus comprising: a region dividing unit that divides a screen into individual objects based on distance distribution information of an object scene, and performs environment recognition based on an output of the region dividing unit. In the environment recognition apparatus, the region dividing means generates distance frequency distribution information based on the distance distribution information, and uses the frequency distribution information as one of the determination factors for region division.
の極大値を検出し、該極大値の前後の所定分量だけ離れ
た距離に境界値を設定し、この境界値の情報に基づいて
領域分割を行うことを特徴とする請求項1記載の環境認
識装置。2. The area dividing means detects a local maximum value of the frequency distribution information, sets a boundary value at a distance separated by a predetermined amount before and after the local maximum value, and sets an area based on the boundary value information. The environment recognition apparatus according to claim 1, wherein the environment recognition apparatus performs division.
極値に対してその尖鋭度を評価し、所定値以上の尖鋭度
を有する極値の情報のみを領域分割の判定要素の一つと
して用いることを特徴とする請求項1記載の環境認識装
置。3. The region dividing means evaluates the sharpness of all the detected extreme values, and uses only the information of the extreme value having a sharpness equal to or more than a predetermined value as one of the determination elements of the region division. The environment recognition device according to claim 1, wherein the environment recognition device is used.
の極小値を検出し、極小値の距離をもって境界値と設定
し、この境界値の情報に基づいて領域分割を行うことを
特徴とする請求項1記載の環境認識装置。4. The method according to claim 1, wherein the region dividing means detects a minimum value of the frequency distribution information, sets a boundary value with a distance of the minimum value, and performs region division based on the boundary value information. The environment recognition device according to claim 1.
き、画面を個々の物体毎に切り分けるが如く領域分割す
る前記領域分割手段を備え、該領域分割手段の出力に基
づいて環境認識を行う環境認識装置において、前記領域
分割手段は、前記デフォーカス分布情報に基づいてデフ
ォーカスの頻度分布情報を作成し、該頻度分布情報を前
記領域分割の判定要素の一つとして用いることを特徴と
する環境認識装置。5. The image processing apparatus according to claim 1, further comprising a region dividing unit that divides a screen into individual regions based on distribution information of defocus of the object scene, and performs environment recognition based on an output of the region dividing unit. In the environment recognition device, the area dividing unit creates defocus frequency distribution information based on the defocus distribution information, and uses the frequency distribution information as one of the determination elements for the area division. Environment recognition device.
の極大値を検出し、該極大値の前後の所定分量だけ離れ
たデフォーカス値に境界値を設定し、この境界値の情報
に基づいて領域分割を行うことを特徴とする請求項5記
載の環境認識装置。6. The region dividing means detects a local maximum value of the frequency distribution information, sets a boundary value at a defocus value separated by a predetermined amount before and after the local maximum value, and based on the boundary value information. 6. The environment recognition apparatus according to claim 5, wherein the area is divided by performing the area division.
極値に対してその尖鋭度を評価し、所定値以上の尖鋭度
を有する極値の情報のみを領域分割の判定要素の一つと
して用いることを特徴とする請求項5記載の環境認識装
置。7. The region dividing means evaluates the sharpness of all the detected extreme values, and uses only the information of the extreme value having a sharpness equal to or more than a predetermined value as one of the determination elements of the region division. The environment recognition device according to claim 5, wherein the environment recognition device is used.
の極大値と極小値を検出し、極大値の前後に存在する極
小値のデフォーカス値をもって境界値と設定し、この境
界値の情報に基づいて領域分割を行うことを特徴とする
請求項5記載の環境認識装置。8. The region dividing means detects a local maximum value and a local minimum value of the frequency distribution information, sets a defocus value of a local minimum value before and after the local maximum value as a boundary value, and sets the boundary value information. 6. The environment recognition apparatus according to claim 5, wherein the area is divided based on the following.
段を有し、前記領域分割手段は、前記距離測定手段によ
り得られる距離分布情報に基づいて領域分割を行うこと
を特徴とする請求項1,2,3又は4記載の環境認識装
置。9. The apparatus according to claim 1, further comprising a distance measuring means for measuring distances in a plurality of directions, wherein said area dividing means divides the area based on distance distribution information obtained by said distance measuring means. The environment recognition device according to 1, 2, 3, or 4.
方向のデフォーカスを測定するデフォーカス測定手段を
有し、前記領域分割手段は、前記デフォーカス測定手段
により得られるデフォーカス分布情報に基づいて領域分
割を行うことを特徴とする請求項5,6,7又は8記載
の環境認識装置。10. Defocus measuring means for measuring defocus in a plurality of directions with respect to a focal position of a photographing optical system, wherein said area dividing means is based on defocus distribution information obtained by said defocus measuring means. 9. The environment recognition apparatus according to claim 5, wherein the area is divided.
と、該環境認識装置の環境認識結果から主被写体の領域
を検出する主被写体検出手段と設けたことを特徴とする
カメラ。11. A camera comprising: the environment recognition device according to claim 9; and a main subject detection unit configured to detect a main subject region from an environment recognition result of the environment recognition device.
づいて主被写体に焦点を合わせる自動焦点調節手段を具
備したことを特徴とする請求項11記載のカメラ。12. The camera according to claim 11, further comprising an automatic focus adjustment unit that focuses on a main subject based on an output result of the main subject detection unit.
づいて主被写体領域の光量を測定する測定手段と、その
光量に基づいて露光量を調節する自動露光量調節手段と
を具備したことを特徴とする請求項11記載のカメラ。13. An image forming apparatus comprising: a measuring means for measuring a light amount of a main subject area based on an output result of the main subject detecting means; and an automatic exposure adjusting means for adjusting an exposure amount based on the light quantity. The camera according to claim 11, wherein
づいて主被写体が適切な大きさになるようにレンズの焦
点距離を調節する自動焦点調節手段を具備したことを特
徴とする請求項11記載のカメラ。14. An apparatus according to claim 11, further comprising an automatic focus adjusting means for adjusting a focal length of the lens so that the main subject has an appropriate size based on an output result of said main subject detecting means. Camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8318566A JPH10142490A (en) | 1996-11-15 | 1996-11-15 | Environment recognition device and camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8318566A JPH10142490A (en) | 1996-11-15 | 1996-11-15 | Environment recognition device and camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10142490A true JPH10142490A (en) | 1998-05-29 |
Family
ID=18100573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8318566A Pending JPH10142490A (en) | 1996-11-15 | 1996-11-15 | Environment recognition device and camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10142490A (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000258683A (en) * | 1999-03-10 | 2000-09-22 | Canon Inc | Focus detector and range-finding device |
JP2003195151A (en) * | 2001-12-27 | 2003-07-09 | Minolta Co Ltd | Autofocus device |
US6625398B1 (en) | 1999-09-10 | 2003-09-23 | Olympus Optical Co., Ltd. | Camera with a multi-point distance measuring apparatus |
US6765618B1 (en) | 1998-10-19 | 2004-07-20 | Pentax Corporation | Subject selection device and in-focus portion indicating device |
JP2009115893A (en) * | 2007-11-02 | 2009-05-28 | Canon Inc | Image-pickup apparatus |
US8160378B2 (en) | 2008-02-04 | 2012-04-17 | Ricoh Company, Ltd. | Apparatus, method and system for image processing |
JP2012093754A (en) * | 2010-10-28 | 2012-05-17 | Axis Ab | Focusing method |
US9819863B2 (en) | 2014-06-20 | 2017-11-14 | Qualcomm Incorporated | Wide field of view array camera for hemispheric and spherical imaging |
US9832381B2 (en) | 2014-10-31 | 2017-11-28 | Qualcomm Incorporated | Optical image stabilization for thin cameras |
US9838601B2 (en) | 2012-10-19 | 2017-12-05 | Qualcomm Incorporated | Multi-camera system using folded optics |
US9854182B2 (en) | 2014-06-20 | 2017-12-26 | Qualcomm Incorporated | Folded optic array camera using refractive prisms |
US9860434B2 (en) | 2014-04-04 | 2018-01-02 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
US9973680B2 (en) | 2014-04-04 | 2018-05-15 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
US10013764B2 (en) | 2014-06-19 | 2018-07-03 | Qualcomm Incorporated | Local adaptive histogram equalization |
US10084958B2 (en) | 2014-06-20 | 2018-09-25 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax and tilt artifacts |
US10178373B2 (en) | 2013-08-16 | 2019-01-08 | Qualcomm Incorporated | Stereo yaw correction using autofocus feedback |
JP2022161958A (en) * | 2015-07-31 | 2022-10-21 | ソニーグループ株式会社 | Control device, control method, computer program, and electronic apparatus |
JP2023011552A (en) * | 2021-07-12 | 2023-01-24 | パナソニックIpマネジメント株式会社 | Imaging apparatus |
-
1996
- 1996-11-15 JP JP8318566A patent/JPH10142490A/en active Pending
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6765618B1 (en) | 1998-10-19 | 2004-07-20 | Pentax Corporation | Subject selection device and in-focus portion indicating device |
JP2000258683A (en) * | 1999-03-10 | 2000-09-22 | Canon Inc | Focus detector and range-finding device |
US6625398B1 (en) | 1999-09-10 | 2003-09-23 | Olympus Optical Co., Ltd. | Camera with a multi-point distance measuring apparatus |
JP2003195151A (en) * | 2001-12-27 | 2003-07-09 | Minolta Co Ltd | Autofocus device |
JP2009115893A (en) * | 2007-11-02 | 2009-05-28 | Canon Inc | Image-pickup apparatus |
US8160378B2 (en) | 2008-02-04 | 2012-04-17 | Ricoh Company, Ltd. | Apparatus, method and system for image processing |
JP2012093754A (en) * | 2010-10-28 | 2012-05-17 | Axis Ab | Focusing method |
US10165183B2 (en) | 2012-10-19 | 2018-12-25 | Qualcomm Incorporated | Multi-camera system using folded optics |
US9838601B2 (en) | 2012-10-19 | 2017-12-05 | Qualcomm Incorporated | Multi-camera system using folded optics |
US10178373B2 (en) | 2013-08-16 | 2019-01-08 | Qualcomm Incorporated | Stereo yaw correction using autofocus feedback |
US9973680B2 (en) | 2014-04-04 | 2018-05-15 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
US9860434B2 (en) | 2014-04-04 | 2018-01-02 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
US10013764B2 (en) | 2014-06-19 | 2018-07-03 | Qualcomm Incorporated | Local adaptive histogram equalization |
US9843723B2 (en) | 2014-06-20 | 2017-12-12 | Qualcomm Incorporated | Parallax free multi-camera system capable of capturing full spherical images |
US9854182B2 (en) | 2014-06-20 | 2017-12-26 | Qualcomm Incorporated | Folded optic array camera using refractive prisms |
US10084958B2 (en) | 2014-06-20 | 2018-09-25 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax and tilt artifacts |
US9819863B2 (en) | 2014-06-20 | 2017-11-14 | Qualcomm Incorporated | Wide field of view array camera for hemispheric and spherical imaging |
US9832381B2 (en) | 2014-10-31 | 2017-11-28 | Qualcomm Incorporated | Optical image stabilization for thin cameras |
JP2022161958A (en) * | 2015-07-31 | 2022-10-21 | ソニーグループ株式会社 | Control device, control method, computer program, and electronic apparatus |
US11930282B2 (en) | 2015-07-31 | 2024-03-12 | Sony Group Corporation | Control device, control method, and electronic device to determine a lens position |
JP2023011552A (en) * | 2021-07-12 | 2023-01-24 | パナソニックIpマネジメント株式会社 | Imaging apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5890021A (en) | Distance detecting device, focus state detecting device and camera having same | |
JP4018218B2 (en) | Optical apparatus and distance measuring point selection method | |
US4768052A (en) | Focus detecting device | |
JPH10142490A (en) | Environment recognition device and camera | |
US5091742A (en) | Camera having an auto focusing device | |
US5594500A (en) | Image pickup apparatus | |
US20040223073A1 (en) | Focal length detecting method and focusing device | |
JPH1125263A (en) | Object feature point detector, focus adjusting device, exposure controller and camera | |
US5995144A (en) | Automatic focusing device using phase difference detection | |
US4994841A (en) | Automatic focus detecting means | |
JPH0629895B2 (en) | Focus state determination device | |
CN108540693A (en) | Image capture apparatus and image capturing unit | |
JP3335419B2 (en) | Camera ranging device | |
JPH1138313A (en) | Optical device and camera | |
US6636699B2 (en) | Focus detection device and distance measurement device | |
US5144357A (en) | Automatic focus detecting means | |
JP3630965B2 (en) | Focus detection apparatus, camera, and focus detection method | |
JP4011738B2 (en) | Optical device | |
JPH07181369A (en) | Automatic focusing camera, and automatic focusing method of camera | |
US6507707B2 (en) | Distance measuring apparatus and distance measuring method | |
JP3382321B2 (en) | Optical equipment | |
JP2000019386A (en) | Camera | |
JP2000009430A (en) | Optical device | |
JPH07318787A (en) | Automatic zoom device | |
JP3216423B2 (en) | Camera ranging device |