Nothing Special   »   [go: up one dir, main page]

JP2011090048A - Automatic focus regulator for camera - Google Patents

Automatic focus regulator for camera Download PDF

Info

Publication number
JP2011090048A
JP2011090048A JP2009241600A JP2009241600A JP2011090048A JP 2011090048 A JP2011090048 A JP 2011090048A JP 2009241600 A JP2009241600 A JP 2009241600A JP 2009241600 A JP2009241600 A JP 2009241600A JP 2011090048 A JP2011090048 A JP 2011090048A
Authority
JP
Japan
Prior art keywords
target drive
drive position
lens
focus
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009241600A
Other languages
Japanese (ja)
Inventor
Koichi Nakada
康一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009241600A priority Critical patent/JP2011090048A/en
Publication of JP2011090048A publication Critical patent/JP2011090048A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Cameras In General (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic focus regulator for a camera which is high in accuracy in the prediction of a moving object even if a moving amount of the moving object is abruptly changed immediately before photographing. <P>SOLUTION: An AF/AECPU calculates a predicted target drive position based on a target drive position obtained in the past excepting the obtained last target drive position when not receiving an indication of exposure. That is, the target drive position in time (t)=T0+T1 is predicted based on the target drive position obtained in a period (T0) before a computation time point not using the target drive position obtained in the computation time point in moving object prediction computation (g<SB>4</SB>). On the other hand, the target drive positions in time t= T0+T2 and t=T0+T3 are predicted based on the target drive positions obtained in the past including the target drive position obtained in the computation time point in moving object prediction computation (k<SB>1</SB>) when receiving the indication of exposure. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明はカメラ用自動焦点調節装置に関する。   The present invention relates to an automatic focusing apparatus for a camera.

カメラにおいて、移動する被写体に合焦させるための、所謂動体予測に関する技術は、従来から数多く考案されている。動体予測に関する技術とは、即ち、移動する被写体の焦点を検出し、移動する被写体の未来の像面位置を予測し、予測した像面位置に合焦する様にレンズを駆動する技術である。例えば特許文献1には、合焦のずれであるデフォーカス量を連続的に検出しつつ、現在と過去のデフォーカス量に基づいて未来の被写体の像面位置を算出する技術が開示されている。更に、算出した未来の被写体の像面位置に合焦するように焦点調節レンズの駆動制御を行う自動焦点調節装置の技術が開示されている。この特許文献1に開示されている技術では、動体予測の精度を向上させるため、最新のデフォーカス量検出時の動体予測演算と同時に実行するレンズ駆動制御において、最新に検出されたデフォーカス量は動体予測演算に用いず、前回以前に検出されたデフォーカス量を用いる。   Many techniques relating to so-called moving object prediction for focusing on a moving object in a camera have been conventionally devised. The technique related to moving object prediction is a technique for detecting the focus of a moving subject, predicting the future image plane position of the moving subject, and driving the lens so as to focus on the predicted image plane position. For example, Patent Document 1 discloses a technique for calculating the image plane position of a future subject based on the current and past defocus amounts while continuously detecting the defocus amount that is a focus shift. . Furthermore, a technology of an automatic focus adjustment device that performs drive control of the focus adjustment lens so as to focus on the calculated image plane position of a future subject is disclosed. In the technique disclosed in Patent Document 1, in order to improve the accuracy of moving object prediction, in the lens driving control executed simultaneously with the moving object prediction calculation at the time of detecting the latest defocus amount, the latest detected defocus amount is The defocus amount detected before the previous time is used instead of the moving object prediction calculation.

特開平5−2127号公報JP-A-5-2127

しかしながら特許文献1に開示されている技術においては、前回以前に検出されたデフォーカス量を用いて動体予測演算を行うため、露光直前に移動する被写体の移動量が急激に変化する場合、動体予測の精度が低下する可能性がある。その結果、動体予測演算で得られる結果と実際の被写体動作の誤差が大きくなり、焦点調節精度が劣化するという課題がある。   However, in the technique disclosed in Patent Document 1, since the moving object prediction calculation is performed using the defocus amount detected before the previous time, the moving object prediction is performed when the moving amount of the subject moving immediately before the exposure changes abruptly. Accuracy may be reduced. As a result, there is a problem that an error between the result obtained by the moving object prediction calculation and the actual subject motion becomes large, and the focus adjustment accuracy deteriorates.

そこで本発明は、露光直前に移動する被写体の移動量が急激に変化する場合でも高い動体予測精度を有するカメラ用自動焦点調節装置を提供することを目的とする。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an automatic focusing apparatus for a camera having high moving object prediction accuracy even when the amount of movement of a subject moving immediately before exposure changes rapidly.

前記目的を果たすため、本発明に係るカメラ用自動焦点調節装置の一態様は、フォーカスレンズの焦点状態であるデフォーカス量を検出する焦点検出手段と、前記焦点検出手段が検出した前記デフォーカス量と、前記焦点検出手段が前記デフォーカス量を検出した時点での前記位置検出手段が検出した前記フォーカスレンズの位置とに基づいて算出された前記フォーカスレンズの位置が合焦位置となる目標駆動位置を取得する目標駆動位置取得手段と、前記目標駆動位置取得手段が時系列に取得した複数の目標駆動位置に基づいて、前記焦点検出手段が前記デフォーカス量を検出した時点より後の時点における前記フォーカスレンズの位置が合焦位置となる予測目標駆動位置を算出する動体予測手段と、前記予測目標駆動位置への前記フォーカスレンズの移動を指示するレンズ駆動指示手段とを具備し、前記予測目標駆動位置の算出を繰り返し行う動体予測動作時に前記動体予測手段は、露光の指示を受けていなければ、最新に得られた前記目標駆動位置を除き前記動体予測動作の開始以後に得られた前記目標駆動位置に基づいて第1の予測目標駆動位置を算出し、前記露光の指示を受けたならば、前記最新に得られた前記目標駆動位置を含む前記動体予測動作の開始以後に得られた前記目標駆動位置に基づいて第2の予測目標駆動位置を算出することを特徴とする。   In order to achieve the above object, one aspect of an automatic focusing apparatus for a camera according to the present invention includes a focus detection unit that detects a defocus amount that is a focus state of a focus lens, and the defocus amount detected by the focus detection unit. And a position of the focus lens calculated based on the position of the focus lens detected by the position detection unit at the time when the focus detection unit detects the defocus amount. And a target drive position acquisition unit that acquires the defocus amount, and a target drive position acquisition unit that acquires the defocus amount based on a plurality of target drive positions acquired in time series by the target drive position acquisition unit. A moving body predicting means for calculating a predicted target drive position at which the position of the focus lens is an in-focus position; and the focus to the predicted target drive position. Lens moving instruction means for instructing movement of the lens, and the moving object prediction means at the time of the moving object prediction operation for repeatedly calculating the predicted target drive position, if the exposure instruction is not received, The first predicted target drive position is calculated based on the target drive position obtained after the start of the moving body predicting operation except for the target drive position, and if the exposure instruction is received, the latest obtained A second predicted target drive position is calculated based on the target drive position obtained after the start of the moving object prediction operation including the target drive position.

本発明によれば、露光直前に移動する被写体の移動量が急激に変化する場合でも高い動体予測精度を有するカメラ用自動焦点調節装置を提供できる。   According to the present invention, it is possible to provide an automatic focusing apparatus for a camera having high moving object prediction accuracy even when the amount of movement of a subject moving immediately before exposure changes rapidly.

本発明の各実施形態に係るカメラ用自動焦点調節装置を搭載したカメラとしての一眼レフレクスカメラの一例の概略図。Schematic of an example of the single-lens reflex camera as a camera carrying the camera automatic focus adjustment apparatus which concerns on each embodiment of this invention. ファインダ内に表示される焦点検出エリアの一例を示す概略図。Schematic which shows an example of the focus detection area displayed in a finder. 各実施形態におけるカメラに係る、(A)は焦点検出光学系の構成の一例を示す図であり、(B)は視野マスクの一例の正面図であり、(C)はセパレータ絞りマスクの一例の正面図であり、(D)はセパレータレンズの一例の正面図であり、(E)はAFセンサの一例の正面図であり、(F)は交換レンズ部内の各レンズ群を合成した仮想的なレンズである撮影レンズの一例の正面図である。(A) is a figure which shows an example of a structure of a focus detection optical system concerning the camera in each embodiment, (B) is a front view of an example of a field mask, (C) is an example of a separator aperture mask. It is a front view, (D) is a front view of an example of a separator lens, (E) is a front view of an example of an AF sensor, (F) is a hypothetical | virtual material which combined each lens group in an interchangeable lens part. It is a front view of an example of the taking lens which is a lens. 図1に示すカメラの電気的な構成の一例を示すブロック図。FIG. 2 is a block diagram illustrating an example of an electrical configuration of the camera illustrated in FIG. 1. 各実施形態におけるカメラの、露光の指示を受けていない時の動体予測処理の一例を示すフローチャート。The flowchart which shows an example of the moving body prediction process at the time of not receiving the instruction | indication of exposure of the camera in each embodiment. 本発明の第1の実施形態に係るカメラ用自動焦点調節装置を搭載したカメラの、動体予測処理の動作シーケンスの一例を示す図。The figure which shows an example of the operation | movement sequence of a moving body prediction process of the camera carrying the camera automatic focus adjustment apparatus which concerns on the 1st Embodiment of this invention. 各実施形態におけるカメラの、動体予測演算の一例を説明する図。The figure explaining an example of the moving body prediction calculation of the camera in each embodiment. 第1の実施形態におけるカメラの、露光の指示を受けている時の動体予測処理の一例を示すフローチャート。5 is a flowchart illustrating an example of a moving object prediction process when receiving an exposure instruction of the camera according to the first embodiment. 本発明の第2の実施形態に係るカメラ用自動焦点調節装置を搭載したカメラの、露光の指示を受けている時の動体予測処理の一例を示すフローチャート。The flowchart which shows an example of the moving body prediction process at the time of receiving the instruction | indication of exposure of the camera which mounts the automatic focus adjustment apparatus for cameras which concerns on the 2nd Embodiment of this invention. 第2の実施形態におけるカメラの、動体予測処理の動作シーケンスの一例を示す図。The figure which shows an example of the operation | movement sequence of the moving body prediction process of the camera in 2nd Embodiment.

[第1の実施形態]
以下、本発明の第1の実施形態について図面を参照して説明する。まず、本発明の各実施形態に係るカメラとしての一眼レフレクスカメラの例の概略を図1に示す。尚、図1に示す構成及び以下の本実施形態の説明は、デジタルスチルカメラを想定したものであるが、本発明の各実施形態は、銀塩スチルカメラにも同様に適用可能なことは勿論である。このカメラは、カメラ本体100と、該カメラ本体100に対して着脱可能な交換レンズ部101とで構成されている。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. First, FIG. 1 shows an outline of an example of a single-lens reflex camera as a camera according to each embodiment of the present invention. The configuration shown in FIG. 1 and the following description of the present embodiment assume a digital still camera. However, each embodiment of the present invention is of course applicable to a silver salt still camera as well. It is. This camera includes a camera body 100 and an interchangeable lens unit 101 that can be attached to and detached from the camera body 100.

交換レンズ部101は、焦点調節レンズ102及びズームレンズ103を含んで構成されている。焦点調節レンズ102は、光軸方向に駆動されて、該交換レンズ部101の焦点状態を調節する。また、ズームレンズ103は、光軸方向に駆動されて、該交換レンズ部101の焦点距離を変更する。   The interchangeable lens unit 101 includes a focus adjustment lens 102 and a zoom lens 103. The focus adjustment lens 102 is driven in the optical axis direction to adjust the focus state of the interchangeable lens unit 101. The zoom lens 103 is driven in the optical axis direction to change the focal length of the interchangeable lens unit 101.

一方、カメラ本体100は、メインミラー104、サブミラー105、焦点検出光学系106、焦点検出センサ(以下、AFセンサと称する)107、フォーカルプレンシャッタ108、撮像素子109、スクリーンマット110、ファインダ光学系111、及び接眼レンズ112を含んで構成されている。   On the other hand, the camera body 100 includes a main mirror 104, a sub mirror 105, a focus detection optical system 106, a focus detection sensor (hereinafter referred to as AF sensor) 107, a focal plane shutter 108, an image sensor 109, a screen mat 110, and a viewfinder optical system 111. And an eyepiece 112.

メインミラー104は、ハーフミラーで構成されており、被写体からの光束を一部透過させ、一部反射させる。また、メインミラー104は、露光時において全光束が撮像素子109で構成される撮像面に入射するように、図中の矢印で示す方向に回動可能な構成になっている。   The main mirror 104 is composed of a half mirror, which partially transmits and partially reflects the light flux from the subject. Further, the main mirror 104 is configured to be rotatable in a direction indicated by an arrow in the drawing so that all light beams are incident on an imaging surface formed by the imaging element 109 during exposure.

露光時以外では、メインミラー104を透過した被写体からの光束は、サブミラー105によって反射されて、焦点検出光学系106に導かれる。焦点検出光学系106は、焦点検出のためのレンズなどで構成されており、サブミラー105で反射された光束をAFセンサ107に導く。尚、この焦点検出光学系106の詳しい構成については後に詳述する。   Except at the time of exposure, the light beam from the subject transmitted through the main mirror 104 is reflected by the sub mirror 105 and guided to the focus detection optical system 106. The focus detection optical system 106 includes a lens for focus detection and the like, and guides the light beam reflected by the sub mirror 105 to the AF sensor 107. The detailed configuration of the focus detection optical system 106 will be described in detail later.

また、AFセンサ107は、例えば、フォトダイオードアレイから成るセンサである。このAFセンサ107は、複数の焦点検出が可能であるように構成されている。つまり、AFセンサ107は、複数の焦点検出エリアに対応する複数のフォトダイオードアレイを持つ。尚、AFセンサ107の詳しい構成についても後に詳述する。   The AF sensor 107 is, for example, a sensor composed of a photodiode array. The AF sensor 107 is configured to be able to detect a plurality of focus points. That is, the AF sensor 107 has a plurality of photodiode arrays corresponding to a plurality of focus detection areas. The detailed configuration of the AF sensor 107 will also be described in detail later.

前述したように、露光時においては、メインミラー104が交換レンズ部101の光軸上から退避するので、被写体からの光束が撮像面方向に入射する。このとき、フォーカルプレンシャッタ108は、撮像面に適切な量の光を与えるように駆動制御される。撮像面を構成する撮像素子109には、デジタルスチルカメラの場合にはCCDやCMOSセンサ等が用いられる。尚、カメラが銀塩カメラの場合には、撮像素子109の代わりに銀塩フィルムが用いられる。前述のフォーカルプレンシャッタ108が開いたときには、撮像素子109で構成された撮像面に、被写体からの光束が入射する。   As described above, at the time of exposure, the main mirror 104 is retracted from the optical axis of the interchangeable lens unit 101, so that the light flux from the subject is incident in the imaging surface direction. At this time, the focal plane shutter 108 is driven and controlled to give an appropriate amount of light to the imaging surface. In the case of a digital still camera, a CCD, a CMOS sensor, or the like is used for the image pickup element 109 that forms the image pickup surface. In the case where the camera is a silver salt camera, a silver salt film is used instead of the image sensor 109. When the above-described focal plane shutter 108 is opened, the light flux from the subject enters the imaging surface formed by the imaging element 109.

また、露光時以外では、メインミラー104で反射された被写体からの光束は、ファインダ方向に入射して、スクリーンマット110で像を結ぶ。この像は、ファインダ光学系111を介して接眼レンズ112に入射する。撮影者は、この接眼レンズ112を覗くことによって、撮影範囲や被写体に対する合焦状態などを知ることができる。   Further, at times other than the exposure time, the light beam from the subject reflected by the main mirror 104 is incident in the finder direction, and an image is formed by the screen mat 110. This image enters the eyepiece 112 through the finder optical system 111. The photographer can know the photographing range, the focused state of the subject, and the like by looking into the eyepiece 112.

図2は、ファインダ内に表示される焦点検出エリアについての概略図である。撮影者が接眼レンズ112から覗いた場合に、ファインダ内には、AFセンサ107の複数の焦点検出エリアに対応した焦点検出エリアマーク113が表示される。尚、この図2の例は、11点の測距エリアを持つマルチAFの例を示している。   FIG. 2 is a schematic diagram of a focus detection area displayed in the viewfinder. When the photographer looks into the eyepiece 112, focus detection area marks 113 corresponding to the plurality of focus detection areas of the AF sensor 107 are displayed in the viewfinder. Note that the example of FIG. 2 shows an example of multi-AF having 11 distance measuring areas.

次に、図3(A)乃至(F)を参照して、焦点検出光学系106とAFセンサ107の構成について詳しく説明する。図3(A)に示すように、焦点検出光学系106は、視野マスク120、コンデンサレンズ121、全反射ミラー122、赤外カットフィルタ123、セパレータ絞りマスク124、及びセパレータレンズ125から成る。尚、同図においては、交換レンズ部101内の各レンズ群、例えば、前述の焦点調節レンズ102やズームレンズ103を合成した仮想的なレンズを、撮影レンズ126として図示している。   Next, the configurations of the focus detection optical system 106 and the AF sensor 107 will be described in detail with reference to FIGS. As shown in FIG. 3A, the focus detection optical system 106 includes a field mask 120, a condenser lens 121, a total reflection mirror 122, an infrared cut filter 123, a separator diaphragm mask 124, and a separator lens 125. In the drawing, each lens group in the interchangeable lens unit 101, for example, a virtual lens obtained by synthesizing the focus adjustment lens 102 and the zoom lens 103 is illustrated as a photographing lens 126.

視野マスク120は、サブミラー105を介して得られる光束を絞り込むものである。サブミラー105から導かれる複数の焦点検出領域の光束(図中の点線)を透過させるために、視野マスク120は、図3(B)の正面図に示すような開口部127を有している。   The field mask 120 narrows down the light beam obtained through the sub mirror 105. In order to transmit the light fluxes (dotted lines in the drawing) of the plurality of focus detection areas guided from the sub mirror 105, the field mask 120 has an opening 127 as shown in the front view of FIG.

コンデンサレンズ121は、視野マスク120を通過した光を集光するためのものである。このコンデンサレンズ121は、視野マスク120の開口部127の位置に対応して配置される。   The condenser lens 121 is for condensing the light that has passed through the field mask 120. The condenser lens 121 is arranged corresponding to the position of the opening 127 of the field mask 120.

全反射ミラー122は、光束を反射し、赤外カットフィルタ123を介してセパレータ絞りマスク124の方向に導くものである。   The total reflection mirror 122 reflects the light beam and guides it in the direction of the separator diaphragm mask 124 via the infrared cut filter 123.

赤外カットフィルタ123は、焦点検出に有害な赤外光成分をカットするためのフィルタである。   The infrared cut filter 123 is a filter for cutting an infrared light component harmful to focus detection.

セパレータ絞りマスク124は、入射してきた光束を絞るためのものである。このセパレータ絞りマスク124は、前述のコンデンサレンズ121を介して得られる光束を4つの光束に分割するために、図3(C)の正面図に示すような4つの開口部124a、124b、124c、124dを有している。   The separator diaphragm mask 124 is for narrowing the incident light flux. This separator diaphragm mask 124 has four openings 124a, 124b, 124c, as shown in the front view of FIG. 3C, in order to divide the light beam obtained through the condenser lens 121 into four light beams. 124d.

セパレータレンズ125は、前述のセパレータ絞りマスク124を介して得られる光束をAFセンサ107上に再結像させるものである。このセパレータレンズ125は、図3(D)の正面図に示すような4つのセパレータレンズ125a、125b、125c、125dで構成される。   The separator lens 125 re-images the light beam obtained through the separator diaphragm mask 124 on the AF sensor 107. The separator lens 125 includes four separator lenses 125a, 125b, 125c, and 125d as shown in the front view of FIG.

前述のAFセンサ107は、受光光束の光強度分布に対応した光強度信号を得る光電変換素子列である図3(E)の正面図に示すような4つフォトダイオードアレイ部128a、128b、128c、128dで構成される。このうち、フォトダイオードアレイ部128a、128bは、撮影画面の水平方向に対応する方向の並びに配置され、他の2つのフォトダイオードアレイ部128c、128dは、撮影画面の垂直方向に対応する方向の並びに配置されており、一つの測距エリア内で水平及び垂直方向の被写体パターンを検出可能な所謂クロスセンサタイプの構成となっている。   The AF sensor 107 described above has four photodiode array sections 128a, 128b, and 128c as shown in the front view of FIG. 3E, which is a photoelectric conversion element array that obtains a light intensity signal corresponding to the light intensity distribution of the received light flux. , 128d. Among these, the photodiode array units 128a and 128b are arranged in a direction corresponding to the horizontal direction of the shooting screen, and the other two photodiode array units 128c and 128d are arranged in a direction corresponding to the vertical direction of the shooting screen. It is arranged and has a so-called cross sensor type configuration capable of detecting a subject pattern in the horizontal and vertical directions within one distance measuring area.

このように構成された焦点検出光学系106では、図3(F)の正面図に示すような撮影レンズ126の射出瞳面の互いに異なる領域126a、126bと領域126c、126dとを通過する焦点検出光束が、フォトダイオードアレイ部128a、128b及び128c、128dによりそれぞれ受光されて、像の光強度分布パターンを示す電気信号に変換される。この光強度信号を用いて焦点検出の一方式であるTTL位相差方式によって焦点検出を行う。   In the focus detection optical system 106 configured in this way, focus detection that passes through different areas 126a and 126b and areas 126c and 126d on the exit pupil plane of the photographing lens 126 as shown in the front view of FIG. Light beams are received by the photodiode array units 128a, 128b and 128c, 128d, respectively, and converted into electrical signals indicating the light intensity distribution pattern of the image. Using this light intensity signal, focus detection is performed by a TTL phase difference method which is one method of focus detection.

尚、図3(A)中の参照符号129は、撮像面を構成する撮像素子109と等価な距離にある一次結像面を示している。   Note that reference numeral 129 in FIG. 3A indicates a primary imaging plane at a distance equivalent to the imaging element 109 constituting the imaging plane.

上記のようなカメラの電気的な構成について図4を参照して説明する。まず、交換レンズ部101に関する構成について説明する。交換レンズ部101の外部には、その周囲を取り巻くようにリング状になったズーム駆動用回転環130及びマニュアルフォーカス(MF)用回転環131が配置されている。撮影者は、ズーム駆動用回転環130を交換レンズ部101の光軸中心に回転させることによって、ズームレンズ103を光軸方向に駆動させて、交換レンズ部101の焦点距離を変更することができる。   The electrical configuration of the camera as described above will be described with reference to FIG. First, a configuration related to the interchangeable lens unit 101 will be described. A zoom driving rotary ring 130 and a manual focus (MF) rotary ring 131 that are ring-shaped so as to surround the periphery of the interchangeable lens unit 101 are disposed. The photographer can change the focal length of the interchangeable lens unit 101 by driving the zoom lens 103 in the optical axis direction by rotating the zoom driving rotary ring 130 about the optical axis of the interchangeable lens unit 101. .

また、MF用回転環131を交換レンズ部101の光軸中心に回転させると、それに連動して、焦点調節レンズ102が光軸方向に駆動する。これにより、交換レンズ部101の焦点を手動で調節することができる。尚、このMF用回転環131は、撮影者がオートフォーカスモードとマニュアルフォーカスモードとを切り替える図示しない切り替えスイッチを操作して、マニュアルフォーカスモードを選択した場合に使用されるものである。   When the MF rotating ring 131 is rotated about the optical axis of the interchangeable lens unit 101, the focus adjustment lens 102 is driven in the optical axis direction in conjunction therewith. Thereby, the focus of the interchangeable lens part 101 can be adjusted manually. The MF rotating ring 131 is used when the photographer selects a manual focus mode by operating a changeover switch (not shown) that switches between an autofocus mode and a manual focus mode.

交換レンズ部101の内部は、焦点調節レンズ102、ズームレンズ103、絞り132、及び交換レンズ部101の各種制御(例えば、レンズ駆動制御、絞り駆動制御、通信制御など)を司るレンズCPU(以下、LCPUと称する)133を含んで構成されている。そして、このLCPU133には、ズーム位置検出回路134、絞り駆動回路135、レンズ駆動回路136、レンズ位置検出回路137、及び通信回路138が接続されている。   The interior of the interchangeable lens unit 101 includes a lens CPU (hereinafter referred to as lens drive control, aperture drive control, communication control, etc.) for controlling the focus adjustment lens 102, the zoom lens 103, the diaphragm 132, and the interchangeable lens unit 101. (Referred to as LCPU) 133. The LCPU 133 is connected to a zoom position detection circuit 134, a diaphragm drive circuit 135, a lens drive circuit 136, a lens position detection circuit 137, and a communication circuit 138.

前述のズーム駆動用回転環130によって駆動されたズームレンズ103の位置は、ズーム位置検出回路134によって検出される。LCPU133は、ズーム位置検出回路134によって検出されたズームレンズ103の位置に基づいて、交換レンズ部101の焦点距離情報を得る。   The position of the zoom lens 103 driven by the zoom driving rotary ring 130 is detected by a zoom position detection circuit 134. The LCPU 133 obtains focal length information of the interchangeable lens unit 101 based on the position of the zoom lens 103 detected by the zoom position detection circuit 134.

絞り132は、カメラ本体100方向に入射する光の光量を調節するための開口部を含んで構成される。LCPU133は、絞り駆動回路135を制御することによって絞り132の開口部の大きさを変化させて、適切な光量の光をカメラ本体100方向に入射させる。   The aperture 132 includes an opening for adjusting the amount of light incident in the direction of the camera body 100. The LCPU 133 changes the size of the opening of the diaphragm 132 by controlling the diaphragm driving circuit 135 so that an appropriate amount of light enters the camera body 100 direction.

また、オートフォーカスモード時においては、LCPU133は、焦点調節レンズ102の駆動量を算出し、レンズ駆動回路136を制御して焦点調節レンズ102を駆動させる。レンズ駆動回路136によって駆動された焦点調節レンズ102の位置は、レンズ位置検出回路137によって検出される。このレンズ位置検出回路137は、例えば、レンズ駆動回路136に含まれる駆動用モータの回転量をパルス数に変換して検出するフォトインタラプタ(PI)回路などを含んで構成されている。このフォトインタラプタ回路では、焦点調節レンズ102からの絶対位置が、ある基準位置からのパルス数で表される。LCPU133は、レンズ位置検出回路137によって検出されたレンズ位置に基づいて、交換レンズ部101の焦点状態情報を得る。LCPU133は、この焦点状態情報と、後述するAF/AECPUとの通信により得られた情報とに基づいて、合焦するために必要な前記パルス数を算出する。   In the autofocus mode, the LCPU 133 calculates the drive amount of the focus adjustment lens 102 and controls the lens drive circuit 136 to drive the focus adjustment lens 102. The position of the focus adjustment lens 102 driven by the lens driving circuit 136 is detected by a lens position detection circuit 137. The lens position detection circuit 137 includes, for example, a photo interrupter (PI) circuit that detects the rotation amount of the drive motor included in the lens drive circuit 136 by converting it into the number of pulses. In this photo interrupter circuit, the absolute position from the focus adjustment lens 102 is represented by the number of pulses from a certain reference position. The LCPU 133 obtains the focus state information of the interchangeable lens unit 101 based on the lens position detected by the lens position detection circuit 137. The LCPU 133 calculates the number of pulses necessary for focusing based on this focus state information and information obtained through communication with the AF / AECPU described later.

また、LCPU133は、絞り駆動量や交換レンズ部101のデフォーカス量などの情報を、通信回路138を介して後に詳述するカメラ本体のCPUやAF/AECPUと通信する。このため、通信回路138の通信接続端子は、交換レンズ部101の外部に設けられている。   Further, the LCPU 133 communicates information such as the aperture driving amount and the defocus amount of the interchangeable lens unit 101 with the CPU and AF / AECPU of the camera body, which will be described in detail later, via the communication circuit 138. For this reason, the communication connection terminal of the communication circuit 138 is provided outside the interchangeable lens unit 101.

次に、カメラ本体100に関する構成について説明する。カメラ本体100の内部は、カメラ全体の制御を司る本体CPU139を含んで構成されている。そして、この本体CPU139には、LCPU133と通信回路138を介して通信するための通信ライン140、本体CPU139のプログラムなどが記憶されているフラッシュROM(FROM)141、本体CPU139の各種情報を一時記憶するRAM142、画像データを得るために撮像素子109を制御する撮像素子制御回路143、図示しないストロボを制御するストロボ制御回路144、メインミラー104のアップダウンを制御するミラー制御回路145、フォーカルプレンシャッタ108を制御するシャッタ制御回路146、撮像素子制御回路143で得られた画像データを画像処理する画像処理回路147、撮影した画像や各種撮影情報を図示しない表示部に表示するための表示回路148、撮影者が操作する各種操作スイッチが接続された操作スイッチ検出回路149、カメラに電源を供給するための電源回路150、及びAF/AECPU151が接続されている。   Next, a configuration related to the camera body 100 will be described. The interior of the camera body 100 is configured to include a body CPU 139 that controls the entire camera. The main body CPU 139 temporarily stores a communication line 140 for communicating with the LCPU 133 via the communication circuit 138, a flash ROM (FROM) 141 in which programs of the main body CPU 139 are stored, and various information of the main body CPU 139. A RAM 142, an image sensor control circuit 143 that controls the image sensor 109 to obtain image data, a strobe control circuit 144 that controls a strobe (not shown), a mirror control circuit 145 that controls up / down of the main mirror 104, and a focal plane shutter 108. A shutter control circuit 146 for controlling, an image processing circuit 147 for image processing of image data obtained by the image sensor control circuit 143, a display circuit 148 for displaying captured images and various types of shooting information on a display unit (not shown), a photographer Various operations operated by Operation switch detecting circuit 149 that the switch is connected, the power supply circuit 150 for supplying power to the camera, and AF / AECPU151 is connected.

ここで、操作スイッチ検出回路149は、カメラの撮影モードを切り替える図示しない切り替えスイッチや、レリーズボタンの操作によって動作するレリーズスイッチなどを含む。本実施の形態におけるレリーズスイッチは、一般的な2段階スイッチになっている。つまり、レリーズボタンの半押しで第1レリーズスイッチ152(以下、1Rスイッチと称する)がオンして、焦点検出や測光が行われ、焦点調節レンズ102が駆動されて合焦状態になる。更に、レリーズボタンの全押しで第2レリーズスイッチ153(以下、2Rスイッチと称する)がオンして、メインミラー104とフォーカルプレンシャッタ108が駆動されて露光が行われる。   Here, the operation switch detection circuit 149 includes a changeover switch (not shown) that switches the shooting mode of the camera, a release switch that operates by operating a release button, and the like. The release switch in the present embodiment is a general two-stage switch. That is, when the release button is half-pressed, the first release switch 152 (hereinafter referred to as 1R switch) is turned on to perform focus detection and photometry, and the focus adjustment lens 102 is driven to be in focus. Further, when the release button is fully pressed, the second release switch 153 (hereinafter referred to as a 2R switch) is turned on, and the main mirror 104 and the focal plane shutter 108 are driven to perform exposure.

また、電源回路150は、装填された電池154の電圧の平滑化や昇圧等を行う。AF/AECPU151は、カメラの自動焦点調節(AF)制御及び測光(AE)制御を行う。また、AF/AECPU151は、コンティニュアスAFモードにおいては、被写体の動体予測演算を行う。そして、このAF/AECPU151には、該AF/AECPU151と交換レンズ部101の通信回路138を介して通信するための通信ライン155、AF/AECPU151と本体CPU139とで通信するための通信ライン156、AF/AECPU151のプログラム等が記憶されているフラッシュROM(FROM)157、AF/AECPU151の各種情報を一時記憶するRAM158、測光回路159、焦点検出回路160、及び補助光回路161が接続されている。また、オートフォーカスモード時にAF/AECPU151は、通信ライン155を介して、LCPU133が算出した、合焦するために必要なパルス数を取得する。更にオートフォーカスモード時にAF/AECPU151は、通信ライン155を介して、LCPU133に、焦点調節レンズ102を駆動させるための指示を与える。   Further, the power supply circuit 150 performs smoothing or boosting of the voltage of the battery 154 loaded. The AF / AECPU 151 performs automatic focus adjustment (AF) control and photometry (AE) control of the camera. The AF / AECPU 151 performs a moving object prediction calculation of the subject in the continuous AF mode. The AF / AECPU 151 includes a communication line 155 for communicating with the AF / AECPU 151 via the communication circuit 138 of the interchangeable lens unit 101, a communication line 156 for communicating with the AF / AECPU 151 and the main body CPU 139, and AF. A flash ROM (FROM) 157 storing a program of the / AECPU 151, a RAM 158 for temporarily storing various information of the AF / AECPU 151, a photometry circuit 159, a focus detection circuit 160, and an auxiliary light circuit 161 are connected. In the autofocus mode, the AF / AECPU 151 acquires the number of pulses necessary for focusing, calculated by the LCPU 133, via the communication line 155. Further, in the autofocus mode, the AF / AECPU 151 gives an instruction for driving the focus adjustment lens 102 to the LCPU 133 via the communication line 155.

ここで、測光回路159は、被写体輝度を測定する図示しない測光素子を制御して、被写体輝度情報を得るための回路である。また、焦点検出回路160は、AFセンサ107を制御して得られた情報に基づいて焦点検出演算をし、焦点検出情報を得るための回路である。更に、補助光回路161は、被写体が低輝度であり、焦点検出回路160による焦点検出が不能である場合に、再度焦点検出を行う際にLEDなどの発光素子によって被写体に投光するための回路である。   Here, the photometric circuit 159 is a circuit for obtaining subject luminance information by controlling a photometric element (not shown) that measures the subject luminance. The focus detection circuit 160 is a circuit for performing focus detection calculation based on information obtained by controlling the AF sensor 107 and obtaining focus detection information. Further, the auxiliary light circuit 161 is a circuit for projecting light onto a subject by a light emitting element such as an LED when performing focus detection again when the subject has low brightness and focus detection by the focus detection circuit 160 is impossible. It is.

本実施形態に係る自動焦点調節装置を搭載した一眼レフレクスカメラでは、操作スイッチ検出回路149の中に含まれる図示しないAFモード切り替えスイッチによって、シングルAFモードとコンティニュアスAFモードの切り替えが可能となっている。ここで、シングルAFモードとは、一度合焦状態が検出されるとフォーカスロックされるAFモードであり、コンティニュアスAFモードとは、焦点検出とレンズ駆動を連続して行うことによって移動する被写体に合焦させる、いわゆる動体予測AFを行うAFモードである。   In the single-lens reflex camera equipped with the automatic focus adjustment apparatus according to the present embodiment, it is possible to switch between the single AF mode and the continuous AF mode by an AF mode switching switch (not shown) included in the operation switch detection circuit 149. It has become. Here, the single AF mode is an AF mode in which the focus is locked once an in-focus state is detected, and the continuous AF mode is an object that moves by continuously performing focus detection and lens driving. This is an AF mode for performing so-called moving object prediction AF.

この様に、例えばAFセンサ107、AF/AECPU151及び焦点検出回路160は全体で焦点検出手段として機能し、例えばAF/AECPU151及び通信ライン155は全体で目標駆動位置取得手段及びレンズ駆動指示手段として機能し、例えばAF/AECPU151は動体予測手段として機能し、例えばAFセンサ107は焦点検出センサとして機能し、例えばミラー制御回路145は光路切替手段として機能する。   As described above, for example, the AF sensor 107, the AF / AECPU 151, and the focus detection circuit 160 function as a focus detection unit as a whole, and for example, the AF / AECPU 151 and the communication line 155 function as a target drive position acquisition unit and a lens drive instruction unit as a whole. For example, the AF / AECPU 151 functions as a moving body prediction unit, the AF sensor 107 functions as a focus detection sensor, and the mirror control circuit 145 functions as an optical path switching unit, for example.

以下、本実施形態に係るカメラ用自動焦点調節装置のコンティニュアスAFモードの動作について図面を参照して説明する。まず、本実施形態において、1Rスイッチ152がオン状態における動作のフローチャートの一例を図5に示す。尚、本動作には並行動作が含まれており、図5においては、並行動作の直前の分岐点を黒丸で示している。また、1Rスイッチ152がオン状態のときの動作シーケンスを示す図6(A)も参照して説明する。   Hereinafter, the operation in the continuous AF mode of the automatic focusing apparatus for a camera according to the present embodiment will be described with reference to the drawings. First, FIG. 5 shows an example of a flowchart of the operation when the 1R switch 152 is in the ON state in this embodiment. Note that this operation includes a parallel operation, and in FIG. 5, the branch point immediately before the parallel operation is indicated by a black circle. Further, description will be made with reference to FIG. 6A showing an operation sequence when the 1R switch 152 is in the ON state.

まず、1Rスイッチ152がオン状態になったことが検出されると、ステップS101において本体CPU139は、焦点検出の時間間隔等を測定するための、図示しないカメラ本体100の内部タイマをスタートさせる。尚、この内部タイマは、AF/AECPU151の内部に備えられた内部タイマを用いても良い。ステップS102においてAF/AECPU151は、前記タイマのカウント値を読込み、それをRAM158に記憶する。   First, when it is detected that the 1R switch 152 is turned on, in step S101, the main body CPU 139 starts an internal timer (not shown) of the camera main body 100 for measuring a focus detection time interval and the like. As this internal timer, an internal timer provided in the AF / AECPU 151 may be used. In step S102, the AF / AECPU 151 reads the timer count value and stores it in the RAM 158.

ステップS103においてAF/AECPU151は、焦点検出回路160を介してAFセンサ107に、蓄積動作を開始させ、蓄積レベルが所定レベルに達した時、AFセンサ107に蓄積動作を終了させる(図6(A)(a))。AFセンサ107の蓄積動作が終了すると、ステップS104においてAF/AECPU151は、蓄積動作で検出された光電変換信号(以下、センサデータと称する)を焦点検出回路160内のA/D変換回路でデジタル信号に変換して読出す。読出したデジタルのセンサデータをRAM158に記憶する。また、読み出したセンサデータの固定パターンノイズや暗電流によるオフセット成分等をキャンセルするための補正や所定のフィルタ演算等を行う(図6(A)(b))。 In step S103, the AF / AECPU 151 causes the AF sensor 107 to start the accumulation operation via the focus detection circuit 160. When the accumulation level reaches a predetermined level, the AF sensor 107 ends the accumulation operation (FIG. 6A). ) (A 1 )). When the accumulation operation of the AF sensor 107 is completed, in step S104, the AF / AECPU 151 converts the photoelectric conversion signal (hereinafter referred to as sensor data) detected in the accumulation operation into a digital signal by the A / D conversion circuit in the focus detection circuit 160. Convert to and read. The read digital sensor data is stored in the RAM 158. Further, correction for canceling the fixed pattern noise of the read sensor data, an offset component due to dark current, a predetermined filter calculation, and the like are performed (FIG. 6 (A) (b 1 )).

ステップS105においてAF/AECPU151は、補正や演算等を施したセンサデータを用いて、公知の相関演算や補間演算等を行い、図2に示す11点の焦点検出エリアそれぞれにおける2像間隔値を求める。求めた2像間隔値の信頼性を、所定の方法で判定する。判定の結果、信頼性があるとされた焦点検出エリアの2像間隔値から、合焦のずれであるデフォーカス量をそれぞれ算出する。カメラの焦点検出エリア選択モードがスポットAFモードであれば、指定された焦点検出エリアのデフォーカス量を選択する。カメラの焦点検出エリア選択モードがマルチAFモードであれば、例えば最至近選択等の所定の選択方式により、一つの焦点検出エリアのデフォーカス量を選択する。   In step S105, the AF / AECPU 151 performs well-known correlation calculation, interpolation calculation, and the like using the sensor data subjected to correction, calculation, etc., and obtains two image interval values in each of the 11 focus detection areas shown in FIG. . The reliability of the obtained two-image interval value is determined by a predetermined method. As a result of the determination, a defocus amount that is a focus shift is calculated from the two image interval values of the focus detection area determined to be reliable. If the focus detection area selection mode of the camera is the spot AF mode, the defocus amount of the designated focus detection area is selected. If the focus detection area selection mode of the camera is the multi-AF mode, the defocus amount of one focus detection area is selected by a predetermined selection method such as closest detection.

ステップS106においてAF/AECPU151は、デフォーカス量の信頼性を判定する。ステップS106の判定で、スポットAFモード時における指定焦点検出エリアのデフォーカス量の信頼性、又は、マルチAFモードにおける全ての焦点検出エリアのデフォーカス量の信頼性がないと判定された場合、ステップS107において、LCPU133がレンズスキャンの実施を指令したり、本体CPU139が表示回路148に焦点検出不能を表示させる様指令したり等、所定の処理を実施し、ステップS102に移る。   In step S106, the AF / AECPU 151 determines the reliability of the defocus amount. If it is determined in step S106 that the defocus amount reliability of the designated focus detection area in the spot AF mode or the defocus amount reliability of all the focus detection areas in the multi AF mode is not reliable, the step In S107, the LCPU 133 performs a predetermined process such as instructing the lens scan to be executed, or the main body CPU 139 instructs the display circuit 148 to display that focus detection is impossible, and the process proceeds to Step S102.

ステップS106の判定で、スポットAFモード時における指定焦点検出エリアのデフォーカス量の信頼性、又は、マルチAFモードにおける何れかの焦点検出エリアのデフォーカス量の信頼性があると判定された場合、ステップS108においてAF/AECPU151は、得られたデフォーカス量を、ステップS102で読み込んだタイマカウント値と対応付け、デフォーカス量時系列データとしてRAM158に記憶する。   When it is determined in step S106 that the defocus amount of the designated focus detection area in the spot AF mode is reliable or the defocus amount of any focus detection area in the multi AF mode is reliable. In step S108, the AF / AECPU 151 associates the obtained defocus amount with the timer count value read in step S102, and stores it in the RAM 158 as defocus amount time-series data.

ステップS109においてAF/AECPU151は、得られたデフォーカス量を、通信ライン155及び通信回路138を介してLCPU133に出力する。LCPU133は、AF/AECPU151より入力されたデフォーカス量と、レンズ位置検出回路137により得られた現在の焦点調節レンズ102の位置に基づいて、目標パルス数を求める(図6(A)(c))。LCPU133は、AF/AECPU151の指示の下、求めた目標パルス数を駆動パルス数とし、それに基づいてレンズ駆動回路136を制御し、レンズ駆動を開始する(図6(A)(d))。また、LCPU133は、求めた目標パルス数を、通信ライン155及び通信回路138を介してAF/AECPU151に出力する。ステップS110においてAF/AECPU151は、LCPU133より入力された目標パルス数とステップS102で読み込んだタイマカウント値とを対応付け、目標パルス数時系列データとしてRAM158に記憶する。 In step S109, the AF / AECPU 151 outputs the obtained defocus amount to the LCPU 133 via the communication line 155 and the communication circuit 138. LCPU133 includes a defocus amount input from the AF / AECPU151, based on the current position of the focusing lens 102 obtained by the lens position detection circuit 137 determines the target number of pulses (Fig. 6 (A) (c 1 )). Under the instruction of the AF / AECPU 151, the LCPU 133 sets the obtained target pulse number as the drive pulse number, controls the lens drive circuit 136 based on the target pulse number, and starts lens driving (FIG. 6A (d 1 )). Further, the LCPU 133 outputs the obtained target pulse number to the AF / AECPU 151 via the communication line 155 and the communication circuit 138. In step S110, the AF / AECPU 151 associates the target pulse number input from the LCPU 133 with the timer count value read in step S102, and stores it in the RAM 158 as target pulse number time-series data.

ステップS111においてAF/AECPU151は、ステップS102と同様にタイマカウント値を読込み、それをRAM158に記憶する。ステップS112においてAF/AECPU151は、ステップS103と同様に、AFセンサ107に、蓄積動作を開始する様指令する。また、センサデータの蓄積レベルが所定レベルに達した時、AFセンサ107に蓄積動作を終了させる様指令する(図6(A)(e))。AFセンサ107の蓄積動作が終了すると、ステップS113においてAF/AECPU151は、ステップS104と同様に、蓄積されたセンサデータを読み出し、RAM158に記憶する。また、読出したセンサデータに補正等を施し(図6(A)(f))、ステップS116に移る。 In step S111, the AF / AECPU 151 reads the timer count value as in step S102, and stores it in the RAM 158. In step S112, the AF / AECPU 151 instructs the AF sensor 107 to start the accumulation operation as in step S103. Further, when the accumulation level of the sensor data reaches a predetermined level, the AF sensor 107 is instructed to end the accumulation operation (FIG. 6 (A) (e 1 )). When the accumulation operation of the AF sensor 107 is completed, in step S113, the AF / AECPU 151 reads the accumulated sensor data and stores it in the RAM 158 as in step S104. Further, the read sensor data is corrected (FIG. 6A, (f 1 )), and the process proceeds to step S116.

ステップS112及びS113と並行して、ステップS114において本体CPU139は、2Rスイッチ153の状態を判定する。ステップS114の判定で2Rスイッチ153がオン状態であれば、2Rシーケンスに移る。一方ステップS114の判定で2Rスイッチ153がオフ状態であれば、ステップS115において本体CPU139は、1Rスイッチ152の状態を判定する。ステップS115の判定で1Rスイッチ152がオン状態でなければ、撮影待機シーケンスに移り、ユーザーによる次のカメラ操作を待つ。一方、ステップS115の判定で1Rスイッチ152がオン状態であれば、ステップS116に移る。   In parallel with steps S112 and S113, main body CPU 139 determines the state of 2R switch 153 in step S114. If it is determined in step S114 that the 2R switch 153 is on, the 2R sequence is started. On the other hand, if the 2R switch 153 is in the OFF state in the determination in step S114, the main body CPU 139 determines the state of the 1R switch 152 in step S115. If it is determined in step S115 that the 1R switch 152 is not in the ON state, the process proceeds to a shooting standby sequence and waits for the next camera operation by the user. On the other hand, if it is determined in step S115 that the 1R switch 152 is on, the process proceeds to step S116.

ステップS116においてAF/AECPU151は、ステップS105と同様に、各焦点検出エリアのデフォーカス量を算出する。ステップS117においてAF/AECPU151は、ステップS106と同様に、デフォーカス量の信頼性を判定する。ステップS117の判定でデフォーカス量の信頼性がないと判定された場合、ステップS107に移る。ステップS117の判定でデフォーカス量の信頼性があると判定された場合、ステップS118においてAF/AECPU151は、ステップS108と同様に、得られたデフォーカス量をステップS111で読み込んだタイマカウント値と対応付け、デフォーカス量時系列データとしてRAM158に記憶する。   In step S116, the AF / AECPU 151 calculates the defocus amount of each focus detection area, as in step S105. In step S117, the AF / AECPU 151 determines the reliability of the defocus amount as in step S106. If it is determined in step S117 that the defocus amount is not reliable, the process proceeds to step S107. If it is determined in step S117 that the defocus amount is reliable, the AF / AECPU 151 in step S118 corresponds to the timer count value read in step S111 in the same manner as in step S108. The defocus amount time series data is stored in the RAM 158.

ステップS119においてAF/AECPU151は、RAM158に記憶されている目標パルス数時系列データを用いて動体予測演算を行う。動体予測演算によって、目標パルス数の予測値である予測パルス数P1を算出する。   In step S <b> 119, the AF / AECPU 151 performs moving body prediction calculation using the target pulse number time-series data stored in the RAM 158. A predicted pulse number P1, which is a predicted value of the target pulse number, is calculated by moving object prediction calculation.

ここで、動体予測演算の一例を、図6(A)及び図7(A)を参照して説明する。ここでは、注目している動体予測演算を、図6(A)中の網掛けで表した「(g)演算」とする。また図7(A)は、タイマカウント値(t)と目標パルス数(P)の関係を示している。尚、1Rスイッチ152がオン状態になって、最初の蓄積を開始した時間(t)をt=0としている。黒点は注目している時点までに得られている目標パルス数を示している。図6(A)及び図7(A)に示した例では、「(g)演算」の時点までに得られている目標パルス数は、「(c)演算」「(g)演算」「(g)演算」「(g)演算」の4回の演算で得られている4点である。ここで、タイマカウント値(t)は全て、当該演算を実施する直前のAFセンサ107によるセンサデータの蓄積開始時に得ていることに注意を要する。即ち、「(g)演算」で得られる目標パルス数は、「(e)蓄積」開始時に取得したタイマカウント値(t)と対応付けられRAM158に記憶されている。これらの値から、例えば最小二乗法等により予測直線L(P=at+b)を求める。t=0から、注目している時点((g)演算)までに得られている最新の目標パルス数を得るために行ったセンサデータの蓄積開始時((e)蓄積)までの経過時間をT0とする。注目している時点((g)演算)までに得られている最新の目標パルス数を得るために行ったセンサデータの蓄積開始時((e)蓄積)から次の駆動パルス数が更新される時間((g)演算)までの時間をT1とする。T0とT1との和を予測直線Lの式(P=at+b)に代入し、t=T0+T1時点における目標パルス数の予測値である予測パルス数P1を求める(図7(A))。尚、ここでは一次式による予測直線Lを用いて説明したが、例えば被写体速度や時系列データの変化傾向等の撮影状況に応じて、二次式やさらに高次の式による予測曲線を用いても良い。 Here, an example of the moving object prediction calculation will be described with reference to FIGS. 6 (A) and 7 (A). Here, it is assumed that the moving object prediction calculation of interest is “(g 4 ) calculation” represented by shading in FIG. FIG. 7A shows the relationship between the timer count value (t) and the target pulse number (P). Note that the time (t) when the 1R switch 152 is turned on and the first accumulation is started is t = 0. A black dot indicates the target pulse number obtained up to the point of interest. In the example shown in FIGS. 6A and 7A, the target pulse number obtained up to the point of “(g 4 ) calculation” is “(c 1 ) calculation” or “(g 1 ) calculation”. “(G 2 ) operation” and “(g 3 ) operation” are the four points obtained. Here, it should be noted that all the timer count values (t) are obtained at the start of sensor data accumulation by the AF sensor 107 immediately before the calculation is performed. That is, the target pulse number obtained by the “(g 3 ) calculation” is stored in the RAM 158 in association with the timer count value (t) acquired at the start of “(e 3 ) accumulation”. From these values, a prediction straight line L (P = at + b) is obtained by, for example, the least square method. Elapsed time from t = 0 until the start of accumulation of sensor data ((e 3 ) accumulation) performed to obtain the latest target pulse number obtained up to the point of interest ((g 4 ) calculation) Let time be T0. The next drive pulse number is updated from the start of accumulation of sensor data ((e 3 ) accumulation) performed to obtain the latest target pulse number obtained up to the point of interest ((g 4 ) calculation) The time until the set time ((g 5 ) calculation) is T1. The sum of T0 and T1 is substituted into the formula (P = at + b) of the prediction line L to obtain the predicted pulse number P1 that is the predicted value of the target pulse number at the time t = T0 + T1 (FIG. 7A). In addition, although it demonstrated using the prediction straight line L by a linear expression here, it uses the prediction curve by a quadratic expression or a higher order expression, for example according to photography conditions, such as a subject speed and the change tendency of time series data. Also good.

図5に戻って説明を続ける。ステップS120においてAF/AECPU151は、通信回路138を介してLCPU133に、ステップS116で求めたデフォーカス量を出力する。LCPU133は、AF/AECPU151より入力されたデフォーカス量と、レンズ位置検出回路137により得られた現在の焦点調節レンズ102の位置に基づいて、ステップS109と同様に目標パルス数を求める(図6(A)(g))。LCPU133は、得られた目標パルス数を、AF/AECPU151に出力する。また一方で、AF/AECPU151は、ステップS119で求めた予測パルス数P1と、レンズ駆動の指示とを、LCPU133に出力する。LCPU133は、AF/AECPU151より入力された予測パルス数P1を駆動パルス数とし、それに基づきレンズ駆動を継続する(図6(A)(h))。なお、図6(A)(g)においては、予測パルス数P1を求めるための時系列データの数が不足するが、t=0以前の時系列データが記憶されていれば、この時系列データを使用して演算を行い、時系列データが存在しない又は数が不足する場合は、別の演算方法で行うものとする。 Returning to FIG. In step S120, the AF / AECPU 151 outputs the defocus amount obtained in step S116 to the LCPU 133 via the communication circuit 138. The LCPU 133 obtains the target pulse number in the same manner as in step S109 based on the defocus amount input from the AF / AECPU 151 and the current position of the focus adjustment lens 102 obtained by the lens position detection circuit 137 (FIG. 6 ( A) (g 1 )). The LCPU 133 outputs the obtained target pulse number to the AF / AECPU 151. On the other hand, the AF / AECPU 151 outputs the predicted pulse number P1 obtained in step S119 and the lens driving instruction to the LCPU 133. The LCPU 133 sets the predicted pulse number P1 input from the AF / AECPU 151 as the drive pulse number, and continues lens driving based on the number (FIG. 6 (A) (h 1 )). In FIG. 6A (g 1 ), the number of time-series data for obtaining the predicted pulse number P1 is insufficient, but if time-series data before t = 0 is stored, this time-series data is stored. When calculation is performed using data, and time-series data does not exist or the number is insufficient, another calculation method is used.

ステップS121においてAF/AECPU151は、ステップS120においてLCPU133より入力された目標パルス数を、S111で読み込んだタイマカウント値と対応付け、目標パルス数時系列データとしてRAM158に記憶し、ステップS111に移る。   In step S121, the AF / AECPU 151 associates the target pulse number input from the LCPU 133 in step S120 with the timer count value read in S111, stores the target pulse number time series data in the RAM 158, and proceeds to step S111.

以上の様に、2Rスイッチがオフであり、1Rスイッチがオンである間は、ステップS111乃至ステップS121を繰り返す。この動作は図6(A)における(e)乃至(h)の繰り返しに相当する。 As described above, the steps S111 to S121 are repeated while the 2R switch is off and the 1R switch is on. This operation corresponds to the repetition of (e n ) to (h n ) in FIG.

次に、本実施形態において、2Rスイッチ152がオン状態のときの動作を図8に示すフローチャートの一例と、図6(B)及び図7(C)に示す動作シーケンスを参照して説明する。尚、図8のフローチャートでは、並行動作が含まれている。当該図では、並行動作の直前の分岐点を黒丸で示している。   Next, in the present embodiment, an operation when the 2R switch 152 is in the on state will be described with reference to an example of a flowchart shown in FIG. 8 and an operation sequence shown in FIGS. 6B and 7C. Note that the flowchart of FIG. 8 includes a parallel operation. In the figure, the branch point immediately before the parallel operation is indicated by a black circle.

ステップS131においてLCPU133は、AF/AECPU151より入力された予測パルス数P1に基づく焦点調節レンズ102の駆動をステップS120から継続している(図6(B)(h))。 In step S131, the LCPU 133 continues driving the focus adjustment lens 102 based on the predicted number of pulses P1 input from the AF / AECPU 151 from step S120 (FIG. 6B (h n )).

AF/AECPU151は、ステップS131と並行して、ステップS132乃至ステップS140を実行する。ステップS132乃至ステップS136は1Rシーケンスの残処理であり、それぞれステップS112乃至ステップS118に相当する。ステップS132においてAF/AECPU151は、ステップS112と同様に、AFセンサ107に、蓄積動作の開始を指令する。また、センサデータの蓄積レベルが所定レベルに達した時、AFセンサ107に蓄積動作を終了させる様指令する(図6(B)(i))。AFセンサ107の蓄積動作が終了すると、ステップS133においてAF/AECPU151は、ステップS113と同様に、蓄積されたセンサデータを読出し、RAM158に記憶する。また、読出したセンサデータの補正等を実施する(図6(B)(j))。ステップS134においてAF/AECPU151は、ステップS116と同様に、各焦点検出エリアのデフォーカス量を算出する。ステップS135においてAF/AECPU151は、ステップS116と同様に、デフォーカス量の信頼性を判定する。ステップS135の判定で、デフォーカス量の信頼性がないと判定された場合、ステップS140に移る。ステップS135の判定で、デフォーカス量の信頼性があると判定された場合、ステップS136においてAF/AECPU151は、ステップS118と同様に、得られたデフォーカス量をステップS111で読み込んだタイマカウント値と対応付け、デフォーカス量時系列データとしてRAM158に記憶する。 The AF / AECPU 151 executes Steps S132 to S140 in parallel with Step S131. Steps S132 to S136 are the remaining processes of the 1R sequence, and correspond to steps S112 to S118, respectively. In step S132, the AF / AECPU 151 instructs the AF sensor 107 to start the accumulation operation, similarly to step S112. Further, when the accumulation level of the sensor data reaches a predetermined level, the AF sensor 107 is instructed to end the accumulation operation (FIG. 6B (i 1 )). When the accumulation operation of the AF sensor 107 is completed, in step S133, the AF / AECPU 151 reads the accumulated sensor data and stores it in the RAM 158 as in step S113. Further, correction of the read sensor data is performed (FIG. 6B (j 1 )). In step S134, the AF / AECPU 151 calculates the defocus amount of each focus detection area, as in step S116. In step S135, the AF / AECPU 151 determines the reliability of the defocus amount as in step S116. If it is determined in step S135 that the defocus amount is not reliable, the process proceeds to step S140. If it is determined in step S135 that the defocus amount is reliable, in step S136, the AF / AECPU 151 determines the obtained defocus amount and the timer count value read in step S111 in the same manner as in step S118. The association and defocus amount time series data is stored in the RAM 158.

ステップS137おいてAF/AECPU151は、通信回路138を介してLCPU133に、ステップS134で求めたデフォーカス量を出力する。ステップS138においてLCPU133は、AF/AECPU151から入力されたデフォーカス量と、レンズ位置検出回路137により得られた現在の焦点調節レンズ102の位置に基づいて、ステップS109と同様に、目標パルス数を求める(図6(B)(k))。ステップS139においてLCPU133は、ステップS138において得られた目標パルス数を、AF/AECPU151に出力する。AF/AECPU151は、この最新の目標パルス数をS111で読み込んだタイマカウント値と対応付け、目標パルス数時系列データとしてRAM158に記憶する。 In step S137, the AF / AECPU 151 outputs the defocus amount obtained in step S134 to the LCPU 133 via the communication circuit 138. In step S138, the LCPU 133 obtains the target pulse number based on the defocus amount input from the AF / AECPU 151 and the current position of the focus adjustment lens 102 obtained by the lens position detection circuit 137, as in step S109. (FIG. 6 (B) (k 1 )). In step S139, the LCPU 133 outputs the target pulse number obtained in step S138 to the AF / AECPU 151. The AF / AECPU 151 associates this latest target pulse number with the timer count value read in S111 and stores it in the RAM 158 as target pulse number time-series data.

ステップS140においてAF/AECPU151は、最新の目標パルス数を含み、RAM158に記憶されている目標パルス数時系列データを用いて動体予測を行い、予測パルス数を算出する(図6(B)(k))。ここで算出する予測パルス数は2つある。1つは、露光開始時点の予測パルス数である。もう1つは、露光終了後のミラーダウン後最初の目標パルス数が算出される時点の予測パルス数である。 In step S140, the AF / AECPU 151 performs moving object prediction using the target pulse number time-series data including the latest target pulse number and stored in the RAM 158, and calculates the predicted pulse number (FIG. 6 (B) (k 1 )). There are two predicted pulses to be calculated here. One is the predicted number of pulses at the start of exposure. The other is the predicted number of pulses at the time when the first target number of pulses is calculated after mirror down after completion of exposure.

この予測パルス数の算出の一例を図6(B)及び図7(B)を参照して説明する。ここで注目している動体予測演算は、図6(B)中の「(k)演算」とする。また図7(B)は図7(A)と同様に、タイマカウント値(t)と目標パルス数(P)の関係を示し、最初の蓄積を開始した時間(t)をt=0としている。注目している時点までに得られ、動体予測演算に用いる目標パルス数を黒点で示している。ここでは、「(k)演算」で得られている目標パルス数まで動体予測演算に用いる。これらの値から、例えば最小二乗法等により予測直線L(P=at+b)を求める。t=0から、注目している時点((k)演算)までに得られている最新の目標パルス数を得るために行ったセンサデータの蓄積((i)蓄積)の開始時点までの経過時間をT0とする。注目している時点((k)演算)までに得られている最新の目標パルス数を得るために行ったセンサデータの蓄積((i)蓄積)の開始時点から、露光開始時点までの時間をT2とし、また、露光終了後のミラーダウン後最初の目標パルス数が算出される時点((v)蓄積)までの時間をT3とする。T0とT2との和を予測直線Lの式(P=at+b)に代入し、露光開始時点での目標パルス数の予測値である予測パルス数P2を求める。また、T0とT3との和を予測直線Lの式(P=at+b)に代入し、露光終了後のミラーダウン後最初の目標パルス数が算出される時点の目標パルス数の予測値である予測パルス数P3を求める。尚、ここでは一次式による予測直線Lを用いて説明したが、例えば被写体速度や時系列データの変化傾向等の撮影状況に応じて、二次式やさらに高次の式による予測曲線を用いても良い。 An example of the calculation of the predicted number of pulses will be described with reference to FIGS. 6B and 7B. The moving object prediction calculation of interest here is “(k 1 ) calculation” in FIG. FIG. 7B shows the relationship between the timer count value (t) and the target pulse number (P) as in FIG. 7A, and the time (t) at which the first accumulation is started is t = 0. . The target number of pulses obtained up to the point of interest and used for the moving object prediction calculation is indicated by black dots. Here, the target number of pulses obtained in the “(k 1 ) calculation” is used for the moving object prediction calculation. From these values, a prediction straight line L (P = at + b) is obtained by, for example, the least square method. From t = 0 to the start point of accumulation of sensor data ((i 1 ) accumulation) performed to obtain the latest target pulse number obtained up to the point of interest ((k 1 ) calculation) Let elapsed time be T0. From the start time of sensor data accumulation ((i 1 ) accumulation) performed to obtain the latest target pulse number obtained up to the point of interest ((k 1 ) calculation) to the exposure start time The time is T2, and the time until the time ((v 1 ) accumulation) at which the first target pulse number is calculated after mirror down after completion of exposure is T3. The sum of T0 and T2 is substituted into the formula (P = at + b) of the prediction line L, and a predicted pulse number P2 that is a predicted value of the target pulse number at the start of exposure is obtained. Also, the sum of T0 and T3 is substituted into the formula (P = at + b) of the prediction line L, and the prediction is a prediction value of the target pulse number at the time when the first target pulse number after mirror down after the exposure is calculated is calculated. The number of pulses P3 is obtained. In addition, although it demonstrated using the prediction straight line L by a linear expression here, it uses the prediction curve by a quadratic expression or a higher order expression, for example according to photography conditions, such as a subject speed and the change tendency of time series data. Also good.

図8に戻って説明を続ける。ステップS141においてAF/AECPU151は、測光回路159で取得した被写体輝度情報に基づいて絞り値を算出する。そしてAF/AECPU151は、算出した絞り値と、ステップS140の動体予測演算により求めた予測パルス数P2とを通信回路138を介してLCPU133に出力する。LCPU133は、AF/AECPU151から入力された予測パルス数P2を駆動パルス数とし、それに基づいてレンズ駆動回路136を制御して焦点調節レンズ102を駆動させる(図6(B)(l))。また、LCPU133は、AF/AECPU151より入力された絞り値に基づいて、絞り駆動回路135により絞り132の絞込駆動制御を行う(図6(B)(m))。ステップS142においてAF/AECPU151は、内部タイマによりレンズ駆動時間(例えば、ミラーアップ駆動後にメインミラー104及びサブミラー105のバウンドが停止するまでの時間等)をカウントする。ステップS142でカウントしているレンズ駆動時間の経過後、ステップS143において、LCPU133は予測パルス数P2分のレンズ駆動が完了するとレンズ駆動を停止させる。又、AF/AECPU151は、レンズ駆動のリミット時間をカウントしており、リミット時間が経過すると、通信回路138を介してLCPU133に、焦点調節レンズ102の駆動を停止させるレンズ駆動停止信号を送信する。この際のレンズ駆動停止信号は、レリーズタイムラグを必要以上に長くしないためのレンズ駆動時間のリミッタとして機能するもので、予測パルス数P2分のレンズ駆動はこれ以前に終了させることが狙いとなっている。LCPU133は、AF/AECPU151より入力されたレンズ駆動停止信号に基づいて、焦点調節レンズ102の駆動を停止させる(図6(B)(n))。 Returning to FIG. In step S141, the AF / AECPU 151 calculates the aperture value based on the subject luminance information acquired by the photometry circuit 159. Then, the AF / AECPU 151 outputs the calculated aperture value and the predicted pulse number P2 obtained by the moving object prediction calculation in step S140 to the LCPU 133 via the communication circuit 138. The LCPU 133 sets the predicted pulse number P2 input from the AF / AECPU 151 as the drive pulse number, and controls the lens drive circuit 136 based on this to drive the focus adjustment lens 102 (FIG. 6B (l 1 )). Further, the LCPU 133 performs the diaphragm drive control of the diaphragm 132 by the diaphragm drive circuit 135 based on the diaphragm value input from the AF / AECPU 151 (FIG. 6B (m 1 )). In step S142, the AF / AECPU 151 counts the lens driving time (for example, the time until the bounce of the main mirror 104 and the sub mirror 105 stops after mirror-up driving) by an internal timer. After elapse of the lens driving time counted in step S142, in step S143, the LCPU 133 stops the lens driving when the lens driving for the predicted number of pulses P2 is completed. The AF / AECPU 151 counts the lens drive limit time. When the limit time elapses, the AF / AECPU 151 transmits a lens drive stop signal for stopping the drive of the focus adjustment lens 102 to the LCPU 133 via the communication circuit 138. The lens driving stop signal at this time functions as a lens driving time limiter for preventing the release time lag from becoming longer than necessary, and the lens driving for the predicted number of pulses P2 is intended to be ended before this. Yes. The LCPU 133 stops the driving of the focus adjustment lens 102 based on the lens driving stop signal input from the AF / AECPU 151 (FIG. 6B (n 1 )).

ステップS144において本体CPU139は、ステップS141乃至ステップS143と並行して、ミラー制御回路145にミラーアップ駆動制御を行う様指令する。ミラー制御回路145は、本体CPU139から入力された指令に基づいて、ミラーアップ駆動を行う(図6(B)(o))。 In step S144, the main body CPU 139 instructs the mirror control circuit 145 to perform mirror-up drive control in parallel with steps S141 to S143. The mirror control circuit 145 performs mirror-up driving based on a command input from the main body CPU 139 (FIG. 6 (B) (o 1 )).

ステップS145においてAF/AECPU151は、測光回路159で取得した被写体輝度情報に基づいて測光演算を行い、シャッタスピードを算出する。そしてAF/AECPU151は、算出したシャッタスピードを本体CPU139に出力する。本体CPU139は、AF/AECPU151より入力されたシャッタスピードに基づいて、シャッタ制御回路146を介してフォーカルプレンシャッタ108を動作させる。本体CPU139は、撮像素子制御回路143を介して撮像素子109を制御し、被写体像の撮像データを取得する(図6(B)(p))。本体CPU139は、取得した撮像データを画像処理回路147に出力し、画像処理回路147に所定の画像処理を実行させる。本体CPU139は、画像処理回路147が処理した画像を、RAM142やコンパクトフラッシュ(登録商標)等の図示しない外部記憶手段に撮像データを記憶する。また、本体CPU139は、処理後の画像を表示回路148により出力し、TFTモニタ等の図示しない表示部に表示させる。 In step S145, the AF / AECPU 151 performs a photometric calculation based on the subject luminance information acquired by the photometric circuit 159, and calculates a shutter speed. Then, the AF / AECPU 151 outputs the calculated shutter speed to the main body CPU 139. The main body CPU 139 operates the focal plane shutter 108 via the shutter control circuit 146 based on the shutter speed input from the AF / AECPU 151. The main body CPU 139 controls the image sensor 109 via the image sensor control circuit 143 to acquire image data of the subject image (FIG. 6B (p 1 )). The main body CPU 139 outputs the acquired imaging data to the image processing circuit 147 and causes the image processing circuit 147 to execute predetermined image processing. The main body CPU 139 stores the image data processed by the image processing circuit 147 in an external storage means (not shown) such as the RAM 142 or Compact Flash (registered trademark). Further, the main body CPU 139 outputs the processed image by the display circuit 148 and displays it on a display unit (not shown) such as a TFT monitor.

ステップS146において本体CPU139は、カメラの撮影モードが連写モードであるか否かを判定する。この判定の結果、カメラの撮影モードが連写モードである場合、ステップS147及びステップS148に移る。一方、カメラの撮影モードが連写モードではなく単写モードである場合、S165及びステップS166に移る。   In step S146, the main body CPU 139 determines whether or not the shooting mode of the camera is the continuous shooting mode. If the result of this determination is that the shooting mode of the camera is continuous shooting mode, processing proceeds to step S147 and step S148. On the other hand, when the shooting mode of the camera is not the continuous shooting mode but the single shooting mode, the process proceeds to S165 and step S166.

ステップS147においてAF/AECPU151は、通信回路138を介して絞り開放信号をLCPU133に出力する。LCPU133は、AF/AECPU151より入力された絞り開放信号に基づき、絞り駆動回路135に指令して絞り132の開放させる(図6(B)(q))。ステップS147と並行して、ステップS148において、本体CPU139は、ミラー制御回路145に指令してミラーダウン駆動を行わせる(図6(B)(r))。ステップS147の絞り132の開放駆動及びステップS148のミラーダウン駆動の終了後、ステップ149においてAF/AECPU151は、1Rシーケンス中から動作している内部タイマのカウント値を読込み、RAM158に記憶する。 In step S 147, the AF / AECPU 151 outputs an aperture opening signal to the LCPU 133 via the communication circuit 138. Based on the aperture opening signal input from the AF / AECPU 151, the LCPU 133 instructs the aperture driving circuit 135 to open the aperture 132 (FIG. 6B (q 1 )). In parallel with step S147, in step S148, the main body CPU 139 instructs the mirror control circuit 145 to perform mirror down driving (FIG. 6B (r 1 )). After the opening of the aperture 132 in step S147 and the mirror-down driving in step S148 are completed, in step 149, the AF / AECPU 151 reads the count value of the operating internal timer from the 1R sequence and stores it in the RAM 158.

ステップS150においてAF/AECPU151は、ステップS132と同様に、AFセンサ107に、蓄積動作を開始させる。また、センサデータの蓄積レベルが所定レベルに達した時、AFセンサ107に蓄積動作を終了させる(図6(B)(s))。 In step S150, the AF / AECPU 151 causes the AF sensor 107 to start an accumulation operation as in step S132. Further, when the accumulation level of the sensor data reaches a predetermined level, the accumulation operation is terminated in the AF sensor 107 (FIG. 6B (s 1 )).

AFセンサ107の蓄積動作の終了後、ステップS151においてAF/AECPU151は、ステップS131と同様に、通信回路138を介してLCPU133に、ステップS140で求めた予測パルス数P3と、レンズ駆動指示とを出力する。LCPU133は、AF/AECPU151より入力された予測パルス数P3を駆動パルス数とし、それに基づいてレンズ駆動回路136を制御して焦点調節レンズ102を駆動させる(図6(B)(t))。 After the accumulation operation of the AF sensor 107 is completed, in step S151, the AF / AECPU 151 outputs the predicted pulse number P3 obtained in step S140 and the lens driving instruction to the LCPU 133 via the communication circuit 138 in the same manner as in step S131. To do. The LCPU 133 sets the predicted pulse number P3 input from the AF / AECPU 151 as the drive pulse number, and controls the lens drive circuit 136 based on this to drive the focus adjustment lens 102 (FIG. 6B (t 1 )).

AF/AECPU151は、ステップS151と並行して、ステップS152乃至ステップS159を実行する。ステップS152においてAF/AECPU151は、ステップS133と同様に、蓄積されたセンサデータを読出し、RAM158に記憶する。また、読出したセンサデータの補正等を実施する(図6(B)(u))。ステップS153においてAF/AECPU151は、ステップS134と同様に、各焦点検出エリアのデフォーカス量を算出する。ステップS154においてAF/AECPU151は、ステップS135と同様に、デフォーカス量の信頼性を判定する。ステップS154の判定で、デフォーカス量の信頼性がないと判定された場合、ステップS159に移る。 The AF / AECPU 151 executes steps S152 to S159 in parallel with step S151. In step S152, the AF / AECPU 151 reads the accumulated sensor data and stores it in the RAM 158 as in step S133. Further, correction of the read sensor data is performed (FIG. 6B (u 1 )). In step S153, the AF / AECPU 151 calculates the defocus amount of each focus detection area, as in step S134. In step S154, the AF / AECPU 151 determines the reliability of the defocus amount as in step S135. If it is determined in step S154 that the defocus amount is not reliable, the process proceeds to step S159.

ステップS154の判定で、デフォーカス量の信頼性があると判定された場合、ステップS155においてAF/AECPU151は、ステップS136と同様に、得られたデフォーカス量をステップS149で読み込んだタイマカウント値と対応付け、デフォーカス量時系列データとしてRAM158に記憶する。   If it is determined in step S154 that the defocus amount is reliable, the AF / AECPU 151 in step S155 determines the obtained defocus amount and the timer count value read in step S149 in the same manner as in step S136. The association and defocus amount time series data is stored in the RAM 158.

ステップS156おいてAF/AECPU151は、ステップS137と同様に、通信回路138を介してLCPU133に、ステップS153で求めたデフォーカス量を出力する。ステップS157においてLCPU133は、ステップS138と同様に、AF/AECPU151から入力されたデフォーカス量と、レンズ位置検出回路137により得られた現在の焦点調節レンズ102の位置に基づいて、目標パルス数を求める(図6(B)(v))。 In step S156, the AF / AECPU 151 outputs the defocus amount obtained in step S153 to the LCPU 133 via the communication circuit 138, similarly to step S137. In step S157, the LCPU 133 obtains the target pulse number based on the defocus amount input from the AF / AECPU 151 and the current position of the focus adjustment lens 102 obtained by the lens position detection circuit 137, as in step S138. (FIG. 6 (B) (v 1 )).

ステップS158においてLCPU133は、ステップS139と同様に、得られた目標パルス数を、AF/AECPU151に出力する。AF/AECPU151は、この最新の目標パルス数をS149で読み込んだタイマカウント値と対応付け、目標パルス数時系列データとしてRAM158に記憶する。   In step S158, the LCPU 133 outputs the obtained target pulse number to the AF / AECPU 151 in the same manner as in step S139. The AF / AECPU 151 associates this latest target pulse number with the timer count value read in S149 and stores it in the RAM 158 as target pulse number time-series data.

ステップS159においてAF/AECPU151は、RAM158に記憶されている目標パルス数時系列データを用いて動体予測演算を行う(図6(B)(v))。ここで行う動体予測演算は、ステップS140において行う動体予測演算(図6(B)(k))と同様である。即ち、次の露光開始時点での目標パルス数の予測値である予測パルスP2と、露光終了後のミラーダウン後最初の目標パルス数が算出される時点での目標パルス数の予測値である予測パルスP3とを算出する。 In step S159, the AF / AECPU 151 performs a moving object prediction calculation using the target pulse number time-series data stored in the RAM 158 (FIG. 6B (v 1 )). The moving object prediction calculation performed here is the same as the moving object prediction calculation (FIG. 6B (k 1 )) performed in step S140. That is, a prediction pulse P2 that is a predicted value of the target pulse number at the next exposure start time and a prediction value that is a predicted value of the target pulse number at the time when the first target pulse number after mirror down after the exposure is calculated is calculated. The pulse P3 is calculated.

ステップS160においてAF/AECPU151は、ステップS141と同様に、測光回路159で取得した被写体輝度情報に基づいて絞り値を算出する。そしてAF/AECPU151は、算出した絞り値と、ステップS157の動体予測演算により求めた予測パルス数P2と、レンズ駆動指示とを、通信回路138を介してLCPU133に出力する。LCPU133は、AF/AECPU151より入力された予測パルス数P2を駆動パルス数とし、それに基づいてレンズ駆動回路136を制御して焦点調節レンズ102を駆動させる(図6(B)(l))。また、LCPU133は、AF/AECPU151より入力された絞り値に基づいて、絞り駆動回路135により絞り132の絞込駆動制御を行う(図6(B)(m))。ステップS161においてAF/AECPU151は、内部タイマによりレンズ駆動時間(例えば、ミラーアップ駆動後にメインミラー104及びサブミラー105のバウンドが停止するまでの時間等)をカウントする。ステップS161でカウントしているレンズ駆動時間の経過後、ステップS162において、LCPU133は予測パルス数P2分のレンズ駆動が完了するとレンズ駆動を停止させる。又、AF/AECPU151は、通信回路138を介してLCPU133に、焦点調節レンズ102の駆動を停止させるレンズ駆動停止信号を送信する。この際のレンズ駆動停止信号は、レリーズタイムラグを必要以上に長くしないためのレンズ駆動時間のリミッタとして機能するものである。LCPU133は、AF/AECPU151より入力されたレンズ駆動停止信号に基づいて、焦点調節レンズ102の駆動を停止させる(図6(B)(n))。 In step S160, the AF / AECPU 151 calculates the aperture value based on the subject luminance information acquired by the photometry circuit 159, as in step S141. Then, the AF / AECPU 151 outputs the calculated aperture value, the predicted pulse number P2 obtained by the moving object prediction calculation in step S157, and the lens driving instruction to the LCPU 133 via the communication circuit 138. The LCPU 133 sets the predicted number of pulses P2 input from the AF / AECPU 151 as the number of driving pulses, and controls the lens driving circuit 136 based on this to drive the focus adjustment lens 102 (FIG. 6B (l 2 )). Further, the LCPU 133 performs the diaphragm drive control of the diaphragm 132 by the diaphragm drive circuit 135 based on the diaphragm value input from the AF / AECPU 151 (FIG. 6B (m 2 )). In step S161, the AF / AECPU 151 counts the lens driving time (for example, the time until the bounce of the main mirror 104 and the sub mirror 105 stops after the mirror-up driving) by the internal timer. After the elapse of the lens driving time counted in step S161, in step S162, the LCPU 133 stops the lens driving when the lens driving for the predicted number of pulses P2 is completed. The AF / AECPU 151 transmits a lens drive stop signal for stopping the drive of the focus adjustment lens 102 to the LCPU 133 via the communication circuit 138. The lens driving stop signal at this time functions as a lens driving time limiter for preventing the release time lag from becoming longer than necessary. The LCPU 133 stops the driving of the focus adjustment lens 102 based on the lens driving stop signal input from the AF / AECPU 151 (FIG. 6B (n 2 )).

ステップS163において本体CPU139は、ステップS160乃至ステップS162と並行して、ミラー制御回路145にミラーアップ駆動制御を行う様指令する。ミラー制御回路145は、本体CPU139から入力された指令に基づいて、ミラーアップ駆動を行う。(図6(B)(o))
ステップS164においてAF/AECPU151は、測光回路159で取得した被写体輝度情報に基づいて測光演算を行いシャッタスピードを算出する。そしてAF/AECPU151は、算出したシャッタスピードを本体CPU139に出力する。本体CPU139は、AF/AECPU151より入力されたシャッタスピードに基づいて、シャッタ制御回路146を介して、フォーカルプレンシャッタ108を駆動させる。本体CPU139は、撮像素子制御回路143を介して撮像素子109を制御し、被写体像の撮像データを取得する(図6(B)(p))。本体CPU139は、取得した撮像データを画像処理回路147に出力し、画像処理回路147に所定の画像処理を実行させる。本体CPU139は、画像処理回路147が処理した画像を、RAM142やコンパクトフラッシュ等の図示しない外部記憶手段に撮像データを記憶する。また、本体CPU139は、処理後の画像を表示回路148により出力し、TFTモニタ等の図示しない表示部に表示させる。その後、ステップS147及びステップS148に移る。以上の様に連写モードで2Rスイッチがオンの状態が続くと、ステップS147乃至S164を繰り返す。これは図6(B)における(q)乃至(v)及び(ln+1)乃至(pn+1)を繰り返すことに相当する。
In step S163, the main body CPU 139 instructs the mirror control circuit 145 to perform mirror-up drive control in parallel with steps S160 to S162. The mirror control circuit 145 performs mirror-up driving based on a command input from the main body CPU 139. (FIG. 6 (B) (o 2 ))
In step S164, the AF / AECPU 151 calculates a shutter speed by performing a photometric calculation based on the subject brightness information acquired by the photometric circuit 159. Then, the AF / AECPU 151 outputs the calculated shutter speed to the main body CPU 139. The main body CPU 139 drives the focal plane shutter 108 via the shutter control circuit 146 based on the shutter speed input from the AF / AECPU 151. The main body CPU 139 controls the image sensor 109 via the image sensor control circuit 143, and acquires image data of the subject image (FIG. 6B (p 2 )). The main body CPU 139 outputs the acquired imaging data to the image processing circuit 147 and causes the image processing circuit 147 to execute predetermined image processing. The main body CPU 139 stores the image data processed by the image processing circuit 147 in an external storage means (not shown) such as the RAM 142 or a compact flash. Further, the main body CPU 139 outputs the processed image by the display circuit 148 and displays it on a display unit (not shown) such as a TFT monitor. Thereafter, the process proceeds to step S147 and step S148. As described above, when the 2R switch continues to be on in the continuous shooting mode, steps S147 to S164 are repeated. This corresponds to repeating (q n ) to (v n ) and (l n + 1 ) to (p n + 1 ) in FIG.

次に、ステップS146の判定の結果、連写モードでない場合の動作を図7(C)を参照して説明する。図7(C)は、連写モードでなく1Rスイッチ152がオンの場合の動作シーケンスである。ステップS146の判定の結果、連写モードでない場合、ステップS165においてAF/AECPU151は、ステップS147と同様に、通信回路138を介して絞り開放信号をLCPU133に出力する。LCPU133は、AF/AECPU151から入力された絞り開放信号に基づき、絞り駆動回路135に指令して絞り132の開放駆動を行わせる(図7(C)(q))。ステップS165と並行して、ステップS166において本体CPU139は、ステップS148と同様に、ミラー制御回路145に指令してミラーダウン駆動を行わせる(図7(C)(r))。 Next, the operation when the result of determination in step S146 is not continuous shooting mode will be described with reference to FIG. FIG. 7C shows an operation sequence when the 1R switch 152 is on instead of the continuous shooting mode. If the result of determination in step S146 is not continuous shooting mode, in step S165, the AF / AECPU 151 outputs an aperture opening signal to the LCPU 133 via the communication circuit 138 in the same manner as in step S147. Based on the aperture opening signal input from the AF / AECPU 151, the LCPU 133 instructs the aperture driving circuit 135 to drive the aperture 132 to open (FIG. 7C (q 1 )). In parallel with step S165, in step S166, the main body CPU 139 instructs the mirror control circuit 145 to perform mirror-down driving as in step S148 (FIG. 7C (r 1 )).

続いてステップS167において本体CPU139は、1Rスイッチ152の状態を判定する。ステップS167の判定で1Rスイッチ152がオン状態でなければ、撮影待機シーケンスに移り、ユーザーによる次のカメラ操作を待つ。一方、ステップS167の判定で1Rスイッチ152がオン状態であれば、1RシーケンスのステップS102に移る。ただしこの場合、AF/AECPU151は、通信回路138を介してLCPU133に、ステップS140で算出した予測パルス数P3を出力する。LCPU133は、AF/AECPU151より入力された予測パルス数P3を駆動パルス数とし、それに基づいてレンズ駆動回路136を制御し、焦点調節レンズ102を駆動する(図7(C)(t))。これと並行して1RシーケンスのステップS102乃至ステップS109を実施し(図7(C)(fn+1)及び(gn+1))、レンズ駆動を継続する(図7(C)(hn+1))。 Subsequently, in step S167, the main body CPU 139 determines the state of the 1R switch 152. If it is determined in step S167 that the 1R switch 152 is not on, the process proceeds to a shooting standby sequence and waits for the next camera operation by the user. On the other hand, if it is determined in step S167 that the 1R switch 152 is on, the process proceeds to step S102 of the 1R sequence. However, in this case, the AF / AECPU 151 outputs the predicted pulse number P3 calculated in step S140 to the LCPU 133 via the communication circuit 138. The LCPU 133 sets the predicted pulse number P3 input from the AF / AECPU 151 as the drive pulse number, and controls the lens drive circuit 136 based on this to drive the focus adjusting lens 102 (FIG. 7C (t 1 )). In parallel with this, steps 1102 to S109 of the 1R sequence are performed (FIG. 7C (f n + 1 ) and (g n + 1 )), and lens driving is continued (FIG. 7C (h n + 1 )).

また、ステップS150及びステップS152と並行して、ステップS168において本体CPU139は、2Rスイッチ153の状態を判定する。ステップS168の判定で2Rスイッチ153がオン状態であれば、ステップS153に移る。一方、ステップS168の判定で2Rスイッチ153がオン状態でなければ、ステップS167に移る。   In parallel with step S150 and step S152, main body CPU 139 determines the state of 2R switch 153 in step S168. If it is determined in step S168 that the 2R switch 153 is on, the process proceeds to step S153. On the other hand, if the 2R switch 153 is not in the ON state in the determination in step S168, the process proceeds to step S167.

以上の様に、本実施形態に依れば、1Rスイッチがオンで2Rスイッチがオフ(露光時以外)の間は、動体予測演算において、当該動体予測演算時に得られる最新のデフォーカス量から求まる最新の目標パルス数を含まずに、それより前に得られている目標パルス数を用いて動体予測を行う。つまり、図6(A)の例で述べれば、「(g)演算」における動体予測演算時には、「(g)演算」で算出した目標パルス数は用いずに演算を行う。そして、得られた結果に基づいてレンズ駆動を行う。これに対して、2Rスイッチがオンになった露光時は、動体予測演算において、当該動体予測演算時に得られる最新のデフォーカス量から求まる最新の目標パルス数を含めて、それ以前に得られている目標パルス数を用いて動体予測を行う。つまり、図6(B)の例で述べれば、「(k)演算」における動体予測演算時には、「(k)演算」で算出した目標パルス数は用いて演算を行う。そして、得られた結果に基づいてレンズ駆動を行う。これにより、動体予測を用いたコンティニュアスAFモードにおいて、露光時以外は最新のデフォーカス量から求まる最新の目標パルス数を含まずに動体予測演算を行うため、追従性は低下しない。且つ、露光時は最新のデフォーカス量から求まる最新の目標パルス数を含んで動体予測演算を行うため、従来のコンティニュアスAFモードに比べ、撮影直前の被写体速度の急な変化に対応することができる。従って、本実施形態に係るカメラ用自動焦点調節装置は、高精度な動体予測制御を実現できる。 As described above, according to the present embodiment, when the 1R switch is on and the 2R switch is off (except during exposure), in the moving object prediction calculation, the latest defocus amount obtained during the moving object prediction calculation is obtained. The moving object prediction is performed using the target pulse number obtained before that without including the latest target pulse number. That is, Stated example of FIG. 6 (A), when the object movement presumption calculation in "(g 4) operation" is the target number of pulses calculated in "(g 4) calculation" performs calculation without using. Then, the lens is driven based on the obtained result. On the other hand, at the time of exposure when the 2R switch is turned on, in the moving object prediction calculation, the latest target pulse number obtained from the latest defocus amount obtained at the time of the moving object prediction calculation is obtained before that. The moving object is predicted using the target pulse number. That is, Stated example of FIG. 6 (B), when the object movement presumption calculation in "(k 1) operation" is the target number of pulses calculated in "(k 1) calculation" performs computation using. Then, the lens is driven based on the obtained result. As a result, in the continuous AF mode using the moving object prediction, the moving object prediction calculation is performed without including the latest target pulse number obtained from the latest defocus amount except during exposure, so that the followability does not deteriorate. In addition, since the moving object prediction calculation is performed including the latest target pulse number obtained from the latest defocus amount during exposure, it can cope with a sudden change in subject speed immediately before shooting compared to the conventional continuous AF mode. Can do. Therefore, the automatic focusing apparatus for a camera according to the present embodiment can realize highly accurate moving object prediction control.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。ここで第2の実施形態の説明では、第1の実施形態との相違点に限定して説明する。本実施形態では、本発明に係る自動焦点調節装置を搭載した一眼レフレクスカメラにおいて、大電流を消費するミラーアップ及びミラーダウン駆動開始時とレンズ駆動の期間とが重ならないように動作する。本実施形態は、電流供給能力の低い小型の電池を用いる時に適している。このようなカメラのコンティニュアスAFモードの動作を説明する。本実施形態の1Rシーケンス動作は、第1の実施形態の1Rシーケンス動作と同じである。本実施形態の2Rシーケンス動作に関して、図9に示すフローチャートと、図10(A)に示す動作シーケンスを参照して説明する。尚、第1の実施形態と同一の部分については同一の符号を付して、その説明は省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. Here, in the description of the second embodiment, the description is limited to the differences from the first embodiment. In the present embodiment, in a single-lens reflex camera equipped with the automatic focus adjustment apparatus according to the present invention, operation is performed so that a mirror driving period and a lens driving period that consume a large current do not overlap each other. This embodiment is suitable when a small battery having a low current supply capability is used. The operation of the continuous AF mode of such a camera will be described. The 1R sequence operation of the present embodiment is the same as the 1R sequence operation of the first embodiment. The 2R sequence operation of the present embodiment will be described with reference to the flowchart shown in FIG. 9 and the operation sequence shown in FIG. In addition, the same code | symbol is attached | subjected about the part same as 1st Embodiment, and the description is abbreviate | omitted.

ステップS131乃至ステップS139は第1の実施形態のそれと同じである。ステップS201においてAF/AECPU151は、第1の実施形態のステップS140と同様に、動体予測演算を実施する。即ち、最新の目標パルス数を含み、RAM158に記憶されている目標パルス数時系列データを用いて動体予測を行い、予測パルス数を算出する(図10(A)(k))。ここで算出する予測パルス数は2つある。1つは、露光開始時点の予測パルス数である。もう1つは、露光終了後のミラーダウン後最初の目標パルス数が算出される時点の予測パルス数である。当該動体予測演算に用いる予測式は、第1の実施形態の場合と同様に、一次式でも良いし、二次式やさらに高次の式を用いてもよい。 Steps S131 to S139 are the same as those in the first embodiment. In step S201, the AF / AECPU 151 performs a moving object prediction calculation in the same manner as in step S140 of the first embodiment. That is, the moving object prediction is performed using the target pulse number time-series data including the latest target pulse number and stored in the RAM 158, and the predicted pulse number is calculated (FIG. 10A (k 1 )). There are two predicted pulses to be calculated here. One is the predicted number of pulses at the start of exposure. The other is the predicted number of pulses at the time when the first target number of pulses is calculated after mirror down after completion of exposure. As in the case of the first embodiment, the prediction formula used for the moving object prediction calculation may be a primary expression, a secondary expression, or a higher order expression.

ステップS202においてAF/AECPU151は、内部タイマを用いて所定のレンズ駆動時間をカウントする。この間レンズは駆動している(図10(A)(h))。ここで所定のレンズ駆動時間とは、例えばステップS132乃至ステップS201における1Rシーケンスの残処理、目標パルス数の取得及び動体予測に必要な最長時間等である。 In step S202, the AF / AECPU 151 counts a predetermined lens driving time using an internal timer. During this time, the lens is driven (FIG. 10A (h n )). Here, the predetermined lens driving time is, for example, the longest time required for the remaining processing of the 1R sequence in steps S132 to S201, acquisition of the target pulse number, and moving object prediction.

ステップS202におけるレンズ駆動時間のカウントが終了したら、ステップS203においてAF/AECPU151は、通信回路138を介してLCPU133にレンズ駆動停止信号を送信する。LCPU133は、AF/AECPU151より入力されたレンズ駆動停止信号に基づいて、レンズ駆動回路136を制御し焦点調節レンズ102の駆動を停止させる(図10(A)(w))。 When the counting of the lens driving time in step S202 is completed, in step S203, the AF / AECPU 151 transmits a lens driving stop signal to the LCPU 133 via the communication circuit 138. Based on the lens drive stop signal input from the AF / AECPU 151, the LCPU 133 controls the lens drive circuit 136 to stop driving the focus adjustment lens 102 (FIG. 10A (w 1 )).

ステップS204において本体CPU139は、ミラー制御回路145にミラーアップ駆動制御を行う様指令する。ミラー制御回路145は、本体CPU139から入力された指令に基づいて、ミラーアップ駆動を行う(図10(A)(o))。 In step S204, the main body CPU 139 instructs the mirror control circuit 145 to perform mirror-up drive control. The mirror control circuit 145 performs mirror-up driving based on a command input from the main body CPU 139 (FIG. 10 (A) (o 1 )).

ステップS204と並行して、ステップS205乃至ステップS143を実施する。ステップS205においてAF/AECPU151は、ステップS204におけるミラーアップ駆動電流が所定レベルに低下するまでの時間を、内部タイマを用いてカウントする。これにより図10(A)に示す様に、ミラーアップ駆動開始時の突入電流が発生している期間中にレンズ駆動、及び、絞込駆動が実行されないようにする。   In parallel with step S204, steps S205 to S143 are performed. In step S205, the AF / AECPU 151 counts the time until the mirror-up drive current in step S204 decreases to a predetermined level using an internal timer. As a result, as shown in FIG. 10A, the lens drive and the narrow-down drive are not executed during the period when the inrush current at the start of the mirror up drive is generated.

ステップS206においてAF/AECPU151は、測光回路159で取得した被写体輝度情報に基づいて絞り値を算出する。そしてAF/AECPU151は、算出した絞り値と、ステップS201の動体予測演算により求めた予測パルス数P2と、レンズ駆動指示とを通信回路138を介してLCPU133に出力する。LCPU133は、AF/AECPU151から入力された予測パルス数P2を駆動パルス数とし、それに基づいてレンズ駆動回路136を制御して焦点調節レンズ102を駆動させる(図10(A)(l))。また、LCPU133は、AF/AECPU151より入力された絞り値に基づいて、絞り駆動回路135により絞り132の絞込駆動制御を行う(図10(A)(m))。以下、第1の実施形態の場合と同様に、ステップS142においてAF/AECPU151は、内部タイマによりレンズ駆動時間(例えば、ミラーアップ駆動後にメインミラー104及びサブミラー105のバウンドが停止するまでの時間等)をカウントする。ステップS142でカウントしているレンズ駆動時間の経過後、ステップS143においてAF/AECPU151は、通信回路138を介してLCPU133に、焦点調節レンズ102の駆動を停止させるレンズ駆動停止信号を送信する。LCPU133は、AF/AECPU151より入力されたレンズ駆動停止信号に基づいて、焦点調節レンズ102の駆動を停止させる(図10(A)(n))。ステップS145乃至ステップS158は第1の実施形態のそれと同じである。 In step S206, the AF / AECPU 151 calculates the aperture value based on the subject luminance information acquired by the photometry circuit 159. Then, the AF / AECPU 151 outputs the calculated aperture value, the predicted pulse number P2 obtained by the moving object prediction calculation in step S201, and the lens driving instruction to the LCPU 133 via the communication circuit 138. The LCPU 133 sets the predicted pulse number P2 input from the AF / AECPU 151 as the drive pulse number, and controls the lens drive circuit 136 based on this to drive the focus adjustment lens 102 (FIG. 10A (l 1 )). Further, the LCPU 133 performs the diaphragm drive control of the diaphragm 132 by the diaphragm drive circuit 135 based on the diaphragm value input from the AF / AECPU 151 (FIG. 10A (m 1 )). Hereinafter, as in the case of the first embodiment, in step S142, the AF / AECPU 151 causes the internal timer to drive the lens (for example, the time until the bounce of the main mirror 104 and the sub mirror 105 stops after the mirror up drive). Count. After the elapse of the lens driving time counted in step S142, in step S143, the AF / AECPU 151 transmits a lens driving stop signal for stopping the driving of the focus adjustment lens 102 to the LCPU 133 via the communication circuit 138. The LCPU 133 stops driving the focus adjustment lens 102 based on the lens drive stop signal input from the AF / AECPU 151 (FIG. 10A (n 1 )). Steps S145 to S158 are the same as those in the first embodiment.

ステップS207においてAF/AECPU151は、ステップS151と同様に、通信回路138を介してLCPU133に、ステップS201で求めた予測パルス数P3を出力する。LCPU133は、AF/AECPU151より入力された予測パルス数P3を駆動パルス数とし、それに基づいてレンズ駆動回路136を制御して焦点調節レンズ102を駆動させる(図10(A)(t))。 In step S207, the AF / AECPU 151 outputs the predicted number of pulses P3 obtained in step S201 to the LCPU 133 via the communication circuit 138, as in step S151. The LCPU 133 uses the predicted pulse number P3 input from the AF / AECPU 151 as the drive pulse number, and controls the lens drive circuit 136 based on this to drive the focus adjustment lens 102 (FIG. 10A (t 1 )).

ステップS208においてAF/AECPU151は、ステップS201と同様に、RAM158に記憶されている目標パルス数時系列データを用いて動体予測演算を行う(図10(A)(v))。即ち、次の露光開始時点での目標パルス数の予測値である予測パルスP2と、露光終了後のミラーダウン後最初の目標パルス数が算出される時点での目標パルス数の予測値である予測パルスP3とを算出する。 In step S208, the AF / AECPU 151 performs the moving object prediction calculation using the target pulse number time-series data stored in the RAM 158, as in step S201 (FIG. 10A (v 1 )). That is, a prediction pulse P2 that is a predicted value of the target pulse number at the next exposure start time and a prediction value that is a predicted value of the target pulse number at the time when the first target pulse number after mirror down after the exposure is calculated is calculated. The pulse P3 is calculated.

ステップS209においてAF/AECPU151は、ステップS202と同様に、内部タイマを用いて所定のレンズ駆動時間をカウントする。この間レンズは駆動している(図10(A)(t))。 In step S209, the AF / AECPU 151 counts a predetermined lens driving time using an internal timer, as in step S202. During this time, the lens is driven (FIG. 10A (t 1 )).

ステップS209におけるレンズ駆動時間のカウントが終了したら、ステップS210においてAF/AECPU151は、ステップS203と同様に、通信回路138を介してLCPU133にレンズ駆動停止信号を送信する。LCPU133は、F/AECPU151より入力されたレンズ駆動停止信号に基づいて、レンズ駆動回路136を制御し焦点調節レンズ102の駆動を停止させる(図10(A)(w))。 When the counting of the lens driving time in step S209 is completed, in step S210, the AF / AECPU 151 transmits a lens driving stop signal to the LCPU 133 via the communication circuit 138, similarly to step S203. Based on the lens drive stop signal input from the F / AECPU 151, the LCPU 133 controls the lens drive circuit 136 to stop driving the focus adjustment lens 102 (FIG. 10A (w 2 )).

ステップS211において本体CPU139は、ステップS204と同様に、ミラー制御回路145にミラーアップ駆動制御を行う様指令する。ミラー制御回路145は、本体CPU139から入力された指令に基づいて、ミラーアップ駆動を行う(図10(A)(o))。 In step S211, the main body CPU 139 instructs the mirror control circuit 145 to perform mirror-up drive control, as in step S204. The mirror control circuit 145 performs mirror-up driving based on a command input from the main body CPU 139 (FIG. 10 (A) (o 2 )).

ステップS211と並行して、ステップS212乃至ステップS162を実施する。ステップS212においてAF/AECPU151は、ステップS205と同様に、ステップS211におけるミラーアップ駆動電流が所定レベルに低下するまでの時間を、内部タイマを用いてカウントする。これにより図10(A)に示す様に、ミラーアップ駆動開始時の突入電流が発生している期間中にレンズ駆動、及び、絞込駆動が実行されないようにする。   In parallel with step S211, steps S212 to S162 are performed. In step S212, the AF / AECPU 151 counts the time until the mirror-up drive current in step S211 drops to a predetermined level, using an internal timer, as in step S205. As a result, as shown in FIG. 10A, the lens drive and the narrow-down drive are not executed during the period when the inrush current at the start of the mirror up drive is generated.

ステップS213においてAF/AECPU151は、ステップS206と同様に、測光回路159で取得した被写体輝度情報に基づいて絞り値を算出する。そしてAF/AECPU151は、算出した絞り値と、ステップS208の動体予測演算により求めた予測パルス数P2と、レンズ駆動指示とを通信回路138を介してLCPU133に出力する。LCPU133は、AF/AECPU151から入力された予測パルス数P2を駆動パルス数とし、それに基づいてレンズ駆動回路136を制御して焦点調節レンズ102を駆動させる(図10(A)(l))。また、LCPU133は、AF/AECPU151より入力された絞り値に基づいて、絞り駆動回路135により絞り132の絞込駆動制御を行う(図10(A)(m))。以下、ステップS142及びステップS143と同様に、ステップS161においてAF/AECPU151は、内部タイマによりレンズ駆動時間をカウントする。ステップS161でカウントしているレンズ駆動時間の経過後、ステップS162においてAF/AECPU151は、通信回路138を介してLCPU133に、焦点調節レンズ102の駆動を停止させるレンズ駆動停止信号を送信する。LCPU133は、AF/AECPU151より入力されたレンズ駆動停止信号に基づいて、焦点調節レンズ102の駆動を停止させる(図10(A)(n))。 In step S213, the AF / AECPU 151 calculates the aperture value based on the subject luminance information acquired by the photometry circuit 159, as in step S206. Then, the AF / AECPU 151 outputs the calculated aperture value, the predicted pulse number P2 obtained by the moving object prediction calculation in step S208, and the lens driving instruction to the LCPU 133 via the communication circuit 138. The LCPU 133 sets the predicted pulse number P2 input from the AF / AECPU 151 as the drive pulse number, and controls the lens drive circuit 136 based on this to drive the focus adjustment lens 102 (FIG. 10A (l 2 )). Further, the LCPU 133 performs the diaphragm drive control of the diaphragm 132 by the diaphragm drive circuit 135 based on the diaphragm value input from the AF / AECPU 151 (FIG. 10A (m 2 )). Thereafter, as in step S142 and step S143, in step S161, the AF / AECPU 151 counts the lens driving time with an internal timer. After the elapse of the lens driving time counted in step S161, in step S162, the AF / AECPU 151 transmits a lens driving stop signal for stopping the driving of the focus adjustment lens 102 to the LCPU 133 via the communication circuit 138. The LCPU 133 stops the driving of the focus adjustment lens 102 based on the lens driving stop signal input from the AF / AECPU 151 (FIG. 10A (n 2 )).

ステップS164乃至ステップS168は第1の実施形態のそれと同じである。従って連写モードで2Rスイッチがオンの状態が続くと、ステップS147乃至S164を繰り返す。これは図10(A)における(q)乃至(v)及び(ln+1)乃至(pn+1)を繰り返すことに相当する。また、連写モードではない時は、図10(B)に示す様に、「(o)ミラーアップ」駆動開始時の突入電流が発生している期間中にレンズ駆動、及び、絞込駆動が実行されないようにする。また、「(t)レンズ駆動」の後、1Rシーケンスに従って、レンズ駆動を継続する(図10(B)(hn+1))。 Steps S164 to S168 are the same as those in the first embodiment. Therefore, if the 2R switch is kept on in the continuous shooting mode, steps S147 to S164 are repeated. This corresponds to repeating (q n ) to (v n ) and (l n + 1 ) to (p n + 1 ) in FIG. When not in the continuous shooting mode, as shown in FIG. 10B, the lens drive and the narrow-down drive are performed during the period when the inrush current is generated at the start of the “(o 1 ) mirror up” drive. Is not executed. Further, after “(t 1 ) lens driving”, the lens driving is continued in accordance with the 1R sequence (FIG. 10B (h n + 1 )).

以上の様に本実施形態に依れば、電池の電流供給能力の不足により、ミラーアップ及びミラーダウン駆動の開始時にレンズ駆動を一旦停止する必要がある場合においても、第1の実施形態と同様の効果を得ることができる。即ち、第1の実施形態と同様に、動体予測を用いたコンティニュアスAFモードにおいて、従来のコンティニュアスAFモードに比べ、追従性を低下させずに、且つ撮影直前の被写体速度の急な変化に対応することができる、高精度な動体予測制御を実現できる。   As described above, according to the present embodiment, even when the lens drive needs to be temporarily stopped at the start of mirror-up and mirror-down drive due to insufficient current supply capability of the battery, the same as in the first embodiment. The effect of can be obtained. That is, as in the first embodiment, in the continuous AF mode using the moving object prediction, the follow-up performance is not deteriorated and the subject speed immediately before shooting is abrupt as compared with the conventional continuous AF mode. It is possible to realize highly accurate moving object prediction control that can cope with changes.

尚、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても、発明が解決しようとする課題の欄で述べられた課題が解決でき、かつ、発明の効果が得られる場合には、この構成要素が削除された構成も発明として抽出され得る。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, the problem described in the column of problems to be solved by the invention can be solved and the effect of the invention can be obtained. The configuration in which this component is deleted can also be extracted as an invention. Furthermore, constituent elements over different embodiments may be appropriately combined.

100…カメラ本体、101…交換レンズ部、102…焦点調節レンズ、103…ズームレンズ、104…メインミラー、105…サブミラー、106…焦点検出光学系、107…焦点検出センサ(AFセンサ)、108…フォーカルプレンシャッタ、109…撮像素子、110…スクリーンマット、111…ファインダ光学系、112…接眼レンズ、113…焦点検出エリアマーク、120…視野マスク、121…コンデンサレンズ、122…全反射ミラー、123…赤外カットフィルタ、124…セパレータ絞りマスク、125…セパレータレンズ、126…撮影レンズ、127…開口部、124a、124b、124c、124d…4つの開口部、125a、125b、125c、125d…4つのセパレータレンズ、128a、128b、128c、128d…4つフォトダイオードアレイ部、129…撮像素子109と等価な距離にある一次結像面、130…ズーム駆動用回転環、131…マニュアルフォーカス(MF)用回転環、133…レンズCPU(LCPU)、134…ズーム位置検出回路、135…絞り駆動回路、136…レンズ駆動回路、137…レンズ位置検出回路、138…通信回路、139…本体CPU、140…通信ライン、141…フラッシュROM(FROM)、142…RAM、143…撮像素子制御回路、144…ストロボ制御回路、145…ミラー制御回路、146…シャッタ制御回路、147…画像処理回路、148…表示回路、149…操作スイッチ検出回路、150…電源回路、151…AF/AECPU、152…第1レリーズスイッチ(1Rスイッチ)、153…第2レリーズスイッチ(2Rスイッチ)、154…電池、155…通信ライン、156…通信ライン、157…フラッシュROM(FROM)、158…RAM、159…測光回路、160…焦点検出回路、161…補助光回路。   DESCRIPTION OF SYMBOLS 100 ... Camera body, 101 ... Interchangeable lens part, 102 ... Focus adjustment lens, 103 ... Zoom lens, 104 ... Main mirror, 105 ... Sub mirror, 106 ... Focus detection optical system, 107 ... Focus detection sensor (AF sensor), 108 ... Focal plane shutter, 109 ... imaging device, 110 ... screen mat, 111 ... finder optical system, 112 ... eyepiece lens, 113 ... focus detection area mark, 120 ... field mask, 121 ... condenser lens, 122 ... total reflection mirror, 123 ... Infrared cut filter, 124: Separator aperture mask, 125 ... Separator lens, 126 ... Photography lens, 127 ... Opening, 124a, 124b, 124c, 124d ... Four openings, 125a, 125b, 125c, 125d ... Four separators Lens, 128a, 12 b, 128c, 128d... Four photodiode array units, 129... Primary imaging plane at a distance equivalent to the image sensor 109, 130... Zoom drive rotation ring, 131. Manual focus (MF) rotation ring, 133. Lens CPU (LCPU), 134: Zoom position detection circuit, 135: Aperture drive circuit, 136 ... Lens drive circuit, 137 ... Lens position detection circuit, 138 ... Communication circuit, 139 ... Main body CPU, 140 ... Communication line, 141 ... Flash ROM (FROM), 142 ... RAM, 143 ... image sensor control circuit, 144 ... strobe control circuit, 145 ... mirror control circuit, 146 ... shutter control circuit, 147 ... image processing circuit, 148 ... display circuit, 149 ... operation switch detection Circuit 150 ... Power supply circuit 151 ... AF / AECPU 152 ... First release Switch (1R switch), 153 ... Second release switch (2R switch), 154 ... Battery, 155 ... Communication line, 156 ... Communication line, 157 ... Flash ROM (FROM), 158 ... RAM, 159 ... Photometry circuit, 160 ... Focus detection circuit 161... Auxiliary light circuit.

Claims (3)

フォーカスレンズの焦点状態を検出する焦点検出手段と、
前記焦点検出手段が検出した焦点状態と、前記焦点検出手段が前記焦点状態を検出した焦点検出時点での前記フォーカスレンズの位置とに基づいて算出された、前記フォーカスレンズの位置が合焦位置となる目標駆動位置を取得する目標駆動位置取得手段と、
前記目標駆動位置取得手段が時系列に取得した複数の目標駆動位置に基づいて、前記焦点検出時点より後の時点における前記フォーカスレンズの位置が合焦位置となる予測目標駆動位置を算出する動体予測手段と、
前記動体予測手段が算出した予測目標駆動位置に前記フォーカスレンズの位置を移動させるレンズ駆動手段と、
を具備し、
前記動体予測手段は、前記予測目標駆動位置の算出を繰り返し行う動体予測動作時に、前記予測目標駆動位置として、
露光の指示を受けていなければ、最新に得られた前記目標駆動位置を除き前記動体予測動作の開始以後に得られた前記目標駆動位置に基づいて、第1の予測目標駆動位置を算出し、
前記露光の指示を受けたならば、前記最新に得られた前記目標駆動位置を含む前記動体予測動作の開始以後に得られた前記目標駆動位置に基づいて、第2の予測目標駆動位置を算出する、
ことを特徴とするカメラ用自動焦点調節装置。
Focus detection means for detecting the focus state of the focus lens;
The position of the focus lens calculated based on the focus state detected by the focus detection unit and the position of the focus lens at the time of focus detection when the focus detection unit detected the focus state is the in-focus position. Target drive position acquisition means for acquiring a target drive position,
Based on a plurality of target drive positions acquired in time series by the target drive position acquisition means, a moving object prediction that calculates a predicted target drive position at which the position of the focus lens at a time point after the focus detection time point becomes a focus position Means,
Lens drive means for moving the position of the focus lens to the predicted target drive position calculated by the moving object prediction means;
Comprising
The moving object predicting means, as the predicted target drive position, during a moving object prediction operation that repeatedly calculates the predicted target drive position,
If the exposure instruction has not been received, the first predicted target drive position is calculated based on the target drive position obtained after the start of the moving object prediction operation except for the latest obtained target drive position;
When the exposure instruction is received, a second predicted target drive position is calculated based on the target drive position obtained after the start of the moving object predicting operation including the latest obtained target drive position. To
An automatic focusing device for a camera.
前記焦点検出手段は焦点検出センサを有し、
前記焦点検出手段による前記焦点状態の検出の動作は、前記焦点検出センサの蓄積動作と、前記焦点検出センサからの信号を読出す読出し動作と、その読出した信号に基づく前記焦点状態の演算動作と、を含み、
前記動体予測手段は、前記第2の予測目標駆動位置の算出時に更に、前記最新に得られた前記目標駆動位置を含む前記動体予測動作の開始以後に得られた前記目標駆動位置に基づいて、前記露光終了後最初の予測目標駆動位置の算出時点における予測目標駆動位置である第3の予測目標駆動位置を算出し、
前記レンズ駆動指示手段は、前記露光の指示を受けたとき、
前記第2の予測目標駆動位置への前記フォーカスレンズの移動を指示し、且つ実際に露光を行う露光時点には該フォーカスレンズの移動を停止させる指示を行い、
前記露光終了後にも引き続き予測目標位置への前記フォーカスレンズの移動を指示する場合には、前記露光終了後の最初の前記焦点検出手段における前記蓄積動作終了時に、前記第3の予測目標駆動位置への前記フォーカスレンズの移動を指示し、
該第3の予測目標駆動位置への前記フォーカスレンズの移動中に、
前記焦点検出手段における前記読出し動作及び前記演算動作と、
前記目標駆動位置取得手段による目標駆動位置の取得動作と、
前記動体予測手段による予測目標駆動位置の算出動作と、
を実施する、
ことを特徴とする請求項1に記載のカメラ用自動焦点調節装置。
The focus detection means has a focus detection sensor,
The focus state detection operation by the focus detection means includes an accumulation operation of the focus detection sensor, a read operation for reading a signal from the focus detection sensor, and a calculation operation of the focus state based on the read signal. Including,
The moving object predicting means is based on the target drive position obtained after the start of the moving object predicting operation including the most recently obtained target drive position at the time of calculating the second predicted target drive position. Calculating a third predicted target drive position that is a predicted target drive position at the time of calculation of the first predicted target drive position after the exposure ends;
When the lens driving instruction means receives the exposure instruction,
Instructing the movement of the focus lens to the second predicted target drive position, and instructing to stop the movement of the focus lens at the exposure time when actual exposure is performed,
In the case of instructing the movement of the focus lens to the predicted target position even after the exposure ends, the third predicted target drive position is reached at the end of the accumulation operation in the first focus detection means after the exposure ends. Instruct to move the focus lens
During the movement of the focus lens to the third predicted target drive position,
The readout operation and the computation operation in the focus detection means;
An operation of acquiring a target drive position by the target drive position acquisition means;
A calculation operation of a predicted target drive position by the moving body prediction means;
Carry out the
The automatic focusing apparatus for a camera according to claim 1, wherein:
前記焦点検出手段内の焦点検出センサと、
実際に露光を行う露光時以外は被写体光束を前記焦点検出センサに導き、前記露光時は前記被写体光束を撮像面に導く様に、前記被写体光束の光路を切り替える光路切替手段と、
を更に具備し、
前記動体予測手段が、前記第2の予測目標駆動位置を算出するのは、前記光路切替手段が前記被写体光束を前記撮像面に導く様に光路を切り替える切り替え動作直前の時点であることを特徴とする請求項1に記載のカメラ用自動焦点調節装置。
A focus detection sensor in the focus detection means;
An optical path switching means for switching the optical path of the subject luminous flux so as to guide the subject luminous flux to the focus detection sensor except during the exposure to actually perform exposure, and to guide the subject luminous flux to the imaging surface during the exposure;
Further comprising
The moving object predicting unit calculates the second predicted target drive position at a time immediately before the switching operation for switching the optical path so that the optical path switching unit guides the subject light flux to the imaging surface. The automatic focusing device for a camera according to claim 1.
JP2009241600A 2009-10-20 2009-10-20 Automatic focus regulator for camera Withdrawn JP2011090048A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009241600A JP2011090048A (en) 2009-10-20 2009-10-20 Automatic focus regulator for camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009241600A JP2011090048A (en) 2009-10-20 2009-10-20 Automatic focus regulator for camera

Publications (1)

Publication Number Publication Date
JP2011090048A true JP2011090048A (en) 2011-05-06

Family

ID=44108384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009241600A Withdrawn JP2011090048A (en) 2009-10-20 2009-10-20 Automatic focus regulator for camera

Country Status (1)

Country Link
JP (1) JP2011090048A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140014724A (en) * 2012-07-25 2014-02-06 삼성전자주식회사 Digital photographing apparatus and method for controlling thereof
WO2015098218A1 (en) * 2013-12-27 2015-07-02 オリンパス株式会社 Endoscopic device, method for controlling endoscopic device, and program
JP2017003674A (en) * 2015-06-08 2017-01-05 キヤノン株式会社 Control device, imaging apparatus, control method, program, and storage medium
JP2017040879A (en) * 2015-08-21 2017-02-23 キヤノン株式会社 Imaging apparatus, control method, program, and storage medium
WO2017135276A1 (en) * 2016-02-01 2017-08-10 ソニー株式会社 Controller, control method, and control program
WO2021166332A1 (en) * 2020-02-20 2021-08-26 富士フイルム株式会社 Image-capturing device, control device, method for operating image-capturing device, and program
WO2021166333A1 (en) * 2020-02-20 2021-08-26 富士フイルム株式会社 Imaging device, control device, operation method for imaging device, and program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140014724A (en) * 2012-07-25 2014-02-06 삼성전자주식회사 Digital photographing apparatus and method for controlling thereof
KR101880636B1 (en) * 2012-07-25 2018-07-20 삼성전자주식회사 Digital photographing apparatus and method for controlling thereof
WO2015098218A1 (en) * 2013-12-27 2015-07-02 オリンパス株式会社 Endoscopic device, method for controlling endoscopic device, and program
JP2015123293A (en) * 2013-12-27 2015-07-06 オリンパス株式会社 Endoscope apparatus, control method of endoscope apparatus, and program
CN105848558A (en) * 2013-12-27 2016-08-10 奥林巴斯株式会社 Endoscope device, endoscope device control method and program
US10574874B2 (en) 2013-12-27 2020-02-25 Olympus Corporation Endoscope apparatus, method for controlling endoscope apparatus, and information storage device
JP2017003674A (en) * 2015-06-08 2017-01-05 キヤノン株式会社 Control device, imaging apparatus, control method, program, and storage medium
JP2017040879A (en) * 2015-08-21 2017-02-23 キヤノン株式会社 Imaging apparatus, control method, program, and storage medium
CN106470317A (en) * 2015-08-21 2017-03-01 佳能株式会社 Picture pick-up device and its control method
CN106470317B (en) * 2015-08-21 2021-05-11 佳能株式会社 Image pickup apparatus and control method thereof
JPWO2017135276A1 (en) * 2016-02-01 2018-11-22 ソニー株式会社 Control device, control method, and control program
CN108603997A (en) * 2016-02-01 2018-09-28 索尼公司 control device, control method and control program
US10686979B2 (en) 2016-02-01 2020-06-16 Sony Corporation Control apparatus and control method
WO2017135276A1 (en) * 2016-02-01 2017-08-10 ソニー株式会社 Controller, control method, and control program
CN108603997B (en) * 2016-02-01 2021-08-13 索尼公司 Control device, control method, and control program
WO2021166332A1 (en) * 2020-02-20 2021-08-26 富士フイルム株式会社 Image-capturing device, control device, method for operating image-capturing device, and program
JPWO2021166332A1 (en) * 2020-02-20 2021-08-26
WO2021166333A1 (en) * 2020-02-20 2021-08-26 富士フイルム株式会社 Imaging device, control device, operation method for imaging device, and program
JPWO2021166333A1 (en) * 2020-02-20 2021-08-26
JP7170932B2 (en) 2020-02-20 2022-11-14 富士フイルム株式会社 IMAGING DEVICE, CONTROL DEVICE, OPERATION METHOD OF IMAGING DEVICE, AND PROGRAM
JP7171966B2 (en) 2020-02-20 2022-11-15 富士フイルム株式会社 IMAGING DEVICE, CONTROL DEVICE, OPERATION METHOD OF IMAGING DEVICE, AND PROGRAM
US12063438B2 (en) 2020-02-20 2024-08-13 Fujifilm Corporation Imaging apparatus, control device, operation method of imaging apparatus, and program
US12061377B2 (en) 2020-02-20 2024-08-13 Fujifilm Corporation Imaging apparatus, control device, operation method of imaging apparatus, and program

Similar Documents

Publication Publication Date Title
JP2011090048A (en) Automatic focus regulator for camera
JP5932210B2 (en) Imaging apparatus and focus adjustment method
JP2010160427A (en) Camera system and conversion adaptor
JP2005107213A (en) Automatic focusing device for camera
JP2010256824A (en) Imaging apparatus
JP5056168B2 (en) Focus adjustment device and imaging device
JP2009128613A (en) Camera and automatic focusing device for camera
JP2009210815A (en) Automatic focus adjustment device
JP2010152140A (en) Camera system and conversion adaptor
JP5019119B2 (en) camera
JP2016006449A (en) Image pickup apparatus and control method thereof
JP2007065592A (en) Camera system and lens barrel
JP2009128611A (en) Camera and automatic focusing device for camera
JP6544941B2 (en) Optical apparatus control method, lens apparatus, imaging apparatus and imaging system
JP2009205061A (en) Lens driving device and imaging apparatus
JP4847352B2 (en) Imaging apparatus and control method thereof
JP2013073140A (en) Focus detector and imaging apparatus with the same
JP2009128614A (en) Camera and automatic focusing device for camera
JP5769449B2 (en) Focus adjustment device
JP6390198B2 (en) Imaging apparatus and imaging method
JP2004170633A (en) Automatic focusing device for camera
JP2004120582A (en) Camera
JP5370411B2 (en) Imaging device
JP2010186138A (en) Imaging apparatus
JP5417899B2 (en) Focus detection apparatus and imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130108