Nothing Special   »   [go: up one dir, main page]

WO2024181136A1 - レンズ光学系および撮像装置 - Google Patents

レンズ光学系および撮像装置 Download PDF

Info

Publication number
WO2024181136A1
WO2024181136A1 PCT/JP2024/005159 JP2024005159W WO2024181136A1 WO 2024181136 A1 WO2024181136 A1 WO 2024181136A1 JP 2024005159 W JP2024005159 W JP 2024005159W WO 2024181136 A1 WO2024181136 A1 WO 2024181136A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
optical system
refractive power
lens optical
imaging
Prior art date
Application number
PCT/JP2024/005159
Other languages
English (en)
French (fr)
Inventor
英典 長坂
怜史 竹本
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2024181136A1 publication Critical patent/WO2024181136A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/18Optical objectives specially designed for the purposes specified below with lenses having one or more non-spherical faces, e.g. for reducing geometrical aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • This technology relates to a lens optical system and an imaging device, and in particular to a lens optical system and an imaging device that are small and wide-angle, and can achieve both good imaging quality and a small F-number.
  • imaging lenses are being widely applied to various electronic devices such as smartphones and digital cameras. These electronic devices are required to be lightweight and thin for ease of portability. For this reason, small imaging lenses with good imaging quality are already mainstream in the current market.
  • This technology was developed in light of these circumstances, and makes it possible to achieve both a small, wide-angle lens optical system with good imaging quality and a small F-number.
  • the lens optical system of the first aspect of the present technology comprises, in order from the object side to the image side, a first lens group having negative refractive power and a second lens group having positive refractive power, the first lens group comprising a first lens having negative refractive power, the second lens group comprising, in order from the object side to the image side, a second lens having positive refractive power, a third lens having negative refractive power, a fourth lens having positive or negative refractive power, a fifth lens having positive refractive power, and a sixth lens having negative refractive power, the lens optical system being configured to satisfy the condition 1 ⁇ fa2/f ⁇ 2, where f is the focal length of the entire lens optical system and fa2 is the focal length of the second lens group.
  • a first lens group having negative refractive power and a second lens group having positive refractive power are provided, in order from the object side to the image side.
  • the first lens group includes a first lens having negative refractive power.
  • the second lens group includes, in order from the object side to the image side, a second lens having positive refractive power, a third lens having negative refractive power, a fourth lens having positive or negative refractive power, a fifth lens having positive refractive power, and a sixth lens having negative refractive power.
  • the imaging device comprises, in order from the object side to the image side, a first lens group having negative refractive power and a second lens group having positive refractive power, the first lens group comprising a first lens having negative refractive power, the second lens group comprising, in order from the object side to the image side, a second lens having positive refractive power, a third lens having negative refractive power, a fourth lens having positive or negative refractive power, a fifth lens having positive refractive power, and a sixth lens having negative refractive power, a lens optical system configured to satisfy the condition 1 ⁇ fa2/f ⁇ 2, where f is the focal length of the entire lens optical system and fa2 is the focal length of the second lens group, and an imaging element that converts an optical image formed by the lens optical system into an electrical signal.
  • a lens optical system in order from the object side to the image side, includes a first lens group having negative refractive power and a second lens group having positive refractive power, the first lens group includes a first lens having negative refractive power, and the second lens group includes, in order from the object side to the image side, a second lens having positive refractive power, a third lens having negative refractive power, a fourth lens having positive or negative refractive power, a fifth lens having positive refractive power, and a sixth lens having negative refractive power, where the focal length of the entire lens optical system is f and the focal length of the second lens group is fa2, and the lens optical system is configured to satisfy the condition 1 ⁇ fa2/f ⁇ 2, and an image sensor is provided that converts an optical image formed by the lens optical system into an electrical signal.
  • FIG. 1 is a cross-sectional view showing an example of the configuration of an embodiment of an imaging device to which the present technology is applied.
  • FIG. 2 is a cross-sectional view showing a first configuration example of a lens optical system.
  • 3 is a table showing setting data of the lens and the IR cut filter of FIG. 2 .
  • 3 is a table showing aspheric data for the surfaces of FIG. 2;
  • 3 is a graph showing spherical aberration, field curvature, and distortion in the lens optical system of FIG. 2.
  • FIG. 4 is a cross-sectional view showing a second configuration example of the lens optical system.
  • 7 is a table showing setting data of the lens and the IR cut filter in FIG. 6 .
  • 7 is a table showing aspheric data for the surfaces of FIG.
  • FIG. 11 is a cross-sectional view showing a third configuration example of the lens optical system.
  • 11 is a table showing setting data of the lens and the IR cut filter of FIG. 10 .
  • 11 is a table showing aspheric data for the surfaces of FIG. 10 .
  • 11 is a graph showing spherical aberration, field curvature, and distortion in the lens optical system of FIG. 10.
  • FIG. 11 is a cross-sectional view showing a fourth configuration example of the lens optical system.
  • 15 is a table showing setting data of the lens and the IR cut filter of FIG. 14 .
  • 15 is a table showing aspheric data for the surfaces of FIG.
  • FIG. 15 is a graph showing spherical aberration, field curvature, and distortion in the lens optical system of FIG. 14 .
  • FIG. 11 is a cross-sectional view showing a fifth configuration example of the lens optical system.
  • 20 is a table showing setting data of the lens and the IR cut filter of FIG. 18.
  • 19 is a table showing aspheric data for the surfaces of FIG. 18 .
  • 19 is a graph showing spherical aberration, field curvature, and distortion in the lens optical system of FIG. 18.
  • 1 is a table showing values of parameters or expressions in a lens optical system.
  • FIG. 1 is a block diagram showing an example of a hardware configuration of a smartphone as an electronic device to which the present technology is applied.
  • FIGS. 1A and 1B are diagrams illustrating examples of use of an imaging device.
  • 1 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system.
  • 2 is a block diagram showing an example of the functional configuration of a camera head and a CCU.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system;
  • FIG. 4 is an explanatory diagram showing an example of an installation position of an imaging unit.
  • FIG. 1 is a cross-sectional view showing an example of the configuration of an embodiment of an imaging device to which the present technology is applied.
  • the imaging device 10 in FIG. 1 is composed of a thin circuit board 14 on which a solid-state imaging device 13 is mounted, a circuit board 15, and a spacer 16.
  • the solid-state imaging device 13 has a CSP (Chip Size Package) structure.
  • the CSP structure is one of the structures of solid-state imaging devices that realizes a high pixel count, compact size, and low height, and is an extremely small package structure that is realized with a size similar to that of a single chip.
  • the solid-state imaging device 13 is composed of a solid-state imaging element 21, adhesive 22, glass substrate 23, black resin 24, lens optical system 25, and fixing agent 26.
  • the solid-state imaging element 21 is a CCD sensor or a CMOS image sensor, and includes a semiconductor substrate 31 and an on-chip lens 32.
  • the lower surface of the semiconductor substrate 31 in FIG. 1 is connected to the circuit board 14.
  • a pixel array 41 and the like are formed on an imaging surface 31a, which is a partial area of the upper surface of the semiconductor substrate 31 in FIG. 1, and is made up of light receiving elements corresponding to each of a plurality of pixels arranged in a two-dimensional lattice pattern.
  • the on-chip lens 32 is formed at a position on the pixel array 41 that corresponds to each pixel.
  • the adhesive 22 is a transparent adhesive that is applied to the upper surface in FIG. 1, including the imaging surface 31a of the solid-state imaging element 21.
  • the glass substrate 23 is adhered to the solid-state imaging element 21 via the adhesive 22 for the purposes of fixing the solid-state imaging element 21 and protecting the imaging surface 31a.
  • the black resin 24 is formed on the surface of the glass substrate 23 opposite the adhesive surface to which the adhesive 22 is applied, and functions as a spacer.
  • An IR (Infrared) cut filter (not shown) of the lens optical system 25 is placed on top of the glass substrate 23 via this black resin 24 so that it is parallel to the glass substrate 23. This positions the glass substrate 23 between the lens optical system 25 and the imaging surface 31a.
  • the black resin 24 black mask blocks light that is incident via the lens optical system 25 and that is outside the imaging surface 31a.
  • the lens optical system 25 is a lens optical system that collects light from a subject and forms an optical image on the imaging surface 31a.
  • the configuration of the lens optical system 25 will be described in detail with reference to Figures 2, 6, 10, 14, and 18, which will be described later.
  • the fixing agent 26 is applied to the sides of the solid-state imaging element 21, adhesive 22, glass substrate 23, black resin 24, and lens optical system 25, and to the periphery of the object side (light incident side) surface (top surface in FIG. 1) of the lens optical system 25.
  • the fixing agent 26 fixes the solid-state imaging element 21, adhesive 22, glass substrate 23, black resin 24, and lens optical system 25.
  • This fixing agent 26 can reduce light that is incident from the side of the solid-state imaging device 13 and is refracted or reflected.
  • the fixing agent 26 can also block light that is incident on the solid-state imaging device 13 from the periphery of the area corresponding to the imaging surface 31a.
  • Each light-receiving element of the pixel array 41 captures the image by converting the optical image into an electrical signal.
  • the lens optical system 25 is included within the CSP structure of the solid-state imaging device 13, so the imaging device 10 can be made smaller than when the lens optical system 25 is provided separately.
  • the circuit board 14 is connected to the lower surface of the semiconductor substrate 31 in FIG. 1, and outputs a camera signal corresponding to the electrical signal generated by each light receiving element to the spacer 16.
  • Circuit board 15 is a circuit board for outputting the camera signal output from circuit board 14 via spacer 16 to the outside, and electronic components and the like are mounted on it.
  • Circuit board 15 has connector 15a for connecting to an external device, and outputs the camera signal to the external device.
  • Spacer 16 is a spacer with a built-in circuit for fixing an actuator (not shown) that drives lens optical system 25 and circuit board 15.
  • Semiconductor components 16a and 16b, etc. are mounted on spacer 16.
  • Semiconductor components 16a and 16b are semiconductor components that constitute a capacitor and an LSI (Large Scale Integration) that controls an actuator (not shown) that drives lens optical system 25.
  • Spacer 16 outputs a camera signal output from circuit board 14 to circuit board 15.
  • FIG. 2 is a cross-sectional view showing a first configuration example of the lens optical system 25. As shown in FIG.
  • the lens optical system 25 includes, in order from the object side to the image side (light exit side), a lens group 60 (first lens), an aperture stop 61, a lens group 62 (second lens), and an IR cut filter 63.
  • the lens group 60 on the object side of the aperture stop 61 includes a lens 71 (first lens) having negative refractive power.
  • the lens 71 has a surface 71a on the object side (left side in FIG. 2) and a surface 71b on the image side (right side in FIG. 2).
  • the shape of the lens 71 is a biconcave shape with the surface 71b being concave near the optical axis. This allows light rays to be incident from a wide angle, and the angle of the light rays incident from the lens 71 to the lens group 62 can be set to an appropriate angle. Note that the shape of the lens 71 does not have to be biconcave as long as the surface 71b is concave near the optical axis.
  • the shape of the lens 71 may be a plano-concave shape with the surface 71a being flat and the surface 71b being concave near the optical axis.
  • Aperture diaphragm 61 limits the light entering lens group 62 from lens group 60.
  • Lens group 62 on the image side of aperture stop 61 has positive refractive power.
  • Lens group 62 includes, in order from the object side to the image side, lens 72 (second lens), lens 73 (third lens), lens 74 (fourth lens), lens 75 (fifth lens), and lens 76 (sixth lens).
  • Lens 72 has an object-side surface 72a and an image-side surface 72b, and has positive refractive power.
  • Lens 72 has a biconvex shape in which surfaces 72a and 72b are convex near the optical axis. This allows the lens optical system 25 to have a low profile.
  • Lens 73 has an object-side surface 73a and an image-side surface 73b, and has negative refractive power.
  • Lens 73 is shaped as a meniscus with surface 73b being concave near the optical axis.
  • Lens 73 corrects the spherical aberration, coma aberration, and chromatic aberration generated in lenses 71 and 72.
  • the shape of lens 73 does not have to be meniscus as long as surface 73b is concave.
  • lens 73 may be shaped as a plano-concave with surface 73a being flat near the optical axis.
  • Lens 74 has an object-side surface 74a and an image-side surface 74b, and has positive refractive power.
  • Lens 74 has an uneven shape with surface 74a being concave and surface 74b being convex near the optical axis.
  • the shape of lens 74 does not have to be uneven as long as surface 74b is convex near the optical axis.
  • lens 74 may have a biconvex shape with both surfaces 74a and 74b being convex near the optical axis.
  • Lens 75 has an object-side surface 75a and an image-side surface 75b, and has positive refractive power.
  • Lens 75 has a biconvex shape in which surfaces 75a and 75b are convex near the optical axis.
  • Lens 75 controls the angle of incidence of light rays reaching imaging surface 31a, and effectively corrects astigmatism.
  • Lens 76 has an object-side surface 76a and an image-side surface 76b, and has negative refractive power.
  • Lens 76 has a meniscus shape in which surface 76a is convex near the optical axis. Both surfaces 76a and 76b have aspheric shapes.
  • the aspheric shape of surface 76b has a pole, which causes the shape of surface 76b to change to a convex shape in the peripheral portion away from the optical axis. Because surfaces 76a and 76b have the aspheric shapes described above, lens 76 can control the angle of incidence of light rays reaching imaging surface 31a, and can also provide good correction for field curvature, astigmatism, and distortion.
  • the IR cut filter 63 transmits light other than infrared light that is incident on the object side surface 63a and emits it from the image side surface 63b. Note that the IR cut filter 63 does not need to be provided, and a cover glass or the like may be provided instead of the IR cut filter 63.
  • Light incident on the lens optical system 25 from the subject (object) is emitted via surfaces 71a, 71b, 72a, 72b, 73a, 73b, 74a, 74b, 75a, 75b, 76a, 76b, 63a, and 63b.
  • the light emitted from the lens optical system 25 in this manner is focused on the imaging surface 31a via the glass substrate 23, adhesive 22, and on-chip lens 32.
  • the total length TTL of the lens optical system 25 in Figure 2 is the distance on the optical axis between surface 71a and imaging surface 31a.
  • FIG. 2 in order to simplify the drawing, only the imaging surface 31a is shown, but in reality, between the lens optical system 25 and the imaging surface 31a, there is a glass substrate 23, an adhesive 22, and an on-chip lens 32. This is also true in FIGS. 2, 6, 10, 14, and 18, which will be described later.
  • FIG. 3 is a table showing setting data for the lenses 71 to 76 and the IR cut filter 63.
  • the rows in the table in Figure 3 correspond to surfaces 63a and 63b, surfaces 71a to 76a, and surfaces 71b to 76b. From the left, the columns correspond to surface number i, radius of curvature Ri, surface spacing Di, which is the distance on the optical axis to the next surface with surface number i+1, refractive index Ndi for the d-line (wavelength 587.6 nm), and Abbe number Vdi at the d-line.
  • the surface number is a number assigned to each surface of the lens optical system 25.
  • the surface numbers 101 to 114 are assigned to surfaces 71a, 71b, 72a, 72b, 73a, 73b, 74a, 74b, 75a, 75b, 76a, 76b, 63a, and 63b, in that order.
  • the radius of curvature R101 of surface 71a whose surface number i is 101, is -4.49717
  • the surface distance D101 to surface 71b whose surface number i is 102
  • the refractive index Nd101 is 1.5466.
  • the Abbe number Vd101 of surface 71a i.e., the Abbe number V101 of lens 71
  • the radius of curvature R102 of surface 71b whose surface number i is 102, is 1.14216
  • the surface distance D102 to surface 72a whose surface number i is 103, is 0.865.
  • the radius of curvature R104 of the surface 72b, whose surface number i is 104, is -8.32669 ⁇ 10-1 , and the surface distance D104 to the surface 73a, whose surface number i is 105, is 0.091.
  • the radius of curvature R105 of surface 73a whose surface number i is 105, is 5.07173
  • the surface distance D105 to surface 73b whose surface number i is 106
  • the refractive index Nd105 is 1.6682.
  • the Abbe number Vd105 of surface 73a i.e., the Abbe number V103 of lens 73
  • the radius of curvature R106 of surface 73b whose surface number i is 106, is 1.21990
  • the surface distance D106 to surface 74a whose surface number i is 107, is 0.136.
  • the radius of curvature R107 of surface 74a, whose surface number i is 107, is -3.90094
  • the surface distance D107 to surface 74b, whose surface number i is 108 is 0.390
  • the refractive index Nd107 is 1.5466.
  • the Abbe number Vd107 of surface 74a, i.e., the Abbe number V104 of lens 74 is 55.987.
  • the radius of curvature R108 of surface 74b, whose surface number i is 108, is -2.81618, and the surface distance D108 to surface 75a, whose surface number i is 109, is 0.027.
  • the radius of curvature R111 of the surface 76a, whose surface number i is 111, is 1.38587
  • the surface distance D111 to the surface 76b, whose surface number i is 112 is 0.280
  • the refractive index Nd111 is 1.6682.
  • the Abbe number Vd111 of the surface 76a, i.e., the Abbe number V106 of the lens 76 is 20.410.
  • the radius of curvature R112 of the surface 76b, whose surface number i is 112, is 5.94959 ⁇ 10-1
  • the surface distance D112 to the surface 63a, whose surface number i is 113 is 0.195.
  • the radius of curvature R113 of surface 63a whose surface number i is 113, is infinity, the surface distance D113 to surface 63b, whose surface number i is 114, is 0.110, and the refractive index Nd113 is 1.5185.
  • the Abbe number Vd113 of surface 63a i.e., the Abbe number V107 of the IR cut filter 63, is 64.198.
  • the radius of curvature R114 of surface 63b, whose surface number i is 114, is infinity, and the surface distance D114 to the imaging surface 31a is 0.370.
  • FIG. 4 is a table showing the aspheric data of the surfaces 71a to 76a and the surfaces 71b to 76b.
  • the rows in the table in FIG. 4 correspond to surfaces 71a to 76a and surfaces 71b to 76b, respectively.
  • the columns correspond, from the left, to the surface number i, the conic coefficient K, and the third-order to twentieth-order aspheric coefficients.
  • the conic coefficient K of the surface 71a whose surface number i is 101 is 1.08674 ⁇ 10.
  • the fourth-order aspheric coefficients, sixth-order aspheric coefficients, eighth-order aspheric coefficients, tenth-order aspheric coefficients, twelfth-order aspheric coefficients, fourteenth-order aspheric coefficients, and sixteenth-order aspheric coefficients are 8.5991 ⁇ 10 , -1.96291, 2.91670, -2.68487, 1.35795, -2.79604 ⁇ 10 , and -3.40597 ⁇ 10 , respectively.
  • the conic coefficient K of the surface 71b whose surface number i is 102 is 1.66719 ⁇ 10 ⁇ 1 .
  • the fourth-order aspherical coefficients, sixth-order aspherical coefficients, eighth-order aspherical coefficients, tenth-order aspherical coefficients, twelfth-order aspherical coefficients, fourteenth-order aspherical coefficients, and sixteenth-order aspherical coefficients are 6.71333 ⁇ 10 ⁇ 1 , 7.12295, -8.20514 ⁇ 10, 4.12042 ⁇ 102 , -1.11117 ⁇ 103 , 1,54803 ⁇ 103 , and -8.66909 ⁇ 102 , respectively.
  • the conic coefficient K of the surface 72a whose surface number i is 103 is ⁇ 2.53381.
  • the fourth-order aspherical coefficients, sixth-order aspherical coefficients, eighth-order aspherical coefficients, tenth-order aspherical coefficients, twelfth-order aspherical coefficients, fourteenth-order aspherical coefficients, and sixteenth-order aspherical coefficients are ⁇ 2.23433 ⁇ 10 ⁇ 1 , 8.51455 ⁇ 10 ⁇ 1 , ⁇ 4.44840, ⁇ 4.76826 ⁇ 10, 2.18173 ⁇ 102 , 1.16178 ⁇ 102 , and ⁇ 1.44151 ⁇ 103 , respectively.
  • the conic coefficient K of surface 72b whose surface number i is 104, is -3.09636.
  • the 4th order aspheric coefficient, 6th order aspheric coefficient, 8th order aspheric coefficient, 10th order aspheric coefficient, 12th order aspheric coefficient, 14th order aspheric coefficient, and 16th order aspheric coefficient are -1.00074, 5.76152, -2.97881 ⁇ 10, 7.53668 ⁇ 10, -9.44564 ⁇ 10, 5.92926, and 5.80691 ⁇ 10, respectively.
  • the conic coefficient K of the surface 73a whose surface number i is 105 is 4.49395 ⁇ 10.
  • the fourth-order aspheric coefficients, sixth-order aspheric coefficients, eighth-order aspheric coefficients, tenth-order aspheric coefficients, twelfth-order aspheric coefficients, fourteenth-order aspheric coefficients, and sixteenth-order aspheric coefficients are ⁇ 1.57491, 3.80187, 7.87732, ⁇ 1.08782 ⁇ 10 , 3.25116 ⁇ 10 , ⁇ 3.37921 ⁇ 10 , and 4.27226 ⁇ 10, respectively.
  • the conic coefficient K of the surface 73b whose surface number i is 106 is -1.22259 ⁇ 10.
  • the fourth-order aspheric coefficient, the sixth-order aspheric coefficient, the eighth-order aspheric coefficient, the tenth-order aspheric coefficient, the twelfth-order aspheric coefficient, the fourteenth-order aspheric coefficient, and the sixteenth-order aspheric coefficient are -5.65077 ⁇ 10 , 3.02243, -1.11116 ⁇ 10, 1.89904 ⁇ 10, -1.04521 ⁇ 10, 1.41247, and -4.62815, respectively.
  • the conic coefficient K of the surface 74a whose surface number i is 107 is 3.28662.
  • the fourth-order aspherical coefficients, sixth-order aspherical coefficients, eighth-order aspherical coefficients, tenth-order aspherical coefficients, twelfth-order aspherical coefficients, fourteenth-order aspherical coefficients, and sixteenth-order aspherical coefficients are 8.28676 ⁇ 10 ⁇ 1 , ⁇ 1.83028 ⁇ 10 ⁇ 1 , ⁇ 3.29175, ⁇ 2.74656 ⁇ 10 ⁇ 1 , 1.68747 ⁇ 10, ⁇ 1.65644 ⁇ 10, and ⁇ 8.58594 ⁇ 10 ⁇ 1 , respectively.
  • the conic coefficient K of the surface 74b whose surface number i is 108 is -1.05946 ⁇ 10.
  • the fourth-order aspherical coefficients, sixth-order aspherical coefficients, eighth-order aspherical coefficients, tenth-order aspherical coefficients, twelfth-order aspherical coefficients, fourteenth-order aspherical coefficients, and sixteenth-order aspherical coefficients are -1.17104 ⁇ 10 , 1.18114, -2.95150, 1.35104, 4.86862 ⁇ 10 , 2.39541 ⁇ 10 , and 7.29972 ⁇ 10 , respectively.
  • the conic coefficient K of the surface 75a whose surface number i is 109 is ⁇ 2.69951.
  • the third to eighth order aspheric coefficients are 5.77062 ⁇ 10 ⁇ 3 , ⁇ 2.89092 ⁇ 10 ⁇ 1 , 2.23310, ⁇ 8.58746, 1.09750 ⁇ 10, and 5.92748 ⁇ 10 ⁇ 1 , respectively.
  • the 10th order aspheric coefficients, the 12th order aspheric coefficients, the 14th order aspheric coefficients, the 16th order aspheric coefficients, the 18th order aspheric coefficients, and the 20th order aspheric coefficients are ⁇ 2.25299 ⁇ 10, 2.95751 ⁇ 10, 2.96118 ⁇ 10, ⁇ 1.57060 ⁇ 102 , 2.06066 ⁇ 102 , and ⁇ 9.28835 ⁇ 10, respectively.
  • the conic coefficient K of the surface 75b whose surface number i is 110 is ⁇ 1.31818.
  • the third to eighth order aspheric coefficients are ⁇ 4.86083 ⁇ 10 ⁇ 3 , 5.31074 ⁇ 10 ⁇ 1 , 2.13297 ⁇ 10 ⁇ 2 , ⁇ 4.53667 ⁇ 10 ⁇ 1 , 2.61929 ⁇ 10 ⁇ 2 , and ⁇ 2.19375, respectively.
  • the 10th-order aspherical coefficients, the 12th-order aspherical coefficients, the 14th-order aspherical coefficients, the 16th-order aspherical coefficients, the 18th-order aspherical coefficients, and the 20th-order aspherical coefficients are 1.25574 ⁇ 10, -2.90965 ⁇ 10, 3.09961 ⁇ 10, -1.21674 ⁇ 10, -4.19071 ⁇ 10 , and -3.01885 ⁇ 10 , respectively.
  • the conic coefficient K of the surface 76a whose surface number i is 111 is 6.71256 ⁇ 10 ⁇ 1 .
  • the third-order to eighth-order aspheric coefficients are 4.86467 ⁇ 10 ⁇ 2 , ⁇ 2.12801, ⁇ 9.44361 ⁇ 10 ⁇ 3 , 5.36384, 2.58577 ⁇ 10 ⁇ 3 , and ⁇ 1.18698 ⁇ 10, respectively.
  • the 10th-order aspherical coefficients, the 12th-order aspherical coefficients, the 14th-order aspherical coefficients, the 16th-order aspherical coefficients, the 18th-order aspherical coefficients, and the 20th-order aspherical coefficients are 1.84427 ⁇ 10, -2.12585 ⁇ 10, 1.56101 ⁇ 10, -5.04720, 3.24712 ⁇ 10 , and 1.09436 ⁇ 10 , respectively.
  • the conic coefficient K of the surface 76b whose surface number i is 112, is ⁇ 6.52753.
  • the third to eighth order aspheric coefficients are ⁇ 1.04056 ⁇ 10 ⁇ 1 , ⁇ 8.37987 ⁇ 10 ⁇ 1 , ⁇ 1.54973 ⁇ 10 ⁇ 2 , 1.75581, ⁇ 4.69833 ⁇ 10 ⁇ 3 , and ⁇ 2.55850, respectively.
  • the 10th-order aspherical coefficients, the 12th-order aspherical coefficients, the 14th-order aspherical coefficients, the 16th-order aspherical coefficients, the 18th-order aspherical coefficients, and the 20th-order aspherical coefficients are 2.24589, -1.12602, 2.81727 ⁇ 10-1 , -2.33058 ⁇ 10-2 , 4.92112 ⁇ 10-4 , and -3.32295 ⁇ 10-4 , respectively.
  • FIG. 5 is a graph showing spherical aberration, field curvature, and distortion occurring in the lens optical system 25 of FIG.
  • a in FIG. 5 is a graph showing the vertical spherical aberration for each wavelength of light having wavelengths of 0.486 mm, 0.588 mm, and 0.656 mm that occurs in the lens optical system 25 in FIG. 2.
  • the horizontal axis represents the spherical aberration [mm]
  • the vertical axis represents the normalized pupil coordinate. This also applies to A in FIG. 9, A in FIG. 13, A in FIG. 17, and A in FIG. 21, which will be described later.
  • the pupil radius is 0.2641 mm.
  • FIG. 5B is a graph showing the field curvature of light with a wavelength of 0.546 mm that occurs in the lens optical system 25 of FIG. 2.
  • the horizontal axis shows the field curvature [mm]
  • the vertical axis shows the angle [degree] corresponding to the incident position of the light ray in the sagittal or tangential direction.
  • the solid line shows the relationship between the incident position in the tangential direction and the field curvature
  • the dotted line shows the relationship between the incident position in the sagittal direction and the field curvature.
  • FIG. 9B, FIG. 13B, FIG. 17B, and FIG. 21B which will be described later.
  • the difference between the field curvature in the sagittal direction and the tangential direction is astigmatism.
  • FIG. 5C is a graph showing the distortion aberration of light with a wavelength of 0.546 mm that occurs in the lens optical system 25 of FIG. 2.
  • the horizontal axis shows the distortion aberration [%]
  • the vertical axis shows the angle of incidence of the light ray [degrees]. This also applies to FIG. 9C, FIG. 13C, FIG. 17C, and FIG. 21C, which will be described later.
  • the lens optical system 25 in Figure 2 provides good aberration correction, and the lens optical system 25 in Figure 2 achieves good imaging quality.
  • FIG. 6 is a cross-sectional view showing a second configuration example of the lens optical system 25. As shown in FIG.
  • lens optical system 25 of FIG. 6 differs from the lens optical system 25 of FIG. 2 in that lens group 60, lens group 62, and IR cut filter 63 are replaced by lens group 160, lens group 162, and IR cut filter 163, but is otherwise configured in the same way as the lens optical system 25 of FIG. 2.
  • Lens group 160 includes lens 171.
  • Lens group 162 includes lenses 172 to 176.
  • Lenses 171 to 176 differ from lenses 71 to 76 in the setting data, the aspheric data of each surface, and in that lens 174 has negative refractive power, but are otherwise configured in the same way as lenses 71 to 76.
  • IR cut filter 163 differs from IR cut filter 63 in the setting data, but is otherwise configured in the same way as IR cut filter 63.
  • the following describes the setting data of the lenses 171 to 176 and the IR cut filter 163, and the aspheric data of the object-side surfaces 171a to 176a and the image-side surfaces 171b to 176b of the lenses 171 to 176.
  • the total length TTL of the lens optical system 25 in FIG. 6 is the distance on the optical axis between surface 171a and imaging surface 31a.
  • FIG. 7 is a table showing setting data for the lenses 171 to 176 and the IR cut filter 163.
  • the rows in the table in FIG. 7 correspond to surfaces 163a and 163b, surfaces 171a to 176a, and surfaces 171b to 176b. From the left, the columns correspond to surface number i, radius of curvature Ri, surface spacing Di, refractive index Ndi for the d line, and Abbe number Vdi at the d line.
  • surface numbers from 201 to 214 are assigned to surfaces 171a, 171b, 172a, 172b, 173a, 173b, 174a, 174b, 175a, 175b, 176a, 176b, 163a, and 163b in order. See FIG. 7 for the values in each column of the table in FIG. 7.
  • FIG. 8 is a table showing the aspheric surface data of the surfaces 171a to 176a and the surfaces 171b to 176b.
  • Each row in the table in FIG. 8 corresponds to surfaces 171a to 176a and surfaces 171b to 176b. From the left, each column corresponds to surface number i, conic coefficient K, and third-order to twentieth-order aspheric coefficients. For the numerical values in each column of the table in FIG. 8, see FIG. 8.
  • FIG. 9 is a graph showing the spherical aberration, the field curvature, and the distortion that occur in the lens optical system 25 of FIG.
  • a in FIG. 9 is a graph showing the longitudinal spherical aberration for each wavelength of light having wavelengths of 0.486 mm, 0.588 mm, and 0.656 mm that occurs in the lens optical system 25 of FIG. 6.
  • the pupil radius is 0.2444 mm.
  • B in FIG. 9 is a graph showing the field curvature for light having a wavelength of 0.546 mm that occurs in the lens optical system 25 of FIG. 6.
  • C in FIG. 9 is a graph showing the distortion aberration for light having a wavelength of 0.546 mm that occurs in the lens optical system 25 of FIG. 6.
  • the lens optical system 25 in Figure 6 provides good aberration correction, and the lens optical system 25 in Figure 6 achieves good imaging quality.
  • FIG. 10 is a cross-sectional view showing a third configuration example of the lens optical system 25. As shown in FIG. 10
  • lens optical system 25 of FIG. 10 differs from the lens optical system 25 of FIG. 2 in that the lens group 60, lens group 62, and IR cut filter 63 are replaced by lens group 260, lens group 262, and IR cut filter 263, but is otherwise configured in the same way as the lens optical system 25 of FIG. 2.
  • Lens group 260 includes lens 271.
  • Lens group 262 includes lenses 272 to 276.
  • Lenses 271 to 276 have different setting data and aspheric data for each surface than lenses 71 to 76, but are otherwise configured in the same way as lenses 71 to 76.
  • IR cut filter 263 has different setting data than IR cut filter 63, but are otherwise configured in the same way as IR cut filter 63.
  • the following describes the setting data of the lenses 271 to 276 and the IR cut filter 263, and the aspheric data of the object-side surfaces 271a to 276a and the image-side surfaces 271b to 276b of the lenses 271 to 276.
  • the total length TTL of the lens optical system 25 in FIG. 10 is the distance on the optical axis between surface 271a and imaging surface 31a.
  • FIG. 11 is a table showing setting data for the lenses 271 to 276 and the IR cut filter 263.
  • the rows in the table in FIG. 11 correspond to surfaces 263a and 263b, surfaces 271a to 276a, and surfaces 271b to 276b. From the left, the columns correspond to surface number i, radius of curvature Ri, surface spacing Di, refractive index Ndi for the d line, and Abbe number Vdi at the d line.
  • surface numbers 301 to 314 are assigned to surfaces 271a, 271b, 272a, 272b, 273a, 273b, 274a, 274b, 275a, 275b, 276a, 276b, 263a, and 263b in order. See FIG. 11 for the values in each column of the table in FIG. 11.
  • FIG. 12 is a table showing the aspheric surface data of the surfaces 271a to 276a and the surfaces 271b to 276b.
  • Each row in the table in FIG. 12 corresponds to surfaces 271a to 276a and surfaces 271b to 276b. From the left, each column corresponds to surface number i, conic coefficient K, and third-order to twentieth-order aspheric coefficients. For the numerical values in each column of the table in FIG. 12, see FIG. 12.
  • FIG. 13 is a graph showing spherical aberration, field curvature, and distortion occurring in the lens optical system 25 of FIG.
  • a in FIG. 13 is a graph showing the longitudinal spherical aberration for light with wavelengths of 0.486 mm, 0.588 mm, and 0.656 mm that occurs in the lens optical system 25 of FIG. 10.
  • the pupil radius is 0.2430 mm.
  • B in FIG. 13 is a graph showing the field curvature for light with a wavelength of 0.546 mm that occurs in the lens optical system 25 of FIG. 10.
  • C in FIG. 13 is a graph showing the distortion aberration for light with a wavelength of 0.546 mm that occurs in the lens optical system 25 of FIG. 10.
  • the lens optical system 25 of FIG. 10 provides good aberration correction, and the lens optical system 25 of FIG. 10 achieves good imaging quality.
  • FIG. 14 is a cross-sectional view showing a fourth configuration example of the lens optical system 25. As shown in FIG. 14
  • lens optical system 25 of FIG. 14 differs from the lens optical system 25 of FIG. 2 in that lens group 60, lens group 62, and IR cut filter 63 are replaced by lens group 360, lens group 362, and IR cut filter 363, but is otherwise configured in the same way as the lens optical system 25 of FIG. 2.
  • Lens group 360 includes lens 371.
  • Lens group 362 includes lenses 372 to 376.
  • Lenses 371 to 376 have different setting data and aspheric data for each surface than lenses 71 to 76, but are otherwise configured in the same way as lenses 71 to 76.
  • IR cut filter 363 has different setting data than IR cut filter 63, but are otherwise configured in the same way as IR cut filter 63.
  • the following describes the setting data of the lenses 371 to 376 and the IR cut filter 363, and the aspheric data of the object-side surfaces 371a to 376a and the image-side surfaces 371b to 376b.
  • the total length TTL of the lens optical system 25 in FIG. 14 is the distance on the optical axis between surface 371a and imaging surface 31a.
  • FIG. 15 is a table showing setting data for the lenses 371 to 376 and the IR cut filter 363.
  • the rows in the table in FIG. 15 correspond to surfaces 363a and 363b, surfaces 371a to 376a, and surfaces 371b to 376b. From the left, the columns correspond to surface number i, radius of curvature Ri, surface spacing Di, refractive index Ndi for the d line, and Abbe number Vdi at the d line.
  • surface numbers from 401 to 414 are assigned to surfaces 371a, 371b, 372a, 372b, 373a, 373b, 374a, 374b, 375a, 375b, 376a, 376b, 363a, and 363b in order. See FIG. 15 for the values in each column of the table in FIG. 15.
  • FIG. 16 is a table showing the aspheric surface data of the surfaces 371a to 376a and the surfaces 371b to 376b.
  • the rows in the table in FIG. 16 correspond to surfaces 371a to 376a and surfaces 371b to 376b, respectively.
  • the columns correspond, from the left, to the surface number i, the conic coefficient K, and the third-order to twentieth-order aspheric coefficients. For the numerical values in each column of the table in FIG. 16, see FIG. 16.
  • FIG. 17 is a graph showing spherical aberration, field curvature, and distortion occurring in the lens optical system 25 of FIG.
  • a in FIG. 17 is a graph showing the longitudinal spherical aberration for light with wavelengths of 0.486 mm, 0.588 mm, and 0.656 mm that occurs in the lens optical system 25 of FIG. 14.
  • the pupil radius is 0.2632 mm.
  • B in FIG. 17 is a graph showing the field curvature for light with a wavelength of 0.546 mm that occurs in the lens optical system 25 of FIG. 14.
  • C in FIG. 17 is a graph showing the distortion aberration for light with a wavelength of 0.546 mm that occurs in the lens optical system 25 of FIG. 14.
  • the lens optical system 25 of FIG. 14 provides good aberration correction, and the lens optical system 25 of FIG. 14 achieves good imaging quality.
  • FIG. 18 is a cross-sectional view showing a fifth configuration example of the lens optical system 25. As shown in FIG.
  • lens optical system 25 of FIG. 18 differs from the lens optical system 25 of FIG. 2 in that lens group 60, lens group 62, and IR cut filter 63 are replaced by lens group 460, lens group 462, and IR cut filter 463, but is otherwise configured in the same way as the lens optical system 25 of FIG. 2.
  • Lens group 460 includes lens 471.
  • Lens group 462 includes lenses 472 to 476.
  • Lenses 471 to 476 have different setting data and aspheric data for each surface than lenses 71 to 76, but are otherwise configured in the same way as lenses 71 to 76.
  • IR cut filter 463 has different setting data than IR cut filter 63, but are otherwise configured in the same way as IR cut filter 63.
  • the following describes the setting data of the lenses 471 to 476 and the IR cut filter 463, and the aspheric data of the object-side surfaces 471a to 476a and the image-side surfaces 471b to 476b.
  • the total length TTL of the lens optical system 25 in FIG. 18 is the distance on the optical axis between surface 471a and imaging surface 31a.
  • FIG. 19 is a table showing setting data for the lenses 471 to 476 and the IR cut filter 463.
  • the rows in the table in FIG. 19 correspond to surfaces 463a and 463b, surfaces 471a to 476a, and surfaces 471b to 476b. From the left, the columns correspond to surface number i, radius of curvature Ri, surface spacing Di, refractive index Ndi for the d line, and Abbe number Vdi at the d line.
  • surface numbers from 501 to 514 are assigned to surfaces 471a, 471b, 472a, 472b, 473a, 473b, 474a, 474b, 475a, 475b, 476a, 476b, 463a, and 463b in order. See FIG. 19 for the values in each column of the table in FIG. 19.
  • FIG. 20 is a table showing the aspheric surface data of the surfaces 471a to 476a and the surfaces 471b to 476b.
  • the rows in the table in FIG. 20 correspond to surfaces 471a to 476a and surfaces 471b to 476b, respectively.
  • the columns correspond, from the left, to the surface number i, the conic coefficient K, and the third-order to twentieth-order aspheric coefficients. For the numerical values in each column of the table in FIG. 20, see FIG. 20.
  • FIG. 21 is a graph showing the spherical aberration, the field curvature, and the distortion that occur in the lens optical system 25 of FIG.
  • a in FIG. 21 is a graph showing the longitudinal spherical aberration for light with wavelengths of 0.486 mm, 0.588 mm, and 0.656 mm that occurs in the lens optical system 25 of FIG. 18.
  • the pupil radius is 0.2682 mm.
  • B in FIG. 21 is a graph showing the field curvature for light with a wavelength of 0.546 mm that occurs in the lens optical system 25 of FIG. 18.
  • C in FIG. 21 is a graph showing the distortion aberration for light with a wavelength of 0.546 mm that occurs in the lens optical system 25 of FIG. 18.
  • the lens optical system 25 of FIG. 18 provides good aberration correction, and the lens optical system 25 of FIG. 18 achieves good imaging quality.
  • FIG. 22 is a table showing values of parameters or equations for the lens optical system 25 of FIGS.
  • the rows in the table in Figure 22 correspond, from top to bottom, to fa2/f, (R1+R2)/(R1-R2), FOV(D2/TTL), f6/f, Vd2, Vd3, CRA, F-number, f, f1 to f6, fa2, TTL, 1/2 FOV, FOV, and IH.
  • the columns correspond, from left to right, to the lens optical systems 25 in Figures 2, 6, 10, 14, and 18.
  • fa2 is the collective term for the focal lengths of lens groups 62, 162, 262, 362, and 462, and f is the focal length of the entire lens optical system 25.
  • FOV is the field of view of lens optical system 25
  • D2 is the collective term for spacing Dj01.
  • Vd2 and Vd3 are collective terms for the Abbe number Vj02 and the Abbe number Vj03, respectively.
  • the Abbe number V202 (302, 402, 502) is the Abbe number of the lens 172 (272, 372, 472)
  • the Abbe number Vd203 (303, 403, 503) is the Abbe number of the surface 172a (272a, 372a, 472a).
  • the Abbe number V203 (303, 403, 503) is the Abbe number of the lens 173 (273, 373, 473)
  • the Abbe number Vd205 (305, 405, 505) is the Abbe number of the surface 173a (273a, 373a, 473a).
  • CRA is the chief ray angle of light incident on the imaging surface 31a from the lens optical system 25.
  • IH is the maximum height, which is the distance from the center of the imaging surface 31a to the position where the chief ray of the light with the maximum angle of view reaches.
  • fa2/f is 1.100, 1.900, 1.112, 1.145, and 1.089, respectively. Therefore, the lens optical systems 25 of Figures 2, 6, 10, 14, and 18 satisfy the following conditional expression (1).
  • the lens optical system 25 can control marginal rays near the optical axis and reduce the F-number.
  • the lens optical system 25 can set the angle of the light beam emitted from the lens 71 (171, 271, 371, 471) to an appropriate angle. This makes it easier to achieve a wide angle.
  • the ratio TTL/IH of the total length TTL to the maximum image height IH will be 3.0 or more, which is larger than the ratio in a typical lens optical system, and this is not preferable.
  • the FOV(D2/TTL) is 27.249, 27.789, 27.439, 29.989, and 19.952, respectively. Therefore, the lens optical systems 25 of Figures 2, 6, 10, 14, and 18 satisfy the following conditional expression (3).
  • the lens optical system 25 can efficiently achieve good correction of various aberrations and a low profile. As a result, a lens optical system 25 that is low in profile and has a small F-number can be realized.
  • the FOV (D2/TTL) is below the lower limit of conditional expression (3), it is difficult to make the light from the lens 71 (171, 271, 371, 471) incident on the aperture stop 61 (161, 261, 361, 461) at an appropriate angle. Therefore, it is necessary to narrow the angle of view, making it difficult to make the lens optical system 25 wider.
  • the FOV (D2/TTL) exceeds conditional expression (3), the total length TTL becomes long, making it difficult to make the lens optical system 25 more compact.
  • the lens optical system 25 can satisfactorily correct distortion and coma while ensuring the back focus.
  • the Abbe numbers Vd2 are all 55.987. In the lens optical systems 25 of Figures 14 and 18, the Abbe numbers Vd2 are 80.000 and 50.000, respectively. Therefore, the lens optical systems 25 of Figures 2, 6, 10, 14, and 18 satisfy the following conditional formula (5).
  • the lens optical system 25 can effectively achieve aberration correction by satisfying conditional expression (5).
  • conditional expression (5) if Vd2 exceeds the upper limit of conditional expression (5), it becomes difficult to correct spherical aberration.
  • Vd2 falls below the lower limit of conditional expression (5), it becomes difficult to correct axial chromatic aberration.
  • the Abbe numbers Vd3 are all 20.410. In the lens optical systems 25 of Figures 14 and 18, Vd3 is 30.000 and 15.000, respectively. Therefore, the lens optical systems 25 of Figures 2, 6, 10, 14, and 18 satisfy the following conditional formula (6).
  • the lens optical system 25 can effectively achieve aberration correction by satisfying conditional expression (6).
  • conditional expression (6) if Vd3 exceeds the upper limit of conditional expression (6), it is difficult to correct spherical aberration.
  • Vd3 is below the lower limit of conditional expression (6), it is difficult to correct axial chromatic aberration.
  • the lens optical systems 25 of Figures 2, 6, 10, 14, and 18 satisfy the following conditional expression (7).
  • the lens optical system 25 can suppress the reduction in the amount of light in the peripheral areas by satisfying conditional expression (7).
  • the F-numbers of the lens optical systems 25 in Figures 2, 6, 10, 14, and 18 are 1.898, 1.670, 2.079, 1.950, and 1.954, respectively. Therefore, the lens optical systems 25 in Figures 2, 6, 10, 14, and 18 achieve small F-numbers.
  • the focal lengths f of the entire lens optical system 25 in Figures 2, 6, 10, 14, and 18 are 1.0009, 0.721, 0.987, 1.032, and 1.112, respectively.
  • the focal lengths f1 to f6 of lenses 71 to 76 are -1.639, 1.083, -2.468, 16.440, 1.357, and -1.818, respectively.
  • the focal lengths f1 to f6 of lenses 171 to 176 are -1.480, 1.063, -2.629, -96.639, 1.018, and -2.933, respectively.
  • the focal lengths f1 to f6 of lenses 271 to 276 are -1.381, 1.067, -3.118, 36.102, 1.605, and -2.387, respectively.
  • the focal lengths f1 to f6 of lenses 371 to 376 are -1.778, 1.064, -2.655, 18.878, 1.371, and -1.800, respectively.
  • the focal lengths f1 to f6 of lenses 471 to 476 are -1.598, 1.142, -2.685, 16.316, 1.290, and -1.668, respectively.
  • the focal lengths of lens groups 62, 162, 262, 362, and 462 are 1.110, 1.369, 1.098, 1.182, and 1.211, respectively.
  • the total lengths TTL of the lens optical system 25 in Figures 2, 6, 10, 14, and 18 are 4.078, 4.537, 4.057, 4.160, and 4.467, respectively. Therefore, the lens optical system 25 is compact.
  • the 1/2 FOV which is 1/2 the field of view FOV
  • the field of view FOV is 128.463, 119.973, 118.395, 126.515, and 119.712, respectively. Therefore, a wide angle is achieved in the lens optical system 25.
  • the maximum image height IH is all 1.425.
  • the lens optical system 25 comprises, in order from the object side to the image side, lens group 60 (160, 260, 360, 460) having negative refractive power and lens group 62 (162, 262, 362, 462) having positive refractive power.
  • Lens group 60 (160, 260, 360, 460) comprises lens 71 (171, 271, 371, 471) having negative refractive power.
  • Lens group 62 (162, 262, 362, 462) comprises, in order from the object side to the image side, lenses 72 (172, 272, 372, 472) to 76 (176, 276, 376, 476).
  • the lens 72 (172, 272, 372, 472) has a positive refractive power
  • the lens 73 (173, 273, 373, 473) has a negative refractive power
  • the lens 74 (174, 274, 374, 474) has a positive or negative refractive power.
  • the lens 75 (175, 275, 375, 475) has a positive refractive power
  • the lens 76 (176, 276, 376, 476) has a negative refractive power.
  • the lens optical system 25 satisfies the above-mentioned conditional expression (1). Therefore, the lens optical system 25 can achieve both good aberration correction and a small F-number at a low height and wide angle. As a result, the lens optical system 25 can achieve both good imaging quality (high resolution) and a small F-number at a small size and wide angle.
  • the values of the setting data and aspheric data in the lens optical system 25 are not limited to the values mentioned above.
  • the imaging device 10 described above can be applied to various electronic devices such as digital still cameras, digital video cameras, mobile terminal devices such as mobile phones and smartphones equipped with imaging functions, monitors, and personal computers.
  • FIG. 23 is a block diagram showing an example of the hardware configuration of a smartphone as an electronic device to which this technology is applied.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input/output interface 1005 is further connected to the bus 1004.
  • An imaging unit 1006, an input unit 1007, an output unit 1008, and a communication unit 1009 are connected to the input/output interface 1005.
  • the imaging unit 1006 is composed of the imaging device 10 described above, etc.
  • the imaging unit 1006 captures an image of a subject and obtains an image. This image is stored in the RAM 1003 and/or displayed on the output unit 1008.
  • the input unit 1007 is composed of a touchpad, which is a position input device constituting a touch panel, a microphone, etc.
  • the output unit 1008 is composed of a liquid crystal panel constituting a touch panel, a speaker, etc.
  • the communication unit 1009 is composed of a network interface, etc.
  • the imaging device 10 as the imaging unit 1006
  • FIG. 24 is a diagram showing an example of using the imaging device 10 described above.
  • the imaging device 10 described above can be used in various cases to sense light, such as visible light, infrared light, ultraviolet light, and X-rays, for example, as follows:
  • - Devices that take images for viewing such as digital cameras and mobile devices with camera functions
  • - Devices used for traffic purposes such as in-vehicle sensors that take images of the front and rear of a car, the surroundings, and the interior of the car for safe driving such as automatic stopping and for recognizing the driver's state, surveillance cameras that monitor moving vehicles and roads, and distance measuring sensors that measure the distance between vehicles, etc.
  • - Devices used in home appliances such as TVs, refrigerators, and air conditioners to take images of users' gestures and operate devices in accordance with those gestures
  • - Devices used for medical and healthcare purposes such as endoscopes and devices that take images of blood vessels by receiving infrared light
  • - Devices used for security purposes such as surveillance cameras for crime prevention and cameras for person authentication
  • - Devices used for beauty purposes such as skin measuring devices that take images of the skin and microscopes that take images of the scalp
  • - Devices used for sports such as action cameras and wearable cameras for sports purposes, etc.
  • the technology according to the present disclosure (the present technology) can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 25 is a diagram showing an example of the general configuration of an endoscopic surgery system to which the technology disclosed herein (the present technology) can be applied.
  • an operator (doctor) 11131 is shown using an endoscopic surgery system 11000 to perform surgery on a patient 11132 on a patient bed 11133.
  • the endoscopic surgery system 11000 is composed of an endoscope 11100, other surgical tools 11110 such as an insufflation tube 11111 and an energy treatment tool 11112, a support arm device 11120 that supports the endoscope 11100, and a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 is composed of a lens barrel 11101, the tip of which is inserted into the body cavity of the patient 11132 at a predetermined length, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 is configured as a so-called rigid scope having a rigid lens barrel 11101, but the endoscope 11100 may also be configured as a so-called flexible scope having a flexible lens barrel.
  • the tip of the tube 11101 has an opening into which an objective lens is fitted.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the tube by a light guide extending inside the tube 11101, and is irradiated via the objective lens towards an object to be observed inside the body cavity of the patient 11132.
  • the endoscope 11100 may be a direct-viewing endoscope, an oblique-viewing endoscope, or a side-viewing endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the object of observation is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor to generate an electrical signal corresponding to the observation light, i.e., an image signal corresponding to the observed image.
  • the image signal is sent to the camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the overall operation of the endoscope 11100 and the display device 11202. Furthermore, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal, such as development processing (demosaic processing), in order to display an image based on the image signal.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 under the control of the CCU 11201, displays an image based on the image signal that has been subjected to image processing by the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode) and supplies irradiation light to the endoscope 11100 when photographing the surgical site, etc.
  • a light source such as an LED (Light Emitting Diode) and supplies irradiation light to the endoscope 11100 when photographing the surgical site, etc.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • a user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) of the endoscope 11100.
  • the treatment tool control device 11205 controls the operation of the energy treatment tool 11112 for cauterizing tissue, incising, sealing blood vessels, etc.
  • the insufflation device 11206 sends gas into the body cavity of the patient 11132 via the insufflation tube 11111 to inflate the body cavity in order to ensure a clear field of view for the endoscope 11100 and to ensure a working space for the surgeon.
  • the recorder 11207 is a device capable of recording various types of information related to the surgery.
  • the printer 11208 is a device capable of printing various types of information related to the surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies illumination light to the endoscope 11100 when photographing the surgical site can be composed of a white light source composed of, for example, an LED, a laser light source, or a combination of these.
  • a white light source composed of, for example, an LED, a laser light source, or a combination of these.
  • the white light source is composed of a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high precision, so that the white balance of the captured image can be adjusted in the light source device 11203.
  • the light source device 11203 may be controlled to change the intensity of the light it outputs at predetermined time intervals.
  • the image sensor of the camera head 11102 may be controlled to acquire images in a time-division manner in synchronization with the timing of the change in the light intensity, and the images may be synthesized to generate an image with a high dynamic range that is free of so-called blackout and whiteout.
  • the light source device 11203 may be configured to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependency of light absorption in body tissue, a narrow band of light is irradiated compared to the light irradiated during normal observation (i.e., white light), and a predetermined tissue such as blood vessels on the surface of the mucosa is photographed with high contrast, so-called narrow band imaging is performed.
  • fluorescent observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • excitation light is irradiated to the body tissue and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and excitation light corresponding to the fluorescent wavelength of the reagent is irradiated to the body tissue to obtain a fluorescent image.
  • the light source device 11203 may be configured to supply narrow band light and/or excitation light corresponding to such special light observation.
  • FIG. 26 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU 11201 shown in FIG. 25.
  • the camera head 11102 has a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are connected to each other via a transmission cable 11400 so that they can communicate with each other.
  • the lens unit 11401 is an optical system provided at the connection with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is composed of a combination of multiple lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 is composed of an imaging element.
  • the imaging element constituting the imaging unit 11402 may be one (so-called single-plate type) or multiple (so-called multi-plate type).
  • each imaging element may generate an image signal corresponding to each of RGB, and a color image may be obtained by combining these.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display. By performing 3D display, the surgeon 11131 can more accurately grasp the depth of the biological tissue in the surgical site.
  • 3D dimensional
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101, immediately after the objective lens.
  • the driving unit 11403 is composed of an actuator, and moves the zoom lens and focus lens of the lens unit 11401 a predetermined distance along the optical axis under the control of the camera head control unit 11405. This allows the magnification and focus of the image captured by the imaging unit 11402 to be adjusted appropriately.
  • the communication unit 11404 is configured with a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 also receives control signals for controlling the operation of the camera head 11102 from the CCU 11201, and supplies them to the camera head control unit 11405.
  • the control signals include information on the imaging conditions, such as information specifying the frame rate of the captured image, information specifying the exposure value during imaging, and/or information specifying the magnification and focus of the captured image.
  • the above-mentioned frame rate, exposure value, magnification, focus, and other imaging conditions may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the operation of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured with a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 also transmits to the camera head 11102 a control signal for controlling the operation of the camera head 11102.
  • the image signal and the control signal can be transmitted by electrical communication, optical communication, etc.
  • the image processing unit 11412 performs various image processing operations on the image signal, which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site, etc. by the endoscope 11100, and the display of the captured images obtained by imaging the surgical site, etc. For example, the control unit 11413 generates a control signal for controlling the driving of the camera head 11102.
  • the control unit 11413 also causes the display device 11202 to display the captured image showing the surgical site, etc., based on the image signal that has been image-processed by the image processing unit 11412. At this time, the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 can recognize surgical tools such as forceps, specific body parts, bleeding, mist generated when the energy treatment tool 11112 is used, etc., by detecting the shape and color of the edges of objects included in the captured image. When the control unit 11413 causes the display device 11202 to display the captured image, it may use the recognition result to superimpose various types of surgical support information on the image of the surgical site. By superimposing the surgical support information and presenting it to the surgeon 11131, the burden on the surgeon 11131 can be reduced and the surgeon 11131 can proceed with the surgery reliably.
  • various image recognition techniques such as forceps, specific body parts, bleeding, mist generated when the energy treatment tool 11112 is used, etc.
  • the transmission cable 11400 that connects the camera head 11102 and the CCU 11201 is an electrical signal cable that supports electrical signal communication, an optical fiber that supports optical communication, or a composite cable of these.
  • communication is performed wired using a transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may also be performed wirelessly.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility device, an airplane, a drone, a ship, or a robot.
  • FIG. 27 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile object control system to which the technology disclosed herein can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • Also shown as functional components of the integrated control unit 12050 are a microcomputer 12051, an audio/video output unit 12052, and an in-vehicle network I/F (interface) 12053.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 functions as a control device for a drive force generating device for generating the drive force of the vehicle, such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, a steering mechanism for adjusting the steering angle of the vehicle, and a braking device for generating a braking force for the vehicle.
  • the body system control unit 12020 controls the operation of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a control device for a keyless entry system, a smart key system, a power window device, or various lamps such as headlamps, tail lamps, brake lamps, turn signals, and fog lamps.
  • radio waves or signals from various switches transmitted from a portable device that replaces a key can be input to the body system control unit 12020.
  • the body system control unit 12020 accepts the input of these radio waves or signals and controls the vehicle's door lock device, power window device, lamps, etc.
  • the outside-vehicle information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image capturing unit 12031 is connected to the outside-vehicle information detection unit 12030.
  • the outside-vehicle information detection unit 12030 causes the image capturing unit 12031 to capture images outside the vehicle, and receives the captured images.
  • the outside-vehicle information detection unit 12030 may perform object detection processing or distance detection processing for people, cars, obstacles, signs, or characters on the road surface, based on the received images.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of light received.
  • the imaging unit 12031 can output the electrical signal as an image, or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light, or may be invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects information inside the vehicle.
  • a driver state detection unit 12041 that detects the state of the driver is connected.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 may calculate the driver's degree of fatigue or concentration based on the detection information input from the driver state detection unit 12041, or may determine whether the driver is dozing off.
  • the microcomputer 12051 can calculate the control target values of the driving force generating device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040, and output a control command to the drive system control unit 12010.
  • the microcomputer 12051 can perform cooperative control aimed at realizing the functions of an ADAS (Advanced Driver Assistance System), including avoiding or mitigating vehicle collisions, following based on the distance between vehicles, maintaining vehicle speed, vehicle collision warning, or vehicle lane departure warning.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 can also perform cooperative control for the purpose of autonomous driving, which allows the vehicle to travel autonomously without relying on the driver's operation, by controlling the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040.
  • the microcomputer 12051 can also output control commands to the body system control unit 12020 based on information outside the vehicle acquired by the outside-vehicle information detection unit 12030. For example, the microcomputer 12051 can control the headlamps according to the position of a preceding vehicle or an oncoming vehicle detected by the outside-vehicle information detection unit 12030, and perform cooperative control aimed at preventing glare, such as switching from high beams to low beams.
  • the audio/image output unit 12052 transmits at least one output signal of audio and image to an output device capable of visually or audibly notifying the occupants of the vehicle or the outside of the vehicle of information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 28 shows an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at the front nose, side mirrors, rear bumper, back door, and the top of the windshield inside the vehicle cabin of the vehicle 12100.
  • the imaging unit 12101 provided at the front nose and the imaging unit 12105 provided at the top of the windshield inside the vehicle cabin mainly acquire images of the front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided at the side mirrors mainly acquire images of the sides of the vehicle 12100.
  • the imaging unit 12104 provided at the rear bumper or back door mainly acquires images of the rear of the vehicle 12100.
  • the images of the front acquired by the imaging units 12101 and 12105 are mainly used to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, etc.
  • FIG. 28 shows an example of the imaging ranges of the imaging units 12101 to 12104.
  • Imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • imaging range 12114 indicates the imaging range of the imaging unit 12104 provided on the rear bumper or back door.
  • an overhead image of the vehicle 12100 viewed from above is obtained by superimposing the image data captured by the imaging units 12101 to 12104.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera consisting of multiple imaging elements, or an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 can obtain the distance to each solid object within the imaging ranges 12111 to 12114 and the change in this distance over time (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104, and can extract as a preceding vehicle, in particular, the closest solid object on the path of the vehicle 12100 that is traveling in approximately the same direction as the vehicle 12100 at a predetermined speed (e.g., 0 km/h or faster). Furthermore, the microcomputer 12051 can set the inter-vehicle distance that should be maintained in advance in front of the preceding vehicle, and perform automatic braking control (including follow-up stop control) and automatic acceleration control (including follow-up start control). In this way, cooperative control can be performed for the purpose of automatic driving, which runs autonomously without relying on the driver's operation.
  • automatic braking control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 classifies and extracts three-dimensional object data on three-dimensional objects, such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects, based on the distance information obtained from the imaging units 12101 to 12104, and can use the data to automatically avoid obstacles.
  • the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk, which indicates the risk of collision with each obstacle, and when the collision risk is equal to or exceeds a set value and there is a possibility of a collision, it can provide driving assistance for collision avoidance by outputting an alarm to the driver via the audio speaker 12061 or the display unit 12062, or by forcibly decelerating or steering the vehicle to avoid a collision via the drive system control unit 12010.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed, for example, by a procedure of extracting feature points in the captured image of the imaging units 12101 to 12104 as infrared cameras, and a procedure of performing pattern matching processing on a series of feature points that indicate the contour of an object to determine whether or not it is a pedestrian.
  • the audio/image output unit 12052 controls the display unit 12062 to superimpose a rectangular contour line for emphasis on the recognized pedestrian.
  • the audio/image output unit 12052 may also control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 and the like of the configurations described above.
  • the imaging device 10 described above can be applied to the imaging unit 12031.
  • the technology according to the present disclosure it is possible to achieve both a small, wide-angle imaging system with good imaging quality and a small F-number. As a result, a bright, high-quality wide-angle captured image can be obtained, which can improve the safety and comfort of the driver, for example.
  • the present technology can take the following configurations. (1) From the object side to the image side, a first lens group having negative refractive power; a second lens group having a positive refractive power; The first lens group comprises: a first lens having a negative refractive power; The second lens group is From the object side to the image side, a second lens having a positive refractive power; a third lens having a negative refractive power; a fourth lens having a positive or negative refractive power; a fifth lens having a positive refractive power; and a sixth lens having a negative refractive power;
  • the focal length of the entire lens optical system is f and the focal length of the second lens group is fa2, 1 ⁇ fa2/f ⁇ 2
  • a lens optical system that is configured to satisfy the following conditions.
  • the lens optical system according to any one of (1) to (3) configured to satisfy the following condition: (5)
  • the Abbe number of the second lens at the d line is Vd2, 50 ⁇ Vd2 ⁇ 80
  • the lens optical system according to any one of (1) to (4) which is configured to satisfy the following condition: (6)
  • the Abbe number of the third lens at the d line is Vd3, 15 ⁇ Vd3 ⁇ 30
  • the lens optical system according to any one of (1) to (5) configured to satisfy the following condition: (7)
  • the chief ray angle of the light incident on the imaging surface from the lens optical system is CRA, CRA ⁇ 40
  • the lens optical system according to any one of (1) to (6) which is configured to satisfy the following condition: (8) From the object side to the image side, a first lens group having negative refractive power; a second lens group having a positive refractive power;
  • the first lens group comprises: a first lens

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Lenses (AREA)

Abstract

本技術は、小型かつ広角で良好な結像品質と小さいF値の両方を実現することができるようにするレンズ光学系および撮像装置に関する。 レンズ光学系は、物体側から像側に向かって順に、負の屈折力を有する第1のレンズ群と、正の屈折力を有する第2のレンズ群とを備える。第1のレンズ群は、負の屈折力を有する第1のレンズを備える。第2のレンズ群は、物体側から像側に向かって順に、正の屈折力を有する第2のレンズと、負の屈折力を有する第3のレンズと、正または負の屈折力を有する第4のレンズと、正の屈折力を有する第5のレンズと、負の屈折力を有する第6のレンズとを備える。レンズ光学系は、レンズ光学系全体の焦点距離をfとし、第2のレンズ群の焦点距離をfa2としたとき、1≦fa2/f≦2という条件を満たす。本技術は、例えばレンズ光学系等に適用できる。

Description

レンズ光学系および撮像装置
 本技術は、レンズ光学系および撮像装置に関し、特に、小型かつ広角で良好な結像品質と小さいF値の両方を実現することができるようにしたレンズ光学系および撮像装置に関する。
 撮像技術の発展につれ、撮像レンズは、スマートフォン、ディジタルカメラ等の様々な電子機器に広く応用されてきている。これらの電子機器では、持ち運びの利便性から、軽量化や薄型化が求められる。そのため、良好な結像品質を有する小型の撮像レンズが、現在の市場において既に主流となっている。
 近年、スマートフォンに複数の用途の撮像レンズが搭載されるようになり、超広角の撮像レンズの需要が高まっている。しかしながら、撮像レンズにおいて、短い光学全長で広角化を図ると、収差を補正することが非常に困難である。従って、撮像レンズの結像品質(解像性能)を向上させるためにF値が大きい(暗い)傾向がある。レンズ光学系のF値が小さい(明るい)場合には結像品質が低下する。
 一方、5枚のレンズで良好な収差補正を行いつつ、広角化を実現する撮像レンズがある(例えば、特許文献1参照)。しかしながら、この撮像レンズでは、収差補正にパワーを使うため、F値が大きい。
特開2022-044532号公報
 以上により、撮像レンズ等のレンズ光学系において小型かつ広角で良好な結像品質と小さいF値の両方を実現する方法が要望されているが、そのような要望に十分にこたえられていない状況である。
 本技術は、このような状況に鑑みてなされたものであり、レンズ光学系において小型かつ広角で良好な結像品質と小さいF値の両方を実現することができるようにするものである。
 本技術の第1の側面のレンズ光学系は、物体側から像側に向かって順に、負の屈折力を有する第1のレンズ群と、正の屈折力を有する第2のレンズ群とを備え、前記第1のレンズ群は、負の屈折力を有する第1のレンズを備え、前記第2のレンズ群は、物体側から像側に向かって順に、正の屈折力を有する第2のレンズと、負の屈折力を有する第3のレンズと、正または負の屈折力を有する第4のレンズと、正の屈折力を有する第5のレンズと、負の屈折力を有する第6のレンズとを備え、レンズ光学系全体の焦点距離をfとし、前記第2のレンズ群の焦点距離をfa2としたとき、1≦fa2/f≦2という条件を満たすように構成されたレンズ光学系である。
 本技術の第1の側面においては、物体側から像側に向かって順に、負の屈折力を有する第1のレンズ群と、正の屈折力を有する第2のレンズ群とが設けられる。前記第1のレンズ群は、負の屈折力を有する第1のレンズを備える。前記第2のレンズ群は、物体側から像側に向かって順に、正の屈折力を有する第2のレンズと、負の屈折力を有する第3のレンズと、正または負の屈折力を有する第4のレンズと、正の屈折力を有する第5のレンズと、負の屈折力を有する第6のレンズとを備える。レンズ光学系全体の焦点距離をfとし、前記第2のレンズ群の焦点距離をfa2としたとき、1≦fa2/f≦2という条件が満たされる。
 本技術の第2の側面の撮像装置は、物体側から像側に向かって順に、負の屈折力を有する第1のレンズ群と、正の屈折力を有する第2のレンズ群とを備え、前記第1のレンズ群は、負の屈折力を有する第1のレンズを備え、前記第2のレンズ群は、物体側から像側に向かって順に、正の屈折力を有する第2のレンズと、負の屈折力を有する第3のレンズと、正または負の屈折力を有する第4のレンズと、正の屈折力を有する第5のレンズと、負の屈折力を有する第6のレンズとを備え、レンズ光学系全体の焦点距離をfとし、前記第2のレンズ群の焦点距離をfa2としたとき、1≦fa2/f≦2という条件を満たすように構成されたレンズ光学系と、前記レンズ光学系により結像された光学像を電気信号に変換する撮像素子とを備える。
 本技術の第2の側面においては、物体側から像側に向かって順に、負の屈折力を有する第1のレンズ群と、正の屈折力を有する第2のレンズ群とを備え、前記第1のレンズ群は、負の屈折力を有する第1のレンズを備え、前記第2のレンズ群は、物体側から像側に向かって順に、正の屈折力を有する第2のレンズと、負の屈折力を有する第3のレンズと、正または負の屈折力を有する第4のレンズと、正の屈折力を有する第5のレンズと、負の屈折力を有する第6のレンズとを備え、レンズ光学系全体の焦点距離をfとし、前記第2のレンズ群の焦点距離をfa2としたとき、1≦fa2/f≦2という条件を満たすように構成されたレンズ光学系と、前記レンズ光学系により結像された光学像を電気信号に変換する撮像素子とが設けられる。
本技術を適用した撮像装置の一実施の形態の構成例を示す断面図である。 レンズ光学系の第1の構成例を示す断面図である。 図2のレンズおよびIRカットフィルタの設定データを示す表である。 図2の面の非球面データを示す表である。 図2のレンズ光学系における球面収差、像面湾曲、および歪曲収差を示すグラフである。 レンズ光学系の第2の構成例を示す断面図である。 図6のレンズおよびIRカットフィルタの設定データを示す表である。 図6の面の非球面データを示す表である。 図6のレンズ光学系における球面収差、像面湾曲、および歪曲収差を示すグラフである。 レンズ光学系の第3の構成例を示す断面図である。 図10のレンズおよびIRカットフィルタの設定データを示す表である。 図10の面の非球面データを示す表である。 図10のレンズ光学系における球面収差、像面湾曲、および歪曲収差を示すグラフである。 レンズ光学系の第4の構成例を示す断面図である。 図14のレンズおよびIRカットフィルタの設定データを示す表である。 図14の面の非球面データを示す表である。 図14のレンズ光学系における球面収差、像面湾曲、および歪曲収差を示すグラフである。 レンズ光学系の第5の構成例を示す断面図である。 図18のレンズおよびIRカットフィルタの設定データを示す表である。 図18の面の非球面データを示す表である。 図18のレンズ光学系における球面収差、像面湾曲、および歪曲収差を示すグラフである。 レンズ光学系におけるパラメータまたは式の値を示す表である。 本技術を適用した電子機器としてのスマートフォンのハードウエア構成例を示すブロック図である。 撮像装置の使用例を説明する図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.一実施の形態(撮像装置)
2.電子機器への適用例
3.撮像装置の使用例
4.内視鏡手術システムへの応用例
5.移動体への応用例
 なお、以下の説明で参照する図面において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は実際のものとは異なる。また、図面相互間においても、互いの寸法の関係や比率が異なる部分が含まれている場合がある。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれる。
<1.一実施の形態>
<撮像装置の構成例>
 図1は、本技術を適用した撮像装置の一実施の形態の構成例を示す断面図である。
 図1の撮像装置10は、固体撮像装置13が設置される薄型の回路基板14、回路基板15、およびスペーサ16により構成される。
 固体撮像装置13は、CSP(Chip Size Package)構造を有する。CSP構造は、多画素化、小型化、および低背化を実現する固体撮像装置の構造の1つであり、チップ単体と同程度のサイズで実現された極めて小型のパッケージ構造である。固体撮像装置13は、固体撮像素子21、接着剤22、ガラス基板23、黒樹脂24、レンズ光学系25、および固定剤26により構成される。
 固体撮像素子21は、CCDセンサやCMOSイメージセンサであり、半導体基板31とオンチップレンズ32を備える。半導体基板31の図1中下側の面は回路基板14と接続する。半導体基板31の図1中上側の面の一部の領域である撮像面31aには、2次元格子状に配列された複数の各画素に対応する受光素子からなる画素アレイ41等が形成される。オンチップレンズ32は、画素アレイ41上の各画素に対応する位置に形成される。
 接着剤22は、固体撮像素子21の撮像面31aを含む図1中上側の面上に設けられる透明な接着剤である。ガラス基板23は、固体撮像素子21の固定、撮像面31aの保護などの目的で、接着剤22を介して固体撮像素子21に接着される。
 黒樹脂24は、ガラス基板23の接着剤22の接着面と反対側の面に形成され、スペーサの機能を有する。この黒樹脂24を介して、ガラス基板23の上にレンズ光学系25のIR(Infrared)カットフィルタ(図示せず)がガラス基板23と平行になるように設置される。これにより、ガラス基板23は、レンズ光学系25と撮像面31aとの間に配置されることになる。黒樹脂24(ブラックマスク)は、レンズ光学系25を介して入射される光のうちの、撮像面31aの外側の光を遮光する。
 レンズ光学系25は、被写体からの光を集光し、光学像を撮像面31aに結像させるレンズ光学系である。レンズ光学系25の構成については、後述する図2、図6、図10、図14、および図18を参照して詳細に説明する。
 固定剤26は、固体撮像素子21、接着剤22、ガラス基板23、黒樹脂24、およびレンズ光学系25の側面と、レンズ光学系25の物体側(光の入射側)の面(図1中上面)の周囲とに塗布される。固定剤26は、固体撮像素子21、接着剤22、ガラス基板23、黒樹脂24、およびレンズ光学系25を固定する。この固定剤26により、固体撮像装置13の側面から入射され、屈折したり反射したりする光を軽減させることができる。また、固定剤26により、撮像面31aに対応する領域の周囲から固体撮像装置13に入射される光を遮光することができる。
 被写体からの光は、レンズ光学系25、ガラス基板23、接着剤22、およびオンチップレンズ32を介して撮像面31aに入射され、これにより撮像面31aに光学像が結像される。画素アレイ41の各受光素子は、その光学像を電気信号に変換することにより、撮像を行う。
 以上のように、固体撮像装置13のCSP構造内にレンズ光学系25が含まれるので、別体でレンズ光学系25が設けられる場合に比べて、撮像装置10を小型化することができる。
 回路基板14は、半導体基板31の図1中下側の面と接続し、各受光素子により生成された電気信号に対応するカメラ信号をスペーサ16に出力する回路基板である。
 回路基板15は、回路基板14からスペーサ16を介して出力されたカメラ信号を外部に出力するための回路基板であり、電子部品等が実装される。回路基板15は、外部の装置と接続するためのコネクタ15aを有し、カメラ信号を外部の装置に出力する。
 スペーサ16は、レンズ光学系25を駆動する図示せぬアクチュエータと回路基板15を固定するための回路内蔵のスペーサである。スペーサ16には、半導体部品16aおよび16b等が実装されている。半導体部品16aおよび16bは、コンデンサ、レンズ光学系25を駆動する図示せぬアクチュエータを制御するLSI(Large Scale Integration)を構成する半導体部品等である。スペーサ16は、回路基板14から出力されたカメラ信号を回路基板15に出力する。
<レンズ光学系の第1の構成例>
 図2は、レンズ光学系25の第1の構成例を示す断面図である。
 図2に示すように、レンズ光学系25は、物体側から像側(光の出射側)に向かって順に、レンズ群60(第1のレンズ)、開口絞り61、レンズ群62(第2のレンズ)、およびIRカットフィルタ63を備える。
 開口絞り61より物体側のレンズ群60は、負の屈折力を有するレンズ71(第1のレンズ)を備え、負の屈折力を有する。レンズ71は、物体側(図2中左側)の面71aと像側(図2中右側)の面71bを有する。レンズ71の形状は、光軸近傍で面71bが凹面である両凹形状である。これにより、広い角度からの光線の入射を可能にし、レンズ71からレンズ群62に入射する光線の角度を適切な角度にすることができる。なお、レンズ71の形状は、光軸近傍で面71bが凹面であれば、両凹形状でなくてもよい。例えば、レンズ71の形状は、光軸近傍で、面71aが平面であり、面71bが凹面である平凹形状であってもよい。
 開口絞り61は、レンズ群60からレンズ群62に入射される光を制限する。
 開口絞り61より像側のレンズ群62は、正の屈折力を有する。レンズ群62は、物体側から像側に向かって順に、レンズ72(第2のレンズ)、レンズ73(第3のレンズ)、レンズ74(第4のレンズ)、レンズ75(第5のレンズ)、およびレンズ76(第6のレンズ)を備える。
 レンズ72は、物体側の面72aと像側の面72bを有し、正の屈折力を有する。レンズ72の形状は、光軸近傍で面72aおよび面72bが凸面である両凸形状である。これにより、レンズ光学系25の低背化を図ることができる。
 レンズ73は、物体側の面73aと像側の面73bを有し、負の屈折力を有する。レンズ73の形状は、光軸近傍で面73bが凹面であるメニスカス形状である。レンズ73は、レンズ71およびレンズ72で発生した球面収差、コマ収差、および色収差の補正を行う。レンズ73の形状は、面73bが凹面であれば、メニスカス形状でなくてもよい。例えば、レンズ73の形状は面73aが光軸近傍で平面である平凹形状であってもよい。
 レンズ74は、物体側の面74aと像側の面74bを有し、正の屈折力を有する。レンズ74は、光軸近傍で、面74aが凹面であり、面74bが凸面である凹凸形状である。レンズ72とレンズ74の屈折力のバランスを適切にとることにより、レンズ光学系25の低背化を図りつつ、非点収差を補正することができる。なお、レンズ74の形状は、光軸近傍で面74bが凸面であれば、凹凸形状でなくてもよい。例えば、レンズ74の形状は、光軸近傍で面74aおよび74bの両方が凸面である両凸形状であってもよい。
 レンズ75は、物体側の面75aと像側の面75bを有し、正の屈折力を有する。レンズ75の形状は、光軸近傍で、面75aおよび面75bが凸面である両凸形状である。レンズ75は、撮像面31aに到達する光線の入射角度を制御するとともに、非点収差を良好に補正する。
 レンズ76は、物体側の面76aと像側の面76bを有し、負の屈折力を有する。レンズ76の形状は、光軸近傍で面76aが凸面であるメニスカス形状である。面76aおよび76bの両面は非球面形状を有する。面76bの非球面形状は極点を有し、これにより面76bの形状は、光軸から離れた部分である周辺部で凸形状に変化している。面76aおよび76bが上述したような非球面形状を有するので、レンズ76は、撮像面31aに到達する光線の入射角度を制御するとともに、像面湾曲、非点収差、および歪曲収差を良好に補正することができる。
 IRカットフィルタ63は、物体側の面63aから入射された光のうちの赤外光以外の光を透過させ、像側の面63bから出射させる。なお、IRカットフィルタ63は設けられなくてもよいし、IRカットフィルタ63の代わりにカバーガラス等が設けられるようにしてもよい。
 被写体(物体)からレンズ光学系25に入射された光は、面71a、71b、72a,72b,73a,73b,74a,74b,75a,75b,76a,76b,63a、および63bを介して出射される。このようにしてレンズ光学系25から出射された光は、ガラス基板23、接着剤22、およびオンチップレンズ32を介して、撮像面31aに集光される。なお、図2のレンズ光学系25の全長TTLとは、面71aと撮像面31aの間の光軸上の距離である。
 図2では、図を簡略化するため、撮像面31aのみを図示しているが、実際には、レンズ光学系25と撮像面31aの間には、ガラス基板23、接着剤22、およびオンチップレンズ32が存在する。このことは、後述する図2、図6、図10、図14、および図18においても同様である。
<各レンズおよびIRカットフィルタの設定データの第1の例>
 図3は、レンズ71乃至76およびIRカットフィルタ63の設定データを示す表である。
 図3の表の各行は、面63aおよび63b、面71a乃至76a、並びに面71b乃至76bそれぞれに対応する。各列は、左側から順に、面番号i、曲率半径Ri、次の面番号i+1の面との光軸上の間隔である面間隔Di、d線(波長587.6nm)に対する屈折率Ndi、およびd線におけるアッベ数Vdiに対応する。
 面番号とは、レンズ光学系25の各面に付与された番号である。本明細書では、面71a,71b,72a,72b,73a,73b,74a,74b,75a,75b,76a,76b,63a,63bに対して、順に、101から114までの面番号が付与されているものとする。
 図3に示すように、面番号iが101である面71aの曲率半径R101は、-4.49717であり、面番号iが102である面71bとの面間隔D101は0.266であり、屈折率Nd101は1.5466である。面71aのアッベ数Vd101、即ちレンズ71のアッベ数V101は55.987である。面番号iが102である面71bの曲率半径R102は、1.14216であり、面番号iが103である面72aの面との面間隔D102は0.865である。
 面番号iが103である面72aの曲率半径R103は、1.51530であり、面番号iが104である面72bとの面間隔D103は0.615であり、屈折率Nd103は1.5466である。面72aのアッベ数Vd103、即ちレンズ72のアッベ数V102は55.987である。面番号iが104である面72bの曲率半径R104は、-8.32669×10-1であり、面番号iが105である面73aとの面間隔D104は0.091である。
 面番号iが105である面73aの曲率半径R105は、5.07173であり、面番号iが106である面73bとの面間隔D105は0.250であり、屈折率Nd105は1.6682である。面73aのアッベ数Vd105、即ちレンズ73のアッベ数V103は20.410である。面番号iが106である面73bの曲率半径R106は、1.21990であり、面番号iが107である面74aとの面間隔D106は0.136である。
 面番号iが107である面74aの曲率半径R107は、-3.90094であり、面番号iが108である面74bとの面間隔D107は0.390であり、屈折率Nd107は1.5466である。面74aのアッベ数Vd107、即ちレンズ74のアッベ数V104は55.987である。面番号iが108である面74bの曲率半径R108は、-2.81618であり、面番号iが109である面75aとの面間隔D108は0.027である。
 面番号iが109である面75aの曲率半径R109は、5.27959であり、面番号iが110である面75bとの面間隔D109は0.463であり、屈折率Nd109は1.5466である。面75aのアッベ数Vd109、即ちレンズ75のアッベ数V105は55.987である。面番号iが110である面75bの曲率半径R110は、-8.36240×10-1であり、面番号iが111である面76aとの面間隔D110は0.030である。
 面番号iが111である面76aの曲率半径R111は、1.38587であり、面番号iが112である面76bとの面間隔D111は0.280であり、屈折率Nd111は1.6682である。面76aのアッベ数Vd111、即ちレンズ76のアッベ数V106は20.410である。面番号iが112である面76bの曲率半径R112は、5.94959×10-1であり、面番号iが113である面63aとの面間隔D112は0.195である。
 面番号iが113である面63aの曲率半径R113は、無限大であり、面番号iが114である面63bとの面間隔D113は0.110であり、屈折率Nd113は1.5185である。面63aのアッベ数Vd113、即ちIRカットフィルタ63のアッベ数V107は64.198である。面番号iが114である面63bの曲率半径R114は、無限大であり、撮像面31aとの面間隔D114は0.370である。
<各面の非球面データの第1の例>
 図4は、面71a乃至76aおよび面71b乃至76bの非球面データを示す表である。
 図4の表の各行は、面71a乃至76aおよび面71b乃至76bそれぞれに対応する。各列は、左側から順に、面番号i、円錐係数K、3次非球面係数乃至20次非球面係数に対応する。
 図4に示すように、面番号iが101である面71aの円錐係数Kは、1.08674×10である。4次非球面係数、6次非球面係数、8次非球面係数、10次非球面係数、12次非球面係数、14次非球面係数、および16次非球面係数は、それぞれ、8.5991×10-1, -1.96291, 2.91670, -2.68487,1.35795, -2.79604×10-1, -3.40597×10-3である。
 面番号iが102である面71bの円錐係数Kは、1.66719×10-1である。4次非球面係数、6次非球面係数、8次非球面係数、10次非球面係数、12次非球面係数、14次非球面係数、および16次非球面係数は、それぞれ、6.71333×10-1, 7.12295, -8.20514×10, 4.12042×10, -1.11117×10, 1,54803×10, -8.66909×10である。
 面番号iが103である面72aの面の円錐係数Kは-2.53381である。4次非球面係数、6次非球面係数、8次非球面係数、10次非球面係数、12次非球面係数、14次非球面係数、および16次非球面係数は、それぞれ、-2.23433×10-1, 8.51455×10-1, -4.44840, -4.76826×10, 2.18173×10, 1.16178×10, -1.44151×10である。
 面番号iが104である面72bの円錐係数Kは-3.09636である。4次非球面係数、6次非球面係数、8次非球面係数、10次非球面係数、12次非球面係数、14次非球面係数、および16次非球面係数は、それぞれ、-1.00074, 5.76152, -2.97881×10, 7.53668×10, -9.44564×10, 5.92926, 5.80691×10である。
 面番号iが105である面73aの円錐係数Kは4.49395×10である。4次非球面係数、6次非球面係数、8次非球面係数、10次非球面係数、12次非球面係数、14次非球面係数、および16次非球面係数は、それぞれ、-1.57491, 3.80187, 7.87732, -1.08782×10, 3.25116×10, -3.37921×10, 4.27226×10である。
 面番号iが106である面73bの円錐係数Kは-1.22259×10である。4次非球面係数、6次非球面係数、8次非球面係数、10次非球面係数、12次非球面係数、14次非球面係数、および16次非球面係数は、それぞれ、-5.65077×10-1, 3.02243, -1.11116×10, 1.89904×10, -1.04521×10, 1.41247, -4.62815である。
 面番号iが107である面74aの円錐係数Kは3.28662である。4次非球面係数、6次非球面係数、8次非球面係数、10次非球面係数、12次非球面係数、14次非球面係数、および16次非球面係数は、それぞれ、8.28676×10-1, -1.83028×10-1, -3.29175, -2.74656×10-1, 1.68747×10, -1.65644×10, -8.58594×10-1である。
 面番号iが108である面74bの円錐係数Kは-1.05946×10である。4次非球面係数、6次非球面係数、8次非球面係数、10次非球面係数、12次非球面係数、14次非球面係数、および16次非球面係数は、それぞれ、-1.17104×10-1, 1.18114, -2.95150, 1.35104, 4.86862×10-1, 2.39541×10-1, 7.29972×10-1である。
 面番号iが109である面75aの円錐係数Kは-2.69951である。3次非球面係数乃至8次非球面係数は、それぞれ、5.77062×10-3, -2.89092×10-1, 2.23310, -8.58746, 1.09750×10, 5.92748×10-1である。10次非球面係数、12次非球面係数、14次非球面係数、16次非球面係数、18次非球面係数、および20次非球面係数は、それぞれ、-2.25299×10, 2.95751×10, 2.96118×10, -1.57060×10, 2.06066×10, -9.28835×10である。
 面番号iが110である面75bの円錐係数Kは-1.31818である。3次非球面係数乃至8次非球面係数は、それぞれ、-4.86083×10-3, 5.31074×10-1, 2.13297×10-2, -4.53667×10-1, 2.61929×10-2, -2.19375である。10次非球面係数、12次非球面係数、14次非球面係数、16次非球面係数、18次非球面係数、および20次非球面係数は、それぞれ、1.25574×10,-2.90965×10, 3.09961×10, -1.21674×10, -4.19071×10-2, -3.01885×10-2である。
 面番号iが111である面76aの円錐係数Kは6.71256×10-1である。3次非球面係数乃至8次非球面係数は、それぞれ、4.86467×10-2, -2.12801, -9.44361×10-3, 5.36384, 2.58577×10-3, -1.18698×10である。10次非球面係数、12次非球面係数、14次非球面係数、16次非球面係数、18次非球面係数、および20次非球面係数は、それぞれ、1.84427×10,-2.12585×10, 1.56101×10, -5.04720, 3.24712×10-2, 1.09436×10-2である。
 面番号iが112である面76bの円錐係数Kは-6.52753である。3次非球面係数乃至8次非球面係数は、それぞれ、-1.04056×10-1, -8.37987×10-1, -1.54973×10-2, 1.75581, -4.69833×10-3, -2.55850である。10次非球面係数、12次非球面係数、14次非球面係数、16次非球面係数、18次非球面係数、および20次非球面係数は、それぞれ、2.24589, -1.12602, 2.81727×10-1, -2.33058×10-2, 4.92112×10-4, -3.32295×10-4である。
<球面収差、像面湾曲、および歪曲収差の第1の例>
 図5は、図2のレンズ光学系25において発生する球面収差、像面湾曲、および歪曲収差を示すグラフである。
 図5のAは、図2のレンズ光学系25において発生する、波長が0.486mm,0.588mm,0.656mmである光の波長ごとの縦方向の球面収差を表すグラフである。図5のAのグラフにおいて、横軸は、球面収差[mm]を表し、縦軸は、正規化瞳座標を表す。このことは、後述する図9のA、図13のA、図17のA、および図21のAにおいても同様である。図5のAにおいて瞳半径は0.2641mmである。
 図5のBは、図2のレンズ光学系25において発生する、波長が0.546mmである光の像面湾曲を表すグラフである。図5のBのグラフにおいて、横軸は、像面湾曲[mm]を表し、縦軸は、光線のサジタル方向またはタンジェンシャル方向の入射位置に対応する角度[degree]を表す。図5のBにおいて、実線はタンジェンシャル方向の入射位置と像面湾曲の関係を表し、点線はサジタル方向の入射位置と像面湾曲の関係を表す。これらのことは、後述する図9のB、図13のB、図17のB、および図21のBにおいても同様である。サジタル方向とタンジェンシャル方向の像面湾曲の差が非点収差である。
 図5のCは、図2のレンズ光学系25において発生する、波長が0.546mmである光の歪曲収差を表すグラフである。図5のCのグラフにおいて、横軸は、歪曲収差[%]を表し、縦軸は、光線の入射角度[degree]を表す。このことは、後述する図9のC、図13のC、図17のC、および図21のCにおいても同様である。
 図5のA乃至Cに示すように、図2のレンズ光学系25では良好な収差補正が行われており、図2のレンズ光学系25は良好な結像品質を実現している。
<レンズ光学系の第2の構成例>
 図6は、レンズ光学系25の第2の構成例を示す断面図である。
 図6のレンズ光学系25において、図2のレンズ光学系25と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、図2のレンズ光学系25と異なる部分に着目して説明する。図6のレンズ光学系25は、レンズ群60、レンズ群62、およびIRカットフィルタ63が、レンズ群160、レンズ群162、IRカットフィルタ163に代わる点が、図2のレンズ光学系25と異なっており、その他は図2のレンズ光学系25と同様に構成されている。
 レンズ群160は、レンズ171を備える。レンズ群162は、レンズ172乃至176を備える。レンズ171乃至176は、設定データ、各面の非球面データ、およびレンズ174が負の屈折力を有する点が、レンズ71乃至76と異なっており、その他はレンズ71乃至76と同様に構成されている。IRカットフィルタ163は、設定データがIRカットフィルタ63と異なっており、その他はIRカットフィルタ63と同様に構成されている。
 従って、以下では、レンズ171乃至176およびIRカットフィルタ163の設定データとレンズ171乃至176の物体側の面171a乃至176aおよび像側の面171b乃至176bの非球面データについて説明する。
 なお、図6のレンズ光学系25の全長TTLとは、面171aと撮像面31aの間の光軸上の距離である。
<各レンズおよびIRカットフィルタの設定データの第2の例>
 図7は、レンズ171乃至176およびIRカットフィルタ163の設定データを示す表である。
 図7の表の各行は、面163aおよび163b、面171a乃至176a、並びに面171b乃至176bそれぞれに対応する。各列は、左側から順に、面番号i、曲率半径Ri、面間隔Di、d線に対する屈折率Ndi、およびd線におけるアッベ数Vdiに対応する。
 本明細書では、面171a,171b,172a,172b,173a,173b,174a,174b,175a,175b,176a,176b,163a,163bに対して、順に、201から214までの面番号が付与されているものとする。図7の表の各欄の数値については図7を参照。
<各面の非球面データの第2の例>
 図8は、面171a乃至176aおよび面171b乃至176bの非球面データを示す表である。
 図8の表の各行は、面171a乃至176aおよび面171b乃至176bそれぞれに対応する。各列は、左側から順に、面番号i、円錐係数K、3次非球面係数乃至20次非球面係数に対応する。図8の表の各欄の数値については図8を参照。
<球面収差、像面湾曲、および歪曲収差の第2の例>
 図9は、図6のレンズ光学系25において発生する球面収差、像面湾曲、および歪曲収差を示すグラフである。
 図9のAは、図6のレンズ光学系25において発生する、波長が0.486mm,0.588mm,0.656mmである光の波長ごとの縦方向の球面収差を表すグラフである。図9のAにおいて瞳半径は0.2444mmである。図9のBは、図6のレンズ光学系25において発生する、波長が0.546mmである光の像面湾曲を表すグラフである。図9のCは、図6のレンズ光学系25において発生する、波長が0.546mmである光の歪曲収差を表すグラフである。
 図9のA乃至Cに示すように、図6のレンズ光学系25では良好な収差補正が行われており、図6のレンズ光学系25は良好な結像品質を実現している。
<レンズ光学系の第3の構成例>
 図10は、レンズ光学系25の第3の構成例を示す断面図である。
 図10のレンズ光学系25において、図2のレンズ光学系25と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、図2のレンズ光学系25と異なる部分に着目して説明する。図10のレンズ光学系25は、レンズ群60、レンズ群62、およびIRカットフィルタ63が、レンズ群260、レンズ群262、IRカットフィルタ263に代わる点が、図2のレンズ光学系25と異なっており、その他は図2のレンズ光学系25と同様に構成されている。
 レンズ群260は、レンズ271を備える。レンズ群262は、レンズ272乃至276を備える。レンズ271乃至276は、設定データおよび各面の非球面データが、レンズ71乃至76と異なっており、その他はレンズ71乃至76と同様に構成されている。IRカットフィルタ263は、設定データがIRカットフィルタ63と異なっており、その他はIRカットフィルタ63と同様に構成されている。
 従って、以下では、レンズ271乃至276およびIRカットフィルタ263の設定データとレンズ271乃至276の物体側の面271a乃至276aおよび像側の面271b乃至276bの非球面データについて説明する。
 なお、図10のレンズ光学系25の全長TTLとは、面271aと撮像面31aの間の光軸上の距離である。
<各レンズおよびIRカットフィルタの設定データの第3の例>
 図11は、レンズ271乃至276およびIRカットフィルタ263の設定データを示す表である。
 図11の表の各行は、面263aおよび263b、面271a乃至276a、並びに面271b乃至276bそれぞれに対応する。各列は、左側から順に、面番号i、曲率半径Ri、面間隔Di、d線に対する屈折率Ndi、およびd線におけるアッベ数Vdiに対応する。
 本明細書では、面271a,271b,272a,272b,273a,273b,274a,274b,275a,275b,276a,276b,263a,263bに対して、順に、301から314までの面番号が付与されているものとする。図11の表の各欄の数値については図11を参照。
<各面の非球面データの第3の例>
 図12は、面271a乃至276aおよび面271b乃至276bの非球面データを示す表である。
 図12の表の各行は、面271a乃至276aおよび面271b乃至276bそれぞれに対応する。各列は、左側から順に、面番号i、円錐係数K、3次非球面係数乃至20次非球面係数に対応する。図12の表の各欄の数値については図12を参照。
<球面収差、像面湾曲、および歪曲収差の第3の例>
 図13は、図10のレンズ光学系25において発生する球面収差、像面湾曲、および歪曲収差を示すグラフである。
 図13のAは、図10のレンズ光学系25において発生する、波長が0.486mm,0.588mm,0.656mmである光の波長ごとの縦方向の球面収差を表すグラフである。図13のAにおいて瞳半径は0.2430mmである。図13のBは、図10のレンズ光学系25において発生する、波長が0.546mmである光の像面湾曲を表すグラフである。図13のCは、図10のレンズ光学系25において発生する、波長が0.546mmである光の歪曲収差を表すグラフである。
 図13のA乃至Cに示すように、図10のレンズ光学系25では良好な収差補正が行われており、図10のレンズ光学系25は良好な結像品質を実現している。
<レンズ光学系の第4の構成例>
 図14は、レンズ光学系25の第4の構成例を示す断面図である。
 図14のレンズ光学系25において、図2のレンズ光学系25と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、図2のレンズ光学系25と異なる部分に着目して説明する。図14のレンズ光学系25は、レンズ群60、レンズ群62、およびIRカットフィルタ63が、レンズ群360、レンズ群362、IRカットフィルタ363に代わる点が、図2のレンズ光学系25と異なっており、その他は図2のレンズ光学系25と同様に構成されている。
 レンズ群360は、レンズ371を備える。レンズ群362は、レンズ372乃至376を備える。レンズ371乃至376は、設定データおよび各面の非球面データが、レンズ71乃至76と異なっており、その他はレンズ71乃至76と同様に構成されている。IRカットフィルタ363は、設定データがIRカットフィルタ63と異なっており、その他はIRカットフィルタ63と同様に構成されている。
 従って、以下では、レンズ371乃至376およびIRカットフィルタ363の設定データと物体側の面371a乃至376aおよび像側の面371b乃至376bの非球面データについて説明する。
 なお、図14のレンズ光学系25の全長TTLとは、面371aと撮像面31aの間の光軸上の距離である。
<各レンズおよびIRカットフィルタの設定データの第4の例>
 図15は、レンズ371乃至376およびIRカットフィルタ363の設定データを示す表である。
 図15の表の各行は、面363aおよび363b、面371a乃至376a、および面371b乃至376bそれぞれに対応する。各列は、左側から順に、面番号i、曲率半径Ri、面間隔Di、d線に対する屈折率Ndi、およびd線におけるアッベ数Vdiに対応する。
 本明細書では、面371a,371b,372a,372b,373a,373b,374a,374b,375a,375b,376a,376b,363a,363bに対して、順に、401から414までの面番号が付与されているものとする。図15の表の各欄の数値については図15を参照。
<各面の非球面データの第4の例>
 図16は、面371a乃至376aおよび面371b乃至376bの非球面データを示す表である。
 図16の表の各行は、面371a乃至376aおよび面371b乃至376bそれぞれに対応する。各列は、左側から順に、面番号i、円錐係数K、3次非球面係数乃至20次非球面係数に対応する。図16の表の各欄の数値については図16を参照。
<球面収差、像面湾曲、および歪曲収差の第4の例>
 図17は、図14のレンズ光学系25において発生する球面収差、像面湾曲、および歪曲収差を示すグラフである。
 図17のAは、図14のレンズ光学系25において発生する、波長が0.486mm,0.588mm,0.656mmである光の波長ごとの縦方向の球面収差を表すグラフである。図17のAにおいて瞳半径は0.2632mmである。図17のBは、図14のレンズ光学系25において発生する、波長が0.546mmである光の像面湾曲を表すグラフである。図17のCは、図14のレンズ光学系25において発生する、波長が0.546mmである光の歪曲収差を表すグラフである。
 図17のA乃至Cに示すように、図14のレンズ光学系25では良好な収差補正が行われており、図14のレンズ光学系25は良好な結像品質を実現している。
<レンズ光学系の第5の構成例>
 図18は、レンズ光学系25の第5の構成例を示す断面図である。
 図18のレンズ光学系25において、図2のレンズ光学系25と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、図2のレンズ光学系25と異なる部分に着目して説明する。図18のレンズ光学系25は、レンズ群60、レンズ群62、およびIRカットフィルタ63が、レンズ群460、レンズ群462、IRカットフィルタ463に代わる点が、図2のレンズ光学系25と異なっており、その他は図2のレンズ光学系25と同様に構成されている。
 レンズ群460は、レンズ471を備える。レンズ群462は、レンズ472乃至476を備える。レンズ471乃至476は、設定データおよび各面の非球面データが、レンズ71乃至76と異なっており、その他はレンズ71乃至76と同様に構成されている。IRカットフィルタ463は、設定データがIRカットフィルタ63と異なっており、その他はIRカットフィルタ63と同様に構成されている。
 従って、以下では、レンズ471乃至476およびIRカットフィルタ463の設定データと物体側の面471a乃至476aおよび像側の面471b乃至476bの非球面データについて説明する。
 なお、図18のレンズ光学系25の全長TTLとは、面471aと撮像面31aの間の光軸上の距離である。
<各レンズおよびIRカットフィルタの設定データの第5の例>
 図19は、レンズ471乃至476およびIRカットフィルタ463の設定データを示す表である。
 図19の表の各行は、面463aおよび463b、面471a乃至476a、面471b乃至476bそれぞれに対応する。各列は、左側から順に、面番号i、曲率半径Ri、面間隔Di、d線に対する屈折率Ndi、およびd線におけるアッベ数Vdiに対応する。
 本明細書では、面471a,471b,472a,472b,473a,473b,474a,474b,475a,475b,476a,476b,463a,463bに対して、順に、501から514までの面番号が付与されているものとする。図19の表の各欄の数値については図19を参照。
<各面の非球面データの第5の例>
 図20は、面471a乃至476aおよび面471b乃至476bの非球面データを示す表である。
 図20の表の各行は、面471a乃至476aおよび面471b乃至476bそれぞれに対応する。各列は、左側から順に、面番号i、円錐係数K、3次非球面係数乃至20次非球面係数に対応する。図20の表の各欄の数値については図20を参照。
<球面収差、像面湾曲、および歪曲収差の第5の例>
 図21は、図18のレンズ光学系25において発生する球面収差、像面湾曲、および歪曲収差を示すグラフである。
 図21のAは、図18のレンズ光学系25において発生する、波長が0.486mm,0.588mm,0.656mmである光の波長ごとの縦方向の球面収差を表すグラフである。図21のAにおいて瞳半径は0.2682mmである。図21のBは、図18のレンズ光学系25において発生する、波長が0.546mmである光の像面湾曲を表すグラフである。図21のCは、図18のレンズ光学系25において発生する、波長が0.546mmである光の歪曲収差を表すグラフである。
 図21のA乃至Cに示すように、図18のレンズ光学系25では良好な収差補正が行われており、図18のレンズ光学系25は良好な結像品質を実現している。
<パラメータまたは式の値>
 図22は、図2、図6、図10、図14、および図18のレンズ光学系25におけるパラメータまたは式の値を示す表である。
 図22の表の各行は、上から順に、fa2/f,(R1+R2)/(R1-R2),FOV(D2/TTL),f6/f,Vd2,Vd3,CRA,F値、f,f1乃至f6,fa2,TTL,1/2FOV,FOV,IHに対応する。各列は、左側から順に、図2、図6、図10、図14、図18のレンズ光学系25に対応する。
 ここで、fa2とは、レンズ群62,162,262,362、および462の焦点距離の総称であり、fとはレンズ光学系25全体の焦点距離である。R1およびR2とは、それぞれ、曲率半径Rj01,Rj02(j=1,2,3,4,5)の総称である。FOVとは、レンズ光学系25の視野角であり、D2とは、間隔Dj01の総称である。fp(p=1,2,3,4,5,6)とは、レンズ7p,17p,27p,37p、および47pの焦点距離の総称である。
 Vd2およびVd3とは、それぞれ、アッベ数Vj02、アッベ数Vj03の総称である。なお、アッベ数V202(302,402,502)とは、レンズ172(272,372,472)のアッベ数であり、面172a(272a,372a,472a)のアッベ数Vd203(303,403,503)である。アッベ数V203(303,403,503)とは、レンズ173(273,373,473)のアッベ数であり、面173a(273a,373a,473a)のアッベ数Vd205(305,405,505)である。
 CRAは、レンズ光学系25から撮像面31aに入射する光の主光線角度である。IHとは、撮像面31aの中心から最大画角の光線の主光線が到達する位置までの距離である最大増高である。
 図22に示すように、図2、図6、図10、図14、および図18のレンズ光学系25では、fa2/fは、それぞれ、1.100, 1.900, 1.112, 1.145, 1.089である。従って、図2、図6、図10、図14、および図18のレンズ光学系25は、以下の条件式(1)を満たしている。
 1≦fa2/f≦2・・・(1)
 レンズ光学系25は、条件式(1)を満たすことにより、光軸近傍のマージナル光線をコントロールし、F値を小さくすることができる。
 これに対して、fa2/fが条件式(1)の下限を下回る場合、焦点距離fa2が短いためにレンズ群62(162,262,362,462)における感度が高くなり、良好な結像品質を確保することが困難である。
 一方、fa2/fが条件式(1)の上限を上回る場合、焦点距離fa2が長いためにマージナル光線における収差補正が困難になる。また、焦点距離fa2が長いと、レンズ群60(160,260,360,460)とレンズ群62(162,262,362,462)の間隔も長くなり、レンズ光学系25の全長TTLが長くなる。焦点距離fa2が長い場合にレンズ光学系25の全長TTLの増加を抑制すると、レンズ群60(160,260,360,460)で発生した球面収差をレンズ群62(162,262,362,462)で補正することが困難になる。
 図2、図6、図10、図14、および図18のレンズ光学系25では、(R1+R2)/(R1-R2)は、それぞれ、0.595,0.630,1.015,0.500,0.586である。従って、図2、図6、図10、図14、および図18のレンズ光学系25は、以下の条件式(2)を満たしている。
 0.5≦(R1+R2)/(R1-R2)≦1.1・・・(2)
 レンズ光学系25は、条件式(2)を満たすことにより、レンズ71(171,271,371,471)から出射される光線の角度を適切な角度にすることができる。従って、より容易に広角化することができる。
 これに対して、(R1+R2)/(R1-R2)が条件式(2)の上限を上回る場合、全長TTLと最大像高IHの比TTL/IHが一般的なレンズ光学系における比よりも大きい3.0以上となるため、好ましくない。
 図2、図6、図10、図14、および図18のレンズ光学系25では、FOV(D2/TTL)は、それぞれ、27.249, 27.789, 27.439, 29.989, 19.952である。従って、図2、図6、図10、図14、および図18のレンズ光学系25は、以下の条件式(3)を満たしている。
 15≦FOV(D2/TTL)≦30・・・(3)
 レンズ光学系25は、条件式(3)を満たすことにより、諸収差の良好な補正および低背化を効率的に実現することができる。その結果、低背であり、かつF値が小さいレンズ光学系25を実現することができる。
 これに対して、FOV(D2/TTL)が条件式(3)の下限を下回る場合、レンズ71(171,271,371,471)からの光線を適切な角度で開口絞り61(161,261,361,461)に入射することが困難である。従って、画角を狭くする必要があり、レンズ光学系25の広角化が困難である。一方、FOV(D2/TTL)が条件式(3)を上回る場合、全長TTLが長くなるため、レンズ光学系25の小型化が困難である。
 図2、図6、図10、図14、および図18のレンズ光学系25では、f6/fは、それぞれ、-1.802, -4.069, -2.419, -1.744,-1.500である。従って、図2、図6、図10、図14、および図18のレンズ光学系25は、以下の条件式(4)を満たしている。
 -4.5≦f6/f≦-1.5・・・(4)
 レンズ光学系25は、条件式(4)を満たすことにより、バックフォーカスを確保しつつ、歪曲収差やコマ収差を良好に補正することができる。
 図2、図6、および図10のレンズ光学系25では、アッベ数Vd2は全て55.987である。図14および図18のレンズ光学系25では、アッベ数Vd2は、それぞれ80.000, 50.000である。従って、図2、図6、図10、図14、および図18のレンズ光学系25は、以下の条件式(5)を満たしている。
  50≦Vd2≦80・・・(5)
 レンズ光学系25は、条件式(5)を満たすことにより、収差補正を効果的に実現することができる。これに対して、Vd2が条件式(5)の上限を上回る場合、球面収差の補正が困難となる。一方、Vd2が条件式(5)の下限を下回る場合、軸上色収差の補正が困難となる。
 図2、図6、および図10のレンズ光学系25では、アッベ数Vd3は全て20.410である。図14および図18のレンズ光学系25では、Vd3は、それぞれ、30.000,15.000である。従って、図2、図6、図10、図14、および図18のレンズ光学系25は、以下の条件式(6)を満たしている。
 15≦Vd3≦30・・・(6)
 レンズ光学系25は、条件式(6)を満たすことにより、収差補正を効果的に実現することができる。これに対して、Vd3が条件式(6)の上限を上回る場合、球面収差の補正が困難である。一方、Vd3が条件式(6)の下限を下回る場合、軸上色収差の補正が困難である。
 図2、図6、図10、図14、および図18のレンズ光学系25では、主光線角度CRAは、それぞれ、36.418, 32.983, 39.376, 39.200, 38.969である。従って、図2、図6、図10、図14、および図18のレンズ光学系25は、以下の条件式(7)を満たしている。
 CRA<40・・・(7)
 レンズ光学系25は、条件式(7)を満たすことにより、周辺部の光量の低下を抑制することができる。
 図2、図6、図10、図14、および図18のレンズ光学系25のF値は、それぞれ、1.898, 1.670. 2.079, 1.950, 1.954である。従って、図2、図6、図10、図14、および図18のレンズ光学系25では、小さいF値が実現されている。
 図2、図6、図10、図14、および図18のレンズ光学系25全体の焦点距離fは、それぞれ、1.0009, 0.721, 0.987, 1.032, 1.112である。
 レンズ71乃至76の焦点距離f1乃至f6は、それぞれ、-1.639, 1.083, -2.468, 16.440, 1.357, -1.818である。レンズ171乃至176の焦点距離f1乃至f6は、それぞれ、-1.480, 1.063, -2.629, -96.639, 1.018, -2.933である。レンズ271乃至276の焦点距離f1乃至f6は、それぞれ、-1.381, 1.067, -3.118, 36.102, 1.605, -2.387である。レンズ371乃至376の焦点距離f1乃至f6は、それぞれ、-1.778, 1.064, -2.655, 18.878, 1.371, -1.800である。レンズ471乃至476の焦点距離f1乃至f6は、それぞれ、-1.598, 1.142, -2.685, 16.316, 1.290, -1.668である。
 レンズ群62,162,262,362、および462の焦点距離は、それぞれ、1.110, 1.369, 1.098, 1.182, 1.211である。
 図2、図6、図10、図14、および図18のレンズ光学系25の全長TTLは、それぞれ、4.078, 4.537, 4.057, 4.160, 4.467である。従って、レンズ光学系25では小型化が実現されている。
 図2、図6、図10、図14、および図18のレンズ光学系25では、視野角FOVの1/2倍である1/2FOVは、それぞれ、64.232, 59.986, 59.198, 63.258, 59.856である。従って、視野角FOVは、それぞれ、128.463,119.973,118.395,126.515,119.712である。よって、レンズ光学系25では広角化が実現されている。
 図2、図6、図10、図14、および図18のレンズ光学系25では、最大像高IHは全て1.425である。
 以上のように、レンズ光学系25は、物体側から像側に向かって順に、負の屈折力を有するレンズ群60(160,260,360,460)と、正の屈折力を有するレンズ群62(162,262,362,462)とを備える。レンズ群60(160,260,360,460)は、負の屈折力を有するレンズ71(171,271,371,471)を備える。レンズ群62(162,262,362,462)は、物体側から像側に向かって順に、レンズ72(172,272,372,472)乃至76(176,276,376,476)を備える。レンズ72(172,272,372,472)は正の屈折力を有し、レンズ73(173,273,373,473)は負の屈折力を有し、レンズ74(174,274,374,474)は正または負の屈折力を有する。レンズ75(175,275,375,475)は正の屈折力を有し、レンズ76(176,276,376,476)は負の屈折力を有する。そして、レンズ光学系25は上述した条件式(1)を満たす。従って、レンズ光学系25は、低背かつ広角で良好な収差補正と小さいF値の両方を実現することができる。その結果、レンズ光学系25は小型かつ広角で良好な結像品質(高解像力)と小さいF値の両方を実現することができる。
 なお、レンズ光学系25における設定データや非球面データの数値は、上述した数値に限定されない。
<2.電子機器への適用例>
 上述した撮像装置10は、例えば、ディジタルスチルカメラやディジタルビデオカメラ、撮像機能を備えた携帯電話機やスマートフォン等の携帯端末装置、モニタやパーソナルコンピュータといった各種の電子機器に適用することができる。
 図23は、本技術を提供した電子機器としてのスマートフォンのハードウエア構成例を示すブロック図である。
 スマートフォン1000において、CPU(Central Processing Unit)1001,ROM(Read Only Memory)1002,RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、撮像部1006、入力部1007、出力部1008、および通信部1009が接続されている。
 撮像部1006は、上述した撮像装置10等により構成される。撮像部1006は、被写体を撮像し、画像を取得する。この画像はRAM1003に記憶されたり、出力部1008に表示されたりする。入力部1007は、タッチパネルを構成する位置入力装置であるタッチパッド、マイクロフォンなどよりなる。出力部1008は、タッチパネルを構成する液晶パネル、スピーカなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。
 以上のように構成されるスマートフォン1000においても、撮像部1006として撮像装置10を適用することにより、小型かつ広角で良好な結像品質と小さいF値の両方を実現することができる。その結果、スマートフォン1000において高画質で明るい画像を撮影することができる。
<3.撮像装置の使用例>
 図24は、上述の撮像装置10を使用する使用例を示す図である。
 上述した撮像装置10は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<4.内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図25は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図25では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図26は、図25に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、レンズユニット11401、撮像部11402等に適用され得る。具体的には、上述した撮像装置10は、レンズユニット11401、撮像部11402、および駆動部11403に適用することができる。レンズユニット11401と撮像部11402に本開示に係る技術を適用することにより、小型かつ広角で良好な結像品質と小さいF値の両方を実現することができる。その結果、高画質で明るい広角の術部画像により、例えば術者が術部を確実に確認することが可能になる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <5.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図27は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図27に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図27の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図28は、撮像部12031の設置位置の例を示す図である。
 図28では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図28には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。具体的には、上述した撮像装置10は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、小型かつ広角で良好な結像品質と小さいF値の両方を実現することができる。その結果、高画質で明るい広角の撮像画像を得ることができるため、例えばドライバの安全性や快適性を向上させることが可能になる。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 本技術は、以下の構成を取ることができる。
 (1)
 物体側から像側に向かって順に、
 負の屈折力を有する第1のレンズ群と、
 正の屈折力を有する第2のレンズ群と
 を備え、
 前記第1のレンズ群は、
  負の屈折力を有する第1のレンズ
 を備え、
 前記第2のレンズ群は、
  物体側から像側に向かって順に、
  正の屈折力を有する第2のレンズと、
  負の屈折力を有する第3のレンズと、
  正または負の屈折力を有する第4のレンズと、
  正の屈折力を有する第5のレンズと、
  負の屈折力を有する第6のレンズと
 を備え、
 レンズ光学系全体の焦点距離をfとし、前記第2のレンズ群の焦点距離をfa2としたとき、
 1≦fa2/f≦2
 という条件を満たす
 ように構成された
 レンズ光学系。
 (2)
 前記第1のレンズの前記物体側の面の曲率半径をR1とし、前記第1のレンズの前記像側の面の曲率半径をR2としたとき、
 0.5≦(R1+R2)/(R1-R2)≦1.1
 という条件を満たす
 ように構成された
 前記(1)に記載のレンズ光学系。
 (3)
 前記レンズ光学系の視野角をFOVとし、前記レンズ光学系の全長をTTLとし、前記第1のレンズの前記像側の面と前記第2のレンズの前記物体側の面の距離をD2としたとき、
 15≦FOV(D2/TTL)≦30
 という条件を満たす
 ように構成された
 前記(1)または(2)に記載のレンズ光学系。
 (4)
 前記レンズ光学系全体の焦点距離をfとし、前記第6のレンズの焦点距離をf6としたとき、
 -4.5≦f6/f≦-1.5
 という条件を満たす
 ように構成された
 前記(1)乃至(3)のいずれかに記載のレンズ光学系。
 (5)
 前記第2のレンズのd線におけるアッベ数をVd2としたとき、
 50≦Vd2≦80
 という条件を満たす
 ように構成された
 前記(1)乃至(4)のいずれかに記載のレンズ光学系。
 (6)
 前記第3のレンズのd線におけるアッベ数をVd3としたとき、
 15≦Vd3≦30
 という条件を満たす
 ように構成された
 前記(1)乃至(5)のいずれかに記載のレンズ光学系。
 (7)
 前記レンズ光学系から撮像面に入射する光の主光線角度をCRAとしたとき、
 CRA<40
 という条件を満たす
 ように構成された
 前記(1)乃至(6)のいずれかに記載のレンズ光学系。
 (8)
  物体側から像側に向かって順に、
  負の屈折力を有する第1のレンズ群と、
  正の屈折力を有する第2のレンズ群と
  を備え、
  前記第1のレンズ群は、
   負の屈折力を有する第1のレンズ
  を備え、
  前記第2のレンズ群は、
   物体側から像側に向かって順に、
   正の屈折力を有する第2のレンズと、
   負の屈折力を有する第3のレンズと、
   正または負の屈折力を有する第4のレンズと、
   正の屈折力を有する第5のレンズと、
   負の屈折力を有する第6のレンズと
  を備え、
  レンズ光学系全体の焦点距離をfとし、前記第2のレンズ群の焦点距離をfa2としたとき、
  1≦fa2/f≦2
  という条件を満たす
  ように構成された
 レンズ光学系と、
 前記レンズ光学系により結像された光学像を電気信号に変換する撮像素子と
 を備える撮像装置。
 10 撮像装置, 21 固体撮像素子, 25 レンズ光学系, 31a 撮像面, 71乃至76 レンズ, 71a,71b,72a 面, 171乃至176 レンズ, 171a,171b,172a 面, 271乃至276 レンズ, 271a,271b,272a 面, 371乃至376 レンズ, 371a,371b,372a 面, 471乃至476 レンズ, 471a,471b,472a 面

Claims (8)

  1.  物体側から像側に向かって順に、
     負の屈折力を有する第1のレンズ群と、
     正の屈折力を有する第2のレンズ群と
     を備え、
     前記第1のレンズ群は、
      負の屈折力を有する第1のレンズ
     を備え、
     前記第2のレンズ群は、
      物体側から像側に向かって順に、
      正の屈折力を有する第2のレンズと、
      負の屈折力を有する第3のレンズと、
      正または負の屈折力を有する第4のレンズと、
      正の屈折力を有する第5のレンズと、
      負の屈折力を有する第6のレンズと
     を備え、
     レンズ光学系全体の焦点距離をfとし、前記第2のレンズ群の焦点距離をfa2としたとき、
     1≦fa2/f≦2
     という条件を満たす
     ように構成された
     レンズ光学系。
  2.  前記第1のレンズの前記物体側の面の曲率半径をR1とし、前記第1のレンズの前記像側の面の曲率半径をR2としたとき、
     0.5≦(R1+R2)/(R1-R2)≦1.1
     という条件を満たす
     ように構成された
     請求項1に記載のレンズ光学系。
  3.  前記レンズ光学系の視野角をFOVとし、前記レンズ光学系の全長をTTLとし、前記第1のレンズの前記像側の面と前記第2のレンズの前記物体側の面の距離をD2としたとき、
     15≦FOV(D2/TTL)≦30
     という条件を満たす
     ように構成された
     請求項1に記載のレンズ光学系。
  4.  前記レンズ光学系全体の焦点距離をfとし、前記第6のレンズの焦点距離をf6としたとき、
     -4.5≦f6/f≦-1.5
     という条件を満たす
     ように構成された
     請求項1に記載のレンズ光学系。
  5.  前記第2のレンズのd線におけるアッベ数をVd2としたとき、
     50≦Vd2≦80
     という条件を満たす
     ように構成された
     請求項1に記載のレンズ光学系。
  6.  前記第3のレンズのd線におけるアッベ数をVd3としたとき、
     15≦Vd3≦30
     という条件を満たす
     ように構成された
     請求項1に記載のレンズ光学系。
  7.  前記レンズ光学系から撮像面に入射する光の主光線角度をCRAとしたとき、
     CRA<40
     という条件を満たす
     ように構成された
     請求項1に記載のレンズ光学系。
  8.   物体側から像側に向かって順に、
      負の屈折力を有する第1のレンズ群と、
      正の屈折力を有する第2のレンズ群と
      を備え、
      前記第1のレンズ群は、
       負の屈折力を有する第1のレンズ
      を備え、
      前記第2のレンズ群は、
       物体側から像側に向かって順に、
       正の屈折力を有する第2のレンズと、
       負の屈折力を有する第3のレンズと、
       正または負の屈折力を有する第4のレンズと、
       正の屈折力を有する第5のレンズと、
       負の屈折力を有する第6のレンズと
      を備え、
      レンズ光学系全体の焦点距離をfとし、前記第2のレンズ群の焦点距離をfa2としたとき、
      1≦fa2/f≦2
      という条件を満たす
      ように構成された
     レンズ光学系と、
     前記レンズ光学系により結像された光学像を電気信号に変換する撮像素子と
     を備える撮像装置。
PCT/JP2024/005159 2023-02-27 2024-02-15 レンズ光学系および撮像装置 WO2024181136A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2023028426 2023-02-27
JP2023-028426 2023-02-27

Publications (1)

Publication Number Publication Date
WO2024181136A1 true WO2024181136A1 (ja) 2024-09-06

Family

ID=92589733

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2024/005159 WO2024181136A1 (ja) 2023-02-27 2024-02-15 レンズ光学系および撮像装置

Country Status (1)

Country Link
WO (1) WO2024181136A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235239A (ja) * 2012-04-12 2013-11-21 Konica Minolta Inc マクロレンズおよび撮像装置
JP2015121649A (ja) * 2013-12-24 2015-07-02 株式会社タムロン インナーフォーカス式レンズ
JP2016099362A (ja) * 2014-11-18 2016-05-30 オリンパス株式会社 インナーフォーカスマクロレンズ及びそれを用いた撮像装置
JP2016114870A (ja) * 2014-12-17 2016-06-23 富士フイルム株式会社 内視鏡用対物レンズおよび内視鏡
US20230016306A1 (en) * 2021-07-02 2023-01-19 Ability Opto-Electronics Technology Co., Ltd. Optical Image Capturing System

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235239A (ja) * 2012-04-12 2013-11-21 Konica Minolta Inc マクロレンズおよび撮像装置
JP2015121649A (ja) * 2013-12-24 2015-07-02 株式会社タムロン インナーフォーカス式レンズ
JP2016099362A (ja) * 2014-11-18 2016-05-30 オリンパス株式会社 インナーフォーカスマクロレンズ及びそれを用いた撮像装置
JP2016114870A (ja) * 2014-12-17 2016-06-23 富士フイルム株式会社 内視鏡用対物レンズおよび内視鏡
US20230016306A1 (en) * 2021-07-02 2023-01-19 Ability Opto-Electronics Technology Co., Ltd. Optical Image Capturing System

Similar Documents

Publication Publication Date Title
JP7364022B2 (ja) 撮像レンズおよび撮像装置
JP7449317B2 (ja) 撮像装置
JP7552586B2 (ja) 撮像装置
WO2020090368A1 (ja) 撮像レンズおよび撮像装置
JP2018200423A (ja) 撮像装置、および電子機器
WO2021131904A1 (ja) 撮像装置および撮像装置の製造方法
WO2018131509A1 (ja) 撮像素子、製造方法、および電子機器
WO2022059463A1 (ja) 広角レンズおよび撮像装置
WO2021117497A1 (ja) 撮像レンズおよび撮像装置
CN113692367B (zh) 光学系统以及摄像装置
US12040338B2 (en) Imaging apparatus
WO2024181136A1 (ja) レンズ光学系および撮像装置
WO2024135306A1 (ja) レンズ光学系および撮像装置
WO2024116818A1 (ja) レンズ光学系および撮像装置
JPWO2019188070A1 (ja) ズームレンズおよび撮像装置
WO2021200207A1 (ja) ズームレンズおよび撮像装置
WO2024070611A1 (ja) レンズ光学系および撮像装置
WO2022009760A1 (ja) 魚眼レンズおよび撮像装置
WO2021200257A1 (ja) ズームレンズおよび撮像装置
WO2024204037A1 (ja) 撮像レンズおよび撮像装置
WO2018131264A1 (ja) 撮像ユニットおよび電子機器
WO2024135126A1 (ja) ズームレンズ、および撮像装置
WO2021200206A1 (ja) ズームレンズおよび撮像装置
WO2024171616A1 (ja) ズームレンズ、および撮像装置
WO2024154461A1 (ja) ズームレンズ、および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24763619

Country of ref document: EP

Kind code of ref document: A1