ES2841402T3 - Sistema multicámara que usa óptica plegada sin artefactos de paralaje - Google Patents
Sistema multicámara que usa óptica plegada sin artefactos de paralaje Download PDFInfo
- Publication number
- ES2841402T3 ES2841402T3 ES15731757T ES15731757T ES2841402T3 ES 2841402 T3 ES2841402 T3 ES 2841402T3 ES 15731757 T ES15731757 T ES 15731757T ES 15731757 T ES15731757 T ES 15731757T ES 2841402 T3 ES2841402 T3 ES 2841402T3
- Authority
- ES
- Spain
- Prior art keywords
- cameras
- camera
- image
- lens assembly
- mirror
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 64
- 230000003287 optical effect Effects 0.000 claims description 45
- 239000011159 matrix material Substances 0.000 claims description 43
- 239000000758 substrate Substances 0.000 claims description 23
- 238000004891 communication Methods 0.000 claims description 16
- 238000005304 joining Methods 0.000 claims description 8
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 description 32
- 238000013461 design Methods 0.000 description 28
- 230000015654 memory Effects 0.000 description 27
- 230000008569 process Effects 0.000 description 21
- 238000003860 storage Methods 0.000 description 16
- 230000000712 assembly Effects 0.000 description 14
- 238000000429 assembly Methods 0.000 description 14
- 238000003491 array Methods 0.000 description 12
- 230000036961 partial effect Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000003936 working memory Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 229910001285 shape-memory alloy Inorganic materials 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B17/00—Systems with reflecting surfaces, with or without refracting elements
- G02B17/02—Catoptric systems, e.g. image erecting and reversing system
- G02B17/023—Catoptric systems, e.g. image erecting and reversing system for extending or folding an optical path, e.g. delay lines
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
- G03B17/17—Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/1066—Beam splitting or combining systems for enhancing image performance, like resolution, pixel numbers, dual magnifications or dynamic range, by tiling, slicing or overlapping fields of view
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/40—Optical focusing aids
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
- G03B17/12—Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Cameras In General (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Un sistema (200) para captar una imagen de destino de una escena, comprendiendo el procedimiento: una matriz de una pluralidad de cámaras, formando en cooperación la pluralidad de cámaras (215a-215h) una cámara virtual con un centro de proyección virtual en un punto V, estando configurada cada una de la pluralidad de cámaras para captar una de una pluralidad de partes de una imagen de destino de una escena, y comprendiendo cada una de la pluralidad de cámaras: un sensor de imágenes; un conjunto de lente que comprende al menos una lente, teniendo cada una de la pluralidad de cámaras y su conjunto de lente asociado un punto que representa un centro de proyección de la cámara con su conjunto de lente asociado que tiene una ubicación determinada al menos en parte por una óptica del conjunto de lente, estando situado el conjunto de lente para enfocar luz en el sensor de imágenes, en el que el punto que representa el centro de proyección de la cámara con su conjunto de lente asociado, y el centro de proyección virtual del punto de cámara virtual V, están localizados a lo largo de una línea; y un espejo situado para reflejar la luz hasta el conjunto de lente, estando situado además el espejo en un plano de espejo para intersecarse con un punto medio a lo largo de la línea que pasa a través del centro de proyección virtual del punto de cámara virtual V y el punto que representa el centro de proyección de la cámara con su conjunto de lente asociado, estando situado además el plano de espejo en un ángulo ortogonal a la línea.
Description
DESCRIPCIÓN
Sistema multicámara que usa óptica plegada sin artefactos de paralaje
CAMPO TÉCNICO
[0001] La presente divulgación se refiere a sistemas y procedimientos de formación de imágenes que incluyen una matriz multicámara. En particular, la divulgación se refiere a sistemas y procedimientos que habilitan sistemas de formación de imágenes de bajo perfil de dispositivos móviles mientras se mantiene o mejora la calidad de la imagen.
ANTECEDENTES
[0002] Muchos dispositivos móviles, tales como los teléfonos móviles y los dispositivos informáticos de tableta, incluyen cámaras que un usuario puede hacer funcionar para captar imágenes fijas y/o de vídeo. Debido a que los dispositivos móviles están diseñados típicamente para ser relativamente pequeños, puede ser importante diseñar las cámaras o los sistemas de formación de imágenes para que sean tan delgados como sea posible con el fin de mantener un dispositivo móvil de bajo perfil. Las matrices de sensores de imágenes de óptica plegada ("cámaras de matriz") permiten la creación de dispositivos de captación de imágenes de bajo perfil sin acortar la distancia focal ni disminuir la resolución de la imagen en todo el campo de visión de la matriz de sensores. Al redirigir luz hacia cada sensor de la matriz usando una superficie principal y secundaria, y al situar los conjuntos de lente usados para enfocar la luz entrante entre las superficies principal y secundaria, la matriz de sensores se puede situar sobre un sustrato plano perpendicular a los conjuntos de lente. La distancia focal más larga hace posible implementar características tales como el zoom óptico e incorporar una óptica más complicada que requiere más espacio del que suele ofrecer la cámara móvil tradicional, por ejemplo, añadiendo más elementos ópticos.
[0003] Algunas cámaras de matriz emplean un espejo o prisma central con múltiples facetas para dividir la luz entrante que comprende la imagen de destino en múltiples partes para que los sensores de la matriz la capten, en las que cada faceta dirige una parte de la luz de la imagen de destino hacia un sensor de la matriz. Cada parte de la luz dividida se puede hacer pasar a través de un conjunto de lente y reflejar en una superficie situada directamente encima o debajo de un sensor, de modo que cada sensor capte una parte de la imagen. Los campos de visión de sensor se pueden superponer para ayudar a unir entre sí las partes captadas en una imagen completa. Se divulgan ejemplos de cámaras de matriz convencionales en los documentos w O 2012/136388, US 20033214575, US 2004021767, EP 0751416, US 2014111650 y US 2006023106.
BREVE EXPLICACIÓN
[0004] Las matrices de sensores de óptica plegada y las técnicas de captación de imágenes descritas en el presente documento permiten la creación de dispositivos de captación de imágenes de bajo perfil sin acortar la distancia focal ni disminuir la resolución de la imagen en todo el campo de visión de la matriz de sensores, y las imágenes captadas no presentan (o casi no presentan) artefactos de paralaje. Un obstáculo en las cámaras de matriz es la degradación de la calidad debido al paralaje entre las diferentes vistas del mismo objeto que se perciben desde diferentes cámaras de la matriz. El paralaje impide la unión perfecta de las imágenes captadas por cada cámara en una imagen final que carezca por completo de artefactos. Las vistas de cámara se pueden superponer parcialmente (por ejemplo, aproximadamente en un 20 %). Dependiendo de la profundidad de la escena de una imagen (por ejemplo, la distancia desde la lente al (a los) objeto(s)), la imagen de una cámara se puede desplazar en relación con la imagen de otra cámara. El paralaje y la inclinación resultantes pueden causar un efecto fantasma de "imagen doble" en el área de imagen correspondiente a los campos de visión superpuestos cuando las imágenes se unen o fusionan. Aun cuando la matriz está estructurada de modo que no hay superposición en los campos de visión de los sensores, el paralaje da como resultado características discontinuas en la imagen, tales como líneas y bordes, cuando dichas características cruzan los límites entre los campos de visión de los sensores.
[0005] Los problemas descritos anteriormente, entre otros, se abordan en diversos modos de realización mediante las cámaras de matriz sin artefactos de paralaje e inclinación como se describe en el presente documento. Algunos de los modos de realización pueden emplear un espejo o prisma central, por ejemplo, con múltiples superficies o facetas, para dividir la luz entrante que comprende la imagen de destino en múltiples partes para que los sensores de la matriz la capten. Las superficies de espejo y los sensores pueden estar configurados para evitar causar artefactos de paralaje e inclinación en una imagen captada. Por ejemplo, los planos de las superficies de espejo central de la cámara de matriz pueden estar localizados en un punto medio a lo largo de, y ortogonal a, una línea entre la ubicación de cámara correspondiente y la ubicación de cámara virtual. En consecuencia, los conos de campo de visión (FOV) proyectado de todas las cámaras de la matriz parece que procedan de la ubicación de cámara virtual después del plegado de la luz entrante por los espejos.
[0006] Cada parte de la luz dividida se puede hacer pasar a través de un conjunto de lente y reflejar en una superficie reflectora adicional opcional situada directamente encima o debajo de un sensor, de modo que cada sensor capta una parte de la imagen. En algunas circunstancias, cada sensor de la matriz puede captar una parte de la imagen que se superpone ligeramente con las partes captadas por sensores vecinos de la matriz, y estas partes se pueden juntar en
la imagen de destino, por ejemplo, mediante una mezcla lineal u otras técnicas de unión de imágenes.
[0007] Una innovación incluye un sistema, como se define en la reivindicación independiente 1, para captar una imagen de destino de una escena, incluyendo el sistema una matriz de una pluralidad de cámaras que tiene un centro de proyección virtual, estando configurada cada una de la pluralidad de cámaras para captar una de una pluralidad de partes de una imagen de destino de una escena, e incluyendo cada una de la pluralidad de cámaras un sensor de imágenes, un conjunto de lente que incluye al menos una lente, teniendo el conjunto de lente un centro de proyección, estando situado el conjunto de lente para enfocar luz en el sensor de imágenes, estando localizado el centro de proyección del conjunto de lente a lo largo de una línea que pasa a través del centro de proyección virtual, y un espejo localizado con respecto al conjunto de lente para proporcionar luz al conjunto de lente, estando situado además el espejo en (o dentro de) un plano de espejo, (en ocasiones denominado "plano de espejo" en el presente documento), estando situado el plano de espejo para intersecarse con un punto (por ejemplo, un punto medio) a lo largo de la línea que pasa a través del centro de proyección virtual. El plano de espejo puede estar situado formando un ángulo ortogonal con la línea. Varios modos de realización pueden incluir características adicionales.
[0008] Los siguientes son ejemplos no limitantes de algunas características y modos de realización de dichos sistemas. Por ejemplo, el sistema puede incluir además un elemento reflectante central (por ejemplo, un componente reflectante en forma de pirámide) que incluye una pluralidad de superficies de redireccionamiento de luz principales configuradas para dividir la luz que representa la imagen de destino de la escena en la pluralidad de partes, formando el espejo de cada una de la pluralidad de cámaras una de las superficies de plegado de luz principales. El elemento reflectante central puede incluir un vértice formado por una intersección de cada una de la pluralidad de superficies de redireccionamiento de luz principales. Un eje óptico de cada una de la pluralidad de cámaras puede pasar a través del vértice. El vértice y el centro de proyección virtual están situados en un eje óptico virtual que pasa a través del vértice y el centro de proyección virtual de modo que el eje óptico virtual forma un eje óptico de la matriz de la pluralidad de cámaras. El sistema puede incluir además una carcasa de cámara que comprende al menos una superficie superior que tiene una apertura situada para permitir que la luz que representa la escena pase a través de la apertura hasta el elemento reflectante central. La superficie superior puede estar situada ortogonalmente al eje óptico virtual en o encima del vértice del elemento reflectante central. La carcasa puede incluir además una superficie inferior situada sustancialmente en paralelo a la superficie superior y situada en o debajo de una superficie inferior del elemento reflectante central. Cada una de la pluralidad de cámaras puede estar situada entre la superficie superior y la superficie inferior de la carcasa de cámara. El sistema puede incluir además un procesador configurado para recibir datos de imagen que comprenden una imagen de una parte de la escena de cada una de la pluralidad de cámaras, y para realizar una operación de unión para generar la imagen de destino. El sistema puede incluir además (por ejemplo, para corregir artefactos de inclinación en los datos de imagen) un procesador que está configurado además para realizar una transformada de proyección en los datos de imagen en base, al menos en parte, a una relación geométrica entre el centro de proyección virtual y el centro de proyección del conjunto de lente de cada una de la pluralidad de cámaras y la ubicación del espejo para cada una de la pluralidad de cámaras dentro de un plano de espejo correspondiente. El sistema puede incluir además una superficie de redireccionamiento de luz secundaria asociada con cada una de la pluralidad de cámaras, estando situada la superficie de redireccionamiento de luz secundaria para dirigir la luz recibida desde el conjunto de lente hasta el sensor de imágenes. El sistema puede incluir además un sustrato que tiene al menos una apertura, estando situada la al menos una apertura para permitir que la luz que representa la escena pase a través de la al menos una apertura hasta el espejo de cada una de la pluralidad de cámaras, en el que el sensor de imágenes para cada una de la pluralidad de cámaras está situado sobre o dentro del sustrato.
[0009] Otra innovación incluye un procedimiento, como se define en la reivindicación independiente 10, de fabricación de una cámara de matriz sustancialmente sin artefactos de paralaje en una imagen captada. En varios modos de realización, el procedimiento incluye situar una pluralidad de cámaras en una matriz, estando configurada cada una de la pluralidad de cámaras para captar una de una pluralidad de partes de una escena de imagen de destino, estando situada la pluralidad de cámaras para que cada una capte datos de imagen desde una ubicación de una cámara virtual que tiene un centro de proyección virtual, incluyendo cada una de la pluralidad de cámaras un conjunto de lente que tiene al menos una lente, un centro de proyección de cámara que tiene una ubicación determinada al menos en parte por la óptica del conjunto de lente, y un sensor situado para recibir luz desde el conjunto de lente. El procedimiento puede incluir además proporcionar, para cada una de la pluralidad de cámaras, un espejo situado en un plano de espejo, estando situado el plano de espejo para intersecarse con un punto (por ejemplo, un punto medio) a lo largo de una línea que conecta un centro de proyección de la cámara y un centro de proyección virtual captado. El plano de espejo puede estar situado ortogonalmente a la línea.
[0010] Los siguientes son ejemplos no limitantes de algunas características y modos de realización de dicho procedimiento. Por ejemplo, el procedimiento puede incluir además proporcionar el espejo para cada una de la pluralidad de cámaras como una faceta de un elemento reflectante central, estando situada la pluralidad de cámaras alrededor del elemento reflectante o componente reflectante central. El procedimiento puede incluir proporcionar el elemento reflectante central de modo que el espejo para cada una de la pluralidad de cámaras se interseque en un vértice del elemento reflectante central. El procedimiento puede incluir situar cada una de la pluralidad de cámaras de modo que un eje óptico de cada una de la pluralidad de cámaras se interseque con el vértice. El procedimiento puede incluir proporcionar una superficie de plegado de luz secundaria para cada una de la pluralidad de cámaras. El
procedimiento puede incluir situar la superficie de plegado de luz secundaria entre el conjunto de lente y el sensor para dirigir la luz recibida desde el conjunto de lente hasta el sensor. El procedimiento puede incluir proporcionar un sustrato que tiene al menos una apertura situada para permitir que la luz que representa la escena pase a través de la apertura hasta el espejo para cada una de la pluralidad de cámaras. El procedimiento puede incluir montar el sensor para cada una de la pluralidad de cámaras en o dentro del sustrato de modo que todos los sensores estén situados en (o dentro) del mismo plano. El procedimiento puede incluir proporcionar un procesador en comunicación electrónica con el sensor de cada una de la pluralidad de cámaras, estando configurado el procesador para recibir la pluralidad de partes de una escena de imagen de destino y generar una imagen completa de la escena de imagen de destino.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0011] Los aspectos divulgados se describirán a continuación en el presente documento junto con los dibujos adjuntos, proporcionados para ilustrar y no para limitar los aspectos divulgados, en los que designaciones similares denotan elementos similares.
La figura 1A ilustra una vista lateral en sección transversal de un modo de realización de un conjunto de sensor de óptica plegada.
La figura 1B ilustra una vista lateral en sección transversal de otro modo de realización de un conjunto de sensor de óptica plegada.
La figura 2 ilustra un diagrama de bloques de un modo de realización de un dispositivo de captación de imágenes.
Las figuras 3A y 3B ilustran dos modos de realización de un centro de proyección de cámara y unas ubicaciones de plano de espejo en una cámara de matriz sin paralaje.
Las figuras 4A a 4C ilustran un modo de realización de una cámara de matriz sin artefactos de paralaje.
La figura 5A ilustra un modo de realización de una cámara de matriz sin artefactos de paralaje.
La figura 5B ilustra un modo de realización alternativo de la cámara de la figura 5A que no carece de artefactos de paralaje.
La figura 6 ilustra un modo de realización de una cámara de matriz sin paralaje.
La figura 7 ilustra un modo de realización de un proceso de captación de imágenes de óptica plegada.
DESCRIPCIÓN DETALLADA
I. Introducción
[0012] Las implementaciones divulgadas en el presente documento proporcionan sistemas, procedimientos y aparatos para generar imágenes sustancialmente sin artefactos de paralaje usando una cámara de matriz con óptica plegada. Los aspectos de la presente divulgación se refieren a una cámara de matriz que presenta pocos o ningún artefacto de paralaje en las imágenes captadas. Por ejemplo, los planos de las superficies de espejo centrales de la cámara de matriz pueden estar localizados en un punto medio a lo largo de, y ortogonalmente a, una línea entre la ubicación de cámara correspondiente y la ubicación de cámara virtual. En consecuencia, los conos de todas las cámaras de la matriz parecen proceder de la ubicación de cámara virtual después de plegado mediante los espejos. Cada sensor de la matriz "ve" una parte de la escena de la imagen usando una faceta correspondiente del prisma de espejo central y, en consecuencia, cada par de sensor/espejo individual representa solo una subapertura de la cámara de matriz total. La cámara de matriz completa tiene una apertura sintética generada en base a la suma de todos los rayos de apertura individuales, es decir, en base a la unión de las imágenes generadas mediante las subaperturas.
[0013] En la siguiente descripción, se dan detalles específicos para permitir una plena comprensión de los ejemplos. Sin embargo, los ejemplos se pueden llevar a la práctica sin estos detalles específicos.
II. Visión general de las cámaras de matriz de óptica plegada
[0014] Con referencia a las figuras 1A y 1B, a continuación se describen en mayor detalle ejemplos de un conjunto multisensor de óptica plegada 100A, 100B adecuado para su uso con los sistemas y técnicas de enfoque automático descritos en el presente documento. El término "plegada" es un término amplio que se usa para caracterizar un tipo de sistema de formación de imágenes (por ejemplo, una cámara) donde, por ejemplo, la luz que entra en el sistema de formación de imágenes se redirige al menos una vez antes de que la luz ilumine un sensor del sistema de formación de imágenes. En otras palabras, la luz que se propaga en una dirección al entrar en un sistema de formación de imágenes se redirige o "pliega" a continuación para propagarse en una dirección diferente en el sistema de formación de imágenes o al menos antes de iluminar un sensor (por ejemplo, del sistema de formación de imágenes). La figura
1A ilustra una vista lateral en sección transversal de un ejemplo de conjunto multisensor de óptica plegada 100A que incluye sensores de imágenes 105, 125, superficies reflectantes de plegado de luz secundarias 110, 135, conjuntos de lente 115, 130 y una superficie reflectante central 120, la totalidad de los cuales pueden estar montados en un sustrato 150. La figura 1B ilustra una vista lateral en sección transversal de un modo de realización de un conjunto multisensor de óptica plegada que incluye prismas centrales 141, 146 para unas superficies de redireccionamiento de luz principales 122, 124 y unas superficies reflectantes adicionales, por ejemplo, unos prismas 111, 136, como se ilustran, o unas superficies reflectantes, por ejemplo una superficie espejada) que forman superficies de plegado de luz secundarias 135, 110.
[0015] En referencia a la figura 1A, los sensores de imágenes 105, 125 pueden comprender, en determinados modos de realización, un dispositivo de carga acoplada (CCD), un sensor semiconductor de óxido metálico complementario (CMOS), o cualquier otro dispositivo de detección de imágenes que reciba luz y genere datos de imagen como respuesta a la imagen recibida. Cada sensor 105, 125 puede incluir una pluralidad de sensores (o elementos sensores) dispuestos en una matriz. Los sensores de imágenes 105, 125 pueden estar configurados para generar datos de imagen de una sola imagen y/o pueden estar configurados para generar datos de imagen de una pluralidad de imágenes (por ejemplo, captar datos de vídeo o una serie de imágenes individuales). Los sensores 105 y 125 pueden ser una matriz de sensores individual, o cada uno puede representar una matriz de matrices de sensores, por ejemplo, una matriz 3x1 de matrices de sensores. Sin embargo, como entenderá un experto en la técnica, se puede usar cualquier matriz adecuada de sensores en las implementaciones divulgadas.
[0016] Los sensores 105, 125 pueden estar montados sobre el sustrato 150 como se muestra en la figura 1A. En algunos modos de realización, cuando están montados en el sustrato plano 150, todos los sensores pueden estar en un plano. El sustrato 150 puede ser cualquier material sustancialmente plano adecuado. La superficie reflectante central 120 y los conjuntos de lente 115, 130 también pueden estar montados sobre el sustrato 150. Son posibles múltiples configuraciones para montar una matriz o unas matrices de sensores, una pluralidad de conjuntos de lente y una pluralidad de superficies reflectantes o refractantes principales y secundarias.
[0017] En algunos modos de realización, se puede usar una superficie reflectante central 120 para redirigir luz desde una escena de imagen de destino hacia los sensores 105, 125. La superficie reflectante central 120 puede ser un espejo o una pluralidad de espejos, y puede ser plana o tener una forma necesaria para redireccionar apropiadamente la luz entrante hasta los sensores de imágenes 105, 125. Por ejemplo, en algunos modos de realización, la superficie reflectante central 120 puede ser un espejo con un tamaño y una forma para reflejar los rayos de luz entrantes a través de los conjuntos de lente 115, 130 hasta los sensores 105, 125. La superficie reflectante central 120 puede dividir la luz que comprende la imagen de destino en múltiples partes y dirigir cada parte a un sensor diferente. Por ejemplo, un primer lado 122 de la superficie reflectante central 120 (también denominada superficie de plegado de luz principal, pues otros modos de realización pueden implementar un prisma refractante en lugar de una superficie reflectante) puede enviar una parte de la luz correspondiente a un primer campo de visión (FOV) 140 hacia el sensor izquierdo 105 mientras que un segundo lado 124 envía una segunda parte de la luz correspondiente a un segundo FOV 145 hacia el sensor derecho 125. Se debe apreciar que, en conjunto, los campos de visión 140, 145 de los sensores de imágenes cubren al menos la imagen de destino. El presente ejemplo describe un modo de realización que comprende dos sensores, pero otros modos de realización pueden tener más de dos sensores, por ejemplo 2, 3, 4, 8 o más sensores (N).
[0018] En algunos modos de realización en los que los sensores receptores son cada uno una matriz de una pluralidad de sensores, la superficie reflectante central puede estar hecha de múltiples superficies reflectantes en ángulo unas en relación con otras para enviar una parte diferente de la escena de la imagen de destino hacia cada uno de las sensores. Cada sensor de la matriz puede tener un campo de visión sustancialmente diferente y, en algunos modos de realización, los campos de visión se pueden superponer. Determinados modos de realización de la superficie reflectante central pueden tener superficies no planas complicadas para incrementar los grados de libertad al diseñar el sistema de lente. Además, aunque la superficie central analizada es una superficie reflectante, en otros modos de realización, la superficie central puede ser refractante. Por ejemplo, la superficie central puede ser un prisma configurado con una pluralidad de facetas, donde cada faceta dirige una parte de la luz que comprenda la escena hacia uno de los sensores.
[0019] Después de reflejarse en la superficie reflectante central 120, al menos una parte de la luz entrante se puede propagar a través de cada uno de los conjuntos de lente 115, 130. Uno o más conjuntos de lente 115, 130 se pueden proporcionar entre la superficie reflectante central 120 y los sensores 105, 125 y las superficies reflectantes 110, 135. Los conjuntos de lente 115, 130 se pueden usar para enfocar la parte de la imagen de destino que se dirige hacia cada sensor.
[0020] En algunos modos de realización, cada conjunto de lente puede comprender una o más lentes y un accionador para desplazar la lente entre una pluralidad de diferentes posiciones de lente a través de una carcasa. El accionador puede ser, por ejemplo, un motor de bobina de voz (VCM), un sistema microelectromecánico (MEMS) o una aleación con memoria de forma (SMA). El conjunto de lente puede comprender además un controlador de lente para controlar el accionador.
[0021] En algunos modos de realización, se pueden implementar unas técnicas tradicionales de enfoque automático cambiando la distancia focal entre la lente 115, 130 y un sensor correspondiente 105, 125 de cada cámara. En algunos modos de realización, esto se puede lograr desplazando un cañón de lente. Otros modos de realización pueden ajustar el enfoque desplazando el espejo central hacia arriba o hacia abajo o ajustando el ángulo del espejo con respecto al conjunto de lente. Determinados modos de realización pueden ajustar el enfoque desplazando los espejos laterales por encima de cada sensor. Dichos modos de realización pueden permitir que el conjunto ajuste el enfoque de cada sensor individualmente. Además, es posible que algunos modos de realización cambien el enfoque de todo el conjunto de una vez, por ejemplo, colocando una lente, como una lente líquida, sobre todo el conjunto. En determinadas implementaciones, se puede usar la fotografía computacional para cambiar el punto focal de la matriz de cámaras.
[0022] Se pueden proporcionar múltiples superficies reflectantes laterales, por ejemplo, las superficies reflectantes 110 y 135, alrededor del espejo central 120 y enfrente de los sensores. Después de pasar a través de los conjuntos de lente, las superficies reflectantes laterales 110, 135 (también denominadas superficies de plegado de luz secundarias, ya que otros modos de realización pueden implementar un prisma refractante en lugar de una superficie reflectante) pueden reflejar la luz (hacia abajo, como se representa en la orientación de la figura 1 A) hasta los sensores 105, 125. Como se representa, el sensor 105 puede estar situado debajo de la superficie reflectante 110 y el sensor 125 puede estar situado debajo de la superficie reflectante 135. Sin embargo, en otros modos de realización, los sensores pueden estar encima de las superficies laterales reflectantes 110, 135, y las superficies laterales reflectantes pueden estar configuradas para reflejar la luz hacia arriba (véase, por ejemplo, la figura 1B). Son posibles otras configuraciones adecuadas de las superficies reflectantes laterales y de los sensores, en las que la luz de cada conjunto de lente se redirige hacia los sensores. Determinados modos de realización pueden permitir el desplazamiento de las superficies reflectantes laterales 110, 135 para cambiar el enfoque o el FOV del sensor asociado.
[0023] El FOV 140, 145 de cada sensor se puede dirigir hacia el espacio del objeto mediante la superficie del espejo central 120 asociado con ese sensor. Se pueden emplear procedimientos mecánicos para inclinar los espejos y/o desplazar los prismas en la matriz de modo que el FOV de cada cámara se pueda dirigir a diferentes ubicaciones del campo del objeto. Esto se puede usar, por ejemplo, para implementar una cámara de alto rango dinámico, para incrementar la resolución del sistema de cámaras o para implementar un sistema de cámaras plenópticas. El FOV de cada sensor (o cada matriz de 3x1) se puede proyectar en el espacio del objeto, y cada sensor puede captar una imagen parcial que comprenda una parte de la escena de destino de acuerdo con el campo de visión de ese sensor. Como se ilustra en la figura 1 A, en algunos modos de realización, los campos de visión 140, 145 para las matrices de sensores opuestas 105, 125 se pueden superponer en una determinada medida. Para reducir la superposición y formar una sola imagen, se puede usar un proceso de unión como se describe a continuación para combinar las imágenes de las dos matrices de sensores opuestas 105, 125. En modos de realización con más sensores que los ilustrados en la figura 1A, se pueden combinar imágenes de múltiples sensores, y los sensores pueden no estar necesariamente en lados opuestos, por ejemplo, estar dispuestos simétricamente o asimétricamente. Determinados modos de realización del proceso de unión pueden emplear la superposición 150 para identificar características comunes en la unión de las imágenes parciales. Después de unir las imágenes superpuestas, la imagen unida se puede recortar hasta una relación de aspecto deseada, por ejemplo de 4:3 o de 1:1, para formar la imagen final. En algunos modos de realización, la alineación de los elementos ópticos relacionados con cada FOV está dispuesta para reducir al mínimo la superposición 150, de modo que las múltiples imágenes conformen una sola imagen con un procesamiento de imágenes mínimo o nulo requerido para reunir las imágenes.
[0024] La figura 1B ilustra una vista lateral en sección transversal de otro modo de realización de una cámara de matriz de óptica plegada 100B. Como se muestra en la figura 1B, un conjunto de sensores 100B incluye un par de sensores de imágenes 105, 125 cada uno montado en el sustrato 150, unos conjuntos de lente 115, 130 correspondientes a los sensores de imágenes 105, 125, respectivamente, y una superficie de plegado de luz secundaria 110, 135 situada sobre el cristal de protección 106, 126 de los sensores de imágenes 105, 125, respectivamente. La superficie de plegado de luz principal 122 del prisma refractante 141 dirige una parte de la luz de la escena de la imagen de destino a lo largo del eje óptico 121 a través del conjunto de lente 115, se redirige desde la superficie de plegado de luz secundaria 110, pasa a través del cristal de protección 106, e incide en el sensor 105. La superficie de plegado de luz principal 124 del prisma refractante 146 dirige una parte de la luz de la escena de la imagen de destino a lo largo del eje óptico 123 a través del conjunto de lente 130, se redirige desde de la superficie de plegado de luz secundaria 135, pasa a través del cristal de protección 126 e incide en el sensor 125. La cámara de matriz de óptica plegada 100B es ilustrativa de un modo de realización de cámara de matriz que implementa prismas refractantes en lugar de las superficies reflectantes de la cámara de matriz 100A de la figura 1A. Cada uno de los prismas refractantes 141, 146 se proporciona en una apertura del sustrato 150 de modo que las superficies de dirección de luz principales 122, 124 están por debajo del plano formado por el sustrato y reciben luz que representa la escena de la imagen de destino.
[0025] Los sensores 105, 125 pueden estar montados sobre el sustrato 150 como se muestra en la figura 1B. En algunos modos de realización, cuando están montados en el sustrato plano 150, todos los sensores pueden estar en un plano. El sustrato 150 puede ser cualquier material sustancialmente plano adecuado. El sustrato 150 puede incluir una apertura como se describe anteriormente para permitir que la luz entrante pase a través del sustrato 150 a las superficies de plegado de luz principales 122, 124. Son posibles múltiples configuraciones para montar una matriz o
unas matrices de sensores, así como los otros componentes de cámara ilustrados, en el sustrato 150.
[0026] Las superficies de plegado de luz principales 122, 124 pueden ser unas superficies de prisma como las ilustradas, o pueden ser un espejo o una pluralidad de espejos, y pueden ser planas o tener una forma necesaria para redireccionar apropiadamente la luz entrante hasta los sensores de imágenes 105, 125. En algunos modos de realización, las superficies de plegado de luz principales 122, 124 pueden estar formadas como un elemento reflectante central, como se ilustra en la figura 1A. El elemento reflectante central puede ser, por ejemplo, una disposición de una pluralidad de espejos o superficies reflectantes, o un prisma. El elemento reflectante puede tener forma de pirámide. El elemento reflectante de espejo, prisma u otra superficie reflectante central puede dividir la luz que representa la imagen de destino en múltiples partes y dirigir cada parte a un sensor diferente. Por ejemplo, una superficie de plegado de luz principal 122 puede enviar una parte de la luz correspondiente a un primer FOV hacia el sensor izquierdo 105 mientras que una superficie de plegado de luz principal 124 envía una segunda parte de la luz correspondiente a un segundo FOV hacia el sensor derecho 125. En algunos modos de realización en los que los sensores receptores son cada uno una matriz de una pluralidad de sensores, las superficies de plegado de luz pueden estar hechas de múltiples superficies reflectantes en ángulo unas en relación con otras para enviar una parte diferente de la escena de la imagen de destino hacia cada uno de los sensores. Se debe apreciar que en conjunto los campos de visión de las cámaras cubren al menos la imagen de destino, y se pueden alinear y unir después de la captación para formar una imagen final captada por la apertura sintética de la matriz. Cada sensor de la matriz puede tener un campo de visión sustancialmente diferente y, en algunos modos de realización, los campos de visión se pueden superponer.
[0027] Otros modos de realización pueden combinar los elementos reflectantes y refractantes ilustrados mediante las figuras 1A y 1B. Por ejemplo, en algunos modos de realización, la superficie de plegado de luz principal puede ser reflectante mientras que la superficie de plegado de luz secundaria es refractante, y viceversa.
[0028] Como se ilustra en las figuras 1A y 1B, cada cámara de matriz tiene una altura tota1H. En algunos modos de realización, la altura total H puede ser de aproximadamente 4,5 mm o menos. En otros modos de realización, la altura total H puede ser de aproximadamente 4,0 mm o menos. Aunque no se ilustra, la cámara de matriz 100A, 100B completa se puede proporcionar en una carcasa que tiene una altura interior correspondiente de aproximadamente 4,5 mm o menos o de aproximadamente 4,0 mm o menos.
[0029] Como se usa en el presente documento, el término "cámara" se refiere a un sensor de imágenes, un sistema de lente y un número de superficies de plegado de luz correspondientes, por ejemplo, la superficie de plegado de luz principal 124, el conjunto de lente 130, la superficie de plegado de luz secundaria 135 y el sensor 125 ilustrados en la figura 1. Una matriz multisensor de óptica plegada, denominada "matriz" o "cámara de matriz", puede incluir una pluralidad de dichas cámaras en diversas configuraciones. Algunos modos de realización de configuraciones de matriz se divulgan en la publicación de solicitud de EE. UU. n.° 2014/0111650, presentada el 15 de marzo de 2013 y titulada "MULTI-CAMERA SYSTEM USING FOLDED OPTICS [SISTEMA MULTICÁMARA QUE USA ÓPTICA PLEGADA]". Son posibles otras configuraciones de cámara de matriz que se beneficiarían de los sistemas y técnicas de enfoque automático descritos en el presente documento.
[0030] La figura 2 representa un diagrama de bloques de alto nivel de un dispositivo 200 que tiene un conjunto de componentes que incluye un procesador de imágenes 220 vinculado a una o más cámaras 215a-n. El procesador de imágenes 220 también está en comunicación con una memoria de trabajo 205, un componente de memoria 230 y un procesador de dispositivo 250, que a su vez está en comunicación con un almacenamiento 210 y una pantalla electrónica 225.
[0031] El dispositivo 200 puede ser un teléfono móvil, una cámara digital, una tableta, un asistente digital personal o similares. Hay muchos dispositivos informáticos portátiles en los que un sistema de formación de imágenes de grosor reducido, tal como se describe en el presente documento, aportaría ventajas. El dispositivo 200 también puede ser un dispositivo informático fijo o cualquier dispositivo en el que un sistema delgado de formación de imágenes sería ventajoso. Una pluralidad de aplicaciones puede estar disponible para el usuario en el dispositivo 200. Estas aplicaciones pueden incluir aplicaciones fotográficas y de vídeo tradicionales, formación de imágenes de alto rango dinámico, fotos y vídeos panorámicos, o formación de imágenes estereoscópicas tales como imágenes 3D o vídeo 3D.
[0032] El dispositivo de captación de imágenes 200 incluye las cámaras 215a-n para captar imágenes externas. Los cámaras 215a-n pueden incluir, cada una, un sensor, un conjunto de lente y una superficie reflectante o refractante principal y secundaria para redirigir una parte de una imagen de destino hasta cada sensor, como se analiza anteriormente con respecto a la figura 1. En general, se pueden usar N cámaras 215a-n, donde N > 2. Por tanto, la imagen de destino se puede dividir en N partes en las que cada sensor de las N cámaras capta una parte de la imagen de destino de acuerdo con el campo de visión de ese sensor. Se entenderá que las cámaras 215a-n pueden comprender cualquier número de cámaras adecuadas para una implementación del dispositivo de formación de imágenes de óptica plegada descrito en el presente documento. El número de sensores se puede incrementar para lograr alturas z del sistema inferiores, como se analiza con más detalle a continuación con respecto a la figura 4, o para satisfacer las necesidades de otros propósitos, tales como tener campos de visión superpuestos similares a los
de una cámara plenóptica, lo que puede proporcionar la capacidad de ajustar el enfoque de la imagen después de un postprocesamiento. Otros modos de realización pueden tener una configuración de superposición de FOV adecuada para cámaras de alto rango dinámico que proporcionan la capacidad de captar dos imágenes simultáneas y a continuación fusionarlas. Las cámaras 215a-n pueden estar acopladas al procesador de imágenes 220 para transmitir las imágenes captadas a la memoria de trabajo 205, al procesador del dispositivo 250, a la pantalla electrónica 225 y al almacenamiento (memoria) 210.
[0033] El procesador de imágenes 220 puede estar configurado para realizar diversas operaciones de procesamiento en los datos de imágenes recibidos que comprenden N partes de la imagen de destino para generar una imagen unida de alta calidad, como se describirá con más detalle a continuación. El procesador de imágenes 220 puede ser una unidad de procesamiento de propósito general o un procesador especialmente diseñado para aplicaciones de formación de imágenes. Entre los ejemplos de operaciones de procesamiento de imágenes se incluyen recorte, escalado (por ejemplo, a una resolución diferente), unión de imágenes, conversión de formato de imágenes, interpolación de color, procesamiento de color, filtrado de imágenes (por ejemplo, filtrado espacial de imágenes), corrección de artefactos o de defectos de lente, etc. El procesador de imágenes 220 puede comprender, en algunos modos de realización, una pluralidad de procesadores. Determinados modos de realización pueden tener un procesador dedicado para cada sensor de imágenes. El procesador de imágenes 220 puede ser uno o más procesadores de señales de imagen (ISP) dedicados o una implementación de software de un procesador.
[0034] Como se muestra, el procesador de imágenes 220 está conectado a una memoria 230 y a una memoria de trabajo 205. En el modo de realización ilustrado, la memoria 230 almacena el módulo de control de captación 235, el módulo de unión de imágenes 240 y el sistema operativo 245. Estos módulos incluyen instrucciones que configuran el procesador de imágenes 220 del procesador del dispositivo 250 para realizar diversas tareas de procesamiento de imágenes y de gestión de dispositivo. El procesador de imágenes 220 puede usar la memoria de trabajo 205 para almacenar un conjunto de trabajo de instrucciones de procesador contenidas en los módulos del componente de memoria 230. De forma alternativa, el procesador de imágenes 220 también puede usar la memoria de trabajo 205 para almacenar datos dinámicos creados durante el funcionamiento del dispositivo 200.
[0035] Como se ha mencionado anteriormente, el procesador de imágenes 220 se configura mediante varios módulos almacenados en las memorias. El módulo de control de captación 235 puede incluir instrucciones que configuran el procesador de imágenes 220 para ajustar la posición de enfoque de las cámaras 215a-n. El módulo de control de captación 235 puede incluir además instrucciones que controlan las funciones generales de captación de imágenes del dispositivo 200. Por ejemplo, el módulo de control de captación 235 puede incluir instrucciones que llaman a subrutinas para configurar el procesador de imágenes 220 para captar datos de imagen sin procesar de una escena de imagen de destino usando las cámaras 215a-n. El módulo de control de captación 235 puede llamar a continuación al módulo de unión de imágenes 240 para realizar una técnica de unión en las N imágenes parciales captadas por las cámaras 215a-n y facilitar una imagen de destino unida y recortada al procesador de formación de imágenes 220. El módulo de control de captación 235 también puede llamar al módulo de unión de imágenes 240 para realizar una operación de unión en datos de imagen sin procesar para facilitar una imagen de vista previa de una escena que se va a captar, y para actualizar la imagen de vista previa en determinados intervalos de tiempo o cuando la escena en los datos de imagen sin procesar cambia.
[0036] El módulo de unión de imágenes 240 puede comprender instrucciones que configuran el procesador de imágenes 220 para realizar técnicas de unión y recorte en datos de imagen captada. Por ejemplo, cada uno de los N sensores 215a-n puede captar una imagen parcial que comprende una parte de la imagen de destino de acuerdo con el campo de visión de cada sensor. Los campos de visión pueden compartir áreas de superposición, como se describe anteriormente y a continuación. Para facilitar una sola imagen de destino, el módulo de unión de imágenes 240 puede configurar el procesador de imágenes 220 para combinar las N múltiples imágenes parciales para producir una imagen de destino de alta resolución. La generación de imágenes de destino se puede producir a través de técnicas de unión de imágenes conocidas.
[0037] Por ejemplo, el módulo de unión de imágenes 240 puede incluir instrucciones para comparar las áreas de superposición a lo largo de los bordes de las N imágenes parciales para hallar características coincidentes para determinar la rotación y la alineación de las N imágenes parciales unas en relación con otras. Debido a la rotación de imágenes parciales y/o a la forma del FOV de cada sensor, la imagen combinada puede tener una forma irregular. Por lo tanto, después de alinear y combinar las N imágenes parciales, el módulo de unión de imágenes 240 puede llamar a subrutinas que configuran el procesador de imágenes 220 para recortar la imagen combinada hasta una forma y relación de aspecto deseadas, por ejemplo, un rectángulo de 4:3 o un cuadrado de 1:1. La imagen recortada se puede enviar al procesador de dispositivo 250 para visualizarla en la pantalla 225 o para guardarla en el almacenamiento 210.
[0038] El módulo de sistema operativo 245 configura el procesador de imágenes 220 para gestionar la memoria de trabajo 205 y los recursos de procesamiento del dispositivo 200. Por ejemplo, el módulo de sistema operativo 245 puede incluir controladores de dispositivos para gestionar recursos de hardware tales como las cámaras 215a-n. Por lo tanto, en algunos modos de realización, las instrucciones contenidas en los módulos de procesamiento de imágenes analizados anteriormente pueden no interactuar directamente con estos recursos de hardware, sino, en su lugar,
interactuar a través de subrutinas estándar o de API localizadas en el componente de sistema operativo 270. Las instrucciones dentro del sistema operativo 245 pueden interactuar a continuación directamente con estos componentes de hardware. El módulo de sistema operativo 245 puede configurar además el procesador de imágenes 220 para compartir información con el procesador de dispositivo 250.
[0039] El procesador de dispositivo 250 puede estar configurado para controlar la pantalla 225 para que visualice la imagen captada, o una vista previa de la imagen captada, ante un usuario. La pantalla 225 puede ser externa al dispositivo de formación de imágenes 200 o puede formar parte del dispositivo de formación de imágenes 200. La pantalla 225 también puede estar configurada para proporcionar un visor que visualiza una imagen de vista previa para un uso anterior a la captación de una imagen, o puede estar configurada para visualizar una imagen captada almacenada en memoria o recientemente captada por el usuario. La pantalla 225 puede comprender una pantalla LCD o LED, y puede implementar tecnologías táctiles.
[0040] El procesador de dispositivo 250 puede escribir datos en el módulo de almacenamiento 210, por ejemplo, datos que representan imágenes captadas. Aunque el módulo de almacenamiento 210 se representa gráficamente como un dispositivo de disco tradicional, los expertos en la técnica entenderán que el módulo de almacenamiento 210 puede estar configurado como cualquier dispositivo de medios de almacenamiento. Por ejemplo, el módulo de almacenamiento 210 puede incluir una unidad de disco, tal como una unidad de disco flexible, una unidad de disco duro, una unidad de disco óptico o una unidad de disco magnetoóptico, o una memoria de estado sólido tal como una memoria FLASH, RAM, ROM y/o EEPROM. El módulo de almacenamiento 210 también puede incluir múltiples unidades de memoria, y una cualquiera de las unidades de memoria puede estar configurada para estar dentro del dispositivo de captación de imágenes 200, o puede ser externa al dispositivo de captación de imágenes 200. Por ejemplo, el módulo de almacenamiento 210 puede incluir una memoria ROM que contiene instrucciones de programa de sistema almacenadas dentro del dispositivo de captación de imágenes 200. El módulo de almacenamiento 210 también puede incluir tarjetas de memoria o memorias de alta velocidad configuradas para almacenar imágenes captadas que pueden ser extraíbles de la cámara.
[0041] Aunque la figura 2 representa un dispositivo que tiene componentes separados para incluir un procesador, un sensor de imágenes y una memoria, un experto en la técnica reconocerá que estos componentes separados se pueden combinar en una variedad de formas para lograr objetivos de diseño particulares. Por ejemplo, en un modo de realización alternativo, los componentes de memoria pueden estar combinados con componentes de procesador para ahorrar costes y mejorar el rendimiento.
[0042] Adicionalmente, aunque la figura 2 ilustra dos componentes de memoria, incluyendo el componente de memoria 230 que comprende varios módulos y una memoria separada 205 que comprende una memoria de trabajo, un experto en la técnica reconocerá varios modos de realización que utilizan diferentes arquitecturas de memoria. Por ejemplo, un diseño puede utilizar memoria ROM o RAM estática para el almacenamiento de instrucciones de procesador que implementan los módulos contenidos en el componente de memoria 230. Las instrucciones de procesador pueden estar cargadas en la RAM para facilitar la ejecución mediante el procesador de imágenes 220. Por ejemplo, la memoria de trabajo 205 puede comprender memoria RAM, con instrucciones cargadas en la memoria de trabajo 205 antes de su ejecución por el procesador 220.
III. Visión general de las cámaras de matriz de óptica plegada sin artefactos de paralaje e inclinación
[0043] La figura 3A es un esquema que ilustra unas ubicaciones de cámara 310A, 310B, 310C y de plano de espejo 312A, 312B, 312C en una cámara de matriz sin paralaje 300A, de acuerdo con algunos modos de realización. Un sensor de la matriz y su lente correspondiente (y una posible superficie o superficies de plegado de luz adicionales) se denomina "cámara" en el presente documento, y la cooperación de todas las cámaras de la matriz se denomina "cámara virtual" en el presente documento. En la siguiente descripción de los principios de diseño de cámara de matriz sin paralaje, una cámara se puede modelizar como un punto, que es un centro de proyección de su conjunto de lente asociado, centro de proyección que puede estar localizado en cualquier lugar del espacio xyz. Una matriz de cámaras se modeliza mediante una matriz de dichos centros de proyección.
[0044] Una cámara virtual es la ubicación desde la cual una imagen captada por una cámara, por ejemplo la imagen captada por 310A, parece haberse captado como si no se hubiera usado ningún plegado óptico (por ejemplo, reflexión usando espejos). En una matriz sin paralaje formada físicamente por múltiples cámaras de óptica plegada, todas las cámaras virtuales se fusionan en una sola cámara virtual que tiene el mismo centro de proyección, mostrado en las figuras 3A y 3B como un punto V. Cada cámara individual de la matriz puede tener una dirección de mirada potencialmente diferente, que es una dirección o alineación del eje óptico de la cámara, que a veces se denomina inclinación. Un punto principal de las relaciones espaciales descritas en el presente documento para formar cámaras de matriz sin paralaje es que la inclinación efectiva de cada cámara virtual (por ejemplo, la aparición de inclinación en la imagen correspondiente) se puede cambiar computacionalmente mediante la aplicación de una transformada de proyección a los datos de la imagen captada. Al unir las imágenes después de la aplicación de transformadas de proyección y de recorte apropiadas se produce una sola imagen: una imagen compuesta de la escena de destino usando datos recibidos desde las múltiples cámaras de la matriz. Esta sola imagen parece haberse captado por una sola cámara virtual con un centro de proyección en el punto V, denominada cámara virtual en el presente documento.
En consecuencia, la cámara virtual de las matrices sin paralaje como se describe en el presente documento es en realidad una cámara virtual compuesta y una composición de las múltiples cámaras virtuales que se fusionan en un solo punto. La cámara virtual, como se usa en el presente documento, también puede ser el resultado de una síntesis computacional mediante transformación, recorte y unión de las imágenes individuales, captadas cada una por una de las múltiples cámaras de la matriz.
[0045] En las figuras 3A y 3B, las cámaras 310B, 310C, 310E y 310F están modelizadas cada una como un punto que representa el centro de proyección para esa cámara en el espacio xyz. Por ejemplo, una cámara real tiene una pupila de entrada que tiene una determinada posición en el espacio. El centro de la pupila se denomina centro de proyección de la cámara en el presente documento y está determinado, al menos en parte, por la óptica del conjunto de lente. El centro de proyección puede no hallarse donde la apertura física de la cámara está localizada debido a la óptica del conjunto de lente, y la posición real donde está localizado el centro óptico de proyección es donde el centro de la pupila está localizado. Cuando una cámara rota en torno a este punto, su centro de proyección, la imagen captada se transforma como con una aplicación de una transformada de proyección computacional. Los esquemas ilustrados mediante las figuras 3A y 3B son una abstracción: la dirección de mirada y la distancia focal de una cámara no son esenciales para la formación de imágenes sin paralaje, porque dichos aspectos se pueden corregir mediante una transformada de proyección en una fase posterior (por ejemplo, computacionalmente). Así pues, la abstracción de las cámaras 310B, 310C, 310E y 310F se ilustra solo mediante un centro de proyección en este tratamiento general. El uso del centro de proyección para representar la cámara tiene como propósito permitir el diseño de la matriz de cámaras para formar imágenes sin paralaje. La distancia focal y de mirada reales de las cámaras son importantes para otros aspectos de la formación de imágenes, pero los detalles específicos de estos aspectos se pueden variar de acuerdo con las necesidades de diversos modos de realización de una cámara de matriz sin paralaje.
[0046] La cámara virtual V y las cámaras 310A, 310D se ilustran como un diagrama de bloques centrado en el punto que representa el centro de proyección para cada una de la cámara virtual V y las cámaras 310A, 310D, respectivamente. Como se ilustra en el modo de realización de la figura 3A, para una cámara delgada, como se describe anteriormente, la matriz de cámaras está situada en (o al menos situada aproximadamente en) el plano horizontal 305 de la cámara delgada. El término "horizontal" se elige arbitrariamente para el propósito de este análisis, por ejemplo, en referencia a las figuras 3A y 3B. Los planos de espejo 312A-312E se ilustran con límites, sin embargo, los planos se extienden infinitamente y las ubicaciones de espejo reales podrían estar en cualquier lugar dentro de los planos representados por 312A-312E. En algunos modos de realización, la superficie reflejada se podría conectar en ángulos para formar un elemento reflectante que tiene un vértice, por ejemplo localizado en o aproximadamente en el punto P a lo largo del eje óptico 321 de la cámara virtual V. El vértice podría estar localizado en otros puntos a lo largo del eje óptico 321 de la cámara virtual V en otros ejemplos. Aunque se analizan principalmente en términos de planos de espejo y superficies espejadas correspondientes, los planos 312A, 312B, 312C también se pueden usar para situar facetas de dirección de luz de un prisma refractante en algunos modos de realización.
[0047] La figura 3A ilustra tres cámaras 310A, 310B, 310C en el plano horizontal 305 de una cámara de matriz y la figura 3B ilustra tres cámaras 310D, 310E, 310F en el plano horizontal 305. Como se muestra en el modo de realización ilustrado, cada cámara 310A, 310B, 310C de la figura 3A se puede situar de manera que el centro del FOV apunte hacia (o apunte aproximadamente hacia) una ubicación central P como se ilustra mediante el eje óptico 311A de la cámara 310A. En la figura 3B, las cámaras 310D, 310E y 310F que se representan apuntan horizontalmente hacia la ubicación central P. Cada cámara 310D, 310E, 310F se puede situar para estar aproximadamente "mirando" (como se ilustra mediante el eje óptico 311B de la cámara 310D) hacia un espejo 330 (ilustrado solo en referencia a la cámara 310D y al plano de espejo 312D) situado en el plano de espejo 312D, 312E, 312F correspondiente a la cámara 310D, 310E, 310F. En otras palabras, cada cámara 310D, 310E, 310F puede tener un eje óptico de su FOV proyectado situado hacia un espejo. En ambas configuraciones 300A, 300B, el espejo correspondiente redirige (o pliega) el eje óptico proyectado de cada cámara 310A-F y, en consecuencia, la luz (o cono de rayos) recibida por la cámara, de modo que todas las cámaras 310A-F miran ópticamente (considerando el plegado de la luz) en una dirección (o sustancialmente en una dirección) a lo largo del eje óptico virtual 321, normal al plano 305. En otras palabras, cada cámara 310A-F puede tener un eje central de su FOV proyectado a lo largo del eje óptico virtual 321 para recibir luz que se propaga desde una escena de destino.
[0048] Sin embargo, la dirección en la que mira una cámara, la alineación de su eje óptico, puede ser un parámetro de diseño que se puede variar mientras se sigue cumpliendo con las relaciones espaciales sin paralaje descritas en el presente documento. Hay alternativas que se tomarán en consideración en diseños específicos, por ejemplo, la dirección de mirada de cada cámara y la ubicación del centro de proyección de cada cámara (por ejemplo, su distancia desde el punto central P y), la distancia focal de cada cámara, el número de cámaras de la matriz y si la matriz debería ser simétrica. Esta generalidad de los principios de diseño sin paralaje de las figuras 3A y 3B permite una gran libertad de diseño y recoge todo tipo de configuraciones de cámara de matriz. En consecuencia, dependiendo de la implementación específica de estos principios sin paralaje, no toda la luz de un espejo situado en el plano 312A-312F puede incidir en una cámara asociada 310A-310F, sin embargo, el beneficio de este diseño es que proporciona imágenes sin paralaje.
[0049] En consecuencia, aunque el eje óptico 311A de la figura 3A que se ilustra está "mirando" o alineado con el punto P, no se requiere que el eje óptico de una cámara mire al punto P. El eje óptico en otros ejemplos puede mirar
a cualquier punto de la línea 321 entre P y Z o, en otros ejemplos, podría mirar en alguna otra dirección. De forma similar, el eje óptico 311B de la figura 3B, que se muestra apuntando aproximadamente al espejo central 330, puede apuntar en otras direcciones, por ejemplo, a un vértice de un elemento reflectante de espejo formado por los múltiples espejos de la cámara. Las cámaras de las matrices 300A que tienen un eje óptico alineado con el punto P, como sucede con el eje 311A ilustrado, se pueden rotar en torno a su centro de proyección para que miren un poco por debajo del punto P a lo largo de la línea 321 sin rotar físicamente la cámara real, por ejemplo, mediante cálculo tomando los datos de imagen original de la cámara, aplicando una transformada de proyección y a continuación recortando la imagen. Dicha rotación computacional se puede realizar digitalmente con facilidad (dentro de determinados límites prácticos, por ejemplo, aproximadamente 10 grados). Por lo tanto, el modelo general para formación de imágenes sin paralaje descrito en el presente documento considera una cámara sin ninguna dirección de visión específica, y los ejes ópticos 311A y 311B de ejemplo se proporcionan solo a modo de ejemplo.
[0050] El principio de diseño sin paralaje como se ilustra en las figuras 3A y 3B está configurado de modo que, después de la reflexión en espejos localizados en algún lugar dentro de los planos de espejo 312A-312C y 312D-312F, todos los centros de proyección de las cámaras 310A-310C y 310D-310F parecen estar proyectados desde un (o un solo) centro virtual V.
[0051] En el modo de realización 300A de la figura 3A, el centro de proyección de la cámara virtual V está localizado debajo del plano horizontal 305 de modo que las cámaras 310A, 310B, 310C cooperan para captar una imagen como si mirara hacia arriba a lo largo del eje óptico 321 en un espacio de imagen por encima del plano horizontal 305, donde abajo y arriba son términos elegidos arbitrariamente para referirse a las posiciones relativas de las cámaras 310A, 310B, 310C, el centro de proyección de la cámara virtual V y el espacio de imagen, y no están destinados a restringir el posicionamiento o la orientación de la cámara real en el espacio real. En algunos ejemplos de cámaras reales construidas de acuerdo con los principios ilustrados en la figura 3A, los espejos reales localizados dentro de los planos 312A, 312B, 312C se pueden intersecar para formar un elemento reflectante con su vértice colocado sobre su base. Por ejemplo, el vértice puede estar localizado en el punto P y la base del elemento reflectante puede estar localizada en algún lugar a lo largo del eje óptico 321 en dirección a la cámara virtual V.
[0052] El modo de realización 300B de la figura 3B representa una cámara de matriz de FOV amplio. El centro de proyección de la cámara virtual V está localizado encima del plano horizontal 305 de modo que las cámaras 310D, 310E, 310F cooperan para captar una imagen de FOV amplio como si mirara hacia afuera desde el eje óptico 321 en un espacio de imagen alrededor del plano horizontal 305, donde abajo y arriba son términos elegidos arbitrariamente para referirse a las posiciones relativas de las cámaras 310D, 310E, 310F, el centro de proyección de la cámara virtual V y el espacio de imagen, y no están destinados a restringir el posicionamiento o la orientación de la cámara real en el espacio real. En algunos ejemplos de cámaras reales construidas de acuerdo con los principios ilustrados en la figura 3B, los espejos reales localizados dentro de los planos 312D, 312E, 312F (por ejemplo, el espejo 330 en el plano 312D) se pueden intersecar para formar un elemento reflectante con su vértice situado debajo de su base. Por ejemplo, el vértice puede estar localizado en el punto P y la base del elemento reflectante puede estar localizada en algún lugar a lo largo del eje óptico 321 en dirección a la cámara virtual V.
[0053] Así pues, un elemento reflectante para el modo de realización de FOV amplio 300B está invertido en comparación con un elemento reflectante para el modo de realización 300A. Además, mientras que la matriz 300A "ve" una imagen localizada a lo largo del eje óptico 321, la matriz 300B "ve" una imagen panorámica de 180 grados de un espacio localizado circunferencialmente alrededor del eje 321 pero no ve la escena de imagen central que es vista por la matriz 300A. En algunos modos de realización, los diseños 300A y 300B se pueden combinar para formar una cámara que capta un campo de visión hemisférico completo.
[0054] Para diseñar o construir una cámara de matriz sin paralaje de acuerdo con el principio de diseño sin paralaje ilustrado en la figura 3A, se puede ubicar el punto V (el centro de proyección de la cámara virtual) en cualquier lugar debajo del plano horizontal 305 de la cámara de matriz. 300A. El diseñador o fabricante puede establecer o identificar, a continuación, las ubicaciones de las cámaras 310A, 310B, 310C y, a continuación, definir las líneas 313A, 313B, 313C que conectan el centro de proyección de cada cámara con el centro de proyección de la cámara virtual. Seguidamente, el diseñador o fabricante puede localizar la 314A, 314B, 314C central de cada segmento 313A, 313B, 313C y colocar el plano 312A, 312B, 312C de un espejo en la 314A, 314B, 314C central o sustancialmente central y ortogonal o sustancialmente ortogonal a ese segmento.
[0055] Para diseñar o construir una cámara de matriz sin paralaje de acuerdo con el principio de diseño sin paralaje ilustrado en la figura 3B, un diseñador o fabricante puede localizar el punto V (el centro de proyección para la cámara virtual) en cualquier lugar por encima del plano horizontal 305 de la cámara de matriz 300B. El diseñador o fabricante puede establecer o identificar, a continuación, las ubicaciones de las cámaras 310D, 310E, 310F y, a continuación, crear líneas 313D, 313E, 313F que conectan el centro de proyección de cada cámara con el centro de proyección de la cámara virtual. A continuación, el diseñador o fabricante puede localizar la 314D, 314E, 314F central de cada segmento 313D, 313E, 313F y colocar el plano 312D, 312E, 312F de un espejo en la 314D, 314E, 314F central y ortogonal a ese segmento. Como se ilustra en la figura 3B, un espejo 330 puede estar colocado en cualquier lugar de su plano 312D correspondiente.
[0056] Aunque cada plano 312A-312F se ilustra con un límite, en teoría un plano es infinito, y el diseñador puede elegir el tamaño y la ubicación apropiados de un espejo dentro de su plano correspondiente de acuerdo con las necesidades de construcción particulares de la cámara, por ejemplo para evitar espejos superpuestos, obstrucción del campo de visión de una cámara, etc. Los reflejos desde esos espejos envían cada centro de proyección (en este caso de las cámaras 310A-310F) al mismo centro de proyección virtual V de la cámara delgada 300A, 300B. Esto asegura que no haya o que no haya sustancialmente ningún paralaje en la imagen unida resultante entre los campos de visión de las cámaras.
[0057] En algunos modos de realización, los espejos localizados dentro de los planos 312A-312C y 312D-312F pueden estar dispuestos para formar un elemento reflectante. Por ejemplo, los planos 312A-312C se pueden extender hacia afuera desde los límites ilustrados hasta que se intersecan para formar un elemento reflectante con un vértice en o cerca del punto P que tiene facetas espejadas inclinadas hacia abajo y hacia afuera. Como otro ejemplo, los planos 312D-312F se pueden extender hacia afuera desde los límites ilustrados hasta que se intersecan para formar un elemento reflectante con un vértice en o cerca del punto P que tiene facetas espejadas inclinadas hacia arriba y hacia afuera. Así pues, un elemento reflectante para el modo de realización 300B está invertido en comparación con un elemento reflectante para el modo de realización 300A. En consecuencia, los espejos no se tienen que situar en las ubicaciones mostradas para los planos 312A-312F y los espejos reales no se tienen que localizar a lo largo de las líneas 313A-313F o contener puntos medios 314A-314F, sino que se pueden localizar en cualquier lugar del plano extendido infinitamente.
[0058] Los ejemplos ilustrados en las figuras 3A y 3B incluyen tres cámaras, sin embargo, el principio de diseño sin paralaje funciona para cualquier número de cámaras. La dirección de visión exacta de las cámaras individuales no está relacionada con el problema del paralaje, sino que está relacionada con la eficacia y los artefactos de inclinación, etc. Dichas distorsiones en las imágenes resultantes de diferentes direcciones de visión de las cámaras se pueden eliminar digitalmente con la conocida transformada de proyección, aplicada a posteriori. Esta corrección es exacta para aperturas infinitamente pequeñas y aproximadamente exacta para aperturas finitas pequeñas, por ejemplo, aperturas que típicamente se pueden usar en sistemas de formación de imágenes de un dispositivo móvil (por ejemplo, un teléfono celular, una tabletas, etc.). La corrección de transformada de proyección puede eliminar todos o sustancialmente todos los artefactos de inclinación aplicando una transformada de proyección apropiada (que en realidad está predefinida dado el posicionamiento del plano del espejo y la cámara).
[0059] En algunas implementaciones de cámara delgada, todas las cámaras de la matriz pueden estar situadas en el plano horizontal (o físicamente dentro) del módulo de cámara delgada o la carcasa de cámara. Sin embargo, en otros modos de realización, las cámaras no tienen que estar situadas en el plano horizontal 305. Por ejemplo, las cámaras no tienen que estar situadas en el plano horizontal para una cámara esférica, o para una disposición de cámara de "nube de centros 3D" libre. En algunos modos de realización de cámara de matriz, la disposición de las cámaras puede ser simétrica o sustancialmente simétrica, de modo que todos los planos de espejo tienen un punto común de intersección. Si dicho punto existe, se denota por P en las figuras, como en las figuras 3A y 3B. La pluralidad de espejos puede formar un elemento reflectante con un vértice P. Como se usa en el presente documento, el término pirámide o elemento reflectante se puede referir a cualquier forma tridimensional que tiene un número de facetas, cada una de las cuales se extiende hacia arriba en ángulo desde una base, encontrándose algunas o todas las facetas en el vértice P. En otros casos, puede que no haya ningún punto común a todos los espejos. En los modos de realización descritos, sin embargo, el diseño es sin (o sustancialmente sin) artefactos de paralaje, porque todas las cámaras virtuales (las imágenes de cámaras reales después del plegado) ven el entorno desde un centro de proyección V virtual común, independientemente de la orientación. Como se usa en el presente documento, el centro de proyección virtual se refiere a la proyección central de la ubicación de la cámara virtual de la cual los conos del campo de visión (FOV) proyectado de todas las cámaras de la matriz parecen originarse, incluso después de redireccionamiento o plegado de la luz entrante (por ejemplo, mediante espejos o prismas refractantes).
[0060] Si la simetría no es suficiente, aunque el diseño de la cámara de matriz produzca imágenes sin paralaje, puede seguir mostrando artefactos de desenfoque incorrectos. Se puede crear un núcleo de desenfoque, para compensar al menos parcialmente el desenfoque, con la apertura común que se sintetiza a partir de todas las aperturas/espejos de la cámara. Si hay espacios e irregularidades en determinadas ubicaciones o direcciones en la visión desde la ubicación de V, el desenfoque parecerá poco natural. Esto se debe al hecho de que las cámaras individuales reales no son realmente puntos, sino aperturas que representan cada una un área de una superficie con orientación en un espacio 3D. Sin embargo, los diseños con simetría insuficiente se pueden seguir usando para captar imágenes de buena calidad de escenas que están casi completamente enfocadas, o si no hay objetos particularmente cerca de la cámara de matriz, por ejemplo, de aproximadamente 20 cm a aproximadamente 50 cm de la cámara, en algunas implementaciones.
[0061] Las figuras 4A a 4C ilustran un modo de realización de una cámara de matriz 400 diseñada de acuerdo con el principio de diseño sin paralaje ilustrado en las figuras 3A y 3B. La figura 4A ilustra una matriz con dos cámaras 410A, 410B. Las cámaras 410A, 410B tienen cada una un ángulo de visión de aproximadamente 20 grados, lo que da como resultado un ángulo de visión eficaz de aproximadamente 26 grados para la cámara de matriz combinada 400. Las cámaras 410A, 410B parecen captar datos de imagen del mismo origen aparente 450. La vista 420A, 420B que cada cámara 410A, 410 observa está resaltada en líneas discontinuas azules. Por motivos de claridad, los conjuntos
de lente y las superficies reflectantes o refractantes secundarias no se ilustran en las cámaras 410A, 410B. En algunos modos de realización, los sensores de las cámaras 410A, 410B pueden estar alineados con la luz después de la reflexión o la refracción inicial, sin embargo, en otros modos de realización, se puede usar una superficie reflectante o refractante secundaria, por ejemplo, para reducir la altura total de la matriz colocando los sensores de las cámaras 410A, 410B dentro o sustancialmente dentro de un plano común.
[0062] La figura 4B ilustra un ejemplo de parámetros de diseño para el ángulo de visión 420A y la superficie de espejo 415A para la cámara 410A de la figura 4A. Para lograr un ángulo de visión eficaz de 60 grados para la apertura sintética (la suma de todas las vistas de las cámaras 410A, 410B de la matriz 400), las cámaras individuales 410A, 410B deben tener cada una un FOV que tiene un ángulo de visión 420A, 420B de al menos aproximadamente 48 grados. La figura 4C ilustra un ejemplo de parámetros de diseño tanto para el ángulo de visión 420A, 420B como para las superficies de espejo 415A, 415B para las cámaras 410A, 410B de la figura 4A para lograr un ángulo de visión de 60 grados.
[0063] Las figuras 5A y 5B ilustran un modo de realización de una cámara de matriz 600 de cuatro cámaras 610A-610D diseñada de acuerdo con el principio de diseño sin paralaje ilustrado en las figuras 3A y 3B. La figura 5A ilustra una vista isométrica de la cámara de matriz 600 de cuatro cámaras 610A-610D creada reflejando el FOV de una sola cámara en dos planos. Por motivos de claridad, los conjuntos de lente y las superficies reflectantes o refractantes secundarias no se ilustran en las cámaras 610A-610D. En algunos modos de realización, los sensores de las cámaras 610A-610D pueden estar alineados con la luz después de la reflexión o la refracción inicial, sin embargo, en otros modos de realización se puede usar una superficie reflectante o refractante secundaria, por ejemplo, para reducir la altura total de la matriz colocando los sensores de las cámaras 610A-610D dentro o sustancialmente dentro de un plano común. Los conos 625A-625D son los conos del FOV tal como los ve la lente de las cámaras 610A-610D. Los conos 630A, 630C, 630D (nota: el cono 630B no se ilustra para mayor claridad de la figura) son los conos del FOV tal como los ve el sensor de las cámaras 610A-610D.
[0064] La ubicación de los planos de espejo 312D-312F (ilustrados en la figura 3B y en general como planos de espejo 615 en la figura 5B), según lo especificado por los parámetros de diseño sin paralaje descritos anteriormente con respecto a las figuras 3A y 3B, determina en parte la forma de la imagen final y la cantidad de superposición entre las imágenes captadas por las cámaras 610A-610D (el ángulo de la superficie reflectante situada dentro de los planos de espejo 615 también es un factor).
[0065] La ubicación de los planos de espejo 312D-312F (ilustrados en la figura 3B e ilustrados en general como planos de espejo 615 en la figura 5A), según lo especificado por los parámetros de diseño sin paralaje descritos anteriormente con respecto a las figuras 3A y 3B, determina en parte la forma imagen final y la cantidad de superposición entre las imágenes captadas por las cámaras 610A-610D (el ángulo de la superficie reflectante situada dentro de los planos de espejo 615 también es un factor).
[0066] Como se ilustra, hay superposición entre las áreas de visión 620A-620D debido al sesgo del FOV de cada cámara 610A-610D. La cámara de matriz 600 de cuatro cámaras ilustrada se diseñó sin una superposición significativa entre el FOV de las cámaras, sin embargo, esto se puede lograr en un modo de realización rotando las cámaras adyacentes en torno a su eje óptico, ya que los ejes ópticos de las cámaras residen en el mismo plano. Para las cámaras adyacentes, existe superposición debida en parte al sesgo del FOV de las cámaras. Esta superposición puede ser mayor que la mostrada y puede estar sesgada, ya que el área superpuesta de la cámara izquierda se refleja en realidad desde la superficie de espejo de la cámara derecha y viceversa.
[0067] En algunos modos de realización, se puede crear una superposición entre cámaras adyacentes rotándolas en dirección al eje óptico virtual hasta que vuelvan a estar en una posición no rotada. Sin embargo, colocar las cámaras en paralelo entre sí puede hacer que la superposición se incremente al incrementarse la distancia del objeto, mientras que el área no superpuesta no se incrementará al incrementarse la distancia del objeto (el porcentaje de superposición se aproximará al 100 %) y, por lo tanto, puede que no sea una solución viable en determinados modos de realización. Rotar las cámaras ligeramente hacia la línea central para crear algo de superposición puede dar como resultado una superposición de aproximadamente 10 grados en cada dirección. Sin embargo, dependiendo del tamaño y el posicionamiento relativo de cada cámara, así como las limitaciones de altura de la matriz, puede que no haya suficiente espacio disponible para colocar dos cámaras rotadas una al lado de la otra.
[0068] La figura 6 ilustra un modo de realización de una cámara de matriz 1000 diseñada de acuerdo con el principio de diseño sin paralaje ilustrado en las figuras 3A y 3B. La cámara de la figura 6 es una cámara de matriz de seis cámaras 910A-910F construida extendiendo la cámara de matriz de cuatro cámaras para incluir dos cámaras adicionales y dos superficies espejadas. Las cámaras 910A-910F de este modo de realización se pueden rotar debido a limitaciones de espacio.
IV. Visión general de un proceso de captación de imágenes de ejemplo
[0069] La figura 7 ilustra un modo de realización de un proceso de captación de imágenes de óptica plegada 900. El proceso 900 comienza en el bloque 905, en el que se proporciona una pluralidad de conjuntos de sensor de imágenes.
Este bloque incluye cualquiera de las configuraciones de matriz de sensores analizadas anteriormente con respecto a las imágenes previas, en las que los sensores y las superficies de plegado de luz asociadas están dispuestos de acuerdo con los conceptos de diseño sin paralaje divulgados en el presente documento. Los conjuntos de sensor pueden incluir, como se analiza anteriormente, un sensor, un sistema de lente y una superficie refractante o reflectante situada para redirigir luz desde el sistema de lente hasta el sensor. El proceso 900 avanza a continuación hasta el bloque 910, en el que al menos una superficie refractante o reflectante se monta cerca de la pluralidad de sensores de imágenes. Por ejemplo, este bloque podría comprender montar un elemento reflectante de espejo central entre dos filas de matrices de sensores, en el que el elemento reflectante de espejo central comprende una superficie asociada con cada sensor de las matrices.
[0070] A continuación, el proceso 900 pasa al bloque 915, en el que luz que comprende una imagen de destino de una escena se refleja en la al menos una superficie reflectante hacia los sensores de imágenes. Por ejemplo, una parte de la luz se puede refractar mediante o reflejar en cada una de una pluralidad de superficies hacia cada una de la pluralidad de sensores. Esta etapa puede comprender además hacer pasar la luz a través de un conjunto de lente asociado con cada sensor, y también puede incluir reflejar la luz en una segunda superficie hasta un sensor. La etapa 915 puede comprender además enfocar la luz usando el conjunto de lente o a través del desplazamiento de cualquiera de las superficies reflectantes.
[0071] El proceso 900 puede avanzar a continuación hasta el bloque 920, en el que los sensores captan una pluralidad de imágenes de la escena de imagen de destino. Por ejemplo, cada sensor puede captar una imagen de una parte de la escena correspondiente al campo de visión de ese sensor. En conjunto, los campos de visión de la pluralidad de sensores cubren al menos la imagen de destino en el espacio del objeto. Aunque no se ilustra, se pueden aplicar transformadas de proyección a algunas o a todas las imágenes captadas para rotar digitalmente el eje óptico de la cámara usada para captar la imagen.
[0072] A continuación, el proceso 900 puede pasar al bloque 925 en el que se realiza un procedimiento de unión de imágenes para generar una sola imagen a partir de la pluralidad de imágenes. En algunos modos de realización, el módulo de unión de imágenes 240 de la figura 2 puede realizar este bloque. Esto puede incluir técnicas de unión de imágenes conocidas. Además, cualquier área de superposición en los campos de visión puede generar una superposición en la pluralidad de imágenes, lo que se puede usar para alinear las imágenes en el proceso de unión. Por ejemplo, el bloque 925 puede incluir además identificar características comunes en el área de superposición de imágenes adyacentes y usar las características comunes para alinear las imágenes.
[0073] A continuación, el proceso 900 pasa al bloque 930 en el que la imagen unida se recorta hasta una relación de aspecto específica, por ejemplo, de 4:3 o de 1:1. Por último, el proceso termina después de almacenar la imagen recortada en el bloque 935. Por ejemplo, la imagen se puede almacenar en el almacenamiento 210 de la figura 2, o se puede almacenar en la memoria de trabajo 205 de la figura 2 para su visualización como una imagen de vista previa de la escena de destino.
V. Implementación de sistemas y terminología
[0074] Las implementaciones divulgadas en el presente documento proporcionan sistemas, procedimientos y aparatos para cámaras de matriz de apertura múltiple sin artefactos de paralaje e inclinación. Un experto en la técnica reconocerá que estos modos de realización se pueden implementar en hardware, software, firmware o en cualquier combinación de los mismos.
[0075] En algunos modos de realización, los circuitos, procesos y sistemas analizados anteriormente se pueden utilizar en un dispositivo de comunicación inalámbrica. El dispositivo de comunicación inalámbrica puede ser un tipo de dispositivo electrónico usado para comunicarse inalámbricamente con otros dispositivos electrónicos. Entre los ejemplos de dispositivos de comunicación inalámbrica se incluyen teléfonos celulares, teléfonos inteligentes, asistentes digitales personales (PDA), lectores electrónicos, sistemas de juegos, reproductores de música, equipos ultraportátiles, módems inalámbricos, ordenadores portátiles, dispositivos de tableta, etc.
[0076] El dispositivo de comunicación inalámbrica puede incluir uno o más sensores de imágenes, dos o más procesadores de señales de imagen, una memoria que incluye instrucciones o unos módulos para llevar a cabo los procesos analizados anteriormente. El dispositivo también puede tener datos, instrucciones de carga de procesador y/o datos de la memoria, una o más interfaces de comunicación, uno o más dispositivos de entrada, uno o más dispositivos de salida tales como un dispositivo de visualización y una fuente de alimentación/interfaz. El dispositivo de comunicación inalámbrica puede incluir adicionalmente un transmisor y un receptor. El transmisor y el receptor se pueden denominar conjuntamente transceptor. El transceptor puede estar acoplado a una o más antenas para transmitir y/o recibir señales inalámbricas.
[0077] El dispositivo de comunicación inalámbrica se puede conectar inalámbricamente a otro dispositivo electrónico (por ejemplo, una estación base). Un dispositivo de comunicación inalámbrica se puede denominar de forma alternativa dispositivo móvil, estación móvil, estación de abonado, equipo de usuario (UE), estación remota, terminal de acceso, terminal móvil, terminal, terminal de usuario, unidad de abonado, etc. Entre los ejemplos de dispositivos
de comunicación inalámbrica se incluyen ordenadores portátiles o de escritorio, teléfonos celulares, teléfonos inteligentes, módems inalámbricos, lectores electrónicos, dispositivos de tableta, sistemas de juegos, etc. Los dispositivos de comunicación inalámbrica pueden funcionar de acuerdo con una o más normas industriales tales como el Proyecto de Colaboración de Tercera Generación (3GPP). Por lo tanto, el término general "dispositivo de comunicación inalámbrica" puede incluir dispositivos de comunicación inalámbrica descritos con nomenclaturas diferentes de acuerdo con las normas industriales (por ejemplo, terminal de acceso, equipo de usuario (EU), terminal remoto, etc.).
[0078] Las funciones descritas en el presente documento se pueden almacenar como una o más instrucciones en un medio legible por procesador o legible por ordenador. El término "medio legible por ordenador" se refiere a cualquier medio disponible al que se pueda acceder mediante un ordenador o un procesador. A modo de ejemplo, y no de limitación, dicho medio puede comprender RAM, ROM, EEPROM, memoria flash, CD-ROM u otro almacenamiento en disco óptico, almacenamiento en disco magnético u otros dispositivos de almacenamiento magnético, o cualquier otro medio que se pueda usar para almacenar un código de programa deseado en forma de instrucciones o estructuras de datos y al que se pueda acceder mediante un ordenador. Los discos, como se usan en el presente documento, incluyen el disco compacto (CD), el disco láser, el disco óptico, el disco versátil digital (DVD), el disco flexible y el disco Bluray®, de los cuales los discos flexibles reproducen normalmente datos magnéticamente, mientras que los demás discos reproducen datos ópticamente con láseres. Cabe destacar que un medio legible por ordenador puede ser tangible y no transitorio. El término "producto de programa informático" se refiere a un dispositivo o procesador informático en combinación con código o instrucciones (por ejemplo, un "programa") que se pueden ejecutar, procesar o computar mediante el dispositivo o procesador informático. Como se usa en el presente documento, el término "código" se puede referir a software, instrucciones, código o datos que son ejecutables por un dispositivo o procesador informático.
[0079] El software o las instrucciones se pueden transmitir también a través de un medio de transmisión. Por ejemplo, si el software se transmite desde un sitio web, un servidor u otra fuente remota usando un cable coaxial, un cable de fibra óptica, un par trenzado, una línea de abonado digital (DSL) o unas tecnologías inalámbricas tales como infrarrojos, radio y microondas, entonces el cable coaxial, el cable de fibra óptica, el par trenzado, la DSL o las tecnologías inalámbricas tales como infrarrojos, radio y microondas están incluidos en la definición de medio de transmisión.
[0080] Los procedimientos divulgados en el presente documento comprenden una o más etapas o acciones para lograr el procedimiento descrito. Las etapas y/o acciones de procedimiento se pueden intercambiar entre sí sin apartarse del alcance de las reivindicaciones. En otras palabras, a menos que se requiera un orden específico de etapas o acciones para un funcionamiento apropiado del procedimiento que se describe, el orden y/o el uso de etapas y/o acciones específicas se puede modificar sin apartarse del alcance de las reivindicaciones.
[0081] Cabe destacar que los términos "acoplar", "acoplamiento", "acoplado" u otras variantes de la palabra acoplar, como se usan en el presente documento, pueden indicar tanto una conexión indirecta como una conexión directa. Por ejemplo, si un primer componente está "acoplado" a un segundo componente, el primer componente puede estar indirectamente conectado al segundo componente o directamente conectado al segundo componente. Como se usa en el presente documento, el término "pluralidad" denota dos o más. Por ejemplo, una pluralidad de componentes indica dos o más componentes.
[0082] El término "determinar" engloba una amplia variedad de acciones y, por lo tanto, "determinar" puede incluir calcular, computar, procesar, obtener, investigar, consultar (por ejemplo, consultar una tabla, una base de datos u otra estructura de datos), verificar y similares. Además, "determinar" puede incluir recibir (por ejemplo, recibir información), acceder, (por ejemplo, acceder a datos en una memoria) y similares. Además, "determinar" puede incluir resolver, seleccionar, elegir, establecer y similares.
[0083] La frase "en base a" no significa "en base solo a", a menos que se especifique expresamente lo contrario. En otras palabras, la frase "en base a" describe tanto "en base solo a" como "en base al menos a".
[0084] En la descripción anterior, se dan detalles específicos para permitir una plena comprensión de los ejemplos. Sin embargo, un experto en la técnica entenderá que los ejemplos se pueden llevar a la práctica sin estos detalles específicos. Por ejemplo, los componentes/dispositivos eléctricos se pueden mostrar en diagramas de bloques para no ofuscar los ejemplos con detalles innecesarios. En otros casos, dichos componentes, otras estructuras y técnicas se pueden mostrar en detalle para explicar los ejemplos en mayor profundidad.
[0085] Los títulos se incluyen en el presente documento como referencia y para facilitar la localización de diversas secciones. Estos títulos no pretenden limitar el alcance de los conceptos descritos con respecto a los mismos. Dichos conceptos pueden tener aplicabilidad a lo largo de toda la memoria descriptiva.
[0086] Además, se observa también que los ejemplos se pueden describir como un proceso, que se representa como un organigrama, un diagrama de flujo, un diagrama de estados finitos, un diagrama estructural o un diagrama de bloques. Aunque un diagrama de flujo puede describir las operaciones como un proceso secuencial, muchas de las operaciones se pueden realizar en paralelo o simultáneamente, y el proceso se puede repetir. Además, el orden
de las operaciones se puede reorganizar. Un proceso se termina cuando sus operaciones se acaban. Un proceso puede corresponder a un método, una función, un procedimiento, una subrutina, un subprograma, etc. Cuando un proceso corresponde a una función de software, su finalización corresponde a un retorno de la función a la función de llamada o a la función principal.
[0087] La descripción previa de las implementaciones divulgadas se proporciona para permitir que cualquier experto en la técnica realice o use la presente divulgación. Diversas modificaciones de estas implementaciones resultarán fácilmente evidentes para los expertos en la técnica, y los principios genéricos definidos en el presente documento se pueden aplicar a otras implementaciones sin apartarse del alcance de las reivindicaciones.
Claims (15)
1. Un sistema (200) para captar una imagen de destino de una escena, comprendiendo el procedimiento:
una matriz de una pluralidad de cámaras, formando en cooperación la pluralidad de cámaras (215a-215h) una cámara virtual con un centro de proyección virtual en un punto V, estando configurada cada una de la pluralidad de cámaras para captar una de una pluralidad de partes de una imagen de destino de una escena,
y comprendiendo cada una de la pluralidad de cámaras:
un sensor de imágenes;
un conjunto de lente que comprende al menos una lente, teniendo cada una de la pluralidad de cámaras y su conjunto de lente asociado un punto que representa un centro de proyección de la cámara con su conjunto de lente asociado que tiene una ubicación determinada al menos en parte por una óptica del conjunto de lente, estando situado el conjunto de lente para enfocar luz en el sensor de imágenes, en el que el punto que representa el centro de proyección de la cámara con su conjunto de lente asociado, y el centro de proyección virtual del punto de cámara virtual V, están localizados a lo largo de una línea; y
un espejo situado para reflejar la luz hasta el conjunto de lente, estando situado además el espejo en un plano de espejo para intersecarse con un punto medio a lo largo de la línea que pasa a través del centro de proyección virtual del punto de cámara virtual V y el punto que representa el centro de proyección de la cámara con su conjunto de lente asociado, estando situado además el plano de espejo en un ángulo ortogonal a la línea.
2. El sistema de la reivindicación 1, que comprende además un elemento reflectante central que tiene una pluralidad de superficies de redireccionamiento de luz principales configuradas para dividir la luz en la pluralidad de partes, formando el espejo de cada una de la pluralidad de cámaras una de las superficies de redireccionamiento de luz principales.
3. El sistema de la reivindicación 1, en el que el elemento reflectante central comprende un vértice formado por una intersección de cada una de la pluralidad de superficies de redireccionamiento de luz principales, y en el que un eje óptico de cada una de la pluralidad de cámaras pasa a través del vértice.
4. El sistema de la reivindicación 3, en el que el vértice y el centro de proyección virtual están localizados en un eje óptico virtual que pasa a través del vértice y el centro de proyección virtual de modo que el eje óptico virtual forma un eje óptico de la matriz de la pluralidad de cámaras.
5. El sistema de la reivindicación 1, que comprende además una carcasa de cámara que comprende la superficie que tiene una apertura como una superficie superior de la misma, en el que la apertura está situada para permitir que la luz que representa la escena pase a través de la apertura al elemento reflectante central.
6. El sistema de la reivindicación 3, en el que la superficie está situada ortogonalmente al eje óptico virtual en o encima del vértice del elemento reflectante central, comprendiendo además el sistema una superficie inferior situada sustancialmente en paralelo a la superficie superior y situada en o debajo de una superficie inferior del elemento reflectante central.
7. El sistema de la reivindicación 6, en el que cada una de la pluralidad de cámaras está situada entre la superficie superior y la superficie inferior, preferentemente, en el que una distancia entre la superficie superior y la superficie inferior es de aproximadamente 4,5 mm o menos.
8. El sistema de la reivindicación 1, que comprende además un procesador (220, 250) configurado para recibir datos de imagen que comprenden una imagen de una parte de la escena desde cada una de la pluralidad de cámaras y para realizar una operación de unión para generar la imagen de destino, preferentemente en el que el procesador está configurado además para realizar una transformada de proyección en los datos de imagen en base al menos en parte a una relación geométrica entre el centro de proyección virtual y el centro de proyección del conjunto de lente de cada una de la pluralidad de cámaras y la ubicación del espejo para cada una de la pluralidad de cámaras dentro de un plano de espejo correspondiente.
9. El sistema de la reivindicación 2, que comprende además una superficie de redireccionamiento de luz secundaria asociada con cada una de la pluralidad de cámaras, estando situada la superficie de redireccionamiento de luz secundaria para dirigir luz desde el conjunto de lente hasta el sensor de imágenes, comprendiendo preferentemente además el sistema un sustrato en el que el sensor de imágenes para cada una de la pluralidad de cámaras está situado sobre o dentro del sustrato.
10. Un procedimiento de fabricación de una cámara de matriz (200) sustancialmente sin artefactos de paralaje en una
imagen captada, que comprende:
situar una pluralidad de cámaras (215a-215h) en una matriz, formando en cooperación la pluralidad de cámaras una cámara virtual con un centro de proyección virtual en un punto V, estando configurada cada una de la pluralidad de cámaras para captar una de una pluralidad de partes de una escena de imagen de destino, comprendiendo cada una de la pluralidad de cámaras:
un conjunto de lente que comprende al menos una lente,
un centro de proyección de cámara que tiene una ubicación determinada al menos en parte por una óptica del conjunto de lente, y
un sensor situado para recibir luz desde el conjunto de lente,
en el que el conjunto de lente está situado para enfocar luz en un sensor de imágenes, y
en el que el punto que representa el centro de proyección de la cámara, y el centro de proyección virtual del punto de cámara virtual V, están localizados a lo largo de una línea; y
proporcionar, para cada una de la pluralidad de cámaras, un espejo situado en un plano de espejo, estando situado el plano de espejo para intersecarse con un punto medio a lo largo de la línea que pasa a través del centro de proyección virtual y el centro de proyección de la cámara, estando situado además el plano de espejo en un ángulo ortogonal a la línea.
11. El procedimiento de la reivindicación 10,
en el que el procedimiento comprende además proporcionar el espejo para cada una de la pluralidad de cámaras como una faceta de un elemento reflectante central, estando situada la pluralidad de cámaras alrededor del elemento reflectante central;
o en el que el espejo para cada una de la pluralidad de cámaras se interseca en un vértice del elemento reflectante central, y en el que el procedimiento comprende además situar cada una de la pluralidad de cámaras de modo que un eje óptico de cada una de la pluralidad de cámaras se interseca con el vértice.
12. El procedimiento de la reivindicación 10, que comprende además proporcionar una superficie de redireccionamiento de luz secundaria para cada una de la pluralidad de cámaras.
13. El procedimiento de la reivindicación 12, que comprende además situar la superficie de redireccionamiento de luz secundaria entre el conjunto de lente y el sensor para dirigir luz recibida desde el conjunto de lente hasta el sensor.
14. El procedimiento de la reivindicación 13, que comprende además proporcionar un sustrato que tiene al menos una apertura situada para permitir que la luz pase a través de la apertura hasta el espejo para cada una de la pluralidad de cámaras, comprendiendo preferentemente además el procedimiento montar el sensor para cada una de la pluralidad de cámaras sobre o dentro del sustrato de modo que todos los sensores estén situados dentro del mismo plano.
15. El procedimiento de la reivindicación 10, que comprende además proporcionar un procesador (220, 250) en comunicación electrónica con el sensor de cada una de la pluralidad de cámaras, estando configurado el procesador para recibir la pluralidad de partes de una escena de imagen de destino y generar una imagen completa de la escena de imagen de destino.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462015316P | 2014-06-20 | 2014-06-20 | |
US14/611,045 US9386222B2 (en) | 2014-06-20 | 2015-01-30 | Multi-camera system using folded optics free from parallax artifacts |
PCT/US2015/033176 WO2015195296A2 (en) | 2014-06-20 | 2015-05-29 | Multi-camera system using folded optics free from parallax artifacts |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2841402T3 true ES2841402T3 (es) | 2021-07-08 |
Family
ID=54870825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES15731757T Active ES2841402T3 (es) | 2014-06-20 | 2015-05-29 | Sistema multicámara que usa óptica plegada sin artefactos de paralaje |
Country Status (9)
Country | Link |
---|---|
US (2) | US9386222B2 (es) |
EP (1) | EP3158394B1 (es) |
JP (1) | JP2017524968A (es) |
KR (1) | KR20170022998A (es) |
CN (2) | CN106462036B (es) |
BR (1) | BR112016029625A2 (es) |
CA (1) | CA2951263A1 (es) |
ES (1) | ES2841402T3 (es) |
WO (1) | WO2015195296A2 (es) |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9485495B2 (en) | 2010-08-09 | 2016-11-01 | Qualcomm Incorporated | Autofocus for stereo images |
US10924668B2 (en) * | 2011-09-19 | 2021-02-16 | Epilog Imaging Systems | Method and apparatus for obtaining enhanced resolution images |
US9438889B2 (en) | 2011-09-21 | 2016-09-06 | Qualcomm Incorporated | System and method for improving methods of manufacturing stereoscopic image sensors |
US9398264B2 (en) | 2012-10-19 | 2016-07-19 | Qualcomm Incorporated | Multi-camera system using folded optics |
EP3008890A4 (en) | 2013-06-13 | 2016-05-04 | Corephotonics Ltd | ZOOM OF A DIGITAL CAMERA WITH DUAL IRIS |
US9857568B2 (en) | 2013-07-04 | 2018-01-02 | Corephotonics Ltd. | Miniature telephoto lens assembly |
CN107748432A (zh) | 2013-07-04 | 2018-03-02 | 核心光电有限公司 | 小型长焦透镜套件 |
US10178373B2 (en) | 2013-08-16 | 2019-01-08 | Qualcomm Incorporated | Stereo yaw correction using autofocus feedback |
US9383550B2 (en) | 2014-04-04 | 2016-07-05 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
US9374516B2 (en) | 2014-04-04 | 2016-06-21 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
US10013764B2 (en) | 2014-06-19 | 2018-07-03 | Qualcomm Incorporated | Local adaptive histogram equalization |
US9819863B2 (en) | 2014-06-20 | 2017-11-14 | Qualcomm Incorporated | Wide field of view array camera for hemispheric and spherical imaging |
US9294672B2 (en) * | 2014-06-20 | 2016-03-22 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax and tilt artifacts |
US9541740B2 (en) | 2014-06-20 | 2017-01-10 | Qualcomm Incorporated | Folded optic array camera using refractive prisms |
US9549107B2 (en) | 2014-06-20 | 2017-01-17 | Qualcomm Incorporated | Autofocus for folded optic array cameras |
US9386222B2 (en) | 2014-06-20 | 2016-07-05 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax artifacts |
US9392188B2 (en) | 2014-08-10 | 2016-07-12 | Corephotonics Ltd. | Zoom dual-aperture camera with folded lens |
US9832381B2 (en) | 2014-10-31 | 2017-11-28 | Qualcomm Incorporated | Optical image stabilization for thin cameras |
CN112327463B (zh) | 2015-01-03 | 2022-10-14 | 核心光电有限公司 | 微型长焦镜头模块和使用该镜头模块的相机 |
DE102016200285A1 (de) * | 2016-01-13 | 2017-07-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Erfassen eines Objektbereichs |
DE102016200287A1 (de) | 2016-01-13 | 2017-07-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multiaperturabbildungsvorrichtungen, Verfahren zum Herstellen derselben und Abbildungssystem |
DE102016204148A1 (de) * | 2016-03-14 | 2017-09-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Erfassen eines Objektbereichs |
US9967547B2 (en) | 2016-06-08 | 2018-05-08 | Qualcomm Incorporated | Wafer level optics for folded optic passive depth sensing system |
US9986223B2 (en) | 2016-06-08 | 2018-05-29 | Qualcomm Incorporated | Folded optic passive depth sensing system |
EP3494692A1 (en) * | 2016-08-04 | 2019-06-12 | Epilog Imaging Systems | Method and apparatus for obtaining enhanced resolution images |
US10748319B1 (en) | 2016-09-19 | 2020-08-18 | Radlink, Inc. | Composite radiographic image that corrects effects of parallax distortion |
US10650561B2 (en) | 2016-09-19 | 2020-05-12 | Radlink, Inc. | Composite radiographic image that corrects effects of parallax distortion |
US10178026B2 (en) | 2016-09-27 | 2019-01-08 | Gigamon Inc. | Flexible inline arrangements for guiding traffic through network tools |
KR102558474B1 (ko) * | 2016-09-30 | 2023-07-25 | 삼성전자주식회사 | 이미지를 표시하기 위한 방법 및 그 전자 장치 |
KR102212611B1 (ko) | 2017-02-23 | 2021-02-05 | 코어포토닉스 리미티드 | 폴디드 카메라 렌즈 설계 |
US10748333B2 (en) * | 2017-03-23 | 2020-08-18 | Nvidia Corporation | Finite aperture omni-directional stereo light transport |
EP3461284A4 (en) | 2017-07-07 | 2019-07-03 | Corephotonics Ltd. | PRISM DESIGN OF FOLDED CAMERA FOR PREVENTING PARASITE LIGHT |
KR102140884B1 (ko) | 2017-07-23 | 2020-08-04 | 코어포토닉스 리미티드 | 큰 애퍼처를 갖는 컴팩터형 폴디드 렌즈 |
CN107870411A (zh) * | 2017-11-15 | 2018-04-03 | 东莞市骏智机电科技有限公司 | 一种基于视觉定位技术的点胶机双向视觉识别装置 |
US10969652B2 (en) | 2018-01-10 | 2021-04-06 | Apple Inc. | Camera with folded optics having moveable lens |
KR20240019388A (ko) | 2018-01-26 | 2024-02-14 | 애플 인크. | 광학기기를 이동시키기 위한 액추에이터를 갖는 접이식 카메라 |
JP2019128517A (ja) * | 2018-01-26 | 2019-08-01 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置、及び、電子機器 |
US11061213B2 (en) | 2018-02-07 | 2021-07-13 | Apple Inc. | Folded camera |
US11333845B2 (en) | 2018-03-02 | 2022-05-17 | Corephotonics Ltd. | Spacer design for mitigating stray light |
US12078868B2 (en) | 2018-05-14 | 2024-09-03 | Corephotonics Ltd. | Folded camera lens designs |
US11314147B1 (en) | 2018-05-31 | 2022-04-26 | Apple Inc. | Folded camera with actuator for moving optics |
EP3738303A4 (en) | 2019-01-03 | 2021-04-21 | Corephotonics Ltd. | MULTI-APERTURE CAMERAS WITH AT LEAST ONE TWO-STATE ZOOM CAMERA |
US11357593B2 (en) | 2019-01-10 | 2022-06-14 | Covidien Lp | Endoscopic imaging with augmented parallax |
KR20240110028A (ko) | 2019-02-25 | 2024-07-12 | 코어포토닉스 리미티드 | 적어도 하나의 2 상태 줌 카메라를 갖는 멀티-애퍼처 카메라 |
CN110233914A (zh) * | 2019-04-25 | 2019-09-13 | 维沃移动通信有限公司 | 一种终端设备及其控制方法 |
CN110196232B (zh) * | 2019-06-03 | 2021-11-26 | 中北大学 | 一种共焦成像装置及共焦成像方法 |
JP7240261B2 (ja) * | 2019-06-05 | 2023-03-15 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム、記憶媒体 |
CN114578520A (zh) | 2019-08-21 | 2022-06-03 | 核心光电有限公司 | 镜头组件 |
US12072609B2 (en) | 2019-09-24 | 2024-08-27 | Corephotonics Ltd. | Slim pop-out cameras and lenses for such cameras |
US11656538B2 (en) | 2019-11-25 | 2023-05-23 | Corephotonics Ltd. | Folded zoom camera module with adaptive aperture |
KR102677382B1 (ko) * | 2020-01-07 | 2024-06-24 | 삼성전자 주식회사 | 전자 기기의 이미지 아티팩트 처리 방법 및 장치 |
KR102494753B1 (ko) | 2020-01-08 | 2023-01-31 | 코어포토닉스 리미티드 | 멀티-애퍼처 줌 디지털 카메라 및 그 사용 방법 |
CN111416948A (zh) * | 2020-03-25 | 2020-07-14 | 维沃移动通信有限公司 | 一种图像处理方法及电子设备 |
US11875544B2 (en) | 2020-04-30 | 2024-01-16 | Teledyne Flir Commercial Systems, Inc. | Annotation of infrared images for machine learning using beamsplitter-based camera system and methods |
WO2021226554A1 (en) * | 2020-05-08 | 2021-11-11 | Flir Systems Ab | Dual-band temperature detection systems and methods |
EP3966631B1 (en) | 2020-05-30 | 2023-01-25 | Corephotonics Ltd. | Systems and methods for obtaining a super macro image |
US11516391B2 (en) * | 2020-06-18 | 2022-11-29 | Qualcomm Incorporated | Multiple camera system for wide angle imaging |
KR20220012842A (ko) | 2020-07-22 | 2022-02-04 | 코어포토닉스 리미티드 | 폴디드 카메라 렌즈 설계 |
KR20240049655A (ko) | 2020-07-31 | 2024-04-16 | 코어포토닉스 리미티드 | 폴디드 매크로-텔레 카메라 렌즈 설계 |
KR102583656B1 (ko) | 2020-09-18 | 2023-09-27 | 코어포토닉스 리미티드 | 팝-아웃 줌 카메라 |
CN114868065A (zh) | 2020-12-01 | 2022-08-05 | 核心光电有限公司 | 具有连续自适应变焦系数的折叠摄像机 |
KR102474934B1 (ko) | 2021-01-25 | 2022-12-05 | 코어포토닉스 리미티드 | 슬림 팝-아웃 와이드 카메라 렌즈 |
CN115052085A (zh) * | 2021-03-08 | 2022-09-13 | 深圳市万普拉斯科技有限公司 | 摄像头模组与电子设备 |
KR102486397B1 (ko) | 2021-03-22 | 2023-01-06 | 코어포토닉스 리미티드 | 연속적으로 적응하는 줌 팩터를 갖는 폴디드 카메라 |
CN113079290B (zh) * | 2021-03-29 | 2023-08-22 | 维沃移动通信有限公司 | 摄像头模组及电子设备 |
US20230025380A1 (en) * | 2021-07-16 | 2023-01-26 | Qualcomm Incorporated | Multiple camera system |
US20230031023A1 (en) * | 2021-07-29 | 2023-02-02 | Qualcomm Incorporated | Multiple camera system |
KR102685591B1 (ko) | 2021-09-23 | 2024-07-15 | 코어포토닉스 리미티드 | 큰 애퍼처 연속 줌 폴디드 텔레 카메라 |
KR102610118B1 (ko) | 2021-11-02 | 2023-12-04 | 코어포토닉스 리미티드 | 컴팩트형 더블 폴디드 텔레 카메라 |
US12008681B2 (en) * | 2022-04-07 | 2024-06-11 | Gm Technology Operations Llc | Systems and methods for testing vehicle systems |
US11785323B1 (en) | 2022-05-27 | 2023-10-10 | Samsung Electronics Co., Ltd. | Camera module including refractive member and electronic device including refractive member |
Family Cites Families (287)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3698803A (en) | 1970-09-09 | 1972-10-17 | Midori Kai Co Ltd | Camera for taking hemispherical motion picture |
US4114171A (en) | 1976-04-06 | 1978-09-12 | Vivitar Corporation | Reflex camera with internal zoom lens |
US4437745A (en) | 1982-09-30 | 1984-03-20 | Stephen Hajnal | Three dimensional camera system |
GB8430980D0 (en) | 1984-12-07 | 1985-01-16 | Robinson M | Generation of apparently three-dimensional images |
US4639586A (en) | 1985-02-06 | 1987-01-27 | The United States Of America As Represented By The Secretary Of The Air Force | Optically phased laser transmitter |
US4740780A (en) | 1985-06-24 | 1988-04-26 | Gec Avionics, Inc. | Head-up display for automobile |
US5214462A (en) | 1986-05-12 | 1993-05-25 | Asahi Kogaku Kogyo Kabushiki Kaisha | Lens shutter camera including zoom lens and barrier mechanisms |
US6031892A (en) | 1989-12-05 | 2000-02-29 | University Of Massachusetts Medical Center | System for quantitative radiographic imaging |
JPH04114574A (ja) * | 1990-09-04 | 1992-04-15 | Ricoh Co Ltd | 撮像装置 |
US5194959A (en) | 1989-12-21 | 1993-03-16 | Ricoh Company, Ltd. and Nippon Telegraph and Telephone Corporation | Image forming apparatus for forming image corresponding to subject, by dividing optical image corresponding to the subject into plural adjacent optical image parts |
US5016109A (en) | 1990-07-02 | 1991-05-14 | Bell South Corporation | Apparatus and method for segmenting a field of view into contiguous, non-overlapping, vertical and horizontal sub-fields |
US5063441A (en) | 1990-10-11 | 1991-11-05 | Stereographics Corporation | Stereoscopic video cameras with image sensors having variable effective position |
US5142357A (en) | 1990-10-11 | 1992-08-25 | Stereographics Corp. | Stereoscopic video camera with image sensors having variable effective position |
US5207000A (en) | 1991-06-14 | 1993-05-04 | Industrial Technology Research Institute | Method and apparatus useful for determining an angle between a virtual optical axis and a planar surface |
US5231461A (en) | 1991-12-09 | 1993-07-27 | Hughes Danbury Optical Systems, Inc. | Solar monochromator for filter calibration |
US5926411A (en) | 1991-12-30 | 1999-07-20 | Ioptics Incorporated | Optical random access memory |
US5686960A (en) | 1992-01-14 | 1997-11-11 | Michael Sussman | Image input device having optical deflection elements for capturing multiple sub-images |
US5235656A (en) * | 1992-01-24 | 1993-08-10 | Grumman Aerospace Corporation | Variable spatial resolution focal plane |
DE4212271C1 (es) | 1992-04-11 | 1993-07-08 | Deutsche Forschungsanstalt Fuer Luft- Und Raumfahrt E.V., 5300 Bonn, De | |
US5243413A (en) | 1992-09-02 | 1993-09-07 | At&T Bell Laboratories | Color parallax-free camera and display |
US5313542A (en) | 1992-11-30 | 1994-05-17 | Breault Research Organization, Inc. | Apparatus and method of rapidly measuring hemispherical scattered or radiated light |
EP0610605B1 (en) | 1993-02-11 | 1997-07-16 | Agfa-Gevaert N.V. | Method of recognising an irradiation field |
US5586063A (en) | 1993-09-01 | 1996-12-17 | Hardin; Larry C. | Optical range and speed detection system |
US5614941A (en) | 1993-11-24 | 1997-03-25 | Hines; Stephen P. | Multi-image autostereoscopic imaging system |
GB2284273B (en) | 1993-11-29 | 1997-01-08 | Hadland Photonics Limited | Electronic high speed camera incorporating a beam splitter |
JPH089424A (ja) | 1994-06-20 | 1996-01-12 | Sanyo Electric Co Ltd | 立体画像撮像制御装置 |
JP3186448B2 (ja) | 1994-08-01 | 2001-07-11 | ミノルタ株式会社 | 立体テレビカメラ |
JP3458486B2 (ja) | 1994-10-25 | 2003-10-20 | 松下電器産業株式会社 | 全方位撮影装置及び全方位画像合成装置 |
KR100235343B1 (ko) | 1994-12-29 | 1999-12-15 | 전주범 | 영역분할 기법을 이용한 동영상신호 부호화기의 움직임 벡터 측정장치 |
JPH08194274A (ja) | 1995-01-13 | 1996-07-30 | Olympus Optical Co Ltd | 立体撮像装置 |
US5606627A (en) | 1995-01-24 | 1997-02-25 | Eotek Inc. | Automated analytic stereo comparator |
US5745305A (en) | 1995-04-28 | 1998-04-28 | Lucent Technologies Inc. | Panoramic viewing apparatus |
US5990934A (en) | 1995-04-28 | 1999-11-23 | Lucent Technologies, Inc. | Method and system for panoramic viewing |
US5793527A (en) * | 1995-06-30 | 1998-08-11 | Lucent Technologies Inc. | High resolution viewing system |
US5539483A (en) | 1995-06-30 | 1996-07-23 | At&T Corp. | Panoramic projection apparatus |
US5903306A (en) | 1995-08-16 | 1999-05-11 | Westinghouse Savannah River Company | Constrained space camera assembly |
US6115176A (en) | 1995-11-30 | 2000-09-05 | Lucent Technologies Inc. | Spherical viewing/projection apparatus |
US6111702A (en) | 1995-11-30 | 2000-08-29 | Lucent Technologies Inc. | Panoramic viewing system with offset virtual optical centers |
US6141034A (en) | 1995-12-15 | 2000-10-31 | Immersive Media Co. | Immersive imaging method and apparatus |
US5640222A (en) | 1996-03-15 | 1997-06-17 | Paul; Eddie | Method and apparatus for producing stereoscopic images |
US6850279B1 (en) | 1996-06-18 | 2005-02-01 | Sony Corporation | Optical image recording system, and associated processing system |
US5721585A (en) | 1996-08-08 | 1998-02-24 | Keast; Jeffrey D. | Digital video panoramic image capture and display system |
AU6515798A (en) | 1997-04-16 | 1998-11-11 | Isight Ltd. | Video teleconferencing |
US7028899B2 (en) | 1999-06-07 | 2006-04-18 | Metrologic Instruments, Inc. | Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target |
DE19903807A1 (de) | 1998-05-05 | 1999-11-11 | Zeiss Carl Fa | Beleuchtungssystem insbesondere für die EUV-Lithographie |
US6144501A (en) | 1998-08-28 | 2000-11-07 | Lucent Technologies Inc. | Split mirrored panoramic image display |
US6195204B1 (en) | 1998-08-28 | 2001-02-27 | Lucent Technologies Inc. | Compact high resolution panoramic viewing system |
US6285365B1 (en) | 1998-08-28 | 2001-09-04 | Fullview, Inc. | Icon referenced panoramic image display |
US6128143A (en) | 1998-08-28 | 2000-10-03 | Lucent Technologies Inc. | Panoramic viewing system with support stand |
US6141145A (en) | 1998-08-28 | 2000-10-31 | Lucent Technologies | Stereo panoramic viewing system |
US6992700B1 (en) | 1998-09-08 | 2006-01-31 | Ricoh Company, Ltd. | Apparatus for correction based upon detecting a camera shaking |
US7271803B2 (en) | 1999-01-08 | 2007-09-18 | Ricoh Company, Ltd. | Method and system for simulating stereographic vision |
US6611289B1 (en) | 1999-01-15 | 2003-08-26 | Yanbin Yu | Digital cameras using multiple sensors with multiple lenses |
US6870680B2 (en) | 2001-08-17 | 2005-03-22 | Sony Corporation | Imaging device |
US7015954B1 (en) | 1999-08-09 | 2006-03-21 | Fuji Xerox Co., Ltd. | Automatic video system using multiple cameras |
GB2354389A (en) | 1999-09-15 | 2001-03-21 | Sharp Kk | Stereo images with comfortable perceived depth |
GB2354390A (en) | 1999-09-16 | 2001-03-21 | Ibm | Wide-angle image capture apparatus |
US6650774B1 (en) | 1999-10-01 | 2003-11-18 | Microsoft Corporation | Locally adapted histogram equalization |
US6862364B1 (en) | 1999-10-27 | 2005-03-01 | Canon Kabushiki Kaisha | Stereo image processing for radiography |
US6782137B1 (en) | 1999-11-24 | 2004-08-24 | General Electric Company | Digital image display improvement system and method |
JP2001194114A (ja) | 2000-01-14 | 2001-07-19 | Sony Corp | 画像処理装置および画像処理方法、並びにプログラム提供媒体 |
JP2001209037A (ja) | 2000-01-26 | 2001-08-03 | Olympus Optical Co Ltd | 可変ホログラム素子及びそれらを用いた光学装置 |
US6823021B1 (en) | 2000-10-27 | 2004-11-23 | Greenwich Technologies Associates | Method and apparatus for space division multiple access receiver |
US6701081B1 (en) | 2000-06-06 | 2004-03-02 | Air Controls, Inc. | Dual camera mount for stereo imaging |
US6768509B1 (en) | 2000-06-12 | 2004-07-27 | Intel Corporation | Method and apparatus for determining points of interest on an image of a camera calibration object |
WO2002027372A2 (en) | 2000-07-14 | 2002-04-04 | Applied Wdm, Inc. | Optical waveguide transmission devices |
JP2002040584A (ja) | 2000-07-28 | 2002-02-06 | Hamamatsu Photonics Kk | 高速撮像カメラ |
IL139995A (en) | 2000-11-29 | 2007-07-24 | Rvc Llc | System and method for spherical stereoscopic photographing |
EP1231780A3 (en) | 2001-02-07 | 2004-01-14 | Sony Corporation | Image pickup apparatus |
JP2002277736A (ja) | 2001-03-21 | 2002-09-25 | Olympus Optical Co Ltd | 撮像装置 |
US6421185B1 (en) | 2001-04-16 | 2002-07-16 | The United States Of America As Represented By The Secretary Of The Air Force | Wide field-of-view imaging system using a spatial light modulator |
US6628897B2 (en) | 2001-06-20 | 2003-09-30 | Sony Corporation | Camera system |
US20030038814A1 (en) | 2001-08-27 | 2003-02-27 | Blume Leo R. | Virtual camera system for environment capture |
US7116351B2 (en) | 2001-10-29 | 2006-10-03 | Sony Corporation | Imaging device |
JP4198449B2 (ja) | 2002-02-22 | 2008-12-17 | 富士フイルム株式会社 | デジタルカメラ |
JP2003260025A (ja) | 2002-03-08 | 2003-09-16 | Olympus Optical Co Ltd | カプセル型内視鏡 |
US6768598B2 (en) | 2002-04-02 | 2004-07-27 | Sony Corporation | Image pickup system |
US6861633B2 (en) | 2002-06-20 | 2005-03-01 | The Aerospace Corporation | Microelectromechanical system optical sensor providing bit image data of a viewed image |
US7298392B2 (en) * | 2003-06-26 | 2007-11-20 | Microsoft Corp. | Omni-directional camera design for video conferencing |
US7209161B2 (en) | 2002-07-15 | 2007-04-24 | The Boeing Company | Method and apparatus for aligning a pair of digital cameras forming a three dimensional image to compensate for a physical misalignment of cameras |
JP2004072349A (ja) | 2002-08-05 | 2004-03-04 | Canon Inc | 撮像装置、及びその制御方法 |
US7893957B2 (en) | 2002-08-28 | 2011-02-22 | Visual Intelligence, LP | Retinal array compound camera system |
JP2004260787A (ja) * | 2002-09-09 | 2004-09-16 | Rohm Co Ltd | イメージセンサモジュール |
US7084904B2 (en) | 2002-09-30 | 2006-08-01 | Microsoft Corporation | Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time |
JP2004170479A (ja) * | 2002-11-18 | 2004-06-17 | Olympus Corp | 撮像装置及びその制御方法 |
WO2004061485A2 (en) | 2003-01-02 | 2004-07-22 | Covi Technologies, Inc. | Optical block assembly |
JP2004239989A (ja) * | 2003-02-04 | 2004-08-26 | Hitachi Ltd | 広視野角画像撮影装置 |
US6933493B2 (en) | 2003-04-07 | 2005-08-23 | Kingpak Technology Inc. | Image sensor having a photosensitive chip mounted to a metal sheet |
IL155525A0 (en) | 2003-04-21 | 2009-02-11 | Yaron Mayer | System and method for 3d photography and/or analysis of 3d images and/or display of 3d images |
JP3709879B2 (ja) | 2003-05-01 | 2005-10-26 | 日産自動車株式会社 | ステレオ画像処理装置 |
US7463280B2 (en) | 2003-06-03 | 2008-12-09 | Steuart Iii Leonard P | Digital 3D/360 degree camera system |
WO2004109359A1 (ja) | 2003-06-09 | 2004-12-16 | Olympus Corporation | 可変ミラー |
JP2005003385A (ja) * | 2003-06-09 | 2005-01-06 | Mitsutoyo Corp | 画像測定方法、および画像測定装置 |
US6809887B1 (en) | 2003-06-13 | 2004-10-26 | Vision Technologies, Inc | Apparatus and method for acquiring uniform-resolution panoramic images |
JP4233394B2 (ja) * | 2003-06-17 | 2009-03-04 | オリンパス株式会社 | レンズ装置及びそれを用いたデジタルカメラ |
US7495694B2 (en) * | 2004-07-28 | 2009-02-24 | Microsoft Corp. | Omni-directional camera with calibration and up look angle improvements |
US7336299B2 (en) | 2003-07-03 | 2008-02-26 | Physical Optics Corporation | Panoramic video system with real-time distortion-free imaging |
KR100541028B1 (ko) | 2003-07-21 | 2006-01-11 | 주식회사 옵토메카 | 이미지 센서 및 그 제조 방법 |
US20050057659A1 (en) | 2003-09-16 | 2005-03-17 | Takami Hasegawa | Camera image shake correcting device |
US7028546B2 (en) | 2003-10-21 | 2006-04-18 | Instrumented Sensor Technology, Inc. | Data recorder |
US20050111106A1 (en) | 2003-10-31 | 2005-05-26 | Kazuhiro Matsumoto | Optical element assembly formed of multiple optical elements such as prisms, and image pickup apparatus using the same in image pickup function section |
CN100504452C (zh) | 2004-02-19 | 2009-06-24 | 佳能株式会社 | 光学设备和光束分离器 |
US20050185711A1 (en) | 2004-02-20 | 2005-08-25 | Hanspeter Pfister | 3D television system and method |
GB0406730D0 (en) | 2004-03-25 | 2004-04-28 | 1 Ltd | Focussing method |
US7593057B2 (en) | 2004-07-28 | 2009-09-22 | Microsoft Corp. | Multi-view integrated camera system with housing |
EP1784988A1 (en) | 2004-08-06 | 2007-05-16 | University of Washington | Variable fixation viewing distance scanned light displays |
EP1812968B1 (en) | 2004-08-25 | 2019-01-16 | Callahan Cellular L.L.C. | Apparatus for multiple camera devices and method of operating same |
US7039292B1 (en) | 2004-09-09 | 2006-05-02 | Rockwell Collins, Inc. | Optical system for vehicle flight control |
DE102004045430A1 (de) | 2004-09-18 | 2006-05-18 | Deutsche Telekom Ag | Vorrichtung zur Bildstabilisierung |
JP3791847B1 (ja) | 2005-08-10 | 2006-06-28 | 京セラ株式会社 | カメラモジュールおよび該カメラモジュールを搭載した情報端末 |
US20080001727A1 (en) | 2004-11-15 | 2008-01-03 | Hitachi, Ltd. | Stereo Camera |
US7372996B2 (en) | 2004-12-27 | 2008-05-13 | Trw Automotive U.S. Llc | Method and apparatus for determining the position of a vehicle seat |
JP4742190B2 (ja) | 2005-01-13 | 2011-08-10 | 国立大学法人 奈良先端科学技術大学院大学 | 3次元オブジェクト計測装置 |
US7512262B2 (en) | 2005-02-25 | 2009-03-31 | Microsoft Corporation | Stereo-based image processing |
JP4177826B2 (ja) | 2005-03-23 | 2008-11-05 | 株式会社東芝 | 画像処理装置および画像処理方法 |
US20060215054A1 (en) | 2005-03-23 | 2006-09-28 | Eastman Kodak Company | Wide angle camera with prism array |
JP2006279538A (ja) | 2005-03-29 | 2006-10-12 | Sony Corp | 撮像装置 |
US20060238441A1 (en) | 2005-04-25 | 2006-10-26 | The Boeing Company | Method and apparatus for displaying a stereoscopic image |
US20070102622A1 (en) | 2005-07-01 | 2007-05-10 | Olsen Richard I | Apparatus for multiple camera devices and method of operating same |
US20090268983A1 (en) | 2005-07-25 | 2009-10-29 | The Regents Of The University Of California | Digital imaging system and method using multiple digital image sensors to produce large high-resolution gapless mosaic images |
JP5364965B2 (ja) | 2005-07-26 | 2013-12-11 | コニカミノルタ株式会社 | 撮像光学系、撮像レンズ装置及びデジタル機器 |
JP2007081473A (ja) | 2005-09-09 | 2007-03-29 | Eastman Kodak Co | 複数光学系を有する撮像装置 |
US20070085903A1 (en) | 2005-10-17 | 2007-04-19 | Via Technologies, Inc. | 3-d stereoscopic image display system |
US20070164202A1 (en) | 2005-11-16 | 2007-07-19 | Wurz David A | Large depth of field line scan camera |
JP4979928B2 (ja) | 2005-11-28 | 2012-07-18 | 株式会社トプコン | 三次元形状演算装置及び三次元形状演算方法 |
US7215479B1 (en) | 2006-02-10 | 2007-05-08 | Micron Technology, Inc. | Integrated lens system for image sensor and method for manufacturing the same |
GB2435360B (en) | 2006-02-16 | 2009-09-23 | Imagination Tech Ltd | Method and apparatus for determining motion between video images |
JP4844177B2 (ja) | 2006-03-07 | 2011-12-28 | 株式会社ニコン | ブレ補正装置及びカメラ |
JP2007274542A (ja) | 2006-03-31 | 2007-10-18 | Sony Corp | 撮像装置および携帯電話機 |
CN101055342A (zh) | 2006-04-12 | 2007-10-17 | 鸿富锦精密工业(深圳)有限公司 | 自动对焦镜头模组 |
US8433157B2 (en) | 2006-05-04 | 2013-04-30 | Thomson Licensing | System and method for three-dimensional object reconstruction from two-dimensional images |
CN101433077B (zh) | 2006-05-05 | 2011-03-23 | 诺基亚公司 | 具有小高度和高分辨率的光学图像记录设备 |
JP4972779B2 (ja) | 2006-05-30 | 2012-07-11 | コニカミノルタアドバンストレイヤー株式会社 | 光学ユニットおよび撮像装置 |
JP5067021B2 (ja) | 2006-06-01 | 2012-11-07 | 富士ゼロックス株式会社 | 画像形成装置、画像形成装置の組立方法及び解体方法並びに画像形成装置に用いられる仮止め部材 |
JP4851239B2 (ja) | 2006-06-05 | 2012-01-11 | 株式会社トプコン | 画像処理装置及びその処理方法 |
JP2008048293A (ja) | 2006-08-18 | 2008-02-28 | Kyocera Corp | 撮像装置、およびその製造方法 |
US20080058629A1 (en) | 2006-08-21 | 2008-03-06 | University Of Washington | Optical fiber scope with both non-resonant illumination and resonant collection/imaging for multiple modes of operation |
DE102006044786A1 (de) | 2006-09-14 | 2008-03-27 | Schefenacker Vision Systems Germany Gmbh | Kamerasystem, Verfahren zum Betreiben eines Kamerasystems und Sensoreinrichtung eines Kamerasystems |
EP1912098B1 (en) | 2006-10-12 | 2012-04-25 | Carl Zeiss SMT GmbH | Unit magnification projection objective |
US7817354B2 (en) | 2006-10-25 | 2010-10-19 | Capsovision Inc. | Panoramic imaging system |
JP5040493B2 (ja) | 2006-12-04 | 2012-10-03 | ソニー株式会社 | 撮像装置及び撮像方法 |
JP4917060B2 (ja) | 2007-02-26 | 2012-04-18 | Hoya株式会社 | 撮像ユニット及び携帯用電子機器 |
US7683962B2 (en) | 2007-03-09 | 2010-03-23 | Eastman Kodak Company | Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map |
US8356035B1 (en) | 2007-04-10 | 2013-01-15 | Google Inc. | Association of terms with images using image similarity |
JP4582423B2 (ja) | 2007-04-20 | 2010-11-17 | 富士フイルム株式会社 | 撮像装置、画像処理装置、撮像方法、及び画像処理方法 |
JP5013078B2 (ja) | 2007-04-24 | 2012-08-29 | コニカミノルタアドバンストレイヤー株式会社 | レンズ鏡胴及び撮像装置 |
US20080290435A1 (en) | 2007-05-21 | 2008-11-27 | Micron Technology, Inc. | Wafer level lens arrays for image sensor packages and the like, image sensor packages, and related methods |
JP2008294819A (ja) | 2007-05-25 | 2008-12-04 | Sony Corp | 撮像装置 |
US20090003646A1 (en) | 2007-06-29 | 2009-01-01 | The Hong Kong University Of Science And Technology | Lossless visible watermarking |
US20090005112A1 (en) | 2007-06-29 | 2009-01-01 | Samsung Electronics Co., Ltd. | Optical imaging system configurations for handheld devices |
JPWO2009011153A1 (ja) | 2007-07-13 | 2010-09-16 | 三菱電機株式会社 | 画像読取装置 |
JP4900118B2 (ja) | 2007-07-31 | 2012-03-21 | コニカミノルタオプト株式会社 | カメラモジュールおよび電子機器 |
TWI383666B (zh) | 2007-08-21 | 2013-01-21 | Sony Taiwan Ltd | 多重鏡頭相機系統之先進式動態接圖方法 |
JP5000428B2 (ja) | 2007-08-22 | 2012-08-15 | Hoya株式会社 | 撮像装置 |
US7973834B2 (en) | 2007-09-24 | 2011-07-05 | Jianwen Yang | Electro-optical foveated imaging and tracking system |
KR20090032261A (ko) | 2007-09-27 | 2009-04-01 | 삼성전자주식회사 | 움직임 추정에 기초하여 움직임 보상을 수행하는 영상 처리장치 및 그 방법 |
JP5152483B2 (ja) | 2007-10-05 | 2013-02-27 | ソニー株式会社 | 撮像装置 |
EP2208354A4 (en) | 2007-10-10 | 2010-12-22 | Gerard Dirk Smits | IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING |
RU2497196C2 (ru) | 2007-10-11 | 2013-10-27 | Конинклейке Филипс Электроникс Н.В. | Способ и устройство для обработки карты глубины |
US20100259655A1 (en) | 2007-11-01 | 2010-10-14 | Konica Minolta Holdings, Inc. | Imaging device |
KR100927347B1 (ko) | 2007-11-13 | 2009-11-24 | 파워옵틱스 주식회사 | 줌렌즈 광학계 |
US8791984B2 (en) | 2007-11-16 | 2014-07-29 | Scallop Imaging, Llc | Digital security camera |
CN100465699C (zh) | 2007-12-05 | 2009-03-04 | 浙江大学 | 利用棱镜分光渐晕补偿实现多ccd无缝拼接的光电系统 |
KR101349589B1 (ko) | 2007-12-13 | 2014-01-10 | 엘지이노텍 주식회사 | 카메라 모듈 |
US8300086B2 (en) | 2007-12-20 | 2012-10-30 | Nokia Corporation | Image processing for supporting a stereoscopic presentation |
US20090185067A1 (en) | 2007-12-21 | 2009-07-23 | Stereo Display, Inc. | Compact automatic focusing camera |
WO2009088930A2 (en) | 2008-01-02 | 2009-07-16 | The Regents Of The University Of California | High numerical aperture telemicroscopy apparatus |
US7978222B2 (en) | 2008-03-01 | 2011-07-12 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Systems and methods for image stabilization |
WO2009111642A1 (en) | 2008-03-05 | 2009-09-11 | Contrast Optical Design & Engineering, Inc. | Multiple image camera and lens system |
US20110043623A1 (en) | 2008-03-26 | 2011-02-24 | Konica Minolta Opto, Inc. | Imaging device |
JP5786149B2 (ja) | 2008-03-28 | 2015-09-30 | ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク | 汎用的に詰め合わせたピクセル配列のカメラシステムおよび方法 |
CN101571666A (zh) | 2008-04-28 | 2009-11-04 | 鸿富锦精密工业(深圳)有限公司 | 成像设备 |
US8280194B2 (en) | 2008-04-29 | 2012-10-02 | Sony Corporation | Reduced hardware implementation for a two-picture depth map algorithm |
US9001187B2 (en) | 2009-05-11 | 2015-04-07 | CapsoVision, Inc. | Capsule imaging system having a folded optical axis |
US9171221B2 (en) | 2010-07-18 | 2015-10-27 | Spatial Cam Llc | Camera to track an object |
CN102047651B (zh) | 2008-06-02 | 2013-03-13 | 松下电器产业株式会社 | 生成法线信息的图像处理装置、方法及视点变换图像生成装置 |
JP5223486B2 (ja) | 2008-06-18 | 2013-06-26 | ソニー株式会社 | 電子双眼鏡 |
KR101567107B1 (ko) | 2008-07-24 | 2015-11-06 | 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 | 카메라 구동 장치 |
JP2010041381A (ja) | 2008-08-05 | 2010-02-18 | Nikon Corp | 電子カメラ、ステレオ画像生成方法およびステレオ画像生成システム |
KR100942925B1 (ko) | 2008-08-11 | 2010-02-22 | 한국전자통신연구원 | 스테레오 비전 시스템 및 그 제어방법 |
US8451318B2 (en) | 2008-08-14 | 2013-05-28 | Remotereality Corporation | Three-mirror panoramic camera |
TWI419551B (zh) | 2008-08-22 | 2013-12-11 | 固態全景影像擷取裝置 | |
JP2010067014A (ja) | 2008-09-11 | 2010-03-25 | Ricoh Co Ltd | 画像分類装置及び画像分類方法 |
WO2010035223A1 (en) | 2008-09-25 | 2010-04-01 | Koninklijke Philips Electronics N.V. | Three dimensional image data processing |
CN102177465B (zh) | 2008-10-14 | 2014-06-18 | 日本电产三协株式会社 | 摄影用光学装置 |
US8267601B2 (en) | 2008-11-04 | 2012-09-18 | James Cameron | Platform for stereoscopy for hand-held film/video camera stabilizers |
JP4852591B2 (ja) | 2008-11-27 | 2012-01-11 | 富士フイルム株式会社 | 立体画像処理装置、方法及び記録媒体並びに立体撮像装置 |
CN101770059B (zh) | 2008-12-27 | 2012-06-20 | 鸿富锦精密工业(深圳)有限公司 | 相机模组 |
US9395617B2 (en) | 2009-01-05 | 2016-07-19 | Applied Quantum Technologies, Inc. | Panoramic multi-scale imager and method therefor |
US8326036B2 (en) | 2009-02-20 | 2012-12-04 | Qylur Security Systems, Inc. | Automated image separation method |
GB0903689D0 (en) | 2009-03-03 | 2009-04-15 | Sigmavision Ltd | Vehicle tyre measurement |
JP5316118B2 (ja) | 2009-03-12 | 2013-10-16 | オムロン株式会社 | 3次元視覚センサ |
JP2010230879A (ja) * | 2009-03-26 | 2010-10-14 | Fujifilm Corp | 複眼カメラ装置 |
US20100265313A1 (en) | 2009-04-17 | 2010-10-21 | Sony Corporation | In-camera generation of high quality composite panoramic images |
US20100278423A1 (en) | 2009-04-30 | 2010-11-04 | Yuji Itoh | Methods and systems for contrast enhancement |
US8503778B2 (en) | 2009-05-14 | 2013-08-06 | National University Of Singapore | Enhancing photograph visual quality using texture and contrast data from near infra-red images |
US8170408B2 (en) | 2009-05-18 | 2012-05-01 | Invensense, Inc. | Optical image stabilization in a digital still camera or handset |
US8194170B2 (en) | 2009-06-02 | 2012-06-05 | Algonquin College | Axicon lens array |
US9124874B2 (en) | 2009-06-05 | 2015-09-01 | Qualcomm Incorporated | Encoding of three-dimensional conversion information with two-dimensional video sequence |
US8405750B2 (en) | 2009-06-08 | 2013-03-26 | Aptina Imaging Corporation | Image sensors and image reconstruction methods for capturing high dynamic range images |
US9479768B2 (en) | 2009-06-09 | 2016-10-25 | Bartholomew Garibaldi Yukich | Systems and methods for creating three-dimensional image media |
CN101581828B (zh) | 2009-06-09 | 2011-06-22 | 苏州大学 | 环形孔径超薄光学成像系统 |
JP5293463B2 (ja) | 2009-07-09 | 2013-09-18 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
US8228417B1 (en) | 2009-07-15 | 2012-07-24 | Adobe Systems Incorporated | Focused plenoptic camera employing different apertures or filtering at different microlenses |
JP5450200B2 (ja) | 2009-07-17 | 2014-03-26 | 富士フイルム株式会社 | 撮像装置、方法およびプログラム |
CN101646022B (zh) * | 2009-09-04 | 2011-11-16 | 华为终端有限公司 | 一种图像拼接的方法、系统 |
US8294073B1 (en) | 2009-10-01 | 2012-10-23 | Raytheon Company | High angular rate imaging system and related techniques |
US9063345B2 (en) | 2009-10-19 | 2015-06-23 | Pixar | Super light-field lens with doublet lenslet array element |
JP5539818B2 (ja) | 2009-10-20 | 2014-07-02 | 富士フイルム株式会社 | 撮像レンズおよび撮像装置 |
US8325187B2 (en) | 2009-10-22 | 2012-12-04 | Samsung Electronics Co., Ltd. | Method and device for real time 3D navigation in panoramic images and cylindrical spaces |
US8457398B2 (en) | 2009-10-27 | 2013-06-04 | Himax Media Solutions, Inc. | Image enhancement method and apparatuses utilizing the same |
WO2011063347A2 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
WO2011066275A2 (en) | 2009-11-25 | 2011-06-03 | Massachusetts Institute Of Technology | Actively addressable aperture light field camera |
US8400555B1 (en) | 2009-12-01 | 2013-03-19 | Adobe Systems Incorporated | Focused plenoptic camera employing microlenses with different focal lengths |
US9030530B2 (en) | 2009-12-15 | 2015-05-12 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
US8442392B2 (en) | 2009-12-22 | 2013-05-14 | Nokia Corporation | Method and apparatus for operating the automatic focus or the optical imaging stabilizing system |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US9128281B2 (en) | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
WO2011132364A1 (ja) | 2010-04-19 | 2011-10-27 | パナソニック株式会社 | 立体画像撮影装置および立体画像撮影方法 |
JP5593118B2 (ja) | 2010-04-30 | 2014-09-17 | 日本電産サンキョー株式会社 | 振れ補正機能付き光学ユニット |
JP5622443B2 (ja) | 2010-06-08 | 2014-11-12 | 日本電産サンキョー株式会社 | 振れ補正機能付き光学ユニット |
US20130076924A1 (en) | 2010-06-08 | 2013-03-28 | Nidec Sankyo Corporation | Shake Correction Device, Photographic Optical Device and Lens Drive Device |
JP5138734B2 (ja) | 2010-06-15 | 2013-02-06 | シャープ株式会社 | 撮像レンズ、および撮像モジュール |
US9485495B2 (en) | 2010-08-09 | 2016-11-01 | Qualcomm Incorporated | Autofocus for stereo images |
TWI409577B (zh) | 2010-08-20 | 2013-09-21 | Primax Electronics Ltd | 光學影像系統 |
US20120056987A1 (en) | 2010-09-03 | 2012-03-08 | Luke Fedoroff | 3d camera system and method |
JP5392415B2 (ja) * | 2010-09-22 | 2014-01-22 | 富士通株式会社 | ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム |
CN103339918B (zh) | 2010-10-01 | 2016-05-04 | 康泰克斯有限公司 | 图像传感器的信号强度匹配 |
EP2649558A4 (en) | 2010-12-09 | 2017-08-09 | Nanyang Technological University | Method and an apparatus for determining vein patterns from a colour image |
JP5716465B2 (ja) | 2011-03-09 | 2015-05-13 | ソニー株式会社 | 撮像装置 |
US9197798B2 (en) | 2011-03-25 | 2015-11-24 | Adobe Systems Incorporated | Thin plenoptic cameras using microspheres |
US9172856B2 (en) | 2011-03-29 | 2015-10-27 | Microsoft Technology Licensing, Llc | Folded imaging path camera |
US8928988B1 (en) | 2011-04-01 | 2015-01-06 | The Regents Of The University Of California | Monocentric imaging |
WO2012136388A1 (en) | 2011-04-08 | 2012-10-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Capturing panoramic or semi-panoramic 3d scenes |
US20120293607A1 (en) | 2011-05-17 | 2012-11-22 | Apple Inc. | Panorama Processing |
CN103597810B (zh) | 2011-05-27 | 2017-02-15 | 诺基亚技术有限公司 | 图像拼接 |
CN103609102B (zh) | 2011-06-15 | 2016-09-28 | 微软技术许可有限责任公司 | 高分辨率多光谱图像捕捉 |
TWI507807B (zh) | 2011-06-24 | 2015-11-11 | Mstar Semiconductor Inc | 自動對焦方法與裝置 |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
US8896890B2 (en) | 2011-06-30 | 2014-11-25 | Lexmark International, Inc. | Image capture system having a folded optical path |
JP5848052B2 (ja) | 2011-07-21 | 2016-01-27 | 日本電産サンキョー株式会社 | 振れ補正機能付き光学ユニット |
US8784301B2 (en) | 2011-08-12 | 2014-07-22 | Intuitive Surgical Operations, Inc. | Image capture unit and method with an extended depth of field |
US8988564B2 (en) | 2011-09-09 | 2015-03-24 | Apple Inc. | Digital camera with light splitter |
US9438889B2 (en) | 2011-09-21 | 2016-09-06 | Qualcomm Incorporated | System and method for improving methods of manufacturing stereoscopic image sensors |
US8855476B2 (en) | 2011-09-28 | 2014-10-07 | DigitalOptics Corporation MEMS | MEMS-based optical image stabilization |
WO2013059399A1 (en) | 2011-10-20 | 2013-04-25 | Monsanto Technology Llc | Plant stand counter |
US9692991B2 (en) | 2011-11-04 | 2017-06-27 | Qualcomm Incorporated | Multispectral imaging system |
CN102523382B (zh) * | 2011-11-29 | 2014-12-31 | 苏州生物医学工程技术研究所 | 一种用于目标跟踪系统的提高跟踪精度的方法 |
US8582220B2 (en) | 2011-12-05 | 2013-11-12 | Himax Technologies Limited | Lens module |
CN202405984U (zh) | 2011-12-10 | 2012-08-29 | 东莞市旭业光电科技有限公司 | 一种用于音圈马达的垫片 |
KR101975893B1 (ko) | 2012-03-21 | 2019-09-10 | 엘지이노텍 주식회사 | 카메라 모듈 |
US9210405B2 (en) | 2012-03-22 | 2015-12-08 | Qualcomm Technologies, Inc. | System and method for real time 2D to 3D conversion of video in a digital camera |
KR101818778B1 (ko) | 2012-03-23 | 2018-01-16 | 한국전자통신연구원 | 실감 파노라마 영상 생성을 위한 3d 데이터 포맷 생성/소비 장치 및 방법 |
US20130260823A1 (en) | 2012-03-31 | 2013-10-03 | Ashutosh Y. Shukla | Compact Portable Electronic Device Having Augmented Back Volume for Speaker |
NL2008639C2 (en) | 2012-04-13 | 2013-10-16 | Cyclomedia Technology B V | Device, system and vehicle for recording panoramic images, and a device and method for panoramic projection thereof. |
JP2013238848A (ja) | 2012-04-20 | 2013-11-28 | Hoya Corp | 撮像装置 |
CN103428521A (zh) * | 2012-05-25 | 2013-12-04 | 北京新岸线移动多媒体技术有限公司 | 一种3d摄像附加镜头和3d摄像头 |
EP2677733A3 (en) | 2012-06-18 | 2015-12-09 | Sony Mobile Communications AB | Array camera imaging system and method |
EP2677734A3 (en) | 2012-06-18 | 2016-01-13 | Sony Mobile Communications AB | Array camera imaging system and method |
US9134503B2 (en) | 2012-07-06 | 2015-09-15 | Apple Inc. | VCM OIS actuator module |
US9634051B2 (en) | 2012-07-17 | 2017-04-25 | Heptagon Micro Optics Pte. Ltd. | Optical devices, in particular computational cameras, and methods for manufacturing the same |
KR101448494B1 (ko) | 2012-08-08 | 2014-10-15 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | Hdr 이미지들을 위한 이미지 프로세싱 |
US9398264B2 (en) * | 2012-10-19 | 2016-07-19 | Qualcomm Incorporated | Multi-camera system using folded optics |
JP2014112302A (ja) | 2012-12-05 | 2014-06-19 | Ricoh Co Ltd | 所定領域管理システム、通信方法、及びプログラム |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
WO2014107634A2 (en) | 2013-01-05 | 2014-07-10 | Tinz Optics, Inc. | Methods and apparatus relating to the use of multipe optical chains |
US9171355B2 (en) | 2013-04-12 | 2015-10-27 | Qualcomm Incorporated | Near infrared guided image denoising |
JP2015036716A (ja) | 2013-08-12 | 2015-02-23 | ソニー株式会社 | 像ぶれ補正装置及び撮像装置 |
US10178373B2 (en) | 2013-08-16 | 2019-01-08 | Qualcomm Incorporated | Stereo yaw correction using autofocus feedback |
US9223118B2 (en) | 2013-10-31 | 2015-12-29 | Apple Inc. | Small form factor telephoto camera |
CN203745777U (zh) | 2014-01-10 | 2014-07-30 | 瑞声声学科技(深圳)有限公司 | 阵列式镜头装置 |
US10015391B2 (en) | 2014-02-13 | 2018-07-03 | Sony Mobile Communications Inc. | Method and system for adjusting camera settings using corneal reflection |
US9316810B2 (en) | 2014-03-07 | 2016-04-19 | Apple Inc. | Folded telephoto camera lens system |
US9557627B2 (en) | 2014-03-07 | 2017-01-31 | Apple Inc. | Folded camera lens systems |
US9374516B2 (en) | 2014-04-04 | 2016-06-21 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
US9383550B2 (en) | 2014-04-04 | 2016-07-05 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
US10013764B2 (en) | 2014-06-19 | 2018-07-03 | Qualcomm Incorporated | Local adaptive histogram equalization |
US20150373269A1 (en) | 2014-06-20 | 2015-12-24 | Qualcomm Incorporated | Parallax free thin multi-camera system capable of capturing full wide field of view images |
US9819863B2 (en) | 2014-06-20 | 2017-11-14 | Qualcomm Incorporated | Wide field of view array camera for hemispheric and spherical imaging |
US9541740B2 (en) | 2014-06-20 | 2017-01-10 | Qualcomm Incorporated | Folded optic array camera using refractive prisms |
US9294672B2 (en) | 2014-06-20 | 2016-03-22 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax and tilt artifacts |
US9386222B2 (en) | 2014-06-20 | 2016-07-05 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax artifacts |
US9549107B2 (en) | 2014-06-20 | 2017-01-17 | Qualcomm Incorporated | Autofocus for folded optic array cameras |
US9832381B2 (en) | 2014-10-31 | 2017-11-28 | Qualcomm Incorporated | Optical image stabilization for thin cameras |
US10334158B2 (en) | 2014-11-03 | 2019-06-25 | Robert John Gove | Autonomous media capturing |
US10070055B2 (en) | 2015-03-25 | 2018-09-04 | Massachusetts Institute Of Technology | Devices and methods for optically multiplexed imaging |
US20170038502A1 (en) | 2015-08-06 | 2017-02-09 | Qualcomm Incorporated | Methods and apparatus having a two-surface microlens array for low f-number plenoptic cameras |
-
2015
- 2015-01-30 US US14/611,045 patent/US9386222B2/en active Active
- 2015-05-29 CA CA2951263A patent/CA2951263A1/en not_active Abandoned
- 2015-05-29 KR KR1020167035417A patent/KR20170022998A/ko unknown
- 2015-05-29 BR BR112016029625A patent/BR112016029625A2/pt not_active Application Discontinuation
- 2015-05-29 WO PCT/US2015/033176 patent/WO2015195296A2/en active Application Filing
- 2015-05-29 CN CN201580029826.3A patent/CN106462036B/zh active Active
- 2015-05-29 EP EP15731757.9A patent/EP3158394B1/en active Active
- 2015-05-29 JP JP2016572632A patent/JP2017524968A/ja active Pending
- 2015-05-29 ES ES15731757T patent/ES2841402T3/es active Active
- 2015-05-29 CN CN201911017210.0A patent/CN110647000B/zh active Active
-
2016
- 2016-05-24 US US15/163,091 patent/US9733458B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
BR112016029625A2 (pt) | 2017-08-22 |
CN110647000A (zh) | 2020-01-03 |
CN106462036A (zh) | 2017-02-22 |
US9733458B2 (en) | 2017-08-15 |
US20150373263A1 (en) | 2015-12-24 |
US9386222B2 (en) | 2016-07-05 |
KR20170022998A (ko) | 2017-03-02 |
EP3158394A2 (en) | 2017-04-26 |
EP3158394B1 (en) | 2020-09-23 |
WO2015195296A3 (en) | 2016-02-18 |
CN106462036B (zh) | 2019-11-12 |
CA2951263A1 (en) | 2015-12-23 |
US20160286121A1 (en) | 2016-09-29 |
CN110647000B (zh) | 2021-06-01 |
JP2017524968A (ja) | 2017-08-31 |
WO2015195296A2 (en) | 2015-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2841402T3 (es) | Sistema multicámara que usa óptica plegada sin artefactos de paralaje | |
ES2685719T3 (es) | Cámara de matriz de óptica plegada con prismas refractivos | |
KR101877160B1 (ko) | 완전한 구형 이미지들을 캡처할 수 있는 시차 없는 다중 카메라 시스템 | |
KR102225429B1 (ko) | 시차 및 틸트 아티팩트들이 없는 폴딩형 광학계를 이용한 멀티-카메라 시스템 | |
ES2714278T3 (es) | Sistema multicámara que usa óptica plegada | |
US20150373269A1 (en) | Parallax free thin multi-camera system capable of capturing full wide field of view images | |
KR20170020796A (ko) | 완전한 넓은 시야 이미지들을 캡처하는 것을 가능하게 하는 시차 없는 얇은 다중 카메라 시스템 |