BR112013021160B1 - Método e aparelho para processar imagens adquiridas usando um único sensor de imagens - Google Patents
Método e aparelho para processar imagens adquiridas usando um único sensor de imagens Download PDFInfo
- Publication number
- BR112013021160B1 BR112013021160B1 BR112013021160-1A BR112013021160A BR112013021160B1 BR 112013021160 B1 BR112013021160 B1 BR 112013021160B1 BR 112013021160 A BR112013021160 A BR 112013021160A BR 112013021160 B1 BR112013021160 B1 BR 112013021160B1
- Authority
- BR
- Brazil
- Prior art keywords
- image
- iris
- sensor
- image sensor
- noise
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 128
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000005286 illumination Methods 0.000 claims description 37
- 230000009897 systematic effect Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 230000000295 complement effect Effects 0.000 claims description 4
- 229910044991 metal oxide Inorganic materials 0.000 claims description 4
- 150000004706 metal oxides Chemical class 0.000 claims description 4
- 239000004065 semiconductor Substances 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000011946 reduction process Methods 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims 1
- 230000009849 deactivation Effects 0.000 claims 1
- 230000009885 systemic effect Effects 0.000 claims 1
- 230000009467 reduction Effects 0.000 abstract description 52
- 230000002829 reductive effect Effects 0.000 abstract description 14
- 210000000554 iris Anatomy 0.000 description 220
- 230000004044 response Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 13
- 238000003860 storage Methods 0.000 description 10
- 238000013459 approach Methods 0.000 description 9
- 230000006866 deterioration Effects 0.000 description 8
- 238000001914 filtration Methods 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 7
- 238000012935 Averaging Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- RGNPBRKPHBKNKX-UHFFFAOYSA-N hexaflumuron Chemical compound C1=C(Cl)C(OC(F)(F)C(F)F)=C(Cl)C=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F RGNPBRKPHBKNKX-UHFFFAOYSA-N 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- IRLPACMLTUPBCL-KQYNXXCUSA-N 5'-adenylyl sulfate Chemical compound C1=NC=2C(N)=NC=NC=2N1[C@@H]1O[C@H](COP(O)(=O)OS(O)(=O)=O)[C@@H](O)[C@H]1O IRLPACMLTUPBCL-KQYNXXCUSA-N 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000501754 Astronotus ocellatus Species 0.000 description 1
- 101100521334 Mus musculus Prom1 gene Proteins 0.000 description 1
- 241001147389 Panthera uncia Species 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000000859 sublimation Methods 0.000 description 1
- 230000008022 sublimation Effects 0.000 description 1
- 230000005641 tunneling Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/20—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming only infrared radiation into image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Input (AREA)
Abstract
método e sistema eficientes para a aquisição de imagens de cena e imagens de íris usando um único sensor a presente revelação diz respeito a métodos e sistemas para capturar imagens de uma iris e de uma cena usando um único sensor de imagem. um sensor de imagem pode capturar uma vista de uma cena e uma vista de uma íris em pelo menos uma imagem.um módulo de processamento de imagens pode aplicar um nível de redução de ruído a u-ma primeira parte da pelo menos uma imagem para produzir uma imagem da cena. o módulo de processamento de imagens pode aplicar um nível reduzido de redução de ruído a uma segunda parte da pelo menos uma imagem para produzir uma imagem da íris para uso em identificação biométrica.
Description
Este pedido é uma continuação e reivindica o benefício da prioridade do Pedido de Patente US 13/398562, depositado em 16 de fevereiro de 2012, intitulado "Efficient Method And System For The Acquisition Of Scene Imagery And Iris Imagery Using A Single Sensor”, que por sua vez reivindica o benefício da prioridade do Pedido de Patente Provisório US 61/443757, depositado em 17 de fevereiro de 2011, intitulado “Method And System For Iris Recognition And Face
Acquisition” e Pedido de Patente Provisório US 61/472279, depositado em 6 de abril de 2011, intitulado "Efficient Method And System For The Acquisition Of Face And Iris Imagery", todos aqui incorporados por referência em sua totalidade para todos os propósitos.
A presente invenção diz respeito a tecnologias de processamento de imagens, e mais especificamente a sistemas e métodos para a aquisição de imagens de cena e imagens de íris usando um único sensor.
Tipicamente, sistemas biométricos são projetados para obter imagens ideais ao considerar restrições específicas do tipo de biométrico em questão. Se outros dados tiverem que ser obtidos (por exemplo, imagem de face ou de plano de fundo), então tipicamente diferentes sensores têm que ser usados uma vez que exigências para tipos diferentes de imagens são muito diferentes. Entretanto, uma abordagem como esta adiciona custo à solução total e também pode aumentar o tamanho ou área ocupada do sistema.
Adam e outros, publicação de patente US 20060050933, visam abordar o problema de obter dados para uso em reconhecimento de face e de íris usando um sensor, mas não abordam o problema de otimizar a aquisição de imagens de tal maneira que os dados obtidos sejam ideais para cada um dos componentes de reconhecimento de face e de íris separadamente.
Determan e outros, publicação de patente US 20080075334, e Saitoh e outros, publicação de patente US 20050270386, revelam obter imagens de face e de íris para reconhecimento usando um sensor separado para a face e um sensor separado para a íris. Saitoh descreve um método para executar reconhecimento de íris que inclui identificar a posição da íris usando uma imagem de face e de íris, mas usa dois sensores separados que focalizam separadamente a face e a íris, respectivamente, e obtém dados simultaneamente de tal maneira que movimento de usuário não é uma preocupação.
Determan e outros, publicação de patente US 20080075334, também discutem usar um sensor tanto para a face quanto para a íris, mas não abordam os problemas de otimizar aquisição de imagens de tal maneira que os dados obtidos sejam ideais para cada um dos componentes de reconhecimento de face e de íris separadamente.
Jacobson e outros, na publicação de patente US 20070206840, também descrevem um sistema que inclui obter imagens da face e da íris, mas não abordam o problema de otimizar a aquisição de imagens de tal maneira que os dados obtidos sejam ideais para cada um dos componentes de reconhecimento de face e de íris separadamente, e não abordam como um sistema de tamanho reduzido pode ser alcançado.
Em certos aspectos, são descritos neste documento métodos e sistemas para obter uma imagem de alta qualidade de uma íris para identificação biométrica, e uma imagem de alta qualidade de qualquer outra vista, tal como a face de uma pessoa, com um único sensor. Modalidades destes sistemas e métodos podem ser empregadas de tal maneira que imagem é obtida com um único sensor para o propósito de determinar ou verificar a identidade de uma pessoa usando reconhecimento biométrico usando a íris, assim como para o propósito de obter imagens gerais de cenários tais como faces e locais. Imagens do último tipo tipicamente podem ser obtidas por um usuário de telefone móvel, por exemplo. Como tal, os métodos e sistemas revelados podem ser incorporados a dispositivos móveis e/ou compactos. O sensor pode ser um sensor de Semicondutor de Óxido de Metal Complementar (CMOS) ou um outro tipo adequado de dispositivo de captura de imagem. Os métodos e sistemas podem configurar ou ajustar condições para ficarem perto das ideais em dois modos de aquisição, por exemplo, um modo de aquisição de imagens de íris e um modo de aquisição imagens (por exemplo, não de íris). Em algumas modalidades, os sistemas para obter tais imagens, incorporados em um dispositivo, por exemplo, podem ter um tamanho físico ou área ocupada significativamente reduzida, quando comparados ao de dispositivos usando múltiplos sensores, por exemplo.
Em um aspecto, a revelação descreve um método de capturar imagens de uma íris e de uma cena usando um único sensor de imagem. O método pode incluir capturar, por um sensor de imagem, uma vista de uma cena e uma vista de uma íris em pelo menos uma imagem. Um módulo de processamento de imagens pode aplicar um nível de redução de ruído a uma primeira parte da pelo menos uma imagem para produzir uma imagem da cena. O módulo de processamento de imagens pode aplicar um nível reduzido de redução de ruído a uma segunda parte da pelo menos uma imagem para produzir uma imagem da íris para uso em identificação biométrica.
Em algumas modalidades, o sensor de imagem pode capturar a vista da cena e a vista da íris como componentes separáveis dentro de uma única imagem. O sensor de imagem pode capturar pelo menos uma imagem da íris enquanto iluminando a íris com iluminação infravermelha. Em certas modalidades, o sensor de imagem pode ativar uma pluralidade de nós sensores do sensor de imagem. Um primeiro subconjunto dos nós sensores pode ser adaptado primariamente para capturar uma imagem da íris adequada para identificação biométrica. Um segundo subconjunto dos nós sensores pode ser adaptado primariamente para capturar uma imagem não de íris.
Em certas modalidades, o módulo de processamento de imagens pode aplicar redução de ruído compreendendo uma função de cálculo de média ou de mediana. O módulo de processamento de imagens pode aplicar redução de ruído compreendendo reduzir ruído tanto variando com o tempo quanto não variando com o tempo de uma imagem capturada. O módulo de processamento de imagens pode subtrair ruído de uma imagem da íris com ruído de uma outra imagem da íris.
Em certas modalidades, o módulo de processamento de imagens pode reduzir ruído de ambiente em uma imagem usando ruído de ambiente de uma outra imagem. O módulo de processamento de imagens pode reduzir ruído de ambiente de uma imagem capturada na presença de iluminação infravermelha, usando ruído de ambiente de uma outra imagem capturada sem iluminação infravermelha. O módulo de processamento de imagens pode executar controle de ganho ou de brilho na segunda parte da pelo menos uma imagem, para produzir a imagem da íris para uso em identificação biométrica.
Em um outro aspecto, a revelação descreve um aparelho para capturar imagens de uma íris e de uma cena usando um único sensor de imagem. O aparelho pode incluir um sensor de imagem e um módulo de processamento de imagens. O sensor de imagem pode capturar uma vista de uma cena e uma vista de uma íris em pelo menos uma imagem. O módulo de processamento de imagens pode aplicar um nível de redução de ruído a uma primeira parte da pelo menos uma imagem para produzir uma imagem da cena. O módulo de processamento de imagens pode aplicar um nível reduzido de redução de ruído a uma segunda parte da pelo menos uma imagem para produzir uma imagem da íris para uso em identificação biométrica.
Em algumas modalidades, o sensor de imagem captura a vista da cena e a vista da íris como componentes separáveis dentro de uma única imagem. O sensor de imagem pode compreender um sensor de Semicondutor de Óxido de Metal Complementar (CMOS), por exemplo. O sensor de imagem pode incluir uma pluralidade de nós sensores, um primeiro subconjunto dos nós sensores adaptado primariamente para capturar uma imagem da íris adequada para identificação biométrica, um segundo subconjunto dos nós sensores adaptado primariamente para capturar uma imagem não de íris. Em certas modalidades, o aparelho inclui um iluminador para iluminar a íris com iluminação infravermelha, em que o sensor de imagem captura pelo menos uma imagem da íris iluminada.
Em algumas modalidades, a redução de ruído executada inclui aplicação de uma função de cálculo de média ou de mediana a uma imagem capturada. A redução de ruído pode incluir reduzir ruído tanto variando com o tempo quanto não variando com o tempo de uma imagem capturada. Em certas modalidades, o módulo de processamento de imagens subtrai ruído de uma imagem da íris com ruído de uma outra imagem da íris. O módulo de processamento de imagens pode reduzir ruído de ambiente de uma imagem capturada na presença de iluminação infravermelha, usando ruído de ambiente de uma outra imagem capturada sem iluminação infravermelha. Em algumas modalidades, o módulo de processamento de imagens executa controle de ganho ou de brilho na segunda parte da pelo menos uma imagem, para produzir a imagem da íris para uso em identificação biométrica.
Certas modalidades dos métodos e sistemas revelados neste documento podem abordar vários desafios para obter imagens de alta qualidade de uma cena assim como imagens de alta qualidade da íris com um único sensor. Por exemplo, um desafio possivelmente de forma inesperada diz respeito ao gerenciamento das propriedades de ruído do sensor. Foi descoberto que as exigências para imagens de qualidade para reconhecimento de íris e cenas padrões algumas vezes conflitam com relação a ruído. Ruído pode ser uma grande preocupação uma vez que tamanhos de pixels de imagens estão se tornando cada vez menores, e assim os níveis de ruído fundamental em cada pixel estão aumentando ou se tornando mais pronunciados. Determinamos que certos tipos de ruído realmente podem ser preferíveis ou toleráveis para reconhecimento de íris, por exemplo, quando comparados à qualidade de imagens de íris obtidas em imagem padrão adotando modos que incorporam redução de ruído. Como tal, podemos preferir, talvez contra intuitivamente, reter ruído em imagens processadas durante a aquisição de imagens de íris, a fim de melhorar o desempenho de identificação de íris quando comparado ao de imagens que tenham sofrido redução de ruído típica.
Um outro desafio diz respeito ao comprimento de onda da iluminação exigida para imagens padrões e para imagens de íris. Aquisição de imagem de íris tipicamente usa iluminação infravermelha, enquanto que imagem padrão tipicamente depende de iluminação visível. Estas podem ser vistas como restrições conflitantes se incorporadas em um sistema único para aquisição de ambos os tipos de imagens. Esta revelação descreve diversas abordagens para resolver isto. Por exemplo, e em uma modalidade, diferentes filtros podem ser intercalados na frente do sensor. Os filtros podem ter diferentes respostas para o infravermelho e respostas visíveis. Filtros RGB (vermelho, verde, azul) e padrões de filtros podem ser adaptados para uso em diferentes modalidades. Por exemplo, e em certas modalidades, os sistemas e métodos podem intercalar filtros que passam infravermelho com outros filtros que são primariamente para passar imagens coloridas. Exemplos desta abordagem estão na publicação de patente US 2007/0145273 e na publicação de patente US 2007/0024931. Um melhoramento nestas abordagens inclui usar um arranjo intercalado R,G,(G+I),B (onde I representa Infravermelho). Uma abordagem como esta pode ter a vantagem de manter ou recuperar resolução total do sinal G (verde) para o qual o sistema visual humano é mais sensível. Uma outra modalidade dos métodos e sistemas aborda este desafio ao usar um filtro de corte IR removível ou retrátil que pode ser posicionado automaticamente ou de forma manual na frente do sensor durante modo de aquisição de imagens padrões. Ainda em uma outra modalidade, os sistemas e métodos podem sobrepor um filtro de corte IR somente a uma parte do sensor de imagem que é dedicada para reconhecimento de íris.
Modalidades dos sistemas e métodos descritos neste documento podem abordar um terceiro desafio, o qual diz respeito à deterioração de imagem pela iluminação ambiente. Em algumas modalidades onde a filtragem ou iluminação infravermelha não é ideal, imagens de uma cena circundante podem ser observadas refletidas na superfície de córnea ou de olho durante aquisição de imagens de íris. Isto algumas vezes pode impactar seriamente o desempenho de reconhecimento de íris. Modalidades dos sistemas e métodos descritos neste documento podem obter pelo menos duas imagens. Uma das imagens pode ser capturada com iluminação infravermelha controlada ligada, e pelo menos uma segunda imagem capturada com iluminação infravermelha controlada desligada. Um módulo de processamento de imagens pode processar estas pelo menos duas imagens para reduzir ou remover os artefatos. A título de ilustração, o módulo de processamento de imagens pode alinhar as imagens e então subtrair as imagens umas das outras para remover os artefatos. Uma vez que a iluminação de artefatos ou os componentes ficam essencialmente inalterados entre as duas imagens, considerando que a textura de íris é iluminada pela iluminação infravermelha e exposta em uma imagem, uma diferença das imagens pode remover os artefatos enquanto mantendo a textura de íris. Os métodos e sistemas podem superar não linearidades no sensor ao identificar pixels que estejam próximos ou na faixa de operação não linear do sensor (por exemplo, saturados ou escuros) e eliminá-los de processamento de reconhecimento de íris subsequente, uma vez que o processo de subtração de imagem nessas regiões pode ser não linear e artefatos ainda poderiam permanecer. Em uma outra modalidade dos métodos, podemos gerenciar deterioração de imagens ao explorar restrições geométricas particulares da posição do usuário, de um dispositivo e da fonte da deterioração. Em certas modalidades, podemos tirar proveito do fato de que o usuário pode reter o dispositivo na frente de sua face durante modo de aquisição de imagem de íris, reduzindo assim ou mesmo bloqueando a fonte de iluminação ambiente de deterioração em um setor das imagens de íris obtidas. Os métodos e sistemas, por exemplo, podem limitar reconhecimento de íris para este setor, evitando assim os problemas relacionados com deterioração de imagem.
As figuras seguintes representam certas modalidades ilustrativas dos métodos e sistemas descritos neste documento, onde números de referência iguais se referem a elementos iguais. Cada modalidade representada é ilustrativa destes métodos e sistemas e não limitativa. A figura 1A é um diagrama de blocos ilustrativo de uma modalidade de um ambiente de rede com uma máquina cliente que se comunica com um servidor; As figuras 1B e 1C são diagramas de blocos ilustrativos de modalidades de máquinas de computação para praticar os métodos e sistemas descritos neste documento; A figura 2 representa uma modalidade de um perfil de intensidades de imagem correspondendo a uma parte de uma imagem; A figura 3A representa um perfil de intensidades de imagem de uma modalidade de ruído não sistemático; A figura 3B representa um perfil de intensidades de imagem de uma modalidade de ruído sistemático; A figura 4 representa um perfil de intensidades de imagem de uma modalidade de ruído sistemático; A figura 5 representa um perfil de intensidades de imagem de uma modalidade de ruído esporádico; A figura 6 representa uma modalidade de um perfil de intensidades de imagem correspondendo a uma parte de uma imagem que tenha sofrido redução de ruído; A figura 7 é um diagrama de uma modalidade de uma imagem de uma vista de uma face incluindo textura de íris; A figura 8 representa uma modalidade de um perfil de intensidades de imagem representando textura de íris; A figura 9 representa uma modalidade de um perfil de intensidades de imagem representando textura de íris após redução de ruído; A figura 10 representa uma modalidade de um perfil de intensidades de imagem representando textura de íris e ruído; A figura 11 representa uma modalidade de um sistema para aquisição de imagens de cena e imagens de íris usando um único sensor; A figura 12 representa uma tabela mostrando o efeito de ruído em imagens obtidas; A figura 13 representa uma outra modalidade de um sistema para aquisição de imagens de cena e imagens de íris usando um único sensor; A figura 14 representa uma modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor; A figura 15 representa um perfil de respostas baseado em um filtro passa-banda duplo; A figura 16 representa uma modalidade de uma configuração de filtros intercalados; A figura 17 representa uma modalidade de uma imagem com artefatos refletidos em uma superfície de olho; A figura 18 representa uma modalidade de uma imagem com textura de íris e artefatos refletidos em uma superfície de olho; A figura 19 também representa uma outra modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor; A figura 20 representa uma modalidade de uma imagem mostrando textura de íris com artefatos removidos; A figura 21 representa um cenário para aquisição de imagens de face e de íris; A figura 22 representa uma outra modalidade de uma imagem com textura de íris e artefatos refletidos em uma superfície de olho; A figura 23 representa ainda uma outra modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor; A figura 24 representa uma outra modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor; A figura 25 representa uma modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor e um espelho; A figura 26 representa uma modalidade de um método para aquisição de imagens de face e imagens de íris usando um único sensor e um espelho; A figura 27 representa um efeito de dominância ocular na aquisição de imagens de face e imagens de íris; A figura 28 representa uma outra modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor e um espelho; As figuras 29 e 30 representam o efeito de dominância ocular na aquisição de imagens de face e imagens de íris; A figura 31 também representa uma outra modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor e um espelho; A figura 32 representa modalidades de configurações de sensor e espelho; A figura 33 representa uma outra modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor e um espelho; A figura 34 representa ainda uma outra modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor e um espelho; A figura 35 representa uma outra modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor; A figura 36 também representa uma outra modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor; A figura 37 representa ainda uma outra modalidade de um sistema para aquisição de imagens de face e imagens de íris usando um único sensor; e A figura 38 é um fluxograma ilustrativo de uma modalidade de um método para aquisição de imagens de cena e imagens de íris usando um único sensor.
Antes de abordar outros aspectos dos sistemas e métodos para aquisição de imagens de cena e imagens de íris usando um único sensor, uma descrição de componentes e recursos de sistema adequados para uso nos presentes sistemas e métodos pode ser útil. A figura 1A ilustra uma modalidade de um ambiente de computação 101 que inclui uma ou mais máquinas clientes 102A-102N (referidas de uma maneira geral neste documento como “máquina(s) cliente(s) 102”) em comunicação com um ou mais servidores 106A-106N (referidos de uma maneira geral neste documento como “servidor(s) 106”). Instalada entre a(s) máquina(s) cliente(s) 102 e o(s) servidor(s) 106 está uma rede.
Em uma modalidade, o ambiente de computação 101 pode incluir um dispositivo instalado entre o(s) servidor(s) 106 e a(s) máquina(s) cliente(s) 102. Este dispositivo pode gerenciar conexões cliente/servidor, e em alguns casos pode executar balanceamento de carga de conexões de clientes entre uma pluralidade de servidores de retaguarda. A(s) máquina(s) cliente(s) 102 em alguma modalidade pode(m) ser referida(s) como uma única máquina cliente 102 ou um único grupo das máquinas clientes 102, enquanto que o(s) servidor(s) 106 pode(m) ser referido(s) como um único servidor 106 ou um único grupo dos servidores 106. Em uma modalidade uma única máquina cliente 102 se comunica com mais de um servidor 106, enquanto que em uma outra modalidade um único servidor 106 se comunica com mais de uma máquina cliente 102. Também em uma outra modalidade, uma única máquina cliente 102 se comunica com um único servidor 106.
Uma máquina cliente 102, em algumas modalidades, pode ser referenciada por qualquer um dos seguintes termos: a(s) máquina(s) cliente(s) 102; cliente(s); computador(s) cliente(s); dispositivo(s) cliente(s); dispositivo(s) de computação cliente(s); máquina local; máquina remota; nó(s) cliente(s); ponto(s) final(s); nó(s) de ponto(s) final(s); ou uma segunda máquina. O servidor 106, em algumas modalidades, pode ser referenciado por qualquer um dos seguintes termos: servidor(s), máquina local; máquina remota; conjunto(s) de servidores, dispositivo(s) de computação hospedeiro(s) ou uma primeira máquina.
A máquina cliente 102 em algumas modalidades pode executar, operar ou fornecer de outro modo uma aplicação que pode ser qualquer um do seguinte: software; um programa; instruções executáveis; uma máquina virtual; um hipervisor; um navegador de rede; um cliente baseado em rede; uma aplicação cliente-servidor; um cliente de computação de cliente magro; um controle ActiveX; um miniaplicativo Java; software relacionado com comunicações de voz sobre protocolo de Internet (VoIP) tal como um telefone IP soft; uma aplicação para transferir em fluxo contínuo vídeo e/ou áudio; uma aplicação para promover comunicações de dados em tempo real; um cliente HTTP; um cliente FTP; um cliente Oscar; um cliente Telnet; ou qualquer outro conjunto de instruções executáveis. Outras modalidades ainda incluem um dispositivo cliente 102 que exibe saída de aplicação gerada por uma aplicação executando remotamente em um servidor 106 ou em outra máquina localizada remotamente. Nestas modalidades, o dispositivo cliente 102 pode exibir a saída de aplicação em uma janela de aplicação, um navegador ou em outra janela de saídas. Em uma modalidade, a aplicação é uma área de trabalho, enquanto que em outras modalidades a aplicação é uma aplicação que gera uma área de trabalho.
O ambiente de computação 101 pode incluir mais de um servidor 106A-106N de tal maneira que os servidores 106A- 106N são agrupados logicamente em um conjunto de servidores 106. O conjunto de servidores 106 pode incluir servidores 106 que estejam dispersados geograficamente e agrupados logicamente em um conjunto de servidores 106, ou servidores 106 que estejam localizados próximos uns dos outros e agrupados logicamente em um conjunto de servidores 106. Os servidores dispersados geograficamente 106A-106N dentro de um conjunto de servidores 106, em algumas modalidades, podem se comunicar usando uma WAN, MAN ou LAN, onde regiões geográficas diferentes podem ser caracterizadas como: continentes diferentes; regiões diferentes de um continente; países diferentes; estados diferentes; cidades diferentes; campus diferentes; salas diferentes; ou qualquer combinação das localizações geográficas precedentes. Em algumas modalidades o conjunto de servidores 106 pode ser administrado como uma única entidade, enquanto que em outras modalidades o conjunto de servidores 106 pode incluir múltiplos conjuntos de servidores 106.
Em algumas modalidades, um conjunto de servidores 106 pode incluir servidores 106 que executam em um tipo substancialmente similar de plataforma de sistema de operação (por exemplo, WINDOWS NT, fabricado pela Microsoft Corp. de Redmond, Washington, UNIX, LINUX ou SNOW LEOPARD). Em outras modalidades, o conjunto de servidores 106 pode incluir um primeiro grupo de servidores 106 que executam em um primeiro tipo de plataforma de sistema de operação, e um segundo grupo de servidores 106 que executam em um segundo tipo de plataforma de sistema de operação. O conjunto de servidores 106, em outras modalidades, pode incluir servidores 106 que executam em tipos diferentes de plataformas de sistema de operação.
O servidor 106, em algumas modalidades, pode ser qualquer tipo de servidor. Em outras modalidades, o servidor 106 pode ser qualquer um dos seguintes tipos de servidores: um servidor de arquivo; um servidor de aplicação; um servidor de rede; um servidor proxy; um aparelho; um dispositivo de rede; uma porta de comunicação; uma porta de comunicação de aplicação; um servidor de porta de comunicação; um servidor de virtualização; um servidor de implantação; um servidor SSL VPN; uma barreira de proteção; um servidor de rede; um servidor de aplicação ou como um servidor de aplicação mestre; um servidor 106 executando um diretório ativo; ou um servidor 106 executando um programa de aceleração de aplicação que fornece funcionalidade de barreira de proteção, funcionalidade de aplicação, ou funcionalidade de balanceamento de carga. Em algumas modalidades, um servidor 106 pode ser um servidor RADIUS que inclui um serviço de usuário de discagem de autenticação remota. Algumas modalidades incluem um primeiro servidor 106A que recebe solicitações de uma máquina cliente 102, envia a solicitação para um segundo servidor 106B, e responde à solicitação gerada pela máquina cliente 102 com uma resposta do segundo servidor 106B. O primeiro servidor 106A pode obter uma lista de aplicações disponíveis para a máquina cliente 102, assim como informação de endereço associada com um servidor de aplicação 106 hospedando uma aplicação identificada dentro da lista de aplicações. O primeiro servidor 106A pode então apresentar uma resposta à solicitação do cliente usando uma interface de rede, e se comunicar diretamente com o cliente 102 para prover o cliente 102 com acesso a uma aplicação identificada.
As máquinas clientes 102, em algumas modalidades, podem ser um nó cliente que procura acesso a recursos fornecidos por um servidor 106. Em outras modalidades, o servidor 106 pode prover os clientes 102 ou nós clientes com acesso a recursos hospedados. O servidor 106, em algumas modalidades, funciona como um nó mestre de tal maneira que ele se comunica com um ou mais clientes 102 ou servidores 106. Em algumas modalidades, o nó mestre pode identificar e fornecer informação de endereço associada com um servidor 106 hospedando uma aplicação solicitada, para um ou mais clientes 102 ou servidores 106. Ainda em outras modalidades, o nó mestre pode ser um conjunto de servidores 106, um cliente 102, um agrupamento de nós clientes 102, ou um aparelho.
Um ou mais clientes 102 e/ou um ou mais servidores 106 podem transmitir dados por meio de uma rede 104 instalada entre máquinas e aparelhos dentro do ambiente de computação 101. A rede 104 pode compreender uma ou mais sub-redes, e pode ser instalada entre qualquer combinação dos clientes 102, servidores 106, máquinas de computação e aparelhos incluídos no ambiente de computação 101. Em algumas modalidades, a rede 104 pode ser: uma rede de área local (LAN); uma rede de área metropolitana (MAN); uma rede de área estendida (WAN); uma rede primária 104 compreendida das múltiplas sub-redes 104 localizadas entre as máquinas clientes 102 e os servidores 106; uma rede pública primária 104 com uma sub-rede privada 104; uma rede privada primária 104 com uma sub-rede pública 104; ou uma rede privada primária 104 com uma sub-rede privada 104. Modalidades adicionais ainda incluem uma rede 104 que pode ser qualquer um dos seguintes tipos de redes: uma rede ponto a ponto; uma rede de difusão; uma rede de telecomunicações; uma rede de comunicação de dados; uma rede de computadores; uma rede ATM (Modo de Transferência Assíncrona); uma rede SONET (Rede Ótica Síncrona); uma rede SDH (Hierarquia Digital Síncrona); uma rede sem fio; uma rede com fio; ou uma rede 104 que inclui um enlace sem fio onde o enlace sem fio pode ser um canal infravermelho ou banda de satélite. A topologia de rede da rede 104 pode diferir dentro de diferentes modalidades, e possíveis topologias de rede incluem: uma topologia de rede de barramento; uma topologia de rede em estrela; uma topologia de rede em anel; uma topologia de rede baseada em repetidora; ou uma topologia de rede em estrela empilhada. Modalidades adicionais podem incluir uma rede 104 de redes de telefone móvel que usam um protocolo para comunicação entre dispositivos móveis, onde o protocolo pode ser qualquer um dos seguintes: AMPS; TDMA; CDMA; GSM; GPRS UMTS; 3G; 4G; ou qualquer outro protocolo capaz de transmitir dados entre dispositivos móveis.
Está ilustrada na figura 1B uma modalidade de um dispositivo de computação 100, onde a máquina cliente 102 e o servidor 106 ilustrados na figura 1A podem ser implementados e/ou executados em qualquer modalidade do dispositivo de computação 100 ilustrado e descrito neste documento. Está incluído no dispositivo de computação 100 um barramento de sistema 150 que se comunica com os seguintes componentes: uma unidade central de processamento 121; uma memória principal 122; a memória de armazenamento 128; um controlador de entrada/saída (I/O) 123; os dispositivos de exibição 124A-124N; um dispositivo de instalação 116; e uma interface de rede 118. Em uma modalidade, a memória de armazenamento 128 inclui: um sistema de operação, rotinas de software e um agente cliente 120. O controlador de entrada/saída 123, em algumas modalidades, é conectado adicionalmente a um teclado 126 e a um dispositivo indicador 127. Outras modalidades podem incluir um controlador de entrada/saída 123 conectado a mais de um dispositivo de entrada/saída 130A-130N. A figura 1C ilustra uma modalidade de um dispositivo de computação 100, onde a máquina cliente 102 e o servidor 106 ilustrados na figura 1A podem ser implementados e/ou executados em qualquer modalidade do dispositivo de computação 100 ilustrado e descrito neste documento. Está incluído no dispositivo de computação 100 um barramento de sistema 150 que se comunica com os seguintes componentes: uma ponte 170 e um primeiro dispositivo de entrada/saída 130A. Em uma outra modalidade, a ponte 170 está em comunicação adicional com a unidade central de processamento principal 121, onde a unidade central de processamento 121 pode se comunicar adicionalmente com um segundo dispositivo de entrada/saída 130B, uma memória principal 122 e com uma memória cache 140. Estão incluídas na unidade central de processamento 121 portas de entrada/saída, uma porta de memória 103 e um processador principal.
Modalidades da máquina de computação 100 podem incluir uma unidade central de processamento 121 caracterizada por qualquer uma das seguintes configurações de componentes: circuitos lógicos que respondem e processam instruções recuperadas da unidade de memória principal 122; uma unidade microprocessadora, tal como aquelas fabricadas pela Intel Corporation; aquelas fabricadas pela Motorola Corporation; aquelas fabricadas pela Transmeta Corporation de Santa Clara, Califórnia; o processador RS/6000 tal como aqueles fabricados pela Internacional Business Macines; um processador tal como aqueles fabricados pela Avanced Micro Devices; ou qualquer outra combinação de circuitos lógicos.
Outras modalidades da unidade central de processamento 122 ainda podem incluir qualquer combinação do seguinte: um microprocessador, um microcontrolador, uma unidade central de processamento com um único núcleo de processamento, uma unidade central de processamento com dois núcleos de processamento, ou uma unidade central de processamento com mais de um núcleo de processamento.
Embora a figura 1C ilustre um dispositivo de computação 100 que inclui uma única unidade central de processamento 121, em algumas modalidades o dispositivo de computação 100 pode incluir uma ou mais unidades de processamento 121. Nestas modalidades, o dispositivo de computação 100 pode armazenar e executar firmware ou outras instruções executáveis que, quando executadas, direcionam a uma ou mais unidades de processamento 121 para executar simultaneamente instruções ou para executar simultaneamente instruções em uma única parte de dados. Em outras modalidades, o dispositivo de computação 100 pode armazenar e executar firmware ou outras instruções executáveis que, quando executadas, direcionam a uma ou mais unidades de processamento para cada uma executar uma seção de um grupo de instruções. Por exemplo, cada unidade de processamento 121 pode ser instruída para executar uma parte de um programa ou um módulo particular dentro de um programa.
Em algumas modalidades, a unidade de processamento 121 pode incluir um ou mais núcleos de processamento. Por exemplo, a unidade de processamento 121 pode ter dois núcleos, quatro núcleos, oito núcleos, etc. Em uma modalidade, a unidade de processamento 121 pode compreender um ou mais núcleos de processamento paralelo. Os núcleos de processamento da unidade de processamento 121 em algumas modalidades podem acessar memória disponível como um espaço de endereço global ou, em outras modalidades, memória dentro do dispositivo de computação 100 pode ser segmentada e designada para um núcleo particular dentro da unidade de processamento 121. Em uma modalidade, cada um de o um ou mais núcleos de processamento ou processadores no dispositivo de computação 100 pode acessar memória local. Ainda em uma outra modalidade, memória dentro do dispositivo de computação 100 pode ser compartilhada entre um ou mais processadores ou núcleos de processamento, enquanto que outra memória pode ser acessada por processadores ou subconjuntos de processadores particulares. Em modalidades onde o dispositivo de computação 100 inclui mais de uma unidade de processamento, as múltiplas unidades de processamento podem ser incluídas em um único circuito integrado (IC). Estes múltiplos processadores, em algumas modalidades, podem ser ligados conjuntamente por um barramento interno de alta velocidade, o qual pode ser referido como um barramento de interligação de elementos.
Em modalidades onde o dispositivo de computação 100 inclui uma ou mais unidades de processamento 121, ou uma unidade de processamento 121 incluindo um ou mais núcleos de processamento, os processadores podem executar uma única instrução simultaneamente em múltiplas partes de dados (SIMD), ou em outras modalidades pode executar múltiplas instruções simultaneamente em múltiplas partes de dados (MIMD). Em algumas modalidades, o dispositivo de computação 100 pode incluir qualquer número de processadores SIMD e MIMD.
O dispositivo de computação 100, em algumas modalidades, pode incluir um processador de imagem, um processador de gráficos ou uma unidade de processamento gráfico. A unidade de processamento gráfico pode incluir qualquer combinação de software e hardware, e pode adicionalmente introduzir dados de gráficos e instruções de gráficos, renderizar um gráfico a partir dos dados e instruções introduzidos e produzir o gráfico renderizado. Em algumas modalidades, a unidade de processamento gráfico pode ser incluída na unidade de processamento 121. Em outras modalidades, o dispositivo de computação 100 pode incluir uma ou mais unidades de processamento 121, onde pelo menos uma unidade de processamento 121 é dedicada para processar e renderizar gráficos.
Uma modalidade da máquina de computação 100 inclui uma unidade central de processamento 121 que se comunica com a memória cache 140 por meio de um barramento secundário também conhecido como um barramento traseiro, enquanto que uma outra modalidade da máquina de computação 100 inclui uma unidade central de processamento 121 que se comunica com a memória cache por meio do barramento de sistema 150. O barramento de sistema local 150, em algumas modalidades, também pode ser usado pela unidade central de processamento para se comunicar com mais de um tipo de dispositivo de entrada/saída 130A-130N. Em algumas modalidades, o barramento de sistema local 150 pode ser qualquer um dos seguintes tipos de barramentos: um barramento VESA VL; um barramento ISA; um barramento EISA; um barramento Arquitetura de Microcanal (MCA); um barramento PCI; um barramento PCI-X; um barramento PCI-Expresso; ou um NuBus. Outras modalidades da máquina de computação 100 incluem um dispositivo de entrada/saída 130A-130N que é um mostrador de vídeo 124 que se comunica com a unidade central de processamento 121. Outras versões da máquina de computação 100 ainda incluem um processador 121 conectado a um dispositivo de entrada/saída 130A-130N via qualquer uma das seguintes conexões: HyperTransport, Rapid I/O ou InfiniBand. Modalidades adicionais da máquina de computação 100 incluem um processador 121 que se comunica com um dispositivo de entrada/saída 130A usando um barramento de interligação local e um segundo dispositivo de entrada/saída 130B usando uma conexão direta.
O dispositivo de computação 100, em algumas modalidades, inclui uma unidade de memória principal 122 e a memória cache 140. A memória cache 140 pode ser qualquer tipo de memória, e em algumas modalidades pode ser qualquer um dos seguintes tipos de memória: SRAM; BSRAM; ou EDRAM. Outras modalidades incluem a memória cache 140 e uma unidade de memória principal 122 que pode ser qualquer um dos seguintes tipos de memória: Memória de acesso aleatório estática (SRAM), Burst SRAM ou SynchBurst SRAM (BSRAM); Memória de acesso aleatório dinâmica (DRAM); DRAM de Modo de Página Rápido (FPM DRAM); DRAM Aprimorada (EDRAM), RAM de Saída de Dados Estendida (EDO RAM); DRAM de Saída de Dados Estendida (EDO DRAM); DRAM de Saída de Dados Estendida de Rajadas (BEDO DRAM); DRAM Aprimorada (EDRAM); DRAM síncrona (SDRAM); JEDEC SRAM; PC 100 SDRAM; SDRAM de Taxa de Dados Dupla (DDR SDRAM); SDRAM aprimorada (ESDRAM); SyncLink DRAM (SLDRAM); DRAM Rambus Direta (DRDRAM); RAM
Ferroelétrica (FRAM); ou qualquer outro tipo de memória. Modalidades adicionais incluem uma unidade central de processamento 121 que pode acessar a memória principal 122 via: um barramento de sistema 150; uma porta de memória 103; ou qualquer outra conexão, barramento ou porta que permita ao processador 121 acessar a memória 122.
Uma modalidade do dispositivo de computação 100 fornece suporte para qualquer um dos seguintes dispositivos de instalação 116: uma unidade de CD-ROM, uma unidade de CD-R/RW, uma unidade de DVD-ROM, unidades de fita de vários formatos, dispositivo USB, uma mídia inicializável, um CD inicializável, um CD inicializável para distribuição GNU/Linux tal como KNOPPIX®, uma unidade de disco rígido ou qualquer outro dispositivo adequado para instalar aplicações ou software. Aplicações em algumas modalidades podem incluir um agente cliente 120, ou qualquer parte de um agente cliente 120. O dispositivo de computação 100 pode incluir adicionalmente um dispositivo de armazenamento 128 que pode ser uma ou mais unidades de disco rígido, ou um ou mais conjuntos redundantes de discos independentes; onde o dispositivo de armazenamento é configurado para armazenar um sistema de operação, software, aplicações de programas, ou pelo menos uma parte do agente cliente 120. Uma modalidade adicional do dispositivo de computação 100 inclui um dispositivo de instalação 116 que é usado como o dispositivo de armazenamento 128.
O dispositivo de computação 100 pode incluir adicionalmente uma interface de rede 118 para se conectar por meio de interface a uma Rede de Área Local (LAN), Rede de Área Estendida (WAN) ou à Internet por meio de uma variedade de conexões incluindo, mas não limitadas a isto, linhas de telefone padrão, enlaces LAN ou WAN (por exemplo, 802.11, T1, T3, 56kb, X.25, SNA, DECNET), conexões de banda larga (por exemplo, ISDN, Comutação de Quadros, ATM, Gigabit Ethernet, Ethernet-over-SONET), conexões sem fio, ou alguma combinação de qualquer um ou de todos os indicados acima. Conexões também podem ser estabelecidas usando uma variedade de protocolos de comunicação (por exemplo, TCP/IP, IPX, SPX, NetBIOS, Ethernet, ARCNET, SONET, SDH, Interface de Dados Distribuídos por Fibra (FDDI), RS232, RS485, IEEE 802.11, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, CDMA, GSM, WiMax e conexões assíncronas diretas). Uma versão do dispositivo de computação 100 inclui uma interface de rede 118 capaz de se comunicar com os dispositivos de computação adicionais 100’ via qualquer tipo e/ou forma de porta de comunicação ou protocolo de tunelamento tal como o de Camada de Soquete de Segurança (SSL) ou de Segurança de Camada de Transporte (TLS), ou o Protocolo de Porta de Comunicação Citrix fabricado pela Citrix Systems, Inc. Versões da interface de rede 118 podem compreender qualquer um de: um adaptador de rede incorporado; uma placa de interface de rede; uma placa de rede PCMCIA; um adaptador de rede de barramento de placa; um adaptador de rede sem fio; um adaptador de rede USB; um modem; ou qualquer outro dispositivo adequado para conectar por meio de interface o dispositivo de computação 100 a uma rede capaz de comunicar e executar os métodos e sistemas descritos neste documento.
Modalidades do dispositivo de computação 100 incluem qualquer um dos seguintes dispositivos de entrada/saída 130A-130N: um teclado 126; um dispositivo indicador 127; mouses; locais sensíveis ao toque; uma caneta ótica; mouses estacionários; microfones; tablets de desenho; mostradores de vídeo; alto-falantes; impressoras a jato de tinta; impressoras a laser; e impressoras de sublimação de tinta; ou qualquer outro dispositivo de entrada/saída capaz de executar os métodos e sistemas descritos neste documento. Um controlador de entrada/saída 123 em algumas modalidades pode se conectar aos múltiplos dispositivos de entrada/saída 103A-130N para controlar o um ou mais dispositivos de entrada/saída. Algumas modalidades dos dispositivos de entrada/saída 130A-130N podem ser configuradas para fornecer armazenamento ou uma mídia de instalação 116, enquanto que outras podem fornecer uma interface de barramento serial universal (USB) para receber dispositivos de armazenamento USB tais como a linha USB Flash Drive de dispositivos fabricados pela Twintech Industry, Inc. Outras modalidades ainda incluem um dispositivo de entrada/saída 130 que pode ser uma ponte entre o barramento de sistema 150 e um barramento de comunicação externa, tal como: um barramento USB; um Apple Desktop Bus; uma conexão serial RS-232; um barramento SCSI; um barramento FireWire; um barramento FireWire 800; um barramento de Ethernet; um barramento AppleTalk; um barramento de Ethernet Gigabit; um barramento de Modo de Transferência Assíncrona; um barramento HIPPI; um barramento Super HIPPI; um barramento SerialPlus; um barramento SCI/LAMP; um barramento FibreChannel; ou um barramento de interface de sistema de computador pequeno Serial Attached.
Em algumas modalidades, a máquina de computação 100 pode executar qualquer sistema de operação, enquanto que em outras modalidades a máquina de computação 100 pode executar qualquer um dos seguintes sistemas de operação: versões dos sistemas de operação MICROSOFT WINDOWS; as diferentes liberações dos sistemas de operação Unix e Linux; qualquer versão do MAC OS fabricado pela Apple Computer; OS/2, fabricado pela International Business Machines; Android do Google; qualquer sistema de operação embutido; qualquer sistema de operação em tempo real; qualquer sistema de operação de código aberto; qualquer sistema de operação proprietário; quaisquer sistemas de operação para dispositivos de computação móveis; ou qualquer outro sistema de operação. Ainda em uma outra modalidade, a máquina de computação 100 pode executar múltiplos sistemas de operação. Por exemplo, a máquina de computação 100 pode executar a PARALLELS ou uma outra plataforma de virtualização que possa executar ou gerenciar uma máquina virtual executando um primeiro sistema de operação, enquanto a máquina de computação 100 executa um segundo sistema de operação diferente do primeiro sistema de operação.
A máquina de computação 100 pode ser incorporada em qualquer um dos seguintes dispositivos de computação: uma estação de trabalho de computação; um computador de mesa; um laptop ou notebook; um servidor; um computador de mão; um telefone móvel; um dispositivo de telecomunicação portátil; um dispositivo de reprodução de mídia; um sistema de jogos de computador; um dispositivo de computação móvel; um netbook, um tablet; um dispositivo da família IPOD ou IPAD de dispositivos fabricados pela Apple Computer; qualquer um da família PLAYSTATION de dispositivos fabricados pela Sony Corporation; qualquer um da família Nintendo de dispositivos fabricados pela Nintendo Co; qualquer um da família XBOX de dispositivos fabricados pela Microsoft Corporation; ou qualquer outro tipo e/ou forma de dispositivo de computação, telecomunicações ou de mídia que seja capaz de comunicação e que tenha potência de processador e capacidade de memória suficientes para executar os métodos e sistemas descritos neste documento. Em outras modalidades a máquina de computação 100 pode ser um dispositivo móvel tal como qualquer um dos seguintes dispositivos móveis: um telefone celular capacitado para JAVA ou assistente digital pessoal (PDA); qualquer dispositivo de computação que tenha diferentes processadores, sistemas de operação e dispositivos de entrada consistentes com o dispositivo; ou qualquer outro dispositivo de computação móvel capaz de executar os métodos e sistemas descritos neste documento. Ainda em outras modalidades, o dispositivo de computação 100 pode ser qualquer um dos seguintes dispositivos de computação móveis: qualquer um da série Blackberry, ou outro dispositivo de mão fabricado pela Research In Motion Limited; o iPhone fabricado pela Apple Computer; Palm Pre; um Pocket PC; um Pocket PC Phone; um telefone Android; ou qualquer outro dispositivo móvel de mão. Tendo descrito certos componentes e recursos de sistema que podem ser adequados para uso nos presentes sistemas e métodos, aspectos adicionais são abordados a seguir. A figura 2 representa uma imagem ilustrativa de uma cena ou objeto típico (por exemplo, casa), obtida por um sensor de imagem típico. Um sensor de imagem pode incluir, por exemplo, um dispositivo de carga acoplada (CCD) digital ou sensor de pixels ativos de semicondutor de óxido de metal complementar (CMOS), embora não limitado a estes. O gráfico ou perfil de intensidades correspondendo à imagem mostra, para uma região seccional transversal indicada pela linha P2, o valor de intensidade I de pixels no eixo vertical e a posição espacial correspondente X. Pontos claros e escuros no perfil de intensidades correspondem a pontos claros e escuros na imagem tal como mostrada. Tipicamente, pode existir ruído substancial no sinal, representado por oscilações em intensidade mesmo dentro de área iluminadas uniformemente (por exemplo, regiões correspondendo à porta da casa). Ruído pode ser derivado de diversas fontes, por exemplo, ruído de amplificador e ruído de disparo, ruído anisotrópico (sistemático) e ruído esporádico. Ruído de disparo diz respeito ao efeito quântico de ter um número finito de fótons sendo coletados em uma fonte de pixels particular em um período de tempo finito. Quanto menor o tamanho de pixel tanto maior pode resultar o ruído de disparo. Isto é porque podem existir poucos fótons dos quais inferir uma medição de iluminação incidente. À medida que dimensões de pixel ficam menores, o comprimento focal de ótica associada para uma dada resolução de imagem também pode cair linearmente. Isto pode reduzir a espessura da combinação de componentes de lente/sensor. Entretanto, as exigências para resolução de sensor aumentam, e as restrições de espaço para sensores e sua ótica associada se tornam mais apertadas, tamanhos de sensor e de pixels de imagem têm que ser reduzidos correspondentemente para acomodar as exigências e restrições. Um resultado da redução em tamanho de pixel é um aumento substancial em ruído no sensor. Este tipo de ruído, assim como ruído de amplificador, pode ser caracterizado como sendo variável com o tempo e não sistemático tal como representado na figura 3A.
Um outro tipo de ruído é o anisotrópico, ou ruído sistemático/periódico. Ruído periódico pode ser causado, por exemplo, por diferenças em ganhos de amplificador no caminho de leitura do sensor de imagem. Por exemplo, diferentes linhas e colunas podem passar através de diferentes amplificadores com ganhos ligeiramente diferentes. Este tipo de ruído sistemático está representado na figura 3B, onde um perfil de intensidades que deveria ser uniformemente plano está de fato oscilando periodicamente em uma dimensão (por exemplo, através de uma imagem). A figura 4 representa um exemplo de ruído esporádico introduzido em uma imagem, o qual pode ficar evidente através de múltiplas imagens. Por exemplo, pixels ocasionais em um conjunto de nós sensores podem ter sensibilidade degradada, não serem funcionais ou ter ganho limitado ou excessivo, resultando em pixels que são mais brilhantes ou mais escuros tal como mostrado.
Problemas surgindo de ruído tipicamente são abordados ao executar redução de ruído em um módulo de processamento de imagens 220. O módulo de processamento de imagens 220 pode empregar qualquer tipo de filtragem de mediana espacial ou cálculo de média seletiva de região, tal como representado na figura 5. Existem muitos métodos para executar redução de ruído, e identificamos filtragem de mediana e cálculo de média seletiva de região somente para ilustração. A figura 6 representa um perfil de intensidades que pode resultar de redução de ruído. Embora redução de ruído possa ter removido essencialmente o ruído, o módulo de processamento de imagens 220 manteve recursos (por exemplo, pontos claros e escuros) correspondendo a objetos e bordas reais na cena. Por uma perspectiva do usuário, a qualidade de imagem tipicamente é inaceitável na figura 1 (por exemplo, ruidosa), enquanto que na figura 6 é considerada de melhor qualidade. A figura 7 representa uma imagem de uma íris I1 e de uma face F1. A imagem pode ser obtida usando um sistema de aquisição de imagens de íris ideal, por exemplo, de acordo com especificações descritas nos padrões do Instituto Nacional de Padrões e Tecnologia (NIST). Estas especificações podem incluir o que está descrito na ANSI/INCITS 379-2004, Formato de Intercâmbio de Imagens de Íris. Referindo-se à figura 7, a textura da íris está representada pelas linhas dentro da região circular indicada por I1. A figura 8 mostra uma representação do perfil de intensidades da textura da íris. Em algumas modalidades, a similaridade entre a figura 8 (perfil de intensidades de padrão de textura de íris) e a figura 2 (perfil de intensidades de sinal de ruído) pode ser muito aparente. Um motivo para tal similaridade é que a fonte de cada sinal/padrão é caracterizada por um processo aleatório. No caso da íris, o sinal é criado pela laceração de tecido de íris antes do nascimento, muito semelhante ao processo pelo qual um rasgamento de papel é diferente a cada vez que ele ocorre. No caso de ruído de sensor, ruído de disparo e outros ruídos são criados por processos físicos variáveis com o tempo aleatórios.
Características de frequência da “textura” de sinal de íris têm sido distinguidas por algum grau nos padrões NIST [ANSI/INCITS 379-2004, Formato de Intercâmbio de Imagens de Íris]; por exemplo, os valores de resolução mínima correspondendo a linha/pares por milímetro (mm) podem ser designados para diferentes faixas de diâmetros de íris. O diâmetro de íris pode ser dependente de uma configuração ótica particular. A título de ilustração, para um diâmetro de íris entre 100-149 pixels, a resolução de pixels definida pode ser um mínimo de 8,3 pixels por mm, com uma resolução ótica em modulação de 60% de um mínimo de 2,0 linha-pares por mm. Para um diâmetro de íris entre 150-199 pixels, a resolução de pixels definida pode ser um mínimo de 12,5 pixels por mm com uma resolução ótica em modulação de 60% de um mínimo de 3,0 linha-pares por mm. Para um diâmetro de íris com 200 ou mais pixels, a resolução de pixels definida pode ser um mínimo de 16,7 pixels por mm, com uma resolução ótica em modulação de 60% de um mínimo de 4,0 linha-pares por mm. Outras combinações de diâmetro, resolução de pixels definida e/ou resolução ótica podem ser adequadas em certas modalidades. A figura 9 representa um perfil de intensidades de textura de íris após passar por algum dos processamentos de redução de ruído descritos anteriormente. Neste caso ilustrativo, textura de íris foi essencialmente removida pela redução de ruído. Isto é porque os algoritmos de redução de ruído, tais como cálculo de média específica de região, podem ser incapazes de diferenciar entre textura de íris e ruído. Como tal, redução de ruído, a qual é padrão ou típica na maioria dos dispositivos de captura de imagens, pode ser uma limitação quando adaptada para executar reconhecimento de íris.
Os presentes sistemas e métodos podem abordar este problema ao reconhecer características particulares relacionadas com reconhecimento de íris. A figura 10 ilustra, em uma modalidade, um perfil de intensidades de textura de íris obtido de forma ideal (por exemplo, tal como nos padrões NIST [ANSI/INCITS 379-2004, Formato de Intercâmbio de Imagens de Íris]), juntamente com um perfil de intensidades de ruído de sensor em linha pontilhada. Certos processos de reconhecimento de íris envolvem identificar a falta de independência estatística entre um sinal arrolado e um sinal de sonda. Uma significância pode ser que um casamento tipicamente é declarado por uma comparação produzindo um resultado que é improvável de ser alcançado por meio de um processo aleatório. Como tal, adicionar ruído significativo aleatório e variando com o tempo a um sinal de íris original, portanto, pode: 1) não aumentar significativamente a taxa de casamentos falsos uma vez que casamentos falsos resultam de casamento não aleatório, 2) pode ter impacto limitado sobre a taxa de rejeição de falsos para um indivíduo se a textura do sinal de íris de uma maneira geral ou essencialmente exceder aquela do ruído de sensor (por exemplo, mesmo se as imagens propriamente ditas parecerem ruidosas para um observador), e 3) pode aumentar a taxa de rejeição de falsos para o usuário (com outras consequências limitadas) se a textura do sinal de íris tiver uma magnitude similar ou menor quando comparada à magnitude do ruído de sensor.
Adicionar ruído sistemático, entretanto, ao sinal de íris original, tal como mostrado na figura 3, por exemplo, poderia disparar um casamento falso porque uma comparação entre dois conjuntos de dados poderia produzir um resultado que não teria sido alcançado por meio de um processo aleatório. Como tal, certas modalidades dos métodos e sistemas podem preferir (por exemplo, contra intuitivamente) a presença de ruído (por exemplo, mesmo níveis significativos de ruído) em uma imagem de íris capturada, para melhorar desempenho em identificação de íris quando comparado ao de imagens tendo níveis de ruído reduzidos (por exemplo, por meio de redução de ruído). Em algumas modalidades, os presentes sistemas podem reduzir ou eliminar o nível de redução de ruído não sistemático aplicada a uma imagem quando a imagem é pretendida para reconhecimento de íris. As imagens resultantes potencialmente podem parecer extremamente ruidosas para um observador quando comparadas a imagens processadas (por exemplo, com redução de ruído aplicada). Entretanto, o desempenho em reconhecimento de íris pode ser melhorado significativamente se uma imagem ruidosa for usada no lugar para reconhecimento de íris. Em algumas implementações de hardware particulares, algoritmos de redução de ruído são capacitados e codificados em máquina, e não podem ser desligados. Algumas modalidades dos presentes métodos e sistemas permitem controle sobre algoritmos de redução de ruído a fim de evitar redução de ruído em bandas de frequência esperadas para textura de íris, tal como descrito em outro lugar no relatório descritivo. A figura 11 representa uma implementação de exemplo de uma abordagem pela qual um processador principal pode controlar um processador de sinais de imagem, por exemplo, um processador de sinais de imagem de nível baixo. Em um modo no qual reconhecimento de íris é executado, um sinal pode ser transmitido para o processador de sinais de imagem para modificar o processo de redução de ruído tal como descrito anteriormente. Dependendo da magnitude de ruído sistemático, então tal ruído pode ser removido (por exemplo, usando calibração de fileira dinâmica pela qual pixels em uma borda do sensor são cobertos e podem ser usados para calibração de sensor) ou podem ser deixados intactos se a magnitude do ruído for substancialmente menor que a magnitude de sinal de textura de íris. A título de ilustração, a figura 12 mostra uma tabela resumindo diversos cenários, e descreve como tipos diferentes de ruído podem afetar o desempenho de reconhecimento de íris e/ou a qualidade de imagens visíveis, em diferentes modos de aquisição de imagens.
Um outro desafio se relacionando com obter imagens de cena e imagens de íris padrões ideais no mesmo sensor diz respeito ao comprimento de onda da iluminação exigida para imagens padrões e para imagens de íris. Imagem de íris tipicamente exige iluminação infravermelha, enquanto que imagem padrão tipicamente exige iluminação visível. Algumas vezes existem restrições conflitantes. Algumas modalidades dos presentes sistemas podem ser configuradas para abordar isto ao intercalar filtros tendo diferentes respostas para luz infravermelha e visível. Estes sistemas podem usar uma de uma pluralidade de configurações diferentes de tais filtros contra um sensor de imagem, ao capturar uma imagem. Um exemplo de um filtro que pode ser incorporado ou modificado para produzir um filtro intercalado é um tendo um filtro padrão Bayer RGB (vermelho, verde, azul) (ver, por exemplo, a patente US 3.971.065). Filtros que (primariamente, significativamente ou somente) passam infravermelho podem ser intercalados com outros filtros que (primariamente, significativamente ou somente) passam luz colorida ou visível. Algumas modalidades de filtros que fornecem filtragem selecionada são descritas na publicação de patente US 20070145273 e na publicação de patente US 20070024931. Algumas modalidades dos presentes sistema e métodos usam um conjunto intercalado R,G,(G+I),B no lugar. Alguns destes sistemas têm a capacidade para manter resolução total (ou substancialmente total) do sinal G (verde) ao qual o sistema visual humano tipicamente é mais sensível.
Em modo de reconhecimento de íris, a magnitude da resposta G (verde) tipicamente é muito menor que aquela da resposta infravermelha por causa de iluminação infravermelha incidente. Em algumas modalidades, uma estimativa da resposta de sinal infravermelho (I) em modo de reconhecimento de íris pode ser recuperada ao subtrair o sinal (G) do sinal (G+I) adjacente. Em modo de aquisição de imagens padrões, o sinal R,G,(G+I),B pode ser processado para recuperar uma estimativa G’ de G no pixel no qual G+I foi recuperado. Vários métodos podem ser usados para gerar tais estimativas, tal como quando uma matriz de pixels R,G,T,B é usada, onde T é totalmente transparente. O pixel
T em uma implementação como esta pode conter sinais dos sinais R,G,B e I acumulados ou sobrepostos conjuntamente. Isto pode ser problemático. Se o filtro de pixel T for verdadeiramente transparente, então para desempenho efetivo a soma das respostas R,G,B,I ainda deve ficar dentro da faixa dinâmica do pixel. Para um dado tempo de integração e área de pixels por toda uma imagem total, isto significa que a faixa dinâmica dos pixels R,G,B não pode ser inteiramente utilizada uma vez que saturação do pixel T (R+G+B+I) pode ocorrer. Estabelecer diferentes áreas de pixels ou ganho para o pixel T quando comparado aos outros pixels R,G,B pode ser possível, mas pode ser caro para implementar. Um melhoramento, o qual pode ser incorporado aos presentes sistemas, é usar um filtro de densidade neutra no lugar do filtro transparente. O filtro de densidade neutra pode reduzir a magnitude da iluminação de todos os comprimentos de onda (R,G,B e I) nesse pixel, e pode permitir que uma faixa completa ou ampla de capacidades de pixels seja explorada nos pixels R,G,B, reduzindo assim ruído. Um filtro de densidade neutra com valor de 0,5 a 0,6 pode ser selecionado como um exemplo. Um sinal verde tipicamente pode contribuir para aproximadamente 60% de um sinal de luminância compreendido de R,G e B combinados conjuntamente.
Se um filtro T for verdadeiramente transparente, a faixa dinâmica total do sensor tipicamente necessitará ser reduzida para acomodar a faixa do pixel T e mantê-la para ficar dentro de uma faixa linear, com o custo da razão de sinal para ruído dos pixels R,G,B. Ao incorporar um conjunto de filtros R,G,G+I,B em algumas modalidades de nossos sistemas, e uma vez que sinais de vermelho e azul não estão presentes no G+I pixel, a faixa dinâmica total do sensor pode ser aumentada quando comparada para aquele de um conjunto R,G,T,B, aumentando assim a razão de sinal para ruído.
Uma outra abordagem incorporada em algumas modalidades de nossos métodos e sistemas para obter imagens de cenas padrões e imagens de íris ideais no mesmo sensor, se relacionando com o comprimento de onda da iluminação, envolve multiplexar ou posicionar um filtro de corte de infravermelho sobre um sensor ou lente de imagem padrão. Em uma modalidade, uma parte do sensor (por exemplo, 20% do sensor ou dos nós sensores) pode ser designada primariamente para reconhecimento de íris, enquanto que o parte remanescente (por exemplo, 80%) pode ser usada para aquisição de imagem padrão, por exemplo, tal como mostrado na figura 14. Uma parte menor (por exemplo, 80%) do sensor, tal como neste exemplo, pode ser coberta por um filtro de corte IR padrão. Os 20% remanescentes do sensor podem permanecer descobertos. Em modo de reconhecimento de íris, a região coberta pode ser ignorada. Por exemplo, uma aplicação de reconhecimento de íris executando no dispositivo de captura de imagem pode guiar o usuário para posicionar seus olhos dentro da região de detecção da área de 20% descoberta. Mecanismos de realimentação podem guiar o usuário para deslocar o dispositivo de captura de imagem para colocar as íris do usuário dentro de uma região de captura apropriada. Por exemplo, uma vez que a face será visível nos 80% remanescentes do imageador, isto pode ser usado para realimentação de guiamento de usuário, opcionalmente com ícones aparecendo no lugar da região de olho. Em algumas modalidades, o sensor de imagem pode ajustar sua orientação para capturar uma imagem da íris do usuário usando a região descoberta.
Uma outra abordagem incorporada em algumas modalidades dos presentes sistemas e métodos usa um filtro passa-banda duplo sobre o total ou sobre uma parte substancial de um imageador ou sensor colorido. Um filtro como este pode passar tanto sinais R,G,B quanto sinais infravermelhos dentro de bandas selecionadas, tais como bandas em torno de 850 nm ou 940 nm, e pode produzir uma resposta de frequência tal como representado na figura 15. Também em uma outra modalidade, um sistema de aquisição de imagens pode usar um filtro de corte IR que pode ser posicionado automaticamente ou de forma manual ou deslizar para o lugar sobre pelo menos uma parte de um sensor de imagem quando o dispositivo está em modo de captura de imagem padrão. Por exemplo, o filtro de corte IR pode cobrir uma parte do sensor de imagem a ser alinhada com um olho do usuário para capturar imagens de íris. As outras partes do sensor de imagem podem capturar partes de uma face do usuário, por exemplo. Colocação do filtro de corte IR pode ser em uma extremidade do sensor, permitindo assim que o sensor e a imagem capturada correspondentemente tenham duas regiões distintas (de corte IR e não de corte IR) em vez de três ou mais regiões (por exemplo, não de corte IR, de corte IR e não de corte IR). Isto permite que uma parte não de íris maior e mais contígua de uma cena (por exemplo, face) seja obtida, a qual por sua vez pode ser usada para identificação de face, por exemplo. Em algumas modalidades, um filtro de luz visível ou filtro passa IR pode ser colocado sobre o sensor de imagem (por exemplo, opcionalmente) quando o dispositivo está em modo de captura de imagens de íris.
Em algumas modalidades, o sistema de aquisição de imagens pode intercalar filtros de corte de infravermelho e de passar infravermelho através do sensor, por exemplo, tal como mostrado na figura 16. Um filtro intercalado pode ser configurado em vários outros modos, tal como usar um arranjo de caixa verificadora, faixas de várias larguras, ou outros padrões de alternação e/ou repetíveis. Em modo de reconhecimento de íris, a resposta de pixels/nós de sensor debaixo das bandas de filtro passa IR é usada para reconhecimento de íris, enquanto que a resposta de pixels/nós de sensor debaixo das bandas de filtro de corte IR é usada em modo de aquisição de imagens padrões. Em algumas modalidades, imagens tanto padrões quanto de íris podem ser obtidas com uma única captura de imagens, por exemplo, ao separar componentes de imagem IR e não IR correspondendo ao padrão de intercalação.
Em algumas modalidades, uma imagem obtida por um sensor de imagem pode ser afetada ou corrompida por iluminação ambiente. Por exemplo, em algumas modalidades, onde filtragem infravermelha e/ou iluminação não são ideais, imagens de uma cena podem ser refletidas em uma superfície de um olho (por exemplo, a córnea) durante aquisição de imagens de íris. Um exemplo disto está mostrado na figura 17. A reflexão de imagens (por exemplo, na córnea do olho) pode ser uma reflexão de uma cena compreendendo casas circundando o usuário, como um exemplo.
Tais reflexões podem ser referidas como artefatos. Foi descrito acima como ruído sistemático pode impactar seriamente o desempenho de reconhecimento de íris. Os artefatos podem ser superados usando métodos similares: obter pelo menos duas imagens, uma com iluminação infravermelha controlada ligada, tal como mostrado na figura 18, e pelo menos uma segunda imagem com iluminação infravermelha controlada desligada, tal como mostrado na figura 17. O módulo de processamento de imagens pode processar estas pelo menos duas imagens para reduzir ou remover os artefatos. Por exemplo, e em algumas modalidades, o módulo de processamento de imagens pode alinhar as imagens e então subtrair as imagens umas das outras, tal como mostrado no diagrama de processamento na figura 19. Uma vez que a iluminação de artefatos fica essencialmente inalterada entre as duas imagens, enquanto que a textura de íris é iluminada pela iluminação infravermelha, o artefato pode ser removido ao obter uma diferença, enquanto que a textura de íris permanece. A textura de íris remanescente está ilustrada pelas linhas dentro da íris na figura 20. O sistema pode superar adicionalmente não linearidades no sensor, por exemplo, ao identificar pixels que estejam próximos ou na faixa de operação não linear do sensor (por exemplo, saturados ou escuros). O módulo de processamento de imagens pode eliminar os pixels identificados de processamento de reconhecimento de íris subsequente. Uma vez que o processo de subtração de imagem nessas regiões pode ser não linear, artefatos ainda podem permanecer usando a abordagem de subtração.
Uma outra modalidade dos presentes métodos gerencia deterioração de imagens ao explorar restrições geométricas particulares da posição do usuário, do dispositivo de captura de imagens e da fonte da deterioração ou artefatos. O módulo de processamento de imagens pode ser configurado para reconhecer que, como o usuário retém o dispositivo de captura de imagens na frente da face do usuário durante modo de aquisição de imagens de íris, o dispositivo de captura de imagens pode reduzir ou mesmo bloquear fontes de iluminação ambiente de deterioração dentro de um setor das imagens de íris obtidas, por exemplo, tal como mostrado na figura 21. O módulo de processamento de imagens pode limitar reconhecimento de íris primariamente ou unicamente para este setor, evitando assim problemas relacionados com deterioração de imagem, tal como representado na figura 22. Em algumas modalidades, reconhecimento de íris baseado neste setor da imagem pode ser mais ponderado do que outros setores ao decidir um casamento biométrico.
Em algumas modalidades, iluminação infravermelha não está prontamente disponível ou garantida durante captura de imagens. O sistema de aquisição de imagens 200 pode ser configurado para controlar e/ou fornecer iluminação infravermelha. O sistema de aquisição de imagens pode reduzir uso de energia ao iluminar a fonte de infravermelho (por exemplo, LEDs) quando o dispositivo está em modo de reconhecimento de íris, tal como mostrado na figura 23. A figura 24 representa uma modalidade do sistema de aquisição de imagens 200 usando alguns recursos dos sistemas e métodos revelados neste documento. O sistema de aquisição de imagens 200 pode ser incorporado a um dispositivo, tal como um dispositivo móvel e/ou compacto. O dispositivo pode incluir uma tela com um sensor. LEDs infravermelhos podem fornecer iluminação. Um usuário pode usar uma tela sensível ao toque ou outro dispositivo de entrada (por exemplo, teclado, botão ou reconhecimento de comando de voz) para comutar entre modo de reconhecimento de íris e modo de obter imagem padrão. O dispositivo pode incluir uma aplicação por meio da qual um usuário pode ativar um modo de captura de imagem. A aplicação pode fornecer adicionalmente um mecanismo de realimentação ou de guiamento para localizar automaticamente a íris do usuário, ou para guiar o usuário para deslocar a íris do usuário dentro de uma região adequada de captura. Em algumas modalidades, um filtro de corte IR opcional pode ser ativado ou deslocado sobre o sensor de imagem, manualmente ou automaticamente, quando em modo de captura de imagens de íris. Outros filtros (por exemplo, filtro passa IR) podem ser incorporados e/ou ativados no(s) modo(s) apropriado(s). Em certas modalidades, certos recursos do sistema de aquisição de imagens 200 podem ser contidos em um acessório ou conexão de extensão para um dispositivo móvel ou existente. Como um exemplo, tais recursos podem incluir um iluminador infravermelho, um ou mais filtros e/ou uma interface (por exemplo, sem fio ou física) para o dispositivo móvel ou existente.
Em algumas modalidades, o sistema de aquisição de imagens 200 pode incluir iluminadores infravermelhos embutidos em uma tela do sistema de aquisição de imagens 200, para iluminar um olho do usuário com iluminação infravermelha. Telas e mostradores tipicamente usam iluminação de LED branco sob uma matriz LCD. Ao adicionar ou substituir alguma parte dos LEDs de luz visível por iluminadores infravermelhos próximos, uma fonte de iluminação IR pode ser fornecida pelo mostrador propriamente dito. Em uma modalidade como esta, o sistema de aquisição de imagens 200 pode não exigir um aparelho de iluminação ou área adicional no sistema de aquisição de imagens 200 para fornecer iluminação infravermelha, economizando assim espaço.
Em certas modalidades, o sistema de aquisição de imagens 200 pode incluir um iluminador visível, por exemplo, com duas intensidades de iluminação. O iluminador visível pode ser ligado em energia baixa durante modo de aquisição de imagens de íris. A iluminação de energia baixa pode ser escolhida a fim de não distrair ou causar desconforto para o usuário. Em algumas modalidades, nível de brilho no modo de energia baixa pode ser pelo menos um fator de 2 mais escuro do que o brilho total do iluminador visível. O último nível de brilho, por exemplo, pode ser usado para iluminar uma cena maior. O iluminador visível de energia baixa pode ser usado para constringir a íris e aumentar área de íris, independente de se o usuário está no escuro ou não. Entretanto, uma vez que o iluminador visível pode ficar próximo ao olho, alguns dos filtros descritos anteriormente ainda podem passar luz visível significativa para o sensor. Portanto, em algumas modalidades, a luz visível é desligada antes de imagens da íris serem obtidas enquanto o iluminador infravermelho próximo está ligado. Em uma modalidade alternativa, a tela propriamente dita pode ser usada como uma fonte de iluminação visível.
Em algumas modalidades, uma vantagem de usar um único sensor no sistema de aquisição de imagens 200 é que espaço ocupado pelo sistema pode ser minimizado quando comparado ao uso de sensor duplo. Entretanto, em um e outro caso, uma consideração importante é a capacidade do usuário e/ou operador para usar o dispositivo sensor de sensor único ou duplo efetivamente.
Em algumas modalidades, uma superfície espelhada pode ser usada para ajudar a guiar um usuário a alinhar a íris do usuário com uma zona de captura adequada do sensor de imagem. Uma superfície espelhada pode fornecer realimentação para o usuário a respeito da posição do usuário, tal como representado na figura 25, onde um usuário está retendo um dispositivo na frente dele e uma imagem virtual de uma parte da face do usuário é vista em duas vezes a distância do usuário ao dispositivo. Entretanto, por causa de uma propriedade do sistema visual humano, dominância ocular e das exigências de nosso sistema de reconhecimento de íris, o tamanho ideal do espelho pode não escalar linearmente com a distância do usuário ao espelho tal como pode ser esperado. De fato, sob algumas condições, um aumento no tamanho do espelho para tentar e melhorar desempenho de reconhecimento de íris pode degradar desempenho ou causar dificuldade em alinhamento.
Dominância ocular é uma tendência para preferir entrada visual em um olho ou no outro. Ela ocorre na maioria dos indivíduos, com 2/3 de indivíduos tendo dominância de olho direito e 1/3 de indivíduos tendo dominância de olho esquerdo. Os presentes sistemas e métodos abordam dominância ocular e combinam propriedades de dominância ocular com restrições de reconhecimento de íris a fim de maximizar o tamanho de imagens de íris recuperadas enquanto minimizando o tamanho de um espelho usado para guiar o usuário. A figura 26 representa um campo refletivo de visualização de um espelho de um tamanho de tal maneira que ambos os olhos ocupam confortavelmente o campo de visualização. Em algumas modalidades a largura do espelho é de tal maneira que, na distância de visualização do dispositivo de aquisição de imagens 200, o campo refletivo de visualização pode ser pelo menos aproximadamente 50% maior que a reflexão da separação de olhos. Para propósitos ilustrativos o usuário está mostrado no centro do espelho. A figura 27, entretanto, mostra que na prática, por causa de dominância ocular, um usuário tipicamente fica posicionado para um lado do espelho, de tal maneira que seu olho dominante fica mais próximo do centro do espelho. Se a largura do campo de visualização do espelho for maior que 50% do campo de visualização de uma separação de olhos típica para usuários (6,5 - 7 cm), então os olhos podem permanecer dentro do campo de visualização. Portanto, ambos os olhos podem ser obtidos pelo sistema de aquisição de imagens 200 para pessoas com dominância ocular uma vez que ambos os olhos podem permanecer dentro do campo de visualização do sensor de imagem em um caso como este. Entretanto, a diâmetro de íris na imagem capturada pode ser relativamente pequeno uma vez que uma lente para o sensor tipicamente é escolhida para cobrir um amplo campo de visualização. A figura 28 representa, sem consideração de dominância ocular, uma configuração para obter imagens de ambos os olhos usando um espelho menor. O campo de visualização do espelho é menor, minimizando assim sua área em qualquer sistema de aquisição de imagens 200. Ambos os olhos podem ser obtidos se o usuário estiver posicionado no centro do espelho. Entretanto, tal como descrito anteriormente, por causa de dominância ocular, o usuário tipicamente fica posicionado à direita ou à esquerda desta posição ideal, tal como mostrado nas figuras 29 e 30. Neste cenário, um dos olhos pode ficar fora do campo de visualização da câmera. Assim, embora esta configuração tenha um espelho moderadamente grande, e mesmo se a lente puder ser configurada para obter ambos os olhos (quando em uma posição central), por causa de dominância ocular, o sistema de aquisição de imagens 200 pode obter somente um único olho com segurança na prática. A figura 31 representa um projeto que obtém imagens de íris de maior resolução quando comparada à figura 30 (isto é, melhorando desempenho de reconhecimento de íris), no entanto usa um espelho menor de tal maneira que somente o olho dominante é observado pelo usuário. Ao limitar o tamanho do espelho de maneira que somente o olho dominante fique no campo de visualização, a tendência do sistema visual do usuário para escolher o olho esquerdo ou o direito é forçada para ser uma resposta binária (por exemplo, olho direito ou esquerdo), tal como o oposto a uma resposta variável ou imprevisível (por exemplo, olhos deslocados para a direita ou esquerda) no campo de visualização. Em um algumas modalidades, o sistema de aquisição de imagens 200 pode operar ou incluir um espelho com um diâmetro de cerca de 14 mm em uma distância de operação de aproximadamente 9” (22,86 centímetros), de tal maneira que o campo refletivo de visualização do espelho corresponde a aproximadamente dois diâmetros de íris típicos (2 x 10,5 mm). A figura 32 resume e ilustra o tamanho do campo de visualização efetivo do espelho e sua relação com captura de um ou de dois olhos e também o tamanho das imagens de íris obtidas. A figura 33 representa uma modalidade do sistema de aquisição de imagens 200 pelo qual um filtro de corte IR é colocado sobre uma parte do sensor. Uma face ou outra imagem pode ser obtida por uma parte do sensor enquanto que imagem para reconhecimento de íris é obtida por uma parte coberta pelo filtro de corte IR. Dominância ocular tende a fornecer incerteza em uma direção horizontal por causa da configuração horizontal dos olhos humanos e, portanto, o sistema de aquisição de imagens 200 pode ser configurado correspondentemente com uma região de filtragem modelada horizontalmente sobre o sensor. A figura 34 representa uma outra modalidade na qual o espelho é inclinado de tal maneira que o usuário observa a montagem de sensor/lente em um ângulo, e os olhos ficam próximos ao topo do sensor em vez de no meio do sensor. Esta configuração pode permitir colocação do filtro de corte IR em uma extremidade do sensor, permitindo assim que o sensor tenha duas regiões distintas (de corte IR e não de corte IR) em vez de três regiões (não de corte IR, de corte IR e não de corte IR), que é o caso ilustrado na figura 33. Isto permite que uma parte não de íris maior e mais contígua de uma cena seja obtida. A figura 35 mostra uma outra modalidade do sistema de aquisição de imagens 200 pela qual um operador pode ficar retendo o dispositivo de aquisição de imagens 200, a fim de obter imagens de íris do usuário. Nesta modalidade, existe um canal guia transparente através do qual o operador pode olhar para alinhar com o olho do usuário. Além do mais ou alternativamente, marcadores de guiamento espaçados podem ser colocados em cima do dispositivo de aquisição de imagens 200, de maneira que o operador alinha o olho do usuário com dois marcadores, por exemplo. A figura 36 mostra uma vista expandida de uma modalidade de um canal guia. Nesta modalidade, anéis circulares podem ser impressos na parte interna do canal guia, na traseira e na frente do canal guia tal como mostrado. Quando o usuário está alinhado, estes anéis podem parecer como sendo concêntricos para o operador. De outro modo eles não serão concêntricos (olho do usuário está mal alinhado). A figura 36 também mostra um iluminador visível (LED) no dispositivo, assim como iluminadores infravermelhos que podem ser usados para o propósito do reconhecimento de íris. A figura 37 representa uma outra modalidade do sistema de aquisição de imagens. Nesta modalidade, os LEDs são controlados por controladores que por sua vez são conectados a um processador que também é conectado ao sensor usado para reconhecimento de íris.
Está ilustrada na figura 38 uma modalidade de um método para capturar imagens de uma íris e de uma cena usando um único sensor de imagem. Um sensor de imagem captura uma vista de uma cena e uma vista de uma íris em pelo menos uma imagem (382). Um módulo de processamento de imagens aplica um nível de redução de ruído a uma primeira parte da pelo menos uma imagem para produzir uma imagem da cena (384). O módulo de processamento de imagens aplica um nível reduzido de redução de ruído a uma segunda parte da pelo menos uma imagem para produzir uma imagem da íris para uso em identificação biométrica (Etapa 386).
Se referindo adicionalmente à figura 38, e com mais detalhes, um sensor de imagem 202 de um sistema de aquisição de imagens 200 captura uma vista de uma cena e uma vista de uma íris em pelo menos uma imagem (382). O sensor de imagem pode capturar a vista da cena em uma imagem e a vista da íris em uma outra imagem. Em algumas modalidades, o sensor de imagem pode capturar a vista da cena e a vista da íris em uma única imagem. Por exemplo, a vista da cena pode incluir pelo menos uma parte da íris. O sensor de imagem pode capturar a vista da cena e a vista da íris em uma pluralidade de imagens. O sensor de imagem pode capturar a vista da cena em algumas imagens e a vista da íris em outras imagens. O sensor de imagem pode capturar a vista da cena e a vista da íris em algumas imagens. O sensor de imagem pode capturar duas ou mais imagens durante um período de tempo. O sensor de imagem pode capturar duas ou mais imagens com um pequeno intervalo de tempo de uma para a outra, por exemplo, para comparação ou processamento mais tarde. O sensor de imagem pode capturar duas ou mais imagens em condições diferentes, por exemplo, com e sem iluminação infravermelha, ou com ou sem uso de qualquer tipo de filtro discutido neste documento.
Em algumas modalidades, o sistema de aquisição de imagens 200 pode compreender um modo de captura de íris e um modo de captura de cena (por exemplo, não de íris). O sensor de imagem pode capturar uma imagem da vista da cena em modo de captura de cena. O sensor de imagem pode capturar uma imagem da vista da íris em modo de captura de íris. Em certas modalidades, o sistema de aquisição de imagens 200 pode executar concorrentemente captura de imagens de íris e não de íris em um outro modo. Um usuário pode selecionar um modo para aquisição de imagens, por exemplo, por meio de uma aplicação executando no dispositivo de aquisição de imagens 200. Em algumas modalidades, o sistema de aquisição de imagens pode capturar a vista da cena e a vista da íris como componentes separáveis dentro de uma única imagem. O sistema de aquisição de imagens pode capturar a vista da cena e/ou a vista da íris usando qualquer modalidade e/ou combinação de o filtro intercalado, filtro de corte IR, filtro passa IR, e outros tipos de filtros descritos neste documento.
Em algumas modalidades, o sensor de imagem compreende uma pluralidade de nós sensores do sensor de imagem. O sensor de imagem pode ativar um primeiro subconjunto dos nós sensores adaptados primariamente para capturar uma imagem da íris adequada para identificação biométrica. O sensor de imagem pode ativar um segundo subconjunto dos nós sensores adaptados primariamente para capturar uma imagem não de íris. Um filtro passa IR (G+I) (por exemplo, permitindo que G+I passem), ou outro filtro pode ser aplicado sobre um nó sensor adaptado primariamente para capturar uma imagem da íris. Um filtro de corte IR, passa visível, passa banda específica ou de cor pode ser aplicado sobre um nó sensor adaptado primariamente para capturar uma imagem não de íris.
Em algumas modalidades, o sensor de imagem captura pelo menos uma imagem da íris enquanto iluminando a íris com iluminação infravermelha. O sensor de imagem pode capturar pelo menos uma imagem da íris sem iluminação infravermelha. O sensor de imagem pode capturar pelo menos uma imagem da íris ao desligar um iluminador de luz visível. O sensor de imagem pode capturar pelo menos uma imagem da íris usando iluminação de uma tela do sistema de aquisição de imagens 200. O sensor de imagem pode capturar pelo menos uma imagem da íris quando a íris está alinhada com uma parte do sensor usando um espelho do sistema de aquisição de imagens 200 para guiamento. O sensor de imagem pode capturar pelo menos uma imagem da íris quando a íris está alinhada com uma parte do sensor por um operador usando um canal guia transparente e/ou marcadores.
Referindo-se adicionalmente à etapa 384, um módulo de processamento de imagens pode aplicar um nível de redução de ruído a uma primeira parte da pelo menos uma imagem para produzir uma imagem da cena. O sistema de aquisição de imagens 200 pode aplicar redução de ruído em uma imagem capturada pelo sensor de imagem. O sistema de aquisição de imagens 200 pode aplicar redução de ruído em uma imagem armazenada no sistema de aquisição de imagens 200, por exemplo, em um dispositivo de armazenamento ou em armazenamento temporário. O sistema de aquisição de imagens 200 pode aplicar redução de ruído compreendendo aplicar uma função de cálculo de média ou de mediana ou filtro sobre alguns pixels de uma imagem, por exemplo, sobre uma janela de pixels 3x3. O sistema de aquisição de imagens 200 pode aplicar redução de ruído compreendendo redução de um ou de ambos de ruído variando com o tempo e não variando com o tempo de uma imagem capturada. O sistema de aquisição de imagens 200 pode considerar ou excluir um pixel falho conhecido enquanto executando processamento de imagem e/ou redução de ruído. O sistema de aquisição de imagens 200 pode aplicar redução de ruído usando um módulo de processamento de imagens que pode incluir um ou mais processadores de sinais de imagem 206 e/ou outro processador 208. O sistema de aquisição de imagens 200 pode aplicar redução de ruído ao identificar, considerar e/ou compensar a presença de ruído sistemático.
Em algumas modalidades, o módulo de processamento de imagens pode aplicar redução de ruído a uma imagem capturada em modo de captura não de íris. O módulo de processamento de imagens pode aplicar um nível de redução de ruído a uma parte de uma imagem não para identificação biométrica de íris, por exemplo, uma parte correspondendo a um filtro de corte IR. O módulo de processamento de imagens pode aplicar redução de ruído ou filtragem em uma imagem geral ou não de íris. O módulo de processamento de imagens pode gerar uma imagem de uma cena geral que é perceptivelmente melhor (por exemplo, para uma pessoa) do que uma imagem antes da redução de ruído.
Referindo-se adicionalmente à etapa 386, o módulo de processamento de imagens pode aplicar um nível reduzido de redução de ruído a uma segunda parte da pelo menos uma imagem para produzir uma imagem da íris para uso em identificação biométrica. Em algumas modalidades, o módulo de processamento de imagens pode incapacitar redução de ruído em uma imagem para uso em identificação biométrica de íris. O módulo de processamento de imagens pode determinar que o nível de ruído não sobrepuja a textura de íris capturada. O módulo de processamento de imagens pode executar identificação biométrica de íris com base em uma imagem bruta ou não processada capturada pelo sensor de imagem. O módulo de processamento de imagens pode executar identificação biométrica de íris com base em imagem capturada pelo sensor de imagem após algum processamento, por exemplo, remoção de artefatos, de ruído esporádico e/ou de ruído sistemático.
Em algumas modalidades, o módulo de processamento de imagens pode aplicar um nível reduzido de redução de ruído a uma imagem para uso em identificação biométrica de íris. O módulo de processamento de imagens pode aplicar um nível reduzido de redução de ruído a uma imagem capturada enquanto em modo de captura de íris. O módulo de processamento de imagens pode executar redução de ruído para ruído sistemático e/ou esporádico. O módulo de processamento de imagens pode incapacitar redução de ruído para ruído não sistemático. O módulo de processamento de imagens pode aplicar um nível reduzido de redução de ruído a uma parte de uma imagem extraída para identificação biométrica de íris, por exemplo, uma parte correspondendo a um filtro passa IR. O módulo de processamento de imagens pode aplicar redução de ruído sistemático a uma parte de uma imagem extraída para identificação biométrica de íris, por exemplo, uma parte correspondendo a um filtro passa IR.
Em algumas modalidades, o módulo de processamento de imagens 220 subtrai ruído de uma imagem da íris com ruído de uma outra imagem da íris. Tal subtração pode resultar em ruído sistemático e/ou ruído esporádico reduzidos. O módulo de processamento de imagens 220 pode alinhar duas imagens conjuntamente para executar a subtração. O módulo de processamento de imagens 220 pode alinhar duas imagens usando pontos comuns de referência (por exemplo, borda de formas). O módulo de processamento de imagens 220 pode alinhar duas imagens ao usar reconhecimento/comparação, correlação de padrões e/ou outros algoritmos. O módulo de processamento de imagens 220 pode subtrair ruído correspondendo à parte de sobreposição de duas imagens. O módulo de processamento de imagens 220 pode reduzir ruído de ambiente em uma imagem usando ruído de ambiente de uma outra imagem. Ruído de ambiente pode compreender sinais de luz ou iluminação ambiente. Ruído de ambiente pode compreender artefatos de fontes de iluminação circundantes ou reflexões de objetos circundantes em uma superfície do olho. Em algumas modalidades, o módulo de processamento de imagens 220 pode reduzir ruído de ambiente de uma imagem capturada na presença de iluminação infravermelha, usando ruído de ambiente de uma outra imagem capturada sem iluminação infravermelha.
Em certas modalidades, o módulo de processamento de imagens 220 pode recuperar um componente infravermelho de um ou mais pixels (G+I) imageados em um conjunto de nós sensores. O módulo de processamento de imagens 220 pode subtrair o componente G de (G+I) usando um valor de intensidade G em um pixel vizinho. Em algumas modalidades, o módulo de processamento de imagens 220 pode subtrair o componente G usando um valor de intensidade G estimado. O módulo de processamento de imagens 220 pode usar o valor de intensidade G estimado ao processar uma parte não de íris (por exemplo, cena geral) de uma imagem. Em algumas modalidades, o módulo de processamento de imagens 220 pode executar controle ou ajuste de ganho ou de brilho em uma parte da pelo menos uma imagem, para produzir uma imagem da íris para uso em identificação biométrica. Em algumas modalidades, a quantidade de iluminação infravermelha pode ser insuficiente ou subideal, de maneira que controle ou ajuste de ganho ou de brilho pode melhorar qualidade de imagem íris. Em certas modalidades, controle ou ajuste de ganho ou de brilho pode ser preferível para adicionar iluminadores infravermelhos, arrastar energia para fornecer iluminação infravermelha e/ou controlar iluminação infravermelha (por exemplo, sob condições diferentes). Uma vez que sinais infravermelhos sejam capturados por uma fração dos nós sensores/pixels (por exemplo, em um conjunto RGB(G+I)), compensação via controle ou ajuste de ganho ou de brilho pode ser apropriada.
Tendo descrito certas modalidades dos métodos e sistemas, estará agora aparente para os versados na técnica que outras modalidades incorporando os conceitos da invenção podem ser usadas. Deve ser entendido que os sistemas descritos anteriormente podem fornecer múltiplos componentes de qualquer um ou de cada um desses componentes e estes componentes podem ser fornecidos em uma máquina autônoma ou, em algumas modalidades, em múltiplas máquinas em um sistema distribuído. Os sistemas e métodos descritos anteriormente podem ser implementados como um método, aparelho ou artigo de fabricação usando técnicas de programação e/ou de engenharia para produzir software, firmware, hardware ou qualquer combinação dos mesmos. Além do mais, os sistemas e métodos descritos anteriormente podem ser fornecidos como um ou mais programas legíveis por computador incorporados em ou em um ou mais artigos de fabricação. A expressão “artigo de fabricação” tal como usada neste documento é pretendida para abranger código ou lógica acessível e embutido em um ou mais dispositivos legíveis por computador, firmware, lógica programável, dispositivos de memória (por exemplo, EEPROMs, ROMs, PROMs, RAMs, SRAMs, etc.), hardware (por exemplo, chip de circuito integrado, Matriz de Portas Programáveis em Campo (FPGA), Circuito Integrado de Aplicação Específica (ASIC), etc.), dispositivos eletrônicos, uma unidade de armazenamento não volátil legível por computador (por exemplo, CD-ROM, disco flexível, unidade de disco rígido, etc.). O artigo de fabricação pode ser acessível de um servidor de arquivo fornecendo acesso aos programas legíveis por computador por meio de uma linha de transmissão de rede, mídia de transmissão sem fio, propagação de sinais através do espaço, ondas de rádio, sinais infravermelhos, etc. O artigo de fabricação pode ser um cartão de memória flash ou uma fita magnética. O artigo de fabricação inclui lógica de hardware assim como software ou códigos programáveis embutidos em uma mídia legível por computador que é executada por um processador. De uma maneira geral, os programas legíveis por computador podem ser implementados em qualquer linguagem de programação, tais como LISP, PERL, C, C++, C#, PROLOG, ou em qualquer linguagem de codificação de bytes tal como JAVA. Os softwares podem ser armazenados em um ou mais artigos de fabricação como código de objeto.
Claims (20)
1. Método para processar imagens adquiridas usando um único sensor de imagem caracterizado por compreender: adquirir, por um sensor de imagem, uma primeira imagem de um objeto a uma distância predeterminada em relação ao sensor de imagem, a primeira imagem incluindo um componente de sinal não variando com o tempo correspondente ao objeto e um componente de sinal variando com o tempo aleatório introduzido por uma ou mais fontes de ruído; e processar a primeira imagem de acordo com uma seleção de um primeiro e um segundo modo, compreendendo: se o primeiro modo for selecionado, adquirir a primeira imagem usando uma primeira parte do sensor de imagem e processar a primeira imagem adquirida através da primeira parte, retendo sinais dos componentes de sinal não variando e variando com o tempo com frequências espaciais em e abaixo de uma frequência espacial limite predeterminada para o reconhecimento da íris, em que o objeto compreende uma íris; e se o segundo modo for selecionado, adquirir a primeira imagem usando uma segunda parte do sensor de imagem e processar a primeira imagem adquirida através da segunda parte reduzindo pelo menos uma parte dos sinais dos componentes de sinal não variando e variando com o tempo com frequências espaciais em ou abaixo da frequência espacial limite.
2. Método, de acordo com a reivindicação 1, caracterizado por se o segundo modo for selecionado, processar a primeira imagem com um processo de redução de sinal baseado em frequência ou aplicar um cálculo de média ou mediana à primeira imagem.
3. Método, de acordo com a reivindicação 1, caracterizado por compreender adicionalmente usar um primeiro tipo de filtro sobre a primeira parte do sensor de imagem e um segundo tipo de filtro sobre a segunda parte do sensor de imagem.
4. Método, de acordo com a reivindicação 1, caracterizado por o sensor de imagem compreender uma pluralidade de nós sensores, a primeira parte do sensor de imagem compreender um primeiro subconjunto dos nós sensores e a segunda parte do sensor de imagem compreender um segundo subconjunto dos nós sensores.
5. Método, de acordo com a reivindicação 1, caracterizado por o limite predeterminado ser o equivalente a 2 pares de linhas/mm para uma função de transferência de modulação de 60% para o objeto de um tamanho predeterminado e a uma distância predeterminada em relação ao sensor de imagem.
6. Método, de acordo com a reivindicação 1, caracterizado por compreender adicionalmente subtrair ruído sistemático da primeira imagem.
7. Método, de acordo com a reivindicação 1, caracterizado por compreender adicionalmente reduzir o ruído ambiente na primeira imagem.
8. Método, de acordo com a reivindicação 1, caracterizado por compreender adicionalmente reduzir o ruído ambiente de uma das primeiras imagens adquiridas na presença de iluminação infravermelha, usando o ruído ambiente de outra imagem adquirida sem iluminação infravermelha.
9. Método, de acordo com a reivindicação 1, caracterizado por compreender adicionalmente determinar a desativação de um filtro de corte infravermelho (corte IR) para o sensor de imagem ao adquirir a primeira imagem se o primeiro modo for selecionado, e ativar o corte IR do filtro ao adquirir a primeira imagem, se o segundo modo for selecionado.
10. Método, de acordo com a reivindicação 1, caracterizado por adquirir a primeira imagem compreender ativar uma pluralidade de nós sensores do sensor de imagem, a primeira parte compreendendo um primeiro subconjunto dos nós sensores configurados principalmente para capturar uma imagem da íris adequada para identificação biométrica e a segunda parte compreendendo um segundo subconjunto de nós sensores configurados principalmente para capturar uma imagem que não seja da íris.
11. Aparelho para processar imagens adquiridas usando um único sensor de imagem caracterizado por compreender: um sensor de imagem configurado para: adquirir uma primeira imagem de um objeto a uma distância predeterminada em relação ao sensor de imagem, a primeira imagem incluindo um componente de sinal não variando com o tempo correspondente ao objeto e um componente de sinal variando com o tempo aleatório introduzido por uma ou mais fontes de ruído; e um mecanismo de processamento de imagem configurado para processar a primeira imagem correspondente a uma seleção de um primeiro e um segundo modo, o módulo de processamento de imagem configurado para: se o primeiro modo for selecionado, processar a primeira imagem adquirida através de uma primeira porção do sensor de imagem retendo sinais dos componentes de sinal não variando e variando com o tempo com frequências espaciais em e abaixo de uma frequência espacial limite predeterminada para reconhecimento de íris, em que o objeto compreende uma íris; e se o segundo modo for selecionado, processar a primeira imagem adquirida por meio de uma segunda parte do sensor de imagem reduzindo pelo menos uma parte dos sinais dos componentes de sinal não variando e variando com o tempo com frequências espaciais em ou abaixo da frequência espacial limite.
12. Aparelho, de acordo com a reivindicação 11, caracterizado por o módulo de processamento de imagem ser configurado para processar a primeira imagem com um processo de redução de sinal baseado em frequência ou aplicar uma função de cálculo de média ou mediana à primeira imagem, se o segundo modo for selecionado.
13. Aparelho, de acordo com a reivindicação 11, caracterizado por compreender adicionalmente um primeiro tipo de filtro sobre a primeira parte do sensor de imagem e um segundo tipo de filtro sobre a segunda parte do sensor de imagem.
14. Aparelho, de acordo com a reivindicação 11, caracterizado por o módulo de processamento de imagem compreender uma pluralidade de nós sensores, a primeira parte do sensor de imagem compreender um primeiro subconjunto dos nós sensores e a segunda parte do sensor de imagem compreender um segundo subconjunto dos nós sensores.
15. Aparelho, de acordo com a reivindicação 11, caracterizado por o limite predeterminado ser o equivalente a 2 pares de linhas/mm para uma função de transferência de modulação de 60% para o objeto de tamanho predeterminado e a uma distância predeterminada em relação ao sensor de imagem.
16. Aparelho, de acordo com a reivindicação 11, caracterizado por o módulo de processamento de imagem ser adicionalmente configurado para subtrair ruído sistêmico da primeira imagem.
17. Aparelho, de acordo com a reivindicação 11, caracterizado por o sensor de imagem compreender um sensor Semicondutor de Óxido de Metal Complementar (CMOS).
18. Aparelho, de acordo com a reivindicação 11, caracterizado por o módulo de processamento de imagem ser configurado para reduzir o ruído ambiente da primeira imagem adquirida na presença de iluminação infravermelha, usando ruído ambiente de outra imagem adquirida sem iluminação infravermelha.
19. Aparelho, de acordo com a reivindicação 11, caracterizado por compreender adicionalmente um filtro de corte infravermelho (corte IR) que é desativado para o sensor de imagem ao adquirir a primeira imagem se o primeiro modo for selecionado, e ativado ao adquirir a primeira imagem se o segundo modo for selecionado.
20. Aparelho, de acordo com a reivindicação 11, caracterizado por o sensor de imagem compreender uma pluralidade de nós sensores, um primeiro subconjunto dos nós sensores configurados principalmente para capturar uma imagem da íris adequada para identificação biométrica, um segundo subconjunto dos nós sensores configurado principalmente para capturar uma imagem que não seja da íris.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161443757P | 2011-02-17 | 2011-02-17 | |
US61/443,757 | 2011-02-17 | ||
US201161472279P | 2011-04-06 | 2011-04-06 | |
US61/472,279 | 2011-04-06 | ||
PCT/US2012/025468 WO2012112788A2 (en) | 2011-02-17 | 2012-02-16 | Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
BR112013021160A2 BR112013021160A2 (pt) | 2019-10-01 |
BR112013021160B1 true BR112013021160B1 (pt) | 2021-06-22 |
Family
ID=46652401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112013021160-1A BR112013021160B1 (pt) | 2011-02-17 | 2012-02-16 | Método e aparelho para processar imagens adquiridas usando um único sensor de imagens |
Country Status (7)
Country | Link |
---|---|
US (2) | US9280706B2 (pt) |
EP (1) | EP2676223A4 (pt) |
KR (1) | KR102024949B1 (pt) |
CN (1) | CN103477351B (pt) |
BR (1) | BR112013021160B1 (pt) |
RU (1) | RU2589859C2 (pt) |
WO (1) | WO2012112788A2 (pt) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8260008B2 (en) | 2005-11-11 | 2012-09-04 | Eyelock, Inc. | Methods for performing biometric recognition of a human eye and corroboration of same |
US8364646B2 (en) | 2006-03-03 | 2013-01-29 | Eyelock, Inc. | Scalable searching of biometric databases using dynamic selection of data subsets |
US8604901B2 (en) | 2006-06-27 | 2013-12-10 | Eyelock, Inc. | Ensuring the provenance of passengers at a transportation facility |
WO2008036897A1 (en) | 2006-09-22 | 2008-03-27 | Global Rainmakers, Inc. | Compact biometric acquisition system and method |
EP2100253A4 (en) | 2006-10-02 | 2011-01-12 | Global Rainmakers Inc | FRAUDY BIOMETRIC SYSTEM AND METHOD FOR FINANCIAL TRANSACTIONS |
US8953849B2 (en) | 2007-04-19 | 2015-02-10 | Eyelock, Inc. | Method and system for biometric recognition |
WO2008131201A1 (en) | 2007-04-19 | 2008-10-30 | Global Rainmakers, Inc. | Method and system for biometric recognition |
US9036871B2 (en) | 2007-09-01 | 2015-05-19 | Eyelock, Inc. | Mobility identity platform |
US8212870B2 (en) | 2007-09-01 | 2012-07-03 | Hanna Keith J | Mirror system and method for acquiring biometric data |
US9002073B2 (en) | 2007-09-01 | 2015-04-07 | Eyelock, Inc. | Mobile identity platform |
US9117119B2 (en) | 2007-09-01 | 2015-08-25 | Eyelock, Inc. | Mobile identity platform |
WO2009029765A1 (en) | 2007-09-01 | 2009-03-05 | Global Rainmakers, Inc. | Mirror system and method for acquiring biometric data |
WO2009158662A2 (en) | 2008-06-26 | 2009-12-30 | Global Rainmakers, Inc. | Method of reducing visibility of illimination while acquiring high quality imagery |
US10043229B2 (en) | 2011-01-26 | 2018-08-07 | Eyelock Llc | Method for confirming the identity of an individual while shielding that individual's personal data |
BR112013021160B1 (pt) | 2011-02-17 | 2021-06-22 | Eyelock Llc | Método e aparelho para processar imagens adquiridas usando um único sensor de imagens |
US9124798B2 (en) | 2011-05-17 | 2015-09-01 | Eyelock Inc. | Systems and methods for illuminating an iris with visible light for biometric acquisition |
CN105473057B (zh) | 2013-06-18 | 2018-05-08 | 达美生物识别科技有限公司 | 用于虹膜成像的优化成像装置 |
US9113036B2 (en) | 2013-07-17 | 2015-08-18 | Ebay Inc. | Methods, systems, and apparatus for providing video communications |
BR112016015664A8 (pt) * | 2014-01-06 | 2020-06-09 | Eyelock Llc | aparelho para gerar repetidamente imagens de uma íris e dispositivo de reconhecimento de imagem de íris de uso repetitivo |
WO2015123440A1 (en) * | 2014-02-12 | 2015-08-20 | Samsung Electronics Co., Ltd. | Agile biometric camera with bandpass filter and variable light source |
WO2015131198A1 (en) * | 2014-02-28 | 2015-09-03 | Lrs Identity, Inc. | Dual iris and color camera in a mobile computing device |
JP6417676B2 (ja) * | 2014-03-06 | 2018-11-07 | ソニー株式会社 | 情報処理装置、情報処理方法、アイウェア端末および認証システム |
KR102198852B1 (ko) * | 2014-03-24 | 2021-01-05 | 삼성전자 주식회사 | 홍채 인식 장치 및 이를 포함하는 모바일 장치 |
CN104102906B (zh) * | 2014-07-16 | 2017-10-17 | 广东欧珀移动通信有限公司 | 一种应用于虹膜识别系统的数据处理方法和设备 |
KR102215077B1 (ko) * | 2014-08-04 | 2021-02-10 | 삼성전자주식회사 | 홍채인식장치 및 홍채인식방법 |
WO2016040836A1 (en) * | 2014-09-12 | 2016-03-17 | Eyelock Llc | Methods and apparatus for directing the gaze of a user in an iris recognition system |
JP6609098B2 (ja) | 2014-10-30 | 2019-11-20 | キヤノン株式会社 | 表示制御装置、表示制御方法、及びコンピュータプログラム |
CN104580854A (zh) * | 2014-12-23 | 2015-04-29 | 南昌欧菲光电技术有限公司 | 成像装置及移动终端 |
WO2016146488A1 (en) | 2015-03-13 | 2016-09-22 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Method for automatically identifying at least one user of an eye tracking device and eye tracking device |
US20160275348A1 (en) * | 2015-03-17 | 2016-09-22 | Motorola Mobility Llc | Low-power iris authentication alignment |
CN105100567B (zh) * | 2015-07-13 | 2019-07-16 | 南昌欧菲光电技术有限公司 | 成像装置及移动终端 |
US9911023B2 (en) | 2015-08-17 | 2018-03-06 | Hand Held Products, Inc. | Indicia reader having a filtered multifunction image sensor |
CN105117903B (zh) * | 2015-08-31 | 2020-03-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN105763774B (zh) * | 2016-02-29 | 2019-07-26 | 联想(北京)有限公司 | 一种摄像模组、电子设备以及图像采集方法 |
KR102532365B1 (ko) * | 2016-08-23 | 2023-05-15 | 삼성전자주식회사 | 홍채 센서를 포함하는 전자 장치 및 이의 운용 방법 |
US10880742B2 (en) | 2016-12-15 | 2020-12-29 | Fotonation Limited | Iris recognition workflow |
CN107451531B (zh) * | 2017-07-07 | 2021-09-07 | Oppo广东移动通信有限公司 | 虹膜识别方法和电子装置 |
US20190087834A1 (en) | 2017-09-15 | 2019-03-21 | Pearson Education, Inc. | Digital credential analysis in a digital credential platform |
CN107968854A (zh) * | 2017-11-22 | 2018-04-27 | 广东欧珀移动通信有限公司 | 电子设备 |
KR102507746B1 (ko) | 2018-03-02 | 2023-03-09 | 삼성전자주식회사 | 복수의 파장대역을 감지할 수 있는 카메라를 이용하여 복수의 정보를 생성하는 방법 및 이를 구현한 전자 장치 |
RU2726040C1 (ru) * | 2019-12-27 | 2020-07-08 | федеральное государственное автономное образовательное учреждение высшего образования "Санкт-Петербургский политехнический университет Петра Великого" (ФГАОУ ВО "СПбПУ") | Способ формирования идентификационного кода информационно-защитной этикетки с заданным уровнем уникальности |
CN111583456B (zh) * | 2020-04-28 | 2022-05-27 | 德施曼机电(中国)有限公司 | 基于虹膜识别的门锁装置 |
CN111583459A (zh) * | 2020-04-28 | 2020-08-25 | 德施曼机电(中国)有限公司 | 基于虹膜检测的智能门锁系统 |
Family Cites Families (252)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4231661A (en) | 1978-09-20 | 1980-11-04 | Becton, Dickinson & Company | Radial scanner |
US4641349A (en) | 1985-02-20 | 1987-02-03 | Leonard Flom | Iris recognition system |
US4910725A (en) | 1986-04-23 | 1990-03-20 | Drexler Technology Corporation | Optical recording method for data cards |
US4923263A (en) | 1988-09-22 | 1990-05-08 | The United States Of America As Represented By The Secretary Of The Army | Rotating mirror optical scanning device |
US5140469A (en) | 1990-10-03 | 1992-08-18 | Raytheon Company | Illumination apparatus for semiconductor fabrication including conical optical means |
US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US5259040A (en) | 1991-10-04 | 1993-11-02 | David Sarnoff Research Center, Inc. | Method for determining sensor motion and scene structure and image processing system therefor |
US5488675A (en) | 1994-03-31 | 1996-01-30 | David Sarnoff Research Center, Inc. | Stabilizing estimate of location of target region inferred from tracked multiple landmark regions of a video image |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5572596A (en) | 1994-09-02 | 1996-11-05 | David Sarnoff Research Center, Inc. | Automated, non-invasive iris recognition system and method |
US5615277A (en) | 1994-11-28 | 1997-03-25 | Hoffman; Ned | Tokenless security system for authorizing access to a secured computer system |
US6192142B1 (en) | 1994-11-28 | 2001-02-20 | Smarttouch, Inc. | Tokenless biometric electronic stored value transactions |
US5805719A (en) | 1994-11-28 | 1998-09-08 | Smarttouch | Tokenless identification of individuals |
US7248719B2 (en) | 1994-11-28 | 2007-07-24 | Indivos Corporation | Tokenless electronic transaction system |
US6366682B1 (en) | 1994-11-28 | 2002-04-02 | Indivos Corporation | Tokenless electronic transaction system |
US5764789A (en) | 1994-11-28 | 1998-06-09 | Smarttouch, Llc | Tokenless biometric ATM access system |
US5802199A (en) | 1994-11-28 | 1998-09-01 | Smarttouch, Llc | Use sensitive identification system |
US7613659B1 (en) | 1994-11-28 | 2009-11-03 | Yt Acquisition Corporation | System and method for processing tokenless biometric electronic transmissions using an electronic rule module clearinghouse |
US5613012A (en) | 1994-11-28 | 1997-03-18 | Smarttouch, Llc. | Tokenless identification system for authorization of electronic transactions and electronic transmissions |
US5581629A (en) | 1995-01-30 | 1996-12-03 | David Sarnoff Research Center, Inc | Method for estimating the location of an image target region from tracked multiple image landmark regions |
JPH09212644A (ja) | 1996-02-07 | 1997-08-15 | Oki Electric Ind Co Ltd | 虹彩認識装置および虹彩認識方法 |
US6320610B1 (en) | 1998-12-31 | 2001-11-20 | Sensar, Inc. | Compact imaging device incorporating rotatably mounted cameras |
US7346472B1 (en) | 2000-09-07 | 2008-03-18 | Blue Spike, Inc. | Method and device for monitoring and analyzing signals |
US5737439A (en) | 1996-10-29 | 1998-04-07 | Smarttouch, Llc. | Anti-fraud biometric scanner that accurately detects blood flow |
US6545810B1 (en) | 1997-03-06 | 2003-04-08 | Olympus Optical Co., Ltd. | Image pickup optical system and image pickup apparatus using the same |
US6144754A (en) | 1997-03-28 | 2000-11-07 | Oki Electric Industry Co., Ltd. | Method and apparatus for identifying individuals |
KR100259475B1 (ko) * | 1997-04-14 | 2000-06-15 | 최환수 | 정맥분포패턴을 이용한 개인식별방법 |
US6373968B2 (en) | 1997-06-06 | 2002-04-16 | Oki Electric Industry Co., Ltd. | System for identifying individuals |
JP3371764B2 (ja) | 1997-06-27 | 2003-01-27 | 株式会社日立製作所 | 撮像方法及び装置 |
FR2766943B1 (fr) | 1997-07-30 | 1999-10-15 | United Barcode Ind Scanner Tec | Dispositif optoelectronique d'acquisition multidirectionnelle d'images de plans-objets, notamment de codes a barres |
US6246751B1 (en) | 1997-08-11 | 2001-06-12 | International Business Machines Corporation | Apparatus and methods for user identification to deny access or service to unauthorized users |
US6554705B1 (en) | 1997-08-22 | 2003-04-29 | Blake Cumbers | Passive biometric customer identification and tracking system |
US6069967A (en) | 1997-11-04 | 2000-05-30 | Sensar, Inc. | Method and apparatus for illuminating and imaging eyes through eyeglasses |
US6064752A (en) | 1997-11-04 | 2000-05-16 | Sensar, Inc. | Method and apparatus for positioning subjects before a single camera |
US6021210A (en) | 1997-12-01 | 2000-02-01 | Sensar, Inc. | Image subtraction to remove ambient illumination |
US6055322A (en) | 1997-12-01 | 2000-04-25 | Sensor, Inc. | Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination |
US5953440A (en) | 1997-12-02 | 1999-09-14 | Sensar, Inc. | Method of measuring the focus of close-up images of eyes |
US6028949A (en) | 1997-12-02 | 2000-02-22 | Mckendall; Raymond A. | Method of verifying the presence of an eye in a close-up image |
US6088470A (en) | 1998-01-27 | 2000-07-11 | Sensar, Inc. | Method and apparatus for removal of bright or dark spots by the fusion of multiple images |
US6980670B1 (en) | 1998-02-09 | 2005-12-27 | Indivos Corporation | Biometric tokenless electronic rewards system and method |
US6850631B1 (en) | 1998-02-20 | 2005-02-01 | Oki Electric Industry Co., Ltd. | Photographing device, iris input device and iris image input method |
US5978494A (en) | 1998-03-04 | 1999-11-02 | Sensar, Inc. | Method of selecting the best enroll image for personal identification |
JP3271750B2 (ja) | 1998-03-05 | 2002-04-08 | 沖電気工業株式会社 | アイリス識別コード抽出方法及び装置、アイリス認識方法及び装置、データ暗号化装置 |
US6847737B1 (en) * | 1998-03-13 | 2005-01-25 | University Of Houston System | Methods for performing DAF data filtering and padding |
JP3315648B2 (ja) | 1998-07-17 | 2002-08-19 | 沖電気工業株式会社 | アイリスコード生成装置およびアイリス認識システム |
KR100344587B1 (ko) | 1998-09-30 | 2003-03-26 | 삼성전자 주식회사 | 단층검사장치 |
US6381347B1 (en) | 1998-11-12 | 2002-04-30 | Secugen | High contrast, low distortion optical acquistion system for image capturing |
US6532298B1 (en) | 1998-11-25 | 2003-03-11 | Iridian Technologies, Inc. | Portable authentication device and method using iris patterns |
US6289113B1 (en) | 1998-11-25 | 2001-09-11 | Iridian Technologies, Inc. | Handheld iris imaging apparatus and method |
US6424727B1 (en) | 1998-11-25 | 2002-07-23 | Iridian Technologies, Inc. | System and method of animal identification and animal transaction authorization using iris patterns |
US6377699B1 (en) | 1998-11-25 | 2002-04-23 | Iridian Technologies, Inc. | Iris imaging telephone security module and method |
KR100320465B1 (ko) | 1999-01-11 | 2002-01-16 | 구자홍 | 홍채 인식 시스템 |
US6944318B1 (en) * | 1999-01-15 | 2005-09-13 | Citicorp Development Center, Inc. | Fast matching systems and methods for personal identification |
JP3463612B2 (ja) | 1999-01-21 | 2003-11-05 | 日本電気株式会社 | 画像入力方法、画像入力装置及び記録媒体 |
JP2000259278A (ja) | 1999-03-12 | 2000-09-22 | Fujitsu Ltd | 生体情報を用いて個人認証を行う認証装置および方法 |
KR100320188B1 (ko) | 1999-03-23 | 2002-01-10 | 구자홍 | 홍채인식 시스템의 위조 판별방법 |
US6247813B1 (en) | 1999-04-09 | 2001-06-19 | Iritech, Inc. | Iris identification system and method of identifying a person through iris recognition |
US6700998B1 (en) | 1999-04-23 | 2004-03-02 | Oki Electric Industry Co, Ltd. | Iris registration unit |
JP2000347352A (ja) | 1999-06-04 | 2000-12-15 | Fuji Photo Film Co Ltd | 撮影レンズ及びレンズ付きフイルムユニット |
US6515781B2 (en) | 1999-08-05 | 2003-02-04 | Microvision, Inc. | Scanned imaging apparatus with switched feeds |
US7020351B1 (en) | 1999-10-08 | 2006-03-28 | Sarnoff Corporation | Method and apparatus for enhancing and indexing video and audio signals |
US6701029B1 (en) | 1999-11-08 | 2004-03-02 | Automatic Recognition And Control, Inc. | Ring-wedge data analysis of digital images |
JP4265076B2 (ja) * | 2000-03-31 | 2009-05-20 | 沖電気工業株式会社 | 多画角カメラ、及び自動撮影装置 |
US6810135B1 (en) * | 2000-06-29 | 2004-10-26 | Trw Inc. | Optimized human presence detection through elimination of background interference |
KR100373850B1 (ko) | 2000-10-07 | 2003-02-26 | 주식회사 큐리텍 | 홍채를 이용한 신원 확인 시스템 및 방법과 그 방법에대한 컴퓨터 프로그램 소스를 저장한 기록매체 |
KR100416065B1 (ko) | 2000-09-23 | 2004-01-24 | 주식회사 큐리텍 | 홍채무늬에 따른 인성 및 체질 분석 시스템 및 방법과프로그램 기록매체 |
US6819219B1 (en) | 2000-10-13 | 2004-11-16 | International Business Machines Corporation | Method for biometric-based authentication in wireless communication for access control |
US6763148B1 (en) | 2000-11-13 | 2004-07-13 | Visual Key, Inc. | Image recognition methods |
KR100649303B1 (ko) | 2000-11-16 | 2006-11-24 | 엘지전자 주식회사 | 양쪽 눈의 홍채 이미지 집사 장치 |
US7047418B1 (en) | 2000-11-29 | 2006-05-16 | Applied Minds, Inc. | Imaging method and device using biometric information for operator authentication |
US6930707B2 (en) | 2000-12-22 | 2005-08-16 | International Business Machines Corporation | Digital camera apparatus with biometric capability |
FR2819327B1 (fr) | 2001-01-10 | 2003-04-18 | Sagem | Dispositif d'identification optique |
GB2372165A (en) | 2001-02-10 | 2002-08-14 | Hewlett Packard Co | A method of selectively storing images |
US7095901B2 (en) | 2001-03-15 | 2006-08-22 | Lg Electronics, Inc. | Apparatus and method for adjusting focus position in iris recognition system |
SE0100887D0 (sv) | 2001-03-15 | 2001-03-15 | Fingerprint Cards Ab | Anordning och metod för behandling av fingeravtrycksinformation |
US6920236B2 (en) | 2001-03-26 | 2005-07-19 | Mikos, Ltd. | Dual band biometric identification system |
KR20020078225A (ko) | 2001-04-06 | 2002-10-18 | 주식회사 큐리텍 | 홍채, 동공, 망막 정보를 이용한 원격진료 시스템 및방법과 그 프로그램 소스를 저장한 기록매체 |
US7103235B2 (en) | 2001-04-25 | 2006-09-05 | Lockheed Martin Corporation | Extended range image processing for electro-optical systems |
US8279042B2 (en) | 2001-07-10 | 2012-10-02 | Xatra Fund Mx, Llc | Iris scan biometrics on a payment device |
WO2003011764A2 (en) * | 2001-08-03 | 2003-02-13 | Volker Westphal | Real-time imaging system and method |
KR20030034258A (ko) | 2001-08-04 | 2003-05-09 | 주식회사 큐리텍 | 홍채와 망막을 이용한 신원 확인시스템과 방법 및 그방법에 대한 컴퓨터 프로그램 소스를 저장한 기록매체 |
US7106366B2 (en) | 2001-12-19 | 2006-09-12 | Eastman Kodak Company | Image capture system incorporating metadata to facilitate transcoding |
KR20030051970A (ko) | 2001-12-20 | 2003-06-26 | 주식회사 큐리텍 | 홍채 등록 및 인식 시스템 |
KR100854890B1 (ko) | 2001-12-28 | 2008-08-28 | 엘지전자 주식회사 | 홍채 인식 시스템의 다중 조명을 이용한 홍채 등록 및인식방법 |
US20050084137A1 (en) * | 2002-01-16 | 2005-04-21 | Kim Dae-Hoon | System and method for iris identification using stereoscopic face recognition |
US7715595B2 (en) | 2002-01-16 | 2010-05-11 | Iritech, Inc. | System and method for iris identification using stereoscopic face recognition |
US6950536B2 (en) | 2002-01-25 | 2005-09-27 | Houvener Robert C | High volume mobile identity verification system and method using tiered biometric analysis |
US7362354B2 (en) | 2002-02-12 | 2008-04-22 | Hewlett-Packard Development Company, L.P. | Method and system for assessing the photo quality of a captured image in a digital still camera |
AUPS158302A0 (en) * | 2002-04-09 | 2002-05-16 | Scan Optics Pty Ltd | Improved fundus camera |
JP2003323607A (ja) | 2002-04-30 | 2003-11-14 | Matsushita Electric Ind Co Ltd | 虹彩撮像装置 |
US7598975B2 (en) | 2002-06-21 | 2009-10-06 | Microsoft Corporation | Automatic face extraction for use in recorded meetings timelines |
US20040042643A1 (en) * | 2002-08-28 | 2004-03-04 | Symtron Technology, Inc. | Instant face recognition system |
JP4062031B2 (ja) | 2002-09-25 | 2008-03-19 | セイコーエプソン株式会社 | ガンマ補正方法、ガンマ補正装置及び画像読み取りシステム |
US7385626B2 (en) | 2002-10-21 | 2008-06-10 | Sarnoff Corporation | Method and system for performing surveillance |
US7236534B1 (en) * | 2002-11-06 | 2007-06-26 | Jabil Circuit, Inc. | Method and apparatus for noise reduction by spectral and subcarrier averaging |
KR20030005113A (ko) | 2002-12-04 | 2003-01-15 | 주식회사 큐리텍 | 홍채를 이용한 신원 확인 시스템 및 방법과 그 방법에대한 컴퓨터 프로그램 소스를 저장한 기록매체 |
FR2851673B1 (fr) | 2003-02-20 | 2005-10-14 | Sagem | Procede d'identification de personnes et systeme pour la mise en oeuvre du procede |
US7369759B2 (en) | 2003-03-27 | 2008-05-06 | Matsushita Electric Industrial Co., Ltd. | Eye image pickup apparatus, iris authentication apparatus and portable terminal device having iris authentication function |
KR200321670Y1 (ko) | 2003-05-07 | 2003-07-31 | 주식회사 큐리텍 | 홍채 인식용 카메라 |
KR20050005336A (ko) | 2003-07-01 | 2005-01-13 | 주식회사 큐리텍 | 홍채 촬영 및 일반 촬영 겸용 광학 구조를 갖는 휴대용단말기 |
US7152782B2 (en) | 2003-07-11 | 2006-12-26 | Visa International Service Association | System and method for managing electronic data transfer applications |
JP4461739B2 (ja) * | 2003-08-18 | 2010-05-12 | ソニー株式会社 | 撮像装置 |
US20050084179A1 (en) | 2003-09-04 | 2005-04-21 | Keith Hanna | Method and apparatus for performing iris recognition from an image |
US8705808B2 (en) * | 2003-09-05 | 2014-04-22 | Honeywell International Inc. | Combined face and iris recognition system |
JP3781028B2 (ja) | 2003-10-01 | 2006-05-31 | 松下電器産業株式会社 | 目画像撮像装置 |
FR2860629B1 (fr) | 2003-10-01 | 2005-12-02 | Sagem | Dispositif de positionnement d'un utilisateur par reperage sur les deux yeux |
KR200340273Y1 (ko) | 2003-10-16 | 2004-01-31 | 주식회사 큐리텍 | 홍채 유도 장치 |
KR100572626B1 (ko) | 2003-11-04 | 2006-04-24 | 주식회사 큐리텍 | 홍채 등록 장치 |
KR100580630B1 (ko) | 2003-11-19 | 2006-05-16 | 삼성전자주식회사 | 적외선을 이용한 사람 식별 장치 및 방법 |
KR20050051861A (ko) | 2003-11-28 | 2005-06-02 | 주식회사 큐리텍 | 멀티 카메라 구조 |
JP3945474B2 (ja) | 2003-11-28 | 2007-07-18 | 松下電器産業株式会社 | 眼画像入力装置および認証装置ならびに画像処理方法 |
US7398925B2 (en) | 2003-12-09 | 2008-07-15 | First Data Corporation | Systems and methods for assessing the risk of a financial transaction using biometric information |
FR2864290B1 (fr) * | 2003-12-18 | 2006-05-26 | Sagem | Procede et dispositif de reconnaissance d'iris |
EP1696382A1 (en) | 2003-12-19 | 2006-08-30 | Matsushita Electric Industries Co., Ltd. | Iris image pickup camera and iris authentication system |
US7212330B2 (en) * | 2004-03-22 | 2007-05-01 | Angstrom, Inc. | Three-dimensional imaging system for pattern recognition |
KR200352669Y1 (ko) | 2004-03-25 | 2004-06-05 | 주식회사 큐리텍 | 신분증 위변조 식별장치 |
US7542592B2 (en) | 2004-03-29 | 2009-06-02 | Siemesn Corporate Research, Inc. | Systems and methods for face detection and recognition using infrared imaging |
KR200355279Y1 (ko) | 2004-04-13 | 2004-07-05 | 주식회사 큐리텍 | 홍채 및 일반 촬영 겸용 카메라 |
US7542590B1 (en) | 2004-05-07 | 2009-06-02 | Yt Acquisition Corporation | System and method for upgrading biometric data |
FR2870948B1 (fr) | 2004-05-25 | 2006-09-01 | Sagem | Dispositif de positionnement d'un utilisateur par affichage de son image en miroir, dispositif de capture d'images et procede de positionnement correspondants |
JP2005334402A (ja) * | 2004-05-28 | 2005-12-08 | Sanyo Electric Co Ltd | 認証方法および認証装置 |
CA2569527A1 (en) | 2004-06-01 | 2005-12-15 | L-3 Communications Corporation | Video flashlight/vision alert |
CN101027678B (zh) * | 2004-06-21 | 2011-09-21 | 谷歌公司 | 基于单个图像的多生物统计系统及方法 |
FR2871910B1 (fr) | 2004-06-22 | 2006-09-22 | Sagem | Procede de codage de donnees biometriques, procede de controle d'identite et dispositifs pour la mise en oeuvre des procedes |
US7639840B2 (en) | 2004-07-28 | 2009-12-29 | Sarnoff Corporation | Method and apparatus for improved video surveillance through classification of detected objects |
US7929017B2 (en) | 2004-07-28 | 2011-04-19 | Sri International | Method and apparatus for stereo, multi-camera tracking and RF and video track fusion |
WO2006012645A2 (en) | 2004-07-28 | 2006-02-02 | Sarnoff Corporation | Method and apparatus for total situational awareness and monitoring |
US7558406B1 (en) | 2004-08-03 | 2009-07-07 | Yt Acquisition Corporation | System and method for employing user information |
US8190907B2 (en) | 2004-08-11 | 2012-05-29 | Sony Computer Entertainment Inc. | Process and apparatus for automatically identifying user of consumer electronics |
KR200367917Y1 (ko) | 2004-08-16 | 2004-11-17 | 주식회사 큐리텍 | 광학적 안정성을 갖는 홍채 인식용 카메라 모듈 |
US7949295B2 (en) | 2004-08-18 | 2011-05-24 | Sri International | Automated trainee monitoring and performance evaluation system |
WO2006039003A2 (en) | 2004-08-20 | 2006-04-13 | Viisage Technology, Inc. | Method and system to authenticate an object |
CA2568633C (en) | 2004-10-15 | 2008-04-01 | Oren Halpern | A system and a method for improving the captured images of digital still cameras |
KR100682898B1 (ko) | 2004-11-09 | 2007-02-15 | 삼성전자주식회사 | 적외선을 이용한 영상 장치 및 그의 영상 식별 방법 |
US7616788B2 (en) | 2004-11-12 | 2009-11-10 | Cogent Systems, Inc. | System and method for fast biometric pattern matching |
KR100629550B1 (ko) | 2004-11-22 | 2006-09-27 | 아이리텍 잉크 | 다중스케일 가변영역분할 홍채인식 방법 및 시스템 |
US7869627B2 (en) | 2004-12-07 | 2011-01-11 | Aoptix Technologies, Inc. | Post processing of iris images to increase image quality |
US7428320B2 (en) | 2004-12-07 | 2008-09-23 | Aoptix Technologies, Inc. | Iris imaging using reflection from the eye |
US7418115B2 (en) | 2004-12-07 | 2008-08-26 | Aoptix Technologies, Inc. | Iris imaging using reflection from the eye |
KR200383808Y1 (ko) | 2005-01-21 | 2005-05-10 | 주식회사 큐리텍 | 홍채 이미지 획득 카메라 |
JP4641424B2 (ja) | 2005-02-02 | 2011-03-02 | キヤノン株式会社 | 撮像装置 |
US7668388B2 (en) | 2005-03-03 | 2010-02-23 | Mitutoyo Corporation | System and method for single image focus assessment |
US7697786B2 (en) | 2005-03-14 | 2010-04-13 | Sarnoff Corporation | Method and apparatus for detecting edges of an object |
US7542628B2 (en) | 2005-04-11 | 2009-06-02 | Sarnoff Corporation | Method and apparatus for providing strobed image capture |
FR2884947B1 (fr) | 2005-04-25 | 2007-10-12 | Sagem | Procede d'acquisition de la forme de l'iris d'un oeil |
US7634114B2 (en) | 2006-09-01 | 2009-12-15 | Sarnoff Corporation | Method and apparatus for iris biometric systems for use in an entryway |
KR200404650Y1 (ko) | 2005-08-02 | 2005-12-27 | 주식회사 큐리텍 | 홍채인식 마우스 |
JP3930898B2 (ja) | 2005-08-08 | 2007-06-13 | 松下電器産業株式会社 | 画像合成装置および画像合成方法 |
US20070098229A1 (en) | 2005-10-27 | 2007-05-03 | Quen-Zong Wu | Method and device for human face detection and recognition used in a preset environment |
US8260008B2 (en) | 2005-11-11 | 2012-09-04 | Eyelock, Inc. | Methods for performing biometric recognition of a human eye and corroboration of same |
US7801335B2 (en) | 2005-11-11 | 2010-09-21 | Global Rainmakers Inc. | Apparatus and methods for detecting the presence of a human eye |
FR2895122B1 (fr) | 2005-12-16 | 2008-02-01 | Sagem Defense Securite | Procede de securisation d'un acces physique et dispositf d'acces implementant le procede |
US7545962B2 (en) | 2005-12-22 | 2009-06-09 | Daon Holdings Limited | Biometric authentication system |
US20070145273A1 (en) * | 2005-12-22 | 2007-06-28 | Chang Edward T | High-sensitivity infrared color camera |
KR100729813B1 (ko) | 2006-01-20 | 2007-06-18 | (주)자이리스 | 홍채 인증용 촬영장치, 홍채 인증용 촬영모듈 및 홍채인증용 촬영장치를 구비하는 단말기 |
FR2896604B1 (fr) | 2006-01-23 | 2008-12-26 | Sagem Defense Securite | Procedes de determination d'un identifiant et de verification biometrique et systemes associes |
US8364646B2 (en) | 2006-03-03 | 2013-01-29 | Eyelock, Inc. | Scalable searching of biometric databases using dynamic selection of data subsets |
US20080089554A1 (en) * | 2006-03-03 | 2008-04-17 | Catcher Inc. | Device and method for digitally watermarking an image with data |
US20070211922A1 (en) | 2006-03-10 | 2007-09-13 | Crowley Christopher W | Integrated verification and screening system |
JP2007249556A (ja) | 2006-03-15 | 2007-09-27 | Fujitsu Ltd | 生体情報を用いた個人認証システム,方法およびプログラム |
CA2644545C (en) | 2006-03-23 | 2013-01-22 | Amo Manufacturing Usa, Llc | Systems and methods for wavefront reconstruction for aperture with arbitrary shape |
FR2899357B1 (fr) | 2006-03-29 | 2008-06-20 | Sagem Defense Securite | Traitement de donnees biometriques dans un referentiel multi dimensionnel. |
FR2900482B1 (fr) | 2006-04-28 | 2008-06-20 | Sagem Defense Securite | Procede d'identification d'une personne par analyse des cara cteristiques de ses cils |
US20070286462A1 (en) | 2006-04-28 | 2007-12-13 | David Usher | System and method for biometric retinal identification |
WO2008039252A2 (en) | 2006-05-15 | 2008-04-03 | Retica Systems, Inc. | Multimodal ocular biometric system |
FR2901898B1 (fr) | 2006-06-06 | 2008-10-17 | Sagem Defense Securite | Procede d'identification et dispositif d'acquisition pour la mise en oeuvre dudit procede |
KR100757167B1 (ko) * | 2006-06-09 | 2007-09-07 | 엘지이노텍 주식회사 | 생체인식 촬상을 위한 카메라모듈을 구비한 이동통신단말기및 그 영상처리 방법 |
US8604901B2 (en) | 2006-06-27 | 2013-12-10 | Eyelock, Inc. | Ensuring the provenance of passengers at a transportation facility |
FR2903513B1 (fr) | 2006-07-10 | 2008-12-05 | Sagem Defense Securite | Procede d'identification d'un individu utilisant une fonctio n de transformation et dispositif d'identification associe |
JP4752660B2 (ja) | 2006-07-28 | 2011-08-17 | 沖電気工業株式会社 | 個人認証方法及び個人認証装置 |
US7609958B2 (en) | 2006-08-01 | 2009-10-27 | Eastman Kodak Company | Automatic focus system calibration for image capture systems |
US9235733B2 (en) * | 2006-08-11 | 2016-01-12 | J. Douglas Birdwell | Mobile biometrics information collection and identification |
US7916908B1 (en) | 2006-09-06 | 2011-03-29 | SMSC Holdings S.à.r.l | Fingerprint sensor and method of transmitting a sensor image to reduce data size and data rate |
US7574021B2 (en) | 2006-09-18 | 2009-08-11 | Sarnoff Corporation | Iris recognition for a secure facility |
FR2906387A1 (fr) | 2006-09-21 | 2008-03-28 | St Microelectronics Sa | Procede et dispositif de selection d'images dans une sequence d'images d'iris recue en flux continu |
WO2008036897A1 (en) | 2006-09-22 | 2008-03-27 | Global Rainmakers, Inc. | Compact biometric acquisition system and method |
JP4650386B2 (ja) | 2006-09-29 | 2011-03-16 | 沖電気工業株式会社 | 個人認証システム及び個人認証方法 |
EP2100253A4 (en) | 2006-10-02 | 2011-01-12 | Global Rainmakers Inc | FRAUDY BIOMETRIC SYSTEM AND METHOD FOR FINANCIAL TRANSACTIONS |
US20130212655A1 (en) | 2006-10-02 | 2013-08-15 | Hector T. Hoyos | Efficient prevention fraud |
JP2010509672A (ja) * | 2006-11-03 | 2010-03-25 | スノウフレイク テクノロジーズ コーポレーション | 生体認識情報の抽出と対照のための方法及び装置 |
RU2318438C1 (ru) * | 2006-11-28 | 2008-03-10 | Дмитрий Евгеньевич Антонов | Устройство для получения изображения радужной оболочки глаза |
US8092021B1 (en) | 2007-01-26 | 2012-01-10 | Aoptix Technologies, Inc. | On-axis illumination for iris imaging |
US8025399B2 (en) | 2007-01-26 | 2011-09-27 | Aoptix Technologies, Inc. | Combined iris imager and wavefront sensor |
FR2912532B1 (fr) | 2007-02-14 | 2009-04-03 | Sagem Defense Securite | Dispositif de capture biometrique securise |
US20090074256A1 (en) | 2007-03-05 | 2009-03-19 | Solidus Networks, Inc. | Apparatus and methods for testing biometric equipment |
US8023699B2 (en) * | 2007-03-09 | 2011-09-20 | Jiris Co., Ltd. | Iris recognition system, a method thereof, and an encryption system using the same |
WO2008131201A1 (en) | 2007-04-19 | 2008-10-30 | Global Rainmakers, Inc. | Method and system for biometric recognition |
US7568802B2 (en) * | 2007-05-09 | 2009-08-04 | Honeywell International Inc. | Eye-safe near infra-red imaging illumination method and system |
US20120239458A9 (en) | 2007-05-18 | 2012-09-20 | Global Rainmakers, Inc. | Measuring Effectiveness of Advertisements and Linking Certain Consumer Activities Including Purchases to Other Activities of the Consumer |
US20090268045A1 (en) | 2007-08-02 | 2009-10-29 | Sudipto Sur | Apparatus and methods for configuration and optimization of image sensors for gaze tracking applications |
US9117119B2 (en) * | 2007-09-01 | 2015-08-25 | Eyelock, Inc. | Mobile identity platform |
US8212870B2 (en) | 2007-09-01 | 2012-07-03 | Hanna Keith J | Mirror system and method for acquiring biometric data |
US9002073B2 (en) * | 2007-09-01 | 2015-04-07 | Eyelock, Inc. | Mobile identity platform |
US9036871B2 (en) * | 2007-09-01 | 2015-05-19 | Eyelock, Inc. | Mobility identity platform |
WO2009029765A1 (en) | 2007-09-01 | 2009-03-05 | Global Rainmakers, Inc. | Mirror system and method for acquiring biometric data |
FR2924247B1 (fr) | 2007-11-22 | 2009-11-13 | Sagem Securite | Procede d'identification d'une personne par son iris. |
WO2009066770A1 (ja) | 2007-11-22 | 2009-05-28 | Nikon Corporation | デジタルカメラおよびデジタルカメラシステム |
US8028896B2 (en) | 2007-12-14 | 2011-10-04 | Bank Of America Corporation | Authentication methods for use in financial transactions and information banking |
FR2925732B1 (fr) | 2007-12-21 | 2010-02-12 | Sagem Securite | Generation et utilisation d'une cle biometrique |
KR101014325B1 (ko) | 2008-02-11 | 2011-02-14 | 김동의 | 적외선을 이용한 얼굴인식 시스템 및 방법 |
JP5055166B2 (ja) | 2008-02-29 | 2012-10-24 | キヤノン株式会社 | 眼の開閉度判定装置、方法及びプログラム、撮像装置 |
KR20090106791A (ko) | 2008-04-07 | 2009-10-12 | (주)아이리사 아이디 | 볼록거울을 이용한 홍채인식 장치 |
US20090268030A1 (en) * | 2008-04-29 | 2009-10-29 | Honeywell International Inc. | Integrated video surveillance and cell phone tracking system |
US20090273562A1 (en) | 2008-05-02 | 2009-11-05 | International Business Machines Corporation | Enhancing computer screen security using customized control of displayed content area |
US9131141B2 (en) * | 2008-05-12 | 2015-09-08 | Sri International | Image sensor with integrated region of interest calculation for iris capture, autofocus, and gain control |
WO2009158662A2 (en) | 2008-06-26 | 2009-12-30 | Global Rainmakers, Inc. | Method of reducing visibility of illimination while acquiring high quality imagery |
US8243133B1 (en) | 2008-06-28 | 2012-08-14 | Aoptix Technologies, Inc. | Scale-invariant, resolution-invariant iris imaging using reflection from the eye |
US8132912B1 (en) | 2008-06-29 | 2012-03-13 | Aoptix Technologies, Inc. | Iris imaging system using circular deformable mirror mounted by its circumference |
US8159328B2 (en) | 2008-07-16 | 2012-04-17 | George William Luckhardt | Biometric authentication and verification |
US9053524B2 (en) * | 2008-07-30 | 2015-06-09 | Fotonation Limited | Eye beautification under inaccurate localization |
US8090246B2 (en) | 2008-08-08 | 2012-01-03 | Honeywell International Inc. | Image acquisition system |
FR2935508B1 (fr) | 2008-09-01 | 2010-09-17 | Sagem Securite | Procede de determination d'une pseudo-identite a partir de caracteristiques de minuties et dispositif associe. |
US8306279B2 (en) | 2008-09-15 | 2012-11-06 | Eyelock, Inc. | Operator interface for face and iris recognition devices |
KR101030613B1 (ko) | 2008-10-08 | 2011-04-20 | 아이리텍 잉크 | 아이이미지에서 관심영역정보 및 인식적 정보획득방법 |
US20100278394A1 (en) | 2008-10-29 | 2010-11-04 | Raguin Daniel H | Apparatus for Iris Capture |
US8317325B2 (en) | 2008-10-31 | 2012-11-27 | Cross Match Technologies, Inc. | Apparatus and method for two eye imaging for iris identification |
KR101017798B1 (ko) * | 2008-11-03 | 2011-03-02 | 서울대학교산학협력단 | 평균 곡률을 이용하는 지정맥 인증 방법 및 장치 |
US8687856B2 (en) * | 2008-11-26 | 2014-04-01 | Bioptigen, Inc. | Methods, systems and computer program products for biometric identification by tissue imaging using optical coherence tomography (OCT) |
US8787623B2 (en) * | 2008-11-26 | 2014-07-22 | Bioptigen, Inc. | Methods, systems and computer program products for diagnosing conditions using unique codes generated from a multidimensional image of a sample |
EP3798996A1 (de) | 2009-01-07 | 2021-03-31 | IDEMIA Identity & Security Germany AG | Vorrichtung zur personendurchgangskontrolle |
US7912252B2 (en) | 2009-02-06 | 2011-03-22 | Robert Bosch Gmbh | Time-of-flight sensor-assisted iris capture system and method |
US8195044B2 (en) | 2009-03-30 | 2012-06-05 | Eyelock Inc. | Biometric camera mount system |
US8446149B2 (en) * | 2009-04-17 | 2013-05-21 | Siemens Medical Solutions Usa, Inc. | System for improved MR image reconstruction |
US8963949B2 (en) * | 2009-04-22 | 2015-02-24 | Qualcomm Incorporated | Image selection and combination method and device |
US8443202B2 (en) | 2009-08-05 | 2013-05-14 | Daon Holdings Limited | Methods and systems for authenticating users |
US9357920B2 (en) * | 2009-09-04 | 2016-06-07 | University Of Virginia Patent Foundation | Hand-held portable fundus camera for screening photography |
US20110119141A1 (en) | 2009-11-16 | 2011-05-19 | Hoyos Corporation | Siccolla Identity Verification Architecture and Tool |
US9213895B2 (en) | 2010-01-27 | 2015-12-15 | Iris Id | Iris scanning apparatus employing wide-angle camera, for identifying subject, and method thereof |
RU97839U1 (ru) * | 2010-04-27 | 2010-09-20 | Дмитрий Евгеньевич Антонов | Устройство для получения изображений радужных оболочек глаз |
US8477372B2 (en) * | 2010-05-18 | 2013-07-02 | Xerox Corporation | Updating an image quality metric database to account for printer drift |
KR101197678B1 (ko) | 2010-06-23 | 2012-11-28 | 주식회사 아이락글로벌 | 홍채 진단을 통한 건강 관리 시스템 및 방법 |
JP5574515B2 (ja) | 2010-07-12 | 2014-08-20 | フィンガープリント カーズ アーベー | 生体認証デバイス及び方法 |
US8908008B2 (en) | 2010-07-16 | 2014-12-09 | Hewlett-Packard Development Company, L.P. | Methods and systems for establishing eye contact and accurate gaze in remote collaboration |
US8719584B2 (en) | 2010-10-26 | 2014-05-06 | Bi2 Technologies, LLC | Mobile, wireless hand-held biometric capture, processing and communication system and method for biometric identification |
US8938105B2 (en) * | 2010-10-28 | 2015-01-20 | Kabushiki Kaisha Toshiba | Denoising method and system for preserving clinically significant structures in reconstructed images using adaptively weighted anisotropic diffusion filter |
US8666895B2 (en) * | 2011-01-31 | 2014-03-04 | Bank Of America Corporation | Single action mobile transaction device |
BR112013021160B1 (pt) | 2011-02-17 | 2021-06-22 | Eyelock Llc | Método e aparelho para processar imagens adquiridas usando um único sensor de imagens |
US8824749B2 (en) | 2011-04-05 | 2014-09-02 | Microsoft Corporation | Biometric recognition |
KR20140050603A (ko) | 2011-04-06 | 2014-04-29 | 아이락 인크. | 이동 식별 플랫폼 |
EP2700041A4 (en) | 2011-04-19 | 2015-04-08 | Eyelock Inc | BIOMETRIC ORIGINAL CHAIN |
US9124798B2 (en) | 2011-05-17 | 2015-09-01 | Eyelock Inc. | Systems and methods for illuminating an iris with visible light for biometric acquisition |
RU2623795C2 (ru) | 2011-08-22 | 2017-06-29 | АЙЛОК ЭлЭлСи | Системы и способы для захвата безартефактных изображений |
US20130088583A1 (en) * | 2011-10-07 | 2013-04-11 | Aoptix Technologies, Inc. | Handheld Iris Imager |
US9195900B2 (en) * | 2011-11-21 | 2015-11-24 | Pixart Imaging Inc. | System and method based on hybrid biometric detection |
US9231729B2 (en) | 2012-02-28 | 2016-01-05 | Spatial Digital Systems, Inc. | Resource allocation in PON networks via wave-front multiplexing and de-multiplexing |
KR101366748B1 (ko) | 2012-03-20 | 2014-02-24 | 주식회사 이리언스 | 홍채인식을 통한 웹사이트 보안 로그인 시스템 및 방법 |
US8831295B2 (en) | 2012-03-21 | 2014-09-09 | Authentec, Inc. | Electronic device configured to apply facial recognition based upon reflected infrared illumination and related methods |
US8411909B1 (en) | 2012-06-26 | 2013-04-02 | Google Inc. | Facial recognition |
KR101374049B1 (ko) | 2012-08-20 | 2014-03-12 | 주식회사 이리언스 | 개선된 홍채 인증 시스템 및 홍채 인증 방법 |
KR101995566B1 (ko) | 2012-08-31 | 2019-07-03 | 주식회사 이리언스 | 안구 위치 유도를 위한 가이드를 구비한 홍채 인증 시스템 |
KR101455609B1 (ko) | 2012-09-25 | 2014-10-28 | 주식회사 이리언스 | 홍채 정보를 이용한 카드 결제 시스템 및 카드 결제 방법 |
KR102010421B1 (ko) | 2012-10-19 | 2019-08-14 | 주식회사 이리언스 | 인증서 사용 관리 시스템 및 인증서 사용 관리 방법 |
-
2012
- 2012-02-16 BR BR112013021160-1A patent/BR112013021160B1/pt not_active IP Right Cessation
- 2012-02-16 RU RU2013142254/08A patent/RU2589859C2/ru not_active IP Right Cessation
- 2012-02-16 CN CN201280017539.7A patent/CN103477351B/zh active Active
- 2012-02-16 WO PCT/US2012/025468 patent/WO2012112788A2/en active Application Filing
- 2012-02-16 EP EP12747311.4A patent/EP2676223A4/en not_active Ceased
- 2012-02-16 US US13/398,562 patent/US9280706B2/en not_active Expired - Fee Related
- 2012-02-16 KR KR1020137024678A patent/KR102024949B1/ko active IP Right Grant
-
2016
- 2016-03-04 US US15/061,482 patent/US10116888B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20160191827A1 (en) | 2016-06-30 |
WO2012112788A2 (en) | 2012-08-23 |
US10116888B2 (en) | 2018-10-30 |
KR102024949B1 (ko) | 2019-09-24 |
US20120212597A1 (en) | 2012-08-23 |
RU2589859C2 (ru) | 2016-07-10 |
WO2012112788A3 (en) | 2013-01-03 |
RU2013142254A (ru) | 2015-03-27 |
US9280706B2 (en) | 2016-03-08 |
EP2676223A4 (en) | 2016-08-10 |
KR20140049980A (ko) | 2014-04-28 |
CN103477351B (zh) | 2019-06-28 |
EP2676223A2 (en) | 2013-12-25 |
CN103477351A (zh) | 2013-12-25 |
BR112013021160A2 (pt) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112013021160B1 (pt) | Método e aparelho para processar imagens adquiridas usando um único sensor de imagens | |
US10296791B2 (en) | Mobile identity platform | |
US9002073B2 (en) | Mobile identity platform | |
US9036871B2 (en) | Mobility identity platform | |
US20160019420A1 (en) | Multispectral eye analysis for identity authentication | |
JP6984724B2 (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム | |
KR20140050603A (ko) | 이동 식별 플랫폼 | |
JPWO2019163065A1 (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム | |
JP7401013B2 (ja) | 情報処理装置、制御装置、情報処理方法及びプログラム | |
CA3041991A1 (en) | System and method for correcting color of digital image based on the human sclera and pupil | |
US20210165144A1 (en) | Image pickup apparatus and image processing apparatus | |
JP6759142B2 (ja) | 生体認証装置、及び方法 | |
WO2020121520A1 (ja) | 画像処理装置、認証システム、画像処理方法、認証方法、及び、記録媒体 | |
WO2022096934A2 (ko) | 홍채 인식 방법 및 장치 | |
EP3387675B1 (en) | Image sensor configured for dual mode operation | |
JP2022028850A (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム | |
WO2021153149A1 (ja) | 判定装置 | |
US20230041725A1 (en) | Determination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B25A | Requested transfer of rights approved |
Owner name: EYELOCK LLC (US) |
|
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 16/02/2012, OBSERVADAS AS CONDICOES LEGAIS. |
|
B21F | Lapse acc. art. 78, item iv - on non-payment of the annual fees in time |
Free format text: REFERENTE A 12A ANUIDADE. |
|
B24J | Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12) |
Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2762 DE 12-12-2023 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013. |