Nothing Special   »   [go: up one dir, main page]

ES2636832B1 - Sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos - Google Patents

Sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos Download PDF

Info

Publication number
ES2636832B1
ES2636832B1 ES201730169A ES201730169A ES2636832B1 ES 2636832 B1 ES2636832 B1 ES 2636832B1 ES 201730169 A ES201730169 A ES 201730169A ES 201730169 A ES201730169 A ES 201730169A ES 2636832 B1 ES2636832 B1 ES 2636832B1
Authority
ES
Spain
Prior art keywords
video
sensors
cameras
events
capturers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES201730169A
Other languages
English (en)
Other versions
ES2636832A1 (es
Inventor
Eduardo Cermeño Mediavilla
Rafael GIL DE MIGUEL
Ana Pérez Fernández
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VAELSYS FORMACION Y DESARROLLO SL
Original Assignee
VAELSYS FORMACION Y DESARROLLO SL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VAELSYS FORMACION Y DESARROLLO SL filed Critical VAELSYS FORMACION Y DESARROLLO SL
Priority to ES201730169A priority Critical patent/ES2636832B1/es
Publication of ES2636832A1 publication Critical patent/ES2636832A1/es
Application granted granted Critical
Publication of ES2636832B1 publication Critical patent/ES2636832B1/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

Sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos.#La invención se refiere a un sistema de videovigilancia basado en análisis de secuencias generadas por eventos, que comprende: uno o más sensores (1) configurados para recibir información de un entorno sometido a vigilancia; un módulo (2) de activación de eventos conectado a los sensores (1), configurado para la lectura, análisis y tratamiento de la información recibida por los sensores (1), así como para la definición de eventos asociados a uno o más valores umbral de dicha información recibida por los sensores (1); una o más cámaras (3) de vídeo, conectadas al módulo (2) de activación de eventos y configuradas por dicho módulo (2) para el control de las mismas; y uno o más capturadores (4) de vídeo, configurados para registrar y almacenar la información captada por las cámaras (3) durante una o más secuencias asociadas a los eventos definidos por el módulo (2) de activación.

Description

5
10
15
20
25
30
35
DESCRIPCIÓN
SISTEMA DE VIDEOVIGILANCIA BASADO EN ANÁLISIS DE SECUENCIAS DE IMÁGENES GENERADAS POR EVENTOS
CAMPO DE LA INVENCIÓN
La presente invención se enmarca en el campo de la videovigilancia, es decir, de las tecnologías de detección de actividad o presencia basadas en análisis de vídeo. Más concretamente, la invención se refiere a un sistema de videovigilancia configurado para realizar análisis de precisión de las imágenes captadas, donde dicho análisis se aplica sobre determinadas secuencias de imágenes o clips definidos por diferentes eventos configurables. El sistema de la invención permite, además, su combinación con otros sistemas de detección y proceso de vídeo tradicionales, mejorando sustancialmente la eficacia y la precisión de los mismos.
ANTECEDENTES DE LA INVENCIÓN
Los sistemas de detección de movimiento por análisis de vídeo consisten, de forma general, en equipos de procesado de vídeo que analizan los cambios que se producen en una secuencia de imágenes, con el objetivo de detectar cambios que representan elementos en movimiento. Ejemplos de dichos elementos en movimiento pueden ser personas, vehículos, animales, etc.
Los sistemas de detección de movimiento tradicionales analizan vídeo de forma continua, lo que supone un importante consumo de recursos de almacenamiento y procesamiento de información. Además, dicho consumo aumenta con la resolución de las imágenes ya que, a mayor resolución, es necesario procesar un número mayor de píxeles y, por tanto, ello exige un mayor consumo de recursos de computación. Si bien a lo largo del tiempo se han propuesto distintas soluciones para atenuar este problema, la realidad es que procesar vídeo en tiempo real limita sensiblemente, aún en la actualidad, la potencia de los algoritmos de análisis que pueden aplicarse o, alternativamente, multiplica los recursos de computación necesarios para el procesado de las imágenes, aumentando por tanto el coste de la solución aplicada para tal fin.
5
10
15
20
25
30
35
Por otra parte, los sistemas conocidos de procesado de vídeo son, en general, difíciles de configurar. En ellos resulta necesario definir distintos parámetros tales como la sensibilidad, que no son siempre intuitivos y cuyo valor a veces debe variar en función de los inevitables cambios del entorno (por ejemplo, un paisaje puede cambiar mucho entre el invierno y la primavera).
Dentro de los citados sistemas de videovigilancia conocidos, se suele distinguir habitualmente entre dos grupos de tecnologías dominantes:
- Detección de movimiento mediante procesado de vídeo:
La detección de movimiento mediante procesado de vídeo consiste, esencialmente, en la comparación de imágenes sucesivas en una secuencia o clip. La forma de hacer la comparación es la que diferencia los distintos productos existentes en el mercado. Una operación básica de comparación es la resta de dos imágenes consecutivas, donde se fija una diferencia máxima o umbral y donde, si dicho umbral se sobrepasa por un pixel concreto, se considera que ha cambiado y que ello se debe al movimiento de algún elemento de la imagen.
La resta de pixeles, en la práctica, se enfrenta a muchos problemas. El fundamental es que el valor de un pixel es esencialmente una codificación de la luz reflejada por un punto, y ésta puede cambiar por fenómenos tan habituales como el desplazamiento de las nubes. Existen multitud de alternativas a la “resta de pixeles”, muchas de ellas englobadas dentro de lo que se denominan técnicas de “background subtraction”, o “background modelling”. Estas técnicas consisten en mantener un fondo que se actualiza periódicamente, para conseguir adaptar el sistema a los cambios de iluminación, u otros que se produzcan en la escena monitorizada por la cámara. Para mantener el modelo de fondo es siempre necesario que el procesado de vídeo se realice de forma continua.
Hay multitud de métodos que se basan en sistemas de extracción de fondo para filtrar las falsas alarmas de un sistema. Un sistema de extracción de fondo es un análisis de movimiento avanzado, mediante el que se modela la escena de forma dinámica. Se obtiene un modelo generalizado de la escena que se utiliza para detectar los cambios producidos en la escena por objetos en movimiento (personas, vehículos, puertas, sombras, etc.). Tradicionalmente, estos métodos producen multitud de falsas alarmas debido a los cambios
3
5
10
15
20
25
30
35
que se producen en la escena de forma natural (iluminación, condiciones meteorológicas, sombras, etc.). Muchos de ellos han diseñado una fase de filtrado de objetos en la que utilizan información adicional de la escena que intenta reducir el número de falsas alarmas.
El principal problema de este tipo de métodos es que precisan de una inicialización y un mantenimiento del modelo de fondo de la escena. Cuando se trata de escenarios controlados, este tipo de analítica soluciona de manera suficiente la supervisión del estado de las cámaras, pero en escenarios reales, resultan insuficientes. Existen multitud de estudios que intentan solucionar los problemas derivados de este tipo de análisis, pero en todos ellos se acaba acotando de una u otra manera el escenario que se monitoriza.
- Análisis local y remoto:
Las soluciones de análisis local y remoto suelen dividirse en tecnologías de análisis local (o “análisis edge”) y análisis remoto (o centralizado). El análisis edge se produce en el extremo, es decir, lo más cerca posible de la fuente de vídeo. El ejemplo más claro de análisis edge son las denominadas cámaras inteligentes, que son capaces de procesar vídeo. Por tanto, para que una cámara sea inteligente debe tener una unidad de procesamiento o procesador incorporado. Por su parte, el análisis remoto implica que el procesamiento se haga fuera de la cámara, en un dispositivo que debe capturar el flujo o “stream” de vídeo que ésta emita.
Otro factor clave en las diferentes tecnologías de videovigilancia es la transmisión de vídeo ya que, si dicha transmisión se realiza a un emplazamiento remoto, ello supone un consumo de recursos mucho más elevado que transmitiéndolo localmente. Dicho coste se incrementa con la resolución de las imágenes transmitidas. A mayor resolución, mayor ancho de banda requerido para transmitirlas. El incremento en la resolución de las cámaras de vídeo tiene, por tanto, un impacto importante en el coste del análisis de dicho vídeo. En todos los casos implica un mayor consumo de recursos máquina y, en segundo lugar, para el caso de análisis remoto un mayor consumo de ancho de banda para recoger el vídeo de las cámaras.
Según lo descrito en los párrafos anteriores, se hace necesario, en el presente campo técnico, desarrollar soluciones técnicas que permitan obtener sistemas de videovigilancia eficaces, que reduzcan de forma sustancial la aparición de falsos positivos de detección, pero sin un consumo excesivo de recursos de computación para el análisis de las
4
5
10
15
20
25
30
35
secuencias de vídeo captadas por la cámara.
La presente invención está orientada a resolver las citadas necesidades, mediante un novedoso sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos, que resuelve las limitaciones de las técnicas conocidas.
DESCRIPCIÓN BREVE DE LA INVENCIÓN
Un objeto principal de la presente invención es, pues, proporcionar medios de análisis de vídeo que posean una gran precisión y alta capacidad de evitar falsos positivos, manteniendo un consumo reducido de recursos de computación destinados para tal fin.
Dicho objeto de la invención se consigue mediante un sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos, que comprende, ventajosamente:
- uno o más sensores configurados para recibir información de un entorno sometido a vigilancia;
- un módulo de activación de eventos conectado a los sensores, estando dicho módulo configurado con medios de hardware y software para la lectura, análisis y tratamiento de la información recibida por los sensores, así como para la definición de eventos asociados a uno o más valores umbral de dicha información recibida por los sensores;
- una o más cámaras de vídeo, conectadas al módulo de activación de eventos y configuradas por dicho módulo para el control de las mismas;
- uno o más capturadores de vídeo, configurados por medios de hardware y/o software para registrar y almacenar la información captada por las cámaras durante una o más secuencias asociadas a los eventos definidos por el módulo de activación.
Se consigue con ello un sistema que permite establecer una pluralidad de eventos de interés a partir de los datos de sus sensores, de forma que el registro y análisis de vídeo se restrinja a las secuencias asociadas a dichos eventos, de forma que los recursos de computación y almacenamiento se vean optimizados sustancialmente, al estar enfocados únicamente en aquellas secuencias de interés para su vigilancia. Asimismo, se consigue también un sistema de gran eficacia en la identificación y validación de posibles falsos positivos, cuya frecuencia de aparición suele ser alta en los sistemas de videovigilancia tradicionales.
5
10
15
20
25
30
35
En una realización preferente de la invención, los sensores comprenden uno o más sensores de tiempo, temperatura, humedad, humo, fuego, sensores de movimiento, analizadores de imagen, detectores de presencia volumétricos, detectores láser, detectores de cable sensor, detectores de sonido, detectores magnéticos, detectores de lazo inductivo, detectores de presión, y/o sensores de movimiento o presencia mediante radar basado en WiFi, o en un estándar de comunicación por radiofrecuencia.
En otra realización preferente de la invención, los capturadores de vídeo están equipados en las propias cámaras. Alternativamente, los capturadores de vídeo pueden estar equipados en un dispositivo externo a dichas cámaras, por ejemplo en un dispositivo de grabación de vídeo digital (“DVR”).
En otra realización preferente de la invención, el sistema comprende un servidor de procesamiento y análisis de los datos de vídeo registrados y/o almacenados por los capturadores.
En otra realización preferente de la invención el servidor está conectado a un módulo complementario de demanda de vídeo, configurado para analizar una secuencia de vídeo correspondiente a la detectada por las cámaras, pero a una resolución diferente que la analizada por dicho servidor.
En otra realización preferente de la invención, el servidor está conectado a los sensores, al módulo de activación de eventos, a las cámaras y/o a los capturadores por medio de una red de comunicaciones. Más preferentemente, la red de comunicaciones comprende una red en la nube conectada a internet, conexión de cable, WiFi o una red de comunicación móvil.
En otra realización preferente de la invención, el módulo de activación de eventos está ubicado en remoto respecto a los sensores y/o a las cámaras, a través de la red de comunicaciones.
En otra realización preferente de la invención, los sensores y/o las cámaras se encuentran geolocalizados.
En otra realización preferente de la invención, el servidor de procesamiento está conectado a un dispositivo de verificación automática o manual de eventos.
6
5
10
15
20
25
En otra realización preferente de la invención, el dispositivo de verificación comprende un interfaz gráfico de reproducción de vídeo, y/o de información asociada al criterio de clasificación o umbral aplicado por el módulo de activación de eventos a un usuario humano.
En otra realización preferente de la invención, el sistema comprende un subsistema de aprendizaje configurado con medios de hardware o software, para establecer criterios de clasificación de las secuencias, en función de resultados obtenidos en eventos anteriores.
DESCRIPCIÓN DE LAS FIGURAS
En la Figura 1 se muestra, con carácter ilustrativo y no limitativo, un esquema de los elementos principales del sistema de videovigilancia de la invención, según una realización preferente de la misma.
REFERENCIAS NUMÉRICAS UTILIZADAS EN LAS FIGURAS
Con objeto de ayudar a una mejor comprensión de las características técnicas de la invención, las citadas Figuras se acompañan de una serie de referencias numéricas donde, con carácter ilustrativo y no limitativo, se representa lo siguiente:
(1)
Sensores
(2)
Módulo de activación de eventos
(3)
Cámaras de vídeo
(4)
Capturadores
(5)
Servidor
(6)
Red de comunicaciones
(7)
Dispositivo de verificación automática o manual
(8)
Subsistema de aprendizaje
(9)
Usuario humano
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
Se expone, a continuación, una descripción detallada de la invención, referida a una realización preferente de la misma mostrada en la Figura 1. Según lo mostrado en dicha
5
10
15
20
25
30
35
figura, el sistema de videovigilancia propuesto se basa, esencialmente, en uno o más sensores (1) configurados para recibir información del entorno monitorizado. En principio, los citados sensores (1) pueden ser de cualquier tipo conocido, tales como sensores de tiempo, temperatura, humedad, humo, fuego, de imagen (tanto en el espectro visible como en la banda infrarroja, microondas, etc.) o de movimiento/presencia. En una realización posible de la invención, es posible utilizar como sensor (1) un dispositivo de detección de movimiento, configurado para detectar secuencias de vídeo en las que pueden haber cambiado píxeles y donde, en consecuencia, se presuma que ha habido un movimiento. Otros ejemplos posibles de sensores (1) de detección de movimiento utilizables en el ámbito de la invención son detectores volumétricos, láser, detectores de cable sensor, detectores de sonido, detectores magnéticos, detectores de lazo inductivo, detectores de presión, etc. Asimismo, también es posible utilizar sensores de movimiento o presencia mediante un radar basado en WiFi, o en un estándar de comunicación por radiofrecuencia, como por ejemplo Bluetooth.
Los sensores (1) utilizados en el sistema están preferentemente conectados a un módulo (2) de activación de eventos, configurado con medios de hardware y/o software para la lectura, análisis y tratamiento de la información recibida por los sensores (1). De este modo, el módulo (2) de activación de eventos dispondrá, en todo momento, de los datos relativos a la temperatura, humedad, detección de presencia/movimiento, etc. generados por los sensores (1).
El módulo (2) de activación de eventos está configurado con medios de hardware y/o software para fijar uno o más umbrales de detección de los datos obtenidos, de forma que cuando dichos umbrales son alcanzados o superados, se genere un “evento” de análisis. Ejemplos de los umbrales utilizados pueden ser, por ejemplo, determinados valores de temperatura, humedad, luminosidad, diferencia de píxeles en detectores de movimiento, detección de presencia en un sensor volumétrico, o incluso una determinada frecuencia de tiempo, en el caso de utilizarse un cronómetro o reloj como sensor (1). De este modo, en función de los valores umbral elegidos en una determinada realización de la invención, el módulo (2) de activación será el encargado de fijar qué condiciones dan inicio a un evento relevante, para su análisis posterior por el sistema de videovigilancia de la invención.
Gracias al módulo (2) de activación de eventos, el sistema permite, así, una mayor eficiencia respecto a los sistemas tradicionales, al poder seleccionar aquellas secuencias que sean
8
5
10
15
20
25
30
35
clasificadas como “interesantes” (activadas por alcanzar el valor o valores umbral), y desechar aquellas secuencias consideradas como no relevantes.
Como elemento adicional de la invención, el sistema de videovigilancia comprende, asimismo, una o más cámaras (3) de vídeo, conectadas al módulo (2) de activación de eventos y configuradas por dicho módulo (2) para su control durante las secuencias de análisis consideradas como relevantes. Si bien el funcionamiento de las cámaras (3) de vídeo del sistema es independiente del funcionamiento de los sensores (1), estos últimos, en combinación con el módulo de activación de eventos, serán los encargados de funcionar como controlador o “trigger” de dichas cámaras, haciendo que las mismas analicen clips de vídeo sólo en aquellos momentos que resultan de interés, de acuerdo a los parámetros umbral fijados para cada sensor (1). Así, la invención permite que las cámaras (3) se activen al alcanzarse una determinada temperatura, o con una cierta frecuencia temporal, o al señalizarse un determinado movimiento o presencia por parte de los sensores (1). Con ello, el sistema de la invención permite reducir sensiblemente el tamaño de la información de vídeo que debe ser analizada, restringiéndose únicamente a las secuencias asociadas a los eventos de interés.
Para el análisis y el procesado de los clips de vídeo registrados por las cámaras (3), el sistema de la invención comprende uno o más capturadores (4) de vídeo, encargados de registrar y almacenar la información captada por las cámaras (3) durante las secuencias asociadas a los eventos de interés. Dichos capturadores (4) pueden estar equipados en las propias cámaras (3) (por ejemplo en forma de tarjetas capturadoras), o bien formar parte de un dispositivo externo a las mismas (por ejemplo, un dispositivo de grabación de vídeo digital, o “DVR” designado por sus siglas en inglés). Asimismo, el análisis de las secuencias capturadas puede aplicarse localmente (mediante análisis edge) o de forma remota, por ejemplo mediante un servidor (5) de procesamiento y análisis de vídeo conectado a una red de comunicaciones (6), por ejemplo una red en la nube conectada a internet, ya sea mediante conexión de cable, WiFi, una red de comunicación móvil, etc. En una realización opcional del sistema de la invención, el módulo (2) de activación de eventos puede estar también ubicado en remoto y conectado a los sensores (1) y/o a las cámaras (3) a través de la red de comunicaciones (6).
La gestión de la información en remoto, tanto para determinar los eventos con secuencias de interés (generados a partir de los valores umbral de la información de los sensores (1)),
9
5
10
15
20
25
30
35
como para analizar dichas secuencias tras su grabación por los capturadores (4), posee algunas ventajas adicionales, como por ejemplo poder centralizar en una sola máquina la clasificación de secuencias de vídeo de varios emplazamientos remotos, utilizando, por ejemplo, un mismo servidor (5) de procesamiento. El sistema de la invención también permite compartir diferentes criterios de generación de eventos entre diferentes emplazamientos, si se desea. Asimismo, es posible también utilizar sensores (1) o cámaras (3) geolocalizados, de forma que sus emplazamientos queden unívocamente determinados. Ello permite, por ejemplo, discriminar falsos positivos generados por la presencia de lluvia, cuando éstos se presentan en un subgrupo de cámaras (3) próximas entre sí.
En una realización preferente adicional de la invención, el servidor (5) de procesamiento puede estar conectado a un dispositivo (7) de verificación automática o manual, de forma que, dentro de las secuencias de interés, se puedan filtrar aquellas detecciones que correspondan a falsos positivos, o se consideren como detecciones no relevantes. En los casos de verificación manual, la invención ofrece una solución de verificación más eficiente que la de los sistemas conocidos, ya que al usuario humano (8) sólo se le muestran los vídeos que han sido previamente filtrados como relevantes, por superar el umbral fijado por el módulo (2) de activación de eventos. La intervención humana puede realizarse, por ejemplo, a través de un interfaz gráfico de reproducción de vídeo, y/o mostrar información asociada al criterio de clasificación o umbral aplicado por el módulo (2) de activación de eventos al usuario (8) que realiza la verificación manual. Así, la invención permite clasificar posibles anomalías, ya que algunas pueden ser consideradas relevantes, mientras que otras pueden no serlo y se descartarán.
En la verificación automática, por su parte, se aplica preferentemente un análisis de los píxeles en las imágenes que forman la secuencia del evento, donde se asignaran uno o más clasificadores específicos para reconocer los diferentes tipos de escena, en función de las actividades a monitorizar. Cada clasificador determina si la escena pertenece al conjunto de tipos que conoce o no.
Tanto en las realizaciones de verificación automática como manual, el sistema de la invención puede comprender un subsistema de aprendizaje (9) configurado por medios hardware o software, que permite establecer criterios de clasificación de las secuencias, en función de resultados obtenidos en eventos anteriores. Ello permite mejorar de forma progresiva la precisión del sistema y realimentarlo con la información obtenida previamente.
10
5
10
15
20
25
30
35
El subsistema de aprendizaje (9) puede estar conectado al dispositivo (7) de verificación, estando conectado de forma remota a los sensores (1), al módulo (2) de activación de eventos, a las cámaras (3) de vídeo, y/o a los capturadores (4) de vídeo.
Finalmente, el sistema de la invención puede comprender un módulo complementario de demanda de vídeo conectado al servidor (5), que permite analizar una secuencia de vídeo correspondiente a la detectada inicialmente por las cámaras (3) pero a una resolución diferente (preferentemente mayor) que la analizada por dicho servidor (5). Hoy en día es habitual encontrar cámaras (3) que ofrecen dos o más flujos de vídeo con resoluciones distintas. El sistema de la invención, al tener desacoplados sus sensores (1) y el servidor (5) de procesamiento, permite trabajar con secuencias de vídeo que representan lo mismo, pero en múltiples resoluciones. Ello puede permitir aplicar clasificadores sobre secuencias de alta resolución, por tanto sobre mayor cantidad de información. Esto es especialmente importante para determinado tipo de clasificadores, que exigen un análisis de mayor detalle.
Un ejemplo de puesta en práctica del sistema de la invención es, por ejemplo, el filtrado de falsas alarmas en videovigilancia para protección perimetral. Se utiliza, para ello, un equipo local de cámaras (3) inteligentes con funcionalidad IVA (“intelligent video analysis”), con el objetivo de detectar movimiento o presencia en el perímetro vigilado. En la práctica, este tipo de sistemas tiene problemas con situaciones como cambios de luz bruscos, lluvia fuerte, oclusiones o problemas de la cámara (3) (imagen parpadeante). Todo este tipo de situaciones genera falsas alarmas que son recibidas en una central receptora de alarmas (o CRA). Por ejemplo, en el caso de un día de fuerte lluvia en una determinada zona, para una CRA local puede suponer cientos de alarmas activadas por hora, siendo en realidad falsos positivos. La presente invención permitiría a un usuario (8) u operador de CRA, mediante el uso de detectores de humedad como sensores (1), verificar las secuencias anómalas que superasen un cierto umbral de humedad, y etiquetar dichos falsos positivos como “alarma de lluvia”, de modo que el sistema automáticamente las aprenda y las clasifique gracias al subsistema de aprendizaje (9). Gracias a esta clasificación, el operador puede optar por ignorar alarmas futuras o tratarlas con menos prioridad que otro tipo de alarmas. El ejemplo de lluvia es muy habitual, pero también lo son objetos en primer plano, como por ejemplo una mosca o un pájaro. Al estar muy cerca de la cámara (3), dichos objetos aparecen como elementos enormes. La invención permite, también, descartar este tipo de falsos positivos, sin incurrir en un gran consumo de recursos de procesamiento.
Asimismo, la invención permite, además, aprovechar el creciente número de capturadores (4), grabadores o DVR, de bajo coste que hay en el mercado. Actualmente, existen equipos DVR con analítica integrada que, sin poseer una tecnología de análisis de vídeo avanzada, poseen costes un 90% inferiores al de los equipos más precisos disponibles. La invención 5 permite, así, aprovechar dichos equipos DVR de bajo coste con analítica integrada, que incluso generando falsas alarmas a priori, pueden ser corregidos y reaprovechados gracias al filtrado de secuencias y verificación que proporciona el sistema. Ello evita tener que disponer un segundo equipo de mayor precisión en la instalación, evitando sobrecostes de hardware y aplicando algoritmos avanzados de análisis en el servidor (5), que puede estar 10 tanto en la CRA como ofrecerse como un servicio en la nube.

Claims (15)

  1. 5
    10
    15
    20
    25
    30
    REIVINDICACIONES
    1. - Sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos, caracterizado por que comprende:
    - uno o más sensores (1) configurados para recibir información de un entorno sometido a vigilancia;
    - un módulo (2) de activación de eventos conectado a los sensores (1), estando dicho módulo (2) configurado con medios de hardware y software para la lectura, análisis y tratamiento de la información recibida por los sensores (1), así como para la definición de eventos asociados a uno o más valores umbral de dicha información recibida por los sensores (1);
    - una o más cámaras (3) de vídeo, conectadas al módulo (2) de activación de eventos y configuradas por dicho módulo (2) para el control de las mismas; y
    - uno o más capturadores (4) de vídeo, configurados por medios de hardware y/o software para registrar y almacenar la información asociada a las imágenes captadas por las cámaras (3), durante una o más secuencias asociadas a los eventos definidos por el módulo (2) de activación.
  2. 2. - Sistema según la reivindicación anterior, donde los sensores (1) comprenden uno o más sensores de tiempo, temperatura, humedad, humo, fuego, sensores de movimiento, analizadores de imagen, detectores de presencia volumétricos, detectores láser, detectores de cable sensor, detectores de sonido, detectores magnéticos, detectores de lazo inductivo, detectores de presión, y/o sensores de movimiento o presencia mediante radar basado en WiFi, o en un estándar de comunicación por radiofrecuencia.
  3. 3. - Sistema según cualquiera de las reivindicaciones anteriores, donde los capturadores (4) de vídeo están equipados en las propias cámaras (3).
  4. 4. - Sistema según cualquiera de las reivindicaciones 1-2, donde los capturadores (4) de vídeo están equipados en un dispositivo externo a las cámaras (3).
  5. 5. - Sistema según la reivindicación anterior, donde los capturadores (4) de vídeo comprenden un dispositivo de grabación de vídeo digital (DVR).
    5
    10
    15
    20
    25
    30
    35
  6. 6. - Sistema según cualquiera de las reivindicaciones anteriores, que comprende un servidor (5) de procesamiento y análisis de los datos de vídeo registrados y/o almacenados por los capturadores (4).
  7. 7. - Sistema según la reivindicación anterior, donde el servidor (5) está conectado a un módulo complementario de demanda de vídeo, configurado para analizar una secuencia de vídeo correspondiente a la detectada por las cámaras (3), pero a una resolución diferente que la analizada por dicho servidor (5).
  8. 8. - Sistema según cualquiera de las reivindicaciones 6-7, donde el servidor (5) está conectado a los sensores (1), al módulo (2) de activación de eventos, a las cámaras (3) y/o a los capturadores (4) por medio de una red de comunicaciones (6).
  9. 9. - Sistema según la reivindicación anterior, donde la red de comunicaciones (6) comprende una red en la nube conectada a internet, conexión de cable, WiFi o una red de comunicación móvil.
  10. 10. - Sistema según cualquiera de las reivindicaciones 8-9, donde el módulo (2) de activación de eventos está ubicado en remoto respecto a los sensores (1) y/o a las cámaras (3), a través de la red de comunicaciones (6).
  11. 11. - Sistema según cualquiera de las reivindicaciones anteriores, donde los sensores (1) y/o las cámaras (3) se encuentran geolocalizados.
  12. 12. - Sistema según cualquiera de las reivindicaciones anteriores, donde el servidor (5) de procesamiento está conectado a un dispositivo (7) de verificación automática o manual de eventos.
  13. 13. - Sistema según la reivindicación anterior, donde el dispositivo (7) de verificación comprende un interfaz gráfico de reproducción de vídeo, y/o de información asociada al criterio de clasificación o umbral aplicado por el módulo (2) de activación de eventos a un usuario (8) humano.
  14. 14. - Sistema según cualquiera de las reivindicaciones anteriores, que comprende un subsistema de aprendizaje (9) configurado con medios de hardware o software, para
    14
    establecer criterios de clasificación de las secuencias, en función de resultados obtenidos en eventos anteriores.
  15. 15.- Sistema según la reivindicación anterior, donde el subsistema de aprendizaje (9) 5 está conectado al dispositivo (7) de verificación, y está conectado de forma remota a los sensores (1), al módulo (2) de activación de eventos, a las cámaras (3) de vídeo, y/o a los capturadores (4) de vídeo.
ES201730169A 2017-02-13 2017-02-13 Sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos Active ES2636832B1 (es)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES201730169A ES2636832B1 (es) 2017-02-13 2017-02-13 Sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201730169A ES2636832B1 (es) 2017-02-13 2017-02-13 Sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos

Publications (2)

Publication Number Publication Date
ES2636832A1 ES2636832A1 (es) 2017-10-09
ES2636832B1 true ES2636832B1 (es) 2018-04-24

Family

ID=59984062

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201730169A Active ES2636832B1 (es) 2017-02-13 2017-02-13 Sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos

Country Status (1)

Country Link
ES (1) ES2636832B1 (es)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102598074A (zh) * 2009-09-01 2012-07-18 德马荷工业相机股份有限公司 摄像机系统
US9064394B1 (en) * 2011-06-22 2015-06-23 Alarm.Com Incorporated Virtual sensors
US9743047B2 (en) * 2013-05-27 2017-08-22 Center For Integrated Smart Sensors Foundation Network camera using hierarchical event detection and data determination
US9749595B2 (en) * 2014-02-14 2017-08-29 Metalligence Technology Corporation Security system and method thereof

Also Published As

Publication number Publication date
ES2636832A1 (es) 2017-10-09

Similar Documents

Publication Publication Date Title
US11972036B2 (en) Scene-based sensor networks
CN108027874B (zh) 使用深度摄像头的基于计算机视觉的安全系统
US11232685B1 (en) Security system with dual-mode event video and still image recording
US11157745B2 (en) Automated proximity discovery of networked cameras
US20170262706A1 (en) Smart tracking video recorder
CN109166261A (zh) 基于图像识别的图像处理方法、装置、设备及存储介质
US10657783B2 (en) Video surveillance method based on object detection and system thereof
US9111353B2 (en) Adaptive illuminance filter in a video analysis system
CN103824064A (zh) 一种海量人脸发现与识别方法
WO2013141742A1 (en) Method for video data ranking
US20190273866A1 (en) Analytics based power management for cameras
CN105678730A (zh) 一种基于图像识别的相机移动自检测方法
US11798340B1 (en) Sensor for access control reader for anti-tailgating applications
CN111371990A (zh) 一种基于移动物联网的机房环境监控系统及摄像头
US20170300751A1 (en) Smart history for computer-vision based security system
US11120676B2 (en) Intrusion detection methods and devices
KR101454644B1 (ko) 보행자 추적기를 이용한 서성거림을 탐지하는 방법
WO2019076954A1 (en) METHODS AND DEVICES FOR INTRUSION DETECTION
US11836935B2 (en) Method and apparatus for detecting motion deviation in a video
US20150055832A1 (en) Method for video data ranking
US20220027204A1 (en) Software-defined sensing
ES2636832B1 (es) Sistema de videovigilancia basado en análisis de secuencias de imágenes generadas por eventos
CN107018359A (zh) 一种具有智能画面识别的移动车载监控系统
US20190188864A1 (en) Method and apparatus for detecting deviation from a motion pattern in a video
KR101984070B1 (ko) 지능형 스테레오 영상 기반 시설물 진동 감시 방법

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2636832

Country of ref document: ES

Kind code of ref document: B1

Effective date: 20180424