Nothing Special   »   [go: up one dir, main page]

WO2020202694A1 - 監視システム、監視装置、監視方法、及び非一時的なコンピュータ可読媒体 - Google Patents

監視システム、監視装置、監視方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2020202694A1
WO2020202694A1 PCT/JP2020/000889 JP2020000889W WO2020202694A1 WO 2020202694 A1 WO2020202694 A1 WO 2020202694A1 JP 2020000889 W JP2020000889 W JP 2020000889W WO 2020202694 A1 WO2020202694 A1 WO 2020202694A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
vehicle
authenticated
behavior pattern
pattern
Prior art date
Application number
PCT/JP2020/000889
Other languages
English (en)
French (fr)
Inventor
幸英 依田
義明 青野
光司 朝日
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP20784720.3A priority Critical patent/EP3951726A4/en
Priority to US17/439,987 priority patent/US12094210B2/en
Priority to JP2021511120A priority patent/JP7243814B2/ja
Priority to CN202080024551.5A priority patent/CN113678178B/zh
Publication of WO2020202694A1 publication Critical patent/WO2020202694A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H9/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means
    • G01H9/004Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means using fibre optic sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/001Acoustic presence detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/22Transmitting seismic signals to recording or processing apparatus
    • G01V1/226Optoseismic systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/02Mechanical actuation
    • G08B13/10Mechanical actuation by pressure on floors, floor coverings, stair treads, counters, or tills
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/181Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems
    • G08B13/183Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems by interruption of a radiation beam or barrier
    • G08B13/186Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems by interruption of a radiation beam or barrier using light guides, e.g. optical fibres
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/22Electrical actuation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • G07C9/257Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition electronically

Definitions

  • This disclosure relates to monitoring systems, monitoring devices, monitoring methods, and non-temporary computer-readable media.
  • Patent Document 1 discriminates human behavior based on the approximate magnitude and time of distortion at a specific point. Therefore, there is a problem that a person can be detected only in a very limited position. Further, for example, there is a problem that the accuracy when discriminating the behavior of a person having a similar weight cannot be guaranteed. In addition, there is a problem that it is difficult to identify the detailed behavior pattern of a person.
  • an object of the present disclosure is to provide a monitoring system, a monitoring device, a monitoring method, and a non-temporary computer-readable medium that can solve the above-mentioned problems and identify the behavior pattern of a person or a vehicle with higher accuracy and detail. To provide.
  • a monitoring system based on one aspect Optical fiber laid in the monitoring area and An authentication unit that authenticates people or vehicles passing through the gate to enter the surveillance area, An optical fiber sensing unit that acquires parameters having a unique pattern according to the behavior pattern of the authenticated person or vehicle based on the optical signal received from the optical fiber. An analysis unit that identifies the behavior pattern of the authenticated person or vehicle based on the unique pattern of the parameter. To be equipped.
  • the monitoring device is Based on the optical signal received from the optical fiber laid in the monitoring area, it corresponds to the behavior pattern of the person or vehicle passing through the gate for entering the monitoring area and certified by the certification unit.
  • An optical fiber sensing unit that acquires parameters with a unique pattern
  • An analysis unit that identifies the behavior pattern of the authenticated person or vehicle based on the unique pattern of the parameter. To be equipped.
  • the monitoring method is Based on the optical signal received from the optical fiber laid in the monitoring area, it corresponds to the behavior pattern of the person or vehicle passing through the gate for entering the monitoring area and certified by the certification unit. Steps to get parameters with unique patterns, The step of identifying the behavior pattern of the authenticated person or vehicle based on the unique pattern of the parameter, and including.
  • Non-temporary computer-readable media in one aspect On the computer Based on the optical signal received from the optical fiber laid in the monitoring area, it corresponds to the behavior pattern of the person or vehicle passing through the gate for entering the monitoring area and certified by the certification unit.
  • a monitoring system a monitoring device, a monitoring method, and a non-temporary computer-readable medium that can identify the behavior pattern of a person or a vehicle with higher accuracy and detail.
  • FIG. 1 shows a monitoring system when the monitoring target is a person
  • FIG. 2 shows a monitoring system when the monitoring target is a car
  • the monitoring system according to the present embodiment includes an optical fiber 10, an authentication unit 20, and a monitoring device 30.
  • the optical fiber 10 is laid in a monitoring area for monitoring the behavior of a person or a car. It is assumed that the monitoring area is an area where entry is not possible unless the gate G for entering the monitoring area is passed.
  • the monitoring area is, for example, a facility such as a commercial facility, an office, a hospital, an airport, a nursing facility, or a nursery school when the monitoring target is a person, and is, for example, a highway when the monitoring target is a car. , Parking lot, etc.
  • the optical fiber 10 is laid, for example, under the floor when the monitoring area is indoors, and is laid, for example, in the ground when the monitoring area is outdoors. Further, the optical fiber 10 may be laid in the monitoring area in the form of an optical fiber cable formed by covering the optical fiber 10.
  • the authentication unit 20 authenticates the person or vehicle that has passed through the gate G, and acquires the authentication information indicating the authenticated person or vehicle.
  • Human authentication includes, for example, image authentication using a camera, ID authentication using a card key, an IC (Integrated Circuit) tag, a QR code (registered trademark), and biometric authentication using a face, fingerprint, iris, vein, or the like.
  • the authentication information acquired by the authentication of a person is, for example, an image, a name, an ID, or the like of the person.
  • the vehicle authentication is, for example, image authentication by a camera, ID authentication by an ETC card or the like.
  • the authentication information acquired by car authentication is, for example, a car image, a car model, an owner's name, an ID, or the like.
  • the authentication unit 20 when the authentication unit 20 authenticates the person or the vehicle that has passed through the gate G, the authentication unit 20 transmits the authentication information acquired at the time of authentication, the time information at the time of authentication, and the like to the monitoring device 30 together with the notification that the authentication has been performed. ..
  • the monitoring device 30 is triggered by receiving a notification from the authentication unit 20 that the person or vehicle that has passed through the gate G has been authenticated, in order to track the behavior of the person or vehicle after passing through the gate G.
  • the device includes an optical fiber sensing unit 31 and an analysis unit 32.
  • the optical fiber sensing unit 31 and the analysis unit 32 may be provided in separate devices so that they can communicate with each other.
  • the optical fiber sensing unit 31 is connected to the optical fiber 10 and injects pulsed light into the optical fiber 10. Further, the optical fiber sensing unit 31 receives the backward reflected light generated for each transmission distance from the optical fiber 10 as the pulsed light is transmitted through the optical fiber 10.
  • the optical fiber sensing unit 31 can detect the vibration generated by the movement of a person or a vehicle based on the backscattered light received from the optical fiber 10. Further, the optical fiber sensing unit 31 generates the backward scattered light based on the time from when the pulsed light is incident on the optical fiber 10 until the backward scattered light on which the vibration is superimposed is received from the optical fiber 10. It is also possible to detect the generated position (distance from the optical fiber sensing unit 31).
  • the optical fiber sensing unit 31 detects the backscattered light received from the optical fiber 10 with a distributed vibration sensor (Distributed Vibration Sensor).
  • a distributed vibration sensor distributed Vibration Sensor
  • the optical fiber sensing unit 31 can detect the vibration generated by the movement of a person or a vehicle and the position where the backscattered light on which the vibration is superimposed is generated, and can acquire the vibration data of the detected vibration. is there.
  • the vibration pattern of the vibration detected by the optical fiber sensing unit 31 is a dynamically fluctuating fluctuation pattern. Further, for example, even when a person passes through the gate G, the subsequent behavior pattern differs depending on the person.
  • a person's behavior pattern is, for example, a person's movement trajectory, a person's gait, or the like.
  • a person's gait is, for example, stride length, stride speed, stepping force of the foot, habit of walking (for example, how to apply pressure to the sole of the foot when the foot lands) and the like. Therefore, the vibration data of the vibration detected by the optical fiber sensing unit 31 is dynamic in which the strength of the vibration, the vibration position, the transition of the fluctuation of the frequency, etc. differ according to the behavior pattern of the person after passing through the gate G. Has a unique pattern.
  • the analysis unit 32 can identify the behavior pattern of the person after passing through the gate G by analyzing the dynamic change of the unique pattern of the vibration data acquired by the optical fiber sensing unit 31. ..
  • the analysis unit 32 analyzes the dynamic change of the natural pattern of the vibration generated in the vicinity of the gate G at the time when the above notification is received from the authentication unit 20, so that the analysis unit 32 of the person after passing through the gate G It is possible to specify the position, and it is possible to specify the movement trajectory of the person by analyzing the position fluctuation of the person.
  • the analysis unit 32 analyzes the dynamic change of the peculiar pattern, and thereby, the gait of the person after passing through the gate G (for example, stride length, stride speed, stepping force of foot, habit during walking, etc.). Can be identified.
  • the subsequent behavior pattern differs depending on the car.
  • the behavior pattern of a car is, for example, the movement locus of the car. Therefore, the vibration data of the vibration detected by the optical fiber sensing unit 31 is dynamically unique in that the strength of the vibration, the vibration position, the transition of the fluctuation of the frequency, etc. differ according to the behavior pattern of the vehicle moving in the monitoring area. Has a pattern.
  • the analysis unit 32 can identify the behavior pattern of the vehicle after passing through the gate G by analyzing the dynamic change of the unique pattern of the vibration data acquired by the optical fiber sensing unit 31. ..
  • the method of specifying the movement locus as the behavior pattern of the car is the same as the method of specifying the movement locus of the person described above.
  • the optical fiber sensing unit 31 can also detect the sound and temperature generated by the movement of a person or a vehicle based on the backscattered light received from the optical fiber 10.
  • the optical fiber sensing unit 31 detects the backscattered light received from the optical fiber 10 by a distributed acoustic sensor (Distributed Acoustic Sensor) and a distributed temperature sensor (Distributed Temperature Sensor), respectively, so that the optical fiber sensing unit 31 can detect a person or a vehicle. It is possible to detect the sound and temperature generated by the movement and acquire the acoustic data of the detected sound and the temperature data of the temperature.
  • a distributed acoustic sensor distributed Acoustic Sensor
  • a distributed Temperature Sensor distributed Temperature Sensor
  • the sound and temperature detected by the optical fiber sensing unit 31 also differ depending on the behavior pattern of the person or the vehicle after passing through the gate G. Therefore, the acoustic data of the sound and the temperature data of the temperature detected by the optical fiber sensing unit 31 also have a dynamic unique pattern according to the behavior pattern of the person or the vehicle after passing through the gate G.
  • the analysis unit 32 sets the gate G based on the unique pattern of the parameters such as vibration, sound, and temperature according to the behavior pattern of the person or the vehicle after passing through the gate G. Identify the behavior pattern of a person or car after passing.
  • the analysis unit 32 may record the behavior pattern specified for the person or the vehicle after passing through the gate G in the database in association with the authentication information transmitted from the authentication unit 20 together with the above notification. ..
  • the database may be held by the analysis unit 32, or may be held by another component inside or outside the monitoring device 30.
  • FIG. 3 shows an example of an action pattern recorded in the database in association with the authentication information.
  • FIG. 3 is an example in which an action pattern identified for a person after passing through the gate G is recorded in association with authentication information (here, a name).
  • the analysis unit 32 may perform machine learning (for example, deep learning) of the human behavior pattern recorded in the database, and update or add the behavior pattern recorded in the database at any time.
  • the analysis unit 32 extracts the behavior pattern associated with the authentication information of the person or vehicle that has passed through the gate G from the database and gates. If the subsequent behavior pattern of the person or vehicle passing through G does not match the behavior pattern extracted from the database, an alarm may be notified.
  • the analysis unit 32 extracts the behavior pattern associated with the authentication information of the person or vehicle that has passed through the gate G from the database, and extracts the behavior pattern from the database. Based on the behavior pattern extracted from, the destination to which the person or the vehicle should move may be specified, and the specified destination may be notified.
  • the notification method includes illuminating the route to the destination on the floor with lighting, displaying the destination with electric light, notifying the destination by voice, lighting or blinking the indicator in front of the destination, etc. Conceivable.
  • the monitoring target is a person, the parking space of the parking lot or the like can be considered as the destination.
  • the analysis unit 32 when the authentication unit 20 authenticates the person or vehicle that has passed through the gate G, the analysis unit 32 must record the behavior pattern associated with the authentication information of the person or vehicle that has passed through the gate G in the database. For example, an alarm may be notified. Further, if the monitoring target is a person, in addition to notifying the alarm, the guard room may be notified, or the gate G may be locked to restrict entry to the monitoring area.
  • the analysis unit 32 will explain in detail how to identify the behavior pattern of a person or a car after passing through the gate G.
  • the analysis unit 32 may identify the behavior pattern of a person or a car after passing through the gate G by using any of the following methods A1 to A8.
  • FIG. 4 shows vibration data (Fast Fourier Transform) after FFT (Fast Fourier Transform) of vibration data (horizontal axis is time, vertical axis is vibration intensity) generated by contact with a person's ground or floor in the monitoring area.
  • the horizontal axis shows the frequency and the vertical axis shows the vibration intensity).
  • a frequency peak of vibration intensity occurs.
  • the frequency at which this frequency peak occurs differs depending on the gait of the person (for example, the stepping force of the foot, the habit of walking, etc.).
  • the analysis unit 32 when the analysis unit 32 identifies the behavior pattern of a person after passing through the gate G, the analysis unit 32 monitors the vibration generated in the monitoring area after the person has passed through the gate G, and the vibration data (for example, the same as in FIG. 4). Vibration data) is acquired from the optical fiber sensing unit 31. Then, the analysis unit 32 determines the gait of the person based on the frequency at which the frequency peak occurs in the acquired vibration data.
  • FIG. 5 shows vibration data (horizontal axis is time, vertical axis is vibration intensity) of vibration generated by contact with a person's ground or floor in the monitoring area, and vibration data after FFT (horizontal axis is frequency, The vertical axis shows the vibration intensity).
  • a frequency peak of vibration intensity occurs.
  • the frequency at which this frequency peak occurs and the number of frequency peaks differ depending on the gait of the person (for example, stepping force of the foot, habit during walking, etc.).
  • the analysis unit 32 when the analysis unit 32 identifies the behavior pattern of a person after passing through the gate G, the analysis unit 32 monitors the vibration generated in the monitoring area after the person has passed through the gate G, and the vibration data (for example, the same as in FIG. 5). Vibration data) is acquired from the optical fiber sensing unit 31. Then, the analysis unit 32 determines the gait of the person based on the frequency at which the frequency peak occurs and the number of frequency peaks in the acquired vibration data.
  • FIG. 6 shows vibration data (horizontal axis is time, vertical axis is vibration intensity) of vibration generated by contact with a person's ground or floor in the monitoring area.
  • the vibration generated in the monitoring area is subsequently attenuated.
  • This decay time varies depending on the gait of the person (for example, the stepping force of the foot, the habit of walking, etc.).
  • the analysis unit 32 when the analysis unit 32 identifies the behavior pattern of a person after passing through the gate G, the analysis unit 32 monitors the vibration generated in the monitoring area after the person has passed through the gate G, and the vibration data (for example, the same as in FIG. 6). Vibration data) is acquired from the optical fiber sensing unit 31. Then, the analysis unit 32 determines the gait of the person based on the damping time in the acquired vibration data.
  • FIG. 7 shows vibration data (horizontal axis is time, vertical axis is vibration intensity) of vibration generated by contact with a person's ground or floor in the monitoring area.
  • vibrations occur at intervals.
  • the interval between these vibrations varies depending on the stride length of the person.
  • the analysis unit 32 when the analysis unit 32 identifies the behavior pattern of a person after passing through the gate G, the analysis unit 32 monitors the vibration generated in the monitoring area after the person has passed through the gate G, and the vibration data (for example, the same as in FIG. 7). Vibration data) is acquired from the optical fiber sensing unit 31. Then, the analysis unit 32 determines the stride length of the person based on the vibration interval in the acquired vibration data.
  • FIG. 8 shows acoustic data (horizontal axis is time, vertical axis is acoustic intensity) of sound generated by contact with a person's ground or floor in the monitoring area.
  • the waveform differs depending on the gait of the person.
  • the acoustic data in FIG. 8 is an example in which the waveform differs depending on the type of shoes.
  • the analysis unit 32 monitors the sound generated in the monitoring area after the person has passed through the gate G (for example, the same as in FIG. 8).
  • (Acoustic data) is acquired from the optical fiber sensing unit 31. Then, the analysis unit 32 determines the gait of the person based on the waveform of the acquired acoustic data.
  • method A6 Subsequently, the method A6 will be described.
  • pattern matching is used to identify the behavior pattern of a person or car after passing through the gate G.
  • the analysis unit 32 When the analysis unit 32 identifies the behavior pattern of a person or car after passing through the gate G, parameters such as vibration, sound, and temperature generated in the monitoring area after the person or car has passed through the gate G (for example, Vibration data and acoustic data similar to those in FIGS. 4 to 8) are acquired from the optical fiber sensing unit 31. Then, the analysis unit 32 compares the unique pattern of the acquired parameter with the preset matching pattern, and identifies the behavior pattern of the person or the vehicle when it matches the matching pattern.
  • a matching pattern for specifying the movement locus and a matching pattern for specifying the gait may be separately provided. Further, regarding gait, matching patterns may be provided separately for each item (for example, stride length, stride speed, stepping force of foot, habit during walking, etc.).
  • the analysis unit 32 may determine whether or not the unique pattern matches the matching pattern by calculating the matching rate with the matching pattern and comparing the calculated matching rate with the threshold value. good. For example, in the example of Table 1, if the conformity rate is 70% or more, it is judged to be conforming, and if the conformity rate is 40% or less, it is judged to be nonconformity, and the conformance rate is between 40% and 70%. If so, it is judged that there is a possibility of conformity.
  • the analysis unit 32 may learn the matching pattern by machine learning (for example, deep learning). Further, the analysis unit 32 may update or add the matching pattern at any time by machine learning.
  • Method A7 Subsequently, the method A7 will be described.
  • machine learning for example, deep learning
  • a unique pattern corresponding to a person's or vehicle's behavior pattern as a unique pattern of parameters such as vibration, sound, and temperature generated in the monitoring area to learn machine learning.
  • an initial learning model for specifying the movement locus and an initial learning model for specifying the gait may be separately provided. Further, regarding gait, an initial learning model may be provided separately for each item (for example, stride length, stride speed, stepping force of foot, habit during walking, etc.).
  • the analysis unit 32 obtains the teacher data indicating the human behavior pattern and the vibration data of the vibration generated in the monitoring area when the behavior pattern is taken by the optical fiber sensing unit 31.
  • the vibration data is input (steps S11 and S12).
  • FIG. 10 shows an example of teacher data.
  • FIG. 10 is an example of teacher data when the three vibration data A, B, and C are trained.
  • the vibration data is, for example, vibration data as shown in FIGS. 4 to 7.
  • the analysis unit 32 matches and classifies the two (step S13), and performs supervised learning (step S14). As a result, an initial learning model is obtained (step S25).
  • This initial learning model is a model in which the behavior pattern of a person or a car is output when the monitored vibration data is input.
  • the analysis unit 32 When the analysis unit 32 identifies the behavior pattern of a person or a vehicle after passing through the gate G, the analysis unit 32 monitors vibration data generated in the monitoring area after the person or vehicle has passed through the gate G (for example, FIG. 4). -Vibration data similar to that in FIG. 7) is acquired from the optical fiber sensing unit 31 and input to the initial learning model. As a result, the analysis unit 32 obtains the behavior pattern of the person or the car as the output result of the initial learning model.
  • a unique pattern is generated at a plurality of points (P1 to P3) by vibration generated by contact with a person's ground or floor surface. Therefore, by tracking the position where the unique pattern is generated, it is possible to identify the movement locus of the person after passing through the gate G.
  • the analysis unit 32 when the analysis unit 32 identifies the behavior pattern of a person after passing through the gate G, the analysis unit 32 monitors the vibration generated in the monitoring area after the person has passed through the gate G, and the vibration data (for example, the same as in FIG. 11). Vibration data) is acquired from the optical fiber sensing unit 31. Then, the analysis unit 32 identifies the position of each of the plurality of points (P1 to P3) where the unique pattern is generated in the acquired vibration data, and based on the position fluctuation of the specified position, the person Identify the movement trajectory of.
  • the analysis unit 32 may specify the movement locus by complexly matching and analyzing the unique patterns detected at a plurality of points (P1 to P3).
  • the complex matching / analysis includes, for example, a process in which a plurality of points (P1 to P3) are regarded as a set pattern and matched with a matching pattern (for example, a pattern representing a person's walking).
  • the analysis unit 32 may analyze the vibration at each point, identify the unique pattern of the person being tracked, and perform the tracking while identifying the person. In that case, for example, the analysis unit 32 identifies that P1 to P3 are unique patterns by the same person by performing pattern matching so that the unique pattern of the person specified by P1 and P2 is detected by P3. However, the movement locus may be specified.
  • the computer 40 includes a processor 401, a memory 402, a storage 403, an input / output interface (input / output I / F) 404, a communication interface (communication I / F) 405, and the like.
  • the processor 401, the memory 402, the storage 403, the input / output interface 404, and the communication interface 405 are connected by a data transmission line for transmitting and receiving data to and from each other.
  • the processor 401 is, for example, an arithmetic processing unit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the memory 402 is, for example, a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • the storage 403 is, for example, a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a memory card. Further, the storage 403 may be a memory such as a RAM or a ROM.
  • the storage 403 stores a program that realizes the functions of the optical fiber sensing unit 31 and the analysis unit 32 included in the monitoring device 30.
  • the processor 401 realizes the functions of the optical fiber sensing unit 31 and the analysis unit 32 by executing each of these programs.
  • the processor 401 may read these programs onto the memory 402 and then execute the programs, or may execute the programs without reading them onto the memory 402.
  • the memory 402 and the storage 403 also play a role of storing information and data held by the optical fiber sensing unit 31 and the analysis unit 32.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), opto-magnetic recording media (eg, opto-magnetic disks), CD-ROMs (Compact Disc-ROMs), CDs. -R (CD-Recordable), CD-R / W (CD-ReWritable), semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM.
  • the program also includes.
  • the computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the input / output interface 404 is connected to the display device 4041, the input device 4042, and the like.
  • the display device 4041 is a device that displays a screen corresponding to drawing data processed by the processor 401, such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display.
  • the input device 4042 is a device that receives an operator's operation input, and is, for example, a keyboard, a mouse, a touch sensor, and the like.
  • the display device 4041 and the input device 4042 may be integrated and realized as a touch panel.
  • the computer 40 may include a sensor (not shown) such as a distributed vibration sensor, and the sensor may be connected to the input / output interface 404.
  • the communication interface 405 sends and receives data to and from an external device.
  • the communication interface 405 communicates with an external device via a wired communication path or a wireless communication path.
  • the optical fiber sensing unit 31 constantly performs an operation of injecting pulsed light into the optical fiber 10 laid in the monitoring area and receiving backscattered light from the optical fiber 10. Or, it is assumed that it has already started before step S21.
  • the authentication unit 20 authenticates a person or a vehicle passing through the gate G for entering the monitoring area (step S21).
  • the optical fiber sensing unit 31 is based on the backscattered light received from the optical fiber 10, and is a unique parameter according to the behavior pattern of the person or vehicle certified by the authentication unit 20 after passing through the gate G. (For example, vibration data, acoustic data, temperature data, etc.) are acquired (step S22).
  • the analysis unit 32 identifies the behavior pattern of the person or vehicle authenticated by the authentication unit 20 after passing through the gate G, based on the unique pattern of the parameters (step S23). At this time, the analysis unit 32 may specify the behavior pattern of the person or the vehicle after passing through the gate G by using any of the above-mentioned methods A1 to A8.
  • FIG. 14 is an example in which the monitoring area is a floor containing an office and the monitoring target is a person. Further, in the example of FIG. 14, it is assumed that the behavior pattern of the person to be monitored is specified based on the unique pattern of the vibration data of the vibration generated on the floor which is the monitoring area.
  • the authentication unit 20 authenticates a person who passes through the gate G for entering the floor, which is a monitoring area, and acquires authentication information indicating the authenticated person. Then, the authentication unit 20 transmits the authentication information, the time information, and the like to the analysis unit 32 together with the notification that the authentication has been performed.
  • the authentication unit 20 performs ID authentication using, for example, a card key.
  • the authentication unit 20 acquires, for example, a name as authentication information.
  • the analysis unit 32 starts tracking the behavior of the person after passing through the gate G, triggered by receiving the above notification from the authentication unit 20. That is, the analysis unit 32 acquires the vibration data of the vibration generated in the monitoring area after the person has passed through the gate G from the optical fiber sensing unit 31, and analyzes the dynamic change of the unique pattern of the acquired vibration data. By doing so, the behavior pattern of the person after passing through the gate G is specified.
  • the analysis unit 32 identifies the behavior pattern using, for example, the initial learning model learned in advance by the method A7 described above.
  • the analysis unit 32 records the behavior pattern specified for the person after passing through the gate G in the database in association with the authentication information transmitted from the authentication unit 20 together with the above notification.
  • the analysis unit 32 records the behavior pattern in the database in association with the authentication information, for example, as shown in FIG.
  • the analysis unit 32 extracts an action pattern associated with the authentication information of the person who has passed through the gate G from the database and passes through the gate G. If the subsequent behavior pattern of the person does not match the behavior pattern extracted from the database, an alarm may be notified.
  • the analysis unit 32 when the person who has passed through the gate G is authenticated by the analysis unit 32, the behavior pattern associated with the authentication information of the person who has passed through the gate G is recorded in the database. If not, the alarm may be notified, the guard room may be notified, or the gate G may be locked to restrict entry to the surveillance area. In this case, after the safety of the person who has passed through the gate G is confirmed and the alarm or the like is released, the analysis unit 32 may start tracking the person. Then, the analysis unit 32 may record the behavior pattern specified for the person in the database in association with the authentication information from the authentication unit 20.
  • the authentication unit 20 authenticates a person or a vehicle passing through the gate G for entering the monitoring area, and the optical fiber sensing unit 31 lays the light in the monitoring area.
  • Parameters having a unique pattern for example, vibration data, acoustic data, temperature data, etc.
  • the analysis unit 32 identifies the behavior pattern of the person or vehicle authenticated by the authentication unit 20 based on the unique pattern of the parameters.
  • the analysis unit 32 identifies the behavior pattern of the person or the vehicle authenticated by the authentication unit 20 based on the unique pattern of the parameter as described above. That is, the analysis unit 32 does not specify the behavior pattern based on a rough standard such as the magnitude of vibration (for example, the vibration is large, the frequency is high, and the behavior pattern is specified), but the change of the parameter is moved. By analyzing the pattern (for example, the transition of the change in the strength of vibration), the behavior pattern of a person or a car is specified. Therefore, the behavior pattern of a person or a car after passing through the gate G can be specified with higher accuracy.
  • a rough standard such as the magnitude of vibration (for example, the vibration is large, the frequency is high, and the behavior pattern is specified)
  • the change of the parameter is moved.
  • the analysis unit 32 identifies the behavior pattern of the person or the vehicle after passing through the gate G, and acquires the identified behavior pattern when the person or the vehicle is authenticated. Record in the database in association with the authentication information. Therefore, various application services linked with the gate G can be realized. For example, if the subsequent behavior pattern of the person or car passing through the gate G does not match the behavior pattern recorded in the database, a service such as notifying an alarm can be realized.
  • the optical fiber sensing technology using the optical fiber 10 as a sensor is used. Therefore, advantages such as being unaffected by electromagnetic noise, eliminating the need for power supply to the sensor, being excellent in environmental resistance, and facilitating maintenance can be obtained.
  • the behavior pattern specified for the person or vehicle passing through the gate G is recorded in the database, but the present invention is not limited to this.
  • the database may record the inherent pattern itself of parameters such as vibration, sound, and temperature generated in the monitoring area after a person or vehicle has passed through gate G. In this case, if the unique pattern of the parameter generated in the monitoring area after the person or vehicle passes through the gate G does not match the unique pattern recorded in the database, an alarm may be notified.
  • Appendix 1 Optical fiber laid in the monitoring area and An authentication unit that authenticates people or vehicles passing through the gate to enter the surveillance area, An optical fiber sensing unit that acquires parameters having a unique pattern according to the behavior pattern of the authenticated person or vehicle based on the optical signal received from the optical fiber. An analysis unit that identifies the behavior pattern of the authenticated person or vehicle based on the unique pattern of the parameter. A monitoring system equipped with.
  • Appendix 2 The analysis unit When a person is authenticated by the authentication unit, the movement trajectory and gait of the authenticated person are specified as the behavior pattern of the authenticated person.
  • the movement locus of the authenticated vehicle is specified as the behavior pattern of the authenticated vehicle.
  • the monitoring system according to Appendix 1. (Appendix 3) The analysis unit Obtain the authentication information indicating the authenticated person or vehicle from the authentication unit, and obtain the authentication information. The behavior pattern identified for the authenticated person or vehicle is recorded in a database in association with the authentication information. The monitoring system according to Appendix 1 or 2. (Appendix 4) The analysis unit When a person or a vehicle is authenticated by the authentication unit, the behavior pattern associated with the authentication information of the authenticated person or vehicle is extracted from the database, and the behavior specified for the authenticated person or vehicle is extracted. If the pattern does not match the behavior pattern extracted from the database, an alarm is notified.
  • the monitoring system described in Appendix 3. (Appendix 5) The analysis unit When a person or a vehicle is authenticated by the authentication unit, an alarm is notified if the behavior pattern associated with the authentication information of the authenticated person or vehicle is not recorded in the database.
  • the monitoring system according to Appendix 3 or 4. (Appendix 6) The parameters include vibration data of vibrations generated in the monitoring area.
  • the monitoring system according to any one of Appendix 1 to 5. (Appendix 7) Based on the optical signal received from the optical fiber laid in the monitoring area, it corresponds to the behavior pattern of the person or vehicle passing through the gate for entering the monitoring area and certified by the certification unit.
  • An optical fiber sensing unit that acquires parameters with a unique pattern
  • An analysis unit that identifies the behavior pattern of the authenticated person or vehicle based on the unique pattern of the parameter.
  • a monitoring device (Appendix 8) The analysis unit When a person is authenticated by the authentication unit, the movement trajectory and gait of the authenticated person are specified as the behavior pattern of the authenticated person. When the vehicle is authenticated by the authentication unit, the movement locus of the authenticated vehicle is specified as the behavior pattern of the authenticated vehicle.
  • the monitoring device according to Appendix 7.
  • the analysis unit Obtain the authentication information indicating the authenticated person or vehicle from the authentication unit, and obtain the authentication information.
  • the behavior pattern identified for the authenticated person or vehicle is recorded in a database in association with the authentication information.
  • the monitoring device according to Appendix 7 or 8.
  • Appendix 10 The analysis unit When a person or a vehicle is authenticated by the authentication unit, the behavior pattern associated with the authentication information of the authenticated person or vehicle is extracted from the database, and the behavior specified for the authenticated person or vehicle is extracted. If the pattern does not match the behavior pattern extracted from the database, an alarm is notified.
  • the monitoring device according to Appendix 9.
  • Appendix 11 The analysis unit When a person or a vehicle is authenticated by the authentication unit, an alarm is notified if the behavior pattern associated with the authentication information of the authenticated person or vehicle is not recorded in the database.
  • the monitoring device according to Appendix 9 or 10.
  • the parameters include vibration data of vibrations generated in the monitoring area.
  • the monitoring device is a monitoring method using a monitoring device. Based on the optical signal received from the optical fiber laid in the monitoring area, it corresponds to the behavior pattern of the person or car passing through the gate for entering the monitoring area and certified by the certification unit. Steps to get parameters with unique patterns, The step of identifying the behavior pattern of the authenticated person or vehicle based on the unique pattern of the parameter, and Monitoring methods, including. (Appendix 14) On the computer Based on the optical signal received from the optical fiber laid in the monitoring area, it corresponds to the behavior pattern of the person or car passing through the gate for entering the monitoring area and certified by the certification unit. The procedure for acquiring parameters with unique patterns and A procedure for identifying the behavior pattern of the authenticated person or vehicle based on the unique pattern of the parameter, and A non-temporary computer-readable medium that contains programs for running programs.
  • Optical fiber 20 Authentication unit 30 Monitoring device 31 Optical fiber sensing unit 32 Analysis unit 40 Computer 401 Processor 402 Memory 403 Storage 404 Input / output interface 4041 Display device 4042 Input device 405 Communication interface G gate

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Acoustics & Sound (AREA)
  • Evolutionary Computation (AREA)
  • Geology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Alarm Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

本開示に係る監視システムは、監視エリアに敷設された光ファイバ(10)と、監視エリアに入場するためのゲート(G)を通過する人又は車を認証する認証部(20)と、光ファイバ(10)から受信した光信号に基づいて、認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得する光ファイバセンシング部(31)と、パラメータが有する固有パターンに基づいて、認証された人又は車の行動パターンを特定する解析部(32)と、を備える。

Description

監視システム、監視装置、監視方法、及び非一時的なコンピュータ可読媒体
 本開示は、監視システム、監視装置、監視方法、及び非一時的なコンピュータ可読媒体に関する。
 従来より、セキュリティ性の高い設備では、人が入場するゲートにおいて、生体認証(顔認証や虹彩認証等)や、カードキーによるID(Identification)認証等で人の認証を行っている。そのため、人の認証により得られた情報から、“誰が”、“いつ”ゲートを通過したかという記録はできていたが、ゲートを通過した後の人の行動はモニタできていなかった。
 また、高速道路等でも、入口及び出口のゲートにおいて、カメラによるカメラ認証、ETC(Electronic Toll Collection System)カードによるID認証等で車の認証を行っている。そのため、車の認証により得られた情報から、“誰の/どの車が”、“いつ”ゲートを通過したかという記録はできていたが、ゲートを通過した後の車の行動はモニタできていなかった。
 その一方、最近は、光ファイバを用いて人や車の行動をモニタするための技術が提案されている。
 例えば、特許文献1に記載の技術は、光ファイバを備えたセンサ敷物を、室内の床の上等に敷く。光ファイバは、人に押圧されることにより生じる複数点の歪みを検知し、解析装置は、複数点における信号の変化を解析することにより人の行動を判別する。
特開2009-128984号公報
 しかし、特許文献1に記載の技術は、特定の点における大まかな歪の大きさ及び時間に基づいて、人の行動を判別する。そのため、非常に限られた位置でしか人を検知できないという問題がある。また、例えば、同じような体重の人の行動を判別する場合の精度を担保できないという問題がある。また、人の詳細な行動パターンまで特定することが困難であるという問題がある。
 そこで本開示の目的は、上述した課題を解決し、より高精度かつ詳細に人又は車の行動パターンを特定することができる監視システム、監視装置、監視方法、及び非一時的なコンピュータ可読媒体を提供することにある。
 一態様による監視システムは、
 監視エリアに敷設された光ファイバと、
 前記監視エリアに入場するためのゲートを通過する人又は車を認証する認証部と、
 前記光ファイバから受信した光信号に基づいて、前記認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得する光ファイバセンシング部と、
 前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定する解析部と、
 を備える。
 一態様による監視装置は、
 監視エリアに敷設された光ファイバから受信した光信号に基づいて、前記監視エリアに入場するためのゲートを通過する人又は車であって認証部により認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得する光ファイバセンシング部と、
 前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定する解析部と、
 を備える。
 一態様による監視方法は、
 監視エリアに敷設された光ファイバから受信した光信号に基づいて、前記監視エリアに入場するためのゲートを通過する人又は車であって認証部により認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得するステップと、
 前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定するステップと、
 を含む。
 一態様による非一時的なコンピュータ可読媒体は、
 コンピュータに、
 監視エリアに敷設された光ファイバから受信した光信号に基づいて、前記監視エリアに入場するためのゲートを通過する人又は車であって認証部により認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得する手順と、
 前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定する手順と、
 を実行させるためのプログラムを格納した非一時的なコンピュータ可読媒体である。
 上述の態様によれば、より高精度かつ詳細に人又は車の行動パターンを特定できる監視システム、監視装置、監視方法、及び非一時的なコンピュータ可読媒体を提供できるという効果が得られる。
実施の形態に係る監視システムの構成例を示す図である。 実施の形態に係る監視システムの構成例を示す図である。 実施の形態に係る解析部により、認証情報に対応付けて、データベースに記録される行動パターンの例を示す図である。 実施の形態に係る光ファイバセンシング部により取得される振動データの例を示す図である。 実施の形態に係る光ファイバセンシング部により取得される振動データの例を示す図である。 実施の形態に係る光ファイバセンシング部により取得される振動データの例を示す図である。 実施の形態に係る光ファイバセンシング部により取得される振動データの例を示す図である。 実施の形態に係る光ファイバセンシング部により取得される音響データの例を示す図である。 実施の形態に係る解析部により実行される機械学習の例を示すフロー図である。 実施の形態に係る解析部により実行される機械学習に用いられる教師データの例を示す図である。 実施の形態に係る解析部により人の移動軌跡を特定する方法の例を示す図である。 実施の形態に係る監視装置を実現するコンピュータのハードウェア構成の例を示すブロック図である。 実施の形態に係る監視システムの動作フローの例を示すフロー図である。 実施の形態に係る監視システムの具体的なユースケースの例を示す図である。
 以下、図面を参照して本開示の実施の形態について説明する。
<実施の形態>
<実施の形態の構成>
 まず、図1及び図2を参照して、本実施の形態に係る監視システムの構成について説明する。なお、図1は、監視対象が人である場合の監視システムを示し、図2は、監視対象が車である場合の監視システムを示している。
 図1及び図2に示されるように、本実施の形態に係る監視システムは、光ファイバ10、認証部20、及び監視装置30を備えている。
 光ファイバ10は、人又は車の行動を監視する監視エリアに敷設される。監視エリアは、監視エリアに入場するためのゲートGを通過しない限り、入場ができないエリアであるとする。監視エリアは、監視対象が人である場合は、例えば、商業施設、オフィス、病院、空港、介護施設、保育所等の設備であり、また、監視対象が車である場合は、例えば、高速道路、駐車場等である。また、光ファイバ10は、監視エリアが屋内である場合は、例えば、床下等に敷設され、また、監視エリアが屋外である場合は、例えば、地中等に敷設される。また、光ファイバ10は、光ファイバ10を被覆して構成される光ファイバケーブルの態様で、監視エリアに敷設されても良い。
 認証部20は、ゲートGを通過した人又は車を認証し、認証された人又は車を示す認証情報を取得する。人の認証は、例えば、カメラによる画像認証、カードキー、IC(Integrated Circuit)タグ、QRコード(登録商標)等によるID認証、顔、指紋、虹彩、静脈等による生体認証等である。また、人の認証により取得される認証情報は、例えば、人の画像、名前、ID等である。また、車の認証は、例えば、カメラによる画像認証、ETCカード等によるID認証等である。また、車の認証により取得される認証情報は、例えば、車の画像、車種、所有者の名前、ID等である。
 また、認証部20は、ゲートGを通過した人又は車を認証すると、認証を行った旨の通知と共に、認証時に取得された認証情報、認証時の時刻情報等を、監視装置30に送信する。
 監視装置30は、認証部20から、ゲートGを通過した人又は車の認証を行った旨の通知を受信したことをトリガとして、ゲートGを通過した後の人又は車の行動を追跡するための装置であり、光ファイバセンシング部31及び解析部32を備えている。ただし、光ファイバセンシング部31及び解析部32は、別々の装置に設けられ、相互に通信可能な構成としても良い。
 光ファイバセンシング部31は、光ファイバ10に接続され、光ファイバ10にパルス光を入射する。また、光ファイバセンシング部31は、パルス光が光ファイバ10を伝送されることに伴い伝送距離毎に発生した後方反射光を、光ファイバ10から受信する。
 ここで、ゲートGを通過した人又は車が監視エリアを移動すると、人又は車が地面又は床面と接触することにより振動が発生する。その振動は、監視エリアに敷設された光ファイバ10に伝達され、光ファイバ10によって伝送される後方反射光に重畳される。そのため、光ファイバセンシング部31は、光ファイバ10から受信された後方散乱光に基づいて、人又は車の移動により発生した振動を検知することが可能である。また、光ファイバセンシング部31は、光ファイバ10にパルス光を入射してから、振動が重畳された後方散乱光が光ファイバ10から受信されるまでの時間に基づいて、その後方散乱光が発生した発生位置(光ファイバセンシング部31からの距離)も検知することが可能である。
 例えば、光ファイバセンシング部31は、光ファイバ10から受信された後方散乱光を分散型振動センサ(Distributed Vibration Sensor)で検知する。これにより、光ファイバセンシング部31は、人又は車の移動により発生した振動及びその振動が重畳された後方散乱光の発生位置を検知し、検知された振動の振動データを取得することが可能である。
 ここで、光ファイバセンシング部31で検知された振動の振動パターンは、動的に変動する変動パターンになっている。また、例えば、ゲートGを人が通過した場合でも、その後の行動パターンは人によって異なる。人の行動パターンは、例えば、人の移動軌跡、人の歩容等である。人の歩容は、例えば、歩幅、歩速、足の踏込力、歩行時の癖(例えば、足の着地時の足裏への圧力の掛かり方)等である。そのため、光ファイバセンシング部31で検知された振動の振動データは、ゲートGを通過した後の人の行動パターンに応じて、振動の強弱、振動位置、振動数の変動の推移等が異なる動的な固有パターンを有している。
 そのため、解析部32は、光ファイバセンシング部31が取得した振動データが有する固有パターンの動的変化を分析することにより、ゲートGを通過した後の人の行動パターンを特定することが可能となる。例えば、解析部32は、認証部20から上記の通知を受信した時点でゲートG付近に発生している振動の固有パターンの動的変化を分析することにより、ゲートGを通過した後の人の位置を特定することが可能となり、また、その人の位置変動を分析することにより、その人の移動軌跡を特定することが可能となる。また、解析部32は、その固有パターンの動的変化を分析することにより、ゲートGを通過した後の人の歩容(例えば、歩幅、歩速、足の踏込力、歩行時の癖等)を特定することが可能となる。
 また、例えば、ゲートGを車が通過した場合でも、その後の行動パターンは車によって異なる。車の行動パターンは、例えば、車の移動軌跡等である。そのため、光ファイバセンシング部31で検知された振動の振動データは、監視エリアを移動する車の行動パターンに応じて、振動の強弱、振動位置、振動数の変動の推移等が異なる動的な固有パターンを有している。
 そのため、解析部32は、光ファイバセンシング部31が取得した振動データが有する固有パターンの動的変化を分析することにより、ゲートGを通過した後の車の行動パターンを特定することが可能となる。車の行動パターンとして移動軌跡を特定する方法は、上述の人の移動軌跡を特定する方法と同様である。
 また、ゲートGを通過した人又は車が監視エリアを移動すると、人又は車が地面又は床面と接触することにより音及び温度変化も発生する。その音及び変化後の温度も、監視エリアに敷設された光ファイバ10によって伝送される後方反射光に重畳される。そのため、光ファイバセンシング部31は、光ファイバ10から受信された後方散乱光に基づいて、人又は車の移動により発生した音及び温度も検知することが可能である。
 例えば、光ファイバセンシング部31は、光ファイバ10から受信された後方散乱光を分散型音響センサ(Distributed Acoustic Sensor)及び分散型温度センサ(Distributed Temperature Sensor)でそれぞれ検知することにより、人又は車の移動により発生した音及び温度を検知し、検知された音の音響データ及び温度の温度データを取得することが可能である。
 ここで、光ファイバセンシング部31で検知された音及び温度も、ゲートGを通過した後の人又は車の行動パターンによって異なる。そのため、光ファイバセンシング部31で検知された音の音響データ及び温度の温度データも、ゲートGを通過した後の人又は車の行動パターンに応じた動的な固有パターンを有している。
 そのため、本実施の形態においては、解析部32は、ゲートGを通過した後の人又は車の行動パターンに応じた振動、音、及び温度等のパラメータが有する固有パターンに基づいて、ゲートGを通過した後の人又は車の行動パターンの特定を行う。
 なお、解析部32は、ゲートGを通過した後の人又は車について特定した行動パターンを、認証部20から上記の通知と共に送信されてきた認証情報に対応付けて、データベースに記録しても良い。なお、データベースは、解析部32が保持しても良いし、監視装置30の内部又は外部の別の構成要素が保持しても良い。図3に、認証情報に対応付けて、データベースに記録された行動パターンの例を示す。図3は、ゲートGを通過した後の人について特定した行動パターンを、認証情報(ここでは、名前)に対応付けて記録した例である。また、解析部32は、データベースに記録された人の行動パターンを機械学習(例えば、深層学習等)し、データベースに記録された行動パターンを、随時更新したり、追加したりしても良い。
 また、解析部32は、認証部20によりゲートGを通過した人又は車が認証された場合、ゲートGを通過した人又は車の認証情報に対応付けられた行動パターンをデータベースから抽出し、ゲートGを通過した人又は車のその後の行動パターンが、データベースから抽出された行動パターンと一致しなければ、アラームを報知しても良い。
 また、解析部32は、認証部20によりゲートGを通過した人又は車が認証された場合、ゲートGを通過した人又は車の認証情報に対応付けられた行動パターンをデータベースから抽出し、データベースから抽出された行動パターンに基づいて、その人又は車が移動すべき行先を特定し、特定された行先を通知しても良い。例えば、監視対象が人である場合の行先としては、会議室等が考えられる。また、会議室等を通知する場合の通知方法は、床面の行先までの経路を照明で照らす、行先を電光表示する、行先を音声で知らせる、行先の前のインディケータを点灯又は点滅させる等が考えられる。また、監視対象が人である場合の行先としては、駐車場の駐車スペース等が考えられる。
 また、解析部32は、認証部20によりゲートGを通過した人又は車が認証された場合、ゲートGを通過した人又は車の認証情報に対応付けられた行動パターンがデータベースに記録されていなければ、アラームを報知しても良い。また、監視対象が人であれば、アラームを報知すること以外に、守衛室に通知したり、ゲートGを施錠して監視エリアへの入場を規制したりしても良い。
 続いて、解析部32において、ゲートGを通過した後の人又は車の行動パターンを特定する方法について詳細に説明する。解析部32は、以下の方法A1~A8のいずれかを用いて、ゲートGを通過した後の人又は車の行動パターンを特定すれば良い。
(1)方法A1
 まず、図4を参照して、方法A1について説明する。図4は、監視エリアにおいて、人の地面又は床面との接触により発生した振動の振動データ(横軸が時間、縦軸が振動強度)を、FFT(Fast Fourier Transform)した後の振動データ(横軸が周波数、縦軸が振動強度)を示している。
 図4に示される振動データにおいては、振動強度の周波数ピークが発生する。この周波数ピークが発生する周波数が、人の歩容(例えば、足の踏込力、歩行時の癖等)に応じて異なる。
 そのため、解析部32は、ゲートGを通過した後の人の行動パターンを特定する場合、その人がゲートGを通過した後に監視エリアで発生した振動をモニタした振動データ(例えば、図4と同様の振動データ)を光ファイバセンシング部31から取得する。そして、解析部32は、取得された振動データにおいて、周波数ピークが発生する周波数に基づいて、その人の歩容を判断する。
(2)方法A2
 続いて、図5を参照して、方法A2について説明する。図5は、監視エリアにおいて、人の地面又は床面との接触により発生した振動の振動データ(横軸が時間、縦軸が振動強度)を、FFTした後の振動データ(横軸が周波数、縦軸が振動強度)を示している。
 図5に示される振動データにおいては、振動強度の周波数ピークが発生する。この周波数ピークが発生する周波数及び周波数ピークの数が、人の歩容(例えば、足の踏込力、歩行時の癖等)に応じて異なる。
 そのため、解析部32は、ゲートGを通過した後の人の行動パターンを特定する場合、その人がゲートGを通過した後に監視エリアで発生した振動をモニタした振動データ(例えば、図5と同様の振動データ)を光ファイバセンシング部31から取得する。そして、解析部32は、取得された振動データにおいて、周波数ピークが発生する周波数及び周波数ピークの数に基づいて、その人の歩容を判断する。
(3)方法A3
 続いて、図6を参照して、方法A3について説明する。図6は、監視エリアにおいて、人の地面又は床面との接触により発生した振動の振動データ(横軸が時間、縦軸が振動強度)を示している。
 図6に示される振動データにおいては、監視エリアで発生した振動は、その後に減衰する。この減衰時間が、人の歩容(例えば、足の踏込力、歩行時の癖等)に応じて異なる。
 そのため、解析部32は、ゲートGを通過した後の人の行動パターンを特定する場合、その人がゲートGを通過した後に監視エリアで発生した振動をモニタした振動データ(例えば、図6と同様の振動データ)を光ファイバセンシング部31から取得する。そして、解析部32は、取得された振動データにおける減衰時間に基づいて、その人の歩容を判断する。
(4)方法A4
 続いて、図7を参照して、方法A4について説明する。図7は、監視エリアにおいて、人の地面又は床面との接触により発生した振動の振動データ(横軸が時間、縦軸が振動強度)を示している。
 図7に示される振動データにおいては、振動は、間隔をおいて発生する。この振動の間隔が、人の歩幅に応じて異なる。
 そのため、解析部32は、ゲートGを通過した後の人の行動パターンを特定する場合、その人がゲートGを通過した後に監視エリアで発生した振動をモニタした振動データ(例えば、図7と同様の振動データ)を光ファイバセンシング部31から取得する。そして、解析部32は、取得された振動データにおける振動の間隔に基づいて、その人の歩幅を判断する。
(5)方法A5
 続いて、図8を参照して、方法A5について説明する。図8は、監視エリアにおいて、人の地面又は床面との接触により発生した音の音響データ(横軸が時間、縦軸が音響強度)を示している。
 図8に示される音響データにおいては、人の歩容に応じて波形が異なる。図8の音響データは、靴の種類の違いで波形が異なる例である。
 そのため、解析部32は、ゲートGを通過した後の人の行動パターンを特定する場合、その人がゲートGを通過した後に監視エリアで発生した音をモニタした音響データ(例えば、図8と同様の音響データ)を光ファイバセンシング部31から取得する。そして、解析部32は、取得された音響データの波形に基づいて、その人の歩容を判断する。
(6)方法A6
 続いて、方法A6について説明する。
 方法A6では、パターンマッチングを利用して、ゲートGを通過した後の人又は車の行動パターンを特定する。
 解析部32は、ゲートGを通過した後の人又は車の行動パターンを特定する場合、その人又は車がゲートGを通過した後に監視エリアで発生した振動、音、温度等のパラメータ(例えば、図4~図8と同様の振動データや音響データ)を光ファイバセンシング部31から取得する。そして、解析部32は、取得されたパラメータが有する固有パターンを、予め設定されているマッチング用パターンと比較し、マッチング用パターンに適合する場合に、人又は車の行動パターンを特定する。なお、人の行動パターンに関しては、移動軌跡を特定するためのマッチング用パターンと、歩容を特定するためのマッチング用パターンと、を別々に持っていても良い。また、歩容に関しては、項目(例えば、歩幅、歩速、足の踏込力、歩行時の癖等)毎に、マッチング用パターンを別々に持っていても良い。
 このとき、解析部32は、固有パターンについて、マッチング用パターンとの適合率を算出し、算出された適合率を閾値と比較することで、マッチング用パターンに適合するか否かを判断しても良い。例えば、表1の例では、適合率が70%以上であれば、適合と判断し、適合率が40%以下であれば、不適合と判断し、適合率が40%~70%の間であれば、適合の可能性があると判断する。
Figure JPOXMLDOC01-appb-T000001
 また、解析部32は、機械学習(例えば、深層学習等)によって、マッチング用パターンを学習しても良い。さらに、解析部32は、機械学習によって、マッチング用パターンを随時更新したり、追加したりしても良い。
(7)方法A7
 続いて、方法A7について説明する。
 方法A7では、監視エリアで発生した振動、音、温度等のパラメータが有する固有パターンとして、人又は車の行動パターンに応じた固有パターンを機械学習(例えば、深層学習等)し、機械学習の学習結果(初期学習モデル)を用いて、人又は車の行動パターンを特定する。なお、人の行動パターンに関しては、移動軌跡を特定するための初期学習モデルと、歩容を特定するための初期学習モデルと、を別々に持っていても良い。また、歩容に関しては、項目(例えば、歩幅、歩速、足の踏込力、歩行時の癖等)毎に、初期学習モデルを別々に持っていても良い。
 ここで、図9を参照して、方法A7における機械学習の方法について説明する。ここでは、振動データが有する、人の行動パターンに応じた固有パターンを機械学習するものとする。
 図9に示されるように、解析部32は、人の行動パターンを示す教師データと、その行動パターンを取ったときに監視エリアで発生した振動の振動データであって光ファイバセンシング部31で取得された振動データと、を入力する(ステップS11,S12)。図10に、教師データの例を示す。図10は、3つの振動データA,B,Cを学習させる場合の教師データの例である。振動データは、例えば、図4~図7に示されるような振動データとなる。
 続いて、解析部32は、両者のマッチング及び分類を行って(ステップS13)、教師あり学習を行う(ステップS14)。これにより、初期学習モデルが得られる(ステップS25)。この初期学習モデルは、モニタした振動データを入力すると、人又は車の行動パターンが出力されるモデルとなる。
 解析部32は、ゲートGを通過した後の人又は車の行動パターンを特定する場合、その人又は車がゲートGを通過した後に監視エリアで発生した振動をモニタした振動データ(例えば、図4~図7と同様の振動データ)を光ファイバセンシング部31から取得し、初期学習モデルに入力する。これにより、解析部32は、初期学習モデルの出力結果として、その人又は車の行動パターンを得る。
(8)方法A8
 続いて、図11を参照して、方法A8について説明する。ここでは、人の移動軌跡を特定するものとする。図11の下図は、監視エリアにおいて、人の地面又は床面との接触により発生した振動の振動データ(横軸が位置(光ファイバセンシング部31からの距離)、縦軸が時間経過)を示している。
 図11に示される例においては、複数のポイント(P1~P3)で、人の地面又は床面との接触により発生した振動によって、固有パターンが発生している。そのため、固有パターンが発生した位置を追跡することによって、ゲートGを通過した後の人の移動軌跡を特定することが可能となる。
 そのため、解析部32は、ゲートGを通過した後の人の行動パターンを特定する場合、その人がゲートGを通過した後に監視エリアで発生した振動をモニタした振動データ(例えば、図11と同様の振動データ)を光ファイバセンシング部31から取得する。そして、解析部32は、取得された振動データにおいて、固有パターンが発生している複数のポイント(P1~P3)の各々の位置を特定し、特定された位置の位置変動に基づいて、その人の移動軌跡を特定する。
 ただし、軌跡の特定方法はこれには限定されない。
 例えば、解析部32は、複数のポイント(P1~P3)で検知された固有パターンを複合的にマッチング・解析して、移動軌跡を特定しても良い。複合的なマッチング・解析には、例えば、複数のポイント(P1~P3)をひとまとまりのパターンと捉え、マッチング用パターン(例えば、人の歩行を表すパターン)とマッチングする処理を含む。
 また、解析部32は、それぞれのポイントにおける振動を解析して、追跡している人の固有パターンを特定し、その人を特定しつつ追跡を実施しても良い。その場合、例えば、解析部32は、P1、P2で特定した人の固有パターンをP3で検出するようにパターンマッチングを実施することで、P1~P3が同一の人物による固有パターンであることを特定し、移動軌跡を特定しても良い。
 続いて、図12を参照して、本実施の形態に係る監視装置30を実現するコンピュータ40のハードウェア構成について説明する。
 図12に示されるように、コンピュータ40は、プロセッサ401、メモリ402、ストレージ403、入出力インタフェース(入出力I/F)404、及び通信インタフェース(通信I/F)405等を備える。プロセッサ401、メモリ402、ストレージ403、入出力インタフェース404、及び通信インタフェース405は、相互にデータを送受信するためのデータ伝送路で接続されている。
 プロセッサ401は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の演算処理装置である。メモリ402は、例えばRAM(Random Access Memory)やROM(Read Only Memory)等のメモリである。ストレージ403は、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)、またはメモリカード等の記憶装置である。また、ストレージ403は、RAMやROM等のメモリであっても良い。
 ストレージ403は、監視装置30が備える光ファイバセンシング部31及び解析部32の機能を実現するプログラムを記憶している。プロセッサ401は、これら各プログラムを実行することで、光ファイバセンシング部31及び解析部32の機能をそれぞれ実現する。ここで、プロセッサ401は、上記各プログラムを実行する際、これらのプログラムをメモリ402上に読み出してから実行しても良いし、メモリ402上に読み出さずに実行しても良い。また、メモリ402やストレージ403は、光ファイバセンシング部31及び解析部32が保持する情報やデータを記憶する役割も果たす。
 また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータ(コンピュータ40を含む)に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Compact Disc-ROM)、CD-R(CD-Recordable)、CD-R/W(CD-ReWritable)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAMを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されても良い。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 入出力インタフェース404は、表示装置4041や入力装置4042等と接続される。表示装置4041は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、プロセッサ401により処理された描画データに対応する画面を表示する装置である。入力装置4042は、オペレータの操作入力を受け付ける装置であり、例えば、キーボード、マウス、及びタッチセンサ等である。表示装置4041及び入力装置4042は一体化され、タッチパネルとして実現されていても良い。なお、コンピュータ40は、分散型振動センサ等の不図示のセンサを備え、このセンサを入出力インタフェース404に接続した構成であっても良い。
 通信インタフェース405は、外部の装置との間でデータを送受信する。例えば、通信インタフェース405は、有線通信路または無線通信路を介して外部装置と通信する。
<実施の形態の動作>
 続いて、図13を参照して、本実施の形態に係る監視システムの概略的な動作の動作フローについて説明する。なお、図13の動作フローにおいては、光ファイバセンシング部31は、監視エリアに敷設された光ファイバ10にパルス光を入射し、光ファイバ10から後方散乱光を受信するという動作を、常時行っているか、又は、ステップS21の前に既に開始しているものとする。
 図13に示されるように、まず、認証部20は、監視エリアに入場するためのゲートGを通過する人又は車を認証する(ステップS21)。
 続いて、光ファイバセンシング部31は、光ファイバ10から受信された後方散乱光に基づいて、認証部20により認証された人又は車の、ゲートGを通過した後の行動パターンに応じた固有パラメータを有するパラメータ(例えば、振動データ、音響データ、及び温度データ等)を取得する(ステップS22)。
 その後、解析部32は、パラメータが有する固有パターンに基づいて、認証部20により認証された人又は車の、ゲートGを通過した後の行動パターンを特定する(ステップS23)。このとき、解析部32は、上述した方法A1~A8のいずれかを用いて、ゲートGを通過した後の人又は車の行動パターンを特定すれば良い。
 続いて、図14を参照して、本実施の形態に係る監視システムの具体的なユースケースについて説明する。なお、図14は、監視エリアが、オフィスの入ったフロアで、監視対象が人である場合の例である。また、図14の例では、監視エリアであるフロアで発生した振動の振動データが有する固有パターンに基づいて、監視対象である人の行動パターンを特定するものとする。
 図14に示されるように、まず、認証部20は、監視エリアであるフロアに入場するためのゲートGを通過する人を認証し、認証された人を示す認証情報を取得する。そして、認証部20は、認証を行った旨の通知と共に、認証情報及び時刻情報等を、解析部32に送信する。ここでは、認証部20は、例えば、カードキーによるID認証を行う。また、認証部20は、認証情報として、例えば、名前を取得する。
 解析部32は、認証部20から上記の通知を受信したことをトリガとして、ゲートGを通過した後の人の行動の追跡を開始する。
 すなわち、解析部32は、その人がゲートGを通過した後に監視エリアで発生した振動の振動データを光ファイバセンシング部31から取得し、取得された振動データが有する固有パターンの動的変化を分析することにより、ゲートGを通過した後の人の行動パターンを特定する。ここでは、解析部32は、例えば、上述した方法A7により、事前に学習した初期学習モデルを用いて、行動パターンを特定する。
 その後、解析部32は、ゲートGを通過した後の人について特定した行動パターンを、認証部20から上記の通知と共に送信されてきた認証情報に対応付けて、データベースに記録する。ここでは、解析部32は、例えば、図3に示されるように、行動パターンを、認証情報に対応付けて、データベースに記録する。
 なお、解析部32は、認証部20によりゲートGを通過した人が認証された場合、ゲートGを通過した人の認証情報に対応付けられた行動パターンをデータベースから抽出し、ゲートGを通過した人のその後の行動パターンが、データベースから抽出された行動パターンと一致しなければ、アラームを報知しても良い。
 また、解析部32は、解析部32は、認証部20によりゲートGを通過した人が認証された場合、ゲートGを通過した人の認証情報に対応付けられた行動パターンがデータベースに記録されていなければ、アラームを報知したり、守衛室に通知したり、ゲートGを施錠して監視エリアへの入場を規制したりしても良い。この場合、以降に、ゲートGを通過した人の安全性が確認され、アラーム等が解除された後に、解析部32は、その人の追跡を開始すれば良い。そして、解析部32は、その人について特定した行動パターンを、認証部20からの認証情報に対応付けて、データベースに記録すれば良い。
 なお、本実施の形態に係る監視システムの具体的なユースケースとしては、図14に示される例以外に、例えば、監視エリアが無人コンビニエンスストアの店内である場合等、様々なケースが考えられる。
<実施の形態の効果>
 上述したように本実施の形態によれば、認証部20は、監視エリアに入場するためのゲートGを通過する人又は車を認証し、光ファイバセンシング部31は、監視エリアに敷設された光ファイバ10から受信した後方散乱光(光信号)に基づいて、認証部20により認証された人又は車の行動パターンに応じた固有パターンを有するパラメータ(例えば、振動データ、音響データ、及び温度データ等)を取得し、解析部32は、パラメータが有する固有パターンに基づいて、認証部20により認証された人又は車の行動パターンを特定する。これにより、ゲートGを通過した後の人又は車の行動パターンを、より詳細に特定することができる。
 また、本実施の形態によれば、解析部32は、上述のように、パラメータが有する固有パターンに基づいて、認証部20により認証された人又は車の行動パターンを特定する。すなわち、解析部32は、例えば、振動の大小といった大まかな基準で行動パターンを特定する(例えば、振動が大、振動数が高で、行動パターンを特定する)のではなく、パラメータの変化を動的に(例えば、振動の強弱の変化の推移等)パターン分析することで、人又は車の行動パターンを特定する。そのため、ゲートGを通過した後の人又は車の行動パターンを、より高精度に特定することができる。
 また、本実施の形態によれば、解析部32は、ゲートGを通過した後の人又は車の行動パターンを特定し、特定された行動パターンを、その人又は車を認証したときに取得した認証情報と対応付けて、データベースに記録する。そのため、ゲートGと連携した様々なアプリケーションサービスを実現することができる。例えば、ゲートGを通過した人又は車のその後の行動パターンが、データベースに記録された行動パターンと一致しなければ、アラームを報知するといったサービスを実現することができる。
 また、本実施の形態によれば、光ファイバ10をセンサとして用いる光ファイバセンシング技術を利用する。そのため、電磁ノイズの影響を受けない、センサへの給電が不要になる、環境耐性に優れる、メンテナンスが容易になる等の利点が得られる。
 以上、実施の形態を参照して本開示を説明したが、本開示は上述の実施の形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
 例えば、上述の実施の形態では、ゲートGを通過した人又は車について特定された行動パターンをデータベースに記録したが、これには限定されない。データベースには、人又は車がゲートGを通過した後に監視エリアで発生した振動、音、及び温度等のパラメータが有する固有パターン自体を記録しても良い。この場合、人又は車がゲートGを通過した後に監視エリアで発生したパラメータが有する固有パターンが、データベースに記録された固有パターンと一致しなければ、アラームを報知すれば良い。
 また、上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
   (付記1)
 監視エリアに敷設された光ファイバと、
 前記監視エリアに入場するためのゲートを通過する人又は車を認証する認証部と、
 前記光ファイバから受信した光信号に基づいて、前記認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得する光ファイバセンシング部と、
 前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定する解析部と、
 を備える、監視システム。
   (付記2)
 前記解析部は、
 前記認証部により人が認証された場合、前記認証された人の行動パターンとして、前記認証された人の移動軌跡及び歩容を特定し、
 前記認証部により車が認証された場合、前記認証された車の行動パターンとして、前記認証された車の移動軌跡を特定する、
 付記1に記載の監視システム。
   (付記3)
 前記解析部は、
 前記認証部から、前記認証された人又は車を示す認証情報を取得し、
 前記認証された人又は車について特定された行動パターンを、前記認証情報と対応付けて、データベースに記録する、
 付記1又は2に記載の監視システム。
   (付記4)
 前記解析部は、
 前記認証部により人又は車が認証された場合、前記認証された人又は車の前記認証情報に対応付けられた行動パターンを前記データベースから抽出し、前記認証された人又は車について特定された行動パターンが、前記データベースから抽出された行動パターンと一致しなければ、アラームを報知する、
 付記3に記載の監視システム。
   (付記5)
 前記解析部は、
 前記認証部により人又は車が認証された場合、前記認証された人又は車の前記認証情報に対応付けられた行動パターンが前記データベースに記録されていなければ、アラームを報知する、
 付記3又は4に記載の監視システム。
   (付記6)
 前記パラメータは、前記監視エリアで発生した振動の振動データを含む、
 付記1から5のいずれか1項に記載の監視システム。
   (付記7)
 監視エリアに敷設された光ファイバから受信した光信号に基づいて、前記監視エリアに入場するためのゲートを通過する人又は車であって認証部により認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得する光ファイバセンシング部と、
 前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定する解析部と、
 を備える、監視装置。
   (付記8)
 前記解析部は、
 前記認証部により人が認証された場合、前記認証された人の行動パターンとして、前記認証された人の移動軌跡及び歩容を特定し、
 前記認証部により車が認証された場合、前記認証された車の行動パターンとして、前記認証された車の移動軌跡を特定する、
 付記7に記載の監視装置。
   (付記9)
 前記解析部は、
 前記認証部から、前記認証された人又は車を示す認証情報を取得し、
 前記認証された人又は車について特定された行動パターンを、前記認証情報と対応付けて、データベースに記録する、
 付記7又は8に記載の監視装置。
   (付記10)
 前記解析部は、
 前記認証部により人又は車が認証された場合、前記認証された人又は車の前記認証情報に対応付けられた行動パターンを前記データベースから抽出し、前記認証された人又は車について特定された行動パターンが、前記データベースから抽出された行動パターンと一致しなければ、アラームを報知する、
 付記9に記載の監視装置。
   (付記11)
 前記解析部は、
 前記認証部により人又は車が認証された場合、前記認証された人又は車の前記認証情報に対応付けられた行動パターンが前記データベースに記録されていなければ、アラームを報知する、
 付記9又は10に記載の監視装置。
   (付記12)
 前記パラメータは、前記監視エリアで発生した振動の振動データを含む、
 付記7から11のいずれか1項に記載の監視装置。
   (付記13)
 監視装置による監視方法であって、
 監視エリアに敷設された光ファイバから受信した光信号に基づいて、前記監視エリアに入場するためのゲートを通過する人又は車であって認証部により認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得するステップと、
 前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定するステップと、
 を含む、監視方法。
   (付記14)
 コンピュータに、
 監視エリアに敷設された光ファイバから受信した光信号に基づいて、前記監視エリアに入場するためのゲートを通過する人又は車であって認証部により認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得する手順と、
 前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定する手順と、
 を実行させるためのプログラムを格納した非一時的なコンピュータ可読媒体。
 この出願は、2019年3月29日に出願された日本出願特願2019-068645を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 10 光ファイバ
 20 認証部
 30 監視装置
 31 光ファイバセンシング部
 32 解析部
 40 コンピュータ
 401 プロセッサ
 402 メモリ
 403 ストレージ
 404 入出力インタフェース
 4041 表示装置
 4042 入力装置
 405 通信インタフェース
 G ゲート

Claims (14)

  1.  監視エリアに敷設された光ファイバと、
     前記監視エリアに入場するためのゲートを通過する人又は車を認証する認証部と、
     前記光ファイバから受信した光信号に基づいて、前記認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得する光ファイバセンシング部と、
     前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定する解析部と、
     を備える、監視システム。
  2.  前記解析部は、
     前記認証部により人が認証された場合、前記認証された人の行動パターンとして、前記認証された人の移動軌跡及び歩容を特定し、
     前記認証部により車が認証された場合、前記認証された車の行動パターンとして、前記認証された車の移動軌跡を特定する、
     請求項1に記載の監視システム。
  3.  前記解析部は、
     前記認証部から、前記認証された人又は車を示す認証情報を取得し、
     前記認証された人又は車について特定された行動パターンを、前記認証情報と対応付けて、データベースに記録する、
     請求項1又は2に記載の監視システム。
  4.  前記解析部は、
     前記認証部により人又は車が認証された場合、前記認証された人又は車の前記認証情報に対応付けられた行動パターンを前記データベースから抽出し、前記認証された人又は車について特定された行動パターンが、前記データベースから抽出された行動パターンと一致しなければ、アラームを報知する、
     請求項3に記載の監視システム。
  5.  前記解析部は、
     前記認証部により人又は車が認証された場合、前記認証された人又は車の前記認証情報に対応付けられた行動パターンが前記データベースに記録されていなければ、アラームを報知する、
     請求項3又は4に記載の監視システム。
  6.  前記パラメータは、前記監視エリアで発生した振動の振動データを含む、
     請求項1から5のいずれか1項に記載の監視システム。
  7.  監視エリアに敷設された光ファイバから受信した光信号に基づいて、前記監視エリアに入場するためのゲートを通過する人又は車であって認証部により認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得する光ファイバセンシング部と、
     前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定する解析部と、
     を備える、監視装置。
  8.  前記解析部は、
     前記認証部により人が認証された場合、前記認証された人の行動パターンとして、前記認証された人の移動軌跡及び歩容を特定し、
     前記認証部により車が認証された場合、前記認証された車の行動パターンとして、前記認証された車の移動軌跡を特定する、
     請求項7に記載の監視装置。
  9.  前記解析部は、
     前記認証部から、前記認証された人又は車を示す認証情報を取得し、
     前記認証された人又は車について特定された行動パターンを、前記認証情報と対応付けて、データベースに記録する、
     請求項7又は8に記載の監視装置。
  10.  前記解析部は、
     前記認証部により人又は車が認証された場合、前記認証された人又は車の前記認証情報に対応付けられた行動パターンを前記データベースから抽出し、前記認証された人又は車について特定された行動パターンが、前記データベースから抽出された行動パターンと一致しなければ、アラームを報知する、
     請求項9に記載の監視装置。
  11.  前記解析部は、
     前記認証部により人又は車が認証された場合、前記認証された人又は車の前記認証情報に対応付けられた行動パターンが前記データベースに記録されていなければ、アラームを報知する、
     請求項9又は10に記載の監視装置。
  12.  前記パラメータは、前記監視エリアで発生した振動の振動データを含む、
     請求項7から11のいずれか1項に記載の監視装置。
  13.  監視装置による監視方法であって、
     監視エリアに敷設された光ファイバから受信した光信号に基づいて、前記監視エリアに入場するためのゲートを通過する人又は車であって認証部により認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得するステップと、
     前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定するステップと、
     を含む、監視方法。
  14.  コンピュータに、
     監視エリアに敷設された光ファイバから受信した光信号に基づいて、前記監視エリアに入場するためのゲートを通過する人又は車であって認証部により認証された人又は車の行動パターンに応じた固有パターンを有するパラメータを取得する手順と、
     前記パラメータが有する固有パターンに基づいて、前記認証された人又は車の行動パターンを特定する手順と、
     を実行させるためのプログラムを格納した非一時的なコンピュータ可読媒体。
PCT/JP2020/000889 2019-03-29 2020-01-14 監視システム、監視装置、監視方法、及び非一時的なコンピュータ可読媒体 WO2020202694A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20784720.3A EP3951726A4 (en) 2019-03-29 2020-01-14 MONITORING SYSTEM, MONITORING DEVICE, MONITORING METHOD AND NON-TRANSITORY COMPUTER READABLE MEDIA
US17/439,987 US12094210B2 (en) 2019-03-29 2020-01-14 Monitoring system, monitoring device, monitoring method, and non-transitory computer-readable medium
JP2021511120A JP7243814B2 (ja) 2019-03-29 2020-01-14 監視システム、監視装置、監視方法、及びプログラム
CN202080024551.5A CN113678178B (zh) 2019-03-29 2020-01-14 监视系统、监视设备、监视方法和非暂时性计算机可读介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019068645 2019-03-29
JP2019-068645 2019-03-29

Publications (1)

Publication Number Publication Date
WO2020202694A1 true WO2020202694A1 (ja) 2020-10-08

Family

ID=72668980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000889 WO2020202694A1 (ja) 2019-03-29 2020-01-14 監視システム、監視装置、監視方法、及び非一時的なコンピュータ可読媒体

Country Status (5)

Country Link
US (1) US12094210B2 (ja)
EP (1) EP3951726A4 (ja)
JP (1) JP7243814B2 (ja)
CN (1) CN113678178B (ja)
WO (1) WO2020202694A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114093105A (zh) * 2021-11-19 2022-02-25 北京华锐达航空科技有限公司 一种主被动结合的安防围界报警系统

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12094210B2 (en) * 2019-03-29 2024-09-17 Nec Corporation Monitoring system, monitoring device, monitoring method, and non-transitory computer-readable medium
US20210158057A1 (en) * 2019-11-26 2021-05-27 Scanalytics, Inc. Path analytics of people in a physical space using smart floor tiles
US20210358242A1 (en) * 2020-05-13 2021-11-18 Weon Kook KIM Quarantine Gate Apparatus For Supporting Quarantine Measures For A Facility To Be Accessed By Multiple Persons In An Non-Contact Manner
CN114495393B (zh) * 2022-02-28 2023-06-16 中国人民公安大学 一种基于物联网的地下异常振动安全监测系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54134500A (en) * 1978-04-10 1979-10-18 Nippon Jiyouhou Kenkiyuu Senta Egress and ingress control system for secret room
JP2007304955A (ja) * 2006-05-12 2007-11-22 Kansai Electric Power Co Inc:The 個体特定システム及びセキュリティシステム
JP2009128984A (ja) 2007-11-20 2009-06-11 Yamamoto Sangyo Kk 敷物および監視装置
JP2013167986A (ja) * 2012-02-15 2013-08-29 Hitachi Ltd 画像認識システム、画像認識方法
JP2014514791A (ja) * 2011-02-23 2014-06-19 ディジマーク コーポレイション 音声信号の符号化及び認識を使用する音声測位
JP2017134681A (ja) * 2016-01-28 2017-08-03 日本ドライケミカル株式会社 火災及び侵入の検知並びに報知システム
WO2018085893A1 (en) * 2016-11-10 2018-05-17 Mark Andrew Englund Acoustic method and system for providing digital data
JP2019068645A (ja) 2017-10-02 2019-04-25 中国電力株式会社 地絡保護継電システム
US20190236920A1 (en) * 2018-01-26 2019-08-01 Nec Laboratories America, Inc. Office building security system using fiber sensing

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1101420A (en) * 1964-12-22 1968-01-31 Inst Scient Information Voice-controlled actuator
US4297684A (en) * 1979-03-26 1981-10-27 Honeywell Inc. Fiber optic intruder alarm system
US4857916A (en) * 1987-02-26 1989-08-15 Bellin Robert W System and method for identifying an individual utilizing grasping pressures
DE3731773C1 (en) * 1987-09-22 1989-05-18 Messerschmitt Boelkow Blohm Device for monitoring access
US6072612A (en) 1997-08-08 2000-06-06 Lucent Technologies, Inc. WDM transmitter for optical networks using a loop-back spectrally sliced light emitting device
US20050223464A1 (en) * 2004-04-07 2005-10-13 Jyh-Perng Huang Luminescent vest equipped with plastic optical fibers
TW200602909A (en) * 2004-04-23 2006-01-16 Nec Corp User authentication system and data providing system using the same
CN1741027A (zh) * 2004-08-26 2006-03-01 龙中电子股份有限公司 门禁识别系统
US7123785B2 (en) * 2004-10-15 2006-10-17 David Iffergan Optic fiber security fence system
US7711264B1 (en) * 2004-12-08 2010-05-04 At&T Intellectual Property Ii, L.P. Local area warning of optical fiber intrusion
JP4501697B2 (ja) * 2005-01-21 2010-07-14 日本電気株式会社 コアネットワークシステム及び光伝送装置
US7880767B2 (en) * 2005-08-22 2011-02-01 Andrew Chinigo Security system for mass transit and mass transportation
ES2431667T3 (es) * 2006-05-31 2013-11-27 Nec Corporation Dispositivo y método para detectar una actividad sospechosa, programa y medio de grabación
KR20080008106A (ko) * 2006-07-19 2008-01-23 현대모비스 주식회사 자동차 타이어의 공기압 감지장치
US8770283B2 (en) * 2007-11-02 2014-07-08 Schlumberger Technology Corporation Systems and methods for distributed interferometric acoustic monitoring
US20100131300A1 (en) * 2008-11-26 2010-05-27 Fred Collopy Visible insurance
GB0919899D0 (en) * 2009-11-13 2009-12-30 Qinetiq Ltd Fibre optic distributed sensing
US20110249252A1 (en) 2010-03-11 2011-10-13 Cleveland Electric Laboratories Fiber optic security mat system
US8743204B2 (en) 2011-01-07 2014-06-03 International Business Machines Corporation Detecting and monitoring event occurrences using fiber optic sensors
US9293016B2 (en) * 2012-04-24 2016-03-22 At&T Intellectual Property I, Lp Method and apparatus for processing sensor data of detected objects
US20140167912A1 (en) * 2012-12-17 2014-06-19 David M. Snyder System, method and apparatus for providing security systems integrated with solid state lighting systems
US10037689B2 (en) * 2015-03-24 2018-07-31 Donald Warren Taylor Apparatus and system to manage monitored vehicular flow rate
CN106164994A (zh) * 2014-04-09 2016-11-23 株式会社技术未来 数字损失/事故防御系统、方法和程序
US10243979B2 (en) 2015-02-11 2019-03-26 Comcast Cable Communications, Llc Protecting network devices from suspicious communications
CN104700624B (zh) * 2015-03-16 2017-07-07 电子科技大学 基于相敏光时域反射仪的车流量在线监测系统的监测方法
US10305895B2 (en) * 2015-04-14 2019-05-28 Blubox Security, Inc. Multi-factor and multi-mode biometric physical access control device
US20170046891A1 (en) * 2015-08-12 2017-02-16 Tyco Fire & Security Gmbh Systems and methods for location identification and tracking using a camera
CN105787440A (zh) * 2015-11-10 2016-07-20 深圳市商汤科技有限公司 一种基于人脸特征和步态特征的安保管理方法及系统
GB201521116D0 (en) * 2015-11-30 2016-01-13 Optasense Holdings Ltd Tracking using distributed fibre optic sensing
US10930130B2 (en) 2016-01-27 2021-02-23 Comcast Cable Communications, Llc Methods for monitoring security
CN205451229U (zh) * 2016-02-29 2016-08-10 武汉光谷奥源科技股份有限公司 一种智能锁具防护系统
US9707911B1 (en) * 2016-03-21 2017-07-18 Ford Global Technologies, Llc Identifying a driver of a vehicle
CN107274703A (zh) * 2016-04-07 2017-10-20 阿里巴巴集团控股有限公司 车辆位置的标定方法、装置及系统
US20170372602A1 (en) * 2016-06-24 2017-12-28 Continental Advanced Lidar Solutions Us, Llc Ladar enabled traffic control
WO2017223450A1 (en) * 2016-06-24 2017-12-28 Crown Equipment Corporation Electronic badge to authenticate and track industrial vehicle operator
CN106274751B (zh) * 2016-08-30 2018-10-23 武汉海思泰科科技有限公司 一种gis资产管理系统
TWI591585B (zh) * 2016-10-19 2017-07-11 Chunghwa Telecom Co Ltd System and method for detecting suspicious forged access control cards
CN206292982U (zh) * 2016-10-27 2017-06-30 杭州维慕德科技有限公司 一种小区车辆识别监管系统
CN106600981B (zh) * 2016-10-29 2018-12-14 浙江大学 基于分布式传感信息的道路断面双向车辆速度估计方法
US10255693B2 (en) * 2017-05-02 2019-04-09 Techcyte, Inc. Machine learning classification and training for digital microscopy images
CN107256635B (zh) * 2017-07-14 2019-12-31 浙江大学 一种智能交通中基于分布式光纤传感的车辆识别方法
CN107730895B (zh) * 2017-10-25 2024-01-30 同济大学 一种埋入式道路车辆类型识别系统和方法
CN108022444A (zh) * 2017-10-27 2018-05-11 西安艾润物联网技术服务有限责任公司 车辆停放位置指引方法、设备、停车系统及可读存储介质
CN108269407B (zh) * 2018-04-09 2024-03-12 中山火炬高新企业孵化器有限公司 一种自动管理人流、物流的安防机器人
US12094210B2 (en) * 2019-03-29 2024-09-17 Nec Corporation Monitoring system, monitoring device, monitoring method, and non-transitory computer-readable medium

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54134500A (en) * 1978-04-10 1979-10-18 Nippon Jiyouhou Kenkiyuu Senta Egress and ingress control system for secret room
JP2007304955A (ja) * 2006-05-12 2007-11-22 Kansai Electric Power Co Inc:The 個体特定システム及びセキュリティシステム
JP2009128984A (ja) 2007-11-20 2009-06-11 Yamamoto Sangyo Kk 敷物および監視装置
JP2014514791A (ja) * 2011-02-23 2014-06-19 ディジマーク コーポレイション 音声信号の符号化及び認識を使用する音声測位
JP2013167986A (ja) * 2012-02-15 2013-08-29 Hitachi Ltd 画像認識システム、画像認識方法
JP2017134681A (ja) * 2016-01-28 2017-08-03 日本ドライケミカル株式会社 火災及び侵入の検知並びに報知システム
WO2018085893A1 (en) * 2016-11-10 2018-05-17 Mark Andrew Englund Acoustic method and system for providing digital data
JP2019068645A (ja) 2017-10-02 2019-04-25 中国電力株式会社 地絡保護継電システム
US20190236920A1 (en) * 2018-01-26 2019-08-01 Nec Laboratories America, Inc. Office building security system using fiber sensing

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3951726A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114093105A (zh) * 2021-11-19 2022-02-25 北京华锐达航空科技有限公司 一种主被动结合的安防围界报警系统

Also Published As

Publication number Publication date
US20220172479A1 (en) 2022-06-02
EP3951726A1 (en) 2022-02-09
US12094210B2 (en) 2024-09-17
JPWO2020202694A1 (ja) 2020-10-08
EP3951726A4 (en) 2022-11-16
JP7243814B2 (ja) 2023-03-22
CN113678178B (zh) 2023-05-05
CN113678178A (zh) 2021-11-19

Similar Documents

Publication Publication Date Title
WO2020202694A1 (ja) 監視システム、監視装置、監視方法、及び非一時的なコンピュータ可読媒体
Dasgupta et al. A smartphone-based drowsiness detection and warning system for automotive drivers
DE112019001820B4 (de) Friktionslose mikrostandorterkennung und autorisierung
US11210376B2 (en) Systems and methods for biometric user authentication
CN105488957B (zh) 疲劳驾驶检测方法及装置
CN111241883B (zh) 防止远程被测人员作弊的方法和装置
JPWO2007138811A1 (ja) 不審行動検知装置および方法、プログラムおよび記録媒体
TWI478691B (zh) 睡意偵測方法及其裝置
CN110473328A (zh) 社区门禁管理方法及装置、存储介质、电子设备
CN106888204B (zh) 基于自然交互的隐式身份认证方法
CN111553266A (zh) 识别验证方法、装置及电子设备
Marie et al. A research on fiber-optic vibration pattern recognition based on time-frequency characteristics
Tabi Fouda et al. Events detection and recognition by the fiber vibration system based on power spectrum estimation
CN113569671B (zh) 异常行为报警方法、装置
CN107038784A (zh) 安全验证方法和装置
CN115240264B (zh) 访客风险值评估方法及系统
JPWO2020157917A1 (ja) 光ファイバセンシングシステム、状態検知装置、状態検知方法、及びプログラム
JP2020027496A (ja) 監視装置、監視システム、及びプログラム
JP2006110072A (ja) 非接触歩行検出方法とシステム及び該システムを用いた個人認証方法とシステム
US20120076366A1 (en) System and method for biometric identification
CN111936056B (zh) 检测具有呼吸紊乱的对象
CN117476234A (zh) 一种用于岗前健康检测的ai智能判定系统
CN110909704A (zh) 一种活体检测方法、装置、电子设备及存储介质
JP2020187518A (ja) 情報出力装置、方法、及びプログラム
Nakanishi Unconscious biometrics for continuous user verification

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20784720

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021511120

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020784720

Country of ref document: EP

Effective date: 20211029