Nothing Special   »   [go: up one dir, main page]

KR101215199B1 - 정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법 및 기록 매체 - Google Patents

정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법 및 기록 매체 Download PDF

Info

Publication number
KR101215199B1
KR101215199B1 KR1020060019181A KR20060019181A KR101215199B1 KR 101215199 B1 KR101215199 B1 KR 101215199B1 KR 1020060019181 A KR1020060019181 A KR 1020060019181A KR 20060019181 A KR20060019181 A KR 20060019181A KR 101215199 B1 KR101215199 B1 KR 101215199B1
Authority
KR
South Korea
Prior art keywords
fuselage
image
information
unit
area
Prior art date
Application number
KR1020060019181A
Other languages
English (en)
Other versions
KR20060095515A (ko
Inventor
히데오 미야마끼
마사하루 스즈끼
아사꼬 다무라
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20060095515A publication Critical patent/KR20060095515A/ko
Application granted granted Critical
Publication of KR101215199B1 publication Critical patent/KR101215199B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • G08B13/19643Multiple cameras having overlapping views on a single scene wherein the cameras play different roles, e.g. different resolution, different camera type, master-slave camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19671Addition of non-video data, i.e. metadata, to video stream
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

소정의 영역을 촬영함과 함께, 그 영역 내의 동체를 촬영하여, 그 결과 얻어지는 화상 중, 유저가 원하는 화상을 용이하게 재생할 수 있는 정보 처리 시스템, 장치 및 방법이 개시된다. 소정의 영역의 센서 화상이 저장되고 그 영역 내의 동체의 화상이 개별적으로 촬영되어 동체가 검지되는 센서 화상의 재생에 관련된 재생 정보와 함께 저장된다. 센서 화상의 재생이 명령된 경우, 그 동체에 대응하는 재생 정보를 판독하고, 판독된 재생 정보에 기초하여 센서 화상을 재생한다. 본 발명은, 예를 들면, 감시 시스템에 적용할 수 있다.
Figure R1020060019181
정보 처리 시스템, 동체 검지 모듈, 센서 화상, 센서 카메라, 감시 시스템

Description

정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법 및 기록 매체{INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING METHOD, AND RECORDING MEDIUM}
도 1은 종래의 다지점 카메라 시스템의 일례를 나타내는 외관도.
도 2는 도 1의 다지점 카메라 시스템의 구성의 일례를 도시하는 도면.
도 3은 도 1의 다지점 카메라 시스템의 구성의 다른 일례를 도시하는 도면.
도 4는 도 2의 기록 장치 또는 도 3의 PC에 기록되는 화상 데이터를 설명하는 도면.
도 5는 본 발명을 적용한 감시 시스템의 개관 구성예를 나타내는 도면.
도 6은 도 5의 감시 시스템의 구성예를 나타내는 도면.
도 7은 도 6의 클라이언트의 구성예를 도시하는 블록도.
도 8은 도 6의 클라이언트의 기능적 구성예를 도시하는 블록도.
도 9는 도 8의 추적 대상 정보 관리 데이터베이스에 등록되어 있는 추적 대상 정보의 예를 도시하는 도면.
도 10은 도 8의 동체 정보 데이터베이스에 등록되는 동체 정보의 예를 도시하는 도면.
도 11은 도 8의 동체 로그 정보 데이터베이스에 등록되어 있는 동체 로그 정 보의 예를 도시하는 도면.
도 12는 도 8의 녹화 실적 정보 데이터베이스에 등록되어 있는 녹화 실적 정보의 예를 도시하는 도면.
도 13은 도 8의 표시 정보 데이터베이스에 기억되는 센서 화상과 줌 화상의 용량을 설명하는 도면.
도 14 내지 도 19는 도 7의 출력부에 표시되는 화면의 서로 다른 예들을 도시하는 도면.
도 20은 도 8의 센서 화상 취득 모듈에 의한 센서 화상 취득 처리를 설명하는 플로우차트.
도 21은 도 20의 스텝 S5의 표시 정보 등록 처리를 설명하는 플로우차트.
도 22는 도 20의 스텝 S8의 동체 정보 등록 처리를 설명하는 플로우차트.
도 23은 도 8의 동체 검지 모듈에 의한 동체 검지 처리를 설명하는 플로우차트.
도 24는 도 8의 추적 대상 정보 취득 모듈에 의한 줌 화상 취득 처리를 설명하는 플로우차트.
도 25는 도 24의 스텝 S88의 동체 로그 정보 등록 처리에 대하여 설명하는 플로우차트.
도 26 및 도 27은 도 8의 동체 로그 모듈에 의한 화면의 표시 처리를 설명하는 플로우차트.
도 28은 도 26의 스텝 S121의 녹화 실적 정보 화면 표시 처리를 설명하는 플 로우차트.
도 29는 도 26의 스텝 S122의 동체 수 그래프 표시 처리를 설명하는 플로우차트.
도 30은 도 26의 스텝 S126의 동체 로그 표시부 표시 처리를 설명하는 플로우차트.
도 31은 도 8의 재생 모듈에 의한 센서 화상과 줌 화상의 재생 처리에 대하여 설명하는 플로우차트.
도 32는 도 6의 클라이언트에 의한 센서 화상과 줌 화상의 편집 처리를 설명하는 플로우차트.
도 33은 도 8의 센서 화상 취득 모듈에 의한 센서 화상 취득 처리를 설명하는 플로우차트.
도 34는 도 8의 표시 정보 데이터베이스에 기억되는 데이터의 기억 용량을 설명하는 도면.
도 35는 도 6의 감시 시스템에서 사용될 수 있는 동체의 사이즈를 설정하기 위한 화면의 예를 도시하는 도면.
도 36은 테스트 버튼이 선택되었을 때의 도 6의 감시 시스템에서 사용될 수 있는 화면의 예를 도시하는 도면.
도 37 및 도 38은 도 6의 감시 시스템의 다른 일 실시 형태의 구성예를 나타내는 도면.
<도면의 주요 부분에 대한 부호의 설명>
101 : 감시 시스템
121 : 센서 카메라
122 : 줌 카메라
201 : CPU
202 : ROM
203 : RAM
206 : 입력부
207 : 출력부
208 : 기억부
221 : 센서 화상 취득 모듈
222 : 동체 검지 모듈
223 : 추적 대상 정보 취득 모듈
226 : 표시 정보 DB
227 : 동체 정보 관리 DB
230 : 동체 로그 모듈
231 : 재생 모듈
[특허 문헌1] 일본 특개평10-108163호 공보
[특허 문헌2] 일본 특개2000-243062호 공보
<관련 출원에 대한 상호 참조>
본 발명은 2005년 2월 28일자로 일본 특허청에 출원된 일본 특허 출원 2005-054394와 관련된 요지를 포함하고 있으며, 이 전체 내용은 참조로 본 명세서에 원용된다.
본 발명은, 정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법, 프로그램, 및 기록 매체에 관한 것으로, 특히, 소정의 영역을 촬영함과 함께, 그 영역 내의 동체를 촬영하여, 그 결과 얻어지는 임의의 화상을 재생할 수 있도록 하는 정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법, 프로그램, 및 기록 매체에 관한 것이다.
최근, 예를 들면, 자동 예불기(ATM)를 설치하고 있는 은행, 주차장, 가옥 등에서, 시큐러티의 확보를 위해 다지점 카메라 감시 시스템(multi camera system)이 많이 설치되어 있다.
이러한 다지점 카메라 시스템은, 복수의 비디오 카메라와, 이들 비디오 카메라로부터 취득된 화상을 기록하는 기록 장치로 구성된다. 다지점 카메라 시스템에서는, 복수의 화상을 축소 및 합성하여, 1 프레임 화상으로 하는 기술이 제안되어 있다(예를 들면, 특허 문헌1 참조). 또한, 복수의 비디오 카메라로부터의 화상을 모아 비디오 테이프 등의 기록 매체에 기록하는 것도 제안되어 있다(예를 들면, 특허 문헌 2 참조).
도 1은 종래의 다지점 카메라 시스템의 일례를 나타내는 외관도이다.
도 1의 다지점 카메라 시스템(1)은, 4대의 카메라(11-1 내지 11-4)로 구성된다. 카메라(11-1 내지 11-4)는, 촬영 방향이 고정된 고정 카메라 또는 촬영 방향이 가변인 팬 틸트 줌 카메라이다. 카메라(11-1 내지 11-4)는, 예를 들면, 주차장 내의 직경 40 m의 원 형상의 광범위한 영역(21)을 감시하고 있다.
도 2는 도 1의 다지점 카메라 시스템의 구성의 일례를 보이고 있다.
도 2의 카메라(11-1 내지 11-4)는 촬영을 행한다. 카메라(11-1 내지 11-4)는, 각각, 기록 장치(41)에 접속되어, 촬영의 결과 얻어지는 화상의 아날로그 신호를 기록 장치(41)에 공급한다. 기록 장치(41)는, 카메라(11-1 내지 11-4)로부터 공급되는 화상의 아날로그 신호에 대하여, A/D 변환을 행하여, 그 결과 얻어지는 화상의 디지털 신호인 화상 데이터를 기록한다. 또한, 기록 장치(41)는, 표시 장치(42)에 접속되어, 화상 데이터에 대응하는 화상을 표시 장치(42)에 표시시킨다.
그러나, 도 2의 다지점 카메라 시스템(1)에서는, 기록 장치(41)에 접속 가능한 카메라가 4개의 카메라(11-1 내지 11-4)로만 제한되어, 다지점 카메라 시스템(1)의 확장성이 부족하다.
도 3은 도 1의 다지점 카메라 시스템(1)의 구성의 다른 일례를 나타내고 있다.
도 3의 카메라(11-1 내지 11-4)는, 각각 네트워크(51)를 통하여, 퍼스널 컴퓨터(PC)(52)와 접속되어 있다. 카메라(11-1 내지 11-4)는, 촬영을 행하여, 그 결과 얻어지는 화상 데이터를, IP(Internet Protoco1)에 따라 네트워크(51)를 통하여 PC(52)에 송신한다. PC(52)는 그 화상 데이터를 기록하거나, 화상 데이터에 대응하는 화상을 표시시킨다.
다음으로, 도 4를 참조하여, 도 2의 기록 장치(41) 또는 PC(52)에 기록되는 화상 데이터를 설명한다.
도 4에 도시한 바와 같이 기록 장치(41) 또는 PC(52)에서는, 카메라(11-1 내지 11-4)에서 얻어지는 화상 데이터가 전부 기록된다. 따라서, 다지점 카메라 시스템(1)으로 감시를 행하는 경우, 화상 데이터가 소정의 압축 방식으로 압축된 경우에도, 기록 장치(41) 또는 PC(52)에 기록되는 화상 데이터의 용량은 매우 커진다.
예를 들면, 소정의 조건(50KB/프레임, 10프레임/초)에서, JPEG(Joint Photographic Experts Group) 방식에 따라서 압축한 화상 데이터를 24 시간 기록하는 경우, 4대의 카메라(11-1 내지 11-4)로 구성되는 다지점 카메라 시스템(1)에서는, 기록 장치(41) 또는 PC(52)에 기록될 화상 데이터의 용량은, 약 164GB로 된다. 또한, 다지점 카메라 시스템(1)이 8대의 카메라로 구성되는 경우, 그 용량은 약 328GB로 되며, 16대의 카메라로 구성되는 경우, 그 용량은 약 656GB로 된다.
이상과 같이, 다지점 카메라 시스템(1)에서는, 영역(21)을 감시하기 위해 4대의 카메라(11-1 내지 11-4)가 필요하므로, 설치가 번거로우며, 다지점 카메라 시스템(1)의 코스트가 높아진다. 또한, 고정밀도의 화상을 취득하는 경우, 촬영 배율을 올려 촬영할 필요가 있기 때문에, 보다 많은 카메라가 필요해진다. 또한, 고정밀도의 화상을 취득하기 위해, 카메라의 대 수를 늘리지 않는 경우에는, 모든 영 역(21)에 대하여 고정밀도의 화상을 취득하는 것이 곤란하기 때문에, 오퍼레이터가 항상 통상의 화상을 감시하고, 원하는 영역을 지정하여, 그 영역의 고정밀도의 화상을 취득할 필요가 있다.
따라서, 촬영 방향을 순서대로 시프트시키면서, 피사체를 촬영하여, 복수의 단위 화상으로 구성되는 파노라마 형상의 전체 화상을 얻는 것에 의해, 1대의 카메라로 광범위한 상황을 감시할 수 있는 감시 카메라가 있다.
그러나, 이러한 감시 카메라는, 1매의 전체 화상을 생성하기 위해, 이것을 구성하는 모든 단위 화상을 취득할 필요가 있으며, 1매의 전체 화상을 생성하기 위해 많은 시간이 필요하다. 따라서, 촬영 범위 내에서 단시간에 발생한 약간의 상황 변화를 빠짐없이 파악하기 어렵다.
특히, 이동 속도가 빠른 동체(이동 피사체)가 촬영되어, 전체 화상으로서 취득되고 나서, 다음에 전체 화상이 취득되기까지의 사이에, 동체가 촬영 범위 밖으로 이동하는 경우가 있다.
본 발명은, 소정의 영역을 촬영함과 함께, 그 영역 내의 동체를 촬영하여, 그 결과 얻어지는 화상 중, 유저가 원하는 화상을 용이하게 재생할 수 있도록 하는 정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법, 프로그램, 및 기록 매체를 제공한다.
전술한 목적을 달성하기 위해, 본 발명의 정보 처리 시스템은, 소정의 영역 을 촬영하는 영역 촬영부와, 영역 촬영부에 의해 촬영된 결과 얻어지는 영역 화상에 기초하여, 소정의 영역 내에 존재하는 동체를 검지하는 검지부와, 검지부에 의해 검지된 동체를 촬영하는 동체 촬영부와, 영역 촬영부에 의해 얻어진 영역 화상을 기억하는 영역 화상 기억부와, 검지부에 의한 검지 결과에 기초하여, 동체를 나타내는 동체 정보와, 그 동체가 검지된 영역 화상의 재생에 관한 재생 정보를 대응하여 기억하는 정보 기억부와, 동체 촬영부에 의해 동체가 촬영된 결과 얻어지는 동체 화상을, 그 동체를 나타내는 동체 정보에 대응하여 기억하는 동체 화상 기억부와, 재생 대상으로 되는 영역 화상에 대응하는 동체 화상이 지정된 경우, 그 동체 화상에 대응하는 동체 정보를 동체 화상 기억부로부터 판독하고, 그 동체 정보에 대응하는 재생 정보를 정보 기억부로부터 판독하고, 그 재생 정보에 기초하여 영역 화상 기억부에 기억된 영역 화상을 재생하는 재생부를 포함하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 본 발명의 피사체의 촬영을 제어하는 정보 처리 장치는, 소정의 영역을 촬영하는 영역 촬영부를 제어하여, 소정의 영역을 촬영시키는 영역 촬영 제어부와, 영역 촬영부에 의해 촬영된 결과 얻어지는 영역 화상에 기초하여, 소정의 영역 내에 존재하는 동체를 검지하는 검지부와, 검지부에 의해 검지된 동체를 촬영하는 동체 촬영부를 제어하여, 동체를 촬영시키는 동체 촬영 제어부와, 영역 촬영부에 의해 얻어진 영역 화상을 기억하는 영역 화상 기억부와, 검지부에 의한 검지 결과에 기초하여, 동체를 나타내는 동체 정보와, 그 동체가 검지된 영역 화상의 재생에 관한 재생 정보를 대응하여 기억하는 정보 기억부 와, 동체 촬영부에 의해 동체가 촬영된 결과 얻어지는 동체 화상을, 그 동체를 나타내는 동체 정보에 대응하여 기억하는 동체 화상 기억부와, 재생 대상으로 되는 영역 화상에 대응하는 동체 화상이 지정된 경우, 그 동체 화상에 대응하는 동체 정보를 동체 화상 기억부로부터 판독하고, 그 동체 정보에 대응하는 재생 정보를 정보 기억부로부터 판독하고, 그 재생 정보에 기초하여 영역 화상 기억부에 기억된 영역 화상을 재생하는 재생부를 구비한 것을 특징으로 한다.
이 정보 처리 장치에는, 소정의 화상을 표시하도록 배치된 표시부에 동체 화상을 표시시키는 표시 제어부와, 표시부에 표시된 동체 화상을, 재생 대상으로 되는 영역 화상에 대응하는 동체 화상으로서 지정하는 지정부를 더 설치하고, 재생부는, 지정부에 의해 재생 대상으로 되는 영역 화상에 대응하는 동체 화상이 지정된 경우, 그 영역 화상을 재생할 수 있다.
본 발명의 또다른 실시예에 따르면, 본 발명의 화상을 기억하는 영역 화상 기억부 및 동체 화상 기억부, 및 정보를 기억하는 정보 기억부를 포함하고, 피사체의 촬영을 제어하는 정보 처리 장치의 정보 처리 방법은, 소정의 영역을 촬영하는 영역 촬영부를 제어하여, 소정의 영역을 촬영시키는 영역 촬영 제어 단계와, 영역 촬영부에 의해 촬영된 결과 얻어지는 영역 화상에 기초하여, 소정의 영역 내에 존재하는 동체를 검지하는 검지 단계와, 검지 단계의 처리에 의해 검지된 동체를 촬영하는 동체 촬영부를 제어하여, 동체를 촬영시키는 동체 촬영 제어 단계와, 영역 촬영부에 의해 얻어진 영역 화상을 영역 화상 기억부에 기억시키는 영역 화상 기억 제어 단게와, 검지 스텝의 처리에 의한 검지 결과에 기초하여, 동체를 나타내는 동 체 정보와, 그 동체가 검지된 영역 화상의 재생에 관한 재생 정보를 대응하여, 정보 기억부에 기억시키는 정보 기억 제어 단계와, 동체 촬영부에 의해 동체가 촬영된 결과 얻어지는 동체 화상을, 그 동체를 나타내는 동체 정보에 대응하여, 동체 화상 기억부에 기억시키는 동체 화상 기억 제어 단계와, 재생 대상으로 되는 영역 화상에 대응하는 동체 화상이 지정된 경우, 그 동체 화상에 대응하는 동체 정보를 동체 화상 기억부로부터 판독하고, 그 동체 정보에 대응하는 재생 정보를 정보 기억부로부터 판독하고, 그 재생 정보에 기초하여 영역 화상 기억부에 기억된 영역 화상을 재생하는 재생 단계를 포함하는 것을 특징으로 한다.
본 발명의 또다른 실시예에 따르면, 본 발명의 화상을 기억하는 영역 화상 기억 수단 및 동체 화상 기억 수단, 및 정보를 기억하는 정보 기억 수단을 포함하는 정보 처리 장치를 제어하는 컴퓨터에 의해 실행되는 프로그램은, 소정의 영역을 촬영하는 영역 촬영부를 제어하여, 소정의 영역을 촬영시키는 영역 촬영 제어 단계와, 영역 촬영부에 의해 촬영된 결과 얻어지는 영역 화상에 기초하여, 소정의 영역 내에 존재하는 동체를 검지하는 검지 단계와, 검지 단계의 처리에 의해 검지된 동체를 촬영하는 동체 촬영부를 제어하여, 동체를 촬영시키는 동체 촬영 제어 단계와, 영역 촬영부에 의해 얻어진 영역 화상을 영역 화상 기억부에 기억시키는 영역 화상 기억 제어 단계와, 검지 단계의 처리에 의한 검지 결과에 기초하여, 동체를 나타내는 동체 정보와, 그 동체가 검지된 영역 화상의 재생에 관한 재생 정보를 대응하여, 정보 기억부에 기억시키는 정보 기억 제어 단계와, 동체 촬영부에 의해 동체가 촬영된 결과 얻어지는 동체 화상을, 그 동체를 나타내는 동체 정보에 대응하 여, 동체 화상 기억부에 기억시키는 동체 화상 기억 제어 단계와, 재생 대상으로 되는 영역 화상에 대응하는 동체 화상이 지정된 경우, 그 동체 화상에 대응하는 동체 정보를 동체 화상 기억부로부터 판독하고, 그 동체 정보에 대응하는 재생 정보를 정보 기억부로부터 판독하고, 그 재생 정보에 기초하여 영역 화상 기억부에 기억된 영역 화상을 재생하는 재생 단계를 포함하는 것을 특징으로 한다.
본 발명의 또다른 실시예에 따르면, 본 발명의 화상을 기억하는 영역 화상 기억부 및 동체 화상 기억부, 및 정보를 기억하는 정보 기억부를 포함하는 정보 처리 장치를 제어하는 컴퓨터에 의해 실행되는 프로그램이 기록되어 있는 기록 매체는, 소정의 영역을 촬영하는 영역 촬영부를 제어하여, 소정의 영역을 촬영시키는 영역 촬영 제어 단계와, 영역 촬영부에 의해 촬영된 결과 얻어지는 영역 화상에 기초하여, 소정의 영역 내에 존재하는 동체를 검지하는 검지 단계와, 검지 단계의 처리에 의해 검지된 동체를 촬영하는 동체 촬영부를 제어하여, 동체를 촬영시키는 동체 촬영 제어 단계와, 영역 촬영부에 의해 얻어진 영역 화상을 영역 화상 기억부에 기억시키는 영역 화상 기억 제어 단계와, 검지 단계의 처리에 의한 검지 결과에 기초하여, 동체를 나타내는 동체 정보와, 그 동체가 검지된 영역 화상의 재생에 관한 재생 정보를 대응하여, 정보 기억부에 기억시키는 정보 기억 제어 단계와, 동체 촬영부에 의해 동체가 촬영된 결과 얻어지는 동체 화상을, 그 동체를 나타내는 동체 정보에 대응하여, 동체 화상 기억부에 기억시키는 동체 화상 기억 제어 단계와, 재생 대상으로 되는 영역 화상에 대응하는 동체 화상이 지정된 경우, 그 동체 화상에 대응하는 동체 정보를 동체 화상 기억부로부터 판독하고, 그 동체 정보에 대응하는 재생 정보를 정보 기억부로부터 판독하고, 그 재생 정보에 기초하여 영역 화상 기억부에 기억된 영역 화상을 재생하는 재생 단계를 포함하는 것을 특징으로 한다.
본 발명의 정보 처리 시스템, 장치 및 방법, 및 프로그램과, 프로그램이 기록된 기록 매체에서는, 소정의 영역이 촬영되어, 그 결과 얻어지는 영역 화상에 기초하여, 소정의 영역 내에 존재하는 동체가 검지되어, 검지된 동체가 촬영된다. 또한, 영역 화상이 영역 화상 기억부에 기억되어, 검지 결과에 기초하여, 동체를 나타내는 동체 정보와, 그 동체가 검지된 영역 화상의 재생에 관한 재생 정보가 대응되어 정보 기억부에 기억된다. 또한, 동체가 촬영된 결과 얻어지는 동체 화상이, 그 동체를 나타내는 동체 정보에 대응하여 동체 화상 기억부에 기억된다. 그리고, 재생 대상으로 되는 영역 화상에 대응하는 동체 화상이 지정된 경우, 그 동체 화상에 대응하는 동체 정보가 동체 화상 기억부로부터 판독되고, 그 동체 정보에 대응하는 재생 정보가 정보 기억부로부터 판독되고, 그 재생 정보에 기초하여 영역 화상 기억부에 기억된 영역 화상이 재생된다.
본 발명의 정보 처리 시스템, 장치 및 방법, 및 프로그램과 기록 매체에 따르면, 소정의 영역을 촬영함과 함께, 그 영역 내의 동체를 촬영하여, 그 결과 얻어지는 화상 중, 유저가 원하는 화상을 용이하게 재생할 수 있다.
본 발명의 전술한 목적 및 그 밖의 목적 및 특징 및 이점들은, 동일한 부호가 동일한 구성 요소를 나타내는 첨부된 도면과 결부되어 이하의 상세한 설명 및 첨부된 특허청구범위로부터 명백하게 될 것이다.
<실시예>
이하에 본 발명의 실시 형태를 설명하지만, 청구항에 기재된 구성 요건과, 발명의 실시 형태에 있어서의 구체예와의 대응 관계를 예시하면, 다음과 같이 된다. 이 기재는, 청구항에 기재되어 있는 발명을 서포트하는 구체예가, 발명의 실시 형태에 기재되어 있는 것을 확인하기 위한 것이다. 따라서, 발명의 실시 형태중에는 기재되어 있지만, 구성 요건에 대응하는 것으로서, 여기에는 기재되어 있지 않은 구체예가 있었다고 해도, 그것은, 그 구체예가 그 구성 요건에 대응하지 않음을 의미하는 것이 아니다. 반대로, 구체예가 구성 요건에 대응하는 것으로서 여기에 기재되어 있었다고 해도, 그것은, 그 구체예가 그 구성 요건 이외의 구성 요건에는 대응하지 않음을 의미하는 것도 아니다.
또한, 이 기재는, 발명의 실시 형태에 기재되어 있는 구체예에 대응하는 발명이, 청구항에 모두 기재되어 있는 것을 의미하는 것은 아니다. 환언하면, 이 기재는, 발명의 실시 형태에 기재되어 있는 구체예에 대응하는 발명이고, 이 출원의 청구항에는 기재되어 있지 않은 발명의 존재, 즉, 장래, 분할 출원되거나, 보정에 의해 추가되는 발명의 존재를 부정하는 것은 아니다.
본 발명에 따른 정보 처리 시스템(예를 들면, 도 6의 감시 시스템(101))은,
소정의 영역을 촬영하는 영역 촬영부(예를 들면, 도 6의 센서 카메라(121))와,
상기 영역 촬영부에 의해 촬영된 결과 얻어지는 영역 화상(예를 들면, 센서 화상)에 기초하여, 상기 소정의 영역 내에 존재하는 동체를 검지하는 검지부(예를 들면, 도 8의 동체 검지 모듈(222))와,
상기 검지부에 의해 검지된 동체를 촬영하는 동체 촬영부(예를 들면, 도 6의 줌 카메라(122))와,
상기 영역 촬영부에 의해 얻어진 영역 화상을 기억하는 영역 화상 기억부(예를 들면, 도 8의 표시 정보 DB(226))와,
상기 검지부에 의한 검지 결과에 기초하여, 상기 동체를 나타내는 동체 정보(예를 들면, 동체 ID)와, 그 동체가 검지된 영역 화상의 재생에 관한 재생 정보(예를 들면, 재생 개시 위치)를 대응하여 기억하는 정보 기억부(예를 들면, 도 8의 동체 정보 DB(227))와,
상기 동체 촬영부에 의해 동체가 촬영된 결과 얻어지는 동체 화상(예를 들면, 줌 화상(152))을, 그 동체를 나타내는 동체 정보에 대응하여 기억하는 동체 화상 기억부(예를 들면, 도 8의 동체 로그 정보 DB(228))와, 재생 대상으로 되는 영역 화상에 대응하는 상기 동체 화상이 지정된 경우, 그 동체 화상에 대응하는 동체 정보를 상기 동체 화상 기억부로부터 판독하고, 그 동체 정보에 대응하는 재생 정보를 상기 정보 기억부로부터 판독하고, 그 재생 정보에 기초하여 상기 영역 화상 기억부에 기억된 영역 화상을 재생하는 재생부(예를 들면, 도 8의 재생 모듈(231))
를 구비하는 것을 특징으로 한다.
본 발명에 따른 정보 처리 장치는,
피사체의 촬영을 제어하는 정보 처리 장치(예를 들면, 도 6의 클라이언트(132))에서,
소정의 영역을 촬영하는 영역 촬영부(예를 들면, 도 6의 센서 카메라(121))를 제어하여, 상기 소정의 영역을 촬영시키는 영역 촬영 제어부(예를 들면, 도 8의 센서 화상 취득 모듈(221))와,
상기 영역 촬영부에 의해 촬영된 결과 얻어지는 영역 화상(예를 들면, 센서 화상)에 기초하여, 상기 소정의 영역 내에 존재하는 동체를 검지하는 검지부(예를 들면,도 8의 동체 검지 모듈(222))와,
상기 검지부에 의해 검지된 동체를 촬영하는 동체 촬영부(예를 들면, 도 6의 줌 카메라(122))를 제어하여, 상기 검지부에 의해 검지된 동체를 촬영시키는 동체 촬영 제어부(예를 들면, 도 8의 추적 대상 화상 취득 모듈(223))와,
상기 영역 촬영부에 의해 얻어진 영역 화상을 기억하는 영역 화상 기억부(예를 들면, 도 8의 표시 정보 DB(226))와,
상기 검지부에 의한 검지 결과에 기초하여, 상기 동체를 나타내는 동체 정보(예를 들면, 동체 ID)와, 그 동체가 검지된 영역 화상의 재생에 관한 재생 정보(예를 들면, 재생 개시 위치)를 대응하여 기억하는 정보 기억부(예를 들면, 도 8의 동체 정보 DB(227))와,
상기 동체 촬영부에 의해 동체가 촬영된 결과 얻어지는 동체 화상(예를 들면, 줌 화상(152))을, 그 동체를 나타내는 동체 정보에 대응하여 기억하는 동체 화상 기억부(예를 들면, 동체 로그 정보 DB(228))와, 재생 대상으로 되는 영역 화상에 대응하는 상기 동체 화상이 지정된 경우, 그 동체 화상에 대응하는 동체 정보를 상기 동체 화상 기억부로부터 판독하고, 그 동체 정보에 대응하는 재생 정보를 상 기 정보 기억부로부터 판독하고, 그 재생 정보에 기초하여 상기 영역 화상 기억부에 기억된 영역 화상을 재생하는 재생부(예를 들면, 도 31의 스텝 S212의 처리를 실행하는 도 8의 재생 모듈(231))
를 구비하는 것을 특징으로 한다.
본 발명에 따른 정보 처리 장치는,
소정의 화상을 표시하도록 배치된 표시부(예를 들면, 도 8의 출력부(207))에 상기 동체 화상(예를 들면, 줌 화상)을 표시시키는 표시 제어부(예를 들면, 도 30의 스텝 S194의 처리를 실행하는 도 8의 재생 모듈(231))와,
상기 표시부에 표시된 동체 화상을, 재생 대상으로 되는 영역 화상에 대응하는 동체 화상으로서 지정하는 지정부(예를 들면, 도 8의 입력부(206))를 더 구비하며,
상기 재생부는, 상기 지정부에 의해 재생 대상으로 되는 영역 화상에 대응하는 동체 화상이 지정된 경우, 그 영역 화상을 재생하는(예를 들면, 도 31의 스텝 S212의 처리) 것을 특징으로 한다.
본 발명에 따른 정보 처리 장치는,
화상을 기억하는 영역 화상 기억부(예를 들면, 도 8의 표시 정보 DB(226)) 및 동체 화상 기억부(예를 들면, 도 8의 동체 로그 정보 DB(228)), 및 정보를 기억하는 정보 기억부(예를 들면, 도 8의 동체 정보 DB(227))를 구비하고, 피사체의 촬영을 제어하는 정보 처리 장치(예를 들면, 도 6의 클라이언트(132))의 정보 처리 방법으로서,
소정의 영역을 촬영하는 영역 촬영부(예를 들면, 도 6의 센서 카메라(121))를 제어하여, 상기 소정의 영역을 촬영시키는 영역 촬영 제어 스텝(예를 들면, 도 20의 스텝 S1)과,
상기 영역 촬영부에 의해 촬영된 결과 얻어지는 영역 화상에 기초하여, 상기 소정의 영역 내에 존재하는 동체를 검지하는 검지 스텝(예를 들면, 도 23의 스텝 S61)과,
상기 검지 스텝의 처리에 의해 검지된 동체를 촬영하는 동체 촬영부(예를 들면, 도 6의 줌 카메라(122))를 제어하여, 상기 동체를 촬영시키는 동체 촬영 제어 스텝(예를 들면, 도 24의 스텝 S85)과,
상기 영역 촬영부에 의해 얻어진 영역 화상을 상기 영역 화상 기억부에 기억시키는 영역 화상 기억 제어 스텝(예를 들면, 도 21의 스텝 S27)과,
상기 검지 스텝의 처리에 의한 검지 결과에 기초하여, 상기 동체를 나타내는 동체 정보(예를 들면, 동체 ID)와, 그 동체가 검지된 영역 화상의 재생에 관한 재생 정보를 대응시켜, 상기 정보 기억부에 기억시키는 정보 기억 제어 스텝(예를 들면, 도 22의 스텝 S43)과,
상기 동체 촬영부에 의해 동체가 촬영된 결과 얻어지는 동체 화상(예를 들면, 줌 화상(152))을, 그 동체를 나타내는 동체 정보에 대응시켜, 상기 동체 화상 기억부에 기억시키는 동체 화상 기억 제어 스텝(예를 들면, 도 25의 스텝 S104)과,
재생 대상으로 되는 영역 화상에 대응하는 상기 동체 화상이 지정된 경우, 그 동체 화상에 대응하다 동체 정보를 상기 동체 화상 기억부로부터 판독하고, 그 동체 정보에 대응하는 재생 정보를 상기 정보 기억부로부터 판독하고, 그 재생 정보에 기초하여 상기 영역 화상 기억부에 기억된 영역 화상을 재생하는 재생 스텝(예를 들면, 도 31의 스텝212)을 포함하는 것을 특징으로 한다.
본 발명에 따른 기록 매체에 기록되는 프로그램은,
화상을 기억하는 영역 화상 기억부(예를 들면, 도 8의 표시 정보 DB(226)) 및 동체 화상 기억부(예를 들면, 도 8의 동체 로그 정보 DB(228)), 및 정보를 기억하는 정보 기억부(예를 들면, 도 8의 동체 정보 DB(227))를 구비하는 정보 처리 장치(예를 들면, 도 6의 클라이언트(132))를 제어하는 컴퓨터에 행하게 하는 프로그램으로서,
소정의 영역을 촬영하는 영역 촬영부(예를 들면, 도 6의 센서 카메라(121))를 제어하여, 상기 소정의 영역을 촬영시키는 영역 촬영 제어 스텝(예를 들면, 도 20의 스텝 S1)과,
상기 영역 촬영부에 의해 촬영된 결과 얻어지는 영역 화상에 기초하여, 상기 소정의 영역 내에 존재하는 동체를 검지하는 검지 스텝(예를 들면, 도 23의 스텝 S61)과,
상기 검지 스텝의 처리에 의해 검지된 동체를 촬영하는 동체 촬영부(예를 들면, 도 6의 줌 카메라(122))를 제어하여, 상기 동체를 촬영시키는 동체 촬영 제어 스텝(예를 들면, 도 24의 스텝 S85)과,
상기 영역 촬영부에 의해 얻어진 영역 화상을 상기 영역 화상 기억부에 기억 시키는 영역 화상 기억 제어 스텝(예를 들면, 도 21의 스텝 S27)과,
상기 검지 스텝의 처리에 의한 검지 결과에 기초하여, 상기 동체를 나타내는 동체 정보(예를 들면, 동체 ID)와, 그 동체가 검지된 영역 화상의 재생에 관한 재생 정보를 대응하여, 상기 정보 기억부에 기억시키는 정보 기억 제어 스텝(예를 들면, 도 22의 스텝 S43)과,
상기 동체 촬영부에 의해 동체가 촬영된 결과 얻어지는 동체 화상(예를 들면, 줌 화상(152))을, 그 동체를 나타내는 동체 정보에 대응시켜, 상기 동체 화상 기억부에 기억시키는 동체 화상 기억 제어 스텝(예를 들면, 도 25의 스텝 S104)과,
재생 대상으로 되는 영역 화상에 대응하는 상기 동체 화상이 지정된 경우, 그 동체 화상에 대응하는 동체 정보를 상기 동체 화상 기억부로부터 판독하고, 그 동체 정보에 대응하는 재생 정보를 상기 정보 기억부로부터 판독하고, 그 재생 정보에 기초하여 상기 영역 화상 기억부에 기억된 영역 화상을 재생하는 재생 스텝(예를 들면, 도 31의 스텝212)을 포함하는 것을 특징으로 한다.
이하, 본 발명을 적용한 구체적인 실시 형태에 대하여, 도면을 참조하면서 상세히 설명한다.
도 5는, 본 발명을 적용한 감시 시스템(101)의 개관 구성예를 나타내고 있다.
도 5의 감시 시스템(101)은, 카메라 유닛(111)을 포함한다. 도 6을 참조하면, 카메라 유닛(111)은, 광범위한 영역을 촬영하는 센서 카메라(121)와, 소정의 동체를 줌(확대)하여 촬영하는 줌 카메라(122)를 포함한다. 센서 카메라(121)는 광범위한 영역을 촬영하여, 그 결과 얻어지는 센서 화상(121)(후술하는 도 6)으로부터 검지되는 동체를, 줌 카메라(122)가 줌하여 촬영한다. 이에 의해, 도 5의 감시 시스템(101)에서는, 예를 들면, 주차장 내의 직경 40 m의 원 형상의 광범위한 영역(21)을 감시할 수 있다.
그 결과, 도 1에 도시한 다지점 카메라 시스템(1)에 비하여, 카메라의 대 수가 적어도 되며, 설치가 용이하고, 코스트도 삭감할 수 있다.
도 6은, 감시 시스템(101)의 구성예를 나타내고 있다.
도 6의 감시 시스템(101)은, 센서 카메라(121)와 줌 카메라(122)로 이루어지는 카메라 유닛(111), 네트워크(131), 및 클라이언트(132)로 구성되며, 센서 카메라(121)에 의해 취득되는 센서 화상(151)과, 줌 카메라(122)에 의한 촬영의 결과 얻어지는 줌 화상(152)을, 네트워크(131)를 통하여 클라이언트(132)에 기록하고, 그 기록한 센서 화상(151)과 줌 화상(152)을 클라이언트(132)에 의해 재생한다.
카메라 유닛(111)의 센서 카메라(121)는, 팬 틸트부(121A)와 카메라부(121B)가 일체적으로 구성되어 있다. 팬 틸트부(121A)는, 예를 들면, 팬과 틸트(수평 방향 및 수직 방향)의 2축에 대하여 촬영 방향을 자유롭게 변경하기 위한 회전대로서 구성된다. 카메라부(121B)는, 팬 틸트부(121A)를 구성하는 회전대 상에 배치되며, 클라이언트(132)의 제어에 따라서, 팬 틸트부(121A)를 제어하여, 촬영 방향의 수평 방향 또는 수직 방향을 조정하면서, 촬영 화면 각도를 변경함으로써, 촬영 배율을 확대 또는 축소하여 광범위한 영역(의 피사체)을 동화상으로서 촬영한다. 구체적으로는, 예를 들면, 카메라부(121B)는, 촬영 방향을 순서대로 시프트시키면서, 피사체를 촬영함으로써, 복수의 단위 화상을 취득하여, 그 복수의 단위 화상으로 구성되는 파노라마 형상의 화상을 센서 화상(151)으로 한다.
카메라부(121B)는, 촬영의 결과 얻어지는 센서 화상(151)을 네트워크(131)를 통하여 클라이언트(132)에 공급한다. 도 6에서는, 센서 카메라(121)는, 동체(161와 162)를 포함하는 광범위한 영역을 촬영하여, 동체(161와 162)가 포함되는 센서 화상(151)을 취득하고 있다.
줌 카메라(122)는, 센서 카메라(121)와 마찬가지로, 팬 틸트부(122A)와 카메라부(122B)가 일체적으로 구성되어 있다. 팬 틸트부(122A)는, 팬 틸트부(121A)와 마찬가지로, 예를 들면, 팬과 틸트의 2축에 대하여 촬영 방향을 자유롭게 변경하기 위한 회전대로서 구성된다. 카메라부(122B)는, 팬 틸트부(121A)를 구성하는 회전대 상에 배치되며, 클라이언트(132)의 제어에 따라서, 팬 틸트부(122A)를 제어하여, 촬영 방향의 수평 방향 또는 수직 방향을 조정하면서, 촬영 화면 각도를 변경함으로써, 촬영 배율을 확대 또는 축소하여, 소정의 동체를 동화상으로 하여 줌 촬영한다.
클라이언트(132)는, 센서 카메라(121)로부터 공급되는 센서 화상(151)에 포함되는 동체(161와 162)를 검지하여, 동체(161 또는 162)를 둘러싸는 소정의 영역(예를 들면, 사각형의 영역)을, 각각 동체 틀(171 또는 172)로서 결정한다.
클라이언트(132)는, 예를 들면, 동체 틀(172)의 4개의 정점 A 내지 D의 센서 화상(151) 상의 X축(도면중 수평 방향의 축)과 Y축(도면중 수직 방향의 축)에 있어서의 좌표를 줌 카메라(122)에 공급한다. 줌 카메라(122)는, 그 좌표에 기초하여, 동체(162)(의 동체 틀(172))를 줌 촬영하여, 줌 화상(152)을 취득한다. 또한, 이하에서는, 센서 화상(151)과 줌 화상(152)은, 프레임 단위로 취득되는 것으로 한다. 줌 카메라(122)는, 줌 화상(152)을 네트워크(131)를 통하여 클라이언트(132)에 공급한다.
네트워크(131)는, 예를 들면, 클라이언트(132)와 전화 회선을 통하여 접속되는 인터넷망이나, TA(Terminal Adapter)나 모뎀과 접속되는 ISDN(Integrated Services Digital Network)/B(broadband)-ISDN, LAN(Local Area Network) 등이며, 데이터의 쌍방향 통신을 가능하게 한 통신망이다.
클라이언트(132)는, 예를 들면, 퍼스널 컴퓨터 등으로 이루어지며, 네트워크(131)를 통하여, 센서 카메라(121)와 줌 카메라(122)를 제어한다. 또한, 클라이언트(132)는, 센서 카메라(121)로부터의 센서 화상(151)과 줌 카메라(122)로부터의 줌 화상(152)을 기록하고, 기록한 센서 화상(151)이나 줌 화상(152)을 재생하여 표시시킨다.
도 7은, 도 6의 클라이언트(132)의 구성예를 도시하는 블록도이다.
도 7에 도시된 바와 같이, CPU(Central Processing Unit)(201)는, 버스(204)를 통하여, ROM(Read Only Memory)(202) 및 RAM(Random Access Memory)(203)에 접속되어 있다. 또한, CPU(201), ROM(202), 및 RAM(203)은, 마이크로컴퓨터 등에 의해 구성된다. 버스(204)에는 또한, 입출력 인터페이스(205)도 접속되어 있다.
CPU(201)는, ROM(202)에 기억되어 있는 프로그램, 또는 RAM(203)에 기억되어 있는 프로그램에 따라서, 각종의 처리를 실행한다. ROM(202)은, 각종 프로그램 등을 기억하고 있다. RAM(203)에는, 통신부(209)를 통하여 취득한 프로그램이 기억된다. 또한, RAM(203)에는, CPU(201)가 각종 처리를 실행하는 데에 있어서 필요한 데이터 등도 적절하게 기억된다.
입출력 인터페이스(205)에는, 키보드나, 마우스, 마이크 등으로 구성되는 입력부(206), LCD(Liquid Crystal Display)나 스피커 등으로 구성되는 출력부(207), 하드디스크 등에 의해 구성되는 기억부(208), TA, 모뎀 등으로 구성되는 통신부(209)가 접속되어 있다. 통신부(209)는, 도 6의 네트워크(131)에 접속되어 있고, 네트워크(131)를 통하여, 센서 카메라(121) 및 줌 카메라(122)와 통신을 행한다.
입출력 인터페이스(205)에는 또한, 필요에 따라, 드라이브(210)가 적절하게 장착되어, 드라이브(210)에 장착된 리무버블 미디어(211)로부터 프로그램이 판독되어 기억부(208)에 인스톨된다. CPU(201)는, 기억부(208)에 인스톨된 프로그램을, 예를 들면 RAM(203)에 로드하여 실행한다.
도 8은, 도 6의 클라이언트(132)의 기능적 구성예를 도시하는 블록도이다.
또한, 도 8의 클라이언트(132)의 센서 화상 취득 모듈(221), 동체 검지 모듈(222), 추적 대상 화상 취득 모듈(223), 계시 모듈(counter module; 224), 동체 로그 모듈(230), 및 재생 모듈(231)은, 예를 들면, 도 7의 CPU(201)에 대응한다. 또한, 추적 대상 정보 관리 DB(225), 표시 정보 DB(226), 동체 정보 DB(227), 동체 로그 정보 DB(228), 및 녹화 실적 정보 DB(229)는, 예를 들면, 도 7의 기억부(208)에 대응한다.
센서 화상 취득 모듈(221)에는, 유저의 조작에 따라서, 입력부(206)로부터 센서 화상(151)의 취득의 명령이 공급되어, 그 명령에 따라서, 센서 카메라(121)를 제어한다. 센서 카메라(121)는, 센서 화상 취득 모듈(221)의 제어에 의해, 광범위한 영역(21)을 촬영하여, 그 결과 얻어지는 센서 화상(151)과 자기 자신을 나타내는 센서 카메라(121)에 고유의 ID(이하, 카메라 ID라 함)를 센서 화상 취득 모듈(221)에 공급한다. 또한, 센서 화상 취득 모듈(221)은, 센서 카메라(121)로부터의 센서 화상(151)을 동체 검지 모듈(222)에 공급한다.
센서 화상 취득 모듈(221)은, 표시 정보 DB(226)에 소정의 파일을 작성하여, 동체 검지 모듈(222)로부터 공급되는 동체 틀(172)의 정점 A 내지 D의 좌표인 동체의 발생 위치를 표시 정보로 하여, 그 파일에 표시 정보와 센서 화상(151)을 등록한다. 또한, 센서 화상 취득 모듈(221)은, 계시 모듈(224)로부터 공급되는 현재의 일시를 나타내는 일시 정보에 기초하여, 녹화 실적 정보 DB(229)에 등록되어 있는, 센서 화상(151)과 줌 화상(152)의 기억(녹화)의 유무를 나타내는 녹화 실적 정보를 변경한다.
또한, 센서 화상 취득 모듈(221)은, 동체 정보 DB(227)에 소정의 파일을 작성하여, 그 파일에, 동체 검지 모듈(222)로부터 공급되는 동체의 발생 일시, 소멸 일시, 발생 위치, 동체 ID, 재생에 관한 재생 정보인 재생 개시 위치, 및 센서 카메라(121)로부터 공급되는 카메라 ID를 포함하는 동체 정보를 등록한다.
동체 검지 모듈(222)은, 센서 화상 취득 모듈(221)로부터 공급되는 센서 화상(151)에 기초하여, 그 센서 화상(151)에 있어서의 촬영 영역 내에 존재하는 동체의 발생을 검지하여, 그 발생을 검지한 동체에 고유의 ID(이하, 동체 ID라 함)를 부여한다. 또한, 동체 검지 모듈(222)은, 그 검지의 결과에 기초하여, 동체의 발생을 검지한 센서 화상(151)의 프레임의, 선두의 프레임로부터의 위치를, 그 동체에 대응하는 센서 화상(151)을 재생할 때의 재생 개시 위치로서 인식한다. 또한,동체 검지 모듈(222)은, 발생을 검지한 동체의 동체 틀(172)(l71)을 결정하여, 그 동체 틀(172)의 정점 A 내지 D의 좌표를, 동체의 발생 위치로 하여 센서 화상 취득 모듈(221)에 공급한다.
동체 검지 모듈(222)은, 계시 모듈(224)로부터의 일시 정보에 기초하여, 동체의 발생을 검지한 일시인 발생 일시를 인식한다. 동체 검지 모듈(222)은, 동체의 발생 일시, 동체 ID, 및 발생 위치를, 줌 카메라(122)에 의해 줌 촬영(추적 촬영)시키는 추적 대상인 동체의 정보인 추적 대상 정보로서, 추적 대상 정보 관리 DB(225)에 등록한다.
또한, 동체 검지 모듈(222)은, 발생이 검지된 동체의, 센서 화상(151)로부터의 소멸을 검지하여, 계시 모듈(224)로부터의 일시 정보에 기초하여, 소멸을 검지한 일시를 소멸 일시로서 인식한다. 동체 검지 모듈(222)은, 동체의 발생 일시, 소멸 일시, 발생 위치, 동체 ID, 및 재생 개시 위치를 센서 화상 취득 모듈(221)에 공급한다.
추적 대상 화상 취득 모듈(223)은, 추적 대상 정보 관리 DB(225)로부터 추적 대상 정보를 취득한다. 추적 대상 화상 취득 모듈(223)은, 그 추적 대상 정보에 기초하여, 줌 카메라(122)를 제어하여, 동체를 동화상으로서 줌 촬영한다. 추적 대상 화상 취득 모듈(223)은, 표시 정보 DB(226)에 소정의 파일을 작성하여, 그 파일에 줌 촬영의 결과 얻어지는 줌 화상(152)을, 추적 대상 정보에 포함되는 추적 대상의 동체의 동체 ID와 대응시켜 등록한다.
추적 대상 화상 취득 모듈(223)은, 동화상인 줌 화상(152)을 소정의 타이밍으로 캡쳐한 정지 화상(이하, 줌 정지 화상이라 함)(272C)(후술하는 도 15)과, 추적 대상의 동체의 동체 ID를, 동체 로그를 표시하기 위한 동체 로그 정보로서 동체 로그 정보 DB(228)에 등록한다. 또한, 동체 로그란, 동체 검지 모듈(222)에 의해 검지된 동체의 로그이다. 추적 대상 화상 취득 모듈(223)은, 계시 모듈(224)로부터의 일시 정보에 기초하여, 녹화 실적 정보 DB(229)에 등록되어 있는 녹화 실적 정보를 변경한다.
계시 모듈(224)은, 현재의 일시를 계시하여, 그 일시를 나타내는 일시 정보를, 센서 화상 취득 모듈(221), 동체 검지 모듈(222), 추적 대상 화상 취득 모듈(223), 및 동체 로그 모듈(230)에 공급한다.
추적 대상 정보 관리 DB(225)는, 동체 검지 모듈(222)로부터의 추적 대상 정보를 소정의 파일로서 기억한다. 표시 정보 DB(226)는, 센서 화상 취득 모듈(221)로부터의 표시 정보와 센서 화상(151)을 소정의 파일로서 기억한다. 또한, 표시 정보 DB(226)는, 추적 대상 화상 취득 모듈(223)로부터의 줌 화상(152)을, 동체 ID와 대응시켜 소정의 파일로서 기억한다.
동체 정보 DB(227)는, 센서 화상 취득 모듈(221)로부터의 동체 정보를 소정의 파일로서 기억한다. 동체 로그 정보 DB(228)는, 추적 대상 화상 취득 모듈(223)로부터의 동체 로그 정보를, 소정의 파일로서 기억한다. 녹화 실적 정보 DB(229)는 녹화 실적 정보를 기억한다.
동체 로그 모듈(230)에는, 유저의 조작에 따라서, 입력부(206)로부터 동체 로그의 표시의 명령이 공급된다. 동체 로그 모듈(230)은, 그 명령에 따라서, 출력부(207)에 동체 로그를 표시시킨다. 구체적으로는, 동체 로그 모듈(230)은, 계시 모듈(224)로부터 공급되는 일시 정보, 동체 정보 DB(227)에 기억되어 있는 동체 정보, 동체 로그 정보 DB(228)에 기억되어 있는 동체 로그 정보, 및 녹화 실적 정보 DB(229)에 기억되어 있는 녹화 실적 정보에 기초하여, 동체 로그를 표시시킨다.
또한, 동체 로그 모듈(230)에는, 유저의 조작에 따라서, 입력부(206)로부터 재생의 명령이 공급되고, 동체 로그 모듈(230)은, 그 명령에 따라서, 유저가 재생 대상으로서 지정한 동체의 센서 화상(151)에 대응하는 발생 일시를, 재생 모듈(231)에 공급한다.
재생 모듈(231)은, 동체 로그 모듈(230)로부터의 발생 일시에 기초하여, 동체 정보 DB(227)로부터, 그 발생 일시에 대응하는 동체 ID와 재생 개시 위치를 판독한다. 재생 모듈(231)은, 그 판독한 동체 ID와 재생 개시 위치에 기초하여, 표시 정보 DB(226)로부터 센서 화상(151)을 재생함과 함께, 줌 화상(152)을 재생하여, 각각 출력부(207)에 표시시킨다.
다음으로, 도 9는, 도 8의 추적 대상 정보 관리 DB(225)에 등록되어 있는 추적 대상 정보의 예를 나타내고 있다.
도 9에 도시한 바와 같이 추적 대상 정보는, 동체의 발생 일시, 동체 ID, 및 발생 위치를 포함한다.
도 9에서는, 동체 검지 모듈(222)이, 2004년 1월 10일의 10시와 10시 5분에 동체를 검지하여, 10시에 검지한 동체에 동체 ID 「1」을, 10시 5분에 검지한 동체에 동체 ID 「2」를, 각각 부여한다. 또한, 동체 검지 모듈(222)은, 동체 ID「1」인 동체의 동체 틀(172)을 결정하여, 그 동체 틀(172)의 정점 A 내지 D의 좌표 (1,2), (1,5), (2,5), (2,2)을 발생 위치로서 인식한다. 또한, 이하에서는, (i, j)의 i는, 센서 화상(151)에 있어서의 소정의 위치를 원점으로 한 XY 좌표 축 상의 X 좌표의 값, j는 Y 좌표의 값을 나타낸다.
또한, 동체 검지 모듈(222)은, 동체 ID 「2」인 동체의 동체 틀(172)을 결정하여, 그 동체 틀(172)의 정점 A 내지 D의 좌표 (3,5), (3,9), (5,9), (5,5)를 발생 위치로서 인식한다. 그리고, 동체 검지 모듈(222)은, 동체 ID 「1」과 「2」인 동체의 발생 일시, 동체 ID, 및 발생 위치를, 추적 대상 정보로서, 추적 정보 DB(225)에 등록한다.
다음으로, 도 10은 도 8의 동체 정보 DB(227)에 등록되는 동체 정보의 예를 나타내고 있다.
도 10에 도시한 바와 같이 동체 정보는, 동체의 발생 일시, 소멸 일시, 발생 위치, 동체 ID, 재생 개시 위치, 및 카메라 ID로 구성된다. 즉, 동체 정보 DB(227)에는, 동체 ID와, 그 동체 ID의 동체의 발생 일시, 소멸 일시, 발생 위치, 재생 개시 위치, 및 카메라 ID가 대응지어져 동체 정보로서 기억되어 있다. 동체 정보 DB(227)에는, 관리 시간대 마다 파일이 작성되어, 동체 정보가, 그 동체 정보의 발생 일시를 포함하는 관리 시간대에 대응하는 파일에 등록된다. 또한, 이하에 서는, 관리 시간대는, 날짜마다, 하루를 9시부터 순서대로 1 시간 단위로 구획한 것으로 하지만, 관리 시간대의 구획 방법은 이것에 한정되지 않는다.
또한, 도 10에서는, 동체 정보 DB(227)의 2004년 1월 10일의 10시부터 11시라고 하는 관리 시간대의 파일에 등록되는 동체 정보의 예를 나타내고 있다. 도 10에 도시한 바와 같이 동체 검지 모듈(222)은, 2004년 1월 10일의 10시에 발생을 검지하여 동체 ID 「1」을 부여한 동체의 소멸을 동일의 11 시에 검지한다. 또한, 동체 검지 모듈(222)은, 동체 ID가「1」인 동체의 동체 틀(172)을 결정하여, 그 정점 A 내지 D의 좌표인 (1,2), (1,5), (2,5), (2,2)를 발생 위치로서 인식하고 있다.
또한, 동체 ID가 「1」인 동체의 발생이 검지된 센서 화상(151)의 프레임은, 선두에서 1번째의 프레임인 프레임 #1이며, 동체 검지 모듈(222)은, 프레임 #1을 재생 개시 위치로서 인식한다. 또한, 이하에서는, 선두에서 1번째의 프레임을 프레임 #1이라고 한다. 또한, 센서 화상 취득 모듈(221)에는, 동체 ID가 「1」인 동체의 발생이 검지된 센서 화상(151)을 취득한 센서 카메라(121)의 카메라 ID로서, 「1」이 공급되어 있다.
또한, 동체 검지 모듈(222)은, 2004년 1월 10일 10시 5분에 발생을 검지한 동체 ID 「2」가 부여된 동체의 소멸을, 동일의 10시 30분에 검지한다. 동체 검지 모듈(222)은, 동체 ID가「2」인 동체의 동체 틀(172)을 결정하여, 그 동체 틀(172)의 정점 A 내지 D의 좌표인 (3,5), (3,9), (5,9), (5,5)를 발생 위치로서 인식한다.
또한, 동체 ID가「2」인 동체의 발생이 검지된 센서 화상(151)의 프레임은, 프레임 #2이며, 동체 검지 모듈(222)은, 프레임 #2을 재생 개시 위치로서 인식한다. 또한, 센서 화상 취득 모듈(221)에는, 동체 ID가「2」인 동체의 발생이 검지된 센서 화상(151)을 취득한 센서 카메라(121)의 카메라 ID로서, 「1」이 공급되어 있다.
센서 화상 취득 모듈(221)은, 동체 ID 「1」과 「2」가 부여된 동체의 소멸이 검지된 경우, 동체의 발생 일시, 소멸 일시, 발생 위치, 동체 ID, 재생 개시 위치, 및 카메라 ID 로 구성되는 동체 정보를, 동체 정보 DB(227)에 등록한다.
도 11은, 도 8의 동체 로그 정보 DB(228)에 등록되어 있는 동체 로그 정보의 예를 나타내고 있다.
도 11에 도시한 바와 같이, 동체 로그 정보는, 동체 ID와, 그 동체 ID의 동체를 포함하는 줌 화상을 캡쳐한 줌 정지 화상(272C)으로 구성된다. 또한, 줌 정지 화상(272C)에는, 예를 들면, 취득된 순서대로 1부터 번호가 부여되어 있고, 이하에서는, 번호 p가 부여된 줌 정지 화상(272C)을 줌 정지 화상 #p이라고 한다. 또한, 동체 로그 정보 DB(228)에는, 관리 시간대마다 파일이 작성되어, 동체 로그 정보가, 그 동체 로그 정보의 줌 정지 화상(272C)을 취득한 일시를 포함하는 관리 시간대에 대응하는 파일에 등록된다.
도 11에서는, 추적 대상 화상 취득 모듈(223)이, 동체 ID가 「1」인 동체의 줌 화상(152)을 캡쳐한 줌 정지 화상(272C)을, 줌 정지 화상 #1과 #2의 2 프레임분취득하고 있다. 또한, 추적 대상 화상 취득 모듈(223)은, 동체 ID가 「2」인 동체의 줌 정지 화상(272C)을, 줌 화상 #10의 1 프레임분 취득하고 있다.
추적 대상 화상 취득 모듈(223)은, 동체 ID 「1」과 동체 ID「1」인 동체의 줌 정지 화상(272C), 및 동체 ID「2」와 동체 ID「2」인 동체의 줌 정지 화상(272C)을, 동체 로그 정보로서, 동체 로그 정보 DB(228)에 등록한다.
도 12는, 녹화 실적 정보 DB(229)에 등록되어 있는 녹화 실적 정보의 예를 나타내고 있다.
도 12에 도시한 바와 같이 녹화 실적 정보는, 센서 화상(151)의 기억의 유무를 나타내는 센서 플래그와 줌 화상(152)의 기억의 유무를 나타내는 줌 플래그로 구성되어, 관리 시간대에 대응시켜 등록된다.
도 12에서는, 센서 화상 취득 모듈(221)은, 2004년 1월 10일의 10시부터 11시의 관리 시간대에, 센서 화상(151)을 취득하여 표시 정보 DB(226)에 등록하고 있으며, 추적 대상 화상 취득 모듈(223)은, 줌 화상(152)을 취득하여 표시 정보 DB(226)에 등록하고 있다. 즉, 센서 플래그는, 센서 화상(151)의 기억이 있음을 나타내는 「1」로 되어 있으며, 줌 플래그는, 예를 들면, 줌 화상(152)의 기억이 있음을 나타내는 「1」로 되어 있다.
또한, 센서 화상 취득 모듈(221)은, 2004년 1월 10일의 11시부터 12시의 관리 시간대에, 센서 화상(151)과 줌 화상(152)을 취득하지 않는다. 즉, 센서 플래그는, 센서 화상(151)의 기억이 없음을 나타내는 「0」으로 되어 있으며, 줌 플래그는, 예를 들면, 줌 화상(152)의 기억이 없음을 나타내는 「0」으로 되어 있다.
다음으로, 도 13을 참조하여 표시 정보 DB(226)에 기억되는 센서 화상(151) 과 줌 화상(152)의 용량을 설명한다.
도 13에 도시한 바와 같이 표시 정보 DB(226)에는, 센서 카메라(121)에서 취득된 모든 센서 화상(151)과, 동체의 발생이 검지된 경우에 카메라(122)에서 취득된 줌 화상(152)이 기록된다.
이와 같이, 감시 시스템(101)에서는, 동체의 발생이 검지된 경우에만 줌 화상(152)이 취득되어 기록되므로, 도 4에 도시한 카메라(11-1 내지 11-4)로부터 취득된 화상이 전부 기록되는 경우에 비하여, 영역(21)을 감시하는 위해 필요한 표시 정보 DB(226)의 기억 용량을 삭감할 수 있다.
예를 들면, 센서 화상(151)과 줌 화상(152)을, 소정의 조건(50KB/프레임, 10프레임/초)에서, JPEG(Joint Photographic Experts Group) 방식에 따라서 압축하여 기록하는 경우, 영역(21)을 24 시간 감시하기 위해 필요한 센서 화상(151)과 줌 화상(152)의 용량은, 약 51GB이다. 즉, 도 4에 도시한 다지점 카메라 시스템(1)에 비하여, 영역(21)을 감시하기 위해 필요한 표시 정보 DB(226)의 용량은, 1/60 내지 1/3 이하로 된다.
그 결과, 유저(오퍼레이터)는, 센서 화상(151)과 줌 화상(152)을 재생하여, 감시 행위를 행하는 경우, 모든 시간에 있어서의 줌 화상(152)이 아니라, 감시가 필요한 동체가 검지된 시간에 있어서의 줌 화상(152)만을 재생할 수 있으므로, 감시 행위를 위한 시간이나 수고(양적 공정수)를 삭감할 수 있다.
또한, 표시 정보 DB(226)에 기억되는 센서 화상(151)과 줌 화상(152)의 용량이 삭감됨으로써, 재생 모듈(231)은, 재생 대상으로 되는 센서 화상(151)과 줌 화 상(152)을 용이하게 검색할 수 있다.
다음으로, 도 14 내지 도 19를 참조하여, 도 7의 출력부(207)에 표시되는 화면의 예를 나타낸다.
유저가 입력부(206)를 조작하여, 센서 화상(151)의 취득을 명령하는 경우, 출력부(207)에는, 도 14에 도시하는 화면(250)이 표시된다.
도 14의 화면(250)은, 센서 화상(151)을 표시하는 센서 화상 표시부(251), 센서 화상(151)과 줌 화상(152)의 기록(녹화)에 관한 조작을 명령하기 위한 GUI(Graphical User Interface)를 표시하는 조작부(252), 및 줌 화상(152)의 동화상을 표시하는 줌 화상 표시부(253) 등으로 구성된다.
센서 화상 취득 모듈(221)은, 지금 취득하고 있는 센서 화상(151)을 센서 화상 표시부(251)에 표시시킨다. 또한, 추적 대상 화상 취득 모듈(223)은, 지금 취득하고 있는 줌 화상(152)의 동화상을 줌 화상 표시부(253)에 표시시킨다.
조작부(252)에는, 예를 들면, 플레이백(PlayBack) 버튼(252A)과 정지 버튼(252B) 등이 표시된다. 플레이백 버튼(252A)은, 동체 로그(의 화면(270)(후술하는 도 15))를 표시시킬 때에 조작된다. 또한, 정지 버튼(252B)은 센서 화상(151)의 취득을 종료할 때에 조작된다. 유저가, 입력부(206)를 조작하여 플레이백 버튼(252A)을 선택하는 경우, 입력부(206)는 유저로부터의 조작을 접수하여, 그 조작에 따라서 동체 로그의 표시의 명령을 동체 로그 모듈(230)에 공급한다. 동체 로그 모듈(230)은, 그 명령에 따라서, 도 15에 도시한 바와 같이 동체 로그의 화면(270)을 출력부(207)에 표시시킨다.
도 15를 참조하면, 화면(270)은, 녹화 실적 정보에 기초하여 녹화 실적을 표시시키는 녹화 실적 표시부(271), 동체 로그 정보에 기초하여 동체 로그를 표시시키는 동체 로그 표시부(272), 소정의 관리 시간대에 발생한 동체의 수를 나타내는 동체 수 그래프 표시부(273), 타깃 시간대 선택부(274), 재생 시각 선택부(275), OK 버튼(276), 및 클로즈 버튼(277) 등을 포함한다. 또한, 타깃 시간대란, 동체 로그 표시부(272)에서 표시 대상으로 되는 줌 정지 화상(272C)에 대응하는 동체의 발생 일시를 포함하는 소정의 시간대(예를 들면, 15분)이다.
녹화 실적 표시부(271)에는, 날짜 표시부(271A)와 타깃 주간 선택부(271B)가 표시된다. 날짜 표시부(271A)에는, 타깃 시간대의 날짜를 포함하는 일주일인 타깃 주간의 날짜가 표시된다. 타깃 주간 선택부(271B)는, 타깃 주간을 변경할 때에, 조작된다.
동체 로그 모듈(230)은, 녹화 실적 정보의 센서 플래그와 줌 플래그에 기초하여, 녹화 실적 정보에 대응하는 일시를 나타내는 날짜 표시부(271A)의 날짜와 시간 표시 영역(271C)의 시간에 있어서의 위치에, 「센서 화상(151)과 줌 화상(152)의 어느 쪽의 기록도 없음」,「센서 화상(151)만 있음 」, 또는「센서 화상(151)과 줌 화상(152)의 양방 있음」을 나타내는 색을 표시시킨다. 예를 들면, 「센서 화상(151)과 줌 화상(152)의 어느 쪽의 기록도 없음」이 투명, 「센서 화상(151)만 있음」이 엷은 청색(pale-blue), 「센서 화상(151)과 줌 화상(152)의 양방 있음」이 청색으로 표시된다. 도 15에서는, 예를 들면, 시간 표시 영역(271C)에 엷은 청색이 표시되고, 색 표시부(271D)에 청색이 표시되어 있다.
이와 같이, 「센서 화상(151)과 줌 화상(152)의 어느 쪽의 기록도 없음」,「센서 화상(151)만 있음」, 또는 「센서 화상(151)과 줌 화상(152)의 양방 있음」을 색별하여 표시시킴으로써, 유저는, 녹화 실적 표시부(271)로부터, 센서 화상(151)또는 줌 화상(152)의 기록의 유무를 용이하게 판단할 수 있다.
또한, 동체 로그 모듈(230)은, 녹화 실적 정보의 타깃 시간대를 나타내는 날짜 표시부(271A)의 날짜와 시간 표시 영역(271C)의 시간에 있어서의 위치에, 타깃 시간대인 것을 나타내는 색(예를 들면, 노란 색)을 표시시킨다.
동체 로그 표시부(272)에는, 탭(272A)과 섬네일 표시부(272B)가 표시된다. 탭(272A)은, 동체 로그 표시부(272)의 페이지 수를 나타낸다. 또한, 동체 로그 표시부(272)에는, 탭(272A)이 아니라, 스크롤 바를 표시시켜, 스크롤 바에 의해 표시 대상으로 하는 페이지를 변경할 수 있도록 하여도 된다. 섬네일 표시부(272B)는, 동체 로그 표시부(272)에, 예를 들면 매트릭스 형상으로 표시되며, 섬네일 표시부(272B)에는, 동체 로그로서, 타깃 시간대에 발생한 동체의 줌 정지 화상(272C)과, 줌 정지 화상(272C)에 대응하는 동체의 발생 시각이 표시된다. 또한, 섬네일 표시부(272B)에 표시되는 발생 시각은, 예를 들면, 그 발생 시각에 대응하는 센서 화상(151)을 취득한 센서 카메라(121)의 카메라 ID마다, 다른 색으로 표시된다.
이와 같이, 동체 로그 표시부(272)에는, 타깃 시간대에 발생한 동체의 줌 정지 화상(272C)만이 표시되기 때문에, 유저는 원하는 동체의 줌 정지 화상(272C)을 검색 하기 쉽다.
동체 수 그래프 표시부(273)에는, 횡축이 타깃 시간대를 포함하는 관리 시간대, 종축이 그 관리 시간대에 발생한 동체의 수를 나타내는 동체 수 그래프가 표시된다. 이와 같이, 동체 수 그래프가 표시됨으로써, 유저는 센서 화상(151)을 재생하지 않더라도, 관리 시간대에 발생한 동체의 수를 용이하게 인식할 수 있다. 또한, 동체 수 그래프 표시부(273)에는, 타깃 시간대를 포함하는 관리 시간대에 발생한 동체의 최대의 수(도 15의 예의 경우 26)도 표시된다.
타깃 시간대 선택부(274)는, 타깃 시간대를 선택할 때에 표시된다. 재생 시각 선택부(275)는, 재생 대상으로 되는 센서 화상(151) 또는 줌 화상(152)에 대응하는 동체의 발생 일시(의 시각)를 선택할 때에 표시된다. OK 버튼(276)은, 재생 시각 선택부(275)에서 선택한 시각을 결정할 때에 조작된다. 클로즈 버튼(277)은, 화면(270)의 표시를 정지할 때에 조작된다.
이상과 같이, 화면(270)에는, 녹화 실적 표시부(271), 동체 로그 표시부(272), 및 동체 수 그래프 표시부(273)가 표시되므로, 유저는, 타깃 시간대를 포함하는 일주일 단위에서의 시간 마다의 센서 화상(151)과 줌 화상(152)의 기록의 유무, 타깃 시간대에 발생한 동체의 줌 정지 화상(272C), 타깃 시간을 포함하는 관리 시간대에 발생한 동체의 수를 동시에 인식할 수 있다.
또한, 유저는, 녹화 실적 표시부(271) 상의, 원하는 일시에 대응하는 위치를 지정함으로써, 원하는 일시에 발생한 동체의 동체 로그를, 동체 로그 표시부(272)에 표시시킬 수 있다. 그 결과, 원하는 일시의 월, 일, 시, 및 분을 순서대로 입력하는 경우에 비하여, 용이하게 원하는 일시를 지정하여, 원하는 일시에 발생한 동체의 동체 로그를 표시시킬 수 있다.
또한, 유저는, 예를 들면, 입력부(206)를 조작하여, 화면(270) 상의 원하는줌 정지 화상(272C)을 선택함으로써, 원하는 센서 화상(151)과 줌 화상(152)을 재생하여 표시시킨다.
예를 들면, 유저가, 녹화 실적 표시부(271)의 시간 표시 영역(271C) 내의 위치를 지정하는 경우, 도 15에 도시하는 화면(270)은, 도 16에 도시하는 화면(270)으로 변경된다.
도 16을 참조하면, 시간 표시 영역(271C)에는, 「센서 화상(151)만 있음」을 나타내는 엷은 청색이 표시되어 있기 때문에, 즉 영역(271C)에 대응하는 일시에는, 줌 정지 화상(272C)이 취득되지 않고, 센서 화상(151)만이 취득되어 있기 때문에, 도 16에 도시한 바와 같이 동체 로그 표시부(272)에는, 섬네일 표시부(272B)가 표시되지 않는다.
또한, 유저가, 입력부(206)를 조작하여, 도 15의 화면(270) 상의 원하는 줌 정지 화상(272C)이 표시되는 섬네일 표시부(272B)를 선택하는 경우, 동체 로그 모듈(230)은, 그 섬네일 표시부(272B)에 표시되는 발생 일시를 재생 모듈(231)에 공급한다. 재생 모듈(231)은, 발생 일시에 기초하여, 동체 정보 DB(227)로부터, 그 발생 일시에 대응하는 재생 개시 위치와 동체 ID를 판독한다. 재생 모듈(231)은, 그 판독한 재생 개시 위치와 동체 ID에 기초하여, 표시 정보 DB(226)로부터 센서 화상(151)과 줌 화상(152)을 재생하여, 도 17에 도시하는 화면(300)을 출력부(207)에 표시시킨다. 이상과 같이, 유저는, 섬네일 표시부(272B)를 선택함으로써, 센서 화상(151)의 재생 개시 위치를 지정할 수 있다.
도 17의 화면(300)은, 센서 화상 표시부(251), 줌 화상 표시부(253), 및 재생에 관한 조작을 행하기 위한 GUI로 구성되는 조작부(301) 등으로 구성된다.
센서 화상 표시부(251)에는, 표시 정보 DB(226)로부터 재생된 센서 화상(151)이 표시되며, 줌 화상 표시부(253)에는, 표시 정보 DB(226)로부터 재생된 줌 화상(152)이 표시된다.
조작부(301)에는, 도 15 또는 도 16에 도시한 화면(270)을 표시시킬 때에 조작되는 라이브(live) 버튼(301A)이 표시된다.
도 18은, 도 15 또는 도 16의 화면(270)에서, 날짜 표시부(271A)가 선택되었을 때에 표시되는 화면(270)의 예를 나타내고 있다.
도 15 또는 도 16의 화면(270)이 표시되어 있는 경우에, 유저가 날짜 표시부(271A)를 선택하면, 도 15 또는 도 16의 화면(270)은, 도 18에 도시하는 화면(270)으로 변경된다. 즉, 센서 화상(151)과 줌 화상(152)의 삭제 또는 엑스포트를 선택하는 선택 박스(321)가 표시된다. 유저가, 선택 박스(321)의 삭제를 선택하는 경우, 동체 로그 모듈(230)은, 도 19에 도시하는 확인 화면(340)을 출력부(207)에 표시시킨다.
도 19에 도시한 바와 같이 확인 화면(340)에는, 「삭제합니까?」라고 하는 메시지, OK 버튼(341), 및 캔슬 버튼(342)이 표시된다. OK 버튼(341)은, 삭제를 명령할 때에 조작된다. 캔슬 버튼(342)은, 삭제의 취소(캔슬)를 명령할 때에 조작된다.
또한, 도 18에서, 유저가, 선택 박스(321)의 엑스포트를 선택하는 경우, 출력부(207)에는, 도 19와 마찬가지의 확인 화면(340)이 표시된다. 이 경우, 표시되는 메시지는, 「엑스포트합니까?」라고 하는 메시지이다.
다음으로, 도 20을 참조하여, 도 8의 센서 화상 취득 모듈(221)에 의한 센서 화상 취득 처리를 설명한다. 이 센서 화상 취득 처리는, 예를 들면, 유저가 입력부(206)를 조작함으로써, 센서 화상(151)의 취득을 명령했을 때에 조작된다.
스텝 S1에서, 센서 화상 취득 모듈(221)은, 센서 카메라(121)에 센서 화상(151)의 취득을 요구한다. 센서 카메라(121)의 카메라부(122A)는, 팬 틸트부(121A)를 제어하여, 촬영 방향의 수평 방향 또는 수직 방향을 조정하면서, 소정의 촬영 배율로 광범위한 영역을 동화상으로서 촬영한다. 그리고, 카메라부(122A)는, 그 결과 얻어지는 동화상인 센서 화상(151)을, 도시하지 않은 클라이언트 반환용 버퍼에 기억한다. 센서 카메라(121)는, 센서 화상 취득 모듈(221)로부터의 요구에 따라서, 클라이언트 반환용 버퍼에 기억되어 있는 센서 화상(151)과, 자기 자신의 카메라 ID를, 센서 화상 취득 모듈(221)에 공급한다.
스텝 S1의 처리 후에는, 스텝 S2로 진행하여, 센서 화상 취득 모듈(221)은, 센서 카메라(121)로부터 센서 화상과 카메라 ID를 취득하고, 스텝 S3으로 진행한다. 스텝 S3에서, 센서 화상 취득 모듈(221)은, 동체 검지 모듈(222)에, 센서 카메라(121)로부터의 센서 화상(151)을 입력하고, 스텝 S4로 진행한다.
스텝 S4에서, 센서 화상 취득 모듈(221)은, 동체 검지 모듈(122)로부터, 스텝 S3에서 입력한 센서 화상(151)에 대응하는 동체의 동체 ID, 발생 위치, 발생 일 시, 및 재생 개시 위치를 취득하고, 스텝 S5로 진행한다.
스텝 S5에서, 센서 화상 취득 모듈(221)은, 동체의 발생 위치를 표시 정보로서, 그 표시 정보와 센서 화상(151)을 표시 정보 DB(226)에 등록시키는 도 21의 표시 정보 등록 처리를 행한다.
스텝 S5의 처리 후에는, 스텝 S6로 진행하여, 센서 화상 취득 모듈(221)은, 센서 카메라(121)의 클라이언트 반환용 버퍼를 갱신하고, 스텝 S7로 진행한다. 스텝 S7에서, 센서 화상(151)에 모든 동체가 남아 있는지 여부, 즉, 동체 검지 모듈(222)로부터 소멸을 검지한 동체의 동체 ID와 소멸 일시가 센서 화상 취득 모듈(221)에 공급되는지 여부를 판정한다.
스텝 S7에서, 센서 화상(151) 상에서 소멸한 동체가 있다고 판정된 경우, 스텝 S8로 진행하여, 센서 화상 취득 모듈(221)은, 동체 검지 모듈(222)로부터 공급된 소멸한 동체의 동체 ID와 소멸 시각, 스텝 S4에서 취득한 발생 일시, 발생 위치, 및 재생 개시 위치, 및 센서 카메라(121)로부터 공급된 카메라 ID로 구성되는 동체 정보를, 동체 정보 DB(227)에 등록하는 도 22의 동체 정보 등록 처리를 행한다.
스텝 S7에서 센서 화상(151) 상에서 소멸한 동체는 없다고 판정된 경우, 또는 스텝 S8의 처리 후에는, 스텝 S9로 진행하여, 센서 화상 취득 모듈(221)은, 입력부(206)로부터 센서 화상(151)과 줌 화상(152)의 취득의 종료가 요구되었는지 여부, 즉, 유저가 입력부(206)를 조작함으로써 정지 버튼(252B)를 선택하였는지 여부를 판정하여, 종료가 요구되어 있지 않다고 판정한 경우, 스텝 S1로 되돌아가, 전술한 처리를 반복한다.
한편, 스텝 S8에서, 입력부(206)로부터 센서 화상(151)과 줌 화상(152)의 취득의 종료가 요구된 것으로 판정된 경우, 처리는 종료한다.
다음으로, 도 21을 참조하여, 도 20의 스텝 S5의 표시 정보 등록 처리를 설명한다.
스텝 S21에서, 센서 화상 취득 모듈(221)은, 계시 모듈(224)로부터 현재의 일시를 나타내는 일시 정보를 취득하고, 스텝 S22로 진행한다. 스텝 S22에서, 센서 화상 취득 모듈(221)은, 녹화 실적 정보 DB(229)로부터, 스텝 S21에서 취득한 일시 정보가 나타내는 일시에 대응하는 센서 플래그를 판독하고, 그 센서 플래그가, 센서 화상(151)의 기록이 없음을 나타내는 0인지의 여부를 판정한다.
스텝 S22에서, 센서 플래그가 0이라고 판정된 경우, 스텝 S23으로 진행하고, 센서 화상 취득 모듈(221)은, 센서 플래그를 0으로부터, 센서 화상(151)의 기록이 있음을 나타내는 1로 변경하고, 스텝 S24로 진행한다.
한편, 스텝 S22에서, 센서 화상 취득 모듈(221)은, 센서 플래그가 0가 아닌 것으로 판정한 경우, 즉 센서 플래그가 1이라고 판정한 경우, 스텝 S23를 스킵하여, 스텝 S24로 진행한다.
스텝 S24에서, 센서 화상 취득 모듈(221)은, 후술하는 스텝 S26에서 작성된 표시 정보 DB(226)의 파일에 등록되어 있는 센서 화상(151)의 프레임 수를 취득한다. 또한, 최초의 스텝 S21에서는, 아직 표시 정보 DB(226)에 파일이 작성되어 있지 않기 때문에, 프레임 수를 취득하지 않고서, 표시 정보 DB(226)에 파일을 작성 한다. 또한, 아직 스텝 S26에서 새로운 파일이 작성되어 있지 않은 경우, 센서 화상 취득 모듈(221)은, 최초의 스텝 S21에서 작성된 파일에 등록되어 있는 센서 화상(151)의 프레임 수를 취득한다.
스텝 S25에서, 센서 화상 취득 모듈(221)은, 스텝 S24에서 취득한 프레임 수가, 예를 들면 미리 유저에 의해 설정된 소정의 임계값을 초과했는지 여부를 판정하여, 초과한 것으로 판정한 경우, 스텝 S26으로 진행하여, 표시 정보 DB(226)에 새로운 파일을 작성한다.
그러나, 스텝 S25에서, 스텝 S24에서 취득한 프레임 수가, 소정의 임계치를 넘지 않은 것으로 판정된 경우, 또는 스텝 S26의 처리 후에는, 스텝 S27로 진행하여, 센서 화상 취득 모듈(221)은, 스텝 S26에 있어서 작성된 표시 정보 DB(226)의 최신의 파일에, 센서 화상(151)에 대응시켜 표시 정보를 등록한다. 즉, 표시 정보 DB(226)에서는, 센서 화상(151)의 소정의 프레임 수마다, 그 센서 화상(151)에 대응하는 표시 정보가 파일로서 기억된다. 그리고, 처리는, 도 20의 스텝 S5에 되돌아가, 스텝 S6으로 진행한다.
이상과 같이, 센서 화상(151)과 대응하는 표시 정보가, 센서 화상(151)의 프레임 수마다 하나의 파일로서 기억되므로, 재생 모듈(231)은, 재생 대상으로 되는 센서 화상(151)을 신속하게 검색할 수 있다.
이제, 도 22을 참조하여, 도 20의 스텝 S8의 동체 정보 등록 처리를 설명한다.
스텝 S41에서, 센서 화상 취득 모듈(221)은, 도 20의 스텝 S4에서 취득한 발생 일시의 관리 시간대에 대응하는 파일이 동체 정보 DB(227)에 포함되어 있는지 여부, 즉, 후술하는 스텝 S42에서 발생 일시의 관리 시간대에 대응하는 파일이 작성되어 있는지 여부를 판정하여, 발생 일시의 관리 시간대에 대응하는 파일이 있다고 판정된 경우, 스텝 S42로 진행한다.
스텝 S42에서, 센서 화상 취득 모듈(221)은, 발생 일시의 관리 시간대에 대응하는 파일을 작성한다. 예를 들면, 발생 일시가 2004년 1월 10일 10시인 경우, 2004년 1월 10일의 10시부터 11시의 관리 시간대에 대응하는 파일을 동체 정보 DB(227)에 작성한다.
한편, 스텝 S41에서, 발생 일시의 관리 시간대에 대응하는 파일이 동체 정보 DB(227)에 있다고 판정된 경우, 스텝 S42를 스킵하여 스텝 S43로 진행한다.
스텝 S43에서, 센서 화상 취득 모듈(221)은, 동체 정보 DB(227)의 발생 일시의 관리 시간대에 대응하는 파일에 동체 정보를 등록하여, 도 20의 스텝 S8로 되돌아가, 스텝 S9로 진행한다.
다음으로, 도 23을 참조하여, 동체 검지 모듈(222)에 의한 동체 검지 처리를 설명한다. 이 동체 검지 처리는, 도 20의 스텝 S3에서 센서 화상 취득 모듈(221)로부터 센서 화상(151)이 공급되었을 때 개시된다.
스텝 S61에서, 동체 검지 모듈(222)은, 센서 화상 취득 모듈(221)로부터 수신된 센서 화상(151)으로부터, 새로운 동체의 발생을 검지했는지 여부를 판정한다. 구체적으로는, 동체 검지 모듈(222)은, 센서 화상 취득 모듈(221)로부터 공급된 센서 화상(151)과, 직전 사이클에서 취득된 센서 화상(151) 간의 휘도 레벨의 차분값을 구한다. 그리고, 동체 검지 모듈(222)은, 그 휘도 레벨의 차분값이, 미리 제조원에 의해 제조 시에 설정된 임계치를 초과한 경우, 그 휘도 레벨에 대응하는 센서 화상(151)을 구성하는 화소의 모임(aggregate)을 동체로서 검지한다. 또한, 동체 검지 모듈(222)은, 예를 들면, 그 휘도 레벨의 차분값과 동체로서 검지된 화소의 모임 등에 기초하여, 지금 검지한 동체가 지금까지 검지되어 있지 않던 새로운 동체인지의 여부를 판정한다.
스텝 S61에서, 새로운 동체의 발생을 검지한 경우, 동체 검지 모듈(222)은, 그 새로운 동체에 동체 ID를 부여하고, 스텝 S62로 진행하여, 스텝 S61에서 동체로서 검지한 화소의 모임으로부터, 동체 틀(172)을 결정하여, 그 동체 틀(172)의 정점 A 내지 D의 좌표를, 발생 위치로서 인식한다. 또한, 동체 검지 모듈(222)은, 계시 모듈(224)로부터 공급되는 일시 정보에 기초하여, 스텝 S61에서 동체를 검지했을 때의 일시를 발생 일시로서 인식한다.
또한, 동체 검지 모듈(222)은, 새로운 동체의 발생을 검지한 센서 화상(151)의 프레임의, 선두의 프레임로부터의 위치를, 그 동체에 대응하는 센서 화상(151)을 재생할 때의 재생 개시 위치로서 인식한다. 동체 검지 모듈(222)은, 발생을 검지한 새로운 동체의 동체 ID, 발생 일시, 발생 위치, 및 재생 개시 위치를 센서 화상 취득 모듈(221)에 공급한다. 센서 화상 취득 모듈(221)은, 그 동체 ID, 발생 일시, 발생 위치, 및 재생 개시 위치를, 도 20의 스텝 S4에 있어서 취득한다.
스텝 S62의 처리 후에는, 스텝 S63으로 진행하여, 동체 검지 모듈(222)은, 검지한 동체에 부여되는 동체 ID, 발생 일시, 및 발생 위치로 이루어지는 추적 대상 정보를, 추적 대상 정보 관리 DB(225)에 기억시킨다. 즉, 동체 검지 모듈(222)은, 추적 대상 정보 관리 DB(225)를 갱신한다.
여기서, 동체 검지 모듈(222)은, 검지한 동체의 줌 촬영에 대한 우선 순위를 결정하여, 우선 순위가 높은 순으로, 선두부터 추적 대상 정보를 추적 대상 정보 관리 DB(225)에 기억시킨다.
동체 검지 모듈(222)이 우선 순위를 결정하는 방법으로서는, 이하의 6개의 방법이 있다.
제1 방법은, 새롭게 발생이 검지된 동체의 우선 순위가, 이미 검지되어 있는 동체의 우선 순위에 비하여 높게 되도록 우선 순위를 결정하는 방법이다. 이 경우, 새롭게 발생이 검지된 동체의 줌 화상(152)이 우선적으로 취득되므로, 예를 들면 침입자의 줌 화상(152)이 취득되기 쉽게 되어, 침입자를 용이하게 발견할 수 있다.
제2 방법은, 높은 위치에 있는 동체의 우선 순위가, 낮은 위치에 있는 동체의 우선 순위에 비하여 높게 되도록 우선 순위를 결정하는 방법이다. 이 경우, 높은 위치에 있는 동체의 줌 화상(152)이 우선적으로 취득되므로, 일반적으로, 높은 위치에 있는 인간의 얼굴의 줌 촬영이 쉽게 취득되어, 침입자를 용이하게 특정할 수 있다.
제3 방법은, 낮은 위치에 있는 동체의 우선 순위가, 높은 위치에 있는 동체의 우선 순위에 비하여 높게 되도록 우선 순위를 결정하는 방법이다. 이 경우, 낮은 위치에 있는 동체의 줌 화상(152)이 우선적으로 취득되므로, 옥외의 빌딩 위 등 의 높은 위치에 센서 카메라(121)가 설치되어 있는 경우에, 하늘이나, 빌딩 등의 높은 장소보다도 비교적 근처에 있는 인간이나 차량 등의 줌 화상(152)이 취득되기 쉽게 된다.
제4 방법은, 사이즈가 큰 동체의 우선 순위가, 사이즈가 작은 동체의 우선 순위에 비하여 높게 되도록 우선 순위를 결정하는 방법이다. 이 경우, 사이즈가 큰 동체의 줌 화상(152)이 우선적으로 취득되므로, 먼 곳에 있는 동체보다도, 근방에 있는 동체의 줌 화상(152)이 취득되기 쉽게 된다.
제5 방법은, 사이즈가 작은 동체의 우선 순위가, 사이즈가 큰 동체의 우선 순위에 비하여 높게 되도록 우선 순위를 결정하는 방법이다. 이 경우, 사이즈가 작은 동체의 줌 화상(152)이 우선적으로 취득되므로, 근방에 있는 동체보다도, 먼 곳에 있는 인간이나 차량 등의 동체의 줌 화상(152)이 취득되기 쉽게 된다.
제6 방법은, 세로 길이의 동체의 우선 순위가 높게 되도록 우선 순위를 결정하는 방법이다. 이 경우, 세로 길이의 동체의 줌 화상(152)이 우선적으로 취득되므로, 일반적으로 세로 길이의 동체로 되는 인간의 전신의 줌 화상(152)이 취득되기 쉽게 된다.
이상과 같은 제1 내지 제6 우선 순위를 결정하는 방법들 중 하나는, 예를 들면, 유저의 입력부(206)의 조작에 의해 선택할 수 있다. 동체 검지 모듈(222)은, 유저에 의해 선택된 제1 내지 제6 방법 중 어느 하나에 따라서, 검지한 동체의 줌 촬영에 대한 우선 순위를 결정한다.
스텝 S63의 처리 후에는, 스텝 S64로 진행하여, 동체 검지 모듈(222)은, 센서 화상 취득 모듈(221)로부터의 센서 화상(151) 상에 소멸한 동체가 있는지의 여부를 판정한다. 구체적으로는, 동체 검지 모듈(222)은, 현 사이클에서 센서 화상 취득 모듈(221)로부터 공급된 센서 화상(151)과, 직전 사이클에 취득된 센서 화상(151) 간의 휘도 레벨의 차분값에 기초하여, 스텝 S61에서 검지했지만, 아직 소멸을 검지하지 않은 동체 중, 센서 화상(151) 상에서 소멸한 동체가 있는지의 여부를 판정한다.
스텝 S64에서, 센서 화상 취득 모듈(221)은, 소멸한 동체가 없는 것으로 판정된 경우, 스텝 S61로 되돌아가, 전술한 처리를 반복한다.
또한, 스텝 S64에서, 소멸한 동체가 있다고 판정된 경우, 스텝 S65로 진행하여, 동체 검지 모듈(222)은, 계시 모듈(224)로부터의 일시 정보에 기초하여, 그 일시 정보가 나타내는 일시를 소멸 일시로서 인식하여, 그 소멸 일시와 소명한 동체의 동체 ID를 센서 화상 취득 모듈(221)에 공급하여, 스텝 S61로 되돌아간다.
도 24를 참조하여, 추적 대상 화상 취득 모듈(223)에 의한 줌 화상 취득 처리를 설명한다. 이 줌 화상 취득 처리는, 예를 들면, 도 23의 스텝 S63에서 추적 대상 정보 관리 DB(225)가 갱신되었을 때에 개시된다.
스텝 S81에서, 추적 대상 화상 취득 모듈(223)은, 추적 대상 정보 관리 DB(225)로부터, 스텝 S63에서 기억된 추적 대상 정보 중, 우선 순위가 가장 높은 동체의 추적 대상 정보, 즉 선두의 추적 대상 정보를 취득한다. 또한, 추적 대상 정보 관리 DB(225)는, 추적 대상 화상 취득 모듈(223)에 의해 추적 대상 정보가 취득되면 갱신되어, 그 추적 대상 정보가 추적 대상 정보 관리 DB(225)로부터 삭제된다. 즉, 추적 대상 정보 관리 DB의 선두의 추적 대상 정보가, 항상 우선 순위가 가장 높게 된다.
스텝 S81의 처리 후에는, 스텝 S82로 진행하여, 추적 대상 화상 취득 모듈(223)은, 추적 대상 정보의 동체의 발생 위치에 기초하여, 동체의 발생 위치를 포함하는 영역이 줌 카메라(122)에 의해 촬영되도록, 촬영 화면 각도의 위치와 크기를 결정한다. 추적 대상 화상 취득 모듈(223)은, 촬영 화면 각도의 위치의 변화량(동체의 이동 속도)와 크기로부터 촬영 배율을 결정한다.
스텝 S82의 처리 후에는, 스텝 S83로 진행하여, 추적 대상 화상 취득 모듈(223)은, 촬영 화면 각도의 위치의 변화량과 촬영 화면 각도의 위치로부터 팬 틸트 값을 결정하여, 스텝 S84로 진행한다.
스텝 S84에서, 추적 대상 화상 취득 모듈(223)은, 스텝 S83에서 결정된 팬 틸트 값에 기초하여, 줌 카메라(122)에 팬 틸트의 이동의 실행을 요구한다. 줌 카메라(122)의 카메라부(122B)는, 그 요구에 따라서, 팬 틸트부(122A)를 제어하여, 팬과 틸트에 자기 자신을 이동시킨다.
스텝 S84의 처리 후에는, 스텝 S85로 진행하여, 추적 대상 화상 취득 모듈(223)은, 스텝 S82에서 결정된 촬영 배율에 기초하는 줌 촬영을, 줌 카메라(122)에 요구한다. 줌 카메라(122)는, 그 요구에 따라서 줌 촬영을 행하여, 그 결과 얻어지는 줌 화상(151)을, 추적 대상 화상 취득 모듈(223)에 공급한다.
스텝 S85의 처리 후에는, 스텝 S86로 진행하여, 추적 대상 화상 취득 모듈(223)은, 줌 카메라(122)로부터 공급되는 줌 화상(151)을 취득하여, 스텝 S87로 진행한다.
스텝 S87에서, 추적 대상 화상 취득 모듈(223)은, 스텝 S87에서 취득한 줌 화상(151)을, 스텝 S81에서 취득한 추적 대상 정보의 동체 ID와 대응시켜, 소정의 파일로서 표시 정보 DB(226)에 등록한다.
스텝 S87의 처리 후에는, 스텝 S88로 진행하여, 추적 대상 화상 취득 모듈(223)은, 스텝 S81에서 취득한 추적 대상 정보의 동체 ID와, 줌 화상(151)을 소정의 타이밍에서 캡처한 줌 정지 화상(272C)으로 이루어지는 동체 로그 정보를, 동체 로그 정보 DB(228)에 등록하는 도 25의 동체 로그 정보 등록 처리를 행하고, 스텝 S81로 되돌아간다.
도 25를 참조하여, 도 24의 스텝 S88의 동체 로그 정보 등록 처리에 대하여 설명한다.
스텝 S101에서, 추적 대상 화상 취득 모듈(223)은, 계시 모듈(224)로부터 현재의 일시를 나타내는 일시 정보를 취득하고, 스텝 S102로 진행한다.
스텝 S102에서, 추적 대상 화상 취득 모듈(223)은, 스텝 S101에서 취득한 일시 정보에 기초하여, 현재의 일시를 포함하는 관리 시간대에 대응하는, 후술하는 스텝 S103에서 작성된 파일이 동체 로그 정보 DB(228)에 기억되어 있는지 여부를 판정한다.
스텝 S103에서, 동체 로그 정보 DB(228)에, 현재의 일시를 포함하는 관리 시간대에 대응하는 파일이 기억되어 있지 않다고 판정된 경우, 스텝 S103로 진행하여, 추적 대상 화상 취득 모듈(223)은, 현재의 일시를 포함하는 관리 시간대에 대응하는 파일을 작성하여, 동체 로그 정보 DB(228)에 기억시키고, 스텝 S104로 진행한다.
한편, 스텝 S102에서, 동체 로그 정보 DB(228)에, 현재의 일시를 포함하는 관리 시간대에 대응하는 파일이 기억되어 있다고 판정된 경우, 처리는 스텝 S103을 스킵하여, 스텝 S104로 진행한다.
스텝 S104에서, 추적 대상 화상 취득 모듈(223)은, 동체 로그 정보 DB(228)에, 도 24의 스텝 S81에서 취득한 추적 대상 정보의 동체 ID와, 스텝 S86에서 취득한 줌 화상(152)을 소정의 타이밍으로 캡쳐한 줌 정지 화상(272C)으로 이루어지는 동체 로그 정보를 등록한다. 이와 같이, 줌 정지 화상(272C)이 동체 정보와는 별도로 등록되므로, 동체 정보 DB(227)에 기억되어 있는 데이터의 용량이 적어서, 소정의 동체 정보를 동체 정보 DB(227)로부터 신속하게 검색할 수 있다.
스텝 S104의 처리 후에는, 스텝 S105로 진행하여, 추적 대상 화상 취득 모듈(223)은, 녹화 실적 정보 DB(229)의, 스텝 S101에서 취득한 일시 정보가 나타내는 일시를 포함하는 관리 시간대에 대응하는 녹화 실적 정보의 줌 플래그가, 줌 화상(152)의 기록이 없음을 나타내는 0인지의 여부를 판정한다.
스텝 S105에서, 녹화 실적 정보의 줌 플래그가 0이라고 판정된 경우, 스텝 S106로 진행하여, 추적 대상 화상 취득 모듈(223)은, 줌 플래그를, 줌 화상(152)의 기록이 있음을 나타내는 1로 변경하고, 도 24의 스텝 S88로 되돌아간다.
한편, 스텝 S105에서, 녹화 실적 정보의 줌 플래그가 「0」이 아닌 것으로 판정된 경우, 즉 줌 플래그가 「1」이라고 판정된 경우, 처리는 종료한다.
다음으로, 도 26을 참조하여, 도 8의 동체 로그 모듈(230)에 의한 도 15나 도16의 화면(270)의 표시 처리를 설명한다. 이 표시 처리는, 예를 들면, 유저가 입력부(206)를 조작하여 도 14의 플레이백 버튼(252A) 또는 도 17의 라이브 버튼(301A)을 선택하여, 그 조작에 따라서 입력부(206)로부터 동체 로그의 표시의 명령이 공급되었을 때 개시된다.
스텝 S121에서, 동체 로그 모듈(230)은, 도 15의 녹화 실적 표시부(271)를 표시하는 후술하는 도 28의 녹화 실적 정보 화면 표시 처리를 행하고, 스텝 S122로 진행한다.
스텝 S122에서, 동체 로그 모듈(230)은, 도 15의 동체 로그 표시부(272) 동체 수 그래프(273)를 표시하는 후술하는 도 29의 동체 수 그래프 표시 처리를 행하고, 스텝 S123로 진행한다.
스텝 S123에서, 동체 로그 모듈(230)은, 동체 정보 DB(227)로부터, 타깃 시간대에 대응하는 파일을 판독하여, 그 파일에 등록되어 있는 동체 정보에 대응하는 동체의 수에 기초하여, 탭(272A)이 나타내는 페이지의 수를 구한다. 구체적으로는, 동체 로그 모듈(230)은, 동체 정보 DB(227)로부터 판독한 파일에 등록되어 있는 동체 정보에 대응하는 동체의 수에 의해, 동체 로그 표시부(272)에 한번에 표시 가능한 섬네일 표시부(272B)의 수 Kmax(예를 들면, 도 15의 예의 경우, Kmax= 7×5= 35), 즉 동체 로그 표시부(272)의 1 페이지에 표시 가능한 섬네일 표시부(272B)의 수 Kmax를 제산하여 페이지 수를 구한다. 또한, 제산한 값의 소수점 이하는 반올림된다.
스텝 S124에서, 동체 로그 모듈(230)은, 표시하는 동체 로그 표시부(272)의 페이지 번호인 표시 페이지 번호 N을 1로 설정한다. 즉, 화면(270)에는, 동체 로그 표시부(272)의 1 페이지째가 표시된다. 스텝 S124의 처리 후에는, 스텝 S125로 진행하여, 동체 로그 모듈(230)은, 표시 카운트치 K를 0에 설정하고, 스텝 S126으로 진행한다.
스텝 S126에서, 동체 로그 모듈(230)은, 화면(270)의 동체 로그 표시부(272)를 표시시키는 후술하는 도 30의 동체 로그 표시부 표시 처리를 행하고, 스텝 S127로 진행한다.
스텝 S127에서, 동체 로그 모듈(230)은, 유저에 의해 동체 로그 표시부(272)가 지시되었는지 여부, 즉, 유저의 조작에 따라서 입력부(206)로부터 동체 로그 표시부(272)의 지시를 나타내는 지시 정보가 공급되었는지 여부를 판정한다. 유저는, 동체 로그 표시부(272)를 보면서, 원하는 동체의 줌 정지 화상(272C)이 표시되어 있는 섬네일 표시부(272B)를 지시함으로써, 그 동체를 포함하는 센서 화상(151)과 줌 화상(152)의 재생을 명령한다.
스텝 S127에서, 유저에 의해 동체 로그 표시부(272)가 지시된 것으로 판정된 경우, 스텝 S128로 진행하여, 동체 로그 모듈(230)은, 유저에 의해 지시된 위치의 동체 로그 표시부(272) 상의 좌표를 인식한다.
스텝 S129에서, 동체 로그 모듈(230)은, 스텝 S128에서 인식한 유저에 의해 지시된 위치의 좌표에 기초하여, 유저에 의해 지시된 위치가 섬네일 표시부(272B) 내인지, 즉 유저가 섬네일 표시부(272B) 중 어느 1개를 지시했는지 여부를 판정한다.
스텝 S129에서, 유저에 의해 지시된 위치가 섬네일 표시부(272B) 내부가 아닌 것으로 판정된 경우, 처리는 스텝 S127로 되돌아간다.
한편, 스텝 S129에서, 유저에 의해 지시된 위치가 섬네일 표시부(272B) 내인 것으로 판정된 경우, 스텝 S130로 진행하여, 동체 로그 모듈(230)은, 그 섬네일 표시부(272B)에 표시되어 있는 줌 정지 화상(272C)의 발생 일시를 재생 모듈(231)에 출력하고 처리를 종료한다. 구체적으로는, 도 15의 화면(270)에서, 유저가 입력부(206)를 조작하여, 섬네일 표시부(272B) 내의 위치를 지시한 경우, 동체 로그 모듈(230)은, 섬네일 표시부(272B) 내에 표시되어 있는 줌 정지 화상(272C)에 대응하는 동체 ID를, 동체 로그 정보 DB(228)로부터 판독한다. 그리고, 동체 로그 모듈(230)은, 그 동체 ID에 대응하는 동체 정보의 발생 일시를 판독하여, 재생 모듈(231)에 출력하고 처리를 종료한다.
한편, 스텝 S127에서, 유저에 의해 동체 로그 표시부(272)가 지시되어 있지 않다고 판정된 경우, 스텝 S131로 진행하여, 동체 로그 모듈(230)은, 유저에 의해 탭(272A)가 선택되었는지 여부를 판정한다. 구체적으로는, 유저는, 화면(270)에 표시되는 동체 로그 표시부(272)의 페이지를 변경하는 경우, 입력부(206)를 조작하여, 원하는 페이지 번호 Nc를 나타내는 탭(272A)을 선택한다. 입력부(206)는, 그 조작에 따라서, 표시 페이지 번호 N의 페이지 번호 Nc로의 변경 명령을, 동체 로그 표시부(272)에 공급한다. 동체 로그 표시부(272)는, 입력부(206)로부터 표시 페이지 번호 N의 페이지 번호 Nc로의 변경의 명령이 공급되었는지 여부를 판정한다.
스텝 S131에서, 유저에 의해 탭(272A)이 선택된 경우, 즉 입력부(206)로부터 표시 페이지 번호 N의 페이지 번호 Nc로의 변경 명령이 공급된 경우, 스텝 S132로 진행하여, 표시 페이지 번호 N을, 유저가 원하는 페이지 번호 Nc로 한다.
스텝 S132의 처리 후에는, 스텝 S133로 진행하여, 동체 로그 모듈(230)은, 표시 카운트치 K를 0으로 설정하고, 스텝 S126로 되돌아가, 동체 로그 표시부(272)의 표시가 갱신된다.
한편, 스텝 S131에서, 유저에 의해 탭(272A)이 선택되어 있지 않은 경우, 즉 입력부(206)로부터 표시 페이지 번호 N의 페이지 번호 Nc로의 변경 명령이 공급되어 있지 않은 경우, 스텝 S134로 진행하여, 동체 로그 모듈(230)은, 타깃 시간대가 변경되었는지 여부를 판정한다.
구체적으로는, 유저는, 타깃 시간대를 변경하는 경우, 입력부(206)(예를 들면, 키보드의 상하 화살표 키)를 조작하여, 녹화 실적 표시부(271) 내의 원하는 타깃 시간대에 대응하는 위치를 지시하거나, 타깃 시간대 선택부(274)를 조작하여 원하는 타깃 시간대를 선택한다. 이 때, 입력부(206)는, 유저로부터의 조작에 따라서, 타깃 시간대의 변경의 명령을 동체 로그 모듈(230)에 공급한다. 동체 로그 모듈(230)은, 입력부(206)로부터 타깃 시간대의 변경의 명령이 공급되었는지 여부를 판정한다.
스텝 S134에서, 타깃 시간대가 변경된 경우, 즉 입력부(206)로부터 타깃 시간대의 변경의 명령이 공급된 경우, 동체 로그 모듈(230)은, 녹화 실적 표시부(271)의 타깃 시간대를 나타내는 날짜 표시부(271A)의 날짜와 시간 표시부(271C)의 시간에 있어서의 위치의 색을, 소정의 색(예를 들면, 노란 색)으로 변경하고, 스텝 S126으로 되돌아가, 동체 로그 표시부(272)의 표시가 갱신된다.
또한, 스텝 S134에서, 타깃 시간대가 변경되어 있지 않은 경우, 즉 입력부(206)로부터 타깃 시간대의 변경의 명령이 공급되어 있지 않은 경우, 스텝 S135로 진행하여, 동체 로그 모듈(230)은, 타깃 주간이 변경되었는지 여부를 판정한다.
구체적으로는, 유저는, 타깃 주간을 변경하는 경우, 입력부(206)를 조작하여, 도 15의 녹화 실적 표시부(271)의 타깃 주간 선택부(271B)를 조작하여 원하는 타깃 주간을 선택한다. 이 때, 입력부(206)는, 유저로부터의 조작에 따라서, 타깃 주간의 변경의 명령을 동체 로그 모듈(230)에 공급한다. 동체 로그 모듈(230)은, 입력부(206)로부터 타깃 주간의 변경의 명령이 공급되었는지 여부를 판정한다. 또한, 날짜 표시부(271A)에 표시되어 있는 날짜가 현재의 주의 날짜인 경우, 유저가 타깃 주간 선택부(271B)를 조작하여, 다음 주를 타깃 주간으로서 선택할 때, 그 조작은 무효로 된다.
스텝 S135에서, 타깃 주간이 변경된 경우, 즉 입력부(206)로부터 타깃 주간의 변경의 명령이 공급된 경우, 동체 로그 모듈(230)은, 스텝 S121로 되돌아가, 전술한 처리를 반복한다.
한편, 스텝 S135에서, 타깃 주간이 변경되어 있지 않은 경우, 즉 입력부(206)로부터 타깃 주간의 변경의 명령이 공급되어 있지 않은 경우, 도 27의 스텝 S136로 진행하여, OK 버튼(276)이 조작되었는지 여부를 판정한다.
구체적으로는, 사용자는, 재생 대상으로 되는 센서 화상(151)과 줌 화상(152)에 대응하는 동체의 발생 일시를 결정하고 있는 경우, 입력부(206)를 조작하 고, 재생 시각 선택부(275)를 조작하여, 그 발생 일시(의 시각)를 선택한다. 그 후, 유저는, 입력부(206)를 조작하여, OK 버튼(276)을 조작한다. 이 때, 입력부(206)는, 유저로부터의 조작에 따라서, OK 버튼(276)의 조작을 나타내는 정보를 동체 로그 모듈(230)에 공급하고, 동체 로그 모듈(230)은, 입력부(206)로부터 OK 버튼(276)의 조작을 나타내는 정보가 공급되었는지 여부를 판정한다.
스텝 S136에서, OK 버튼(276)이 조작되어 있지 않은 경우, 즉 입력부(206)로부터 OK 버튼(276)의 조작을 나타내는 정보가 공급되어 있지 않은 경우, 스텝 S127로 되돌아가고, 동체 로그 모듈(230)은, 전술한 처리를 반복한다.
한편, 스텝 S136에서, OK 버튼(276)이 조작된 경우, 즉 입력부(206)로부터 OK 버튼(276)의 조작을 나타내는 정보가 공급된 경우, 스텝 S137로 진행하여, 동체 로그 모듈(230)은, 동체 정보 DB(227)로부터, 발생 일시로서, 유저에 의해 선택된 발생 일시의 시각(도 15의 예에서는, 17시 30분)과, 녹화 실적 표시부(271)의 영역(271E)에 대응하는 날짜(도 15의 예에서는, 2006년 1월 13일)를 포함하는 동체 정보를 판독하여 재생 모듈(231)에 출력한다.
스텝 S137의 처리 후에는, 스텝 S138로 진행하여, 동체 로그 모듈(230)은, 유저에 의해 클로즈 버튼(277)이 조작되었는지 여부, 즉 유저의 조작에 따라서, 입력부(205)로부터 클로즈 버튼(277)의 조작을 나타내는 정보가 공급되었는지 여부를 판정한다.
스텝 S138에서, 유저에 의해 클로즈 버튼(277)이 조작되어 있지 않은 경우, 스텝 S127로 되돌아가, 전술한 처리를 반복한다. 한편, 스텝 S138에서, 클로즈버 튼(277)이 조작된 경우, 동체 로그 모듈(230)은, 화면(270)의 표시를 정지하고, 처리를 종료한다.
다음으로, 도 28을 참조하여, 도 26의 스텝 S121의 녹화 실적 정보 화면 표시 처리를 설명한다.
스텝 S151에서, 동체 로그 모듈(230)은, 타깃 주간을, 도 26의 스텝 S135에서 변경된 타깃 주간으로 설정한다. 또한, 최초의 스텝 S151에서는, 동체 로그 모듈(230)은, 예를 들면, 계시 모듈(224)로부터 공급되는 일시 정보에 기초하여, 유저에 의해 도 14의 플레이백 버튼(252A) 또는 도 17의 라이브 버튼(301A)이 조작되었을 때의 일시를 인식하여, 그 일시를 포함하는 소정의 시간을 타깃 시간대에 설정한다. 또한, 동체 로그 모듈(230)은, 그 날짜를 포함하는 일주일을, 타깃 주간으로 설정한다.
타깃 주간은 서로 다른 방식으로 설정되어도 된다. 예를 들면, 유저에 의해 라이브 버튼(301A)이 조작되었을 때는, 동체 로그 모듈(230)이, 그 시점에서 센서 화상 표시부(251)와 줌 화상 표시부(253)(도 17)에 표시하고 있는 센서 화상(151)과 줌 화상(152)에 대응하는 동체의 발생 일시를 포함하는 소정의 시간을 타깃 시간대에 설정하여, 그 발생일을 포함하는 일주일을, 타깃 주간으로 설정하도록 하여도 된다.
스텝 S151의 처리 후에는, 스텝 S152로 진행하여, 동체 로그 모듈(230)은, 스텝 S151에서 설정한 타깃 주간을 날짜 표시부(271A)에 표시시키고, 스텝 S153로 진행한다. 스텝 S153에서, 동체 로그 모듈(230)은, 타깃 주간의 녹화 실적 정보를 취득하고, 스텝 S154로 진행한다.
스텝 S154에서, 동체 로그 모듈(230)은, 스텝 S153에서 취득한 녹화 실적 정보에 기초하여, 센서 화상(151)과 줌 화상(152)의 기록(녹화)의 유무를 나타내는 녹화 실적을, 녹화 실적 표시부(271)에 표시시킨다. 구체적으로는, 동체 로그 모듈(230)은, 녹화 실적 정보의 센서 플래그와 줌 플래그에 기초하여, 녹화 실적 정보에 대응하는 일시를 나타내는 날짜 표시부(271A)의 날짜와 시간 표시부(271C)의 시간에 있어서의 위치에, 「센서 화상(151)과 줌 화상(152)의 어느 쪽의 기록도 없음」을 투명으로, 「센서 화상(151)만 있음」을 엷은 청색으로, 「센서 화상(151)과 줌 화상(152)의 양방 있음 」을 청색으로 나타낸다.
스텝 S154의 처리 후에는, 스텝 S155로 진행하여, 동체 로그 모듈(230)은, 타깃 시간대를, 타깃 시간대 선택부(274)에 표시시킴과 함께, 녹화 실적 표시부(271)의 타깃 시간대를 나타내는 날짜 표시부(271A)의 날짜와 시간 표시부(271C)의 시간 에 있어서의 위치의 색을, 소정의 색(예를 들면, 노란 색)으로 변경한다.
스텝 S155의 처리 후에는, 스텝 S156로 진행하여, 동체 로그 모듈(230)은, 재생 시각 선택부(275)를 표시시킨다. 예를 들면, 재생 시각 선택부(275)에는, 타깃 시간대의 최초의 시각이 표시된다.
스텝 S156의 처리 후에는, 스텝 S157로 진행하여, 동체 로그 모듈(230)은, OK 버튼(276)과 클로즈 버튼(277)을 표시시키고, 도 26의 스텝 S121로 되돌아가, 스텝 S122로 진행한다.
다음으로, 도 29를 참조하여, 도 26의 스텝 S122의 동체 수 그래프 표시 처 리를 설명한다.
스텝 S171에서, 동체 로그 모듈(230)은, 동체 정보 DB(227)로부터, 타깃 시간대를 포함하는 관리 시간대의 동체 정보를 취득하고, 스텝 S172로 진행한다.
스텝 S172에서, 동체 로그 모듈(230)은, 스텝 S171에서 취득한 동체 정보에 기초하여, 1분당 발생한 최대의 동체의 수를 구한다. 예를 들면, 도 10의 동체 정보가 취득되는 경우, 10시와 10시 5분에 1개씩 동체가 발생하고 있기 때문에, 1분당 발생한 최대의 동체의 수는 1이다.
스텝 S172의 처리 후에는, 스텝 S173로 진행하여, 동체 로그 모듈(230)은, 1분마다 발생한 동체의 수와, 스텝 S172에서 구한 최대의 동체의 수와의 비를, 1분마다 구하고, 스텝 S174로 진행한다.
스텝 S174에서, 동체 로그 모듈(230)은, 관리 시간대, 스텝 S172에서 구한 최대의 동체의 수, 및 스텝 S173에서 구한 비에 기초하여, 동체 수 그래프 표시부(273)에, 횡축이 관리 시간대를, 종축이 동체의 수를 나타내는 동체 수 그래프를 표시시킨다. 예를 들면, 스텝 S172에서 구한 최대의 동체의 수가 26인 경우, 동체 로그 모듈(230)은, 도 15에 도시한 바와 같이 동체 수 그래프의 종축의 최대값을 26으로 설정하고, 관리 시간대의 1분마다, 스텝 S173에서 구한 비에 대응하는 높이의 막대를, 동체 수 그래프로서 표시시킨다. 또한, 섬네일 표시부(272B)에 표시되어 있는 모든 발생 시각에 대응하는 막대를, 다른 막대와 다른 색으로 표시시키도록 해도 된다. 이에 의해, 사용자는, 섬네일 표시부(272B)에 표시되어 있는 줌 정지 화상(272C)이, 동체 수 그래프의 어디에 위치하고 있는지를 용이하게 인식할 수 있다. 스텝 S174의 처리 후에는, 도 26의 스텝 S122로 되돌아가, 처리는 스텝 S123로 진행된다.
다음으로, 도 30를 참조하여, 도 26의 스텝 S126의 동체 로그 표시부 표시 처리를 설명한다.
스텝 S191에서, 동체 로그 모듈(230)은, 동체 정보 DB(227)로부터, 타깃 시간대의 동체 정보를 취득하여, 그 동체 정보에 선두에서 M(= Kmax×(N-1)+ K+ 1)번째의 동체 정보가 포함되어 있는지의 여부를 판정한다.
스텝 S191에서, 선두에서 M 번째의 동체 정보가 있다고 판정된 경우, 스텝 S192로 진행하여, 동체 로그 모듈(230)은, 그 동체 정보에 포함되는 동체 ID에 대응하는 동체 로그 정보를, 동체 로그 정보 DB(228)로부터 판독하고, 그 동체 로그 정보의 줌 정지 화상(272C)을, 섬네일 표시부(272B)의 표시 대상으로 하여 선택한다.
스텝 S192의 처리 후에는, 스텝 S193로 진행하여, 동체 로그 모듈(230)은, 표시 카운트치 K에 기초하여, 스텝 S192에서 선택한 표시 대상을 표시하는 섬네일 표시부(272B)를 결정한다. 예를 들면, 섬네일 표시부(272B)에는, 섬네일 표시부(272B)에 표시되는 줌 정지 화상(272C)에 대응하는 표시 카운트치 K가, 유저에 의해 미리 설정되어 있다. 예를 들면, 유저는 동체 로그 표시부(272)의 좌측위의 섬네일 표시부(272B)로부터 순서대로, 우측 하방향으로 갈수록, 표시 카운트치 K가 크게 되도록 설정한다. 이 경우, 도 15에 도시한 바와 같이, 동체 로그 표시부(272)의 가로 방향으로 섬네일 표시부(272B)가 7개 배열되는 경우, 표시 카운트치 K가 2로 설정되어 있을 때, 제1행의 좌측으로부터 2번째 열의 섬네일 표시부(272B)가, 표시 대상을 표시하는 섬네일 표시부(272B)라고 결정된다.
스텝 S193의 처리 후에는, 스텝 S194로 진행하여, 동체 로그 모듈(230)은, 스텝 S193에서 결정한 섬네일 표시부(272B)에, 표시 대상의 줌 정지 화상(272C)을 표시시킨다. 또한, 동체 로그 정보 DB(228)에, 대응하는 동체 로그 정보가 없는 경우, 스텝 S193에서 결정한 섬네일 표시부(272B)에는, 아무것도 표시되지 않는다.
스텝 S194의 처리 후에는, 스텝 S195로 진행하여, 동체 로그 모듈(230)은, 스텝 S191에서 취득한 동체 정보 중, 선두로부터 M번째의 동체 정보의 카메라 ID에 기초하여, 발생 일시의 표시 색을 결정한다. 예를 들면, 동체 로그 모듈(230)은, 카메라 ID 마다, 서로 다른 표시색을 결정한다.
스텝 S195의 처리 후에는, 스텝 S196으로 진행하여, 동체 로그 모듈(230)은, 스텝 S191에서 취득한 동체 정보 중, 선두에서 M 번째의 동체 정보의 발생 일시의 시각을, 발생 일시로서, 섬네일 표시부(272B)에, 스텝 S195에서 결정한 표시색으로 표시시킨다.
스텝 S196의 처리 후에는, 스텝 S197로 진행하여, 동체 로그 모듈(230)은, 표시 카운트치 K가, 동체 로그 표시부(272)에 한번에 표시 가능한 섬네일 표시부(272B)의 수 Kmax보다 작은지의 여부를 판정하여, 작다고 판정한 경우, 스텝 S198로 진행한다.
스텝 S198에서, 동체 로그 모듈(230)은, 표시 카운트치 K를 1만큼 인크리먼트하고, 스텝 S191에 되돌아가, 전술한 처리를 반복한다.
스텝 S191에서 선두에서 M 번째의 동체 정보가 없다고 판정된 경우, 또는 스텝 S197에서 표시 카운트치 K가, 동체 로그 표시부(272)에 한번에 표시 가능한 섬네일 표시부(272B)의 수 Kmax보다 작지 않다고 판정된 경우, 도 26의 스텝 S126으로 되돌아가, 처리는 스텝 S127로 진행한다.
다음으로, 도 31을 참조하여, 도 8의 재생 모듈(231)에 의한 센서 화상(151)과 줌 화상(152)의 재생 처리에 대하여 설명한다. 이 재생 처리는, 예를 들면, 도 26의 스텝 S130 또는 도 27의 S137에서 동체 로그 모듈(230)로부터, 재생 대상으로 되는 센서 화상(151)과 줌 화상(152)에 대응하는 동체의 발생 일시가 공급되었을 때, 개시된다. 또한, 이 때, 재생 모듈(231)은, 도 17의 화면(300)을 출력부(207)에 표시시킨다.
스텝 S211에서, 재생 모듈(231)은, 동체 로그 DB(227)로부터, 동체 로그 모듈(230)로부터 공급되는 발생 일시를 포함하는 관리 시간대에 대응하는 파일을 판독하여, 그 파일에 등록되어 있는, 그 발생 일시를 포함하는 동체 정보로부터 재생 개시 위치와 동체 ID를 취득한다.
스텝 S211의 처리 후에는, 스텝 S212로 진행하여, 재생 모듈(231)은, 스텝 S211로 취득한 재생 개시 위치와 동체 ID에 기초하여, 그 재생 개시 위치 이후의 센서 화상(151)과, 그 동체 ID에 대응되고 있는 줌 화상(152)을 순차적으로 재생하여, 각각 센서 화상 표시부(251)(도 17)와 줌 화상 표시부(253)에 표시시키고, 처리를 종료한다.
다음으로, 도 32를 참조하여, 클라이언트(132)에 의한 센서 화상(151)과 줌 화상(152)의 편집 처리를 설명한다. 이 편집 처리는, 예를 들면, 유저가 입력부(206)를 조작하여, 도 18의 날짜 표시부(271A)를 선택했을 때 개시된다.
스텝 S231에서, 동체 로그 모듈(230)은, 유저의 조작에 따라서 입력부(206)로부터 공급되는 날짜 표시부(271A)의 선택을 나타내는 정보에 따라서, 유저가 선택한 날짜 표시부(271A)의 날짜를 취득하고, 스텝 S232로 진행한다.
스텝 S232에서, 동체 로그 모듈(230)은, 계시 모듈(224)로부터의 일시 정보에 기초하여, 스텝 S231에서 취득한 날짜가 현재의 날짜 이전인지 여부를 판정하여, 스텝 S231에서 취득한 날짜가 현재의 날짜 이전이 아닌 것으로 판정한 경우, 스텝 S233으로 진행한다.
스텝 S233에서, 동체 로그 모듈(230)은, 삭제 또는 엑스포트할 수 없는 취지를 나타내는 에러 메시지를 표시시키고, 처리를 종료한다.
한편, 스텝 S234에서, 동체 로그 모듈(230)은, 스텝 S231에서 취득한 날짜의 센서 화상(151) 또는 줌 화상(152)이 있는지의 여부를 판정한다. 구체적으로는, 동체 로그 모듈(230)은, 녹화 실적 정보 DB(229)로부터, 스텝 S231에서 취득한 날짜의 관리 시간대에 대응하는 모든 녹화 실적 정보를 판독하고, 그 녹화 실적 정보 중 적어도 1개의 센서 플래그 또는 줌 플래그가 「1」인지의 여부를 판정한다.
스텝 S234에서, 센서 화상(151) 또는 줌 화상(152)이 없다고 판정된 경우, 스텝 S233으로 진행하여, 전술한 처리를 행한다.
또한, 스텝 S234에서, 센서 화상(151) 또는 줌 화상(152)이 있다고 판정된 경우, 스텝 S235로 진행하여, 도 18의 삭제 또는 엑스포트를 선택하는 선택 박스(321)를 표시시키고 스텝 S236으로 진행한다.
스텝 S236에서, 동체 로그 모듈(230)은, 센서 화상(151) 또는 줌 화상(152)을 삭제하는지의 여부, 즉 유저가 입력부(206)를 조작함으로써 선택 박스(321)의 삭제를 선택했는지 여부를 판정한다.
스텝 S236에서, 센서 화상(151) 또는 줌 화상(152)을 삭제하지 않은 경우, 즉 유저가 입력부(206)를 조작함으로써 선택 박스(321)의 엑스포트를 선택한 경우, 스텝 S237로 진행하여, 동체 로그 모듈(230)은, 엑스포트 목적지의 폴더를 선택하기 위한 폴더 선택 화면을 표시시킨다. 유저는, 입력부(206)를 조작하여, 폴더 선택 화면에서 원하는 폴더를, 엑스포트 목적지로서 선택한다.
스텝 S237의 처리 후에는, 스텝 S238로 진행하여, 동체 로그 모듈(230)은, 유저에 의해 선택된 폴더에 센서 화상(151) 또는 줌 화상(152)을 엑스포트할 수 있는지 여부를 판정하여, 엑스포트할 수 없다고 판정한 경우, 스텝 S239로 진행한다.
스텝 S239에서, 동체 로그 모듈(230)은, 엑스포트할 수 없는 취지를 나타내는 에러 메시지를 표시시키고, 스텝 S237로 되돌아간다.
한편, 스텝 S238에서, 유저에 의해 선택된 폴더에 센서 화상(151) 또는 줌 화상(152)을 엑스포트할 수 있다고 판정된 경우, 스텝 S240으로 진행하여, 동체 로그 모듈(230)은, 엑스포트하는지의 여부를 확인하기 위한 확인 화면(340)(도 19)을 표시시키고, 스텝 S241로 진행한다.
스텝 S241에서, 동체 로그 모듈(230)은, 유저에 의해 OK 버튼(341)이 조작되었는지 여부를 판정하여, OK 버튼(341)이 조작되었다고 판정한 경우, 스텝 S242로 진행하고, 스텝 S231에서 취득한 날짜와, 스텝 S237에서 선택된 엑스포트 목적지를 재생 모듈(231)에 공급한다. 재생 모듈(231)은, 동체 로그 모듈(230)로부터의 날짜에 기초하여, 그 날짜의 관리 시간대에 대응하는 파일을, 동체 정보 DB(227)로부터 판독하여, 그 파일에 등록되어 있는 재생 개시 위치와 동체 ID를 인식한다. 재생 모듈(231)은, 그 재생 개시 위치와 동체 ID에 기초하여 그 재생 개시 위치에 대응하는 센서 화상(151)과, 그 동체 ID에 대응하는 줌 화상(152)을, 표시 정보 DB(226)로부터 재생하고, 엑스포트 목적지에 엑스포트하고, 처리를 종료한다.
한편, 스텝 S241에서, OK 버튼(341)이 조작되어 있지 않은 경우, 즉 캔슬 버튼(342)이 조작된 것으로 판정된 경우, 스텝 S242를 스킵하여, 처리는 종료한다.
스텝 S236에서, 센서 화상(151) 또는 줌 화상(152)을 삭제하는 경우, 즉 유저가 입력부(206)를 조작함으로써 선택 박스(321)의 삭제를 선택한 경우, 스텝 S244로 진행하여, 동체 로그 모듈(230)은, 스텝 S241과 마찬가지로, 삭제하는지의 여부를 확인하기 위한 확인 화면(340)(도 19)을 표시시키고, 스텝 S244로 진행한다.
스텝 S244에서, 동체 로그 모듈(230)은, 스텝 S241과 마찬가지로, 유저에 의해 OK 버튼(341)이 조작되었는지 여부를 판정하여, OK 버튼(341)이 조작된 것으로 판정한 경우, 스텝 S245로 진행하여, 스텝 S231에서 취득한 날짜를 재생 모듈(231)에 공급한다. 재생 모듈(231)은, 동체 로그 모듈(230)로부터의 날짜에 기초하여, 그 날짜의 관리 시간대에 대응하는 파일을, 동체 정보 DB(227)로부터 판독하여, 그 파일에 등록되어 있는 재생 개시 위치와 동체 ID를 인식한다. 재생 모듈(232)은, 그 재생 개시 위치와 동체 ID에 기초하여, 그 재생 개시 위치에 대응하는 센서 화상(151)과, 그 동체 ID에 대응하는 줌 화상(152)을, 표시 정보 DB(226)로부터 삭제하고, 처리를 종료한다.
한편, 스텝 S244에서, OK 버튼(341)이 조작되어 있지 않은 경우, 즉 캔슬 버튼(342)이 조작된 것으로 판정된 경우, 스텝 S245를 스킵하여, 처리는 종료한다.
본 실시의 형태에서는, 편집 처리로서, 삭제 또는 엑스포트를 하도록 했지만, 이것에 한정되지 않고, 예를 들면 센서 화상(151) 또는 줌 화상(152)의 압축을 하도록 해도 된다. 또한, 유저에 의해 선택된 날짜마다 편집 처리를 행하는 것으로 했지만, 유저에게 시간도 선택시켜, 일시마다 편집 처리를 행하도록 하여도 된다.
전술한 설명에서는, 감시 시스템(10)은, 센서 화상(151)과 줌 화상(152)을 기록하는 것으로 했지만, 센서 화상(151)을 기록하지 않고, 줌 화상(152)만을 기록하도록 하여도 된다. 또한, 유저가, 입력부(206)를 조작하여, 센서 화상(151)과 줌 화상(152)을 기록하는 전체 기록 모드와, 줌 화상(152)만을 기록하는 줌 화상만 기록 모드 중 어느 하나를 선택하도록 하여도 된다.
이 경우의 센서 화상 취득 모듈(221)에 의한 센서 화상 취득 처리를, 도 33을 참조하여 설명한다.
스텝 S251 내지 S254의 처리는, 도 20의 스텝 S1 내지 S4의 처리와 마찬가지이기 때문에, 설명은 생략한다.
스텝 S254의 처리 후에는, 스텝 S255로 진행하여, 센서 화상 취득 모듈(221) 은, 기록 모드가 줌 화상만 기록 모드인지의 여부를 판정한다. 구체적으로는, 입력부(206)는, 유저로부터의 조작에 따라서, 전 기록 모드 또는 줌 화상만 기록 모드의 선택을 나타내는 정보를 센서 화상 취득 모듈(221)에 공급한다. 센서 화상 취득 모듈(221)은, 그 정보에 따라서, 기록 모드를 전체 기록 모드 또는 줌 화상만 기록 모드로 설정한다. 스텝 S255에서, 센서 화상 취득 모듈(221)은, 지금 설정되어 있는 기록 모드가 줌 화상만 기록 모드인지의 여부를 판정한다.
스텝 S255에서, 센서 화상 취득 모듈(221)이, 기록 모드가 줌 화상만 기록 모드가 아닌 것으로 판정한 경우, 즉 기록 모드가 전체 기록 모드인 것으로 판정한 경우, 스텝 S256로 진행한다.
한편, 스텝 S255에서, 센서 화상 취득 모듈(221)이, 기록 모드가 줌 화상만 기록 모드이라고 판정한 경우, 스텝 S256을 스킵하여, 스텝 S257로 진행한다. 즉, 센서 화상 취득 모듈(221)은, 표시 정보 DB(226)에 센서 화상(151)을 기록하지 않고, 녹화 실적 정보 DB(229)의 녹화 실적 정보의 센서 플래그는, 센서 화상(151)의 기록이 없음을 나타내는 0 그대로이다.
스텝 256 내지 S260의 처리는, 도 20의 스텝 S5 내지 S9의 처리와 마찬가지이기 때문에, 설명은 생략한다.
다음으로, 도 34를 참조하여, 기록 모드가 줌 화상만 기록 모드인 경우에, 표시 정보 DB(226)에 기억되는 데이터의 기억 용량을 설명한다.
도 34에 도시한 바와 같이 표시 정보 DB(226)에는, 동체의 발생이 검지된 경우에만 줌 카메라(122)로 취득되는 줌 화상(152)만이 기록된다. 따라서, 도 13에 도시한 센서 화상(151)과 줌 화상(152)의 양방이 기록되는 경우에 비하여, 표시 정보 DB(226)에 기록되는 데이터의 용량을 더욱 삭감할 수 있다.
센서 화상(151)과 줌 화상(152)에 대응하는 동체의 줌 촬영에 대한 우선 순위에 기초하여, 우선 순위가, 예를 들면 미리 유저에 의해 설정된 임계값보다 높은 동체의 센서 화상(151)과 줌 화상(152)만이 기록되도록 해도 된다. 또한, 우선 순위에 기초하여, 우선 순위가 임계치보다 높은 동체의 줌 화상(152)만이 기록되도록 하여도 된다.
전술한 동체 검지 모듈(222)에서 검지되는 동체의 사이즈는, 유저가 입력부(206)를 조작함으로써 설정하도록 하여도 된다.
이 경우, 유저는, 입력부(206)를 조작함으로써, 도 35에 도시한 바와 같이 동체의 사이즈를 설정하기 위한 화면(401)을 출력부(207)에 표시시킨다.
도 35에 도시한 바와 같이 텍스트 박스(411A) 또는 슬라이더(412A)는, 센서 카메라(121)로 검지하는 동체의 최소의 수평 방향(X 방향)의 사이즈(픽셀)를 설정할 때에 조작된다. 유저는, 텍스트 박스(411A)를 조작하여 수치를 입력하거나, 슬라이더(412A)를 조작하여 도면중 좌우 방향으로 이동시켜, 동체의 최소의 수평 방향의 사이즈를 설정한다.
텍스트 박스(411B) 또는 슬라이더(412B)는, 센서 카메라(121)에서 검지하는 동체의 최소의 수직 방향(Y 방향)의 사이즈(픽셀)를 설정할 때에 조작된다. 텍스트 박스(413A) 또는 슬라이더(414A)는, 센서 카메라(121)로 검지하는 동체의 최대의 수평 방향의 사이즈를, 텍스트 박스(413B) 또는 슬라이더(414B)는, 최대의 수직 방향의 사이즈를 설정할 때에 조작된다.
테스트 버튼(415)은, 설정한 동체의 최대 및 최소의 사이즈를, 센서 화상(151)의 피사체의 사이즈와 시각적으로 비교할 때에 조작된다. 유저에 의해 테스트 버튼(415)이 조작되면, 도 36에 도시하는 것과 같은 화면(421)이 출력부(207)에 표시된다.
도 36에 도시한 바와 같이, 화면(421)에는, 예를 들면, 센서 화상(151)을 표시하는 센서 화상 표시부(430), 지금 설정되어 있는 검지 대상의 동체의 최대 사이즈를 표시하는 최대 사이즈부(431), 검지 대상의 동체의 최소 사이즈를 표시하는 최소 사이즈부(432)가 표시된다.
유저는, 예를 들면, 센서 화상 표시부(430)에 표시되는 센서 화상(151)의 인물(433)과, 최대 사이즈부(431) 및 최소 사이즈부(432)를 시각적으로 비교함으로써, 자기 자신이 설정한 동체의 최대 및 최소 사이즈가 타당한 값인지를 용이하게 확인할 수 있다.
도 37은, 도 6의 감시 시스템(101)의 다른 일 실시 형태의 구성예를 보이고 있다. 또한, 도 6과 동일한 것에는, 동일한 부호를 붙여 놓는다. 이것은, 후술하는 도 38에 있어서도 마찬가지다.
도 37의 감시 시스템(101)에서는, 도 6의 센서 카메라(121) 대신에, 360도 전방향 촬영이 리얼타임으로 가능한 고정 카메라(451)를 설치하고 있다.
도 38은, 도 6의 감시 시스템(101)의 또다른 일 실시 형태의 구성예를 보이고 있다.
도 38의 감시 시스템(101)에서는, 네트워크(131)에, 고정 카메라(471)가 추가로 제공되어 접속되어 있다. 이 경우, 클라이언트(132)의 동체 검지 모듈(222)은, 고정 카메라(471)에 의한 촬영의 결과 얻어진 동화상인 고정 화상에 있어서의 동체도 검지하고, 동체 로그 모듈(230)은, 화면(270)의 섬네일 표시부(272B)(도 15)에 동체에 대응하는 고정 화상을 소정의 타이밍으로 캡쳐한 정지 화상을 표시시킨다. 이 때, 섬네일 표시부(272)에 표시되는 발생 일시의 표시 색(예를 들면, 녹색 또는 노란 색)을, 센서 카메라(121)에 의해 취득된 센서 화상(151)에 대응하는 발생 일시의 표시색(예를 들면, 백색)과는 다르도록 하여도 된다. 유저가, 섬네일 표시부(272B)에 표시된 정지 화상을 지정하는 경우, 그 정지 화상에 대응하는 고정 화상이 재생되어, 출력부(207)에 표시된다.
이상과 같이, 도 38의 감시 시스템(101)에서는, 센서 화상(151) 뿐만 아니라, 고정 화상에 있어서의 동체도 검지하기 때문에, 감시하는 영역을 늘릴 수 있다. 예를 들면, 주차장의 요금소나 입출구(게이트) 등의 동체가 많이 발생하는 고정된 영역을 감시하기 위해 고정 카메라(471)를 설치하여, 주차장 내의 광범위를 감시하기 위해 카메라 유닛(111)을 설치함으로써, 주차장 전체를 확실하게 감시하는 것이 가능하게 된다.
도 8의 클라이언트(132)의 각 블록은, 클라이언트(132)가 아니라, 센서 카메라(121) 또는 줌 카메라(122)에 설치되도록 하여도 된다.
또한, 감시 시스템(101)의 용도는, 영역(21)의 감시에 한정되지 않는다.
또한, 센서 카메라(121)와 줌 카메라(122)는, 팬 틸트 카메라에 한정되지 않는다. 또한, 본 실시의 형태에서는, 감시 시스템(101)은, 센서 카메라(121)와 줌 카메라(122)인 2개의 카메라를 설치하도록 했지만, 카메라의 수는 이것에 한정되지 않고, 예를 들면, 1개의 카메라로 센서 화상(151)과 줌 화상(152)을 취득하도록 하여도 된다.
또한, 본 실시의 형태에서는, 섬네일 표시부(272)에 표시되는 발생 일시의 표시 색은, 센서 카메라(121)의 카메라 ID에 기초하여 결정되도록 했지만, 줌 카메라(122)의 카메라 ID에 기초하여 결정되도록 해도 된다. 이 경우, 동체 로그 정보 DB(228)에는, 동체 로그 정보로서 줌 카메라(122)의 카메라 ID도 등록된다.
이상과 같이, 감시 시스템(101)에서는, 동체 ID에 대응시킨 줌 화상(152)과 동체 ID에 대응시킨 재생 개시 위치가, 각각 동체 로그 정보 DB(228)와 동체 정보 DB(227)에 따로따로 기억되므로, 재생 대상으로 되는 센서 화상(151)에 대응하는 줌 화상(152)이 지정되는 경우, 동체 정보 DB(227)에 비하여 데이터 수가 적은 동체 로그 정보 DB(228)로부터, 그 줌 화상(152)에 대응하는 동체 ID를 판독하고(검색하고), 그 동체 ID에 대응하는 재생 개시 위치를 동체 정보 DB(227)로부터 판독하고, 그 재생 개시 위치에 기초하여 표시 정보 DB(226)에 기억되어 있는 센서 화상(151)을 재생할 수 있다. 그 결과, 유저가 원하는 센서 화상(151)을 용이하게 재생할 수 있다.
또한, 감시 시스템(101)에서는, 센서 카메라(121)에 의한 촬영의 결과 얻어진, 광범위한 영역(21)의 센서 화상(151)에 기초하여, 그 영역(21) 내의 동체를 검지하여, 그 동체를 줌 카메라(122)에 의해 촬영할 수 있다.
여기서, 본 명세서에서, 컴퓨터에 각종 처리를 행하게 하기 위한 프로그램을 기술하는 처리 스텝은, 반드시 플로우차트로서 기재된 순서를 따라 시계열로 처리할 필요는 없고, 병렬적 혹은 개별로 실행되는 처리(예를 들면, 병렬 처리 혹은 오브젝트에 의한 처리)도 포함하는 것이다.
또한, 프로그램은, 하나의 컴퓨터에 의해 처리되는 것이어도 되고, 복수의 컴퓨터에 의해서 분산 처리되는 것이어도 된다. 또한, 프로그램은, 먼 곳의 컴퓨터에 전송되어 실행되는 것이어도 된다.
본 발명의 바람직한 실시예를 특정 용어들, 상기한 바와 같은 설명을 이용하여 설명하였지만, 이는 오직 예시용이며, 이하의 특허청구범위의 정신 및 범주를 벗어나지 않고 변경 및 수정이 행해질 수 있음을 알 것이다.
본 발명에 따르면, 특히, 소정의 영역을 촬영함과 함께, 그 영역 내의 동체를 촬영하여, 그 결과 얻어지는 화상 중, 유저가 원하는 화상을 용이하게 재생할 수 있다.

Claims (6)

  1. 삭제
  2. 피사체의 촬영을 제어하는 정보 처리 장치로서,
    소정의 영역을 촬영하는 영역 촬영부를 제어하여, 상기 소정의 영역을 촬영하게 하는 영역 촬영 제어부와,
    상기 영역 촬영부에 의한 촬영에 의해 얻어지는 영역 화상에 기초하여, 상기 소정의 영역 내에 존재하는 동체(moving bodies)를 검지하는 검지부와,
    상기 검지부에 의해 검지된 동체를 촬영하는 동체 촬영부를 제어하여, 상기 동체를 촬영하게 하는 동체 촬영 제어부와,
    상기 영역 촬영부에 의해 얻어진 영역 화상을 기억하는 영역 화상 기억부와,
    상기 검지부에 의한 검지 결과에 기초하여, 상기 동체를 나타내는 동체 정보와, 상기 동체가 검지된 상기 영역 화상의 재생에 관한 재생 정보를 서로 대응시켜 기억하는 정보 기억부와,
    상기 동체 촬영부에 의해 동체가 촬영된 결과 얻어지는 동체 화상을, 상기 동체를 나타내는 동체 정보에 대응시켜 기억하는 동체 화상 기억부와,
    재생 대상으로 되는 영역 화상에 대응하는 상기 동체 화상중 하나가 지정되면, 지정된 상기 동체 화상에 대응하는 동체 정보를 상기 동체 화상 기억부로부터 판독하고, 판독된 상기 동체 정보에 대응하는 재생 정보를 상기 정보 기억부로부터 판독하고, 판독된 상기 재생 정보에 기초하여 상기 영역 화상 기억부에 기억된 영역 화상을 재생하는 재생부
    를 포함하는, 정보 처리 장치.
  3. 제2항에 있어서,
    소정의 화상을 표시하도록 배치된 표시부를 제어하여 상기 동체 화상을 표시시키는 표시 제어부와,
    상기 표시부에 표시된 동체 화상중 하나를, 재생 대상으로 되는 영역 화상에 대응하는 동체 화상으로서 지정하는 지정부를 더 포함하며,
    상기 재생부는, 상기 재생 대상으로 되는 영역 화상에 대응하는 동체 화상이 상기 지정부에 의해 지정되면, 그 영역 화상을 재생하는, 정보 처리 장치.
  4. 삭제
  5. 삭제
  6. 삭제
KR1020060019181A 2005-02-28 2006-02-28 정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법 및 기록 매체 KR101215199B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2005-00054394 2005-02-28
JP2005054394A JP4470759B2 (ja) 2005-02-28 2005-02-28 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体

Publications (2)

Publication Number Publication Date
KR20060095515A KR20060095515A (ko) 2006-08-31
KR101215199B1 true KR101215199B1 (ko) 2012-12-24

Family

ID=36498931

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060019181A KR101215199B1 (ko) 2005-02-28 2006-02-28 정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법 및 기록 매체

Country Status (6)

Country Link
US (2) US7801329B2 (ko)
EP (2) EP1696398B1 (ko)
JP (1) JP4470759B2 (ko)
KR (1) KR101215199B1 (ko)
CN (1) CN100551047C (ko)
DE (1) DE602006015731D1 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498497B2 (en) * 2006-11-17 2013-07-30 Microsoft Corporation Swarm imaging
JP5469894B2 (ja) * 2008-07-05 2014-04-16 株式会社トプコン 測量装置及び自動追尾方法
CN101442647B (zh) * 2008-12-30 2012-11-28 北京中星微电子有限公司 视频监控系统中录像回放定位的控制方法以及存储服务器
JP5469899B2 (ja) * 2009-03-31 2014-04-16 株式会社トプコン 自動追尾方法及び測量装置
US10248697B2 (en) * 2009-07-24 2019-04-02 Raytheon Company Method and system for facilitating interactive review of data
US8279266B2 (en) * 2009-11-30 2012-10-02 Daniel Theobald Video system using camera modules to provide real-time composite video image
JP5703448B2 (ja) * 2010-03-04 2015-04-22 パナソニックIpマネジメント株式会社 画像表示装置及び画像表示方法
JP5533048B2 (ja) * 2010-03-08 2014-06-25 ソニー株式会社 撮像制御装置、撮像制御方法
CN102377984A (zh) * 2010-08-09 2012-03-14 纬创资通股份有限公司 监视影像录制方法和监视系统以及计算机程序产品
KR101222482B1 (ko) * 2011-06-23 2013-01-15 브이씨에이 테크놀러지 엘티디 설정 인터페이스를 구비한 피플 카운터 및 그 설정 방법
KR101543712B1 (ko) * 2011-08-25 2015-08-12 한국전자통신연구원 증강현실을 이용한 보안 감시 장치 및 방법
JP2013219544A (ja) * 2012-04-09 2013-10-24 Ricoh Co Ltd 画像処理装置、画像処理方法、及び画像処理プログラム
CN102868936B (zh) * 2012-09-06 2015-06-10 北京邮电大学 存储视频日志的方法和系统
US9210385B2 (en) * 2012-11-20 2015-12-08 Pelco, Inc. Method and system for metadata extraction from master-slave cameras tracking system
CN104184986B (zh) 2013-05-28 2018-06-05 华为技术有限公司 一种视频监控方法、装置及系统
JP2015142181A (ja) * 2014-01-27 2015-08-03 キヤノン株式会社 制御装置、制御方法
JP6381313B2 (ja) * 2014-06-20 2018-08-29 キヤノン株式会社 制御装置、制御方法、およびプログラム
CN109660745A (zh) * 2018-12-21 2019-04-19 深圳前海微众银行股份有限公司 视频录制方法、装置、终端及计算机可读存储介质
CN118484032A (zh) * 2019-04-29 2024-08-13 深圳市大疆创新科技有限公司 一种云台控制方法、云台及拍摄装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000224542A (ja) * 1999-01-29 2000-08-11 Hitachi Ltd 画像記憶装置、監視システム、記憶媒体
JP2004201231A (ja) 2002-12-20 2004-07-15 Victor Co Of Japan Ltd 監視用ビデオカメラシステム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2155719C (en) * 1994-11-22 2005-11-01 Terry Laurence Glatt Video surveillance system with pilot and slave cameras
JP3809661B2 (ja) * 1995-12-28 2006-08-16 ソニー株式会社 動き検出装置および動き検出方法
JP3432348B2 (ja) * 1996-01-30 2003-08-04 三菱電機株式会社 代表画像表示方法、代表画像表示装置およびこの装置を用いた動画検索装置
JPH10108163A (ja) 1996-09-26 1998-04-24 Sony Corp ビデオ装置
US6215519B1 (en) * 1998-03-04 2001-04-10 The Trustees Of Columbia University In The City Of New York Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
DE69921237T2 (de) 1998-04-30 2006-02-02 Texas Instruments Inc., Dallas Automatische Videoüberwachungsanlage
JP2000209580A (ja) * 1999-01-13 2000-07-28 Canon Inc 画像処理装置およびその方法
JP2000243062A (ja) 1999-02-17 2000-09-08 Sony Corp 映像記録装置および映像記録方法、ならびに集中監視記録システム。
US20020063711A1 (en) * 1999-05-12 2002-05-30 Imove Inc. Camera system with high resolution image inside a wide angle view
JP2000339923A (ja) * 1999-05-27 2000-12-08 Mitsubishi Electric Corp 映像収集装置および映像収集方法
JP3808242B2 (ja) * 1999-07-26 2006-08-09 パイオニア株式会社 画像処理装置、画像処理方法及びナビゲーション装置
JP4516665B2 (ja) 2000-05-19 2010-08-04 パナソニック株式会社 監視装置
US7130490B2 (en) 2001-05-14 2006-10-31 Elder James H Attentive panoramic visual sensor
JP3870124B2 (ja) 2002-06-14 2007-01-17 キヤノン株式会社 画像処理装置及びその方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
US7433494B2 (en) * 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
US20040189801A1 (en) * 2003-03-28 2004-09-30 Chao-Hung Chang Active video surveillance system and active video surveillance method therefore
CN2667571Y (zh) * 2003-10-27 2004-12-29 北京雷波泰克信息技术有限公司 快速多目标人像自动识别与跟踪安全防御装置
JP4345692B2 (ja) 2005-02-28 2009-10-14 ソニー株式会社 情報処理システム、情報処理装置および方法、並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000224542A (ja) * 1999-01-29 2000-08-11 Hitachi Ltd 画像記憶装置、監視システム、記憶媒体
JP2004201231A (ja) 2002-12-20 2004-07-15 Victor Co Of Japan Ltd 監視用ビデオカメラシステム

Also Published As

Publication number Publication date
US8041078B2 (en) 2011-10-18
US20060221185A1 (en) 2006-10-05
US20100321504A1 (en) 2010-12-23
JP2006245649A (ja) 2006-09-14
CN1829321A (zh) 2006-09-06
EP2228776A1 (en) 2010-09-15
JP4470759B2 (ja) 2010-06-02
EP2228776B1 (en) 2015-05-20
EP1696398A3 (en) 2007-12-05
US7801329B2 (en) 2010-09-21
EP1696398B1 (en) 2010-07-28
CN100551047C (zh) 2009-10-14
KR20060095515A (ko) 2006-08-31
DE602006015731D1 (de) 2010-09-09
EP1696398A2 (en) 2006-08-30

Similar Documents

Publication Publication Date Title
KR101215199B1 (ko) 정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법 및 기록 매체
US7224374B2 (en) Monitoring system and method, and program and recording medium used therewith
US7218352B2 (en) Monitoring system for a photography unit, monitoring method, computer program, and storage medium
JP2006245650A (ja) 情報処理システム、情報処理装置および方法、並びにプログラム
US20130021433A1 (en) Overview configuration and control method for ptz cameras
US7684591B2 (en) Information processing system, information processing apparatus and information processing method, program, and recording medium
EP1635573A2 (en) Imaging system and imaging method
JP2003333390A (ja) モニタリングシステムおよび方法、並びに撮像装置
JP2006333132A (ja) 撮像装置及び撮像方法、プログラム、プログラム記録媒体並びに撮像システム
CN110324572B (zh) 监视系统、监视方法和非暂时性计算机可读存储介质
JP4722537B2 (ja) 監視装置
JP3841033B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP5531512B2 (ja) 情報処理装置、プログラム、および情報処理方法
JP3969172B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP3838149B2 (ja) モニタリングシステムおよび方法、並びにプログラムおよび記録媒体
JP3838150B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP3838151B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP3991816B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP2004173152A (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP6099027B1 (ja) モニタリングシステム、映像表示方法及びコンピュータプログラム
JP2006025376A (ja) 撮像装置及び処理サーバ

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151204

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161209

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171208

Year of fee payment: 6