Nothing Special   »   [go: up one dir, main page]

JP7581558B1 - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP7581558B1
JP7581558B1 JP2024104043A JP2024104043A JP7581558B1 JP 7581558 B1 JP7581558 B1 JP 7581558B1 JP 2024104043 A JP2024104043 A JP 2024104043A JP 2024104043 A JP2024104043 A JP 2024104043A JP 7581558 B1 JP7581558 B1 JP 7581558B1
Authority
JP
Japan
Prior art keywords
information processing
image
processing system
images
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024104043A
Other languages
Japanese (ja)
Inventor
貴博 橋本
総一朗 沖
賢史 中島
慶子 碇石
辰真 松木
祐貴 前田
牧子 平田
裕也 今野
有希 木村
裕也 寺田
Original Assignee
セーフィー株式会社
Filing date
Publication date
Application filed by セーフィー株式会社 filed Critical セーフィー株式会社
Application granted granted Critical
Publication of JP7581558B1 publication Critical patent/JP7581558B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

Figure 0007581558000001

【課題】カメラの設置場所の拡大に伴い、カメラで撮影された映像から特定の人物を探したいというニーズが高まっている。
【解決手段】本開示の一態様によれば、カメラで撮影された映像を情報端末で表示させる情報処理システムが提供される。前記情報処理システムは、映像から顔画像を含む映像を検索し、検索の結果として複数の映像を表示し、ユーザーの指示に応じて複数の映像から映像を選択し、選択された映像と共に映像に含まれる顔画像を表示し、ユーザーの指示に応じて顔画像を登録する。
【選択図】図5

Figure 0007581558000001

[Problem] As the number of locations where cameras are installed increases, there is a growing need to be able to search for specific people from images captured by the cameras.
According to one aspect of the present disclosure, there is provided an information processing system for displaying video captured by a camera on an information terminal, which searches for video containing a facial image from among videos, displays a plurality of videos as a result of the search, selects a video from the plurality of videos in response to a user's instruction, displays the facial image contained in the video together with the selected video, and registers the facial image in response to the user's instruction.
[Selected figure] Figure 5

Description

本発明は、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

特許文献1には表示装置に複数のカメラアイコンを表示させる処理と、表示装置に表示された複数のカメラアイコンの中から、少なくとも二つ以上のカメラアイコンを囲う入力を受け付ける処理と、少なくとも二つ以上のカメラアイコンを囲う入力を受け付けたことに応じて、少なくとも二つ以上のカメラアイコンのそれぞれに対応するカメラが撮影した映像に基づいて、人物の検索を行う処理と、を一以上のコンピュータに実行させるプログラムが開示されている。 Patent document 1 discloses a program that causes one or more computers to execute the following processes: displaying multiple camera icons on a display device; receiving an input to surround at least two or more camera icons from among the multiple camera icons displayed on the display device; and searching for a person based on images captured by cameras corresponding to each of the at least two or more camera icons in response to receiving the input to surround at least two or more camera icons.

特開2023―129429号公報JP 2023-129429 A

カメラの設置場所の拡大に伴い、カメラで撮影された映像から特定の人物を探したいというニーズが高まっている。 As the number of locations where cameras are installed increases, there is a growing need to search for specific people using footage captured by the cameras.

カメラで撮影された映像を情報端末で表示させる情報処理システムが提供される。情報処理システムは、映像から顔画像を含む映像を検索し、検索の結果として複数の映像を表示し、ユーザーの指示に応じて複数の映像から映像を選択し、選択された映像と共に映像に含まれる顔画像を表示し、ユーザーの指示に応じて顔画像を登録する。 An information processing system is provided that displays video captured by a camera on an information terminal. The information processing system searches for video containing a facial image from among the videos, displays multiple videos as a result of the search, selects a video from the multiple videos in response to a user's instruction, displays the facial image contained in the video together with the selected video, and registers the facial image in response to the user's instruction.

図1は、情報処理システムのシステム構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a system configuration of an information processing system. 図2は、サーバー装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of the server device. 図3は、クライアント装置のハードウェア構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a hardware configuration of the client device. 図4は、監視カメラのハードウェア構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of a hardware configuration of a surveillance camera. 図5は、情報処理システムにおける顔画像の登録に係る情報処理の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of information processing related to registration of a face image in the information processing system. 図6は、一覧表示画面の一例を示す図である。FIG. 6 is a diagram showing an example of the list display screen. 図7は、カレンダー画面を重畳表示させた一例を示す図である。FIG. 7 is a diagram showing an example of a calendar screen being superimposed and displayed. 図8は、映像詳細画面の一例を示す図(その1)である。FIG. 8 is a diagram showing an example of the video detail screen (part 1). 図9は、映像詳細画面の一例を示す図(その2)である。FIG. 9 is a diagram (part 2) showing one example of the video detail screen. 図10は、人物登録画面の一例を示す図である。FIG. 10 is a diagram showing an example of the person registration screen. 図11は、編集画面の一例を示す図である。FIG. 11 is a diagram showing an example of the editing screen. 図12は、ムービークリップの作成画面の一例を示す図である。FIG. 12 is a diagram showing an example of a movie clip creation screen. 図13は、情報処理システムにおける顔画像検索に係る情報処理の一例を示すフローチャートである。FIG. 13 is a flowchart showing an example of information processing related to a face image search in the information processing system. 図14は、人物検索画面の一例を示す図である。FIG. 14 is a diagram showing an example of the person search screen. 図15は、一覧表示画面の一例を示す図である。FIG. 15 is a diagram showing an example of the list display screen. 図16は、映像詳細画面の一例を示す図である。FIG. 16 is a diagram showing an example of the video details screen. 図17は、通知設定画面の一例を示す図である。FIG. 17 is a diagram showing an example of the notification setting screen. 図18は、通知設定画面の一例を示す図である。FIG. 18 is a diagram showing an example of the notification setting screen.

以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせることができる。 The following describes embodiments of the present invention with reference to the drawings. The various features shown in the following embodiments can be combined with each other.

<実施形態1>
1.システム構成図
図1は、情報処理システム1000のシステム構成の一例を示す図である。図1に示されるように、情報処理システム1000は、システム構成として、サーバー装置100と、クライアント装置110と、クライアント装置120と、複数の監視カメラ160と、を含む。サーバー装置100と、クライアント装置110と、クライアント装置120と、監視カメラ160とは、ネットワーク150を介して通信可能に接続されている。ネットワーク150は、WAN(Wide Area Network)及びインターネットの何れか又は双方を含んでもよい。ネットワーク150はネットワーク150に接続される複数の装置同士を有線及び無線を介して通信可能に構成されている。
<Embodiment 1>
1. System Configuration Diagram FIG. 1 is a diagram showing an example of a system configuration of an information processing system 1000. As shown in FIG. 1, the information processing system 1000 includes a server device 100, a client device 110, a client device 120, and a plurality of surveillance cameras 160 as a system configuration. The server device 100, the client device 110, the client device 120, and the surveillance cameras 160 are communicatively connected via a network 150. The network 150 may include either or both of a WAN (Wide Area Network) and the Internet. The network 150 is configured to enable communication between a plurality of devices connected to the network 150 via wired and wireless communication.

情報処理システム1000は、映像検索のサービスを提供するシステムである。 The information processing system 1000 is a system that provides video search services.

サーバー装置100は、情報処理システム1000の主な機能を提供する装置であり、以下に示す実施形態の主な処理を実行する。サーバー装置100は、複数の監視カメラ160で撮影された映像をクライアント装置110又はクライアント装置120で出力(表示)させる装置である。 The server device 100 is a device that provides the main functions of the information processing system 1000, and executes the main processing of the embodiment described below. The server device 100 is a device that outputs (displays) images captured by multiple surveillance cameras 160 on the client device 110 or the client device 120.

監視カメラ160は、監視及び/又は記録を目的として設置されるカメラである。明細書では所定の店舗の複数個所それぞれに監視カメラ160が設置されているものとして説明を行う。複数個所としては例えば、店舗の複数の出入り口(例えば、入店口東口、入店口西口、出口専用口等)である。なお、これらは例であって監視カメラ160が設置される場所を限定するものではない。図1では簡略化のため監視カメラ160を3台しか示していないが、2台であってもよいし、4台以上であってもよい。複数の監視カメラ160が情報処理システム1000に含まれていればよい。また明細書では1つの店舗に複数のカメラが設置されているものとして説明を行うが、複数の店舗それぞれに複数のカメラが設置されていてもよい。 The surveillance cameras 160 are cameras installed for the purpose of monitoring and/or recording. In the specification, the surveillance cameras 160 are installed in multiple locations in a specific store. For example, multiple locations may be multiple entrances to the store (e.g., an east entrance, a west entrance, a dedicated exit, etc.). Note that these are examples and do not limit the locations where the surveillance cameras 160 are installed. For simplicity, only three surveillance cameras 160 are shown in FIG. 1, but there may be two, four or more. It is sufficient that multiple surveillance cameras 160 are included in the information processing system 1000. In the specification, the surveillance cameras 160 are installed in one store, but multiple stores may each have multiple cameras.

クライアント装置110は、監視カメラ160の所有者又は管理者(以下、単に所有者という)が操作する端末装置である。クライアント装置110には、後述する図17及び図18に示されるような画面が表示される。 The client device 110 is a terminal device operated by the owner or manager (hereinafter simply referred to as the owner) of the surveillance camera 160. The client device 110 displays screens such as those shown in Figs. 17 and 18, which will be described later.

クライアント装置120は、監視カメラ160が設置される店舗の管理者等が操作する端末装置である。クライアント装置120には、後述する図6~図12、図14~図16に示されるような画面が表示される。 The client device 120 is a terminal device operated by a manager or the like of the store in which the surveillance camera 160 is installed. The client device 120 displays screens such as those shown in Figures 6 to 12 and Figures 14 to 16, which will be described later.

ここで、特許請求の範囲に記載の情報処理システムは、複数の装置で構成されてもよいし、一つの装置で構成されてもよい。特許請求の範囲に記載の情報処理システムが一つの装置で構成される場合、その装置の一例はサーバー装置100である。特許請求の範囲に記載の情報処理システムが複数の装置で構成される場合、複数の装置の例は、サーバー装置100及び複数の監視カメラ160のうち少なくとも1つ以上の監視カメラ160及びクライアント装置110又はクライアント装置120、又はサーバー装置100の機能を提供する複数のサーバー装置で構成されたクラウドサーバー等である。 Here, the information processing system described in the claims may be composed of multiple devices, or may be composed of one device. When the information processing system described in the claims is composed of one device, an example of that device is the server device 100. When the information processing system described in the claims is composed of multiple devices, an example of the multiple devices is the server device 100 and at least one of the multiple surveillance cameras 160 and the client device 110 or 120, or a cloud server composed of multiple server devices that provide the functions of the server device 100.

2.ハードウェア構成
(1)サーバー装置100のハードウェア構成
図2は、サーバー装置100のハードウェア構成の一例を示す図である。
図2に示されるように、サーバー装置100は、ハードウェア構成として、制御部210と、記憶部220と、通信部230と、内部バス240と、を含む。制御部210と、記憶部220と、通信部230と、は内部バス240を介して電気的に接続されている。
2. Hardware Configuration (1) Hardware Configuration of Server Apparatus 100 FIG. 2 is a diagram showing an example of the hardware configuration of the server apparatus 100. As shown in FIG.
2, the server device 100 includes, as its hardware configuration, a control unit 210, a storage unit 220, a communication unit 230, and an internal bus 240. The control unit 210, the storage unit 220, and the communication unit 230 are electrically connected via the internal bus 240.

制御部210は、CPU(Central Processing Unit)等であって、サーバー装置100の全体を制御する。 The control unit 210 is a CPU (Central Processing Unit) or the like, and controls the entire server device 100.

記憶部220は、HDD(Hard Disk Drive)、ROM(Read Only Memory)、RAM(Random Access Memory)、SSD(Solid Sate Drive)等の何れか、又はこれらの任意の組み合わせであって、プログラム、制御部210がプログラムに基づき処理を実行する際に利用するデータ等を記憶する。記憶部220は、記憶媒体の一例である。制御部210がプログラムに基づき処理を実行する際に利用するデータとしては、例えば、監視カメラ160から送られてきた映像データ、検知対象の顔画像等、検知対象に関するデータ、後述する図17及び図18等で設定される送信先に関するデータ等がある。 The storage unit 220 is any one of a hard disk drive (HDD), a read only memory (ROM), a random access memory (RAM), a solid state drive (SSD), etc., or any combination of these, and stores programs, data used by the control unit 210 when executing processing based on the programs, etc. The storage unit 220 is an example of a storage medium. Examples of data used by the control unit 210 when executing processing based on the programs include video data sent from the surveillance camera 160, facial images of the detection target, data related to the detection target, data related to the transmission destination set in Figures 17 and 18, etc., described below, etc.

明細書では制御部210がプログラムに基づき処理を実行する際に利用するデータは記憶部220に記憶されるものとして説明するが、サーバー装置100と通信可能な他の装置の記憶部等に記憶されていてもよい。データは、制御部210が参照又は取得可能であればどの装置の記憶部に記憶されていてもよい。制御部210が、記憶部220に記憶されているプログラムに基づき、処理を実行することによって、サーバー装置100の機能及び後述する図5及び図13に示されるフローチャートの処理等が実現される。なお、この処理は主にサーバー装置100が実行するものとして説明するが、その代わりにクライアント装置110又はクライアント装置120、複数の監視カメラ160の何れかが実行することとしてもよい。 In the specification, the data used by the control unit 210 when executing processing based on the program is described as being stored in the storage unit 220, but it may also be stored in a storage unit of another device that can communicate with the server device 100. The data may be stored in the storage unit of any device as long as the control unit 210 can refer to or obtain the data. The control unit 210 executes processing based on the program stored in the storage unit 220, thereby realizing the functions of the server device 100 and the processing of the flowcharts shown in Figures 5 and 13 described below. Note that, although this processing is described as being mainly executed by the server device 100, it may instead be executed by either the client device 110 or client device 120, or one of the multiple surveillance cameras 160.

通信部230は、サーバー装置100をネットワーク150に接続し、他の装置との通信を司る。 The communication unit 230 connects the server device 100 to the network 150 and manages communication with other devices.

なお、制御部210、記憶部220、通信部230の各ハードウェア構成は1つに限られない。例えば、複数の制御部がサーバー装置100に含まれてもよい。以下に示すクライアント装置110及びクライアント装置120も同様である。 Note that the hardware configuration of each of the control unit 210, the storage unit 220, and the communication unit 230 is not limited to one. For example, multiple control units may be included in the server device 100. The same applies to the client device 110 and the client device 120 described below.

(2)クライアント装置110/120のハードウェア構成
図3は、クライアント装置110/120のハードウェア構成の一例を示す図である。
図3に示されるように、クライアント装置110は、ハードウェア構成として、制御部310と、記憶部320と、入力部330と、出力部340と、通信部350と、内部バス360と、を含む。制御部310と、記憶部320と、入力部330と、出力部340と、通信部350と、は内部バス360を介して電気的に接続されている。
(2) Hardware Configuration of the Client Device 110/120 FIG. 3 is a diagram showing an example of the hardware configuration of the client device 110/120.
3, the client device 110 includes, as its hardware configuration, a control unit 310, a storage unit 320, an input unit 330, an output unit 340, a communication unit 350, and an internal bus 360. The control unit 310, the storage unit 320, the input unit 330, the output unit 340, and the communication unit 350 are electrically connected via the internal bus 360.

制御部310は、CPU等であって、クライアント装置110の全体を制御する。 The control unit 310 is a CPU or the like, and controls the entire client device 110.

記憶部320は、HDD、ROM、RAM、SSD等の何れか、又はこれらの任意の組み合わせであって、プログラム、制御部310がプログラムに基づき処理を実行する際に利用するデータ等を記憶する。記憶部320は、記憶媒体の一例である。 The storage unit 320 is an HDD, ROM, RAM, SSD, etc., or any combination of these, and stores programs, data used by the control unit 310 when executing processing based on the programs, etc. The storage unit 320 is an example of a storage medium.

明細書では制御部310がプログラムに基づき処理を実行する際に利用するデータは記憶部320に記憶されるものとして説明するが、クライアント装置110と通信可能な他の装置の記憶部等に記憶されていてもよい。データは、制御部310が参照又は取得可能であればどの装置の記憶部に記憶されていてもよい。制御部310が、記憶部320に記憶されているプログラムに基づき、処理を実行することによって、クライアント装置110の機能等が実現される。 In the specification, the data used by the control unit 310 when executing processing based on a program is described as being stored in the memory unit 320, but the data may also be stored in a memory unit of another device that can communicate with the client device 110. The data may be stored in the memory unit of any device as long as the control unit 310 can refer to or obtain the data. The functions of the client device 110 are realized by the control unit 310 executing processing based on the program stored in the memory unit 320.

入力部330は、操作者の操作に応じて情報をクライアント装置110に入力する装置である。入力部330は、ユーザーによってなされた操作入力を受け付ける。操作入力は、命令信号として内部バス360を介して制御部310に転送される。制御部310は、必要に応じて、転送された命令信号に基づいて所定の制御及び/又は演算を実行し得る。入力部330は、クライアント装置110の筐体に含まれるものであってもよいし、外付けされるものであってもよい。例えば、入力部330は、出力部340と一体となってタッチパネルとして実施されてもよい。入力部330がタッチパネルとして実施される場合、ユーザーは、入力部330に対してタップ操作、スワイプ操作等を入力することができる。入力部330としては、タッチパネルに代えて、スイッチボタン、マウス、トラックパッド、キーボード等が採用することができる。 The input unit 330 is a device that inputs information to the client device 110 in response to an operation by an operator. The input unit 330 accepts an operation input made by a user. The operation input is transferred as a command signal to the control unit 310 via the internal bus 360. The control unit 310 may execute a predetermined control and/or calculation based on the transferred command signal as necessary. The input unit 330 may be included in the housing of the client device 110 or may be externally attached. For example, the input unit 330 may be implemented as a touch panel integrated with the output unit 340. When the input unit 330 is implemented as a touch panel, the user can input a tap operation, a swipe operation, or the like to the input unit 330. Instead of a touch panel, a switch button, a mouse, a track pad, a keyboard, or the like can be adopted as the input unit 330.

出力部340は、例えば、ディスプレイに代表される表示部であって、ユーザーが操作可能なグラフィカルユーザインターフェース(Graphical User Interface:GUI)の画面として情報を出力(表示)する装置である。出力部340は、クライアント装置110の筐体に含まれるものであってもよいし、外付けされるものであってもよい。より具体的には、出力部340は、液晶ディスプレイ、有機EL(Electron-Luminescence)ディスプレイ、又はプラズマディスプレイ等の表示デバイスとして実施され得る。これらの表示デバイスは、クライアント装置110の種類に応じて使い分けて実施されることが好ましい。 The output unit 340 is, for example, a display unit such as a display, and is a device that outputs (displays) information as a screen of a graphical user interface (GUI) that can be operated by a user. The output unit 340 may be included in the housing of the client device 110, or may be attached externally. More specifically, the output unit 340 may be implemented as a display device such as a liquid crystal display, an organic EL (Electron-Luminescence) display, or a plasma display. It is preferable that these display devices are implemented by using different devices depending on the type of client device 110.

通信部350は、クライアント装置110をネットワーク150に接続し、他の装置との通信を司る。 The communication unit 350 connects the client device 110 to the network 150 and manages communication with other devices.

クライアント装置120のハードウェア構成もクライアント装置110のハードウェア構成と同様である。 The hardware configuration of client device 120 is similar to that of client device 110.

なお、明細書ではクライアント装置110及びクライアント装置120の例としてPC(Personal Computer)を用いて説明する。しかし、クライアント装置110及びクライアント装置120は、スマートフォン、タブレット型コンピュータ等であってもよい。クライアント装置は、後述するような画面を表示し、画面等を介したユーザー操作を受け付け、サーバー装置100に情報を送信することができればどのような装置であってもよい。 In the specification, the client device 110 and the client device 120 are described using a PC (Personal Computer) as an example. However, the client device 110 and the client device 120 may be a smartphone, a tablet computer, or the like. The client device may be any device that can display a screen as described below, accept user operations via the screen, or the like, and transmit information to the server device 100.

(3)監視カメラ160のハードウェア構成
図4は、監視カメラ160のハードウェア構成の一例を示す図である。
図4に示されるように、監視カメラ160は、ハードウェア構成として、制御部410と、記憶部420と、撮影部430と、通信部440と、内部バス450と、を含む。制御部410と、記憶部420と、撮影部430と、通信部440と、は内部バス450を介して電気的に接続されている。
(3) Hardware Configuration of Surveillance Camera 160 FIG. 4 is a diagram showing an example of the hardware configuration of the surveillance camera 160. As shown in FIG.
4, surveillance camera 160 includes, as its hardware configuration, a control unit 410, a storage unit 420, an image capturing unit 430, a communication unit 440, and an internal bus 450. Control unit 410, storage unit 420, image capturing unit 430, and communication unit 440 are electrically connected via internal bus 450.

制御部410は、CPU等であって、監視カメラ160の全体を制御する。 The control unit 410 is a CPU or the like, and controls the entire surveillance camera 160.

記憶部420は、HDD、ROM、RAM、SSD等の何れか、又はこれらの任意の組み合わせであって、プログラム、制御部410がプログラムに基づき処理を実行する際に利用するデータ等を記憶する。記憶部420は、記憶媒体の一例である。 The storage unit 420 is an HDD, ROM, RAM, SSD, or any combination of these, and stores programs, data used by the control unit 410 when executing processing based on the programs, and the like. The storage unit 420 is an example of a storage medium.

明細書では制御部410がプログラムに基づき処理を実行する際に利用するデータは記憶部420に記憶されるものとして説明するが、監視カメラ160と通信可能な他の装置の記憶部等に記憶されていてもよい。データは、制御部310が参照又は取得可能であればどの装置の記憶部に記憶されていてもよい。制御部410が、記憶部420に記憶されているプログラムに基づき、処理を実行することによって、監視カメラ160の機能等が実現される。 In the specification, the data used by the control unit 410 when executing processing based on a program is described as being stored in the memory unit 420, but the data may also be stored in a memory unit of another device that can communicate with the surveillance camera 160. The data may be stored in the memory unit of any device as long as the control unit 310 can refer to or obtain the data. The functions of the surveillance camera 160 are realized by the control unit 410 executing processing based on the program stored in the memory unit 420.

撮影部430は、被写体を撮影するカメラである。カメラには例えばイメージセンサー、レンズ及びIRカットフィルター等が含まれる。 The photographing unit 430 is a camera that photographs a subject. The camera includes, for example, an image sensor, a lens, and an IR cut filter.

通信部440は、監視カメラ160をネットワーク150に接続し、他の装置との通信を司る。 The communication unit 440 connects the surveillance camera 160 to the network 150 and handles communication with other devices.

3.情報処理
以下、実施形態1の情報処理を説明する。
3. Information Processing The information processing of the first embodiment will now be described.

(1)処理の概要
(1-1)顔画像登録
制御部210は、情報処理システム1000に含まれる監視カメラ160で撮影されている映像から顔画像が含まれる映像を検索し、顔画像が含まれる複数の映像を検索結果として出力(表示)する。制御部210は、検索結果に含まれる複数の映像からユーザーの選択操作に応じて映像を選択し、選択された映像と共に映像に含まれる人物の顔画像を出力(表示)する。制御部210は、ユーザーの指示に応じて顔画像を登録する。
(1) Overview of Processing (1-1) Facial Image Registration The control unit 210 searches for images containing facial images from images captured by the surveillance camera 160 included in the information processing system 1000, and outputs (displays) multiple images containing facial images as search results. The control unit 210 selects an image from multiple images included in the search results in response to a user's selection operation, and outputs (displays) the facial image of a person included in the image together with the selected image. The control unit 210 registers the facial image in response to a user's instruction.

このような処理を実行することによって、簡単に映像から人物を探し出し、気になる人物の顔画像を情報処理システム1000に登録することができる。 By performing this type of processing, you can easily find people from the video and register facial images of people of interest in the information processing system 1000.

(1-2)顔画像検索
制御部210は、登録された複数の顔画像を出力(表示)する。制御部210は、ユーザーの選択操作に応じて複数の顔画像から顔画像を選択し、選択された顔画像を含む映像を検索し、選択された顔画像が含まれる複数の映像を検索結果として出力(表示)する。制御部210は、検索結果に含まれる複数の映像からユーザーの選択操作に応じて映像を選択し、選択された映像を出力(表示)する。
(1-2) Facial Image Search The control unit 210 outputs (displays) the multiple registered facial images. The control unit 210 selects a facial image from the multiple facial images in response to a user's selection operation, searches for a video including the selected facial image, and outputs (displays) the multiple videos including the selected facial image as a search result. The control unit 210 selects a video from the multiple videos included in the search result in response to the user's selection operation, and outputs (displays) the selected video.

このような処理を実行することによって、登録された顔画像から選択した顔画像の人物の映像を検出し、出力することができる。 By performing this type of processing, it is possible to detect and output an image of the person whose face image is selected from the registered face images.

(2)処理の詳細
(2-0)前処理
まず、事前の設定として、顔の正面角度と判定する角度、正面角度と十分差があると判定する角度差、信頼のおける画像pixel数、ベストショット取得指定時間、等を設定しておく。これらの設定は、例えばクライアント装置120を介したユーザーの指示に応じて設定され、各監視カメラ160(又はサーバー装置100)に記憶される。
(2) Processing Details (2-0) Pre-processing First, as pre-settings, the angle to be determined as the front angle of the face, the angle difference to be determined as being sufficiently different from the front angle, the number of reliable image pixels, the designated time for obtaining the best shot, etc. These settings are set, for example, according to the user's instructions via the client device 120, and are stored in each surveillance camera 160 (or the server device 100).

そして、本システムでは基本的に各監視カメラ160が映像を撮影してサーバー装置100に送信して記憶する処理を常時実行するが、その際にベストショットの抽出処理を併せて行うものとする。ここで、ベストショットとは、同一人物を異なる所定の角度から撮影した顔画像(又は全身画像)として最適なものであり、後述する図8及び/又は図10の顔画像(740、750、760、770、910、920、930、940)に対応する。なお、この処理は主に各監視カメラ160側で実行するが、サーバー装置100側で実行してもよい。カメラ側で処理を実行するメリットは、その分、サーバー側の処理負荷及び利用料金が軽減されることにあるが、その反面カメラ側で該当する処理を行うためのスペックが要求されることになる。 In this system, each security camera 160 basically always captures video and transmits it to the server device 100 for storage, but at the same time, a best shot extraction process is also performed. Here, the best shot is the optimal face image (or whole body image) of the same person captured from different specified angles, and corresponds to the face images (740, 750, 760, 770, 910, 920, 930, 940) in FIG. 8 and/or FIG. 10 described below. This process is mainly performed on the security camera 160 side, but may also be performed on the server device 100 side. The advantage of performing the process on the camera side is that the processing load and usage fee on the server side are reduced accordingly, but on the other hand, the camera side is required to have specifications to perform the corresponding process.

ベストショットの抽出処理の詳細は、次の通りである。まず、監視カメラ160は、カメラの映像から、人の全身像をトラッキングする。次に、全身像のデータから顔を検出し、追跡する。そして、追跡した顔から角度を検出し、顔の正面角度範囲内に収まっている画像を、ベストショットの1stとし、顔の角度を記録する。ベストショットの1stは、例えば顔の正面画像を検出するAIモデルを用いて、そのスコアが最も高くなったものを採用してもよい。さらに、追跡した顔から角度を検出し続け、ベストショット1stの顔の角度に対して正面角度との角度差以上の顔があったら、ベストショット2ndとして保存する。ベストショットの2ndは、例えばカメラに対する顔の左向き(又は右向き)画像を検出するAIモデルを用いて、そのスコアが最も高くなったものを採用してもよい。さらに、ベストショット1st,2nd両方と角度差がある画像をベストショット3rdとして保存する。ベストショットの3rdは、例えばカメラに対する顔の右向き(又は左向き)画像を検出するAIモデルを用いて、そのスコアが最も高くなったものを採用してもよい。さらに、ベストショット1st,2nd,3rdのうち少なくとも何れか1つ以上に対応する人物について、その人物の全身画像(又はバストアップ画像等)をベストショット4thとして保存してもよい。バストアップ画像とは、人物の上半身が写った画像のことである。ベストショットの4thは、例えば全身画像(又はバストアップ画像等)を検出するAIモデルを用いて、そのスコアが最も高くなったものを採用してもよい。なお、追跡した顔を検出し続け、正面角度範囲内に収まっている画像で、信頼のおける画像pixel数を上回る画像があった場合、ベストショット1stを入れ替えてもよい。同様に、2nd,3rd,4thも入れ替えてもよい。また、ベストショット取得の指定時間を超えた場合、ベストショット抽出を停止してもよい。また、ベストショット1st,2nd,3rd,4thは夫々の観点で最もスコアが高かったものを採用するとしたが、これに加え夫々において次点以降のスコアのものも含めた複数採用することとしてもよい。そして、トラッキングが終了した時点で、ベストショット1st,2nd,3rd,4thを、夫々の画像を撮影したカメラ及び日時を示すメタデータとともに、サーバー装置100に送信する。監視カメラ160は、ベストショット1st,2nd,3rd,4thと、夫々の画像を撮影したカメラ及び日時を示すメタデータとを受信したうえで、それら画像同士/各画像とメタデータとを対応付けて記憶する。なお、この段階で、ベストショット1st,2nd,3rdに基づいて顔画像の平均処理を行い、顔の特徴量を計算したうえで、画像及びメタデータと対応付けて記憶しておいてもよい。以下、これら対応付けられた情報のセット(ベストショット1st,2nd,3rd,4th/夫々の画像を撮影したカメラ及び日時を示すメタデータ/顔の特徴量)を、ベストショット情報と呼ぶ。ベストショット情報は、人物ごと/シーンごとに、互いに異なる複数のベストショット情報として記憶される。 The details of the best shot extraction process are as follows. First, the surveillance camera 160 tracks the whole body image of a person from the camera image. Next, a face is detected from the data of the whole body image and tracked. Then, an angle is detected from the tracked face, and an image that falls within the range of the front angle of the face is set as the 1st best shot, and the angle of the face is recorded. The 1st best shot may be the one with the highest score, for example, using an AI model that detects a front image of a face. Furthermore, the angle is continuously detected from the tracked face, and if there is a face whose angle difference with the angle of the face of the 1st best shot is equal to or greater than the front angle, it is saved as the 2nd best shot. The 2nd best shot may be the one with the highest score, for example, using an AI model that detects an image of a face facing left (or right) relative to the camera. Furthermore, an image that has an angle difference with both the 1st and 2nd best shots is saved as the 3rd best shot. The 3rd best shot may be the one with the highest score, for example, using an AI model that detects an image of a face facing right (or left) relative to the camera. Furthermore, for a person corresponding to at least one of the 1st, 2nd, and 3rd best shots, a full-body image (or a bust-up image, etc.) of that person may be saved as the 4th best shot. A bust-up image is an image in which the upper half of a person's body is shown. The 4th best shot may be, for example, the one with the highest score using an AI model that detects a full-body image (or a bust-up image, etc.). If the tracked face is continuously detected and an image that is within the front angle range and has a number of images that exceeds the reliable image pixel count is found, the 1st best shot may be replaced. Similarly, the 2nd, 3rd, and 4th best shots may also be replaced. In addition, if the designated time for obtaining the best shot is exceeded, the extraction of the best shot may be stopped. In addition, although the 1st, 2nd, 3rd, and 4th best shots are selected from the highest scores from each perspective, multiple images including those with the next highest scores from each perspective may be selected. Then, when tracking is completed, the first, second, third, and fourth best shots are sent to the server device 100 together with metadata indicating the camera and date and time when each image was taken. After receiving the first, second, third, and fourth best shots and the metadata indicating the camera and date and time when each image was taken, the surveillance camera 160 stores the images in association with each other/with each image and the metadata. At this stage, the face images may be averaged based on the first, second, and third best shots, and the facial features may be calculated and stored in association with the images and metadata. Hereinafter, this set of associated information (first, second, third, and fourth best shots/metadata indicating the camera and date and time when each image was taken/facial features) is referred to as best shot information. The best shot information is stored as multiple best shot information that are different from each other for each person/scene.

(2-1)顔画像登録
図5は、情報処理システム1000における顔画像の登録に係る情報処理の一例を示すフローチャートである。なお、この処理は主にサーバー装置100が実行するものとして説明するが、その代わりにクライアント装置110又はクライアント装置120、複数の監視カメラ160の何れかが実行することとしてもよい。
5 is a flowchart showing an example of information processing related to registration of a face image in the information processing system 1000. Note that, although this processing will be described as being mainly executed by the server device 100, it may instead be executed by any of the client device 110 or 120, or the multiple surveillance cameras 160.

ステップS510において、制御部210は、情報処理システム1000に含まれる監視カメラ160で撮影された映像から顔画像が含まれる映像を検索する。具体的には、まず、前述した前処理にて記憶された複数のベストショット情報を読み出す。そして、夫々のベストショット情報について、ベストショット1st(又は4th)を撮影したカメラ及び日時を示すメタデータに基づいて、映像を特定する。 In step S510, the control unit 210 searches for footage containing a facial image from footage captured by the surveillance camera 160 included in the information processing system 1000. Specifically, first, the control unit 210 reads out a number of pieces of best shot information stored in the pre-processing described above. Then, for each piece of best shot information, the image is identified based on metadata indicating the camera and date and time that captured the first (or fourth) best shot.

なお、ステップS510は次のように実現してもよい。情報処理システム1000に含まれる複数の監視カメラ160で撮影された映像は、ネットワーク150を介してサーバー装置100に送信され、記憶部220等の所定の記憶領域に記憶される。映像は、どの監視カメラ160で撮影された映像か識別可能な態様で記憶部220等の所定の記憶領域に記憶される。どの監視カメラ160で撮影された映像か識別可能な態様としては、監視カメラごとに異なるフォルダ(ディレクトリ)が記憶部220等に作成され、フォルダ内に映像が記憶されてもよいし、映像のファイル名に監視カメラを識別する識別情報が記述されてもよいし、映像のファイルのメタデータ内に監視カメラを識別する識別情報が記述されてもよい。また、映像は、いつ撮影された映像か識別可能な態様で記憶部220等の所定の記憶領域に記憶される。いつ撮影された映像か識別可能な態様としては、日付ごとに異なるフォルダ(ディレクトリ)が記憶部220等に作成され、フォルダ内に映像が記憶されてもよいし、映像のファイル名に映像が撮影された日時情報が記述されてもよいし、映像のファイルのメタデータ内に映像が撮影された日時情報が記述されてもよい。制御部210は、記憶部220等の所定の記憶領域に記憶された映像から顔画像が含まれる映像を検索し、検索結果を取得する。 Note that step S510 may be realized as follows. Videos captured by the multiple surveillance cameras 160 included in the information processing system 1000 are transmitted to the server device 100 via the network 150 and stored in a predetermined storage area such as the storage unit 220. The video is stored in a predetermined storage area such as the storage unit 220 in a manner that allows identification of which surveillance camera 160 the video was captured by. As a manner that allows identification of which surveillance camera 160 the video was captured by, a different folder (directory) may be created in the storage unit 220 for each surveillance camera and the video may be stored in the folder, identification information that identifies the surveillance camera may be written in the file name of the video, or identification information that identifies the surveillance camera may be written in the metadata of the video file. In addition, the video is stored in a predetermined storage area such as the storage unit 220 in a manner that allows identification of when the video was captured. As a mode for identifying when the video was shot, a different folder (directory) may be created in the storage unit 220 or the like for each date, and the video may be stored in the folder, or the date and time information when the video was shot may be described in the file name of the video, or the date and time information when the video was shot may be described in the metadata of the video file. The control unit 210 searches for videos that contain facial images from the videos stored in a specified storage area such as the storage unit 220, and obtains the search results.

例えば、制御部210は、映像を学習済みモデルに入力する。この学習済みモデルは、映像を入力データ、映像に顔画像が含まれるか否か、及び、映像に顔画像が含まれる場合は顔画像の人物が出現してから消失するまでの時間情報を出力データとして学習された学習済みモデルである。さらに、学習済みモデルは、同じ映像に複数の顔画像が含まれる場合には複数の顔画像それぞれの人物が出現してから消失するまでの時間情報を出力データとして学習された学習済みモデルである。
制御部210は、学習済みモデルから映像に顔画像が含まれるか否かの情報、及び、映像に顔画像が含まれる場合は顔画像の人物が出現してから顔画像の人物が消失するまでの時間情報を検索結果として取得する。
For example, the control unit 210 inputs a video to the trained model. This trained model is trained using the video as input data, whether or not the video contains a face image, and, if the video contains a face image, time information from when a person in the face image appears to when it disappears as output data. Furthermore, if the same video contains multiple face images, the trained model is trained using time information from when a person in each of the multiple face images appears to when it disappears as output data.
The control unit 210 obtains, from the learned model, information as to whether or not the video contains a facial image, and, if the video contains a facial image, time information from when a person in the facial image appears to when the person in the facial image disappears as a search result.

ステップS520において、制御部210は、検索結果に基づき、顔画像が含まれる映像の顔画像が出現したタイミングの縮小画像(以下、単にサムネイルともいう)を含む一覧表示画面を生成する。制御部210は、生成した一覧表示画面をクライアント装置120に送信し、クライアント装置120の出力部に表示されるよう制御する。 In step S520, the control unit 210 generates a list display screen including a reduced image (hereinafter also simply referred to as a thumbnail) of the timing at which the facial image appears in the video including the facial image, based on the search result. The control unit 210 transmits the generated list display screen to the client device 120, and controls the output unit of the client device 120 to display it.

図6は、一覧表示画面600の一例を示す図である。図6に示される一覧表示画面600には、人物映像タグ610と、人物映像領域670と、が含まれる。人物映像タグ610は、画面のサイドメニューに含まれる。なお、サイドメニューが含まれる画面においては、サイドメニューを含めた全体を画面と言ってもよいし、サイドメニューは含めない部分を画面と言ってもよい。以下の画面においても同様である。人物映像タグ610が選択されると、上述したステップS510及びステップS520の処理が実行され、人物映像領域670に検索結果のサムネイルが表示される。図6の例では一覧表示画面600において人物映像タグ610が選択された状態であることが示されている。 Figure 6 is a diagram showing an example of a list display screen 600. The list display screen 600 shown in Figure 6 includes a person video tag 610 and a person video area 670. The person video tag 610 is included in a side menu of the screen. In addition, in a screen that includes a side menu, the entire screen including the side menu may be referred to as the screen, or the portion not including the side menu may be referred to as the screen. The same applies to the following screens. When the person video tag 610 is selected, the processes of steps S510 and S520 described above are executed, and thumbnails of the search results are displayed in the person video area 670. The example of Figure 6 shows that the person video tag 610 is selected on the list display screen 600.

人物映像領域670のデバイスセクション620には入店口東口の監視カメラ160で撮影された映像から検知された人物のサムネイルの一覧が表示されている。サムネイルのそれぞれには人物のトラッキング開始時間(不図示)が表示されてもよい。監視カメラ160で撮影された映像から検知された人物のサムネイルの一覧として図6では3つが表示されているがこれに限定されるものではない。画面の大きさに応じて画面に表示するサムネイルの数は変化させてもよい。また「もっと見るボタン」が選択されると、制御部210は、監視カメラ160で撮影された映像から検知された人物のサムネイルをさらに表示させるよう制御する。 The device section 620 of the person video area 670 displays a list of thumbnails of people detected from the video captured by the surveillance camera 160 at the east entrance. Each thumbnail may display the person's tracking start time (not shown). Although three thumbnails are displayed in FIG. 6 as a list of thumbnails of people detected from the video captured by the surveillance camera 160, this is not limited to this. The number of thumbnails displayed on the screen may be changed depending on the size of the screen. Furthermore, when the "View more button" is selected, the control unit 210 controls the display to display further thumbnails of people detected from the video captured by the surveillance camera 160.

人物映像領域670のデバイスセクション630には入店口西口の監視カメラ160で撮影された映像から検知された人物のサムネイルの一覧が表示されている。
人物映像領域670のデバイスセクション640には出口専用口の監視カメラ160で撮影された映像から検知された人物のサムネイルの一覧が表示されている。
なお、画面に含まれるデバイスセクションの並びは、サムネイルがあるデバイス(監視カメラ160)、かつ、サムネイルに表示されるトラッキング開始時間が新しい順に一覧表示画面600の先頭(画面の一番上)から順に表示される。後述する図15の一覧表示画面1300においても同様である。
The device section 630 of the person image area 670 displays a list of thumbnails of people detected in the image captured by the security camera 160 at the west entrance of the store.
The device section 640 of the person image area 670 displays a list of thumbnails of people detected in the image captured by the surveillance camera 160 at the dedicated exit entrance.
The device sections included in the screen are arranged in order from the top (the top of the screen) of the list display screen 600 in order of devices with thumbnails (surveillance cameras 160) and the tracking start times displayed in the thumbnails. The same applies to the list display screen 1300 in Fig. 15 described later.

一覧表示画面600においては、検索結果として出力される複数の映像は、複数の映像それぞれを撮影した撮影デバイスごとに縮小表示画像の態様で出力(表示)されている。
ステップS520の処理は、顔画像が含まれる複数の映像それぞれの縮小画像を検索結果として出力(表示)する処理の一例である。
On the list display screen 600, a plurality of videos output as search results are output (displayed) in the form of reduced images for each imaging device that captured the plurality of videos.
The process of step S520 is an example of a process of outputting (displaying) reduced images of each of a plurality of videos including a face image as a search result.

一覧表示画面600には、キーワード入力領域650と、期間入力領域660と、が含まれる。キーワード入力領域650は、キーワードを入力可能な領域である。キーワード入力領域650においてキーワードが入力されると、制御部210は、キーワードに基づき、監視カメラ160のデバイス名、監視カメラ160を識別可能な監視カメラ160のシリアル番号、及び監視カメラ160に設定されているデバイスタグ等を検索する。そして、制御部210は、該当する監視カメラ160の映像から顔画像を検索し、検索結果を人物映像領域670に表示させる。この処理は、画面を介して入力された検索条件に基づき顔画像が含まれる映像を検索する処理の一例である。 The list display screen 600 includes a keyword input area 650 and a period input area 660. The keyword input area 650 is an area where a keyword can be input. When a keyword is input in the keyword input area 650, the control unit 210 searches for the device name of the surveillance camera 160, the serial number of the surveillance camera 160 that can identify the surveillance camera 160, the device tag set in the surveillance camera 160, and the like, based on the keyword. The control unit 210 then searches for facial images from the video of the corresponding surveillance camera 160, and displays the search results in the person video area 670. This process is an example of a process of searching for video containing facial images based on search conditions input via the screen.

期間入力領域660は、期間を入力可能な領域である。制御部210は、期間入力領域660が選択されると、一覧表示画面600にカレンダー画面を重畳表示させる。
図7は、カレンダー画面1510を重畳表示させた一例を示す図である。
カレンダー画面1510は、日付及び曜日を表形式で表示する画面であり、検索対象の映像の開始時間と終了時間とを選択可能に構成されている。カレンダー画面1510において期間(開始時間と終了時間と)が入力されると、制御部210は、入力された期間において撮影された映像を検索対象として検索を行い、検索結果を人物映像領域670に表示させる。この処理は、画面を介して入力された検索条件に基づき顔画像が含まれる映像を検索する処理の一例である。図7の例では、期間として2024年3月29日から2024年4月16日までが選択されている。なお、期間入力領域660は期間として2024年3月29日以降等と指定可能に構成されていてもよい。すなわち、期間としてある時点以降と指定可能に構成されていてもよい。同様に期間入力領域660は期間として2024年4月16日以前等と指定可能に構成されてもよい。すなわち、期間としてある時点までと指定可能に構成されていてもよい。
The period input area 660 is an area in which a period can be input. When the period input area 660 is selected, the control unit 210 causes the list display screen 600 to be displayed with a calendar screen superimposed thereon.
FIG. 7 is a diagram showing an example of a calendar screen 1510 being displayed in an overlapping manner.
The calendar screen 1510 is a screen that displays dates and days of the week in a table format, and is configured to allow the start time and end time of the video to be searched to be selected. When a period (start time and end time) is input on the calendar screen 1510, the control unit 210 searches for the video shot during the input period as the search target, and displays the search results in the person video area 670. This process is an example of a process for searching for a video containing a face image based on the search conditions input via the screen. In the example of FIG. 7, the period is selected from March 29, 2024 to April 16, 2024. Note that the period input area 660 may be configured to allow the period to be specified as after March 29, 2024, etc. That is, the period may be configured to allow the period to be specified as after a certain point in time. Similarly, the period input area 660 may be configured to allow the period to be specified as before April 16, 2024, etc. That is, the period may be configured to allow the period to be specified as up to a certain point in time.

上述したように、一覧表示画面600は、期間と、キーワードと、のうち少なくとも1つ以上の情報を検索条件として入力可能に構成されている。なお、一覧表示画面600を映像が撮影された撮影デバイスを検索条件として入力可能に構成するようにしてもよい。 As described above, the list display screen 600 is configured to allow at least one of the time period and keywords to be input as a search criterion. The list display screen 600 may also be configured to allow the imaging device that captured the video to be input as a search criterion.

図6の人物映像領域670においてサムネイルの一つが選択されると、選択されたサムネイルを識別する識別情報を含むサムネイル選択情報がクライアント装置120からサーバー装置100に送信される。 When one of the thumbnails is selected in the person image area 670 in FIG. 6, thumbnail selection information including identification information that identifies the selected thumbnail is transmitted from the client device 120 to the server device 100.

図5のステップS530において、制御部210は、サムネイル選択情報を受信したか否かを判定する。制御部210は、サムネイル選択情報を受信した場合には、ステップS540に処理を進め、サムネイル選択情報を受信していない場合には、ステップS520に処理を戻す。 In step S530 of FIG. 5, the control unit 210 determines whether or not thumbnail selection information has been received. If thumbnail selection information has been received, the control unit 210 proceeds to step S540, and if thumbnail selection information has not been received, the control unit 210 returns to step S520.

ステップS540において、制御部210は、サムネイル選択情報で識別されるサムネイルの映像を選択する。
ステップS550において、制御部210は、選択した映像のタイムラインと共に映像に含まれる人物の顔画像を含む映像詳細画面を生成する。より具体的には、制御部210は、S540で選択された映像について、ベストショット情報に基づいて対応するベストショット1st,2nd,3rd,4thを特定し、映像のタイムラインとともに表示するための映像詳細画面を生成する。制御部210は、生成した映像詳細画面をクライアント装置120に送信し、クライアント装置120の出力部に表示されるよう制御する。
In step S540, control unit 210 selects the image of the thumbnail identified by the thumbnail selection information.
In step S550, the control unit 210 generates a video detail screen including a timeline of the selected video and facial images of people included in the video. More specifically, the control unit 210 identifies the corresponding best shots 1st, 2nd, 3rd, and 4th for the video selected in S540 based on the best shot information, and generates a video detail screen for displaying the best shots together with the timeline of the video. The control unit 210 transmits the generated video detail screen to the client device 120 and controls the output unit of the client device 120 to display the video detail screen.

図8は、映像詳細画面700の一例を示す図(その1)である。映像詳細画面700には表示領域790が含まれる。表示領域790には、該当する監視カメラ160で撮影された映像が表示される。映像には人物735が含まれる。人物735はサムネイルで選択された映像に含まれる人物である。また図8では簡略化のため省略してあるが映像には背景736が含まれる。背景736は該当する監視カメラ160で撮影される街並み、室内、自然風景等が該当する。表示領域790に人物735及び背景736が含まれることにより、操作者は、人物がどのような状況で何をしているのか等を把握することができる。 Figure 8 is a diagram (part 1) showing an example of a video detail screen 700. The video detail screen 700 includes a display area 790. The video captured by the corresponding surveillance camera 160 is displayed in the display area 790. The video includes a person 735. The person 735 is a person included in the video selected by the thumbnail. The video also includes a background 736, which is omitted in Figure 8 for simplification. The background 736 corresponds to a streetscape, an interior of a room, a natural landscape, etc. captured by the corresponding surveillance camera 160. By including the person 735 and the background 736 in the display area 790, the operator can understand what the person is doing and in what situation.

映像詳細画面700にはタイムライン710が含まれる。タイムライン710は、表示領域790に表示される映像の時間を示すものである。より具体的に説明すると、タイムラインは、映像の開始時点から映像の終了時点まで時間軸を帯状に表示したものである。本実施形態のタイムラインには、目盛りとして開始時点からの経過時間を表示している。ただし、タイムラインには、目盛りとして時刻又は日時を表示してもよい。再生位置表示オブジェクト720は、表示領域790に表示されている映像の撮影日時を示すオブジェクト(GUI部品)である。再生位置表示オブジェクト720が一番左にあるときは映像の再生の開始位置であり、一番右にあるときは映像の再生の終了位置である。再生位置表示オブジェクト720は、表示領域790で再生されている映像のタイムライン710上の位置を示す。クライアント装置120の操作者(監視カメラ160が設置される店舗の管理者等)は、再生位置表示オブジェクト720を操作して、表示領域790に表示されている映像の撮影日時を指定することもできる。フラグ730は、タイムライン710に表示される、映像に人物が映っている期間を示すフラグである。フラグ730は一番左の位置の時刻に人物が現れたことを示し、一番右の位置の時刻に人物が消えたことを示している。
制御部210は、選択された映像に関するタイムラインを出力する。タイムラインは登録された顔画像の人物が映っている部分と顔画像の人物が映っていない部分とを識別可能な態様で出力される。
The video detail screen 700 includes a timeline 710. The timeline 710 indicates the time of the video displayed in the display area 790. More specifically, the timeline displays a time axis in a strip shape from the start point of the video to the end point of the video. The timeline of this embodiment displays the elapsed time from the start point as a scale. However, the timeline may display the time or date as a scale. The playback position display object 720 is an object (GUI part) that indicates the shooting date and time of the video displayed in the display area 790. When the playback position display object 720 is at the leftmost position, it is the start position of the video playback, and when it is at the rightmost position, it is the end position of the video playback. The playback position display object 720 indicates the position on the timeline 710 of the video being played in the display area 790. The operator of the client device 120 (such as the manager of the store where the surveillance camera 160 is installed) can also operate the playback position display object 720 to specify the shooting date and time of the video displayed in the display area 790. Flag 730 is a flag that indicates a period during which a person appears in the video, and is displayed on timeline 710. Flag 730 indicates that a person appeared at the leftmost position at the time, and indicates that the person disappeared at the rightmost position at the time.
The control unit 210 outputs a timeline relating to the selected video. The timeline is output in a manner that allows distinction between a portion showing the person of the registered face image and a portion not showing the person of the face image.

顔画像表示領域795には、表示領域790に表示されている映像に映っている人物の顔画像が表示される。図8の例では、顔画像表示領域795に、顔画像740、顔画像750、顔画像760、顔画像770が含まれている。
顔画像740は、監視カメラ160に対して正面を向いている顔画像である。これは、表示された映像に対応するベストショット1stである。両目が映っている顔画像は監視カメラ160に対して正面を向いている顔画像と言ってもよい。また顔の向きが監視カメラ160に向いている顔画像を、正面を向いている顔画像と言ってもよい。また視点が監視カメラ160の方向にある顔画像を、正面を向いている顔画像と言ってもよい。
顔画像750は、監視カメラ160に対して左を向いている顔画像である。これは、表示された映像に対応するベストショット2ndである。両目ではなく右目だけが映っている顔画像は監視カメラ160に対して左を向いている顔画像と言ってもよい。また顔の右側が撮影されており顔の左側が撮影されていない画像を監視カメラ160に対して左を向いている顔画像と言ってもよい。
顔画像760は、監視カメラ160に対して右を向いている顔画像である。これは、表示された映像に対応するベストショット3rdである。両目ではなく左目だけが映っている顔画像は監視カメラ160に対して右を向いている顔画像と言ってもよい。また顔の左側が撮影されており顔の右側が撮影されていない画像を監視カメラ160に対して右を向いている顔画像と言ってもよい。
なお、顔の向きとしては正面/左向き/右向き以外として、例えば斜め左向き/斜め右向き/後向き等の向きを、追加的/代替的に用いることとしてもよい。
顔画像770は、人物の体全体を含んでいる顔画像である。これは、表示された映像に対応するベストショット4thである。体全体とは顔画像のみではなく人物の胴体、手、足等が含まれることをいう。
なお、体全体以外に、例えばバストアップ等を、追加的/代替的に用いることとしてもよい。
In the face image display area 795, face images of people appearing in the video displayed in the display area 790 are displayed. In the example of Fig. 8, the face image display area 795 includes a face image 740, a face image 750, a face image 760, and a face image 770.
Facial image 740 is a facial image facing forward with respect to surveillance camera 160. This is the best shot 1st corresponding to the displayed video. A facial image showing both eyes may be said to be a facial image facing forward with respect to surveillance camera 160. A facial image in which the face is oriented toward surveillance camera 160 may also be said to be a facial image facing forward. A facial image with the viewpoint in the direction of surveillance camera 160 may also be said to be a facial image facing forward.
Facial image 750 is a facial image facing left with respect to surveillance camera 160. This is the second best shot corresponding to the displayed video. A facial image in which only the right eye is shown instead of both eyes may be said to be a facial image facing left with respect to surveillance camera 160. Also, an image in which the right side of the face is captured but the left side of the face is not captured may be said to be a facial image facing left with respect to surveillance camera 160.
Facial image 760 is a facial image facing right with respect to surveillance camera 160. This is the third best shot corresponding to the displayed video. A facial image in which only the left eye is shown instead of both eyes may be said to be a facial image facing right with respect to surveillance camera 160. Also, an image in which the left side of the face is captured but not the right side of the face may be said to be a facial image facing right with respect to surveillance camera 160.
In addition, the face direction may be other than forward/left/right, and other directions such as diagonally left/right/backward may be used additionally/alternatively.
Facial image 770 is a facial image including the entire body of a person. This is the fourth best shot corresponding to the displayed video. The entire body includes not only the facial image but also the torso, hands, legs, etc. of the person.
In addition to the whole body, for example, a bust-up shot may be used in addition/alternatively.

顔画像表示領域795には、複数の顔画像には、正面を向いている顔画像と、右を向いている顔画像と、左を向いている顔画像と、体全体を含んでいる顔画像と、のうち少なくとも1つ以上の顔画像が含まれる。
顔画像表示領域795には、同一人物を互いに異なる角度から撮影された複数の顔画像が含まれる、ということもできる。
In the face image display area 795, the multiple face images include at least one of a face image facing forward, a face image facing right, a face image facing left, and a face image including the entire body.
It can also be said that the face image display area 795 contains a plurality of face images of the same person taken from different angles.

制御部210は、選択された映像に含まれる人物の画像のうち人物の顔が判別可能な画像を映像と共に出力(表示)する。 The control unit 210 outputs (displays) images of people included in the selected video in which the person's face is identifiable, together with the video.

制御部210は、フラグ730の一番左の位置の時刻に顔画像表示領域795に顔画像を表示し、フラグ730の一番右の位置の時刻に顔画像表示領域795の顔画像を非表示とする(又は削除する)ようにしてもよい。制御部210は、表示領域790に表示されている映像に人物が映っている間は、その人物の顔画像を顔画像表示領域795に表示するようにしてもよい。このような処理を実行することによって、制御部210は、選択された映像に含まれる人物であることが分かる態様で人物の顔画像を表示することができる。
選択された映像に含まれる人物であることが分かる態様とは、例えば、同じ画面に表示領域790(又は人物735)及び顔画像表示領域795が表示される、又は表示領域790に重畳されて顔画像表示領域795が表示される等の態様である。
The control unit 210 may display a face image in the face image display area 795 at the time of the leftmost position of the flag 730, and may hide (or delete) the face image in the face image display area 795 at the time of the rightmost position of the flag 730. The control unit 210 may display the face image of a person in the face image display area 795 while the person appears in the video displayed in the display area 790. By executing such processing, the control unit 210 can display the face image of the person in a manner that makes it clear that the person is included in the selected video.
Examples of manners in which it can be recognized that the person is included in the selected video include when display area 790 (or person 735) and facial image display area 795 are displayed on the same screen, or when facial image display area 795 is displayed superimposed on display area 790.

ステップS550の処理は、人物映像領域670において選択された映像と映像のタイムラインとを含む画面を出力(表示)する処理の一例である。
またステップS550の処理は、人物映像領域670において選択されたサムネイルの映像と共に、映像に含まれる人物と同一人物の複数の顔画像を出力(表示)する処理の一例である。
The process of step S550 is an example of a process of outputting (displaying) a screen including the video selected in person video area 670 and a timeline of the video.
The process of step S550 is an example of a process of outputting (displaying) a plurality of facial images of the same person as the person included in the image of the thumbnail selected in person image area 670 together with the image.

顔画像表示領域795には、さらに「人物を登録」ボタン775が含まれる。表示領域790に表示されている映像に映っている人物が情報処理システム1000にまだ登録されていない人物であった場合、制御部210は、顔画像表示領域795に「人物を登録」ボタン775を含めて出力する。この処理は、表示領域790に表示されている映像に映っている人物が情報処理システム1000にまだ登録されていない人物であった場合、制御部210は、「人物を登録」ボタン775を活性化させて顔画像表示領域795に表示する、ともいえる。ボタンを活性化させるとは、ボタンを選択可能にすることである。
映像に含まれる人物の顔画像が登録済みでないでない場合、制御部210は、顔画像を登録する登録ボタンをユーザーが選択可能な態様で出力(表示)する。
The facial image display area 795 further includes a "Register Person" button 775. If the person appearing in the video displayed in the display area 790 is not yet registered in the information processing system 1000, the control unit 210 outputs the "Register Person" button 775 in addition to the facial image display area 795. This process can also be said to be that if the person appearing in the video displayed in the display area 790 is not yet registered in the information processing system 1000, the control unit 210 activates the "Register Person" button 775 and displays it in the facial image display area 795. Activating a button means making the button selectable.
If the face image of the person included in the video has not been registered, the control unit 210 outputs (displays) a registration button for registering the face image in a user-selectable manner.

表示領域790に表示されている映像に映っている人物が情報処理システム1000にすでに登録されている人物であった場合、制御部210は、顔画像表示領域795に「登録済み」ボタン810を含めて出力する。
図9は、映像詳細画面700の一例を示す図(その2)である。「登録済み」ボタン810は、顔画像表示領域795に含まれる顔画像の人物はすでに情報処理システム1000に検索対象の人物として登録されていることを示すボタンである。なお、顔画像表示領域795に含まれる顔画像の人物が情報処理システム1000にすでに登録されていることを示すことができればボタンに限られずどのようなGUI部品又は画像等であってもよい。
映像に含まれる人物の顔画像はすでに登録済みか否かを識別可能な態様で出力(表示)される。
If the person appearing in the image displayed in the display area 790 is a person who has already been registered in the information processing system 1000, the control unit 210 outputs the face image display area 795 including a “Registered” button 810.
9 is a diagram (part 2) showing one example of the video detail screen 700. The "registered" button 810 is a button indicating that the person whose face image is included in the face image display area 795 has already been registered as a person to be searched in the information processing system 1000. Note that this is not limited to a button and may be any GUI component, image, or the like, as long as it can indicate that the person whose face image is included in the face image display area 795 has already been registered in the information processing system 1000.
The facial image of a person included in the video is output (displayed) in a manner that makes it possible to identify whether or not the person has already been registered.

図8の「人物を登録」ボタン775が選択されると、制御部210は、人物登録画面を生成する。制御部210は、生成した人物登録画面をクライアント装置120に送信し、クライアント装置120の出力部に表示されるよう制御する。 When the "Register Person" button 775 in FIG. 8 is selected, the control unit 210 generates a person registration screen. The control unit 210 transmits the generated person registration screen to the client device 120 and controls the output unit of the client device 120 to display it.

図10は、人物登録画面900の一例を示す図である。図10に示されるように、人物登録画面900には、顔画像表示領域795に表示されている顔画像と同じ顔画像の顔画像910、顔画像920、顔画像930及び顔画像940が含まれる。制御部210は、クライアント装置120の操作者によるドラッグ操作に基づき、顔画像(顔画像910、顔画像920、顔画像930、顔画像940等)の位置を入れ替えることができる。顔画像910の位置にある画像がカバー写真として用いられる。カバー写真は、例えば、後述する図14、図15等に示される保存人物の顔画像として画面等に用いられる。
また、制御部210は、クライアント装置120の操作者が各顔画像(顔画像910、顔画像920、顔画像930、顔画像940等)の右上にある「×」ボタンをクリックしたことに応じて、その顔画像を削除することができる。これは、顔画像の中に誤って所望の人物とは異なる顔画像が含まれていた場合に、後述のステップS1140における検索の精度低下を防止するためのものである。なお、検索の精度向上のため、単に顔画像を削除するのみならず、その代わりに例えば同じ向きの顔画像で次なる候補となるものを自動的にセットしたり、同じ向きの顔画像で次なる候補となるものを幾つか一覧表示してユーザーが選択したものをセットしたりしてもよい。
FIG. 10 is a diagram showing an example of a person registration screen 900. As shown in FIG. 10, the person registration screen 900 includes face images 910, 920, 930, and 940 that are the same as the face image displayed in the face image display area 795. The control unit 210 can replace the positions of the face images (face image 910, face image 920, face image 930, face image 940, etc.) based on a drag operation by the operator of the client device 120. The image at the position of the face image 910 is used as a cover photo. The cover photo is used on a screen or the like as a face image of a saved person shown in, for example, FIG. 14, FIG. 15, etc. described later.
In addition, the control unit 210 can delete each face image (face image 910, face image 920, face image 930, face image 940, etc.) in response to the operator of the client device 120 clicking the "x" button in the upper right corner of the face image. This is to prevent a decrease in the accuracy of the search in step S1140 described later when a face image other than that of a desired person is mistakenly included in the face images. Note that, in order to improve the accuracy of the search, instead of simply deleting the face image, it is also possible to automatically set a face image with the same orientation as the next candidate, or to display a list of several face images with the same orientation as the next candidate and set the one selected by the user.

また、人物登録画面900には、プラスを示すGUI部品950が含まれる。GUI部品950が選択されると、制御部210は、顔画像を追加するための画面を生成する。制御部210は、生成した画面をクライアント装置120に送信し、クライアント装置120に表示するよう制御する。制御部210は、顔画像を追加するための画面において、顔画像910、顔画像920、顔画像930及び顔画像940に表示されている顔画像と同じ人物の別の顔画像を選択可能に表示する。クライアント装置120の操作者はこの画面を介して、同じ人物の別の顔画像を選択し、顔画像を追加することができる。なお、これ以外の顔画像の追加方法として、例えばクライアント装置120において別途用意した顔画像をアップロード可能としてもよい。 The person registration screen 900 also includes a GUI component 950 indicating a plus sign. When the GUI component 950 is selected, the control unit 210 generates a screen for adding a face image. The control unit 210 transmits the generated screen to the client device 120 and controls it to be displayed on the client device 120. The control unit 210 displays, on the screen for adding a face image, another face image of the same person as the face image displayed in face image 910, face image 920, face image 930, and face image 940 in a selectable manner. The operator of the client device 120 can select another face image of the same person via this screen and add the face image. Note that as another method of adding a face image, for example, a face image separately prepared in the client device 120 may be uploaded.

また、制御部210は、顔画像910、顔画像920、顔画像930及び顔画像940の何れかの顔画像が選択され、所定の操作が行われると、制御部210は、顔画像を変更するための画面を生成する。制御部210は、生成した画面をクライアント装置120に送信し、クライアント装置120に表示するよう制御する。制御部210は、顔画像を変更するための画面において、選択された顔画像を選択された顔画像と同一の人物の別の顔画像を選択可能に表示する。クライアント装置120の操作者はこの画面を介して、顔画像を同じ人物の別の顔画像に変更することができる。
これらの処理は、ユーザーの所定の操作に基づいて登録された顔画像を変更、又は顔画像を追加/削除する処理の一例である。
Furthermore, when any one of the facial images 910, 920, 930, and 940 is selected and a predetermined operation is performed, the control unit 210 generates a screen for changing the facial image. The control unit 210 transmits the generated screen to the client device 120 and controls it to be displayed on the client device 120. The control unit 210 displays, on the screen for changing the facial image, another facial image of the same person as the selected facial image so that the selected facial image can be selected. The operator of the client device 120 can change the facial image to another facial image of the same person via this screen.
These processes are examples of processes for changing a registered face image or adding/deleting a face image based on a predetermined operation by the user.

クライアント装置120の操作者は、図10に示されるような人物登録画面900において、例えば、人物名、人物タグ、メモ等を入力し、検索対象の人物として人物の顔画像を登録する操作を行う。人物登録画面900において「この内容で保存する」ボタンが選択されると、人物登録画面900に含まれる、顔画像等を含む登録情報がクライアント装置120からサーバー装置100に送信される。 The operator of the client device 120 enters, for example, a person's name, a person tag, a memo, etc., on a person registration screen 900 as shown in FIG. 10, and performs an operation to register a face image of the person as a person to be searched. When the "Save with this content" button is selected on the person registration screen 900, the registration information included in the person registration screen 900, including the face image, etc., is transmitted from the client device 120 to the server device 100.

図5のステップS560において、制御部210は、登録情報を受信したか否かを判定する。制御部210は、登録情報を受信した場合には、ステップS570に処理を進め、サムネイル選択情報を受信していない場合には、ステップS550の処理を繰り返す。 In step S560 of FIG. 5, the control unit 210 determines whether or not registration information has been received. If registration information has been received, the control unit 210 proceeds to step S570, and if thumbnail selection information has not been received, the control unit 210 repeats the process of step S550.

ステップS570において、制御部210は、登録情報に含まれる顔画像を検索対象の人物(保存人物ともいう)として登録する。具体的には、複数のベストショット情報のうち、S560で受信した登録情報に対応するものについて、フラグを立てる等して識別可能にする。 In step S570, the control unit 210 registers the face image included in the registration information as a person to be searched for (also called a saved person). Specifically, among the multiple best shot information, the one that corresponds to the registration information received in S560 is made identifiable by setting a flag, etc.

人物登録画面900上においてクライアント装置120の操作者により所定の操作(例えば、顔画像上で右クリックし、表示されたメニューから編集ボタンを選択する操作等)を受けると、制御部210は、顔画像を編集可能な編集画面を生成する。制御部210は、生成した編集画面をクライアント装置120に送信し、クライアント装置120の出力部に表示されるよう制御する。 When the operator of the client device 120 performs a predetermined operation on the person registration screen 900 (for example, right-clicking on a face image and selecting an edit button from the displayed menu), the control unit 210 generates an editing screen on which the face image can be edited. The control unit 210 transmits the generated editing screen to the client device 120 and controls it so that it is displayed on the output unit of the client device 120.

図11は、編集画面1010の一例を示す図である。編集画面1010には人物登録画面900で選択された顔画像が含まれる。編集画面1010では顔画像のトリミング、回転・傾き補正、明るさ及びコントラストの調整等を行うことが可能に構成されている。 Figure 11 is a diagram showing an example of an editing screen 1010. The editing screen 1010 includes the face image selected on the person registration screen 900. The editing screen 1010 is configured to enable cropping of the face image, rotation and tilt correction, and adjustment of brightness and contrast.

図8の映像詳細画面700は、「ムービークリップを作成」ボタン780が含まれる。「ムービークリップを作成」ボタン780が選択されると、制御部210は、ムービークリップの作成画面1700を作成する。そして、制御部210は、ムービークリップの作成画面1700をクライアント装置120に送信し、クライアント装置120の出力部に表示されるよう制御する。 The video detail screen 700 in FIG. 8 includes a "Create Movie Clip" button 780. When the "Create Movie Clip" button 780 is selected, the control unit 210 creates a movie clip creation screen 1700. The control unit 210 then transmits the movie clip creation screen 1700 to the client device 120, and controls it so that it is displayed on the output unit of the client device 120.

図12は、ムービークリップの作成画面1700の一例を示す図である。ムービークリップの作成画面1700は、ムービークリップを作成可能に構成されている。ムービークリップとは、映像から残しておきたい時間を指定して映像を切り取り、記憶部220等に保存しておく機能である。なお、ムービークリップには、指定された映像である保存用動画と指定された映像の早送り動画であるタイムラプスとが含まれていてもよい。 Figure 12 is a diagram showing an example of a movie clip creation screen 1700. The movie clip creation screen 1700 is configured to enable the creation of a movie clip. A movie clip is a function that cuts out a video by specifying the time that you want to keep from the video, and stores the video in the storage unit 220 or the like. Note that a movie clip may include a video to be saved, which is the specified video, and a time lapse, which is a fast-forwarded video of the specified video.

ムービークリップの作成画面1700には、映像のタイムライン1710が表示されている。操作者は、タイムライン1710上のアンカー1740及びアンカー1750を操作することで切り取る映像の始まりの時間と終わりの時間とを指定することができる。アンカー1740が映像の始まりの時間を指定するGUI部品である。アンカー1750が映像の終わりの時間を指定するGUI部品である。アンカー1740で指定された時間の映像の静止画が表示領域1720に表示される。アンカー1750で指定された時間の映像の静止画が表示領域1730に表示される。 Movie clip creation screen 1700 displays a video timeline 1710. The operator can specify the start and end times of the video to be cut out by operating anchors 1740 and 1750 on timeline 1710. Anchor 1740 is a GUI component that specifies the start time of the video. Anchor 1750 is a GUI component that specifies the end time of the video. A still image of the video at the time specified by anchor 1740 is displayed in display area 1720. A still image of the video at the time specified by anchor 1750 is displayed in display area 1730.

制御部210は、クライアント装置120の操作者の操作に基づき、映像のムービークリップを作成し、記憶部220等の所定の記憶領域に保存することができる。 The control unit 210 can create movie clips of video based on operations by the operator of the client device 120 and store them in a specified memory area such as the memory unit 220.

制御部210は、選択された映像に関するタイムラインを出力し、タイムラインを含む画面を介した所定の操作に基づき映像に関するムービークリップを作成する画面を出力する。 The control unit 210 outputs a timeline related to the selected video, and outputs a screen for creating a movie clip related to the video based on a specified operation via the screen including the timeline.

(2-2)顔画像検索
図13は、情報処理システム1000における顔画像検索に係る情報処理の一例を示すフローチャートである。なお、この処理は主にサーバー装置100が実行するものとして説明するが、その代わりにクライアント装置110又はクライアント装置120、複数の監視カメラ160の何れかが実行することとしてもよい。
ステップS1110において、制御部210は、クライアント装置120からの要求に応じて、登録されている複数の顔画像を含む画面(保存人物表示画面)を生成する。具体的には、複数のベストショット情報のうち、ステップS570でフラグが立てられたものを抽出し、夫々ベストショット1stを特定したうえで、それらを表示するための保存人物表示画面を生成する。制御部210は、生成した保存人物表示画面をクライアント装置120に送信する。
13 is a flowchart showing an example of information processing related to face image search in the information processing system 1000. Note that, although this processing will be described as being mainly executed by the server device 100, it may instead be executed by any of the client device 110 or 120, or the multiple surveillance cameras 160.
In step S1110, the control unit 210 generates a screen (saved person display screen) including a plurality of registered face images in response to a request from the client device 120. Specifically, from among the plurality of best shot information, those flagged in step S570 are extracted, and the best shot 1 for each is identified, and a saved person display screen for displaying them is generated. The control unit 210 transmits the generated saved person display screen to the client device 120.

図14は、人物検索画面1200の一例を示す図である。図14に示されるように、人物検索画面1200には、保存人物タブ1210と、保存人物表示領域1250と、が含まれる。保存人物タブ1210が選択されると、保存事物表示画面の表示要求がクライアント装置120からサーバー装置100に送信される。そして、表示要求に応じて、保存人物表示領域1250にステップS570で顔画像が登録された人物の顔画像の一覧が表示される。図14では保存人物タブ1210が選択されていることが示されている。図14の保存人物表示領域1250には、一例として、顔画像1220、顔画像1230、顔画像1240が保存人物の一覧として表示されている。 Figure 14 is a diagram showing an example of a person search screen 1200. As shown in Figure 14, the person search screen 1200 includes a saved person tab 1210 and a saved person display area 1250. When the saved person tab 1210 is selected, a display request for the saved object display screen is sent from the client device 120 to the server device 100. Then, in response to the display request, a list of face images of people whose face images were registered in step S570 is displayed in the saved person display area 1250. Figure 14 shows that the saved person tab 1210 has been selected. As an example, the saved person display area 1250 in Figure 14 displays face image 1220, face image 1230, and face image 1240 as a list of saved people.

クライアント装置120の操作者(監視カメラ160の所有者等)は、保存人物表示領域1250に表示されている顔画像から検索対象とする人物の顔画像を選択する。クライアント装置120の操作者が顔画像を選択すると、選択した顔画像を識別する識別情報等を含む選択情報がクライアント装置120からサーバー装置100に送信される。 The operator of the client device 120 (such as the owner of the surveillance camera 160) selects the face image of the person to be searched from the face images displayed in the saved person display area 1250. When the operator of the client device 120 selects a face image, selection information including identification information for identifying the selected face image is transmitted from the client device 120 to the server device 100.

ステップS1120において、制御部210は、クライアント装置120から選択情報を受信したか否かを判定する。制御部210は、選択情報を受信した場合には、ステップS1130に処理を進め、選択情報を受信していない場合には、ステップS1120の処理を繰り返す。 In step S1120, the control unit 210 determines whether or not selection information has been received from the client device 120. If selection information has been received, the control unit 210 proceeds to step S1130, and if selection information has not been received, the control unit 210 repeats the process of step S1120.

ステップS1130において、制御部210は、選択情報に含まれる識別情報に基づき顔画像を選択する。
ステップS1140において、制御部210は、選択した顔画像を含む、監視カメラ160で撮影された映像を検索する。具体的には、まず、ステップS1130で選択された顔画像のベストショット情報を参照し、対応する顔の特徴量を用いて、AIモデル等によりその人物が含まれる映像を特定する。なお、前述した前処理において顔の特徴量を算出しなかった場合、この時点で同様にして顔の特徴量を算出すればよい。
なお、ステップS1140は次のように実現してもよい。例えば、制御部210は、顔画像と、記憶部220等に記憶されている複数の映像と、を入力データとして学習済みモデルに入力する。この学習済みモデルは、顔画像と、複数の映像とを入力データ、映像に顔画像の人物と同一人物が含まれるか否か、及び、映像に顔画像の人物と同一人物が含まれる場合は顔画像の人物が出現してから消失するまでの時間情報を出力データとして学習された学習済みモデルである。さらに、学習済みモデルは、同じ映像に複数の顔画像が含まれる場合には複数の顔画像それぞれが出現してから消失するまでの時間情報を出力データとして学習された学習済みモデルである。
In step S1130, the control unit 210 selects a face image based on the identification information included in the selection information.
In step S1140, the control unit 210 searches for video captured by the surveillance camera 160 that includes the selected face image. Specifically, first, best shot information of the face image selected in step S1130 is referenced, and a video in which the person is included is identified using the corresponding face feature amount by an AI model or the like. Note that if the face feature amount was not calculated in the pre-processing described above, the face feature amount may be calculated in a similar manner at this point.
Note that step S1140 may be realized as follows. For example, the control unit 210 inputs a face image and multiple videos stored in the storage unit 220 or the like as input data to the trained model. This trained model is a trained model trained with the face image and multiple videos as input data, and whether or not the video includes a person identical to the person in the face image, and, if the video includes the person identical to the person in the face image, time information from when the person in the face image appears to when it disappears as output data. Furthermore, if multiple face images are included in the same video, the trained model is a trained model trained with time information from when each of the multiple face images appears to when it disappears as output data.

制御部210は、学習済みモデルから映像に顔画像の人物と同一人物が含まれるか否かの情報、及び、映像に顔画像の人物と同一人物が含まれる場合はこの人物が出現してから消失するまでの時間情報を検索結果として取得する。 The control unit 210 obtains, from the trained model, information on whether the video contains a person identical to the person in the facial image, and, if the video contains a person identical to the person in the facial image, time information from when this person appeared to when he or she disappeared, as search results.

ステップS1150において、制御部210は、検索結果に基づき、選択された顔画像の人物の同一の人物が含まれる映像の顔画像が出現したタイミングのサムネイルを含む一覧表示画面を生成する。制御部210は、生成した一覧表示画面をクライアント装置120に送信し、クライアント装置120の出力部に表示されるよう制御する。 In step S1150, the control unit 210 generates a list display screen including thumbnails of the timing when a facial image of a video including the same person as the person in the selected facial image appears based on the search results. The control unit 210 transmits the generated list display screen to the client device 120 and controls the output unit of the client device 120 to display it.

図15は、一覧表示画面1300の一例を示す図である。図15に示される一覧表示画面1300には、保存人物表示領域1320が含まれる。保存人物表示領域1320には、人物検索画面1200で選択された顔画像1310と、顔画像1310の人物と同一の人物が含まれる映像のサムネイルの一覧が表示されている。サムネイルの一覧は、デバイスごとに表示される。図15では簡略化のため、デバイスセクション1340として、入店口東口の監視カメラ160で撮影された映像のサムネイルの一覧のみが表示されているが、これに限定されるものではない。図6の一覧表示画面600に示したのと同様、デバイスセクションごとにサムネイルの一覧が表示される。 Figure 15 is a diagram showing an example of a list display screen 1300. The list display screen 1300 shown in Figure 15 includes a saved person display area 1320. The saved person display area 1320 displays the face image 1310 selected on the person search screen 1200 and a list of thumbnails of videos that include the same person as the person in the face image 1310. The list of thumbnails is displayed for each device. For simplicity's sake, in Figure 15, only a list of thumbnails of videos captured by the surveillance camera 160 at the east entrance of the store is displayed as the device section 1340, but this is not limited to this. As shown in the list display screen 600 of Figure 6, a list of thumbnails is displayed for each device section.

図15の一覧表示画面1300においてサムネイルの一つが選択されると、選択されたサムネイルを識別する識別情報を含む、サムネイル選択情報がクライアント装置120からサーバー装置100に送信される。 When one of the thumbnails is selected on the list display screen 1300 in FIG. 15, thumbnail selection information including identification information for identifying the selected thumbnail is sent from the client device 120 to the server device 100.

図13のステップS1160において、制御部210は、サムネイル選択情報を受信したか否かを判定する。制御部210は、サムネイル選択情報を受信した場合には、ステップS1170に処理を進め、サムネイル選択情報を受信していない場合には、ステップS1150及びステップS1160の処理を繰り返す。 In step S1160 of FIG. 13, the control unit 210 determines whether or not thumbnail selection information has been received. If thumbnail selection information has been received, the control unit 210 proceeds to step S1170, and if thumbnail selection information has not been received, the control unit 210 repeats the processes of steps S1150 and S1160.

ステップS1170において、制御部210は、サムネイル選択情報で識別されるサムネイルの映像を選択する。
ステップS1180において、制御部210は、選択した映像のタイムラインと共に映像に含まれる人物の顔画像を含む映像詳細画面を生成する。制御部210は、生成した映像詳細画面をクライアント装置120に送信し、クライアント装置120の出力部に表示されるよう制御する。
In step S1170, control unit 210 selects the image of the thumbnail identified by the thumbnail selection information.
In step S1180, the control unit 210 generates a video detail screen including a timeline of the selected video and facial images of people included in the video. The control unit 210 transmits the generated video detail screen to the client device 120 and controls the output unit of the client device 120 to display the video detail screen.

図16は、映像詳細画面1400の一例を示す図である。映像詳細画面1400は、図8に示した映像詳細画面700及び図9に示した映像詳細画面700とほぼ同様である。ただし、映像詳細画面1400に含まれる顔画像表示領域1410には図8の映像詳細画面700に含まれる「人物を登録」ボタン775及び図9の「登録済み」ボタン810は含まれない。 Figure 16 is a diagram showing an example of a video detail screen 1400. The video detail screen 1400 is almost the same as the video detail screen 700 shown in Figure 8 and the video detail screen 700 shown in Figure 9. However, the face image display area 1410 included in the video detail screen 1400 does not include the "Register Person" button 775 included in the video detail screen 700 in Figure 8 and the "Already Registered" button 810 in Figure 9.

(2-3)送信先設定
制御部210は、クライアント装置110からの要求に応じて、通知設定(送信先設定ともいう)画面を生成し、クライアント装置110に送信する。
(2-3) Destination Setting In response to a request from the client device 110, the control unit 210 generates a notification setting (also called destination setting) screen and transmits it to the client device 110.

図17は、通知設定画面1800の一例を示す図である。図17に示されるように、通知設定画面1800には、通知設定タグ1810と、通知設定領域1820と、が含まれる。通知設定タグ1810が選択されると、通知設定画面の生成要求がクライアント装置110からサーバー装置100に送信される。そして、生成要求に応じて、通知設定領域1820にデバイスごとに送信先を設定可能なGUI部品1830が表示される。図17の例では通知設定タグ1810が選択されていることが示されている。
この処理は、登録された顔画像の人物が映像より検知された場合に、顔画像の人物が検知されたことを示す情報を送信する送信先の通知設定画面1800を出力する処理の一例である。
Fig. 17 is a diagram showing an example of a notification setting screen 1800. As shown in Fig. 17, the notification setting screen 1800 includes a notification setting tag 1810 and a notification setting area 1820. When the notification setting tag 1810 is selected, a request for generating a notification setting screen is transmitted from the client device 110 to the server device 100. Then, in response to the generation request, a GUI part 1830 capable of setting a destination for each device is displayed in the notification setting area 1820. The example of Fig. 17 shows that the notification setting tag 1810 has been selected.
This process is an example of a process that outputs a notification setting screen 1800 for a destination to which information indicating that a person in a registered facial image has been detected has been sent when a person in the facial image has been detected in video.

GUI部品1830では、デバイス名ごとにメール及びWebhook連携の連携先を設定可能に構成されている。なお、デバイス名はデバイスを一意に識別可能なものであってもよいし、デバイスに付されたタグ(デバイスタグ)を識別可能なものであってもよい。デバイスタグは、監視カメラ160のグループに対して付することができるものである。通知設定画面1800は、複数のカメラそれぞれごと、又はカメラのグループごとに送信先を設定可能に構成されている。 The GUI component 1830 is configured to allow the destination of email and Webhook integration to be set for each device name. The device name may be capable of uniquely identifying the device, or may be capable of identifying a tag (device tag) attached to the device. A device tag can be attached to a group of surveillance cameras 160. The notification setting screen 1800 is configured to allow the destination to be set for each of multiple cameras or for each group of cameras.

GUI部品1830においてデバイス名(例えば「入店口 東口」1820)が選択されると、制御部210は、通知設定画面1900を生成し、クライアント装置110の出力部340に表示されるよう制御する。 When a device name (e.g., "Store Entrance East Entrance" 1820) is selected in the GUI component 1830, the control unit 210 generates a notification setting screen 1900 and controls it to be displayed on the output unit 340 of the client device 110.

図18は、通知設定画面1900の一例を示す図である。項目1910では通知メールの送信先が設定可能になっている。項目1920ではWebhook連携の連携先を設定可能になっている。Webhook連携の連携先としては複数の連絡先が設定可能となっている。
図18では通知設定画面1900では、送信先としてユーザーを設定可能に構成されているといえる。
18 is a diagram showing an example of a notification setting screen 1900. A destination of a notification email can be set in an item 1910. A destination of a Webhook link can be set in an item 1920. A plurality of contacts can be set as a destination of a Webhook link.
In FIG. 18, the notification setting screen 1900 is configured so that a user can be set as a destination.

以上、実施形態1によれば、簡単に映像から人物を探し出し、気になる人物の顔画像を情報処理システム1000に登録することができる。また、実施形態1によれば、登録された顔画像から選択した顔画像の人物の映像を検出し、出力することができる。 As described above, according to the first embodiment, it is possible to easily find a person from a video and register a facial image of the person of interest in the information processing system 1000. Furthermore, according to the first embodiment, it is possible to detect and output a video of a person whose facial image is selected from the registered facial images.

<付記>
次に記載の各態様で提供されるようにしてもよい。
(付記1)
カメラで撮影された映像を情報端末で表示させる情報処理システムであって、
前記映像から顔画像を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像と共に前記映像に含まれる顔画像を表示し、
ユーザーの指示に応じて前記顔画像を登録する、
情報処理システム。
(付記2)
カメラで撮影された映像を情報端末で表示させる情報処理システムであって、
登録された複数の顔画像を表示し、
ユーザーの指示に応じて前記複数の顔画像から顔画像を選択し、
前記選択された顔画像に対応する人物を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像を表示する、
情報処理システム。
(付記3)
付記1に記載の情報処理システムであって、
前記表示する顔画像は、同一人物の複数の顔画像である、
情報処理システム。
(付記4)
付記3に記載の情報処理システムであって、
前記複数の顔画像は、同一人物を互いに異なる角度から撮影した顔画像を含む、
情報処理システム。
(付記5)
付記4に記載の情報処理システムであって、
前記複数の顔画像は、正面を向いている顔画像と、右を向いている顔画像と、左を向いている顔画像と、体全体を含んでいる顔画像と、のうち少なくとも1つ以上を含む、
情報処理システム。
(付記6)
付記1に記載の情報処理システムであって、
前記顔画像と共に前記顔画像が登録済か否かを識別可能な態様で表示する、
情報処理システム。
(付記7)
付記1に記載の情報処理システムであって、
前記顔画像と共に、前記顔画像を登録するためのボタンを表示する、
情報処理システム。
(付記8)
付記1又は付記2に記載の情報処理システムであって、
前記映像と共に、前記映像に関するタイムラインを表示する、
情報処理システム。
(付記9)
付記8に記載の情報処理システムであって、
前記タイムラインは、登録された顔画像が映っている部分を識別可能な態様で表示する、
情報処理システム。
(付記10)
付記8に記載の情報処理システムであって、
前記タイムラインを含む画面を介した所定の操作に基づき前記映像に関するムービークリップを作成する画面を表示する、
情報処理システム。
(付記11)
付記1又は付記2に記載の情報処理システムであって、
前記顔画像を含む映像の検索は、ユーザーにより入力された検索条件に基づいて実行し、
前記検索条件は、期間と、キーワードと、のうち少なくとも1つ以上を含む、
情報処理システム。
(付記12)
付記1又は付記2に記載の情報処理システムであって、
前記複数の映像は、前記複数の映像それぞれを撮影したカメラごとに縮小表示画像の態様で表示される、
情報処理システム。
(付記13)
付記1又は付記2に記載の情報処理システムであって、
登録された前記顔画像が映像より検知された場合に、ユーザーに通知する、
情報処理システム。
(付記14)
付記13に記載の情報処理システムであって、
登録された前記顔画像が映像より検知された場合の通知先は、前記複数のカメラそれぞれごと、又はカメラのグループごとに設定可能に構成される、
情報処理システム。
(付記15)
付記1又は付記2に記載の情報処理システムであって、
登録された前記顔画像は、ユーザーの指示に基づいて変更、又は顔画像を追加することが可能である、
情報処理システム。
(付記16)
付記1又は付記2に記載の情報処理システムであって、
前記顔画像は、前記選択された映像に含まれる人物であることが分かる態様で表示される、
情報処理システム。
(付記17)
付記1又は付記2に記載の情報処理システムであって、
前記映像と共に、前記選択された映像に含まれる人物のうち顔が判別可能な人物の画像を表示する、
情報処理システム。
(付記18)
カメラで撮影された映像を情報端末で表示させる情報処理システムが実行する情報処理方法であって、
前記映像から顔画像を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像と共に前記映像に含まれる顔画像を表示し、
ユーザーの指示に応じて前記顔画像を登録する、
情報処理方法。
(付記19)
カメラで撮影された映像を情報端末で表示させる情報処理システムが実行する情報処理方法であって、
登録された複数の顔画像を表示し、
ユーザーの指示に応じて前記複数の顔画像から顔画像を選択し、
前記選択された顔画像に対応する人物を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像を表示する、
情報処理方法。
(付記20)
カメラで撮影された映像を情報端末で表示させるコンピュータに、
前記映像から顔画像を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像と共に前記映像に含まれる顔画像を表示し、
ユーザーの指示に応じて前記顔画像を登録する、
処理を実行させるためのプログラム。
(付記21)
カメラで撮影された映像を情報端末で表示させるコンピュータに、
登録された複数の顔画像を表示し、
ユーザーの指示に応じて前記複数の顔画像から顔画像を選択し、
前記選択された顔画像に対応する人物を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像を表示する、
処理を実行させるためのプログラム。
<Additional Notes>
The present invention may be provided in the following manner.
(Appendix 1)
An information processing system for displaying an image captured by a camera on an information terminal,
Searching the video for video containing a face image;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
displaying a facial image included in the selected image together with the selected image;
registering the face image in response to a user's instruction;
Information processing system.
(Appendix 2)
An information processing system for displaying an image captured by a camera on an information terminal,
Displaying multiple registered face images,
selecting a face image from the plurality of face images in response to a user instruction;
Searching for an image including a person corresponding to the selected face image;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
Displaying the selected image;
Information processing system.
(Appendix 3)
2. The information processing system according to claim 1,
The facial images to be displayed are multiple facial images of the same person.
Information processing system.
(Appendix 4)
4. The information processing system according to claim 3,
The plurality of facial images include facial images of the same person photographed from different angles.
Information processing system.
(Appendix 5)
5. The information processing system according to claim 4,
The plurality of face images include at least one of a face image facing forward, a face image facing right, a face image facing left, and a face image including the entire body.
Information processing system.
(Appendix 6)
2. The information processing system according to claim 1,
displaying, together with the face image, whether or not the face image has been registered in a manner that makes it possible to identify the face image;
Information processing system.
(Appendix 7)
2. The information processing system according to claim 1,
displaying a button for registering the face image together with the face image;
Information processing system.
(Appendix 8)
10. The information processing system according to claim 1,
Displaying a timeline relating to the video together with the video;
Information processing system.
(Appendix 9)
9. The information processing system according to claim 8,
the timeline displays a portion showing a registered face image in a identifiable manner;
Information processing system.
(Appendix 10)
9. The information processing system according to claim 8,
displaying a screen for creating a movie clip related to the video based on a predetermined operation via a screen including the timeline;
Information processing system.
(Appendix 11)
10. The information processing system according to claim 1,
The search for the video containing the face image is performed based on search conditions input by a user;
The search criteria include at least one of a period and a keyword.
Information processing system.
(Appendix 12)
10. The information processing system according to claim 1,
The plurality of images are displayed in the form of thumbnail images for each camera that captured the plurality of images.
Information processing system.
(Appendix 13)
10. The information processing system according to claim 1,
notifying the user when the registered face image is detected in the video;
Information processing system.
(Appendix 14)
14. The information processing system according to claim 13,
The notification destination when the registered face image is detected from the video can be set for each of the plurality of cameras or for each group of cameras.
Information processing system.
(Appendix 15)
10. The information processing system according to claim 1,
The registered face image can be changed or a face image can be added based on the user's instructions.
Information processing system.
(Appendix 16)
10. The information processing system according to claim 1,
The face image is displayed in such a manner that it is clear that the face image is a person included in the selected video.
Information processing system.
(Appendix 17)
10. The information processing system according to claim 1,
displaying an image of a person whose face is identifiable among the people included in the selected video together with the video;
Information processing system.
(Appendix 18)
An information processing method executed by an information processing system that displays an image captured by a camera on an information terminal, comprising:
Searching the video for images containing facial images;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
displaying a facial image included in the selected image together with the selected image;
registering the face image in response to a user's instruction;
Information processing methods.
(Appendix 19)
An information processing method executed by an information processing system that displays an image captured by a camera on an information terminal, comprising:
Displaying multiple registered face images,
selecting a face image from the plurality of face images in response to a user instruction;
Searching for an image including a person corresponding to the selected face image;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
Displaying the selected image;
Information processing methods.
(Appendix 20)
A computer that displays the images captured by the camera on an information terminal.
Searching the video for videos containing facial images;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
displaying a facial image included in the selected image together with the selected image;
registering the face image in response to a user's instruction;
A program for executing a process.
(Appendix 21)
A computer that displays the images captured by the camera on an information terminal.
Displaying multiple registered face images,
selecting a face image from the plurality of face images in response to a user instruction;
Searching for an image including a person corresponding to the selected face image;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
Displaying the selected image;
A program for executing a process.

本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。実施形態及び実施形態の変形は、発明の範囲及び要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although various embodiments of the present invention have been described, these are presented as examples and are not intended to limit the scope of the invention. New embodiments can be embodied in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. The embodiments and modifications of the embodiments are included within the scope and gist of the invention, and are included in the scope of the invention and its equivalents as set forth in the claims.

例えば、上述したサーバー装置100の処理の一部をクライアント装置110及び/又はクライアント装置120が実行するようにしてもよい。また、上述したサーバー装置100の処理の一部を監視カメラ160が実行するようにしてもよい。 For example, part of the processing of the server device 100 described above may be executed by the client device 110 and/or the client device 120. Also, part of the processing of the server device 100 described above may be executed by the surveillance camera 160.

100 :サーバー装置
110 :クライアント装置
150 :ネットワーク
160 :監視カメラ
210 :制御部
220 :記憶部
230 :通信部
1000 :情報処理システム
100: Server device 110: Client device 150: Network 160: Surveillance camera 210: Control unit 220: Storage unit 230: Communication unit 1000: Information processing system

Claims (21)

カメラで撮影された映像を情報端末で表示させる情報処理システムであって、
前記映像から顔画像を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像と共に前記映像に含まれる顔画像を表示し、
ユーザーの指示に応じて前記顔画像を登録する、
情報処理システム。
An information processing system for displaying an image captured by a camera on an information terminal,
Searching the video for video containing a face image;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
displaying a facial image included in the selected image together with the selected image;
registering the face image in response to a user's instruction;
Information processing system.
カメラで撮影された映像を情報端末で表示させる情報処理システムであって、
登録された複数の顔画像を表示し、
ユーザーの指示に応じて前記複数の顔画像から顔画像を選択し、
前記選択された顔画像に対応する人物を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像を表示する、
情報処理システム。
An information processing system for displaying an image captured by a camera on an information terminal,
Displaying multiple registered face images,
selecting a face image from the plurality of face images in response to a user instruction;
Searching for an image including a person corresponding to the selected face image;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
Displaying the selected image;
Information processing system.
請求項1に記載の情報処理システムであって、
前記表示する顔画像は、同一人物の複数の顔画像である、
情報処理システム。
2. The information processing system according to claim 1,
The facial images to be displayed are multiple facial images of the same person.
Information processing system.
請求項3に記載の情報処理システムであって、
前記複数の顔画像は、同一人物を互いに異なる角度から撮影した顔画像を含む、
情報処理システム。
4. The information processing system according to claim 3,
The plurality of facial images include facial images of the same person photographed from different angles.
Information processing system.
請求項4に記載の情報処理システムであって、
前記複数の顔画像は、正面を向いている顔画像と、右を向いている顔画像と、左を向いている顔画像と、体全体を含んでいる顔画像と、のうち少なくとも1つ以上を含む、
情報処理システム。
5. The information processing system according to claim 4,
The plurality of face images include at least one of a face image facing forward, a face image facing right, a face image facing left, and a face image including the entire body.
Information processing system.
請求項1に記載の情報処理システムであって、
前記顔画像と共に前記顔画像が登録済か否かを識別可能な態様で表示する、
情報処理システム。
2. The information processing system according to claim 1,
displaying, together with the face image, whether or not the face image has been registered in a manner that makes it possible to identify the face image;
Information processing system.
請求項1に記載の情報処理システムであって、
前記顔画像と共に、前記顔画像を登録するためのボタンを表示する、
情報処理システム。
2. The information processing system according to claim 1,
displaying a button for registering the face image together with the face image;
Information processing system.
請求項1又は請求項2に記載の情報処理システムであって、
前記映像と共に、前記映像に関するタイムラインを表示する、
情報処理システム。
3. The information processing system according to claim 1,
Displaying a timeline relating to the video together with the video;
Information processing system.
請求項8に記載の情報処理システムであって、
前記タイムラインは、登録された顔画像が映っている部分を識別可能な態様で表示する、
情報処理システム。
9. The information processing system according to claim 8,
the timeline displays a portion showing a registered face image in a identifiable manner;
Information processing system.
請求項8に記載の情報処理システムであって、
前記タイムラインを含む画面を介した所定の操作に基づき前記映像に関するムービークリップを作成する画面を表示する、
情報処理システム。
9. The information processing system according to claim 8,
displaying a screen for creating a movie clip related to the video based on a predetermined operation via a screen including the timeline;
Information processing system.
請求項1又は請求項2に記載の情報処理システムであって、
前記顔画像を含む映像の検索は、ユーザーにより入力された検索条件に基づいて実行し、
前記検索条件は、期間と、キーワードと、のうち少なくとも1つ以上を含む、
情報処理システム。
3. The information processing system according to claim 1,
The search for the video containing the face image is performed based on search conditions input by a user;
The search criteria include at least one of a period and a keyword.
Information processing system.
請求項1又は請求項2に記載の情報処理システムであって、
前記複数の映像は、前記複数の映像それぞれを撮影したカメラごとに縮小表示画像の態様で表示される、
情報処理システム。
3. The information processing system according to claim 1,
The plurality of images are displayed in the form of thumbnail images for each camera that captured the plurality of images.
Information processing system.
請求項1又は請求項2に記載の情報処理システムであって、
登録された前記顔画像が映像より検知された場合に、ユーザーに通知する、
情報処理システム。
3. The information processing system according to claim 1,
notifying the user when the registered face image is detected in the video;
Information processing system.
請求項13に記載の情報処理システムであって、
登録された前記顔画像が映像より検知された場合の通知先は、前記複数のカメラそれぞれごと、又はカメラのグループごとに設定可能に構成される、
情報処理システム。
The information processing system according to claim 13,
The notification destination when the registered face image is detected from the video can be set for each of the plurality of cameras or for each group of cameras.
Information processing system.
請求項1又は請求項2に記載の情報処理システムであって、
登録された前記顔画像は、ユーザーの指示に基づいて変更、又は顔画像を追加することが可能である、
情報処理システム。
3. The information processing system according to claim 1,
The registered face image can be changed or a face image can be added based on the user's instructions.
Information processing system.
請求項1又は請求項2に記載の情報処理システムであって、
前記顔画像は、前記選択された映像に含まれる人物であることが分かる態様で表示される、
情報処理システム。
3. The information processing system according to claim 1,
The face image is displayed in such a manner that it is clear that the face image is a person included in the selected video.
Information processing system.
請求項1又は請求項2に記載の情報処理システムであって、
前記映像と共に、前記選択された映像に含まれる人物のうち顔が判別可能な人物の画像を表示する、
情報処理システム。
3. The information processing system according to claim 1,
displaying an image of a person whose face is identifiable among the people included in the selected video together with the video;
Information processing system.
カメラで撮影された映像を情報端末で表示させる情報処理システムが実行する情報処理方法であって、
前記映像から顔画像を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像と共に前記映像に含まれる顔画像を表示し、
ユーザーの指示に応じて前記顔画像を登録する、
情報処理方法。
An information processing method executed by an information processing system that displays an image captured by a camera on an information terminal, comprising:
Searching the video for video containing a face image;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
displaying a facial image included in the selected image together with the selected image;
registering the face image in response to a user's instruction;
Information processing methods.
カメラで撮影された映像を情報端末で表示させる情報処理システムが実行する情報処理方法であって、
登録された複数の顔画像を表示し、
ユーザーの指示に応じて前記複数の顔画像から顔画像を選択し、
前記選択された顔画像に対応する人物を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像を表示する、
情報処理方法。
An information processing method executed by an information processing system that displays an image captured by a camera on an information terminal, comprising:
Displaying multiple registered face images,
selecting a face image from the plurality of face images in response to a user instruction;
Searching for an image including a person corresponding to the selected face image;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
Displaying the selected image;
Information processing methods.
カメラで撮影された映像を情報端末で表示させるコンピュータに、
前記映像から顔画像を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像と共に前記映像に含まれる顔画像を表示し、
ユーザーの指示に応じて前記顔画像を登録する、
処理を実行させるためのプログラム。
A computer that displays the images captured by the camera on an information terminal.
Searching the video for video containing a face image;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
displaying a facial image included in the selected image together with the selected image;
registering the face image in response to a user's instruction;
A program for executing a process.
カメラで撮影された映像を情報端末で表示させるコンピュータに、
登録された複数の顔画像を表示し、
ユーザーの指示に応じて前記複数の顔画像から顔画像を選択し、
前記選択された顔画像に対応する人物を含む映像を検索し、
前記検索の結果として複数の映像を表示し、
ユーザーの指示に応じて前記複数の映像から映像を選択し、
前記選択された映像を表示する、
処理を実行させるためのプログラム。
A computer that displays the images captured by the camera on an information terminal.
Displaying multiple registered face images,
selecting a face image from the plurality of face images in response to a user instruction;
Searching for an image including a person corresponding to the selected face image;
displaying a plurality of images as a result of said search;
Selecting an image from the plurality of images in response to a user instruction;
Displaying the selected image;
A program for executing a process.
JP2024104043A 2024-06-27 Information processing system, information processing method, and program Active JP7581558B1 (en)

Publications (1)

Publication Number Publication Date
JP7581558B1 true JP7581558B1 (en) 2024-11-12

Family

ID=

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258764A (en) 2003-02-24 2004-09-16 Nec Corp System and apparatus for personal information management
JP2009048447A (en) 2007-08-21 2009-03-05 Oki Electric Ind Co Ltd Image processing device, image processing method, and image processing program
JP2014063251A (en) 2012-09-20 2014-04-10 Toshiba Corp Person recognition device and method
WO2020136794A1 (en) 2018-12-27 2020-07-02 日本電気株式会社 Information processing system, information processing device, information processing method, and program
JP2021005300A (en) 2019-06-27 2021-01-14 パナソニックi−PROセンシングソリューションズ株式会社 Information processor, monitoring system, program, and list generation method
JP2023129429A (en) 2020-01-31 2023-09-14 日本電気株式会社 Information processing device, information processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258764A (en) 2003-02-24 2004-09-16 Nec Corp System and apparatus for personal information management
JP2009048447A (en) 2007-08-21 2009-03-05 Oki Electric Ind Co Ltd Image processing device, image processing method, and image processing program
JP2014063251A (en) 2012-09-20 2014-04-10 Toshiba Corp Person recognition device and method
WO2020136794A1 (en) 2018-12-27 2020-07-02 日本電気株式会社 Information processing system, information processing device, information processing method, and program
JP2021005300A (en) 2019-06-27 2021-01-14 パナソニックi−PROセンシングソリューションズ株式会社 Information processor, monitoring system, program, and list generation method
JP2023129429A (en) 2020-01-31 2023-09-14 日本電気株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP5791605B2 (en) Metadata tagging system, image search method, device, and gesture tagging method applied thereto
KR101688753B1 (en) Grouping related photographs
US20160259992A1 (en) Image acquisition and management
EP3226537A1 (en) Mobile terminal and method for controlling the same
US20080062283A1 (en) Image capturing apparatus, image capturing method, album creating apparatus, album creating method, album creating system and computer readable medium
WO2017002505A1 (en) Information processing device, information processing method and program
JP2010010936A (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
US10136050B2 (en) Image acquisition and management using a reference image
KR102128955B1 (en) Method for generating a spin image and apparatus thereof
JP6203188B2 (en) Similar image search device
JP2011101251A (en) Electronic apparatus and image display method
JP2006295646A (en) Image processor and image processing program
JP2011211621A (en) Image display processing apparatus, electronic camera and program
JP2006293783A (en) Image processing device and image processing program
EP3151243B1 (en) Accessing a video segment
JP6214762B2 (en) Image search system, search screen display method
CN112822394B (en) Display control method, display control device, electronic equipment and readable storage medium
JP7581558B1 (en) Information processing system, information processing method, and program
JP2006314010A (en) Apparatus and method for image processing
JP2006060652A (en) Digital still camera
JP2009271697A (en) Display control device, display control system, and display control method
US12106561B2 (en) Information processing device, information processing method, and program
JP2004336466A (en) Method for registering metadata
JP2003324723A (en) Monitoring system and method, program, and recording medium
JP2003324717A (en) Monitoring system and method, and program and recording medium