Nothing Special   »   [go: up one dir, main page]

JP6958795B1 - Information processing methods, computer programs and information processing equipment - Google Patents

Information processing methods, computer programs and information processing equipment Download PDF

Info

Publication number
JP6958795B1
JP6958795B1 JP2021001571A JP2021001571A JP6958795B1 JP 6958795 B1 JP6958795 B1 JP 6958795B1 JP 2021001571 A JP2021001571 A JP 2021001571A JP 2021001571 A JP2021001571 A JP 2021001571A JP 6958795 B1 JP6958795 B1 JP 6958795B1
Authority
JP
Japan
Prior art keywords
image
facility
facial expression
target
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021001571A
Other languages
Japanese (ja)
Other versions
JP2022106517A (en
Inventor
幸司 土倉
ヘーラト サマン
達也 若狭
健一 生田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2021001571A priority Critical patent/JP6958795B1/en
Application granted granted Critical
Publication of JP6958795B1 publication Critical patent/JP6958795B1/en
Publication of JP2022106517A publication Critical patent/JP2022106517A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】施設の利用者を撮影した画像を、画像以外の情報と共に提供する情報処理方法、コンピュータプログラム及び情報処理装置を提供する。【解決手段】本実施の形態に係る情報処理方法は、情報処理装置が、対象に関する表情の選択を受け付け、前記対象が利用する施設に設置されたカメラが撮影した画像から、選択された表情に応じて抽出された画像を表示し、前記施設で実施されたイベントと前記対象の表情との対応付けを表示する。また情報処理方法は、表情に対応付けられた文字又は画像を選択候補として複数表示し、前記選択候補に対する選択を受け付けて、前記対象に関する表情の選択を受け付けてもよい。【選択図】図6PROBLEM TO BE SOLVED: To provide an information processing method, a computer program and an information processing device for providing an image of a user of a facility together with information other than the image. In the information processing method according to the present embodiment, an information processing device accepts selection of a facial expression related to a target, and the selected facial expression is obtained from an image taken by a camera installed in a facility used by the target. The image extracted accordingly is displayed, and the correspondence between the event carried out at the facility and the facial expression of the target is displayed. Further, the information processing method may display a plurality of characters or images associated with facial expressions as selection candidates, accept selections for the selection candidates, and accept selections of facial expressions related to the target. [Selection diagram] Fig. 6

Description

本発明は、カメラが撮影した画像の表示に係る処理を行う情報処理方法、コンピュータプログラム及び情報処理装置に関する。 The present invention relates to an information processing method, a computer program, and an information processing device that perform processing related to display of an image captured by a camera.

保育園、幼稚園又は小学校等の施設に通う園児又は生徒等の保護者は、これらの施設において自身の子供がどのように過ごしているかを詳しく知りたいと考えている。例えば、これらの施設に従事する保育士又は先生等が園児又は生徒等の様子を撮影し、撮影した写真を施設の掲示板等に貼り出す又は写真を整理してアルバム等を作成して保護者に渡す等を行うことによって、保護者は施設内での子供の様子を知ることができるが、保育士又は先生等の負担が増す。 Parents of children or students attending facilities such as nursery schools, kindergartens or elementary schools want to know in detail how their children spend their time in these facilities. For example, nursery teachers or teachers engaged in these facilities take pictures of children or students, and post the pictures taken on the bulletin board of the facility or organize the pictures to create an album etc. for parents. Parents can know the state of the child in the facility by handing it over, but the burden on the nursery teacher or teacher will increase.

特許文献1においては、専門のカメラマンを幼稚園又は学校等に派遣して園児又は生徒等の写真を撮影し、ウエブサイトに写真を掲示して写真アルバムの申し込みをユーザから受け付け、ウエブサイトを介して写真アルバムを配信する写真アルバム作成システムが提案されている。 In Patent Document 1, a specialized cameraman is dispatched to a kindergarten or school to take a picture of a kindergarten child or a student, the picture is posted on the website, an application for a photo album is accepted from the user, and the application for a photo album is accepted through the website. A photo album creation system that distributes photo albums has been proposed.

特開2008−21191号公報Japanese Unexamined Patent Publication No. 2008-21191

施設にて撮影される写真は、園児又は生徒等の日常生活の一瞬を切り取ったものであり、一日全体における子供の様子を知ることは難しい。特許文献1に記載の写真アルバム作成システムについても同様である。また特許文献1に記載の写真アルバム作成システムは、専門のカメラマンを施設へ派遣する必要があるため、頻繁に利用することは容易ではない。例えば入園式、入学式、運動会、卒園式又は卒業式等の特別なイベントについて専門のカメラマンに撮影を依頼することはできても、日常生活について専門のカメラマンに撮影を依頼することは難しい。 The pictures taken at the facility are taken from the moments of daily life of children or students, and it is difficult to know the state of the child throughout the day. The same applies to the photo album creation system described in Patent Document 1. Further, the photo album creation system described in Patent Document 1 is not easy to use frequently because it is necessary to dispatch a specialized cameraman to the facility. For example, it is possible to ask a professional cameraman to take pictures of special events such as entrance ceremonies, entrance ceremonies, athletic meet, graduation ceremonies or graduation ceremonies, but it is difficult to ask a professional cameraman to take pictures of daily life.

本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、施設の利用者を日常的に撮影した画像を提供することが期待できる情報処理方法、コンピュータプログラム及び情報処理装置を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is an information processing method, a computer program, and information that can be expected to provide images taken on a daily basis to users of a facility. The purpose is to provide a processing device.

一実施形態に係る情報処理方法は、情報処理装置が、対象に関する表情の選択を受け付け、前記対象が利用する施設に設置されたカメラが撮影した画像から、選択された表情に応じて抽出された画像を表示し、前記施設で実施されたイベントと前記対象の表情との対応付けを表示する。 In the information processing method according to one embodiment, the information processing apparatus accepts the selection of facial expressions related to the target, and the images taken by the camera installed in the facility used by the target are extracted according to the selected facial expressions. An image is displayed, and the correspondence between the event carried out at the facility and the facial expression of the target is displayed.

一実施形態による場合は、施設の利用者を日常的に撮影した画像を提供することが期待できる。 In the case of one embodiment, it can be expected to provide images of facility users on a daily basis.

本実施の形態に係る情報処理システムの概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of the information processing system which concerns on this Embodiment. 本実施の形態に係るサーバ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the server apparatus which concerns on this embodiment. ユーザDBの一構成例を示す模式図である。It is a schematic diagram which shows one configuration example of a user DB. 情報集計処理部が生成する集計情報の一例を示す模式図である。It is a schematic diagram which shows an example of the aggregated information generated by the information aggregation processing unit. 本実施の形態に係る端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the terminal apparatus which concerns on this embodiment. 本実施の形態に係る端末装置が表示するUI画面の一例を示す模式図である。It is a schematic diagram which shows an example of the UI screen displayed by the terminal apparatus which concerns on this embodiment. 本実施の形態に係るサーバ装置が行う画像記憶処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image storage processing performed by the server apparatus which concerns on this embodiment. 本実施の形態に係る端末装置が行う画像表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image display processing performed by the terminal apparatus which concerns on this embodiment. 本実施の形態に係るサーバ装置3が行う画像表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image display processing performed by the server apparatus 3 which concerns on this Embodiment.

本発明の実施形態に係る情報処理システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 A specific example of the information processing system according to the embodiment of the present invention will be described below with reference to the drawings. It should be noted that the present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

<システム概要>
図1は、本実施の形態に係る情報処理システムの概要を説明するための模式図である。本実施の形態に係る情報処理システムは、施設100に設置された一又は複数のカメラ1が撮影した画像(静止画像又は動画像)をサーバ装置3へ送信し、カメラ1から受信した画像をサーバ装置3がユーザの端末装置5へ送信するシステムである。
<System overview>
FIG. 1 is a schematic diagram for explaining an outline of the information processing system according to the present embodiment. The information processing system according to the present embodiment transmits an image (still image or moving image) taken by one or a plurality of cameras 1 installed in the facility 100 to the server device 3, and transmits the image received from the camera 1 to the server. This is a system in which the device 3 transmits to the user's terminal device 5.

なおカメラ1は、例えばカメラを有するスマートフォン又はタブレット型端末装置等の装置であってもよい。またカメラ1は、撮影方向又は画角等が可変の装置であってよく、例えば所定の被写体を自動追跡して撮影を行うカメラであってもよい。またカメラ1は、例えば360°の範囲を撮影可能なカメラであってもよい。またカメラ1は、例えばドローン等の移動体に搭載されるカメラであってよく、施設100に設定されたカメラ1には、このような移動体に搭載されたカメラにて施設100の内外の撮影を行う装置が含まれ得る。また施設100には、上記のような種々の構成のカメラ1が複数設置されてよい。 The camera 1 may be, for example, a device such as a smartphone or a tablet terminal device having a camera. Further, the camera 1 may be a device having a variable shooting direction or angle of view, and may be, for example, a camera that automatically tracks and shoots a predetermined subject. Further, the camera 1 may be a camera capable of photographing a range of, for example, 360 °. Further, the camera 1 may be a camera mounted on a moving body such as a drone, and the camera 1 set in the facility 100 may be used to take pictures inside and outside the facility 100 with the camera mounted on the moving body. A device that performs the above may be included. Further, a plurality of cameras 1 having various configurations as described above may be installed in the facility 100.

図示の例では、施設100として保育園又は幼稚園等が示されている。保育園又は幼稚園等の施設100に設置されたカメラ1は、例えば所定の周期で繰り返し自動的に施設100内の撮影、施設100を利用する利用者(本例では子供)の撮影を行っている。カメラ1は携帯電話通信網及びインターネット等のネットワークを介した通信を行う機能を備えており、カメラ1は撮影した画像をサーバ装置3へ送信する。 In the illustrated example, a nursery school, a kindergarten, or the like is shown as the facility 100. A camera 1 installed in a facility 100 such as a nursery school or a kindergarten automatically and repeatedly takes a picture of the inside of the facility 100 and a user (a child in this example) who uses the facility 100, for example, repeatedly at a predetermined cycle. The camera 1 has a function of performing communication via a mobile phone communication network and a network such as the Internet, and the camera 1 transmits the captured image to the server device 3.

サーバ装置3は、ネットワークを介してカメラ1から画像を受信し、受信した画像を記憶装置に記憶して蓄積する。またサーバ装置3は、ユーザが使用するスマートフォン又はPC(パーソナルコンピュータ)等の端末装置5へ、蓄積した画像を送信する。なお本実施の形態において端末装置5には、施設を利用する子供の保護者等が使用する端末装置5と、施設に従事する保育士等の従業者が使用する端末装置5とが含まれ得る。これにより例えば保育園又は幼稚園等の施設100に子供を預けている保護者は、施設100で過ごす子供の様子をカメラ1にて撮影した画像を自身の端末装置5にて閲覧することができる。また例えば施設100の保育士等は、子供の写真を撮影するという業務を行うことなく、施設100で過ごす子供の様子をカメラ1にて撮影した画像を端末装置5にて取得することができ、例えばフォトアルバムの作成又は施設100内での写真の掲示等を行うことができる。 The server device 3 receives an image from the camera 1 via the network, and stores and stores the received image in the storage device. Further, the server device 3 transmits the stored image to the terminal device 5 such as a smartphone or a PC (personal computer) used by the user. In the present embodiment, the terminal device 5 may include a terminal device 5 used by a guardian or the like of a child who uses the facility and a terminal device 5 used by an employee such as a nursery teacher who is engaged in the facility. .. As a result, for example, a guardian who entrusts a child to a facility 100 such as a nursery school or a kindergarten can view an image of a child spending time at the facility 100 taken by the camera 1 on his / her own terminal device 5. Further, for example, a nursery teacher or the like in the facility 100 can acquire an image taken by the camera 1 of the child spending time in the facility 100 by the terminal device 5 without performing the work of taking a picture of the child. For example, a photo album can be created or a photo can be posted in the facility 100.

本実施の形態に係る情報処理システムでは、カメラ1が撮影した画像に対してサーバ装置3が例えば人を検出する処理、検出した人を識別する処理、並びに、識別した人の表情(感情)及び行動を識別する処理等を行う。サーバ装置3は、これらの処理結果を付随情報として画像に付して記憶する。なおサーバ装置3は、これらの処理結果に基づいて各画像の採点(スコアリング)を行い、スコアが閾値を超えた画像のみを記憶し、スコアが閾値を超えない画像を破棄してもよい。サーバ装置3は、端末装置5から画像の表示要求及び表示する画像の条件等を受け付け、記憶して蓄積した多数の画像の中から要求に応じた画像を抽出して端末装置5へ送信し、端末装置5に抽出した画像を表示させる。 In the information processing system according to the present embodiment, the server device 3 detects, for example, a person with respect to the image captured by the camera 1, the process of identifying the detected person, and the facial expression (emotion) of the identified person. Performs processing to identify actions. The server device 3 attaches these processing results to an image as incidental information and stores them. The server device 3 may perform scoring (scoring) of each image based on these processing results, store only the images whose scores exceed the threshold value, and discard the images whose scores do not exceed the threshold value. The server device 3 receives an image display request, an image condition to be displayed, and the like from the terminal device 5, extracts an image according to the request from a large number of stored and accumulated images, and transmits the image to the terminal device 5. The extracted image is displayed on the terminal device 5.

また本実施の形態に係る情報処理システムでは、施設にて行われるイベント(カリキュラム)についてのスケジュール情報を施設100の従業者が端末装置5にて作成し、このスケジュール情報をサーバ装置3が取得して記憶する。サーバ装置3は、上述の種々の処理の結果に基づいて、例えば施設100にて行われるイベント毎、且つ、施設100の利用者(子供)毎に、イベントにおける利用者の表情及び行動等を集計し、集計した情報をスケジュール情報と対応付けて記憶する。 Further, in the information processing system according to the present embodiment, the employee of the facility 100 creates schedule information about the event (curriculum) performed at the facility on the terminal device 5, and the server device 3 acquires the schedule information. And remember. Based on the results of the various processes described above, the server device 3 aggregates the facial expressions and actions of the users at the event, for example, for each event performed at the facility 100 and for each user (child) of the facility 100. Then, the aggregated information is stored in association with the schedule information.

また本実施の形態に係る情報処理システムでは、施設100の従業者等が、カメラ1の撮影場所又は設置場所等の情報を端末装置5にて予め作成して登録しておくことが可能であってもよい。例えば施設100が保育園又は幼稚園等である場合に、カメラ1の撮影場所として砂場、園庭、プール、遊具、さくら組の教室又はチューリップ組の教室等のような情報が従業者等により登録され得る。登録されたこれらの情報は例えばカメラ1が記憶し、カメラ1は撮影した画像に登録された情報を付してサーバ装置3へ送信する。又は、登録されたこれらの情報は例えばカメラ1のID等に対応付けてサーバ装置3が記憶し、カメラ1から取得した画像にこれらの情報を付してもよい。画像に付されたこれらの情報は、例えばサーバ装置3による画像のスコアリングに用いられてもよく、また例えば表示する画像の条件等としてユーザにより指定され、ユーザからの条件に応じてサーバ装置3が画像を抽出する際に用いられてもよい。 Further, in the information processing system according to the present embodiment, it is possible for an employee or the like of the facility 100 to create and register information such as a shooting location or an installation location of the camera 1 in advance on the terminal device 5. You may. For example, when the facility 100 is a nursery school, a kindergarten, or the like, information such as a sandbox, a garden, a pool, a playset, a Sakura-gumi classroom, or a tulip-gumi classroom can be registered by an employee or the like as a shooting location of the camera 1. .. For example, the camera 1 stores the registered information, and the camera 1 attaches the registered information to the captured image and transmits the registered information to the server device 3. Alternatively, the registered information may be stored in the server device 3 in association with, for example, the ID of the camera 1, and the information may be added to the image acquired from the camera 1. These information attached to the image may be used, for example, for scoring the image by the server device 3, or may be specified by the user as, for example, a condition of the image to be displayed, and the server device 3 may be specified according to the condition from the user. May be used in extracting the image.

本実施の形態に係る情報処理システムでは、ユーザは自身の端末装置5を使用してサーバ装置3との通信を行い、サーバ装置3に記憶して蓄積された画像を取得して端末装置5に表示させることができる。このときに端末装置5は、サーバ装置3から取得して表示する画像の条件等をユーザから受け付け、条件を指定してサーバ装置3に画像の送信を要求する。サーバ装置3は、端末装置5からの要求において指定された条件を満たす画像を抽出し、要求元の端末装置5へ送信する。端末装置5は、サーバ装置3から送信された画像を受信して、表示部に表示する。本実施の形態においては、画像に写されている人(子供)の表情又は行動等をユーザが条件として指定することができ、サーバ装置3は画像に付随情報として付された表情又は行動等の識別結果に基づいて指定された条件の画像を抽出する。 In the information processing system according to the present embodiment, the user uses his / her own terminal device 5 to communicate with the server device 3, acquires images stored in the server device 3 and stores the images in the terminal device 5. It can be displayed. At this time, the terminal device 5 accepts the conditions and the like of the image acquired from the server device 3 and displays them from the user, specifies the conditions, and requests the server device 3 to transmit the image. The server device 3 extracts an image satisfying the conditions specified in the request from the terminal device 5 and transmits it to the request source terminal device 5. The terminal device 5 receives the image transmitted from the server device 3 and displays it on the display unit. In the present embodiment, the user can specify the facial expression or action of the person (child) shown in the image as a condition, and the server device 3 can specify the facial expression or action attached to the image as incidental information. An image with specified conditions is extracted based on the identification result.

また本実施の形態に係る情報処理システムでは、施設にて行われるイベントのスケジュール情報とこれに対応付けられた表情及び行動等の集計情報とをサーバ装置3から端末装置5が取得し、取得したスケジュール情報及び集計情報を表示する。端末装置5は、例えば1日のイベントのスケジュールを一覧表示し、各イベントにおいて対象の利用者(子供)がどのような表情又は行動等をしていたかを文字又は画像等で表示する。 Further, in the information processing system according to the present embodiment, the terminal device 5 acquires the schedule information of the event to be performed at the facility and the aggregated information such as facial expressions and actions associated with the schedule information from the server device 3. Display schedule information and aggregated information. The terminal device 5 displays, for example, a list of events for one day, and displays in characters or images what kind of facial expressions or actions the target user (child) was doing at each event.

また本実施の形態に係る情報処理システムでは、端末装置5のユーザの種別(例えば保護者又は保育士等)に応じて、端末装置5に表示することが可能な画像及び情報等に差異を設けてある。即ち、施設の利用者(子供)又はその保護者等が使用する端末装置5は、この利用者が写された画像が表示され、この利用者の表情又は行動等の識別結果が表示されるが、他の利用者(のみ)が写された画像及び他の利用者の表情又は行動等の識別結果は表示されない。これに対して施設に従事する従業者が使用する端末装置5には、この施設を利用する全ての利用者(子供)の画像と表情又は行動等の識別結果とを表示することができる。 Further, in the information processing system according to the present embodiment, the images and information that can be displayed on the terminal device 5 are different depending on the type of user of the terminal device 5 (for example, a guardian or a nursery teacher). There is. That is, the terminal device 5 used by the facility user (child) or its guardian or the like displays an image of this user, and displays the identification result of the user's facial expression or behavior. , Images of other users (only) and identification results such as facial expressions or actions of other users are not displayed. On the other hand, the terminal device 5 used by the employees engaged in the facility can display images of all users (children) who use the facility and identification results such as facial expressions or actions.

また本実施の形態に係る情報処理システムでは、端末装置5に表示された画像(サーバ装置3が記憶している画像)に対してユーザがコメント等の情報を付すことができる。端末装置5はユーザからコメント等の入力を受け付けてサーバ装置3へ送信し、サーバ装置3はコメント等の情報を画像に対応付けて記憶する。この画像を端末装置5へ送信する際にサーバ装置3は、画像に対応付けられたコメント等の情報を付して画像を端末装置5へ送信する。端末装置5は、サーバ装置3から受信した画像にコメント等の情報が付されている場合、画像と共にコメント等の情報を表示する。これにより、例えば施設の利用者(子供)の保護者と施設の従事者との間でコメント等の情報交換を行うことができる。 Further, in the information processing system according to the present embodiment, the user can add information such as a comment to the image displayed on the terminal device 5 (the image stored in the server device 3). The terminal device 5 receives an input such as a comment from the user and transmits it to the server device 3, and the server device 3 stores the information such as the comment in association with the image. When transmitting this image to the terminal device 5, the server device 3 transmits the image to the terminal device 5 with information such as a comment associated with the image. When the image received from the server device 3 is accompanied by information such as a comment, the terminal device 5 displays the information such as a comment together with the image. As a result, for example, information such as comments can be exchanged between the guardian of the facility user (child) and the facility worker.

なお本例では保育園又は幼稚園等の施設100にて子供の撮影を行う場合について説明したが、本実施の形態に係る情報処理システムの適用は保育園又は幼稚園等の施設100に限られない。施設100は、例えば遊園地又はテーマパーク等の商業施設であってもよく、また例えばスポーツ又はイベント等が開催される会場等の施設であってもよく、また例えば利用者の自宅であってもよい。またカメラ1による撮影対象は、人でなくてもよく、例えば動物園の動物又は自宅のペット等であってもよい。 In this example, the case where the child is photographed at the facility 100 such as a nursery school or a kindergarten has been described, but the application of the information processing system according to the present embodiment is not limited to the facility 100 such as a nursery school or a kindergarten. The facility 100 may be, for example, a commercial facility such as an amusement park or a theme park, or may be a facility such as a venue where a sport or an event is held, or may be, for example, a user's home. good. Further, the object to be photographed by the camera 1 does not have to be a person, and may be, for example, an animal in a zoo or a pet at home.

<装置構成>
図2は、本実施の形態に係るサーバ装置3の構成を示すブロック図である。本実施の形態に係るサーバ装置3は、処理部31、記憶部(ストレージ)32及び通信部(トランシーバ)33等を備えて構成されている。なお本実施の形態においては、1つのサーバ装置にて処理が行われるものとして説明を行うが、複数のサーバ装置が分散して処理を行ってもよい。
<Device configuration>
FIG. 2 is a block diagram showing a configuration of the server device 3 according to the present embodiment. The server device 3 according to the present embodiment includes a processing unit 31, a storage unit (storage) 32, a communication unit (transceiver) 33, and the like. In the present embodiment, it is assumed that the processing is performed by one server device, but a plurality of server devices may be distributed to perform the processing.

処理部31は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の演算処理装置、ROM(Read Only Memory)及びRAM(Random Access Memory)等を用いて構成されている。処理部31は、記憶部32に記憶されたサーバプログラム32aを読み出して実行することにより、カメラ1が撮影した画像を取得する処理、画像に写されている人、人の表情及び行動等を識別する処理、画像を選別して記憶する処理、施設100の従業者が作成したスケジュール情報を取得して記憶する処理、並びに、端末装置5からの要求に応じて画像を抽出して送信する処理等の種々の処理を行う。 The processing unit 31 is configured by using an arithmetic processing unit such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit) or a GPU (Graphics Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory) and the like. Has been done. The processing unit 31 reads and executes the server program 32a stored in the storage unit 32 to acquire an image taken by the camera 1, and identifies a person, a person's facial expression, an action, and the like captured in the image. Processing, processing for selecting and storing images, processing for acquiring and storing schedule information created by employees of facility 100, processing for extracting and transmitting images in response to a request from the terminal device 5, etc. Performs various processes.

記憶部32は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部32は、処理部31が実行する各種のプログラム、及び、処理部31の処理に必要な各種のデータを記憶する。本実施の形態において記憶部32は、処理部31が実行するサーバプログラム32aを記憶すると共に、カメラ1から受信した画像を記憶して蓄積する画像記憶部32bと、ユーザに関する情報を記憶するユーザDB(データベース)32cとが設けられている。 The storage unit 32 is configured by using a large-capacity storage device such as a hard disk. The storage unit 32 stores various programs executed by the processing unit 31 and various data required for processing by the processing unit 31. In the present embodiment, the storage unit 32 stores the server program 32a executed by the processing unit 31, the image storage unit 32b that stores and stores the image received from the camera 1, and the user DB that stores information about the user. (Database) 32c is provided.

本実施の形態においてサーバプログラム32aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、サーバ装置3は記録媒体99からサーバプログラム32aを読み出して記憶部32に記憶する。ただし、サーバプログラム32aは、例えばサーバ装置3の製造段階において記憶部32に書き込まれてもよい。また例えばサーバプログラム32aは、遠隔の他のサーバ装置等が配信するものをサーバ装置3が通信にて取得してもよい。例えばサーバプログラム32aは、記録媒体99に記録されたものを書込装置が読み出してサーバ装置3の記憶部32に書き込んでもよい。サーバプログラム32aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。 In the present embodiment, the server program 32a is provided in a mode of being recorded on a recording medium 99 such as a memory card or an optical disk, and the server device 3 reads the server program 32a from the recording medium 99 and stores it in the storage unit 32. However, the server program 32a may be written to the storage unit 32, for example, at the manufacturing stage of the server device 3. Further, for example, in the server program 32a, the server device 3 may acquire what is distributed by another remote server device or the like by communication. For example, in the server program 32a, the writing device may read what has been recorded on the recording medium 99 and write it in the storage unit 32 of the server device 3. The server program 32a may be provided in the form of distribution via the network, or may be provided in the form of being recorded on the recording medium 99.

画像記憶部32bは、カメラ1から受信し、サーバ装置3にて選別された画像を記憶する。画像記憶部32bは、例えばカメラ1が設置された施設100のID、カメラ1が複数設置される場合には各カメラ1のID、及び、画像が撮影された日時等により複数の画像を分類して記憶する。また本実施の形態において画像記憶部32bは、画像に写された人の識別結果、並びに、この人の表情又は行動等の識別結果等の情報を付随情報として画像に付して記憶する。 The image storage unit 32b stores an image received from the camera 1 and selected by the server device 3. The image storage unit 32b classifies a plurality of images according to, for example, the ID of the facility 100 in which the camera 1 is installed, the ID of each camera 1 when a plurality of cameras 1 are installed, the date and time when the images were taken, and the like. And remember. Further, in the present embodiment, the image storage unit 32b attaches and stores the identification result of the person captured in the image and the identification result such as the facial expression or behavior of the person as incidental information to the image.

また本実施の形態において画像記憶部32bは、施設の従事者等が端末装置5にて作成してサーバ装置3が取得したスケジュール情報を記憶する。スケジュール情報は、例えば日付の情報、その日に行われるイベントの名称等の情報、並びに、各イベントの時間帯(開始時刻及び終了時刻)の情報等の情報を含む。スケジュール情報は、例えば2020年11月25日の9時から10時まで自由遊び、10時から12時までクラスタイム、12時から13時までおひるごはん、…というような情報である。更に本実施の形態において画像記憶部32bは、各イベントにおける利用者(子供)の表情及び行動等の認識結果に関する情報を、スケジュール情報の各イベントに対応付けて記憶する。例えば10:00から11:00までの1時間のイベントにおいて、利用者Aは最も笑顔が多く、利用者Bは最も怒りの表情が多く、利用者Cは最も悲しみの表情が多い等のような情報が、スケジュール情報の各イベントに対応付けて記憶される。 Further, in the present embodiment, the image storage unit 32b stores the schedule information created by the facility worker or the like in the terminal device 5 and acquired by the server device 3. The schedule information includes, for example, information such as date information, information such as the name of an event to be performed on that day, and information such as time zone (start time and end time) of each event. The schedule information is, for example, free play from 9:00 to 10:00 on November 25, 2020, class time from 10:00 to 12:00, rice cooked from 12:00 to 13:00, and so on. Further, in the present embodiment, the image storage unit 32b stores information on the recognition result such as the facial expression and the behavior of the user (child) in each event in association with each event of the schedule information. For example, in a one-hour event from 10:00 to 11:00, user A has the most smiles, user B has the most angry expressions, user C has the most sad expressions, and so on. The information is stored in association with each event of the schedule information.

ユーザDB32cは、本実施の形態に係る情報処理システムが提供するサービスについて利用登録を行ったユーザに関する情報を記憶するデータベースである。図3は、ユーザDB32cの一構成例を示す模式図である。本実施の形態に係るサーバ装置3が有するユーザDB32cは、例えば「ユーザID」、「施設ID」及び「対象者」の情報を対応付けて記憶する。「ユーザID」は、本実施の形態に係る情報処理システムが提供するサービスを利用するユーザに対して一意に付された識別情報である。ユーザは、例えば保育園を利用する子供の保護者又は保育士等であり、本例ではユーザIDとして保護者A、保護者B、保育士X、保育士Y等のIDが付されている。「施設ID」は、施設100に対して一意に付された識別情報である。本例では施設IDとして保育園a等のIDが付されている。 The user DB 32c is a database that stores information about a user who has registered for use of the service provided by the information processing system according to the present embodiment. FIG. 3 is a schematic view showing a configuration example of the user DB 32c. The user DB 32c of the server device 3 according to the present embodiment stores, for example, information of "user ID", "facility ID", and "target person" in association with each other. The "user ID" is identification information uniquely assigned to a user who uses the service provided by the information processing system according to the present embodiment. The user is, for example, a guardian or a nursery teacher of a child who uses a nursery school, and in this example, IDs such as guardian A, guardian B, nursery teacher X, and nursery teacher Y are attached as user IDs. The "facility ID" is identification information uniquely attached to the facility 100. In this example, an ID such as a nursery school a is attached as the facility ID.

「対象者」は、施設100に設置されたカメラ1による撮影の対象となる利用者(子供)に関する情報であり、ユーザが画像を閲覧等することが可能な対象者に関する情報である。「対象者」の情報には、例えば「名前」及び「特徴量」等の情報が含まれ得る。「名前」は、対象者の本名又は愛称等であり、本例では「あおいちゃん」、「たくやくん」等の愛称が設定されている。「特徴量」は、例えば対象者の顔写真等から抽出された、対象者の顔の特徴を示すベクトル情報等である。この特徴量は、例えば画像に写された人が誰であるかを識別する処理に用いられる。なお本例では、施設100の従業者である保育士X及び保育士Yについては、この施設100の利用者の全員について画像の閲覧が可能であり、「対象者」として「全員」が設定されている。 The "target person" is information about a user (child) to be photographed by the camera 1 installed in the facility 100, and is information about a target person who can view an image or the like. The information of the "target person" may include information such as "name" and "feature amount". The "name" is the real name or nickname of the target person, and in this example, nicknames such as "Aoi-chan" and "Takuya-kun" are set. The "feature amount" is, for example, vector information indicating the facial features of the subject, which is extracted from a photograph of the face of the subject. This feature amount is used, for example, in a process of identifying who is the person shown in the image. In this example, for nursery teacher X and nursery teacher Y who are employees of facility 100, images can be viewed for all users of this facility 100, and "all" is set as "target person". ing.

なおサーバ装置3が有するユーザDB32cの構成は、図示のものに限らない。ユーザDB32cには、上記の情報以外にも、例えばユーザの名前、施設100の名前、ユーザが使用する端末装置5に付された端末ID、ユーザの住所、電話番号もしくはメールアドレス等の連絡先、又は、サービスに対するログイン用のパスワード等の種々の情報が記憶され得る。 The configuration of the user DB 32c included in the server device 3 is not limited to the one shown in the figure. In addition to the above information, the user DB 32c also includes, for example, a user's name, a facility 100's name, a terminal ID attached to the terminal device 5 used by the user, a user's address, a contact information such as a telephone number or an email address, and the like. Alternatively, various information such as a password for logging in to the service can be stored.

サーバ装置3の通信部33は、携帯電話通信網、無線LAN(Local Area Network)及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部33は、ネットワークNを介して、カメラ1及び端末装置5との間で通信を行う。通信部33は、処理部31から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部31へ与える。 The communication unit 33 of the server device 3 communicates with various devices via a network N including a mobile phone communication network, a wireless LAN (Local Area Network), the Internet, and the like. In the present embodiment, the communication unit 33 communicates with the camera 1 and the terminal device 5 via the network N. The communication unit 33 transmits the data given by the processing unit 31 to another device, and gives the data received from the other device to the processing unit 31.

なお記憶部32は、サーバ装置3に接続された外部記憶装置であってよい。またサーバ装置3は、複数のコンピュータを含んで構成されるマルチコンピュータであってよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。またサーバ装置3は、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。 The storage unit 32 may be an external storage device connected to the server device 3. Further, the server device 3 may be a multi-computer including a plurality of computers, or may be a virtual machine virtually constructed by software. Further, the server device 3 is not limited to the above configuration, and may include, for example, a reading unit that reads information stored in a portable storage medium, an input unit that accepts operation input, a display unit that displays an image, and the like. ..

また本実施の形態に係るサーバ装置3には、記憶部32に記憶されたサーバプログラム32aを処理部31が読み出して実行することにより、画像受信処理部31a、画像識別処理部31b、情報集計処理部31c、画像選別部31d及び画像送信処理部31e等が、ソフトウェア的な機能部として処理部31に実現される。なお本図においては、処理部31の機能部として、カメラ1が撮影した画像に対する処理を行う機能部を図示し、これ以外の処理に関する機能部は図示を省略している。 Further, in the server device 3 according to the present embodiment, the processing unit 31 reads out and executes the server program 32a stored in the storage unit 32, so that the image receiving processing unit 31a, the image identification processing unit 31b, and the information aggregation processing The unit 31c, the image selection unit 31d, the image transmission processing unit 31e, and the like are realized in the processing unit 31 as software-like functional units. In this figure, as the functional unit of the processing unit 31, the functional unit that performs processing on the image captured by the camera 1 is illustrated, and the functional unit related to other processing is omitted.

画像受信処理部31aは、カメラ1が送信する画像を通信部33にて受信する処理を行う。例えば画像受信処理部31aは、受信した画像に付されたデータに基づいて、画像の撮影日時、撮影したカメラ1のID及びカメラ1が設置された施設100のID等に対応付けて、画像を分類して記憶部32に一時的に記憶する。なお画像受信処理部31aによって記憶部32に一時的に記憶された画像は、画像選別処理により選別がなされ、記憶部32の画像記憶部32bに記憶して蓄積されるか、又は、記憶部32から消去される。 The image reception processing unit 31a performs a process of receiving the image transmitted by the camera 1 by the communication unit 33. For example, the image reception processing unit 31a associates the image with the shooting date and time of the image, the ID of the camera 1 that shot the image, the ID of the facility 100 in which the camera 1 is installed, and the like, based on the data attached to the received image. It is classified and temporarily stored in the storage unit 32. The image temporarily stored in the storage unit 32 by the image reception processing unit 31a is sorted by the image selection process and stored and stored in the image storage unit 32b of the storage unit 32, or the storage unit 32. Is erased from.

画像識別処理部31bは、カメラ1から取得した画像に対して、画像に写された人を検出する処理、画像に写された人が誰であるかを識別する処理、画像に写された人の表情を識別する処理、及び、画像に写された人の行動を識別する処理等を行う。画像識別処理部31bは、これらの処理結果に関する情報を画像にメタデータとして付す。なお本実施の形態においては、これらの処理をサーバ装置3が行うものとするが、これに限るものではなく、これらの処理の一部又は全部を予めカメラ1が行ってもよい。 The image identification processing unit 31b has a process of detecting a person in the image, a process of identifying who is in the image, and a person in the image of the image acquired from the camera 1. The process of identifying the facial expression of the person, the process of identifying the behavior of the person captured in the image, and the like are performed. The image identification processing unit 31b attaches information regarding these processing results to the image as metadata. In the present embodiment, these processes are performed by the server device 3, but the present invention is not limited to this, and the camera 1 may perform some or all of these processes in advance.

画像識別処理部31bは、例えば予め機械学習がなされた学習モデルを用いて、画像から人を検出する。学習モデルは、例えば画像のデータを入力として受け付けて、この画像に含まれる人が写された画像領域(を示す座標等のデータ)を出力するように予め機械学習がなされる。学習モデルは、例えば画像のデータと、この画像に含まれる人が写された画像領域を示すデータとが対応付けられた教師データを用いて機械学習がなされる。また保育園又は幼稚園等の施設100にて撮影された画像を基に検出する対象の人を子供とする場合、子供が写された画像データを用いて教師データを作成することにより、子供の検出精度を高めることが期待できる。画像識別処理部31bは、カメラ1から取得した画像を学習モデルへ入力し、学習モデルが出力する人の検出結果を取得することで、画像に写された人を検出する処理を行う。なお画像識別処理部31bは、画像から人が検出されなかった場合、即ち画像に人が写されていない場合、この画像を除去して後続の処理の対象から外す。 The image identification processing unit 31b detects a person from an image by using, for example, a learning model that has been machine-learned in advance. The learning model receives, for example, image data as input, and machine learning is performed in advance so as to output an image area (data such as coordinates indicating) in which a person included in the image is captured. The learning model is machine-learned using, for example, teacher data in which image data and data indicating an image area in which a person included in the image is captured are associated with each other. In addition, when the target person to be detected based on the image taken at the facility 100 such as a nursery school or kindergarten is a child, the detection accuracy of the child is obtained by creating the teacher data using the image data of the child. Can be expected to increase. The image identification processing unit 31b inputs the image acquired from the camera 1 to the learning model, acquires the detection result of the person output by the learning model, and performs the process of detecting the person captured in the image. The image identification processing unit 31b removes this image and excludes it from the target of subsequent processing when a person is not detected from the image, that is, when no person is captured in the image.

画像識別処理部31bは、例えば画像に写された人の顔の特徴量に基づいて、画像に写された人が誰であるかを識別する処理を行う。画像識別処理部31bは、例えば画像に写された人の顔の特徴量を抽出し、ユーザDB32cに登録された対象者の特徴量との比較を行う。画像識別処理部31bは、カメラ1の画像に写された人の顔の特徴量と一致する又は類似する特徴量がユーザDB32cに登録されている対象者(子供)を検索し、該当する対象者をこの画像に写された人と判断する。画像識別処理部31bは、例えば画像を入力として受け付けて、この画像に写された人の顔の特徴量として多次元のベクトル情報を出力する学習モデルを用いて、カメラ1が撮影した画像に写された人の顔の特徴量の抽出を行う。ユーザDB32cに顔の特徴量を登録する際にも、同じ学習モデルを用いることができる。画像識別処理部31bは、例えば2つの特徴量に対応する2つのベクトルの距離等を算出し、この距離が閾値以下であり、且つ、距離が最も小さいものを、顔の特徴が一致する又は類似すると判断することができる。 The image identification processing unit 31b performs a process of identifying who is the person captured in the image, for example, based on the feature amount of the face of the person captured in the image. The image identification processing unit 31b extracts, for example, the feature amount of the human face captured in the image and compares it with the feature amount of the target person registered in the user DB 32c. The image identification processing unit 31b searches for a target person (child) whose feature amount matches or is similar to the feature amount of the human face captured in the image of the camera 1 and is registered in the user DB 32c, and the corresponding target person. Is judged to be the person shown in this image. The image identification processing unit 31b, for example, uses a learning model that accepts an image as an input and outputs multidimensional vector information as a feature amount of the human face captured in this image, and captures the image on the image captured by the camera 1. The feature amount of the person's face is extracted. The same learning model can be used when registering facial features in the user DB 32c. The image identification processing unit 31b calculates, for example, the distance between two vectors corresponding to the two feature quantities, and the one whose distance is equal to or less than the threshold value and whose distance is the shortest has the same or similar facial features. Then it can be judged.

画像識別処理部31bは、例えば予め機械学習がなされた学習モデルを用いて、画像に写された人の表情を識別する処理を行う。例えば学習モデルは、人が写された画像を入力として受け付けて、この画像に写された人の表情が所定の表情である確信度を出力するように予め機械学習がなされる。所定の表情は例えば笑顔、怒り又は悲しみ等である。画像識別処理部31bは、例えば1種類の表情について確信度を出力する学習モデルを複数用意して複数種類の表情の識別を行ってもよく、また例えば複数種類の表情について確信度をそれぞれ出力する1つの学習モデルを用意して識別を行ってもよい。学習モデルは、例えば画像のデータと、この画像に写された人の顔の表情が所定の表情であるか否かを示すラベル(所定の表情であればラベル1、所定の表情以外であればラベル0など)とを対応付けた教師データを用いて機械学習がなされる。本実施の形態において画像識別処理部31bは、カメラ1が撮影した画像を学習モデルへ入力し、学習モデルが出力する各表情の確信度を取得し、確信度が最も高い表情を画像に写された人の表情と判断する。なお最も高い確信度が閾値を超えない場合には、画像識別処理部31bは、画像に写された人の表情が、学習モデルにて識別できるいずれの表情でもないと判断してよい。 The image identification processing unit 31b performs processing for identifying a person's facial expression captured in an image, for example, by using a learning model that has been machine-learned in advance. For example, the learning model accepts an image of a person as input, and machine learning is performed in advance so as to output a certainty that the facial expression of the person captured in this image is a predetermined facial expression. A given facial expression is, for example, a smile, anger or sadness. The image identification processing unit 31b may, for example, prepare a plurality of learning models that output the certainty of one type of facial expression to identify the plurality of types of facial expressions, and output the certainty of each of the plurality of types of facial expressions, for example. One learning model may be prepared for identification. The learning model is, for example, an image data and a label indicating whether or not the facial expression of the person captured in this image is a predetermined facial expression (label 1 if the facial expression is predetermined, and label 1 if the facial expression is other than the predetermined facial expression). Machine learning is performed using the teacher data associated with (label 0, etc.). In the present embodiment, the image identification processing unit 31b inputs the image taken by the camera 1 into the learning model, acquires the certainty of each facial expression output by the learning model, and the facial expression with the highest certainty is copied to the image. Judge as the facial expression of the person. If the highest certainty does not exceed the threshold value, the image identification processing unit 31b may determine that the facial expression of the person captured in the image is not any facial expression that can be identified by the learning model.

画像識別処理部31bは、例えば予め機械学習がなされた学習モデルを用いて、画像に写された人が行っている行動を識別する処理を行う。学習モデルは、例えば画像のデータを入力として受け付け、この画像に写された人の行動が所定の行動である確信度を出力するように予め機械学習がなされる。本実施の形態においては、所定の行動として例えば走っている確信度を出力する学習モデル、及び、食事をしている確信度を出力する学習モデル等のように、行動毎に学習モデルが予め作成される。学習モデルは、例えば画像のデータと、この画像に写された人が所定の行動を行っているか否かを示すラベルとを対応付けた教師データを用いて機械学習がなされる。本実施の形態において画像識別処理部31bは、カメラ1が撮影した画像を各学習モデルへ入力し、学習モデルが出力する各行動の確信度を取得する。画像識別処理部31bは、複数の行動に関する確信度を比較し、最も確信度が高い行動を、画像に写された人が行っている行動と判定する。なお最も高い確信度が閾値を超えない場合には、画像識別処理部31bは、画像に写された人の行動が、学習モデルにて識別できるいずれの行動でもないと判断してよい。 The image identification processing unit 31b performs a process of identifying an action performed by a person captured in an image by using, for example, a learning model that has been machine-learned in advance. The learning model accepts, for example, image data as input, and machine learning is performed in advance so as to output the degree of certainty that the behavior of the person captured in the image is a predetermined behavior. In the present embodiment, a learning model is created in advance for each action, such as a learning model that outputs the certainty of running and a learning model that outputs the certainty of eating as predetermined actions. Will be done. In the learning model, machine learning is performed using, for example, teacher data in which image data and a label indicating whether or not a person captured in the image is performing a predetermined action are associated with each other. In the present embodiment, the image identification processing unit 31b inputs the image captured by the camera 1 into each learning model, and acquires the certainty of each action output by the learning model. The image identification processing unit 31b compares the certainty of a plurality of actions, and determines that the action with the highest certainty is the action performed by the person captured in the image. If the highest certainty does not exceed the threshold value, the image identification processing unit 31b may determine that the behavior of the person captured in the image is not any behavior that can be identified by the learning model.

情報集計処理部31cは、画像識別処理部31bによる識別結果の情報を集計する処理を行う。情報集計処理部31cは、施設100の従業者が予め作成したスケジュール情報を記憶部32から読み出し、スケジュール情報に含まれるイベント毎に、施設100の各利用者(子供)について、例えばいずれの表情をしている時間が最も長かったか、いずれの行動をしている時間が最も長かったか等を集計する。情報集計処理部31cは、これらの集計結果を集計情報としてスケジュール情報の各イベントに対応付けて記憶部32に記憶する。 The information aggregation processing unit 31c performs a process of aggregating the information of the identification result by the image identification processing unit 31b. The information aggregation processing unit 31c reads the schedule information created in advance by the employee of the facility 100 from the storage unit 32, and for each event included in the schedule information, for example, any facial expression of each user (child) of the facility 100. Aggregate which action was the longest, which action was the longest, and so on. The information aggregation processing unit 31c stores these aggregation results as aggregation information in the storage unit 32 in association with each event of the schedule information.

図4は、情報集計処理部が生成する集計情報の一例を示す模式図である。本図には利用者の表情について画像から認識された回数の集計結果が示されているが、これに限るものではなく、例えば利用者の行動について集計が行われてもよく、また例えば表情の回数ではなく時間について集計が行われてもよい。情報集計処理部31cが生成する集計情報は、例えば「年月日」、「イベント」、「対象者」及び「表情の回数」等の情報が対応付けて記憶された情報である。 FIG. 4 is a schematic diagram showing an example of aggregated information generated by the information aggregation processing unit. This figure shows the aggregated result of the number of times the user's facial expression is recognized from the image, but it is not limited to this, and for example, the user's behavior may be aggregated, and for example, the facial expression. Aggregation may be done for time rather than number of times. The aggregated information generated by the information aggregation processing unit 31c is, for example, information stored in association with information such as "date", "event", "target person", and "number of facial expressions".

「年月日」は、カメラ1により画像が撮影された年月日である。「イベント」は、「年月日」に対して設定されたイベントの情報をスケジュール情報から抽出したものであり、例えば保育園又は幼稚園等の施設100であれば「登園」及び「自由あそび」等のイベントが設定され得る。「対象者」は、カメラ1により撮影された画像に写された人として識別された人であり、ユーザDB32cに記憶された「対象者」の「名前」が設定され得る。本例では、「あおいちゃん」及び「たくやくん」の名前が「対象者」として設定されている。「表情の回数」は、カメラ1が撮影した画像から識別された各利用者の表情の回数であり、本例では「えがお」、「かなしい」及び「おこる」の3種類について表情の識別が行われるものとしている。 The "date" is the date when the image was taken by the camera 1. The "event" is the information of the event set for the "date" extracted from the schedule information. For example, in the case of a facility 100 such as a nursery school or a kindergarten, "going to a kindergarten" and "free play" etc. Events can be set. The "target person" is a person identified as a person photographed in the image taken by the camera 1, and the "name" of the "target person" stored in the user DB 32c can be set. In this example, the names of "Aoi-chan" and "Takuya-kun" are set as "target persons". The "number of facial expressions" is the number of facial expressions of each user identified from the image taken by the camera 1, and in this example, the facial expressions are identified for the three types of "egao", "kana", and "occurrence". It is supposed to be.

本例の集計情報によれば、「2020年11月25日」の「登園」のイベントにおいて、「あおいちゃん」は「えがお」が8回且つ「かなしい」が1回であり、「たくやくん」は「えがお」が2回且つ「おこる」が4回であることが集計されている。また同日の「自由あそび」のイベントにおいて、「あおいちゃん」は「えがお」が7回且つ「おこる」が1回であり、「たくやくん」は「えがお」が6回且つ「かなしい」が2回であることが集計されている。 According to the aggregated information of this example, in the event of "going to the park" on "November 25, 2020", "Aoi-chan" had "Egao" eight times and "Kanai" once, and "Takuya-kun". "" Is counted as "Egao" twice and "Occurrence" four times. Also, at the "Free Play" event on the same day, "Aoi-chan" had "Egao" 7 times and "Okake" once, and "Takuya-kun" had "Egao" 6 times and "Kanai" 2 times. Is aggregated.

画像選別部31dは、画像識別処理部31bによる識別結果に基づいて、カメラ1から取得した画像の中から、画像記憶部32bに記憶して蓄積する画像を選別する処理を行う。画像選別部31dは、例えばスケジュールの各イベントについて、1人の利用者について所定数の画像を選別する。このときに画像選別部31dは、例えば表情を識別する際に学習モデルが出力した確信度が高い画像を上位から所定数だけ選別することができる。また例えば画像選別部31dは、5分又は10分等の間隔で確信度が最も高い画像を選別してもよい。画像選別部31dによる画像選別の方法は、上記の方法に限らず、どのような方法が採用されてもよい。 The image selection unit 31d performs a process of selecting an image stored and accumulated in the image storage unit 32b from the images acquired from the camera 1 based on the identification result by the image identification processing unit 31b. The image selection unit 31d selects a predetermined number of images for one user for each event of the schedule, for example. At this time, the image selection unit 31d can select a predetermined number of images with high certainty output by the learning model, for example, when identifying facial expressions. Further, for example, the image selection unit 31d may select the image having the highest certainty at intervals such as 5 minutes or 10 minutes. The method of image selection by the image selection unit 31d is not limited to the above method, and any method may be adopted.

画像送信処理部31eは、画像記憶部32bに記憶した画像をユーザの端末装置5へ送信する処理を行う。画像送信処理部31eは、端末装置5から画像の送信要求と共に与えられる条件を取得し、取得した条件を満たす画像を画像記憶部32bに記憶された複数の画像の中から抽出して、要求元の端末装置5へ送信する。端末装置5から与えられる条件は、例えば「2020年11月25日のあおいちゃんの笑顔の画像」等である。画像送信処理部31eは、画像識別処理部31bが各画像に付したメタデータに基づいて、端末装置5からの条件を満たす画像を抽出する。 The image transmission processing unit 31e performs a process of transmitting the image stored in the image storage unit 32b to the user's terminal device 5. The image transmission processing unit 31e acquires the conditions given together with the image transmission request from the terminal device 5, extracts the images satisfying the acquired conditions from the plurality of images stored in the image storage unit 32b, and requests the request source. Is transmitted to the terminal device 5 of. The condition given by the terminal device 5 is, for example, "an image of Aoi-chan's smile on November 25, 2020". The image transmission processing unit 31e extracts an image satisfying the conditions from the terminal device 5 based on the metadata attached to each image by the image identification processing unit 31b.

図5は、本実施の形態に係る端末装置5の構成を示すブロック図である。本実施の形態に係る端末装置5は、処理部51、記憶部(ストレージ)52、通信部(トランシーバ)53、表示部(ディスプレイ)54及び操作部55等を備えて構成されている。端末装置5は、施設100の利用者、利用者を見守る保護者、又は、施設100の従事者等のユーザが使用する装置であり、例えばスマートフォン、タブレット型端末装置又はパーソナルコンピュータ等の情報処理装置を用いて構成され得る。 FIG. 5 is a block diagram showing the configuration of the terminal device 5 according to the present embodiment. The terminal device 5 according to the present embodiment includes a processing unit 51, a storage unit (storage) 52, a communication unit (transceiver) 53, a display unit (display) 54, an operation unit 55, and the like. The terminal device 5 is a device used by a user of the facility 100, a guardian watching over the user, or a user such as an employee of the facility 100, and is an information processing device such as a smartphone, a tablet terminal device, or a personal computer. Can be configured using.

処理部51は、CPU又はMPU等の演算処理装置、ROM及び等を用いて構成されている。処理部51は、記憶部52に記憶されたプログラム52aを読み出して実行することにより、表示する画像の条件の入力を受け付ける処理、及び、サーバ装置3から取得した画像を表示する処理等の種々の処理を行う。 The processing unit 51 is configured by using an arithmetic processing unit such as a CPU or MPU, a ROM, and the like. The processing unit 51 reads and executes the program 52a stored in the storage unit 52 to accept input of conditions for the image to be displayed, and various processes such as displaying the image acquired from the server device 3. Perform processing.

記憶部52は、例えばフラッシュメモリ等の不揮発性のメモリ素子を用いて構成されている。記憶部52は、処理部51が実行する各種のプログラム、及び、処理部51の処理に必要な各種のデータを記憶する。本実施の形態において記憶部52は、処理部51が実行するプログラム52aを記憶している。本実施の形態においてプログラム52aは遠隔のサーバ装置等により配信され、これを端末装置5が通信にて取得し、記憶部52に記憶する。ただしプログラム52aは、例えば端末装置5の製造段階において記憶部52に書き込まれてもよい。例えばプログラム52aは、メモリカード又は光ディスク等の記録媒体98に記録されたプログラム52aを端末装置5が読み出して記憶部52に記憶してもよい。例えばプログラム52aは、記録媒体98に記録されたものを書込装置が読み出して端末装置5の記憶部52に書き込んでもよい。プログラム52aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体98に記録された態様で提供されてもよい。 The storage unit 52 is configured by using a non-volatile memory element such as a flash memory. The storage unit 52 stores various programs executed by the processing unit 51 and various data required for processing by the processing unit 51. In the present embodiment, the storage unit 52 stores the program 52a executed by the processing unit 51. In the present embodiment, the program 52a is distributed by a remote server device or the like, which is acquired by the terminal device 5 by communication and stored in the storage unit 52. However, the program 52a may be written in the storage unit 52, for example, at the manufacturing stage of the terminal device 5. For example, in the program 52a, the terminal device 5 may read the program 52a recorded on the recording medium 98 such as a memory card or an optical disk and store it in the storage unit 52. For example, in the program 52a, the writing device may read what was recorded on the recording medium 98 and write it in the storage unit 52 of the terminal device 5. The program 52a may be provided in a mode of distribution via a network, or may be provided in a mode recorded on a recording medium 98.

通信部53は、携帯電話通信網、無線LAN及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部53は、ネットワークNを介して、サーバ装置3との間で通信を行う。通信部53は、処理部51から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部51へ与える。 The communication unit 53 communicates with various devices via a network N including a mobile phone communication network, a wireless LAN, the Internet, and the like. In the present embodiment, the communication unit 53 communicates with the server device 3 via the network N. The communication unit 53 transmits the data given by the processing unit 51 to another device, and gives the data received from the other device to the processing unit 51.

表示部54は、液晶ディスプレイ等を用いて構成されており、処理部51の処理に基づいて種々の画像及び文字等を表示する。操作部55は、ユーザの操作を受け付け、受け付けた操作を処理部51へ通知する。例えば操作部55は、機械式のボタン又は表示部54の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付ける。また例えば操作部55は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスは端末装置5に対して取り外すことが可能な構成であってもよい。 The display unit 54 is configured by using a liquid crystal display or the like, and displays various images, characters, and the like based on the processing of the processing unit 51. The operation unit 55 accepts the user's operation and notifies the processing unit 51 of the accepted operation. For example, the operation unit 55 accepts a user's operation by an input device such as a mechanical button or a touch panel provided on the surface of the display unit 54. Further, for example, the operation unit 55 may be an input device such as a mouse and a keyboard, and these input devices may be configured to be removable with respect to the terminal device 5.

また本実施の形態に係る端末装置5は、記憶部52に記憶されたプログラム52aを処理部51が読み出して実行することにより、表示処理部51a及び条件取得部51b等がソフトウェア的な機能部として処理部51に実現される。なおプログラム52aは、本実施の形態に係る情報処理システムに専用のプログラムであってもよく、インターネットブラウザ又はウェブブラウザ等の汎用のプログラムであってもよい。 Further, in the terminal device 5 according to the present embodiment, the processing unit 51 reads out and executes the program 52a stored in the storage unit 52, so that the display processing unit 51a, the condition acquisition unit 51b, and the like become software-like functional units. It is realized in the processing unit 51. The program 52a may be a program dedicated to the information processing system according to the present embodiment, or may be a general-purpose program such as an Internet browser or a web browser.

表示処理部51aは、表示部54に対して種々の文字又は画像等を表示する処理を行う。本実施の形態において表示処理部51aは、後述のUI(User Interface)画面を表示部54に表示すると共に、このUI画面の所定領域にサーバ装置3から取得した画像を表示する。また本実施の形態に係る情報処理システムでは、施設100の利用者又はその保護者が使用する端末装置5に表示するUI画面と、施設100の従業者が使用する端末装置5に表示するUI画面とには差異が設けられており、表示処理部51aは端末装置5を使用しているユーザに応じたUI画面の表示を行う。 The display processing unit 51a performs a process of displaying various characters, images, and the like on the display unit 54. In the present embodiment, the display processing unit 51a displays the UI (User Interface) screen described later on the display unit 54, and also displays the image acquired from the server device 3 in a predetermined area of the UI screen. Further, in the information processing system according to the present embodiment, the UI screen displayed on the terminal device 5 used by the user of the facility 100 or its guardian and the UI screen displayed on the terminal device 5 used by the employee of the facility 100. The display processing unit 51a displays the UI screen according to the user who is using the terminal device 5.

条件取得部51bは、表示処理部51aがUI画面を表示部54に表示している際に、操作部55に対するユーザの操作に基づいて、UI画面に表示する一又は複数の画像に関する条件を取得する処理を行う。本実施の形態に係る情報処理システムでは、表示する画像に関する条件として、画像が撮影された日付、画像に写されている人の表情(笑顔、怒り及び悲しみ等)、画像に写されている利用者(子供)、並びに、スケジュールのイベント等を受け付ける。条件取得部51bは、取得した条件を付した画像の送信要求をサーバ装置3へ与える。この要求に応じてサーバ装置3は条件に適合する画像を端末装置5へ送信し、この画像を受信した端末装置5の表示処理部51aが画像を表示する。 The condition acquisition unit 51b acquires conditions related to one or more images to be displayed on the UI screen based on the user's operation on the operation unit 55 when the display processing unit 51a displays the UI screen on the display unit 54. Perform the processing. In the information processing system according to the present embodiment, as conditions for the image to be displayed, the date when the image was taken, the facial expression (smile, anger, sadness, etc.) of the person shown in the image, and the use shown in the image. We accept people (children) and scheduled events. The condition acquisition unit 51b gives a transmission request for an image with the acquired conditions to the server device 3. In response to this request, the server device 3 transmits an image conforming to the conditions to the terminal device 5, and the display processing unit 51a of the terminal device 5 that receives this image displays the image.

<画像表示処理>
図6は、本実施の形態に係る端末装置5が表示するUI画面の一例を示す模式図である。なお図6に示すUI画面は、施設100の従業者が使用する端末装置5が表示するUI画面である。本実施の形態に係る端末装置5が表示するUI画面は、日付表示領域101、表情選択領域(第1の領域)102、対象者選択領域103、主画像表示領域(第3の領域)104、従画像表示領域(第2の領域)105及びスケジュール表示領域(第4の領域)106等を含んで構成されている。
<Image display processing>
FIG. 6 is a schematic view showing an example of a UI screen displayed by the terminal device 5 according to the present embodiment. The UI screen shown in FIG. 6 is a UI screen displayed by the terminal device 5 used by the employee of the facility 100. The UI screen displayed by the terminal device 5 according to the present embodiment includes a date display area 101, a facial expression selection area (first area) 102, a target person selection area 103, and a main image display area (third area) 104. It is configured to include a secondary image display area (second area) 105, a schedule display area (fourth area) 106, and the like.

日付表示領域101は、UI画面の上部に設けられており、本例では「2020年11月25日 wed.」のように年月日及び曜日が表示されている。本実施の形態に係る情報処理システムでは、本サービスを利用するためにユーザが端末装置5にてプログラム52aを起動した後、図示のUI画面が表示される。このときにUI画面の日付表示領域101には昨日の日付が表示され、ユーザは施設100のカメラ1が昨日に撮影した画像を閲覧することができる。ユーザは、日付表示領域101に対するタッチ操作又はクリック操作等を行うことによって、日付を変更することができる。端末装置5は、日付表示領域101に対する操作を受け付けた場合に、例えばカレンダー等を表示して日付の選択を受け付ける。日付の選択を受け付けた端末装置5は、この日付の画像を送信する要求をサーバ装置3へ与え、要求に応じてサーバ装置3から送信される画像を受信して表示する。 The date display area 101 is provided at the upper part of the UI screen, and in this example, the date and the day of the week are displayed as in "November 25, 2020 wed." In the information processing system according to the present embodiment, the illustrated UI screen is displayed after the user activates the program 52a on the terminal device 5 in order to use the service. At this time, the date of yesterday is displayed in the date display area 101 of the UI screen, and the user can browse the image taken by the camera 1 of the facility 100 yesterday. The user can change the date by performing a touch operation, a click operation, or the like on the date display area 101. When the terminal device 5 accepts an operation on the date display area 101, it displays, for example, a calendar or the like and accepts the date selection. The terminal device 5 that has received the selection of the date gives a request for transmitting the image of this date to the server device 3, and receives and displays the image transmitted from the server device 3 in response to the request.

表情選択領域102は、UI画面の左端に設けられており、例えば「かなしい」、「えがお」及び「おこる」等の表情を示す文字列が選択肢として上下に並べて表示されている。また端末装置5は、各選択肢について表情を示す文字列と共に、表情を示すアイコン(画像、図形、記号等)と、表情に対応する画像の数とを表示する。図示の例では、「かなしい」の画像が1つ、「えがお」の画像が8つ、「おこる」の画像が2つであることが示されており、「えがお」が選択されている。端末装置5は、表情選択領域102に表示されたいずれかの選択肢に対するタッチ操作又はクリック操作等を受け付けることにより、表情の選択を受け付ける。表情の選択を受け付けた端末装置5は、この表情の画像を送信する要求をサーバ装置3へ与え、要求に応じてサーバ装置3から送信される画像を受信して表示する。 The facial expression selection area 102 is provided at the left end of the UI screen, and for example, character strings indicating facial expressions such as “Kana”, “Egao”, and “Okori” are displayed side by side as options. Further, the terminal device 5 displays a character string indicating a facial expression for each option, an icon (image, figure, symbol, etc.) indicating the facial expression, and the number of images corresponding to the facial expression. In the illustrated example, it is shown that there is one image of "Kana", eight images of "Egao", and two images of "Okashi", and "Egao" is selected. The terminal device 5 accepts facial expression selection by accepting a touch operation, a click operation, or the like for any of the options displayed in the facial expression selection area 102. The terminal device 5 that has received the selection of the facial expression gives a request for transmitting the image of the facial expression to the server device 3, and receives and displays the image transmitted from the server device 3 in response to the request.

対象者選択領域103は、UI画面の中央に設けられる後述の主画像表示領域104の上部に設けられ、いわゆるタブの態様で対象者の選択(切替)操作を受け付けるための領域である。図示の例では、「あおいちゃん」、「たくやくん」、「はなちゃん」及び「れんくん」等の選択可能な4人の対象者の名前が各タブに表示され、これらの中で「あおいちゃん」が選択されている。また端末装置5は、各タブについて対象者の名前を文字列として表示すると共に、この対象者に対応する画像の数を表示する。図示の例では、「あおいちゃん」の画像が4つ、「たくやくん」の画像が2つ、「はなちゃん」の画像が1つ、「れんくん」の画像が1つであることが示されている。端末装置5は、対象者選択領域103に設けられたいずれかのタブに対するタッチ操作又はクリック操作等を受け付けることにより、画像を表示する対象者の選択を受け付ける。対象者の選択を受け付けた端末装置5は、この対象者の画像を送信する要求をサーバ装置3へ与え、要求に応じてサーバ装置3から送信される画像を受信して表示する。 The target person selection area 103 is provided in the upper part of the main image display area 104, which will be described later, provided in the center of the UI screen, and is an area for accepting the selection (switching) operation of the target person in the form of a so-called tab. In the illustrated example, the names of four selectable subjects such as "Aoi-chan", "Takuya-kun", "Hana-chan" and "Ren-kun" are displayed on each tab, and "Aoi-chan" is displayed in each tab. Is selected. Further, the terminal device 5 displays the name of the target person as a character string for each tab, and also displays the number of images corresponding to the target person. In the illustrated example, it is shown that there are four images of "Aoi-chan", two images of "Takuya-kun", one image of "Hana-chan", and one image of "Ren-kun". There is. The terminal device 5 accepts the selection of the target person to display the image by accepting the touch operation, the click operation, or the like for any tab provided in the target person selection area 103. The terminal device 5 that has received the selection of the target person gives a request for transmitting the image of the target person to the server device 3, and receives and displays the image transmitted from the server device 3 in response to the request.

なお図示の例は、施設100の従業者が使用する端末装置5が表示するUI画面であるため、対象者選択領域103では施設100を利用する全ての利用者(子供)を選択することができる。ただし、例えば施設100が保育園等であり利用者のクラス分け等がなされている場合には、従業者は担当するクラスの利用者の全てについて選択することが可能であり、他のクラスの利用者については選択できなくてもよい。 Since the illustrated example is a UI screen displayed by the terminal device 5 used by the employee of the facility 100, all the users (children) who use the facility 100 can be selected in the target person selection area 103. .. However, for example, when the facility 100 is a nursery school or the like and the users are classified, the employee can select all the users of the class in charge, and the users of other classes. You do not have to be able to select.

また図示は省略するが、利用者(子供)の保護者等が使用する端末装置5が表示するUI画面の対象者選択領域103には、保護者の子供のみが選択可能なタブとして設けられ、他の子供を選択することはできない。例えば施設100利用する子供が1人であれば、対象者選択領域103に設けられるタブは1つであり、対象者を切り替えることができなくてよい。また例えば、兄弟姉妹等の複数の子供が施設100を利用している場合、この子供達の保護者が使用する端末装置5が表示するUI画面には、保護者の複数人の子供についてのタブが設けられ、対象者の切り替えが行われる。サーバ装置3又は端末装置5は、UI画面の対象者選択領域103にて選択可能な対象者が誰であるかを、ユーザDB32cの「対象者」の情報に基づいて判断することができる。 Although not shown, the target person selection area 103 of the UI screen displayed by the terminal device 5 used by the guardian of the user (child) is provided as a tab that can be selected only by the guardian's child. No other child can be selected. For example, if there is only one child using the facility 100, there is only one tab provided in the target person selection area 103, and the target person does not have to be switched. Further, for example, when a plurality of children such as siblings are using the facility 100, the UI screen displayed by the terminal device 5 used by the guardians of these children is a tab about the plurality of children of the guardian. Is provided, and the target person is switched. The server device 3 or the terminal device 5 can determine who can be selected in the target person selection area 103 of the UI screen based on the information of the "target person" of the user DB 32c.

主画像表示領域104は、UI画面の中央に設けられており、後述の従画像表示領域105にて選択された1つの画像を表示する。また本実施の形態に係る情報処理システムが記憶及び表示する画像は、静止画像又は動画像のいずれであってもよく、静止画及び動画像が混在していてもよい。端末装置5は、主画像表示領域104に動画像を表示する場合、主画像表示領域104の下部に再生及び停止等の操作を受け付けるボタン、及び、再生時間を示すスライドバー等を表示する。図示の例は、主画像表示領域104に動画像を表示した状態である。静止画を主画像表示領域104に表示する場合には、これらのボタン及びスライドバー等は表示されなくてよい。 The main image display area 104 is provided in the center of the UI screen, and displays one image selected in the sub-image display area 105 described later. Further, the image stored and displayed by the information processing system according to the present embodiment may be either a still image or a moving image, and the still image and the moving image may be mixed. When displaying a moving image in the main image display area 104, the terminal device 5 displays a button for accepting operations such as playback and stop, a slide bar indicating the playback time, and the like at the bottom of the main image display area 104. In the illustrated example, a moving image is displayed in the main image display area 104. When displaying a still image in the main image display area 104, these buttons, slide bar, and the like may not be displayed.

従画像表示領域105は、主画像表示領域104の右側に設けられており、ユーザにより選択された条件に合致する一又は複数の画像を上下方向に並べて一覧表示する領域である。一覧表示される各画像は、元の画像を縮小したもの、いわゆるサムネイルであってよく、サムネイル画像の作成はサーバ装置3又は端末装置5のいずれにより行われてもよい。図示の例では、従画像表示領域105に3つの画像が上下方向に並べて一覧表示されている。なおこれ以上の数の画像を従画像表示領域105に一覧表示する場合に端末装置5は、例えば従画像表示領域105の側部にスクロールバー等を表示し、従画像表示領域105に対するスクロール操作を受け付けて、従画像表示領域105に表示する画像をスクロールさせて切り替えてもよい。また従画像表示領域105に一覧表示される複数の画像の表示順は、例えば撮影時刻に応じて決定してもよく、また例えば表情の条件としてえがおが選択されている場合に笑顔の確信度に応じて決定されてもよく、これら以外の方法で決定されてもよい。端末装置5は、従画像表示領域105に一覧表示された一又は複数の画像に対するタッチ操作又はクリック操作等を受け付けることにより、ユーザによる画像の選択を受け付ける。端末装置5は、従画像表示領域105にて選択された画像を、主画像表示領域104に表示する。 The sub-image display area 105 is provided on the right side of the main image display area 104, and is an area for displaying a list of one or more images matching the conditions selected by the user side by side in the vertical direction. Each image displayed in the list may be a reduced version of the original image, a so-called thumbnail, and the thumbnail image may be created by either the server device 3 or the terminal device 5. In the illustrated example, three images are listed side by side in the sub-image display area 105 in the vertical direction. When displaying a list of more images in the slave image display area 105, the terminal device 5 displays, for example, a scroll bar or the like on the side of the slave image display area 105, and performs a scroll operation on the slave image display area 105. You may accept and scroll the image to be displayed in the slave image display area 105 to switch. Further, the display order of the plurality of images listed in the sub-image display area 105 may be determined according to, for example, the shooting time, and for example, when the facial expression condition is selected as the facial expression condition, the degree of certainty of a smile is determined. It may be determined accordingly, or it may be determined by a method other than these. The terminal device 5 accepts a user's selection of an image by accepting a touch operation, a click operation, or the like on one or a plurality of images listed in the sub-image display area 105. The terminal device 5 displays the image selected in the sub-image display area 105 in the main image display area 104.

スケジュール表示領域106は、UI画面の下部に設けられており、日付表示領域101に表示された日付において施設100にて実施された(実施する予定だった)イベント(カリキュラム)のスケジュールを表示する。図示の例では、横軸を時間として帯グラフ状に複数のイベントを横方向に並べてスケジュールを示している。本例のスケジュールに示されているイベントは、8:00〜9:00が「登園」であり、9:00〜10:00が「自由あそび」であり、10:00〜12:00がクラスタイムであり、12:00〜13:00が「お昼ごはん」であり、13:00〜14:00が「自由あそび」である。 The schedule display area 106 is provided at the bottom of the UI screen, and displays the schedule of the event (curriculum) implemented (planned to be implemented) at the facility 100 on the date displayed in the date display area 101. In the illustrated example, a schedule is shown by arranging a plurality of events in the horizontal direction in a band graph with the horizontal axis as time. The events shown in the schedule of this example are "going to the park" from 8:00 to 9:00, "free play" from 9:00 to 10:00, and 10:00 to 12:00. Class time is from 12:00 to 13:00 for "lunch" and from 13:00 to 14:00 for "free play".

また端末装置5は、スケジュール表示領域106の各イベントに対応付けて、「えがお」、「かなしい」及び「おこる」等の表情に対応するアイコンを表示する。この表情のアイコン表示は、対象者選択領域103にて選択された対象者についてサーバ装置3が集計した表情の情報に基づいて端末装置5が行うことができる。図示の例では、8:00〜9:00の「登園」について「かなしい」の表情のアイコンが表示され、9:00〜10:00が「自由あそび」、12:00〜13:00が「お昼ごはん」、及び、13:00〜14:00が「自由あそび」について「えがお」の表情のアイコンが表示されている。なお13:00〜14:00が「自由あそび」については「えがお」の表情のアイコンが2つ表示されているが、これは例えば、このイベント時に撮影された画像から識別した笑顔の確信度が所定の閾値を超えて高い場合、又は、このイベントの時間中に笑顔でいた時間が所定の閾値を超えて長い場合等に、表示するアイコンの数を増すことで強調表示したものである。 Further, the terminal device 5 displays icons corresponding to facial expressions such as “egao”, “kana”, and “occurrence” in association with each event in the schedule display area 106. The facial expression icon display can be performed by the terminal device 5 based on the facial expression information aggregated by the server device 3 for the target person selected in the target person selection area 103. In the illustrated example, an icon with the expression "Kana" is displayed for "going to the park" from 8:00 to 9:00, "free play" from 9:00 to 10:00, and 12:00 to 13:00. An icon with the expression "Egao" is displayed for "Lunch" and "Free play" from 13:00 to 14:00. For "free play" from 13:00 to 14:00, two icons with the expression "Egao" are displayed. For example, this is the certainty of the smile identified from the image taken at this event. It is highlighted by increasing the number of icons to be displayed when it is higher than a predetermined threshold value or when the smiling face during the time of this event is longer than a predetermined threshold value.

またスケジュール表示領域106の左側部分には、「えがお」、「かなしい」及び「おこる」等の表情について画像の数が示されている。図示の例では、「えがお」の画像が4つ、「かなしい」の画像が1つ、「おこる」の画像が0であることが示されている。 Further, in the left side portion of the schedule display area 106, the number of images for facial expressions such as "egao", "kana", and "occurrence" is shown. In the illustrated example, it is shown that there are four images of "Egao", one image of "Kanai", and zero images of "Okashi".

また端末装置5は、スケジュール表示領域106に表示したスケジュールのイベントに対するタッチ操作又はクリック操作等を受け付けることにより、イベントの選択を受け付ける。イベントの選択を受け付けた端末装置5は、このイベントの画像を送信する要求をサーバ装置3へ与え、要求に応じてサーバ装置3から送信される画像を受信して表示する。 Further, the terminal device 5 accepts the selection of an event by accepting a touch operation, a click operation, or the like for the event of the schedule displayed in the schedule display area 106. The terminal device 5 that has received the selection of the event gives a request for transmitting the image of this event to the server device 3, and receives and displays the image transmitted from the server device 3 in response to the request.

本実施の形態に係る情報処理システムでは、端末装置5が表示するUI画面を利用してユーザが操作を行うことで、表示する画像の条件を設定することができる。例えばユーザは、日付表示領域101にて日付の条件を設定することができ、表情選択領域102にて表情の条件を設定することができ、対象者選択領域103にて対象者の条件を設定することができ、スケジュール表示領域106にてイベントの条件を設定することができる。ユーザはこれら複数の条件を全て設定する必要はなく、適宜に一又は複数の条件を設定すればよい。端末装置5は、これらの領域にて設定された条件を満たす画像の送信をサーバ装置3へ送信する。サーバ装置3は、端末装置5からの要求に応じて条件を満たす画像を画像記憶部32bに記憶された画像の中から抽出し、抽出した画像を要求元の端末装置5へ送信する。端末装置5は、サーバ装置3から送信された画像を受信し、受信した一又は複数の画像をUI画面の従画像表示領域105に一覧表示する。ユーザは従画像表示領域105に一覧表示された画像の中から1つの画像をタッチ操作又はクリック操作等により選択し、この選択に応じて端末装置5は、選択された画像を主画像表示領域104に表示する。 In the information processing system according to the present embodiment, the conditions of the image to be displayed can be set by the user performing an operation using the UI screen displayed by the terminal device 5. For example, the user can set the date condition in the date display area 101, set the facial expression condition in the facial expression selection area 102, and set the target person's condition in the target person selection area 103. The event conditions can be set in the schedule display area 106. The user does not have to set all of these plurality of conditions, but may set one or more conditions as appropriate. The terminal device 5 transmits an image satisfying the conditions set in these areas to the server device 3. The server device 3 extracts an image satisfying the conditions in response to the request from the terminal device 5 from the images stored in the image storage unit 32b, and transmits the extracted image to the request source terminal device 5. The terminal device 5 receives the image transmitted from the server device 3 and displays a list of the received one or a plurality of received images in the sub-image display area 105 of the UI screen. The user selects one image from the images listed in the sub-image display area 105 by a touch operation, a click operation, or the like, and the terminal device 5 selects the selected image in the main image display area 104 in response to this selection. Display on.

また図示は省略するが、本実施の形態に係る情報処理システムでは、主画像表示領域104又は従画像表示領域105に表示された画像に対してコメント等の情報を付すことができる。例えば主画像表示領域104に表示された画像に対して所定の操作(例えばダブルクリック等)がなされた場合、端末装置5は、コメント等の情報を入力する画面を表示して、文字又は画像等の入力を受け付ける。端末装置5は入力を受け付けたコメント等の情報をサーバ装置3へ送信し、サーバ装置3はこの情報を画像に対応付けて画像記憶部32bに記憶する。 Although not shown, in the information processing system according to the present embodiment, information such as a comment can be added to the image displayed in the main image display area 104 or the sub-image display area 105. For example, when a predetermined operation (for example, double-clicking) is performed on the image displayed in the main image display area 104, the terminal device 5 displays a screen for inputting information such as a comment, and a character, an image, or the like is displayed. Accepts input. The terminal device 5 transmits information such as a comment that has received the input to the server device 3, and the server device 3 associates this information with the image and stores it in the image storage unit 32b.

またサーバ装置3は、端末装置5からの要求に応じて画像を送信する際に、この画像に対応付けられたコメント等の情報が記憶されている場合、この情報を画像に付して端末装置5へ送信する。端末装置5は、コメント等の情報が付された画像を受信した場合、例えばこの画像を主画像表示領域104に表示する際に、コメント等の情報を画像に重畳して表示する、主画像表示領域104の上下左右等の所定の箇所にコメント等の情報を表示する、又は、コメント等の情報が付されている旨を示すアイコン等を画像に重畳して表示し、このアイコンに対するタッチ操作又はクリック操作等に応じてコメント等の情報を表示する等の種々の方法で、コメント等の情報を表示することができる。 Further, when the server device 3 transmits an image in response to a request from the terminal device 5, if information such as a comment associated with the image is stored, the server device 3 attaches this information to the image and attaches the information to the terminal device. Send to 5. When the terminal device 5 receives an image with information such as a comment, for example, when displaying this image in the main image display area 104, the information such as a comment is superimposed on the image and displayed. Information such as comments is displayed at predetermined locations such as up, down, left, and right of the area 104, or an icon or the like indicating that information such as comments is attached is superimposed on the image and displayed, and a touch operation or touch operation on this icon is performed. Information such as comments can be displayed by various methods such as displaying information such as comments in response to a click operation or the like.

図7は、本実施の形態に係るサーバ装置3が行う画像記憶処理の手順を示すフローチャートである。本実施の形態に係るサーバ装置3の処理部31の画像受信処理部31aは、施設100に設置されたカメラ1が送信する画像を受信したか否かを判定する(ステップS1)。画像を受信していない場合(S1:NO)、画像受信処理部31aは、カメラ1から画像を受信するまで待機する。 FIG. 7 is a flowchart showing a procedure of image storage processing performed by the server device 3 according to the present embodiment. The image reception processing unit 31a of the processing unit 31 of the server device 3 according to the present embodiment determines whether or not the image transmitted by the camera 1 installed in the facility 100 has been received (step S1). When the image is not received (S1: NO), the image reception processing unit 31a waits until the image is received from the camera 1.

カメラ1から画像を受信した場合(S1:YES)、処理部31の画像識別処理部31bは、カメラ1が撮影した画像に写された人を検出する処理を行う(ステップS2)。この処理の結果に基づいて画像識別処理部31bは、画像に人が写されているか否かを判定する(ステップS3)。画像に人が写されていない場合(S3:NO)、画像識別処理部31bは、この画像を破棄して(ステップS11)、ステップS1へ処理を戻す。 When an image is received from the camera 1 (S1: YES), the image identification processing unit 31b of the processing unit 31 performs a process of detecting a person captured in the image captured by the camera 1 (step S2). Based on the result of this processing, the image identification processing unit 31b determines whether or not a person is captured in the image (step S3). When no person is shown in the image (S3: NO), the image identification processing unit 31b discards this image (step S11) and returns the processing to step S1.

画像に人が写されている場合(S3:YES)、画像識別処理部31bは、画像に写された人の特徴量を取得し、ユーザDB32cに記憶された特徴量に基づいて、画像に写された人が誰であるかを識別する処理を行う(ステップS4)。画像識別処理部31bは、画像に写された人の表情を識別する処理を行う(ステップS5)。また画像識別処理部31bは、画像に写された人の行動を識別する処理を行う(ステップS6)。次いで処理部31の情報集計処理部31cは、ステップS4にて識別した人について、画像が撮影された日のスケジュール情報の各イベントに対応付けて、ステップS5にて識別した表情及びステップS6にて識別した行動等の情報を集計する処理を行う(ステップS7)。情報集計処理部31cは、ステップS7の集計処理の結果に基づき、スケジュール情報の各イベントに対応付けて、画像に写された人の表情及び行動等の集計結果を集計情報として記憶部32に記憶する(ステップS8)。 When a person is captured in the image (S3: YES), the image identification processing unit 31b acquires the feature amount of the person captured in the image and copies it to the image based on the feature amount stored in the user DB 32c. A process of identifying who the person is (step S4) is performed. The image identification processing unit 31b performs a process of identifying a person's facial expression reflected in the image (step S5). Further, the image identification processing unit 31b performs a process of identifying the behavior of the person captured in the image (step S6). Next, the information aggregation processing unit 31c of the processing unit 31 associates the person identified in step S4 with each event of the schedule information on the day when the image was taken, and the facial expression identified in step S5 and the facial expression identified in step S6. A process of aggregating information such as identified actions is performed (step S7). Based on the result of the aggregation process in step S7, the information aggregation processing unit 31c stores the aggregation result of the facial expression and action of the person captured in the image as aggregation information in the storage unit 32 in association with each event of the schedule information. (Step S8).

処理部31の画像選別部31dは、例えばステップS5にて識別した表情及びステップS6にて識別した行動等の情報に基づいて画像のスコアリングを行い、スコアが閾値を超えるか否かを判定することによって、この画像を記憶するか否かを判定する(ステップS9)。画像を記憶すると判定した場合(S9:YES)、画像選別部31dは、この画像を画像記憶部32bに記憶して(ステップS10)、ステップS1へ処理を戻す。画像を記憶しないと判定した場合(S9:NO)、画像選別部31dは、この画像を破棄して(ステップS11)、ステップS1へ処理を戻す。 The image selection unit 31d of the processing unit 31 performs image scoring based on information such as the facial expression identified in step S5 and the behavior identified in step S6, and determines whether or not the score exceeds the threshold value. By doing so, it is determined whether or not to store this image (step S9). When it is determined that the image is to be stored (S9: YES), the image selection unit 31d stores this image in the image storage unit 32b (step S10), and returns the process to step S1. When it is determined that the image is not stored (S9: NO), the image selection unit 31d discards this image (step S11) and returns the process to step S1.

なお本実施の形態においては、カメラ1が撮影した画像から人を検出する処理、画像に写された人が誰であるかを識別する処理、画像に写された人の表情を識別する処理、及び、画像に写された人に行動を識別する処理等をサーバ装置3が行うものとするが、これに限るものではない。これら複数の処理の一部又は全部はカメラ1にて行われてもよい。例えばカメラ1は、自身が撮影した画像から人を検出する処理を行い、人が写されていない画像をサーバ装置3へ送信せずに破棄してもよい。また例えばカメラ1は画像に写された人の表情の識別等の処理を行い、処理結果を画像に付してサーバ装置3へ送信してもよい。 In the present embodiment, a process of detecting a person from an image captured by the camera 1, a process of identifying who is the person captured in the image, a process of identifying the facial expression of the person captured in the image, In addition, the server device 3 shall perform processing for identifying the behavior of the person shown in the image, but the present invention is not limited to this. Part or all of these plurality of processes may be performed by the camera 1. For example, the camera 1 may perform a process of detecting a person from an image taken by itself, and may discard the image in which the person is not photographed without transmitting it to the server device 3. Further, for example, the camera 1 may perform processing such as identification of the facial expression of a person captured in the image, and the processing result may be attached to the image and transmitted to the server device 3.

図8は、本実施の形態に係る端末装置5が行う画像表示処理の手順を示すフローチャートである。本実施の形態に係る端末装置5は、本サービスを利用するためのアプリケーションプログラム等のプログラム52aが起動された場合、処理部51の表示処理部51aが図6に示したUI画面を表示する(ステップS21)。なお起動直後のUI画面は、例えば主画像表示領域104及び従画像表示領域105に画像が表示されていない状態であってよく、また例えば表情及び対象者等の条件について定められたデフォルトの条件に基づいて抽出された画像が表示されてもよい。デフォルトの条件に基づいて画像を表示する場合、端末装置5は、UI画像の表示に先立って、デフォルトの条件での画像送信をサーバ装置3に要求し、この要求に応じてサーバ装置3が送信する画像を取得して主画像表示領域104及び従画像表示領域105に表示する。 FIG. 8 is a flowchart showing a procedure of image display processing performed by the terminal device 5 according to the present embodiment. In the terminal device 5 according to the present embodiment, when a program 52a such as an application program for using this service is activated, the display processing unit 51a of the processing unit 51 displays the UI screen shown in FIG. 6 ( Step S21). The UI screen immediately after startup may be in a state in which no image is displayed in, for example, the main image display area 104 and the sub-image display area 105, and may be set to the default conditions defined for the conditions such as the facial expression and the target person. The image extracted based on may be displayed. When displaying an image based on the default conditions, the terminal device 5 requests the server device 3 to transmit an image under the default conditions prior to displaying the UI image, and the server device 3 transmits in response to this request. The image to be displayed is acquired and displayed in the main image display area 104 and the sub-image display area 105.

UI画面を表示した状態において、処理部51の条件取得部51bは、UI画面の対象者選択領域103にて画像表示の対象者の選択がなされたか否かを判定する(ステップS22)。対象者の選択がなされていない場合(S22:NO)、条件取得部51bは、UI画面の表情選択領域102にて表情の選択がなされたか否かを判定する(ステップS23)。表情の選択がなされていない場合(S23:NO)、条件取得部51bは、スケジュール表示領域106にてイベントの選択がなされたか否かを判定する(ステップS24)。イベントの選択がなされていない場合(S24:NO)、条件取得部51bは、ステップS28へ処理を進める。 In the state where the UI screen is displayed, the condition acquisition unit 51b of the processing unit 51 determines whether or not the target person for image display has been selected in the target person selection area 103 of the UI screen (step S22). When the target person has not been selected (S22: NO), the condition acquisition unit 51b determines whether or not the facial expression has been selected in the facial expression selection area 102 of the UI screen (step S23). When the facial expression is not selected (S23: NO), the condition acquisition unit 51b determines whether or not the event has been selected in the schedule display area 106 (step S24). If no event has been selected (S24: NO), the condition acquisition unit 51b proceeds to step S28.

UI画面において対象者の選択がなされた場合(S22:YES)、表情の選択がなされた場合(S23:YES)、又は、イベントの選択がなされた場合(S24:YES)、条件取得部51bは選択された条件を取得して、この条件に合致する画像の送信をサーバ装置3に要求する(S25)。条件取得部51bは、この要求に応じてサーバ装置3が送信する画像を受信する(ステップS26)。表示処理部51aは、ステップS26にて受信した一又は複数の画像を従画像表示領域105に一覧表示する(S27)。 When the target person is selected on the UI screen (S22: YES), the facial expression is selected (S23: YES), or the event is selected (S24: YES), the condition acquisition unit 51b The selected condition is acquired, and the server device 3 is requested to transmit an image that matches this condition (S25). The condition acquisition unit 51b receives the image transmitted by the server device 3 in response to this request (step S26). The display processing unit 51a displays a list of one or more images received in step S26 in the sub-image display area 105 (S27).

次いで条件取得部51bは、従画像表示領域105に一覧表示された画像の中から、一の画像の選択がなされたか否かを判定する(ステップS28)。画像の選択がなされていない場合(S28:NO)、条件取得部51bは、ステップS21へ処理を戻し、UI画像の表示を継続する。画像の選択がなされた場合(S28:YES)、表示処理部51aは、選択された一の画像を主画像表示領域104に表示して(ステップS29)、ステップS21へ処理を戻し、UI画像の表示を継続する。 Next, the condition acquisition unit 51b determines whether or not one image has been selected from the images listed in the sub-image display area 105 (step S28). If no image has been selected (S28: NO), the condition acquisition unit 51b returns to step S21 and continues to display the UI image. When an image is selected (S28: YES), the display processing unit 51a displays the selected one image in the main image display area 104 (step S29), returns the processing to step S21, and returns the processing to the UI image. Continue displaying.

図9は、本実施の形態に係るサーバ装置3が行う画像表示処理の手順を示すフローチャートである。本実施の形態に係るサーバ装置3の画像送信処理部31eは、端末装置5から画像の送信要求が与えられたか否かを判定する(ステップS41)。送信要求が与えられていない場合(S41:NO)、画像送信処理部31eは、送信要求が与えられるまで待機する。 FIG. 9 is a flowchart showing a procedure of image display processing performed by the server device 3 according to the present embodiment. The image transmission processing unit 31e of the server device 3 according to the present embodiment determines whether or not an image transmission request has been given from the terminal device 5 (step S41). When the transmission request is not given (S41: NO), the image transmission processing unit 31e waits until the transmission request is given.

端末装置5から画像の送信要求が与えられた場合(S41:YES)、画像送信処理部31eは、送信要求に付された画像の条件を取得する(ステップS42)。画像送信処理部31eは、画像記憶部32bに記憶された複数の画像の中から、ステップS42にて取得した条件にて設定された対象の年月日の画像を抽出する(ステップS43)。 When an image transmission request is given from the terminal device 5 (S41: YES), the image transmission processing unit 31e acquires the image conditions attached to the transmission request (step S42). The image transmission processing unit 31e extracts an image of the target date set under the conditions acquired in step S42 from the plurality of images stored in the image storage unit 32b (step S43).

画像送信処理部31eは、ステップS43にて抽出した画像の中から、ステップS42にて取得した条件にて設定された対象者の画像を抽出する(ステップS44)。画像送信処理部31eは、ステップS44にて抽出した画像の中から、ステップS42にて取得した条件にて設定された対象の表情の画像を抽出する(ステップS45)。画像送信処理部31eは、ステップS45にて抽出した画像の中から、ステップS42にて取得した条件にて設定された対象のイベントの画像を抽出する(ステップS46)。 The image transmission processing unit 31e extracts the image of the target person set under the conditions acquired in step S42 from the image extracted in step S43 (step S44). The image transmission processing unit 31e extracts an image of the facial expression of the target set under the conditions acquired in step S42 from the image extracted in step S44 (step S45). The image transmission processing unit 31e extracts an image of the target event set under the conditions acquired in step S42 from the image extracted in step S45 (step S46).

なお、ステップS42にて取得する条件には、例えば対象の年月日、対象者、表情又はイベントの全てについて条件が設定されていなくてもよい。画像送信処理部31eは、設定されていない条件については対応するステップS43〜S46の処理を省略してよい。また例えば、複数人の対象者又は複数の表情等が条件として設定されてもよく、この場合に画像送信処理部31eは、各条件に該当する画像をそれぞれ抽出すればよい。 The conditions acquired in step S42 may not be set for all of the target date, target person, facial expression, or event, for example. The image transmission processing unit 31e may omit the processing of the corresponding steps S43 to S46 for the conditions that have not been set. Further, for example, a plurality of target persons or a plurality of facial expressions may be set as conditions, and in this case, the image transmission processing unit 31e may extract images corresponding to each condition.

画像送信処理部31eは、ステップS46にて最終的に抽出された一又は複数の画像を、要求元の端末装置5へ送信し(ステップS47)、処理を終了する。なお、設定された条件に該当する画像が存在しない場合、画像送信処理部31eは、画像が存在しない旨を端末装置5へ通知する。 The image transmission processing unit 31e transmits one or a plurality of images finally extracted in step S46 to the requesting terminal device 5 (step S47), and ends the process. If the image corresponding to the set condition does not exist, the image transmission processing unit 31e notifies the terminal device 5 that the image does not exist.

<その他>
カメラ1が撮影した画像に写された人を識別する際に、例えば画像中における人の顔の大きさ又は向き等によっては識別精度が低下する可能性がある。そこでサーバ装置3は、例えば画像に写された人を追跡する処理(トラッキング処理)を併用して、人の識別を行ってもよい。サーバ装置3は、画像に人の顔が大きく写されている場合又は画像に写されている人の顔が正面(カメラ1)を向いている場合等のように識別精度が高いことが期待できる画像に基づく人の識別結果を基準とし、この画像に続く一又は複数の画像に対してトラッキング処理を行う。トラッキング処理は、連続的に撮影された複数の画像において、対象物の移動を追跡する処理であり、例えばBoosting、MIL(Multiple Instance Learning)、TLD(Tracking Learning and Detection)、MedianFlow又はKCF(Kernelized Correlation Filters)等の手法が用いられ得る。サーバ装置3は、トラッキング処理により同じ人が写されていると判断できる複数の画像に対して、基準となる画像における人の識別結果(例えば識別の確信度等)を後続の画像についての識別結果とし、後続の画像に識別結果の情報を付して記憶してもよい。
<Others>
When identifying a person captured in an image captured by the camera 1, the identification accuracy may decrease depending on, for example, the size or orientation of the person's face in the image. Therefore, the server device 3 may identify the person by using, for example, a process of tracking the person (tracking process) captured in the image. The server device 3 can be expected to have high identification accuracy, such as when a person's face is enlarged in the image or when the person's face in the image is facing the front (camera 1). Based on the identification result of a person based on the image, tracking processing is performed on one or more images following this image. The tracking process is a process of tracking the movement of an object in a plurality of continuously captured images, for example, Boosting, MIL (Multiple Instance Learning), TLD (Tracking Learning and Detection), Medical Flow, or KCF (Kernelized Correlation). Methods such as Filters) can be used. The server device 3 uses the tracking process to determine the identification result of a person (for example, the certainty of identification) in the reference image for a plurality of images that can be determined to be the same person, and the identification result for the subsequent image. Then, the information of the identification result may be attached to the subsequent image and stored.

<まとめ>
以上の構成の本実施の形態に係る情報処理システムでは、画像を表示する対象者に関する表情の選択を端末装置5がUI画面の表情選択領域102にて受け付ける。対象者が利用する施設100に設置されたカメラ1が撮影した画像から、選択された表情に応じてサーバ装置3が抽出した画像を端末装置5が取得して主画像表示領域104及び従画像表示領域105に表示する。また端末装置5は、この施設100にて実施されたイベントと対象者の表情との対応付けをスケジュール表示領域106に表示する。これにより情報処理システムは、施設100の利用者を日常的に撮影した画像を、利用者の表情及びスケジュールの情報等と共に提供することができる。
<Summary>
In the information processing system according to the present embodiment having the above configuration, the terminal device 5 receives the facial expression selection regarding the target person who displays the image in the facial expression selection area 102 of the UI screen. The terminal device 5 acquires an image extracted by the server device 3 according to the selected facial expression from the image taken by the camera 1 installed in the facility 100 used by the target person, and displays the main image display area 104 and the secondary image. Displayed in area 105. Further, the terminal device 5 displays the correspondence between the event carried out at the facility 100 and the facial expression of the target person in the schedule display area 106. As a result, the information processing system can provide an image of the user of the facility 100 taken on a daily basis together with the user's facial expression, schedule information, and the like.

また本実施の形態に係る情報処理システムでは、端末装置5が表情に対応付けられた文字及びアイコンを選択候補としてUI画面の表情選択領域102に複数表示し、選択候補に対するユーザの選択操作を受け付けて、対象者の表情に関する選択を受け付ける。これによりユーザは、表示させたい画像について対象者の表情を条件として容易に設定することができる。 Further, in the information processing system according to the present embodiment, the terminal device 5 displays a plurality of characters and icons associated with facial expressions as selection candidates in the facial expression selection area 102 of the UI screen, and accepts a user's selection operation for the selection candidates. And accepts choices regarding the subject's facial expressions. As a result, the user can easily set the image to be displayed on the condition of the facial expression of the target person.

また本実施の形態に係る情報処理システムでは、端末装置5が表情選択領域102の各選択候補と共に、この選択候補が選択された場合に表示可能な画像の数を表示する。これによりユーザは、表情の条件に応じて表示される画像の数を予め知ることができ、条件の選択を容易化することが期待できる。 Further, in the information processing system according to the present embodiment, the terminal device 5 displays each selection candidate of the facial expression selection area 102 and the number of images that can be displayed when the selection candidate is selected. As a result, the user can know in advance the number of images to be displayed according to the facial expression conditions, and can be expected to facilitate the selection of the conditions.

また本実施の形態に係る情報処理システムでは、端末装置5がUI画面の対象者選択領域103に設けられたタブにより画像を表示する対象者の選択を受け付ける。選択された対象者に応じてサーバ装置3が画像記憶部32bから抽出した画像を端末装置5が取得して主画像表示領域104及び従画像表示領域105に表示する。また端末装置5は、選択された対象者についてイベント及び表情の対応付けをスケジュール表示領域106に表示する。これにより対象者が複数存在する場合に、ユーザが容易に対象者を選択して画像を閲覧することができる。 Further, in the information processing system according to the present embodiment, the terminal device 5 accepts the selection of the target person to display the image by the tab provided in the target person selection area 103 of the UI screen. The terminal device 5 acquires an image extracted from the image storage unit 32b by the server device 3 according to the selected target person, and displays the image in the main image display area 104 and the sub-image display area 105. Further, the terminal device 5 displays the correspondence between the event and the facial expression for the selected target person in the schedule display area 106. As a result, when there are a plurality of target persons, the user can easily select the target person and browse the image.

また本実施の形態に係る情報処理システムでは、UI画面のスケジュール表示領域106に表示したイベント及び表情の対応付けに基づいて、端末装置5が例えばいずれかのイベントに対するタッチ操作又はクリック操作等を受け付けることにより、イベントの選択を受け付ける。端末装置5は、選択されたイベントに応じてサーバ装置3が画像記憶部32bから抽出した画像を取得して主画像表示領域104及び従画像表示領域105に表示する。これによりユーザは、表示させたい画像についてイベントを条件として容易に設定することができる。 Further, in the information processing system according to the present embodiment, the terminal device 5 accepts, for example, a touch operation or a click operation for any of the events based on the correspondence between the events and the facial expressions displayed in the schedule display area 106 of the UI screen. By doing so, the selection of the event is accepted. The terminal device 5 acquires an image extracted from the image storage unit 32b by the server device 3 in response to the selected event and displays it in the main image display area 104 and the sub-image display area 105. As a result, the user can easily set an event as a condition for the image to be displayed.

また本実施の形態に係る情報処理システムでは、サーバ装置3が条件に応じて抽出した一又は複数の画像を端末装置5がUI画面の従画像表示領域105に一覧表示し、一覧表示した一又は複数の画像から一の画像の選択を受け付け、選択された画像を主画像表示領域104に表示する。これにより、ユーザが定めた条件に適合する画像が複数存在する場合に、ユーザは複数の画像の中から所望の一の画像を容易に選択することができる。 Further, in the information processing system according to the present embodiment, the terminal device 5 lists and displays one or a plurality of images extracted by the server device 3 according to the conditions in the sub-image display area 105 of the UI screen. It accepts the selection of one image from a plurality of images and displays the selected image in the main image display area 104. As a result, when there are a plurality of images that meet the conditions set by the user, the user can easily select one desired image from the plurality of images.

また本実施の形態に係る情報処理システムでは、表情の選択を受け付ける表情選択領域102と、選択された表情に応じて抽出された一又は複数の画像を一覧表示する従画像表示領域105と、一覧表示された画像から選択された画像を表示する主画像表示領域104と、施設100で実施されたイベントと対象者の表情を対応付けて表示するスケジュール表示領域106とを含むUI画面を端末装置5が表示部54に表示する。これによりユーザは、表示されたUI画面にて表情及びイベント等の条件を設定し、条件に応じた画像をサーバ装置3から取得して端末装置5に表示させることができる。 Further, in the information processing system according to the present embodiment, a facial expression selection area 102 that accepts facial expression selection, a sub-image display area 105 that displays a list of one or more images extracted according to the selected facial expression, and a list. The terminal device 5 has a UI screen including a main image display area 104 for displaying an image selected from the displayed images and a schedule display area 106 for displaying an event carried out at the facility 100 in association with the facial expression of the target person. Is displayed on the display unit 54. As a result, the user can set conditions such as facial expressions and events on the displayed UI screen, acquire images according to the conditions from the server device 3, and display them on the terminal device 5.

また本実施の形態に係る情報処理システムでは、施設100の利用者(子供)又はその関係者(保護者)が使用する端末装置5は、この利用者に関する画像を表示する。これに対して施設100の従業者が使用する端末装置5は、施設100の複数の利用者に関する画像を表示する。これにより情報処理システムは、端末装置5の使用者に適切な画像表示を行うことが期待できる。 Further, in the information processing system according to the present embodiment, the terminal device 5 used by the user (child) of the facility 100 or a related person (guardian) of the facility 100 displays an image related to this user. On the other hand, the terminal device 5 used by the employees of the facility 100 displays images relating to a plurality of users of the facility 100. As a result, the information processing system can be expected to display an appropriate image to the user of the terminal device 5.

なお本実施の形態においては、カメラ1を設置する施設100を保育園又は幼稚園等とし、カメラ1が施設100を利用する子供の撮影を行う構成を示したが、施設100は保育園又は幼稚園等に限らず、どのような施設であってもよい。施設100は屋内又は屋外のいずれのものであってもよい。また施設100には複数のカメラ1が設置されてよく、複数のカメラ1がサーバ装置3へ撮影した画像を送信してよい。また条件に応じた画像の抽出をサーバ装置3が行うものとしたが、これに限るものではなく、端末装置5が行ってもよい。 In the present embodiment, the facility 100 in which the camera 1 is installed is a nursery school or a kindergarten, and the camera 1 takes a picture of a child who uses the facility 100. However, the facility 100 is limited to the nursery school or the kindergarten. However, it may be any facility. Facility 100 may be indoors or outdoors. Further, a plurality of cameras 1 may be installed in the facility 100, and the images captured by the plurality of cameras 1 may be transmitted to the server device 3. Further, although it is assumed that the server device 3 performs the extraction of the image according to the conditions, the present invention is not limited to this, and the terminal device 5 may perform the extraction.

また図6に示したUI画面は一例であって、これに限るものではなく、各領域の配置及びデザイン等は適宜に変更され得る。また本実施の形態においては、UI画面の表情選択領域102にて表情の選択を受け付けたが、表情の選択に代えて、又は、表情の選択と共に、画像に写された人の行動を条件として選択可能としてもよい。 The UI screen shown in FIG. 6 is an example and is not limited to this, and the arrangement and design of each area can be changed as appropriate. Further, in the present embodiment, the facial expression selection is accepted in the facial expression selection area 102 of the UI screen, but instead of the facial expression selection or together with the facial expression selection, the behavior of the person captured in the image is a condition. It may be selectable.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

1 カメラ
3 サーバ装置
5 端末装置
31 処理部
31a 画像受信処理部
31b 画像識別処理部
31c 情報集計処理部
31d 画像選別部
31e 画像送信処理部
32 記憶部
32a サーバプログラム
32b 画像記憶部
32c ユーザDB
33 通信部
51 処理部
51a 表示処理部
51b 条件取得部
52 記憶部
52a プログラム
53 通信部
54 表示部
55 操作部
98、99 記録媒体
100 施設
101 日付表示領域
102 表情選択領域
103 対象者選択領域
104 主画像表示領域
105 従画像表示領域
106 スケジュール表示領域
1 Camera 3 Server device 5 Terminal device 31 Processing unit 31a Image reception processing unit 31b Image identification processing unit 31c Information aggregation processing unit 31d Image selection unit 31e Image transmission processing unit 32 Storage unit 32a Server program 32b Image storage unit 32c User DB
33 Communication unit 51 Processing unit 51a Display processing unit 51b Condition acquisition unit 52 Storage unit 52a Program 53 Communication unit 54 Display unit 55 Operation unit 98, 99 Recording medium 100 Facility 101 Date display area 102 Facial expression selection area 103 Target person selection area 104 Main Image display area 105 Subordinate image display area 106 Schedule display area

Claims (13)

情報処理装置が、
対象に関する表情の選択を受け付け、
前記対象が利用する施設に設置されたカメラが撮影した画像から、選択された表情に応じて抽出された画像を表示し、
前記施設で実施されたイベントと前記対象の表情との対応付けを表示する、
情報処理方法。
Information processing device
Accepts facial expression selections regarding the subject,
An image extracted according to the selected facial expression from the image taken by the camera installed in the facility used by the target is displayed.
Display the correspondence between the event held at the facility and the facial expression of the target.
Information processing method.
表情に対応付けられた文字又は画像を選択候補として複数表示し、
前記選択候補に基づいて前記対象に関する表情の選択を受け付ける、
請求項1に記載の情報処理方法。
Multiple characters or images associated with facial expressions are displayed as selection candidates, and
Accepts the selection of facial expressions related to the target based on the selection candidates.
The information processing method according to claim 1.
前記選択候補と共に、当該選択候補が選択された場合に表示可能な画像の数を表示する、
請求項2に記載の情報処理方法。
Along with the selection candidate, the number of images that can be displayed when the selection candidate is selected is displayed.
The information processing method according to claim 2.
対象の選択を受け付け、
選択された表情及び対象に応じて抽出された画像を表示し、
前記施設で実施されたイベントと選択された対象の表情との対応付けを表示する、
請求項1から請求項3までのいずれか1つに記載の情報処理方法。
Accept the selection of the target,
Display the extracted image according to the selected facial expression and target,
Display the correspondence between the event held at the facility and the facial expression of the selected target.
The information processing method according to any one of claims 1 to 3.
表示したイベント及び表情の対応付けに基づいて、イベントの選択を受け付け、
選択されたイベントに応じて抽出された画像を表示する、
請求項1から請求項4までのいずれか1つに記載の情報処理方法。
Accepts event selection based on the displayed event and facial expression mapping,
Display the extracted images according to the selected event,
The information processing method according to any one of claims 1 to 4.
抽出された一又は複数の画像を一覧表示し、
一覧表示した一又は複数の画像から一の画像の選択を受け付け、
選択された画像を表示する、
請求項1から請求項5までのいずれか1つに記載の情報処理方法。
List one or more extracted images and
Accepts the selection of one image from one or more images displayed in the list,
Display the selected image,
The information processing method according to any one of claims 1 to 5.
表情に対応付けられた文字又は画像を選択候補として複数表示して対象に関する表情の選択を受け付ける第1の領域と、
前記第1の領域にて選択された表情に応じて抽出された一又は複数の画像を一覧表示して一の画像の選択を受け付ける第2の領域と、
前記第2の領域にて選択された画像を表示する第3の領域と、
前記施設で実施されたイベント及び前記対象の表情の対応付けを表示する第4の領域と
を含む画面を表示部に表示する、
請求項1から請求項6までのいずれか1つに記載の情報処理方法。
A first area that displays multiple characters or images associated with facial expressions as selection candidates and accepts selection of facial expressions related to the target, and
A second area that displays a list of one or more images extracted according to the facial expression selected in the first area and accepts the selection of one image, and
A third area for displaying the image selected in the second area, and
A screen including an event carried out at the facility and a fourth area for displaying the association of facial expressions of the target is displayed on the display unit.
The information processing method according to any one of claims 1 to 6.
前記施設を利用する利用者又は当該利用者の関係者が使用する情報処理装置は、当該利用者に係る画像を表示し、
前記施設の従業者が使用する情報処理装置は、前記施設を利用する複数の利用者に係る画像を表示する、
請求項1から請求項7までのいずれか1つに記載の情報処理方法。
The information processing device used by the user who uses the facility or a person related to the user displays an image related to the user and displays an image related to the user.
The information processing device used by the employee of the facility displays an image relating to a plurality of users who use the facility.
The information processing method according to any one of claims 1 to 7.
前記施設で実施された複数のイベントのスケジュールと各イベントにおける前記対象の表情との対応付けを表示する、Display the correspondence between the schedule of a plurality of events carried out at the facility and the facial expression of the target in each event.
請求項1から請求項8までのいずれか1つに記載の情報処理方法。The information processing method according to any one of claims 1 to 8.
コンピュータに、
対象に関する表情の選択を受け付け、
前記対象が利用する施設に設置されたカメラが撮影した画像から、選択された表情に応じて抽出された画像を表示し、
前記施設で実施されたイベントと前記対象の表情との対応付けを表示する
処理を行わせるコンピュータプログラム。
On the computer
Accepts facial expression selections regarding the subject,
An image extracted according to the selected facial expression from the image taken by the camera installed in the facility used by the target is displayed.
A computer program that performs a process of displaying the correspondence between an event carried out at the facility and the facial expression of the target.
コンピュータに、
施設に設置されたカメラが撮影した画像を取得し、
前記施設で実施されたイベントの情報を取得し、
取得した画像に写された対象の表情を識別し、
前記施設で実施されたイベントと識別した前記対象の表情とを対応付けて記憶部に記憶し、
前記施設で実施されたイベントと前記対象の表情とを対応付けた情報を端末装置へ送信する
処理を行わせるコンピュータプログラム。
On the computer
Acquire the image taken by the camera installed in the facility and
Get information on the events held at the facility
Identify the facial expression of the target in the acquired image and
The event carried out at the facility and the facial expression of the identified object are associated with each other and stored in the storage unit.
A computer program that performs a process of transmitting information that associates an event carried out at the facility with the facial expression of the target to a terminal device.
対象に関する表情の選択を受け付ける受付部と、
前記対象が利用する施設に設置されたカメラが撮影した画像から、選択された表情に応じて抽出された画像を表示する処理を行う画像表示処理部と、
前記施設で実施されたイベントと前記対象の表情との対応付けを表示する処理を行う対応表示処理部と
を備える、情報処理装置。
The reception department that accepts the selection of facial expressions related to the target,
An image display processing unit that performs processing to display an image extracted according to a selected facial expression from an image taken by a camera installed in the facility used by the target.
An information processing device including a corresponding display processing unit that performs processing for displaying the correspondence between an event carried out at the facility and the facial expression of the target.
施設に設置されたカメラが撮影した画像を取得する画像取得部と、
前記施設で実施されたイベントの情報を取得する情報取得部と、
前記画像取得部が取得した画像に写された対象の表情を識別する識別部と、
前記施設で実施されたイベントと識別した前記対象の表情とを対応付けて記憶する記憶部と、
前記施設で実施されたイベントと前記対象の表情とを対応付けた情報を端末装置へ送信する情報送信部と
を備える、情報処理装置。
An image acquisition unit that acquires images taken by cameras installed in the facility,
The information acquisition department that acquires information on events held at the facility,
An identification unit that identifies the facial expression of the target imaged in the image acquired by the image acquisition unit, and an identification unit.
A storage unit that stores the event performed at the facility and the facial expression of the identified object in association with each other.
An information processing device including an information transmission unit that transmits information in which an event carried out at the facility and a facial expression of the target are associated with each other to a terminal device.
JP2021001571A 2021-01-07 2021-01-07 Information processing methods, computer programs and information processing equipment Active JP6958795B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021001571A JP6958795B1 (en) 2021-01-07 2021-01-07 Information processing methods, computer programs and information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021001571A JP6958795B1 (en) 2021-01-07 2021-01-07 Information processing methods, computer programs and information processing equipment

Publications (2)

Publication Number Publication Date
JP6958795B1 true JP6958795B1 (en) 2021-11-02
JP2022106517A JP2022106517A (en) 2022-07-20

Family

ID=78281986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021001571A Active JP6958795B1 (en) 2021-01-07 2021-01-07 Information processing methods, computer programs and information processing equipment

Country Status (1)

Country Link
JP (1) JP6958795B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7333570B1 (en) 2022-12-21 2023-08-25 株式会社Shift program, method, information processing device, system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005260355A (en) * 2004-03-09 2005-09-22 Fuji Xerox Co Ltd Significance imparting device, significance information creating method, electronic album creating device, method and program
JP2012256327A (en) * 2012-06-27 2012-12-27 Olympus Imaging Corp Image display apparatus, image display method, and image display program
JP2014216658A (en) * 2013-04-22 2014-11-17 株式会社ニコン Imaging apparatus and imaging assist program
JP2015139001A (en) * 2014-01-20 2015-07-30 キヤノン株式会社 Information processing device, information processing method and program
JP2020149304A (en) * 2019-03-13 2020-09-17 ソニー株式会社 Imaging apparatus and facial expression detection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005260355A (en) * 2004-03-09 2005-09-22 Fuji Xerox Co Ltd Significance imparting device, significance information creating method, electronic album creating device, method and program
JP2012256327A (en) * 2012-06-27 2012-12-27 Olympus Imaging Corp Image display apparatus, image display method, and image display program
JP2014216658A (en) * 2013-04-22 2014-11-17 株式会社ニコン Imaging apparatus and imaging assist program
JP2015139001A (en) * 2014-01-20 2015-07-30 キヤノン株式会社 Information processing device, information processing method and program
JP2020149304A (en) * 2019-03-13 2020-09-17 ソニー株式会社 Imaging apparatus and facial expression detection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7333570B1 (en) 2022-12-21 2023-08-25 株式会社Shift program, method, information processing device, system
JP2024088975A (en) * 2022-12-21 2024-07-03 株式会社Shift Program, method, information processing device and system

Also Published As

Publication number Publication date
JP2022106517A (en) 2022-07-20

Similar Documents

Publication Publication Date Title
US10057485B2 (en) Imaging apparatus and methods for generating a guide display using imaging height posture information
CN103412951B (en) Human connection association analysis based on portrait photographs management System and method for
CN102763404B (en) Camera, information acquiring system and program
WO2012137397A1 (en) Content-processing device, content-processing method, content-processing program, and integrated circuit
CN111460192A (en) Image candidate determination device, image candidate determination method, and recording medium storing program for controlling image candidate determination device
JP2011155385A (en) Electronic device, content transmission method, and program
US20170019590A1 (en) Imaging apparatus, information processing apparatus, image photographing assist system and image photographing assist method
JP2013105346A (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
JP6649005B2 (en) Robot imaging system and image management method
JP2013105345A (en) Information registration device, information registration method, information registration system, information presentation device, information presentation method, information presentation system, and program
JP2019159537A (en) Image search apparatus, image search method, electronic device and its control method
JP2008198135A (en) Information delivery system, information delivery device and information delivery method
JP6958795B1 (en) Information processing methods, computer programs and information processing equipment
JP6323548B2 (en) Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method
JP2021158567A (en) Life log providing system and life log providing method
US20210075754A1 (en) Method for sharing a photograph
US20210073269A1 (en) Method for clustering at least two timestamped photographs
JP2015139001A (en) Information processing device, information processing method and program
JP6677527B2 (en) Server device and program
JP2023100112A (en) image selection system
JP7227799B2 (en) Image retrieval device, image retrieval method and computer program
US20210072869A1 (en) Method for retrieving at least two captured photographs
CN110933223B (en) Image processing apparatus, image processing method, and recording medium
JP2022070805A (en) Program, information processing device and method
JP6976531B2 (en) Album creation support device and album creation support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210107

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210107

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210924

R150 Certificate of patent or registration of utility model

Ref document number: 6958795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250