Nothing Special   »   [go: up one dir, main page]

WO2022259450A1 - 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体 - Google Patents

情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2022259450A1
WO2022259450A1 PCT/JP2021/022070 JP2021022070W WO2022259450A1 WO 2022259450 A1 WO2022259450 A1 WO 2022259450A1 JP 2021022070 W JP2021022070 W JP 2021022070W WO 2022259450 A1 WO2022259450 A1 WO 2022259450A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
facility
user
superimposed
user terminal
Prior art date
Application number
PCT/JP2021/022070
Other languages
English (en)
French (fr)
Inventor
哲也 冬野
成彦 高地
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/022070 priority Critical patent/WO2022259450A1/ja
Priority to JP2023526745A priority patent/JP7529156B2/ja
Publication of WO2022259450A1 publication Critical patent/WO2022259450A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information

Definitions

  • the present disclosure relates to an information processing device, an information processing system, an information processing method, and a non-temporary computer-readable medium, and particularly an information processing device, an information processing system, an information processing method, and a non-temporary computer-readable medium that provide users with information on facilities. computer readable medium.
  • Patent Literature 1 discloses an information processing device that detects a product in an image captured by a camera of a wearable device, generates superimposed information about the product, and displays the superimposed information superimposed on the captured image. ing.
  • a user's virtual field of view is set based on the position information and line-of-sight direction of a head-mounted display (HMD), and information on stores within the virtual field of view is retrieved by matching with a map database. is disclosed on the HMD.
  • HMD head-mounted display
  • Patent Document 3 based on the terminal position information and direction information of the user terminal and the shop position information, the store in the building included in the captured image is specified, and the position of the hierarchy in which the store exists in the captured image is disclosed. discloses an information processing device that superimposes store identification information.
  • Patent Document 1 With the method described in Patent Document 1 above, the user cannot grasp the superimposed information regarding the products in the store before actually entering the store.
  • the methods described in Patent Documents 2 and 3 above require accurate location information and orientation information of the user terminal and accurate location information of the store. cannot be identified correctly.
  • an object of the present disclosure is to provide an information processing device, an information processing system, an information processing method, and a non-temporary information processing method that can easily provide facility-related information to the user before the user uses the facility.
  • the object is to provide a computer-readable medium.
  • An information processing device includes: an image acquisition means for acquiring a captured image generated by capturing a field of view of a user with a user terminal; an identifying means for detecting, from the photographed image, an object installed outside the facility related to the facility and identifying a target facility based on the detected object installed outside the facility; generating means for generating superimposed information based on facility-related information related to the target facility; and output control means for displaying the superimposed information on the user terminal so that the superimposed information is superimposed on a visual field area indicating the visual field.
  • An information processing system includes: a user terminal used by a user to photograph the user's field of view; comprising an information processing device and
  • the information processing device is an image acquiring means for acquiring a photographed image generated by the user terminal; an identifying means for detecting, from the photographed image, an object installed outside the facility related to the facility and identifying a target facility based on the detected object installed outside the facility; generating means for generating superimposed information based on facility-related information related to the target facility; and output control means for displaying the superimposed information on the user terminal so that the superimposed information is superimposed on the visual field area indicating the visual field.
  • An information processing method includes: Acquiring a captured image generated by capturing a user's field of view with a user terminal, Detecting, from the photographed image, an object installed outside the facility related to the facility, identifying a target facility based on the detected object installed outside the facility, generating superimposed information based on facility-related information related to the target facility; The superimposed information is displayed on the user terminal so that the superimposed information is superimposed on the visual field area indicating the visual field.
  • a non-transitory computer-readable medium comprising: An image acquisition process for acquiring a captured image generated by capturing a user's field of view with a user terminal; a specifying process of detecting an object installed outside the facility related to the facility from the captured image and specifying a target facility based on the detected object installed outside the facility; a generating process for generating superimposed information based on facility-related information related to the target facility; and an output control process for displaying the superimposed information on the user terminal such that the superimposed information is superimposed on the visual field area indicating the visual field.
  • an information processing device an information processing system, an information processing method, and a non-temporary computer-readable medium that can easily provide facility-related information to the user before the user uses the facility.
  • FIG. 1 is a block diagram showing the configuration of an information processing apparatus according to a first embodiment
  • FIG. 4 is a flow chart showing the flow of an information processing method according to the first embodiment
  • 2 is a block diagram showing the overall configuration of an information processing system according to a second embodiment
  • FIG. 9 is a block diagram showing the configuration of a first user terminal according to the second embodiment
  • FIG. 9 is a block diagram showing the configuration of a second user terminal according to the second embodiment
  • FIG. FIG. 3 is a block diagram showing the configuration of a server 100 according to a second embodiment
  • FIG. FIG. 11 is a sequence diagram showing the flow of user registration processing according to the second embodiment
  • FIG. 12 is a diagram showing an example of a personal information input screen displayed on the second user terminal according to the second embodiment;
  • FIG. FIG. 11 is a sequence diagram showing the flow of output processing according to the second embodiment;
  • FIG. 11 is a diagram showing a photographed image of a user's field of view according to the second embodiment;
  • FIG. 12 is a diagram showing an example of superimposed information displayed on the first user terminal according to the second embodiment;
  • FIG. FIG. 10 is a diagram showing another example of superimposed information displayed on the first user terminal according to the second embodiment;
  • FIG. 11 is a block diagram showing the configuration of a server according to a third embodiment;
  • FIG. FIG. 11 is a diagram for explaining selection operation detection processing according to the third embodiment;
  • FIG. 14 is a diagram showing an example of second superimposed information displayed on the first user terminal according to the third embodiment
  • FIG. 11 is a block diagram showing the configuration of a server according to a fourth embodiment
  • FIG. FIG. 14 is a diagram showing an example of superimposed information displayed on the first user terminal according to the fourth embodiment
  • FIG. 12 is a block diagram showing the configuration of a server according to the fifth embodiment
  • FIG. 16 is a flowchart showing an example of contribution determination processing according to the fifth embodiment
  • FIG. FIG. 17 is a diagram showing an example of an input screen for personal information importance displayed on the second user terminal according to the sixth embodiment;
  • FIG. 1 is a block diagram showing the configuration of an information processing apparatus 10 according to the first embodiment.
  • the information processing device 10 is an information processing device that provides information about facilities to users. Facilities include stores, tourist facilities, art galleries and museums, established event venues, theme parks, and the like.
  • the information processing device 10 is connected to a network (not shown).
  • a network may be wired or wireless.
  • User terminals (not shown) used by users are directly or indirectly connected to the network. That is, the information processing device 10 is communicably connected to the user terminal.
  • the information processing device 10 includes an image acquisition unit 12 , a specification unit 13 , a generation unit 14 , and an output control unit 15 .
  • the image acquisition unit 12 is also called image acquisition means.
  • the image acquisition unit 12 acquires a photographed image showing the field of view of the user.
  • a captured image is a captured image generated by capturing a field of view of the user by the user terminal.
  • the image acquisition unit 12 supplies the acquired captured image to the identification unit 13 .
  • the identification unit 13 is also called identification means.
  • the identifying unit 13 detects an outside-facility installation related to the facility from the captured image.
  • the outside installation object is an object installed outside the facility and visible from the outside.
  • the installations outside the facility are signboards, logo panels, or the appearance of the entrance of the facility.
  • the type of the object outside the facility to be detected may be determined in advance.
  • the specifying unit 13 specifies the target facility existing within the user's field of view based on the detected outside facility installation object.
  • the identification unit 13 supplies identification information (ID) of the identified target facility to the generation unit 14 .
  • ID identification information
  • the generation unit 14 is also called generation means.
  • the generating unit 14 uses the ID of the identified target facility to acquire facility-related information related to the target facility.
  • the facility-related information may be, for example, an advertisement, recommendation information, discount information, inventory information, or information indicating availability of a facility or a product or service related to the facility.
  • the generation unit 14 generates superimposition information based on the facility-related information.
  • the superimposed information is image information.
  • the generation unit 14 supplies superimposition information to the output control unit 15 .
  • the output control unit 15 is also called output control means.
  • the output control unit 15 causes the user terminal to display the superimposed information so that the superimposed information is superimposed on the visual field area indicating the visual field of the user.
  • FIG. 2 is a flow chart showing the flow of the information processing method according to the first embodiment.
  • the image acquisition unit 12 of the information processing device 10 acquires a captured image of the user's field of view captured by the user terminal (S10).
  • the identifying unit 13 detects an object installed outside the facility from the captured image (S11).
  • the identifying unit 13 identifies the target facility based on the detected non-facility installed object (S12).
  • the generation unit 14 acquires facility-related information related to the specified target facility, and generates superimposed information based on the facility-related information (S13).
  • the output control unit 15 causes the user terminal to display the superimposed information so that the superimposed information overlaps the user's field of view (S14).
  • the information processing apparatus 10 identifies the target facility from the installations outside the facility included in the captured image, and causes the user terminal to output information related to the target facility.
  • the information processing apparatus 10 can easily provide the relevant information of the target facility to the user before the user uses the target facility. Therefore, the user can easily decide whether or not to use the target facility. For example, in a tourist area, when the user simply looks at the entrance or signboard of a souvenir shop through the user terminal, information on souvenirs recommended by each store is displayed in a pop-up on the user terminal, superimposed on the store. can Therefore, the user can compare the souvenirs of each store without entering each store. This is useful when you don't have time to buy souvenirs or when the store is crowded.
  • the facility side it is possible to increase the user's interest in the facility and effectively encourage the use of the facility.
  • FIG. 3 is a block diagram showing the overall configuration of an information processing system 1000 according to the second embodiment.
  • the information processing system 1000 is a computer system that provides information on facilities from outside the facilities to users walking in tourist spots and towns.
  • the information processing system 1000 includes an information processing device (hereinafter referred to as a server) 100 and user terminals (group) used by a user U.
  • the user terminal(s) include a first user terminal 200 and a second user terminal 300 .
  • the server 100 and the second user terminal 300 are connected to each other via a network N.
  • the network N is a wired or wireless communication line.
  • the first user terminal 200 is a wearable terminal attached to the user U's body.
  • the first user terminal 200 is a wearable terminal worn on the user U's head.
  • the first user terminal 200 is a glasses-type terminal such as AR (Augmented Reality) glasses or MR (Mixed Reality) glasses capable of displaying image information (superimposed information) in a viewing area indicating the viewing field of the user U. be.
  • the first user terminal 200 is connected to the second user terminal 300 by wire or wirelessly.
  • the first user terminal 200 is connected to the second user terminal 300 by short-range wireless communication such as Bluetooth (registered trademark).
  • the first user terminal 200 captures the field of view of the user U and transmits the captured image to the server 100 via the second user terminal 300 .
  • the first user terminal 200 superimposes the superimposition information received from the server 100 via the second user terminal 300 on the visual field area of the user U and displays it.
  • the second user terminal 300 is an information terminal used by the user U, such as a smart phone, tablet terminal, or personal computer (PC).
  • the second user terminal 300 relays transmission and reception of information between the first user terminal 200 and the server 100 .
  • the second user terminal 300 registers user U's personal information in advance in a user database (DB) (not shown) of the server 100 .
  • DB user database
  • the server 100 receives personal information from the second user terminal 300 and performs user registration based on the personal information.
  • the server 100 also receives a captured image showing the field of view of the user U from the first user terminal 200 via the second user terminal 300 .
  • the server 100 identifies the target facility included in the field of view of the user U from the captured image, and generates superimposition information based on the relevant information of the target facility. Personal information may be used to generate the superimposition information.
  • the server 100 then transmits the superimposed information to the first user terminal 200 via the second user terminal 300 .
  • FIG. 4 is a block diagram showing the configuration of the first user terminal 200 according to the second embodiment.
  • the first user terminal 200 includes a camera 210 , a storage section 220 , a communication section 230 , a display section 240 , an input section 250 and a control section 260 .
  • the camera 210 is an image capturing device that performs image capturing under the control of the control unit 260 .
  • the camera 210 is provided on the first user terminal 200 so that its field of view corresponds to the user's U field of view.
  • the camera 210 is provided so that its optical axis direction corresponds to the line-of-sight direction of the user U when the user U wears the first user terminal 200 .
  • the storage unit 220 is a storage device that stores programs for realizing each function of the first user terminal 200 .
  • the communication unit 230 is a communication interface for communication with the second user terminal 300 .
  • the display unit 240 is a display device. When the first user terminal 200 is AR glasses or MR glasses, the display unit 240 is arranged on the lens.
  • the input unit 250 is an input device that receives input. Note that the input unit 250 is not essential in the second embodiment.
  • the control unit 260 controls hardware of the first user terminal 200 .
  • the control unit 260 controls the camera 210 and captures a landscape (field of view) that the user U can visually recognize.
  • the control unit 260 transmits the captured image to the second user terminal 300 via the communication unit 230 .
  • the control unit 260 displays the superimposition information received from the second user terminal 300 on the display unit 240 .
  • the first user terminal 200 is AR glasses
  • the field of view of the user U corresponds to a photographed image of the field of view.
  • the control unit 260 displays on the display unit 240 an image in which superimposition information is superimposed on the captured image.
  • the field of view of the user U is the real space area that the user U can visually recognize through the lens.
  • the control unit 260 displays the superimposed information on the display unit 240 on the lens so that the superimposed information is superimposed on the real space.
  • FIG. 5 is a block diagram showing the configuration of the second user terminal 300 according to the second embodiment.
  • the second user terminal 300 includes a camera 310 , a storage section 320 , a communication section 330 , a display section 340 , an input section 350 and a control section 360 .
  • the camera 310 is an image capturing device that performs image capturing under the control of the control unit 360 . Note that the camera 310 is not essential in the second embodiment.
  • the storage unit 320 is a storage device that stores programs for realizing each function of the second user terminal 300 .
  • the communication unit 330 includes a communication interface for communication with the first user terminal 200 and a communication interface with the network N.
  • the display unit 340 is a display device.
  • the input unit 350 is an input device that receives input.
  • the display unit 340 and the input unit 350 may be configured integrally like a touch panel.
  • the control unit 360 controls hardware of the second user terminal 300 .
  • the control unit 360 transmits personal information received from the user U via the input unit 350 to the server 100 via the communication unit 330 at the time of user registration.
  • the control unit 360 also receives a captured image from the first user terminal 200 via the communication unit 330 and transmits the captured image together with the user ID to the server 100 .
  • the control unit 360 also transmits the superimposition information received from the server 100 to the first user terminal 200 via the communication unit 330 .
  • FIG. 6 is a block diagram showing the configuration of the server 100 according to the second embodiment.
  • the server 100 includes a storage unit 110 , a memory 120 , a communication unit 130 and a control unit 140 .
  • the storage unit 110 is a storage device such as a hard disk or flash memory.
  • Storage unit 110 stores program 111 , user DB 112 , and facility DB 113 .
  • the program 111 is a computer program in which the processing of the information processing method according to the second embodiment is implemented.
  • the user DB 112 is a database that stores basic information related to the user U. Specifically, the user DB 112 stores information in which a user ID 1121 and personal information 1122 are associated with each other.
  • the user ID 1121 is information for identifying the user U.
  • the personal information 1122 includes at least one of user U's attribute information, location information, action state information, action history, purchase history, and schedule information.
  • the personal information 1122 includes user U's attribute information, location information, and action state information.
  • the attribute information may include at least one of age, place of residence, gender, family composition, contact information, credit card number, allergy information, religious information, orientation attribute, and taste information (hobbies and tastes).
  • the location information is location information of the first user terminal 200 or the second user terminal 300 used by the user U.
  • the action state information is information indicating the user U's current action state.
  • the behavioral state may be, for example, traveling, sightseeing, eating, or the like.
  • the facility DB 113 is a database that stores various information related to facilities. Specifically, facility DB 113 includes facility ID 1131 , facility characteristic information 1132 , and facility related information 1133 .
  • the facility ID 1131 is information identifying a facility.
  • the facility feature information 1132 is information relating to the feature amount of a predetermined type of installation outside the facility. The feature amount is extracted from the image showing the installation outside the facility.
  • the facility related information 1133 is information related to the facility including basic information of the facility.
  • the basic information includes the business hours or location information of the facility, the URL (Uniform Resource Locator) of the website of the facility, information on the products or services handled by the facility, or the URL of the EC (Electronic Commerce) site where the product or service can be purchased. etc.
  • the facility-related information 1133 may include advertisements, recommendation information, discount information, inventory information, or information indicating availability of reserves of the facilities and products or services handled by the facilities.
  • the memory 120 is a volatile storage device such as RAM (Random Access Memory), and is a storage area for temporarily holding information when the control unit 140 operates.
  • the communication unit 130 is a communication interface with the network N. FIG.
  • the control unit 140 is a processor that controls each component of the server 100, that is, a control device.
  • the control unit 140 loads the program 111 from the storage unit 110 into the memory 120 and executes the program 111 .
  • the control unit 140 implements the functions of the personal information acquisition unit 141 , the image acquisition unit 142 , the identification unit 143 , the generation unit 144 and the output control unit 145 .
  • the personal information acquisition unit 141 is also called personal information acquisition means.
  • the personal information acquisition unit 141 receives a user registration request from the second user terminal 300 and performs user registration. At this time, the personal information acquisition unit 141 acquires the user U's personal information from the second user terminal 300 . In addition, the personal information acquisition unit 141 may acquire the user U's personal information together with the user ID at a predetermined timing regardless of user registration.
  • the personal information acquisition unit 141 acquires attribute information input by the user from the second user terminal 300 . Also, the personal information acquisition unit 141 acquires the location information of the second user terminal 300 from the second user terminal 300 at a predetermined timing. In addition, the personal information acquisition unit 141 may generate behavioral state information based on the position information of the second user terminal 300 . Alternatively, the personal information acquisition unit 141 may acquire schedule information of the user U from the second user terminal 300 and generate action state information based on the schedule information. The personal information acquisition unit 141 may acquire user U's schedule information from a schedule management application that manages the schedule.
  • the personal information acquisition unit 141 may generate the action history based on the location history of the second user terminal 300 or the schedule information described above. Alternatively, the personal information acquisition unit 141 may generate an action history from the user's purchase history. The personal information acquisition unit 141 may acquire the purchase history of the user U from an application that manages the purchase history.
  • the personal information acquisition unit 141 collects personal information acquired from the second user terminal 300 and personal information generated based on the information acquired from the second user terminal 300 by the user issued along with user registration. It is registered in the user DB 112 in association with the ID.
  • the image acquisition unit 142 is an example of the image acquisition unit 12 described above.
  • the image acquisition unit 142 receives and acquires the captured image from the second user terminal 300 via the first user terminal 200 .
  • the identification unit 143 is an example of the identification unit 13 described above.
  • the identifying unit 143 detects a predetermined type of outside installation object from the captured image.
  • the identifying unit 143 may detect a rectangular area from the captured image, and may detect a character area or a graphic area from the rectangular area.
  • the logo mark panel is a predetermined installation outside the facility
  • the identifying unit 143 may detect the graphic area from the captured image.
  • the identification unit 143 may detect the exterior area of the building and the area around the door.
  • the specifying unit 143 cuts out the detected image area from the captured image and extracts the feature amount included in the cutout image.
  • the specifying unit 143 collates the feature amount extracted from the clipped image with the facility feature information 1132 included in the facility DB 113, and identifies the facilities whose similarity to the feature amount extracted from the clipped image is equal to or greater than a predetermined threshold. It is determined whether or not there is feature information 1132 .
  • the identification unit 143 identifies the facility ID 1131 corresponding to the facility characteristic information 1132 as the ID of the target facility.
  • the generator 144 is an example of the generator 14 described above.
  • the generation unit 144 acquires the facility related information 1133 associated with the identified facility ID 1131 in the facility DB 113 . Then, the generation unit 144 generates superimposition information based on the acquired facility-related information 1133 . For example, the generator 144 may specify (generate) the acquired facility-related information 1133 as it is as superimposed information.
  • the generation unit 144 accesses the URL and acquires the product or service information from the website or the EC site.
  • the generation unit 144 may add the acquired product or service information as the facility-related information 1133 and include the facility-related information 1133 in the superimposed information.
  • the server 100 does not have to store all the information related to all the facilities in the facility DB 113, so the storage capacity can be saved.
  • the server 100 can also provide the user U with the latest information regarding the specified target facility.
  • the generation unit 144 sets the priority of each facility-related information 1133 based on the personal information of the user U, and based on the priority of each facility-related information 1133 Overlay information may be generated.
  • the facility-related information 1133 may include information obtained from a website or an EC site.
  • the priority is used to limit the facility-related information 1133 that is the basis of the superimposed information to a predetermined amount, or to change the display order or display mode of each facility-related information 1133 in the superimposed information.
  • the generation unit 144 When there are multiple acquired facility-related information 1133, (1) when there are multiple specified facility IDs 1131 (that is, when multiple target facilities are specified from the captured image), (2) when one specified facility ID 1131 There may be a plurality of associated facility-related information 1133 (that is, facility-related information 1133 related to the target facility), or both.
  • the generation unit 144 first sets the priority of each identified facility ID 1131 based on the facility related information 1133 associated with each identified facility ID 1131 and the user U's personal information. Based on the priority of each facility ID 1131 , the generation unit 144 sets the priority of the facility related information 1133 associated with the facility ID 1131 .
  • the generating unit 144 sets a priority for each facility-related information 1133 associated with one facility ID 1131 based on user U's personal information. If (1) and (2) apply, first, the generation unit 144 generates each identified facility based on the facility-related information 1133 associated with each identified facility ID 1131 and user U's personal information. You may set the priority of ID1131. Then, for each facility ID 1131, the generation unit 144 may set the priority of each facility related information 1133 associated with the facility ID 1131 based on the priority of the facility ID 1131 and the personal information of the user U. . Alternatively, the generation unit 144 may set the priority of the all-facility-related information 1133 associated with each facility ID 1131 to match the priority of the facility ID 1131 .
  • the following (a) to (c) are the priority setting rules for the facility-related information 1133 .
  • the generating unit 144 uses the location information of the second user terminal 300 to generate the facility ID 1131 and the facility-related A priority of the information 1133 may be set. For example, the generation unit 144 may set the priority so that the smaller the distance between them, the higher the priority. Further, for example, the generation unit 144 may set the priority to be higher by a predetermined amount when the distance between the two is less than a threshold.
  • the generation unit 144 calculates the degree of association between each facility-related information 1133 and attribute information such as the age or gender of the user U. A high priority may be set for the related information 1133 .
  • the generation unit 144 sets the priority of the facility ID 1131 of a facility that handles products or services for young people and the facility ID 1131 related to products or services for young people to user U who is a young person. is set a predetermined amount higher than that of .
  • the generation unit 144 gives the facility ID 1131 of a facility that handles products or services for women and the facility-related information 1133 related to products or services for women a higher priority than those for men. is also set higher by a predetermined amount.
  • the generation unit 144 may set a higher priority to the facility ID 1131 of a facility that handles products or services that are highly related to user U's hobbies and tastes and the facility-related information 1133 related to the product or service.
  • the generation unit 144 may analyze the user U's tastes and preferences from the user U's purchase history and action history. For example, the generation unit 144 presumes that a product frequently purchased by the user U is a product that the user U likes, and the facility-related information 1133 (advertisement or EC site information) related to similar products to the frequently purchased product. is added by a predetermined amount. At this time, when there are a plurality of similar products, the generation unit 144 may set the amount of addition of the priority based on the price of the product. For example, the higher the price of the similar product, the greater the amount of priority to be added.
  • the generation unit 144 adds a predetermined amount to the priority of the facility-related information 1133 of facilities that handle products or services highly related to travel.
  • the generation unit 144 calculates the degree of association between each facility-related information 1133 and the current behavioral state of the user U. can be given a higher priority. For example, when the user U is "sightseeing", the generation unit 144 sets the priority of the facility ID 1131 of the facility for tourists and the facility related information 1133 associated with the facility ID 1131 to a predetermined amount higher. good.
  • the generation unit 144 may select the facility-related information 1133 based on the priority. For example, the generation unit 144 may select the facility-related information 1133 whose priority is equal to or higher than a predetermined threshold. Further, for example, the generation unit 144 may select a predetermined number of facility-related information items 1133 having a higher priority. The generating unit 144 may then identify (generate) the selected facility-related information 1133 as superimposed information.
  • the generation unit 144 may specify (generate) each of the plurality of facility-related information 1133 as individual superimposed information, and determine the display order or display mode of the superimposed information based on the priority. good.
  • the display order or display mode is the display order of the superimposed information corresponding to each facility-related information 1133 or the display mode of the superimposed information when the superimposed information is displayed on the first user terminal 200 . For example, superimposed information corresponding to facility-related information 1133 having a high priority may be displayed in a higher order or highlighted.
  • the server 100 provides the user U with superimposition information personalized according to the user U's personal information. This makes it easier for the user U to decide whether or not to use the facility before using the facility. Therefore, user U's satisfaction can be improved.
  • the personalized information is superimposed on the store or the like on the first user terminal 200 simply by looking at the entrance/signboard of each store through the first user terminal 200. pops up.
  • a pop-up display of recommended clothes is superimposed on a store that sells clothes that match the user U's taste.
  • the user U can compare the clothes of each store without entering each store. This is useful when you don't have time to buy clothes or when the store is crowded.
  • the facility side it becomes possible to encourage the user U to use the facility more effectively.
  • the output control unit 145 is an example of the output control unit 15 described above.
  • the output control unit 145 causes the display unit 240 of the first user terminal 200 to display the superimposed information by transmitting the superimposed information to the first user terminal 200 via the second user terminal 300 .
  • the output control unit 145 provides information specifying the display position of the superimposed information such that the superimposed information overlaps with the detected object outside the facility in the visual field area of the user U or is positioned near the object installed outside the facility. , may be transmitted to the first user terminal 200 via the second user terminal 300 .
  • the output control unit 145 may have a function of causing the second user terminal 300 to output personal information input means.
  • FIG. 7 is a sequence diagram showing the flow of user registration processing according to the second embodiment.
  • the second user terminal 300 transmits a user registration request to the server 100 (S100).
  • the output control unit 145 of the server 100 transmits a personal information input area (also called an input screen) to the second user terminal 300 and causes the second user terminal 300 to display it (S101).
  • the output control unit 145 of the server 100 may cause the second user terminal 300 to output the voice input means of the personal information.
  • the user U uses the input unit 350 of the second user terminal 300 to perform an input operation of personal information (S102).
  • the second user terminal 300 that has received the input operation transmits the input personal information to the server 100 (S103).
  • the personal information acquisition unit 141 of the server 100 receives the personal information input in the input area from the second user terminal 300 .
  • the personal information acquisition unit 141 of the server 100 that has received the personal information issues a user ID, associates the user ID with the personal information, and registers them in the user DB 112 (S104). Then, the personal information acquisition unit 141 of the server 100 notifies the user ID to the second user terminal 300 (S105).
  • FIG. 8 is a diagram showing an example of a personal information input screen displayed on the second user terminal 300 according to the second embodiment.
  • the display unit 340 of the second user terminal 300 displays an input area for personal information required for user registration.
  • the display unit 340 displays attribute information, whether or not to permit the use of the location information of the second user terminal 300, whether or not to permit the use of the action history, and whether or not to permit the use of the purchase history. is displayed.
  • input areas for age, sex, place of residence, family structure, allergy, religion, and tastes and preferences are shown as attribute information input areas.
  • FIG. 9 is a sequence diagram showing the flow of output processing according to the second embodiment.
  • the first user terminal 200 captures the field of view of the user U (S111), and transmits the captured image to the second user terminal 300 (S112).
  • the second user terminal 300 transmits the captured image together with the user ID to the server 100 via the network N (S113).
  • the image acquiring unit 142 of the server 100 acquires the captured image and the user ID.
  • the specifying unit 143 of the server 100 detects the installations outside the facility from the captured image (S114). Then, the identifying unit 143 extracts the feature quantity of the installation outside the facility, and identifies the facility ID of the target facility using the facility DB 113 based on the extracted feature quantity (S115). Next, the generation unit 144 acquires the facility-related information 1133 associated with the identified facility ID from the facility DB 113 (S116). The generation unit 144 also acquires personal information associated with the user ID from the user DB 112 (S117). Next, the generator 144 sets the priority of the facility-related information 1133 based on the personal information (S118), and generates superimposed information based on the priority (S119).
  • the output control unit 145 then transmits the superimposition information to the second user terminal 300 via the network N (S120).
  • the second user terminal 300 that has received the superimposed information transmits the superimposed information to the first user terminal 200 (S121), and displays it on the display unit 240 (S122).
  • the second user terminal 300 transmitted the captured image to the server 100, including the user ID.
  • the second user terminal 300 may include biometric information of the user U in place of the user ID and transmit the captured image to the server 100 .
  • the biometric information may be face information (face image or face feature amount), fingerprint information, or iris information (iris image or iris feature amount).
  • the second user terminal 300 may acquire biometric information from an image captured by the inner camera of the first user terminal 200 or from a biometric information reader (not shown) provided in the second user terminal 300 .
  • the server 100 includes a biometric information database (not shown) that associates user IDs with biometric information or feature amounts extracted from biometric information, and a biometric authentication unit (not shown) that performs biometric authentication based on biometric information. shown). Then, the server 100 may perform biometric authentication based on the biometric information acquired from the second user terminal 300 and identify the user ID.
  • FIG. 10 is a diagram showing a captured image V of the field of view of the user U according to the second embodiment.
  • the captured image V includes image areas T1, T2, T3, T4, and T5 representing signboards, which are installations outside the facility.
  • the specifying unit 143 specifies “Store A”, “Store B”, “Store C”, “Store D” and “Store E” from the image regions T1, T2, T3, T4 and T5, respectively.
  • the generation unit 144 sets the priority of facility-related information corresponding to the specified facility.
  • the generation unit 144 generates facility-related information of “store A”, “store B”, and “store C” having the highest three priorities or less as superimposed information. In this way, the generation unit 144 limits the facility-related information, which is the basis of the superimposed information to be displayed on the first user terminal 200, to those having a predetermined high priority. As a result, on the first user terminal 200, it is possible to effectively display detailed information related to the facility selected according to the user U's personal information such as tastes and preferences and action history. Especially when the information to be displayed is not personalized, the screen becomes complicated (busy) or the screen is occupied with information unrelated to the user U. However, according to the second embodiment, such a situation can be avoided. .
  • FIG. 11 is a diagram showing an example of superimposed information displayed on the first user terminal 200 according to the second embodiment.
  • a hatched portion shown in this figure indicates superimposed information displayed on the display unit 240 of the first user terminal 200 .
  • the superimposed information includes superimposed images 400-1, 400-2, and 400-3 indicating facility-related information corresponding to "Store A,” "Store B,” and "Store C.”
  • the generation unit 144 may determine the display mode of the superimposed image 400-1 so that the facility-related information corresponding to "Store A", which has the highest priority, is highlighted.
  • the highlighting is displaying the superimposed image of the information in a larger size, blinking the superimposed image of the information, changing the color of the superimposed image of the information, or changing the font of the text in the superimposed image. can be
  • Each superimposed image 400-1, 400-2, 400-3 may be displayed in a space (sometimes referred to as an empty space) that does not obstruct the view of the user U in order to ensure walking safety.
  • the display positions of the superimposed images 400-1, 400-2, and 400-3 are determined so as to avoid areas where a person exists and areas where a predetermined object exists (or any one of them). you can A predetermined object may be, for example, a building, a pillar, or a character portion of a signboard.
  • the output control unit 145 controls at least one of a region in which a person exists, a region in the traveling direction of the user U (the direction in which the user U is walking), and a region in which a predetermined object exists in the visual field region.
  • Superimposed images 400-1, 400-2, and 400-3 are displayed on the display unit 240 of the first user terminal 200 so that they do not overlap.
  • the server 100 may change the position of the empty space according to the moving direction. Thereby, the place where the superimposed image is displayed can be changed according to the movement of the user U.
  • the server 100 sets the empty space so as to avoid an area in which a person exists or an area in the traveling direction of the user U, and an area in which a predetermined object exists (a wall, a building, a pillar, etc.) is a superimposed image. may be set as the displayable area. Further, the server 100 may identify a flat space based on the pixel values of the captured image and set the space as an empty space.
  • the display positions of the superimposed images 400-1, 400-2, and 400-3 may be determined according to the user's U position information and line-of-sight direction.
  • the superimposed images 400-1, 400-2, and 400-3 are placed in the vicinity of the corresponding outside facilities, or It may be displayed to point to the corresponding off-site installation.
  • the superimposed information displayed on the display unit 240 may include superimposed images 410-1 and 410-2 in addition to the superimposed images described above.
  • Superimposed images 410-1 and 410-2 may indicate advertising information.
  • the advertisement information may or may not be related to the target facility.
  • generation unit 144 may specify predetermined advertisement information as superimposed images 410-1 and 410-2. Further, for example, the generation unit 144 may select advertisement targets based on the personal information of the user U, and generate superimposed images 410-1 and 410-2 based on the selected advertisement targets. For example, when the user U has a child, the generation unit 144 may generate a superimposed image with an advertisement for a facility related to children's education as an advertisement target.
  • Superimposed images 410-1 and 410-2 showing advertisement information may also be displayed in the empty space. That is, the output control unit 145 controls the first user terminal so as not to overlap the area where a person exists, the area where a predetermined object exists (or any of them), and the superimposed images 400-1, 400-2, and 400-3. Superimposed images 410-1 and 410-2 are displayed on the display unit 240 of 200. FIG. As a result, it is possible to effectively utilize empty space while ensuring walking safety.
  • the server 100 identifies the target facility from the installations outside the facility included in the captured image, and transmits information related to the target facility to the first user terminal via the second user terminal 300. 200 to output.
  • the server 100 can easily provide relevant information of the target facility to the user before the user actually enters the target facility or purchases products or services handled by the target facility. Therefore, the user can easily decide whether or not to use the target facility.
  • the facility side it is possible to increase user interest and effectively encourage use of the facility.
  • the purpose of the server 100 providing the information to the user U may be to encourage the user U to use the facility, but simply to motivate the user U to use the facility in the future. may
  • FIG. 12 is a diagram showing another example of superimposed information displayed on the first user terminal 200 according to the second embodiment.
  • the identification unit 143 detects an advertisement displayed on a display installed in a place away from the facility as an image region T of the installation outside the facility, and identifies the facility that provides the advertisement and the facility related to the advertisement as the target facility. can be specified.
  • the generation unit 144 may generate a superimposed image 420 indicating facility-related information related to the target facility.
  • a superimposed image 420 is displayed in an empty space on the display unit 240 of the first user terminal 200 .
  • a Hawaii fair is held in a shopping mall, by displaying an advertisement for a trip to Hawaii and other advertisements related to Hawaii on a display installed at the venue, the user U will be motivated to travel to Hawaii. can be evoked.
  • FIG. 13 is a block diagram showing the configuration of the server 100a according to the third embodiment.
  • the server 100a includes a storage unit 110a and a control unit 140a instead of the storage unit 110 and the control unit 140.
  • FIG. Storage unit 110 a stores program 111 a instead of program 111 .
  • the program 111a is a computer program in which the processing of the information processing method according to the third embodiment is implemented.
  • the control unit 140 a has an operation detection unit 146 in addition to the components of the control unit 140 .
  • the operation detection unit 146 is also called operation detection means.
  • the operation detection unit 146 detects a selection operation by the user U.
  • the first superimposed information is displayed on the display unit 240 of the first user terminal 200, and the image acquisition unit 142 of the server 100a indicates the field of view of the user U during display of the first superimposed information. Assume that a photographed image is obtained.
  • the operation detection unit 146 detects the position of the hand of the user U in the captured image and the superimposed position of the first superimposed information in the visual field region (that is, the display position on the display unit 240).
  • a selection operation of the first superimposition information is detected.
  • the first superimposed information is one aspect of the above-described superimposed information.
  • the first superimposed information may be basic information of the target facility, recommended information of products or services handled by the target facility, icons or It may be a URL.
  • the generation unit 144 generates the second superimposition information based on the facility-related information of the target facility related to the selected first superimposition information.
  • the second superimposed information is information different from the first superimposed information, and may be detailed information of the first superimposed information. For example, if the first superimposed information is recommended information for a product handled by the target facility, the second superimposed information may be detailed product information obtained from an EC site that handles the product, inventory information for the product, or It may be information on whether or not the product can be reserved. Further, for example, when the first superimposed information is the name of the target facility, the second superimposed information may be information indicating the business hours of the target facility or recommendation information of products handled by the target facility.
  • the output control unit 145 causes the first user terminal 200 to display the superimposed information so that the second superimposed information overlaps the user U's visual field area.
  • FIG. 14 is a diagram for explaining selection operation detection processing according to the third embodiment.
  • This figure shows a photographed image V of the field of view of the user U when the superimposed images 400-1 to 400-3 are displayed as the first superimposed information.
  • the captured image V includes an image area showing the hand of the user U (hand area 500).
  • superimposed images 400-1 to 400-3 are shown in this figure for convenience, the photographed image V may not include these superimposed images 400.
  • the operation detection unit 146 first detects the hand region 500 from the captured image V and detects the fingertip from the hand region 500 . The operation detection unit 146 then determines whether or not the position of the fingertip corresponds to the display position of any superimposed image 400 . In the case of this figure, operation detection unit 146 determines that the position of the fingertip corresponds to the display position of superimposed image 400-1. Thereby, the operation detection unit 146 determines that the user U pressed (selected) the superimposed image 400-1.
  • the operation detection unit 146 determines that the position of the fingertip corresponds to the display position of the superimposed image 400-1, and in addition, when it is determined that a predetermined operation has been performed before and after the position of the fingertip, the user A selection operation by U may be detected.
  • the predetermined action may be, for example, placing the fingertip at a position corresponding to the display position of superimposed image 400-1 for a predetermined period of time, or performing a click action with the finger. .
  • the generation unit 144 accesses the EC site of the target facility (store A) corresponding to the selected superimposed image 400-1, and purchases the product corresponding to the superimposed image 400-1. You can get more information. Then, the generation unit 144 generates second superimposition information based on the acquired detailed information.
  • FIG. 15 is a diagram showing an example of the second superimposed information displayed on the first user terminal 200 according to the third embodiment.
  • a superimposed image 430 is displayed on the display unit 240 as the second superimposed information.
  • the superimposed image 430 includes the product image, product name, price, and purchase button for the product.
  • the user U may perform the selection operation of the purchase button by moving the fingertip in accordance with the display position of the purchase button. After detecting the selection operation of the purchase button, the operation detection unit 146 may proceed with the purchase process on the EC site for the user U.
  • the server 100a detects a selection operation by the user U based on the position of the hand of the user U in the captured image and the superimposition position of the superimposition information, and responds to the selection operation. Execute the process. Thereby, the user U can easily acquire more detailed information of the superimposition information without touch.
  • Embodiment 4 is characterized in that the server detects the idle time of the user U and provides information during the idle time.
  • FIG. 16 is a block diagram showing the configuration of the server 100b according to the fourth embodiment.
  • the server 100b includes a storage unit 110b and a control unit 140b instead of the storage unit 110 and the control unit 140.
  • the storage unit 110b stores a program 111b instead of the program 111.
  • the program 111b is a computer program in which the processing of the information processing method according to the fourth embodiment is implemented.
  • the control unit 140b has a time detection unit 147 in addition to the components of the control unit 140.
  • the time detection unit 147 is also called time detection means.
  • the time detection unit 147 detects the free time of the user U based on at least one of the captured image acquired by the image acquisition unit 142, the position information of the user U, the action state information, and the schedule information.
  • the free time may refer to a state in which the user U is simply moving or in a stationary state, or a state in which the user U is in a specific state (for example, “sightseeing” or “eating”). ”).
  • the time detection unit 147 detects the free time of the user U. determined to have been
  • the generation unit 144 in response to the detection of user U's free time, the generation unit 144 generates advertisement information.
  • the advertising information may be similar to the advertising information described above. That is, the advertisement information may be determined in advance, or may be generated by the generation unit 144 using the user U's personal information. Then, the output control unit 145 causes the first user terminal 200 to display the generated information so as to overlap the visual field area.
  • FIG. 17 is a diagram showing an example of superimposed information displayed on the first user terminal 200 according to the fourth embodiment.
  • the time detection unit 147 determines that the user U is in the elevator, and detects the idle time of the user U. Therefore, display unit 240 displays superimposed images 410-1 and 410-2 indicating advertisement information.
  • the generation unit 144 may generate superimposed images 440-1 to 440-4 showing facility-related information corresponding to the facilities on each floor of the operation panel.
  • the output control unit 145 may cause the first user terminal 200 to display the superimposed images 440-1 to 440-4 near the positions corresponding to the respective floors of the elevator operation panel in the viewing area.
  • the server 100b can effectively utilize the free time of the user U and provide the user U with useful information for the user himself or the facility.
  • FIG. 18 is a block diagram showing the configuration of the server 100c according to the fifth embodiment.
  • the server 100 c includes a storage unit 110 c and a control unit 140 c instead of the storage unit 110 and the control unit 140 .
  • the storage unit 110c stores a program 111c, a user DB 112c, and a facility DB 113c.
  • the program 111c is a computer program in which the processing of the information processing method according to the fifth embodiment is implemented.
  • the user DB 112c stores display history 1123 in addition to personal information 1122 as information associated with the user ID 1121 .
  • a display history 1123 is a history of superimposed information displayed on the first user terminal 200 of the user U having the user ID 1121 .
  • the facility DB 113c stores contribution determination history 1134 in addition to facility feature information 1132 and facility related information 1133 as information associated with the facility ID 1131 .
  • the contribution determination history 1134 is a history of contribution determination results in contribution determination processing, which will be described later.
  • the control unit 140 c includes a behavior information acquisition unit 148 , a contribution determination unit 149 and a recording unit 150 in addition to the components of the control unit 140 .
  • the behavior information acquisition unit 148 acquires user U's behavior information.
  • the action information is information indicating that the user U has taken a predetermined action.
  • the behavior information includes at least the type of behavior and information indicating the target of the behavior.
  • the action information may be called usage information.
  • the information indicating the action target may be the used facility ID.
  • the behavior information acquisition unit 148 may acquire the behavior information of the user U from the second user terminal 300 or a facility terminal installed in the facility.
  • the facility terminal may be a face authentication terminal that performs face authentication of the user U.
  • the facility terminal may identify the user ID from the face image of the user U and transmit it to the server 100c together with the action information. Also, face authentication may be performed within the server 100c.
  • the facility terminal may photograph the face image of the user U and transmit the face image to the server 100c. Then, the server 100c may identify the user ID based on the face image acquired from the facility terminal.
  • the second user terminal 300 may transmit location information such as GPS (Global Positioning System) and Bluetooth beacon information to the server 100c.
  • the behavior information acquisition unit 148 may determine whether or not the usage information has been acquired based on the received information.
  • the action information when the type of action is that the user U gazed at the superimposed information, the action information may be called line-of-sight information.
  • the information indicating the action target may be the facility ID that forms the basis of the focused superimposed information.
  • the action information when the type of action is that the user U has performed a selection operation, the action information may be called selection operation information.
  • the information indicating the action target may be the facility ID that forms the basis of the selected superimposed information.
  • the server 100 c may include the operation detection unit 146 when the action information is selection operation information.
  • the action information acquisition unit 148 may acquire the user U's action information and user ID from the second user terminal 300 .
  • the behavior information acquisition unit 148 supplies the acquired behavior information of the user U and the user ID to the contribution determination unit 149 .
  • the contribution determination unit 149 refers to the display history 1123 associated with the user ID in the user DB 112 . Then, the contribution determining unit 149 calculates the degree of contribution of the superimposed information displayed by the first user terminal 200 to the action based on the action information. Then, the contribution determination unit 149 determines whether or not the calculated contribution is equal to or greater than a predetermined threshold.
  • the contribution determination unit 149 determines whether the facility used by the user U is the facility corresponding to the superimposed information displayed by the first user terminal 200. judge. Further, for example, when the line-of-sight information of the user U is acquired as the action information, the contribution determination unit 149 determines whether or not there is superimposed information displayed by the first user terminal 200 in the line-of-sight direction of the user U. Further, for example, when the selection operation information is acquired as the action information, the contribution determination unit 149 determines whether or not the target selected by the user U is the superimposition information displayed by the first user terminal 200 . Then, when the determination result is affirmative, the contribution determination unit 149 may calculate the degree of contribution as being equal to or greater than a predetermined threshold.
  • the contribution determination unit 149 determines the degree of contribution according to the mode of use of the user U, for example, whether the user U entered but did not purchase a product, or whether the user entered and purchased a product, or according to the purchase price. can be of different sizes. Further, the contribution determination unit 149 may vary the degree of contribution according to the user U's gaze time.
  • the contribution determination unit 149 supplies whether or not the degree of contribution is equal to or greater than a predetermined threshold to the recording unit 150 as a contribution determination result.
  • the recording unit 150 records the display history displayed on the first user terminal 200 by the output control unit 145 in the user DB 112 .
  • the recording unit 150 may record, in the user DB 112, voice data in the case of voice guidance and the purchase history of the user U.
  • FIG. The recording unit 150 then records the contribution determination result acquired from the contribution determination unit 149 in the facility DB 113 .
  • the server 100c may transmit the display history, voice data, or purchase history stored in the user DB 112 to the second user terminal 300 at a predetermined timing so that the user U can review the information later.
  • the second user terminal 300 may output new information based on the received display history, voice data, or purchase history. For example, a list of facilities and a list of images of installations outside the facility, which are the basis of the superimposed information, may be displayed, or recommendation information of the facility may be displayed based on the purchase record.
  • FIG. 19 is a flowchart showing an example of contribution determination processing according to the fifth embodiment.
  • the behavior information acquisition unit 148 determines whether or not the behavior information of the user U has been acquired from the second user terminal 300 or the facility terminal (S200).
  • the action information acquisition unit 148 acquires the action information of the user U (Yes in S200)
  • the action information acquisition unit 148 supplies the action information to the contribution determination unit 149, and advances the process to S201.
  • the contribution determination unit 149 determines whether or not the facility targeted for the action included in the action information is the facility included in the display history associated with the user ID (S201).
  • the contribution determination unit 149 determines that the facility targeted for the action is the facility included in the display history (Yes in S201). Then, the contribution determining unit 149 determines whether the degree of contribution is equal to or greater than a predetermined threshold (S203), and if it is determined to be equal to or greater than the predetermined threshold (Yes in S203), the display has brought about a change in the behavior of the user U. , it is determined that there is a "contribution" (S204). The contribution determination unit 149 records the contribution determination result in the contribution determination history 1134 of the facility DB 113 (S206).
  • the contribution determination unit 149 determines that the facility targeted for the action is a facility included in the display history (No in S201), or determines that the degree of contribution is less than the predetermined threshold. If so (No in S203), it is determined that there is no contribution (S205). Then, the contribution determination unit 149 records the contribution determination result in the contribution determination history 1134 of the facility DB 113 (S206).
  • the server 100c measures the degree of contribution of the superimposed information displayed on the first user terminal 200 to the action of the user U, and records whether or not there was a contribution. This makes it possible to easily measure the interest of the user U and to easily measure the effect of the display (for example, the effect of the display on behavior modification).
  • the server 100c may collect a fee from the facility with the associated facility ID based on the contribution determination history.
  • a fee may be set according to the degree of contribution.
  • server 100c may measure the contribution of the above-described advertisement information in addition to or instead of the contribution of superimposed information.
  • "superimposed information" in the description of the fifth embodiment may be read as "advertisement information”.
  • Embodiment 6 is characterized in that the server uses the personal information of the user U's companion to provide the user U with information.
  • the information processing system 1000 according to the sixth embodiment has basically the same configuration and functions as the information processing system 1000 according to the first embodiment.
  • the second user terminal 300 of the user U transmits the personal information of the companion of the user U to the server 100 in addition to or instead of the personal information of the user U.
  • the personal information input screen shown in FIG. 8 may include an area for inputting the personal information of the companion.
  • the personal information acquisition unit 141 of the server 100 acquires the personal information of the user U and the personal information of the companion from the second user terminal 300 of the user U. Then, the generation unit 144 generates superimposed information based on the personal information of the user U, the personal information of the companion, and the facility-related information related to the target facility. As a result, the server 100 can provide information that takes into consideration not only the user U himself but also personal information such as the hobbies and preferences of his companions.
  • the personal information acquisition unit 141 acquires from the second user terminal 300 information about the degree of importance of the personal information of the companion with respect to the personal information of the user U. you can
  • FIG. 20 is a diagram showing an example of an input screen for personal information importance displayed on the second user terminal 300 according to the sixth embodiment.
  • the display unit 340 displays an input area for the degree of importance of the personal information of the user U and an input area for the degree of importance of the personal information of the companion.
  • an addition operation or a subtraction operation from the user U can be accepted to change the value of each degree of importance.
  • the ratio (ratio) of the importance of the personal information of the user U and the importance of the personal information of the companion may be adjusted to be 1 in total.
  • the ratio of the importance of the personal information of the user U and the importance of the personal information of all the companions may be adjusted so that the total becomes 1.
  • these adjustments may be made by the personal information acquisition unit 141 of the server 100 .
  • the display unit 340 displays an input area for “determine”.
  • the second user terminal 300 outputs the input information about the importance of the personal information of the user U and the information about the importance of the personal information of the companion along with the user ID. Send to server 100 .
  • the server 100 may include the operation detection section 146 .
  • the operation detection unit 146 detects the input operation from the captured image, and detects the input operation according to the input operation. may be processed.
  • the generation unit 144 When the personal information acquisition unit 141 acquires the companion's personal information and the importance information, the generation unit 144 generates information about the target facility based on the personal information of the user U, the companion's personal information, and the importance. set the priority of each of the facility-related information associated with the For example, first, the generation unit 144 generates personal information as a group from the personal information of the user U and the personal information of the companions weighted by the degree of importance. Then, the generation unit 144 sets the priority of each facility-related information based on each piece of facility-related information of the target facility and the personal information of the group.
  • the server 100 can set priorities based on the personal information weighted by the degree of importance between the personal information of the user U and the personal information of the companion. Therefore, it is possible to provide the user U with information that more appropriately reflects the intention of the organization.
  • the hardware configuration is described, but it is not limited to this.
  • the present disclosure can also implement arbitrary processing by causing a CPU to execute a computer program.
  • the program includes instructions (or software code) that, when read into a computer, cause the computer to perform one or more of the functions described in the embodiments.
  • the program may be stored in a non-transitory computer-readable medium or tangible storage medium.
  • computer readable media or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drives (SSD) or other memory technology, CDs - ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device.
  • the program may be transmitted on a transitory computer-readable medium or communication medium.
  • transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.
  • the present disclosure is not limited to the above embodiments, and can be modified as appropriate without departing from the scope.
  • transmission and reception of information between the server 100 and the second user terminal 300 were performed via the second user terminal 300 connected to the network N.
  • the first user terminal 200 may be connected to the network N, and the server 100 may communicate with the first user terminal 200 without going through the second user terminal 300 .
  • the server 100 displays a personal information input screen on the first user terminal 200 and detects personal information input operation based on a photographed image in which the user U has performed a predetermined operation, thereby obtaining personal information. may be obtained.
  • the information processing system 1000 may include a user terminal in which the functions of the first user terminal 200 and the functions of the second user terminal 300 are integrated instead of the first user terminal 200 and the second user terminal 300. .
  • the generation unit 144 of the server 100 may generate superimposed information based on the degree of congestion of the target facility, in addition to the facility-related information and personal information related to the target facility.
  • the generation unit 144 may include congestion degree information in the superimposition information generated based on the priority.
  • the generation unit 144 may set the priority of the target facility related information based on the facility related information related to the target facility, the personal information, and the degree of congestion of the target facility.
  • the server 100 may further include a congestion degree acquisition unit (not shown) that acquires the congestion degree of each facility. Accordingly, since the server 100 provides information considering the degree of congestion, it is possible to make it easier for the user U to determine whether or not to use the facility before using the facility. Therefore, user satisfaction can be enhanced.
  • the personal information acquisition unit 141 of the server 100 acquires the personal information of the user U and companions (users, etc.) from user terminals such as the second user terminal 300 .
  • the personal information acquisition unit 141 may acquire personal information from an external device that is connected to the network N and stores part or all of the personal information of a user or the like.
  • the external device may operate a schedule management application and accumulate schedule information of a user or the like acquired by these operations. Then, the external device may transmit the user ID and the schedule information to the server 100 via the network N at a predetermined timing.
  • the external device may operate an application that manages purchase histories, and store the purchase histories of the user or the like acquired by this operation.
  • a face authentication terminal is installed in each facility, and when a user or the like visits each facility, the face authentication terminal transmits the user ID and visit history to the server 100 via the network N. may Then, the server 100 may register the visit history as an action history in the user DB 112 in association with the user ID.
  • a face payment terminal is installed in each facility, and when a user or the like makes a payment at a store, the face payment terminal transmits the user ID and payment history to the server 100 via the network N. may Then, the server 100 may register the payment history as the purchase history in the user DB 112 in association with the user ID.
  • Embodiments 1 to 6 may be combined arbitrarily.
  • Appendix 1 an image acquisition means for acquiring a captured image generated by capturing a field of view of a user with a user terminal; an identifying means for detecting, from the photographed image, an object installed outside the facility related to the facility and identifying a target facility based on the detected object installed outside the facility; generating means for generating superimposed information based on facility-related information related to the target facility; An information processing apparatus comprising output control means for displaying the superimposed information on the user terminal so that the superimposed information is superimposed on a visual field area indicating the visual field.
  • Appendix 2 further comprising personal information acquisition means for acquiring personal information of at least one of the user and the user's companion, The information processing apparatus according to appendix 1, wherein the generating means generates the superimposed information based on facility-related information related to the target facility and the personal information.
  • Appendix 3 The information processing apparatus according to appendix 2, wherein the personal information includes at least one of attribute information, location information, action history, current action state, purchase history, and schedule information.
  • Appendix 4 When a plurality of the target facilities are specified from the captured image, or when there are a plurality of facility-related information related to the target facilities, the generating means generates facility-related information related to the target facilities based on the personal information.
  • the information processing apparatus according to appendix 2 or 3, wherein each priority is set and the superimposition information is generated based on the priority.
  • the personal information acquisition means acquires the user's personal information, the companion's personal information, and information on the degree of importance of the companion's personal information with respect to the user's personal information,
  • the generating means sets the priority of each piece of facility-related information related to the target facility based on the user's personal information, the companion's personal information, and the degree of importance.
  • the information processing device according to any one of the items.
  • the information processing apparatus according to any one of appendices 1 to 5, wherein the generating means specifies information on a product or service acquired from a website of the target facility as the facility-related information.
  • the output control means causes the user terminal to display the superimposed information so that the superimposed information does not overlap an area in which at least one of a person and a predetermined object exists in the visual field area.
  • the information processing device according to any one of appendices 1 to 7.
  • (Appendix 9) comprising time detection means for detecting the idle time of the user based on at least one of the captured image and the location information of the user;
  • the information processing apparatus according to any one of additional notes 1 to 8, wherein the output control means causes the user terminal to display the advertisement information so that predetermined advertisement information overlaps the viewing area.
  • a user terminal used by a user comprising an information processing device and
  • the information processing device is an image acquisition means for acquiring a captured image generated by capturing a field of view of a user with a user terminal; an identifying means for detecting, from the photographed image, an object installed outside the facility related to the facility and identifying a target facility based on the detected object installed outside the facility; generating means for generating superimposed information based on facility-related information related to the target facility;
  • An information processing system comprising output control means for displaying the superimposed information on the user terminal so that the superimposed information overlaps a visual field area indicating the visual field.
  • the user terminal has a first user terminal attached to the body of the user, and a second user terminal that communicates with the information processing device and the first user terminal,
  • the information processing device is
  • the image acquisition means acquires the captured image from the first user terminal via the second user terminal, 13.
  • (Appendix 14) Acquiring a captured image generated by capturing a user's field of view with a user terminal, Detecting, from the photographed image, an object installed outside the facility related to the facility, identifying a target facility based on the detected object installed outside the facility, generating superimposed information based on facility-related information related to the target facility; An information processing method, wherein the superimposed information is displayed on the user terminal so that the superimposed information is superimposed on a visual field area indicating the visual field.
  • An image acquisition process for acquiring a captured image generated by capturing a user's field of view with a user terminal; a specifying process of detecting an object installed outside the facility related to the facility from the captured image and specifying a target facility based on the detected object installed outside the facility; a generating process for generating superimposed information based on facility-related information related to the target facility;
  • a non-temporary computer-readable program storing a program for causing a computer to execute an output control process for displaying the superimposed information on the user terminal so that the superimposed information is superimposed on the visual field area indicating the visual field. medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

情報処理装置(10)は、ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得する画像取得部(12)と、撮影画像から、施設に関連する施設外設置物を検出し、検出した施設外設置物に基づいて対象施設を特定する特定部(13)と、対象施設に関連する施設関連情報に基づいて、重畳情報を生成する生成部(14)と、視野を示す視野領域に重畳情報が重なるように、ユーザ端末に対して重畳情報を表示させる出力制御部(15)とを備える。

Description

情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体
 本開示は、情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体に関し、特にユーザに対して施設に関する情報を提供する情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体に関する。
 ユーザの視界にある物体の情報を、ユーザの視界に重なるように表示させる装置が開発されている。例えば、特許文献1には、ウェアラブルデバイスのカメラで撮影した画像中に存在する商品を検知し、商品に関する重畳情報を生成し、重畳情報を撮影画像に重畳して表示させる情報処理装置が開示されている。
 また、特許文献2には、ヘッドマウントディスプレイ(HMD)の位置情報及び視線方向に基づいて使用者の仮想視野を設定し、地図データベースとの照合により検索された、仮想視野内にある店舗の情報を、HMDに表示させる店舗サーバが開示されている。
 また、特許文献3には、ユーザ端末の端末位置情報及び方位情報と、店舗位置情報とを基に、撮影画像に含まれる建物の店舗を特定し、撮影画像の、店舗が存在する階層の位置に、店舗の識別情報を重畳させる情報処理装置が開示されている。
特開2019-212039号公報 特開2017-182413号公報 特開2017-126142号公報
 上述の特許文献1に記載の方法では、実際に店舗に入場する前に、ユーザがその店舗の商品に関する重畳情報を把握できない。また、上述の特許文献2~3に記載の方法では、ユーザ端末の正確な位置情報及び方位情報と、店舗の正確な位置情報とが必要となり、いずれかに誤差が生じると検出対象の店舗を正しく特定できない。
 本開示の目的は、上述した課題に鑑み、ユーザが施設を利用する前に、ユーザに対して施設の関連情報を容易に提供できる情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体を提供することにある。
 本開示の一態様にかかる情報処理装置は、
 ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得する画像取得手段と、
 前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定する特定手段と、
 前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成する生成手段と、
 前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる出力制御手段と
 を備える。
 本開示の一態様にかかる情報処理システムは、
 ユーザが使用し、前記ユーザの視野を撮影するユーザ端末と、
 情報処理装置と
 を備え、
 前記情報処理装置は、
 前記ユーザ端末により生成された撮影画像を取得する画像取得手段と、
 前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定する特定手段と、
 前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成する生成手段と、
 前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる出力制御手段と
 を有する。
 本開示の一態様にかかる情報処理方法は、
 ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得し、
 前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定し、
 前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成し、
 前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる。
 本開示の一態様にかかる非一時的なコンピュータ可読媒体は、
 ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得する画像取得処理と、
 前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定する特定処理と、
 前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成する生成処理と、
 前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる出力制御処理と
 を、コンピュータに実行させるためのプログラムが格納される。
 本開示により、ユーザが施設を利用する前に、ユーザに対して施設の関連情報を容易に提供できる情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体を提供できる。
実施形態1にかかる情報処理装置の構成を示すブロック図である。 実施形態1にかかる情報処理方法の流れを示すフローチャートである。 実施形態2にかかる情報処理システムの全体構成を示すブロック図である。 実施形態2にかかる第1ユーザ端末の構成を示すブロック図である。 実施形態2にかかる第2ユーザ端末の構成を示すブロック図である。 実施形態2にかかるサーバ100の構成を示すブロック図である。 実施形態2にかかるユーザ登録処理の流れを示すシーケンス図である。 実施形態2にかかる第2ユーザ端末に表示される個人情報の入力画面の一例を示す図である。 実施形態2にかかる出力処理の流れを示すシーケンス図である。 実施形態2にかかるユーザの視野の撮影画像を示す図である。 実施形態2にかかる第1ユーザ端末に表示される重畳情報の一例を示す図である。 実施形態2にかかる第1ユーザ端末に表示される重畳情報の他の例を示す図である。 実施形態3にかかるサーバの構成を示すブロック図である。 実施形態3にかかる選択操作の検出処理を説明するための図である。 実施形態3にかかる第1ユーザ端末に表示される第2の重畳情報の一例を示す図である。 実施形態4にかかるサーバの構成を示すブロック図である。 実施形態4にかかる第1ユーザ端末に表示される重畳情報の一例を示す図である。 実施形態5にかかるサーバの構成を示すブロック図である。 実施形態5にかかる寄与判定処理の一例を示すフローチャートである。 実施形態6にかかる第2ユーザ端末に表示される個人情報の重要度の入力画面の一例を示す図である。
 以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
 <実施形態1>
 まず、本開示の実施形態1について説明する。図1は、実施形態1にかかる情報処理装置10の構成を示すブロック図である。
 情報処理装置10は、ユーザに対して施設に関する情報を提供する情報処理装置である。施設は、店舗、観光施設、美術館や博物館、設営されたイベント会場やテーマパーク等である。ここで、情報処理装置10は、ネットワーク(不図示)に接続される。ネットワークは、有線であっても無線であってもよい。また、当該ネットワークには、ユーザが使用するユーザ端末(不図示)が直接的又は間接的に接続されている。つまり、情報処理装置10は、ユーザ端末と通信可能に接続される。
 情報処理装置10は、画像取得部12と、特定部13と、生成部14と、出力制御部15とを備える。
 画像取得部12は、画像取得手段とも呼ばれる。画像取得部12は、ユーザの視野を示す撮影画像を取得する。撮影画像は、ユーザ端末がユーザの視野を撮影することで生成された撮影画像である。画像取得部12は、取得した撮影画像を特定部13に供給する。
 特定部13は、特定手段とも呼ばれる。特定部13は、撮影画像から、施設に関連する施設外設置物を検出する。ここで、施設外設置物とは、施設の外部に設置され、外部から視認可能な物体である。例えば施設外設置物は、看板、ロゴマークのパネル、あるいは施設の入口外観である。検出対象となる施設外設置物の種別は、予め定められてよい。そして、特定部13は、検出した施設外設置物に基づいて、ユーザの視野内に存在する対象施設を特定する。特定部13は、特定した対象施設の識別情報(ID)を生成部14に供給する。
 生成部14は、生成手段とも呼ばれる。生成部14は、特定した対象施設のIDを用いて、対象施設に関連する施設関連情報を取得する。施設関連情報は、例えば、施設又は施設に関連する商品若しくはサービスの、広告、レコメンド情報、割引情報、在庫情報、又は取り置き可否を示す情報であってよい。そして生成部14は、上記施設関連情報に基づいて、重畳情報を生成する。重畳情報は、画像情報である。生成部14は、重畳情報を出力制御部15に供給する。
 出力制御部15は、出力制御手段とも呼ばれる。出力制御部15は、ユーザの視野を示す視野領域に重畳情報が重なるように、ユーザ端末に対して重畳情報を表示させる。
 図2は、実施形態1にかかる情報処理方法の流れを示すフローチャートである。まず、情報処理装置10の画像取得部12は、ユーザ端末で撮影された、ユーザの視野の撮影画像を取得する(S10)。次に、特定部13は、撮影画像から施設外設置物を検出する(S11)。次に、特定部13は、検出した施設外設置物に基づいて、対象施設を特定する(S12)。次に、生成部14は、特定した対象施設に関連する施設関連情報を取得し、施設関連情報に基づいて重畳情報を生成する(S13)。次に、出力制御部15は、ユーザの視野領域に重畳情報が重なるように、ユーザ端末に重畳情報を表示させる(S14)。
 このように実施形態1によれば、情報処理装置10は、撮影画像に含まれる施設外設置物から対象施設を特定し、対象施設に関連する情報をユーザ端末に出力させる。これにより、情報処理装置10は、ユーザが対象施設を利用する前に、ユーザに対して対象施設の関連情報を容易に提供できる。したがってユーザにとっては、対象施設を利用するかしないかを容易に判断できる。例えば観光地において、ユーザがユーザ端末越しにお土産屋の入り口・看板を覗くだけで、ユーザ端末に、各店舗がおすすめする、ピックアップされたお土産の情報が、店舗等に重ねてポップアップ表示されることができる。したがって、ユーザは、各店舗に入店しなくても各店舗のお土産を比較することができる。これは、お土産を購入する時間がないときや、店舗が混雑している際に有用である。一方で、施設側にとっては、ユーザの施設への関心を高め、施設の利用を効果的に促すことができる。
 <実施形態2>
 次に、本開示の実施形態2について説明する。
 図3は、実施形態2にかかる情報処理システム1000の全体構成を示すブロック図である。情報処理システム1000は、観光地や街中を歩くユーザに、施設外から、施設に関する情報を提供するコンピュータシステムである。情報処理システム1000は、情報処理装置(以下、サーバと呼ぶ)100と、ユーザUが使用するユーザ端末(群)とを備える。ユーザ端末(群)は、第1ユーザ端末200と、第2ユーザ端末300とを含む。サーバ100及び第2ユーザ端末300は、ネットワークNを介して互いに接続されている。ここで、ネットワークNは、有線又は無線の通信回線である。
 第1ユーザ端末200は、ユーザUの身体に装着されたウェアラブル端末である。例えば、第1ユーザ端末200は、ユーザUの頭部に装着されたウェアラブル端末である。一例として、第1ユーザ端末200は、ユーザUの視野を示す視野領域に画像情報(重畳情報)を表示させることが可能なAR(Augmented Reality)グラス又はMR(Mixed Reality)グラスといった眼鏡型端末である。第1ユーザ端末200は、第2ユーザ端末300に有線又は無線で接続されている。例えば第1ユーザ端末200は、Bluetooth(登録商標)等の近距離無線通信によって、第2ユーザ端末300に接続されている。第1ユーザ端末200は、ユーザUの視野を撮影し、撮影画像を、第2ユーザ端末300を介してサーバ100に送信する。また第1ユーザ端末200は、第2ユーザ端末300を介してサーバ100から受信した重畳情報を、ユーザUの視野領域に重ねて表示する。
 第2ユーザ端末300は、ユーザUが使用する、スマートフォン、タブレット端末又はパーソナルコンピュータ(PC)等の情報端末である。第2ユーザ端末300は、第1ユーザ端末200とサーバ100との間の情報の送受信を中継する。また、第2ユーザ端末300は、予めユーザUの個人情報をサーバ100のユーザデータベース(DB)(不図示)に登録させる。
 サーバ100は、第2ユーザ端末300から個人情報を受信し、個人情報に基づいてユーザ登録を行う。また、サーバ100は、第2ユーザ端末300を介して第1ユーザ端末200から、ユーザUの視野を示す撮影画像を受信する。そして、サーバ100は、撮影画像から、ユーザUの視野内に含まれる対象施設を特定し、対象施設の関連情報に基づいて重畳情報を生成する。尚、重畳情報の生成には、個人情報が用いられてもよい。そして、サーバ100は、重畳情報を、第2ユーザ端末300を介して第1ユーザ端末200に送信する。
 ここで、第1ユーザ端末200について詳細に説明する。図4は、実施形態2にかかる第1ユーザ端末200の構成を示すブロック図である。第1ユーザ端末200は、カメラ210と、記憶部220と、通信部230と、表示部240と、入力部250と、制御部260とを備える。
 カメラ210は、制御部260の制御に応じて撮影を行う撮影装置である。カメラ210は、その視野が、ユーザUの視野に対応するように、第1ユーザ端末200に設けられている。例えば、カメラ210は、ユーザUが第1ユーザ端末200を装着した場合に、その光軸方向がユーザUの視線方向と対応するように設けられている。記憶部220は、第1ユーザ端末200の各機能を実現するためのプログラムが格納される記憶装置である。通信部230は、第2ユーザ端末300との通信のための通信インタフェースである。表示部240は、表示装置である。第1ユーザ端末200がARグラスやMRグラスの場合は、表示部240はレンズ上に配設される。入力部250は、入力を受け付ける入力装置である。尚、本実施形態2において、入力部250は必須ではない。制御部260は、第1ユーザ端末200が有するハードウェアの制御を行う。
 制御部260は、カメラ210を制御し、ユーザUが視認できる風景(視野)を撮影する。そして、制御部260は、通信部230を介して、撮影画像を第2ユーザ端末300に送信する。また制御部260は、第2ユーザ端末300から受信した重畳情報を、表示部240に表示する。尚、第1ユーザ端末200がARグラスの場合、ユーザUの視野領域は、視野を撮影した撮影画像に相当する。この場合、制御部260は、撮影画像に重畳情報を重畳させた画像を、表示部240に表示する。一方、第1ユーザ端末200がMRグラスの場合、ユーザUの視野領域は、レンズを介してユーザUが視認できる実空間の領域である。この場合、制御部260は、上述の実空間に重畳情報が重なるように、重畳情報をレンズ上の表示部240に表示する。
 次に、第2ユーザ端末300について詳細を説明する。図5は、実施形態2にかかる第2ユーザ端末300の構成を示すブロック図である。第2ユーザ端末300は、カメラ310と、記憶部320と、通信部330と、表示部340と、入力部350と、制御部360とを備える。
 カメラ310は、制御部360の制御に応じて撮影を行う撮影装置である。尚、本実施形態2において、カメラ310は必須ではない。記憶部320は、第2ユーザ端末300の各機能を実現するためのプログラムが格納される記憶装置である。通信部330は、第1ユーザ端末200との通信のための通信インタフェースと、ネットワークNとの通信インタフェースとを含む。表示部340は、表示装置である。入力部350は、入力を受け付ける入力装置である。表示部340及び入力部350は、タッチパネルのように、一体的に構成されていてもよい。制御部360は、第2ユーザ端末300が有するハードウェアの制御を行う。
 制御部360は、ユーザ登録時に、ユーザUから入力部350を介して受け付けた個人情報を、通信部330を介してサーバ100に送信する。また制御部360は、通信部330を介して、第1ユーザ端末200から撮影画像を受信し、撮影画像をユーザIDとともにサーバ100に送信する。また制御部360は、通信部330を介して、サーバ100から受信した重畳情報を、第1ユーザ端末200に送信する。
 次に、サーバ100について詳細を説明する。図6は、実施形態2にかかるサーバ100の構成を示すブロック図である。サーバ100は、記憶部110、メモリ120、通信部130、及び制御部140を備える。
 記憶部110は、ハードディスク、フラッシュメモリ等の記憶装置である。記憶部110は、プログラム111と、ユーザDB112と、施設DB113とを記憶する。プログラム111は、本実施形態2にかかる情報処理方法の処理が実装されたコンピュータプログラムである。
 ユーザDB112は、ユーザUに関連する基本情報を記憶するデータベースである。具体的には、ユーザDB112は、ユーザID1121と、個人情報1122とを対応付けた情報を記憶する。ここで、ユーザID1121は、ユーザUを識別する情報である。
 個人情報1122は、ユーザUの属性情報、位置情報、行動状態情報、行動履歴、購入履歴及びスケジュール情報のうち少なくとも1つを含む。一例として本図では、個人情報1122は、ユーザUの属性情報、位置情報、及び行動状態情報を含んでいる。属性情報は、年齢、居住地、性別、家族構成、連絡先、クレジットカード番号、アレルギー情報、宗教情報、志向属性、及び嗜好性情報(趣味嗜好)のうち少なくとも1つを含んでよい。位置情報は、ユーザUが使用する第1ユーザ端末200又は第2ユーザ端末300の位置情報である。行動状態情報は、ユーザUの現在の行動状態を示す情報である。行動状態は、一例として、移動中、観光中、又は食事中等であってよい。
 施設DB113は、施設に関連する各種情報を記憶するデータベースである。具体的には、施設DB113は、施設ID1131と、施設特徴情報1132と、施設関連情報1133とを備える。
 施設ID1131は、施設を識別する情報である。
 施設特徴情報1132は、予め定められた種類の施設外設置物の特徴量に関する情報である。特徴量は、その施設外設置物を示す画像から抽出される。
 施設関連情報1133は、その施設の基本情報を含む、施設に関連する情報である。基本情報は、施設の営業時間若しくは位置情報、施設のウェブサイトのURL(Uniform Resource Locator)、施設が扱う商品若しくはサービスの情報、又は当該商品若しくはサービスを購入可能なEC(Electronic Commerce)サイトのURL等であってよい。また施設関連情報1133は、基本情報に加えて又は代えて、その施設や施設が扱う商品若しくはサービスの、広告、リコメンド情報、割引情報、在庫情報、又は取り置き可否を示す情報を含んでよい。
 メモリ120は、RAM(Random Access Memory)等の揮発性記憶装置であり、制御部140の動作時に一時的に情報を保持するための記憶領域である。通信部130は、ネットワークNとの通信インタフェースである。
 制御部140は、サーバ100の各構成を制御するプロセッサつまり制御装置である。制御部140は、記憶部110からプログラム111をメモリ120へ読み込ませ、プログラム111を実行する。これにより、制御部140は、個人情報取得部141、画像取得部142、特定部143、生成部144及び出力制御部145の機能を実現する。
 個人情報取得部141は、個人情報取得手段とも呼ばれる。個人情報取得部141は、第2ユーザ端末300からユーザ登録要求を受信し、ユーザ登録を行う。このとき個人情報取得部141は、第2ユーザ端末300からユーザUの個人情報を取得する。また、個人情報取得部141は、ユーザ登録時に関わらず、所定のタイミングで、ユーザIDとともに、ユーザUの個人情報を取得してよい。
 以下では、個人情報の取得方法の例を挙げる。例えば、個人情報取得部141は、ユーザが入力した属性情報を第2ユーザ端末300から取得する。また個人情報取得部141は、所定のタイミングで、第2ユーザ端末300の位置情報を第2ユーザ端末300から取得する。尚、個人情報取得部141は、第2ユーザ端末300の位置情報に基づいて行動状態情報を生成してよい。あるいは、個人情報取得部141は、第2ユーザ端末300からユーザUのスケジュール情報を取得し、スケジュール情報に基づいて行動状態情報を生成してもよい。尚、個人情報取得部141は、ユーザUのスケジュール情報を、スケジュールを管理するスケジュール管理アプリケーションから取得してよい。
 個人情報1122に行動履歴が含まれる場合は、個人情報取得部141は、第2ユーザ端末300の位置履歴又は上述したスケジュール情報に基づいて、行動履歴を生成してよい。あるいは、個人情報取得部141は、ユーザ購入履歴から、行動履歴を生成してもよい。尚、個人情報取得部141は、購入履歴を管理するアプリケーションから、ユーザUの購入履歴を取得してよい。
 個人情報取得部141は、第2ユーザ端末300から取得した個人情報、及び第2ユーザ端末300から取得した情報に基づいて生成することにより得られた個人情報を、ユーザ登録に伴い発行されたユーザIDに対応付けてユーザDB112に登録する。
 画像取得部142は、上述した画像取得部12の一例である。画像取得部142は、第2ユーザ端末300から、第1ユーザ端末200を介して、撮影画像を受信し、取得する。
 特定部143は、上述した特定部13の一例である。特定部143は、撮影画像から予め定められた種類の施設外設置物を検出する。一例として、看板が所定の施設外設置物である場合、特定部143は、撮影画像から矩形領域を検出し、矩形領域から文字領域又は図形領域を検出してよい。また一例として、ロゴマークのパネルが所定の施設外設置物である場合、特定部143は、撮影画像から図形領域を検出してよい。また一例として、建物の入口外観が所定の施設外設置物である場合、特定部143は、建物の外観領域やドアの周辺領域を検出してよい。
 次に、特定部143は、撮影画像から検出した画像領域を切り出し、切り出し画像に含まれる特徴量を抽出する。次に、特定部143は、切り出し画像から抽出された特徴量と、施設DB113に含まれる施設特徴情報1132とを照合し、切り出し画像から抽出された特徴量との類似度が所定閾値以上の施設特徴情報1132があるか否かを判定する。特定部143は、類似度が所定閾値以上の施設特徴情報1132がある場合、その施設特徴情報1132に対応する施設ID1131を、対象施設のIDとして特定する。
 生成部144は、上述した生成部14の一例である。
 生成部144は、施設DB113において、特定した施設ID1131に対応付けられる施設関連情報1133を取得する。そして生成部144は、取得した施設関連情報1133に基づいて、重畳情報を生成する。例えば、生成部144は、取得した施設関連情報1133を、そのまま重畳情報として特定(生成)してよい。また、生成部144は、施設関連情報1133に対象施設のウェブサイトのURL又はECサイトのURLが含まれる場合は、当該URLにアクセスし、ウェブサイト又はECサイトから商品又はサービスの情報を取得してよい。そして生成部144は、取得した商品又はサービスの情報を施設関連情報1133として追加し、これらの施設関連情報1133を重畳情報に含ませてよい。この場合は、サーバ100は、施設DB113に、全施設に関連する全ての情報を記憶していなくてもよいため、記憶容量を節約できる。またサーバ100は、特定した対象施設に関して最新の情報を、ユーザUに提供できる。
 ここで、生成部144は、取得した施設関連情報1133が複数ある場合、ユーザUの個人情報に基づいて各施設関連情報1133の優先度を設定し、各施設関連情報1133の優先度に基づいて重畳情報を生成してよい。尚、上記施設関連情報1133には、ウェブサイト又はECサイトから取得した情報を含んでよい。優先度は、重畳情報の基礎となる施設関連情報1133を所定量に限定するため、あるいは重畳情報内の各施設関連情報1133の表示順位又は表示態様を変えるために用いられる。
 取得した施設関連情報1133が複数ある場合とは、(1)特定した施設ID1131が複数ある場合(すなわち、撮影画像から対象施設が複数特定された場合)、(2)特定した1の施設ID1131に対応付けられる施設関連情報1133(すなわち、対象施設に関連する施設関連情報1133)が複数ある場合、又は両方に該当する場合が挙げられる。
 (1)の場合、まず生成部144は、特定した各施設ID1131に対応付けられる施設関連情報1133と、ユーザUの個人情報とに基づいて、特定した各施設ID1131の優先度を設定する。そして、生成部144は、各施設ID1131の優先度に基づいて、施設ID1131に対応付けられた施設関連情報1133の優先度を設定する。
 (2)の場合、生成部144は、ユーザUの個人情報に基づいて、1の施設ID1131に対応付けられた施設関連情報1133の各々について優先度を設定する。
 尚、(1)及び(2)に該当する場合は、まず生成部144は、特定した各施設ID1131に対応付けられる施設関連情報1133と、ユーザUの個人情報とに基づいて、特定した各施設ID1131の優先度を設定してよい。そして生成部144は、各施設ID1131について、その施設ID1131の優先度と、ユーザUの個人情報とに基づいて、その施設ID1131に対応付けられた各施設関連情報1133の優先度を設定してよい。あるいは、生成部144は、各施設ID1131に対応付けられた全施設関連情報1133の優先度を、その施設ID1131の優先度と一致するように設定してもよい。
 (1)及び(2)の場合、例えば、以下の(a)~(c)のような施設関連情報1133の優先度の設定ルールが挙げられる。
 (a)生成部144は、第2ユーザ端末300の位置情報を用いて、ユーザUの位置と施設ID1131の施設の位置との距離に基づいて、施設ID1131及び施設ID1131に対応付けられた施設関連情報1133の優先度を設定してよい。例えば生成部144は、両者の距離が小さいほど、優先度が高くなるように設定してよい。また例えば生成部144は、両者の距離が閾値未満である場合に、優先度が所定量高くなるように設定してよい。
 (b)生成部144は、各施設関連情報1133と、ユーザUの年齢又は性別等の属性情報との関連度を算出し、関連度が高いほど、施設ID1131及び施設ID1131に対応付けられた施設関連情報1133の優先度を高く設定してよい。一例として生成部144は、若年層であるユーザUに対しては、若者向けの商品又はサービスを扱う施設の施設ID1131や、若者向けの商品又はサービスに関する施設ID1131の優先度を、他の年齢層のものよりも所定量高く設定する。また生成部144は、女性のユーザUに対しては、女性向けの商品又はサービスを扱う施設の施設ID1131や、女性向けの商品又はサービスに関する施設関連情報1133の優先度を、男性向けのものよりも所定量高く設定する。
 (c)生成部144は、ユーザUの趣味嗜好との関連度が高い商品又はサービスを扱う施設の施設ID1131や、当該商品又はサービスに関する施設関連情報1133ほど、優先度を高く設定してよい。ここで、生成部144は、ユーザUの購入履歴や行動履歴からユーザUの趣味嗜好を解析してよい。例えば、生成部144は、ユーザUが頻繁に購入する商品をユーザUが気に入っている商品であると推定し、頻繁に購入する商品に類似品に関する施設関連情報1133(広告やECサイトの情報)の優先度を所定量加算する。このとき生成部144は、類似品が複数ある場合、優先度の加算量を、その商品の価格に基づいて設定してよい。例えば、類似品の価格が高いほど、優先度の加算量が大きくなってよい。また例えば、生成部144は、ユーザUが頻繁に旅行に行く場合、旅行との関連度が高い商品又はサービスを扱う施設の施設関連情報1133の優先度を所定量加算する。
 (d)生成部144は、各施設関連情報1133と、ユーザUの現在の行動状態との関連度を算出し、関連度が高いほど、施設ID1131及び施設ID1131に対応付けられた施設関連情報1133の優先度を高く設定してよい。例えば、生成部144は、ユーザUが「観光中」である場合、観光客を対象とした施設の施設ID1131及び施設ID1131に対応付けられた施設関連情報1133の優先度を所定量高く設定してよい。
 そして生成部144は、優先度に基づいて施設関連情報1133を選択してよい。例えば、生成部144は、優先度が所定閾値以上である施設関連情報1133を選択してよい。また例えば、生成部144は、優先度が上位所定個の施設関連情報1133を選択してよい。そして生成部144は、選択した施設関連情報1133を、重畳情報として特定(生成)してよい。
 またこれに代えて、生成部144は、複数の施設関連情報1133の各々を個別の重畳情報として特定(生成)し、優先度に基づいて重畳情報間の表示順位又は表示態様を決定してもよい。表示順位又は表示態様は、重畳情報が第1ユーザ端末200に表示される場合の、各施設関連情報1133に対応する重畳情報間の表示順位又はその重畳情報の表示態様である。例えば優先度が高い施設関連情報1133に対応する重畳情報については、表示順位を高くしたり、強調表示したりしてよい。
 このように、サーバ100は、ユーザUの個人情報に応じてパーソナライズされた重畳情報を、ユーザUに提供する。これにより、ユーザUにとっては、施設を利用する前に施設を利用するかしないかの判断をさらに容易にできる。したがって、ユーザUの満足度を高めることができる。例えばユーザUがショッピングモール等で洋服の買い物をする際、第1ユーザ端末200越しに各店舗の入り口・看板を覗くだけで、第1ユーザ端末200上に、パーソナライズされた情報が店舗等に重ねてポップアップ表示される。一例として、ユーザUの趣味に合った洋服を販売する店舗に、おすすめの洋服が重ねてポップアップ表示される。これにより、ユーザUは、各店舗に入店しなくても各店舗の洋服を比較することができる。これは、洋服を購入する時間がないときや、店舗が混雑している際に有用である。一方、施設側にとっては、ユーザUに対して、施設の利用をより効果的に促すことが可能となる。
 出力制御部145は、上述した出力制御部15の一例である。出力制御部145は、第2ユーザ端末300を介して第1ユーザ端末200に重畳情報を送信することで、第1ユーザ端末200の表示部240に重畳情報を表示させる。このとき、出力制御部145は、ユーザUの視野領域における、検出した施設外設置物に重畳情報が重なる又は施設外設置物の近傍に位置するように、重畳情報の表示位置を指定する情報を、第2ユーザ端末300を介して第1ユーザ端末200に送信してよい。
 尚、出力制御部145は、第2ユーザ端末300に対して、個人情報の入力手段を出力させる機能を有してよい。
 図7は、実施形態2にかかるユーザ登録処理の流れを示すシーケンス図である。まず第2ユーザ端末300は、サーバ100に対してユーザ登録要求を送信する(S100)。サーバ100の出力制御部145は、個人情報の入力領域(入力画面とも呼ばれる)を、第2ユーザ端末300に対して送信し、第2ユーザ端末300に表示させる(S101)。尚、サーバ100の出力制御部145は、これに代えて個人情報の音声入力手段を、第2ユーザ端末300に対して出力させてもよい。ここで、ユーザUは、第2ユーザ端末300の入力部350を用いて、個人情報の入力操作を行う(S102)。入力操作を受け付けた第2ユーザ端末300は、入力された個人情報を、サーバ100に送信する(S103)。これにより、サーバ100の個人情報取得部141は、入力領域に入力された個人情報を第2ユーザ端末300から受信する。個人情報を受信したサーバ100の個人情報取得部141は、ユーザIDを発行し、ユーザIDと、個人情報とを対応付けて、ユーザDB112に登録する(S104)。そしてサーバ100の個人情報取得部141は、ユーザIDを、第2ユーザ端末300に通知する(S105)。
 図8は、実施形態2にかかる第2ユーザ端末300に表示される個人情報の入力画面の一例を示す図である。第2ユーザ端末300の表示部340には、ユーザ登録に必要な個人情報の入力領域が表示される。例えば、表示部340には、属性情報、第2ユーザ端末300の位置情報の使用を許可するか否か、行動履歴の使用を許可するか否か、及び購入履歴の使用を許可するか否かを入力する領域が表示されている。本図では、属性情報の入力領域として、年齢、性別、居住地、家族構成、アレルギー、宗教及び趣味嗜好の入力領域が示されている。
 図9は、実施形態2にかかる出力処理の流れを示すシーケンス図である。まず第1ユーザ端末200は、ユーザUの視野を撮影し(S111)、撮影画像を第2ユーザ端末300に送信する(S112)。次に第2ユーザ端末300は、撮影画像を、ユーザIDとともに、ネットワークNを介してサーバ100に送信する(S113)。これにより、サーバ100の画像取得部142は、撮影画像及びユーザIDを取得する。
 次にサーバ100の特定部143は、撮影画像から、施設外設置物を検出する(S114)。そして特定部143は、施設外設置物の特徴量を抽出し、抽出した特徴量に基づいて、施設DB113を用いて対象施設の施設IDを特定する(S115)。次に、生成部144は、施設DB113から、特定した施設IDに対応付けられた施設関連情報1133を取得する(S116)。また生成部144は、ユーザDB112から、ユーザIDに対応付けられた個人情報を取得する(S117)。次に、生成部144は、個人情報に基づいて施設関連情報1133の優先度を設定し(S118)、優先度に基づいて重畳情報を生成する(S119)。そして出力制御部145は、重畳情報を、ネットワークNを介して第2ユーザ端末300に送信する(S120)。重畳情報を受信した第2ユーザ端末300は、重畳情報を第1ユーザ端末200に送信し(S121)、表示部240に表示させる(S122)。
 尚、S113において、第2ユーザ端末300は、ユーザIDを含ませて、撮影画像をサーバ100に送信した。ここで、第2ユーザ端末300は、ユーザIDに代えて、ユーザUの生体情報を含ませて、撮影画像をサーバ100に送信してもよい。生体情報は、顔情報(顔画像若しくは顔特徴量)、指紋情報、又は虹彩情報(虹彩画像若しくは虹彩特徴量)であってよい。第2ユーザ端末300は、第1ユーザ端末200の内側カメラが撮影した画像から、又は第2ユーザ端末300に設けられた生体情報読取部(不図示)から、生体情報を取得してよい。この場合、サーバ100は、ユーザID、と生体情報若しくは生体情報から抽出された特徴量と、を対応付ける生体情報データベース(不図示)、及び生体情報に基づいて生体認証を実行する生体認証部(不図示)をさらに備えてよい。そしてサーバ100は、第2ユーザ端末300から取得した生体情報に基づいて、生体認証を実行し、ユーザIDを特定してよい。
 図10は、実施形態2にかかるユーザUの視野の撮影画像Vを示す図である。撮影画像Vには、施設外設置物である看板を示す画像領域T1,T2,T3,T4,T5が含まれている。特定部143は、画像領域T1,T2,T3,T4,T5から、それぞれ「A店」、「B店」、「C店」、「D店」、「E店」を特定する。そして生成部144は、特定した施設に対応する施設関連情報の優先度を設定する。ここで、生成部144は、施設関連情報の優先度を、「A店」、「B店」、「C店」、「D店」、「E店」の順で設定したとする。そして例えば、生成部144は、優先度が上位3個以内の「A店」、「B店」、「C店」の施設関連情報を、重畳情報として生成する。このように生成部144は、第1ユーザ端末200に表示させる重畳情報の基礎となる施設関連情報を、優先度が上位所定個であるものに限定する。これにより、第1ユーザ端末200上で、ユーザUの趣味嗜好や行動履歴といった個人情報に応じて選択された施設に関連する詳細な情報が効果的に表示できる。特に表示する情報をパーソナライズしない場合は、画面が複雑(ビジー)になったり、画面がユーザUに関連しない情報で占有されてしまうが、本実施形態2によれば、そのような事態を回避できる。
 図11は、実施形態2にかかる第1ユーザ端末200に表示される重畳情報の一例を示す図である。本図に示す斜線部分は、第1ユーザ端末200の表示部240に表示される重畳情報を示している。重畳情報は、「A店」、「B店」及び「C店」の各々に対応する施設関連情報を示す重畳画像400-1,400-2,400-3を含む。尚、生成部144は、最も優先度が高い「A店」に対応する施設関連情報が強調表示されるように、重畳画像400-1の表示態様を決定してよい。一例として、強調表示は、その情報の重畳画像を大きく表示すること、その情報の重畳画像を点滅させること、その情報の重畳画像の色を変えること、又は重畳画像中のテキストのフォントを変えることであってよい。
 ここで、本図に示す斜線部分以外の領域は、ユーザUの視野領域である。各重畳画像400-1,400-2,400-3は、歩行の安全性を確保するために、ユーザUの視界の邪魔にならないスペース(空きスペースと呼ぶことがある)に表示されてよい。具体的には、各重畳画像400-1,400-2,400-3の表示位置は、人物が存在する領域及び所定の物体が存在する領域(又はいずれか一方)を回避するように定められてよい。所定の物体とは、例えば、建物、柱、又は看板の文字部分であってよい。つまり出力制御部145は、視野領域のうち、人物が存在する領域、ユーザUの進行方向(ユーザUが歩いている方向)の領域及び所定の物体が存在する領域、又は少なくともいずれか1つに重ならないように、第1ユーザ端末200の表示部240に重畳画像400-1,400-2,400-3を表示させる。ここでユーザUが徒歩等で進行方向に移動している場合、サーバ100は、移動している方向に応じて空きスペースの位置を変化させてよい。これにより、重畳画像が表示される場所を、ユーザUの移動に応じて変えることができる。尚、サーバ100は、空きスペースを、人物が存在する領域又はユーザUの進行方向の領域を回避するように設定し、所定の物体が存在する領域(壁、建物又は柱等)については重畳画像を表示可能な領域として設定してもよい。また、サーバ100は、撮影画像の画素値に基づいて平坦なスペースを特定し、当該スペースを空きスペースとしてもよい。
 また、これに加えて、重畳画像400-1,400-2,400-3の表示位置は、ユーザUの位置情報や視線方向によって決定されてもよい。また、重畳画像400-1,400-2,400-3は、それぞれが対応する施設の施設外設置物との対応関係が明確に把握できるように、対応する施設外設置物の近傍に、又は対応する施設外設置物を指し示すように、表示されてよい。
 尚、表示部240に表示される重畳情報には、上述した重畳画像に加えて、重畳画像410-1,410-2が含まれていてもよい。重畳画像410-1,410-2は、広告情報を示してよい。広告情報は、対象施設と関連があってもよいし、関連がなくてもよい。例えば生成部144は、予め定められた広告情報を、重畳画像410-1,410-2として特定してよい。また例えば、生成部144は、ユーザUの個人情報に基づいて広告対象を選択し、選択された広告対象に基づいて重畳画像410-1,410-2を生成してよい。例えば、ユーザUが子どもを連れていた場合、生成部144は、子どもの教育に関する施設の広告を広告対象として、重畳画像を生成してよい。広告情報を示す重畳画像410-1,410-2についても、空きスペースに表示されてよい。つまり出力制御部145は、人物が存在する領域及び所定の物体が存在する領域(又はいずれか)、並びに重畳画像400-1,400-2,400-3に重ならないように、第1ユーザ端末200の表示部240に重畳画像410-1,410-2を表示させる。これにより歩行の安全性を確保しつつ、空きスペースを有効活用できる。
 このように実施形態2によれば、サーバ100は、撮影画像に含まれる施設外設置物から対象施設を特定し、対象施設に関連する情報を、第2ユーザ端末300を介して第1ユーザ端末200に出力させる。これにより、サーバ100は、ユーザが実際に対象施設に入場又は対象施設が扱う商品やサービスを購入する前に、ユーザに対して対象施設の関連情報を容易に提供できる。したがってユーザにとっては、対象施設を利用するかしないかを容易に判断できる。一方で、施設側にとっては、ユーザの関心を高め、施設の利用を効果的に促すことができる。
 サーバ100がユーザUに情報を提供する目的は、ユーザUに施設の利用を促すことであってよいが、単にユーザUに対して、将来的に施設を利用したいという意欲を喚起させることであってもよい。
 図12は、実施形態2にかかる第1ユーザ端末200に表示される重畳情報の他の例を示す図である。特定部143は、施設から離れた場所に設置されるディスプレイに表示される広告を、施設外設置物の画像領域Tとして検出し、広告提供元の施設や広告に関連する施設を、対象施設として特定してよい。そして生成部144は、対象施設に関連する施設関連情報を示す重畳画像420を生成してよい。本図では、第1ユーザ端末200の表示部240には、空きスペースに重畳画像420が表示されている。一例として、ショッピングモールでハワイフェアが行われていた場合に、その会場に設置されるディスプレイにハワイ旅行の広告やハワイに関するその他の広告を表示させることで、ユーザUに対してハワイ旅行への意欲を喚起させることができる。
 <実施形態3>
 次に、本開示の実施形態3について説明する。実施形態3は、サーバが、ユーザからの操作を検出し、操作内容に応じた処理を実行することに特徴を有する。図13は、実施形態3にかかるサーバ100aの構成を示すブロック図である。サーバ100aは、記憶部110及び制御部140に代えて、記憶部110a及び制御部140aを備える。記憶部110aは、プログラム111に代えてプログラム111aを記憶する。プログラム111aは、実施形態3にかかる情報処理方法の処理が実装されたコンピュータプログラムである。
 制御部140aは、制御部140の構成要素に加えて、操作検出部146を有する。操作検出部146は、操作検出手段とも呼ばれる。操作検出部146は、ユーザUによる選択操作を検出する。ここで、第1ユーザ端末200の表示部240には、第1の重畳情報が表示されており、サーバ100aの画像取得部142は、第1の重畳情報を表示中のユーザUの視野を示す撮影画像を取得したとする。この場合、操作検出部146は、撮影画像中のユーザUの手の位置と、視野領域における第1の重畳情報の重畳位置(つまり、表示部240における表示位置)とに基づいて、ユーザUによる第1の重畳情報の選択操作を検出する。第1の重畳情報とは、上述した重畳情報の一態様である。例えば、第1の重畳情報は、対象施設の基本情報であってもよいし、対象施設が扱う商品若しくはサービスのリコメンド情報であってもよいし、対象施設のウェブサイト又はECサイトの、アイコン又はURLであってもよい。
 そして、生成部144は、選択操作が検出されたことに応じて、選択された第1の重畳情報に関連する対象施設の施設関連情報に基づいて、第2の重畳情報を生成する。第2の重畳情報は、第1の重畳情報とは異なる情報であり、第1の重畳情報の詳細情報であってよい。例えば、第1の重畳情報が、対象施設が扱う商品のリコメンド情報である場合、第2の重畳情報は、その商品を扱うECサイトから取得される商品の詳細情報、その商品の在庫情報、又はその商品の取り置き可否情報であってよい。また例えば、第1の重畳情報が、対象施設の店名である場合、第2の重畳情報は、対象施設の営業時間を示す情報、又は対象施設が扱う商品のリコメンド情報であってよい。
 そして出力制御部145は、ユーザUの視野領域に第2の重畳情報が重なるように、第1ユーザ端末200に対して重畳情報を表示させる。
 図14は、実施形態3にかかる選択操作の検出処理を説明するための図である。本図には、重畳画像400-1~400-3が第1の重畳情報として表示されている場合の、ユーザUの視野の撮影画像Vを示している。ここで、撮影画像Vには、ユーザUの手を示す画像領域(手領域500)が含まれている。尚、本図では便宜上、重畳画像400-1~400-3を示したが、撮影画像Vにこれらの重畳画像400は含まれていなくてよい。
 操作検出部146は、まず撮影画像Vから手領域500を検出し、手領域500から指先を検出する。そして操作検出部146は、指先の位置が、いずれかの重畳画像400の表示位置に対応するか否かを判定する。本図の場合、操作検出部146は、指先の位置が、重畳画像400-1の表示位置に対応すると判定する。これにより、操作検出部146は、ユーザUによって重畳画像400-1が押下(選択)されたと判定する。尚、操作検出部146は、誤操作回避のために、指先の位置が重畳画像400-1の表示位置に対応することに加えて、その前後で所定の動作が行われたと判定した場合に、ユーザUによる選択操作を検出してもよい。所定の動作は、例えば、指先が重畳画像400-1の表示位置に対応する位置に所定の時間置いていることであってもよいし、指でクリック動作が行われたことであってもよい。
 そして選択操作を検出したことに応じて、生成部144は、選択された重畳画像400-1に対応する対象施設(店A)のECサイトにアクセスし、重畳画像400-1に対応する商品の詳細情報を取得してよい。そして生成部144は、取得した詳細情報に基づいて、第2の重畳情報を生成する。
 図15は、実施形態3にかかる第1ユーザ端末200に表示される第2の重畳情報の一例を示す図である。表示部240には、第2の重畳情報として重畳画像430が表示されている。一例として、重畳画像430には、商品の画像、商品名、価格、及びその商品の購入ボタンが含まれる。尚、ユーザUは、購入ボタンの表示位置に合わせて、指先を持っていくことで、購入ボタンの選択操作を行ってよい。購入ボタンの選択操作を検出した操作検出部146は、その後、ユーザUのためにECサイトでの購入処理を進めてよい。
 このように実施形態3によれば、サーバ100aは、撮影画像中のユーザUの手の位置と、重畳情報の重畳位置とに基づいて、ユーザUによる選択操作を検出し、選択操作に応じた処理を実行する。これにより、ユーザUはタッチレスで容易に、重畳情報のさらに詳細な情報を取得することができる。
 <実施形態4>
 次に、本開示の実施形態4について説明する。実施形態4は、サーバがユーザUの空き時間を検出し、空き時間に情報を提供することに特徴を有する。
 図16は、実施形態4にかかるサーバ100bの構成を示すブロック図である。サーバ100bは、記憶部110及び制御部140に代えて、記憶部110b及び制御部140bを備える。記憶部110bは、プログラム111に代えてプログラム111bを記憶する。プログラム111bは、実施形態4にかかる情報処理方法の処理が実装されたコンピュータプログラムである。
 制御部140bは、制御部140の構成要素に加えて、時間検出部147を有する。時間検出部147は、時間検出手段とも呼ばれる。時間検出部147は、画像取得部142が取得した撮影画像、ユーザUの位置情報、行動状態情報、及びスケジュール情報の少なくとも一方に基づいて、ユーザUの空き時間を検出する。空き時間とは、ユーザUが単に移動している状態であるときや静止している状態であるときを指してもよいし、ユーザUが特定の状態(例えば、「観光中」や「食事中」)以外の状態であるときを指してもよい。例えば時間検出部147は、画像取得部142が取得した撮影画像、又はユーザUの位置情報から、ユーザUが電車の中やエレベータの中にいると判定された場合、ユーザUの空き時間が検出されたと判定する。
 そしてユーザUの空き時間が検出されたことに応じて、生成部144は、広告情報を生成する。広告情報は、上述した広告情報と同様であってよい。つまり広告情報は、予め定められていてもよいし、生成部144によりユーザUの個人情報が用いて生成されてもよい。そして出力制御部145は、視野領域に生成した情報が重なるように、第1ユーザ端末200に対して表示させる。
 図17は、実施形態4にかかる第1ユーザ端末200に表示される重畳情報の一例を示す図である。時間検出部147は、ユーザUがエレベータの中にいると判定し、ユーザUの空き時間を検出する。したがって、表示部240には、広告情報を示す重畳画像410-1,410-2が表示されている。
 尚、生成部144は、撮影画像にエレベータの操作パネルが写っている場合、操作パネルの各階の施設に対応する施設関連情報を示す重畳画像440-1~440-4を生成してよい。出力制御部145は、第1ユーザ端末200に対して、視野領域におけるエレベータの操作パネルの各階に対応する位置の近傍に、当該重畳画像440-1~440-4を表示させてよい。
 このように実施形態4によれば、サーバ100bは、ユーザUの空き時間を有効に活用し、ユーザ自身又は施設側にとって有益な情報を、ユーザUに提供することができる。
 <実施形態5>
 次に、本開示の実施形態5について説明する。実施形態5は、サーバが、ユーザUに提供した情報がユーザUの行動にどれくらい寄与したかを測定することに特徴を有する。
 図18は、実施形態5にかかるサーバ100cの構成を示すブロック図である。サーバ100cは、記憶部110及び制御部140に代えて、記憶部110c及び制御部140cを備える。記憶部110cは、プログラム111c、ユーザDB112c及び施設DB113cを記憶する。プログラム111cは、実施形態5にかかる情報処理方法の処理が実装されたコンピュータプログラムである。
 ユーザDB112cは、ユーザID1121に対応付ける情報として、個人情報1122に加えて、表示履歴1123を格納する。表示履歴1123は、ユーザID1121を有するユーザUの第1ユーザ端末200に表示した重畳情報の履歴である。
 施設DB113cは、施設ID1131に対応付ける情報として、施設特徴情報1132及び施設関連情報1133に加えて、寄与判定履歴1134を格納する。寄与判定履歴1134は、後述する寄与判定処理における寄与判定結果の履歴である。
 制御部140cは、制御部140の構成要素に加えて、行動情報取得部148、寄与判定部149及び記録部150を備える。
 行動情報取得部148は、ユーザUの行動情報を取得する。行動情報は、ユーザUが予め定められた行動をとったことを示す情報である。行動情報には、行動の種別と、行動の対象を示す情報とが少なくとも含まれる。
 例えば、行動の種別が、ユーザUが施設を利用(入場又は購入)したことである場合、行動情報は利用情報と呼ばれてよい。この場合、行動の対象を示す情報は、利用した施設IDであってよい。行動情報取得部148は、第2ユーザ端末300又は施設に設置された施設端末から、ユーザUの行動情報を取得してよい。
 施設端末から行動情報(利用情報)を取得する場合、施設端末は、ユーザUの顔認証を実行する顔認証端末であってよい。施設端末は、ユーザUが施設に入場した又は施設の商品やサービスを購入した場合、ユーザUの顔画像からユーザIDを特定し、行動情報とともにサーバ100cに送信してよい。また、顔認証はサーバ100c内で実行されてもよい。この場合、施設端末は、ユーザUが施設に入場した又は施設の商品やサービスを購入した場合、ユーザUの顔画像を撮影し、顔画像をサーバ100cに送信してよい。そしてサーバ100cは、施設端末から取得した顔画像に基づいて、ユーザIDを特定してよい。
 また第2ユーザ端末300から行動情報(利用情報)を取得する場合、第2ユーザ端末300は、GPS(Global Positioning System)等の位置情報やBluetoothビーコン情報を、サーバ100cに送信してよい。行動情報取得部148は、受信した情報に基づいて、利用情報を取得したか否かを判定してよい。
 また例えば、行動の種別が、ユーザUが重畳情報に注視したことである場合、行動情報は視線情報と呼ばれてよい。この場合、行動の対象を示す情報は、注視した重畳情報の基礎となる施設IDであってよい。また例えば、行動の種別が、ユーザUが選択操作を実行したことである場合、行動情報は選択操作情報と呼ばれてよい。この場合、行動の対象を示す情報は、選択した重畳情報の基礎となる施設IDであってよい。尚、行動情報が選択操作情報である場合は、サーバ100cは、操作検出部146を備えてよい。行動情報が視線情報又は選択操作情報である場合、行動情報取得部148は、第2ユーザ端末300から、ユーザUの行動情報とユーザIDとを取得してよい。
 行動情報取得部148は、取得したユーザUの行動情報とユーザIDとを、寄与判定部149に供給する。
 寄与判定部149は、行動情報取得部148が行動情報を取得した場合、ユーザDB112においてユーザIDに対応付けられた表示履歴1123を参照する。そして寄与判定部149は、行動情報に基づいて、第1ユーザ端末200が表示した重畳情報による行動への寄与度を算出する。そして寄与判定部149は、算出した寄与度が予め定められた閾値以上であるか否かを判定する。
 例えば寄与判定部149は、行動情報取得部148が行動情報として利用情報を取得した場合、ユーザUが利用した施設が、第1ユーザ端末200が表示した重畳情報に対応する施設であるか否かを判定する。また例えば、寄与判定部149は、行動情報としてユーザUの視線情報を取得した場合、ユーザUの視線方向に、第1ユーザ端末200が表示した重畳情報があるか否かを判定する。また例えば、寄与判定部149は、行動情報として選択操作情報を取得した場合、ユーザUが選択した対象が、第1ユーザ端末200が表示した重畳情報であるか否かを判定する。そして寄与判定部149は、判定結果が肯定的である場合、寄与度を所定閾値以上として算出してよい。
 尚、寄与判定部149は、ユーザUの利用態様に応じて、例えば入場したが商品を購入しなかったか、入場して商品を購入したかの別に応じて、あるいは購入金額に応じて、寄与度の大きさを異ならせてよい。また寄与判定部149は、ユーザUの注視時間に応じて、寄与度の大きさを異ならせてよい。
 寄与判定部149は、寄与度が所定閾値以上であるか否かを、寄与判定結果として、記録部150に供給する。
 記録部150は、出力制御部145が第1ユーザ端末200に表示させた表示履歴を、ユーザDB112に記録する。また記録部150は、表示履歴とともに、音声案内をした場合は音声データと、ユーザUの購入実績とをユーザDB112に記録してもよい。そして記録部150は、寄与判定部149から取得した寄与判定結果を、施設DB113に記録する。
 尚、ユーザUが後で情報を振り返ることができるように、サーバ100cは、ユーザDB112に格納される表示履歴、音声データ又は購入実績を、所定のタイミングで第2ユーザ端末300に送信してよい。第2ユーザ端末300は、受信した表示履歴、音声データ又は購入実績に基づいて、新たな情報を出力してよい。例えば、重畳情報の基礎となった施設のリストや施設外設置物の画像のリストを表示したり、購入実績に基づいて施設のリコメンド情報を表示してよい。
 図19は、実施形態5にかかる寄与判定処理の一例を示すフローチャートである。まず行動情報取得部148は、第2ユーザ端末300又は施設端末から、ユーザUの行動情報を取得したか否かを判定する(S200)。行動情報取得部148は、ユーザUの行動情報を取得した場合(S200でYes)、寄与判定部149に行動情報を供給し、処理をS201に進める。そして寄与判定部149は、行動情報に含まれる行動の対象となる施設が、ユーザIDに対応付けられた表示履歴に含まれる施設であるか否かを判定する(S201)。寄与判定部149は、行動の対象となる施設が、表示履歴に含まれる施設であると判定した場合(S201でYes)、当該施設に対して寄与度を算出する(S202)。そして寄与判定部149は、寄与度が所定閾値以上であるかを判定し(S203)、所定閾値以上であると判定すれば(S203でYes)、表示によりユーザUへの行動の変容をもたらしたとして「寄与有り」の判定をする(S204)。寄与判定部149は、寄与判定結果を、施設DB113の寄与判定履歴1134に記録する(S206)。一方で、寄与判定部149は、行動の対象となる施設が、表示履歴に含まれる施設であると判定しなかった場合(S201でNo)、あるいは、寄与度が所定閾値未満であると判定した場合(S203でNo)、「寄与無し」と判定する(S205)。そして寄与判定部149は、寄与判定結果を、施設DB113の寄与判定履歴1134に記録する(S206)。
 このように、実施形態5によれば、サーバ100cは、第1ユーザ端末200に表示した重畳情報によるユーザUの行動への寄与度を測定して、寄与があったか否かを記録する。これにより、ユーザUの関心を容易に測定したり、表示による効果(例えば表示による行動変容への影響)を容易に測定することができる。
 尚、サーバ100cは、寄与判定履歴に基づいて、対応付けられた施設IDの施設から手数料を徴収してよい。手数料は、寄与度に応じて定められてよい。 
 尚、サーバ100cは、重畳情報による寄与度に加えて又は代えて、上述した広告情報の寄与度も測定してよい。この場合、上述の実施形態5の説明の「重畳情報」は、「広告情報」と読み替えられてよい。
 <実施形態6>
 次に、本開示の実施形態6について説明する。実施形態6は、サーバがユーザUの同伴者の個人情報を、ユーザUへの情報提供に用いることに特徴を有する。実施形態6にかかる情報処理システム1000は、実施形態1にかかる情報処理システム1000と基本的に同様の構成及び機能を有する。ただし、実施形態6においては、ユーザUの第2ユーザ端末300は、ユーザUの個人情報に加えて又は代えて、ユーザUの同伴者の個人情報を、サーバ100に送信する。例えば、図8に示す個人情報の入力画面に、同伴者の個人情報を入力する領域が含まれていてよい。
 サーバ100の個人情報取得部141は、ユーザUの個人情報と、同伴者の個人情報とを、ユーザUの第2ユーザ端末300から取得する。そして生成部144は、ユーザUの個人情報と、同伴者の個人情報と、対象施設に関連する施設関連情報とに基づいて、重畳情報を生成する。これにより、サーバ100は、ユーザU本人だけではなく、同伴者の趣味嗜好等の個人情報を考慮した情報を提供できる。
 さらに、個人情報取得部141は、ユーザUの個人情報及び同伴者の個人情報に加えて、ユーザUの個人情報に対する同伴者の個人情報の重要度の情報を、第2ユーザ端末300から取得してよい。
 ここで、サーバ100の出力制御部145は、図7のステップS101において、第2ユーザ端末300に対して、重要度の入力画面を表示させる。図20は、実施形態6にかかる第2ユーザ端末300に表示される個人情報の重要度の入力画面の一例を示す図である。
 図20に示すように、表示部340には、ユーザUの個人情報の重要度の入力領域と、同伴者の個人情報の重要度の入力領域とが表示される。本入力画面では、ユーザUからの加算操作又は減算操作を受け付けて、各重要度の値が変更できるようになっている。尚、本入力画面では、ユーザUの個人情報の重要度と、同伴者の個人情報の重要度との割合(比率)が、合計で1になるように、調整されてよい。同伴者が複数いる場合は、ユーザUの個人情報の重要度と、全ての同伴者の個人情報の重要度との割合が合計で1になるように、調整されてよい。あるいはこれらの調整は、サーバ100の個人情報取得部141により行われてもよい。さらに表示部340には、「決定」の入力領域が表示される。ユーザUが当該入力領域を選択したことに応じて、第2ユーザ端末300は、入力されたユーザUの個人情報の重要度の情報及び同伴者の個人情報の重要度の情報を、ユーザIDとともにサーバ100に送信する。
 尚、重要度の入力画面は、第2ユーザ端末300の表示部340だけでなく、第1ユーザ端末200の表示部240に表示されてもよい。この場合、サーバ100は、操作検出部146を備えてよい。表示部240に重要度の入力画面が表示されたことに応じてユーザUが実空間上で所定の動作を実行すると、操作検出部146は、撮影画像から入力操作を検出し、入力操作に応じた処理を実行してよい。
 個人情報取得部141が同伴者の個人情報と重要度の情報とを取得した場合、生成部144は、ユーザUの個人情報と、同伴者の個人情報と、重要度とに基づいて、対象施設に関連する施設関連情報の各々の優先度を設定する。例えば、まず生成部144は、ユーザUの個人情報と、重要度で重み付けされた同伴者の個人情報とから、団体としての個人情報を生成する。そして生成部144は、対象施設の施設関連情報の各々と、団体としての個人情報とに基づいて、各施設関連情報の優先度を設定する。
 このように実施形態6によれば、サーバ100は、ユーザUの個人情報と同伴者の個人情報との間の重要度で重み付けされた個人情報に基づいて、優先度を設定できる。したがって、団体としての意向をより適切に反映させた情報を、ユーザUに提供できる。
 上述の実施形態では、ハードウェアの構成として説明したが、これに限定されるものではない。本開示は、任意の処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。
 上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば上述の実施形態では、サーバ100と第2ユーザ端末300との情報の送受信は、ネットワークNに接続された第2ユーザ端末300を介して行われていた。しかし、第1ユーザ端末200がネットワークNに接続され、サーバ100は、第1ユーザ端末200との間で、第2ユーザ端末300を介さずに通信してよい。この場合、サーバ100は、個人情報の入力画面を第1ユーザ端末200に表示させ、ユーザUが所定の動作を実行した撮影画像に基づいて個人情報の入力操作を検出することで、個人情報を取得してよい。また、情報処理システム1000は、第1ユーザ端末200及び第2ユーザ端末300に代えて、第1ユーザ端末200の機能と第2ユーザ端末300の機能とが一体化したユーザ端末を備えてもよい。
 また、サーバ100の生成部144は、対象施設に関連する施設関連情報及び個人情報に加えて、対象施設の混雑度に基づいて、重畳情報を生成してもよい。例えば生成部144は、優先度に基づいて生成された重畳情報に、混雑度の情報を含ませてもよい。また例えば、生成部144は、対象施設に関連する施設関連情報、個人情報、及び対象施設の混雑度に基づいて、対象施設関連情報の優先度を設定してもよい。生成部144が混雑度を用いる場合、サーバ100は、各施設の混雑度を取得する混雑度取得部(不図示)をさらに備えてよい。これにより、サーバ100は混雑度を考慮した情報を提供するため、ユーザUが施設を利用する前に施設を利用するか否かの判断をより容易にできる。したがって、ユーザの満足度を高めることができる。
 また上述の実施形態では、サーバ100の個人情報取得部141は、ユーザUや同伴者(ユーザ等)の個人情報を、第2ユーザ端末300等のユーザ端末から取得するとした。しかしこれに代えて、個人情報取得部141は、ネットワークNに接続され、ユーザ等の個人情報の一部又は全部を記憶する外部装置から、個人情報を取得してよい。
 例えば、外部装置は、スケジュール管理アプリケーションを動作させ、これらの動作によって取得された、ユーザ等のスケジュール情報を蓄積してよい。そして外部装置は、所定のタイミングで、ネットワークNを介して、ユーザID及びスケジュール情報を、サーバ100に送信してよい。また例えば、外部装置は、購入履歴を管理するアプリケーションを動作させ、この動作によって取得された、ユーザ等の購入履歴を記憶してよい。
 また各施設には顔認証端末が設置され、ユーザ等が各施設を訪問した場合に、顔認証端末が、ユーザIDと、訪問履歴とをネットワークNを介してサーバ100に送信するようになっていてもよい。そしてサーバ100は、訪問履歴を行動履歴として、ユーザIDに対応付けてユーザDB112に登録してよい。
 また各施設には、顔決済端末が設置され、ユーザ等が店舗で決済した場合に、顔決済端末が、ユーザIDと、決済履歴とをネットワークNを介してサーバ100に送信するようになっていてもよい。そしてサーバ100は、決済履歴を購入履歴として、ユーザIDに対応付けてユーザDB112に登録してよい。
 また実施形態1~6は、任意に組み合わされてよい。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
   (付記1)
 ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得する画像取得手段と、
 前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定する特定手段と、
 前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成する生成手段と、
 前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる出力制御手段と
 を備える情報処理装置。
   (付記2)
 前記ユーザ及び前記ユーザの同伴者のうち少なくとも一方の人物の個人情報を取得する個人情報取得手段をさらに備え、
 前記生成手段は、前記対象施設に関連する施設関連情報と、前記個人情報とに基づいて、前記重畳情報を生成する
 付記1に記載の情報処理装置。
   (付記3)
 前記個人情報は、属性情報、位置情報、行動履歴、現在の行動状態、購入履歴及びスケジュール情報のうち少なくとも1つを含む
 付記2に記載の情報処理装置。
   (付記4)
 前記生成手段は、前記撮影画像から前記対象施設が複数特定された場合、又は前記対象施設に関連する施設関連情報が複数ある場合、前記個人情報に基づいて前記対象施設に関連する施設関連情報の各々の優先度を設定し、前記優先度に基づいて前記重畳情報を生成する
 付記2又は3に記載の情報処理装置。
   (付記5)
 前記個人情報取得手段は、前記ユーザの個人情報と、前記同伴者の個人情報と、前記ユーザの個人情報に対する前記同伴者の個人情報の重要度の情報とを取得し、
 前記生成手段は、前記ユーザの個人情報と、前記同伴者の個人情報と、前記重要度とに基づいて、前記対象施設に関連する施設関連情報の各々の優先度を設定する
 付記2から4のいずれか一項に記載の情報処理装置。
   (付記6)
 前記生成手段は、前記対象施設のウェブサイトから取得した商品又はサービスの情報を、前記施設関連情報として特定する
 付記1から5のいずれか一項に記載の情報処理装置。
   (付記7)
 前記撮影画像中の前記ユーザの手の位置と、前記視野領域における第1の重畳情報の重畳位置とに基づいて、前記ユーザによる前記第1の重畳情報の選択操作を検出する操作検出手段をさらに備え、
 前記生成手段は、前記選択操作が検出されたことに応じて、選択された前記第1の重畳情報に関連する前記対象施設の施設関連情報に基づいて、第2の重畳情報を生成し、
 前記出力制御手段は、前記視野領域に前記第2の重畳情報が重なるように、前記ユーザ端末に対して前記第2の重畳情報を表示させる
 付記1から6のいずれか一項に記載の情報処理装置。
   (付記8)
 前記出力制御手段は、前記視野領域のうち、人物及び予め定められた物体のうち少なくとも一方が存在する領域に、前記重畳情報が重ならないように、前記ユーザ端末に対して前記重畳情報を表示させる
 付記1から7のいずれか一項に記載の情報処理装置。
   (付記9)
 前記撮影画像及び前記ユーザの位置情報の少なくとも一方に基づいて、前記ユーザの空き時間を検出する時間検出手段を備え、
 前記出力制御手段は、前記視野領域に予め定められた広告情報が重なるように、前記ユーザ端末に対して前記広告情報を表示させる
 付記1から8のいずれか一項に記載の情報処理装置。
   (付記10)
 前記ユーザが予め定められた行動をとったことを示す行動情報を取得した場合、前記行動情報に基づいて、前記ユーザ端末が表示した前記重畳情報による前記行動への寄与度を算出し、前記寄与度が予め定められた閾値以上であるか否かを判定する寄与判定手段と、
 前記判定の結果を記録する記録手段と
 をさらに備える
 付記1から9のいずれか一項に記載の情報処理装置。
   (付記11)
 前記寄与判定手段は、前記行動情報として、前記ユーザが施設を利用したことを示す利用情報を取得した場合、前記ユーザが利用した前記施設が、前記ユーザ端末が表示した前記重畳情報に対応する施設であるか否かを判定する
 付記10に記載の情報処理装置。
   (付記12)
 ユーザが使用するユーザ端末と、
 情報処理装置と
 を備え、
 前記情報処理装置は、
 ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得する画像取得手段と、
 前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定する特定手段と、
 前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成する生成手段と、
 前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる出力制御手段と
 を有する
 情報処理システム。
   (付記13)
 前記ユーザ端末は、前記ユーザの身体に装着された第1ユーザ端末と、前記情報処理装置及び前記第1ユーザ端末と通信する第2ユーザ端末と、を有し、
 前記情報処理装置は、
 前記画像取得手段は、前記第2ユーザ端末を介して、前記第1ユーザ端末から前記撮影画像を取得し、
 前記出力制御手段は、前記第2ユーザ端末を介して、前記第1ユーザ端末の表示部に前記重畳情報を表示させる
 付記12に記載の情報処理システム。
   (付記14)
 ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得し、
 前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定し、
 前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成し、
 前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる
 情報処理方法。
   (付記15)
 ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得する画像取得処理と、
 前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定する特定処理と、
 前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成する生成処理と、
 前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる出力制御処理と
 を、コンピュータに実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
 10 情報処理装置
 12,142 画像取得部
 13,143 特定部
 14,144 生成部
 15,145 出力制御部
 100,100a,100b,100c サーバ(情報処理装置)
 110,110a,110b,110c 記憶部
 111,111a,111b,111c プログラム
 112,112c ユーザDB
 1121 ユーザID
 1122 個人情報
 1123 表示履歴
 113,113c 施設DB
 1131 施設ID
 1132 施設特徴情報
 1133 施設関連情報
 1134 寄与判定履歴
 120 メモリ
 130 通信部
 140,140a,140b,140c 制御部
 141 個人情報取得部
 146 操作検出部
 147 時間検出部
 148 行動情報取得部
 149 寄与判定部
 150 記録部
 200 第1ユーザ端末
 210 カメラ
 220 記憶部
 230 通信部
 240 表示部
 250 入力部
 260 制御部
 300 第2ユーザ端末
 310 カメラ
 320 記憶部
 330 通信部
 340 表示部
 360 制御部
 400,410,420,430 重畳画像
 500 手領域
 1000 情報処理システム
 U ユーザ
 N ネットワーク
 T 画像領域
 V 撮影画像

Claims (15)

  1.  ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得する画像取得手段と、
     前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定する特定手段と、
     前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成する生成手段と、
     前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる出力制御手段と
     を備える情報処理装置。
  2.  前記ユーザ及び前記ユーザの同伴者のうち少なくとも一方の人物の個人情報を取得する個人情報取得手段をさらに備え、
     前記生成手段は、前記対象施設に関連する施設関連情報と、前記個人情報とに基づいて、前記重畳情報を生成する
     請求項1に記載の情報処理装置。
  3.  前記個人情報は、属性情報、位置情報、行動履歴、現在の行動状態、購入履歴及びスケジュール情報のうち少なくとも1つを含む
     請求項2に記載の情報処理装置。
  4.  前記生成手段は、前記撮影画像から前記対象施設が複数特定された場合、又は前記対象施設に関連する施設関連情報が複数ある場合、前記個人情報に基づいて前記対象施設に関連する施設関連情報の各々の優先度を設定し、前記優先度に基づいて前記重畳情報を生成する
     請求項2又は3に記載の情報処理装置。
  5.  前記個人情報取得手段は、前記ユーザの個人情報と、前記同伴者の個人情報と、前記ユーザの個人情報に対する前記同伴者の個人情報の重要度の情報とを取得し、
     前記生成手段は、前記ユーザの個人情報と、前記同伴者の個人情報と、前記重要度とに基づいて、前記対象施設に関連する施設関連情報の各々の優先度を設定する
     請求項2から4のいずれか一項に記載の情報処理装置。
  6.  前記生成手段は、前記対象施設のウェブサイトから取得した商品又はサービスの情報を、前記施設関連情報として特定する
     請求項1から5のいずれか一項に記載の情報処理装置。
  7.  前記撮影画像中の前記ユーザの手の位置と、前記視野領域における第1の重畳情報の重畳位置とに基づいて、前記ユーザによる前記第1の重畳情報の選択操作を検出する操作検出手段をさらに備え、
     前記生成手段は、前記選択操作が検出されたことに応じて、選択された前記第1の重畳情報に関連する前記対象施設の施設関連情報に基づいて、第2の重畳情報を生成し、
     前記出力制御手段は、前記視野領域に前記第2の重畳情報が重なるように、前記ユーザ端末に対して前記第2の重畳情報を表示させる
     請求項1から6のいずれか一項に記載の情報処理装置。
  8.  前記出力制御手段は、前記視野領域のうち、人物及び予め定められた物体のうち少なくとも一方が存在する領域に、前記重畳情報が重ならないように、前記ユーザ端末に対して前記重畳情報を表示させる
     請求項1から7のいずれか一項に記載の情報処理装置。
  9.  前記撮影画像及び前記ユーザの位置情報の少なくとも一方に基づいて、前記ユーザの空き時間を検出する時間検出手段を備え、
     前記出力制御手段は、前記視野領域に予め定められた広告情報が重なるように、前記ユーザ端末に対して前記広告情報を表示させる
     請求項1から8のいずれか一項に記載の情報処理装置。
  10.  前記ユーザが予め定められた行動をとったことを示す行動情報を取得した場合、前記行動情報に基づいて、前記ユーザ端末が表示した前記重畳情報による前記行動への寄与度を算出し、前記寄与度が予め定められた閾値以上であるか否かを判定する寄与判定手段と、
     前記判定の結果を記録する記録手段と
     をさらに備える
     請求項1から9のいずれか一項に記載の情報処理装置。
  11.  前記寄与判定手段は、前記行動情報として、前記ユーザが施設を利用したことを示す利用情報を取得した場合、前記ユーザが利用した前記施設が、前記ユーザ端末が表示した前記重畳情報に対応する施設であるか否かを判定する
     請求項10に記載の情報処理装置。
  12.  ユーザが使用し、前記ユーザの視野を撮影するユーザ端末と、
     情報処理装置と
     を備え、
     前記情報処理装置は、
     前記ユーザ端末により生成された撮影画像を取得する画像取得手段と、
     前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定する特定手段と、
     前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成する生成手段と、
     前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる出力制御手段と
     を有する
     情報処理システム。
  13.  前記ユーザ端末は、前記ユーザの身体に装着された第1ユーザ端末と、前記情報処理装置及び前記第1ユーザ端末と通信する第2ユーザ端末と、を有し、
     前記情報処理装置は、
     前記画像取得手段は、前記第2ユーザ端末を介して、前記第1ユーザ端末から前記撮影画像を取得し、
     前記出力制御手段は、前記第2ユーザ端末を介して、前記第1ユーザ端末の表示部に前記重畳情報を表示させる
     請求項12に記載の情報処理システム。
  14.  ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得し、
     前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定し、
     前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成し、
     前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる
     情報処理方法。
  15.  ユーザ端末によりユーザの視野を撮影することにより生成された撮影画像を取得する画像取得処理と、
     前記撮影画像から、施設に関連する施設外設置物を検出し、検出した前記施設外設置物に基づいて対象施設を特定する特定処理と、
     前記対象施設に関連する施設関連情報に基づいて、重畳情報を生成する生成処理と、
     前記視野を示す視野領域に前記重畳情報が重なるように、前記ユーザ端末に対して前記重畳情報を表示させる出力制御処理と
     を、コンピュータに実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2021/022070 2021-06-10 2021-06-10 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体 WO2022259450A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/022070 WO2022259450A1 (ja) 2021-06-10 2021-06-10 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体
JP2023526745A JP7529156B2 (ja) 2021-06-10 2021-06-10 情報処理装置、情報処理システム、及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/022070 WO2022259450A1 (ja) 2021-06-10 2021-06-10 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2022259450A1 true WO2022259450A1 (ja) 2022-12-15

Family

ID=84426007

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/022070 WO2022259450A1 (ja) 2021-06-10 2021-06-10 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体

Country Status (2)

Country Link
JP (1) JP7529156B2 (ja)
WO (1) WO2022259450A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134618A (ja) * 1999-08-26 2001-05-18 Naoyuki Kageyama 携帯情報システム
JP2015158866A (ja) * 2014-02-25 2015-09-03 株式会社Nttドコモ 混雑状況把握装置、混雑状況把握システム及び混雑状況把握方法
JP2016206447A (ja) * 2015-04-23 2016-12-08 セイコーエプソン株式会社 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2019057025A (ja) * 2017-09-20 2019-04-11 株式会社日本総合研究所 広告情報提供システム
JP2020086969A (ja) * 2018-11-26 2020-06-04 Kddi株式会社 道路側面に並ぶ店舗の訪問者数を推定する訪問者数推定装置、プログラム及び方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342354A (ja) 2001-05-16 2002-11-29 Sharp Corp 商品情報検索システム、商品情報検索装置、エージェントインタフェースプログラムおよびエージェントインタフェースプログラムを記録した記録媒体
US9477368B1 (en) 2009-03-31 2016-10-25 Google Inc. System and method of indicating the distance or the surface of an image of a geographical object
JP6923270B2 (ja) 2017-03-15 2021-08-18 パーク二四株式会社 駐車車室予約端末、駐車車室予約サーバおよびコンピュータプログラム
JP2019106006A (ja) 2017-12-12 2019-06-27 株式会社ネクサス コンピュータプログラム及びサーバ装置
JP6591594B2 (ja) 2018-03-16 2019-10-16 株式会社Lifull 情報提供システム、サーバ装置、及び情報提供方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134618A (ja) * 1999-08-26 2001-05-18 Naoyuki Kageyama 携帯情報システム
JP2015158866A (ja) * 2014-02-25 2015-09-03 株式会社Nttドコモ 混雑状況把握装置、混雑状況把握システム及び混雑状況把握方法
JP2016206447A (ja) * 2015-04-23 2016-12-08 セイコーエプソン株式会社 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2019057025A (ja) * 2017-09-20 2019-04-11 株式会社日本総合研究所 広告情報提供システム
JP2020086969A (ja) * 2018-11-26 2020-06-04 Kddi株式会社 道路側面に並ぶ店舗の訪問者数を推定する訪問者数推定装置、プログラム及び方法

Also Published As

Publication number Publication date
JPWO2022259450A1 (ja) 2022-12-15
JP7529156B2 (ja) 2024-08-06

Similar Documents

Publication Publication Date Title
US20220005095A1 (en) Augmented reality devices, systems and methods for purchasing
JP5994397B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20220346683A1 (en) Information processing system and information processing method
US20180341985A1 (en) Provision and management of advertising via mobile entity
CN111512119A (zh) 增强现实、计算机视觉和数字售票系统
JP2010061452A (ja) 端末装置、情報処理方法及びプログラム
JP6339285B1 (ja) サービス提供システム
JP2019204431A (ja) コンピュータプログラムおよび方法
JP2021105945A (ja) 処理装置、処理方法及びプログラム
JP2022151795A (ja) 情報提示システム、情報提示方法、及び情報提示プログラム
JP7476881B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2022259450A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体
KR20110125866A (ko) 증강현실을 통한 정보제공 방법 및 장치
US20200098003A1 (en) Information system, information processing method, and non-transitory storage medium
JP2017191500A (ja) 携帯端末に対して地点情報を提供する装置、方法、およびプログラム
EP3352089A1 (en) Information processing device, information processing method, program and information processing system
JP7574929B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7475300B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7517428B2 (ja) 情報提供システム、情報提供方法及びプログラム
JP7458362B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7459038B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7228843B2 (ja) データ分析装置、データ分析システム、データ分析方法およびプログラム
JP7531473B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2020067986A (ja) 判定装置、判定方法、および判定プログラム
JP7187523B2 (ja) マッチングシステム、眼鏡型デバイス、マッチングサーバ及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21945126

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023526745

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21945126

Country of ref document: EP

Kind code of ref document: A1