Nothing Special   »   [go: up one dir, main page]

WO2016147744A1 - 情報処理装置、情報処理方法及びコンピュータプログラム - Google Patents

情報処理装置、情報処理方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2016147744A1
WO2016147744A1 PCT/JP2016/053674 JP2016053674W WO2016147744A1 WO 2016147744 A1 WO2016147744 A1 WO 2016147744A1 JP 2016053674 W JP2016053674 W JP 2016053674W WO 2016147744 A1 WO2016147744 A1 WO 2016147744A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
user
information
information processing
processing apparatus
Prior art date
Application number
PCT/JP2016/053674
Other languages
English (en)
French (fr)
Inventor
大輔 中田
貴広 岡山
遼 深澤
光祐 吉富
克也 兵頭
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP16764575.3A priority Critical patent/EP3273346A4/en
Priority to US15/543,332 priority patent/US20180004742A1/en
Publication of WO2016147744A1 publication Critical patent/WO2016147744A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a computer program.
  • the devices that execute content have been diversified in recent years, and the performance has been improved and the size has been reduced.
  • the user does not explicitly instruct the display or execution of the content, but automatically selects the content that matches the user's situation, and the user device performs the operation on the content. It is required to change according to the presence or absence of the content.
  • the present disclosure proposes a new and improved information processing apparatus, information processing method, and computer program capable of changing the operation for content that matches the user's situation depending on the presence or absence of content in the user device. To do.
  • the non-operation information of the user is obtained.
  • an information processing apparatus including a control unit that changes the processing content of content specified based on the content.
  • the non-operation information on the user based on the information on the content specified based on the non-operation information of the user and the information on the content stored in the user device used by the user, the non-operation information on the user An information processing method is provided that includes changing processing details of content specified based on the information.
  • the user's A computer program that causes a change in processing content of content specified based on non-operation information to be executed.
  • a new and improved information processing apparatus and information processing capable of changing an operation on content that matches a user's situation according to the presence or absence of content in the user device Methods and computer programs can be provided.
  • FIG. 3 is an explanatory diagram illustrating a functional configuration example of an information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 5 is a flowchart illustrating an operation example of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • 5 is a flowchart illustrating an operation example of a content selection unit 130.
  • 5 is a flowchart showing an example of operations of a content selection unit 130 and an external service 10.
  • 5 is a flowchart showing an example of operations of a content selection unit 130 and an external service 10. It is explanatory drawing which shows the example of a user interface. It is explanatory drawing which shows the example of a user interface. It is explanatory drawing which shows the example of a user interface. It is explanatory drawing which shows the example of a user interface.
  • 5 is a flowchart illustrating an operation example of a content selection unit 130.
  • 5 is a flowchart showing an example of operations of a content selection unit 130 and an external service 10.
  • 5 is a flowchart showing an example of operations of a content selection unit 130 and an external service 10.
  • 5 is a flowchart illustrating an example of the operation of a content activation unit 150.
  • 5 is a flowchart illustrating an example of the operation of a content activation unit 150.
  • 5 is a flowchart illustrating an example of the operation of a content activation unit 150.
  • 5 is a flowchart illustrating an example of the operation of a content activation unit 150.
  • 5 is a flowchart illustrating an example of the operation of a content activation unit 150. It is explanatory drawing which shows the hardware structural example.
  • the user when the user tries to execute the application on the device, the user searches for the target application from among the applications installed on the device, and if the target application is not installed, Download from the server to the device.
  • Such an action on the user's device is one in which the user indicates the user's intention to act on the device.
  • the user in order for the user to indicate the user's intention to act on the device, the user must The user himself / herself has to know in advance what content the user's intention of action can be realized.
  • the amount of content is increasing every day. As users add content to the devices they use one after another, it becomes difficult to find the target content from the content stored on the device. Also, there may be content that achieves the user's purpose among content that the user has not yet saved on the device, and it is difficult and inefficient for the user to find such content. .
  • the present disclosurer obtains information (user non-operation information) that does not depend on the user's operation, not information obtained as a result of the user's explicit operation, and We searched for content that matches the operation information and intensively studied the technology to execute that content.
  • the present disclosurer obtains the non-operation information of the user, searches for content that matches the non-operation information of the user, and performs the operation on the content on the device (user device) used by the user. It came to devise the technology to change according to the existence of contents.
  • FIG. 1 is an explanatory diagram illustrating a functional configuration example of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 1 is an explanatory diagram illustrating a functional configuration example of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 1 is an explanatory diagram illustrating a functional configuration example of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 1 is an explanatory diagram illustrating a functional configuration example of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • a functional configuration example of the information processing apparatus 100 according to an embodiment of the present disclosure will be described with reference to FIG.
  • the information processing apparatus 100 illustrated in FIG. 1 is, for example, a smartphone (high-function mobile phone), a wearable device (refers to a computer device intended to be worn on the user's body), and the like. It is an apparatus that can acquire the user's status, search for content that matches the user's status, and execute the content.
  • a smartphone high-function mobile phone
  • a wearable device refers to a computer device intended to be worn on the user's body
  • It is an apparatus that can acquire the user's status, search for content that matches the user's status, and execute the content.
  • the information processing apparatus 100 includes an input device 110, a user situation analysis unit 120, a content selection unit 130, a storage unit 140, and a content activation unit 150.
  • the content execution unit 160 and the output device 170 are configured.
  • the input device 110 is various input devices that accept input from a user, and may be configured with, for example, a keyboard, a mouse, a touch panel, and the like.
  • sensing devices can also function as the input device 110.
  • a sensing device for example, GPS (Global Positioning System), GLONASS (Global Navigation Satelite System), BDS (BeiDo Navigation Satelite System), a camera with depth information, a sensor with a current position, iBeacon sensor, and the like. Sensors, microphones, etc. may be included.
  • Such a sensing device detects acceleration, angular velocity, azimuth, illuminance, temperature, atmospheric pressure, etc. applied to the apparatus.
  • the various sensing devices can detect various information as information related to the user, for example, information indicating the user's movement or orientation.
  • the sensing device may include a sensor that detects biological information of the user such as pulse, sweat, brain wave, touch, smell, and taste.
  • the input device 110 outputs information input by the user or generated by sensing to the user situation analysis unit 120.
  • the user situation analysis unit 120 analyzes the situation at the time of the user (hereinafter also simply referred to as the user situation) based on the information sent from the input device 110. Specifically, the user situation analysis unit 120 uses a technique such as action recognition, voice recognition, image recognition, machine learning, and the like, for example, a user including a user situation such as a user action, position, emotion, and habit. The non-operation information that does not depend on the operation on the input device 110 is analyzed. Then, the user situation analysis unit 120 sends user non-operation information including the analysis result of the user situation to the content selection unit 130 and the content execution unit 160.
  • a technique such as action recognition, voice recognition, image recognition, machine learning, and the like
  • the non-operation information that does not depend on the operation on the input device 110 is analyzed.
  • the user situation analysis unit 120 sends user non-operation information including the analysis result of the user situation to the content selection unit 130 and the content execution unit 160.
  • the user situation analysis by the user situation analysis unit 120 is performed as follows, for example.
  • the user situation analysis unit 120 recognizes the user's behavior from, for example, values of changes in body movement measured by sensors such as acceleration and inclination. For example, the user situation analysis unit 120 determines and recognizes the position of the user by using a positioning technique such as a latitude / longitude value measured from GPS, iBeacon, or whether or not the vehicle is approaching a predetermined location.
  • a positioning technique such as a latitude / longitude value measured from GPS, iBeacon, or whether or not the vehicle is approaching a predetermined location.
  • the user situation analysis unit 120 recognizes the user's emotion by measuring the body's biological situation such as sweating, heart rate, blood flow, and the like.
  • the user situation analysis unit 120 learns a user's habits by using machine learning of recognition data such as behavior, position, and emotion, in-service data such as a schedule and mail, in-app data such as a contact book and a memo pad, etc. Analyze by technology and recognize.
  • the content selection unit 130 generates comparison information that compares the content information specified based on the non-operation information of the user including the analysis result of the user situation and the information related to the content stored in the storage unit 140. To do. And the content selection part 130 changes operation
  • the content selection unit 130 determines the content to be selected based on the acquired user non-operation information.
  • the content selection unit 130 determines the content to be selected from the content stored in the storage unit 140 and the content provided by the external service 10.
  • the content selection unit 130 sends information on the selected content to the content activation unit 150.
  • the external service 10 is a service that provides content to the information processing apparatus 100 and can be configured as one or a plurality of server apparatuses. Note that one external service may not store all the information, and the external service may perform content search for another external service.
  • the storage unit 140 stores content activated by the content activation unit 150, and may be configured by a non-volatile memory such as a flash memory, for example.
  • the storage unit 140 stores, for example, content content and content storage location information (for example, URL).
  • the storage unit 140 stores information from the content selection unit 130.
  • Information stored in the storage unit 140 is referred to by the content selection unit 130 and the content activation unit 150. Further, the content stored in the storage unit 140 can be deleted as necessary.
  • the content activation unit 150 is read from the content storage unit 140 selected by the content selection unit 130 and activated. Further, the content activation unit 150 performs predetermined termination processing such as deletion of unnecessary data and recording of content activation when the content is terminated. In addition, the content activation unit 150 performs payment processing of a fee imposed on the content as necessary at the time of activation or termination of the content.
  • the content activation unit 150 When the content activation unit 150 reads the content from the storage unit 140 and activates the content, the content activation unit 150 is selected by the content selection unit 130 based on the user's situation and when the content is explicitly selected by the user. , Change the processing for the content. For example, when the content is selected by the content selection unit 130 based on the user's situation, when the content is explicitly selected by the user, the content activation unit 150 obtains the usable time and the right to use the content. The timing at which processing (for example, payment of a usage fee) is required can be changed. Accordingly, the content activation unit 150 can also function as an example of the control unit of the present disclosure.
  • the content execution unit 160 presents a user interface (UI), sound, image, and the like generated as a result of the content activation unit 150 activating the content to the user through the output device 170.
  • UI user interface
  • the content execution unit 160 exchanges data with an external server as necessary.
  • the output device 170 is a device that presents the UI, sound, image, etc. presented by the content execution unit 160 to the user, and includes, for example, a display, a speaker, a vibrator, and the like.
  • the application includes an application, still image data, moving image data, audio data, and the like.
  • application application
  • “application” refers to a computer program that operates on a device and realizes a predetermined function.
  • the “Web application (Web application)” is an application used via a network such as the Internet, operates in cooperation with a Web server on the browser layer, and operates on the browser layer. Javascript, HTML, etc.).
  • the input device 110 and the output device 170 in the information processing apparatus 100 illustrated in FIG. 1 may be different devices from the information processing apparatus 100.
  • the information processing apparatus 100 has a configuration as illustrated in FIG. 1, thereby acquiring a user's situation, searching for content that matches the user's situation, and for the content.
  • the operation can be changed according to the presence / absence of the content in a device (user device) used by the user.
  • FIG. 2 is a flowchart illustrating an operation example of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 2 is a flowchart showing an example of the operation of the information processing apparatus 100 when searching for content suitable for the user's situation and executing the content.
  • an operation example of the information processing apparatus 100 according to an embodiment of the present disclosure will be described with reference to FIG.
  • the information processing apparatus 100 searches for content that matches the user's situation and tries to execute the content, the information processing apparatus 100 first waits for the occurrence of a change in the user's situation (step S101). When the user status changes (step S102), the information processing apparatus 100 selects content that matches the user status (step S103).
  • the information processing apparatus 100 determines whether content that matches the user situation has been found (step S104). If no content that matches the user situation is found (step S104, No), the occurrence of a change in the user situation in step S101 occurs. Return to the process of waiting. On the other hand, if content that matches the user situation is found (step S104, Yes), the information processing apparatus 100 determines whether the content matches the condition (step S105). If the content does not match the condition (step S105, No), the information processing apparatus 100 returns to the process of waiting for the occurrence of a user situation change in step S101. On the other hand, if the content matches the condition (step S105, Yes), the information processing apparatus 100 subsequently activates the content (step S106) and executes the activated content (step S107).
  • steps S101 and S102 is executed by, for example, the user situation analysis unit 120, and the processing of steps S103 to S105 is executed by, for example, the content selection unit 130.
  • the process of step S106 is executed by the content activation unit 150, for example, and the process of step S107 is executed by the content execution unit 160, for example.
  • the information processing apparatus 100 can make the details of the processing of the content activated in step S106 different from the processing details when the content is explicitly selected by the user.
  • the information processing apparatus 100 uses, for example, a case where content is selected based on a user's situation by the processing in step S103, a case where the content is explicitly selected by the user, and a usage fee. You can change when you need to pay.
  • the content selection unit 130 Based on the analysis result of the user situation sent from the user situation analysis unit 120, the content selection unit 130 searches for contents that match the user situation from the contents stored in the storage unit 140. In order to enable the content selection unit 130 to search for content that matches the user's situation from the contents stored in the storage unit 140, for example, in any user situation It is desirable to describe in the content whether it should be activated.
  • FIG. 3 is a flowchart illustrating an operation example of the content selection unit 130 of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • an operation example of the content selection unit 130 will be described with reference to FIG.
  • the content selection unit 130 When the content selection unit 130 receives the user status information from the user status analysis unit 120 (step S111), the content selection unit 130 acquires a content activation condition from the content list stored in the storage unit 140 (step S112).
  • the content selection unit 130 compares the acquired content activation conditions with the user status information, and searches the content stored in the storage unit 140 for content that matches the user status (Ste S113).
  • the content selection unit 130 determines whether content matching the user's situation has been found from the content stored in the storage unit 140 as a result of the search processing in step S113 (step S114).
  • step S114 when a content that matches the user's situation is found from the content stored in the storage unit 140 (step S114, Yes), the content selection unit 130 sends to the content activation unit 150. On the other hand, information on which content should be activated is sent (step S115).
  • step S114 when no content that matches the user's situation is found from the content stored in the storage unit 140 (step S114, No), the content selection unit 130 activates the content. Information that no content matching the user's situation was found is sent to unit 150 (step S116).
  • the content selection unit 130 can select a content that matches the user's situation from the content stored in the storage unit 140 by executing a series of operations shown in FIG. Note that the content selection unit 130 may take into account the characteristics of the information processing apparatus 100 when selecting content.
  • the characteristics of the information processing apparatus 100 include, for example, the type of the information processing apparatus 100, the use of the information processing apparatus 100, the type of device included in the output apparatus 170, and the display when the output apparatus 170 has a display. Screen size and the like.
  • a personal computer, a smartphone, a wearable terminal, a head mounted display, or the like can be considered. Possible uses of the information processing apparatus 100 include, for example, business use and personal use.
  • the content selection unit 130 matches the situation of the plurality of users as in the case where there is only one user who uses the information processing apparatus 100. Content may be selected.
  • the content selection unit 130 instructs the content activation unit 150 of the user. Information was sent that the content matching the situation was not found.
  • the content selection unit 130 sends content that matches the user's situation from the external service 10. Indicates the case of acquiring
  • FIG. 4 is a flowchart illustrating an operation example of the content selection unit 130 and the external service 10 of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 4 shows an operation example of the content selection unit 130 and the external service 10 when content that matches the user's situation is not found from the content stored in the storage unit 140.
  • operation examples of the content selection unit 130 and the external service 10 will be described with reference to FIG.
  • the content selection unit 130 Upon receiving the user situation information from the user situation analysis unit 120 (step S121), the content selection unit 130 transmits the received user situation information to the external service 10 (step S122).
  • the external service 10 acquires a content activation condition from the content list existing in the external service 10 (step S123). Subsequently, the external service 10 compares the acquired content activation conditions with the user status information, and searches the content existing in the external service 10 for content that matches the user status (step S124). ). The external service 10 determines whether content matching the user's situation has been found from the content existing in the external service 10 as a result of the search processing in step S124 (step S125).
  • step S125 when content matching the user's situation is found from the content existing in the external service 10 (step S125, Yes), the external service 10 is found in the content selection unit 130.
  • the transmitted content is transmitted (step S126).
  • the content selection unit 130 sends information about which content should be activated to the content activation unit 150 (step S127) and stores the content received from the external service 10 in the storage unit 140 (step S128).
  • step S125 if no content that matches the user's situation is found from the content existing in the external service 10 (No in step S125), the external service 10 sends the content selection unit 130 with it. On the other hand, information indicating that no content matching the user's situation was found is sent (step S129). Then, the content selection unit 130 sends information indicating that no content matching the user's situation has been found to the content activation unit 150 (step S130).
  • the content selection unit 130 and the external service 10 execute the series of operations illustrated in FIG. 4 and content that matches the user's situation is not found from the content stored in the storage unit 140.
  • the content selection unit 130 can acquire content that matches the user's situation from the external service 10.
  • the content selection unit 130 acquires the location (URL) information of the Web application from the external service 10.
  • FIG. 5 is a flowchart illustrating an operation example of the content selection unit 130 and the external service 10 of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 5 shows an operation example of the content selection unit 130 and the external service 10 when no content matching the user's situation is found from the content stored in the storage unit 140.
  • operation examples of the content selection unit 130 and the external service 10 will be described with reference to FIG.
  • the content selection unit 130 Upon receiving the user situation information from the user situation analysis unit 120 (step S121), the content selection unit 130 transmits the received user situation information to the external service 10 (step S122).
  • the external service 10 acquires a content activation condition from the content list existing in the external service 10 (step S123). Subsequently, the external service 10 compares the acquired content activation conditions with the user status information, and searches the content existing in the external service 10 for content that matches the user status (step S124). ). The external service 10 determines whether content matching the user's situation has been found from the content existing in the external service 10 as a result of the search processing in step S124 (step S125). In the following description, it is assumed that the content that matches the user's situation is a Web application.
  • step S125 when content matching the user's situation is found from the content existing in the external service 10 (step S125, Yes), the external service 10 is found in the content selection unit 130.
  • Information on the location of the content (URL) transmitted is transmitted (step S126 ′).
  • the content selection unit 130 sends the content location information (URL) to be activated to the content activation unit 150 (step S127 ′) and stores the content location information (URL) received from the external service 10.
  • the data is stored in the unit 140 (step S128 ′).
  • step S125 if no content that matches the user's situation is found from the content existing in the external service 10 (No in step S125), the external service 10 sends the content selection unit 130 with it. On the other hand, information indicating that no content matching the user's situation was found is sent (step S129). Then, the content selection unit 130 sends information indicating that no content matching the user's situation has been found to the content activation unit 150 (step S130).
  • the content selection unit 130 and the external service 10 execute the series of operations illustrated in FIG. 5 and no content that matches the user's situation is found from the content stored in the storage unit 140.
  • the content selection unit 130 can acquire information on the location (URL) of the Web application that matches the user's situation from the external service 10.
  • the content selection unit 130 can acquire content that matches the user's situation from the storage unit 140 or the external service 10, but the user does not necessarily want to automatically start all the content. Therefore, the information processing apparatus 100 according to the present embodiment may cause the user to set selection conditions for the content selection unit 130 in advance. The content selection unit 130 selects content that matches the set selection condition.
  • the selection conditions to be set by the user include, for example, the number of reviews for the content, the review evaluation, the number of downloads of the content, the price of the content (paid or free), the target age of the content, the language of the content, the developer of the content (individual, corporation) Etc.), whether the content is used by a user similar to the user based on the release date of the content, the number of days after the release, age, gender, residential area, customs, and the like.
  • the information processing apparatus 100 may not only cause the content selection unit 130 to set a selection condition in advance from the user, but may also set a basic condition in the content selection unit 130 in advance. .
  • FIGS. 6 to 8 are explanatory diagrams showing examples of user interfaces for allowing the user to set selection conditions for the content selection unit 130.
  • FIG. The user interface shown in FIGS. 6 to 8 is displayed on the output device 170, for example. The user can operate the user interface shown in FIGS. 6 to 8 using the input device 110.
  • FIG. 6 is an explanatory diagram showing an example of a user interface 171 that displays a list of conditions. The user can select a condition by operating the user interface 171 displayed as shown in FIG.
  • FIG. 7 illustrates an example of a user interface 172 that allows the user to set a target age condition of content that is automatically activated when “target age” is selected by the user in the user interface 171 that displays a list of conditions.
  • FIG. 7 the user interface 172 in a state where the target age of the content to be automatically activated is set on the condition that it is 18 years or older is shown.
  • FIG. 8 is an explanatory diagram showing an example of a user interface 173 that allows the user to set a language condition of content to be automatically activated when “language” is selected by the user in the user interface 171 that displays a list of conditions. is there.
  • an example of the user interface 173 in a state where it is set on condition that the language of content to be automatically activated is English is shown.
  • the information processing apparatus 100 can cause the user to set the selection condition in advance by outputting the user interface as shown in FIGS. 6 to 8.
  • the content selection unit 130 can acquire content that matches the user's situation from the storage unit 140 or the external service 10, but the content that matches the user's situation is not limited to one, and matches the user's situation. There may be a plurality of contents to be processed. When there are a plurality of contents that match the user's situation, the content selection unit 130 may determine to select one content from the plurality of contents. When there are a plurality of contents that match the user's situation, conditions for determining one content from the plurality of contents may be set in the content selection unit 130 in advance.
  • the conditions for determining one content from a plurality of content include, for example, content review evaluation, content download count, content release date (newest or oldest), past usage history of content, Content price (paid or free), urgency, content size, etc.
  • the information processing apparatus 100 may cause the user to set a condition for determining one content from among a plurality of contents in advance for the content selection unit 130.
  • the content selection unit 130 determines one content from the plurality of contents based on the set condition.
  • the content selection unit 130 may select one content from a plurality of contents based on the characteristics of the user of the information processing apparatus 100. For example, when the user of the information processing apparatus 100 is registered in the information processing apparatus 100 in advance as a woman in his twenties, the content selection unit 130 selects 20 contents when selecting one content from a plurality of contents. You may decide to select content popular with teenage women.
  • the content selection unit 130 may determine to select not only one but a plurality of contents from the plurality of contents. When there are a plurality of contents that match the user's situation, the content selection unit 130 may select some of the contents that match a predetermined condition, or may select all of the contents.
  • the content selection unit 130 may determine whether to select a plurality of contents based on user settings or settings predetermined by the information processing apparatus 100.
  • the content selection unit 130 may determine the number of content items to be selected based on user settings or settings determined in advance by the information processing apparatus 100, the capacity of the storage unit 140, the content execution unit 160 It may be determined based on the processing capacity or the like.
  • the conditions for determining the activation order of the contents include, for example, a content review evaluation, the number of content downloads, and a content release date (newest or oldest). Order), past usage history of the content, content price (paid or free), urgency, content size, etc.
  • Information related to cooperation with other devices may be sent from the user situation analysis unit 120 to the content selection unit 130.
  • information related to cooperation with other devices for example, there is information on content executed on other devices.
  • the content selection part 130 may determine the content to select based on the information regarding cooperation with another apparatus.
  • the content selection unit 130 can determine that the content to be selected is determined based on information related to cooperation with other devices, thereby preventing similar content from being simultaneously executed by a plurality of devices.
  • the user may have a plurality of information processing apparatuses 100 having the above-described configuration.
  • the information processing device 100 determines which information processing device 100 should be activated when the content is acquired and the content is activated. You may change according to.
  • the information processing apparatus 100 may determine which content should be activated on which apparatus in consideration of functions and hardware characteristics of the own apparatus and other apparatuses.
  • the user has a plurality of information processing apparatuses 100
  • the information processing apparatuses 100 may determine that the wristwatch-type device is executed and the music playback application is executed by the smartphone.
  • the information processing devices 100 communicate with each other when determining which content should be activated on which device if the information processing devices 100 are set to cooperate with each other in advance. It may be. On the other hand, if the information processing apparatuses 100 are not set to cooperate with each other in advance, each information processing apparatus 100 may determine which content should be activated on which apparatus through, for example, exchange with the external service 10. .
  • the content selection unit 130 selects content from the storage unit 140 or the external service 10 even if the content matches the user's situation, the content selection unit 130 is executing the content on another device or the other device. Content in the same category as the category to which the content belongs may be excluded from selection targets.
  • the content selection unit 130 may exclude the content being executed on another device or the same category as the category to which the content being executed on another device belongs. .
  • the content selection unit 130 excludes content that is being executed on another device and a category that is the same as the category to which the content being executed on another device belongs. The external service 10 may be instructed.
  • the glasses-type wearable device when a user enters a bookstore using a smartphone and glasses-type wearable device as the information processing apparatus 100, it is determined by the glasses-type wearable device that the user has entered the bookstore, and the glasses-type wearable device is Assume that the book review application is automatically started. Then, the smartphone notifies the glasses-type wearable device that the glasses-type wearable device is activating the book review application. Therefore, even if the book review application is content that matches the user's situation because the user entered the bookstore, the smartphone does not search the book review application.
  • the information processing apparatus 100 can determine from the access information to the external service 10 that the user is using another device.
  • the content selection unit 130 selects the content that matches the user's situation from the external service 10.
  • the content selection unit 130 may acquire information about what content other devices used by the same user have selected from other devices and the external service 10.
  • the content selection unit 130 obtains information about what kind of content the other device used by the same user has selected from another device or the external service 10, so that the content and the category to which the content belongs. Can be excluded from search.
  • FIG. 9 is a flowchart illustrating an operation example of the content selection unit 130 of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 9 shows that when searching for content from the storage unit 140, information about what content has been selected by another device used by the same user from another device or the external service 10 is acquired. This is an operation example of the content selection unit 130 when the content is excluded from the search target.
  • an operation example of the content selection unit 130 will be described with reference to FIG.
  • the content selection unit 130 When the content selection unit 130 receives the user status information from the user status analysis unit 120 (step S111), the content selection unit 130 acquires a content activation condition from the content list stored in the storage unit 140 (step S112).
  • the information on the user status includes information about what kind of content has been selected by another device used by the same user.
  • the content selection unit 130 acquires information on the content running on other devices used by the same user from the user status information, and sets the content as a non-search target condition (step S117). Subsequently, the content selection unit 130 compares the acquired content activation condition, user status information, and non-search target conditions, and matches the user status from the content stored in the storage unit 140. The one to be searched is searched (step S118).
  • the content selection unit 130 determines whether content matching the user's situation has been found from the content stored in the storage unit 140 as a result of the search processing in step S118 (step S114).
  • step S114 when a content that matches the user's situation is found from the content stored in the storage unit 140 (step S114, Yes), the content selection unit 130 sends to the content activation unit 150. On the other hand, information on which content should be activated is sent (step S115).
  • step S114 when no content that matches the user's situation is found from the content stored in the storage unit 140 (step S114, No), the content selection unit 130 activates the content. Information that no content matching the user's situation was found is sent to unit 150 (step S116).
  • the content selection unit 130 executes the series of operations illustrated in FIG. 9 to exclude content executed by other devices used by the same user from the content stored in the storage unit 140. Above, you can select the one that matches your situation.
  • FIG. 10 is a flowchart illustrating an operation example of the content selection unit 130 and the external service 10 of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 10 shows an operation example of the content selection unit 130 and the external service 10 when content matching the user's situation is not found from the content stored in the storage unit 140. Also, FIG. 10 shows that information about what content is selected by another device used by the same user from another device or external service 10 is acquired, and that content is excluded from the search target. It is an operation example in the case of doing.
  • operation examples of the content selection unit 130 and the external service 10 will be described with reference to FIG.
  • the content selection unit 130 Upon receiving the user situation information from the user situation analysis unit 120 (step S121), the content selection unit 130 transmits the received user situation information to the external service 10 (step S122).
  • the external service 10 acquires a content activation condition from the content list existing in the external service 10 (step S123). Subsequently, the external service 10 obtains a history of content that is activated when another device used by the same user accesses the external service 10, and sets the activated content as a non-search target condition ( Step S131). Subsequently, the external service 10 compares the acquired content activation condition, user status information, and non-search target conditions, and selects the content that exists in the external service 10 that matches the user status. Search is performed (step S132).
  • the external service 10 determines whether content matching the user's situation is found from the content existing in the external service 10 as a result of the search processing in step S132 (step S125).
  • step S125 when content matching the user's situation is found from the content existing in the external service 10 (step S125, Yes), the external service 10 is found in the content selection unit 130.
  • the transmitted content is transmitted (step S126).
  • the content selection unit 130 sends information about which content should be activated to the content activation unit 150 (step S127) and stores the content received from the external service 10 in the storage unit 140 (step S128).
  • step S125 if no content that matches the user's situation is found from the content existing in the external service 10 (No in step S125), the external service 10 sends the content selection unit 130 with it. On the other hand, information indicating that no content matching the user's situation was found is sent (step S129). Then, the content selection unit 130 sends information indicating that no content matching the user's situation has been found to the content activation unit 150 (step S130).
  • the content selection unit 130 and the external service 10 execute the series of operations illustrated in FIG. 10, the content that matches the user situation is not found from the content stored in the storage unit 140.
  • the content selection unit 130 can acquire content that matches the user's situation from the external service 10.
  • the content selection unit 130 and the external service 10 execute a series of operations illustrated in FIG. 10 to acquire information about what content the other device used by the same user has selected, The content can be excluded from the search target.
  • the content selection unit 130 acquires the location (URL) information of the Web application from the external service 10.
  • FIG. 11 is a flowchart illustrating an operation example of the content selection unit 130 and the external service 10 of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 11 shows an operation example of the content selection unit 130 and the external service 10 when content matching the user's situation is not found from the content stored in the storage unit 140. Also, FIG. 11 shows that information on what content is selected by another device used by the same user from other devices or external service 10 is acquired, and the content is excluded from search targets. It is an operation example in the case of doing.
  • operation examples of the content selection unit 130 and the external service 10 will be described with reference to FIG.
  • the content selection unit 130 Upon receiving the user situation information from the user situation analysis unit 120 (step S121), the content selection unit 130 transmits the received user situation information to the external service 10 (step S122).
  • the external service 10 acquires a content activation condition from the content list existing in the external service 10 (step S123). Subsequently, the external service 10 obtains a history of content that is activated when another device used by the same user accesses the external service 10, and sets the activated content as a non-search target condition ( Step S131). Subsequently, the external service 10 compares the acquired content activation condition, user status information, and non-search target conditions, and selects the content that exists in the external service 10 that matches the user status. Search is performed (step S132).
  • the external service 10 determines whether content matching the user's situation is found from the content existing in the external service 10 as a result of the search processing in step S132 (step S125). In the following description, it is assumed that the content that matches the user's situation is a Web application.
  • step S125 when content matching the user's situation is found from the content existing in the external service 10 (step S125, Yes), the external service 10 is found in the content selection unit 130.
  • Information on the location of the content (URL) transmitted is transmitted (step S126 ′).
  • the content selection unit 130 sends the content location information (URL) to be activated to the content activation unit 150 (step S127 ′) and stores the content location information (URL) received from the external service 10.
  • the data is stored in the unit 140 (step S128 ′).
  • step S125 if no content that matches the user's situation is found from the content existing in the external service 10 (No in step S125), the external service 10 sends the content selection unit 130 with it. On the other hand, information indicating that no content matching the user's situation was found is sent (step S129). Then, the content selection unit 130 sends information indicating that no content matching the user's situation has been found to the content activation unit 150 (step S130).
  • the content selection unit 130 and the external service 10 execute the series of operations illustrated in FIG. 5 and no content that matches the user's situation is found from the content stored in the storage unit 140.
  • the content selection unit 130 can acquire information on the location (URL) of the Web application that matches the user's situation from the external service 10.
  • the content selection unit 130 and the external service 10 execute a series of operations illustrated in FIG. 11 to acquire information about what content has been selected by another device used by the same user, The content can be excluded from the search target.
  • the content selection unit 130 may select a plurality of contents.
  • the content selection unit 130 may use the incompatibility between the contents as a non-search target condition. Even if a plurality of contents having similar functions or a plurality of contents belonging to the same genre exist in the information processing apparatus 100, the user of the information processing apparatus 100 needs only one of the contents. It is highly possible. And there is a high possibility that content that the user does not need is not used. Therefore, a plurality of contents having the same function or contents belonging to the same genre may not be compatible. For example, the case where the compatibility between contents is bad may be as follows.
  • the content selection unit 130 may determine compatibility based on whether or not they are in the same category (genre), and may determine compatibility based on whether or not the content is used at the same time when a plurality of activations are performed based on the usage history of other users.
  • the compatibility is bad if it ends immediately without using it at the same time
  • it may be judged from information described in the content, and the compatibility is judged by whether the content is in a different language or not. May be.
  • the information processing apparatus 100 not only causes the content selection unit 130 to set conditions in advance for the content activation in consideration of the compatibility of the content, but also sets basic conditions to the content selection unit. 130 may be set in advance.
  • FIG. 12 is an explanatory diagram showing an example of a user interface 174 for allowing the user to set contents that are not simultaneously selected by the content selection unit 130.
  • the user interface shown in FIG. 12 is displayed on the output device 170, for example. The user operates the user interface shown in FIG.
  • “same category”, “in-app setting”, “other user history”, and “different language” are shown as conditions for not selecting the contents simultaneously.
  • the content conditions set by the user and not selected at the same time by the content selection unit 130 are not limited to those shown in FIG.
  • the content selection unit 130 may select a plurality of contents. However, depending on the situation of the user, it may be better not to select a plurality of contents even if a plurality of contents can be selected. For example, when the user is running at full speed, he cannot take care of applications other than the running application. Further, for example, a user other than a learning support application that supports learning while studying the user is not necessary because the user is distracted. Therefore, the content selection unit 130 may determine whether or not to select a plurality of contents using the user situation information sent from the user situation analysis unit 120.
  • Examples of parameters that are conditions for determining whether the content selection unit 130 should select a plurality of contents include the following.
  • the content selection unit 130 may use, for example, the user's biometric information as a parameter.
  • the biometric information of the user can include information such as the user's heart rate and sweating amount, for example.
  • Such user biometric information can be sensed by a sensor that detects the user biometric information, such as a pulse, sweat, brain waves, touch, smell, and taste, included in the input device 110.
  • the content selection unit 130 may use, for example, the type of user situation as a parameter.
  • the type of user situation may include, for example, during sports, walking, and driving.
  • Such a user situation can be determined by, for example, a sensor for sensing acceleration or angular velocity included in the input device 110, sound recorded by a microphone, or the like.
  • the content selection unit 130 may use, for example, the user's emotion as a parameter.
  • user emotions may include anger and sadness, for example.
  • Such a user's emotion can be determined by information sensed by a sensor that detects the user's biological information, such as a pulse, sweat, brain waves, touch, smell, and taste included in the input device 110, for example.
  • the information processing apparatus 100 not only allows the content selection unit 130 to set conditions in advance for the condition for determining whether or not to select a plurality of contents, but also sets basic conditions as contents. It may be set in the selection unit 130 in advance.
  • FIGS. 13 to 15 are explanatory diagrams showing examples of a user interface for allowing the content selection unit 130 to set conditions for determining whether or not to select a plurality of contents.
  • the user interfaces shown in FIGS. 13 to 15 are displayed on the output device 170, for example.
  • the user operates the user interface shown in FIGS. 13 to 15 using the input device 110.
  • FIG. 13 is an explanatory diagram showing an example of a user interface 175 that displays a list of conditions for determining whether or not to select a plurality of contents.
  • the user can select a condition by operating the user interface 175 displayed as shown in FIG.
  • FIG. 13 shows a state in which “heart rate” and “pulse” are selected as conditions for determining whether or not to select a plurality of contents.
  • FIG. 14 is an explanatory diagram illustrating an example of a user interface 175 that allows the user to set a heart rate condition when “heart rate” is selected by the user in the user interface 174 that displays a list of conditions.
  • the user interface 175 when the user's heart rate is 100 bpm or more, the user interface 175 is set as a condition that a plurality of contents should not be selected.
  • FIG. 15 is an explanatory diagram showing an example of a user interface 176 that allows the user to set a condition of emotion type when “type of emotion” is selected by the user in the user interface 174 that displays a list of conditions.
  • the user interface 176 when the user's emotion is “anger”, the user interface 176 is set in a state where it is set as a condition that a plurality of contents should not be selected.
  • the information processing apparatus 100 outputs a user interface as shown in FIGS. 13 to 15 to set a condition for determining whether or not to select a plurality of contents in advance for the content selection unit 130 for the user. Can be made.
  • the content selection unit 130 can select content suitable for the user's situation from the content existing in the external service 10.
  • the content selection unit 130 selects content that matches the user's situation from the contents existing in the external service 10.
  • the content selection unit 130 sets only the information sent from the user situation analysis unit 120 without setting a search condition.
  • the search condition may be set by combining the information sent from the user situation analysis unit 120 and the information stored in the external service 10.
  • the external service 10 may hold a history of what content each user is using.
  • Information held by the external service 10 may include, for example, the user's age, gender, place of residence, customs, and the like.
  • the content activation unit 150 reads the content selected by the content selection unit 130 as described above from the storage unit 140 and activates it. Therefore, regardless of the user's intention, the content activation unit 150 reads the content selected by the content selection unit 130 from the storage unit 140 and activates it.
  • the user expresses the intention of the user's action to the device by explicitly selecting and starting the content by himself / herself.
  • the user needs to clarify in advance in advance what content the will of his / her action can be realized. For this reason, the user has completed preparations such as download, installation, and service registration for the necessary content.
  • the user has already completed the payment processing of the fee necessary for using the content.
  • the content activation unit 150 reads out the content selected by the content selection unit 130 from the storage unit 140 and activates it. The payment process cannot be performed without confirmation from the user.
  • the content activation unit 150 sets a condition for generating a fee for the content according to the usage history of the content. Change.
  • the usage history of the content includes the usage amount of the content and the degree of achievement up to the target value set for the content.
  • Content usage includes content usage distance, content usage time, and the like.
  • the content execution unit 160 that executes the content activated by the content activation unit 150 acquires the user situation from the user situation analysis unit 120.
  • the content activation unit 150 compares the user status sent from the user status analysis unit 120 with the target value set for the content, If the status reaches the target value, the content activation unit 150 performs content usage fee payment processing. Then, the content activation unit 150 determines whether the activated content is the content selected by the content selection unit 130 based on the user's situation and the target value that is explicitly selected by the user. To change.
  • the payment processing for the running application is not performed when the content activation unit 150 activates the running application.
  • the usage distance of the content is specified as a condition for generating a charge for the content, and is set to be paid when the user runs 5 km or more, for example.
  • the content activation unit 150 executes a payment process for the running application.
  • the content activation unit 150 does not execute the fee payment process for the running application.
  • the fee payment processing for the book review application is not performed when the content activation unit 150 activates the book review application. I will not.
  • the usage amount of content is specified as a condition for generating a fee for the content. For example, when a user displays a book review of three or more books, the book review application is set to be paid. It shall be.
  • the content activation unit 150 executes a fee payment process for the book review application.
  • the content activation unit 150 does not execute a fee payment process for the book review application.
  • the fee payment processing for the map application is not performed when the content activation unit 150 activates the map application.
  • This map application is set so that the degree of achievement to the target value set for the content is specified as a condition for payment of the fee for the content, for example, the fee is paid when the user arrives at the destination It is assumed that
  • the content activation unit 150 executes a payment process for the map application.
  • the content activation unit 150 does not execute a fee payment process for the map application.
  • the content activation unit 150 determines whether or not the user's situation has reached the usage amount of the content set in advance in the content or the achievement level to the target value set in the content. Can be executed. Then, the content activation unit 150 sets the target between the case where the activated content is the content selected by the content selection unit 130 based on the user's situation and the case where the content is explicitly selected by the user. Change.
  • the target is the number of times of recognition, the number of speech recognition processes and the content of speech in the case of voice recognition, the number of times of prescribed action in the case of action recognition (golf swing number, punch number, suspension number, etc.) It can be set as a goal.
  • the content usage time can be set as a target.
  • a range (whether it is within a specified range) can be set as a target.
  • the content activation unit 150 may notify the user through the output device 170 that, when a fee-based content is activated, the fee may be paid when the content fee payment target is approached.
  • the content activation unit 150 may output, for example, a voice message “You will be charged for another ⁇ minutes” through the output device 170. Further, when the content fee payment target is approached, the content activation unit 150 may output through the output device 170 by vibration, for example. The content activation unit 150 may increase the vibration amount or shorten the vibration interval as it approaches the target of payment for the content fee.
  • the content activation unit 150 may output the content through the output device 170 by, for example, a dialog or a display on the screen.
  • FIG. 16 is an explanatory diagram showing an example of a user interface 178 that presents to the user that the content payment target is being approached by the dialog.
  • FIG. 17 is an explanatory diagram showing an example of a user interface 179 that presents to the user that the content fee payment target is approaching by display on the screen.
  • stimuli such as electrical stimuli
  • Animation blinks on screen, notification slides in, etc.
  • light flickers or a combination of these (sound and vibration, sound and stimulus, screen display and vibration) , Etc.).
  • how much the difference from the target is to be notified to the user may be set for each content, or an initial value may be set in advance in the information processing apparatus 100.
  • the content activation unit 150 executes content fee payment processing when the user removes the information processing apparatus 100 or when a situation opposite to the condition for automatically activating the content occurs. It is good also as a timing to do.
  • the content activation unit 150 executes a payment process for the content when the user's pulse decreases. May be. Further, for example, when a certain paid content is activated when the user starts crying, when the user stops crying, the content activation unit 150 may execute a fee payment process for the content.
  • the content activation unit 150 may set the timing of executing the content fee payment processing when the user tries to continue using the content or expand the range of the functions of the content used by the user. .
  • the content activation unit 150 may execute a fee payment process for the running application when the user stops and tries to check past statistics using the running application.
  • the content activation unit 150 reads the content selected by the content selection unit 130 as described above from the storage unit 140 and activates it.
  • the content selection unit 130 saves in the storage unit 140 that the selected content has been activated by the content activation unit 150. .
  • the content activation unit 150 By storing in the storage unit 140 that the content selected by the content selection unit 130 has been activated by the content activation unit 150, the content activation unit 150 is activated by the user's explicit selection operation thereafter, and When payment for the content is required, it can be shown to the user that payment for the content is required.
  • the content selection unit 130 automatically selects a paying transfer guidance application according to the setting of the driving. Assume that the content activation unit 150 automatically activates the transfer guidance application. At this point in time, due to an emergency situation where the train operation was postponed due to a personal injury, no fees were paid for this transit guidance application. However, after that, when the user explicitly activates the same transfer guidance application, the content activation unit 150 presents that it is necessary to pay a fee for using the transfer guidance application. The user can know from the presentation of the content activation unit 150 that a fee is required to use the transfer guidance application.
  • the content selection unit 130 selects a paid event application, and the content activation unit 150 Suppose that the event application is automatically started. At this point, no fee was paid for this event application. However, when the user explicitly starts the same event application after that, the content activation unit 150 needs to pay a fee for using the event application. Present that. The user can know that a fee is required to use the event application.
  • the content selection unit 130 selects a paid running application and the content activation unit 150 automatically activates the running application when the user having the information processing apparatus 100 starts running.
  • the payment for the running application was not paid, but when the user explicitly starts the same running application after that, the content activation unit 150 needs to pay the fee for using the running application. Present that. The user can know that the use of the running application requires payment.
  • triggers for automatic content activation by the content activation unit 150 include when the user performs a specific action, based on the user's habits, based on the user's emotions, based on the time, If based, etc.
  • cases where a user performs a specific action include a case where it is detected that the user speaks by voice recognition processing, or a case where the user walks, runs, sits, eats, plays sports by the action recognition processing. There may be a case where an action such as being detected is detected.
  • Examples of user habits include wake up, sleeping, eating, commuting or attending school, commuting or attending school, with a lover or family There may be.
  • the user may be in a tense state, sad or angry.
  • time there may be a user's schedule or an event date and time.
  • the position it may be in a predetermined position, within a predetermined range from a predetermined position, or in a predetermined country or city.
  • triggers for automatic content activation by the content activation unit 150 are not limited to those described here.
  • the content activation unit 150 needs to pay the user for the content However, regardless of the user's explicit selection operation and automatic activation depending on the user's situation, the user is paid for the content at the predetermined multiple times after the activation. You may indicate that it is necessary.
  • the content selection unit 130 selects a paid running application, and the content activation unit 150 automatically activates the running application.
  • the content activation unit 150 presents that payment of a fee is required to use the running application.
  • the content activation unit 150 activates the content selected by the content selection unit 130 according to the user's situation.
  • the content selected by the content selection unit 130 according to the user's situation and activated by the content activation unit 150 may be content that does not match the user's intention.
  • the content activation unit 150 determines whether the activation is not intended by the user when the content ends.
  • the content activation unit 150 determines whether it is an explicit termination, and causes the storage unit 140 to store the activated content, the status (context) of the user at the time of activation, and unintentional activation.
  • the content selection part 130 can suppress selecting the content unsuitable for a user's intention by acquiring each said information from the memory
  • the content selection unit 130 may determine whether the content is expected by the user based on the time from when the content is activated until it is terminated by the user. For example, it is assumed that when the user starts running, the content selection unit 130 selects a running application, and the content activation unit 150 activates the running application. However, the running application was not the application that the user expected, and was terminated by the user within a predetermined time. The content selection unit 130 excludes the running application from the options when the user starts running next time. In this way, the content selection unit 130 selects content that does not match the user's intention by determining whether the content is expected by the user from the time it is activated until it is terminated by the user. Can be suppressed.
  • the content selection unit 130 may determine whether the content is expected by the user based on the user's determination on the activated content. For example, it is assumed that when the user starts running, the content selection unit 130 selects a running application, and the content activation unit 150 activates the running application. Then, the content activation unit 150 causes the user to input an evaluation for the running application when the user ends the running and ends the running application. If the user expects the running application, the content selection unit 130 includes the running application as an option when the user starts running next time. On the other hand, if the user does not expect the running application, the content selection unit 130 excludes the running application from the options when the user next starts running. Thus, by determining whether the content is expected by the user from the evaluation input by the user, the content selection unit 130 can suppress the selection of content that does not match the user's intention.
  • the content selection unit 130 may determine whether the content is expected by the user based on the usage amount of the content from when the content is activated until it is terminated by the user. For example, it is assumed that when the user starts running, the content selection unit 130 selects a running application, and the content activation unit 150 activates the running application. However, the user finished running without running too far. The content selection unit 130 determines that the application is not the application that the user expected, and when the user next starts running, the running application is excluded from the options. In this way, the content selection unit 130 selects the content that does not match the user's intention by determining whether the content is expected by the user based on the usage amount of the content from when the content is activated until it is terminated by the user. Can be suppressed.
  • Other factors for determining whether or not the content is expected by the user may include user emotions and user behaviors after the content is activated.
  • user emotions may include negative emotions such as anger and anxiety.
  • user behavior include negative voices such as a rough voice, tongue-struck, “different”, “not that”, shaking head, waving hand, finger or hand There may be negative actions such as crossing.
  • the content selection unit 130 may select a plurality of contents.
  • the content activation unit 150 may activate a plurality of contents selected by the content selection unit 130.
  • the content selection unit 130 may generate content activation order information, and the content activation unit 150 reads content from the storage unit 140 based on the content activation order generated by the content selection unit 130.
  • the content may be activated.
  • the content activation unit 150 may delete the content from the storage unit 140.
  • FIG. 18 is a flowchart illustrating an operation example of the content activation unit 150 included in the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 18 shows an operation example of the content activation unit 150 when a content is read from the storage unit 140 based on the content activation order generated by the content selection unit 130 and a plurality of content items are activated.
  • an operation example of the content activation unit 150 will be described with reference to FIG.
  • the content activation unit 150 receives a list of content to be activated and the content activation order from the content selection unit 130 when activating a plurality of contents (step S141).
  • step S141 the content activation unit 150 receives a list of content to be activated and a content activation order from the content selection unit 130. Based on the content list to be activated and the content activation order, the storage unit The content is read from 140, and the first content is activated (step S142).
  • the content activation unit 150 determines whether the user has terminated the content as unintentional content (step S143). As a result of the determination in step S143, when the user ends the content because the activated content is content not intended by the user (step S143, Yes), the content activation unit 150 sends the content to the storage unit 140 so as to delete the content. Notification is made (step S144). On the other hand, if it is determined in step S143 that the activated content is not intended by the user and the user has not terminated the content (No in step S143), the content activation unit 150 activates the content in step S142. Return to processing.
  • the content activation unit 150 can read the content from the storage unit 140 based on the content activation order generated by the content selection unit 130 and activate the content by executing the processing illustrated in FIG. In addition, the content activation unit 150 can delete the content from the storage unit 140 when the content that the user does not intend is activated by executing the processing illustrated in FIG. 16. After the content activation unit 150 automatically deletes content not intended by the user, when the content is selected again by the content selection unit 130, the content selection unit 130 acquires the content from the external service 10 Just do it.
  • the content activation unit 150 performs processing for notifying the storage unit 140 to delete the content.
  • the present disclosure is not limited to such examples. Whether the content activation unit 150 automatically deletes content not intended by the user may be based on the user's setting or based on the free capacity of the storage unit 140. For example, if the free space in the storage unit 140 is reduced to a predetermined value or less or a predetermined rate or less, the content activation unit 150 may automatically delete content not intended by the user.
  • the content activation unit 150 may read content from the storage unit 140 based on the content activation order generated by the content selection unit 130 and activate a plurality of contents at the same time. The content may be activated sequentially to be executed.
  • the content starting unit 150 sequentially starts the contents so that a plurality of contents can be simultaneously executed by the content executing unit 160
  • the content starting unit 150 reads the contents from the storage unit 140 by the number of contents that can be executed simultaneously by the information processing apparatus 100, and sequentially It may be activated.
  • the number of contents that can be simultaneously executed by the information processing apparatus 100 can be set based on, for example, the content execution performance in the content execution unit 160.
  • the content activation unit 150 Even when content is sequentially activated so that a plurality of contents are simultaneously executed by the content execution unit 160, if the user ends the content because the activated content is not intended by the user, the content activation unit 150 The storage unit 140 may be notified to delete the content. Whether the content activation unit 150 automatically deletes content not intended by the user may be based on the user's setting or based on the free capacity of the storage unit 140.
  • the content automatically activated by the content activation unit 150 may not be intended by the user. However, there is a possibility that the user may want to use the content a little later.
  • the information processing apparatus 100 may store the activation history of the content automatically activated by the content activation unit 150 in the storage unit 140.
  • the information processing apparatus 100 according to the present embodiment stores, in addition to the content activation history automatically activated by the content activation unit 150, the user status when the content activation unit 150 automatically activates the content. You may memorize. By referring to the content activation history and past user situations, the user can select the content to be activated from the content that the content activation unit 150 has activated in the past.
  • FIGS. 19 to 21 are explanatory diagrams showing examples of user interfaces for presenting the activation history of the content automatically activated by the content activation unit 150 and the user status.
  • the user interface shown in FIGS. 19 to 21 is displayed on the output device 170, for example.
  • the user can operate the user interface shown in FIGS. 19 to 21 using the input device 110.
  • FIG. 19 shows an example of a user interface 180 for presenting a list of content categories automatically activated by the content activation unit 150 to the user.
  • the user can select a content category automatically activated by the content activation unit 150 by operating the user interface 180 displayed as shown in FIG.
  • FIG. 20 shows an example of a user interface 181 for presenting a list of contents automatically activated by the content activation unit 150 to the user.
  • the user selects “SNS” in the user interface 180 of FIG. It is an example of the user interface 181 that is presented to the user in the case of the failure.
  • the user can select the content automatically activated by the content activation unit 150 by operating the user interface 181 displayed as shown in FIG.
  • FIG. 21 shows an example of a user interface 182 for presenting a list of user situations (contexts) when the content activation unit 150 automatically activates content to the user.
  • the user can select the user's situation when the content activation unit 150 automatically activates the content by operating the user interface 182 displayed as shown in FIG.
  • the user can know what content has been automatically activated in the past by viewing the history output to the output device 170 as shown in FIGS. Then, by operating the user interface output to the output device 170 as shown in FIGS. 19 to 21, the user can select content to be used and cause the content activation unit 150 to activate the content.
  • the content activation unit 150 When the content activation unit 150 activates the content, even if the content selection unit 130 automatically activates the content selected and when the user explicitly activates the content activation unit 150, the content activation unit 150 may change various conditions for the content. good.
  • the content activation unit 150 may change the content usage fee depending on whether the content selected by the content selection unit 130 is automatically activated or when the user explicitly activates the content.
  • the content activation unit 150 automatically activates the content selected by the content selection unit 130, the content may not be intended by the user.
  • the content activation unit 150 when the content activation unit 150 is automatically activated for paid content and the content is not intended by the user, the content activation unit 150 explicitly activates the content by the user. It is also possible to loosen the conditions for generating the payment for the content, or to lower the amount of the charged fee than the case where the fee is charged.
  • the user explicitly activates the same content after the automatic activation by the content activation unit 150 the difference between the usage fee when the user explicitly starts and the usage fee when the user starts automatically is calculated. May be charged.
  • the content activation unit 150 may change the function of the content between when the content selected by the content selection unit 130 is automatically activated and when the user explicitly activates the content.
  • the content activation unit 150 may set the usage fee when the content selected by the content selection unit 130 is automatically activated to be lower than the usage fee when the user explicitly activates the content.
  • the function of the content may be limited more than when the user explicitly activates it. For example, when the content activation unit 150 activates a running application, the content activation unit 150 is activated so that all functions can be executed when the user explicitly activates, but a part of the content activation unit 150 is automatically activated. It may be activated so that the above functions cannot be executed.
  • FIG. 22 is a flowchart illustrating an operation example of the content activation unit 150 included in the information processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 22 shows an example of the operation of the content activation unit 150 when changing the usage fee payment processing for content depending on whether the content is automatically activated or the content is explicitly activated by the user. It is.
  • an operation example of the content activation unit 150 will be described with reference to FIG.
  • the content activation unit 150 first determines whether the content is automatically activated or whether the user has explicitly activated (manual activation) (step S151). If it is determined in step S151 that the content is automatically activated, the content activation unit 150 subsequently determines whether or not the content is activated for the first time (first activation) (step S152). Whether or not the content is activated for the first time may be determined by referring to an activation history stored in the storage unit 140, for example.
  • step S152 If the content is activated for the first time (step S152, Yes), the content activation unit 150 performs a usage fee payment process for the content with the automatically charged amount for the first activation (step S153). On the other hand, if the content is not activated for the first time (No in step S152), the content activation unit 150 performs a usage fee payment process for the difference between the regular charge amount and the charge amount for the first activation automatically (step S152). S154).
  • step S151 determines whether the content is activated for the first time (first activation) (step S155). Whether or not the content is activated for the first time may be determined by referring to an activation history stored in the storage unit 140, for example.
  • step S155 If the content is activated for the first time (step S155, Yes), the content activation unit 150 performs usage fee payment processing for the content with a regular charge amount (step S156). On the other hand, if the content is not activated for the first time (step S155, No), the content activation unit 150 determines that the regular charge amount (if only the charge amount for the automatic activation for the first time is paid) and the automatic activation for the first time. The usage fee that is the difference from the charged amount is paid (step S157).
  • the content usage fee payment process shown in FIG. 22 may be automatically executed by the content activation unit 150. However, when the content activation unit 150 requests the user to execute it and the user permits It is also possible to execute it.
  • the content activation unit 150 executes a series of operations shown in FIG. 22 to perform usage fee payment processing for content when the content is automatically activated and when the content is explicitly activated by the user. Can be changed.
  • the content activation unit 150 executes the content usage fee payment process, at least one of the following (1) to (3) occurs.
  • (2) The usable range of the function originally possessed by the content is expanded.
  • the storage unit 140 stores information related to the content body and the content.
  • Information related to the content includes a content activation history, a content validity period, a content activation possible position, and the like. These pieces of information may be recorded when the content is stored in the storage unit 140. It may be recorded when the content is started by the unit 150.
  • the content activation unit 150 may automatically delete the content stored in the storage unit 140 based on the information regarding the content stored in the storage unit 140. In addition, the content activation unit 150 may automatically delete the content if the content that has been operating satisfies a predetermined deletion condition.
  • the content activation unit 150 may delete the content from the storage unit 140.
  • the content activation unit 150 may delete the application from the storage unit 140 when the event ends.
  • the content activation unit 150 may delete the application from the storage unit 140 when the user leaves the bookstore. Further, for example, if the application is usable in a specific city, country, and range, the content activation unit 150 may delete the application from the storage unit 140 when the user leaves the specific city, country, or range. Good.
  • the content activation unit 150 stores the application of the competing other store in the storage unit. It may be deleted from 140.
  • the content activation unit 150 is stored in the storage unit 140 based on information about the content stored in the storage unit 140 when the free space of the storage unit 140 becomes a predetermined amount or a predetermined ratio or less.
  • the content may be automatically deleted.
  • the information processing apparatus 100 may perform the analysis of the user situation, and the content selection may be performed by a server apparatus that provides the external service 10. Further, the information processing apparatus 100 may transmit data used for analyzing the user situation to the external service 10, and the server apparatus that provides the external service 10 may execute analysis of the user situation and selection of content. .
  • Example 1 When the user wakes up in the morning and leaves the house for commuting, the information processing apparatus 100 automatically activates the news application. The user was able to check the latest news with a news application while commuting.
  • Example 2 The user arrives at the nearest station, but it seems that the train that I always ride is not moving due to personal injury. Then, the information processing apparatus 100 automatically starts the route guidance application. The user can search the route guidance application and search for a detour route for work.
  • Example 3 The user was attending the meeting on the go.
  • the information processing apparatus 100 automatically activates mail application at the timing when the conference ends. The user did not miss an important contact from her because the mail application was receiving mail from her.
  • Example 4 In order for the user to return from the outside to the company, the information processing apparatus 100 manually started the route guidance application that was automatically started in the morning. Then, since it is a manual activation, the information processing apparatus 100 is displayed to pay the usage fee for the route guidance application. The user paid the usage fee for the route guidance application and used the route guidance application.
  • Example 5 A user stopped by a rental video store on the way home from the company.
  • the information processing apparatus 100 automatically activates a paid movie review application in response to the user entering the rental video store, and displays a DVD review taken by the user. However, because she called her, the user immediately exited the movie review application and left the rental video store. Therefore, the payment of the fee to the movie review application started by the information processing apparatus 100 was not made.
  • Example 6 The user decides to get up early and start running for a diet on the morning of a holiday.
  • the information processing apparatus 100 can automatically start a paid running application and present the pace and distance to the user.
  • the information processing apparatus 100 notifies the possibility of payment of a fee for the running application.
  • the user liked the running application and continued to run.
  • the running application was terminated and the usage fee for the running application was paid.
  • Example 7 The user was meeting her at noon on a holiday. At lunch time, the information processing apparatus 100 activates the restaurant guide application. Users were able to find a reputable restaurant near the meeting place using the Strand Guide application.
  • Example 8 The user had lunch with her and moved near the cinema to watch a movie. Then, the information processing apparatus 100 automatically starts the movie review application. The user views the movie review application and decides to watch a movie that is popular with other users.
  • Example 9 Users watched a movie with her and then went into a café and talked about traveling to Guam during the summer vacation. Then, the information processing apparatus 100 analyzes the content of the user's conversation and automatically starts the travel guide application. The user was able to talk hurt with her while watching Guam's tourist information on the travel guide application.
  • Example 10 When the user came home after dating with her and watched TV, Guam's sightseeing CM flowed. Then, the information processing apparatus 100 automatically starts the travel guide application in response to the Guam tourism CM being broadcast on the TV. However, the application was different from what the user used at the cafe at noon. Therefore, the user operates the information processing apparatus 100 to display the usage history, selects and starts the travel guide application used in the daytime.
  • the information processing apparatus 100 can automatically select and execute any content in various scenes.
  • the use cases that can be considered by using the information processing apparatus 100 according to an embodiment of the present disclosure are not limited to the ten examples described above.
  • FIG. 23 is a block diagram illustrating a hardware configuration example of the information processing apparatus 100 according to the embodiment of the present disclosure.
  • Each of the algorithms described above can be executed using, for example, the hardware configuration of the information processing apparatus illustrated in FIG. That is, the processing of each algorithm is realized by controlling the hardware shown in FIG. 23 using a computer program.
  • FIG. 23 the form of hardware shown in FIG. 23 is arbitrary.
  • PHS is an abbreviation for Personal Handy-phone System.
  • PDA is an abbreviation for Personal Digital Assistant.
  • this hardware mainly includes a CPU 902, a ROM 904, a RAM 906, a host bus 908, and a bridge 910. Further, this hardware includes an external bus 912, an interface 914, an input unit 916, an output unit 918, a storage unit 920, a drive 922, a connection port 924, and a communication unit 926.
  • the CPU is an abbreviation for Central Processing Unit.
  • the ROM is an abbreviation for Read Only Memory.
  • the RAM is an abbreviation for Random Access Memory.
  • the CPU 902 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation of each component or a part thereof based on various programs recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928.
  • the ROM 904 is a means for storing a program read by the CPU 902, data used for calculation, and the like.
  • a program read by the CPU 902 various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.
  • a host bus 908 capable of high-speed data transmission.
  • the host bus 908 is connected to an external bus 912 having a relatively low data transmission speed via a bridge 910, for example.
  • a bridge 910 for example.
  • the input unit 916 for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, or the like is used.
  • a remote controller capable of transmitting a control signal using infrared rays or other radio waves may be used.
  • a display device such as a CRT, LCD, PDP, or ELD
  • an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile, etc.
  • the above CRT is an abbreviation of Cathode Ray Tube.
  • the LCD is an abbreviation for Liquid Crystal Display.
  • the PDP is an abbreviation for Plasma Display Panel.
  • the above ELD is an abbreviation for Electro-Luminescence Display.
  • the storage unit 920 is a device for storing various data.
  • a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.
  • HDD hard disk drive
  • the above HDD is an abbreviation for Hard Disk Drive.
  • the drive 922 is a device that reads information recorded on a removable recording medium 928 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 928.
  • the removable recording medium 928 is, for example, a DVD medium, a Blu-ray medium, an HD DVD medium, various semiconductor storage media, or the like.
  • the removable recording medium 928 may be, for example, an IC card on which a non-contact type IC chip is mounted, an electronic device, or the like.
  • the above IC is an abbreviation for Integrated Circuit.
  • the connection port 924 is a port for connecting an external connection device 930 such as a USB port, an IEEE 1394 port, a SCSI, an RS-232C port, or an optical audio terminal.
  • the external connection device 930 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.
  • the USB is an abbreviation for Universal Serial Bus.
  • the SCSI is an abbreviation for Small Computer System Interface.
  • the communication unit 926 is a communication device for connecting to the network 932.
  • a wired or wireless LAN for example, a wired or wireless LAN, Bluetooth (registered trademark), or a WUSB communication card, an optical communication router, an ADSL router, or a contact Or a device for non-contact communication.
  • the network 932 connected to the communication unit 926 is configured by a wired or wireless network, such as the Internet, home LAN, infrared communication, visible light communication, broadcast, or satellite communication.
  • the above LAN is an abbreviation for Local Area Network.
  • the WUSB is an abbreviation for Wireless USB.
  • the above ADSL is an abbreviation for Asymmetric Digital Subscriber Line.
  • information processing that can analyze a user situation from input data and select content that matches the user situation based on the user situation
  • An apparatus 100 is provided.
  • the information processing apparatus 100 is provided that can change the operation on the content that matches the user's situation according to the presence or absence of the content in the user device.
  • the information processing apparatus 100 reads and starts the content if content that matches the user's situation is stored, and if the content that matches the user's situation is not saved, The content is downloaded from the external service 10 and activated. That is, the information processing apparatus 100 according to an embodiment of the present disclosure can change the operation on content that matches the user's situation according to the presence or absence of content in the user device.
  • each step in the processing executed by each device in this specification does not necessarily have to be processed in chronological order in the order described as a sequence diagram or flowchart.
  • each step in the processing executed by each device may be processed in an order different from the order described as the flowchart, or may be processed in parallel.
  • each functional block shown in the functional block diagram used in the above description may be realized by a server device connected via a network such as the Internet.
  • the configuration of each functional block shown in the functional block diagram used in the above description may be realized by a single device or a system in which a plurality of devices cooperate.
  • a system in which a plurality of devices are linked may include, for example, a combination of a plurality of server devices, a combination of a server device and a terminal device, or the like.
  • the following configurations also belong to the technical scope of the present disclosure.
  • An information processing apparatus comprising a control unit that changes processing details of content to be processed.
  • the information processing apparatus according to (1) wherein the non-operation information of the user includes information related to the status of the user.
  • the content is application software, and the control unit includes a case where the content is specified based on information related to the user's situation and a case where the content is specified based on an explicit operation of the user.
  • the information processing apparatus according to (2) wherein different processing is performed on the content.
  • the information processing apparatus determines content specified based on user non-operation information in accordance with characteristics of the user apparatus.
  • the control unit changes display of content specified based on non-operation information of a user according to characteristics of the user apparatus.
  • the information processing apparatus varies content to be executed for each user apparatus when there are a plurality of the user apparatuses.
  • the control unit changes a condition for obtaining a right to use the content to be executed in accordance with a usage history of the content.
  • the information processing apparatus wherein a process for obtaining the right to use the information is executed.
  • the information processing apparatus according to any one of (1) to (18), wherein the control unit deletes the content based on the condition when the operated content satisfies a predetermined condition for automatic deletion.
  • the control unit is based on comparison information obtained by comparing information on content specified based on the non-operation information of the user and information on content stored in the user device used by the user.
  • the information processing apparatus according to any one of (1) to (19), wherein the processing content of the content specified based on the non-operation information of the user is changed.
  • External service 100 Information processing device 110: Input device 120: User situation analysis unit 130: Content selection unit 140: Storage unit 150: Content activation unit 160: Content execution unit 170: Output device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの状況に適合するコンテンツに対する動作を、ユーザ装置でのコンテンツの有無に応じて変化させることが可能な情報処理装置を提供する。 【解決手段】ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、に基づいて、該ユーザの非操作情報に基づいて特定されるコンテンツの処理内容を変化させる制御部を備える、情報処理装置が提供される。

Description

情報処理装置、情報処理方法及びコンピュータプログラム
 本開示は、情報処理装置、情報処理方法及びコンピュータプログラムに関する。
 デバイス上でコンテンツ(楽曲、画像、映像、アプリケーションその他のデジタルデータで提供されるもののことをいう)が選択される際は、ユーザがデバイスを操作して明示的にコンテンツを選択していた。そして、その選択されたコンテンツに対する動作は、ユーザ自身がコンテンツを表示したり実行したりするデバイスに指示していた(例えば特許文献1等参照)。
特開2011-53790号公報
 コンテンツを実行するデバイスは近年多岐にわたり、高性能化が進むとともに小型化も進んでいる。そのようなデバイスに対しては、ユーザが明示的にコンテンツの表示や実行を指示するのでは無く、ユーザの状況に適合するコンテンツを自動的に選択するとともに、そのコンテンツに対する動作を、ユーザ装置でのコンテンツの有無に応じて変化させることが求められる。
 そこで本開示では、ユーザの状況に適合するコンテンツに対する動作を、ユーザ装置でのコンテンツの有無に応じて変化させることが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提案する。
 本開示によれば、ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、に基づいて、該ユーザの非操作情報に基づいて特定されるコンテンツの処理内容を変化させる制御部を備える、情報処理装置が提供される。
 また本開示によれば、ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、に基づいて、該ユーザの非操作情報に基づいて特定されるコンテンツの処理内容を変化させることを含む、情報処理方法が提供される。
 また本開示によれば、コンピュータに、ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、に基づいて、該ユーザの非操作情報に基づいて特定されるコンテンツの処理内容を変化させることを実行させる、コンピュータプログラムが提供される。
 以上説明したように本開示によれば、ユーザの状況に適合するコンテンツに対する動作を、ユーザ装置でのコンテンツの有無に応じて変化させることが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提供することが出来る。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態にかかる情報処理装置100の機能構成例を示す説明図である。 本開示の一実施形態に係る情報処理装置100の動作例を示す流れ図である。 コンテンツ選択部130の動作例を示す流れ図である。 コンテンツ選択部130及び外部サービス10の動作例を示す流れ図である。 コンテンツ選択部130及び外部サービス10の動作例を示す流れ図である。 ユーザインタフェースの例を示す説明図である。 ユーザインタフェースの例を示す説明図である。 ユーザインタフェースの例を示す説明図である。 コンテンツ選択部130の動作例を示す流れ図である。 コンテンツ選択部130及び外部サービス10の動作例を示す流れ図である。 コンテンツ選択部130及び外部サービス10の動作例を示す流れ図である。 ユーザインタフェースの例を示す説明図である。 ユーザインタフェースの例を示す説明図である。 ユーザインタフェースの例を示す説明図である。 ユーザインタフェースの例を示す説明図である。 ユーザインタフェースの例を示す説明図である。 ユーザインタフェースの例を示す説明図である。 コンテンツ起動部150の動作例を示す流れ図である。 コンテンツ起動部150の動作例を示す流れ図である。 コンテンツ起動部150の動作例を示す流れ図である。 コンテンツ起動部150の動作例を示す流れ図である。 コンテンツ起動部150の動作例を示す流れ図である。 ハードウェア構成例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の一実施形態
  1.1.背景
  1.2.機能構成例
  1.3.動作例
 2.ハードウェア構成例
 3.まとめ
 <1.本開示の一実施形態>
 [1.1.背景]
 本開示の実施の形態について詳細に説明する前に、まず本開示の実施の形態の背景について説明する。
 デバイス上でコンテンツ(以下では、楽曲、画像、映像、テキスト、アプリケーションその他のデジタルデータをいう)が選択される際は、ユーザがデバイスを操作して明示的にコンテンツを選択していた。そして、その選択されたコンテンツに対する動作は、ユーザ自身がコンテンツを表示したり実行したりするデバイスに指示していた。
 具体的には、例えばユーザがデバイスにアプリケーションを実行させようとする場合は、ユーザは、デバイスにインストールされているアプリケーションの中から目的のアプリケーションを探し出し、目的のアプリケーションがインストールされていなければ、外部のサーバからデバイスへダウンロードするという行為を行っていた。
 ユーザのデバイスに対するこのような行為は、ユーザがデバイスに対してユーザの行動意思を示すものであるが、その一方で、ユーザがデバイスに対してユーザの行動意思を示すためには、ユーザが予め自分の行動意思がどのコンテンツで実現出来るのかを、ユーザ自身が予め把握しておかなければならない。
 コンテンツの量は日々増加の一途を辿っている。ユーザは、自分が使用するデバイスへ次々とコンテンツを追加していくと、デバイスに保存されたコンテンツの中から目的のコンテンツを探し出すのが困難になる。また、ユーザがまだデバイスに保存していないコンテンツの中に、ユーザの目的を達成するコンテンツが存在する場合もあり、そのようなコンテンツをユーザが探し出すのは困難であり、また非効率的でもある。
 そこで本件開示者は、上述した背景に鑑みて、ユーザが明示的に操作した結果として得られる情報では無く、ユーザの操作に依らない情報(ユーザの非操作情報)を取得し、そのユーザの非操作情報に適合するコンテンツを探し出して、そのコンテンツを実行する技術について鋭意検討を行った。その結果、本件開示者は、ユーザの非操作情報を取得して、そのユーザの非操作情報に適合するコンテンツを探し出すと共に、そのコンテンツに対する動作を、ユーザが使用するデバイス(ユーザ装置)での当該コンテンツの有無に応じて変化させる技術を考案するに至った。
 以上、本開示の実施の形態の背景について説明した。続いて、本開示の実施の形態について詳細に説明する。
 [1.2.機能構成例]
 まず、本開示の一実施形態にかかる情報処理装置100の機能構成例を説明する。図1は、本開示の一実施形態にかかる情報処理装置100の機能構成例を示す説明図である。以下、図1を用いて本開示の一実施形態にかかる情報処理装置100の機能構成例について説明する。
 図1に示した情報処理装置100は、例えば、スマートフォン(高機能携帯電話)、ウェアラブルデバイス(利用者の身体に装着されることを目的としたコンピュータデバイスをいう)などであり、情報処理装置100のユーザの状況を取得して、そのユーザの状況に適合するコンテンツを探し出して、そのコンテンツを実行することを可能にした装置である。
 図1に示したように、本開示の一実施形態にかかる情報処理装置100は、入力装置110と、ユーザ状況解析部120と、コンテンツ選択部130と、記憶部140と、コンテンツ起動部150と、コンテンツ実行部160と、出力装置170と、を含んで構成される。
 入力装置110は、ユーザからの入力を受け付ける各種インプットデバイスであり、例えばキーボード、マウス、タッチパネルなどで構成され得る。
 また各種センシングデバイスも入力装置110として機能し得る。そのようなセンシングデバイスとして、例えばGPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)、BDS(BeiDou Navigation Satellite System)、iBeacon等の現在位置を取得するセンサ、カメラ、深度情報付きカメラ、人感センサ、マイク等が含まれ得る。
 このようなセンシングデバイスは、装置にかかる加速度や角速度、方位、照度、温度、気圧などを検出する。上記の各種センシングデバイスは、例えばセンシングデバイスを含む装置がユーザによって携帯または装着されている場合に、各種情報をユーザに関する情報、例えばユーザの運動や向きなどを示す情報として検出することができる。また、センシングデバイスは、他にも、脈拍、発汗、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサを含んでもよい。
 入力装置110は、ユーザから入力されたり、センシングによって生成されたりする情報をユーザ状況解析部120に出力する。
 ユーザ状況解析部120は、入力装置110から送られてくる情報に基づき、ユーザのその時点での状況(以下単にユーザの状況とも称する)を解析する。ユーザ状況解析部120は、具体的には、行動認識、音声認識、画像認識、機械学習などの技術を用いて、例えば、ユーザの行動、位置、感情、習慣などのユーザの状況を含んだユーザの入力装置110に対する操作に依らない非操作情報を解析する。そしてユーザ状況解析部120は、ユーザの状況の解析結果を含んだユーザの非操作情報をコンテンツ選択部130及びコンテンツ実行部160に送る。
 ユーザ状況解析部120によるユーザの状況の解析は、例えば以下のように行われる。
 ユーザ状況解析部120は、例えば、ユーザの行動を、加速度、傾きなどセンサで測定した身体の動きの変化の値から認識する。ユーザ状況解析部120は、例えば、ユーザの位置を、GPS、iBeaconなどから測定した緯度経度の値や、所定の場所に近づいたかどうか等の位置測位技術を利用して判定して認識する。
 ユーザ状況解析部120は、例えば、ユーザの感情を、発汗、心拍数、血流などの身体の生体状況などを測定することで認識する。ユーザ状況解析部120は、例えば、ユーザの習慣を、行動や位置や感情などの認識の記録データ、予定表やメールなどのサービス内データ、連絡帳やメモ帳などのアプリ内データなどを機械学習技術により解析を行って認識する。
 コンテンツ選択部130は、ユーザの状況の解析結果を含んだユーザの非操作情報に基づいて特定されるコンテンツの情報と、記憶部140に保存されているコンテンツに関する情報とを比較した比較情報を生成する。そしてコンテンツ選択部130は、比較情報に基づいて、ユーザの非操作情報に基づいて特定されるコンテンツに対する動作を変化させる。例えば、コンテンツ選択部130は、ユーザの非操作情報に基づいて特定されるコンテンツが記憶部140に保存されているものであれば、そのコンテンツを起動するようにコンテンツ起動部150に指示し、保存されていないものであれば、そのコンテンツを外部サービス10から取得する。従ってコンテンツ選択部130は、本開示の制御部の一例として機能する。
 コンテンツ選択部130は、ユーザ状況解析部120によるユーザの非操作情報を取得すると、取得したユーザの非操作情報に基づいて選択するコンテンツを判定する。コンテンツ選択部130は、選択するコンテンツを判定する際に、記憶部140に保存されているコンテンツや、外部サービス10が提供するコンテンツの中から選択するコンテンツを判定する。コンテンツ選択部130は、選択するコンテンツを判定すると、選択したコンテンツの情報をコンテンツ起動部150に送る。
 外部サービス10は、コンテンツを情報処理装置100へ提供するサービスであり、1つまたは複数のサーバ装置として構成されうる。なお、1つの外部サービスが全ての情報を記憶していなくてもよく、外部サービスがさらに別の外部サービスに対してコンテンツの検索を行ってもよい。
 記憶部140は、コンテンツ起動部150によって起動されるコンテンツが格納されるものであり、例えばフラッシュメモリ等の不揮発性メモリで構成され得る。記憶部140は、例えばコンテンツの実体や、コンテンツの格納場所の情報(例えばURL等)を記憶する。記憶部140は、コンテンツ選択部130から情報が保存される。記憶部140に保存された情報はコンテンツ選択部130やコンテンツ起動部150から参照される。また、記憶部140に記憶されたコンテンツは、必要に応じて削除され得る。
 コンテンツ起動部150は、コンテンツ選択部130で選択されたコンテンツ記憶部140から読み出して起動する。またコンテンツ起動部150は、コンテンツの終了時に、不要なデータの削除、コンテンツ起動の記録などの所定の終了処理を行う。またコンテンツ起動部150は、コンテンツの起動時や終了時に、必要に応じてコンテンツに課された料金の支払い処理も行う。
 コンテンツ起動部150の動作については後に詳述するが、簡単に説明すれば以下の通りである。コンテンツ起動部150は、コンテンツを記憶部140から読み出して起動する際に、そのコンテンツがユーザの状況に基づいてコンテンツ選択部130により選択された場合と、ユーザによって明示的に選択された場合とで、そのコンテンツに対する処理を変化させる。コンテンツ起動部150は、例えばコンテンツがユーザの状況に基づいてコンテンツ選択部130により選択された場合と、ユーザによって明示的に選択された場合と、使用可能時間や、コンテンツの使用権限を得るための処理(例えば使用用料金の支払い)が必要になるタイミングを変化させることができる。従って、コンテンツ起動部150は、本開示の制御部の一例としても機能しうる。
 コンテンツ実行部160は、コンテンツ起動部150がコンテンツを起動した結果生じるユーザインタフェース(UI)、音声、画像等を、出力装置170を通じてユーザへ提示する。コンテンツ実行部160は、コンテンツの実行の際には、必要に応じて外部のサーバとの間でデータの授受を実行する。
 出力装置170は、コンテンツ実行部160によって提示されるUI、音声、画像等をユーザへ提示するデバイスであり、例えばディスプレイ、スピーカ、バイブレータ等で構成される。
 本実施形態では、コンテンツとして、アプリケーション、静止画像データ、動画像データ、音声データ等が含まれるものとする。本実施形態では、「アプリケーション(アプリ)」は、デバイス上で動作して、所定の機能を実現するためのコンピュータプログラムをいう。また本実施形態では、「Webアプリケーション(Webアプリ)」は、インターネットなどのネットワークを介して使用するアプリケーションであり、ブラウザレイヤ上でWebサーバと協調して動作し、ブラウザレイヤ上で動作する言語(JavaScript、HTMLなど)で記述されるものをいう。
 なお、図1に示した情報処理装置100における入力装置110と、出力装置170とは、情報処理装置100とは別の装置としてもよい。
 本開示の一実施形態に係る情報処理装置100は、図1に示したような構成を有することで、ユーザの状況を取得して、そのユーザの状況に適合するコンテンツを探し出すと共に、そのコンテンツに対する動作を、ユーザが使用するデバイス(ユーザ装置)での当該コンテンツの有無に応じて変化させることを可能とする。
 以上、図1を用いて本開示の一実施形態に係る情報処理装置100の機能構成例について説明した。続いて、本開示の一実施形態に係る情報処理装置100の動作例について説明する。
 [1.3.動作例]
 まず、本開示の一実施形態に係る情報処理装置100の動作の概要について説明する。図2は、本開示の一実施形態に係る情報処理装置100の動作例を示す流れ図である。図2に示したのは、ユーザの状況に適合するコンテンツを探し出し、そのコンテンツを実行する際の情報処理装置100の動作例を示す流れ図である。以下、図2を用いて本開示の一実施形態に係る情報処理装置100の動作例について説明する。
 情報処理装置100が、ユーザの状況に適合するコンテンツを探し出し、そのコンテンツを実行しようとする場合、まずユーザの状況変化の発生を待つ(ステップS101)。そして情報処理装置100は、ユーザの状況が変化すると(ステップS102)、そのユーザ状況と合致したコンテンツを選択する(ステップS103)。
 情報処理装置100は、ユーザ状況と合致したコンテンツが見つかったかどうか判定し(ステップS104)、ユーザ状況と合致したコンテンツが見つからなければ(ステップS104、No)、ステップS101の、ユーザの状況変化の発生を待つ処理に戻る。一方ユーザ状況と合致したコンテンツが見つかれば(ステップS104、Yes)、情報処理装置100は、そのコンテンツが条件に合致するかどうか判定する(ステップS105)。コンテンツが条件に合致しなければ(ステップS105、No)、情報処理装置100は、ステップS101の、ユーザの状況変化の発生を待つ処理に戻る。一方コンテンツが条件に合致すれば(ステップS105、Yes)、続いて情報処理装置100は、コンテンツを起動し(ステップS106)、起動したコンテンツを実行する(ステップS107)。
 図2に示した一連の処理のうち、上記ステップS101、S102の処理は、例えばユーザ状況解析部120が実行し、上記ステップS103~ステップS105の処理は、例えばコンテンツ選択部130が実行し、上記ステップS106の処理は、例えばコンテンツ起動部150が実行し、上記ステップS107の処理は、例えばコンテンツ実行部160が実行する。
 そして情報処理装置100は、上記ステップS106において起動したコンテンツの処理の内容を、そのコンテンツがユーザによって明示的に選択された場合の処理の内容と異ならせることができる。具体的な処理については後述するが、情報処理装置100は、例えばコンテンツが上記ステップS103の処理によりユーザの状況に基づいて選択された場合と、ユーザによって明示的に選択された場合と、利用料金の支払いが必要になるタイミングを変化させることができる。
 以上、図2を用いて本開示の一実施形態に係る情報処理装置100の動作例について説明した。続いて、本開示の一実施形態に係る情報処理装置100の詳細な動作例について説明する。
 まず、コンテンツ選択部130の動作例について説明する。コンテンツ選択部130は、ユーザ状況解析部120から送られたユーザの状況の解析結果に基づき、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するものを検索する。コンテンツ選択部130が、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するものを検索することが出来るようにするためには、例えば、どのようなユーザの状況でコンテンツが起動されるべきかをコンテンツ内に記述しておくことが望ましい。
 図3は、本開示の一実施形態に係る情報処理装置100のコンテンツ選択部130の動作例を示す流れ図である。以下、図3を用いてコンテンツ選択部130の動作例について説明する。
 コンテンツ選択部130は、ユーザ状況解析部120からユーザ状況の情報を受け取ると(ステップS111)、記憶部140に保存されているコンテンツの一覧からコンテンツの起動条件を取得する(ステップS112)。
 続いてコンテンツ選択部130は、取得したコンテンツの起動条件と、ユーザ状況の情報とを比較して、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するものを検索する(ステップS113)。コンテンツ選択部130は、ステップS113の検索処理の結果、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つかったかどうか判定する(ステップS114)。
 ステップS114の判定の結果、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つかった場合は(ステップS114、Yes)、コンテンツ選択部130は、コンテンツ起動部150に対し、どのコンテンツを起動すべきかの情報を送る(ステップS115)。
 一方、ステップS114の判定の結果、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は(ステップS114、No)、コンテンツ選択部130は、コンテンツ起動部150に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送る(ステップS116)。
 コンテンツ選択部130は、図3に示した一連の動作を実行することで、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するものを選択することが出来る。なお、コンテンツ選択部130は、コンテンツを選択する際に、情報処理装置100の特性を考慮に入れてもよい。情報処理装置100の特性とは、例えば情報処理装置100の種類、情報処理装置100の用途、出力装置170が有しているデバイスの種類、出力装置170がディスプレイを有している場合における当該ディスプレイの画面サイズ等が含まれうる。情報処理装置100の種類としては、パーソナルコンピュータ、スマートフォン、ウェアラブル端末、ヘッドマウントディスプレイ等が考えられる。情報処理装置100の用途としては、例えば業務用、個人用などが考えられる。
 コンテンツ選択部130は、情報処理装置100を使用するユーザが複数人の場合であっても、情報処理装置100を使用するユーザが1人の場合と同様に、その複数のユーザの状況に合致したコンテンツを選択してもよい。
 図3に示した例では、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は、コンテンツ選択部130は、コンテンツ起動部150に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送っていた。次に示す例では、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は、コンテンツ選択部130は、外部サービス10からユーザの状況に合致するコンテンツを取得する場合を示す。
 図4は、本開示の一実施形態に係る情報処理装置100のコンテンツ選択部130及び外部サービス10の動作例を示す流れ図である。図4に示したのは、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合のコンテンツ選択部130及び外部サービス10の動作例である。以下、図4を用いてコンテンツ選択部130及び外部サービス10の動作例について説明する。
 コンテンツ選択部130は、ユーザ状況解析部120からユーザ状況の情報を受け取ると(ステップS121)、受け取ったユーザ状況の情報を外部サービス10に送信する(ステップS122)。
 続いて、外部サービス10は、外部サービス10に存在するコンテンツ一覧から、コンテンツの起動条件を取得する(ステップS123)。続いて、外部サービス10は、取得したコンテンツの起動条件と、ユーザ状況の情報とを比較して、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するものを検索する(ステップS124)。外部サービス10は、ステップS124の検索処理の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つかったかどうか判定する(ステップS125)。
 ステップS125の判定の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つかった場合は(ステップS125、Yes)、外部サービス10は、コンテンツ選択部130に対して見つかったコンテンツを送信する(ステップS126)。そしてコンテンツ選択部130は、コンテンツ起動部150に対し、どのコンテンツを起動すべきかの情報を送る(ステップS127)とともに、外部サービス10から受け取ったコンテンツを記憶部140に保存する(ステップS128)。
 一方、ステップS125の判定の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は(ステップS125、No)、外部サービス10は、コンテンツ選択部130に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送る(ステップS129)。そしてコンテンツ選択部130は、コンテンツ起動部150に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送る(ステップS130)。
 コンテンツ選択部130及び外部サービス10は、図4に示した一連の動作を実行することで、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は、コンテンツ選択部130は、外部サービス10からユーザの状況に合致するコンテンツを取得することができる。
 ユーザの状況に合致するコンテンツがWebアプリケーションの場合は、コンテンツ選択部130は、外部サービス10からWebアプリケーションの場所(URL)の情報を取得する。
 図5は、本開示の一実施形態に係る情報処理装置100のコンテンツ選択部130及び外部サービス10の動作例を示す流れ図である。図5に示したのは、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合のコンテンツ選択部130及び外部サービス10の動作例である。以下、図5を用いてコンテンツ選択部130及び外部サービス10の動作例について説明する。
 コンテンツ選択部130は、ユーザ状況解析部120からユーザ状況の情報を受け取ると(ステップS121)、受け取ったユーザ状況の情報を外部サービス10に送信する(ステップS122)。
 続いて、外部サービス10は、外部サービス10に存在するコンテンツ一覧から、コンテンツの起動条件を取得する(ステップS123)。続いて、外部サービス10は、取得したコンテンツの起動条件と、ユーザ状況の情報とを比較して、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するものを検索する(ステップS124)。外部サービス10は、ステップS124の検索処理の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つかったかどうか判定する(ステップS125)。以下では、ユーザの状況に合致するコンテンツがWebアプリケーションであるとして説明する。
 ステップS125の判定の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つかった場合は(ステップS125、Yes)、外部サービス10は、コンテンツ選択部130に対して見つかったコンテンツの場所の情報(URL)を送信する(ステップS126’)。そしてコンテンツ選択部130は、コンテンツ起動部150に対し、起動すべきコンテンツの場所の情報(URL)を送る(ステップS127’)とともに、外部サービス10から受け取ったコンテンツの場所の情報(URL)を記憶部140に保存する(ステップS128’)。
 一方、ステップS125の判定の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は(ステップS125、No)、外部サービス10は、コンテンツ選択部130に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送る(ステップS129)。そしてコンテンツ選択部130は、コンテンツ起動部150に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送る(ステップS130)。
 コンテンツ選択部130及び外部サービス10は、図5に示した一連の動作を実行することで、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は、コンテンツ選択部130は、外部サービス10からユーザの状況に合致するWebアプリケーションの場所(URL)の情報を取得することができる。
 このように、コンテンツ選択部130は、記憶部140や外部サービス10からユーザの状況に合致するコンテンツを取得することができるが、必ずしも、ユーザは全てのコンテンツを自動で起動したいとは限らない。従って、本実施形態に係る情報処理装置100は、ユーザに事前にコンテンツ選択部130に対して選択条件を設定させてもよい。コンテンツ選択部130は、設定された選択条件に合致するコンテンツを選択する。
 ユーザに設定させる選択条件としては、例えば、コンテンツに対するレビュー人数、レビュー評価、コンテンツのダウンロード数、コンテンツの価格(有料または無料)、コンテンツの対象年齢、コンテンツの言語、コンテンツの開発者(個人、法人など)、コンテンツのリリース日やリリース後の日数、年齢、性別、居住地域、習慣などから自分と似たユーザが利用しているコンテンツかどうか、などがある。もちろん、本実施形態に係る情報処理装置100は、ユーザから事前にコンテンツ選択部130に対して選択条件を設定させるだけでなく、基本となる条件をコンテンツ選択部130に予め設定していても良い。
 図6~図8は、ユーザにコンテンツ選択部130に対して選択条件を設定させるためのユーザインタフェースの例を示す説明図である。図6~図8に示したユーザインタフェースは、例えば出力装置170に表示される。ユーザは、入力装置110を用いて図6~図8に示したユーザインタフェースを操作することができる。
 図6は、条件の一覧を表示するユーザインタフェース171の例を示す説明図である。ユーザは、図6のように表示されたユーザインタフェース171を操作して条件を選択することができる。
 図7は、条件の一覧を表示するユーザインタフェース171において「対象年齢」がユーザによって選択された場合に、自動で起動するコンテンツの対象年齢の条件をユーザに設定させるユーザインタフェース172の例を示す説明図である。図7の例では、自動で起動するコンテンツの対象年齢が18歳以上であることを条件として設定されている状態のユーザインタフェース172が示されている。
 図8は、条件の一覧を表示するユーザインタフェース171において「言語」がユーザによって選択された場合に、自動で起動するコンテンツの言語の条件をユーザに設定させるユーザインタフェース173の例を示す説明図である。図8の例では、自動で起動するコンテンツの言語が英語であることを条件として設定されている状態のユーザインタフェース173の例が示されている。
 情報処理装置100は、この図6~図8に示したようなユーザインタフェースを出力することで、ユーザに事前にコンテンツ選択部130に対して選択条件を設定させることができる。
 コンテンツ選択部130は、記憶部140や外部サービス10からユーザの状況に合致するコンテンツを取得することができるが、ユーザの状況に合致するコンテンツは1つだけとは限らず、ユーザの状況に合致するコンテンツが複数存在することも考えられる。コンテンツ選択部130は、ユーザの状況に合致するコンテンツが複数存在する場合、その複数のコンテンツの中から1つのコンテンツを選択するよう決定してもよい。そして、ユーザの状況に合致するコンテンツが複数存在する場合、その複数のコンテンツの中から1つのコンテンツを決定するための条件が、コンテンツ選択部130に予め設定されていても良い。
 複数のコンテンツの中から1つのコンテンツを決定するための条件としては、例えばコンテンツのレビュー評価、コンテンツのダウンロード数、コンテンツのリリース日(新しいもの順または古いもの順)、コンテンツの過去の使用履歴、コンテンツの価格(有料または無料)、緊急度、コンテンツのサイズ、などがある。
 そして本実施形態に係る情報処理装置100は、ユーザに事前にコンテンツ選択部130に対して、複数のコンテンツの中から1つのコンテンツを決定するための条件を設定させてもよい。コンテンツ選択部130は、ユーザの状況に合致するコンテンツが複数存在する場合、設定された条件に基づいて、その複数のコンテンツの中から1つのコンテンツを決定する。
 またコンテンツ選択部130は、情報処理装置100のユーザの特性に基づいて、複数のコンテンツの中から1つのコンテンツを選択してもよい。例えば、情報処理装置100のユーザが20代の女性であると予め情報処理装置100に登録されている場合、コンテンツ選択部130は、複数のコンテンツの中から1つのコンテンツを選択する際に、20代の女性に人気のあるコンテンツを選択するよう決定しても良い。
 コンテンツ選択部130は、ユーザの状況に合致するコンテンツが複数存在する場合、その複数のコンテンツの中から1つだけでなく、複数のコンテンツを選択するよう決定してもよい。コンテンツ選択部130は、ユーザの状況に合致するコンテンツが複数存在する場合、その中から所定の条件に合致する一部のコンテンツを選択してもよく、全てのコンテンツを選択してもよい。
 コンテンツ選択部130は、複数のコンテンツを選択するかどうかを、ユーザの設定や、情報処理装置100で予め決められた設定に基づいて判定してもよい。コンテンツ選択部130は、また選択するコンテンツの数を、ユーザの設定や、情報処理装置100で予め決められた設定に基づいて決定してもよく、記憶部140の容量や、コンテンツ実行部160の処理能力等に基づいて決定してもよい。
 コンテンツ選択部130は、複数のコンテンツを選択する場合、それらのコンテンツの起動順序を決定するための条件としては、例えばコンテンツのレビュー評価、コンテンツのダウンロード数、コンテンツのリリース日(新しいもの順または古いもの順)、コンテンツの過去の使用履歴、コンテンツの価格(有料または無料)、緊急度、コンテンツのサイズ、などがある。
 コンテンツ選択部130には、ユーザ状況解析部120から、他の機器との連携に関する情報が送られても良い。他の機器との連携に関する情報としては、例えば他の機器で実行されているコンテンツの情報がある。そしてコンテンツ選択部130は、他の機器との連携に関する情報に基づいて、選択するコンテンツを決定してもよい。コンテンツ選択部130は、他の機器との連携に関する情報に基づいて、選択するコンテンツを決定することで、同じようなコンテンツが複数の機器で同時に実行されることを抑制することが出来る。
 ユーザは、上述したような構成を有する情報処理装置100を複数所持する場合がある。そのようにユーザが情報処理装置100を複数所持する場合、情報処理装置100は、コンテンツを取得してコンテンツを起動する際に、どの情報処理装置100で起動すべきかを、情報処理装置100の特性に応じて変化させても良い。例えば、情報処理装置100は、自装置や他装置が有している機能やハードウェアの特性などを参酌して、どのコンテンツをどの装置で起動すべきかを決定しても良い。
 また、ユーザが情報処理装置100を複数所持する場合、同じコンテンツが同時に複数の情報処理装置100で実行されるのは望ましくない。従って情報処理装置100同士でどのコンテンツをどの装置で起動すべきかを決められるようにすることが望ましい。例えば、ユーザが情報処理装置100として腕時計型のデバイスとスマートフォンを所持しており、ユーザの状況から、ランニングアプリケーションと音楽再生アプリケーションとを実行すべきと情報処理装置100が判断した場合、ランニングアプリケーションは腕時計型のデバイスが実行し、音楽再生アプリケーションはスマートフォンが実行する、と情報処理装置100同士で決定しても良い。
 ユーザが情報処理装置100を複数所持する場合、その情報処理装置100同士が予め連携するよう設定されていれば、どのコンテンツをどの装置で起動すべきかを決定する際に情報処理装置100同士で通信しあってもよい。一方、情報処理装置100同士が予め連携するよう設定されていなければ、それぞれの情報処理装置100は、例えば外部サービス10とのやり取りを通じて、どのコンテンツをどの装置で起動すべきかを決定してもよい。
 例えばコンテンツ選択部130は、記憶部140や外部サービス10からコンテンツを選択する際に、ユーザの状況に合致するコンテンツであっても、他の機器で実行中のコンテンツや、他の機器で実行中のコンテンツが属するカテゴリと同一のカテゴリのコンテンツは選択対象から除外してもよい。コンテンツ選択部130は、記憶部140からコンテンツを検索する際に、他の機器で実行中のコンテンツや、他の機器で実行中のコンテンツが属するカテゴリと同一のカテゴリについては検索対象外としてもよい。またコンテンツ選択部130は、外部サービス10からコンテンツを検索する際に、他の機器で実行中のコンテンツや、他の機器で実行中のコンテンツが属するカテゴリと同一のカテゴリについては検索対象外とするよう外部サービス10に指示してもよい。
 例えば、ユーザが情報処理装置100としてスマートフォンとメガネ型のウェアラブルデバイスを用いて書店に入店する場合、ユーザが書店に入店したことをメガネ型のウェアラブルデバイスで判定し、メガネ型のウェアラブルデバイスが書籍レビューアプリを自動的に起動したとする。するとスマートフォンは、メガネ型のウェアラブルデバイスが書籍レビューアプリを起動していることをメガネ型のウェアラブルデバイスから通知される。そこでスマートフォンは、ユーザが書店に入店したことで書籍レビューアプリがユーザの状況に合致するコンテンツであったとしても、書籍レビューアプリは検索対象外とする。
 ユーザが複数の情報処理装置100を使用している場合に、情報処理装置100同士が連携していないことも考えられる。その場合、情報処理装置100は、外部サービス10へのアクセス情報から、ユーザが他の機器を利用していることを判断することが可能になる。
 上述したように、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は、コンテンツ選択部130は、外部サービス10からユーザの状況に合致するコンテンツを取得することができるが、コンテンツ選択部130は、他の機器や外部サービス10から、同一ユーザが使用する他の機器がどのようなコンテンツを選択したかについての情報を取得してもよい。コンテンツ選択部130は、他の機器や外部サービス10から、同一ユーザが使用する他の機器がどのようなコンテンツを選択したかについての情報を取得することで、そのコンテンツや、そのコンテンツが属するカテゴリのコンテンツを検索対象外とすることができる。
 図9は、本開示の一実施形態に係る情報処理装置100のコンテンツ選択部130の動作例を示す流れ図である。図9に示したのは、記憶部140からコンテンツを検索する際に、他の機器や外部サービス10から、同一ユーザが使用する他の機器がどのようなコンテンツを選択したかについての情報を取得して、そのコンテンツを検索対象外とする場合のコンテンツ選択部130の動作例である。以下、図9を用いてコンテンツ選択部130の動作例について説明する。
 コンテンツ選択部130は、ユーザ状況解析部120からユーザ状況の情報を受け取ると(ステップS111)、記憶部140に保存されているコンテンツの一覧からコンテンツの起動条件を取得する(ステップS112)。ここで、ユーザ状況の情報には、同一ユーザが使用する他の機器がどのようなコンテンツを選択したかについての情報が含まれるものとする。
 続いてコンテンツ選択部130は、ユーザ状況の情報から、同一ユーザが使用する他の機器で起動しているコンテンツの情報を取得し、そのコンテンツを検索対象外条件とする(ステップS117)。続いてコンテンツ選択部130は、取得したコンテンツの起動条件と、ユーザ状況の情報と、検索対象外条件とを比較して、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するものを検索する(ステップS118)。
 続いてコンテンツ選択部130は、ステップS118の検索処理の結果、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つかったかどうか判定する(ステップS114)。
 ステップS114の判定の結果、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つかった場合は(ステップS114、Yes)、コンテンツ選択部130は、コンテンツ起動部150に対し、どのコンテンツを起動すべきかの情報を送る(ステップS115)。
 一方、ステップS114の判定の結果、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は(ステップS114、No)、コンテンツ選択部130は、コンテンツ起動部150に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送る(ステップS116)。
 コンテンツ選択部130は、図9に示した一連の動作を実行することで、記憶部140に保存されているコンテンツの中から、同一ユーザが使用する他の機器が実行しているコンテンツを除外した上で、ユーザの状況に合致するものを選択することが出来る。
 図10は、本開示の一実施形態に係る情報処理装置100のコンテンツ選択部130及び外部サービス10の動作例を示す流れ図である。図10に示したのは、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合のコンテンツ選択部130及び外部サービス10の動作例である。また図10に示したのは、他の機器や外部サービス10から、同一ユーザが使用する他の機器がどのようなコンテンツを選択したかについての情報を取得して、そのコンテンツを検索対象外とする場合の動作例である。以下、図10を用いてコンテンツ選択部130及び外部サービス10の動作例について説明する。
 コンテンツ選択部130は、ユーザ状況解析部120からユーザ状況の情報を受け取ると(ステップS121)、受け取ったユーザ状況の情報を外部サービス10に送信する(ステップS122)。
 続いて、外部サービス10は、外部サービス10に存在するコンテンツ一覧から、コンテンツの起動条件を取得する(ステップS123)。続いて外部サービス10は、同一ユーザが利用している他の機器が外部サービス10にアクセスして起動しているコンテンツの履歴を取得し、その起動しているコンテンツを検索対象外条件とする(ステップS131)。続いて外部サービス10は、取得したコンテンツの起動条件と、ユーザ状況の情報と、検索対象外条件とを比較して、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するものを検索する(ステップS132)。
 外部サービス10は、ステップS132の検索処理の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つかったかどうか判定する(ステップS125)。
 ステップS125の判定の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つかった場合は(ステップS125、Yes)、外部サービス10は、コンテンツ選択部130に対して見つかったコンテンツを送信する(ステップS126)。そしてコンテンツ選択部130は、コンテンツ起動部150に対し、どのコンテンツを起動すべきかの情報を送る(ステップS127)とともに、外部サービス10から受け取ったコンテンツを記憶部140に保存する(ステップS128)。
 一方、ステップS125の判定の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は(ステップS125、No)、外部サービス10は、コンテンツ選択部130に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送る(ステップS129)。そしてコンテンツ選択部130は、コンテンツ起動部150に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送る(ステップS130)。
 コンテンツ選択部130及び外部サービス10は、図10に示した一連の動作を実行することで、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は、コンテンツ選択部130は、外部サービス10からユーザの状況に合致するコンテンツを取得することができる。またコンテンツ選択部130及び外部サービス10は、図10に示した一連の動作を実行することで、同一ユーザが使用する他の機器がどのようなコンテンツを選択したかについての情報を取得して、そのコンテンツを検索対象外とすることができる。
 ユーザの状況に合致するコンテンツがWebアプリケーションの場合は、コンテンツ選択部130は、外部サービス10からWebアプリケーションの場所(URL)の情報を取得する。
 図11は、本開示の一実施形態に係る情報処理装置100のコンテンツ選択部130及び外部サービス10の動作例を示す流れ図である。図11に示したのは、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合のコンテンツ選択部130及び外部サービス10の動作例である。また図11に示したのは、他の機器や外部サービス10から、同一ユーザが使用する他の機器がどのようなコンテンツを選択したかについての情報を取得して、そのコンテンツを検索対象外とする場合の動作例である。以下、図11を用いてコンテンツ選択部130及び外部サービス10の動作例について説明する。
 コンテンツ選択部130は、ユーザ状況解析部120からユーザ状況の情報を受け取ると(ステップS121)、受け取ったユーザ状況の情報を外部サービス10に送信する(ステップS122)。
 続いて、外部サービス10は、外部サービス10に存在するコンテンツ一覧から、コンテンツの起動条件を取得する(ステップS123)。続いて外部サービス10は、同一ユーザが利用している他の機器が外部サービス10にアクセスして起動しているコンテンツの履歴を取得し、その起動しているコンテンツを検索対象外条件とする(ステップS131)。続いて外部サービス10は、取得したコンテンツの起動条件と、ユーザ状況の情報と、検索対象外条件とを比較して、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するものを検索する(ステップS132)。
 外部サービス10は、ステップS132の検索処理の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つかったかどうか判定する(ステップS125)。以下では、ユーザの状況に合致するコンテンツがWebアプリケーションであるとして説明する。
 ステップS125の判定の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つかった場合は(ステップS125、Yes)、外部サービス10は、コンテンツ選択部130に対して見つかったコンテンツの場所の情報(URL)を送信する(ステップS126’)。そしてコンテンツ選択部130は、コンテンツ起動部150に対し、起動すべきコンテンツの場所の情報(URL)を送る(ステップS127’)とともに、外部サービス10から受け取ったコンテンツの場所の情報(URL)を記憶部140に保存する(ステップS128’)。
 一方、ステップS125の判定の結果、外部サービス10に存在するコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は(ステップS125、No)、外部サービス10は、コンテンツ選択部130に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送る(ステップS129)。そしてコンテンツ選択部130は、コンテンツ起動部150に対し、ユーザの状況に合致するコンテンツが見つからなかったことの情報を送る(ステップS130)。
 コンテンツ選択部130及び外部サービス10は、図5に示した一連の動作を実行することで、記憶部140に保存されているコンテンツの中から、ユーザの状況に合致するコンテンツが見つからなかった場合は、コンテンツ選択部130は、外部サービス10からユーザの状況に合致するWebアプリケーションの場所(URL)の情報を取得することができる。またコンテンツ選択部130及び外部サービス10は、図11に示した一連の動作を実行することで、同一ユーザが使用する他の機器がどのようなコンテンツを選択したかについての情報を取得して、そのコンテンツを検索対象外とすることができる。
 上述したように、コンテンツ選択部130は複数のコンテンツを選択してもよい。コンテンツ選択部130は、複数のコンテンツを選択する際に、コンテンツ間の相性の悪さを検索対象外条件として利用してもよい。同じような機能を有する複数のコンテンツや、同じようなジャンルに属するコンテンツが情報処理装置100に複数存在していても、情報処理装置100のユーザは、それらのコンテンツの中の1つのコンテンツだけ必要とする可能性が高い。そしてユーザが必要としないコンテンツは利用されない可能性が高い。従って、そのような同じような機能を有する複数のコンテンツや、同じようなジャンルに属するコンテンツ同士は、相性が悪いとしてもよい。例えば、コンテンツ間で相性が悪いとは、以下のような場合が考えられる。
 ・同一カテゴリ(ジャンル)のコンテンツの組み合わせ
 例えば、同じスポーツのカテゴリに属する野球アプリケーションとサッカーアプリケーションとは、相性が悪い。
 ・同一機能を持つコンテンツの組み合わせ
 例えば、現在位置のナビゲーション機能を有するランニングアプリケーションと地図アプリケーションとは、相性が悪い。
 ・言語の違い
 例えば、日本語で作成されたコンテンツと英語で作成されたコンテンツとは、相性が悪い。
 コンテンツ選択部130は、例えば、同一カテゴリ(ジャンル)であるかどうかで相性を判断してもよく、他のユーザの利用履歴から、複数起動時に同時に利用したコンテンツかどうかで相性を判断してもよく(例えば同時に利用せずにすぐに終了したら相性が悪いと判断してもよい)、コンテンツ内に記述されている情報から判断してもよく、またコンテンツが異なる言語かどうかで相性を判断してもよい。
 本実施形態に係る情報処理装置100は、このコンテンツの相性を考慮したコンテンツの起動について、ユーザから事前にコンテンツ選択部130に対して条件を設定させるだけでなく、基本となる条件をコンテンツ選択部130に予め設定していても良い。
 図12は、ユーザにコンテンツ選択部130に対して同時に選択されないコンテンツを設定させるためのユーザインタフェース174の例を示す説明図である。図12に示したユーザインタフェースは、例えば出力装置170に表示される。ユーザは、入力装置110を用いて図12に示したユーザインタフェースを操作する。
 図12に示したユーザインタフェース174では、コンテンツが同時選択されない条件として、「同一カテゴリ」、「アプリ内設定」、「他ユーザ履歴」、「異なる言語」が示されている。
 図12に示したユーザインタフェース174で「同一カテゴリ」が選択されると、同一カテゴリ内のコンテンツは同時に選択されない。図12に示したユーザインタフェース174で「アプリ内設定」が選択されると、コンテンツは同時に選択されるかどうかはアプリケーションの設定に準ずる。図12に示したユーザインタフェース174で「他ユーザ履歴」が選択されると、他のユーザが同時に選択しなかったコンテンツは同時に選択されない。図12に示したユーザインタフェース174で「異なる言語」が選択されると、異なる言語で作成されたコンテンツは同時に選択されない。
 もちろん、ユーザによって設定される、コンテンツ選択部130で同時に選択されないコンテンツの条件は図12に示したものに限定されるものではない。
 上述したように、コンテンツ選択部130は複数のコンテンツを選択してもよい。しかし、ユーザの状況によっては、仮に複数のコンテンツが選択できる状態であっても、複数のコンテンツが選択されない方が良い場合も考えられる。例えば、ユーザが全速力で走っているときにランニングアプリケーション以外のアプリケーションにまで気を回すことはできない。また例えば、ユーザの勉強中に学習をサポートする学習サポートアプリケーション以外はユーザの気が散るので不要である。そこで、コンテンツ選択部130は、ユーザ状況解析部120から送られてくるユーザ状況の情報を用いて、複数のコンテンツを選択すべきかどうかを判定してもよい。
 コンテンツ選択部130が、複数のコンテンツを選択すべきかどうかの判定の条件となるパラメータの例としては、以下のようなものが挙げられる。
 コンテンツ選択部130は、例えばユーザの生体情報をパラメータとして使用しても良い。ユーザの生体情報には、例えばユーザの心拍数、発汗量などの情報が含まれうる。このようなユーザの生体情報は、例えば入力装置110に含まれる脈拍、発汗、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサによってセンシングされうる。
 コンテンツ選択部130は、例えばユーザの状況の種類をパラメータとして使用しても良い。ユーザの状況の種類の例としては、例えばスポーツ中、歩行中、運転中などがありうる。このようなユーザの状況は、例えば入力装置110に含まれる加速度や角速度をセンシングするセンサ、マイクによる収録音などによって判定されうる。
 コンテンツ選択部130は、例えばユーザの感情をパラメータとして使用しても良い。ユーザの感情の例としては、例えば怒りや悲しさなどがありうる。このようなユーザの感情は、例えば入力装置110に含まれる脈拍、発汗、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサによってセンシングされた情報によって判定されうる。
 本実施形態に係る情報処理装置100は、複数のコンテンツを選択すべきかどうかの判定の条件について、ユーザから事前にコンテンツ選択部130に対して条件を設定させるだけでなく、基本となる条件をコンテンツ選択部130に予め設定していても良い。
 図13~図15は、コンテンツ選択部130に対して複数のコンテンツを選択すべきかどうかの判定の条件をユーザに設定させるためのユーザインタフェースの例を示す説明図である。図13~図15に示したユーザインタフェースは、例えば出力装置170に表示される。ユーザは、入力装置110を用いて図13~図15に示したユーザインタフェースを操作する。
 図13は、複数のコンテンツを選択すべきかどうかの判定の条件の一覧を表示するユーザインタフェース175の例を示す説明図である。ユーザは、図13のように表示されたユーザインタフェース175を操作して条件を選択することができる。図13では、複数のコンテンツを選択すべきかどうかの判定の条件として「心拍数」と「脈拍」が選択されている状態が示されている。
 図14は、条件の一覧を表示するユーザインタフェース174において「心拍数」がユーザによって選択された場合に、心拍数の条件をユーザに設定させるユーザインタフェース175の例を示す説明図である。図14の例では、ユーザの心拍数が100bpm以上である場合には、複数のコンテンツを選択すべきではないことが条件として設定されている状態のユーザインタフェース175が示されている。
 図15は、条件の一覧を表示するユーザインタフェース174において「感情の種類」がユーザによって選択された場合に、感情の種類の条件をユーザに設定させるユーザインタフェース176の例を示す説明図である。図14の例では、ユーザの感情が「怒り」である場合には、複数のコンテンツを選択すべきではないことが条件として設定されている状態のユーザインタフェース176が示されている。
 情報処理装置100は、この図13~図15に示したようなユーザインタフェースを出力することで、ユーザに事前にコンテンツ選択部130に対して複数のコンテンツを選択すべきかどうかの判定の条件を設定させることができる。
 コンテンツ選択部130は、上述したように、外部サービス10に存在するコンテンツの中から、ユーザの状況に合ったコンテンツを選択することが出来る。コンテンツ選択部130は、外部サービス10に存在するコンテンツの中から、ユーザの状況に合ったコンテンツを選択する際に、ユーザ状況解析部120から送られてきた情報のみで検索条件を設定せずに、ユーザ状況解析部120から送られてきた情報と、外部サービス10が保存している情報とを組み合わせて検索条件を設定してもよい。
 例えば、外部サービス10は、各ユーザがどのようなコンテンツを使用しているかの履歴を保持していても良い。外部サービス10が保持する情報としては、例えばユーザの年齢、性別、居住地、習慣などが含まれ得る。
 コンテンツ起動部150は、上述したようにコンテンツ選択部130が選択したコンテンツを記憶部140から読み出して起動する。従って、ユーザの意志とは関係なく、コンテンツ起動部150は、コンテンツ選択部130が選択したコンテンツを記憶部140から読み出して起動することになる。
 従来は、ユーザは自分自身で明示的にコンテンツを選択、起動することで、機器に対してユーザの行動の意志を示していた。ユーザは自分の行動の意志がどのコンテンツで実現できるのかということを、自分自身で事前に明確にしておく必要があった。そのため、ユーザは必要なコンテンツについては、ダウンロード、インストール、サービス登録などの事前準備を済ませていた。また、コンテンツが有料である場合は、ユーザはそのコンテンツの利用に必要な料金の支払い処理も事前に済ませていた。
 しかし本実施形態では、ユーザの意志とは関係なく、コンテンツ起動部150は、コンテンツ選択部130が選択したコンテンツを記憶部140から読み出して起動することになるが、コンテンツの利用に必要な料金の支払い処理まで、ユーザに確認せずに勝手に行なうことが出来ない。
 そこで以下では、コンテンツ選択部130がユーザの状況に基づいて選択したコンテンツが有料のコンテンツである場合における、コンテンツ起動部150による料金の支払い処理の例を説明する。コンテンツ起動部150は、コンテンツ選択部130がユーザの状況に基づいて選択したコンテンツに対して料金を支払う際に、例えば、そのコンテンツの使用履歴に応じて、コンテンツに対する料金の支払いが発生する条件を変化させる。コンテンツの使用履歴には、コンテンツの使用量や、コンテンツに設定された目標値までの達成度合いが含まれる。コンテンツの使用量には、コンテンツの使用距離やコンテンツの使用時間などが含まれる。
 例えば、コンテンツ起動部150が起動したコンテンツを実行するコンテンツ実行部160は、ユーザ状況解析部120から、ユーザの状況を取得する。そして、コンテンツ実行部160が実行したコンテンツの利用をユーザが停止すると、コンテンツ起動部150は、ユーザ状況解析部120から送られたユーザの状況と、コンテンツに設定された目標値とを比べ、ユーザの状況が目標値に達していた場合には、コンテンツ起動部150は、コンテンツの利用料金の支払い処理を行なう。そして、コンテンツ起動部150は、起動したコンテンツが、ユーザの状況に基づいてコンテンツ選択部130によって選択されたコンテンツである場合と、ユーザが明示的に選択したコンテンツである場合とで、その目標値を変化させる。
 例えば、ユーザがランニングを開始したことでコンテンツ選択部130が有料のランニングアプリケーションを選択した場合、コンテンツ起動部150がランニングアプリケーションを起動した時点ではランニングアプリケーションに対する料金の支払い処理は行われない。このランニングアプリケーションは、コンテンツの使用距離がコンテンツに対する料金の支払いの発生条件として指定されており、例えばユーザが5キロ以上走った時点で料金の支払い対象となるように設定されているものとする。
 そして、ユーザが例えば10キロ走ってランニングアプリケーションの利用を停止すると、コンテンツ起動部150は、ランニングアプリケーションに対する料金の支払い処理を実行する。一方、ユーザが例えば1キロしか走らずにランニングアプリケーションの利用を停止すると、コンテンツ起動部150は、ランニングアプリケーションに対する料金の支払い処理は実行しない。
 また例えば、ユーザが書店に入店したことでコンテンツ選択部130が有料の書籍レビューアプリケーションを選択した場合、コンテンツ起動部150が書籍レビューアプリケーションを起動した時点では書籍レビューアプリケーションに対する料金の支払い処理は行われない。この書籍レビューアプリケーションは、コンテンツの使用量がコンテンツに対する料金の支払いの発生条件として指定されており、例えばユーザが3冊以上書籍レビューを表示させた時点で料金の支払い対象となるように設定されているものとする。
 そして、ユーザが例えば5冊の書籍のレビューを表示させて、書籍レビューアプリケーションの利用を停止すると、コンテンツ起動部150は、書籍レビューアプリケーションに対する料金の支払い処理を実行する。一方、ユーザが例えば1冊の書籍のレビューしか表示させずに書店を出て、書籍レビューアプリケーションの利用を停止すると、コンテンツ起動部150は、書籍レビューアプリケーションに対する料金の支払い処理は実行しない。
 また例えば、ユーザが目的地を検索したことでコンテンツ選択部130が有料の地図アプリケーションを選択した場合、コンテンツ起動部150が地図アプリケーションを起動した時点では地図アプリケーションに対する料金の支払い処理は行われない。この地図アプリケーションは、コンテンツに設定された目標値までの達成度合いがコンテンツに対する料金の支払いの発生条件として指定されており、例えばユーザが目的地に到着した時点で料金の支払い対象となるように設定されているものとする。
 そして、ユーザが地図アプリケーションで表示される地図を見ながら目的地に到着し、地図アプリケーションの利用を停止すると、コンテンツ起動部150は、地図アプリケーションに対する料金の支払い処理を実行する。一方、ユーザが目的地に到着する前に地図アプリケーションの利用を停止すると、コンテンツ起動部150は、地図アプリケーションに対する料金の支払い処理は実行しない。
 このように、コンテンツ起動部150は、ユーザの状況が予めコンテンツに設定されるコンテンツの使用量や、コンテンツに設定された目標値までの達成度合いに達したかどうかで、コンテンツに対する料金の支払い処理を実行することが出来る。そして、コンテンツ起動部150は、起動したコンテンツが、ユーザの状況に基づいてコンテンツ選択部130によって選択されたコンテンツである場合と、ユーザが明示的に選択したコンテンツである場合とで、その目標を変化させる。
 コンテンツに設定される目標は、上述したもの以外にも様々なものが設定され得る。例えば認識回数を目標とする場合、音声認識の場合は音声認識処理の回数や発話内容、行動認識の場合は規定の行動をした回数(ゴルフのスイング数、パンチの回数、懸垂の回数など)が目標として設定され得る。また時間を目標とする場合はコンテンツの利用時間が目標として設定され得る。また位置を目標とする場合は範囲(指定された範囲内かどうか)が目標として設定され得る。
 コンテンツ起動部150は、有料のコンテンツを起動した場合、コンテンツの料金の支払いの目標に近づくと、料金の支払いが発生する可能性があることを、出力装置170を通じてユーザに通知してもよい。
 例えばコンテンツの利用時間が料金の支払いの目標となる時間に近づくと、コンテンツ起動部150は、例えば音声で「あと○分で課金されます」などと出力装置170を通じて出力してもよい。またコンテンツの料金の支払いの目標に近づくと、コンテンツ起動部150は、例えば振動によって出力装置170を通じて出力してもよい。コンテンツ起動部150は、コンテンツの料金の支払いの目標に近づくほど、振動量を増やしたり、振動の間隔を短くしたりしてもよい。
 またコンテンツの料金の支払いの目標に近づくと、コンテンツ起動部150は、例えばダイアログや、画面内の表示によって出力装置170を通じて出力してもよい。図16は、ダイアログによってコンテンツの料金の支払いの目標に近づいていることをユーザに提示するユーザインタフェース178の例を示す説明図である。図17は、画面内の表示によってコンテンツの料金の支払いの目標に近づいていることをユーザに提示するユーザインタフェース179の例を示す説明図である。
 料金の支払いが発生する可能性のユーザへの提示は、他にも、刺激(電気刺激など)、
アニメーション(画面内で明滅を繰り返す、通知がスライドインする等)、ライトの明滅、またはこれらの複数の組み合わせ(音声と振動との組み合わせ、音声と刺激との組み合わせ、画面内表示と振動との組み合わせ、等)によって行われ得る。
 なお、目標との差がどの程度になるとユーザに通知するかは、コンテンツごとに設定されていてもよく、情報処理装置100に予め初期値が設定されていてもよい。
 コンテンツ起動部150は、他にも、ユーザが情報処理装置100を取り外した時、コンテンツを自動的に起動する条件とは反対の状況が起きた時、などを、コンテンツの料金の支払い処理を実行するタイミングとしてもよい。
 例えば、ある有料のコンテンツはユーザの脈拍が所定値以上の場合に起動されるものである場合、ユーザの脈拍が低下してくると、コンテンツ起動部150は、そのコンテンツの料金の支払い処理を実行してもよい。また例えば、ある有料のコンテンツはユーザが泣き始めた時点で起動されるものである場合、ユーザが泣き止むと、コンテンツ起動部150は、そのコンテンツの料金の支払い処理を実行してもよい。
 コンテンツの実行自体は無料で行えるが、コンテンツの利用を継続しようとしたり、コンテンツに拡張機能として備わっている機能を使用しようとしたりする場合には料金の支払いが必要となるコンテンツが存在する。コンテンツ起動部150は、このように、コンテンツの利用を継続しようとしたり、ユーザが利用するコンテンツの機能の範囲を広げようとしたりした時点を、コンテンツの料金の支払い処理を実行するタイミングとしてもよい。
 例えば、あるランニングアプリケーションは、走行距離や走行時間等を確認するだけでは無料で利用し続けることが可能であるが、過去の統計を確認するためには料金を支払う必要があるとする。コンテンツ起動部150は、ユーザが立ち止まって、ランニングアプリケーションで過去の統計を確認しようとした時点で、そのランニングアプリケーションに対する料金の支払い処理を実行してもよい。
 コンテンツ起動部150は、上述したようにコンテンツ選択部130が選択したコンテンツを記憶部140から読み出して起動する。コンテンツ起動部150が、コンテンツ選択部130が選択したコンテンツを記憶部140から読み出して起動すると、コンテンツ選択部130は、選択したコンテンツがコンテンツ起動部150によって起動されたことを記憶部140に保存する。
 コンテンツ選択部130が選択したコンテンツがコンテンツ起動部150によって起動されたことを記憶部140に保存することで、コンテンツ起動部150は、同じコンテンツがその後ユーザの明示的な選択操作によって起動され、かつそのコンテンツに対する料金の支払いが必要な場合は、ユーザに対してコンテンツに対する料金の支払いが必要であることを提示できる。
 例えば、情報処理装置100を持っているユーザが乗っていた電車の運転が人身事故によって見合わされた場合に、コンテンツ選択部130が、その運転の見合わせに応じて有料の乗換案内アプリケーションを自動的に選択して、コンテンツ起動部150がその乗換案内アプリケーションを自動的に起動したとする。この時点では、人身事故によって電車の運転が見合わされたという緊急事態であったために、この乗換案内アプリケーションに対する料金の支払いは行われなかった。しかしその後、ユーザが明示的に同じ乗換案内アプリケーションを起動すると、コンテンツ起動部150は、その乗換案内アプリケーションの利用には料金の支払いが必要であることを提示する。ユーザは、コンテンツ起動部150の提示によって、乗換案内アプリケーションの利用には料金の支払いが必要であることを知ることができる。
 また例えば、ある場所でイベントが開催されており、情報処理装置100を持っているユーザがそのイベント会場へ移動した場合に、コンテンツ選択部130が有料のイベントアプリケーションを選択し、コンテンツ起動部150がそのイベントアプリケーションを自動的に起動したとする。この時点では、このイベントアプリケーションに対する料金の支払いは行われなかったが、その後、ユーザが明示的に同じイベントアプリケーションを起動すると、コンテンツ起動部150は、そのイベントアプリケーションの利用には料金の支払いが必要であることを提示する。ユーザは、イベントアプリケーションの利用には料金の支払いが必要であることを知ることができる。
 また例えば、情報処理装置100を持っているユーザがランニングを開始したことで、コンテンツ選択部130が有料のランニングアプリケーションを選択し、コンテンツ起動部150がそのランニングアプリケーションを自動的に起動したとする。この時点では、このランニングアプリケーションに対する料金の支払いは行われなかったが、その後、ユーザが明示的に同じランニングアプリケーションを起動すると、コンテンツ起動部150は、そのランニングアプリケーションの利用には料金の支払いが必要であることを提示する。ユーザは、ランニングアプリケーションの利用には料金の支払いが必要であることを知ることができる。
 コンテンツ起動部150によるコンテンツの自動起動のきっかけとしては、他にもユーザが特定の行動を行った場合、ユーザの習慣に基づく場合、ユーザの感情に基づく場合、時間に基づく場合、ユーザの位置に基づく場合、などがある。
 ユーザが特定の行動を行った場合の例としては、音声認識処理によってユーザが発話したことを検出した場合や、行動認識処理によってユーザが歩く、走る、座る、食事をしている、スポーツをしているなどの行動を検出した場合などがありうる。
 ユーザの習慣に基づく場合の例としては、ユーザが起床した、睡眠に入った、食事をしている、通勤や通学の時間帯になった、通勤や通学の経路にいる、恋人や家族と一緒にいる、などがありうる。
 ユーザの感情に基づく場合の例としては、例えばユーザが緊張状態にある、悲しんでいる、怒っている、などがありうる。
 時間に基づく場合の例としては、ユーザの予定やイベントの開催日時などがありうる。
 位置に基づく例としては、所定の位置にいる、所定の位置から所定の範囲内いる、所定の国や都市にいる、などがありうる。
 もちろん、コンテンツ起動部150によるコンテンツの自動起動のきっかけの例はここにあげたものに限定されるものではない。
 コンテンツ起動部150は、外部サービス10から取得したコンテンツがその後ユーザの明示的な選択操作によって起動され、かつそのコンテンツに対する料金の支払いが必要な場合は、ユーザに対してコンテンツに対する料金の支払いが必要であることを提示してもよいが、ユーザの明示的な選択操作と、ユーザの状況による自動起動とに関わらず、所定の複数回目以降の起動時には、ユーザに対してコンテンツに対する料金の支払いが必要であることを提示してもよい。
 例えば、情報処理装置100を持っているユーザがランニングを開始したことで、コンテンツ選択部130が有料のランニングアプリケーションを選択し、コンテンツ起動部150がそのランニングアプリケーションを自動的に起動したとする。この時点では、このランニングアプリケーションに対する料金の支払いは行われなかったが、その後、ユーザが明示的に同じランニングアプリケーションを起動するか、またはユーザの状況に応じて同じランニングアプリケーションが選択されると、コンテンツ起動部150は、そのランニングアプリケーションの利用には料金の支払いが必要であることを提示する。
 コンテンツ起動部150は、上述したように、ユーザの状況によってコンテンツ選択部130で選択されたコンテンツを起動する。しかし、ユーザの状況によってコンテンツ選択部130で選択され、コンテンツ起動部150で起動されたコンテンツが、ユーザの意図にそぐわないコンテンツである場合も考えられる。
 コンテンツ起動部150で起動されたコンテンツが、ユーザの意図にそぐわないコンテンツである場合、ユーザはそのコンテンツを終了させるが、コンテンツ実行部160は、コンテンツの終了時に、ユーザが意図しない起動だったのか、明示的な終了なのかを判定し、コンテンツ起動部150は、起動したコンテンツ、起動時のユーザの状況(コンテキスト)、意図しない起動であることを紐づけて記憶部140に記憶させる。そして、コンテンツ選択部130は、記憶部140から上記各情報を取得し、選択時の検索の条件として利用することで、ユーザの意図にそぐわないコンテンツが選択されることを抑制することが出来る。
 例えばコンテンツ選択部130は、コンテンツが起動されてから、ユーザによって終了されるまでの時間で、ユーザが期待したコンテンツかどうかを判断してもよい。例えば、ユーザがランニングを始めたことでコンテンツ選択部130があるランニングアプリケーションを選択し、コンテンツ起動部150がそのランニングアプリケーションを起動したとする。しかし、そのランニングアプリケーションは、ユーザが期待したアプリケーションでは無かったので、ユーザによって所定時間内に終了された。コンテンツ選択部130は、次にユーザがランニングを開始した場合に、このランニングアプリケーションは選択肢から除外する。このようにコンテンツが起動されてから、ユーザによって終了されるまでの時間で、ユーザが期待したコンテンツかどうかを判断することで、コンテンツ選択部130は、ユーザの意図にそぐわないコンテンツが選択されることを抑制することが出来る。
 例えばコンテンツ選択部130は、起動されたコンテンツに対するユーザの判断に基づいて、ユーザが期待したコンテンツかどうかを判断してもよい。例えば、ユーザがランニングを始めたことでコンテンツ選択部130があるランニングアプリケーションを選択し、コンテンツ起動部150がそのランニングアプリケーションを起動したとする。そしてコンテンツ起動部150は、ユーザがランニングを終了し、そのランニングアプリケーションを終了させる際に、ユーザにそのランニングアプリケーションに対する評価を入力させる。ユーザが、そのランニングアプリケーションが期待したものであれば、コンテンツ選択部130は、次にユーザがランニングを開始した場合に、このランニングアプリケーションを選択肢に含める。一方、ユーザが、そのランニングアプリケーションが期待したもので無ければ、コンテンツ選択部130は、次にユーザがランニングを開始した場合に、このランニングアプリケーションは選択肢から除外する。このようにユーザが入力した評価からユーザが期待したコンテンツかどうかを判断することで、コンテンツ選択部130は、ユーザの意図にそぐわないコンテンツが選択されることを抑制することが出来る。
 例えばコンテンツ選択部130は、コンテンツが起動されてから、ユーザによって終了されるまでのコンテンツの利用量で、ユーザが期待したコンテンツかどうかを判断してもよい。例えば、ユーザがランニングを始めたことでコンテンツ選択部130があるランニングアプリケーションを選択し、コンテンツ起動部150がそのランニングアプリケーションを起動したとする。しかし、ユーザがあまり距離を走らずにランニングを終了した。コンテンツ選択部130は、ユーザが期待したアプリケーションでは無かったと判断し、次にユーザがランニングを開始した場合に、このランニングアプリケーションは選択肢から除外する。このようにコンテンツが起動されてから、ユーザによって終了されるまでのコンテンツの利用量で、ユーザが期待したコンテンツかどうかを判断することで、コンテンツ選択部130は、ユーザの意図にそぐわないコンテンツが選択されることを抑制することが出来る。
 ユーザが期待したコンテンツかどうかの判断材料には、他にも、コンテンツが起動されてからのユーザの感情、ユーザの行動などがありうる。ユーザの感情の例としては、怒りや不安などのネガティブな感情などがありうる。ユーザの行動の例としては、ユーザが声を荒らげた、舌打ちをした、「違う」、「それじゃない」等の否定的な言葉を発した、首を振る、手を振る、指や手を交差させる等の否定的な動作などがありうる。
 上述したように、コンテンツ選択部130は複数のコンテンツを選択する場合がありうる。そして、コンテンツ起動部150は、コンテンツ選択部130が選択した複数のコンテンツを起動する場合がありうる。この場合、コンテンツ選択部130は、コンテンツの起動順序の情報を生成してもよく、コンテンツ起動部150は、コンテンツ選択部130が生成したコンテンツの起動順序に基づいて記憶部140からコンテンツを読み出して、コンテンツを起動してもよい。
 さらに、コンテンツ起動部150は、ユーザが意図しないコンテンツを起動した場合は、そのコンテンツを記憶部140から削除するようにしても良い。
 図18は、本開示の一実施形態に係る情報処理装置100に含まれるコンテンツ起動部150の動作例を示す流れ図である。図18に示したのは、コンテンツ選択部130が生成したコンテンツの起動順序に基づいて記憶部140からコンテンツを読み出して、複数のコンテンツを起動する際の、コンテンツ起動部150の動作例である。以下、図18を用いてコンテンツ起動部150の動作例について説明する。
 コンテンツ起動部150は、複数のコンテンツを起動する際に、コンテンツ選択部130から、起動するコンテンツの一覧と、コンテンツの起動順序とを受け取る(ステップS141)。
 コンテンツ起動部150は、上記ステップS141で、コンテンツ選択部130から、起動するコンテンツの一覧と、コンテンツの起動順序とを受け取ると、起動するコンテンツの一覧と、コンテンツの起動順序とに基づいて記憶部140からコンテンツを読み出して、最初のコンテンツを起動する(ステップS142)。
 その後、コンテンツ起動部150は、上述したように、意図しないコンテンツであるとしてユーザがコンテンツを終了したかどうかを判断する(ステップS143)。ステップS143の判断の結果、起動したコンテンツがユーザの意図しないコンテンツであるとしてユーザがコンテンツを終了した場合は(ステップS143、Yes)、コンテンツ起動部150は、そのコンテンツを削除するよう記憶部140へ通知する(ステップS144)。一方、ステップS143の判断の結果、起動したコンテンツがユーザの意図しないコンテンツであるとしてユーザがコンテンツを終了したものでない場合は(ステップS143、No)、コンテンツ起動部150は、ステップS142のコンテンツの起動処理に戻る。
 コンテンツ起動部150は、図16に示した処理を実行することで、コンテンツ選択部130が生成したコンテンツの起動順序に基づいて記憶部140からコンテンツを読み出して、コンテンツを起動することができる。またコンテンツ起動部150は、図16に示した処理を実行することで、ユーザが意図しないコンテンツを起動した場合は、そのコンテンツを記憶部140から削除することができる。コンテンツ起動部150が、ユーザが意図しないコンテンツを自動で削除した後に、そのコンテンツが再びコンテンツ選択部130での選択対象になった場合は、コンテンツ選択部130は、外部サービス10から当該コンテンツを取得すれば良い。
 なお図18に示した流れ図では、起動したコンテンツがユーザの意図しないコンテンツであるとしてユーザがコンテンツを終了した場合は、コンテンツ起動部150は、そのコンテンツを削除するよう記憶部140へ通知する処理を行っていたが、本開示は係る例に限定されるものではない。コンテンツ起動部150は、ユーザの意図しないコンテンツを自動で削除するかどうかは、ユーザの設定に基づいてもよく、記憶部140の空き容量に基づいてもよい。例えば、記憶部140の空き容量が所定値以下、または所定の割合以下に低下していれば、コンテンツ起動部150は、ユーザの意図しないコンテンツを自動で削除してもよい。
 コンテンツ起動部150は、コンテンツ選択部130が生成したコンテンツの起動順序に基づいて記憶部140からコンテンツを読み出して、複数のコンテンツを同時に起動してもよく、コンテンツ実行部160で複数のコンテンツが同時に実行されるようにコンテンツを順次起動してもよい。
 コンテンツ起動部150は、コンテンツ実行部160で複数のコンテンツが同時に実行されるようにコンテンツを順次起動する場合、情報処理装置100で同時に実行可能なコンテンツの数だけ記憶部140からコンテンツを読み出して順次起動してもよい。情報処理装置100で同時に実行可能なコンテンツの数は、例えばコンテンツ実行部160でのコンテンツの実行性能に基づいて設定され得る。
 コンテンツ実行部160で複数のコンテンツが同時に実行されるようにコンテンツを順次起動する場合においても、起動したコンテンツがユーザの意図しないコンテンツであるとしてユーザがコンテンツを終了した場合は、コンテンツ起動部150は、そのコンテンツを削除するよう記憶部140へ通知する処理を行ってもよい。コンテンツ起動部150は、ユーザの意図しないコンテンツを自動で削除するかどうかは、ユーザの設定に基づいてもよく、記憶部140の空き容量に基づいてもよい。
 上述したように、コンテンツ起動部150が自動的に起動したコンテンツが、ユーザの意図したものではない場合がありうる。しかし、後になってユーザがそのコンテンツをもう少し利用してみたいと思う可能性も考えられる。
 そこで、本実施形態に係る情報処理装置100は、コンテンツ起動部150が自動的に起動したコンテンツの起動履歴を記憶部140へ記憶させてもよい。また本実施形態に係る情報処理装置100は、コンテンツ起動部150が自動的に起動したコンテンツの起動履歴に加え、コンテンツ起動部150がコンテンツを自動的に起動した際のユーザの状況を記憶部140へ記憶させてもよい。ユーザはコンテンツの起動履歴や過去のユーザの状況を参照することで、コンテンツ起動部150が過去に起動したことのあるコンテンツの中から、起動したいコンテンツを選択することが出来る。
 図19~図21は、コンテンツ起動部150が自動的に起動したコンテンツの起動履歴やユーザの状況を提示するためのユーザインタフェースの例を示す説明図である。図19~図21に示したユーザインタフェースは、例えば出力装置170に表示される。ユーザは、入力装置110を用いて図19~図21に示したユーザインタフェースを操作することができる。
 図19に示したのは、コンテンツ起動部150が自動的に起動したコンテンツのカテゴリの一覧をユーザに提示するためのユーザインタフェース180の例である。ユーザは、図19のように表示されたユーザインタフェース180を操作してコンテンツ起動部150が自動的に起動したコンテンツのカテゴリを選択することができる。
 図20に示したのは、コンテンツ起動部150が自動的に起動したコンテンツの一覧をユーザに提示するためのユーザインタフェース181の例であり、図19のユーザインタフェース180においてユーザが「SNS」を選択した場合にユーザに提示するユーザインタフェース181の例である。ユーザは、図20のように表示されたユーザインタフェース181を操作してコンテンツ起動部150が自動的に起動したコンテンツを選択することができる。
 図21に示したのは、コンテンツ起動部150が自動的にコンテンツを起動した際のユーザの状況(コンテキスト)の一覧をユーザに提示するためのユーザインタフェース182の例である。ユーザは、図21のように表示されたユーザインタフェース182を操作してコンテンツ起動部150が自動的にコンテンツを起動した際のユーザの状況を選択することができる。
 ユーザは、図19~図21のように出力装置170に出力された履歴を見ることで、過去にどのようなコンテンツが自動的に起動されたのかを知ることが出来る。そしてユーザは、図19~図21のように出力装置170に出力されたユーザインタフェースを操作することで、利用してみたいコンテンツを選択して、コンテンツ起動部150にコンテンツを起動させることが出来る。
 コンテンツ起動部150は、コンテンツを起動する際に、コンテンツ選択部130が選択したコンテンツを自動的に起動する場合と、ユーザが明示的に起動する場合とでコンテンツに対する様々な条件を変化させても良い。
 例えば、コンテンツ起動部150は、コンテンツ選択部130が選択したコンテンツを自動的に起動する場合と、ユーザが明示的に起動する場合とで、コンテンツの利用料金を変化させてもよい。
 コンテンツ選択部130が選択したコンテンツをコンテンツ起動部150が自動的に起動する場合、そのコンテンツはユーザの意図したもので無い場合がありうるのは上述してきた通りである。
 従って、コンテンツ起動部150が自動的に起動したのが有料のコンテンツであって、そのコンテンツはユーザの意図したもので無かった場合は、コンテンツ起動部150は、ユーザが明示的にそのコンテンツを起動させた場合より、そのコンテンツに対する料金の支払いの発生条件を緩くしたり、課された料金の額を低くしたりしても良い。そして、ユーザが同じコンテンツをコンテンツ起動部150による自動起動の後に明示的に起動させると、ユーザが明示的に起動した場合の利用料金と、自動的に起動した場合の利用料金との差額をユーザに請求してもよい。
 また例えば、コンテンツ起動部150は、コンテンツ選択部130が選択したコンテンツを自動的に起動する場合と、ユーザが明示的に起動する場合とで、コンテンツの機能を変化させてもよい。
 コンテンツ起動部150は、コンテンツ選択部130が選択したコンテンツを自動的に起動した場合の利用料金を、ユーザが明示的に起動した場合の利用料金より低くしてもよいが、その際、コンテンツを自動的に起動した場合は、ユーザが明示的に起動した場合よりもコンテンツの機能を制限してもよい。例えば、コンテンツ起動部150がランニングアプリケーションを起動する場合、コンテンツ起動部150は、ユーザが明示的に起動した場合は全ての機能を実行できるよう起動するが、自動的に起動した場合は、一部の機能が実行できないよう起動してもよい。
 図22は、本開示の一実施形態に係る情報処理装置100に含まれるコンテンツ起動部150の動作例を示す流れ図である。図22に示したのは、コンテンツを自動的に起動した場合と、コンテンツをユーザが明示的に起動した場合とでコンテンツに対する利用料金の支払い処理を変化させる際の、コンテンツ起動部150の動作例である。以下、図22を用いてコンテンツ起動部150の動作例について説明する。
 コンテンツ起動部150は、まずコンテンツが自動起動なのか、ユーザが明示的に起動した(手動起動)なのかを判断する(ステップS151)。ステップS151の判断の結果、コンテンツが自動起動である場合は、コンテンツ起動部150は、続いて、そのコンテンツが初めての起動(初回起動)なのかどうかを判断する(ステップS152)。コンテンツが初回起動であるかどうかは、例えば記憶部140に保存されている起動履歴の参照により判断されても良い。
 コンテンツが初回起動であれば(ステップS152、Yes)、コンテンツ起動部150は、自動での初回起動向けの課金額でコンテンツに対する利用料金の支払い処理を行なう(ステップS153)。一方、コンテンツが初回起動でなければ(ステップS152、No)、コンテンツ起動部150は、正規の課金額と、自動での初回起動向けの課金額との差分の利用料金の支払い処理を行なう(ステップS154)。
 ステップS151の判断の結果、コンテンツが手動起動である場合は、コンテンツ起動部150は、続いて、そのコンテンツが初めての起動(初回起動)なのかどうかを判断する(ステップS155)。コンテンツが初回起動であるかどうかは、例えば記憶部140に保存されている起動履歴の参照により判断されても良い。
 コンテンツが初回起動であれば(ステップS155、Yes)、コンテンツ起動部150は、正規の課金額でコンテンツに対する利用料金の支払い処理を行なう(ステップS156)。一方、コンテンツが初回起動でなければ(ステップS155、No)、コンテンツ起動部150は、(自動での初回起動向けの課金額しか支払っていなければ)正規の課金額と、自動での初回起動向けの課金額との差分の利用料金の支払い処理を行なう(ステップS157)。
 図22に示したコンテンツの利用料金の支払い処理は、コンテンツ起動部150によって自動的に実行されるようにしてもよいが、コンテンツ起動部150がユーザに対して実行を求め、ユーザが許可した際に実行されるようにしてもよい。
 コンテンツ起動部150は、図22に示した一連の動作を実行することで、コンテンツを自動的に起動した場合と、コンテンツをユーザが明示的に起動した場合とでコンテンツに対する利用料金の支払い処理を変化させることができる。
 コンテンツ起動部150が、コンテンツの利用料金の支払い処理を実行すると、以下の(1)~(3)の少なくともいずれかが起こる。
(1)ユーザがコンテンツの利用権限を取得
(2)コンテンツが元々有している機能の利用可能範囲が拡大
(3)ユーザが利用可能なコンテンツの利用量の制限が撤廃
 上記(2)の例としては、例えばランニングアプリケーションにおいて、利用料金の支払い前は現在の状況しか確認することが出来ないが、利用料金を支払った後では過去の統計情報の確認も可能になる、といったものがある。また上記(3)の例としては、例えばランニングアプリケーションにおいて、利用料金の支払い前は5分間しか利用することが出来ないが、利用料金を支払った後では利用時間の制限がなくなる、といったものがある。
 記憶部140は、コンテンツの本体及びコンテンツに関する情報が格納される。コンテンツに関する情報としては、コンテンツの起動履歴、コンテンツの有効期間、コンテンツの起動可能位置などがあり、これらの情報はコンテンツが記憶部140に記憶される際に併せて記録されてもよく、コンテンツ起動部150によるコンテンツの起動時に記録されてもよい。
 コンテンツ起動部150は、記憶部140に格納されているコンテンツに関する情報に基づいて、記憶部140に格納されているコンテンツを自動的に削除してもよい。また、コンテンツ起動部150は、動作していたコンテンツが所定の削除のための条件を満たしていれば、そのコンテンツを自動的に削除してもよい。
 例えば、所定の期間以上起動されていないコンテンツがあれば、コンテンツ起動部150はそのコンテンツを記憶部140から削除してもよい。
 また例えば、特定の日時で行われるイベントに関するアプリケーションであれば、そのイベントが終了すると、コンテンツ起動部150はそのアプリケーションを記憶部140から削除してもよい。
 また例えば、書店に入店すると起動されるアプリケーションであれば、そのユーザが書店から出ると、コンテンツ起動部150はそのアプリケーションを記憶部140から削除してもよい。また例えば、特定の都市、国、範囲で利用可能なアプリケーションであれば、そのユーザがその特定の都市、国、範囲から出ると、コンテンツ起動部150はそのアプリケーションを記憶部140から削除してもよい。
 また例えば、ある店についてのアプリケーションであれば、そのユーザがその店を日常的に利用していることがユーザの状況から把握できると、コンテンツ起動部150は競合する他の店のアプリケーションを記憶部140から削除してもよい。
 コンテンツ起動部150は、記憶部140の空き容量が所定量または所定の割合以下になった時点で、記憶部140に格納されている、コンテンツに関する情報に基づいて、記憶部140に格納されているコンテンツを自動的に削除してもよい。
 ここまでは、コンテンツを選択するのはユーザが所持する情報処理装置100である場合の例を示してきたが、本開示は係る例に限定されるものでは無い。ユーザの状況の解析までを情報処理装置100が行って、コンテンツの選択は、外部サービス10を提供するサーバ装置が実行してもよい。また、情報処理装置100はユーザの状況の解析に用いられるデータを外部サービス10に送信して、ユーザの状況の解析及びコンテンツの選択を、外部サービス10を提供するサーバ装置が実行してもよい。
 (ユースケース例)
 ここまでは、本開示の一実施形態に係る情報処理装置100の動作例を説明してきた。続いて、本開示の一実施形態に係る情報処理装置100を使用することで起こりうるユースケースの例を列挙する。
 (例1)
 ユーザが朝起きて、通勤のために家を出ると、情報処理装置100がニュースアプリケーションを自動で起動した。ユーザは、通勤中にニュースアプリケーションで最新のニュースをチェックすることが出来た。
 (例2)
 ユーザが最寄りの駅に到着したが、どうもいつも乗る電車は人身事故で動いていないようだ。すると、情報処理装置100がルート案内アプリケーションを自動で起動した。ユーザは、ルート案内アプリケーションを見て、出勤のための迂回ルートを検索することが出来た。
 (例3)
 ユーザが外出先で会議に出席していた。その会議が終了するタイミングで、情報処理装置100がメールケーションを自動で起動した。ユーザは、メールアプリケーションが彼女からのメールを受信していたので、彼女からの大事な連絡を見逃さずに済んだ。
 (例4)
 ユーザが外出先から会社に戻るために、情報処理装置100が朝に自動で起動したルート案内アプリケーションを手動で起動した。すると、手動での起動なので情報処理装置100はルート案内アプリケーションの利用料金を支払うように表示した。ユーザは、ルート案内アプリケーションの利用料金を支払って、ルート案内アプリケーションを利用した。
 (例5)
 ユーザが会社からの帰宅途中にレンタルビデオ店に立ち寄った。情報処理装置100は、ユーザのレンタルビデオ店への入店に応じて、有料の映画レビューアプリケーションを自動的に起動し、ユーザが手にとったDVDのレビューを表示した。しかし、ユーザへ彼女から電話があったので、ユーザはすぐに映画レビューアプリケーションを終了して、レンタルビデオ店から出た。従って、情報処理装置100が起動した映画レビューアプリケーションへの料金の支払い請求はされなかった。
 (例6)
 ユーザは、休みの日の朝、ダイエットのために早く起きてランニングを始めることにした。ユーザが走り始めると、情報処理装置100は有料のランニングアプリケーションを自動的に起動して、ペースや走行距離をユーザに提示することが出来る。ユーザが3kmほど走ると、情報処理装置100はランニングアプリケーションについて料金の支払いの可能性を通知する。ユーザはこのランニングアプリケーションを気に入ったので、そのまま走り続けた。そしてユーザが5kmほど走ったところでランニングアプリケーションを終了させて、ランニングアプリケーションの利用料金を支払った。
 (例7)
 ユーザは、休みの日の昼に彼女と待ち合わせていた。ランチの時間になると、情報処理装置100はレストランガイドアプリケーションを起動した。ユーザは、ストランガイドアプリケーションを利用して、待ち合わせ場所の近くで評判のレストランを探すことが出来た。
 (例8)
 ユーザは、彼女とのランチを済ませ、映画を観るために映画館の近くに移動した。すると情報処理装置100は映画レビューアプリケーションを自動的に起動した。ユーザは、映画レビューアプリケーションを見て、他のユーザに評判の映画を彼女と観ることにした。
 (例9)
 ユーザは、彼女と映画を観た後にカフェに入り、夏休みにグアムに旅行をする話をしていた。すると、情報処理装置100は、ユーザの会話内容を解析し、旅行ガイドアプリケーションを自動的に起動した。ユーザは、旅行ガイドアプリケーションでグアムの観光案内を見ながら彼女と楽しく会話することが出来た。
 (例10)
 ユーザは、彼女とのデートを終えて帰宅した後、テレビを見ているとグアムの観光CMが流れた。すると、情報処理装置100は、テレビでグアムの観光CMが放映されたのに応じて旅行ガイドアプリケーションを自動的に起動した。しかし、そのアプリケーションは、ユーザが昼にカフェで利用したものと違っていた。そこで、ユーザは情報処理装置100を操作して利用履歴を表示させて、昼に利用した旅行ガイドアプリケーションを選択して起動した。
 このように、本開示の一実施形態にかかる情報処理装置100は、様々な場面においてあらゆるコンテンツを選択して、自動的に実行することが出来る。もちろん、本開示の一実施形態にかかる情報処理装置100を使用することで考えられるユースケースは上述の10個の例に限られないことは言うまでもない。
 <2.ハードウェア構成例>
 次に、図23を参照して、本開示の一実施形態にかかる情報処理装置100のハードウェア構成について説明する。図23は、本開示の実施形態にかかる情報処理装置100のハードウェア構成例を示すブロック図である。上記の各アルゴリズムは、例えば、図23に示す情報処理装置のハードウェア構成を用いて実行することが可能である。つまり、当該各アルゴリズムの処理は、コンピュータプログラムを用いて図23に示すハードウェアを制御することにより実現される。
 なお、この図23に示したハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、接触式又は非接触式のICチップ、接触式又は非接触式のICカード、スピーカ、テレビ、モニタ、ウェアラブル機器、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy-phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
 図23に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
 CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
 出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro-Luminescence Displayの略である。
 記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
 ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu-rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
 接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS-232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
 通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は接触又は非接触通信用のデバイス等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
 <3.まとめ>
 以上説明したように、本開示の一実施形態によれば、入力されるデータからユーザの状況を解析し、ユーザの状況に基づいてユーザの状況に適合するコンテンツを選択することが可能な情報処理装置100が提供される。また、本開示の一実施形態によれば、ユーザの状況に適合するコンテンツに対する動作を、ユーザ装置でのコンテンツの有無に応じて変化させることが可能な情報処理装置100が提供される。
 本開示の一実施形態に係る情報処理装置100は、ユーザの状況に適合するコンテンツが保存されていれば、そのコンテンツを読み出して起動し、ユーザの状況に適合するコンテンツが保存されていなければ、そのコンテンツを外部サービス10からダウンロードして起動する。すなわち、本開示の一実施形態に係る情報処理装置100は、ユーザの状況に適合するコンテンツに対する動作を、ユーザ装置でのコンテンツの有無に応じて変化させることが出来る。
 本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。
 また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの一部又は全部は、たとえばインターネット等のネットワークを介して接続されるサーバ装置で実現されてもよい。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの構成は、単独の装置で実現されてもよく、複数の装置が連携するシステムで実現されても良い。複数の装置が連携するシステムには、例えば複数のサーバ装置の組み合わせ、サーバ装置と端末装置との組み合わせ等が含まれ得る。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、に基づいて、該ユーザの状況に関連する情報に基づいて特定されるコンテンツの処理内容を変化させる制御部を備える、情報処理装置。
(2)
 前記ユーザの非操作情報には、該ユーザの状況に関する情報が含まれる、前記(1)に記載の情報処理装置。
(3)
 前記コンテンツはアプリケーションソフトウェアであり、前記制御部は、前記コンテンツが前記ユーザの状況に関連する情報に基づいて特定された場合と、前記コンテンツがユーザの明示的な操作に基づいて特定された場合とで、前記コンテンツに対して異なる処理を行う、前記(2)に記載の情報処理装置。
(4)
 前記制御部は、前記コンテンツが前記ユーザの状況に関連する情報に基づいて特定された場合か否かに応じて、実行される該コンテンツの機能を変化させる、前記(3)に記載の情報処理装置。
(5)
 前記制御部は、前記コンテンツが前記ユーザの状況に関連する情報に基づいて特定された場合か否かに応じて、実行される該コンテンツの使用可能時間を変化させる、前記(3)に記載の情報処理装置。
(6)
 前記制御部は、前記コンテンツが前記ユーザの状況に関連する情報に基づいて特定された場合か否かに応じて、実行される該コンテンツの使用権限を得るための条件を変化させる、前記(3)に記載の情報処理装置。
(7)
 前記条件は、前記コンテンツの使用権限を得るために課された料金が支払われることであり、前記条件の変化としては、前記料金の額を変化させることである、前記(6)に記載の情報処理装置。
(8)
 前記制御部は、前記ユーザ装置の特性に応じて、ユーザの非操作情報に基づいて特定されるコンテンツを決定する、前記(1)~(7)のいずれかに記載の情報処理装置。
(9)
 前記制御部は、ユーザの非操作情報に基づいて特定されるコンテンツの表示を、前記ユーザ装置の特性に応じて変化させる、前記(1)~(7)のいずれかに記載の情報処理装置。
(10)
 前記制御部は、前記ユーザ装置が複数存在する場合に、前記ユーザ装置毎に実行するコンテンツを異ならせる、前記(1)~(9)のいずれかに記載の情報処理装置。
(11)
 前記制御部は、実行されるコンテンツの使用権限を得るための条件を、該コンテンツの使用履歴に応じて変化させる、前記(1)~(10)のいずれかにに記載の情報処理装置。
(12)
 前記制御部は、実行されるコンテンツの使用権限を得るための条件を、該コンテンツの使用量に応じて変化させる、前記(11)に記載の情報処理装置。
(13)
 前記制御部は、実行されるコンテンツの使用権限を得るための条件を、該コンテンツの使用時間に応じて変化させる、前記(12)に記載の情報処理装置。
(14)
 前記制御部は、実行されるコンテンツの使用権限を得るための条件を、該コンテンツの使用回数に応じて変化させる、前記(12)に記載の情報処理装置。
(15)
 前記制御部は、実行されるコンテンツの使用権限を得るための条件を、該コンテンツの使用目的に対する達成度合いに応じて変化させる、前記(11)に記載の情報処理装置。
(16)
 前記制御部は、実行されるコンテンツの使用権限を得るための処理の実行前に前記ユーザに前記処理の実行を通知する、前記(11)~(15)のいずれかにに記載の情報処理装置。
(17)
 前記制御部は、前記コンテンツに関する情報に記述されたコンテンツが前記ユーザ装置に存在していれば該コンテンツを読み出させ、前記コンテンツに関する情報に記述されたコンテンツが前記ユーザ装置に存在していなければ該コンテンツを前記ユーザ装置とは異なる装置から取得させる、前記(1)~(16)のいずれかにに記載の情報処理装置。
(18)
 前記制御部は、前記コンテンツが前記ユーザ装置に存在していなかったために該コンテンツを前記ユーザ装置とは異なる装置から取得させた場合に、該コンテンツの所定の複数回目以降の読み出しの際に該コンテンツの使用権限を得るための処理を実行させる、前記(17)に記載の情報処理装置。
(19)
 前記制御部は、動作させた前記コンテンツが自動で削除するための所定の条件を満たせば該条件に基づき削除させる、前記(1)~(18)のいずれかに記載の情報処理装置。
(20)
 前記制御部は、前記ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、を比較して得られる比較情報に基づいて、前記ユーザの非操作情報に基づいて特定されるコンテンツの処理内容を変化させる、前記(1)~(19)のいずれかに記載の情報処理装置。
(21)
 ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、に基づいて、該ユーザの状況に関連する情報に基づいて特定されるコンテンツの処理内容を変化させることを含む、情報処理方法。
(22)
 コンピュータに、
 ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、に基づいて、該ユーザの状況に関連する情報に基づいて特定されるコンテンツの処理内容を変化させることを実行させる、コンピュータプログラム。
10    :外部サービス
100   :情報処理装置
110   :入力装置
120   :ユーザ状況解析部
130   :コンテンツ選択部
140   :記憶部
150   :コンテンツ起動部
160   :コンテンツ実行部
170   :出力装置

Claims (20)

  1.  ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、に基づいて、該ユーザの非操作情報に基づいて特定されるコンテンツの処理内容を変化させる制御部を備える、情報処理装置。
  2.  前記ユーザの非操作情報には、該ユーザの状況に関する情報が含まれる、請求項1に記載の情報処理装置。
  3.  前記コンテンツはアプリケーションソフトウェアであり、前記制御部は、前記コンテンツが前記ユーザの状況に関連する情報に基づいて特定された場合と、前記コンテンツがユーザの明示的な操作に基づいて特定された場合とで、前記コンテンツに対して異なる処理を行う、請求項2に記載の情報処理装置。
  4.  前記制御部は、前記コンテンツが前記ユーザの状況に関連する情報に基づいて特定された場合か否かに応じて、実行される該コンテンツの機能を変化させる、請求項3に記載の情報処理装置。
  5.  前記制御部は、前記コンテンツが前記ユーザの状況に関連する情報に基づいて特定された場合か否かに応じて、実行される該コンテンツの使用可能時間を変化させる、請求項3に記載の情報処理装置。
  6.  前記制御部は、前記コンテンツが前記ユーザの状況に関連する情報に基づいて特定された場合か否かに応じて、実行される該コンテンツの使用権限を得るための条件を変化させる、請求項3に記載の情報処理装置。
  7.  前記条件は、前記コンテンツの使用権限を得るために課された料金が支払われることであり、前記条件の変化としては、前記料金の額を変化させることである、請求項6に記載の情報処理装置。
  8.  前記制御部は、前記ユーザ装置の特性に応じて、ユーザの非操作情報に基づいて特定されるコンテンツを決定する、請求項1に記載の情報処理装置。
  9.  前記制御部は、ユーザの非操作情報に基づいて特定されるコンテンツの表示を、前記ユーザ装置の特性に応じて変化させる、請求項1に記載の情報処理装置。
  10.  前記制御部は、前記ユーザ装置が複数存在する場合に、前記ユーザ装置毎に実行するコンテンツを異ならせる、請求項1に記載の情報処理装置。
  11.  前記制御部は、実行されるコンテンツの使用権限を得るための条件を、該コンテンツの使用履歴に応じて変化させる、請求項1に記載の情報処理装置。
  12.  前記制御部は、実行されるコンテンツの使用権限を得るための条件を、該コンテンツの使用量に応じて変化させる、請求項11に記載の情報処理装置。
  13.  前記制御部は、実行されるコンテンツの使用権限を得るための条件を、該コンテンツの使用目的に対する達成度合いに応じて変化させる、請求項11に記載の情報処理装置。
  14.  前記制御部は、実行されるコンテンツの使用権限を得るための処理の実行前に前記ユーザに前記処理の実行を通知する、請求項11に記載の情報処理装置。
  15.  前記制御部は、前記コンテンツに関する情報に記述されたコンテンツが前記ユーザ装置に存在していれば該コンテンツを読み出させ、前記コンテンツに関する情報に記述されたコンテンツが前記ユーザ装置に存在していなければ該コンテンツを前記ユーザ装置とは異なる装置から取得させる、請求項1に記載の情報処理装置。
  16.  前記制御部は、前記コンテンツが前記ユーザ装置に存在していなかったために該コンテンツを前記ユーザ装置とは異なる装置から取得させた場合に、該コンテンツの所定の複数回目以降の読み出しの際に該コンテンツの使用権限を得るための処理を実行させる、請求項15に記載の情報処理装置。
  17.  前記制御部は、動作させた前記コンテンツが自動で削除するための所定の条件を満たせば該条件に基づき削除させる、請求項1に記載の情報処理装置。
  18.  前記制御部は、前記ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、を比較して得られる比較情報に基づいて、前記ユーザの非操作情報に基づいて特定されるコンテンツの処理内容を変化させる、請求項1に記載の情報処理装置。
  19.  ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、に基づいて、該ユーザの非操作情報に基づいて特定されるコンテンツの処理内容を変化させることを含む、情報処理方法。
  20.  コンピュータに、
     ユーザの非操作情報に基づいて特定されるコンテンツの情報と、前記ユーザが使用するユーザ装置に記憶されているコンテンツに関する情報と、に基づいて、該ユーザの非操作情報に基づいて特定されるコンテンツの処理内容を変化させることを実行させる、コンピュータプログラム。
PCT/JP2016/053674 2015-03-19 2016-02-08 情報処理装置、情報処理方法及びコンピュータプログラム WO2016147744A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16764575.3A EP3273346A4 (en) 2015-03-19 2016-02-08 Information processing device, information processing method, and computer program
US15/543,332 US20180004742A1 (en) 2015-03-19 2016-02-08 Information processing device, information processing method, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-055805 2015-03-19
JP2015055805A JP2016177422A (ja) 2015-03-19 2015-03-19 情報処理装置、情報処理方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2016147744A1 true WO2016147744A1 (ja) 2016-09-22

Family

ID=56918595

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/053674 WO2016147744A1 (ja) 2015-03-19 2016-02-08 情報処理装置、情報処理方法及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US20180004742A1 (ja)
EP (1) EP3273346A4 (ja)
JP (1) JP2016177422A (ja)
WO (1) WO2016147744A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110276017A (zh) * 2019-06-28 2019-09-24 百度在线网络技术(北京)有限公司 一种数据分析方法及装置
JP7254346B2 (ja) * 2019-08-26 2023-04-10 株式会社Agama-X 情報処理装置及びプログラム
JP7478717B2 (ja) * 2021-11-17 2024-05-07 エヌ・ティ・ティ・コミュニケーションズ株式会社 端末装置、通信方法及び通信プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342198A (ja) * 2001-05-16 2002-11-29 Victor Co Of Japan Ltd 電子機器システム及び電子機器
JP2005092469A (ja) * 2003-09-17 2005-04-07 Nec Corp アプリケーション取得/起動システム、携帯端末装置及びそれらに用いるアプリケーション取得/起動方法
JP2006146630A (ja) * 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
JP2008131594A (ja) * 2006-11-24 2008-06-05 Nippon Telegr & Teleph Corp <Ntt> アプリケーション制御システムおよび制御方法
JP2009230585A (ja) * 2008-03-24 2009-10-08 Sony Computer Entertainment Inc 情報処理装置
JP2011519206A (ja) * 2008-04-03 2011-06-30 セクウェント,インク. 最新のコール機能の利用及び販売システム並びに方法
WO2015004756A1 (ja) * 2013-07-10 2015-01-15 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および、動作モードの制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6812937B1 (en) * 1998-12-18 2004-11-02 Tangis Corporation Supplying enhanced computer user's context data
US7885896B2 (en) * 2002-07-09 2011-02-08 Avaya Inc. Method for authorizing a substitute software license server
US7542816B2 (en) * 2005-01-27 2009-06-02 Outland Research, Llc System, method and computer program product for automatically selecting, suggesting and playing music media files
US7836151B2 (en) * 2007-05-16 2010-11-16 Palo Alto Research Center Incorporated Method and apparatus for filtering virtual content
US8191117B2 (en) * 2007-10-25 2012-05-29 Anchorfree, Inc. Location-targeted online services
US8225206B2 (en) * 2010-02-22 2012-07-17 Robert Bosch Gmbh User preference based collecting of music content
US20120221687A1 (en) * 2011-02-27 2012-08-30 Broadcastr, Inc. Systems, Methods and Apparatus for Providing a Geotagged Media Experience
US20140298257A1 (en) * 2013-04-01 2014-10-02 Cosmic Eagle, Llc User interfaces and associated processes for information resources

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342198A (ja) * 2001-05-16 2002-11-29 Victor Co Of Japan Ltd 電子機器システム及び電子機器
JP2005092469A (ja) * 2003-09-17 2005-04-07 Nec Corp アプリケーション取得/起動システム、携帯端末装置及びそれらに用いるアプリケーション取得/起動方法
JP2006146630A (ja) * 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
JP2008131594A (ja) * 2006-11-24 2008-06-05 Nippon Telegr & Teleph Corp <Ntt> アプリケーション制御システムおよび制御方法
JP2009230585A (ja) * 2008-03-24 2009-10-08 Sony Computer Entertainment Inc 情報処理装置
JP2011519206A (ja) * 2008-04-03 2011-06-30 セクウェント,インク. 最新のコール機能の利用及び販売システム並びに方法
WO2015004756A1 (ja) * 2013-07-10 2015-01-15 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および、動作モードの制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3273346A4 *

Also Published As

Publication number Publication date
EP3273346A1 (en) 2018-01-24
US20180004742A1 (en) 2018-01-04
EP3273346A4 (en) 2018-09-05
JP2016177422A (ja) 2016-10-06

Similar Documents

Publication Publication Date Title
JP6670350B2 (ja) サードパーティサービスをデジタルアシスタントと統合するシステム及び方法
US9489457B2 (en) Methods and apparatus for initiating an action
US8812474B2 (en) Methods and apparatus for identifying and providing information sought by a user
US8438127B2 (en) Behaviour pattern analysis system, mobile terminal, behaviour pattern analysis method, and program
US11520807B2 (en) Multi-application state navigation
JP5904021B2 (ja) 情報処理装置、電子機器、情報処理方法、及びプログラム
US11301584B2 (en) Automated personalized out-of-the-box and ongoing in-application settings
US8635201B2 (en) Methods and apparatus for employing a user&#39;s location in providing information to the user
EP3123429A1 (en) Personalized recommendation based on the user&#39;s explicit declaration
JP2009080733A (ja) 広告提供システム、広告提供システムに用いられる携帯電話装置、広告提供システムに用いられるナビゲーション装置、広告提供方法、広告受信方法、広告提供プログラム、広告受信プログラム、および記録媒体
US20130018864A1 (en) Methods and apparatus for identifying and providing information of various types to a user
WO2019049491A1 (ja) 情報処理装置および情報処理方法
US11436293B2 (en) Characterizing a place by features of a user visit
JPWO2016167039A1 (ja) 情報処理装置、情報処理方法、コンピュータプログラム及びサーバ装置
US20150370903A1 (en) Delivering Personalized Information
WO2016147744A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2019021336A (ja) サーバ装置、端末装置、情報提示システム、情報提示方法、情報提示プログラムおよび記録媒体
WO2019005333A1 (en) GEOGRAPHIC RESEARCH OFFLINE
JPWO2016052501A1 (ja) ユーザインタフェース装置、プログラム及びコンテンツの通知方法
US20240223635A1 (en) Systems and methods for switching between media content
JP6387287B2 (ja) 不明事項解消処理システム
JP6267298B1 (ja) 提供装置、提供方法、提供プログラム、端末装置、出力方法、及び出力プログラム
JP7052617B2 (ja) 情報処理装置、情報処理システム、及び、情報処理方法
CN109074240A (zh) 信息处理设备、信息处理方法和程序
WO2023071461A1 (zh) 直播活动预告方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16764575

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15543332

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2016764575

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE