Nothing Special   »   [go: up one dir, main page]

WO2018061491A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2018061491A1
WO2018061491A1 PCT/JP2017/028896 JP2017028896W WO2018061491A1 WO 2018061491 A1 WO2018061491 A1 WO 2018061491A1 JP 2017028896 W JP2017028896 W JP 2017028896W WO 2018061491 A1 WO2018061491 A1 WO 2018061491A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
state
information processing
processing apparatus
output
Prior art date
Application number
PCT/JP2017/028896
Other languages
English (en)
French (fr)
Inventor
健一 生出
崇行 水内
治 西田
宏久 渋谷
多恵子 臼井
泰輔 中園
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201780057764.6A priority Critical patent/CN109792577B/zh
Priority to US16/333,742 priority patent/US10809972B2/en
Priority to JP2018541971A priority patent/JP6973400B2/ja
Priority to EP17855449.9A priority patent/EP3522566B1/en
Publication of WO2018061491A1 publication Critical patent/WO2018061491A1/ja
Priority to US17/028,236 priority patent/US11256473B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/3005Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/32Automatic control in amplifiers having semiconductor devices the control being dependent upon ambient noise level or sound level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/01Hearing devices using active noise cancellation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/07Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • acoustic devices that simply output acoustic information, such as earphones and headphones, that are used by a user wearing on their heads (hereinafter sometimes referred to as “head-mounted acoustic devices”) Not only that, but those with functions added to the usage scene are becoming popular.
  • head-mounted acoustic devices that can suppress the environmental sound (so-called noise) from the external environment and enhance the sound insulation effect by using a so-called noise reduction technology (noise canceling technology).
  • noise noise
  • Patent Document 1 discloses an example of an acoustic device using such a noise reduction technique.
  • the sound of the external environment is collected by a sound collection unit such as a microphone, and the sound is output via the head-mounted acoustic device, so that the user wears the head-mounted acoustic device.
  • a sound collection unit such as a microphone
  • the sound is output via the head-mounted acoustic device, so that the user wears the head-mounted acoustic device.
  • a function that enables listening to the sound of the external environment is also referred to as an “Ambient function”.
  • the functions related to the control of the sound output are selectively used according to the user's state and situation in order to realize the reproduction sound field space desired by the user.
  • the user's state and situation change sequentially.
  • the user activates or deactivates the above-described functions such as noise reduction and ambient according to the state and situation at each time, or turns the head-mounted acoustic device as necessary.
  • a complicated operation such as temporary removal may be required.
  • an information processing apparatus, information processing, and information processing capable of listening to sound in a more preferable manner without complicated operations even in a situation where a user's state and situation change sequentially A method and program are proposed.
  • a recognition processing unit that recognizes a user state according to a detection result of a predetermined state or situation, and each of the plurality of user state candidates selected according to a predetermined condition
  • an output control unit that controls the output of the sound based on the function map associated with the setting related to the control of the sound output from the predetermined output unit and the recognized state of the user.
  • the computer recognizes a user state according to a detection result of a predetermined state or situation, and a plurality of user state candidates selected according to a predetermined condition Control the output of the sound based on the function map associated with the setting related to the control of the output of the sound from the predetermined output unit and the recognized state of the user, respectively.
  • a processing method is provided.
  • the computer recognizes the user state according to the detection result of the predetermined state or situation, and the plurality of user state candidates selected according to the predetermined condition Controlling the output of the sound based on the function map associated with the setting related to the control of the output of the sound from the predetermined output unit and the recognized state of the user, respectively, A program is provided.
  • a processing device, an information processing method, and a program are provided.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of an information processing system according to a first embodiment of the present disclosure.
  • FIG. 15 is an explanatory diagram for describing an example of a function map according to Modification 1-1 of the embodiment. It is a block diagram showing an example of functional composition of an information processing system concerning a 2nd embodiment of this indication. It is explanatory drawing for demonstrating an example of the action scenario which assumed the user's action at the time of commuting. It is explanatory drawing for demonstrating an example of the action scenario which assumed the user's action at the time of commuting.
  • FIG. 10 is an explanatory diagram for explaining an overview of an information processing system according to a modification 2-2.
  • FIG. 10 is an explanatory diagram for explaining an overview of an information processing system according to a modification 2-2.
  • FIG. 10 is an explanatory diagram for explaining an operation of an information processing system according to Modification 2-3.
  • FIG. 10 is an explanatory diagram for explaining an operation of an information processing system according to Modification 2-3.
  • FIG. 10 is an explanatory diagram for explaining an operation of an information processing system according to Modification 2-3.
  • FIG. 10 is an explanatory diagram for explaining an operation of an information processing system according to Modification 2-3.
  • FIG. 10 is an explanatory diagram for explaining an operation of an information processing system according to Modification 2-3.
  • FIG. 10 is an explanatory diagram for explaining an operation of an information processing system according to Modification 2-3.
  • FIG. 3 is a block diagram illustrating an example of a hardware configuration of an information processing apparatus according to an embodiment of the present disclosure.
  • FIG. 1 is an explanatory diagram for describing an example of a schematic configuration of an information processing system according to an embodiment of the present disclosure.
  • the information processing system 1 includes an information processing apparatus 10 and an acoustic device 30.
  • the acoustic device 30 can be configured as, for example, a head-mounted acoustic device such as overhead headphones or earphones. Moreover, the acoustic device 30 may include various devices for realizing a function related to control of acoustic output, such as a noise reduction function and an ambient function. An example of the configuration of the acoustic device 30 for realizing the noise reduction function and the ambient function will be described later in detail.
  • the information processing apparatus 10 can be configured as, for example, a smartphone, a tablet terminal, a portable audio player, or the like.
  • various types of information can be transmitted / received to / from each other via the network.
  • the information processing apparatus 10 controls the operation of the acoustic device 30 via the network.
  • the information processing apparatus 10 transmits a control command for executing a desired operation to the acoustic device 30 via the network, so that the operation of the acoustic device 30 (particularly, regarding the acoustic output). Operation) may be controlled.
  • the information processing apparatus 10 transmits a control command to the acoustic device 30 to switch on / off a function related to control of sound output such as a noise reduction function and an ambient function. May be.
  • the information processing apparatus 10 transmits a control command to the acoustic device 30 to control the volume of sound (for example, audio content) output from the acoustic device 30.
  • the information processing apparatus 10 may acquire information regarding the acoustic device 30 (for example, information regarding the operation state) from the acoustic device 30 via a network.
  • the information processing apparatus 10 may present information acquired via a predetermined output unit to the user.
  • the information processing apparatus 10 may control the operation of the acoustic device 30 according to the acquired information.
  • the function of the information processing apparatus 10 controlling the operation of the acoustic device 30 via the network may be realized by installing a predetermined application in the information processing apparatus 10, for example.
  • an application for realizing the function may be installed in the information processing apparatus 10 in advance.
  • the example described above is merely an example, and the configuration of the information processing system is not necessarily limited to the example illustrated in FIG.
  • the information processing apparatus 10 and the acoustic device 30 may be integrally configured.
  • the information processing apparatus 10 and the acoustic device 30 may be connected via another apparatus (for example, a server).
  • FIG. 2 is an explanatory diagram for describing an example of a configuration of an acoustic device according to an embodiment of the present disclosure.
  • an example of the configuration of the acoustic device 30 will be described by focusing on the configuration for realizing the noise reduction function and the ambient function.
  • the acoustic device 30 is configured as a so-called headphone.
  • the acoustic device 30 includes a housing 311, a headband 312, a sound generator 341, microphones 321 and 322, a signal processing circuit 331, an equalizer (EQ) 332, an adder 333, and a power amplifier 334. including.
  • the housing 311 is mounted so as to cover the ear portion by being supported by the headband 312 so as to be positioned in the vicinity of the ear portion of the user Ua. Further, the housing 311 is connected by a headband 312 to another housing (not shown) that is mounted so as to cover the ear on the opposite side of the user Ua.
  • the microphone 321 is a sound collecting device for directly collecting sound (for example, environmental sound) propagating in the external space outside the housing 311.
  • the microphone 321 can be configured as a so-called MEMS microphone formed based on, for example, MEMS (Micro Electro Mechanical Systems) technology. Note that the installation location of the microphone 321 is not particularly limited as long as the sound propagating through the external space can be collected.
  • the microphone 321 may be provided in the housing 311 of the acoustic device 30 or may be provided at a position different from the housing 311.
  • the microphone 322 is a sound collection device for collecting sound propagating to an internal space inside the housing 311 (that is, a space connected to the external ear canal of the user Ua).
  • the microphone 322 can be configured as a so-called MEMS microphone formed based on the MEMS technology, for example.
  • the microphone 322 is installed inside the housing 311 so as to face the direction of the external auditory canal of the user Ua. Needless to say, the location of the microphone 322 is not particularly limited as long as the sound propagating to the internal space can be collected.
  • the signal processing circuit 331 is configured to execute various signal processes for realizing the noise reduction function and the ambient function described above.
  • the signal processing circuit 331 may implement a noise reduction function based on a so-called feed-forward method using a sound collection result of an acoustic wave that is collected by the microphone 321 and propagates in an external space outside the housing 311. Good.
  • the signal processing circuit 331 generates a noise reduction signal based on the sound collection result of the sound by the microphone 321 and outputs the generated noise reduction signal to the adder 333 located at the subsequent stage.
  • the signal processing circuit 331 may realize a noise reduction function based on a so-called feedback method using a sound collection result of sound propagating through the internal space inside the housing 311 collected by the microphone 322. .
  • the signal processing circuit 331 generates a noise reduction signal based on the sound collection result of the sound by the microphone 322, and outputs the generated noise reduction signal to the adder 333 located at the subsequent stage.
  • the signal processing circuit 331 may realize a noise reduction function by combining the feedforward method and the feedback method. In this case, the signal processing circuit 331 generates a noise reduction signal based on the sound collection results of the sounds by the microphones 321 and 322, respectively. Then, the signal processing circuit 331 generates a combined noise reduction signal by combining each of the generated noise reduction signals, and outputs the generated combined noise reduction signal to the adder 333 located at the subsequent stage.
  • the signal processing circuit 331 uses an ambient sound function by using a sound collection result of sound (that is, environmental sound) propagating in the external space outside the housing 311 collected by the microphone 321. May be realized. In this case, for example, the signal processing circuit 331 outputs an acoustic signal based on the sound collection result of the sound by the microphone 321 to the adder 333 located at the subsequent stage.
  • a sound collection result of sound that is, environmental sound
  • the equalizer 332 performs a so-called equalizing process on an acoustic signal (hereinafter sometimes referred to as “acoustic input”) input to the acoustic device 30 such as an audio content or a received signal in a voice telephone.
  • acoustic input an acoustic signal
  • the acoustic input that has been equalized by the equalizer 332 is added to the acoustic signal output from the signal processing circuit 331 by the adder 333 (that is, the noise reduction signal or the environmental sound collection result), and then the power Amplified by the amplifier 334 and converted into sound by the sound generator 341.
  • the sounding body 341 corresponds to a so-called speaker, and converts the sound signal into sound by being driven based on the input sound signal.
  • the noise reduction function when the noise reduction function is enabled, the sound signal obtained by adding the sound input and the noise reduction signal is converted into sound by the sound generator 341, and the sound is converted to the user. Listened to by Ua. Therefore, in this case, the user Ua can listen to the acoustic input in which the influence of the environmental sound is reduced.
  • the ambient function when the ambient function is enabled, the sound signal obtained by adding the sound input and the sound collection result of the environmental sound is converted into sound by the sound generator 341, and the sound is converted to the user. Listened to by Ua. Therefore, in this case, the user Ua can listen to the environmental sound propagating in the external environment even when the acoustic device 30 is attached.
  • functions related to sound output control are selectively used according to the state and situation of the user in order to realize a reproduction sound field space desired by the user.
  • the ambient function is enabled so that the sound of the external environment can be heard in situations where the user needs to understand the surroundings, such as when moving outdoors.
  • the audio content is more suitable by suppressing environmental sound from the external environment and enhancing the sound insulation effect.
  • the noise reduction function is enabled so that listening can be performed in a different environment.
  • the present disclosure makes it possible to listen to sound in a more preferable manner without complicated operations even in a situation where the user's state or situation changes sequentially ( In other words, a technique for providing a more suitable reproduction sound field space is proposed.
  • an information processing system according to an embodiment of the present disclosure will be described in more detail.
  • FIGS. 3 to 5 are explanatory diagrams for explaining the outline of the information processing system according to the present embodiment.
  • FIG. 3 shows an example of a schematic configuration for realizing the information processing system according to the present embodiment.
  • a recognition engine for recognizing a user state is incorporated in an application for controlling the operation of the acoustic device 30.
  • the recognition engine shown in FIG. 3 recognizes the state (action) of the user holding the information processing apparatus 10 based on detection results from various sensors provided in the information processing apparatus 10, for example.
  • the recognition engine is configured to change the position or orientation of the information processing apparatus 10 or the vibration of the information processing apparatus 10 by an acceleration sensor (for example, a triaxial acceleration sensor) provided in the information processing apparatus 10.
  • the state of the user holding the information processing apparatus 10 is recognized by analyzing the detection result such as.
  • FIG. 4 shows an example of user status candidates recognized by the recognition engine.
  • “Stay” indicates a state where the user is stopped (in other words, a state where the user is not walking or running).
  • “Walk” indicates a state in which the user is walking
  • “Run” indicates a state in which the user is running.
  • “Vehicle” indicates a state where the user is moving on a vehicle such as a bus or a train.
  • Bicycle indicates a state in which the user is driving a bicycle and moving.
  • a control process for controlling the operation of the acoustic device 30 is operating on the application layer based on the recognition engine. That is, the control process determines a setting related to the control of the acoustic output by the acoustic device 30 according to the recognition result of the user state by the recognition engine, and generates a control command according to the determined setting. And a control process controls the operation
  • FIG. 5 shows an example of operation settings related to sound output according to the user's state.
  • the noise reduction function ON / OFF for each of the user status candidates described with reference to FIG. 4, the noise reduction function ON / OFF, the ambient function ON / OFF, and music (for example, , Audio content) playback ON / OFF, volume control content related to music playback, and respective settings are shown.
  • the control data in which operation settings relating to sound output are defined for each possible user state candidate is also referred to as a “function map”.
  • the noise reduction function is enabled, the ambient function is disabled, the music playback is enabled, and the volume of the music is set.
  • Various settings are associated with each other. Such a setting suppresses environmental sound (so-called noise) from the external environment and enhances the sound insulation effect, so that the user can listen to music (audio content) in a state where the influence of noise is reduced. It becomes.
  • the noise reduction function is enabled, the ambient function is disabled, the music playback is enabled, and the volume of the music is set to a preset value as a reference.
  • Various settings are associated with. Therefore, even in such a case, the user can listen to the music (audio content) in a state where the influence of noise is reduced.
  • the noise reduction function is disabled, the ambient function is enabled, the music playback is enabled, and the volume of the music is preset as a reference.
  • Various settings are associated so as to be a value. With such a setting, the user can listen to environmental sounds from the external environment, so that it is possible to grasp the surrounding situation with the acoustic device 30 attached. Even if the volume of the music is set to a relatively high value, the volume is adjusted to the value set as a reference, so that the user can listen to the environmental sound from the external environment captured by the ambient function. It becomes easy to do.
  • only a part of the settings of the series of operations related to the sound output described above may be controlled.
  • the setting relating to the control of the noise reduction function is associated with the state indicating “Bicycle”, and the noise reduction function is set to be invalidated.
  • the function map shown in FIG. 5 is merely an example, and the settings relating to the control of the sound output associated with each of the user status candidates are not necessarily limited to the example shown in FIG. That is, in the function map according to the present embodiment, a combination of settings related to each of a plurality of types of control may be associated with each of the user status candidates as in the example illustrated in FIG. Settings may be associated only with respect to the control. Further, the type of operation related to the sound output to be controlled is not limited. As a specific example, only the noise reduction function and the ambient function may be set as control targets. As another example, operations other than the example shown in FIG. 5 may be set as control targets as operations related to sound output.
  • the above-described user candidate states are merely examples, and the states are not necessarily limited to the above-described examples as long as the recognition engine can recognize them.
  • “Vehicle”, which is a candidate of the user's state has been described as a state where the user is moving on a vehicle such as a bus or a train.
  • the state of moving on another moving body such as a ship or an airplane may be recognized.
  • the information processing apparatus 10 Based on the configuration as described above, the information processing apparatus 10 according to the present embodiment recognizes the user state at every predetermined timing (for example, every few seconds), and responds to the recognition result of the user state at that time. Then, the operation of the acoustic device 30 is controlled. As a result, even under a situation where the user's own state or situation changes sequentially, the user is involved in complicated operations such as turning on / off functions such as noise canceling and ambient, or temporarily removing the acoustic device 30. In any case, it is possible to listen to sound (for example, music being reproduced, ambient environmental sound, etc.) in a more preferable manner.
  • sound for example, music being reproduced, ambient environmental sound, etc.
  • FIG. 6 is a block diagram illustrating an example of a functional configuration of the information processing system according to the present embodiment.
  • the information processing system according to the present embodiment is described as configured by connecting the information processing apparatus 10 and the acoustic device 30 via a network as shown in FIG.
  • the acoustic device 30 includes a communication unit 301, a control unit 305, and an acoustic output unit 303.
  • the communication unit 301 is a configuration for the acoustic device 30 to transmit and receive various types of information to and from other external devices (for example, the information processing device 10) via a predetermined network.
  • the communication unit 301 can include, for example, a communication antenna, an RF (Radio Frequency) circuit, a baseband processor, and the like when transmitting and receiving various types of information to and from an external device via a wireless network.
  • RF Radio Frequency
  • the sound output unit 303 includes a sounding body such as a speaker (for example, the sounding body 341 shown in FIG. 2), converts the input drive signal (sound signal) into sound, and outputs the sound.
  • a sounding body such as a speaker (for example, the sounding body 341 shown in FIG. 2), converts the input drive signal (sound signal) into sound, and outputs the sound.
  • the control unit 305 is a configuration for controlling the operation of the sound output unit 303.
  • the control unit 305 performs predetermined acoustic processing on the acoustic signal (that is, acoustic input) transmitted from the information processing apparatus 10 via a predetermined network, and converts the acoustic signal to the acoustic output unit 303. Convert and output.
  • control unit 305 may include a signal processing unit 307 that performs various signal processing on the sound input.
  • the signal processing unit 307 may perform various types of signal processing for realizing a noise reduction function on the sound input.
  • the signal processing unit 307 generates a noise reduction signal based on the sound collection result of the sound of the external environment (that is, the environmental sound) by a predetermined microphone (not shown), What is necessary is just to add the said noise reduction signal produced
  • the signal processing unit 307 may perform various types of signal processing for realizing the ambient function on the sound input.
  • the signal processing unit 307 may add the sound collection result of the sound of the external environment (that is, the environmental sound) by a predetermined microphone (not shown) to the sound input.
  • control part 305 and the signal processing part 307 mentioned above is an example to the last, and if it is the process which concerns on the output of the sound based on the input acoustic signal, the classification will not be limited only to the example mentioned above.
  • Various processes performed by the control unit 305 and the signal processing unit 307 may be controlled by the information processing apparatus 10 via a network. In this case, for example, the control unit 305 and the signal processing unit 307 may perform various processes based on a control command transmitted from the information processing apparatus 10 via the network.
  • the information processing apparatus 10 includes a communication unit 101, a detection unit 103, a recognition processing unit 105, an output control unit 107, an output unit 109, and a storage unit 111.
  • the communication unit 101 is a configuration for the information processing apparatus 10 to transmit and receive various types of information to and from other external apparatuses (for example, the acoustic device 30) via a predetermined network.
  • the communication unit 101 can include, for example, a communication antenna, an RF circuit, a baseband processor, and the like when transmitting and receiving various types of information to and from an external device via a wireless network.
  • a communication antenna for example, a communication antenna, an RF circuit, a baseband processor, and the like when transmitting and receiving various types of information to and from an external device via a wireless network.
  • the information is transmitted via the communication unit 101 unless otherwise described. It is assumed that transmission / reception is performed.
  • the output unit 109 is an output interface for the information processing apparatus 10 to present various information to the user.
  • the output unit 109 may include a display device that outputs an image such as a still image or a moving image, such as a so-called display.
  • the output unit 109 may include an acoustic device that outputs sound, such as a speaker.
  • the output unit 109 may include a vibration device that presents the information to the user by vibrating in a pattern corresponding to the information to be presented, such as a so-called vibrator.
  • the storage unit 111 is a storage area for storing various data temporarily or permanently.
  • the storage unit 111 may store data for the information processing apparatus 10 to execute various functions.
  • the storage unit 111 may store data (for example, a library) for executing various applications, management data for managing various settings, and the like.
  • the storage unit 111 may store data of various contents (for example, audio contents such as music).
  • the detection unit 103 is configured to detect various states and situations.
  • the detection unit 103 includes various sensors such as an acceleration sensor and an angular velocity sensor, and detects changes in the position and orientation of a predetermined object (for example, the information processing apparatus 10). Based on the information thus detected, for example, the movement of the object is detected, and as a result, the state of the user holding the object (in particular, the state relating to the user's action such as walking and running) can be recognized (estimated). It becomes possible.
  • the detection unit 103 may include a configuration for detecting the position of the information processing apparatus 10 (and thus the user who holds the information processing apparatus 10), such as GPS (Global Positioning System). Good.
  • GPS Global Positioning System
  • the detection unit 103 has a configuration for acquiring information for recognizing or estimating the state and situation of the external environment of the information processing apparatus 10 (and thus the user holding the information processing apparatus 10). May be included.
  • the detection unit 103 may include an imaging unit such as a so-called camera, and may acquire an imaging result of an external environment video (for example, a still image or a moving image) by the imaging unit. By analyzing the video imaged in this way, for example, it is possible to recognize or estimate the situation around the user holding the information processing apparatus 10.
  • the detection unit 103 may include a sound collection unit such as a so-called microphone, and may acquire a sound collection result of the sound of the external environment (for example, environmental sound) by the sound collection unit. By analyzing the sound collected in this manner, it is possible to recognize or estimate the situation around the user holding the information processing apparatus 10.
  • the detection unit 103 detects various states and situations at predetermined timings, and sequentially outputs information indicating the detection results to the recognition processing unit 105 described later.
  • the recognition processing unit 105 sequentially acquires information indicating detection results of various states and situations from the detection unit 103, and based on the acquired information, the state of the user who holds the information processing apparatus 10 (particularly the state related to the user's action). ) Is recognized (or estimated).
  • the recognition processing unit 105 includes a configuration corresponding to the recognition engine described with reference to FIG. 3, and receives the information acquired from the detection unit 103 as an input, and the state of the user is determined at predetermined timings. It is determined which of the user status candidates described with reference to FIG.
  • FIG. 7 is an explanatory diagram for explaining an outline of processing related to recognition of a user state. In this description, the description will be given focusing on the case where the recognition engine recognizes the state of the user based on the detection result of the change in the position and orientation of the information processing apparatus 10 by the acceleration sensor.
  • the recognition engine adds up the detection results sequentially output from the acceleration sensor with a predetermined period (for example, 5 seconds) as one frame.
  • the recognition engine uses the detection results totaled for each frame based on the teacher data generated in advance by so-called machine learning to the class set at the time of the learning (for example, the user status candidate shown in FIG. 4).
  • Classify As described above, the recognition processing unit 105 calculates the likelihood (that is, the probability of being in the class) for each class (that is, the candidate of the user state), and the calculation result of the likelihood. Is output as a temporary output value.
  • the recognition engine calculates the likelihood of each class of “Stay”, “Walk”, “Run”, “Vehicle”, and “Bicycle” as relative values so that the sum between each class is 1.0. May be.
  • the value output as the calculation result of the likelihood of each class is not necessarily limited.
  • the likelihood of each class may be calculated individually independently of other classes.
  • the recognition processing unit 105 recognizes the state of the user based on information indicating the likelihood of each class output from the recognition engine. For example, it is assumed that the likelihood of “Walk” is the highest and the likelihood of “Vehicle” is the lowest among the classes indicating the respective user status candidates shown in FIG. In this case, the recognition processing unit 105 recognizes that the user state is “Walk”.
  • the recognition processing unit 105 recognizes the state of the user for each frame and outputs information indicating the recognition result to the output control unit 107 described later.
  • the output control unit 107 controls the operation of the acoustic device 30 connected to the information processing apparatus 10 via a network. For example, the output control unit 107 reads out and reproduces audio content from a predetermined storage area (for example, the storage unit 111), and transmits an acoustic signal based on the reproduction result to the acoustic device 30, thereby responding to the acoustic signal. Sound may be output to the acoustic device 30.
  • a predetermined storage area for example, the storage unit 111
  • the output control unit 107 controls the operation of the acoustic device 30 by transmitting a control command to the acoustic device 30.
  • the output control unit 107 may generate a control command based on a user input via a predetermined input unit (not shown). Thereby, the output control unit 107 can control the operation of the acoustic device 30 in a manner desired by the user.
  • the output control unit 107 acquires information indicating the recognition result of the user state from the recognition processing unit 105, and transmits a control command corresponding to the acquired information to the acoustic device 30.
  • the operation of the acoustic device 30 may be controlled.
  • the output control unit 107 compares the acquired information indicating the recognition result of the user state with the function map described with reference to FIG. Specify settings related to control.
  • the function map for example, a function map generated in advance may be stored in advance in a predetermined storage area (for example, the storage unit 111) that can be referred to by the output control unit 107.
  • the output control unit 107 controls the operation of the acoustic device 30 by transmitting a control command corresponding to the specified setting to the acoustic device 30.
  • a control command corresponding to the specified setting e.g., the operation of the acoustic device 30 related to the sound output, such as ON / OFF of the noise reduction function, the ambient function, and the reproduction of the music, and the volume related to the reproduction of the music, are sometimes changed. It is dynamically controlled according to the user status.
  • the timing at which the output control unit 107 controls the operation of the acoustic device 30 according to the information indicating the recognition result of the user state acquired from the recognition processing unit 105 is not particularly limited.
  • the output control unit 107 when the output control unit 107 recognizes that the state of the user has changed, the output control unit 107 transmits a control command corresponding to the changed state of the user to the acoustic device 30, thereby the acoustic device 30.
  • the operation may be controlled.
  • the output control unit 107 recognizes that the user state has changed, the output control unit 107 controls only the setting updated according to the change of the user state among the settings corresponding to the user state after the change. It may be a target.
  • the output control unit 107 may control the operation of the acoustic device 30 by transmitting a control command to the acoustic device 30 only for the updated settings. Further, as another example, the output control unit 107 transmits the control command corresponding to the recognition result of the user state at the timing to the acoustic device 30 at every predetermined timing, so that the operation of the acoustic device 30 is performed. You may control regularly.
  • the example described above is merely an example, and the timing at which the output control unit 107 controls the operation of the acoustic device 30 according to the recognition result of the user's state is the usage pattern of the information processing system 1 according to the present embodiment. It may be changed as appropriate according to the situation.
  • the output control unit 107 may present the information to the user by causing the output unit 109 to output various types of information.
  • the output control unit 107 may feed back the control result to the user by causing the output unit 109 to output information corresponding to the control result of the operation of the acoustic device 30.
  • the output control unit 107 acquires various types of information (for example, information indicating an operation state) related to the acoustic device 30 from the acoustic device 30, and causes the output unit 109 to output the acquired information. May be. Thereby, the user can recognize the state of the acoustic device 30 connected to the information processing apparatus 10 via the network.
  • the functional configuration of the information processing system 1 described above is merely an example, and if the functions of the information processing apparatus 10 and the acoustic device 30 can be realized, the functional configuration of the information processing system 1 is not necessarily illustrated in FIG. It is not limited to the example shown. As a specific example, the information processing apparatus 10 and the acoustic device 30 may be integrally configured. As another example, some of the components of the information processing device 10 may be provided in another device (for example, a server) different from the information processing device 10.
  • FIG. 8 is a flowchart illustrating an example of a flow of a series of processes of the information processing system according to the present embodiment.
  • the information processing apparatus 10 (recognition processing unit 105) is based on information indicating detection results of various states and situations that are sequentially acquired by the detection unit 103, and the user who holds the information processing apparatus 10. Recognize the state (particularly the state related to the user's action) (S101).
  • the information processing apparatus 10 compares the recognition result of the user's state with a predetermined function map to set the settings related to the control of the sound output according to the user's state (for example, noise)
  • a reduction function, an ambient function setting, etc. are specified (S103).
  • the information processing apparatus 10 controls the operation of the acoustic device 30 by transmitting a control command according to the specified setting to the acoustic device 30 via the network (S105).
  • the information processing apparatus 10 may control the operation of the acoustic device 30 according to the state of the user after the change.
  • the operation of the acoustic device 30 related to the sound output such as ON / OFF of each of the noise reduction function, the ambient function, and the reproduction of the music, and the volume related to the reproduction of the music, is sometimes changed. It is dynamically controlled according to the state of the user.
  • the timing at which the series of processes shown in FIG. 8 is executed is not particularly limited.
  • the information processing apparatus 10 may periodically execute a series of processes illustrated in FIG. 8 at predetermined timings.
  • the information processing apparatus 10 may execute a series of processes illustrated in FIG. 8 using a predetermined event as a trigger.
  • the above-described example is merely an example, and the timing at which the series of processing illustrated in FIG. 8 is performed may be appropriately changed according to the usage mode of the information processing system 1.
  • the information processing apparatus 10 recognizes the state of the user and the acoustic device 30 according to the recognition result.
  • the description has been given focusing on the process for controlling the operation of the above.
  • Modification 1-1 Example of function map
  • control settings relating to sound output are associated one-to-one with each of the user status candidates. Therefore, for example, when the user status is recognized as “Stay”, the noise reduction function is enabled, the ambient function is disabled, the music playback is enabled, and the volume of the music is reduced. As described above, the operation of the acoustic device 30 is uniquely controlled.
  • the setting desired by the user may differ depending on the situation at that time as the control setting related to the sound output. For example, when the user's state transitions from “Walk” to “Stay”, it may be assumed that the user walking outdoors stops walking and stops temporarily. In such a case, for example, even if the user state transitions to “Stay”, the noise reduction is performed in the same manner as the setting when the user state is “Walk” so that the user can grasp the surrounding situation. In some cases, it is desirable that the function is disabled and the ambient function is enabled.
  • a function map may be set so as to take over the previous state (setting) for some candidates of the user state.
  • FIG. 9 is an explanatory diagram for describing an example of a function map according to Modification 1-1 of the present embodiment.
  • the noise reduction function ON / OFF when the user status is “Stay” and “Bicycle”, the noise reduction function ON / OFF, the ambient function ON / OFF, and the music playback ON / OFF, The volume control contents related to the reproduction of the music are set to take over the previous state.
  • control settings related to sound output may be associated with each combination of states before and after transition.
  • control settings relating to sound output may be individually associated with transition from “Walk” to “Stay” and transition from “Vehicle” to “Stay”.
  • Modification 1-2 Update of function map
  • the information processing apparatus 10 may be provided with a function for updating a function map applied by the information processing apparatus 10.
  • the information processing apparatus 10 may present a user interface for updating a function map held by the information processing apparatus 10 to the user. More specifically, the information processing apparatus 10 transmits the setting contents of the function map held by the information processing apparatus 10, that is, the settings related to the control of the sound output associated with each candidate of the user state, via the predetermined output unit. May be presented. Further, the information processing apparatus 10 may update at least some of the settings related to the control of the sound output associated with each of the user status candidates based on the user input via the predetermined input unit. . With such a configuration, it is possible to customize for each user the setting relating to the control of the sound output according to the recognition result of the user state.
  • Modification 1-3 Example of control related to recognition of user state
  • the information processing apparatus 10 aggregates the detection results by the detection unit such as various sensors for each frame, and based on the teacher data generated in advance by machine learning, the aggregation result is set to the class set at the time of the learning. By classifying them, the user's state is recognized.
  • the relevance between the user's behavior and the state detected by the detection unit in accordance with the behavior is, for example, information specific to the user (for example, user-specific information such as acupuncture) Depending on the operation, it may be assumed that it differs for each user.
  • the information processing apparatus 10 uses a machine learning that uses a recognition result of the user state based on a detection result by the detection unit, so that a teacher used to recognize the user state is used.
  • the data is configured to be updatable.
  • the information processing apparatus 10 generates a sample by associating the past detection result by the detection unit with the recognition result of the user state according to the detection result, and based on the sample, the user's The teacher data used for state recognition may be updated.
  • the information processing apparatus 10 can dynamically update the teacher data based on the recognition result of the user state. Even under such circumstances, it becomes possible to recognize the state of the user more accurately.
  • Modification 1-3 an example in which teacher data is updated by machine learning has been described as an example of control related to recognition of a user state by the information processing apparatus 10.
  • the information processing apparatus 10 recognizes the user state according to the detection result of the predetermined state or situation, and according to the recognition result of the user state.
  • the operation of the acoustic device 30 (particularly, the setting relating to the control of the acoustic output) is controlled. With such a configuration, even under a situation where the user's state and situation change sequentially, the user can perform various sounds such as so-called audio contents and ambient environmental sounds without complicated operations. It is possible to listen in a more preferable manner.
  • Second Embodiment >> ⁇ 3.1. Overview> Subsequently, an information processing system according to the second embodiment of the present disclosure will be described.
  • the technique for controlling the operation of the acoustic device 30 (particularly, the setting relating to the control of the acoustic output) according to the state of the user has been described.
  • a use case that is assumed to be used at work during normal sunrise and a use case that is assumed to be used while exercising on a holiday there are more preferable settings for controlling the sound output in each of the user's conditions. May be different.
  • the function map is appropriately switched according to a scenario (hereinafter, also referred to as “behavior scenario”) assuming a user's action, so that it is more suitable for the situation at that time.
  • a scenario hereinafter, also referred to as “behavior scenario”
  • An example of a technique for controlling the operation of the acoustic device 30 will be described.
  • FIG. 10 is a block diagram illustrating an example of a functional configuration of the information processing system according to the present embodiment.
  • the information processing system according to the present embodiment may be referred to as an “information processing system 1a” when distinguished from the information processing system 1 according to the first embodiment.
  • the information processing system 1 a includes an information processing apparatus 10 a and an acoustic device 30.
  • the acoustic device 30 is the same as the acoustic device 30 in the information processing system 1 (see FIG. 6) according to the first embodiment described above. Therefore, detailed description of the configuration of the acoustic device 30 is omitted.
  • the information processing apparatus 10a has a configuration corresponding to the information processing apparatus 10 in the information processing system 1 according to the first embodiment described above, and is different from the information processing apparatus 10 described above particularly in that it includes a scenario selection unit 113. . Therefore, in the present description, the configuration of the information processing apparatus 10a will be described by focusing on the difference from the information processing apparatus 10 according to the first embodiment described above, and the configuration similar to the information processing apparatus 10 will be described. Detailed description is omitted.
  • the input unit 115 is an input interface for the user to input various information to the information processing apparatus 10a.
  • the input unit 115 may include input devices such as buttons, levers, and touch panels, for example.
  • the recognition processing unit 105 sequentially acquires information indicating detection results of various states and situations from the detection unit 103, and based on the acquired information, the state of the user who holds the information processing apparatus 10 (particularly the state related to the user's action). ) Is recognized (or estimated), and the recognition result is output to the output control unit 107.
  • movement it is the same as that of the information processing apparatus 10 which concerns on 1st Embodiment mentioned above.
  • the recognition processing unit 105 may acquire information indicating various states and situations as information related to a selection condition for the scenario selection unit 113 described later to select an action scenario. Examples of the information regarding the selection conditions for the action scenario (details will be described later) include information indicating a date, day of the week, and time zone, and user position information. For example, the recognition processing unit 105 may acquire information indicating the date or day of the week by referring to information such as a calendar. As another example, the recognition processing unit 105 may recognize the time zone at that time based on the time measurement result by the time measurement unit. As another example, the recognition processing unit 105 may acquire information indicating the position of the user holding the information processing apparatus 10 based on the position information acquired by the detection unit 103 (for example, GPS). .
  • the recognition processing unit 105 may acquire information related to the user's attributes, such as the user's age and sex, as information related to the action scenario selection conditions. For example, the recognition processing unit 105 may acquire information related to the user's attributes such as the user's age and sex by referring to user information registered in the information processing apparatus 10 in advance. As another example, the recognition processing unit 105 may acquire information on user attributes by accessing a network service such as SNS.
  • a network service such as SNS.
  • the recognition processing unit 105 acquires information indicating various states and situations and information on user attributes as information related to the action scenario selection condition, and outputs the acquired information to the scenario selection unit 113. To do.
  • the scenario selection unit 113 acquires information related to the action scenario selection condition from the recognition processing unit 105, estimates the user's behavior (in other words, transition of the user's state) based on the acquired information, and obtains the estimation result. Select the corresponding action scenario.
  • the scenario selection unit 113 recognizes that the commuting time is a weekday according to the information indicating the date and day of the week and the information indicating the time zone, and responds to the user's action during the commuting time on weekdays.
  • a corresponding behavior scenario may be selected.
  • the scenario selection unit 113 recognizes that the user is near his / her home according to the location information of the user, and assumes the case where the user moves from his / her home to the nearest station during workdays on weekdays.
  • a scenario may be selected.
  • the scenario selection unit 113 may select an action scenario corresponding to a user action on a holiday according to information indicating a date or a day of the week.
  • the scenario selection unit may select an action scenario corresponding to an action when the user performs exercise such as exercise on a holiday according to the information indicating the time zone and the position information of the user. .
  • the scenario selecting unit 113 may select an action scenario by referring to information on a user's schedule registered in advance and estimating the user's action based on the reference result.
  • the scenario selection unit 113 may specify a moving means to the place based on the information on the destination location of the user registered as a schedule, and may specify an action scenario according to the specified moving means. Details of the action scenario will be described later with a specific example.
  • the scenario selection unit 113 may select an action scenario based on a user input via the input unit 115.
  • the information processing apparatus 10 may present a user interface (for example, GUI) for selecting an action scenario to the user via the output unit 109.
  • GUI user interface
  • the user can selectively switch an applied behavior scenario by selecting a desired behavior scenario based on an operation according to the presented user interface.
  • the scenario selection unit 113 extracts a function map corresponding to the selected action scenario.
  • the function map may be generated in advance for each possible action scenario and stored in advance in a storage area (for example, the storage unit 111) that can be referred to by the scenario selection unit 113.
  • a function map corresponding to each behavior scenario is generated so that a more suitable setting related to the control of sound output is associated with each of the user status candidates according to the use case assumed in the behavior scenario. It is good to be.
  • the scenario selection unit 113 outputs the extracted function map to the output control unit 107.
  • the output control unit 107 acquires the function map extracted from the scenario selection unit 113 according to the action scenario selection result. Further, the output control unit 107 acquires information indicating the recognition result of the user state from the recognition processing unit 105. The output control unit 107 is recognized as the selected action scenario by comparing the function map acquired from the scenario selection unit 113 and the information indicating the recognition result of the user state acquired from the recognition processing unit 105. The setting related to the control of the sound output according to the user's state is specified. Then, the output control unit 107 controls the operation of the acoustic device 30 by transmitting a control command corresponding to the specified setting to the acoustic device 30.
  • the information processing apparatus 10 appropriately switches (for example, dynamically switches) the function map according to an action scenario (in other words, a use case) that assumes the user's action. It becomes possible to control the operation of the acoustic device 30 in a more suitable manner according to the situation.
  • an action scenario in other words, a use case
  • Action scenario> an example of an action scenario related to switching of the function map and an example of control related to selection of the action scenario will be described in more detail.
  • FIG.11 and FIG.12 is explanatory drawing for demonstrating an example of the action scenario which assumed the user's action at the time of commuting.
  • the user carries the information processing apparatus 10 (for example, a smartphone), wears the acoustic device 30 (for example, headphones), and then starts walking toward the nearest station after leaving home.
  • the user's state is first recognized as “Stay” and transitions to “Walk” with the start of walking.
  • the user stops temporarily in front of the pedestrian crossing because the signal is red on the way to the station, confirms that the signal turns blue, and starts walking again toward the station.
  • the state of the user changes to “Stay” when the user stops in front of the pedestrian crossing, and then changes to “Walk” again when the signal changes to blue and the user resumes walking. .
  • the state of the user is recognized as “Walk” when moving to the escalator and transitions to “Stay” because the user himself / herself has stopped after getting on the escalator.
  • the user gets off the escalator, moves to the place where he / she normally waits for boarding, and waits for the arrival of the train at that place.
  • the state of the user transitions from “Stay” to “Walk” when the user walks off the escalator, and transitions from “Walk” to “Stay” upon arrival at the place waiting for the ride. . Thereafter, the state of the user continues to be “Stay” until the arrival of the train.
  • the user walks to the nearest station after leaving home at the time of commuting, moves to the nearest station after arrival at the station, and waits for the train to be boarded.
  • the state (action) of the user transitions between “Stay” and “Walk”.
  • the user's state (behavior) is assumed when a user who arrives at the station platform on a weekday commute moves to a station near the company using a train.
  • An example of the transition will be described with a specific example.
  • a user waiting for a train gets on an arrived train, moves to the middle position of the vehicle, grabs on a hanging strap, and then the train departs.
  • the state of the user transitions to “Walk” as the user moves, transitions to “Stay” when the user stops in the train, and then transitions to “Vehicle” as the train departs.
  • the train on which the user has boarded has stopped at several stations before arriving at a station near the user's company.
  • the state of the user transitions from “Vehicle” to “Stay” as the train stops, and transitions from “Stay” to “Vehicle” when the train departs again. Thereafter, when the train arrives at a station near the user's company, the user is assumed to have got off the train. In this case, the state of the user transitions from “Vehicle” to “Stay” as the train stops, and transitions from “Stay” to “Walk” when the user walks off the train.
  • the user's state is “Walk” and “Stay” as the user gets on and off the train or the train repeatedly starts and stops. ”And between“ Stay ”and“ Vehicle ”.
  • the user's state transitions between “Stay” and “Vehicle” as the train starts and stops, but the user himself / herself is stopped. Yes, it is assumed that this is different from the case where the walking user intentionally stops.
  • the previous state For example, a function map that is defined to take over the setting in “Vehicle” may be selected.
  • the user who gets off the train passes the ticket gate, walks from the station toward the company, starts moving, stops at a convenience store on the way to the company, and then arrives at the company.
  • the state of the user transitions to “Walk” as the user moves, temporarily transitions to “Stay” upon arrival at the convenience store, After that, when the user starts moving again, the transition is made to “Walk”. Therefore, also in this case, for example, a function map similar to the example described above with reference to FIG. 11 may be selected.
  • FIG.13 and FIG.14 is explanatory drawing for demonstrating another example of the action scenario which assumed the user's action at the time of commuting.
  • the user puts the information processing apparatus 10 in a bag and wears the acoustic device 30, then runs to a bicycle parking lot at home, takes a bicycle that is stopped, leaves the home, and heads for the nearest station.
  • the state of the user is first recognized as “Stay”, transitions to “Run” when the travel starts, and transitions to “Stay” when the bicycle in the parking lot arrives at the position where the bicycle is stopped. . Thereafter, when the user starts moving on a bicycle, the state of the user transitions from “Stay” to “Bicycle” via “Run” or “Walk”.
  • the user's state is that the user transitioned from “Bicycle” to “Stay” by stopping in front of the pedestrian crossing, and then the signal changed to blue and the user resumed moving on the bicycle. Transition to “Bicycle” again.
  • a noise reduction function is provided so that even if a user traveling on a bicycle temporarily stops due to a signal or the like, the surrounding situation can be grasped in the same manner as when traveling on a bicycle.
  • the previous state For example, a function map that is defined to take over the setting in “Bicycle” may be selected.
  • the noise reduction function is disabled (turned off) and the ambient function is enabled (turned on).
  • a function map may be selected.
  • the user moves between the vehicles by temporarily getting off the train several times along the way, and at the station near the company. It is assumed that the door has been moved closer to the door by the ticket gate.
  • the state of the user changes from “Vehicle” to “Stay” when the train stops, and changes to “Walk” or “Run” as the user moves.
  • the user state transitions to “Stay” again when the user's movement is completed, and transitions to “Vehicle” again when the train departs.
  • the user status is “Vehicle”, “Stay”, Even when transitioning between “Walk” or “Run”, it may be desirable for the user to be able to grasp the surrounding situation during this time.
  • the function map in which the noise reduction function is disabled and the ambient function is enabled may be selected.
  • FIGS. 15 and 16 are explanatory diagrams for explaining an example of an action scenario that assumes a user's action on a holiday.
  • the user first performs stretching in a state where the information processing apparatus 10 is fixed to his / her arm by an arm band or the like, warms up by walking, and then starts jogging.
  • the state of the user is recognized as “Stay” during stretching, transitions to “Walk” with the start of walking, and then transitions to “Run” with the start of jogging.
  • the user may be moving outdoors during walking and jogging.
  • a function map in which the noise reduction function is disabled or the ambient function is enabled may be selected so that the user can grasp the surrounding situation.
  • the user exercises at a place where entry of a vehicle or the like is restricted such as a playground.
  • a function map that is set so that the ambient function is disabled after the noise reduction function is selected is selected so that the user can perform exercises while enjoying the audio content. May be.
  • the user moved between the vehicles while the train stopped at the station and found an empty seat. Immediately after sitting in the seat, the old man got up in the car and got up again to sit on the old man. It is assumed that the train departs after a little movement. In this case, the state of the user transitions from “Vehicle” to “Walk” as the train stops, and transitions to “Stay” when the user sits on the seat. Also, the user's state transitions from “Stay” to “Walk” because the user starts moving after giving up the seat to the elderly, and then transitions to “Vehicle” again as the train departs.
  • the state of the user changes from “Vehicle” to “Walk” as the bus stops, and changes to “Stay” when the user stops in front of the money changer.
  • the state of the user changes from “Stay” to “Walk” when the user starts moving, and then changes to “Vehicle” again as the bus departs.
  • the information processing apparatus 10 generates an action scenario according to information (for example, detection results of various states and situations, user attribute information, and the like) related to the acquired action scenario selection conditions. It may be selected dynamically, and in this case, it is desirable to select an action scenario that is more appropriate to the situation at hand. In view of such a situation, the information processing apparatus 10 may apply a machine learning technique to processing related to selection of an action scenario.
  • information for example, detection results of various states and situations, user attribute information, and the like
  • the information processing apparatus 10 compares the information related to the acquired selection condition of the action scenario with the teacher data generated in advance by machine learning, so that the information is assigned to each action scenario at the time of the learning. Classify in the class set in association. As described above, the information processing apparatus 10 calculates a likelihood for each class (that is, an action scenario), and an action scenario (and thus a function map corresponding to the action scenario) based on the calculation result of the likelihood. Should be selected.
  • the information processing apparatus 10 may update the teacher data by machine learning.
  • the information processing apparatus 10 associates the selection conditions of the action scenario determined in the past with the selection result of the action scenario corresponding to the condition (and thus the function map corresponding to the action scenario).
  • a sample is generated in step (b), and teacher data used to select an action scenario is updated based on the sample.
  • the information processing apparatus 10 can select an action scenario that is more appropriate to the situation at each time with higher accuracy.
  • the information processing apparatus 10 can change the behavior pattern of each user according to the behavior pattern of the user even in a situation where the behavior pattern is different for each user. It is possible to select an action scenario that suits the situation.
  • the action scenario described above with reference to FIGS. 11 to 16 is merely an example, and is not necessarily limited to the example described above.
  • the unit to which the behavior scenario is applied is not particularly limited.
  • one action scenario may be applied for each day, or one day may be divided into a plurality of time zones, and different behavior scenarios may be applied for each time zone.
  • the applied action scenario may be dynamically switched according to the situation at that time.
  • different behavior scenarios may be applied depending on the current position of the user and the destination of the user.
  • FIG. 17 is a flowchart illustrating an example of a flow of a series of processes of the information processing apparatus 10 according to the present embodiment.
  • the information processing apparatus 10 acquires information indicating various states and situations and information regarding user attributes as information related to the action scenario selection condition. Then, the information processing apparatus 10 (scenario selection unit 113) estimates the user's behavior (in other words, transition of the user's state) based on the information related to the acquired behavior scenario selection condition, and the behavior corresponding to the estimation result. A scenario is selected (S201).
  • the information processing apparatus 10 determines the state of the user who holds the information processing apparatus 10 (particularly, the user) based on information indicating detection results of various states and situations sequentially acquired by the detection unit 103. Is recognized (S203).
  • the information processing apparatus 10 (the output control unit 107) relates to the control of sound output according to the user state by comparing the function map selected according to the behavior scenario and the recognition result of the user state.
  • Setting for example, setting of a noise reduction function, an ambient function, etc. is specified (S205).
  • the information processing apparatus 10 controls the operation of the acoustic device 30 by transmitting a control command corresponding to the specified setting to the acoustic device 30 via the network (S207).
  • the information processing apparatus 10 may control the operation of the acoustic device 30 according to the state of the user after the change.
  • the operation of the acoustic device 30 related to the sound output such as ON / OFF of each of the noise reduction function, the ambient function, and the reproduction of the music, and the volume related to the reproduction of the music, is sometimes changed. It is dynamically controlled according to the state of the user.
  • the timing at which the series of processes shown in FIG. 17 is executed is not particularly limited.
  • the information processing apparatus 10 may periodically execute a series of processes illustrated in FIG. 17 at predetermined timings.
  • the information processing apparatus 10 may execute a series of processes illustrated in FIG. 17 using a predetermined event as a trigger.
  • the above-described example is merely an example, and the timing at which the series of processes illustrated in FIG. 17 is performed may be appropriately changed according to the usage mode of the information processing system 1a.
  • the information processing apparatus 10 recognizes the user's state and the acoustic device 30 according to the recognition result.
  • the description has been given focusing on the process for controlling the operation of the above.
  • Modification 2-1 “Long Stay” setting
  • “Stay” indicates a status where the user is stopped.
  • the state in which the user is stopped includes, for example, a state in which the user is temporarily stopped due to a signal waiting or the like, and a state in which the user is resting or performing some work (for example, desk work) for a long time.
  • a stopped state in other words, a constantly stopped state
  • the information processing apparatus 10 recognizes the state where the user is temporarily stopped as “Stay”, and the state where the user is constantly stopped is “ It is recognized as “Long Stay”, which is different from “Stay”. Specifically, when the “Stay” state continues for a certain period or longer, the information processing apparatus 10 changes the user state to “Long Stay”. With such a configuration, the information processing system according to the modified example 2-1 can apply different control to each of the case where the user state is “Stay” and the case where the user state is “Long Stay”. Become.
  • the information processing apparatus 10 does not control the operation of the acoustic device 30 when the state indicating “Stay” is recognized, and when the state indicating “Long Stay” is recognized.
  • the operation of the acoustic device 30 may be controlled. By such control, for example, when the user temporarily stops due to a signal waiting or the like, it is possible to suppress the occurrence of an operation in which the operation of the acoustic device 30 is temporarily changed.
  • Modification Example 2-1 an example in which “Long Stay” is provided as a user status candidate has been described.
  • Modification 2-2 Exclusion from determination target
  • a modified example 2-2 an example will be described in which some of the preset user status candidates are excluded from the determination target related to the control of the sound output according to a predetermined condition. To do.
  • acoustic device 30 such as an earphone or a headphone while driving a bicycle is restricted by laws and regulations, or is not desirable in consideration of safety during driving. Can be done.
  • a function map may be set in
  • FIG. 18 is an explanatory diagram for explaining the outline of the information processing system according to the modified example 2-2, and shows an example of function map presets assuming a plurality of action scenarios.
  • a plurality of action scenarios A to D are assumed, and a function map corresponding to each of the action scenarios is set.
  • the action scenario A shows an example of an action scenario that is assumed to be used during commuting or attending school.
  • the action scenario B shows an example of an action scenario that is assumed to be used when performing an exercise such as walking.
  • the action scenario C shows an example of an action scenario that is assumed to be used during work such as desk work.
  • the action scenario D shows an example of an action scenario that is assumed to be used when the user is immersed in a hobby.
  • the corresponding control items are hatched. ing.
  • the state indicating “Bicycle” is the sound output. It is excluded from the object of the judgment regarding the control.
  • action scenario A will be described.
  • the action scenario A since it is assumed to be used at the time of commuting or attending school, it is unlikely that a state where it is constantly stopped due to a break or the like will be recognized. Therefore, in the function map corresponding to the action scenario A, the state indicating “Long Stay” is excluded from the determination targets related to the control of the sound output.
  • action scenario B will be described.
  • the function map corresponding to the behavior scenario B since it is assumed that the user uses the vehicle when exercising such as walking, the possibility that the user moves on a vehicle such as a bus or a train is not likely to be recognized. Therefore, in the function map corresponding to the behavior scenario B, the state indicating “Vehicle” is excluded from the determination targets related to the control of the sound output. Further, in walking or the like, there are cases where the contents of more desirable settings differ between a state where the vehicle is temporarily stopped due to a signal or the like and a state where the vehicle is constantly stopped due to a break or the like. Therefore, in the function map corresponding to the action scenario B, “Stay” and “Long Stay” are explicitly distinguished, and different settings are applied to each. More specifically, even if the state indicating “Stay” is recognized, the setting of the previous state is inherited. However, when the state indicating “Long Stay” is recognized, the noise reduction function and the ambient function are clearly indicated. Controlled.
  • action scenario C will be described.
  • the action scenario C it is assumed that the user is using the desk work or the like during work, so that the state where the user moves on a vehicle such as a bus or train or the state where the user moves and moves can be recognized. The nature is low. Therefore, in the function map corresponding to the behavior scenario C, the states indicating “Run” and “Vehicle” are excluded from the determination targets regarding the control of the sound output. Also in the action scenario C, the state where it is temporarily stopped and the state where it is constantly stopped are explicitly distinguished from each other. That is, in the function map corresponding to the behavior scenario C, “Stay” and “Long Stay” are explicitly distinguished, and different settings are applied to each.
  • action scenario D Since the scenario in which the user is immersed in the hobby is assumed in the action scenario D, as in the action scenario C, a state in which the user moves on a vehicle such as a bus or a train, It is unlikely that a moving state will be recognized. Therefore, in the function map corresponding to the action scenario D, the states indicating “Run” and “Vehicle” are excluded from the determination targets related to the control of the sound output. In addition, in the action scenario D, it is assumed that the user is immersed in one work, so “Stay” and “Long Stay” are recognized as “Stay” without explicitly distinguishing them. Yes. In the function map corresponding to the action scenario D, when the state indicating “Stay” is recognized, the noise reduction function is activated so that the user can enjoy the audio content and the like. The ambient function is set to be invalidated.
  • the candidates may be set in advance as a preset as shown in FIG. 18, for example, as to whether or not to exclude from the determination target regarding the control of the sound output.
  • the setting as to whether or not to exclude at least some candidates from the determination target may be changed based on user input via a predetermined input unit.
  • the setting may be dynamically changed based on a predetermined condition so as to be excluded from the determination target.
  • the information processing apparatus 10 specifies the country in which the user is located based on position information acquired by GPS or the like, and some candidates are determined according to the laws and regulations of the specified country. You may update a setting so that it may be excluded from object.
  • the information processing apparatus 10 sets the setting regarding sound output control when the recognized user state is excluded from the determination target regarding sound output control in the function map selected according to the action scenario. What is necessary is just to control so that the previous state may be taken over.
  • Modification 2-2 with reference to FIG. 18, among candidates for user status set in advance, some candidates according to a predetermined condition are excluded from determination targets related to control of sound output. An example of the case will be described.
  • Modification 2-3 Control using detection results of multiple types of states and situations
  • FIGS. 19 to 23 an example of a mechanism for improving the user state recognition accuracy by using the detection results of a plurality of types of states and situations.
  • explain. 19 to 23 are explanatory diagrams for explaining the operation of the information processing system according to the modification 2-3.
  • the information processing system recognizes the user's status by selectively combining various statuses and status detection results by various types of detection units 103. Improve accuracy.
  • FIG. 19 and FIG. 20 show an outline of processing related to recognition of the user state by the information processing system according to Modification 2-3.
  • the information processing apparatus 10 is based on a detection result of acceleration applied to the information processing apparatus 10 by a triaxial acceleration sensor. Recognize the state (particularly the state related to the user's behavior). Then, based on the recognition result, the information processing apparatus 10 acquires behavior information indicating the user state and information indicating the likelihood of the user state.
  • the information processing apparatus 10 uses the detection results obtained by other detection units in addition to the detection results obtained by the acceleration sensor, thereby providing information indicating various states and situations. get.
  • the information processing apparatus 10 uses detection results of a triaxial angular velocity sensor (gyro), a GPS, a geomagnetic sensor, and the like.
  • the information processing apparatus 10 uses a system call such as an OS (Operation System) to turn on / off the screen (that is, display / non-display) and input / output information.
  • OS Operating System
  • the detection frequency (for example, sampling rate) of each detection unit may be set individually for each detection unit.
  • the sampling rate of the acceleration sensor or the angular velocity sensor may be different from the sampling rate of the GPS.
  • the detection frequency of the said state and condition may be set according to the characteristic of the state and condition which each detection part makes into a detection target. For example, for a state where the frequency of change is relatively low, such as on / off of the screen or on / off of the lock, the detection frequency of the state (in other words, the sampling rate) is changed to the detection frequency of other states. It may be set lower than that.
  • the information processing apparatus 10 recognizes various states and situations based on the detection results of each detection unit.
  • the frequency in other words, the timing
  • the information processing apparatus 10 recognizes various states and situations based on the detection results of each of the plurality of detection units in accordance with the lowest detection frequency among the detection frequencies of the plurality of detection units.
  • the frequency may be set. In this case, with respect to the detection result by the detection unit having a high detection frequency, a plurality of samples may be acquired until the detection result by the detection unit having a low detection frequency is acquired.
  • the information processing apparatus 10 may calculate information acquired as a detection result by the detection unit based on a plurality of samples acquired by a detection unit with a high detection frequency. As a specific example, the information processing apparatus 10 calculates an average value of a plurality of samples acquired by a detection unit having a high detection frequency, and acquires the calculated average value as a detection result by the detection unit. Also good.
  • the information processing apparatus 10 is based on the acquired various types of information, for example, whether or not the user is holding the information processing apparatus 10 by hand, information indicating the moving speed of the user, and whether the user is viewing the screen. Recognize various states and situations such as NO.
  • based on a detection result of a change in the position and orientation of the information processing apparatus 10 by an acceleration sensor or angular velocity sensor whether the user is holding the information processing apparatus 10 by hand (that is, a handheld state) It is possible to determine whether or not. Moreover, it is possible to detect a user's moving speed by monitoring the detection result of the positional information by GPS. It is also possible to infer whether or not the user is looking at the screen by using the on / off detection result of the screen and the detection result of lock on / off. Specifically, when the screen is on and the lock is off, it can be estimated that the user is looking at the screen.
  • the information processing apparatus 10 determines the state of the user based on the behavior information and likelihood acquired based on the detection result by the acceleration sensor and the recognition results of various states and situations acquired based on the detection results by the plurality of detection units. Confirm.
  • the information processing apparatus 10 includes the acquired behavior information, likelihood, information indicating whether or not the hand is held, information indicating whether or not the user is viewing the screen, the moving speed, and the screen.
  • the user's state is determined based on a predetermined determination logic using an action scenario selected in advance as an input.
  • the information processing apparatus 10 corrects the state of the user indicated by the behavior information based on the recognition results of various states and situations acquired based on the detection results of the plurality of detection units, thereby The recognition result may be confirmed.
  • the information processing apparatus 10 is used only when the behavior information acquired based on the detection result of the acceleration sensor indicates a predetermined candidate among a series of candidates of the user state. You may utilize the detection result by other detection parts other than an acceleration sensor. In this case, for example, when the acquired behavior information indicates a predetermined candidate, the information processing apparatus 10 activates another detection unit and recognizes various states and situations according to the detection result by the detection unit. Based on the above, the recognition result of the user state indicated by the behavior information may be corrected.
  • the information processing apparatus 10 determines the user's state (particularly, the state related to the user's action) according to the recognition results of various states and situations acquired based on the detection results by the plurality of detection units.
  • An example of the flow of processing for recognizing will be described.
  • FIG. 21 is a flowchart illustrating an example of a flow of a series of processes of the information processing apparatus 10 according to Modification 2-3.
  • the information processing apparatus 10 recognizes the state of the user based on the detection result of the triaxial acceleration applied to the information processing apparatus 10 by the acceleration sensor (S301).
  • the information processing apparatus 10 determines whether or not the recognition result of the user state indicates a predetermined candidate among a series of candidates of the user state (S303).
  • the recognition result of the user state indicates a predetermined candidate (that is, when the predetermined state is recognized) (S303, YES)
  • the information processing apparatus 10 detects another detection unit (for example, an acceleration sensor) (for example, , An angular velocity sensor, a GPS, etc.) are activated, and a detection result by the other detection unit is acquired (S305).
  • the predetermined state or situation recognition result according to the detection result by the other detection unit satisfies the predetermined condition (S307, YES)
  • the information processing apparatus 10 determines the user state based on the detection result of the acceleration sensor.
  • the recognition result is corrected based on the recognition result of the predetermined state or situation (S309).
  • the information processing apparatus 10 determines the corrected user state recognition result as the final user state recognition result (S311).
  • the information processing apparatus 10 is based on the detection result of the acceleration sensor when the recognition result of the predetermined state or situation according to the detection result by the other detection unit does not satisfy the predetermined condition (S307, NO).
  • the recognition result of the user state is determined as the final recognition result of the user state (S311). Further, when the recognition result of the user state based on the detection result of the acceleration sensor does not indicate a predetermined candidate (S303, NO), the information processing apparatus 10 displays the recognition result of the user state as the final user. As a result of recognizing the current state, it is confirmed (S311).
  • the information processing apparatus 10 recognizes the recognition result of the user state based on the detection result of the acceleration sensor for various states and situations according to the detection result by the other detection units. By correcting based on the recognition result, it is possible to improve the recognition accuracy of the user's state.
  • the information processing apparatus 10 may recognize the moving speed of the user based on the detection result by GPS when “Vehicle” is recognized as the user state based on the detection result of the acceleration sensor. . In this case, for example, when the recognition result of the moving speed of the user exceeds a predetermined speed, the information processing apparatus 10 may determine the user state as “Vehicle”. As another example, the information processing apparatus 10 activates the angular velocity sensor when “Vehicle” is recognized as the user state based on the detection result of the acceleration sensor, and displays the detection result of each of the acceleration sensor and the angular velocity sensor. Based on this, it may be determined whether it is in a hand-held state. In this case, for example, when it is determined that the information processing apparatus 10 is not in a handheld state, the user state may be determined as “Vehicle”.
  • the information processing apparatus 10 activates another detection unit when the recognition result of the user state based on the detection result of the predetermined detection unit indicates a predetermined candidate. Based on the detection result of the other detection unit, an example of the operation in the case of finalizing the recognition result of the user state will be described.
  • FIG. 22 shows that the information processing apparatus 10 recognizes another state by activating another detection unit when the detection result by the predetermined detection unit indicates “Vehicle”, and according to the recognition result.
  • the horizontal axis indicates time t.
  • the information processing apparatus 10 recognizes a user state based on a detection result of a predetermined detection unit or another state based on a detection result of another detection unit every predetermined unit time. Is aware of.
  • the information processing apparatus 10 may apply an acceleration sensor as a predetermined detection unit, and recognize the user's state based on the detection result of the acceleration sensor.
  • the information processing apparatus 10 may apply an angular velocity sensor as the other detection unit, and determine whether it is a handheld state based on the detection results of the acceleration sensor and the angular velocity sensor. For example, in FIG. 22, “L” means a hand-held state.
  • the information processing apparatus 10 recognizes that the state of the user has transitioned to a state indicating “Vehicle” at the timing indicated by the reference symbol t ⁇ b> 13. After t13, the state indicating “Vehicle” continues. In this case, the information processing apparatus 10 activates another detection unit at timing t13 and causes the other detection unit to start acquiring information for recognizing another state. More specifically, in the example illustrated in FIG. 22, the information processing apparatus 10 activates the angular velocity sensor at the timing t ⁇ b> 13 and determines whether the handheld state is based on the detection results of the acceleration sensor and the activated angular velocity sensor. The determination of whether or not is started.
  • the recognition result of another state based on the detection result by the other detection unit can be acquired after timing t15 after at least the unit time has elapsed from timing t13. Become. That is, at the timing t13, it is difficult for the information processing apparatus 10 to determine the state of the user based on the recognition result of the other state based on the detection result by the other detection unit. Therefore, in the example illustrated in FIG. 22, the information processing apparatus 10 takes over the recognition result of the user state at the timing t11 before the timing t13 as the user state at the timing t13. That is, in the example illustrated in FIG. 22, the information processing apparatus 10 determines the state of the user at the timing t ⁇ b> 13 as a state indicating “Walk” recognized at the timing t ⁇ b> 11.
  • the information processing apparatus 10 recognizes another state based on a detection result by another detection unit, and determines the final user state based on the recognition result. For example, in the example illustrated in FIG. 22, the information processing apparatus 10 changes the final user state to the detection result by the predetermined detection unit according to the recognition result of the other state based on the detection result by the other detection unit. It is determined as a state indicating “Vehicle” recognized based on the above. As a more specific example, when the information processing apparatus 10 recognizes a handheld state based on a detection result by an angular velocity sensor activated as the other detection unit, the information processing apparatus 10 displays the final user state as an acceleration sensor. It is determined as a state indicating the “Vehicle” recognized based on the detection result by.
  • the information processing apparatus 10 stops the other detection unit after starting the other detection unit as in the example illustrated in FIG. 22
  • the horizontal axis indicates time t.
  • the information processing apparatus 10 recognizes a user state based on a detection result of a predetermined detection unit or another state based on a detection result of another detection unit every predetermined unit time. Is aware of.
  • the information processing apparatus 10 recognizes that the state of the user has transitioned to a state indicating “Vehicle” at the timing indicated by the reference symbol t23. That is, the information processing apparatus 10 activates another detection unit at timing t23 and causes the other detection unit to start acquiring information for recognizing another state.
  • the information processing apparatus 10 takes over the recognition result of the user state at the timing t12 before the timing t23 (that is, the state indicating “Walk”) as the user state at the timing t23.
  • the information processing apparatus 10 recognizes that the user state has transitioned to a state indicating “Run” at a timing t25 after the timing t23, and after the timing t25, The state indicating “Run” continues.
  • the information processing apparatus 10 uses the timing t25 at which the recognition result of the user state based on the detection result by the predetermined detection unit transitions to a state other than “Vehicle” as a base point than the timing t25.
  • the other detection units for example, angular velocity sensors
  • the information processing apparatus 10 uses the recognition result of the user state by the predetermined detection unit (for example, an acceleration sensor) as the final recognition result of the user state. It has been confirmed.
  • the information processing apparatus 10 according to the modified example 2-3 includes the recognition result of the user state based on the detection result by the predetermined detection unit, and the predetermined state or situation based on the detection result by the other detection unit.
  • the final recognition result of the user state is finalized by combining the recognition result of.
  • the information processing apparatus 10 activates another detection unit when the user state recognition result based on the detection result of the predetermined detection unit indicates a predetermined candidate, Based on the detection result of the detection unit, the final recognition result of the user state may be determined.
  • the information processing apparatus 10 can activate another detection unit in order to improve the recognition accuracy of the state. For this reason, in the information processing system according to the modified example 2-3, it is not necessary to always activate some of the detection units, so that power consumption can be reduced.
  • the information processing apparatus 10 selects an action scenario according to a predetermined condition. For example, the information processing apparatus 10 selects an action scenario that is more appropriate to the current situation according to information related to action scenario selection conditions such as detection results of various states and situations, user attribute information, and the like. As another example, the information processing apparatus 10 may select an action scenario based on a user input via a predetermined input unit. Further, the information processing apparatus 10 recognizes the user state according to the detection result of the predetermined state or situation.
  • the information processing apparatus 10 controls the operation of the acoustic device 30 (particularly, settings related to the control of acoustic output) according to the function map corresponding to the selected behavior scenario and the recognition result of the user state.
  • the information processing apparatus 10 appropriately switches the function map according to an action scenario (in other words, a use case) assuming a user's action, in a more preferable aspect according to the situation at that time.
  • the operation of the acoustic device 30 can be controlled.
  • the configuration and the example of control described in the first embodiment can be similarly applied to the information processing system according to the present embodiment.
  • the configuration and control examples described as the modification examples 1-1 to 1-3 in the first embodiment can be similarly applied to the information processing system according to the present embodiment. It is.
  • FIG. 24 is a functional block diagram illustrating an example of a hardware configuration of an information processing apparatus that configures an information processing system according to an embodiment of the present disclosure.
  • the information processing apparatus 900 constituting the information processing system according to the present embodiment mainly includes a CPU 901, a ROM 903, and a RAM 905.
  • the information processing apparatus 900 further includes a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, and a connection port 923. And a communication device 925.
  • the CPU 901 functions as an arithmetic processing unit and a control unit, and controls all or a part of the operation in the information processing apparatus 900 according to various programs recorded in the ROM 903, the RAM 905, the storage apparatus 919, or the removable recording medium 927.
  • the ROM 903 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 905 primarily stores programs used by the CPU 901, parameters that change as appropriate during execution of the programs, and the like. These are connected to each other by a host bus 907 constituted by an internal bus such as a CPU bus. Note that the recognition processing unit 105 and the output control unit 107 described above with reference to FIG. 5 and the scenario selection unit 113 described above with reference to FIG. 8 can be realized by the CPU 901, for example.
  • the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
  • an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925 are connected to the external bus 911 via an interface 913.
  • the input device 915 is an operation means operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, a lever, and a pedal. Further, the input device 915 may be, for example, remote control means (so-called remote control) using infrared rays or other radio waves, or an external connection device such as a mobile phone or a PDA corresponding to the operation of the information processing device 900. 929 may be used. Furthermore, the input device 915 includes an input control circuit that generates an input signal based on information input by a user using the above-described operation means and outputs the input signal to the CPU 901, for example. A user of the information processing apparatus 900 can input various data and instruct a processing operation to the information processing apparatus 900 by operating the input device 915.
  • the input unit 115 described above with reference to FIG. 8 can be realized by the input device 915, for example.
  • the output device 917 is a device that can notify the user of the acquired information visually or audibly. Examples of such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices, display devices such as lamps, audio output devices such as speakers and headphones, printer devices, and the like.
  • the output device 917 outputs results obtained by various processes performed by the information processing apparatus 900. Specifically, the display device displays results obtained by various processes performed by the information processing device 900 as text or images.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs the analog signal.
  • the output unit 109 described above with reference to FIG. 5 can be realized by the output device 917, for example.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 900.
  • the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores programs executed by the CPU 901 and various data.
  • the storage unit 111 described above with reference to FIG. 5 can be realized by at least one of the RAM 905 and the storage device 919, for example.
  • the drive 921 is a reader / writer for a recording medium, and is built in or externally attached to the information processing apparatus 900.
  • the drive 921 reads information recorded on a removable recording medium 927 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905.
  • the drive 921 can also write a record to a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory that is mounted.
  • the removable recording medium 927 is, for example, a DVD medium, an HD-DVD medium, a Blu-ray (registered trademark) medium, or the like.
  • the removable recording medium 927 may be a compact flash (registered trademark) (CF: CompactFlash), a flash memory, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 927 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like.
  • CF CompactFlash
  • SD memory card Secure Digital memory card
  • the connection port 923 is a port for directly connecting to the information processing apparatus 900.
  • Examples of the connection port 923 include a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, and the like.
  • As another example of the connection port 923 there are an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, and the like.
  • the communication device 925 is a communication interface configured with, for example, a communication device for connecting to a communication network (network) 931.
  • the communication device 925 is, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communication, or the like.
  • the communication device 925 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or other communication devices.
  • the communication network 931 connected to the communication device 925 is configured by a wired or wireless network, and may be, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like. .
  • the communication unit 101 described above with reference to FIG. 5 can be realized by the communication device 925, for example.
  • a computer program for realizing each function of the information processing apparatus 900 constituting the information processing system according to the present embodiment as described above can be produced and mounted on a personal computer or the like.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • the number of computers that execute the computer program is not particularly limited.
  • the computer program may be executed by a plurality of computers (for example, a plurality of servers) in cooperation with each other.
  • a single computer or a combination of a plurality of computers is also referred to as a “computer system”.
  • a recognition processing unit for recognizing a user state according to a detection result of a predetermined state or situation;
  • a function map in which settings relating to control of output of sound from a predetermined output unit are associated with each of a plurality of user status candidates selected according to a predetermined condition, and the recognized user status
  • an output control unit for controlling the output of the sound based on
  • An information processing apparatus comprising: (2)
  • the function map is associated with a combination of settings related to each of a plurality of types of control as settings related to control of the output of the sound for each of a plurality of candidate states of the user.
  • the information processing apparatus wherein the predetermined state is a state where the user is riding a bicycle.
  • the output control unit controls the output of the sound according to a state before and after the transition when the state of the user transitions. Processing equipment.
  • the recognition processing unit according to any one of (1) to (8), wherein the recognition unit recognizes the state of the user according to a likelihood of each of one or more candidate states of the user based on the detection result.
  • the information processing apparatus described. The recognition processing unit responds to a result of machine learning based on a sample in which the detection result acquired in the past is associated with a recognition result of the user state corresponding to the detection result.
  • a selection unit configured to select the function map according to the condition from a plurality of the function maps, using at least one of a detection result of a predetermined state or situation and attribute information of a predetermined target as the condition; The information processing apparatus according to any one of (1) to (10).
  • the selection unit selects the function map according to a result of machine learning based on a sample in which the condition determined in the past and a selection result of the function map according to the condition are associated with each other.
  • the output control unit according to any one of (1) to (10), wherein the output control unit controls the output of the sound according to the recognized state of the user based on the function map selected by a user.
  • Information processing device (14) The information processing apparatus according to any one of (1) to (13), wherein at least some of the plurality of function maps are updated based on a user input.
  • the recognition processing unit determines a recognition result of the user state based on a first detection result of a predetermined state or situation by the first detection unit by a second detection unit different from the first detection unit.
  • the information processing apparatus according to any one of (1) to (14), wherein the information is corrected according to a second detection result of the state or situation.
  • the information processing apparatus activates the second detection unit in accordance with a recognition result of the user state based on the first detection result.
  • the recognition processing unit When the recognition result of the user state based on the first detection result indicates a predetermined state, the second detection unit is activated, After the activation of the second detection unit, when the state of the user based on the first detection result indicates a state other than the predetermined state, the second detection unit is stopped.
  • (18) In accordance with the second detection result by the second detection unit at a timing later than the timing at which the second detection unit is activated, the recognition processing unit performs the user's operation based on the first detection result.
  • the information processing apparatus according to (16) or (17), wherein the state recognition result is corrected.
  • (19) Computer Recognizing the user's state according to the detection result of a predetermined state or situation; A function map in which settings relating to control of output of sound from a predetermined output unit are associated with each of a plurality of user status candidates selected according to a predetermined condition, and the recognized user status And controlling the output of the sound based on Including an information processing method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Otolaryngology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Headphones And Earphones (AREA)

Abstract

【課題】ユーザの状態や状況が逐次変化するような状況下においても、煩雑な操作を伴わずに、より好適な態様で音響を聴取可能とする。 【解決手段】所定の状態または状況の検出結果に応じて、ユーザの状態を認識する認識処理部と、所定の条件に応じて選択された、複数の前記ユーザの状態の候補それぞれに対して所定の出力部からの音響の出力の制御に関する設定が関連付けられた機能マップと、認識された前記ユーザの状態と、に基づき前記音響の出力を制御する出力制御部と、を備える、情報処理装置。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
 近年では、イヤホンやヘッドホンのようにユーザが頭部に装着して使用する音響デバイス(以降では、「頭部装着型音響デバイス」と称する場合がある)として、単に音響情報を出力するのみのものに限らず、利用シーンを想定した機能が付加されたものも普及してきている。具体的な一例として、所謂ノイズ低減技術(ノイズキャンセリング技術)を利用することで、外部環境からの環境音(所謂ノイズ)を抑制し遮音効果を高めることが可能な頭部装着型音響デバイスが挙げられる。特許文献1には、このようなノイズ低減技術を利用した音響デバイスの一例が開示されている。
 また、近年では、マイクロフォン等の集音部により外部環境の音響を集音し、頭部装着型音響デバイスを介して当該音響を出力することで、ユーザが頭部装着型音響デバイスを装着した状態においても外部環境の音響を聴取可能とする技術も提案されている。なお、以降の説明では、外部環境の音響を聴取可能とする機能を「アンビエント(Ambient)機能」とも称する。
特許第5194434号公報
 ところで、上述したノイズ低減機能やアンビエント機能のように、音響出力の制御に係る機能は、ユーザが所望する再生音場空間を実現するために、ユーザの状態や状況に応じて選択的に使用される場合が少なくない。その一方で、ユーザの状態や状況が逐次変化するような場合も想定され得る。このような状況下では、例えば、ユーザは、その時々の状態や状況に応じて、上述したノイズ低減やアンビエント等の機能を有効化または無効化したり、必要に応じて頭部装着型音響デバイスを一時的に外すといった煩雑な操作が必要となる場合がある。
 そこで、本開示では、ユーザの状態や状況が逐次変化するような状況下においても、煩雑な操作を伴わずに、より好適な態様で音響を聴取することが可能な、情報処理装置、情報処理方法、及びプログラムを提案する。
 本開示によれば、所定の状態または状況の検出結果に応じて、ユーザの状態を認識する認識処理部と、所定の条件に応じて選択された、複数の前記ユーザの状態の候補それぞれに対して所定の出力部からの音響の出力の制御に関する設定が関連付けられた機能マップと、認識された前記ユーザの状態と、に基づき前記音響の出力を制御する出力制御部と、を備える、情報処理装置が提供される。
 また、本開示によれば、コンピュータが、所定の状態または状況の検出結果に応じて、ユーザの状態を認識することと、所定の条件に応じて選択された、複数の前記ユーザの状態の候補それぞれに対して所定の出力部からの音響の出力の制御に関する設定が関連付けられた機能マップと、認識された前記ユーザの状態と、に基づき前記音響の出力を制御することと、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータに、所定の状態または状況の検出結果に応じて、ユーザの状態を認識することと、所定の条件に応じて選択された、複数の前記ユーザの状態の候補それぞれに対して所定の出力部からの音響の出力の制御に関する設定が関連付けられた機能マップと、認識された前記ユーザの状態と、に基づき前記音響の出力を制御することと、を実行させる、プログラムが提供される。
 以上説明したように本開示によれば、ユーザの状態や状況が逐次変化するような状況下においても、煩雑な操作を伴わずに、より好適な態様で音響を聴取することが可能な、情報処理装置、情報処理方法、及びプログラムが提供される。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明するための説明図である。 同実施形態に係る音響デバイスの構成の一例について説明するための説明図である。 同実施形態に係る情報処理システムの概要について説明するための説明図である。 同実施形態に係る情報処理システムの概要について説明するための説明図である。 同実施形態に係る情報処理システムの概要について説明するための説明図である。 本開示の第1の実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。 ユーザの状態の認識に係る処理の概要について説明するための説明図である。 同実施形態に係る情報処理システムの一連の処理の流れの一例について示したフローチャートである。 同実施形態の変形例1-1に係る機能マップの一例について説明するための説明図である。 本開示の第2の実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。 通勤時におけるユーザの行動を想定した行動シナリオの一例について説明するための説明図である。 通勤時におけるユーザの行動を想定した行動シナリオの一例について説明するための説明図である。 通勤時におけるユーザの行動を想定した行動シナリオの他の一例について説明するための説明図である。 通勤時におけるユーザの行動を想定した行動シナリオの他の一例について説明するための説明図である。 休日におけるユーザの行動を想定した行動シナリオの一例について説明するための説明図である。 休日におけるユーザの行動を想定した行動シナリオの一例について説明するための説明図である。 同実施形態に係る情報処理装置10の一連の処理の流れの一例について示したフローチャートである。 変形例2-2に係る情報処理システムの概要について説明するための説明図である。 変形例2-3に係る情報処理システムの動作について説明するための説明図である。 変形例2-3に係る情報処理システムの動作について説明するための説明図である。 変形例2-3に係る情報処理システムの動作について説明するための説明図である。 変形例2-3に係る情報処理システムの動作について説明するための説明図である。 変形例2-3に係る情報処理システムの動作について説明するための説明図である。 本開示の一実施形態に係る情報処理装置のハードウェア構成の一例を示したブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.はじめに
  1.1.システムの構成例
  1.2.音響デバイスの構成例
  1.3.音響出力の制御に関する検討
 2.第1の実施形態
  2.1.概要
  2.2.機能構成
  2.3.処理
  2.4.変形例
  2.5.評価
 3.第2の実施形態
  3.1.概要
  3.2.機能構成
  3.3.行動シナリオ
  3.4.処理
  3.5.変形例
  3.6.評価
 4.ハードウェア構成
 5.むすび
 <<1.はじめに>>
  <1.1.システムの構成例>
 まず、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明する。図1は、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明するための説明図である。
 図1に示すように、本実施形態に係る情報処理システム1は、情報処理装置10と、音響デバイス30とを含む。
 音響デバイス30は、例えば、オーバーヘッド型のヘッドホンや、イヤホン等のような頭部装着型音響デバイスとして構成され得る。また、音響デバイス30は、ノイズ低減機能やアンビエント機能等のような、音響出力の制御に係る機能を実現するための各種デバイスを備えてもよい。なお、ノイズ低減機能やアンビエント機能を実現するための音響デバイス30の構成の一例については、詳細を別途後述する。
 情報処理装置10は、例えば、スマートフォン、タブレット端末、携帯型オーディオプレイヤー等として構成され得る。情報処理装置10と音響デバイス30とは、有線または無線のネットワークを介して接続されることで、当該ネットワークを介して互いに各種情報を送受信することが可能である。
 以上のような構成に基づき、情報処理装置10は、ネットワークを介して音響デバイス30の動作を制御する。具体的な一例として、情報処理装置10は、所望の動作を実行させるための制御コマンドを、当該ネットワークを介して音響デバイス30に送信することで、当該音響デバイス30の動作(特に、音響出力に関する動作)を制御してもよい。より具体的な一例として、情報処理装置10は、音響デバイス30に対して制御コマンドを送信することで、ノイズ低減機能やアンビエント機能等のような音響出力の制御に係る機能のオン/オフを切り替えてもよい。また、他の一例として、情報処理装置10は、音響デバイス30に対して制御コマンドを送信することで、当該音響デバイス30から出力される音響(例えば、オーディオコンテンツ等)のボリュームを制御してもよい。また、情報処理装置10は、音響デバイス30に関する情報(例えば、動作状態に関する情報等)を、ネットワークを介して当該音響デバイス30から取得してもよい。この場合には、情報処理装置10は、所定の出力部を介して取得した情報をユーザに提示してもよい。また、他の一例として、情報処理装置10は、取得した情報に応じて、音響デバイス30の動作を制御してもよい。
 なお、情報処理装置10がネットワークを介して音響デバイス30の動作を制御する機能は、例えば、情報処理装置10に対して所定のアプリケーションがインストールされることで実現されてもよい。また、他の一例として、当該機能を実現するためのアプリケーションが、情報処理装置10にあらかじめインストールされていてもよい。
 なお、上記に説明した例はあくまで一例であり、情報処理システムの構成は、必ずしも図1に示す例には限定されない。具体的な一例として、情報処理装置10と音響デバイス30とが一体的に構成されていてもよい。また、他の一例として、情報処理装置10と音響デバイス30とが、他の装置(例えば、サーバ等)を介して接続されていてもよい。
 以上、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明した。
  <1.2.音響デバイスの構成例>
 続いて、図2を参照して、音響デバイス30の構成の一例について説明する。図2は、本開示の一実施形態に係る音響デバイスの構成の一例について説明するための説明図である。なお、本説明では、音響デバイス30の構成の一例について、特に、ノイズ低減機能やアンビエント機能を実現するための構成に着目して説明する。
 図2に示すように、音響デバイス30は、所謂ヘッドホンとして構成されている。例えば、音響デバイス30は、筐体311と、ヘッドバンド312と、発音体341と、マイクロフォン321及び322と、信号処理回路331と、イコライザ(EQ)332と、加算器333と、パワーアンプ334とを含む。
 筐体311は、ヘッドバンド312によってユーザUaの耳部の近傍に位置するように支持されることで、当該耳部を覆うように装着される。また、筐体311は、ヘッドバンド312によって、ユーザUaの反対側の耳部を覆うように装着される他の筐体(図示を省略する)と連結されている。
 マイクロフォン321は、筐体311の外側の外部空間を伝搬する音響(例えば、環境音)を直接的に集音するための集音デバイスである。マイクロフォン321は、例えば、MEMS(Micro Electro Mechanical Systems)技術に基づき形成された、所謂MEMSマイクロフォンとして構成され得る。なお、マイクロフォン321は、当該外部空間を伝搬する音響を集音可能であれば、その設置場所は特に限定されない。具体的な一例として、マイクロフォン321は、音響デバイス30の筐体311に設けられていてもよいし、当該筐体311とは異なる位置に設けられていてもよい。
 マイクロフォン322は、筐体311の内側の内部空間(即ち、ユーザUaの外耳道に連接する空間)に伝搬する音響を集音するための集音デバイスである。マイクロフォン322は、マイクロフォン321と同様に、例えば、MEMS技術に基づき形成された、所謂MEMSマイクロフォンとして構成され得る。マイクロフォン322は、例えば、筐体311の内側に、ユーザUaの外耳道の方向を向くように設置される。もちろん、マイクロフォン322は、当該内部空間に伝搬する音響を集音可能であれば、その設置場所は特に限定されないことは言うまでもない。
 信号処理回路331は、前述したノイズ低減機能やアンビエント機能を実現するための各種信号処理を実行するための構成である。
 例えば、信号処理回路331は、マイクロフォン321により集音された筐体311の外側の外部空間を伝搬する音響の集音結果を利用して、所謂フィードフォワード方式に基づきノイズ低減機能を実現してもよい。この場合には、信号処理回路331は、マイクロフォン321による音響の集音結果に基づきノイズ低減信号を生成し、生成した当該ノイズ低減信号を後段に位置する加算器333に出力する。
 また、信号処理回路331は、マイクロフォン322により集音された筐体311の内側の内部空間を伝搬する音響の集音結果を利用して、所謂フィードバック方式に基づきノイズ低減機能を実現してもよい。この場合には、信号処理回路331は、マイクロフォン322による音響の集音結果に基づきノイズ低減信号を生成し、生成した当該ノイズ低減信号を後段に位置する加算器333に出力する。
 なお、信号処理回路331は、フィードフォワード方式とフィードバック方式とを組み合わせることでノイズ低減機能を実現してもよい。この場合には、信号処理回路331は、マイクロフォン321及び322それぞれによる音響の集音結果に基づきノイズ低減信号を生成する。そして、信号処理回路331は、生成したノイズ低減信号の各々を合成することで合成ノイズ低減信号を生成し、生成した当該合成ノイズ低減信号を後段に位置する加算器333に出力すればよい。
 また、他の一例として、信号処理回路331は、マイクロフォン321により集音された筐体311の外側の外部空間を伝搬する音響(即ち、環境音)の集音結果を利用することで、アンビエント機能を実現してもよい。この場合には、例えば、信号処理回路331は、マイクロフォン321による音響の集音結果に基づく音響信号を後段位置する加算器333に出力する。
 イコライザ332は、オーディオコンテンツや音声電話における受話信号のように、音響デバイス30に入力される音響信号(以降では、「音響入力」と称する場合がある)に対して、所謂イコライジング処理を施す。イコライザ332によりイコライジング処理が施された音響入力は、加算器333により信号処理回路331から出力される音響信号(即ち、ノイズ低減信号、または、環境音の集音結果)と加算された後、パワーアンプ334により増幅され、発音体341により音響に変換される。
 発音体341は、所謂スピーカに相当し、入力された音響信号に基づき駆動することで、当該音響信号を音響に変換する。
 以上のような構成により、例えば、ノイズ低減機能が有効になっている場合には、音響入力とノイズ低減信号とが加算された音響信号が発音体341により音響に変換されて、当該音響がユーザUaに聴取される。そのため、この場合には、ユーザUaは、環境音の影響が緩和された音響入力を聴取することが可能となる。また、他の一例として、アンビエント機能が有効になっている場合には、音響入力と環境音の集音結果とが加算された音響信号が発音体341により音響に変換されて、当該音響がユーザUaに聴取される。そのため、この場合には、ユーザUaは、音響デバイス30を装着した状態においても、外部環境を伝搬する環境音を聴取することが可能となる。
 以上、図2を参照して、音響デバイス30の構成の一例について説明した。
  <1.3.音響出力の制御に関する検討>
 続いて、本開示の一実施形態に係る情報処理システムの利用形態として、特に、音響出力の制御に係る機能(例えば、ノイズ低減機能やアンビエント機能等)の利用形態の一例について説明したうえで、本実施形態に係る情報処理システムの技術的課題についてまとめる。
 例えば、上述したノイズ低減機能やアンビエント機能のように音響出力の制御に係る機能は、ユーザが所望する再生音場空間を実現するために、ユーザの状態や状況に応じて選択的に使用される場合が少なくない。具体的な一例として、屋外を移動中の場合等のようにユーザが周囲の状況を把握する必要があるような状況下では、外部環境の音響が聴取可能なるように、アンビエント機能が有効化される場合が想定される。また、他の一例として、ユーザが落ち着いた状態で楽曲等のオーディオコンテンツを聴取しているような状況下では、外部環境からの環境音を抑制し遮音効果を高めることで当該オーディオコンテンツをより好適な環境で聴取可能となるように、ノイズ低減機能を有効化される場合が想定される。
 その一方で、ユーザの状態や状況が逐次変化するような場合も想定され得る。例えば、ユーザが電車に乗るシーンを想定した場合に、電車に乗る前においては、周囲の状況を把握しやすくするために、ノイズ低減機能が無効化され、アンビエント機能が有効化されるといった状況が想定され得る。これに対して、電車に乗った後においては、目的の駅に着くまでの間はオーディオコンテンツを聴取しやすくするために、ノイズ低減機能が有効化され、アンビエント機能が無効化されるといった状況が想定され得る。このような場合には、例えば、ユーザは、その時々の状態や状況に応じて、上述したノイズキャンセリングやアンビエント等の機能を有効化または無効化(即ち、ONまたはOFF)したり、必要に応じて頭部装着型音響デバイスを一時的に外すといった煩雑な操作が必要となる場合がある。
 このような状況を鑑み、本開示では、ユーザの状態や状況が逐次変化するような状況下においても、煩雑な操作を伴わずとも、より好適な態様で音響を聴取することを可能とする(即ち、より好適な再生音場空間を提供する)技術について提案する。なお、以降では、本開示の一実施形態に係る情報処理システムについてより詳しく説明する。
 <<2.第1の実施形態>>
  <2.1.概要>
 まず、本開示の第1の実施形態に係る情報処理システムについて説明する。例えば、図3~図5は、本実施形態に係る情報処理システムの概要について説明するための説明図である。
 本実施形態に係る情報処理システムでは、ユーザの状態(特に、ユーザの行動に関連する状態)を認識し、当該認識結果に応じて、音響デバイス30の動作(特に、音響の出力に係る動作)を制御する。例えば、図3は、本実施形態に係る情報処理システムを実現するための概略的な構成の一例を示している。図3に示すように、本実施形態に係る情報処理システムでは、例えば、音響デバイス30の動作を制御するためのアプリケーションにユーザの状態(行動)を認識するための認識エンジンが取り込まれている。
 図3に示す認識エンジンは、例えば、情報処理装置10に設けられた各種センサによる検出結果に基づき、当該情報処理装置10を保持するユーザの状態(行動)を認識する。より具体的な一例として、認識エンジンは、情報処理装置10に設けられた加速度センサ(例えば、3軸の加速度センサ)による、情報処理装置10の位置や向きの変化や、情報処理装置10の振動等の検出結果を解析することで、当該情報処理装置10を保持するユーザの状態を認識する。
 例えば、図4は、認識エンジンにより認識されるユーザの状態の候補の一例を示している。図4において、「Stay」は、ユーザが停止している状態(換言すると、歩行や走行を行っていない状態)を示している。また、「Walk」は、ユーザが歩いている状態を示しており、「Run」は、ユーザが走っている状態を示している。また、「Vehicle」は、ユーザがバスや電車等の乗り物に乗って移動している状態を示している。また、「Bicycle」は、ユーザが自転車を運転して移動している状態を示している。
 また、認識エンジンを基盤としたアプリケーションレイヤ上では、音響デバイス30の動作を制御するための制御プロセスが動作している。即ち、当該制御プロセスは、認識エンジンによるユーザの状態の認識結果に応じて、音響デバイス30による音響出力の制御に関する設定を決定し、決定した設定に応じて制御コマンドを生成する。そして、制御プロセスは、生成した制御コマンドを、ネットワークを介して音響デバイス30に送信することで、当該音響デバイス30による音響出力に関する動作を制御する。
 例えば、図5は、ユーザの状態に応じた音響出力に関する動作の設定の一例を示している。具体的には、図5に示す例では、図4を参照して説明したユーザの状態の候補それぞれに対して、ノイズ低減機能のON/OFFと、アンビエント機能のON/OFFと、楽曲(例えば、オーディコンテンツ)の再生のON/OFFと、楽曲の再生に係るボリュームの制御内容と、それぞれの設定が示されている。なお、以降の説明では、図5に示すように、想定されるユーザの状態の候補ごとに、音響出力に関する動作の設定が規定された制御データを、「機能マップ」とも称する。
 具体的には、図5に示す機能マップでは、「Stay」を示す状態には、ノイズ低減機能を有効化し、アンビエント機能については無効化したうえで、楽曲の再生を有効化し、当該楽曲のボリュームを下げられるように各種設定が関連付けられている。このような設定により、外部環境からの環境音(所謂、ノイズ)を抑制し遮音効果が高められるため、ユーザは、ノイズの影響が低減された状態で楽曲(オーディオコンテンツ)を聴取することが可能となる。
 また、「Vehicle」を示す状態には、ノイズ低減機能を有効化し、アンビエント機能については無効化したうえで、楽曲の再生を有効化し、当該楽曲のボリュームが基準としてあらかじめ設定された値となるように各種設定が関連付けられている。そのため、このような場合においても、ユーザは、ノイズの影響が低減された状態で楽曲(オーディオコンテンツ)を聴取することが可能となる。
 また、「Walk」及び「Run」を示す状態には、ノイズ低減機能を無効化し、アンビエント機能については有効化したうえで、楽曲の再生を有効化し、当該楽曲のボリュームが基準としてあらかじめ設定された値となるように各種設定が関連付けられている。このような設定により、ユーザは、外部環境からの環境音を聴取することが可能となるため、音響デバイス30を装着した状態で周囲の状況を把握することが可能となる。また、楽曲のボリュームが比較的高い値に設定されていたとしても、当該ボリュームが基準として設定された値に調整されるため、ユーザは、アンビエント機能により取り込まれた外部環境からの環境音を聴取しやすくなる。
 また、各ユーザの状態の候補のうち少なくとも一部おいて、前述した音響出力に関する一連の動作それぞれの設定のうち一部の設定のみが制御の対象となっていてもよい。例えば、図5に示す機能マップでは、「Bicycle」を示す状態には、ノイズ低減機能の制御に関する設定のみが関連付けられており、当該ノイズ低減機能が無効化されるように設定されている。
 なお、図5に示す機能マップはあくまで一例であり、ユーザの状態の候補それぞれに対して関連付けられる、音響出力の制御に関する設定は必ずしも図5に示した例には限定されない。即ち、本実施形態に係る機能マップにおいては、ユーザの状態の候補それぞれに対して、図5に示す例のように複数種類の制御それぞれに関する設定の組み合わせが関連付けられていてもよいし、1種類の制御についてのみ設定が関連付けられていてもよい。また、制御対象となる、音響出力に関する動作の種別についても限定されない。具体的な一例として、ノイズ低減機能及びアンビエント機能のみが制御の対象として設定されていてもよい。また、他の一例として、音響出力に関する動作として、図5に示した例以外の他の動作が制御の対象として設定されていてもよい。また、上述したユーザの候補の状態はあくまで一例であり、認識エンジンが認識可能な状態であれば、当該状態は必ずしも上述した例のみには限定されない。具体的な一例として、ユーザの状態の候補である「Vehicle」について、ユーザがバスや電車等の乗り物に乗って移動している状態として説明したが、当該バスや電車に限らず、例えば、バイク、船、飛行機等の他の移動体に乗って移動している状態が認識されてもよい。なお、これらの移動体に乗って移動している状態については、例えば、機械学習等の技術を利用することで、認識エンジンに認識させることが可能である。
 以上のような構成に基づき、本実施形態に係る情報処理装置10は、例えば、所定のタイミングごと(例えば、数秒ごと)にユーザの状態を認識し、その時々におけるユーザの状態の認識結果に応じて、音響デバイス30の動作を制御する。これによりユーザは、自身の状態や状況が逐次変化するような状況下においても、ノイズキャンセリングやアンビエント等の機能をONまたはOFFしたり、音響デバイス30を一時的に外すといった煩雑な操作を伴わずとも、より好適な態様で音響(例えば、再生中の楽曲や周囲の環境音等)を聴取することが可能となる。
 以上、図3~図5を参照して、本実施形態に係る情報処理システムの概要について説明した。なお、以降では、本実施形態に係る情報処理システムについてより詳しく説明する。
  <2.2.機能構成>
 続いて、図6を参照して、本実施形態に係る情報処理システムの機能構成の一例について説明する。図6は、本実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。なお、本説明では、本実施形態に係る情報処理システムが、図1に示すように、情報処理装置10と音響デバイス30とがネットワークを介して接続されて構成されるものとして説明する。
  (音響デバイス30)
 まず、音響デバイス30の構成に着目して説明する。図6に示すように、音響デバイス30は、通信部301と、制御部305と、音響出力部303とを含む。
 通信部301は、音響デバイス30が、所定のネットワークを介して他の外部装置(例えば、情報処理装置10)との間で各種情報の送受信を行うための構成である。通信部301は、例えば、無線のネットワークを介して外部装置との間で各種情報の送受信を行う場合には、通信アンテナ、RF(Radio Frequency)回路、ベースバンドプロセッサ等を含み得る。なお、以降の説明では、音響デバイス30の各構成が、他の外部装置との間で情報の送受信を行う場合には、特に説明が無い場合には、当該通信部301を介して当該情報の送受信が行われるものとする。
 音響出力部303は、スピーカ等のような発音体(例えば、図2に示す発音体341)を含み、入力された駆動信号(音響信号)を音響に変換して出力する。
 制御部305は、音響出力部303の動作を制御するための構成である。制御部305は、例えば、所定のネットワークを介して情報処理装置10から送信された音響信号(即ち、音響入力)に対して所定の音響処理を施し、音響出力部303に当該音響信号を音響に変換して出力させる。
 また、制御部305は、音響入力に対して各種信号処理を施す信号処理部307を備えてもよい。例えば、信号処理部307は、音響入力に対して、ノイズ低減機能を実現するための各種信号処理を施してもよい。この場合には、例えば、信号処理部307は、所定のマイクロフォン(図示を省略する)による外部環境の音響(即ち、環境音)の集音結果に基づきノイズ低減信号を生成し、音響入力に対して生成した当該ノイズ低減信号を加算すればよい。
 また、他の一例として、信号処理部307は、音響入力に対して、アンビエント機能を実現するための各種信号処理を施してもよい。この場合には、例えば、信号処理部307は、音響入力に対して、所定のマイクロフォン(図示を省略する)による外部環境の音響(即ち、環境音)の集音結果を加算すればよい。
 なお、上述した制御部305及び信号処理部307の処理はあくまで一例であり、入力された音響信号に基づく音響の出力に係る処理であれば、その種別は上述した例のみには限定されない。また、制御部305や信号処理部307による各種処理は、情報処理装置10によりネットワークを介して制御されてもよい。この場合には、例えば、制御部305や信号処理部307は、ネットワークを介して情報処理装置10から送信される制御コマンドに基づき、各種処理を実行すればよい。
  (情報処理装置10)
 次いで、情報処理装置10の構成に着目して説明する。図6に示すように、情報処理装置10は、通信部101と、検出部103と、認識処理部105と、出力制御部107と、出力部109と、記憶部111とを含む。
 通信部101は、情報処理装置10が、所定のネットワークを介して他の外部装置(例えば、音響デバイス30)との間で各種情報の送受信を行うための構成である。通信部101は、例えば、無線のネットワークを介して外部装置との間で各種情報の送受信を行う場合には、通信アンテナ、RF回路、ベースバンドプロセッサ等を含み得る。なお、以降の説明では、情報処理装置10の各構成が、他の外部装置との間で情報の送受信を行う場合には、特に説明が無い場合には、当該通信部101を介して当該情報の送受信が行われるものとする。
 出力部109は、情報処理装置10がユーザに対して各種情報を提示するための出力インタフェースである。出力部109は、例えば、所謂ディスプレイ等のように、静止画像や動画像のような画像を出力する表示デバイスを含んでもよい。また、出力部109は、例えば、スピーカ等のように音響を出力する音響デバイスを含んでもよい。また、出力部109は、所謂バイブレータ等のように、提示対象となる情報に対応したパターンで振動することで、当該情報をユーザに提示する振動デバイスを含んでもよい。
 記憶部111は、各種データを一時的または恒常的に記憶するための記憶領域である。例えば、記憶部111には、情報処理装置10が各種機能を実行するためのデータが記憶されていてもよい。具体的な一例として、記憶部111には、各種アプリケーションを実行するためのデータ(例えば、ライブラリ)や各種設定等を管理するための管理データ等が記憶されていてもよい。また、記憶部111には、各種コンテンツ(例えば、楽曲等のオーディオコンテンツ)のデータが記憶されていてもよい。
 検出部103は、各種状態や状況を検出するための構成である。具体的な一例として、検出部103は、加速度センサや角速度センサ等の各種センサを含み、所定のオブジェクト(例えば、情報処理装置10)の位置や向きの変化を検出する。このようにして検出された情報により、例えば、当該オブジェクトの動きを検出し、ひいては当該オブジェクトを保持するユーザの状態(特に、歩行や走行といったユーザの行動に関する状態)を認識(推定)することが可能となる。
 また、他の一例として、検出部103は、GPS(Global Positioning System)等のように、情報処理装置10(ひいては、情報処理装置10を保持するユーザ)の位置を検出するための構成を含んでもよい。
 また、他の一例として、検出部103は、情報処理装置10(ひいては、情報処理装置10を保持するユーザ)の外部環境の状態や状況を認識または推定するための情報を取得するための構成を含んでもよい。例えば、検出部103は、所謂カメラ等のような撮像部を備え、当該撮像部による外部環境の映像(例えば、静止画像や動画像)の撮像結果を取得してもよい。このようにして撮像された映像を解析することで、例えば、情報処理装置10を保持するユーザの周囲の状況を認識または推定することが可能となる。また、検出部103は、所謂マイクロフォン等のような集音部を備え、当該集音部による外部環境の音響(例えば、環境音)の集音結果を取得してもよい。このようにして集音された音響を解析することで、情報処理装置10を保持するユーザの周囲の状況を認識または推定することも可能である。
 以上のようにして、検出部103は、各種状態や状況を所定のタイミングごとに検出し、当該検出結果を示す情報を後述する認識処理部105に逐次出力する。
 認識処理部105は、検出部103から各種状態や状況の検出結果を示す情報を逐次取得し、取得した当該情報に基づき、情報処理装置10を保持するユーザの状態(特に、ユーザの行動に関する状態)を認識(または推定)する。
 具体的には、認識処理部105は、図3を参照して説明した認識エンジンに相当する構成を含み、検出部103から取得した情報を入力として、所定のタイミングごとに、ユーザの状態が、図4を参照して説明したユーザの状態の候補のうちのいずれに該当するかを判定する。ここで、図7を参照して、認識処理部105がユーザの状態を認識する処理の一例について、特に認識エンジンの処理に着目して説明する。図7は、ユーザの状態の認識に係る処理の概要について説明するための説明図である。なお、本説明では、認識エンジンが、加速度センサによる情報処理装置10の位置や向きの変化の検出結果に基づき、ユーザの状態を認識する場合に着目して説明する。
 具体的には、認識エンジンは、所定の期間(例えば、5秒)を1フレームとして、加速度センサから逐次出力される検出結果を集計する。次いで、認識エンジンは、所謂機械学習によりあらかじめ生成された教師データに基づき、フレームごとに集計された検出結果を、当該学習時に設定したクラス(例えば、図4に示したユーザの状態の候補)に分類する。以上のようにして、認識処理部105は、各クラス(即ち、ユーザの状態の候補)それぞれについて尤度(即ち、当該クラスに該当することの確からしさ)を算出し、当該尤度の算出結果を一時出力値として出力する。例えば、認識エンジンは、「Stay」、「Walk」、「Run」、「Vehicle」、及び「Bicycle」それぞれのクラスの尤度を、各クラス間における合計が1.0となるように相対値として算出してもよい。もちろん、これはあくまで一例であり、各クラスの尤度の算出結果として出力される値を必ずしも限定するものではない。具体的な一例として、各クラスの尤度が、他のクラスとは独立して個別に算出されてもよい。
 このような構成に基づき、認識処理部105は、認識エンジンから出力された各クラスの尤度を示す情報に基づき、ユーザの状態を認識する。例えば、図4に示したユーザの状態の候補それぞれを示すクラスのうち、「Walk」の尤度が最も高く、「Vehicle」の尤度が最も低いものとする。この場合には、認識処理部105は、ユーザの状態が「Walk」であるものと認識する。
 以上のようにして、認識処理部105は、フレームごとにユーザの状態を認識し、認識結果を示す情報を後述する出力制御部107に出力する。
 出力制御部107は、情報処理装置10に対してネットワークを介して接続された音響デバイス30の動作を制御する。例えば、出力制御部107は、所定の記憶領域(例えば、記憶部111)からオーディオコンテンツを読み出して再生し、再生結果に基づく音響信号を音響デバイス30に送信することで、当該音響信号に応じた音響を当該音響デバイス30に出力させてもよい。
 また、出力制御部107は、音響デバイス30に対して制御コマンドを送信することで、当該音響デバイス30の動作を制御する。例えば、出力制御部107は、所定の入力部(図示を省略する)を介したユーザ入力に基づき制御コマンドを生成してもよい。これにより、出力制御部107は、ユーザが所望する態様で、音響デバイス30の動作を制御することが可能となる。
 また、他の一例として、出力制御部107は、認識処理部105からユーザの状態の認識結果を示す情報を取得し、取得した当該情報に応じた制御コマンドを音響デバイス30に送信することで、当該音響デバイス30の動作を制御してもよい。具体的には、出力制御部107は、取得したユーザの状態の認識結果を示す情報と、図5を参照して説明した機能マップとを比較することで、当該ユーザの状態に応じた音響出力の制御に関する設定を特定する。なお、機能マップについては、例えば、あらかじめ生成したものを、出力制御部107が参照可能な所定の記憶領域(例えば、記憶部111)にあらかじめ記憶させておけばよい。そして、出力制御部107は、特定した設定に応じた制御コマンドを音響デバイス30に送信することで、当該音響デバイス30の動作を制御する。このような構成により、例えば、ノイズ低減機能、アンビエント機能、及び楽曲の再生それぞれのON/OFFや、楽曲の再生に係るボリューム等のような、音響出力に関する音響デバイス30の動作が、その時々のユーザの状態に応じて動的に制御される。
 なお、出力制御部107が、認識処理部105から取得したユーザの状態の認識結果を示す情報に応じて音響デバイス30の動作を制御するタイミングは特に限定されない。具体的な一例として、出力制御部107は、ユーザの状態が変化したことを認識した場合に、変化後のユーザの状態に応じた制御コマンドを音響デバイス30に送信することで、当該音響デバイス30の動作を制御してもよい。また、出力制御部107は、ユーザの状態が変化したことを認識した場合に、変化後のユーザの状態に応じた設定のうち、ユーザの状態の変化に応じて更新された設定のみを制御の対象としてもよい。この場合には、出力制御部107は、更新された設定についてのみ制御コマンドを音響デバイス30に送信することで、当該音響デバイス30の動作を制御してもよい。また、他の一例として、出力制御部107は、所定のタイミングごとに、当該タイミングにおけるユーザの状態の認識結果に応じた制御コマンドを音響デバイス30に送信することで、当該音響デバイス30の動作を定期的に制御してもよい。もちろん、上記に説明した例はあくまで一例であり、出力制御部107がユーザの状態の認識結果に応じて音響デバイス30の動作を制御するタイミングは、本実施形態に係る情報処理システム1の利用形態に応じて適宜変更してもよい。
 また、出力制御部107は、出力部109に各種情報を出力させることで、ユーザに対して当該情報を提示してもよい。具体的な一例として、出力制御部107は、音響デバイス30の動作の制御結果に応じた情報を出力部109に出力させることで、当該制御結果をユーザにフィードバックしてもよい。また、他の一例として、出力制御部107は、音響デバイス30から、当該音響デバイス30に関する各種情報(例えば、動作状態を示す情報等)を取得し、取得した当該情報を出力部109に出力させてもよい。これにより、ユーザは、情報処理装置10に対してネットワークを介して接続された音響デバイス30の状態を認識することが可能となる。
 なお、上述した情報処理システム1の機能構成はあくまで一例であり、情報処理装置10及び音響デバイス30それぞれの機能を実現することが可能であれば、当該情報処理システム1の機能構成は必ずしも図6に示す例には限定されない。具体的な一例として、情報処理装置10と音響デバイス30とが一体的に構成されていてもよい。また、他の一例として、情報処理装置10の各構成のうち一部の構成が、当該情報処理装置10とは異なる他の装置(例えば、サーバ等)に設けられていてもよい。
 以上、図6を参照して、本実施形態に係る情報処理システムの機能構成の一例について説明した。
  <2.3.処理>
 続いて、図8を参照して、本実施形態に係る情報処理システムの一連の処理の流れの一例について、特に、情報処理装置10がユーザの状態を認識し、当該認識結果に応じて音響デバイス30の動作を制御する処理に着目して説明する。図8は、本実施形態に係る情報処理システムの一連の処理の流れの一例について示したフローチャートである。
 図8に示すように、情報処理装置10(認識処理部105)は、検出部103により逐次取得される各種状態や状況の検出結果を示す情報に基づき、当該情報処理装置10を保持するユーザの状態(特に、ユーザの行動に関する状態)を認識する(S101)。
 次いで、情報処理装置10(出力制御部107)は、ユーザの状態の認識結果と、所定の機能マップとを比較することで、当該ユーザの状態に応じた音響出力の制御に関する設定(例えば、ノイズ低減機能やアンビエント機能の設定等)を特定する(S103)。
 そして、情報処理装置10(出力制御部107)は、特定した設定に応じた制御コマンドを、ネットワークを介して音響デバイス30に送信することで、当該音響デバイス30の動作を制御する(S105)。なお、このとき情報処理装置10は、ユーザの状態が変化したことを認識した場合に、変化後のユーザの状態に応じて音響デバイス30の動作を制御してもよい。
 以上のような処理により、例えば、ノイズ低減機能、アンビエント機能、及び楽曲の再生それぞれのON/OFFや、楽曲の再生に係るボリューム等のような、音響出力に関する音響デバイス30の動作が、その時々のユーザの状態に応じて動的に制御される。
 なお、図8に示す一連の処理が実行されるタイミングは特に限定されない。具体的な一例として、情報処理装置10は、図8に示した一連の処理を所定のタイミングごとに定期的に実行してもよい。また、他の一例として、情報処理装置10は、所定のイベントをトリガとして、図8に示した一連の処理を実行してもよい。もちろん、上述した例はあくまで一例であり、図8に示す一連の処理が実行されるタイミングは、情報処理システム1の利用形態に応じて適宜変更されてもよい。
 以上、図8を参照して、本実施形態に係る情報処理システムの一連の処理の流れの一例について、特に、情報処理装置10がユーザの状態を認識し、当該認識結果に応じて音響デバイス30の動作を制御する処理に着目して説明した。
  <2.4.変形例>
 続いて、本実施形態に係る情報処理システムの変形例について説明する。
  (変形例1-1:機能マップの一例)
 まず、変形例1-1として、機能マップの他の一例について説明する。図5を参照して説明した機能マップでは、ユーザの状態の候補それぞれに対して、音響出力に関する制御の設定が1対1で関連付けられていた。そのため、例えば、ユーザの状態が「Stay」として認識された場合には、ノイズ低減機能を有効化し、アンビエント機能については無効化したうえで、楽曲の再生を有効化し、当該楽曲のボリュームを下げられるように、音響デバイス30の動作が一意的に制御されていた。
 一方で、ユーザの状態が「Stay」に遷移したとしても、音響出力に関する制御の設定として、ユーザが所望する設定がその時々の状況に応じて異なる場合がある。例えば、ユーザの状態が「Walk」から「Stay」に遷移した場合には、屋外を歩行しているユーザが、当該歩行するのをやめて一時的に停止した場合が想定され得る。このような場合には、例えば、ユーザの状態が「Stay」に遷移したとしても、ユーザが周囲の状況を把握できるように、ユーザの状態が「Walk」の場合の設定と同様に、ノイズ低減機能が無効化され、アンビエント機能が有効化されている方が望ましい場合がある。
 これに対して、ユーザの状態が「Vehicle」から「Stay」に遷移した場合には、ユーザが電車に乗って移動している状況下において、電車の停止に伴いユーザも停止した状態となった場合が想定され得る。このような場合には、例えば、電車の停止及び発進に応じて音響出力に関する制御の設定が逐次変更されることは望ましくなく、ユーザの状態が「Stay」に遷移したとしても、ユーザの状態が「Vehicle」の場合と同様の設定が適用される方が望ましい場合がある。
 このような状況を鑑み、例えば、ユーザの状態の候補のうち一部の候補については、前の状態(設定)を引き継ぐように機能マップが設定されていてもよい。例えば、図9は、本実施形態の変形例1-1に係る機能マップの一例について説明するための説明図である。図9に示す機能マップでは、ユーザの状態が「Stay」及び「Bicycle」の場合には、ノイズ低減機能のON/OFFと、アンビエント機能のON/OFFと、楽曲の再生のON/OFFと、楽曲の再生に係るボリュームの制御内容と、について前の状態を引き継ぐような設定が成されている。このような構成により、例えば、ユーザの状態が「Stay」に遷移した場合においても、「Walk」や「Run」から「Stay」に遷移した場合と、「Vehicle」から「Stay」に遷移した場合とで、音響出力に関する制御の設定として、より好適な設定を適用することが可能となる。
 なお、上記に説明した例はあくまで一例であり、必ずしも図9に示した例のみには限定されない。具体的な一例として、音響出力に関する制御の一連の設定のうち、一部の設定についてのみ(例えば、ノイズ低減機能及びアンビエント機能についてのみ)、前の状態を引き継ぐ設定が成されていてもよい。
 また、他の一例として、遷移前後の状態の組み合わせごとに、音響出力に関する制御の設定が関連付けられていてもよい。具体的な一例として、「Walk」から「Stay」に遷移した場合と、「Vehicle」から「Stay」に遷移した場合とで、音響出力に関する制御の設定が個別に関連付けられていてもよい。
 以上、変形例1-1として、図9を参照して、機能マップの他の一例について説明した。
  (変形例1-2:機能マップの更新)
 続いて、変形例1-2として、機能マップを更新する場合の一例について説明する。前述した実施形態では、適用される機能マップが固定的に設定されている場合について説明した。一方で、ユーザの状態それぞれにおいて、ユーザが所望する音響出力に関する制御の設定がユーザごとに異なる場合が想定され得る。このような状況を鑑み、情報処理装置10に対して、当該情報処理装置10が適用する機能マップを更新するための機能が設けられていてもよい。
 具体的な一例として、変形例1-2に係る情報処理装置10は、自身が保持する機能マップを更新するためのユーザインタフェースをユーザに対して提示してもよい。より具体的には、情報処理装置10は、自身が保持する機能マップの設定内容、即ち、ユーザの状態の候補それぞれに関連付けられた音響出力の制御に関する設定を、所定の出力部を介してユーザに提示してもよい。また、情報処理装置10は、所定の入力部を介したユーザ入力に基づき、ユーザの状態の候補それぞれに関連付けられた音響出力の制御に関する設定のうち、少なくとも一部の設定を更新してもよい。このような構成により、ユーザの状態の認識結果に応じた音響出力の制御に関する設定を、ユーザごとにカスタマイズすることが可能となる。
 以上、変形例1-2として、機能マップを更新する場合の一例について説明した。
  (変形例1-3:ユーザの状態の認識に係る制御の一例)
 続いて、変形例1-3として、情報処理装置10によるユーザの状態の認識に係る制御の一例として、機械学習により教師データを更新する場合の一例について説明する。前述したように、情報処理装置10は、例えば、各種センサ等の検出部による検出結果をフレームごとに集計し、機械学習によりあらかじめ生成された教師データに基づき、集計結果を当該学習時に設定したクラスに分類することで、ユーザの状態を認識する。
 ところで、教師データをあらかじめ生成する場合には、個々のユーザを想定して生成することは困難であり、より一般的な傾向に基づき生成されることとなる。これに対して、ユーザの行動と、当該行動に伴い検出部に検出される状態と、の間の関連性は、例えば、ユーザ個人に特有の情報(例えば、癖等のようなユーザに固有の動作)により、ユーザごとに異なる場合も想定され得る。
 このような状況を鑑み、変形例1-3に係る情報処理装置10は、検出部による検出結果に基づくユーザの状態の認識結果を利用した機械学習により、当該ユーザの状態の認識に利用する教師データを更新可能に構成されている。具体的な一例として、情報処理装置10は、検出部による過去の検出結果と、当該検出結果に応じたユーザの状態の認識結果と、を対応付けることでサンプルを生成し、当該サンプルに基づきユーザの状態の認識に利用する教師データを更新してもよい。このような構成により、情報処理装置10は、ユーザの状態の認識結果に基づき教師データを動的に更新することが可能となるため、例えば、癖等のようなユーザごとに固有の動作の影響があるような状況下においても、当該ユーザの状態をより精度良く認識することが可能となる。
 以上、変形例1-3として、情報処理装置10によるユーザの状態の認識に係る制御の一例として、機械学習により教師データを更新する場合の一例について説明した。
  <2.5.評価>
 以上説明したように、本実施形態に係る情報処理システムにおいて、情報処理装置10は、所定の状態または状況の検出結果に応じてユーザの状態を認識し、当該ユーザの状態の認識結果に応じて、音響デバイス30の動作(特に、音響出力の制御に関する設定)を制御する。このような構成により、ユーザの状態や状況が逐次変化するような状況下においても、当該ユーザは、煩雑な操作を伴わずとも、所謂オーディオコンテンツや周囲の環境音等のような各種音響を、より好適な態様で聴取することが可能となる。
 <<3.第2の実施形態>>
  <3.1.概要>
 続いて、本開示の第2の実施形態に係る情報処理システムについて説明する。前述した第1の実施形態では、ユーザの状態に応じて、音響デバイス30の動作(特に、音響出力の制御に関する設定)を制御するための技術の一例について説明した。一方で、例えば、平日の出勤時における利用を想定したユースケースと、休日にエクササイズを行いながらの利用を想定したユースケースとでは、ユーザの状態それぞれにおける、音響出力の制御に関するより好適な設定が異なる場合がある。このような状況を鑑み、本実施形態では、ユーザの行動を想定したシナリオ(以降では、「行動シナリオ」とも称する)に応じて機能マップを適宜切り替えることで、その時々の状況に応じたより好適な態様で、音響デバイス30の動作を制御するための技術の一例について説明する。
  <3.2.機能構成>
 まず、図10を参照して、本実施形態に係る情報処理システムの機能構成の一例について説明する。図10は、本実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。なお、本説明では、本実施形態に係る情報処理システムを、前述した第1の実施形態に係る情報処理システム1と区別する場合には、「情報処理システム1a」と称する場合がある。
 図10に示すように、本実施形態に係る情報処理システム1aは、情報処理装置10aと、音響デバイス30とを含む。なお、音響デバイス30は、前述した第1の実施形態に係る情報処理システム1(図6参照)における音響デバイス30と同様である。そのため、音響デバイス30の構成については詳細な説明は省略する。
 また、情報処理装置10aは、前述した第1の実施形態に係る情報処理システム1における情報処理装置10に相当する構成であり、特にシナリオ選択部113を含む点が前述した情報処理装置10と異なる。そこで、本説明では、情報処理装置10aの構成について、特に、前述した第1の実施形態に係る情報処理装置10と異なる部分に着目して説明し、当該情報処理装置10と同様の構成については詳細な説明は省略する。
 入力部115は、ユーザが情報処理装置10aに対して各種情報を入力するための入力インタフェースである。入力部115は、例えば、ボタン、レバー、及びタッチパネル等のような入力デバイスを含んでもよい。
 認識処理部105は、検出部103から各種状態や状況の検出結果を示す情報を逐次取得し、取得した当該情報に基づき、情報処理装置10を保持するユーザの状態(特に、ユーザの行動に関する状態)を認識(または推定)し、認識結果を出力制御部107に出力する。本動作については、前述した第1の実施形態係る情報処理装置10と同様である。
 また、認識処理部105は、各種状態や状況を示す情報を、後述するシナリオ選択部113が行動シナリオを選択するための選択条件に関連する情報として取得してもよい。行動シナリオ(詳細は後述する)の選択条件に関する情報としては、例えば、日付、曜日、及び時間帯を示す情報や、ユーザの位置情報等が挙げられる。例えば、認識処理部105は、カレンダー等の情報を参照することで、その日の日付や曜日を示す情報を取得してもよい。また、他の一例として、認識処理部105は、計時部による計時結果に基づき、その時点における時間帯を認識してもよい。また、他の一例として、認識処理部105は、検出部103(例えば、GPS等)により取得された位置情報に基づき、情報処理装置10を保持するユーザの位置を示す情報を取得してもよい。
 また、認識処理部105は、ユーザの年齢や性別等のような、ユーザの属性に関する情報を、行動シナリオの選択条件に関連する情報として取得してもよい。例えば、認識処理部105は、情報処理装置10にあらかじめ登録されたユーザ情報を参照することで、ユーザの年齢や性別等のような、当該ユーザの属性に関する情報を取得してもよい。また、他の一例として、認識処理部105は、SNS等のようなネットワークサービスにアクセスすることで、ユーザの属性に関する情報を取得してもよい。
 以上のようにして、認識処理部105は、各種状態や状況を示す情報やユーザの属性に関する情報を行動シナリオの選択条件に関連する情報として取得し、取得した当該情報をシナリオ選択部113に出力する。
 シナリオ選択部113は、認識処理部105から行動シナリオの選択条件に関連する情報を取得し、取得した当該情報に基づきユーザの行動(換言すると、ユーザの状態の遷移)を推定し、推定結果に対応する行動シナリオを選択する。
 具体的な一例として、シナリオ選択部113は、日付や曜日を示す情報と、時間帯を示す情報とに応じて、平日の通勤時間であることを認識し、平日の通勤時間におけるユーザの行動に対応する行動シナリオを選択してもよい。また、このときシナリオ選択部113は、ユーザの位置情報に応じて、当該ユーザが自宅の近くにいることを認識し、平日の通勤時間においてユーザが自宅から最寄り駅まで移動する場合を想定した行動シナリオを選択してもよい。また、他の一例として、シナリオ選択部113は、日付や曜日を示す情報に応じて、休日におけるユーザの行動に対応する行動シナリオを選択してもよい。また、このときシナリオ選択部は、時間帯を示す情報と、ユーザの位置情報とに応じて、休日にユーザが運動等のエクササイズを行う場合の行動に対応する行動シナリオ等を選択してもよい。また、他の一例として、シナリオ選択部113は、あらかじめ登録されたユーザのスケジュールに関する情報等を参照し、当該参照結果に基づきユーザの行動を推測することで行動シナリオを選択してもよい。例えば、シナリオ選択部113は、スケジュールとして登録されたユーザの行き先となる場所の情報に基づき、当該場所までの移動手段を特定し、特定した移動手段に応じて行動シナリオを特定してもよい。なお、行動シナリオのより詳細については、具体的な例を挙げて別途後述する。
 また、他の一例として、シナリオ選択部113は、入力部115を介したユーザ入力に基づき行動シナリオを選択してもよい。なお、この場合には、情報処理装置10は、行動シナリオを選択するためのユーザインタフェース(例えば、GUI)を、出力部109を介してユーザに提示してもよい。このような構成により、例えば、ユーザは、提示されたユーザインタフェースに応じた操作に基づき所望の行動シナリオを選択することで、適用される行動シナリオを選択的に切り替えることが可能となる。
 次いで、シナリオ選択部113は、選択した行動シナリオに対応する機能マップを抽出する。なお、機能マップについては、例えば、想定され得る行動シナリオごとにあらかじめ生成され、シナリオ選択部113が参照可能な記憶領域(例えば、記憶部111)にあらかじめ記憶されているとよい。また、各行動シナリオに対応する機能マップは、当該行動シナリオで想定されるユースケースに応じて、ユーザの状態の候補それぞれに対して、音響出力の制御に関するより好適な設定が関連付けられるように生成されているとよい。そして、シナリオ選択部113は、抽出した機能マップを出力制御部107に出力する。
 出力制御部107は、シナリオ選択部113から行動シナリオの選択結果に応じて抽出された機能マップを取得する。また、出力制御部107は、認識処理部105からユーザの状態の認識結果を示す情報を取得する。出力制御部107は、シナリオ選択部113から取得した機能マップと、認識処理部105から取得したユーザの状態の認識結果を示す情報と、を比較することで、選択された行動シナリオと、認識されたユーザの状態と、に応じた音響出力の制御に関する設定を特定する。そして、出力制御部107は、特定した設定に応じた制御コマンドを音響デバイス30に送信することで、当該音響デバイス30の動作を制御する。
 以上のような制御により、情報処理装置10は、ユーザの行動を想定した行動シナリオ(換言すると、ユースケース)に応じて機能マップを適宜切り替える(例えば、動的に切り替える)ことで、その時々の状況に応じたより好適な態様で、音響デバイス30の動作を制御することが可能となる。
 以上、図10を参照して、本実施形態に係る情報処理システムの機能構成の一例について説明した。
  <3.3.行動シナリオ>
 続いて、機能マップの切り替えに係る行動シナリオの一例と、当該行動シナリオの選択に係る制御の一例とについて、より詳細に説明する。
  (通勤時の行動を想定した行動シナリオ1:時間に余裕がある場合)
 まず、通勤時におけるユーザの行動を想定した行動シナリオの一例として、ユーザが予定通りに通勤を行う場合等のように比較的時間に余裕がある場合に着目して、ユーザの行動の遷移と、そのとき情報処理装置10により認識されるユーザの状態の一例について説明する。例えば、図11及び図12は、通勤時におけるユーザの行動を想定した行動シナリオの一例について説明するための説明図である。
 まず、図11を参照して、平日の通勤時において、ユーザが自宅を出発して最寄りの駅まで歩いて向かうような状況を想定した、ユーザの状態(行動)の遷移の一例について具体的な例を挙げて説明する。
 例えば、ユーザは、情報処理装置10(例えば、スマートフォン)を携帯し、音響デバイス30(例えば、ヘッドホン)を装着したうえで、自宅を出発して最寄りの駅に向かって歩行を開始したとする。この場合には、ユーザの状態は、まず「Stay」として認識され、歩行の開始に伴い「Walk」に遷移する。次いで、ユーザは、駅に向かうまでの道のりにおいて信号が赤を示していたため横断歩道の前で一時停止し、信号が青に変わるのを確認して再び駅に向かって歩き出したものとする。この場合には、ユーザの状態は、ユーザが横断歩道の前で停止したことで「Stay」に遷移し、その後、信号が青に変わりユーザが歩行を再開したことで再度「Walk」に遷移する。
 次いで、駅に到着したユーザは、改札を通過した後にエスカレータを使用してホームに移動したものとする。この場合には、ユーザの状態は、エスカレータまでの移動時においては「Walk」として認識され、エスカレータに乗った後はユーザ自体が停止しているため「Stay」に遷移する。また、ホームへの移動後、ユーザは、エスカレータを降りて、普段利用している乗車待ちの場所まで移動し、その場所で電車の到着を待っていたものとする。この場合には、ユーザの状態は、エスカレータを降りてユーザが歩き出すことで「Stay」から「Walk」に遷移し、乗車待ちの場所への到着に伴い「Walk」から「Stay」に遷移する。その後、ユーザの状態は、電車の到着までは「Stay」の状態が継続することとなる。
 このように、図11を参照して説明した例では、ユーザが通勤時に自宅を出てから最寄りの駅まで歩いて移動し、駅に到着後、ホームに移動して乗車予定の電車を待つといった一連の動作において、ユーザの状態(行動)は、「Stay」と「Walk」との間を遷移していることが分かる。
 ここで、図11を参照して説明した例では、ユーザが屋外や駅構内を移動中であることが想定される。そのため、例えば、歩行しているユーザが信号待ち等のために一時的に停止をしたとしても、歩行している場合と同様に周囲の状況を把握できるようにアンビエント機能が有効化されていることが望ましい場合もある。このような状況を鑑み、図11を参照して上述したシナリオを想定した場合には、例えば、ユーザの状態として「Stay」が認識された場合に、音響出力の制御に関する設定として前の状態(例えば、「Walk」における設定)を引き継ぐように規定された機能マップが選択されるとよい。また、他の一例として、ユーザの状態として「Stay」が認識された場合に、ノイズ低減機能が無効化され(OFFとなり)、アンビエント機能が有効化される(ONとなる)ように規定された機能マップが選択されてもよい。
 続いて、図12を参照して、平日の通勤時において、駅のホームに到着したユーザが、電車を利用して会社の近くの駅まで移動する場合を想定した、ユーザの状態(行動)の遷移の一例について具体的な例を挙げて説明する。
 例えば、電車待ちをしていたユーザは、到着した電車に乗り込み、車両中程の位置まで移動して吊革に掴まり、その後、電車が発車したものとする。この場合には、ユーザの状態は、ユーザの移動に伴い「Walk」に遷移し、電車内でユーザが停止することで「Stay」に遷移した後、電車の発車に伴い「Vehicle」に遷移する。また、ユーザが乗車した電車は、ユーザの会社の近くの駅に到着するまでに、いくつかの駅で停車したものとする。この場合には、ユーザの状態は、電車の停車に伴い「Vehicle」から「Stay」に遷移し、電車が再度発車することで「Stay」から「Vehicle」に遷移することとなる。その後、電車がユーザの会社の近くの駅に到着すると、ユーザは、当該電車を降りたものとする。この場合には、ユーザの状態は、電車の停車に伴い「Vehicle」から「Stay」に遷移し、ユーザが電車を歩いて降りることで「Stay」から「Walk」に遷移することとなる。
 このように、図12を参照して説明した例では、ユーザが電車に乗降する動作や、電車が発車と停止とを繰り返す動作に伴い、ユーザの状態(行動)は、「Walk」と「Stay」との間や、「Stay」と「Vehicle」との間を遷移していることが分かる。
 ここで、図12を参照して説明した例では、電車の発車及び停止に伴い、ユーザの状態が「Stay」と「Vehicle」との間を遷移するが、ユーザ自体は停止している状態であり、歩行しているユーザが意図的に停止した場合とは異なることが想定される。このような状況を鑑み、図12を参照して上述したシナリオを想定した場合には、例えば、ユーザの状態として「Stay」が認識された場合に、音響出力の制御に関する設定として前の状態(例えば、「Vehicle」における設定)を引き継ぐように規定された機能マップが選択されるとよい。
 なお、電車を降りたユーザは、改札を通過して駅から会社に向けて歩いて移動を開始し、会社への道のりの途中でコンビニエンスストアに立ち寄り買い物をした後に、会社に到着したものする。この場合には、ユーザの状態は、例えば、図11に示す例と同様に、ユーザの移動に伴い「Walk」に遷移し、コンビニエンスストアへの到着に伴い一時的に「Stay」に遷移し、その後、ユーザが再度移動を開始することで「Walk」に遷移することとなる。そのため、この場合についても、例えば、図11を参照して前述した例と同様の機能マップが選択されるとよい。
 以上、図11及び図12を参照して、通勤時におけるユーザの行動を想定したシナリオの一例として、ユーザが予定通りに通勤を行う場合等のように比較的時間に余裕がある場合に着目して、ユーザの状態(行動)の変化と、そのとき情報処理装置により認識される状態の遷移の一例について説明した。
  (通勤時の行動を想定した行動シナリオ2:時間に余裕がない場合)
 続いて、通勤時におけるユーザの行動を想定した行動シナリオの他の一例として、遅刻しそうな状況等のように時間に余裕がない場合に着目して、ユーザの行動の遷移と、そのとき情報処理装置10により認識されるユーザの状態の一例について説明する。例えば、図13及び図14は、通勤時におけるユーザの行動を想定した行動シナリオの他の一例について説明するための説明図である。
 まず、図13を参照して、平日の通勤時において、ユーザが自宅を出発して最寄りの駅まで自転車を利用して急いで向かうような状況を想定した、ユーザの状態(行動)の遷移の一例について具体的な例を挙げて説明する。
 例えば、ユーザは、情報処理装置10を鞄に入れて、音響デバイス30を装着したうえで、自宅の駐輪場に走って向かい、止めてある自転車に乗り、自宅を出発して最寄りの駅に向けて移動を開始したとする。この場合には、ユーザの状態は、まず「Stay」として認識され、走行の開始に伴い「Run」に遷移し、駐輪場中の自転車が止められた位置への到着に伴い「Stay」に遷移する。その後、ユーザが自転車に乗って移動を開始すると、ユーザの状態は、「Stay」から「Run」または「Walk」を経て「Bicycle」に遷移する。
 次いで、ユーザは、駅に向かうまでの道のりにおいて信号が赤を示していたため横断歩道の前で一時停止し、信号が青に変わるのを確認して再び駅に向かったものとする。この場合には、ユーザの状態は、ユーザが横断歩道の前で停止したことで「Bicycle」から「Stay」に遷移し、その後、信号が青に変わりユーザが自転車での移動を再開したことで再度「Bicycle」に遷移する。
 ここで、図13を参照して説明した例では、ユーザが屋外を自転車で移動している状態であることが想定される。そのため、例えば、自転車で移動しているユーザが信号待ち等のために一時的に停止をしたとしても、自転車での走行時と同様に周囲の状況を把握できるように、例えば、ノイズ低減機能が無効化されていたり、アンビエント機能が有効化されていることが望ましい場合もある。このような状況を鑑み、図13を参照して上述したシナリオを想定した場合には、例えば、ユーザの状態として「Stay」が認識された場合に、音響出力の制御に関する設定として前の状態(例えば、「Bicycle」における設定)を引き継ぐように規定された機能マップが選択されるとよい。また、他の一例として、ユーザの状態として「Stay」が認識された場合に、ノイズ低減機能が無効化され(OFFとなり)、アンビエント機能が有効化される(ONとなる)ように規定された機能マップが選択されてもよい。
 続いて、図14を参照して、平日の通勤時において、駅に到着したユーザがホームに到着していた電車に駆け込み、当該電車を利用して会社の近くの駅まで移動した後に、走って会社まで移動する場合を想定した、ユーザの状態(行動)の遷移の一例について具体的な例を挙げて説明する。
 例えば、駅に到着したユーザは、駅前の駐輪場に自転車を止めて改札に向けて走り出し、改札を走り抜けて階段を駆け上がった後に、ホームに到着していた電車の車内に駆け込んだものとする。この場合には、ユーザの状態は、ユーザが走り出すことで「Run」に遷移し、電車の車内に駆け込んだユーザが停止することで「Stay」に遷移した後、電車の発車に伴い「Vehicle」に遷移する。
 次いで、ユーザは、電車を降りた後に改札へと移動する際の時間を短縮するために、途中駅で何度か電車を一時的に降りることで車両間を移動し、会社の近くの駅の改札により近いドアの付近に移動したものとする。この場合には、ユーザの状態は、電車の停止に伴い「Vehicle」から「Stay」に遷移し、ユーザの移動に伴い「Walk」または「Run」に遷移する。また、ユーザの状態は、ユーザの移動が完了すると再度「Stay」に遷移し、電車の発車に伴い再度「Vehicle」に遷移する。
 次いで、電車が会社の近くの駅に到着すると、ユーザは、改札に向けて走り出し、改札前が混雑していたため改札を歩いて通り抜けた後に、会社に向けて走り出したものとする。この場合には、ユーザの状態は、電車の停止に伴い「Vehicle」から「Stay」に遷移し、ユーザが改札に向けて走り出すと「Run」に遷移する。また、ユーザの状態は、ユーザが改札を歩いて通り抜ける際に「Walk」に遷移し、ユーザが改札を抜けて再び走り出すと「Run」に遷移する。
 ここで、図14を参照して説明した例では、ユーザは、電車に乗った後も途中駅で車両間を移動しているため、ユーザの状態が、「Vehicle」と、「Stay」と、「Walk」または「Run」との間を遷移したとしても、この間にユーザは周囲の状況を把握できることが望ましい場合がある。このような状況を鑑み、図14を参照して上述したシナリオを想定した場合には、例えば、ユーザの状態として、「Vehicle」、「Stay」、「Walk」、及び「Run」のそれぞれが認識された場合に、ノイズ低減機能が無効化され、アンビエント機能が有効化される機能マップが選択されてもよい。
 以上、図13及び図14を参照して、通勤時におけるユーザの行動を想定した行動シナリオの他の一例として、遅刻しそうな状況等のように時間に余裕がない場合に着目して、ユーザの行動の遷移と、そのとき情報処理装置により認識されるユーザの状態の一例について説明した。
  (休日の行動を想定した行動シナリオ)
 続いて、図15及び図16を参照して、休日におけるユーザの行動を想定した行動シナリオの一例について、具体的な例を挙げて説明する。図15及び図16は、休日におけるユーザの行動を想定した行動シナリオの一例について説明するための説明図である。
 まず、図15を参照して、ユーザが休日にジョギング等のエクササイズを行う場合に着目して、ユーザの行動の遷移と、そのとき情報処理装置10により認識されるユーザの状態の一例について説明する。
 例えば、ユーザは、情報処理装置10をアームバンド等により自身の腕に固定した状態でまずストレッチを行い、ウォーキングによりウォームアップを行ったうえでジョギングを開始したものとする。この場合には、ユーザの状態は、ストレッチ中は「Stay」として認識され、ウォーキングの開始に伴い「Walk」に遷移し、その後、ジョギングの開始に伴い「Run」に遷移する。
 次いで、ユーザは、信号の手前でジョギングのスピードをダウンし、信号待ち中においても足踏みをして、信号が青に変わるのを確認してジョギングのスピードを徐々に上げたものとする。この場合には、ユーザの状態は、「Run」が継続しているものとして認識される。
 その後、ユーザは、ある程度の距離を走った後に、ウォーキングによりクールダウンを行ったうえで、最後にストレッチを行って一連のエクササイズを終了したものとする。この場合には、ユーザの状態は、ジョギングをやめてウォーキングよるクールダウンが開始されると「Run」から「Walk」に遷移し、その後、ウォーキングをやめてストレッチが開始されると「Walk」から「Stay」に遷移する。
 ここで、図15を参照して説明した例では、例えば、ユーザがウォーキング及びジョギング中に屋外を移動している場合もある。このような場合には、例えば、ユーザが周囲の状況を把握できるように、ノイズ低減機能が無効化されていたり、アンビエント機能が有効化されるように設定された機能マップが選択されてもよい。一方で、ユーザが運動場などの様に車両等の侵入が制限された場所でエクササイズを行う場合もある。このような場合においては、ユーザがオーディオコンテンツ等を楽しみながらエクササイズを行えるように、例えば、ノイズ低減機能が有効化されたうえで、アンビエント機能が無効化されるように設定された機能マップが選択されてもよい。
 続いて、図16を参照して、ユーザが休日に電車やバスを利用して移動する場合に着目して、ユーザの行動の遷移と、そのとき情報処理装置により認識されるユーザの状態の一例について説明する。
 まず、ユーザが休日に電車を利用して移動する場合の一例について具体的な例を挙げて説明する。例えば、ユーザが、情報処理装置10を携帯した状態で、ホームに到着していた電車の車内に駆け込み、空いている座席を探して移動している最中に電車が発車したものとする。この場合には、ユーザの状態は、まず「Run」に遷移し、電車の発車前にユーザが車内を移動している最中には「Walk」に遷移し、その後、電車の発車に伴い「Vehicle」に遷移する。次いで、ユーザは、空いている座席が無かったため、電車が途中駅で停車している間に、空いている座席を探すために車両間を歩いて移動したものとする。この場合には、ユーザの状態は、電車の停止に伴い「Vehicle」から「Walk」に遷移し、電車の発車に伴い再度「Vehicle」に遷移する。
 次いで、ユーザが、電車が途中駅で停車している間に車両間を移動し、空いている座席を見つけたためその座席に座った直後に、老人が車内に乗ってきたため再び立ち上がりその老人に席を譲り、少し移動したところで電車が再び発車したものとする。この場合には、ユーザの状態は、電車の停止に伴い「Vehicle」から「Walk」に遷移し、ユーザが座席に座ると「Stay」に遷移する。また、ユーザの状態は、ユーザが老人に席を譲った後に移動を開始したことで「Stay」から「Walk」に遷移した後に、電車の発車に伴い再度「Vehicle」に遷移する。
 また、到着駅のホームが混雑しているため、電車が一時的に速度を緩めたものとする。この場合には、ユーザの状態として、「Vehicle」が継続しているものと認識される。
 その後、目的地となる駅に電車が到着し、ユーザは、約束の時間に遅れそうになったため電車が駅に停止すると同時にドアの付近に移動し、ドアが開くと走り出したものとする。この場合には、ユーザの状態は、電車の停止に伴い「Vehicle」から「Walk」に遷移し、ドアが開いてユーザが走り出すと「Run」に遷移する。
 続いて、ユーザが休日にバスを利用して移動する場合の一例について具体的な例を挙げて説明する。例えば、ユーザが、情報処理装置10を携帯した状態で、停留所に到着していたバスの車内に駆け込み、車内を移動中にバスが発車したものとする。この場合には、ユーザの状態は、まず「Run」に遷移し、バスの発車前にユーザが車内を移動している最中には「Walk」に遷移し、その後、バスの発車に伴い「Vehicle」に遷移する。
 次いで、バスの車内が混雑してきたため、ユーザが、バスが低速走行になったタイミングを見計らって空いている位置に移動したものとする。この場合には、ユーザの状態は、バスが低速走行に遷移することで「Vehicle」から「Walk」に遷移し、ユーザの移動後にバスが速度を上げると再度「Vehicle」に遷移する。
 また、ユーザが、両替を行うために、バスが信号待ちで停止しているタイミングを見計らい、両替機が設置されている位置まで移動したものとする。この場合には、ユーザの状態は、バスの停止に伴い「Vehicle」から「Walk」に遷移し、ユーザが両替機の前で立ち止まると「Stay」に遷移する。また、両替後にユーザが元の位置に向けて移動を開始し、移動中にバスが発車したものとする。この場合には、ユーザの状態は、ユーザが移動を開始することで「Stay」から「Walk」に遷移し、その後、バスの発車に伴い再度「Vehicle」に遷移する。
 また、バスが目的地に向けて移動している間に、道が渋滞しているため一時的に速度を緩めたものとする。この場合には、ユーザの状態として、「Vehicle」が継続しているものと認識される。
 以上、図16を参照して、ユーザが休日に電車やバスを利用して移動する場合に着目して、ユーザの行動の遷移と、そのとき情報処理装置により認識されるユーザの状態の一例について説明した。ここで、図16を参照して説明した例では、電車やバスの発車及び停止に伴い、ユーザの状態は「Stay」、「Walk」、及び「Vehicle」の間を遷移するが、このような場合には、「Stay」及び「Walk」の状態においても、ユーザは電車やバスの車内にいる場合が想定される。このような状況を鑑み、図16を参照して上述したシナリオを想定した場合には、例えば、ユーザの状態として「Stay」や「Walk」が認識された場合に、音響出力の制御に関する設定として前の状態(例えば、「Vehicle」における設定)を引き継ぐように規定された機能マップが選択されるとよい。
 以上、図15及び図16を参照して、休日におけるユーザの行動を想定したシナリオの一例について、具体的な例を挙げて説明した。
  (行動シナリオの選択に対する機械学習の適用)
 続いて、行動シナリオの選択に係る処理に対して、所謂機械学習の技術を適用する場合の一例について説明する。
 前述したように、本実施形態に係る情報処理装置10は、取得した行動シナリオの選択条件に関連する情報(例えば、各種状態や状況の検出結果やユーザの属性情報等)に応じて行動シナリオを動的に選択してもよく、この場合には、その時々の状況により即した行動シナリオが選択されることが望ましい。このような状況を鑑み、情報処理装置10は、行動シナリオの選択に係る処理に対して、機械学習の技術を適用してもよい。
 具体的には、情報処理装置10は、取得した行動シナリオの選択条件に関連する情報を、機械学習によりあらかじめ生成された教師データと比較することで、当該情報を、当該学習時に各行動シナリオに対応付けて設定したクラスに分類する。以上のようにして、情報処理装置10は、各クラス(即ち、行動シナリオ)それぞれについて尤度を算出し、当該尤度の算出結果に基づき行動シナリオ(ひいては、当該行動シナリオに対応する機能マップ)を選択すればよい。
 また、情報処理装置10は、機械学習により教師データを更新してもよい。この場合には、情報処理装置10は、過去に判定された行動シナリオの選択条件と、当該条件に応じた行動シナリオ(ひいては、当該行動シナリオに対応する機能マップ)の選択結果と、を対応付けることでサンプルを生成し、当該サンプルに基づき行動シナリオの選択に利用する教師データを更新すればよい。
 以上のような構成により、本実施形態に係る情報処理装置10は、その時々の状況により即した行動シナリオをより精度良く選択することが可能となる。また、機械学習により教師データを動的に更新することで、情報処理装置10は、例えば、ユーザごとに行動パターンが異なるような状況下においても、当該ユーザの行動パターンに応じて、その時々の状況により即した行動シナリオを選択することが可能となる。
 以上、行動シナリオの選択に係る処理に対して、所謂機械学習の技術を適用する場合の一例について説明した。
 なお、図11~図16を参照して上述した行動シナリオはあくまで一例であり、必ずしも上述した例のみには限定されない。また、行動シナリオが適用される単位についても特に限定されない。具体的な一例として、日ごとに1つの行動シナリオが適用されてもよいし、1日を複数の時間帯に分けて当該時間帯ごとに異なる行動シナリオが適用されてもよい。また、その時々の状況に応じて、適用される行動シナリオが動的に切り替えられてもよい。具体的な一例として、ユーザの現在位置や、ユーザの移動先に応じて異なる行動シナリオが適用されてもよい。
  <3.4.処理>
 続いて、図17を参照して、本実施形態に係る情報処理システムの一連の処理の流れの一例について、特に、情報処理装置10がユーザの状態を認識し、当該認識結果に応じて音響デバイス30の動作を制御する処理に着目して説明する。図17は、本実施形態に係る情報処理装置10の一連の処理の流れの一例について示したフローチャートである。
 図17に示すように、情報処理装置10(認識処理部105)は、行動シナリオの選択条件に関連する情報として、各種状態や状況を示す情報やユーザの属性に関する情報を取得する。そして、情報処理装置10(シナリオ選択部113)は、取得した行動シナリオの選択条件に関連する情報に基づきユーザの行動(換言すると、ユーザの状態の遷移)を推定し、推定結果に対応する行動シナリオを選択する(S201)。
 また、情報処理装置10(認識処理部105)は、検出部103により逐次取得される各種状態や状況の検出結果を示す情報に基づき、当該情報処理装置10を保持するユーザの状態(特に、ユーザの行動に関する状態)を認識する(S203)。
 次いで、情報処理装置10(出力制御部107)は、行動シナリオに応じて選択した機能マップと、ユーザの状態の認識結果とを比較することで、当該ユーザの状態に応じた音響出力の制御に関する設定(例えば、ノイズ低減機能やアンビエント機能の設定等)を特定する(S205)。
 そして、情報処理装置10(出力制御部107)は、特定した設定に応じた制御コマンドを、ネットワークを介して音響デバイス30に送信することで、当該音響デバイス30の動作を制御する(S207)。なお、このとき情報処理装置10は、ユーザの状態が変化したことを認識した場合に、変化後のユーザの状態に応じて音響デバイス30の動作を制御してもよい。
 以上のような制御により、例えば、ノイズ低減機能、アンビエント機能、及び楽曲の再生それぞれのON/OFFや、楽曲の再生に係るボリューム等のような、音響出力に関する音響デバイス30の動作が、その時々のユーザの状態に応じて動的に制御される。
 なお、図17に示す一連の処理が実行されるタイミングは特に限定されない。具体的な一例として、情報処理装置10は、図17に示した一連の処理を所定のタイミングごとに定期的に実行してもよい。また、他の一例として、情報処理装置10は、所定のイベントをトリガとして、図17に示した一連の処理を実行してもよい。もちろん、上述した例はあくまで一例であり、図17に示す一連の処理が実行されるタイミングは、情報処理システム1aの利用形態に応じて適宜変更されてもよい。
 以上、図17を参照して、本実施形態に係る情報処理システムの一連の処理の流れの一例について、特に、情報処理装置10がユーザの状態を認識し、当該認識結果に応じて音響デバイス30の動作を制御する処理に着目して説明した。
  <3.5.変形例>
 続いて、本実施形態に係る情報処理システムの変形例について説明する。
  (変形例2-1:「Long Stay」の設定)
 まず、変形例2-1として、ユーザの状態の候補として「Long Stay」を設ける場合の一例について説明する。
 前述したように、図4を参照して前述したユーザの状態の候補の一例のうち、「Stay」は、ユーザが停止している状態を示している。一方で、ユーザが停止している状態としては、例えば、ユーザが信号待ち等のために一時的に停止している状態と、ユーザが休憩や何らかの作業(例えば、デスクワーク等)のために長時間停止している状態(換言すると、恒常的に停止している状態)と、が想定され得る。このような状況を鑑みると、例えば、利用シーンによっては、一時的に停止した状態と、恒常的に停止している状態と、のそれぞれにおいて異なる制御が行われた方が望ましい場合もある。
 そこで、変形例2-1に係る情報処理システムでは、情報処理装置10は、ユーザが一時的に停止した状態を「Stay」として認識し、ユーザが恒常的に停止している状態については、「Stay」とは異なる「Long Stay」として認識する。具体的には、情報処理装置10は、「Stay」の状態が一定期間以上継続した場合には、ユーザの状態を「Long Stay」に遷移させる。このような構成により、変形例2-1に係る情報処理システムは、ユーザの状態が「Stay」の場合と、「Long Stay」の場合と、のそれぞれについて互いに異なる制御を適用することが可能となる。
 より具体的な一例として、情報処理装置10は、「Stay」を示す状態が認識された場合には音響デバイス30の動作の制御は行わず、「Long Stay」を示す状態が認識された場合に当該音響デバイス30の動作の制御を行ってもよい。このような制御により、例えば、信号待ち等でユーザが一時的に停止した場合に、音響デバイス30の動作が一時的に変更されるといった動作の発生を抑制することも可能となる。
 以上、変形例2-1として、ユーザの状態の候補として「Long Stay」を設ける場合の一例について説明した。
  (変形例2-2:判定対象からの除外)
 続いて、変形例2-2として、あらかじめ設定されたユーザの状態の候補のうち、所定の条件に応じて一部の候補を、音響出力の制御に関する判定の対象から除外する場合の一例について説明する。
 前述した、ユーザの状態に関する一連の候補のうち一部の候補については、システムが利用される条件に応じて、音響出力の制御に関する判定の対象とならない方が望ましい場合がある。具体的な一例として、自転車の運転中にイヤホンやヘッドホン等の音響デバイス30を使用する行為が、法規制等により制限されるような場合や、運転時の安全を考慮すると望ましくない場合等が想定され得る。
 また、他の一例として、ユーザの状態に関する一連の候補のうち一部の候補については、複数設定された行動シナリオのうち一部の行動シナリオにおいて、音響出力の制御に関する判定の対象とならない方が望ましい場合がある。具体的な一例として、ユーザがデスクワークを行っている状況を想定した場合には、ユーザの状態として、「Run」、「Vehicle」、及び「Bicycle」を示す状態が認識される可能性は低い。
 このような状況を鑑み、例えば、少なくとも一部の行動シナリオにおいて、あらかじめ設定されたユーザの状態に関する一連の候補のうち、一部の候補が、音響出力の制御に関する判定の対象から除外されるように機能マップが設定されてもよい。
 例えば、図18は、変形例2-2に係る情報処理システムの概要について説明するための説明図であり、複数の行動シナリオを想定した機能マップのプリセットの一例を示している。図18に示すプリセットでは、複数の行動シナリオA~Dを想定し、当該行動シナリオそれぞれに対応した機能マップが設定されている。具体的には、行動シナリオAは、通勤時や通学時における利用を想定した行動シナリオの一例を示している。また、行動シナリオBは、ウォーキング等のようなエクササイズを行う際の利用を想定した行動シナリオの一例を示している。また、行動シナリオCは、デスクワーク等のような仕事中の利用を想定した行動シナリオの一例を示している。また、行動シナリオDは、ユーザが趣味に没頭している際の利用を想定した行動シナリオの一例を示している。なお、図18に示す各機能マップおいて、一連のユーザの状態の候補のうち、音音響出力の制御に関する判定の対象から除外されている候補については、対応する制御の項目にハッチングが施されている。
 具体的な一例として、図18に示す例では、自転車の運転時の安全を考慮して、行動シナリオA~Dそれぞれに対応する機能マップのいずれにおいても、「Bicycle」を示す状態が、音響出力の制御に関する判定の対象から除外されている。
 次いで、行動シナリオAについて説明する。行動シナリオAにおいては、通勤時や通学時の利用を想定しているため、休憩等により恒常的に停止している状態が認識される可能性は低い。そのため、行動シナリオAに対応する機能マップでは、「Long Stay」を示す状態が、音響出力の制御に関する判定の対象から除外されている。
 次いで、行動シナリオBについて説明する。行動シナリオBにおいては、ウォーキング等のエクササイズを行う際における利用を想定しているため、ユーザがバスや電車等の乗り物に乗って移動するような状態が認識される可能性は低い。そのため、行動シナリオBに対応する機能マップでは、「Vehicle」を示す状態が、音響出力の制御に関する判定の対象から除外されている。また、ウォーキング等においては、信号待ち等で一時的に停止している状態と、休憩等により恒常的に停止している状態と、のそれぞれにおいて、より望ましい設定の内容が異なる場合がある。そのため、行動シナリオBに対応する機能マップでは、「Stay」と「Long Stay」とを明示的に区別し、それぞれに対して異なる設定が適用されている。より具体的には、「Stay」を示す状態が認識されたとしても前の状態の設定が引き継がれるが、「Long Stay」を示す状態が認識された場合にはノイズ低減機能及びアンビエント機能が明示的に制御される。
 次いで、行動シナリオCについて説明する。行動シナリオCにおいては、デスクワーク等の仕事中の利用を想定しているため、ユーザがバスや電車等の乗り物に乗って移動するような状態や、走って移動するような状態が認識される可能性は低い。そのため、行動シナリオCに対応する機能マップでは、「Run」及び「Vehicle」それぞれを示す状態が、音響出力の制御に関する判定の対象から除外されている。また、行動シナリオCにおいても、一時的に停止している状態と、恒常的に停止している状態と、のそれぞれを明示的に区別している。即ち、行動シナリオCに対応する機能マップでは、「Stay」と「Long Stay」とを明示的に区別し、それぞれに対して異なる設定が適用されている。
 次いで、行動シナリオDについて説明する。行動シナリオDにおいては、ユーザが趣味に没頭しているような状況を想定しているため、行動シナリオCと同様に、ユーザがバスや電車等の乗り物に乗って移動するような状態や、走って移動するような状態が認識される可能性は低い。そのため、行動シナリオDに対応する機能マップでは、「Run」及び「Vehicle」それぞれを示す状態が、音響出力の制御に関する判定の対象から除外されている。また、行動シナリオDにおいては、1つの作業に没頭しているような状況を想定しているため、「Stay」と「Long Stay」とを明示的に区別せずに「Stay」として認識している。また、行動シナリオDに対応する機能マップおいては、当該「Stay」を示す状態が認識された場合には、ユーザがオーディオコンテンツ等をより楽しめるように、ノイズ低減機能が有効化されたうえで、アンビエント機能が無効化されるように設定が成されている。
 なお、少なくとも一部の候補について、音響出力の制御に関する判定の対象から除外するか否かの設定については、例えば、図18に示すようなプリセットとしてあらかじめ設定されていてもよい。また、他の一例として、所定の入力部を介したユーザ入力に基づき、少なくとも一部の候補について、上記判定の対象から除外するか否かの設定が変更されてもよい。また、他の一例として、所定の条件に基づき、上記判定の対象から除外されるように設定が動的に変更されてもよい。より具体的な一例として、情報処理装置10は、GPS等により取得された位置情報に基づきユーザの位置する国を特定し、特定した国の法規制に応じて、一部の候補が上記判定の対象から除外されるように設定を更新してもよい。
 なお、情報処理装置10は、認識したユーザの状態が、行動シナリオに応じて選択された機能マップにおいて音響出力の制御に関する判定の対象から除外されている場合には、音響出力の制御に関する設定として前の状態を引き継ぐように制御すればよい。
 以上、変形例2-2として、図18を参照して、あらかじめ設定されたユーザの状態の候補のうち、所定の条件に応じて一部の候補を、音響出力の制御に関する判定の対象から除外する場合の一例について説明する。
  (変形例2-3:複数種類の状態や状況の検出結果を利用した制御)
 続いて、変形例2-3として、図19~図23を参照して、複数種類の状態や状況の検出結果を利用することで、ユーザの状態の認識精度を向上させるための仕組みの一例について説明する。図19~図23は、変形例2-3に係る情報処理システムの動作について説明するための説明図である。
 前述したように、ユーザの状態を認識するために、各種センサ(例えば、加速度センサ、角速度センサ(ジャイロ))やGPS等のような多様な種類の検出部103による検出結果を利用することが可能である。このような構成に基づき、変形例2-3に係る情報処理システムでは、多様な種類の検出部103による各種状態や状況の検出結果を選択的に組み合わせて利用することで、ユーザの状態の認識精度を向上させる。
 例えば、図19及び図20は、変形例2-3に係る情報処理システムによる、ユーザの状態の認識に係る処理の概要について示している。
 例えば、図19に示すように、変形例2-3に係る情報処理システムでは、情報処理装置10は、3軸の加速度センサによる、当該情報処理装置10に加わる加速度の検出結果に基づき、ユーザの状態(特に、ユーザの行動に係る状態)を認識する。そして、情報処理装置10は、当該認識結果に基づき、ユーザの状態を示す行動情報と、当該ユーザの状態の尤度を示す情報とを取得する。
 また、変形例2-3に係る情報処理システムでは、情報処理装置10は、加速度センサによる検出結果に加えて、他の検出部による検出結果を利用することで、各種状態や状況を示す情報を取得する。例えば、図19に示す例では、情報処理装置10は、3軸の角速度センサ(ジャイロ)、GPS、地磁気センサ等の検出結果を利用している。また、図19に示す例では、情報処理装置10は、OS(Operation System)等のシステムコールを利用することで、画面のon/off(即ち、表示/非表示)や、情報の入出力を制限するためのロックのon/off等の状態を示す情報を取得してもよい。
 なお、各検出部の検出頻度(例えば、サンプリングレート)は、検出部ごとに個別に設定されていてもよい。具体的な一例として、加速度センサや角速度センサのサンプリングレートと、GPSのサンプリングレートとが異なっていてもよい。また、各検出部が検出対象とする状態や状況の特性に応じて、当該状態や状況の検出頻度が設定されていてもよい。例えば、画面のon/offやロックのon/off等のように、変化する頻度が比較的低い状態については、当該状態の検出頻度(換言すると、サンプリングレート)が、他の状態の検出頻度に比べて低く設定されていてもよい。
 また、複数の検出部うち少なくとも一部の検出部の検出頻度が他の検出部の検出頻度と異なる場合には、情報処理装置10は、各検出部による検出結果に基づき各種状態や状況を認識するタイミングが同期するように、各状態や状況を認識する頻度(換言すると、タイミング)を制御してもよい。具体的な一例として、情報処理装置10は、複数の検出部それぞれの検出頻度のうち、最も低い検出頻度にあわせて、当該複数の検出部それぞれによる検出結果に基づき、各種状態や状況を認識する頻度を設定してもよい。なお、この場合には、検出頻度の高い検出部による検出結果については、検出頻度の低い検出部による検出結果が取得されるまでの間に、複数のでサンプルが取得される場合がある。このような場合には、情報処理装置10は、検出頻度の高い検出部により取得された複数のサンプルに基づき、当該検出部による検出結果として取得する情報を算出してもよい。具体的な一例として、情報処理装置10は、検出頻度の高い検出部により取得された複数のサンプル複数のサンプルの平均値を算出し、算出した平均値を当該検出部による検出結果として取得してもよい。
 そして、情報処理装置10は、取得した各種情報に基づき、例えば、ユーザが情報処理装置10を手で持っている状態か否か、ユーザの移動速度を示す情報、及びユーザが画面を見ているか否か等のような各種状態や状況を認識する。
 具体的な一例として、加速度センサや角速度センサによる情報処理装置10の位置や向きの変化の検出結果に基づき、ユーザが当該情報処理装置10を手で持っている状態(即ち、手持ちの状態)か否かを判別することが可能である。また、GPSによる位置情報の検出結果を監視することで、ユーザの移動速度を検出することが可能である。また、画面のon/offの検出結果と、ロックのon/offの検出結果と、を利用することで、ユーザが画面を見ているか否かを推測することも可能である。具体的には、画面がonの状態であり、かつロックがロックのoffの状態の場合には、ユーザが画面を見ている状態であると推測することが可能である。
 そして、情報処理装置10は、加速度センサによる検出結果に基づき取得した行動情報及び尤度と、複数の検出部による検出結果に基づき取得した各種状態や状況の認識結果と、に基づき、ユーザの状態を確定する。例えば、図19に示す例では、情報処理装置10は、取得した行動情報、尤度、手持ちの状態か否かを示す情報、移動速度、及び画面を見ている状態か否かを示す情報と、あらかじめ選択された行動シナリオと、を入力として所定の判定ロジックに基づき、ユーザの状態を確定している。具体的な一例として、情報処理装置10は、行動情報が示すユーザの状態を、複数の検出部による検出結果に基づき取得した各種状態や状況の認識結果に基づき補正することで、ユーザの状態の認識結果を確定してもよい。
 なお、図19及び図20に示す例において、情報処理装置10は、加速度センサの検出結果に基づき取得した行動情報が、ユーザの状態の一連の候補のうちの所定の候補を示す場合においてのみ、加速度センサ以外の他の検出部による検出結果を利用してもよい。この場合には、例えば、情報処理装置10は、取得した行動情報が所定の候補を示す場合に、その他の検出部を起動し、当該検出部による検出結果に応じた各種状態や状況の認識結果に基づき、行動情報が示すユーザの状態の認識結果を補正してもよい。
 ここで、図21を参照して、情報処理装置10が、複数の検出部による検出結果に基づき取得した各種状態や状況の認識結果に応じて、ユーザの状態(特に、ユーザの行動に関する状態)を認識する処理の流れの一例について説明する。図21は、変形例2-3に係る情報処理装置10の一連の処理の流れの一例を示したフローチャートである。
 例えば、情報処理装置10は、加速度センサによる情報処理装置10に加わる3軸の加速度の検出結果に基づき、ユーザの状態を認識する(S301)。
 次いで、情報処理装置10は、ユーザの状態の認識結果が、ユーザの状態の一連の候補のうちの所定の候補を示すか否かを判定する(S303)。ユーザの状態の認識結果が所定の候補を示す場合(即ち、所定の状態が認識された場合)には(S303、YES)、情報処理装置10は、加速度センサとは異なる他の検出部(例えば、角速度センサ、GPS等)を起動し、当該他の検出部による検出結果を取得する(S305)。情報処理装置10は、他の検出部による検出結果に応じた所定の状態や状況の認識結果が所定の条件を満たす場合には(S307、YES)、加速度センサの検出結果に基づくユーザの状態の認識結果を、当該所定の状態や状況の認識結果に基づき補正する(S309)。そして、情報処理装置10は、補正後のユーザの状態の認識結果を、最終的なユーザの状態の認識結果として確定する(S311)。
 一方で、情報処理装置10は、他の検出部による検出結果に応じた所定の状態や状況の認識結果が所定の条件を満たさない場合には(S307、NO)、加速度センサの検出結果に基づくユーザの状態の認識結果を、最終的なユーザの状態の認識結果として確定する(S311)。また、情報処理装置10は、加速度センサの検出結果に基づくユーザの状態の認識結果が所定の候補を示さない場合には(S303、NO)、当該ユーザの状態の認識結果を、最終的なユーザの状態の認識結果として確定する(S311)。
 以上のように、変形例2-3に係る情報処理装置10は、例えば、加速度センサの検出結果に基づくユーザの状態の認識結果を、他の検出部による検出結果に応じた各種状態や状況の認識結果に基づき補正することで、ユーザの状態の認識精度を向上させることが可能となる。
 より具体的な一例として、情報処理装置10は、加速度センサの検出結果に基づきユーザの状態として「Vehicle」が認識された場合に、GPSによる検出結果に基づきユーザの移動速度を認識してもよい。この場合には、情報処理装置10は、例えば、ユーザの移動速度の認識結果が所定の速度を超える場合に、ユーザの状態を「Vehicle」として確定してもよい。また、他の一例として、情報処理装置10は、加速度センサの検出結果に基づきユーザの状態として「Vehicle」が認識された場合に、角速度センサを起動し、加速度センサ及び角速度センサそれぞれの検出結果に基づき、手持ちの状態かを判別してもよい。この場合には、情報処理装置10は、例えば、手持ちの状態ではないと判定した場合に、ユーザの状態を「Vehicle」として確定してもよい。
 続いて、図22及び図23を参照して、情報処理装置10が、所定の検出部の検出結果に基づくユーザの状態の認識結果が所定の候補を示す場合に、他の検出部を起動し、当該他の検出部の検出結果に基づき、最終的なユーザの状態の認識結果を確定する場合の動作の一例について説明する。
 例えば、図22は、情報処理装置10が、所定の検出部による検出結果が「Vehicle」を示す場合に、他の検出部を起動することで他の状態を認識し、当該認識結果に応じて、最終的なユーザの状態を確定する場合の一例を示している。なお、図22において、横軸は時間tを示している。また、図22に示す例では、情報処理装置10は、所定の単位時間ごとに、所定の検出部の検出結果に基づくユーザの状態の認識や、他の検出部による検出結果に基づく他の状態の認識を行っている。より具体的な一例として、情報処理装置10は、所定の検出部として加速度センサを適用し、当該加速度センサの検出結果に基づきユーザの状態を認識してもよい。また、情報処理装置10は、当該他の検出部として角速度センサを適用し、上記加速度センサ及び当該角速度センサそれぞれの検出結果に基づき、手持ちの状態かを判別してもよい。例えば、図22において、「L」は手持ちの状態であることを意味している。
 具体的には、図22に示す例では、情報処理装置10が、参照符号t13で示されたタイミングにおいて、ユーザの状態が「Vehicle」を示す状態に遷移したことを認識しており、当該タイミングt13以降は、「Vehicle」を示す状態が継続している。この場合には、情報処理装置10は、タイミングt13において他の検出部を起動し、当該他の検出部に、他の状態を認識するための情報の取得を開始させている。より具体的には、図22に示す例では、情報処理装置10は、タイミングt13において角速度センサを起動し、上記加速度センサと起動した当該角速度センサとのそれぞれの検出結果に基づき、手持ちの状態か否かの判別を開始する。
 なお、タイミングt13において他の検出部が起動するため、当該他の検出部による検出結果に基づく他の状態の認識結果は、タイミングt13から少なくとも単位時間が経過した後のタイミングt15以降に取得可能となる。即ち、タイミングt13においては、情報処理装置10は、他の検出部による検出結果に基づく他の状態の認識結果に基づき、ユーザの状態を確定させることが困難である。そのため、図22に示す例では、情報処理装置10は、タイミングt13におけるユーザの状態として、当該タイミングt13よりも前のタイミングt11におけるユーザの状態の認識結果を引き継いでいる。即ち、図22に示す例では、情報処理装置10は、タイミングt13におけるユーザの状態を、タイミングt11において認識された「Walk」を示す状態として確定している。
 また、タイミングt15以降は、情報処理装置10は、他の検出部による検出結果に基づき他の状態を認識し、当該認識結果に基づき、最終的なユーザの状態を確定している。例えば、図22に示す例では、情報処理装置10は、他の検出部による検出結果に基づき他の状態の認識結果に応じて、最終的なユーザの状態を、所定の検出部による検出結果に基づき認識された「Vehicle」を示す状態として確定している。より具体的な一例として、情報処理装置10は、当該他の検出部として起動した角速度センサによる検出結果に基づき、手持ちの状態であると認識した場合に、最終的なユーザの状態を、加速度センサによる検出結果に基づき認識された「Vehicle」を示す状態として確定している。
 続いて、図23を参照して、情報処理装置10が、図22に示す例のように他の検出部を起動した後に、当該他の検出部を停止させる動作の一例について説明する。なお、図22に示す例と同様に、図23において、横軸は時間tを示している。また、図23に示す例では、情報処理装置10は、所定の単位時間ごとに、所定の検出部の検出結果に基づくユーザの状態の認識や、他の検出部による検出結果に基づく他の状態の認識を行っている。
 図23に示す例では、情報処理装置10は、参照符号t23で示されたタイミングにおいて、ユーザの状態が「Vehicle」を示す状態に遷移したことを認識している。即ち、情報処理装置10は、タイミングt23において他の検出部を起動し、当該他の検出部に、他の状態を認識するための情報の取得を開始させている。
 なお、図22に示す例と同様に、タイミングt23においては、情報処理装置10は、他の検出部による検出結果に基づく他の状態の認識結果に基づき、ユーザの状態を確定させることが困難である。そのため、情報処理装置10は、タイミングt23におけるユーザの状態として、当該タイミングt23よりも前のタイミングt12におけるユーザの状態の認識結果(即ち、「Walk」を示す状態)を引き継いでいる。
 一方で、図23に示す例では、情報処理装置10が、タイミングt23よりも後のタイミングt25において、ユーザの状態が「Run」を示す状態に遷移したことを認識し、当該タイミングt25以降は、「Run」を示す状態が継続している。この場合には、情報処理装置10は、所定の検出部による検出結果に基づくユーザの状態の認識結果が、「Vehicle」以外の他の状態に遷移したタイミングt25を基点として、当該タイミングt25よりも後のタイミングt27において、起動中の他の検出部(例えば、角速度センサ)を停止している。即ち、他の検出部が停止するタイミングt27以降については、情報処理装置10は、所定の検出部(例えば、加速度センサ)によるユーザの状態の認識結果を、最終的なユーザの状態の認識結果として確定している。
 以上説明したように、変形例2-3に係る情報処理装置10は、所定の検出部による検出結果に基づくユーザの状態の認識結果と、他の検出部による検出結果に基づく所定の状態や状況の認識結果と、を組み合わせることで、最終的なユーザの状態の認識結果を確定する。このような構成により、変形例2-3に係る情報処理装置10は、ユーザの状態の認識精度を向上させることが可能となる。
 また、変形例2-3に係る情報処理装置10は、所定の検出部の検出結果に基づくユーザの状態の認識結果が所定の候補を示す場合に、他の検出部を起動し、当該他の検出部の検出結果に基づき、最終的なユーザの状態の認識結果を確定してもよい。このような構成により、情報処理装置10は、所定の状態が検出された場合においてのみ、当該状態の認識精度を向上させるために他の検出部を起動させることが可能となる。そのため、変形例2-3に係る情報処理システムにおいては、一部の検出部を常時起動させておく必要がなくなるため、消費電力を低減することが可能となる。
 以上、変形例2-3として、図19~図23を参照して、複数種類の状態や状況の検出結果を利用することで、ユーザの状態の認識精度を向上させるための仕組みの一例について説明した。
  <3.6.評価>
 以上、説明したように、本実施形態に係る情報処理システムにおいて、情報処理装置10は、所定の条件に応じて行動シナリオを選択する。例えば、情報処理装置10は、各種状態や状況の検出結果やユーザの属性情報等のような行動シナリオの選択条件に関連する情報に応じて、その時々の状況により即した行動シナリオを選択する。また、他の一例として、情報処理装置10は、所定の入力部を介したユーザ入力に基づき行動シナリオを選択してもよい。また、情報処理装置10は、所定の状態または状況の検出結果に応じてユーザの状態を認識する。そして、情報処理装置10は、選択した行動シナリオに対応する機能マップと、ユーザの状態の認識結果と、に応じて、音響デバイス30の動作(特に、音響出力の制御に関する設定)を制御する。このような構成により、情報処理装置10は、ユーザの行動を想定した行動シナリオ(換言すると、ユースケース)に応じて機能マップを適宜切り替えることで、その時々の状況に応じたより好適な態様で、音響デバイス30の動作を制御することが可能となる。
 なお、第1の実施形態で説明した構成や制御の一例については、本実施形態に係る情報処理システムにおいても同様に適用することが可能である。具体的な一例として、第1の実施形態において変形例1-1~1-3として説明した構成や制御の一例は、本実施形態に係る情報処理システムに対しても同様に適用することが可能である。
 <<4.ハードウェア構成>>
 次に、図24を参照しながら、前述した情報処理装置10及び10aのように、本開示の各実施形態に係る情報処理システムを構成する情報処理装置900のハードウェア構成について、詳細に説明する。図24は、本開示の一実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一例を示す機能ブロック図である。
 本実施形態に係る情報処理システムを構成する情報処理装置900は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置900は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インタフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
 CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。なお、図5を参照して前述した認識処理部105及び出力制御部107や、図8を参照して前述したシナリオ選択部113は、例えば、CPU901により実現され得る。
 ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インタフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、図8を参照して前述した入力部115は、例えば、入力装置915により実現され得る。
 出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。なお、図5を参照して前述した出力部109は、例えば、出力装置917により実現され得る。
 ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ等を格納する。なお、図5を参照して前述した記憶部111は、例えば、RAM905及びストレージ装置919の少なくともいずれかにより実現され得る。
 ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア又はBlu-ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
 接続ポート923は、情報処理装置900に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
 通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インタフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。なお、図5を参照して前述した通信部101は、例えば、通信装置925により実現され得る。
 以上、本開示の実施形態に係る情報処理システムを構成する情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図24では図示しないが、本実施形態に係る情報処理システムを構成する情報処理装置900に対応する各種の構成を当然備える。
 なお、上述のような本実施形態に係る情報処理システムを構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。なお、単数のコンピュータ、または、複数のコンピュータが連携するものを、「コンピュータシステム」とも称する。
 <<5.むすび>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 所定の状態または状況の検出結果に応じて、ユーザの状態を認識する認識処理部と、
 所定の条件に応じて選択された、複数の前記ユーザの状態の候補それぞれに対して所定の出力部からの音響の出力の制御に関する設定が関連付けられた機能マップと、認識された前記ユーザの状態と、に基づき前記音響の出力を制御する出力制御部と、
 を備える、情報処理装置。
(2)
 前記機能マップは、複数の前記ユーザの状態の候補それぞれに対して、前記音響の出力の制御に関する設定として、複数種類の制御それぞれに関する設定の組み合わせが関連付けられている、前記(1)に記載の情報処理装置。
(3)
 前記複数種類の制御に関する設定のうち、少なくとも一部の設定は、前記音響の出力の制御に関連する機能の設定である、前記(2)に記載の情報処理装置。
(4)
 前記ユーザの状態は、ユーザの行動に関する状態である、前記(1)~(3)のいずれか一項に記載の情報処理装置。
(5)
 前記出力制御部は、前記ユーザの状態として所定の状態が認識された場合に、当該所定の状態への遷移前の他の状態における前記音響の出力の制御に関する設定のうち、少なくとも一部の設定を引き継ぐ、前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
 前記所定の状態は、ユーザが停止している状態である、前記(5)に記載の情報処理装置。
(7)
 前記所定の状態は、ユーザが自転車に乗っている状態である、前記(5)に記載の情報処理装置。
(8)
 前記出力制御部は、前記ユーザの状態が遷移した場合に、当該遷移前後の状態に応じて、前記音響の出力を制御する、前記(1)~(4)のいずれか一項に記載の情報処理装置。
(9)
 前記認識処理部は、前記検出結果に基づく1以上の前記ユーザの状態の候補それぞれの尤度に応じて、前記ユーザの状態を認識する、前記(1)~(8)のいずれか一項に記載の情報処理装置。
(10)
 前記認識処理部は、前記ユーザの状態を、過去に取得された前記検出結果と、当該検出結果に応じた前記ユーザの状態の認識結果と、を対応付けたサンプルに基づく機械学習の結果に応じて認識する、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
 所定の状態または状況の検出結果と、所定の対象の属性情報と、のうち少なくともいずれかを前記条件として、複数の前記機能マップから当該条件に応じた前記機能マップを選択する選択部を備える、前記(1)~(10)のいずれか一項に記載の情報処理装置。
(12)
 前記選択部は、前記機能マップを、過去に判定された前記条件と、当該条件に応じた前記機能マップの選択結果と、を対応付けたサンプルに基づく機械学習の結果に応じて選択する、前記(11)に記載の情報処理装置。
(13)
 前記出力制御部は、ユーザにより選択された前記機能マップに基づき、認識された前記ユーザの状態に応じて前記音響の出力を制御する、前記(1)~(10)のいずれか一項に記載の情報処理装置。
(14)
 複数の前記機能マップのうち少なくとも一部の前記機能マップは、ユーザ入力に基づき更新される、前記(1)~(13)のいずれか一項に記載の情報処理装置。
(15)
 前記認識処理部は、第1の検出部による所定の状態または状況の第1の検出結果に基づく前記ユーザの状態の認識結果を、前記第1の検出部とは異なる第2の検出部による所定の状態または状況の第2の検出結果に応じて補正する、前記(1)~(14)のいずれか一項に記載の情報処理装置。
(16)
 前記認識処理部は、前記第1の検出結果に基づく前記ユーザの状態の認識結果に応じて、前記第2の検出部を起動する、前記(15)に記載の情報処理装置。
(17)
 前記認識処理部は、
 前記第1の検出結果に基づく前記ユーザの状態の認識結果が所定の状態を示す場合に、前記第2の検出部を起動し、
 前記第2の検出部の起動後において、前記第1の検出結果に基づく前記ユーザの状態が前記所定の状態以外の他の状態を示す場合には、当該第2の検出部を停止する、
 前記(16)に記載の情報処理装置。
(18)
 前記認識処理部は、前記第2の検出部を起動したタイミングよりも後のタイミングにおける当該第2の検出部による前記第2の検出結果に応じて、前記第1の検出結果に基づく前記ユーザの状態の認識結果を補正する、前記(16)または(17)に記載の情報処理装置。
(19)
 コンピュータが、
 所定の状態または状況の検出結果に応じて、ユーザの状態を認識することと、
 所定の条件に応じて選択された、複数の前記ユーザの状態の候補それぞれに対して所定の出力部からの音響の出力の制御に関する設定が関連付けられた機能マップと、認識された前記ユーザの状態と、に基づき前記音響の出力を制御することと、
 を含む、情報処理方法。
(20)
 コンピュータに、
 所定の状態または状況の検出結果に応じて、ユーザの状態を認識することと、
 所定の条件に応じて選択された、複数の前記ユーザの状態の候補それぞれに対して所定の出力部からの音響の出力の制御に関する設定が関連付けられた機能マップと、認識された前記ユーザの状態と、に基づき前記音響の出力を制御することと、
 を実行させる、プログラム。
 1、1a 情報処理システム
 10、10a 情報処理装置
 101 通信部
 103 検出部
 105 認識処理部
 107 出力制御部
 109 出力部
 111 記憶部
 113 シナリオ選択部
 115 入力部
 30  音響デバイス
 301 通信部
 303 音響出力部
 305 制御部
 307 信号処理部
 311 筐体
 312 ヘッドバンド
 321 マイクロフォン
 322 マイクロフォン
 331 信号処理回路
 332 イコライザ
 333 加算器
 334 パワーアンプ
 341 発音体

Claims (20)

  1.  所定の状態または状況の検出結果に応じて、ユーザの状態を認識する認識処理部と、
     所定の条件に応じて選択された、複数の前記ユーザの状態の候補それぞれに対して所定の出力部からの音響の出力の制御に関する設定が関連付けられた機能マップと、認識された前記ユーザの状態と、に基づき前記音響の出力を制御する出力制御部と、
     を備える、情報処理装置。
  2.  前記機能マップは、複数の前記ユーザの状態の候補それぞれに対して、前記音響の出力の制御に関する設定として、複数種類の制御それぞれに関する設定の組み合わせが関連付けられている、請求項1に記載の情報処理装置。
  3.  前記複数種類の制御に関する設定のうち、少なくとも一部の設定は、前記音響の出力の制御に関連する機能の設定である、請求項2に記載の情報処理装置。
  4.  前記ユーザの状態は、ユーザの行動に関する状態である、請求項1に記載の情報処理装置。
  5.  前記出力制御部は、前記ユーザの状態として所定の状態が認識された場合に、当該所定の状態への遷移前の他の状態における前記音響の出力の制御に関する設定のうち、少なくとも一部の設定を引き継ぐ、請求項1に記載の情報処理装置。
  6.  前記所定の状態は、ユーザが停止している状態である、請求項5に記載の情報処理装置。
  7.  前記所定の状態は、ユーザが自転車に乗っている状態である、請求項5に記載の情報処理装置。
  8.  前記出力制御部は、前記ユーザの状態が遷移した場合に、当該遷移前後の状態に応じて、前記音響の出力を制御する、請求項1に記載の情報処理装置。
  9.  前記認識処理部は、前記検出結果に基づく1以上の前記ユーザの状態の候補それぞれの尤度に応じて、前記ユーザの状態を認識する、請求項1に記載の情報処理装置。
  10.  前記認識処理部は、前記ユーザの状態を、過去に取得された前記検出結果と、当該検出結果に応じた前記ユーザの状態の認識結果と、を対応付けたサンプルに基づく機械学習の結果に応じて認識する、請求項1に記載の情報処理装置。
  11.  所定の状態または状況の検出結果と、所定の対象の属性情報と、のうち少なくともいずれかを前記条件として、複数の前記機能マップから当該条件に応じた前記機能マップを選択する選択部を備える、請求項1に記載の情報処理装置。
  12.  前記選択部は、前記機能マップを、過去に判定された前記条件と、当該条件に応じた前記機能マップの選択結果と、を対応付けたサンプルに基づく機械学習の結果に応じて選択する、請求項11に記載の情報処理装置。
  13.  前記出力制御部は、ユーザにより選択された前記機能マップに基づき、認識された前記ユーザの状態に応じて前記音響の出力を制御する、請求項1に記載の情報処理装置。
  14.  複数の前記機能マップのうち少なくとも一部の前記機能マップは、ユーザ入力に基づき更新される、請求項1に記載の情報処理装置。
  15.  前記認識処理部は、第1の検出部による所定の状態または状況の第1の検出結果に基づく前記ユーザの状態の認識結果を、前記第1の検出部とは異なる第2の検出部による所定の状態または状況の第2の検出結果に応じて補正する、請求項1に記載の情報処理装置。
  16.  前記認識処理部は、前記第1の検出結果に基づく前記ユーザの状態の認識結果に応じて、前記第2の検出部を起動する、請求項15に記載の情報処理装置。
  17.  前記認識処理部は、
     前記第1の検出結果に基づく前記ユーザの状態の認識結果が所定の状態を示す場合に、前記第2の検出部を起動し、
     前記第2の検出部の起動後において、前記第1の検出結果に基づく前記ユーザの状態が前記所定の状態以外の他の状態を示す場合には、当該第2の検出部を停止する、
     請求項16に記載の情報処理装置。
  18.  前記認識処理部は、前記第2の検出部を起動したタイミングよりも後のタイミングにおける当該第2の検出部による前記第2の検出結果に応じて、前記第1の検出結果に基づく前記ユーザの状態の認識結果を補正する、請求項16に記載の情報処理装置。
  19.  コンピュータが、
     所定の状態または状況の検出結果に応じて、ユーザの状態を認識することと、
     所定の条件に応じて選択された、複数の前記ユーザの状態の候補それぞれに対して所定の出力部からの音響の出力の制御に関する設定が関連付けられた機能マップと、認識された前記ユーザの状態と、に基づき前記音響の出力を制御することと、
     を含む、情報処理方法。
  20.  コンピュータに、
     所定の状態または状況の検出結果に応じて、ユーザの状態を認識することと、
     所定の条件に応じて選択された、複数の前記ユーザの状態の候補それぞれに対して所定の出力部からの音響の出力の制御に関する設定が関連付けられた機能マップと、認識された前記ユーザの状態と、に基づき前記音響の出力を制御することと、
     を実行させる、プログラム。
PCT/JP2017/028896 2016-09-27 2017-08-09 情報処理装置、情報処理方法、及びプログラム WO2018061491A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201780057764.6A CN109792577B (zh) 2016-09-27 2017-08-09 信息处理设备、信息处理方法和计算机可读存储介质
US16/333,742 US10809972B2 (en) 2016-09-27 2017-08-09 Information processing device, information processing method, and program
JP2018541971A JP6973400B2 (ja) 2016-09-27 2017-08-09 情報処理装置、情報処理方法、及びプログラム
EP17855449.9A EP3522566B1 (en) 2016-09-27 2017-08-09 Information processing device and information processing method
US17/028,236 US11256473B2 (en) 2016-09-27 2020-09-22 Information processing device, information processing method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016187824 2016-09-27
JP2016-187824 2016-09-27
JP2016-238205 2016-12-08
JP2016238205 2016-12-08

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/333,742 A-371-Of-International US10809972B2 (en) 2016-09-27 2017-08-09 Information processing device, information processing method, and program
US17/028,236 Continuation US11256473B2 (en) 2016-09-27 2020-09-22 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2018061491A1 true WO2018061491A1 (ja) 2018-04-05

Family

ID=61763433

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/028896 WO2018061491A1 (ja) 2016-09-27 2017-08-09 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (2) US10809972B2 (ja)
EP (1) EP3522566B1 (ja)
JP (1) JP6973400B2 (ja)
CN (1) CN109792577B (ja)
WO (1) WO2018061491A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021052262A (ja) * 2019-09-24 2021-04-01 カシオ計算機株式会社 音出力制御装置、音量制御方法及びプログラム
WO2021157304A1 (ja) * 2020-02-05 2021-08-12 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JP2021157245A (ja) * 2020-03-25 2021-10-07 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
JP2021157246A (ja) * 2020-03-25 2021-10-07 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
WO2022249586A1 (ja) * 2021-05-26 2022-12-01 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび情報処理システム
JP7443877B2 (ja) 2020-03-25 2024-03-06 株式会社Jvcケンウッド 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10909847B1 (en) * 2018-09-19 2021-02-02 All Turtles Corporation Building urban area noise pollution maps and mitigating noise from emergency vehicles
US10983752B2 (en) * 2019-02-15 2021-04-20 Bose Corporation Methods and systems for generating customized audio experiences
US11172298B2 (en) 2019-07-08 2021-11-09 Apple Inc. Systems, methods, and user interfaces for headphone fit adjustment and audio output control
US11200876B2 (en) * 2020-05-14 2021-12-14 Bose Corporation Activity-based smart transparency
US11722178B2 (en) 2020-06-01 2023-08-08 Apple Inc. Systems, methods, and graphical user interfaces for automatic audio routing
CN113873379B (zh) * 2020-06-30 2023-05-02 华为技术有限公司 一种模式控制方法、装置及终端设备
US11941319B2 (en) * 2020-07-20 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices
US11375314B2 (en) 2020-07-20 2022-06-28 Apple Inc. Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices
US11523243B2 (en) 2020-09-25 2022-12-06 Apple Inc. Systems, methods, and graphical user interfaces for using spatialized audio during communication sessions
CN112383856A (zh) * 2020-11-06 2021-02-19 刘智矫 一种用于智能耳机的声场检测、音频过滤方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001559A1 (ja) * 2007-06-28 2008-12-31 Panasonic Corporation 環境適応型補聴器
US20090290718A1 (en) * 2008-05-21 2009-11-26 Philippe Kahn Method and Apparatus for Adjusting Audio for a User Environment
JP2014007671A (ja) * 2012-06-26 2014-01-16 Kyocera Corp 電子機器及び音出力方法
WO2015024584A1 (en) * 2013-08-20 2015-02-26 Widex A/S Hearing aid having a classifier
JP2015130659A (ja) * 2013-12-13 2015-07-16 ジーエヌ リザウンド エー/エスGn Resound A/S 学習型補聴器
WO2015186387A1 (ja) * 2014-06-03 2015-12-10 ソニー株式会社 情報処理装置、制御方法、およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6970547B2 (en) * 2003-05-12 2005-11-29 Onstate Communications Corporation Universal state-aware communications
JP2006251376A (ja) 2005-03-10 2006-09-21 Yamaha Corp 楽音制御装置
US20080153537A1 (en) * 2006-12-21 2008-06-26 Charbel Khawand Dynamically learning a user's response via user-preferred audio settings in response to different noise environments
KR20100099922A (ko) 2009-03-04 2010-09-15 삼성전자주식회사 휴대용 단말기의 음량 조절 장치 및 방법
WO2011083572A1 (ja) * 2010-01-07 2011-07-14 株式会社 東芝 移動状態推定装置、方法およびプログラム
CN101789998A (zh) * 2010-01-13 2010-07-28 北京百纳威尔科技有限公司 移动终端情景桌面的显示方法和移动终端
CN102523556B (zh) * 2011-12-15 2015-02-18 百度在线网络技术(北京)有限公司 移动终端的配对方法及系统、移动终端及服务器
US9082389B2 (en) * 2012-03-30 2015-07-14 Apple Inc. Pre-shaping series filter for active noise cancellation adaptive filter
WO2014153727A1 (en) * 2013-03-26 2014-10-02 Google Inc. Signal processing to extract a pedestrian's moving direction
US9648430B2 (en) 2013-12-13 2017-05-09 Gn Hearing A/S Learning hearing aid
US9576588B2 (en) * 2014-02-10 2017-02-21 Apple Inc. Close-talk detector for personal listening device with adaptive active noise control
US20160149547A1 (en) 2014-11-20 2016-05-26 Intel Corporation Automated audio adjustment
CN104822103B (zh) * 2015-03-26 2018-10-30 北京国承万通信息科技有限公司 耳机
CN105187603B (zh) * 2015-09-10 2019-04-26 联想(北京)有限公司 一种信息处理方法及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001559A1 (ja) * 2007-06-28 2008-12-31 Panasonic Corporation 環境適応型補聴器
US20090290718A1 (en) * 2008-05-21 2009-11-26 Philippe Kahn Method and Apparatus for Adjusting Audio for a User Environment
JP2014007671A (ja) * 2012-06-26 2014-01-16 Kyocera Corp 電子機器及び音出力方法
WO2015024584A1 (en) * 2013-08-20 2015-02-26 Widex A/S Hearing aid having a classifier
JP2015130659A (ja) * 2013-12-13 2015-07-16 ジーエヌ リザウンド エー/エスGn Resound A/S 学習型補聴器
WO2015186387A1 (ja) * 2014-06-03 2015-12-10 ソニー株式会社 情報処理装置、制御方法、およびプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021052262A (ja) * 2019-09-24 2021-04-01 カシオ計算機株式会社 音出力制御装置、音量制御方法及びプログラム
WO2021157304A1 (ja) * 2020-02-05 2021-08-12 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JP2021157245A (ja) * 2020-03-25 2021-10-07 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
JP2021157246A (ja) * 2020-03-25 2021-10-07 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
JP7424156B2 (ja) 2020-03-25 2024-01-30 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
JP7443877B2 (ja) 2020-03-25 2024-03-06 株式会社Jvcケンウッド 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
JP7447602B2 (ja) 2020-03-25 2024-03-12 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
WO2022249586A1 (ja) * 2021-05-26 2022-12-01 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび情報処理システム

Also Published As

Publication number Publication date
CN109792577A (zh) 2019-05-21
JP6973400B2 (ja) 2021-11-24
US11256473B2 (en) 2022-02-22
EP3522566A1 (en) 2019-08-07
US20190361666A1 (en) 2019-11-28
US20210004203A1 (en) 2021-01-07
CN109792577B (zh) 2021-11-09
EP3522566A4 (en) 2019-10-16
US10809972B2 (en) 2020-10-20
EP3522566B1 (en) 2023-09-27
JPWO2018061491A1 (ja) 2019-07-11

Similar Documents

Publication Publication Date Title
WO2018061491A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020029906A1 (zh) 一种多人语音的分离方法和装置
US20170003931A1 (en) Coordinated hand-off of audio data transmission
WO2016081304A1 (en) Automated audio adjustment
US20220303688A1 (en) Activity Detection On Devices With Multi-Modal Sensing
EP4004908B1 (en) Activating speech recognition
JP2023542968A (ja) 定位されたフィードバックによる聴力増強及びウェアラブルシステム
JPWO2018180024A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CA3065096A1 (en) Adaptation of the auditory output of an electronic digital assistant in accordance with an indication of the acoustic environment
JP6404709B2 (ja) 音出力装置および音出力装置における音の再生方法
US20210266655A1 (en) Headset configuration management
CN107852431B (zh) 信息处理设备、信息处理方法和程序
US11641551B2 (en) Bone conduction speaker and compound vibration device thereof
WO2019069529A1 (ja) 情報処理装置、情報処理方法、および、プログラム
JP6387287B2 (ja) 不明事項解消処理システム
WO2023226719A1 (zh) 一种识别终端状态的方法和装置
WO2020031795A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20200280814A1 (en) Augmented reality audio playback control
JP6884854B2 (ja) 音声提供装置、音声提供方法及びプログラム
US11997445B2 (en) Systems and methods for live conversation using hearing devices
WO2023010011A1 (en) Processing of audio signals from multiple microphones
JPWO2018163560A1 (ja) 情報処理装置、情報処理方法およびプログラム
US11114116B2 (en) Information processing apparatus and information processing method
US20230036986A1 (en) Processing of audio signals from multiple microphones
EP4378175A1 (en) Audio event data processing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17855449

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018541971

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017855449

Country of ref document: EP

Effective date: 20190429