Nothing Special   »   [go: up one dir, main page]

WO2007105436A1 - ウェアラブル端末 - Google Patents

ウェアラブル端末 Download PDF

Info

Publication number
WO2007105436A1
WO2007105436A1 PCT/JP2007/053187 JP2007053187W WO2007105436A1 WO 2007105436 A1 WO2007105436 A1 WO 2007105436A1 JP 2007053187 W JP2007053187 W JP 2007053187W WO 2007105436 A1 WO2007105436 A1 WO 2007105436A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
wearable
wearable terminal
terminals
communication
Prior art date
Application number
PCT/JP2007/053187
Other languages
English (en)
French (fr)
Inventor
Takashi Kawamura
Masayuki Misaki
Ryouichi Kawanishi
Masaki Yamauchi
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US12/279,011 priority Critical patent/US8581700B2/en
Priority to JP2008505022A priority patent/JP4669041B2/ja
Publication of WO2007105436A1 publication Critical patent/WO2007105436A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal

Definitions

  • the present invention relates to a wearable terminal.
  • a wearable terminal is a terminal worn like clothes, a bag, a pen, or a wristwatch. In recent years, the weight has been reduced, and a terminal equipped with a microphone and a camera is not uncommon.
  • a wearable device for example, a wearable camera can automatically shoot, and can use voice as a trigger to release a shutter or start movie recording (see Patent Document 1).
  • Patent Document 1 Japanese Patent Laid-Open No. 2004-356970
  • the profile creation function is a memoir of the event using data automatically collected by the wearable device as a component when the user wearing the wearable device participates in an event such as a party or group trip. This is a function that creates documents and materials as so-called “profiles” of events. Since the wearable terminal is equipped with a camera and a microphone, video data and audio data collected by the powerful wearable terminal can be used as data material for creating a profile file.
  • An object of the present invention is to provide a wearable terminal that can broaden the range of expression when creating a profile by using the appearance of the person participating in the event as data material. .
  • the present invention provides a wearable terminal worn by a person who participates in an event in which a plurality of people participate, and a plurality of wearable terminals existing within a predetermined range.
  • the request means for transmitting a request signal and receiving a response to the request signal one or more wearable terminals as communication partners are determined based on the received response, and data communication with the determined wearable terminal is performed.
  • the data is collected by a wearable terminal determined as a communication partner, and becomes a component of the profile when creating the profile of the event. It is a wearable terminal characterized.
  • the present invention When the present invention is equipped with the above-described configuration and wears a wearable terminal capable of transmitting a response as described above, it is worn by other participants. It is possible to determine what is a communication partner from the wearable terminals, and the data received by the communication partner can be used as a component of the profile. Therefore, even if it is data material that cannot be acquired from its own wearable terminal, if it is data material that can be acquired by the wearable terminal force worn by other participants of the event, the other participant will wear it. This data material can be acquired from a mobile terminal that can be used to create a profile, so the range of expressions in creating a profile can be expanded.
  • the event is a concept including a meeting, a lecture, a meal, a standing talk, a group trip, a party, and the like.
  • the communication means is a wearable terminal belonging to the same conversation group as the own terminal based on the received response for each of the plurality of wearable terminals.
  • the wearable terminal that has been determined to belong to the same conversation group may be determined as the communication partner.
  • the response includes voice information acquired by each wearable terminal that has received the request signal, and the communication means includes the utterance interval and the voice of the terminal itself in the received voice information of each wearable terminal.
  • a wearable terminal that includes a duplication rate calculating means for calculating a duplication rate with an utterance interval in information and is determined to belong to the same conversation group as the own terminal is the voice information of the own terminal among the plurality of wearable terminals. It may be a wearable terminal whose overlap rate with the utterance interval is within a predetermined threshold.
  • duplication rate calculation means in this claim corresponds to the same conversation group detection unit in the embodiment.
  • the utterance section in the voice information includes an affair in conversation, which is a portion where vowels continue for a predetermined period, and the duplication rate calculation means excludes the duplication rate except for the voicing interval. May be calculated.
  • the response includes position information of each wearable terminal that has received the request signal, and the communication means determines the wearable from the received position information of each wearable terminal and the position information of the terminal itself.
  • a wearable terminal that includes distance calculation means for calculating the distance between the terminal and the own terminal and that is determined to belong to the same conversation group as the own terminal has a predetermined distance from the own terminal among the plurality of wearable terminals. Even if it is a wearable terminal that falls within the threshold of.
  • the distance calculation means in this claim corresponds to the same conversation group detection unit in the embodiment.
  • the response includes direction information of each mobile terminal that has received the request signal, and the communication means calculates a change amount of direction information per predetermined time from the received direction information of each wearable terminal.
  • a wearable terminal that includes an azimuth change amount calculation means and is determined to belong to the same conversation group as the own terminal has a difference from the azimuth change amount of the terminal among the plurality of wearable terminals within a predetermined range. It may be a wearable terminal.
  • direction change amount calculation means in this claim corresponds to the same conversation group detection unit in the embodiment.
  • the event profile is created by the terminal itself, and the communication means transmits the created profile to the one or more wearable terminals.
  • the user related to the wearable terminal it is not necessary for the user related to the wearable terminal to perform editing work, for example, the user profile related to the wearable terminal or a profile file capturing only the speaker can be easily created.
  • the created profile can be shared with one or more wearable terminals that are communication partners.
  • the collected data is an image
  • the profile is a set of a wearable terminal associated with each speaker and a wearable terminal that captures an image of the speaker in the determined wearable terminal. It may be created based on.
  • the profile may be created using a voice collected by a wearable terminal associated with a speaker among the determined wearable terminals.
  • the wearable terminal may include recording means for recording data relating to the determined wearable terminal.
  • the server device includes clustering means for acquiring position information indicating positions of the plurality of wearable terminals, and clustering the plurality of wearable terminals into a plurality of clusters based on the acquired position information,
  • the communication means may determine one or more wearable terminals as communication partners for each cluster.
  • FIG. 1 is a diagram showing a state in which a user wears a wearable terminal.
  • FIG. 2 is a diagram showing a situation in which there are multiple users wearing wearable terminals in the vicinity.
  • FIG. 3 A diagram showing the mutual communication status when there are a plurality of mobile terminals.
  • FIG. 4 is a diagram showing the appearance of a wearable terminal.
  • FIG. 5 is a diagram showing a shooting direction of the wearable terminal.
  • FIG. 6 is a diagram showing a position detection system using an infrared wide-angle camera and an infrared tag.
  • FIG. 7 is a diagram showing a communication sequence.
  • FIG. 8 is a diagram showing data received for each wearable terminal power.
  • FIG. 9 is a diagram showing data received from Location Sano OO.
  • FIG. 10 is a diagram showing a hardware configuration of wearable terminal 100.
  • FIG. 11 shows functional blocks of wearable terminal 100.
  • FIG. 12 shows a terminal ID list.
  • FIG. 13 is a diagram showing a flow of identical conversation group detection processing.
  • FIG. 14 is a flowchart showing the same conversation group detection process.
  • FIG. 15 is a diagram showing a flow of creation processing.
  • FIG. 16 is a diagram showing a flow of creation processing.
  • FIG. 19 is a diagram schematically showing the created profile.
  • FIG. 20 is a diagram showing an internal configuration of profile information.
  • ⁇ 21 It is a diagram showing a server centralized management type communication situation.
  • FIG. 22 is a diagram showing functional blocks of the creation server 500.
  • ⁇ 23 It is a diagram showing the internal configuration of the same conversation group detection unit 520.
  • FIG. 24 shows functional blocks of wearable terminal 600.
  • FIG. 25 is a diagram showing a processing flow of the creation server.
  • FIG. 26 is a diagram showing a flow of clustering processing.
  • FIG. 27 is a diagram showing a flow of the same conversation group detection processing 2.
  • FIG. 28 (a) is a map obtained by bird's-eye view of the positions of 21 persons at a certain time.
  • (B) is a diagram illustrating a result after the clustering by the clustering unit 521 is performed.
  • C) is a diagram showing the aggressiveness and direction of each person's conversation.
  • D) shows the result after the conversation group has been detected.
  • E is a diagram showing the result of dividing all participants into one of the talk groups.
  • FIG. 29 is a diagram showing a flow of creation processing 2
  • FIG. 30 is a diagram showing a terminal ID list 2;
  • the wearable terminals 100, 100a, 100b, 100c, 100d, 100e, 100f, 100g, and lOOh shown in FIG. 2 are connected to each other by a communication network as shown in FIG.
  • the communication network is a wireless LAN.
  • Figure 3 is a diagram showing the state of communication between multiple wearable terminals.
  • the person wearing the wearable terminal 100 to 100h exists in the communication range, and is composed of the conversation group 1 composed of the wearable terminals 100 to 100e and the wearable terminals 100f and 100g.
  • the conversation group 2 is formed, and the person wearing the wearable terminal 100h is not included in these conversation groups, but illustrates the situation where the person is sharing the place.
  • each wearable terminal is configured to include a camera and a microphone, and records images and sounds acquired by them on a recording medium.
  • a dual-purpose terminal having this configuration, the sound of each wearer can be acquired well, but in general, the wearer himself cannot be photographed, as shown in Fig. 5.
  • the image information in the facing direction is acquired.
  • a feature of wearable terminal 100 is that wearable terminals (wearable terminals 100a to 100h) that can be worn by multiple people are worn by one or more wearable terminals (ie, wearable terminals 100a to 100h).
  • Determine wearable terminals wearable terminals 100a to 100e in the example of Fig. 3 related to users who belong to the same conversation group as the user, and register or authenticate them.
  • Data communication is performed with the wearable terminal determined to be none. Then, when creating a profile, the images and sounds taken by these wearable terminals become the components of the profile.
  • a position detection method using an infrared wide-angle camera and an infrared tag is used. Specifically, in this method, an infrared tag is attached to a user wearing a wearable terminal, an infrared tag in an image taken with an infrared wide-angle camera is acquired as a bright spot, and the acquired bright spot image is acquired. The coordinate transformation from the coordinates in the middle to the real space coordinates is used to determine the 3D position of the infrared tag. The determined three-dimensional position of the infrared tag is regarded as the position of the wearable terminal.
  • FIG. 6 shows a position detection system using an infrared wide-angle camera and an infrared tag.
  • This position detection system includes wearable terminals 100-100h worn by each user, infrared tags 200-200h attached to each user (not shown), six infrared wide-angle cameras 300a-300f, It is comprised including.
  • the infrared tag 200 to 200h is an infrared emission marker composed of an LED that emits infrared rays and a device that controls the blinking thereof.
  • a device that controls the blinking thereof For example, as shown in Fig. 1, it has a name tag shape and is worn on the chest of a user.
  • Infrared wide-angle cameras 300a to 300f are cameras each including a camera that acquires a moving image, a filter that blocks visible light and transmits light in the infrared region, and a wide-angle lens.
  • the location server 400 processes images obtained by the six infrared wide-angle cameras 300a to 300f, calculates the position of each infrared tag 200 to 200h (wearable terminal 100 to 100h), and manages the calculated position information. More specifically, the position of each bright spot on the infrared image is converted into real space coordinates based on the installation positions of the infrared wide-angle cameras 300a to 300f, and the coordinates of each converted bright spot, that is, the infrared tag 200-200h. The position of each wearable device Are stored in the storage device and managed.
  • Wearable terminal 100 has a wireless LAN communication function as described above, and can receive the position information of each wearable terminal 100 to 100h from location Sano OO. .
  • the location sano OO may send each position information to each wearable terminal 100-: LOOh, and the wearable terminal 100 may obtain the position information from each wearable terminal 100a-100h.
  • FIG. 8 shows the data received by each wearable terminal. As shown in FIG. 8, the received data consists of a wearable terminal ID, direction information, and voice information.
  • Figure 9 shows the data received from Location Sano 00. As shown in FIG. 9, the received data also includes the terminal ID and position information of each wearable terminal.
  • the wearable terminal 100 performs the above-described processing every predetermined time, detects a dynamically changing conversation group, and creates a profile using images and sounds acquired by the wearable terminals belonging to the detected conversation group. To do.
  • FIG. 10 is a diagram showing a hardware configuration of the mobile terminal 100.
  • Wearable terminal 100 is CP U101, ROM102, RAM103, microphone 104, camera 107, A, D variable ⁇ 105, 108, encoder 106, 109, electronic compass 110, memory card 111, and communication unit (wireless LAN interface) 112 Is done.
  • the CPU 101, ROM 102, and RAM 103 constitute a computer system, and a program stored in the ROM 102 is read into the CPU 101, and functions are achieved by cooperation between the program and hardware resources.
  • the electronic compass 110 determines the direction using the geomagnetism and detects the direction in which the terminal is facing.
  • the memory card 111 is a portable medium for recording profile information and the like.
  • the communication unit 112 sends a poll to each wearable terminal and location Sano 00, and responds to each wearable terminal (terminal ID, direction information, and voice information) and a response from the location Sano 00 (terminal ID, wearable terminal 100- 100h position information) is received.
  • P2P communication is performed with the wearable terminal belonging to the same conversation group in order to acquire images and sounds that are the components of the profile.
  • profile creation the created profile is sent to each wearable terminal belonging to the same conversation group, so P2P communication is performed with the wearable terminal belonging to the same conversation group.
  • FIG. 11 shows functional blocks of wearable terminal 100.
  • the wearable terminal 100 includes an imaging unit 121, a sound collection unit 122, a direction detection unit 125, an utterance timing extraction unit 126, a communication unit 127, an identical conversation group detection unit 128, a subject detection unit 129, an imaging condition determination unit 130, and a creation unit. 131 and a recording unit 132 are included.
  • the imaging unit 121 includes a CCD and a CMOS, and has a function of converting external light into an electrical signal and outputting the converted electrical signal to the creation unit 131.
  • the sound collection unit 122 is configured to include four microphones, AZD-converts the voice signals acquired by the respective microphone forces, and the converted signals are used as the speech timing extraction unit 126 and the same conversation group detection unit. It has a function to output to 128. More specifically, the sound collection unit 122 includes a wearer direction sound acquisition unit 123 and a non-wearer direction sound acquisition unit 124. The
  • the wearer direction voice acquisition unit 123 performs directivity control so that the wearer's voice coming from the wearer's mouth direction of the wearable terminal 100 can be collected at a high SZN ratio.
  • the directivity control can be realized by using the directivity control method of the subtractive array microphone that subtracts the sound signal of each microphone.
  • the non-wearer direction sound acquisition unit 124 performs directivity control so that various environmental sounds arriving from directions other than the wearer's mouth of the wearable terminal 100 can be collected at a high SZN ratio.
  • the directivity control can be realized by using the directivity control method of the addition type array microphone that adds the sound signals of the respective microphones.
  • the direction detection unit 125 includes an electronic compass 110 and the like, and has a function of detecting the direction of the wearable terminal 100 and outputting it to the same conversation group detection unit 128.
  • the utterance timing extraction unit 126 receives the audio signal from the wearer direction audio acquisition unit 123, detects the utterance from the received audio signal, and extracts the utterance timing of the detected utterance. Specifically, the start and end times of the voice section of the user wearing the wearable terminal 100 collected by the wearer direction voice acquisition unit 123 are obtained.
  • extraction methods for example, an extraction method using speech power, an extraction method using cepstrum, a speech segment extraction method using a statistical method, and the like can be considered. Either method may be adopted depending on the required extraction accuracy and cost.
  • the communication unit 127 includes an antenna, and receives data transmitted from the other wearable terminals 100a to 100h and the location server 400 via the antenna, and the profile created by the creation unit 131. It has a function to transmit to other mobile terminals 100a to 100h.
  • the received image is sent to the subject detection unit 129, and the received position information, azimuth information, and voice information are sent to the same conversation group detection unit 128.
  • IEEE802.llg wireless LAN is used as the wireless communication system. The strength of the radio wave in the wireless LAN can be set freely, so that the communication range can be determined
  • the same conversation group detection unit 128 transmits direction information and voice information to each terminal via the communication unit 127, and transmits position information of the wearable terminal 100 to 100h to the location Sano 00.
  • the communication unit 127 obtains the direction information and voice information of the wearable terminals 100a to 100h and the position information of the wearable terminal 100 to LOOh from the communication unit 127.
  • the direction information of the terminal is acquired from the direction detection unit 125, and the voice information collected by the terminal is acquired from the sound collection unit 122. Then, wearable terminals belonging to the same conversation group are detected using the position information, the direction information, and the voice information. A specific processing flow will be described later.
  • the subject detection unit 129 receives the images transmitted from the communication unit 127, detects each image force subject, and sends the detection result to the imaging condition determination unit 130.
  • the shooting condition determination unit 130 receives the detection result of the subject from the subject detection unit 129, and determines whether or not the shooting condition of the received subject is good. Specifically, based on the position information and direction information of the terminal related to the speaker and the position information and direction information of each other terminal !, an image that captures the speaker as a subject on other terminals And determine the image with the best shooting conditions.
  • the best shooting conditions are, for example, that the target speaker is larger and clearer, that the subject can be clearly grasped by direct light, and that the subject is accurately framed without being blocked by other objects. And so on. Specifically, the flow will be described later.
  • the creation unit 131 creates a profile relating to a user belonging to the same conversation group, using video and audio acquired by the detected wearable terminal belonging to the same conversation group. For example, from the images that also acquired the terminal power belonging to the same conversation group, select the image that captured the speaker in the same conversation group and that has the best shooting conditions as a result of the determination by the shooting condition determination unit 130 Then, by combining the selected image and the sound collected by the terminal 100 corresponding to the image, an image of the speaker is created.
  • the image is a photograph of a user related to the terminal 100, and the result of determination by the shooting condition determination unit 130 is that the shooting condition is the best. Select the image you want. Then, by combining the selected image and the sound collected by the own terminal 100 corresponding to the image, a user profile for the own terminal 100 is created.
  • the recording unit 132 also includes a memory card 111, a RAM 103, etc. Or the image and sound acquired by the terminal 100 are associated with the result of the same conversation group detection unit 128 and recorded in the RAM 103.
  • FIG. 12 shows the terminal ID list.
  • the terminal ID list is a list in which terminal IDs of terminals constituting the same conversation group as this terminal are associated with voice, image, and time.
  • the terminal IDaaa, bbb, cc c, ddd, and eee power-dong conversation group are formed.
  • Terminal IDs aaa, bbb, ccc, ddd, and eee are the terminal IDs of wearable terminals 100a, 100b, 100c, 100d, and lOOe, respectively.
  • FIGS. 13 and 14 are flowcharts showing the same conversation group detection process.
  • Wearable terminal 100 dynamically detects a wearable terminal belonging to the same conversation group by executing the processes shown in FIGS. 13 and 14 at regular intervals. Here, processing is performed every 3 minutes.
  • i is a variable that identifies one wearable terminal.
  • the same conversation group detection unit 128 requests each terminal to transmit azimuth information and voice information (step S101).
  • it requests the location sano 00 to transmit the location information of each terminal and its own terminal (step S102).
  • Responses are also sent to each terminal and location search input that received the request, and the communication unit 127 receives them.
  • the same conversation group detection unit 128 determines whether or not the communication unit 127 has received a response (direction information, voice information, and position information) (step S103). If it has been received (Yes in step S103), then it acquires the orientation information and audio information of its own terminal from the orientation detection unit 125 and the sound collection unit 122 (step S104). After obtaining the direction information and voice information of the terminal itself, i is initialized (step S105), and the following processing is performed for each terminal (steps S106 to 119).
  • the distance between the terminal and the terminal is calculated from the acquired position information (step S106). For example, if the terminal is a terminal 100a, the position information is pi (xl, yl, zl) and p2 (x2, y2, z2) from FIG. [Number 1]
  • rl 2 ⁇ (xl-x2) 2 ⁇ (yl-y2) 2
  • the values of zl and z2 are the same.
  • the predetermined range is 5 m, and it is determined whether or not the distance between the two points is within 5 m (step S107).
  • step S108 it is determined whether or not the voice of the terminal is mixed as the environmental sound of the terminal. Specifically, the voice acquired by the wearer direction voice acquisition unit of the terminal is compared with the voice acquired by the non-wearer direction voice acquisition unit 124 of the terminal, and the start and end of the voice match. It is determined whether or not. If they match, it is determined that the voice of the terminal is mixed. This is in consideration of the case where the user of the terminal uses a loudspeaker or the like. That is, even if the distance between two points is more than 5 m, the wearer of the terminal itself may be listening to the user's voice related to the terminal. Determine that there is a possibility of belonging to a group and proceed with the process.
  • Mobility information is calculated for each of the terminal and the terminal (step S109). Mobility information is calculated by the distance traveled and the amount of change in direction per given time (3 minutes here). After calculating the mobility information, it is determined whether or not the power is stopped at both terminals (step S110). This is because if both terminals are stopped, it is highly likely that they belong to the same conversation group. Specifically, it is determined whether the travel distance and the direction change amount are zero.
  • step S110 it is determined whether or not both terminals are moving in the same direction. This is because even if they are moving, they are likely to belong to the same conversation group if they are moving in the same direction. Specifically, position It is determined whether or not the information and the change amount of the direction information are the same in both terminals. If they are the same, it is determined that they are moving in the same direction.
  • both terminals are determined to be stationary (Yes in step S110), or if both terminals are determined to move in the same direction (Yes in step S111), both terminals It is determined whether or not there is a utterance section (step S112).
  • step S112 it is determined whether or not there is an utterance section in one terminal (step S114). If there is an utterance section in one terminal (Yes in step S114), it is determined whether or not the voice of the other terminal is mixed as the environmental sound of one terminal (step S115).
  • step S 116 it is determined whether or not the same third party's voice is mixed as an environmental sound in both terminals. Specifically, the voice acquired by the non-wearer direction voice acquisition unit 124 of the terminal is compared with the voice acquired by the non-wearer direction voice acquisition unit of the terminal. It is determined whether or not they match. This means that even if there is no voice section on both terminals, if the same third party voice is mixed in the terminal and the terminal, both will hear a certain speaker's voice! Because it is possible, it is recognized as the same conversation group.
  • step S113 If both terminals have utterance intervals (Yes in step S112), it is determined whether or not the overlapping rate of each utterance interval is within 5% (step S113). If determined to be within 5% (Yes in Step S113), the sound of the other terminal is mixed as the environmental sound of one terminal (Yes in Step S115), or both terminals are environmental sounds. If it is determined that voices of the same third party are mixed (Yes in step S116), it is determined that the terminal and the terminal belong to the same conversation group (step S117).
  • step S118 If negative determinations are made in steps S108, 111, 113, 115, and 116, respectively, it is determined that the terminal and the terminal are not in the same conversation group (step S118).
  • the terminal ID of the terminal and the determination result are stored in association with each other (step SI 19), it is determined whether i is the last (step S 120), and if it is not the last, i is counted (step S 121). Move to S 1 06. If i is the last, the same conversation group detection process is terminated.
  • FIGS 15 and 16 show the flow of the creation process.
  • i is a variable that identifies one wearable terminal in the same conversation group other than the terminal related to the speaker
  • j is a variable that identifies one utterance section.
  • step S206 It is determined whether or not the speaker terminal and the terminal are in the same direction. Specifically, it is determined by the direction information of both terminals. This is because, if both terminals are facing different directions, it is possible to obtain a good speaker image that is likely to be facing each other.
  • step S207 it is determined whether or not the distance between both terminals is 2 m or more. If the distance between the two terminals is less than 2m (No in step S207), it is highly possible that a good image can be acquired without any obstacles between them. Select as a candidate image (step S209). When the distance between both terminals is 2 m or more (Yes in step S207), it is determined whether or not there is an obstacle between both terminals (step S208). Specifically, the presence / absence of an obstacle is acquired by the terminal in addition to determining whether a third party terminal exists between the terminal and the speaker terminal in the same conversation group based on the location information.
  • the image to be analyzed is analyzed, and the determination is made based on whether or not the face image can be detected. If face detection is possible, determine that there are no obstacles. If it is determined that there is no obstacle (No in step S208), the image of the terminal is selected as a candidate image for profile creation (step S209).
  • step S210 When it is determined that the speaker terminal and the terminal are facing the same direction (step S206), or when an image of the terminal is selected as a candidate, whether or not i is the last is determined (step) S210). If it is not the last, i is counted by 1 (step S211), and the process proceeds to step S206. When i is the last, it determines which image is finally used from the selected candidates based on the evaluation function.
  • F f (d, r, snr) is used as the evaluation function. Where d Is the angle of the speaker's face, r is the distance between both terminals, and snr is the sharpness of the image.
  • d is calculated from the speaker terminal and the orientation information of the terminal, and the evaluation is higher as the distance from the front is closer.
  • r is calculated from the speaker terminal and the position information of the terminal, and the closer the evaluation, the higher the evaluation.
  • snr also calculates forces such as contrast and SZN ratio. The clearer the evaluation, the higher the evaluation.
  • step S213 it is determined whether or not j is the last (step S213). If it is not the last, j is counted by 1 (step S214), and the process proceeds to step S204. If j is the last, the sound corresponding to each image is acquired (step S215), and a video combining each image and sound is created (step S216). The created video is transmitted to each terminal belonging to the same conversation group (step S217). Each terminal receives the video and records the received video. This makes it possible to share videos created by the same conversation group.
  • FIG. 17 is a diagram schematically showing the utterance timing of each utterer and from which terminal the image of the utterer at the time of each utterance is acquired.
  • the utterance timing of the user related to terminal 100 is shown in the first level.
  • the second level shows the user's utterance timing for terminal 100a.
  • the third level shows the user's utterance timing related to terminal 100c.
  • the image acquisition terminal ID determined in the fourth row is shown.
  • the user associated with the terminal 100c speaks at times tl to t2 and t7 to t8, and the image of the user at that time uses an image acquired by the terminal having terminal ID 000 (wearable terminal 100). Is shown.
  • the user related to terminal 100 speaks, and the image indicates that the image acquired by the terminal with IDccc (wearable terminal 100c) is used.
  • the user related to the terminal 100a speaks, and the image shows that the image acquired by the terminal having IDeee (wearable terminal 100e) is used.
  • FIG. 18 is a diagram corresponding to FIG. 17, and shows the relationship between the utterance timing of each speaker, the terminal ID of the terminal that is the image acquisition target, and the acquired image. By recording the table shown in this figure, it is possible to determine from which terminal the video in a certain scene was obtained.
  • FIG. 19 is a diagram schematically showing the created profile.
  • Wearable terminal 100 By combining the sound acquired in step 1 and the image acquired by the image acquisition terminal determined at each utterance timing, a stream in which the speaker is always photographed can be created.
  • FIG. 20 shows the internal structure of profile information.
  • the profile information includes playlist information, audio files, and image files.
  • the playlist information defining the playlist includes audio file link information indicating an audio file, image file link information indicating a corresponding image file, a playback start time, and a playback end time. Thereby, it is possible to link audio information and a plurality of pieces of image information.
  • the audio file is a file that stores the audio information of the terminal itself.
  • An image file is a file that stores image information acquired from wearable terminals belonging to the same conversation group.
  • the mobile terminal 100 acquires the mobile terminal 100-: LOOh position information, direction information, and voice information, and wearables belonging to the same conversation group from the acquired information. Detect the terminal. In the example of Fig. 3, wearable terminals 100a to 100e (conversation group 1) are detected. Therefore, it is not necessary to register a wearable terminal for acquiring data in advance. In addition, it is possible to always create an image of a speaker by using images and sounds captured by wearable terminals belonging to the conversation group 1 without bothering the user.
  • the wearable terminal 100 detects a wearable terminal that provides an image necessary for a profile, acquires an image from the detected wearable terminal, and creates a profile using the acquired image.
  • P2P type ad-hoc mode P2P type ad-hoc mode
  • a creation server that manages and controls a plurality of wearable terminals efficiently manages a conversation group that shares images and sounds.
  • Conversation group l to k create a profile for each conversation group using images and sounds acquired by wearable terminals belonging to each conversation group, and create the profile A configuration for transmitting messages to wearable terminals belonging to each conversation group by communication will be described.
  • Server mode with centralized server management
  • a communication sequence in the server centralized management type will be described. This is basically the same communication sequence as described in Fig. 7.
  • the creation server 500 includes a communication unit 510, an identical conversation group detection unit 520, an utterance timing extraction unit 540, a subject detection unit 550, an imaging condition determination unit 560, a recording unit 570, and a creation unit 580.
  • Communication unit 510 receives direction information and voice information to which each wearable terminal power is also transmitted, and position information of each wearable terminal transmitted from location server 400.
  • the received azimuth information, voice information, and position information are sent to the same conversation group detection unit 520, and the voice information is sent to the utterance timing extraction unit 540 and the recording unit 570.
  • the detected wearable terminal image information belonging to the same conversation group is received and sent to the recording unit 570.
  • the created profile is sent to each wearable terminal.
  • the same conversation group detection unit 520 includes a clustering unit 521, an intra-cluster conversation group detection unit 522, an utterance information calculation unit 523, and a fitness level calculation unit 524.
  • the clustering unit 521 receives the position information of each wearable terminal from the communication unit 510, and clusters a plurality of wearable terminals into a predetermined number of clusters kO based on the received position information of each wearable terminal.
  • the clustering result is transmitted to the intra-cluster conversation group detection unit 522.
  • clustering is performed using k-means. A specific processing flow will be described later.
  • the intra-cluster conversation group detection unit 522 receives the clustering result from the clustering unit 521. Within each cluster, utterance overlap is calculated from the voice information of each terminal, and k identical conversation groups are detected according to the calculated overlap, position information, and direction information. The detection result is sent to the utterance information calculation unit 523.
  • the utterance information calculation unit 523 has a function of receiving the detection result of the same conversation group from the intra-cluster conversation group detection unit 522 and calculating the utterance information (speech time rate, speaker change frequency) of the speakers belonging to each conversation group. .
  • Speaking time rate refers to the proportion of the time that an individual speaks in the total conversation time.
  • the utterance time rate is calculated for each speaker.
  • the speaker change frequency refers to the number of speaker changes that occur within a conversation group per unit time.
  • the conversation activity level of the conversation group is calculated from the utterance information, and the calculated conversation activity level is sent to the fitness level calculation unit 524.
  • the conversation activity level is defined to take a larger value as the conversation is active as the utterance time rate of each speaker is equal, and as the speaker change frequency is higher.
  • the fitness level calculation unit 524 receives position information from the clustering unit 521 and conversation activity and direction information from the utterance information calculation unit 523, and calculates mobility information from the position information and direction information.
  • the conversation group suitability for each conversation group is calculated for those who do not belong to the conversation group.
  • the conversation group fitness is calculated from the position information, direction information, mobility, and conversation activity of the target conversation group. The closer the position to the conversation group is, the closer the conversation group is. It is defined to take a larger value as the fitness level is higher, the higher the conversation means, the higher the activity level of the conversation means. As a result, those who do not belong to the conversation group belong to the group with the highest degree of conversation group suitability.
  • the utterance timing extraction unit 540, the subject detection unit 550, the imaging condition determination unit 560, and the creation unit 580 are the same as the utterance timing extraction unit 126, subject detection unit 129, and imaging condition determination unit described in the first embodiment. 130 and the creation unit 131.
  • the recording unit 570 appropriately records the audio information and image information acquired by each terminal received by the communication unit 510. Also, the profile created by the creation unit 580 is recorded. ⁇ Configuration of wearable terminal>
  • FIG. 24 is a diagram showing functional blocks of wearable terminal 600.
  • the wearable terminal has an image pickup unit 601, a sound pickup unit 602, A position detection unit 603, a communication unit 604, and a recording unit 605 are included.
  • the imaging unit 601, the sound collection unit 602, and the direction detection unit 603 are the same as the imaging unit 121, the sound collection unit 122, and the direction detection unit 125 described in the first embodiment.
  • the communication unit 604 transmits azimuth information and audio information to the creation server 500, and receives a profile from the creation server.
  • the received profile is sent to the recording unit 605.
  • the recording unit 605 records the profile transmitted from the communication unit 604 on a recording medium.
  • the creation server 500 requests each wearable terminal to transmit direction information and audio information (step S301). Requests location Sano OO to transmit the location information of each wearable terminal (step S302).
  • clustering processing is performed (step S304), and each terminal is classified into a plurality of clusters.
  • the same conversation group detection process 2 is performed in each cluster (step S305), and the same conversation group is detected.
  • a creation process is performed (step S306), and a profile is created. Note that the creation process is the same as the creation process shown in FIGS. 15 and 16 described in the first embodiment.
  • Fig. 26 shows the flow of the clustering process.
  • i is a variable indicating one terminal
  • j is a variable indicating one cluster
  • n is the number of terminals
  • k is the number of clusters.
  • step S404 it is determined whether or not there is a cluster having a short distance from the randomly assigned cluster (step S407). If there is a cluster with a short distance, reassign terminal xi to the nearest central cluster (steps S408).
  • FIG. 27 is a diagram showing the same conversation group detection process 2.
  • j is a variable indicating one cluster.
  • the speech overlap is calculated from the voice information of each terminal in each cluster (step S501).
  • the same conversation group is detected based on the calculated utterance redundancy, position information, and direction information (step S502).
  • the processes of steps S106 to S117 in FIGS. 13 and 14 are performed for the combination of wearable terminals belonging to the cluster.
  • the wearable terminals determined to be the same conversation group are determined to be the same conversation group, the wearable terminals are the same conversation group.
  • conversation group 1 is synonymous with the fact that wearable terminal 600 and 600a, 600a and 600b, 600b and 600, and power are determined to be the same conversation group.
  • utterance information is calculated for each conversation group (step S503), and the conversation activity of each conversation group is calculated based on the calculated utterance information (step S504).
  • j is initialized (step S505), and it is determined whether there is a person who does not belong to the conversation group in the cluster and there are multiple conversation groups in the cluster (Ste S506). If the determination is affirmative, the conversation group fitness for each conversation group is calculated (step S507), and it is determined that it belongs to the conversation group with the highest conversation group fitness (step S507). Step S508). In the cluster, it is determined whether or not the other person does not belong to the conversation group (step S509).
  • step S507 If the person does not belong to the conversation group, the process proceeds to step S507. If there is no person who does not belong to the conversation group, or if the determination is negative in step S506, it is determined whether j is the last (step S510). If j is not the last, j Counts 1 (step S511), and proceeds to step S506. If j is last, the process ends.
  • Fig. 28 (a) is a map of bird's-eye view of 21 people at a certain time.
  • the location information of each terminal is acquired by the same system as in FIG.
  • FIG. 28 (b) shows the result after clustering by the clustering unit 521.
  • Figure 28 (c) shows each person's aggressiveness and direction.
  • FIG. 28 (d) shows the result after the conversation group is detected by the intra-cluster conversation group detection unit 522.
  • two conversation groups, conversation group 1-1 and conversation group 1-2 are detected in cluster 1
  • two conversation groups, conversation group 2 1, and conversation group 2-2 are detected in cluster 2. It is shown that one conversation group called conversation group 3 is detected in cluster 3.
  • Figure 28 (e) shows the result of finally dividing all conversational groups into conversation groups. From this figure, it can be seen that the conversation group 1 1 and the conversation group 1 2 have been expanded, respectively, and those who have a low conversation participation frequency or who do not participate in the conversation are included in each conversation group.
  • the creation server 500 classifies wearable terminals to be managed into clusters, determines conversation groups for each cluster, and is acquired by wearable terminals belonging to each conversation group.
  • a profile for each conversation group can be easily created using images and sounds.
  • the number of trials when searching for each conversation group can be reduced, and the amount of computation can be greatly reduced. Can do.
  • Embodiments 1 and 2 wearable terminals that belong to the same conversation group are detected for the overlap strength of the utterance section. It can also be used for the same conversation group detection process.
  • Aichichi is used for the same conversation group detection process.
  • the term “aizuchi” refers to those containing long vowels such as “ ⁇ ”, “how”, and “fun”. Aizuchi is often a long vowel like this, and itself is a single frame. Often laze.
  • vowel detection is performed using parameters that indicate numerical values characteristic of vowels, such as cepstrum and LPC coefficients, and the condition determination method has a duration of, for example, 200 [msec] or more and 2 [sec] or less. Detection can be performed easily. Of course, the detection method is not limited to the method described here.
  • AIZUCHI is often inserted redundantly in the other party's utterance section.
  • the pattern is that speaker A is speaking and the next speaker B listening to it speaks. From this, if the conversations of speakers A and B overlap, and the beginning of the utterance section of speaker B and the utterance of speaker B is unclear, the utterance is the overlapped section. By not considering it, it is possible to reduce the overlap time of utterance and improve the detection performance of the same conversation group.
  • the force S described based on the embodiment is not limited to the above embodiment.
  • the position may be detected using GPS, the position may be detected using an ultrasonic wave, the position may be detected using a wireless LAN, or an RF ID tag may be attached.
  • the position may be detected by using it, or the position may be detected by other methods.
  • each wearable terminal force obtains respective position information.
  • the wearable terminal is a camera type, but it may be a watch type, a pen type, a megane type, or the like.
  • the wearable terminal is attached as shown in FIG. 1.
  • the terminal is not limited to this, and the terminal can be pinned to the chest, worn in the shape of glasses, or worn like headphones. It may be shaped and worn.
  • the power Bluetooth using a wireless LAN may be used as the communication method, or another communication method may be used. Any form such as wireless communication, wired communication, or packet communication using an IP network may be used as long as it can transmit information such as images, sounds, positions, and directions.
  • the same conversation group is detected using the voice information, the position information, and the direction information.
  • the voice information may be used to detect the same conversation group.
  • the range in which the sound can be acquired is about several meters, and since it is not possible to pick up sound beyond that distance, it is possible to estimate a certain distance depending on whether or not the sound can be picked up. That is, when the voice cannot be collected, the wearable terminals related to the user who is emitting the voice are not regarded as the same conversation group.
  • the same conversation group may be detected from the voice information and the position information, or the same conversation group may be detected from the voice information and the direction information.
  • the present invention is not limited to a powerful conversation group in which wearable terminals belonging to the same conversation group are detected.
  • a wearable terminal sharing an object of interest may be detected, or a wearable terminal whose position is close may be simply detected.
  • the terminal that acquires the image of the speaker at the utterance timing of a certain speaker is one terminal determined by the evaluation function.
  • a plurality of terminals with high evaluation are determined, and A profile may be created by combining the acquired images. As a result, images with various angles can be obtained.
  • the creation unit 131 may always create a single stream in which only a specific person who has created a profile is created by stitching together video images of speakers.
  • the terminal 100 may combine an image obtained by photographing itself selected by the evaluation function without considering the utterance timing and the sound acquired by the terminal 100.
  • the flow is as follows.
  • FIG. 29 is a diagram showing a flow of creation processing 2.
  • i is a variable that identifies one wearable terminal.
  • each wearable terminal determined to belong to the same conversation group is requested to transmit image information (step S601).
  • image information is received from each wearable terminal (Yes in step S602), i is initialized (step S603). After i is initialized, it is determined whether or not the terminal and the terminal are in the same direction (step S604).
  • step S605 If both terminals are facing different directions (No in step S604), it is determined whether or not the distance between both terminals is 2 m or more (step S605). If the distance between both terminals is less than 2 m (No in step S605), the terminal image is selected as a candidate image for profile creation (step S607). If the distance between both terminals is 2 m or more (Yes in step S605), it is determined whether there is an obstacle between the terminals (step S606). If it is determined that there is no obstacle (No in step S606), the terminal image is selected as a candidate image for profile creation (step S607).
  • step S604 When it is determined that the terminal and the terminal are facing the same direction (Yes in step S604), when it is determined that there is an obstacle between both terminals (Yes in step S606), or After step S607, it is determined whether i is the last (step S608). If it is not the last, i is counted by 1 (step S609), and the process proceeds to step S604. When i is the last, it determines which image is finally used from the selected candidates based on the evaluation function. Then, the audio of the section corresponding to the image is acquired (step S611), and a video in which the image and the audio are combined is created (step S612).
  • the image used for the profile is selected based on the evaluation function.
  • the presence / absence of an obstacle is determined by the terminal in addition to determining whether or not a third party terminal exists between the terminal and the speaker terminal in the same conversation group. Analyzes the acquired image and determines that there is no obstacle if face image detection is possible! In this method, it is determined whether or not the detected face image and the direction vector formed by the terminal and the terminal can be matched, and if there is a match, it is determined that there is no obstacle. Also good.
  • the evaluation function is not limited to this. Redundancy by continuously selecting the same screen (continuous selection is performed) May be subject to evaluation. This redundancy is calculated from the time length.
  • step S111 in FIG. 13 it is determined in step S111 in FIG. 13 that the position and orientation change amount is the same, but it is determined that the mobile terminal is moving in the same direction. If the change amount of the position and orientation of the is within a predetermined range, it may be determined that they are moving in the same direction.
  • the wearable terminal force image information belonging to the same conversation group may be acquired, and the force voice information for which the profile is created may be acquired, or a log related to the conversation may be acquired.
  • the voice collected by the terminal may not contain much of the voice of a person who is in the same conversation group but at a slightly distant location.
  • clear voice can be recorded.
  • clear conversations can be recorded by using the conversation logs.
  • acquiring wearable terminal power data (image, sound, log, etc.) belonging to the same conversation group may not be in real time.
  • the conversation group detection process is performed at certain intervals, but may be performed each time a change occurs in the position information of each wearable terminal. If there is a change in location information, the video to be shared should be provided according to the conversation group to which the user associated with the wearable terminal belongs. For example, in Fig. 2, the wearable terminal 100b user acquires the conversation video up to the period when the user stayed in the conversation group 1, and the conversation video of the conversation group 2 that was added after that acquired the conversation video after that time. You can do it. Note that if you join a conversation on the way, you may often catch up with the conversation content of the conversation group up to that point. A short time It may be possible to provide a mechanism for reproducing.
  • Embodiment 1 described above voice, image, and time are recorded in association with the terminal IDs of the terminals that make up the same conversation group.
  • the positional information, the voice acquired by each terminal, etc. may be recorded together.
  • the azimuth and position of the captured image remains as a record.For example, it is possible to determine the presence or absence of backlight using the azimuth information, or to automatically record where the position information was recorded. I'll do it for you.
  • the wearable terminal 100 detects wearable terminals belonging to the same conversation group and creates a profile.
  • the wearable terminal 100 detects the wearable terminal and sets the profile.
  • a configuration that includes a separate server to create the server.
  • the wearable terminal 100 has the power to perform the same conversation group detection process and the profile file creation process.
  • the terminal worn by the person who spoke first is the same conversation group detection process or profile.
  • the creation process may be performed on behalf of the conversation member.
  • the same conversation group detection process is always performed at fixed intervals determined individually for each terminal, and the profile creation process is represented by the terminal worn by the person who spoke first. It is also possible that any one terminal in the conversation member performs the processing on behalf of the conversation member, or the terminal may perform the processing on behalf of the long utterance time. ,.
  • clustering is performed based on position information.
  • the center of gravity of the person is shifted in the direction in which the person is facing, or mobility information is provided. May be used to affect the position centroid of the entire group by shifting the centroid position of the person in the direction of the person.
  • the cluster number kO may be changed according to the detected number of participants. For example, the larger the number of participants, the larger the cluster number kO may be.
  • Embodiment 2 described above even for a person who does not speak, the power that is made to belong to any conversation group by obtaining the fitness is shown in FIG. As shown in Fig. 28 (d), there is no need to forcibly determine that it belongs to some conversation group. ) To stop the decision.
  • whether or not they are the same conversation group is not limited to the same conversation group detection process described in the first and second embodiments, but the lesser the utterance overlap, the closer the position, and the more facing each other. Any method may be used as long as it is determined that the conversation groups are the same.
  • the profile created by the creation server 500 is transmitted to the wearable terminal, and the wearable terminal that receives the transmitted profile stores the profile.
  • a playback unit may be provided, and the creation server may send the profile by streaming.
  • the wearable terminal does not serve as a viewer, it may be a simple sensor terminal.
  • the same conversation group is detected using the degree of overlap of voice.
  • voice recognition is performed using the voice information acquired by the sound collection unit, and the recognized character information and the communication unit are acquired.
  • the same conversation group may be detected from the character information that is the voice recognition result of the other terminal. For example, if the keyword information is included in each character information at a certain frequency or more, it may be assumed that they are the same conversation group.
  • terminal arrangement party type terminal arrangement
  • Terminal arrangement school type
  • a terminal when a large number of people talk to each other while watching Applicable to arrangement (viewing type).
  • the server device force S clustering processing is performed. Even in the case of the P2P type ad-hoc mode of the first embodiment, the wearable Terminal power S clustering processing may be performed.
  • the present invention is useful in a situation where a plurality of persons in the vicinity are each wearing a wearable terminal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephonic Communication Services (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 複数人が参加する行事において、当該行事に参加する人物が身に付けるウェアラブル端末であって、所定範囲内に存在する複数のウェアラブル端末に対して要求信号を送信して、要求信号に対するレスポンスを受信する要求部と、受信されたレスポンスに基づき、通信相手となる1以上のウェアラブル端末を決定して、決定したウェアラブル端末とのデータ通信を実行する通信部とを備え、前記データは、通信相手として決定されたウェアラブル端末により収集されたデータであり、前記行事のプロファイルを作成するにあたって、当該プロファイルの構成要素となる。

Description

明 細 書
ウェアラブル端末
技術分野
[0001] 本発明はウェアラブル端末に関する。
背景技術
[0002] ウェアラブル端末とは服やカバンやペン、腕時計のように身につけて利用される端 末であり、近年、軽量化が進んでおり、マイクやカメラを備えた端末も珍しくはない。ゥ エアラブル端末として、例えばウェアラブルカメラは自動撮影を行うことができ、音声を トリガーにしてシャッターを切ったり、動画撮影を開始したりすることができる(特許文 献 1参照)。
特許文献 1:特開 2004— 356970号公報
発明の開示
発明が解決しょうとする課題
[0003] ところで近年の製品開発の傾向として、ウェアラブル端末に、プロファイル作成機能 を追加することが検討されて 、る。
プロファイル作成機能とは、ウェアラブル端末を着用したユーザが、パーティや団体 旅行等といった行事に参加した際、ウェアラブル端末にて自動的に収集されたデー タを構成要素として用いて、その行事の回顧録や資料等を、いわゆる行事の"プロフ アイル"として作成する機能をいう。ウェアラブル端末には、カメラ、マイクが装備され ているので、力かるウェアラブル端末にて収集された映像データ、音声データを、プ 口ファイル作成にあたってのデータ素材として使用することができる。
[0004] ところが、力かるプロファイル作成機能においては、ユーザの周りにある光景を撮影 して、これをプロファイルの構成要素とすることができても、カゝかる行事に参カ卩してい る自分の姿を、プロファイルのデータ素材に加えることは困難である。なぜなら、一般 的に、ウェアラブル端末では対面する方向の画像情報が取得されることになる力もで ある。つまり、プロファイル作成にあたって使用できるデータ素材力 ウェアラブル端 末自身にて収集されたデータに限られ、またゥヱアラブル端末にて取得されるデータ には限界があるため、当該機能にて作成されるプロファイルの表現の幅が狭いという 問題がある。
[0005] 本発明の目的は、行事に参加している自分の姿等をデータ素材として使用すること で、プロファイルを作成するにあたっての表現の幅を広げることができるウェアラブル 端末を提供することである。
課題を解決するための手段
[0006] 上記課題を解決するために、本発明は複数人が参加する行事において、当該行事 に参加する人物が身に付けるウェアラブル端末であって、所定範囲内に存在する複 数のウェアラブル端末に対して要求信号を送信して、要求信号に対するレスポンスを 受信する要求手段と、受信されたレスポンスに基づき、通信相手となる 1以上のウェア ラブル端末を決定して、決定したウェアラブル端末とのデータ通信を実行する通信手 段とを備え、前記データは、通信相手として決定されたウェアラブル端末により収集さ れたデータであり、前記行事のプロファイルを作成するにあたって、当該プロファイル の構成要素となる、ことを特徴とするウェアラブル端末である。
発明の効果
[0007] 本発明は上記の構成を備えることにより、行事の他の参加者力 上述したようなレス ポンスを送信することができるウェアラブル端末を着用して ヽる場合、それら他の参加 者が着用しているウェアラブル端末の中から、通信相手となるものを定め、かかる通 信相手力も受信したデータをプロファイルの構成要素とすることができる。したがって 、 自身のウェアラブル端末からは取得不能なデータ素材であっても、行事の他の参 加者が着用しているウェアラブル端末力 取得可能なデータ素材であるなら、当該他 の参加者が着用しているゥヱアラブル端末から当該データ素材を取得し、プロフアイ ルの作成に役立てることができるので、プロファイルの作成にあたっての表現の幅を 広げることができる。
[0008] なお、前記行事とは、会議や講義、食事、立ち話、団体旅行、パーティ等を含む概 念である。
ここで、前記通信手段は前記複数のウェアラブル端末のそれぞれについて、受信さ れたレスポンスに基づき、自端末と同一の会話集団に属するウェアラブル端末である か否かを判定し、同一の会話集団に属すると判定したウェアラブル端末を通信相手 として決定するとしても良い。
[0009] ここで、前記レスポンスは、要求信号を受け取った各ウェアラブル端末で取得され た音声情報を含み、前記通信手段は、受信された各ウェアラブル端末の音声情報に おける発声区間と自端末の音声情報における発声区間との重複率を算出する重複 率算出手段を含み、自端末と同一の会話集団に属すると判定されるゥヱアラブル端 末は、前記複数のウェアラブル端末のうち、自端末の音声情報における発声区間と の重複率が所定の閾値以内となるウェアラブル端末であるとしても良 、。
[0010] これにより、当該ウェアラブル端末に係るユーザと会話をしているユーザに係るゥェ アラブル端末を特定することができるので、プロファイルの構成要素としてより効果的 なデータを取得することができる。
なお、本クレームにおける重複率算出手段は、実施の形態における同一会話集団 検出部に対応する。
[0011] ここで、前記音声情報における発声区間は、所定期間母音が «続している部分で ある、会話におけるあいづちを含み、前記重複率算出手段は、前記あいづちの区間 を除いて重複率を算出するとしても良い。
これにより、あいづちを打つことにより発声区間が重複した区間については重複率 から除かれるので、前記会話をして!/ヽるユーザに係るウェアラブル端末を決定する精 度を高めることができる。
[0012] ここで、前記レスポンスは、要求信号を受け取った各ウェアラブル端末の位置情報 を含み、前記通信手段は、受信された各ウェアラブル端末の位置情報と自端末の位 置情報とから、該ウェアラブル端末と自端末との距離をそれぞれ算出する距離算出 手段を含み、自端末と同一の会話集団に属すると判定されるウェアラブル端末は、前 記複数のウェアラブル端末のうち、自端末との距離が所定の閾値以内となるウェアラ ブル端末であるとしても良 、。
[0013] これにより、プロファイルの構成要素として効果的なデータを取得することができる。
なお、本クレームにおける距離算出手段は、実施の形態における同一会話集団検 出部に対応する。 ここで、前記レスポンスは、要求信号を受け取った各ゥヱアラブル端末の方位情報 を含み、前記通信手段は、受信された各ウェアラブル端末の方位情報から、所定時 間当たりの方位情報の変化量を算出する方位変更量算出手段を含み、自端末と同 一の会話集団に属すると判定されるウェアラブル端末は、前記複数のウェアラブル端 末のうち、自端末の方位変更量との差が所定の範囲内となるウェアラブル端末である としても良い。
[0014] これにより、プロファイルの構成要素として効果的なデータを取得することができる。
なお、本クレームにおける方位変更量算出手段は、実施の形態における同一会話 集団検出部に対応する。
また、決定したウェアラブル端末とのデータ通信によりデータを取得できたとしても、 プロファイルを作成するにあたって、利用者自らが編集作業を行うというのは非常に 煩雑であり、多大な労力を払うことが多い。
[0015] ここで、前記行事のプロファイルの作成は、自端末により行われ、前記通信手段は 、作成されたプロファイルを前記 1以上のウェアラブル端末に送信するとするのが望ま しい。
これにより、ウェアラブル端末に係る利用者自らが編集作業を行う必要はなぐ例え ば、当該ウェアラブル端末に係るユーザのプロファイルや、発話者のみを撮影したプ 口ファイル等を容易に作成することができる。また、作成したプロファイルを前記通信 相手となる 1以上のウェアラブル端末と共有することができる。
[0016] ここで、前記収集されたデータは画像であり、前記プロファイルは、前記決定された ウェアラブル端末において、各発話者に係るウェアラブル端末と、当該発話者の画像 を撮影したウェアラブル端末との組に基づき作成されるとしても良い。
これにより、常に発話者が映し出されたプロファイルを作成することができる。
ここで、前記プロファイルは、前記決定されたウェアラブル端末のうち、発話者に係 るウェアラブル端末により収音された音声を用いて作成されるとしても良い。
[0017] これにより、 自端末において、発話者に係るウェアラブル端末との位置関係等の影 響により、クリアな音声が収音できな力つた場合であっても、発話者に係るウェアラブ ル端末により収音された音声を用いることにより、クリアな音声のプロファイルを作成 することができる。
ここで、前記ウェアラブル端末は、前記決定したウェアラブル端末に関するデータを 記録する記録手段を備えるとしても良い。
[0018] これにより、記録しておいたデータに基づき、必要なときにプロファイルを作成する ことができる。
ここで、前記サーバ装置は、前記複数のウェアラブル端末の位置を示す位置情報 を取得し、取得した位置情報に基づ 、て前記複数のウェアラブル端末を複数のクラ スタにクラスタリングするクラスタリング手段を含み、前記通信手段による前記通信相 手となる 1以上のウェアラブル端末の決定は、各クラスタごとに行われるとしても良い。
[0019] これにより、前記形成手段による集団の形成が行われる前に、位置情報に基づい て、大まかにクラスタリングするので、多数のウェアラブル端末について処理を行う場 合、各会話集団を形成する際の演算量を大きく削減することができる。
図面の簡単な説明
[0020] [図 1]ユーザがウェアラブル端末を装着している状態を示した図である。
[図 2]ウェアラブル端末を装着したユーザが近傍に複数人存在する状況を示した図で ある。
[図 3]ゥヱアラブル端末が複数存在するときの相互の通信状況を示した図である。
[図 4]ウェアラブル端末の外観を示す図である。
[図 5]ウェアラブル端末の撮影方向を示す図である。
[図 6]赤外広角カメラと赤外線タグとを用いた位置検出システムを示す図である。
[図 7]通信シーケンスを示す図である。
[図 8]各ウェアラブル端末力も受信したデータを示す図である。
[図 9]ロケーションサーノ OOから受信するデータを示す図である。
[図 10]ウェアラブル端末 100のハードウェア構成を示す図である。
[図 11]ウェアラブル端末 100の機能ブロックを示す図である。
[図 12]端末 IDリストを示す図である。
[図 13]同一会話集団検出処理のフローを示す図である。
[図 14]同一会話集団検出処理のフローを示す図である。 [図 15]作成処理のフローを示す図である。
[図 16]作成処理のフローを示す図である。
圆 17]各発話者の発話のタイミングと、各発話時における発話者の画像をどの端末よ り取得するかを模式的に示した図である。
圆 18]各発話者の発話のタイミングと、画像取得対象となる端末の端末 IDと、取得画 像との関係を示した図である。
[図 19]作成されたプロファイルを模式的に表した図である。
[図 20]プロファイル情報の内部構成を示す図である。
圆 21]サーバ集中管理型の通信状況を示した図である。
[図 22]作成サーバ 500の機能ブロックを示す図である。
圆 23]同一会話集団検出部 520の内部構成を示す図である。
[図 24]ウェアラブル端末 600の機能ブロックを示す図である。
[図 25]作成サーバの処理フローを示す図である。
[図 26]クラスタリング処理のフローを示す図である。
[図 27]同一会話集団検出処理 2のフローを示す図である。
[図 28] (a)は、ある時間における 21人の位置を俯瞰したときのマップである。(b)は、 クラスタリング部 521によるクラスタリングが行われた後の結果を示す図である。(c)は 、各人の会話に対する積極性と、向きとを表している図である。(d)は、会話集団が検 出されたあとの結果を示している図である。(e)は、すべての参加者がいずれかの会 話集団に分けられた結果を示している図である。
[図 29]作成処理 2のフローを示す図である。
[図 30]端末 IDリスト 2を示す図である。
符号の説明
100〜100h、 600〜600f ウェアラブル端末
101 CPU
102 ROM
103 RAM
104 マイクロホン 105、 108 AZD変^^
106、 109 エンコーダ
107 カメラ
110 電子コンパス
111 メモリカード
112 通信部
121、 601 撮像部
122、 602 収音部
123 装着者方向音声取得部
124 非装着者方向音声取得部
125、 603 方位検出部
126、 540 発話タイミング抽出部
127、 510, 604 通信部
128、 520 同一会話集団検出部
129、 550 被写体検出部
130、 560 撮影条件判定部
131、 580 作成部
132、 570、 605 記録部
200 赤外線タグ
300 赤外広角カメラ
400 ロケーションサーノ
500 作成サーバ
521 クラスタリング部
522 クラスタ内会 ΐ舌集団検出部
523 発話情報算出部
524 適合度算出部
発明を実施するための最良の形態
(実施の形態 1) <概要 >
先ず始めに、本発明に係るウェアラブル端末の概要について説明する。 本発明では、ユーザは図 1に示すようにウェアラブル端末 100を装着しており、図 2 に示すように、ウェアラブル端末を装着したユーザが近傍に複数人存在する状況を 想定している。前記ユーザが複数人存在する状況としては、例えば、会議や講義、 食事、立ち話、団体旅行、パーティなどの様々な状況が考えられる。ここでは、近傍 に存在する複数人のユーザの中に、会話して!/、る集団 (会話集団)が存在する場合 を考える。もちろんそのような会話集団が複数存在してもよいし、会話に参加していな い人物も存在してもよい。またここでいう会話とは、長時間(例えば 1分以上) 1人の人 物が発話しつづけるような状況ではなぐ適度に発話者が入れ替わる状況を示すこと とする。
[0023] 図 2に示されるウェアラブル端末 100、 100a, 100b, 100c, 100d、 100e、 100f、 100g、 lOOhは図 3に示すように、相互に通信ネットワークにより接続されている。ここ では、通信ネットワークは無線 LANとする。図 3はウェアラブル端末が複数存在する ときの相互の通信状況を示す図である。図 3では、ウェアラブル端末 100〜100hを 装着している人物がそれぞれ通信範囲内に存在しており、ウェアラブル端末 100〜1 00eから構成される会話集団 1と、ウェアラブル端末 100f、 100gから構成される会話 集団 2とが形成されており、ウェアラブル端末 100hを装着している人物は、これらの 会話集団に含まれていないが、場を共有している、という状況を例示している。
[0024] 各ウェアラブル端末は図 4に示すように、カメラとマイクロホンとを含んで構成され、 それらによって取得された画像及び音声を記録媒体に記録する。この構成を有する ゥ アラブル端末を装着することにより、各装着者の音声は良好に取得することがで きるが、一般的には装着者自らを撮影することはできず、図 5に示すように、対面する 方向の画像情報が取得されることになる。
[0025] 本発明に係るウェアラブル端末 100の特徴は、複数人が装着して!/ヽるウェアラブル 端末 (ウェアラブル端末 100a〜100h)力も通信相手となる 1以上のウェアラブル端末 、すなわち、自端末に係るユーザと同一の会話集団に属するユーザに係るウェアラ ブル端末(図 3の例でいうと、ウェアラブル端末 100a〜100e)を決定し、登録や認証 なしに決定したウェアラブル端末とデータ通信を行う。そして、プロファイルの作成す るにあたって、それらのウェアラブル端末により撮影された画像や音声が当該プロフ アイルの構成要素となる。
[0026] これにより、装着者自らを撮影することができずとも、当該端末 100を装着している ユーザの映像や、会話集団における発話者を撮影した映像などを取得できる。 以上が、ウェアラブル端末 100の概要である。
続、て、各ウェアラブル端末の位置を検出する方法にっ 、て説明する。 <位置検出方法 >
各ウェアラブル端末の位置を検出する方法として種々の方法が提案されている力 ここでは赤外広角カメラと赤外線タグとを用 、た位置検出方法を用 、る。具体的には 、この方法では、ウェアラブル端末を装着しているユーザに赤外線タグを装着し、赤 外広角カメラで撮影された画像中の赤外線タグを輝点として取得し、取得した輝点の 画像中の座標から実空間座標への座標変換を用 、て赤外線タグの三次元位置を決 定する。決定された赤外線タグの三次元位置をウェアラブル端末の位置とみなす。
[0027] 図 6は赤外広角カメラと赤外線タグとを用いた位置検出システムである。この位置検 出システムは各ユーザが装着するウェアラブル端末 100〜100hと、図示しない各ュ 一ザに装着される赤外線タグ 200〜200hと、 6台の赤外広角カメラ 300a〜300fと、 ロケーションサーノ OOとを含んで構成される。
赤外線タグ 200〜200hは、赤外線を発行する LEDとその明滅を制御する装置で 構成される赤外発行マーカである。例えば、図 1に示すように、名札形状を有し、ュ 一ザの胸に装着される。
[0028] 赤外広角カメラ 300a〜300fは動画像を取得するカメラと、可視光を遮断し赤外領 域の光を透過するフィルタと、広角レンズとから構成されるカメラである。
ロケーションサーバ 400は 6台の赤外広角カメラ 300a〜300fにより得られた画像を 処理し、各赤外線タグ 200〜200h (ウェアラブル端末 100〜100h)の位置を算出し 、算出した位置情報を管理する。より詳細には、赤外広角カメラ 300a〜300fの設置 位置に基づいて赤外線画像上の各輝点の位置を実空間座標に変換し、変換した各 輝点の座標、すなわち赤外線タグ 200〜200hの位置を各ウェアラブル端末の位置 とみなして記憶装置に記憶し、管理する。
[0029] ウェアラブル端末 100は上述したように無線 LAN通信機能を有しており、ロケーシ ヨンサーノ OOから各ウェアラブル端末 100〜100hの位置情報を受信することにより 、それらの位置情報を取得することができる。なお、ロケーションサーノ OOは各ゥェ アラブル端末 100〜: LOOhにそれぞれの位置情報を送信し、ウェアラブル端末 100 は各ゥヱアラブル端末 100a〜100hから位置情報を取得するとしてもよい。
[0030] 続いて、本発明に係るウェアラブル端末 100について図面を参照しながらさらに詳 細に説明する。
<通信シーケンス >
ウェアラブル端末 100が同一会話集団検出処理、及びプロファイル作成処理を行う 際の通信シーケンスについて説明する。ウェアラブル端末 100はまず、同一会話集 団に属するウェアラブル端末を検出する際において、通信範囲内にあるウェアラブル 端末 100a〜100h、及びロケーションサーバ 400にポーリングを送信し、それぞれか らの応答を受信する。図 8に各ウェアラブル端末力 受信したデータを示す。図 8に 示すように受信データは、ウェアラブル端末の端末 ID,方位情報、及び音声情報か らなる。図 9にロケーションサーノ 00から受信するデータを示す。図 9に示すように 受信データは、各ウエアラブル端末の端末 ID及び位置情報力もなる。応答を受信す ると、同一会話集団検出処理を行い、同一会話集団に属するウェアラブル端末を検 出する。続いて、同一会話集団に属する各ウェアラブル端末との間で順にコネクショ ンを確立し、各ウェアラブル端末により取得された画像や音声等を取得する。そして、 取得した画像や音声等を用いて、プロファイル作成処理を行い、プロファイルを作成 し、作成したプロファイルを同一会話集団に属する各ウェアラブル端末に送信する。 ウェアラブル端末 100は所定時間経過ごとに上述した処理を行い、動的に変化する 会話集団の検出を行い、検出した会話集団に属するウエアラブル端末により取得さ れた画像や音声を用いて、プロファイルを作成する。
<構成>
続いて、ウェアラブル端末 100のハードウェア構成に付いて説明する。図 10はゥヱ アラブル端末 100のハードウェア構成を示す図である。ウェアラブル端末 100は CP U101、 ROM102、 RAM103、マイクロホン 104、カメラ 107、 A,D変^^ 105、 1 08、エンコーダ 106、 109、電子コンパス 110、メモリカード 111、及び通信部(無線 L ANインタフェース) 112を含んで構成される。
[0031] CPU101、 ROM102、 RAM103はコンピュータシステムを構成しており、 ROM1 02に格納されたプログラムが CPU101に読み込まれプログラムとハードウェア資源と が協働することにより機能を達成する。
電子コンパス 110は地磁気を利用して方位を判断し、端末の向いている方向を検 知する。
[0032] メモリカード 111はプロファイル情報等を記録するための可搬媒体である。
通信部 112は各ウェアラブル端末及びロケーションサーノ 00にポーリングを送信 し、各ウェアラブル端末力もの応答 (端末 ID、方位情報、及び音声情報)及びロケ一 シヨンサーノ 00からの応答(端末 ID、ウェアラブル端末 100〜100hの位置情報) を受信する。同一会話集団に属するウェアラブル端末が検出された後には、プロファ ィルの構成要素となる画像や音声を取得するため、同一会話集団に属するウエアラ ブル端末と P2P通信を行う。さらに、プロファイル作成後には、作成されたプロフアイ ルを同一会話集団に属する各ウェアラブル端末に送信するため、同一会話集団に 属するウェアラブル端末と P2P通信を行う。
[0033] 続いてウェアラブル端末 100の内部構成について説明する。図 11は、ウェアラブル 端末 100の機能ブロックを示す図である。ウェアラブル端末 100は、撮像部 121、収 音部 122、方位検出部 125、発話タイミング抽出部 126、通信部 127、同一会話集 団検出部 128、被写体検出部 129、撮影条件判定部 130、作成部 131、及び記録 部 132を含んで構成される。
[0034] 撮像部 121は CCDや CMOSから構成され、外部の光を電気信号に変換して、変 換した電気信号を作成部 131に出力する機能を有する。
収音部 122は図 4に示すように、 4つのマイクロホンを含んで構成され、各マイクロホ ン力 取得した音声信号を AZD変換し、変換した信号を発話タイミング抽出部 126 、及び同一会話集団検出部 128に出力する機能を有する。より詳細には、収音部 12 2は装着者方向音声取得部 123、及び非装着者方向音声取得部 124から構成され る。
[0035] 装着者方向音声取得部 123は、ウェアラブル端末 100の装着者の口元方向から到 来する装着者の音声を高 SZN比で収音できるよう、指向性制御する。図 4のマイクロ ホンの配置例で 、うと、各マイクロホンの音声信号を減算する減算型アレイマイクの 指向性制御法を用いることで、前記指向性制御を実現できる。
非装着者方向音声取得部 124は、ウェアラブル端末 100の装着者の口元以外の 方向から到来する様々な環境音を高 SZN比で収音できるよう、指向性制御する。図 4のマイクロホン配置の例で 、うと、各マイクロホンの音声信号を加算する加算型ァレ イマイクの指向性制御法を用いることで、前記指向性制御を実現できる。
[0036] 方位検出部 125は電子コンパス 110等を含んで構成され、ウェアラブル端末 100の 方位を検出し、同一会話集団検出部 128に出力する機能を有する。
発話タイミング抽出部 126は装着者方向音声取得部 123から音声信号を受信し、 受信した音声信号から発話を検出し、検出した発話の発話タイミングを抽出する。具 体的には、装着者方向音声取得部 123で収音されたウェアラブル端末 100を装着し ているユーザの音声区間の始端及び終端時刻を求める。抽出方法としては、例えば 音声パワーを用いた抽出方法ゃケプストラムを用いた抽出方法、統計的手法を用い た音声区間抽出法などが考えられる。要求される抽出精度やコストに応じて、いずれ の方式を採用してもよい。
[0037] 通信部 127はアンテナを含み、他のウェアラブル端末 100a〜100hやロケーション サーバ 400から送信されてきたデータを、当該アンテナを介して受信したり、作成部 1 31により作成されたプロファイルなどを他のゥヱアラブル端末 100a〜100hに送信し たりする機能を有する。また、受信した画像を被写体検出部 129に送出し、受信した 位置情報、方位情報、及び音声情報を同一会話集団検出部 128に送出する。無線 通信の方式として、ここでは IEEE802. llgの無線 LANを用いる。無線 LANにおけ る電波の強度は自由に設定可能であり、これにより通信範囲を決定することができる
[0038] 同一会話集団検出部 128は通信部 127を介して各端末に方位情報、音声情報の 送信を、ロケーションサーノ 00にウェアラブル端末 100〜100hの位置情報の送信 を要求し、通信部 127からウェアラブル端末 100a〜100hの方位情報及び音声情報 と、ウェアラブル端末 100〜: LOOhの位置情報を取得する。また、方位検出部 125か ら自端末の方位情報を取得し、収音部 122から自端末で収音された音声情報を取 得する。そして位置情報、方位情報、及び音声情報を用いて、同一会話集団に属す るウェアラブル端末を検出する。具体的な処理のフローについては後述する。
[0039] 被写体検出部 129は通信部 127から送信された画像を受け取り、それぞれの画像 力 被写体を検出し、検出結果を撮影条件判定部 130に送出する。
撮影条件判定部 130は被写体検出部 129から被写体の検出結果を受け取り、受 け取った被写体の撮影条件の良否を判定する。具体的には、発話者に係る端末の 位置情報や方位情報等と、その他の各端末の位置情報や方位情報等に基づ!、て、 他の端末で前記発話者を被写体として捉えた画像を求めて、その中で最も撮影条件 の良い画像を判定する。最も良い撮影条件とは、例えば、対象とする発話者がより大 きくはっきりと撮影されていることや、順光で被写体が明確に把握でき、被写体が他 の物体に遮られず的確にフレーミングされていることなどである。具体的には後述す るフローで説明する。
[0040] 作成部 131は検出された同一会話集団に属するウェアラブル端末により取得され た映像や音声を用いて、同一会話集団に属するユーザに関するプロファイルを作成 する。例えば、同一会話集団に属する端末力も取得した映像のうち、同一会話集団 における発話者を撮影した画像であって、撮影条件判定部 130による判定の結果、 最も撮影条件が良いとされる画像を選択し、選択した画像と当該画像に対応する自 端末 100で収音した音声とを組み合わせることにより、発話者を撮影した映像を作成 する。
[0041] また、同一会話集団に属する端末から取得した画像のうち、自端末 100に係るユー ザを撮影した画像であって、撮影条件判定部 130による判定の結果、最も撮影条件 が良いとされる画像を選択する。そして、選択した画像と当該画像に対応する自端末 100で収音した音声とを組み合わせることにより、自端末 100に係るユーザのプロフ アイルを作成する。
[0042] 記録部 132はメモリカード 111や RAM103等力も構成され、作成されたプロフアイ ルをメモリカード 111に記録したり、自端末 100で取得した画像と音声とを、同一会話 集団検出部 128の結果と関連づけて RAM103に記録したりする。図 12は端末 IDリ ストを示す図である。端末 IDリストは、本端末と同一会話集団を構成する端末の端末 IDを音声、画像及び時刻と関連付けたリストである。ここでは、端末 IDaaa、 bbb、 cc c、 ddd、 eee力洞一会話集団を構成する。なお、端末 IDaaa、 bbb、 ccc、 ddd、 eee はそれぞれウェアラブル端末 100a、 100b, 100c, 100d、 lOOeの端末 IDである。
[0043] これにより、音声信号、及び画像信号から同一会話集団に属するウェアラブル端末 を特定することができ、あるいは時間情報力も同一会話集団に属する端末とその画 像や音声を特定することができる。例えば後日会話を交わした人物の検索を行ったり 、人物の名前を画像力も思い出したりするような用途に用いることができる。
続いて、同一会話検出部 128における処理について説明する。
<同一会話集団検出処理 >
図 13、 14は同一会話集団検出処理のフローを示す図である。ウェアラブル端末 10 0は一定時間ごとに図 13、 14に示す処理を実行することにより、動的に同一会話集 団に属するウェアラブル端末を検出する。ここでは、 3分ごとに処理を行うものとする。 本フローチャートにおいて、 iは一つのウェアラブル端末を特定する変数である。まず 、同一会話集団検出部 128は各端末に方位情報、音声情報の送信を要求する (ステ ップ S 101)。次に、ロケーションサーノ 00に各端末及び自端末の位置情報の送信 を要求する(ステップ S 102)。要求を受け取った各端末及びロケーションサーノ 00 力もレスポンスが送信され、通信部 127はそれらを受信する。同一会話集団検出部 1 28は通信部 127がレスポンス (方位情報、音声情報、及び位置情報)を受信したか 否かを判定する(ステップ S103)。受信した場合には (ステップ S 103で Yes)、続い て自端末の方位情報、音声情報を方位検出部 125及び収音部 122から取得する (ス テツプ S104)。自端末の方位情報、音声情報を取得した後、 iを初期化し (ステップ S 105)、各端末につ 、て以下の処理を行う(ステップ S 106〜119)。
[0044] まず、取得した位置情報から自端末と該端末との距離を算出する (ステップ S106) 。例えば、該端末を端末 100aとすると、図 9よりそれぞれの位置情報は pi (xl, yl, zl)、 p2 (x2, y2, z2)であるので、 2点間の距離は [数 1]
rl 2 = ^(xl - x2) 2 ^ (yl - y2) 2 となる。ただし、 z方向については特に考慮する必要はないため、 zlと z2の値は同一 とする。続いて、 2点間の距離が所定の範囲内力否かを判定する。ここでは所定の範 囲を 5mとし、 2点間の距離が 5m以内か否かを判定する(ステップ S107)。
[0045] 2点間の距離が 5mより大きい場合、自端末の環境音として、該端末の音声が混入 している力否かを判定する (ステップ S 108)。具体的には、該端末の装着者方向音 声取得部で取得された音声と、自端末の非装着者方向音声取得部 124で取得され た音声を比較し、音声の開始と終了が一致するか否かを判定する。一致した場合に は、該端末の音声が混入していると判定する。これは該端末に係るユーザが拡声器 等を使用している場合を考慮してものである。すなわち、 2点間の距離が 5mより離れ て 、る場合であっても、自端末の装着者自身が該端末に係るユーザの音声を聞 、て いる可能性があるので、例外的に同一会話集団に属する可能性があると判定し、処 理を進める。
[0046] 2点間の距離が 5m以内の場合 (ステップ S107で Yes)、あるいは本端末の環境音 として、該端末の音声が混入していると判定された場合 (ステップ S 108で Yes)、自 端末と該端末のそれぞれについて、移動度情報を算出する (ステップ S109)。移動 度情報は、所定の時間 (ここでは 3分)あたりの移動距離と方位の変更量によって算 出される。移動度情報を算出した後、両端末共に停止している力否かを判定する (ス テツプ S110)。これは両端末共に停止している場合には、同一会話集団に属してい る可能性が高いからである。具体的には、移動距離と方位の変更量が 0か否かを判 定する。
[0047] 移動していると判定された場合 (ステップ S 110で No)、両端末とも同一方向に移動 している力否かを判定する。これは移動している場合であっても、同一方向に移動し ているなら同一会話集団に属している可能性が高いからである。具体的には、位置 情報と、方位情報の変更量が両端末で同一である力否かを判定する。同一の場合に は同一方向に移動して 、ると判定する。
[0048] 両端末共に静止して ヽると判定された場合 (ステップ S110で Yes)、あるいは両端 末共に同一方向に移動して ヽると判定された場合 (ステップ S 111で Yes)、両端末 共に発声区間が存在する力否かを判定する (ステップ S112)。
ステップ S112で Noの場合には、一方の端末に発声区間が存在するか否かを判定 する (ステップ S 114)。一方の端末に発声区間が存在する場合には (ステップ S114 で Yes)、一方の端末の環境音として、他方の端末の音声が混入している力否かを判 定する(ステップ S 115)。
[0049] 両端末共に発声区間が存在しない場合には (ステップ S 114で No)、両端末ともに 環境音として同一の第三者の音声が混入しているか否かを判定する (ステップ S116 )。具体的には、自端末の非装着者方向音声取得部 124で取得された音声と、該端 末の非装着者方向音声取得部で取得された音声とを比較し、音声の開始と終了が 一致するか否かを判定する。これは、両端末共に音声区間が存在しなくとも、自端末 と該端末に同一の第三者音声が混入している場合には、ある発話者音声を両者が 聞!、て!/、る可能性があるので、同一会話集団と認めるものである。
[0050] 両端末共に発声区間が存在する場合には (ステップ S112で Yes)、それぞれの発 声区間の重複率が 5%以内か否かを判定する (ステップ S113)。 5%以内と判定され た場合 (ステップ S 113で Yes)、一方の端末の環境音として他方の端末の音声が混 入して 、る (ステップ S 115で Yes)、あるいは両端末ともに環境音として同一の第三 者の音声が混入して 、ると判定された場合には (ステップ S116で Yes)、自端末と該 端末とは同一会話集団に属すると判定する (ステップ S117)。
[0051] ステップ S108、 111、 113、 115、 116でそれぞれ否定的な判定をされた場合には 、本端末と該端末とは同一会話集団ではないと判定する (ステップ S118)。
該端末の端末 IDと判定結果とを対応付けて記憶し (ステップ SI 19)、 iが最後か否 か判定し (ステップ S 120)、最後でないなら iを 1計数し (ステップ S 121)、ステップ S 1 06に移行する。 iが最後の場合には、同一会話集団検出処理を終了する。
<作成処理 > 図 15、 16は作成処理のフローを示す図である。ここでは、同一会話集団における 発話者を撮影した画像をつなげ、一本のストリームを作成する処理について説明す る。本フローチャートにおいて、 iは発話者に係る端末以外であって、同一会話集団 における一つのウェアラブル端末を特定する変数であり、 jは一つの発話区間を特定 する変数である。まず、同一会話集団に属すると判定された各ウェアラブル端末に画 像情報の送信を要求する (ステップ S 201)。各ウェアラブル端末から画像情報を受信 すると (ステップ S 202で Yes)、 jを初期化する (ステップ S203)。 jを初期化した後、該 発話区間における発話者に係る端末を特定し (ステップ S204)、 iを初期化する (ステ ップ S205)。発話者端末と該端末とが同一方向を向いている力否かを判定する (ス テツプ S206)。具体的には、両端末の方位情報により判定される。これは、両端末が 異なる方向を向いているのであれば、対面している可能性が高ぐ良好な発話者画 像を取得できる可能性があるからである。
[0052] 両端末が異なる方向を向いている場合には (ステップ S206で No)、両端末間の距 離が 2m以上離れているか否かを判定する (ステップ S 207)。両端末間の距離が 2m 未満の場合には (ステップ S207で No)、間に障害物なく良好な画像を取得できる可 能性が極めて高!、ので、該端末の画像をプロファイル作成のための候補画像として 選択する(ステップ S 209)。両端末の距離が 2m以上の場合には (ステップ S 207で Y es)、両端末間に障害物がある力否かを判定する (ステップ S208)。具体的には障害 物の有無は、同一会話集団内の該端末と発話者端末との間に第 3者端末が存在す るかどうかを位置情報により判定するのに加えて、該端末で取得される画像を分析し 、顔画像検出が可能である力否かにより判定される。顔検出が可能であれば障害物 がないと判定する。障害物がないと判定されると (ステップ S208で No)、該端末の画 像をプロファイル作成のための候補画像として選択する (ステップ S209)。
[0053] 発話者端末と該端末とが同一方向を向いていると判定された場合 (ステップ S206) 、あるいは該端末の画像を候補として選択した場合、 iが最後か否力判定する (ステツ プ S210)。最後でない場合は、 iを 1計数し (ステップ S211)、ステップ S206に移行 する。 iが最後の場合は、評価関数に基づき、選択された候補の中から最終的にどの 画像を用いるかを決定する。ここで評価関数は、 F=f (d, r, snr)を用いる。ここで、 d は発話者の顔の角度であり、 rは両端末間の距離であり、 snrは画像の鮮明さである。 dは発話者端末と該端末の方位情報から算出され、正面に近いほど評価は高くなる 。 rは発話者端末と該端末の位置情報から算出され、近いほど評価は高くなる。 snr はコントラストや SZN比など力も算出され、鮮明なほど評価は高くなる。
[0054] 次に、 jが最後か否力判定し (ステップ S213)、最後でない場合は、 jを 1計数し (ス テツプ S214)、ステップ S 204に移行する。 jが最後の場合は、各画像に対応する区 間の音声を取得し (ステップ S215)、各画像と音声とを組み合わせた映像を作成す る (ステップ S216)。同一会話集団に属する各端末に作成した映像を送信する (ステ ップ S217)。各端末は映像を受信し、受信した映像を記録する。これ〖こより、同一会 話集団で作成した映像を共有することができる。
<具体例 >
続いて、具体例について説明する。図 17は各発話者の発話のタイミングと、各発話 時における発話者の画像をどの端末より取得するかを模式的に示した図である。第 一段目に端末 100に係るユーザの発話タイミングを示す。第二段目に端末 100aに 係るユーザの発話タイミングを示す。第三段目に端末 100cに係るユーザの発話タイ ミングを示す。第四段目に決定された画像取得端末 IDを示す。本図は時刻 tl〜t2、 t7〜t8において、端末 100cに係るユーザが発話しており、その際の前記ユーザの 画像は端末 ID000の端末 (ウェアラブル端末 100)により取得された画像を用いるこ とを示している。同様に、時刻 t3〜t4、 tl l〜tl2において、端末 100に係るユーザ が発話しており、画像は端末 IDcccの端末 (ウェアラブル端末 100c)により取得され た画像を用いることを示しており、時刻 t5〜t6、 t9〜tl0において、端末 100aに係る ユーザが発話しており、画像は端末 IDeeeの端末 (ウェアラブル端末 100e)により取 得された画像を用いることを示して 、る。
[0055] 図 18は図 17に対応する図であり、各発話者の発話のタイミングと、画像取得対象と なる端末の端末 IDと、取得画像との関係を示した図である。本図に示すテーブルを 記録しておくことにより、あるシーンでの映像がどの端末から取得された映像なのか がわカゝる。
図 19は作成されたプロファイルを模式的に表した図である。ウェアラブル端末 100 で取得された音声と、各発話タイミングにおいて決定された画像取得端末により取得 された画像とを組み合わせることにより、常に発話者を撮影したストリームを作成する ことができる。
[0056] 図 20はプロファイル情報の内部構成を示す図である。プロファイル情報はプレイリ スト情報、音声ファイル、及び画像ファイルを含んで構成される。
プレイリストを定義するプレイリスト情報は、音声ファイルを示す音声ファイルリンク情 報と、対応する画像ファイルを示す画像ファイルリンク情報と、再生開始時刻と、再生 終了時刻とからなる。これにより、音声情報と複数の画像情報とをリンクさせることがで きる。
[0057] 音声ファイルは自端末の音声情報を格納して 、るファイルである。
画像ファイルは同一会話集団に属するウェアラブル端末より取得した画像情報を格 納して 、るファイルである。
以上のように本実施の形態によれば、ゥヱアラブル端末 100がゥヱアラブル端末 10 0〜: LOOhの位置情報、方位情報、及び音声情報を取得し、取得したそれぞれの情 報から同一会話集団に属するウェアラブル端末を検出する。図 3の例でいうと、ウェア ラブル端末 100a〜100e (会話集団 1)を検出する。したがって、予めデータを取得 するウェアラブル端末を登録しておく必要はない。また、ユーザの手を煩わせることな ぐ会話集団 1に属するウエアラブル端末により撮影された画像や音声を用いて、常 に発話者を撮影した映像を作成することができる。
(実施の形態 2)
実施の形態 1では、ウェアラブル端末 100がプロファイルに必要な画像を提供する ウェアラブル端末を検出し、検出したウェアラブル端末力ゝら画像を取得し、取得した 画像を用いてプロファイルの作成を実現する構成にっ ヽて説明した (P2P型の ad-hoc モード)。
[0058] これに対して、本実施の形態では、図 21に示すように、複数のウェアラブル端末を 統括して管理し、制御する作成サーバが、効率的に画像や音声を共有する会話集 団を決定し (会話集団 l〜k)、各会話集団に属するウエアラブル端末により取得され た画像や音声を用いて、各会話集団ごとのプロファイルを作成し、作成したプロフアイ ルを通信により各会話集団に属するウェアラブル端末に送信する構成について説明 する。(サーバ集中管理型の serverモード)
<通信シーケンス >
サーバ集中管理型における通信シーケンスについて説明する。基本的に図 7で説 明した通信シーケンスと同様である。
<作成サーバの構成 >
続いて、作成サーバ 500の内部構成について説明する。図 22に作成サーバの機 能ブロックを示す。作成サーバ 500は、通信部 510、同一会話集団検出部 520、発 話タイミング抽出部 540、被写体検出部 550、撮影条件判定部 560、記録部 570、 及び作成部 580を含んで構成される。
[0059] 通信部 510は、各ウェアラブル端末力も送信される方位情報と音声情報と、ロケ一 シヨンサーバ 400から送信される各ウェアラブル端末の位置情報とを受信する。受信 した方位情報、音声情報、位置情報を同一会話集団検出部 520に、音声情報を発 話タイミング抽出部 540及び記録部 570に送出する。また、検出された同一会話集 団に属するウェアラブル端末力 画像情報を受信し、記録部 570に送出する。さらに 作成されたプロファイルを各ウェアラブル端末に送信する。
[0060] 同一会話集団検出部 520は図 23に示すように、クラスタリング部 521、クラスタ内会 話集団検出部 522、発話情報算出部 523、及び適合度算出部 524を含んで構成さ れる。
クラスタリング部 521は通信部 510から各ウェアラブル端末の位置情報を受信し、 受信した各ウェアラブル端末の位置情報に基づ 、て、複数のウェアラブル端末を所 定のクラスタ数 kOにクラスタリングする。クラスタリングの結果をクラスタ内会話集団検 出部 522に送信する。ここでは、 k-meansを利用してクラスタリングする。具体的な処 理フローについては後述する。
[0061] クラスタ内会話集団検出部 522はクラスタリング部 521からクラスタリングの結果を受 信する。各クラスタ内において、各端末の音声情報から発話の重複度を算出し、算出 した重複度と、位置情報と、方位情報とに応じて、同一会話集団を k個検出する。検 出結果を発話情報算出部 523に送出する。 発話情報算出部 523はクラスタ内会話集団検出部 522から同一会話集団の検出 結果を受け取り、各会話集団内に属する発話者の発話情報 (発話時間率、話者交代 頻度)を算出する機能を有する。発話時間率とは、ある個人が発話している時間が、 会話を交わしている時間全体内で占める割合を指す。各話者について発話時間率 を算出する。話者交代頻度とは、単位時間あたりに発生する、会話集団内で起こる 話者交代の回数を指す。
[0062] さらに、これらの発話情報より、会話集団の会話活性度を算出し、算出した会話活 性度を適合度算出部 524に送出する。会話活性度は、各話者の発話時間率が均等 であるほど、また話者交代頻度が高いほど、会話が活性しているとして大きい値を取 るように定義する。
適合度算出部 524はクラスタリング部 521から位置情報を、発話情報算出部 523か ら会話活性度、方位情報を受け取り、位置情報、方位情報から移動度情報を算出す る。また、各クラスタ内で会話集団に属していない者がおり、なおかつ同一クラスタ内 に複数会話集団が存在したとき、会話集団に属していない者に対し、各会話集団へ の会話集団適合度を算出する。会話集団適合度は、その者の位置情報と、方位情 報と、移動度と、対象となる会話集団の会話活性度とから算出するものであり、会話 集団との位置が近いほど、会話集団の方向を向いているほど、会話集団の方向へ向 かって移動しているほど、会話手段の活性度が高いほど、適合度が高いとして大きい 値を取るように定義する。この結果、会話集団に属していない者は、最も会話集団適 合度の高い集団に属することになる。
[0063] 発話タイミング抽出部 540、被写体検出部 550、撮影条件判定部 560、作成部 58 0については、実施の形態 1で説明した発話タイミング抽出部 126、被写体検出部 12 9、撮影条件判定部 130、作成部 131と同様である。
記録部 570は通信部 510により受信された、各端末で取得された音声情報、画像 情報を適宜記録する。また、作成部 580により作成されたプロファイルを記録する。 <ウェアラブル端末の構成 >
ウェアラブル端末 600の内部構成について説明する。図 24はウェアラブル端末 60 0の機能ブロックを示す図である。ウェアラブル端末は撮像部 601、収音部 602、方 位検出部 603、通信部 604、記録部 605を含んで構成される。
撮像部 601、収音部 602、方位検出部 603は、実施の形態 1で説明した撮像部 12 1、収音部 122、方位検出部 125と同様である。
通信部 604は方位情報、音声情報を作成サーバ 500に送信し、また、作成サーバ よりプロファイルを受信する。受信したプロファイルを記録部に 605に送出する。 記録部 605は通信部 604より送出されたプロファイルを記録媒体に記録する。 <作成サーバの動作 >
図 25〜27を用いて、作成サーバ 500の処理フローについて説明する。まず、作成 サーバ 500は各ウェアラブル端末に方位情報、音声情報の送信を要求する (ステツ プ S301)。ロケーションサーノ OOに各ウェアラブル端末の位置情報の送信を要求 する (ステップ S302)。方位情報、音声情報、及び音声情報を受信した場合には (ス テツプ S303で Yes)、クラスタリング処理を行い (ステップ S304)、各端末を複数のク ラスタに分類する。分類が終了すると、各クラスタにおいて、同一会話集団検出処理 2を行い (ステップ S305)、同一会話集団を検出する。各同一会話集団において、作 成処理を行い(ステップ S306)、プロファイルを作成する。なお、作成処理について は、実施の形態 1で説明した図 15、 16に示す作成処理と同様である。
<クラスタリング処理 >
続いて、クラスタリング処理について説明する。図 26はクラスタリング処理のフロー を示す図である。本フローチャートにおいて、 iは一つの端末を示す変数であり、 jは 一つのクラスタを示す変数であり、 nは端末数であり、 kはクラスタ数である。まず、各 端末 xi (1= 1 · · ·η)に対してランダムにクラスタを割り振り(ステップ S401)、割り振られ た端末をもとに各クラスタの中心 Vj (j = 1〜k)を計算する (ステップ S402)。計算には 割り当てられた端末の各要素の平均 (重心)が使用される。 i、; jを初期化し (ステップ S 403)、該端末 xiと該クラスタの中心 Vjとの距離を算出する (ステップ S404)。 j =kで ある力否かを判定し (ステップ S405)、 j =kでない場合には、 jを 1計数し (ステップ S4 06)、ステップ S404に移行する。 j =kである場合には、ランダムに割り当てられたクラ スタより、距離が近いクラスタがあるか否かを判定する (ステップ S407)。距離が近い クラスタがある場合には、該端末 xiを最も近い中心のクラスタに割り当て直す (ステツ プ S408)。割り当て直した後、あるいはステップ S407で Noの場合、 i=nであるか否 かを判定し (ステップ S409)、 i=nでない場合には、 iを 1計数し (ステップ S410)、ス テツプ S404に移行する。上記の処理で全ての端末 xiのクラスタの割り当てが変化し な力つた場合は処理を終了する (ステップ S411で Yes)。それ以外の場合は新しく割 り振られたクラスタ力もクラスタの中心 Vjを再計算して上記の処理を繰り返す (ステツ プ S402に移行)。このように、位置が近い端末どうしをクラスタリングしていく。
<同一会話集団検出処理 2>
続いて、同一会話集団検出処理 2について説明する。図 27は同一会話集団検出 処理 2のフローを示す図である。本フローチャートにおいて、 jは一つのクラスタを示す 変数である。まず、各クラスタにおいて、各クラスタ内の各端末の音声情報から発話 重複度を算出する (ステップ S501)。算出した発話重複度、位置情報、方位情報に 基づき、同一会話集団を検出する (ステップ S502)。具体的には、各クラスタにおい て、該クラスタに属するウェアラブル端末の組合せに関し、図 13、 14におけるステツ プ S106〜117の処理を行う。同一会話集団と判定されたウェアラブル端末のそれぞ れが、相互に同一会話集団であると判定された場合に、前記ウェアラブル端末のそ れぞれは同一会話集団となる。例えば、図 21の例でいうと、会話集団 1はウェアラブ ノレ端末 600と 600a、 600aと 600b、 600bと 600と力 ^それぞれ同一会話集団であると 判定されていることと同義である。
次に、各会話集団ごとに発話情報を算出し (ステップ S503)、算出した発話情報に 基づき、各会話集団の会話活性度を算出する (ステップ S504)。会話活性度の算出 後、 jを初期化し (ステップ S505)、該クラスタ内で会話集団に属してない者がおり、か つ、該クラスタ内に複数の会話集団がある力否かを判定する (ステップ S506)。判定 が肯定的な場合は、各会話集団への会話集団適合度を算出し (ステップ S507)、そ の中から最も会話集団適合度の高 ヽ会話集団に帰属して 、るものと判定する (ステツ プ S508)。該クラスタ内で他に会話集団に属してない者力 ^、る力否かを判定する (ス テツプ S509)。会話集団に属してない者力 ^、る場合には、ステップ S507に移行する 。会話集団に属してない者がいない場合、あるいはステップ S506にて判定が否定の 場合には、 jが最後か否かを判定する (ステップ S510)。 jが最後でない場合には、 jを 1計数し (ステップ S511)、ステップ S506に移行する。 jが最後の場合には、処理を 終了する。
<同一会話集団検出処理 2の具体例 >
図 28 (a)は、ある時間における 21人の位置を俯瞰したときのマップである。本図に は図示しないが、図 6と同様のシステムにより、各端末の位置情報は取得されるものと する。図 28 (b)は、クラスタリング部 521によるクラスタリングが行われた後の結果を示 している。ここではクラスタ数は 3である。図 28 (c)は、各人の会話に対する積極性と、 向きとを表している。図 28 (d)は、クラスタ内会話集団検出部 522により会話集団が 検出されたあとの結果を示している。ここでは、クラスタ 1において、会話集団 1— 1、 会話集団 1—2の二つの会話集団が検出されており、クラスタ 2において、会話集団 2 1、会話集団 2— 2の二つの会話集団が検出されており、クラスタ 3において、会話 集団 3という一つの会話集団が検出されていることを示している。図 28 (e)は、最終 的にすべての参加者力 いずれかの会話集団に分けられた結果を示している。本図 から会話集団 1 1、会話集団 1 2がそれぞれ拡張され、会話参加頻度の少ない人 または会話不参加な人がそれぞれの会話集団に含まれていることがわかる。
以上のように本実施の形態によれば、作成サーバ 500が管理対象となるウェアラブ ル端末をクラスタに分類し、クラスタ毎に会話集団を決定し、各会話集団に属するゥ エアラブル端末により取得された画像や音声を用いて、各会話集団ごとのプロフアイ ルを簡単に作成することができる。また、最初に位置情報により大まかにクラスタリン グを行う方法を取ることで、一度に複数人数を扱う際、各会話集団を探すときの試行 回数を減らすことができ、演算量も大きく削減することができる。
(実施の形態 3)
実施の形態 1、 2では、発話区間の重複度力 同一会話集団に属するウェアラブル 端末の検出を行ったが、発話区間の重複度のみを用いるだけでなぐさらに発話者 のあいづちを検出し、それを同一会話集団検出処理に用いることもできる。本実施の 形態は、あいづちを同一会話集団検出処理に用いる場合について説明する。ここで いうあいづちとは、「^ 」「ほう」「ふ一ん」などの母音の長音を含むものを指すことと する。あいづちは、このような母音の長音であることが多ぐかつそれ自体が 1つのフ レーズであることが多い。そのため、例えばケプストラムや LPC係数など母音で特徴 的な数値を示すパラメータを用いて母音検出を行 ヽ、その継続時間が例えば 200[m sec]以上、 2[sec]以内という条件判定方法力 あいづち検出を簡単に行うことができ る。なお、あいづち検出方法はもちろんここに挙げた方法に限定するものではない。
[0067] 会話において、あいづちは相手の発話区間中に重複して挿入されることが多い。
例えば発話者 Aが発話中、それを聞いている次の発話者 Bがあいづちをうつ、という パターンである。このことから、発話者 A、 Bの会話が重複していて、かつ発話者 Bの 発話区間の先頭で、なおかつ発話者 Bの発話があいづちであった場合、その発話は 重複した区間とは見なさない、とすることで、発話重複時間を減らし、同一会話集団と しての検出性能の向上が見込める。
[0068] また、発話者 Aの発話が終了するとき、発話者 Bがぁ 、づちを相手の発話にかぶせ 、さらに発話者 Bが単独で発話するというパターンも、よく存在する。これは、あいづち をつなぎとして会話を続ける会話テクニックである力 このようなパターンが見られたと き、発話者 A、 Bは同一会話集団である可能性が極めて高いと判定することもできる。 よってこのようなパターンが検出されたときには、例えば発話の重複度合いが 90〜9 5%であっても、同一会話集団であると判定するとしてもよい。
[0069] 以上のように本実施の形態によれば、あいづちを検出することにより同一会話集団 の検出精度を高めることができる。
(補足)
以上、本発明に係るウェアラブル端末について、実施の形態に基づいて説明した 力 S、本発明は上記の実施の形態に限られないことは勿論である。
[0070] 上記実施の形態では、各ウエアラブル端末の位置を検出する方法として、赤外線タ グ及び赤外広角カメラを用いる方法を採用したが、これに限るものではない。例えば 、 GPSを用いて位置検出を行ってもよいし、超音波を利用して位置検出を行ってもよ いし、無線 LANを利用して位置検出を行ってもよいし、 RF— IDタグを利用して位置 検出を行ってもよいし、これら以外の方法で位置検出を行ってもよい。また、例えば、 GPSを用いて位置検出を行う場合には、各ウェアラブル端末力ゝらそれぞれの位置情 報を取得することになる。 [0071] 上記実施の形態では、ウェアラブル端末はカメラ型としたが、時計型、ペン型、メガ ネ型などであってもよい。
上記実施の形態では、図 1に示すようにウェアラブル端末を装着するとしたが、これ に限定されるものではなぐ端末を胸にピンで留めたり、眼鏡状にしてそれをかけたり 、ヘッドフォンのような形にしてそれを身につけたりするものであってもよい。
[0072] 上記実施の形態では、通信方式として無線 LANを用いた力 Bluetoothであって もよいし、他の通信方式を利用してもよい。画像、音声、位置、及び方位などの情報 を伝達できるものであれば、無線通信、有線通信、 IP網を利用したパケット通信など いずれの形態でもよい。
上記実施の形態では、音声情報、位置情報、及び方位情報を用いて、同一会話集 団の検出を行ったが、音声情報のみ力も同一会話集団の検出を行うとしてもよい。音 声を取得できる範囲はおよそ数メートルであり、それ以上離れると音声を収音すること はできないため、音声を収音できる力否かにより、ある程度の距離を推測することが できる。すなわち、音声を収音できていない場合には、当該音声を発しているユーザ に係るウェアラブル端末は同一会話集団とはみなさない。また、音声情報と位置情報 とから同一会話集団の検出を行うとしてもよいし、音声情報と方位情報とから同一会 話集団の検出を行うとしてもよい。
[0073] 上記実施の形態では、同一会話集団に属するウェアラブル端末を検出するとした 力 会話集団に限るものではない。例えば、ある場所において、興味対象を共有する ウェアラブル端末を検出するとしてもよ ヽし、単純に位置が近 ヽウェアラブル端末を 検出するとしてもよい。
上記実施の形態では、ある発話者の発話タイミングにおいて、当該発話者の画像 を取得する端末は評価関数により決められた一の端末であつたが、評価の高い複数 の端末を決定し、それらにより取得された画像を組み合わせてプロファイルを作成す るとしてもよい。これにより様々なアングル力もの映像を得ることができる。
[0074] 上記実施の形態では、作成部 131は常に発話者を撮影した映像をつなぎ合わせ、 プロファイルを作成した力 特定の人物のみを撮影した一本のストリームを作成しても よい。例えば、ウェアラブル端末 100のユーザに係る映像を作成する場合には、当該 端末 100は発話タイミングを考慮することなぐ評価関数により選択された自身を撮影 した画像と、当該端末 100により取得された音声とを組み合わせればよい。具体的に は以下のフローのとおりである。
[0075] 図 29は作成処理 2のフローを示す図である。本フローチャートにおいて、 iは一つの ウエアラブル端末を特定する変数である。まず、同一会話集団に属すると判定された 各ウェアラブル端末に画像情報の送信を要求する (ステップ S601)。各ウェアラブル 端末から画像情報を受信すると (ステップ S602で Yes)、 iを初期化する (ステップ S6 03)。 iを初期化した後、本端末と該端末とが同一方向を向いている力否かを判定す る(ステップ S 604)。
[0076] 両端末が異なる方向を向いている場合には (ステップ S604で No)、両端末間の距 離が 2m以上離れているか否かを判定する (ステップ S605)。両端末間の距離が 2m 未満の場合には(ステップ S605で No)、該端末の画像をプロファイル作成のための 候補画像として選択する (ステップ S607)。両端末の距離が 2m以上の場合には (ス テツプ S605で Yes)、両端末間に障害物がある力否かを判定する (ステップ S606)。 障害物がないと判定されると (ステップ S606で No)、該端末の画像をプロファイル作 成のための候補画像として選択する (ステップ S607)。
[0077] 本端末と該端末とが同一方向を向いていると判定された場合 (ステップ S604で Ye s)、両端末間に障害物があると判定された場合 (ステップ S606で Yes)、あるいはス テツプ S607の処理の後、 iが最後か否力判定する (ステップ S608)。最後でない場 合は、 iを 1計数し (ステップ S609)、ステップ S604に移行する。 iが最後の場合は、 評価関数に基づき、選択された候補の中から最終的にどの画像を用いるかを決定す る。そして画像に対応する区間の音声を取得し (ステップ S611)、画像と音声とを組 み合わせた映像を作成する (ステップ S612)。
[0078] 上記実施の形態では、評価関数に基づき、プロファイルに用いる画像を選択したが 、近 、ものから順次選択して 、くと!/、う単純な方法を用いてもょ 、。
上記実施の形態では、障害物の有無は同一会話集団内の該端末と発話者端末と の間に第 3者端末が存在するかどうかを位置情報により判定するのに加えて、該端 末で取得される画像を分析し、顔画像検出が可能であれば障害物がな!ヽと判定する 方法としたが、さらに、検出された顔画像と、本端末と該端末とがなす方向ベクトルと が整合が取れる力否かを判定し、整合が取れれば障害物がないものと判定するとし てもよい。
[0079] 上記実施の形態では、評価関数を F=f (d, p, snr)としたが、これに限るものでは なぐ同一画面を継続的に選択することによる冗長さ (継続選択しているほど冗長で 悪い)を評価の対象としてもよい。この冗長さは時間的な長さから算出される。
上記実施の形態では、図 13のステップ S111にて、位置及び方位の変更量が同一 の場合に、同一方向に移動していると判定したが、自端末の位置及び方位の変更量 と該端末の位置及び方位の変更量が所定の範囲内の場合に、同一方向に移動して いると判定してもよい。
[0080] 上記実施の形態では、同一会話集団に属するウェアラブル端末力 画像情報を取 得し、プロファイルを作成するとした力 音声情報を取得してもよいし、会話に関する ログを取得してもよい。例えば、ウェアラブル端末 100でムービー撮影を行う場合に は、当該端末で収音した音声に、同一会話集団内であるが少し離れた位置にいる人 の発話音声があまり入っていない場合があるが、その発話者に係る端末により収音さ れた音声を用いることにより、クリアな音声を記録することができる。また、互いの会話 のログ用いることにより、クリアな会話を記録することができる。
[0081] また、同一会話集団に属するウェアラブル端末力 データ (画像、音声、ログ等)を 取得するのは、リアルタイムでなくてもよい。
上記実施の形態では、会話集団検出処理はある一定間隔ごとに実施するとしたが 、各ウェアラブル端末の位置情報に変化があらわれたときにそのつど実施するように してもよい。また、位置情報に変化があった場合には、共有する映像はウェアラブル 端末に係るユーザが属する会話集団に則して提供されるべきである。例えば、図 2に おいて、ウェアラブル端末 100bのユーザは、会話集団 1にとどまっていた期間までの 会話映像を取得し、その後加わった会話集団 2の会話映像は、加わった時間以後の ものを取得できるようにすればよい。なお、途中で会話に加わった場合、往々にして それまでの会話集団の会話内容をキャッチアップした 、場合も考えられるので、その 場合には、ウェアラブル端末は会話集団において過去にされた会話の内容を短時間 再生するような仕組みを備えるとしても良い。
[0082] 上記実施の形態 1では、同一会話集団を構成する端末の端末 IDに、音声と、画像 と、時刻とを関連付けて記録したが、図 30に示すように、各端末の方位情報、位置情 報、各端末により取得された音声なども、合わせて記録するようにしてもよい。これに より、撮影された映像の方位や位置が記録として残るので、例えば方位情報を使って 逆光の有無を判別したり、位置情報力 どこで記録されたものかを自動的に記録する ようにしたりすることちでさる。
[0083] 上記実施の形態 1では、ウェアラブル端末 100が同一会話集団に属するウェアラブ ル端末の検出とプロファイルの作成とを行った力 ウェアラブル端末 100は前記ゥェ アラブル端末の検出を行 ヽ、プロファイルの作成を行うサーバを別途含む構成として ちょい。
上記実施の形態 1では、ウェアラブル端末 100が同一会話集団検出処理、及びプ 口ファイル作成処理を行った力 例えば会話開始にあたって、最初に発話した者が 装着する端末が、同一会話集団検出処理やプロファイル作成処理を、会話メンバー を代表して行うとしてもよい。また、同一会話集団検出処理までは、各端末個別にそ れぞれ決められた一定間隔ごとに常に実施し、プロファイル作成処理については、 最初に発話した者が装着する端末が代表してその処理を行うとしてもよいし、会話メ ンバ一中の任意のある 1つの端末が代表して処理を行うとしてもよいし、発話時間の 長 、端末が代表して処理を行うものであってもよ 、。
[0084] 上記実施の形態 2では、位置情報に基づ ヽてクラスタリングするとしたが、各端末の 方位情報を用いて、向いている方向にその人物の重心位置をずらしたり、あるいは移 動度情報を用いて、その人物の向かって 、る方向にその人物の重心位置をずらした りして、集団全体の位置重心に影響を与えるようにしてもよい。また、クラスタ数 kOは 検出された参加人数に応じて変えてもよぐ例えば、参加人数が多いほど、クラスタ数 kOを多くするとしてもよい。
[0085] 上記実施の形態 2では、発話をしていない者であっても、適合度を求めることにより 、何れかの会話集団に属するようにした力 まったく発話していない者については、 図 28 (e)のように、無理にどこかの会話集団に属すると判定する必要はなぐ図 28 (d )で判定をとどめてもよい。
また、同一会話集団であるかどうかについては、上記実施の形態 1、 2で説明した同 一会話集団検出処理に限らず、発話の重複度が少ないほど、位置が近いほど、また 向き合っているものほど同一会話集団と判断するような方法であればよい。
[0086] 上記実施の形態 2では、作成サーバ 500により作成されたプロファイルをウェアラブ ル端末に送信し、送信されたプロファイルを受信したウェアラブル端末がそれを記憶 する構成としたが、ウェアラブル端末は映像再生部を備え、作成サーバはストリーミン グによりプロファイルを送出するとしてもよい。また、ウェアラブル端末がビューヮを兼 ねない場合には、単なるセンサ端末としてもよい。
[0087] 上記実施の形態では、音声の重複度を用いて同一会話集団を検出したが、収音 部により取得した音声情報を用いて音声認識を行い、認識した文字情報と、通信部 により取得した他の端末の音声認識結果である文字情報とから、同一会話集団を検 出するとしてもよい。例えば、それぞれの文字情報にキーワードが一定頻度以上で含 まれる場合には、同一会話集団であるとするとしてもよ ヽ。
[0088] 上記実施の形態では、図 2に示すように、様々な人物が思い思いに会話している場 合の端末配置例 (パーティ型の端末配置)について説明したが、本発明は、 1人の人 物に対し大勢の人物が対面し会話して!/、る場合の端末配置(学校型)や、 1つの物に 対し大勢の人物が並んで鑑賞しつつ会話して 、る場合の端末配置 (鑑賞型)であつ ても適用できる。
上記実施の形態では、実施の形態 2のサーバ集中管理型の場合に、サーバ装置 力 Sクラスタリング処理を行うとした力 実施の形態 1の P2P型の ad-hocモードの場合で あっても、ウェアラブル端末力 Sクラスタリング処理を行うとしてもよい。
産業上の利用可能性
[0089] 本発明は、近傍に存在する複数人がそれぞれウェアラブル端末を装着している状 況において有用である。

Claims

請求の範囲
[1] 複数人が参加する行事において、当該行事に参加する人物が身に付けるウェアラ ブル端末であって、
所定範囲内に存在する複数のウェアラブル端末に対して要求信号を送信して、要 求信号に対するレスポンスを受信する要求手段と、
受信されたレスポンスに基づき、通信相手となる 1以上のウェアラブル端末を決定し て、決定したウェアラブル端末とのデータ通信を実行する通信手段とを備え、 前記データは、
通信相手として決定されたウェアラブル端末により収集されたデータであり、前記行 事のプロファイルを作成するにあたって、当該プロファイルの構成要素となる、ことを 特徴とするウェアラブル端末。
[2] 前記通信手段は前記複数のウェアラブル端末のそれぞれにつ 、て、受信されたレ スポンスに基づき、自端末と同一の会話集団に属するウェアラブル端末であるカゝ否か を判定し、同一の会話集団に属すると判定したウェアラブル端末を通信相手として決 定する
請求項 1記載のウェアラブル端末。
[3] 前記レスポンスは、
要求信号を受け取った各ウェアラブル端末で取得された音声情報を含み、 前記通信手段は、受信された各ウェアラブル端末の音声情報における発声区間と 自端末の音声情報における発声区間との重複率を算出する重複率算出手段を含み 自端末と同一の会話集団に属すると判定されるウェアラブル端末は、前記複数のゥ アラブル端末のうち、自端末の音声情報における発声区間との重複率が所定の閾 値以内となるウェアラブル端末である
請求項 2記載のウェアラブル端末。
[4] 前記音声情報における発声区間は、所定期間母音が継続している部分である、会 話におけるぁ 、づちを含み、
前記重複率算出手段は、前記あいづちの区間を除いて重複率を算出する 請求項 3記載のウェアラブル端末。
[5] 前記レスポンスは、
要求信号を受け取った各ウェアラブル端末の位置情報を含み、
前記通信手段は、受信された各ゥ アラブル端末の位置情報と自端末の位置情報 とから、該ウェアラブル端末と自端末との距離をそれぞれ算出する距離算出手段を 含み、
自端末と同一の会話集団に属すると判定されるウェアラブル端末は、前記複数のゥ エアラブル端末のうち、自端末との距離が所定の閾値以内となるウェアラブル端末で ある
請求項 3記載のウェアラブル端末。
[6] 前記レスポンスは、
要求信号を受け取った各ゥヱアラブル端末の方位情報を含み、
前記通信手段は、受信された各ウェアラブル端末の方位情報から、所定時間当た りの方位情報の変化量を算出する方位変更量算出手段を含み、
自端末と同一の会話集団に属すると判定されるウェアラブル端末は、前記複数のゥ エアラブル端末のうち、自端末の方位変更量との差が所定の範囲内となるウェアラブ ル端末である
請求項 5記載のウェアラブル端末。
[7] 前記行事のプロファイルの作成は、自端末により行われ、
前記通信手段は、作成されたプロファイルを前記 1以上のウェアラブル端末に送信 する
請求項 2記載のウェアラブル端末。
[8] 前記収集されたデータは画像であり、
前記プロファイルは、前記決定されたウェアラブル端末において、各発話者に係る ウェアラブル端末と、当該発話者の画像を撮影したウェアラブル端末との組に基づき 作成される
請求項 7記載のウェアラブル端末。
[9] 前記プロファイルは、前記決定されたウェアラブル端末のうち、発話者に係るウェア ラブル端末により収音された音声を用いて作成される
請求項 7記載のウェアラブル端末。
[10] 前記ウエアラブル端末は、前記決定したウエアラブル端末に関するデータを記録す る記録手段を備える
請求項 2記載のウェアラブル端末。
[11] 所定範囲内に存在する複数のウェアラブル端末に対して要求信号を送信して、要 求信号に対するレスポンスを受信する要求ステップと、
受信されたレスポンスに基づき、通信相手となる 1以上のウェアラブル端末を決定し て、決定したウェアラブル端末とのデータ通信を実行する通信ステップとを備え、 前記データは、
通信相手として決定されたウェアラブル端末により収集されたデータであり、前記行 事のプロファイルを作成するにあたって、当該プロファイルの構成要素となる、ことを 特徴とする方法。
[12] 所定範囲内に存在する複数のウェアラブル端末に対して要求信号を送信して、要 求信号に対するレスポンスを受信する要求ステップと、
受信されたレスポンスに基づき、通信相手となる 1以上のウェアラブル端末を決定し て、決定したウェアラブル端末とのデータ通信を実行する通信ステップとからなる手 順をコンピュータに行わせ、
前記データは、
通信相手として決定されたウェアラブル端末により収集されたデータであり、前記行 事のプロファイルを作成するにあたって、当該プロファイルの構成要素となる、ことを 特徴とするコンピュータ読み取り可能なプログラム。
[13] 複数人が参加する行事において、当該行事に参加する人物が身に付けるウェアラ ブル端末とデータ通信を行うサーバ装置であって、
所定範囲内に存在するウェアラブル端末に対して要求信号を送信して、要求信号 に対するレスポンスを受信する要求手段と、
受信されたレスポンスに基づき、通信相手となる 1以上のウェアラブル端末を決定し て、決定したウェアラブル端末とのデータ通信を実行する通信手段とを備え、 前記通信相手として決定されたウェアラブル端末により収集されたデータを用いて 、前記行事のプロファイルを作成する作成手段と、
作成されたプロファイルを前記 1以上のウェアラブル端末に送信する送信手段と を備えることを特徴とするサーバ装置。
前記サーバ装置は、前記複数のウェアラブル端末の位置を示す位置情報を取得し 、取得した位置情報に基づ 、て前記複数のウェアラブル端末を複数のクラスタにクラ スタリングするクラスタリング手段を含み、
前記通信手段による前記通信相手となる 1以上のウェアラブル端末の決定は、各ク ラスタごとに行われる
請求項 13記載のサーバ装置。
PCT/JP2007/053187 2006-02-28 2007-02-21 ウェアラブル端末 WO2007105436A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/279,011 US8581700B2 (en) 2006-02-28 2007-02-21 Wearable device
JP2008505022A JP4669041B2 (ja) 2006-02-28 2007-02-21 ウェアラブル端末

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-053030 2006-02-28
JP2006053030 2006-02-28

Publications (1)

Publication Number Publication Date
WO2007105436A1 true WO2007105436A1 (ja) 2007-09-20

Family

ID=38509272

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/053187 WO2007105436A1 (ja) 2006-02-28 2007-02-21 ウェアラブル端末

Country Status (4)

Country Link
US (1) US8581700B2 (ja)
JP (1) JP4669041B2 (ja)
CN (1) CN101390380A (ja)
WO (1) WO2007105436A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092454A (ja) * 2008-09-12 2010-04-22 Nec Tokin Corp Rfidリーダシステム
JP2013072978A (ja) * 2011-09-27 2013-04-22 Fuji Xerox Co Ltd 音声解析装置および音声解析システム
JP2013142843A (ja) * 2012-01-12 2013-07-22 Fuji Xerox Co Ltd 動作解析装置、音声取得装置、および、動作解析システム
JP2013164468A (ja) * 2012-02-09 2013-08-22 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム
JP2013164299A (ja) * 2012-02-09 2013-08-22 Univ Of Tsukuba 測定装置、測定方法、測定プログラム及び測定システム
JP2013181899A (ja) * 2012-03-02 2013-09-12 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム
JP2014044172A (ja) * 2012-08-28 2014-03-13 Fuji Xerox Co Ltd 位置特定システムおよび端末装置
JP2014164164A (ja) * 2013-02-26 2014-09-08 Fuji Xerox Co Ltd 音声解析装置、信号解析装置、音声解析システムおよびプログラム
JP2014191201A (ja) * 2013-03-27 2014-10-06 Fuji Xerox Co Ltd 音声解析システム、音声端末装置およびプログラム
JP2016144134A (ja) * 2015-02-04 2016-08-08 富士ゼロックス株式会社 音声解析装置、音声解析システムおよびプログラム
WO2016158267A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2016539403A (ja) * 2013-10-14 2016-12-15 ノキア テクノロジーズ オサケユイチア コンテキスト上の関係に基づくメディア・ファイルを識別するための方法と装置
JP2018042061A (ja) * 2016-09-06 2018-03-15 株式会社デンソーテン 電子機器、接続対象の電子機器、通信システム及び通信方法
WO2019097674A1 (ja) * 2017-11-17 2019-05-23 日産自動車株式会社 車両用操作支援装置
JP2020114021A (ja) * 2016-09-26 2020-07-27 株式会社Jvcケンウッド 無線機
JP2020135532A (ja) * 2019-02-21 2020-08-31 前田建設工業株式会社 アラート出力システム、アラート出力方法、及びプログラム
JP2022012926A (ja) * 2020-07-02 2022-01-18 秋夫 湯田 人との接触記録装置。

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8019091B2 (en) 2000-07-19 2011-09-13 Aliphcom, Inc. Voice activity detector (VAD) -based multiple-microphone acoustic noise suppression
US9066186B2 (en) 2003-01-30 2015-06-23 Aliphcom Light-based detection for acoustic applications
US9099094B2 (en) 2003-03-27 2015-08-04 Aliphcom Microphone array with rear venting
WO2008032329A2 (en) * 2006-09-13 2008-03-20 Alon Atsmon Providing content responsive to multimedia signals
US8120486B2 (en) * 2008-06-10 2012-02-21 Symbol Technologies, Inc. Methods and systems for tracking RFID devices
US20110181409A1 (en) * 2010-01-28 2011-07-28 Chastie Samms Interchangeable communication device
JP5581329B2 (ja) * 2010-06-30 2014-08-27 パナソニック株式会社 会話検出装置、補聴器及び会話検出方法
CN203435060U (zh) * 2010-07-15 2014-02-12 艾利佛有限公司 无线电话会议的电话系统和电话网关
US9064501B2 (en) * 2010-09-28 2015-06-23 Panasonic Intellectual Property Management Co., Ltd. Speech processing device and speech processing method
US20120189140A1 (en) * 2011-01-21 2012-07-26 Apple Inc. Audio-sharing network
CN102625077B (zh) * 2011-01-27 2015-04-22 深圳市宇恒互动科技开发有限公司 一种会议记录方法、会议摄像装置、客户机及系统
ITTO20110530A1 (it) * 2011-06-16 2012-12-17 Fond Istituto Italiano Di Tecnologia Sistema di interfaccia per interazione uomo-macchina
EP2611110A1 (en) * 2011-12-30 2013-07-03 Alcatel Lucent, S.A. Method for producing professional-like shared user-generated media content
WO2013142642A1 (en) 2012-03-23 2013-09-26 Dolby Laboratories Licensing Corporation Clustering of audio streams in a 2d/3d conference scene
TW201342819A (zh) * 2012-04-09 2013-10-16 Motionstek Inc 可攜式電子裝置遙控系統與遙控裝置、及行車安全裝置
US10142496B1 (en) * 2013-01-26 2018-11-27 Ip Holdings, Inc. Mobile device image capture and image modification including filters, superimposing and geofenced comments in augmented reality
US10282791B2 (en) * 2013-02-22 2019-05-07 Curate, Inc. Communication aggregator
EP3005026A4 (en) * 2013-06-07 2017-01-11 Sociometric Solutions, Inc. Social sensing and behavioral analysis system
KR20150009072A (ko) * 2013-07-12 2015-01-26 삼성전자주식회사 동작모드 제어 방법 및 그 방법을 처리하는 전자 장치
US20150185839A1 (en) * 2013-12-28 2015-07-02 Aleksander Magi Multi-screen wearable electronic device for wireless communication
USD750070S1 (en) 2013-12-28 2016-02-23 Intel Corporation Wearable computing device
US10360907B2 (en) 2014-01-14 2019-07-23 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10248856B2 (en) 2014-01-14 2019-04-02 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9578307B2 (en) * 2014-01-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9915545B2 (en) * 2014-01-14 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10024679B2 (en) 2014-01-14 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9349277B2 (en) * 2014-04-01 2016-05-24 Prof4Tech Ltd. Personal security devices and methods
WO2016018796A1 (en) * 2014-07-28 2016-02-04 Flir Systems, Inc. Systems and methods for video synopses
US10375081B2 (en) * 2014-08-13 2019-08-06 Intel Corporation Techniques and system for extended authentication
US10024678B2 (en) 2014-09-17 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable clip for providing social and environmental awareness
US9922236B2 (en) 2014-09-17 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable eyeglasses for providing social and environmental awareness
CN104202805B (zh) * 2014-09-22 2018-02-27 联想(北京)有限公司 通信控制方法和电子设备
US10656906B2 (en) 2014-09-23 2020-05-19 Levaughn Denton Multi-frequency sensing method and apparatus using mobile-based clusters
US11150868B2 (en) 2014-09-23 2021-10-19 Zophonos Inc. Multi-frequency sensing method and apparatus using mobile-clusters
US11068234B2 (en) 2014-09-23 2021-07-20 Zophonos Inc. Methods for collecting and managing public music performance royalties and royalty payouts
US10127005B2 (en) * 2014-09-23 2018-11-13 Levaughn Denton Mobile cluster-based audio adjusting method and apparatus
US11544036B2 (en) 2014-09-23 2023-01-03 Zophonos Inc. Multi-frequency sensing system with improved smart glasses and devices
CN104320163B (zh) * 2014-10-10 2017-01-25 安徽华米信息科技有限公司 一种通讯方法及装置
WO2016073363A1 (en) * 2014-11-03 2016-05-12 Motion Insight LLC Motion tracking wearable element and system
JP6300705B2 (ja) * 2014-11-19 2018-03-28 キヤノン株式会社 装置連携による認証管理方法、情報処理装置、ウェアラブルデバイス、コンピュータプログラム
US10490102B2 (en) 2015-02-10 2019-11-26 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for braille assistance
US9972216B2 (en) 2015-03-20 2018-05-15 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for storing and playback of information for blind users
CN104811903A (zh) * 2015-03-25 2015-07-29 惠州Tcl移动通信有限公司 一种组建交流群的方法及其可穿戴设备
US10560135B1 (en) 2015-06-05 2020-02-11 Life365, Inc. Health, wellness and activity monitor
US11329683B1 (en) * 2015-06-05 2022-05-10 Life365, Inc. Device configured for functional diagnosis and updates
US10185513B1 (en) 2015-06-05 2019-01-22 Life365, Inc. Device configured for dynamic software change
US9974492B1 (en) 2015-06-05 2018-05-22 Life365, Inc. Health monitoring and communications device
GB2539949A (en) * 2015-07-02 2017-01-04 Xovia Ltd Wearable Devices
US10728488B2 (en) * 2015-07-03 2020-07-28 H4 Engineering, Inc. Tracking camera network
JP6544088B2 (ja) * 2015-07-06 2019-07-17 富士通株式会社 端末、情報漏洩防止方法および情報漏洩防止プログラム
US9923941B2 (en) 2015-11-05 2018-03-20 International Business Machines Corporation Method and system for dynamic proximity-based media sharing
US9854529B2 (en) * 2015-12-03 2017-12-26 Google Llc Power sensitive wireless communication radio management
US10024680B2 (en) 2016-03-11 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Step based guidance system
US9958275B2 (en) 2016-05-31 2018-05-01 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for wearable smart device communications
US10561519B2 (en) 2016-07-20 2020-02-18 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable computing device having a curved back to reduce pressure on vertebrae
US10432851B2 (en) 2016-10-28 2019-10-01 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable computing device for detecting photography
USD827143S1 (en) 2016-11-07 2018-08-28 Toyota Motor Engineering & Manufacturing North America, Inc. Blind aid device
US10012505B2 (en) 2016-11-11 2018-07-03 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable system for providing walking directions
US10521669B2 (en) 2016-11-14 2019-12-31 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing guidance or feedback to a user
US11830380B2 (en) * 2019-01-10 2023-11-28 International Business Machines Corporation System and method for social learning utilizing user devices
US11178504B2 (en) * 2019-05-17 2021-11-16 Sonos, Inc. Wireless multi-channel headphone systems and methods
CN111127734B (zh) * 2019-12-31 2022-01-14 中国银行股份有限公司 银行柜台网点排队管理系统、装置及方法
JP7400531B2 (ja) * 2020-02-26 2023-12-19 株式会社リコー 情報処理システム、情報処理装置、プログラム、情報処理方法及び部屋
US11386804B2 (en) * 2020-05-13 2022-07-12 International Business Machines Corporation Intelligent social interaction recognition and conveyance using computer generated prediction modeling

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024113A (ja) * 1998-06-30 2002-01-25 Masanobu Kujirada 出会い・連絡支援システム
JP2002523855A (ja) * 1998-08-21 2002-07-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 情報処理装置
JP2004356970A (ja) * 2003-05-29 2004-12-16 Casio Comput Co Ltd ウエアラブルカメラの撮影方法、撮像装置、及び撮影制御プログラム

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3723667A (en) * 1972-01-03 1973-03-27 Pkm Corp Apparatus for speech compression
US4706117A (en) * 1984-06-01 1987-11-10 Arnold Schoolman Stereo laser disc viewing system
US4867442A (en) * 1987-10-09 1989-09-19 Matthews H Gerard Physical exercise aid
JPH0253636A (ja) 1988-08-18 1990-02-22 Kubota Ltd 作業車の自動変速構造
US5144294A (en) * 1990-10-17 1992-09-01 Ldj Industries, Inc. Radio frequency message apparatus for aiding ambulatory travel of visually impaired persons
JPH05122689A (ja) 1991-10-25 1993-05-18 Seiko Epson Corp テレビ会議システム
US5426425A (en) * 1992-10-07 1995-06-20 Wescom, Inc. Intelligent locator system with multiple bits represented in each pulse
US5568516A (en) * 1993-07-02 1996-10-22 Phonic Ear Incorporated Very low power cordless headset system
US5572401A (en) * 1993-12-13 1996-11-05 Key Idea Development L.L.C. Wearable personal computer system having flexible battery forming casing of the system
JP2737682B2 (ja) 1995-02-13 1998-04-08 日本電気株式会社 テレビ会議システム
US5815579A (en) * 1995-03-08 1998-09-29 Interval Research Corporation Portable speakers with phased arrays
US5617477A (en) * 1995-03-08 1997-04-01 Interval Research Corporation Personal wearable communication system with enhanced low frequency response
US6301367B1 (en) * 1995-03-08 2001-10-09 Interval Research Corporation Wearable audio system with acoustic modules
US5687245A (en) * 1995-06-07 1997-11-11 Interval Research Corporation Sampled chamber transducer with enhanced low frequency response
US5682434A (en) * 1995-06-07 1997-10-28 Interval Research Corporation Wearable audio system with enhanced performance
US5694475A (en) * 1995-09-19 1997-12-02 Interval Research Corporation Acoustically transparent earphones
AU7154196A (en) * 1995-09-19 1997-04-09 Interval Research Corporation Earphones with eyeglass attachments
US5945988A (en) * 1996-06-06 1999-08-31 Intel Corporation Method and apparatus for automatically determining and dynamically updating user preferences in an entertainment system
US6091832A (en) * 1996-08-12 2000-07-18 Interval Research Corporation Wearable personal audio loop apparatus
US6405213B1 (en) * 1997-05-27 2002-06-11 Hoyt M. Layson System to correlate crime incidents with a subject's location using crime incident data and a subject location recording device
US6014080A (en) * 1998-10-28 2000-01-11 Pro Tech Monitoring, Inc. Body worn active and passive tracking device
JP3492895B2 (ja) 1997-10-29 2004-02-03 京セラ株式会社 コードレス監視カメラシステム
US6097927A (en) * 1998-01-27 2000-08-01 Symbix, Incorporated Active symbolic self design method and apparatus
US20010011954A1 (en) * 1998-03-11 2001-08-09 Monty M. Shelton Public area locator system
US7266498B1 (en) * 1998-12-18 2007-09-04 Intel Corporation Method and apparatus for reducing conflicts between speech-enabled applications sharing speech menu
US7230582B1 (en) * 1999-02-12 2007-06-12 Fisher-Rosemount Systems, Inc. Wearable computer in a process control environment
US20020175990A1 (en) * 1999-03-31 2002-11-28 Jacquelyn Annette Martino Mirror based interface for computer vision applications
US6850773B1 (en) * 1999-10-21 2005-02-01 Firooz Ghassabian Antenna system for a wrist communication device
US6694034B2 (en) * 2000-01-07 2004-02-17 Etymotic Research, Inc. Transmission detection and switch system for hearing improvement applications
US20010011025A1 (en) * 2000-01-31 2001-08-02 Yuji Ohki Receiver wearable on user's wrist
US6757719B1 (en) * 2000-02-25 2004-06-29 Charmed.Com, Inc. Method and system for data transmission between wearable devices or from wearable devices to portal
US20010042014A1 (en) * 2000-05-15 2001-11-15 Lowry Brian C. System and method of providing communication between a vendor and client using an interactive video display
US6714233B2 (en) * 2000-06-21 2004-03-30 Seiko Epson Corporation Mobile video telephone system
US7031924B2 (en) * 2000-06-30 2006-04-18 Canon Kabushiki Kaisha Voice synthesizing apparatus, voice synthesizing system, voice synthesizing method and storage medium
US6754632B1 (en) * 2000-09-18 2004-06-22 East Carolina University Methods and devices for delivering exogenously generated speech signals to enhance fluency in persons who stutter
JP2002123878A (ja) 2000-10-16 2002-04-26 Matsushita Electric Ind Co Ltd 音センサー付き監視カメラ装置およびそれを用いた監視方法
US20060126861A1 (en) * 2000-11-20 2006-06-15 Front Row Advantage, Inc. Personal listening device for events
JP2002160883A (ja) * 2000-11-27 2002-06-04 Hitachi Building Systems Co Ltd 車椅子用エスカレーター
US20020094845A1 (en) * 2001-01-16 2002-07-18 Rei Inasaka Body worn display system
US7013009B2 (en) * 2001-06-21 2006-03-14 Oakley, Inc. Eyeglasses with wireless communication features
GB2389742B (en) * 2002-06-11 2006-03-01 Adam Raff Communications device and method
US20040086141A1 (en) * 2002-08-26 2004-05-06 Robinson Arthur E. Wearable buddy audio system
US7502627B2 (en) * 2002-12-23 2009-03-10 Systems Application Engineering, Inc. System for product selection
US20040146172A1 (en) * 2003-01-09 2004-07-29 Goswami Vinod Kumar Wearable personal audio system
US20040204168A1 (en) * 2003-03-17 2004-10-14 Nokia Corporation Headset with integrated radio and piconet circuitry
JP2004318828A (ja) * 2003-03-31 2004-11-11 Seiko Epson Corp データバックアップシステム及びデータバックアップ方法、装着可能なコンピュータ、メール送信システム、画像情報送信システム並びにデータバックアッププログラム
US7096048B2 (en) * 2003-04-01 2006-08-22 Sanders Donald T Portable communications device
US20040212637A1 (en) * 2003-04-22 2004-10-28 Kivin Varghese System and Method for Marking and Tagging Wireless Audio and Video Recordings
WO2004110099A2 (en) * 2003-06-06 2004-12-16 Gn Resound A/S A hearing aid wireless network
US7738664B2 (en) * 2003-10-07 2010-06-15 Kddi Corporation Apparatus for fault detection for parallelly transmitted audio signals and apparatus for delay difference detection and adjustment for parallelly transmitted audio signals
EP1524586A1 (en) * 2003-10-17 2005-04-20 Sony International (Europe) GmbH Transmitting information to a user's body
EP1531478A1 (en) 2003-11-12 2005-05-18 Sony International (Europe) GmbH Apparatus and method for classifying an audio signal
US7702728B2 (en) * 2004-01-30 2010-04-20 Microsoft Corporation Mobile shared group interaction
JP2005227555A (ja) * 2004-02-13 2005-08-25 Renesas Technology Corp 音声認識装置
US7664558B2 (en) * 2005-04-01 2010-02-16 Apple Inc. Efficient techniques for modifying audio playback rates
US7605714B2 (en) * 2005-05-13 2009-10-20 Microsoft Corporation System and method for command and control of wireless devices using a wearable device
EP1657958B1 (en) * 2005-06-27 2012-06-13 Phonak Ag Communication system and hearing device
US20070241862A1 (en) * 2006-04-12 2007-10-18 Dimig Steven J Transponder authorization system and method
US7586418B2 (en) * 2006-11-17 2009-09-08 General Electric Company Multifunctional personal emergency response system
EP2408222A1 (en) * 2006-12-20 2012-01-18 Phonak AG Wireless communication system
JP2008198028A (ja) * 2007-02-14 2008-08-28 Sony Corp ウェアラブル装置、認証方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024113A (ja) * 1998-06-30 2002-01-25 Masanobu Kujirada 出会い・連絡支援システム
JP2002523855A (ja) * 1998-08-21 2002-07-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 情報処理装置
JP2004356970A (ja) * 2003-05-29 2004-12-16 Casio Comput Co Ltd ウエアラブルカメラの撮影方法、撮像装置、及び撮影制御プログラム

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092454A (ja) * 2008-09-12 2010-04-22 Nec Tokin Corp Rfidリーダシステム
JP2013072978A (ja) * 2011-09-27 2013-04-22 Fuji Xerox Co Ltd 音声解析装置および音声解析システム
JP2013142843A (ja) * 2012-01-12 2013-07-22 Fuji Xerox Co Ltd 動作解析装置、音声取得装置、および、動作解析システム
JP2013164468A (ja) * 2012-02-09 2013-08-22 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム
JP2013164299A (ja) * 2012-02-09 2013-08-22 Univ Of Tsukuba 測定装置、測定方法、測定プログラム及び測定システム
JP2013181899A (ja) * 2012-03-02 2013-09-12 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム
JP2014044172A (ja) * 2012-08-28 2014-03-13 Fuji Xerox Co Ltd 位置特定システムおよび端末装置
JP2014164164A (ja) * 2013-02-26 2014-09-08 Fuji Xerox Co Ltd 音声解析装置、信号解析装置、音声解析システムおよびプログラム
JP2014191201A (ja) * 2013-03-27 2014-10-06 Fuji Xerox Co Ltd 音声解析システム、音声端末装置およびプログラム
JP2016539403A (ja) * 2013-10-14 2016-12-15 ノキア テクノロジーズ オサケユイチア コンテキスト上の関係に基づくメディア・ファイルを識別するための方法と装置
US10437830B2 (en) 2013-10-14 2019-10-08 Nokia Technologies Oy Method and apparatus for identifying media files based upon contextual relationships
JP2016144134A (ja) * 2015-02-04 2016-08-08 富士ゼロックス株式会社 音声解析装置、音声解析システムおよびプログラム
JPWO2016158267A1 (ja) * 2015-03-27 2018-01-25 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2016158267A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2016157642A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018042061A (ja) * 2016-09-06 2018-03-15 株式会社デンソーテン 電子機器、接続対象の電子機器、通信システム及び通信方法
JP2020114021A (ja) * 2016-09-26 2020-07-27 株式会社Jvcケンウッド 無線機
WO2019097674A1 (ja) * 2017-11-17 2019-05-23 日産自動車株式会社 車両用操作支援装置
CN111801667A (zh) * 2017-11-17 2020-10-20 日产自动车株式会社 车辆用操作辅助装置
JPWO2019097674A1 (ja) * 2017-11-17 2020-12-03 日産自動車株式会社 車両用操作支援装置
JP7024799B2 (ja) 2017-11-17 2022-02-24 日産自動車株式会社 車両用操作支援装置
CN111801667B (zh) * 2017-11-17 2024-04-02 日产自动车株式会社 车辆用操作辅助装置和车辆用操作辅助方法
JP2020135532A (ja) * 2019-02-21 2020-08-31 前田建設工業株式会社 アラート出力システム、アラート出力方法、及びプログラム
JP7263043B2 (ja) 2019-02-21 2023-04-24 前田建設工業株式会社 アラート出力システム、アラート出力方法、及びプログラム
JP2022012926A (ja) * 2020-07-02 2022-01-18 秋夫 湯田 人との接触記録装置。

Also Published As

Publication number Publication date
JPWO2007105436A1 (ja) 2009-07-30
CN101390380A (zh) 2009-03-18
JP4669041B2 (ja) 2011-04-13
US20090058611A1 (en) 2009-03-05
US8581700B2 (en) 2013-11-12

Similar Documents

Publication Publication Date Title
JP4669041B2 (ja) ウェアラブル端末
CN108683972B (zh) 声音处理系统
US9633270B1 (en) Using speaker clustering to switch between different camera views in a video conference system
US9554091B1 (en) Identifying conference participants and active talkers at a video conference endpoint using user devices
JP6759406B2 (ja) カメラ撮影制御方法、装置、インテリジェント装置およびコンピュータ記憶媒体
US20090315974A1 (en) Video conferencing device for a communications device and method of manufacturing and using the same
US11047965B2 (en) Portable communication device with user-initiated polling of positional information of nodes in a group
US20210350823A1 (en) Systems and methods for processing audio and video using a voice print
US9277178B2 (en) Information processing system and storage medium
JP7100824B2 (ja) データ処理装置、データ処理方法及びプログラム
JP2005059170A (ja) 情報収集ロボット
EP4113452A1 (en) Data sharing method and device
CN114845081A (zh) 信息处理装置、记录介质及信息处理方法
TW200804852A (en) Method for tracking vocal target
CN113965715A (zh) 一种设备协同控制方法和装置
KR100583987B1 (ko) 정보 수집 로봇
WO2018154902A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Danninger et al. The connector: facilitating context-aware communication
JP6286289B2 (ja) 管理装置、会話システム、会話管理方法及びプログラム
CN112565598A (zh) 聚焦方法与装置、终端、计算机可读存储介质和电子设备
WO2021129444A1 (zh) 文件聚类方法及装置、存储介质和电子设备
CN113707165B (zh) 音频处理方法、装置及电子设备和存储介质
CN113170023A (zh) 信息处理装置和方法以及程序
CN114374903B (zh) 拾音方法和拾音装置
JP2004248125A (ja) 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07714687

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 12279011

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2008505022

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 200780006734.9

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07714687

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)