JP6869215B2 - Information processing equipment and information processing system - Google Patents
Information processing equipment and information processing system Download PDFInfo
- Publication number
- JP6869215B2 JP6869215B2 JP2018174985A JP2018174985A JP6869215B2 JP 6869215 B2 JP6869215 B2 JP 6869215B2 JP 2018174985 A JP2018174985 A JP 2018174985A JP 2018174985 A JP2018174985 A JP 2018174985A JP 6869215 B2 JP6869215 B2 JP 6869215B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- input information
- unit
- input
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 16
- 238000009826 distribution Methods 0.000 claims description 176
- 230000005540 biological transmission Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 15
- 238000000034 method Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 23
- 230000033001 locomotion Effects 0.000 description 20
- 238000003860 storage Methods 0.000 description 20
- 238000012986 modification Methods 0.000 description 18
- 230000004048 modification Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 238000011156 evaluation Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 13
- 230000002452 interceptive effect Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 230000011664 signaling Effects 0.000 description 7
- 238000003825 pressing Methods 0.000 description 6
- 238000001028 reflection method Methods 0.000 description 5
- 108091006146 Channels Proteins 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Description
本発明は、双方向サービスに用いられる技術に関する。 The present invention relates to a technique used for a two-way service.
双方向サービスに用いられる技術として、特許文献1には、再生する動画の動画再生時間に対応するコメント付与時間が対応付けられたコメントをコメント情報から読み出し、読み出したコメントを動画とともに表示する技術が開示されている。
As a technique used for the two-way service,
配信されたコンテンツの視聴者が入力したコメントをコンテンツに重ねて表示するというように双方向に情報が発信される双方向サービス(インタラクティブサービスとも呼ばれる)においては、視聴者がコンテンツ配信に参加しているような体験(参加体験)をすることができる。そのような双方向サービスを複数活用して共通のコンテンツを配信する場合、異なる双方向サービスの視聴者同士で参加体験を共有できることが望ましい。
そこで、本発明は、複数の双方向サービスの視聴者に共通の参加体験を提供することを目的とする。
In a two-way service (also called an interactive service) in which information is transmitted in both directions, such as displaying a comment entered by a viewer of the delivered content on top of the content, the viewer participates in the content distribution. You can have an experience (participation experience) as if you were there. When a plurality of such interactive services are used to deliver common content, it is desirable that viewers of different interactive services can share the participation experience.
Therefore, an object of the present invention is to provide a common participation experience to viewers of a plurality of interactive services.
上記目的を達成するために、本発明は、画像を含むコンテンツの視聴者が入力したコメントに対応付けられた内容を当該コンテンツに反映して各々について登録されたユーザに配信する第1システム及び第2システムのうちの前記第1システムにおける第1コメントと、前記第2システムにおける第2コメントとを取得する入力取得部と、取得された前記第1コメントに対応付けられた内容を共通の前記コンテンツに含まれる同じ画像に反映させ、取得された前記第2コメントに対応付けられた内容を共通の前記コンテンツに含まれる同じ画像に反映させる反映部と、前記反映部により内容が反映された前記画像を前記第1及び第2システムに送信する送信部とを備える情報処理装置を提供する。 In order to achieve the above object, the present invention reflects the content associated with the comment input by the viewer of the content including the image in the content and distributes the content to the registered users for each of the first system and the first system. The content that is common to the input acquisition unit that acquires the first comment in the first system and the second comment in the second system of the two systems and the content associated with the acquired first comment. is reflected in the same image contained in a reflecting unit for reflecting the same image contained the contents associated with the acquired second comment on the content of the Common, the contents are reflected by the reflecting unit Provided is an information processing apparatus including a transmission unit that transmits an image to the first and second systems.
また、本発明は、コンテンツの視聴者が入力した入力情報に対応付けられた内容を当該コンテンツに反映して各々について登録されたユーザに配信する第1システム及び第2システムのうちの前記第1システムにおける第1入力情報と、前記第2システムにおける第2入力情報とを取得する入力取得部と、取得された前記第1入力情報に対応付けられた内容及び取得された前記第2入力情報に対応付けられた内容をいずれも共通の前記コンテンツに反映させる反映部と、前記反映部により内容が反映された共通の前記コンテンツを前記第1及び第2システムに送信する送信部とを備え、前記反映部は、前記第1システムに登録されたユーザについて取得された、第1条件で絞り込まれた前記第1入力情報に対応付けられた内容を反映して前記コンテンツの第1部分を変化させ、前記第2システムに登録されたユーザについて取得された、前記第1条件と共通の第2条件で絞り込まれた前記第2入力情報に対応付けられた内容を反映して当該コンテンツの前記第1部分とは異なる第2部分を変化させる情報処理装置を提供する。 Further, the present invention reflects the content associated with the input information input by the viewer of the content in the content and distributes the content to the registered users for each of the first system and the second system. The input acquisition unit that acquires the first input information in the system and the second input information in the second system, the content associated with the acquired first input information, and the acquired second input information. It includes a reflection unit that reflects the associated contents in the common content, and a transmission unit that transmits the common content in which the content is reflected by the reflection unit to the first and second systems. The reflection unit changes the first part of the content by reflecting the content associated with the first input information narrowed down by the first condition acquired for the user registered in the first system. The first part of the content reflecting the content associated with the second input information narrowed down by the second condition common to the first condition acquired for the user registered in the second system. Provided is an information processing apparatus that changes a second part different from the above .
また、本発明は、上述した情報処理装置と、前記第1システムにおいてコンテンツを配信する第1配信装置であって、当該コンテンツの視聴者が入力した入力情報に対応付けられた内容を当該コンテンツに反映して配信する第1配信装置とを備える情報処理システムを提供する。 Further, the present invention is the above-mentioned information processing device and the first distribution device that distributes the content in the first system, and the content associated with the input information input by the viewer of the content is applied to the content. Provided is an information processing system including a first distribution device that reflects and distributes information.
本発明によれば、複数の双方向サービスの視聴者に共通の参加体験を提供することができる。 According to the present invention, it is possible to provide a common participation experience to viewers of a plurality of interactive services.
[1]実施例
図1は実施例に係るコンテンツ配信システム1の全体構成の一例を表す。コンテンツ配信システム1は、ユーザにコンテンツを配信するシステムである。コンテンツとは、ユーザが視聴することができる情報のことであり、例えば動画、静止画像、音楽及びラジオ番組等のことである。コンテンツ配信システム1は、本実施例では、主に動画をコンテンツとして配信する。
[1] Example FIG. 1 shows an example of the overall configuration of the
コンテンツ配信システム1は、ネットワーク2と、第1配信装置10と、第2配信装置20と、複数のユーザ端末30と、コンテンツ提供装置40とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムにアクセスする装置同士のデータのやり取りを中継する。ネットワーク2には、コンテンツ配信システム1が備える各装置が有線通信又は無線通信によりアクセスしている。
The
第1配信装置10及び第2配信装置20は、コンテンツを配信する装置である。以下では、第1配信装置10及び第2配信装置20を特に区別しない場合は単に「配信装置」という。配信装置は、ただコンテンツを配信するだけではなく、配信したコンテンツの視聴者が入力した入力情報に対応付けられた内容をそのコンテンツに反映して配信する。配信装置は、本実施例では、配信したコンテンツを視聴したユーザ(「視聴者」とも言う)が入力したコメントを示す文字列(「入力情報に対応付けられた内容」の一例)をコンテンツに反映して配信する。
The
複数のユーザ端末30は、ユーザが利用する端末であり、各配信装置が配信するコンテンツを出力する。ユーザ端末30は、本実施例では、コンテンツとして配信される動画を表示し、その動画に含まれた音を放音する。第1配信装置10と、ネットワーク2と、第1配信装置10が配信するコンテンツを出力する複数のユーザ端末30とは、第1配信システム3を形成する。第1配信システム3は本発明の「第1システム」の一例である。
The plurality of
第2配信装置20と、ネットワーク2と、第2配信装置20が配信するコンテンツを出力する複数のユーザ端末30とは、第2配信システム4を形成する。第2配信システム4は本発明の「第2システム」の一例である。以下では、第1配信システム3及び第2配信システム4を特に区別しない場合は単に「配信システム」という。各配信システムは、各々のシステムにおいて登録されたユーザにコンテンツを配信する。
The
本実施例では、第1配信システム3は日本のコンテンツ配信事業者によって運用されており、第2配信システム4は中国のコンテンツ配信事業者によって運用されているものとする。そのため、第1配信システム3においては主に日本人のユーザが登録されており、第2配信システム4においては主に中国人のユーザが登録されている。従って、第1配信システム3が備える複数のユーザ端末30においては主に日本語を用いた入出力が行われ、第2配信システム4が備える複数のユーザ端末30においては主に中国語を用いた入出力が行われる。
In this embodiment, it is assumed that the
コンテンツ提供装置40は、第1配信システム3及び第2配信システム4に対して共通のコンテンツを提供する装置である。コンテンツ提供装置40は、本実施例では、モーションキャプチャの技術で取り込んだ人の動きのとおりにアニメーションのキャラクタを動かした動画をコンテンツとして提供する。また、コンテンツ提供装置40は、日本語及び中国語の両方を含むコンテンツを提供する。
The
図2は配信装置のハードウェア構成の一例を表す。配信装置(第1配信装置10及び第2配信装置20)は、物理的には、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、バス15などを含むコンピュータ装置として構成されてもよい。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。
FIG. 2 shows an example of the hardware configuration of the distribution device. The distribution device (
また、各装置は、1つ又は複数含まれていてもよいし、一部の装置が含まれていなくてもよい。プロセッサ11は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ11は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。
Further, each device may be included one or more, or some devices may not be included. The
例えば、ベースバンド信号処理部等は、プロセッサ11によって実現されてもよい。また、プロセッサ11は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ13及び通信装置14の少なくとも一方からメモリ12に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。
For example, the baseband signal processing unit and the like may be realized by the
上述の各種処理は、1つのプロセッサ11によって実行される旨を説明してきたが、2以上のプロセッサ11により同時又は逐次に実行されてもよい。プロセッサ11は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されてもよい。メモリ12は、コンピュータ読み取り可能な記録媒体である。
Although it has been described that the various processes described above are executed by one
メモリ12は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ12は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ12は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ13は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。
The
ストレージ13は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ12及びストレージ13の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。通信装置14は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)である。
The
通信装置14は、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置14は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。
The
例えば、上述の送受信アンテナ、アンプ部、送受信部、伝送路インターフェースなどは、通信装置14によって実現されてもよい。送受信部は、送信部と受信部とで、物理的に、または論理的に分離された実装がなされてもよい。また、プロセッサ11、メモリ12などの各装置は、情報を通信するためのバス15によって接続される。バス15は、単一のバスを用いて構成されてもよいし、装置間毎に異なるバスを用いて構成されてもよい。
For example, the above-mentioned transmission / reception antenna, amplifier unit, transmission / reception unit, transmission line interface, and the like may be realized by the
図3はユーザ端末30のハードウェア構成の一例を表す。ユーザ端末30は、物理的には、プロセッサ31と、メモリ32と、ストレージ33と、通信装置34と、入力装置35と、出力装置36と、バス37などを含むコンピュータ装置として構成されてもよい。これらのうち図2に同名のハードウェアが表されているものは、性能及び仕様等の違いはあるがそれらと同種のハードウェアである。
FIG. 3 shows an example of the hardware configuration of the
入力装置35は、外部からの入力を受け付ける入力デバイス(例えばキーボード、マウス及びマイクロフォン等)である。出力装置36は、外部への出力を実施する出力デバイス(例えばディスプレイ、スピーカ及びLED(Light Emitting Diode)ランプ等)である。なお、入力装置35及び出力装置36は、一体となった構成(例えばディスプレイ及びタッチパネルが一体となったタッチスクリーン)であってもよい。
The
図4はコンテンツ提供装置40のハードウェア構成の一例を表す。コンテンツ提供装置40は、物理的には、プロセッサ41と、メモリ42と、ストレージ43と、通信装置44と、入力装置45と、出力装置46と、バス47などを含むコンピュータ装置として構成されてもよい。コンテンツ提供装置40は本発明の「情報処理装置」の一例である。これらのうち図2又は図3に同名のハードウェアが表されているものは、入力装置45を除き、性能及び仕様等の違いはあるがそれらと同種のハードウェアである。
FIG. 4 shows an example of the hardware configuration of the
入力装置45は、上記の入力デバイスの他に、複数のカメラ48を備える。複数のカメラ48は、モーションキャプチャにおいてマーカーを撮影するために用いられる装置である。マーカーとは、動きをデジタル化する対象(本実施例では人)に取り付けられる軽量の球体である。複数のカメラ48によって撮影された画像から各マーカーの空間上の座標を算出することで、対象の動きがデジタル化される。
The
また、上記の各装置は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよい。また、上記の各装置は、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ11は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
In addition, each of the above devices includes hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). It may be composed of. Further, in each of the above-mentioned devices, a part or all of each functional block may be realized by the hardware. For example, the
コンテンツ配信システム1が備える各装置における各機能は、各々のプロセッサ、メモリなどのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサが演算を行い、各々の通信装置による通信を制御したり、メモリ及びストレージにおけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
Each function in each device included in the
図5は各装置が実現する機能構成を表す。第1配信装置10は、入力情報取得部101と、コンテンツ取得部102と、コンテンツ重畳部103とを備える。第2配信装置20は、入力情報取得部201と、コンテンツ取得部202と、コンテンツ重畳部203とを備える。ユーザ端末30は、コンテンツ出力部301と、入力受付部302とを備える。コンテンツ提供装置40は、第1入力情報取得部401と、第2入力情報取得部402と、第1絞込部403と、第2絞込部404と、第1反映画像生成部405と、第2反映画像生成部406と、コンテンツ生成部407と、コンテンツ送信部408とを備える。
FIG. 5 shows a functional configuration realized by each device. The
第1配信システム3が備えるユーザ端末30のコンテンツ出力部301は、配信装置(第1配信装置10及び第2配信装置20)から配信されたコンテンツを出力する。
図6は第1配信システム3において出力されたコンテンツの一例を表す。図6(a)の例では、コンテンツ出力部301は、動画表示欄D1にハニワのキャラクタA1及びA2が表されたコンテンツC0を表示している。また、コンテンツ出力部301は、コメント送信ボタンB1と、コメント入力欄E1とを表示している。
The
FIG. 6 shows an example of the content output by the
入力受付部302は、コンテンツ出力部301によりコンテンツが出力されている状態においてユーザが行った入力を受け付ける。入力受付部302は、本実施例では、コメント入力欄E1への文字列の入力とコメント送信ボタンB1を押す操作とを、コメントの入力として受け付ける。入力受付部302は、コメントの入力を受け付けると、入力を受け付けたコメントを示すコメントデータを、視聴者による入力情報を示すデータとして生成し、第1配信装置10に送信する。
The
第1配信装置10の入力情報取得部101は、送信されてきたコメントデータを受け取ると、そのコメントデータが示すコメントを入力情報として取得する。入力情報取得部101は、取得した入力情報をコンテンツ重畳部103に供給する。第1配信装置10のコンテンツ取得部102は、自装置が配信するコンテンツを取得する機能である。コンテンツ取得部102は、自装置に予め記憶されているコンテンツを取得することもあるが、本実施例では、コンテンツ提供装置40から提供されるコンテンツを取得する。
When the input
コンテンツ取得部102は、取得したコンテンツをコンテンツ重畳部103に供給する。コンテンツ重畳部103は、コンテンツ取得部102から供給されたコンテンツに、入力情報取得部101から供給された入力情報に対応付けられた内容を重畳する重畳処理を行う。コンテンツ重畳部103は、本実施例では、入力情報であるコメントを示す文字列をその入力情報に対応付けられた内容としてコンテンツに重畳する。
The
コンテンツ重畳部103は、重畳処理を施したコンテンツをユーザ端末30に送信する。図5では1台のユーザ端末30しか表されていないが、実際にはコンテンツを視聴している視聴者の数だけユーザ端末30が存在する。コンテンツ重畳部103は、それらのユーザ端末30に対して重畳処理後のコンテンツを配信する。
The
ユーザ端末30のコンテンツ出力部301は、送信されてきたコンテンツを出力する。図6(b)の例では、コンテンツ出力部301は、ハニワのキャラクタA1及びA2の動画に重畳された「ハニワ」、「埴輪」及び「ばんざい」等の視聴者のコメント群F1を含むコンテンツC1を表示している。コンテンツ出力部301は、これらのコメント群F1を例えば画面の左右方向に移動させながら表示する。
The
第2配信システム4が備えるユーザ端末30及び第2配信装置20が備える各機能は、第1配信システム3が備えるユーザ端末30及び第1配信装置10が備える各機能と共通している。
図7は第2配信システム4において出力されたコンテンツの一例を表す。図7(a)の例では、コンテンツ出力部301は、動画表示欄D2に、図6(a)に表すものと同じハニワのキャラクタA1及びA2が表されたコンテンツC0を表示している。
The functions of the
FIG. 7 shows an example of the content output by the
また、コンテンツ出力部301は、コメント送信ボタンB2と、コメント入力欄E2とを表示している。また、図7(b)の例では、コンテンツ出力部301は、ハニワのキャラクタA1及びA2の動画に重畳された「埴熟」、「HANIWA」及び「万?!」等の視聴者のコメント群F2を含むコンテンツC2を表示している。コンテンツ出力部301は、これらのコメント群F2を例えば画面の左右方向に移動させながら表示する。
Further, the
第1配信装置10の入力情報取得部101は、取得した入力情報をコンテンツ重畳部103に供給すると共に、コンテンツ提供装置40に送信する。コンテンツ提供装置40の第1入力情報取得部401は、第1配信システム3における入力情報を取得する。第2配信装置20の入力情報取得部201は、取得した入力情報をコンテンツ重畳部203に供給すると共に、コンテンツ提供装置40に送信する。コンテンツ提供装置40の第2入力情報取得部402は、第2配信システム4における入力情報を取得する。
The input
以下では、第1入力情報取得部401が取得する入力情報を「第1入力情報」といい、第2入力情報取得部402が取得する入力情報を「第2入力情報」という。第1入力情報取得部401及び第2入力情報取得部402が協働することで本発明の「入力取得部」の一例として機能する。第1入力情報取得部401は、取得した第1入力情報を第1絞込部403に供給し、第2入力情報取得部402は、取得した第2入力情報を第2絞込部404に供給する。
Hereinafter, the input information acquired by the first input
第1絞込部403には、第1入力情報が大量に供給されてくる。第1絞込部403は、それらの第1入力情報を、予め定められた第1条件を満たす第1入力情報に絞り込む。一方、第2絞込部404には、第2入力情報が大量に供給されてくる。第2絞込部404は、それらの第2入力情報を、予め定められた第2条件を満たす第2入力情報に絞り込む。
A large amount of first input information is supplied to the first narrowing-down
第1条件及び第2条件は、例えば、入力情報が予め定められた文字列を含む場合に満たされる。第1絞込部403及び第2絞込部404は、第1条件を満たす文字列及び第2条件を満たす文字列を示す文字列リストを記憶する。
図8は文字列リストの一例を表す。図8の例では、第1条件を満たす文字列として「はにわ」、「ハニワ」、「埴輪」及び「HANIWA」という文字列が示されている。
The first condition and the second condition are satisfied, for example, when the input information includes a predetermined character string. The
FIG. 8 shows an example of a character string list. In the example of FIG. 8, the character strings "Haniwa", "Haniwa", "Haniwa" and "HANIWA" are shown as the character strings satisfying the first condition.
また、第2条件を満たす文字列として「埴熟」、「兵嗟俑」及び「HANIWA」という文字列が示されている。図8の例では、「HANIWA」のように第1条件及び第2条件が同じ条件となる文字列が含まれているが、それ以外はいずれも第1条件及び第2条件が異なる条件となる文字列が含まれている。第1配信システム3及び第2配信システム4においては、図8の例のように、第1条件とは異なる条件を含む条件が少なくとも1つは必ず第2条件として用いられるものとする。
Further, as the character strings satisfying the second condition, the character strings "Haniwa", "Haniwa" and "HANIWA" are shown. In the example of FIG. 8, a character string such as "HANIWA" in which the first condition and the second condition are the same is included, but other than that, the first condition and the second condition are different conditions. Contains a string. In the
第1絞込部403は、図6(a)の例であれば、第1条件を満たす「はにわ」、「埴輪」、「はにわwww」、「はにわっ」及び「埴輪だ」というコメントに絞り込み、第1条件を満たさない「ばんざい」というコメントは除外する。第2絞込部404は、図7(a)の例であれば、第2条件を満たす「埴熟」、「兵嗟俑」、「兵嗟俑?」及び「HANIWA」というコメントに絞り込み、第2条件を満たさない「万?!」というコメントは除外する。
In the example of FIG. 6A, the
第1絞込部403は、絞り込んだ第1入力情報を第1反映画像生成部405に供給する。第2絞込部404は、絞り込んだ第2入力情報を第2反映画像生成部406に供給する。第1反映画像生成部405は、第1絞込部403から供給された第1入力情報(第1条件を満たす第1入力情報)に対応付けられた内容を反映する画像を生成する。第2反映画像生成部406は、第2絞込部404から供給された第2入力情報(第2条件を満たす第2入力情報)に対応付けられた内容を反映する画像を生成する。
The first narrowing-down
以下では、第1反映画像生成部405により生成される画像を「第1反映画像」と言い、第2反映画像生成部406により生成される画像を「第2反映画像」と言う。
図9は第1反映画像及び第2反映画像の一例を表す。図9(a)では、図6に表すハニワのキャラクタA1の土台部分が伸びた画像が第1反映画像として表されている。図9(b)では、ハニワのキャラクタA2の土台部分が伸びた画像が第2反映画像として表されている。
Hereinafter, the image generated by the first reflection
FIG. 9 shows an example of the first reflected image and the second reflected image. In FIG. 9A, an image in which the base portion of the Haniwa character A1 shown in FIG. 6 is extended is represented as the first reflection image. In FIG. 9B, an image in which the base portion of the Haniwa character A2 is extended is represented as a second reflection image.
第1反映画像生成部405及び第2反映画像生成部406は、供給された入力情報の数に応じた長さだけ土台部分を伸ばしている。図9の例においてキャラクタA2の土台部分の方が長いのは、第2絞込部404から供給された第2入力情報の方が第1絞込部403から供給された第1入力情報よりも多かったことを表している。第1入力情報の方が第2入力情報よりも多ければ、キャラクタA1の土台部分の方が長くなる。
The first reflected
このように、本実施例では、第1条件を満たす第1入力情報の数が多いほどキャラクタA1の土台が長くなるという内容が第1入力情報に対応付けられている。また、第2条件を満たす第2入力情報の数が多いほどキャラクタA2の土台が長くなるという内容が第2入力情報に対応付けられている。第1反映画像生成部405は、生成した第1反映画像をコンテンツ生成部407に供給する。第2反映画像生成部406は、生成した第2反映画像をコンテンツ生成部407に供給する。
As described above, in this embodiment, the content that the base of the character A1 becomes longer as the number of the first input information satisfying the first condition increases is associated with the first input information. Further, the content that the base of the character A2 becomes longer as the number of the second input information satisfying the second condition increases is associated with the second input information. The first reflected
コンテンツ生成部407は、第1配信システム3及び第2配信システム4に提供する共通のコンテンツを生成する。コンテンツ生成部407は、本実施例では、モーションキャプチャの技術を用いて人の動きを再現するキャラクタを含むコンテンツを生成する。コンテンツ生成部407は、まず、モーションキャプチャの周知の技術を用いて、図4に表す複数のカメラ48により撮影されたマーカーの座標を特定する。
The
コンテンツ生成部407は、所定の時間間隔で各マーカーの座標を特定し、特定した各座標が表す人の動きを再現するようにキャラクタA1及びA2を加工する。具体的には、コンテンツ生成部407は、キャラクタA1及びA2の画像を予め記憶しておき、キャラクタA1及びA2の腕が人と同じ動き(腕の上下及び曲げ伸ばしの動き)をするように加工する。
The
また、コンテンツ生成部407は、第1反映画像及び第2反映画像が供給された後は、供給された第1反映画像及び第2反映画像の腕が人と同じ動きをするように加工する。また、コンテンツ生成部407は、供給された第1入力情報及び第2入力情報を重畳したコンテンツを生成する。コンテンツ生成部407は、生成したコンテンツをコンテンツ送信部408に供給する。
Further, after the first reflected image and the second reflected image are supplied, the
コンテンツ送信部408は、コンテンツ生成部407により生成されたコンテンツを第1配信システム3及び第2配信システム4に送信する。コンテンツ送信部408は本発明の「送信部」の一例である。コンテンツ送信部408は、例えばストリーミングの技術を用いて、コンテンツ生成部407によるコンテンツの生成と並行して生成されたコンテンツを送信する。
The
第1配信装置10は、受け取ったコンテンツを第1配信システム3のユーザ端末30に配信する。第2配信装置20は、受け取ったコンテンツを第2配信システム4のユーザ端末30に配信する。
図10は出力されたコンテンツの一例を表す。図10(a)では、第1配信システム3のユーザ端末30が出力したコンテンツC3が表されている。
The
FIG. 10 shows an example of the output content. In FIG. 10A, the content C3 output by the
図10(b)では、第2配信システム4のユーザ端末30が出力したコンテンツC4が表されている。コンテンツC3及びC4には、いずれも第1反映画像(土台が長くなった画像)であるキャラクタA1及び第2反映画像(土台が長くなった画像)であるキャラクタA2が表されている。また、コンテンツC3には、日本のユーザが入力したコメント群F3が含まれており、コンテンツC4には、中国のユーザが入力したコメント群F4が含まれている。
In FIG. 10B, the content C4 output by the
これらのコメント群は、コンテンツ生成部407により生成されたコンテンツに、第1配信装置10のコンテンツ重畳部103及び第2配信装置20のコンテンツ重畳部203によって重畳されている。つまり、コンテンツC3からコメント群F3を除いたコンテンツと、コンテンツC4からコメント群F4を除いたコンテンツとが、コンテンツ送信部408により配信された共通のコンテンツである。
These comment groups are superimposed on the content generated by the
この共通のコンテンツには、第1入力情報取得部401により取得された第1入力情報に対応付けられた内容(第1条件を満たす第1入力情報の数が多いほどキャラクタA1の土台が長くなるという内容)及び第2入力情報取得部402により取得された第2入力情報に対応付けられた内容(第2条件を満たす第2入力情報の数が多いほどキャラクタA2の土台が長くなるという内容)がいずれも反映されている。 In this common content, the content associated with the first input information acquired by the first input information acquisition unit 401 (the larger the number of first input information satisfying the first condition, the longer the base of the character A1). The content associated with the second input information acquired by the second input information acquisition unit 402 (the content that the larger the number of the second input information satisfying the second condition, the longer the base of the character A2). Are all reflected.
また、図10(c)では、コメント入力の受付期間が終了した後に生成される、最終的なキャラクタA1及びA2を含む共通のコンテンツC5が表されている。コンテンツC5にも、第1入力情報に対応付けられた内容として第1条件を満たす第1入力情報の数(この例では「9523」件)を示すコメント数画像G1が含まれ、第2入力情報に対応付けられた内容として第2条件を満たす第2入力情報の数(この例では「10780」件)を示すコメント数画像G2が含まれている。 Further, in FIG. 10C, a common content C5 including the final characters A1 and A2, which is generated after the comment input acceptance period ends, is shown. The content C5 also includes a comment number image G1 indicating the number of first input information satisfying the first condition (“9523” in this example) as the content associated with the first input information, and the second input information. As the content associated with, a comment number image G2 indicating the number of second input information satisfying the second condition (“10780” in this example) is included.
以上のとおり、第1絞込部403、第2絞込部404、第1反映画像生成部405、第2反映画像生成部406及びコンテンツ生成部407は、取得された第1入力情報に対応付けられた内容及び取得された第2入力情報に対応付けられた内容をいずれもコンテンツに反映する入力反映部409として機能する。入力反映部409は本発明の「反映部」の一例である。
As described above, the
本実施例では、入力反映部409は、上記のとおり第1条件を満たす第1入力情報に対応付けられた内容と、第1条件とは異なる第2条件を満たす第2入力情報とに対応付けられた内容とを反映させる。その際に、入力反映部409は、取得された第1入力情報に対応付けられた内容を反映してコンテンツの第1部分(例えばキャラクタA1の土台部分)を変化させる。
In this embodiment, the
そして、入力反映部409は、取得された第2入力情報に対応付けられた内容を反映して第1部分とは異なる第2部分(例えばキャラクタA2の土台部分)を変化させる。コンテンツ送信部408は、この入力反映部409により内容が反映されたコンテンツを配信する。
Then, the
コンテンツ配信システム1が備える各装置は、上記の構成に基づいて、第1入力情報に対応付けられた内容及び第2入力情報に対応付けられた内容をいずれも反映したコンテンツを配信する配信処理を行う。
図11は配信処理における各装置の動作手順の一例を表す。この動作手順は、コンテンツ提供装置40から第1配信装置10及び第2配信装置20にコンテンツが提供され始めることを契機に開始される。
Based on the above configuration, each device included in the
FIG. 11 shows an example of the operation procedure of each device in the distribution process. This operation procedure is started when the
まず、コンテンツ提供装置40(コンテンツ送信部408)は、第1配信装置10及び第2配信装置20にコンテンツを送信する(ステップS11、S21)。次に、第1配信装置10(コンテンツ取得部102)は、送信されてきたコンテンツを取得する(ステップS12)。続いて、第1配信装置10(コンテンツ重畳部103)は、取得したコンテンツをユーザ端末30に配信する(ステップS13)。
First, the content providing device 40 (content transmitting unit 408) transmits the content to the
ステップS13の段階では、まだ入力情報が取得されていないので重畳処理が行われない。ステップS13で配信されたコンテンツを視聴したユーザがコメントを入力することで、第1配信装置10(入力情報取得部101)は、そのコメントを第1入力情報として取得する(ステップS14)。次に、第1配信装置10(コンテンツ重畳部103)は、取得された第1入力情報に対応付けられた内容をコンテンツに重畳する重畳処理を行い(ステップS15)、重畳処理後のコンテンツを複数のユーザ端末30に配信する(ステップS16)。 At the stage of step S13, since the input information has not been acquired yet, the superimposition processing is not performed. When the user who has viewed the content distributed in step S13 inputs a comment, the first distribution device 10 (input information acquisition unit 101) acquires the comment as the first input information (step S14). Next, the first distribution device 10 (content superimposition unit 103) performs a superimposition process of superimposing the content associated with the acquired first input information on the content (step S15), and a plurality of the content after the superimposition processing is performed. (Step S16).
第1配信装置10(入力情報取得部101)は、取得した第1入力情報をコンテンツ提供装置40に送信する(ステップS17)。ステップS17の動作は、ステップS15、S16の動作の前又はそれらの動作に並行して行われてもよい。第2配信装置20は、ステップS22からS27まで、第1配信装置10のステップS12からS17までに相当する動作を行う。
The first distribution device 10 (input information acquisition unit 101) transmits the acquired first input information to the content providing device 40 (step S17). The operation of step S17 may be performed before or in parallel with the operations of steps S15 and S16. The
コンテンツ提供装置40(第1入力情報取得部401及び第2入力情報取得部402)は、ステップS17で送信されてきた第1入力情報と、ステップS27で送信されてきた第2入力情報とを取得する(ステップS31)。次に、コンテンツ提供装置40(第1絞込部403及び第2絞込部404)は、取得された第1入力情報を第1条件を満たすものに絞り込み、取得された第2入力情報を第2条件を満たすものに絞り込む(ステップS32)。
The content providing device 40 (first input
続いて、コンテンツ提供装置40(第1反映画像生成部405及び第2反映画像生成部406)は、絞り込まれた第1入力情報に対応付けられた内容を反映する第1反映画像を生成し、絞り込まれた第2入力情報に対応付けられた内容を反映する第2反映画像を生成する(ステップS33)。次に、コンテンツ提供装置40(コンテンツ生成部407)は、生成された第1反映画像及び第2反映画像を用いて、第1配信システム3及び第2配信システム4に提供する共通のコンテンツを生成する(ステップS34)。
Subsequently, the content providing device 40 (first reflected
そして、コンテンツ提供装置40(コンテンツ送信部408)は、生成されたコンテンツを第1配信装置10及び第2配信装置20にそれぞれ送信する(ステップS41、S51)。第1配信装置10(コンテンツ取得部102)は、送信されてきたコンテンツを取得する(ステップS42)。次に、第1配信装置10(コンテンツ重畳部103)は、取得されたコンテンツに第1入力情報に対応付けられた内容を重畳する重畳処理を行う(ステップS43)。
Then, the content providing device 40 (content transmitting unit 408) transmits the generated content to the
そして、第1配信装置10(コンテンツ重畳部103)は、重畳処理後のコンテンツを複数のユーザ端末30に配信する(ステップS44)。第2配信装置20は、ステップS52からS54まで、第1配信装置10のステップS42からS44までに相当する動作を行う。以上の動作手順が行われることで、第1入力情報に対応付けられた内容及び取得された第2入力情報に対応付けられた内容がいずれも反映されたコンテンツが配信される。
Then, the first distribution device 10 (content superimposition unit 103) distributes the content after the superimposition processing to the plurality of user terminals 30 (step S44). The
本実施例では、第1配信システム3及び第2配信システム4が配信するコンテンツを視聴する各視聴者に、上記のとおり共通のコンテンツが配信される。その共通のコンテンツには、両配信システムの視聴者による入力情報に対応付けられた内容がそれぞれ反映されている。例えば図9、図10の例であれば、日本の視聴者の入力情報はキャラクタA1の土台部分の伸びとして反映され、中国の視聴者の入力情報はキャラクタA2の土台部分の伸びとして反映される。
In this embodiment, the common content is distributed to each viewer who views the content distributed by the
上記の反映がされることで、日本の視聴者も中国の視聴者も、自分もコンテンツ配信に参加しているような体験(参加体験)をすることになる。また、その際に配信されるコンテンツが共通であるから、日本の視聴者はキャラクタA2の土台部分の伸びを見ることで、中国の視聴者がどのくらいコメントを熱心に入力しているかを知ることができる。反対に、中国の視聴者はキャラクタA1の土台部分の伸びを見ることで、日本の視聴者がどのくらいコメントを熱心に入力しているかを知ることができる。 By reflecting the above, both Japanese and Chinese viewers will have an experience (participation experience) as if they were participating in content distribution. Also, since the content delivered at that time is common, Japanese viewers can know how enthusiastically Chinese viewers are inputting comments by watching the growth of the base part of character A2. it can. On the contrary, Chinese viewers can see how enthusiastically Japanese viewers are inputting comments by looking at the growth of the base of character A1.
そして、最終的にどちらのキャラクタの方が土台部分が伸びたのか、すなわち、条件を満たす入力情報を多く入力したのはどちらなのかを、どちらの視聴者も知ることができる。このように、本実施例によれば、第1配信システム3及び第2配信システム4によって提供される複数の双方向サービスの視聴者に共通の参加体験を提供することができる。
Then, both viewers can finally know which character has the longer base portion, that is, which one has input more input information satisfying the conditions. As described above, according to the present embodiment, it is possible to provide a common participation experience to the viewers of the plurality of interactive services provided by the
また、本実施例では、全ての入力情報がコンテンツの反映に用いられるわけではなく、条件を満たした入力情報だけが用いられる。そして、その条件は、図8の説明で述べたように双方向サービス毎に異なる条件(少なくとも一部は異なる条件)が用いられる。この条件の違いにより、例えば日本の視聴者には日本語のキーワードを条件として用い、中国の視聴者には中国語のキーワードを用いるというように、視聴者毎に、より適切な条件を用いて入力情報を絞り込むことができる。 Further, in this embodiment, not all the input information is used for reflecting the content, and only the input information satisfying the conditions is used. Then, as the conditions, different conditions (at least partially different conditions) are used for each bidirectional service as described in the explanation of FIG. Due to this difference in conditions, for example, Japanese keywords are used as conditions for Japanese viewers, and Chinese keywords are used for Chinese viewers. Input information can be narrowed down.
また、本実施例では、第1入力情報及び第2入力情報に基づいてコンテンツのそれぞれ異なる部分が変化する。この変化部分の違いにより、各双方向サービスの視聴者が共通の参加体験をしつつ、各双方向サービスの視聴者の入力状況(上記例では条件を満たす入力情報の数の状況)を知ることができる。 Further, in this embodiment, different parts of the content change based on the first input information and the second input information. Due to this difference in the change part, the viewers of each interactive service can have a common participation experience and know the input status of the viewers of each interactive service (in the above example, the status of the number of input information satisfying the conditions). Can be done.
[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は必要に応じてそれぞれ組み合わせてもよい。その際は、各変形例について優先順位を付けて(各変形例を実施すると競合する事象が生じる場合にどちらを優先するかを決める順位付けをして)実施してもよい。
[2] Modifications The above-mentioned examples are merely examples of the implementation of the present invention, and may be modified as follows. Further, the examples and the modified examples may be combined as necessary. In that case, each modification may be prioritized (when each modification causes a conflicting event, which one is prioritized).
また、具体的な組み合わせ方法として、例えば共通する値を求めるために異なるパラメータを用いる変形例を組み合わせて、それらのパラメータを共に用いて共通する値等を求めてもよい。また、個別に求めた値等を何らかの規則に従い合算して1つの値等を求めてもよい。また、それらの際に、用いられるパラメータ毎に異なる重み付けをしてもよい。 Further, as a specific combination method, for example, a modification example in which different parameters are used to obtain a common value may be combined, and a common value or the like may be obtained by using those parameters together. Further, one value or the like may be obtained by adding up the individually obtained values or the like according to some rule. Further, in these cases, different weighting may be applied for each parameter used.
[2−1]入力情報
実施例では、文字列として入力されたコメントが入力情報として用いられたが、これに限らない。例えば音声入力されたコメントが入力情報として用いられてもよい。また、配信システムの画面に操作ボタン(例えばキャラクタを応援することを示すボタン等)が設けられている場合に、その操作ボタンを押したことを示す情報が入力情報として用いられてもよい。要するに、視聴者がコンテンツを視聴しながら入力することができる情報であれば、どのような情報が入力情報として用いられてもよい。
[2-1] Input information In the embodiment, the comment input as a character string is used as the input information, but the present invention is not limited to this. For example, a comment input by voice may be used as input information. Further, when an operation button (for example, a button indicating to support the character) is provided on the screen of the distribution system, information indicating that the operation button is pressed may be used as input information. In short, any information may be used as input information as long as it is information that the viewer can input while viewing the content.
[2−2]入力情報に対応付けられた内容
入力反映部409(特にコンテンツ生成部407)は、実施例では、入力情報に対応付けられた内容として、キャラクタの形を変化させた(土台部分を伸ばした)画像をコンテンツに重畳したが、これに限らない。入力反映部409は、例えば、キャラクタの色又は大きさを変化させてもよいし、キャラクタではなく背景又はキャラクタの付属物(服装又は装備等)を変化させてもよい。
[2-2] Content associated with input information In the embodiment, the input reflection unit 409 (particularly the content generation unit 407) changes the shape of the character as the content associated with the input information (base portion). The image was superimposed on the content, but it is not limited to this. The
これらはいずれもコンテンツ内に画像として表される部分である。これらの画像を変化させる場合、入力反映部409は、コンテンツを生成する際にコンテンツの一部として用いる画像を加工したり、複数の画像から選択したりすることで、上記の変化を反映させる。また、入力反映部409は、コンテンツに含まれる画像以外の部分について変化させてもよい。例えばコンテンツ内で音楽が流れる場合、入力反映部409は、その音楽を変化させてもよい。
All of these are the parts represented as images in the content. When changing these images, the
音楽を変化させる場合、入力反映部409は、コンテンツを生成する際に用いる音データを加工したり、複数の音データから選択したりすることで、音楽の変化を反映させる。また、例えば実施例のようにモーションキャプチャにより人の動きをキャラクタの動きに反映したり、さらに人が話した音声をリアルタイムにキャラクタの音声として反映させたりする場合がある。
When changing the music, the
入力反映部409は、それらのキャラクタの動き又はキャラクタのセリフの内容を変化させてもよい。その場合、入力反映部409は、動き及び音声を担当する人(担当者)に対して動き及びセリフを指示する指示データを出力する。この指示データを例えば担当者の前に設置されたディスプレイに表示させることで、担当者は表示された指示に従い動いたりセリフを話したりする。そうすることで、指示された動き及びセリフの内容がコンテンツに反映される。
The
また、入力反映部409は、入力情報がコメントである場合に、そのコメントを示す文字列を入力情報に対応付けられた内容として反映してもよい。
図12は表示されるコンテンツの一例を表す。図12の例では、第1配信システム3のユーザ端末30のコンテンツ出力部301が、日本の視聴者のコメント及び中国の視聴者のコメントを合わせたコメント群F6を含むコンテンツC6を表示している。
Further, when the input information is a comment, the
FIG. 12 shows an example of the displayed contents. In the example of FIG. 12, the
この反映方法は、実施例で述べた第1配信システム3及び第2配信システム4で行われる反映方法と同じである。従って、入力反映部409がこの反映方法を用いる場合は、第1配信システム3及び第2配信システム4はコメントを示す文字列を反映しない(同じコメントが二重に反映されるため)。このように、第1配信システム3及び第2配信システム4は、入力情報に対応付けられた内容のコンテンツへの反映を必ずしも行わなくてもよい(入力反映部409によって行われるため)。
This reflection method is the same as the reflection method performed in the
図12の例では、日本の視聴者が中国の視聴者のコメントを見ることができ、中国の視聴者が日本の視聴者のコメントを見ることができる。その結果、自国の視聴者のコメントしか見られない場合に比べて、複数の双方向サービスの視聴者に対して、より共通性の高い参加体験を提供することができる。 In the example of FIG. 12, the Japanese viewer can see the comments of the Chinese viewer, and the Chinese viewer can see the comments of the Japanese viewer. As a result, it is possible to provide a more common participation experience to the viewers of a plurality of interactive services as compared with the case where only the comments of the viewers in the home country can be seen.
また、入力反映部409が用いる反映方法は、第1配信システム3及び第2配信システム4が用いる反映方法と同じでも異なっていてもよい。入力反映部409は、少なくとも、取得された第1入力情報に対応付けられた内容及び取得された第2入力情報に対応付けられた内容をいずれもコンテンツに反映していればよい。そうすることで、複数の双方向サービスの視聴者に共通の参加体験を提供することができる。
Further, the reflection method used by the
[2−3]第1条件及び第2条件
実施例では、入力情報であるコメントに特定の文字列が含まれている場合に第1条件及び第2条件が満たされたが、これに限らない。例えば配信システムの画面に複数の操作ボタンが表示される場合に、そのうちの特定の操作ボタンが押されることで満たされる条件が第1条件及び第2条件として用いられてもよい。
[2-3] First Condition and Second Condition In the embodiment, the first condition and the second condition are satisfied when a specific character string is included in the comment which is the input information, but the present invention is not limited to this. .. For example, when a plurality of operation buttons are displayed on the screen of the distribution system, the conditions satisfied by pressing a specific operation button may be used as the first condition and the second condition.
図13は表示される操作ボタンの一例を表す。図13の例では、第1配信システム3のユーザ端末30のコンテンツ出力部301が、コンテンツ及びコメントの入力用の画像の他に、「すごい!」と書かれた評価ボタンB3と、「いまいち」と書かれた評価ボタンB4と、投稿ボタンB5とを表示している。第1絞込部403は、これらのボタンのうち例えば評価ボタンB3を押す操作を示す第1入力情報が取得された場合に第1条件が満たされたと判断する。
FIG. 13 shows an example of the displayed operation buttons. In the example of FIG. 13, the
また、第2配信システム4でも評価ボタンB3、B4及び投稿ボタンB5に相当するボタンが表示されているものとする。その場合に、第2絞込部404は、それらのボタンのうち例えば投稿ボタンB5を押す操作を示す第2入力情報が取得された場合に第2条件(第1条件とは異なる条件)が満たされたと判断する。例えば日本の視聴者は評価ボタンをよく使う傾向があり、中国の視聴者は投稿ボタンをよく使う傾向があるという場合に、上記の第1条件及び第2条件が用いられることで、視聴者毎に、より適切な条件を用いて入力情報を絞り込むことができる。
Further, it is assumed that the
なお、操作ボタン以外にも、例えば音声を用いた入力が行われる場合に、音量、音声の長さ又は音質に対する条件(例えば音量が閾値以上の場合に満たされる条件)が第1条件及び第2条件として用いられてもよい。また、第1条件及び第2条件は、入力情報が適切に(コンテンツの提供者が意図した入力情報に)絞り込めるのであれば、同じ条件であってもよい。 In addition to the operation buttons, for example, when input using voice is performed, conditions for volume, voice length, or sound quality (for example, conditions satisfied when the volume is equal to or higher than the threshold value) are the first condition and the second condition. It may be used as a condition. Further, the first condition and the second condition may be the same conditions as long as the input information can be appropriately narrowed down (to the input information intended by the content provider).
なお、上記の各例では、第1条件及び第2条件が視聴者に明示されていなかったが、これらを明示するようにしてもよい。その場合、第1条件及び第2条件を説明する文章をコンテンツに含めて配信してもよいし、その文章をユーザ端末30に送信してコンテンツを視聴するための画面に表示させてもよい。また、明示する条件と明示しない条件とを混在させてもよい。明示すれば自分の入力が反映されている感触を確かに感じることができるし、明示しなければ隠された条件を探す楽しみを得ることができる。
In each of the above examples, the first condition and the second condition were not specified to the viewer, but these may be specified. In that case, the text explaining the first condition and the second condition may be included in the content and distributed, or the text may be transmitted to the
[2−4]フィルタの活用
実施例では、第1配信システム3及び第2配信システム4がいずれも入力情報の絞り込みを行わなかったが、それが行われてもよい。その場合に、コンテンツ提供装置40が、各配信システムの絞込機能(フィルタ機能とも呼ばれる)を活用してもよい。
[2-4] Utilization of Filter In the embodiment, neither the
図14は本変形例において実現される機能構成の一例を表す。図14の例では、図5に表す各部に加えて入力情報絞込部104を備える第1配信装置10aと、図5に表す各部に加えて入力情報絞込部204を備える第2配信装置20aとが表されている。入力情報絞込部104は、コンテンツ重畳部103によるコンテンツの反映に用いられる入力情報を絞り込む。
FIG. 14 shows an example of the functional configuration realized in this modified example. In the example of FIG. 14, the
入力情報絞込部204は、コンテンツ重畳部203によるコンテンツの反映に用いられる入力情報を絞り込む。入力情報絞込部104及び入力情報絞込部204はいずれも本発明の「絞込機能」の一例である。入力情報取得部101は、取得した入力情報を入力情報絞込部104に供給する。入力情報絞込部104は、供給された入力情報(コメント)を、例えば第1配信システム3において予め定められたNGワード(配信するのに不適切な言葉等)を含まないものに絞り込む。
The input
入力情報絞込部104は、絞り込んだ入力情報をコンテンツ重畳部103に供給し、コンテンツ提供装置40に送信する。この絞り込みにより、NGワードが含まれないコメントだけがコンテンツに重畳されて配信される。第2配信装置20aにおいても同様の絞り込みが行われる。入力情報絞込部104及び入力情報絞込部204は、各々が記憶するNGワードリストを用いて絞り込みを行う。
The input
図15はNGワードリストの一例を表す。図15(a)では第1配信システム3のNGワードリストH1(主に日本語のNGワードのリスト)が表されている。図15(b)では第2配信システム4のNGワードリストH2(主に中国語のNGワードのリスト)が表されている。入力情報絞込部104は、NGワードリストH1を用いて絞り込みを行うと共に、このNGワードリストH1をコンテンツ提供装置40に送信する。
FIG. 15 shows an example of an NG word list. FIG. 15A shows the NG word list H1 (mainly a list of NG words in Japanese) of the
また、入力情報絞込部204も同様にNGワードリストH2をコンテンツ提供装置40に送信する。コンテンツ提供装置40は、NGワードリストH1を第2絞込部404に供給し、NGワードリストH2を第1絞込部403に供給する。本変形例の第1絞込部403は、供給されたNGワードリストH2を用いて絞り込みを行う。
Further, the input
また、本変形例の第2絞込部404は、供給されたNGワードリストH1を用いて絞り込みを行う。この絞り込みにより、入力反映部409(第1絞込部403)は、NGワードリストH2を用いた絞り込み、すなわち入力情報絞込部204による絞り込みで残る場合に満たされる条件(NGワードリストH2に含まれるNGワードを含まないという条件)を第1条件として用いることになる。
Further, the second narrowing-down
また、入力反映部409(第2絞込部404)は、NGワードリストH1を用いた絞り込み、すなわち入力情報絞込部104による絞り込みで残る場合に満たされる条件(NGワードリストH1に含まれるNGワードを含まないという条件)を第2条件として用いることになる。例えば図12の例のように両配信システムのコメントがどちらもコンテンツに反映される場合がある。 Further, the input reflection unit 409 (second narrowing down unit 404) is satisfied when it remains after narrowing down using the NG word list H1, that is, narrowing down by the input information narrowing down unit 104 (NG included in the NG word list H1). The condition that the word is not included) will be used as the second condition. For example, as in the example of FIG. 12, the comments of both distribution systems may be reflected in the content.
その場合に本変形例の第1条件が用いられないと、第1絞込部403により絞り込まれたコメントには、第1配信システム3のNGワードは含まれないが、第2配信システム4のNGワードは含まれ得る。また、本変形例の第2条件が用いられないと、第2絞込部404により絞り込まれたコメントには、第2配信システム4のNGワードは含まれないが、第1配信システム3のNGワードは含まれ得る。
In that case, if the first condition of this modification is not used, the comments narrowed down by the first narrowing-down
本変形例の第1条件及び第2条件が用いられることで、そのようにNGワードを含むコンテンツの配信を防ぐことができる。なお、図14の例では第1配信システム3及び第2配信システム4がいずれも絞込機能を有していたが、これに限らず、どちらか一方だけが絞込機能を有していてもよい。本変形例では、両配信システムのうちの少なくとも一方が絞込機能を有しており、その絞込機能による絞り込みで残ることが第1条件又は第2条件として用いられればよい。
By using the first condition and the second condition of this modification, it is possible to prevent the distribution of the content including the NG word. In the example of FIG. 14, both the
[2−5]反映対象量の調整
図10の例ではコメントの件数に応じてキャラクタ画像の土台部分が伸びることで、日本の視聴者のコメント数と中国の視聴者のコメント数とを競う演出がされていた。この演出がされる場合、コメント数の差が小さいほど接戦になって盛り上がりやすい。そこで、接戦を演出するための調整が行われてもよい。
[2-5] Adjustment of reflection target amount In the example of Fig. 10, the base part of the character image is extended according to the number of comments, so that the number of comments from Japanese viewers and the number of comments from Chinese viewers compete with each other. Was being done. When this production is performed, the smaller the difference in the number of comments, the closer the battle becomes and the easier it is to get excited. Therefore, adjustments may be made to produce a close battle.
なお、上記の競う演出は、コメント数を競うものに限らない。例えばコメントの文字数又は特定のキーワードの数が競われてもよい。また、音声が入力される場合に、その音声の音量又は音声の持続時間等が競われてもよい。また、操作ボタンを押す操作を示す入力情報が取得される場合に、操作ボタンを押した回数が競われてもよい。要するに、これらの入力情報によって示される量が比較されることで競う演出が行われる。 The above-mentioned competitive production is not limited to competing for the number of comments. For example, the number of characters in a comment or the number of specific keywords may be competed. Further, when voice is input, the volume of the voice, the duration of the voice, or the like may be competed. Further, when the input information indicating the operation of pressing the operation button is acquired, the number of times the operation button is pressed may be competed. In short, the effect of competing is performed by comparing the amounts indicated by these input information.
本変形例の入力反映部409(第1絞込部403及び第2絞込部404)は、第1条件を満たす第1入力情報が示す量と第2条件を満たす第2入力情報が示す量との差分が閾値以上である場合、その差分が小さくなるように第1条件又は第2条件を変更する。例えば図8に表す文字列リストを用いて絞り込みが行われ、中国の視聴者のコメント数の方が多く且つ差分が閾値以上であるものとする。
The input reflection unit 409 (first narrowing
その場合、第2絞込部404は、例えば図8に表す3つの文字列のうち2つだけを用いて絞り込みを行うことで、絞り込まれる第2入力情報が少なくなるようにし、差分を小さくする。また、それ以外にも、例えば第1絞込部403が、図8に表す4つの文字列に、予め用紙されていた文字列を加えて絞り込みを行ってもよい。その場合も、絞り込まれる第1入力情報が多くなるので、差分が小さくなる。
In that case, the second narrowing-down
上記のとおり調整した条件も、視聴者に明示されてもよいし、明示されなくてもよい。条件が明示されていなければ、視聴者は、競争が接戦になることはそれほど多くはないことから、接戦になって盛り上がっている競争に偶然参加できたという幸運を感じることができる。また、条件が明示されている場合でも、視聴者は、接戦になる演出がされているため有利な状態が逆転されやすいことを前提に競争を楽しむことができる。 The conditions adjusted as described above may or may not be specified to the viewer. If the conditions are not specified, viewers can feel fortunate that they happened to be able to participate in the exciting competition because the competition is not so often close. In addition, even if the conditions are clearly stated, the viewer can enjoy the competition on the premise that the advantageous state is likely to be reversed because the production is such that the battle is close.
[2−6]コンテンツの第1部分及び第2部分
入力反映部409は、実施例では、コンテンツの第1部分及び第2部分として異なるキャラクタの一部を変化させたが、これに限らない。入力反映部409は、例えば、同じキャラクタの異なる部分(例えばキャラクタA1の頭部分及び土台部分等)を第1部分及び第2部分として変化させてもよい。
[2-6] First Part and Second Part of Content The
また、入力反映部409は、キャラクタ以外の画像(背景及び付属物等)の一部を第1部分及び第2部分として変化させてもよい。例えばキャラクタが舞台で踊るコンテンツにおいては、舞台及び照明が第1部分及び第2部分であってもよい。また、キャラクタ同士が武器を持って戦うコンテンツにおいては、日本のキャラクタが持つ手裏剣及び中国のキャラクタが持つヌンチャクが第1部分及び第2部分であってもよい。
Further, the
また、日本のキャラクタのセリフと中国のキャラクタのセリフが第1部分及び第2部分であってもよい。また、日本のキャラクタの動き(例えば忍者の動き)と中国のキャラクタの動き(例えばカンフーの動き)が第1部分及び第2部分であってもよい。要するに、コンテンツにおいて異なる部分の変化に互いの入力情報が用いられていることが分かるようになっていれば、どの部分が第1部分及び第2部分として用いられてもよい。 Further, the lines of the Japanese character and the lines of the Chinese character may be the first part and the second part. Further, the movement of the Japanese character (for example, the movement of the ninja) and the movement of the Chinese character (for example, the movement of kung fu) may be the first part and the second part. In short, any part may be used as the first part and the second part as long as it can be understood that the input information of each other is used for the change of different parts in the content.
[2−7]共通部分に反映
入力反映部409は、実施例では、コンテンツの第1部分及び第2部分としてコンテンツのうち異なる部分を変化させたが、共通部分(例えば同じキャラクタの同じ部分)を変化させてもよい。また、入力反映部409は、常に共通部分を変化させるのではなく、特定の入力情報についてだけ共通部分を変化させてもよい。
[2-7] Reflection in common part In the embodiment, the
本変形例では、入力反映部409(コンテンツ生成部407)は、第1条件を満たす第1入力情報と、その第1条件に対応付けられた条件を第2条件として満たす第2入力情報とが取得された場合、コンテンツのうちその第1入力情報に対応付けられた内容を反映させる部分及びその第2入力情報に対応付けられた内容を反映させる部分を共通にする。例えば第1配信システム3及び第2配信システム4で表示されるボタンが異なる場合がある。
In this modification, the input reflection unit 409 (content generation unit 407) contains the first input information satisfying the first condition and the second input information satisfying the condition associated with the first condition as the second condition. When acquired, the part of the content that reflects the content associated with the first input information and the part that reflects the content associated with the second input information are shared. For example, the buttons displayed in the
図16は本変形例で表示される操作ボタンの一例を表す。図16の例では、第2配信システム4のユーザ端末30のコンテンツ出力部301が、コンテンツ及びコメントの入力用の画像の他に、「真棒!」と書かれた評価ボタンB6と、「平凡」と書かれた評価ボタンB7と、「不好」と書かれた評価ボタンB8とを表示している。第1配信システム3においては、図13に表すボタンが表示されるものとする。
FIG. 16 shows an example of the operation buttons displayed in this modified example. In the example of FIG. 16, the
例えば評価ボタンB3及びB6は、どちらもコンテンツを高く評価する場合に押すボタンであるが、書かれた言葉の意味は似てはいるが言語が異なるのだから完全に一致するわけではない。そこで、入力反映部409は、例えば評価ボタンB3を押した場合に満たされる第1条件と評価ボタンB6を押した場合に満たされる第2条件とを対応付けておき、どちらのボタンが押された場合もコンテンツの同じ部分に反映させる。
For example, the evaluation buttons B3 and B6 are both buttons to be pressed when the content is highly evaluated, but they do not completely match because the written words have similar meanings but different languages. Therefore, the
また、入力反映部409は、第1条件及び第2条件を1対1で対応付けるだけでなく、1対N(Nは自然数)、N対1又はN対Nで対応付けてもよい。例えば評価ボタンB3を押した場合に満たされる第1条件と評価ボタンB6、B7を押した場合に満たされる第2条件とを対応付けておくことで、中国の視聴者が「真棒!」及び「平凡」と評価した場合はいずれも日本の視聴者が「すごい!」と評価した場合と同じ部分に反映されることになる。
Further, the
本変形例においては、互いの入力情報が似ているときにはコンテンツの同じ部分に反映させることができる。その結果、各配信システムが提供する機能の違い及び言語の違い等により各配信システムの視聴者が厳密には同じ入力を行うことができない場合でも、2つの双方向サービスの視聴者が同じ部分を変化させる(いわゆる協力プレーを行う)ことができる。 In this modification, when the input information is similar to each other, it can be reflected in the same part of the content. As a result, even if the viewers of each distribution system cannot make exactly the same input due to the difference in the functions provided by each distribution system and the difference in language, the viewers of the two interactive services can input the same part. It can be changed (so-called cooperative play).
[2−8]ユーザ属性の活用
第1配信システム3及び第2配信システム4が視聴者の属性をユーザ属性として収集している場合がある。その場合に、入力反映部409は、ユーザ属性を利用して入力情報を絞り込んでもよい。
[2-8] Utilization of User Attributes The
図17は本変形例において実現される機能構成の一例を表す。図17の例では、図5に表す各部に加えてユーザ属性記憶部105を備える第1配信装置10bと、図5に表す各部に加えてユーザ属性記憶部205を備える第2配信装置20bとが表されている。ユーザ属性記憶部105は、自システム(第1配信システム3)を利用するユーザについて登録された属性(ユーザ属性)を記憶する。ユーザ属性記憶部205は、自システム(第2配信システム4)を利用するユーザについて登録された属性(ユーザ属性)を記憶する。
FIG. 17 shows an example of the functional configuration realized in this modified example. In the example of FIG. 17, a
ユーザ属性記憶部105及びユーザ属性記憶部205は、例えば、ユーザの性別、年齢、居住地域、職業及び趣味等をユーザ属性としてユーザIDに対応付けて記憶する。本変形例では、ユーザ端末30が自端末を利用するユーザのユーザIDをコメントデータと共に配信装置に送信する。入力情報取得部101は、そのコメントデータが示すコメント及びユーザIDを取得する。
The user attribute storage unit 105 and the user
入力情報取得部101は、取得したユーザIDに対応付けて記憶されているユーザIDをユーザ属性記憶部105から読み出し、取得した入力情報(コメント)と共にコンテンツ提供装置40に送信する。第1入力情報取得部401は、第1配信装置10bから送信されてきた入力情報(第1入力情報)及びユーザ属性を取得する。同様にして、第2入力情報取得部402は、第2配信装置20bから送信されてきた入力情報(第2入力情報)及びユーザ属性を取得する。
The input
これらのユーザ属性は、第1配信システム3及び第2配信システム4の視聴者の属性を示す情報であり、本発明の「属性情報」の一例である。本変形例では、第1入力情報取得部401及び第2入力情報取得部402が協働することで本発明の「属性取得部」の一例として機能する。取得されたユーザ属性は入力情報と共に入力反映部409(第1絞込部403及び第2絞込部404)に供給される。
These user attributes are information indicating the attributes of the viewers of the
入力反映部409(第1絞込部403)は、第1入力情報のうち、第1属性を示すユーザ属性が取得された視聴者により入力されたものに対応付けられた内容を反映させる。また、入力反映部409(第2絞込部404)は、第2入力情報のうち、例えば第1属性とは異なる第2属性を示す属性情報が取得された視聴者により入力されたものに対応付けられた内容を反映させる。 The input reflection unit 409 (first narrowing-down unit 403) reflects the content associated with the first input information input by the viewer who has acquired the user attribute indicating the first attribute. Further, the input reflection unit 409 (second narrowing-down unit 404) corresponds to the second input information input by the viewer, for example, in which the attribute information indicating the second attribute different from the first attribute is acquired. Reflect the attached contents.
具体的には、入力反映部409は、例えば日本については10代の視聴者による第1入力情報に絞り込み、中国については20代の視聴者による第2入力情報に絞り込む。また、入力反映部409は、日本は東日本在住の視聴者の第1入力情報に絞り込み、中国は華中及び華南在住の視聴者の第2入力情報に絞り込んでもよい。これらの絞り込みが行われることで、視聴者全体で協力又は競争を行うのではなく、特定の属性の視聴者同士で協力又は競争を行うという演出を行うことができる。
Specifically, the
[2−9]翻訳
実施例では、第1入力情報及び第2入力情報が、互いに異なる言語で入力される文章を示す情報であった。この場合に、入力反映部409(コンテンツ生成部407)は、第1入力情報に対応付けられた内容として、その第1入力情報を第2入力情報の言語に翻訳した文章を反映させてもよい。
[2-9] Translation In the embodiment, the first input information and the second input information are information indicating sentences input in different languages. In this case, the input reflection unit 409 (content generation unit 407) may reflect a sentence obtained by translating the first input information into the language of the second input information as the content associated with the first input information. ..
また、入力反映部409(コンテンツ生成部407)は、第2入力情報に対応付けられた内容として、その第2入力情報を第1入力情報の言語に翻訳した文章を反映させてもよい。具体的には、入力反映部409は、日本語のコメントを中国語に翻訳した文章をコンテンツに反映させ、中国語のコメントを日本語に翻訳した文章をコンテンツに反映させる。
Further, the input reflection unit 409 (content generation unit 407) may reflect a sentence obtained by translating the second input information into the language of the first input information as the content associated with the second input information. Specifically, the
図18は本変形例において表示されるコンテンツの一例を表す。図18の例では、第1配信システム3のユーザ端末30のコンテンツ出力部301が、日本の視聴者のコメント及び中国の視聴者のコメントを翻訳した文章合わせたコメント群F7を含むコンテンツC7を表示している。この例では、翻訳された文章には下線が施されており、元々日本語でされたコメントと区別できるようになっている。
FIG. 18 shows an example of the content displayed in this modification. In the example of FIG. 18, the
本変形例では、図12の例のように翻訳が行われることなくコメントが表示される場合に比べて、全てのコメントの意味を理解しながらコンテンツを楽しむことができる。一方、図12の例においては、翻訳がされない分、外国語を話す視聴者(中国の視聴者)と参加体験を共有しているという日常ではあまりない体験を提供することができる。なお、本変形例及び図12の例においては、いずれの場合も、図14において説明した両配信システムの絞込機能を活用することが望ましい。 In this modified example, the content can be enjoyed while understanding the meaning of all the comments, as compared with the case where the comments are displayed without translation as in the example of FIG. On the other hand, in the example of FIG. 12, since the translation is not performed, it is possible to provide a rare experience of sharing the participation experience with a foreign language-speaking viewer (Chinese viewer). In both the modified example and the example of FIG. 12, it is desirable to utilize the narrowing-down function of both distribution systems described in FIG.
[2−10]投稿の反映
入力反映部409は、入力情報に対応付けられた内容として、その入力情報を入力した視聴者によるSNS(Social Networking Service)の投稿をコンテンツに反映させてもよい。入力反映部409は、例えば図13に表す投稿ボタンB5を押す操作を示す入力情報が取得された場合に、その操作を行ったユーザの投稿をコンテンツに反映する。
[2-10] Reflection of Posts The
また、本変形例では、第2配信システム4においてもユーザの投稿をコンテンツに反映するための投稿ボタンが表示されているものとする。例えば実施例のように視聴者の住んでいる地域(国)が異なっていると、利用するSNSも異なっている場合がある。その場合に、入力反映部409は、第1入力情報に対応付けられた内容として、その第1入力情報を入力した視聴者によるSNS(第1SNS)の投稿を反映させる。
Further, in this modification, it is assumed that the posting button for reflecting the user's posting in the content is also displayed in the
そして、入力反映部409は、第2入力情報に対応付けられた内容として、その第2入力情報を入力した視聴者によるSNS(第2SNS:第1SNSとは別のSNS)の投稿を反映させる。
図19は本変形例において表示されるコンテンツの一例を表す。図19の例では、第1配信システム3のユーザ端末30のコンテンツ出力部301が、第1SNSの投稿画像G3及び第2SNSの投稿画像G4とを含むコンテンツC8を表示している。
Then, the
FIG. 19 shows an example of the content displayed in this modified example. In the example of FIG. 19, the
投稿画像G3の左側には、第1SNSのアイコン画像G5及び投稿者のID「xxx」が表示され、投稿画像G4の左側には、第2SNSのアイコン画像G6及び投稿者のID「yyy」が表示されている。投稿画像G3及びアイコン画像G5は、第1SNSへのリンクになっており、投稿画像G4及びアイコン画像G6は、第2SNSへのリンクになっている。つまり、入力反映部409は、SNSの投稿を反映させると共に、そのSNSへのリンクも反映させている。
The icon image G5 of the first SNS and the poster ID "xxx" are displayed on the left side of the posted image G3, and the icon image G6 of the second SNS and the poster ID "yyy" are displayed on the left side of the posted image G4. Has been done. The posted image G3 and the icon image G5 are links to the first SNS, and the posted image G4 and the icon image G6 are links to the second SNS. That is, the
SNSへの投稿者の中には、自分の投稿の閲覧者(フォロワー)を増やすことに熱心な者がいる。そのような投稿者が視聴者である場合には、自分の投稿がコンテンツに反映されることで、自分の投稿を他の視聴者に知ってもらう機会を得ることができる。また、本変形例では、上記例のように、各配信システムの視聴者が異なるSNSを主に利用している場合に、それらのSNSの投稿をコンテンツに反映させることができる。 Some SNS contributors are enthusiastic about increasing the number of viewers (followers) of their posts. If such a contributor is a viewer, the content reflects his or her post, giving an opportunity for other viewers to know about his or her post. Further, in this modified example, when the viewers of each distribution system mainly use different SNSs as in the above example, the posts of those SNSs can be reflected in the content.
[2−11]各機能を実現する装置
図5等に表す各機能を実現する装置は、上述した装置に限らない。例えば、第1配信装置10及びコンテンツ提供装置40が実現する機能を1台の装置で実現してもよい。その場合はその1台の装置が本発明の「情報処理装置」の一例となる。また、その装置がさらに第2配信装置20の機能を実現してもよい。要するに、コンテンツ配信システム1の全体で 図5等に表す各機能が実現されていればよい。
[2-11] Device for Realizing Each Function The device for realizing each function shown in FIG. 5 and the like is not limited to the above-mentioned device. For example, the functions realized by the
[2−12]発明のカテゴリ
本発明は、第1配信装置10、第2配信装置20及びコンテンツ提供装置40のような情報処理装置の他、それらの情報処理装置と複数のユーザ端末30とを備える情報処理システムとしても捉えられる。なお、情報処理システムとしての範囲はこれに限らない。例えば、第1配信装置10及びコンテンツ提供装置40だけを備える情報処理システムとしても捉えられるし、第1配信装置10、第2配信装置20及びコンテンツ提供装置40を備える情報処理システムとしても捉えられる。
[2-12] Category of Invention In the present invention, in addition to information processing devices such as the
また、本発明は、前述した各装置が実施する処理を実現するための情報処理方法としても捉えられるし、それらの装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。 Further, the present invention can be regarded as an information processing method for realizing the processing performed by each of the above-mentioned devices, and also as a program for operating a computer that controls those devices. This program may be provided in the form of a recording medium such as an optical disk that stores it, or may be provided in the form of being downloaded to a computer via a network such as the Internet and installed and made available. May be done.
[2−13]機能ブロック
なお、上記実施例の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。
[2-13] Functional block The block diagram used in the description of the above embodiment shows a block for each functional unit. These functional blocks (components) are realized by any combination of at least one of hardware and software. Further, the method of realizing each functional block is not particularly limited.
すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 That is, each functional block may be realized by using one device that is physically or logically connected, or directly or indirectly (for example, by two or more devices that are physically or logically separated). , Wired, wireless, etc.) and may be realized using these plurality of devices. The functional block may be realized by combining the software with the one device or the plurality of devices.
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。例えば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and assumption. There are broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc., but only these. I can't. For example, a functional block (constituent unit) for functioning transmission is called a transmitting unit or a transmitter. As described above, the method of realizing each of them is not particularly limited.
[2−14]入出力の方向
情報等(※「情報、信号」の項目参照)は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。
[2-14] Input / output direction information and the like (* see the item of "information, signal") can be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input / output may be performed via a plurality of network nodes.
[2−15]入出力された情報等の扱い
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-15] Handling of input / output information and the like The input / output information and the like may be stored in a specific location (for example, a memory) or may be managed using a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.
[2−16]判定方法
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
[2-16] Judgment method Judgment may be performed by a value represented by 1 bit (0 or 1), may be performed by a boolean value (Boolean: true or false), or may be a numerical value. (For example, comparison with a predetermined value) may be performed.
[2−17]情報の通知、シグナリング
情報の通知は、本開示において説明した態様/実施例に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。
[2-17] Information notification and signaling Information notification is not limited to the embodiments / examples described in the present disclosure, and may be performed by using other methods. For example, information notification includes physical layer signaling (for example, DCI (Downlink Control Information), UCI (Uplink Control Information)), upper layer signaling (for example, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, etc. It may be carried out by notification information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. Further, the RRC signaling may be referred to as an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, or the like.
[2−18]処理手順等
本開示において説明した各態様/実施例の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
[2-18] Processing Procedures, etc. The order of the processing procedures, sequences, flowcharts, etc. of each aspect / embodiment described in the present disclosure may be changed as long as there is no contradiction. For example, the methods described in the present disclosure present elements of various steps using exemplary order, and are not limited to the particular order presented.
[2−19]入出力された情報等の扱い
入出力された情報等は特定の場所(例えばメモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-19] Handling of input / output information and the like The input and output information and the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.
[2−20]ソフトウェア
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
[2-20] Software Software, whether referred to as software, firmware, middleware, microcode, hardware description language, or by any other name, is an instruction, instruction set, code, code segment, program code, program. , Subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, functions, etc. should be broadly interpreted.
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Further, software, instructions, information and the like may be transmitted and received via a transmission medium. For example, a website where the software uses at least one of wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and wireless technology (infrared, microwave, etc.). When transmitted from a server, or other remote source, at least one of these wired and wireless technologies is included within the definition of transmission medium.
[2−21]情報、信号
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
[2-21] Information, Signals The information, signals, etc. described in the present disclosure may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.
なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。 The terms described in the present disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings. For example, at least one of a channel and a symbol may be a signal (signaling). Also, the signal may be a message. Further, the component carrier (CC: Component Carrier) may be referred to as a carrier frequency, a cell, a frequency carrier, or the like.
[2−22]システム、ネットワーク
本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
[2-22] System, Network The terms "system" and "network" used in this disclosure are used interchangeably.
[2−23]パラメータ、チャネルの名称
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。
[2-23] Parameters, Channel Names The information, parameters, etc. described in the present disclosure may be represented using absolute values or relative values from predetermined values. However, it may be represented using other corresponding information. For example, the radio resource may be one indicated by an index.
上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。 The names used for the above parameters are not limited in any respect. Further, mathematical formulas and the like using these parameters may differ from those explicitly disclosed in this disclosure. Since the various channels (eg, PUCCH, PDCCH, etc.) and information elements can be identified by any suitable name, the various names assigned to these various channels and information elements are in any respect limited names. is not it.
[2−24]「判断」、「決定」
本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。
[2-24] "Judgment", "Decision"
The terms "determining" and "determining" as used in this disclosure may include a wide variety of actions. "Judgment" and "decision" are, for example, judgment (judging), calculation (calculating), calculation (computing), processing (processing), derivation (deriving), investigating (investigating), search (looking up, search, inquiry). (For example, searching in a table, database or another data structure), ascertaining may be regarded as "judgment" or "decision".
また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" mean that the things such as solving, selecting, choosing, establishing, and comparing are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision". Further, "judgment (decision)" may be read as "assuming", "expecting", "considering" and the like.
[2−25]「に基づいて」の意味
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
[2-25] Meaning of "based on" The term "based on" used in the present disclosure does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".
[2−26]「異なる」
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
[2-26] "Different"
In the present disclosure, the term "A and B are different" may mean "A and B are different from each other". The term may mean that "A and B are different from C". Terms such as "separate" and "combined" may be interpreted in the same way as "different".
[2−27]「及び」、「又は」
本開示において、「A及びB」でも「A又はB」でも実施可能な構成については、一方の表現で記載された構成を、他方の表現で記載された構成として用いてもよい。例えば「A及びB」と記載されている場合、他の記載との不整合が生じず実施可能であれば、「A又はB」として用いてもよい。
[2-27] "and", "or"
In the present disclosure, for configurations that can be implemented by either "A and B" or "A or B", the configuration described in one expression may be used as the configuration described in the other expression. For example, when "A and B" are described, they may be used as "A or B" as long as they are not inconsistent with other descriptions and can be implemented.
[2−28]態様のバリエーション等
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
[2-28] Variations of Aspects, etc. Each aspect / embodiment described in the present disclosure may be used alone, in combination, or switched with execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。従って、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it is clear to those skilled in the art that the present disclosure is not limited to the embodiments described in the present disclosure. The present disclosure may be implemented as an amendment or modification without departing from the purpose and scope of the present disclosure, which is determined by the description of the scope of claims. Therefore, the description of the present disclosure is for the purpose of exemplary explanation and does not have any limiting meaning to the present disclosure.
1…コンテンツ配信システム、3…第1配信システム、4…第2配信システム、10…第1配信装置、20…第2配信装置、30…ユーザ端末、40…コンテンツ提供装置、101…入力情報取得部、102…コンテンツ取得部、103…コンテンツ重畳部、104…入力情報絞込部、105…ユーザ属性記憶部、201…入力情報取得部、202…コンテンツ取得部、203…コンテンツ重畳部、204…入力情報絞込部、205…ユーザ属性記憶部、301…コンテンツ出力部、302…入力受付部、401…第1入力情報取得部、402…第2入力情報取得部、403…第1絞込部、404…第2絞込部、405…第1反映画像生成部、406…第2反映画像生成部、407…コンテンツ生成部、408…コンテンツ送信部、409…入力反映部。 1 ... Content distribution system, 3 ... 1st distribution system, 4 ... 2nd distribution system, 10 ... 1st distribution device, 20 ... 2nd distribution device, 30 ... User terminal, 40 ... Content providing device, 101 ... Input information acquisition Unit, 102 ... Content acquisition unit, 103 ... Content superimposition unit, 104 ... Input information narrowing unit, 105 ... User attribute storage unit, 201 ... Input information acquisition unit, 202 ... Content acquisition unit, 203 ... Content superimposition unit, 204 ... Input information narrowing unit, 205 ... User attribute storage unit, 301 ... Content output unit, 302 ... Input receiving unit, 401 ... First input information acquisition unit, 402 ... Second input information acquisition unit, 403 ... First narrowing unit , 404 ... 2nd narrowing unit, 405 ... 1st reflection image generation unit, 406 ... 2nd reflection image generation unit, 407 ... content generation unit, 408 ... content transmission unit, 409 ... input reflection unit.
Claims (3)
取得された前記第1コメントに対応付けられた内容を共通の前記コンテンツに含まれる同じ画像に反映させ、取得された前記第2コメントに対応付けられた内容を共通の前記コンテンツに含まれる同じ画像に反映させる反映部と、
前記反映部により内容が反映された前記画像を前記第1及び第2システムに送信する送信部と
を備える情報処理装置。 The first system in the first system of the first system and the second system that reflects the content associated with the comment input by the viewer of the content including the image in the content and distributes it to the registered user for each. comments and an input acquisition unit that acquires a second comment in the second system,
The content associated with the acquired first comment is reflected in the same image contained in the common of the content, the same includes the content associated with the acquired second comment on the content of the Common The reflection part to be reflected in the image and
An information processing device including a transmission unit that transmits the image whose contents are reflected by the reflection unit to the first and second systems.
取得された前記第1入力情報に対応付けられた内容及び取得された前記第2入力情報に対応付けられた内容をいずれも共通の前記コンテンツに反映させる反映部と、
前記反映部により内容が反映された共通の前記コンテンツを前記第1及び第2システムに送信する送信部と
を備え、
前記反映部は、前記第1システムに登録されたユーザについて取得された、第1条件で絞り込まれた前記第1入力情報に対応付けられた内容を反映して前記コンテンツの第1部分を変化させ、前記第2システムに登録されたユーザについて取得された、前記第1条件と共通の第2条件で絞り込まれた前記第2入力情報に対応付けられた内容を反映して当該コンテンツの前記第1部分とは異なる第2部分を変化させる
情報処理装置。 The first input information in the first system of the first system and the second system that reflects the content associated with the input information input by the viewer of the content in the content and distributes it to the registered user for each. And an input acquisition unit that acquires the second input information in the second system,
A reflection unit that reflects the content associated with the acquired first input information and the content associated with the acquired second input information in the common content.
With a transmission unit that transmits the common content whose content is reflected by the reflection unit to the first and second systems.
With
The reflection unit changes the first part of the content by reflecting the content associated with the first input information narrowed down by the first condition acquired for the user registered in the first system. The first of the contents, reflecting the contents associated with the second input information narrowed down by the second condition common to the first condition, acquired for the user registered in the second system. An information processing device that changes the second part, which is different from the part.
前記第1システムにおいてコンテンツを配信する第1配信装置であって、当該コンテンツの視聴者が入力した入力情報に対応付けられた内容を当該コンテンツに反映して配信する第1配信装置と
を備える情報処理システム。 The information processing device according to claim 1 or 2,
Information including a first distribution device that distributes content in the first system, and a first distribution device that reflects the content associated with the input information input by the viewer of the content in the content and distributes the content. Processing system.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018174985A JP6869215B2 (en) | 2018-09-19 | 2018-09-19 | Information processing equipment and information processing system |
PCT/JP2019/032824 WO2020059404A1 (en) | 2018-09-19 | 2019-08-22 | Information processing device, and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018174985A JP6869215B2 (en) | 2018-09-19 | 2018-09-19 | Information processing equipment and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020048071A JP2020048071A (en) | 2020-03-26 |
JP6869215B2 true JP6869215B2 (en) | 2021-05-12 |
Family
ID=69887215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018174985A Active JP6869215B2 (en) | 2018-09-19 | 2018-09-19 | Information processing equipment and information processing system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6869215B2 (en) |
WO (1) | WO2020059404A1 (en) |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07182317A (en) * | 1993-12-24 | 1995-07-21 | Sharp Corp | Document processor |
JP3767094B2 (en) * | 1997-06-17 | 2006-04-19 | 株式会社セガ | Display control method for a plurality of characters operated by a player in a video game apparatus |
JP3569201B2 (en) * | 2000-06-05 | 2004-09-22 | 株式会社スクウェア・エニックス | Computer-readable recording medium and method for recording a program for displaying a scene in which a specific character makes contact with another character, and a game apparatus |
JP4157902B1 (en) * | 2007-03-30 | 2008-10-01 | 株式会社コナミデジタルエンタテインメント | Game server device, game terminal device, subsidiary game management system, and subsidiary game management method |
US8904430B2 (en) * | 2008-04-24 | 2014-12-02 | Sony Computer Entertainment America, LLC | Method and apparatus for real-time viewer interaction with a media presentation |
JP5507831B2 (en) * | 2008-11-18 | 2014-05-28 | 株式会社タイトー | Game program and game machine |
JP2010211513A (en) * | 2009-03-10 | 2010-09-24 | Hideki Yoshioka | Animation contribution system |
JP5745247B2 (en) * | 2010-10-05 | 2015-07-08 | 任天堂株式会社 | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME CONTROL METHOD |
JP2012118919A (en) * | 2010-12-03 | 2012-06-21 | Linkt Co Ltd | Information provision system |
JP5854275B2 (en) * | 2012-03-30 | 2016-02-09 | ソニー株式会社 | Information processing apparatus and program |
WO2014068806A1 (en) * | 2012-11-05 | 2014-05-08 | 株式会社ソニー・コンピュータエンタテインメント | Information processing device |
JP2015220744A (en) * | 2014-05-20 | 2015-12-07 | 知安紀 原 | Communication system |
JP6451207B2 (en) * | 2014-10-28 | 2019-01-16 | セイコーエプソン株式会社 | Search server, search system, search method |
JP2016143099A (en) * | 2015-01-30 | 2016-08-08 | カシオ計算機株式会社 | Output data creation device and program |
JP6605827B2 (en) * | 2015-03-30 | 2019-11-13 | 株式会社バンダイナムコエンターテインメント | Server system |
JP6347769B2 (en) * | 2015-08-28 | 2018-06-27 | 株式会社ソニー・インタラクティブエンタテインメント | Event management server, information processing system, and event participation management method |
JP6308602B2 (en) * | 2016-01-12 | 2018-04-11 | 株式会社4Colors | Movie creation system, movie creation method, movie creation program |
JP2018010569A (en) * | 2016-07-15 | 2018-01-18 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2018128925A (en) * | 2017-02-09 | 2018-08-16 | 富士通株式会社 | Information output program, information output method and information output device |
JP6562991B2 (en) * | 2017-11-30 | 2019-08-21 | 株式会社バンダイナムコエンターテインメント | Server system and program |
-
2018
- 2018-09-19 JP JP2018174985A patent/JP6869215B2/en active Active
-
2019
- 2019-08-22 WO PCT/JP2019/032824 patent/WO2020059404A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2020048071A (en) | 2020-03-26 |
WO2020059404A1 (en) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022121601A1 (en) | Live streaming interaction method and apparatus, and device and medium | |
US10284705B2 (en) | Method and apparatus for controlling smart device, and computer storage medium | |
US9215506B2 (en) | Phrase-based communication system | |
US8191001B2 (en) | Shared virtual area communication environment based apparatus and methods | |
US20170293681A1 (en) | Techniques to respond to user requests using natural-language machine learning based on example conversations | |
US9526989B2 (en) | Method and apparatus for receiving game streaming data, and method and server for transmitting game streaming data | |
JP2023502859A (en) | Barrage processing method, device, electronic equipment and program | |
CN106254311A (en) | Live broadcasting method and device, live data streams methods of exhibiting and device | |
US20100165396A1 (en) | Information communication system, user terminal and information communication method | |
CN107294837A (en) | Engaged in the dialogue interactive method and system using virtual robot | |
CN113746874B (en) | Voice package recommendation method, device, equipment and storage medium | |
US12073056B2 (en) | Information processing method, information processing apparatus, and information processing program | |
KR102202574B1 (en) | User Interface Displaying Method for Device and Device Thereof | |
JP2016212860A (en) | Message service providing method for message service connected to search service, message server performing message service providing method, and user terminal | |
US20180250596A1 (en) | Interworking between scenario-based content of main device and external device | |
US20190149490A1 (en) | Information processing apparatus and non-transitory computer readable medium | |
US9536445B2 (en) | System and method for visually tracking a learned process | |
US20140123075A1 (en) | System and method for generating and accessing trails | |
US20240179377A1 (en) | Multimedia object sharing method, electronic device, and storage medium | |
KR20190104821A (en) | Server, device and method for providing avatar communication | |
KR20140004290A (en) | Recommandation method of friend and ctreation method of dynammic community using interest graph of music in social network | |
US20140122404A1 (en) | System and method for displaying a trail | |
JP6869215B2 (en) | Information processing equipment and information processing system | |
US20140118338A1 (en) | System and method for managing a trail | |
WO2017165253A1 (en) | Modular communications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201001 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6869215 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |