Nothing Special   »   [go: up one dir, main page]

JP7160513B2 - TERMINAL PROGRAM, TERMINAL DEVICE, AND INFORMATION PROCESSING METHOD - Google Patents

TERMINAL PROGRAM, TERMINAL DEVICE, AND INFORMATION PROCESSING METHOD Download PDF

Info

Publication number
JP7160513B2
JP7160513B2 JP2016113067A JP2016113067A JP7160513B2 JP 7160513 B2 JP7160513 B2 JP 7160513B2 JP 2016113067 A JP2016113067 A JP 2016113067A JP 2016113067 A JP2016113067 A JP 2016113067A JP 7160513 B2 JP7160513 B2 JP 7160513B2
Authority
JP
Japan
Prior art keywords
moving image
video
content
enlarged
video content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016113067A
Other languages
Japanese (ja)
Other versions
JP2017220763A (en
Inventor
一紀 中山
絵美 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016113067A priority Critical patent/JP7160513B2/en
Publication of JP2017220763A publication Critical patent/JP2017220763A/en
Application granted granted Critical
Publication of JP7160513B2 publication Critical patent/JP7160513B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、端末プログラム、端末装置、および、情報処理方法に関する。 The present invention relates to a terminal program , a terminal device, and an information processing method .

近年、インターネットの普及に伴い、様々な動画配信サービスが提供されるようになってきている。このような動画配信サービスを利用することで、ユーザは、好みの動画コンテンツ等を時間・場所を問わず容易に閲覧することができる。 In recent years, with the spread of the Internet, various video distribution services have come to be provided. By using such video distribution services, users can easily view their favorite video content regardless of time and place.

ここで、特許文献1には、ユーザの嗜好パターンに応じた番組を容易かつ迅速に提供可能とする技術について開示されている。 Here, Patent Document 1 discloses a technique for easily and quickly providing a program according to a user's preference pattern.

特開2015-136020号公報JP 2015-136020 A

しかしながら、上記の従来技術では、動画閲覧に関するユーザの満足度を向上させることができるとは限らない。例えば、上記の従来技術では、情報処理装置は、ユーザが閲覧しようと指定したコンテンツとは別の領域に、ユーザの嗜好パターンに合致した裏番組や所定の動画サイトに投稿された動画像を一覧表示する。 However, the conventional technology described above does not necessarily improve the user's satisfaction with viewing moving images. For example, in the above-described conventional technology, the information processing device displays a list of counterprograms that match the user's taste pattern and moving images posted on a predetermined video site in an area separate from the content that the user has designated to view. indicate.

このような上記の従来技術により、例えば、ユーザは視聴したい動画をより検索しやすくなる可能性があるものの、これによって必ずしも動画閲覧に関するユーザの満足度が向上するとは限らない。 For example, the conventional technology described above may make it easier for users to search for videos that they want to watch, but this does not necessarily improve the user's satisfaction with viewing videos.

本願は、上記に鑑みてなされたものであって、動画閲覧に関するユーザの満足度を向上させることができる配信装置、配信方法、配信プログラムおよび端末プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide a distribution apparatus, a distribution method, a distribution program, and a terminal program that can improve the user's satisfaction with viewing moving images.

本願にかかる端末プログラムは、端末装置に、複数の動画コンテンツから生成された1つの動画コンテンツであって、当該複数の動画コンテンツが同時再生される1つの動画コンテンツを配信装置から受信する受信手順と、前記受信手順により受信された1つの動画コンテンツに含まれる前記複数の動画コンテンツが同時再生されている状態で、同時再生されている前記複数の動画コンテンツのうち拡大表示されている動画コンテンツから、拡大表示されている当該動画コンテンツとは異なる他の動画コンテンツへと拡大表示を切り替えさせるユーザ操作に応じて、前記他の動画コンテンツとしての動画データであって、ユーザ操作が行われた時点に対応する再生位置以降の再生時間分の動画データのみが拡大表示されるよう制御する表示制御手順とを実行させることを特徴とする。 A terminal program according to the present application provides a terminal device with a reception procedure for receiving, from a distribution device, one piece of video content, which is generated from a plurality of pieces of video content and in which the plurality of pieces of video content are simultaneously reproduced. , in a state in which the plurality of moving image contents included in one moving image content received by the receiving procedure are being simultaneously reproduced, from the moving image content that is enlarged and displayed among the plurality of moving image contents that are being simultaneously reproduced, Moving image data as the other moving image content in response to a user operation for switching enlarged display to other moving image content different from the moving image content being enlarged and displayed, corresponding to the point in time when the user operation is performed. and a display control procedure for controlling to enlarge and display only moving image data corresponding to the playback time after the playback position .

実施形態の一態様によれば、動画閲覧に関するユーザの満足度を向上させることができるといった効果を奏する。 According to one aspect of the embodiment, it is possible to improve the user's satisfaction with viewing moving images.

図1は、実施形態にかかる動画生成処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of moving image generation processing according to an embodiment; 図2は、端末装置による表示再生制御処理の一例を示す図である。FIG. 2 is a diagram showing an example of display reproduction control processing by the terminal device. 図3は、実施形態にかかる配信処理システムの構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a distribution processing system according to the embodiment; 図4は、実施形態にかかる配信装置の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of a distribution device according to the embodiment; 図5は、実施形態にかかる動画コンテンツ記憶部の一例を示す図である。5 is a diagram illustrating an example of a video content storage unit according to the embodiment; FIG. 図6は、実施形態にかかる閲覧履歴記憶部の一例を示す図である。6 is a diagram illustrating an example of a browsing history storage unit according to the embodiment; FIG. 図7は、実施形態にかかる配信装置による動画生成処理の一例を示す概念図である。FIG. 7 is a conceptual diagram illustrating an example of moving image generation processing by the distribution device according to the embodiment; 図8は、実施形態にかかる端末装置の構成例を示す図である。FIG. 8 is a diagram illustrating a configuration example of a terminal device according to the embodiment; 図9は、実施形態にかかる配信装置による動画生成手順を示すフローチャートである。FIG. 9 is a flowchart illustrating a moving image generation procedure by the distribution device according to the embodiment; 図10は、動画広告の表示再生制御の一例を示す図である。FIG. 10 is a diagram illustrating an example of video advertisement display/playback control. 図11は、動画コンテンツに対する動画広告の挿入例を示す図である。FIG. 11 is a diagram showing an example of inserting a video advertisement into video content. 図12は、ユーザインタフェースの一例を示す図である。FIG. 12 is a diagram showing an example of a user interface. 図13は、配信装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 13 is a hardware configuration diagram showing an example of a computer that implements the functions of the delivery device.

以下に、本願にかかる配信装置、配信方法、配信プログラムおよび端末プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について、図面を参照しつつ詳細に説明する。なお、この実施形態により本願にかかる配信装置、配信方法、配信プログラムおよび端末プログラムが限定されるものではない。 Embodiments for implementing the distribution apparatus, distribution method, distribution program, and terminal program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the distribution apparatus, distribution method, distribution program, and terminal program according to the present application are not limited by this embodiment.

〔1.動画生成処理〕
まず、図1を用いて、実施形態にかかる動画生成処理について一例を用いて説明する。図1は、実施形態にかかる動画生成処理の一例を示す図である。図1では、配信装置100によって動画生成処理が行われる例を概念的に示す。
[1. Video generation processing]
First, with reference to FIG. 1, an example of moving image generation processing according to the embodiment will be described. FIG. 1 is a diagram illustrating an example of moving image generation processing according to an embodiment; FIG. 1 conceptually shows an example in which a video generation process is performed by the distribution device 100 .

配信装置100は、インターネットを介して、各種動画コンテンツを提供する動画サイト(「動画サイトY」とする)の配信を行うサーバ装置である。例えば、配信装置100は、ユーザによって利用される端末装置10から取得要求を受信した場合に、かかる端末装置10に動画サイトYを配信する。 The distribution device 100 is a server device that distributes a moving image site (referred to as “moving image site Y”) that provides various moving image contents via the Internet. For example, when receiving an acquisition request from a terminal device 10 used by a user, the distribution device 100 distributes the video site Y to the terminal device 10 .

また、配信装置100は、複数の動画コンテンツから、当該複数の動画コンテンツが同時再生されるような1つの動画コンテンツを生成する。例えば、配信装置100は、上記のような取得要求を受信した場合に、かかる1つの動画コンテンツを生成する。そして、配信装置100は、生成した1つ動画コンテンツを端末装置10に配信する。 Moreover, the distribution device 100 generates one moving image content from a plurality of moving image contents such that the plurality of moving image contents are reproduced simultaneously. For example, when the distribution device 100 receives the acquisition request as described above, the distribution device 100 generates such one moving image content. Then, the distribution device 100 distributes one generated video content to the terminal device 10 .

端末装置10は、ユーザによって利用される端末装置であり、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。例えば、端末装置10は、ユーザ操作に応じて、動画サイトYの取得要求を配信装置100に送信する。 The terminal device 10 is a terminal device used by a user. be. For example, the terminal device 10 transmits an acquisition request for the video site Y to the distribution device 100 according to the user's operation.

また、端末装置10には、各種動画コンテンツの再生および表示を行うアプリケーション、すなわち動画再生プレイヤー(「プレイヤーPL」とする)が予めインストールされているものとする。 In addition, it is assumed that an application for reproducing and displaying various moving image contents, ie, a moving image reproducing player (referred to as “player PL”) is preinstalled in the terminal device 10 .

さて、以下では、配信装置100によって行われる動画生成処理について具体的に説明する。実施形態にかかる配信装置100は、端末装置10に表示される動画コンテンツにおいて、テレビ番組のチャンネル切替操作(ザッピング等とよばれる)を実現するために、以下に示す動画生成処理を行う。 Now, the moving image generation processing performed by the distribution apparatus 100 will be specifically described below. The distribution apparatus 100 according to the embodiment performs the following moving image generation processing in order to realize a channel switching operation (called zapping or the like) of a television program in moving image content displayed on the terminal device 10 .

上記の通り、配信装置100は、動画コンテンツを提供するサーバ装置であるため、例えば、カテゴリに対応付けて各種動画コンテンツを格納している。なお、このように格納されている時点での動画コンテンツを、制御処理が加えられていない「オリジナルの動画コンテンツ」とする。 As described above, the distribution apparatus 100 is a server apparatus that provides moving image content, and therefore stores various moving image contents in association with categories, for example. Note that moving image content stored in this manner is referred to as "original moving image content" to which control processing has not been applied.

ここで、配信装置100は、ユーザU1によって利用される端末装置10から動画サイトYの取得要求を受信したものとする。なお、かかる取得要求は、以下に示す「1つの動画コンテンツ」の取得要求とも解することができるものとする。 Here, it is assumed that the distribution device 100 has received a request to acquire the video site Y from the terminal device 10 used by the user U1. It should be noted that such an acquisition request can also be interpreted as an acquisition request for "one video content" described below.

配信装置100は、取得要求を受け付けると、ユーザU1のユーザ属性に基づいて、動画コンテンツを抽出する。例えば、配信装置100は、ユーザU1が動画サイトYを利用して、これまでに閲覧した動画の閲覧履歴から、動画コンテンツに対するユーザU1の嗜好をユーザ属性として判定する。そして、配信装置100は、判定結果のユーザ属性に対応する動画コンテンツを抽出する。ここでは、配信装置100は、図1に示す9本の動画コンテンツC1~C9を抽出したものとする。 Upon receiving the acquisition request, distribution device 100 extracts video content based on the user attributes of user U1. For example, the distribution device 100 determines the preference of the user U1 for moving image content as a user attribute based on the viewing history of moving images that the user U1 has viewed so far using the moving image site Y. Then, the distribution device 100 extracts moving image content corresponding to the user attribute of the determination result. Here, it is assumed that distribution apparatus 100 has extracted nine moving image contents C1 to C9 shown in FIG.

動画コンテンツC1~C9それぞれの動画再生時間の長さ(以下、「動画時間」と表記する)は、必ずしも同一ではなく、それぞれ異なる場合がある。そこで、配信装置100は、まず、動画コンテンツC1~C9それぞれについて、動画時間を揃えるための処理を行う(ステップS1)。例えば、配信装置100は、図1に示すように、オリジナルの動画コンテンツC1~C9それぞれから再生時間「0分」~「3分」に対応する動画コンテンツを切り出すことにより、動画時間を「3分」に揃える。 The length of the video reproduction time (hereinafter referred to as "moving picture time") of each of the video contents C1 to C9 is not necessarily the same, and may differ from each other. Therefore, the distribution device 100 first performs processing for aligning the movie times for each of the movie contents C1 to C9 (step S1). For example, as shown in FIG. 1, the distribution apparatus 100 cuts out video content corresponding to reproduction times of "0 minutes" to "3 minutes" from each of original video content C1 to C9, thereby reducing the video time to "3 minutes." ”.

一般に、動画コンテンツは、動画データと音声データから形成される。したがって、オリジナルの動画コンテンツC1~C9から「3分」に相当する動画コンテンツを切り出すことは、「3分」分の動画データと音声データとを切り出すことを意味する。 In general, moving image content is formed from moving image data and audio data. Therefore, cutting out moving image content corresponding to "3 minutes" from the original moving image contents C1 to C9 means cutting out moving image data and audio data for "3 minutes".

ここで、図1では、オリジナルの動画コンテンツC1から切り出された後の動画コンテンツである短尺動画C11には、「3分」分の動画データ「VD1」と音声データ「SD1」とが含まれる例を示す。動画コンテンツC2~C9それぞれから切り出された動画コンテンツである短尺動画C21~C91についても同様であるため、これらについては説明を省略する。 Here, in FIG. 1, the short moving image C11, which is the moving image content extracted from the original moving image content C1, includes the moving image data “VD1” for “3 minutes” and the audio data “SD1”. indicates The same applies to the short moving images C21 to C91, which are the moving image contents cut out from the moving image contents C2 to C9, respectively, so the description thereof will be omitted.

なお、配信装置100が、このように動画コンテンツを切り出すのは、時間を揃えるためだけでなく、動画コンテンツにおいて、よりザッピングを実現しやすくするためでもある。例えば、ユーザは、ザッピングしている間は1つの番組をじっくり閲覧することはなく、直ぐに次の番組へと切り替えることを繰り返す。 It should be noted that the reason why the distribution apparatus 100 cuts out the video content in this way is not only to align the times, but also to make it easier to implement zapping in the video content. For example, the user does not peruse one program while zapping, and repeatedly switches to the next program immediately.

動画コンテンツでザッピングすることを想定した場合も、同様のことが考えられる。したがって、例えば、オリジナルの動画コンテンツの動画時間が「2時間」等と長い場合、「2時間」と長いオリジナルの動画コンテンツをそのまま用いる必要性は薄いことが考えられる。つまり、ザッピングを実現するためには、時間の長いオリジナルの動画コンテンツよりも、短く切り出した短尺動画の方が適しているといえる。 The same thing can be considered when zapping with video content is assumed. Therefore, for example, if the original moving image content has a long moving image time such as "2 hours", it is considered that there is little need to use the original moving image content as long as "2 hours" as it is. In other words, in order to implement zapping, it can be said that a short clipped video is more suitable than a long original video content.

このようなことから、配信装置100は、上記のように、オリジナルの動画コンテンツから再生時間「3分」で揃えた短尺動画を切り出す。なお、揃える再生時間は「3分」に限定されるものではなく、例えば、「5分」等であってもよい。 Therefore, as described above, the distribution device 100 cuts out short moving images with a playback time of "3 minutes" from the original moving image content. Note that the reproduction time to be aligned is not limited to "3 minutes", and may be, for example, "5 minutes".

次に、配信装置100は、短尺動画C11~C91それぞれに含まれる「3分」分の動画データVD1~VD9それぞれの画質を落とす(ステップS2)。具体的には、配信装置100は、動画データVD1~VD9それぞれのビットレートを落とす。 Next, the distribution device 100 lowers the image quality of each of the "three minutes" worth of video data VD1 to VD9 included in each of the short videos C11 to C91 (step S2). Specifically, the distribution device 100 lowers the bit rate of each of the video data VD1 to VD9.

次に、配信装置100は、画質を落とした動画データVD1~VD9を組み合わすことにより、1つの動画データを生成する(ステップS3)。例えば、配信装置100は、図1に示すように、動画データVD1~VD9を並べて組み合わすことにより、動画データVD1~VD9が並べられた1つの動画データを生成する。かかる1つの動画データを動画データSC1とする。動画データSC1は、9本の動画データVD1~VD9の集合体ではなく、動画データVD1~VD9が完全に組み合わせられた1つの動画データである。このため、例えば、端末装置10は、動画データVD1~VD9が並んで同時再生されるような態様で、動画データSC1を再生することとなる。 Next, the distribution device 100 generates one moving image data by combining the moving image data VD1 to VD9 with reduced image quality (step S3). For example, as shown in FIG. 1, the distribution apparatus 100 arranges and combines the moving image data VD1 to VD9 to generate one piece of moving image data in which the moving image data VD1 to VD9 are arranged. One piece of such moving image data is referred to as moving image data SC1. The moving image data SC1 is not an aggregate of nine pieces of moving image data VD1 to VD9, but one piece of moving image data in which the moving image data VD1 to VD9 are completely combined. Therefore, for example, the terminal device 10 reproduces the moving image data SC1 in such a manner that the moving image data VD1 to VD9 are displayed side by side and reproduced simultaneously.

また、配信装置100は、短尺動画C11~C91それぞれに含まれる「3分」分の音声データSD1~SD9を多重化する(ステップS4)。多重化された音声データを音声データMS1とする。 Further, the distribution device 100 multiplexes the audio data SD1 to SD9 for "3 minutes" included in each of the short moving images C11 to C91 (step S4). Let the multiplexed audio data be audio data MS1.

ここで、動画データSC1と音声データMS1とで構成される動画コンテンツが、配信装置100によって短尺動画C11~C91から生成された1つの動画コンテンツである。かかる1つの動画コンテンツを動画コンテンツC11-91とする。 Here, the moving image content composed of the moving image data SC1 and the audio data MS1 is one moving image content generated by the distribution device 100 from the short moving images C11 to C91. One such moving image content is referred to as moving image content C11-91.

そして、配信装置100は、動画データSC1と音声データMS1を所定の動画ファイル形式(例えば、MP4)のコンテナにパッケージする(ステップS5)。例えば、配信装置100は、「3分」分のオリジナルの動画コンテンツを1本格納するためのコンテナCTに、動画コンテンツC11-91をパッケージする。 Then, the distribution device 100 packages the moving image data SC1 and the audio data MS1 into a container of a predetermined moving image file format (for example, MP4) (step S5). For example, the distribution apparatus 100 packages the moving image content C11-91 in a container CT for storing one piece of original moving image content for "3 minutes".

ステップS3およびS4において、配信装置100が、画質を下げたり音声を多重化させたのは、動画コンテンツC11-91をオリジナルの動画コンテンツを1本格納するためのコンテナCTにパッケージ可能にするためである。つまり、動画コンテンツC11-91の容量を、「3分」のオリジナルの動画コンテンツ1本の容量に相当するものとするためである。 In steps S3 and S4, the distribution apparatus 100 lowers the image quality and multiplexes the audio so that the video content C11-91 can be packaged in a container CT for storing one piece of original video content. be. In other words, the capacity of the moving image content C11-91 is set to correspond to the capacity of one original moving image content of "3 minutes".

配信装置100は、複数の動画コンテンツから単純に動画コンテンツの集合体を生成するのではなく、完全に1つの動画コンテンツを生成するものである。このため、配信装置100は、見た目上だけでなく、容量的にも本来の動画コンテンツ1本に相当するものとする。 The distribution device 100 does not simply generate a group of moving image contents from a plurality of moving image contents, but generates a complete piece of moving image content. For this reason, the distribution apparatus 100 corresponds not only to appearance but also to one original video content in terms of capacity.

したがって、配信装置100は、複数の動画コンテンツの組み合わせによって、1つの動画コンテンツを生成するが、例えば、組み合わせ前の各動画コンテンツと比較して極端に容量の大きい動画コンテンツが得られてしまうことを防止できる。また、これにより配信装置100は、端末装置100による動画コンテンツの表示速度が遅くなることを防止できる。 Therefore, the distribution apparatus 100 generates one piece of video content by combining a plurality of pieces of video content. can be prevented. In addition, the distribution device 100 can thereby prevent the display speed of the moving image content by the terminal device 100 from being slowed down.

また、配信装置100は、ステップS5において、端末装置10に対して動画データVD5を拡大表示するよう指示したメタ情報MT1も同時に格納する。 In step S5, the distribution device 100 also stores the meta information MT1 instructing the terminal device 10 to enlarge and display the video data VD5.

そして、配信装置100は、コンテナCTを取得要求送信元の端末装置10に配信する(ステップS6)。 Then, the distribution device 100 distributes the container CT to the terminal device 10 that has sent the acquisition request (step S6).

端末装置10は、コンテナCTを受信すると、受信したコンテナCTのエンコード解析を行い動画コンテンツC11-91を展開する。そして、端末装置10は、メタ情報MT1に従い、動画コンテンツC11-91の表示再生制御を行う。 When the terminal device 10 receives the container CT, the terminal device 10 performs encoding analysis of the received container CT and expands the moving image content C11-91. Then, the terminal device 10 performs display/reproduction control of the video content C11-91 according to the meta information MT1.

ここで、図2に、端末装置10による表示再生制御処理の一例を示す。例えば、端末装置10にインストールされているプレイヤーPLが、メタ情報MT1で指示される表示態様の実現に対応していないものとする。かかる場合、プレイヤーPLは、動画コンテンツC11-91に含まれる動画データVD5を拡大表示することができない。 Here, FIG. 2 shows an example of display reproduction control processing by the terminal device 10. In FIG. For example, it is assumed that the player PL installed in the terminal device 10 does not support the implementation of the display mode instructed by the meta information MT1. In such a case, the player PL cannot enlarge and display the video data VD5 included in the video content C11-91.

そこで、端末装置10は、プレイヤーPLに対して、動画データSC1そのものを画面Dに全体表示した状態で、動画データSC1を動画再生し、かつ、動画データVD1に対応する音声データSD1を音声再生するよう制御する。 Therefore, the terminal device 10 reproduces the moving image data SC1 while the entire moving image data SC1 itself is displayed on the screen D, and also reproduces the audio data SD1 corresponding to the moving image data VD1. to control.

具体的には、ステップS3で説明したように、動画データSC1は、動画データVD1~VD9が並べて組み合されたものである。このため、図2(a)に示すように、画面Dの全体には、動画データVD1~VD9が並んで一覧表示される。また、ユーザ目線では、短尺動画C11~C91が同時再生されるように見える。 Specifically, as described in step S3, the moving image data SC1 is a combination of the moving image data VD1 to VD9 arranged side by side. Therefore, as shown in FIG. 2A, the moving image data VD1 to VD9 are displayed side by side on the entire screen D as a list. Also, from the user's perspective, the short moving images C11 to C91 appear to be played simultaneously.

次に、プレイヤーPLが、メタ情報MT1で指示される表示態様の実現に対応している場合について説明する。かかる場合、プレイヤーPLは、動画コンテンツC11-91に含まれる動画データVD5を拡大表示することができる。 Next, a case where the player PL is capable of implementing the display mode instructed by the meta information MT1 will be described. In such a case, the player PL can enlarge and display the video data VD5 included in the video content C11-91.

そこで、端末装置10は、プレイヤーPLに対して、動画データSC1の動画再生を開始した状態で、動画データVD5を画面Dの全体に拡大表示し、かつ、動画データVD5に対応する音声データSD5を音声再生するよう制御する。このため、図2(b)に示すように、画面Dの全体には、動画データVD5が拡大表示される。したがって、ユーザ目線では、短尺動画C11~C91のうち、短尺動画C51が画面Dの全体に拡大表示された状態で再生されるように見える。 Therefore, the terminal device 10 enlarges and displays the moving image data VD5 on the entire screen D in a state where the moving image reproduction of the moving image data SC1 is started, and displays the audio data SD5 corresponding to the moving image data VD5 to the player PL. Control to play audio. Therefore, the moving image data VD5 is enlarged and displayed on the entire screen D as shown in FIG. 2(b). Therefore, from the user's point of view, the short moving image C51, out of the short moving images C11 to C91, appears to be displayed enlarged on the entire screen D and reproduced.

また、端末装置10により図2(b)のように表示制御されている状態において、ユーザU1が、画面Dに対して、所定のユーザ操作(例えば、タップ操作)を行ったとする。かかる場合、端末装置10は、図2(c)に示すように、動画データVD5から、並び順が次の動画データVD6へと拡大表示を切り替えるとともに、動画データVD6に対応する音声データSD6へと音声再生を切り替えるよう制御する。 Assume that the user U1 performs a predetermined user operation (for example, a tap operation) on the screen D while the display is controlled by the terminal device 10 as shown in FIG. 2B. In this case, as shown in FIG. 2C, the terminal device 10 switches the enlarged display from the video data VD5 to the next video data VD6 in the order of arrangement, and also switches the display to the audio data SD6 corresponding to the video data VD6. Control to switch audio playback.

このように、ユーザ操作に応じて、拡大表示が切り替えられるとともに、音声再生が切替えられることがザッピングに相当する。具体的には、実施形態にかかる配信装置100は、拡大表示の切り替えを瞬時に行うことができるため、インターネットを介した動画コンテンツでのザッピングを実現することができる。 In this manner, switching between enlarged display and audio reproduction corresponds to zapping in accordance with a user operation. Specifically, since the distribution apparatus 100 according to the embodiment can instantaneously switch the enlarged display, it is possible to implement zapping in moving image content via the Internet.

配信装置100が、ユーザ操作に応じて、図2に示すような拡大表示の切り替えを瞬時に行えることができる点について、具体的に説明する。図1で説明してきたように、配信装置100は、ユーザ操作に応じて切り替えられる切替対象の複数の動画コンテンツから、1つの動画コンテンツを生成する。そして、配信装置100は、生成した1つの動画コンテンツを端末装置10に配信する。 The fact that the distribution apparatus 100 can instantaneously switch the enlarged display as shown in FIG. 2 according to the user's operation will be specifically described. As described with reference to FIG. 1, the distribution apparatus 100 generates one moving image content from a plurality of moving image contents to be switched according to a user operation. Then, the distribution device 100 distributes one generated video content to the terminal device 10 .

このため、端末装置10は、ユーザ操作が行われた場合に、切替対象の動画コンテンツを、例えば、サーバ側から取得するといった処理等を行わず、配信装置100から受信した1つの動画コンテンツであって、現在再生中のその1つの動画コンテンツの一部を拡大表示するに過ぎない。つまり、端末装置10は、切替対象の動画コンテンツの取得や、取得した動画コンテンツに対して、毎回エンコード解析等をする必要がないため、拡大表示の切替に時間を要しない。 For this reason, when a user operation is performed, the terminal device 10 does not perform processing such as acquiring the video content to be switched from the server side, for example, and uses only one video content received from the distribution device 100 . , it merely enlarges and displays a part of the one video content currently being reproduced. In other words, the terminal device 10 does not need to acquire moving image content to be switched, or perform encoding analysis or the like on the acquired moving image content each time, so switching between enlarged displays does not take time.

このようなことから、配信装置100は、端末装置10に対して、ユーザ操作に応じて、動画コンテンツの拡大表示の切り替えを瞬時に行わすことができるため、ザッピングを実現することができる。また、配信装置100は、ザッピングの実現により、動画閲覧に関するユーザの満足度を向上させることができる。また、配信装置100は、「動画を見たいが、何を見たいかは明確に決まっていない」(だからザッピングで決める)といったユーザを取り込む事ができる。 As described above, the distribution apparatus 100 can instantaneously switch the enlarged display of the moving image content according to the user's operation on the terminal device 10, and thus can realize zapping. In addition, the distribution apparatus 100 can improve user's satisfaction with viewing moving images by realizing zapping. In addition, the distribution apparatus 100 can capture users who say, "I want to watch a video, but I haven't decided exactly what I want to see" (so I decide by zapping).

〔2.配信処理システムの構成〕
次に、図3を用いて、実施形態にかかる配信処理システムの構成について説明する。図3は、実施形態にかかる配信処理システム1の構成例を示す図である。図3に示すように、配信処理システム1には、端末装置10と、配信装置100とが含まれる。端末装置10と、配信装置100とは、ネットワークNを介して、有線または無線により通信可能に接続される。なお、図3に示した配信処理システム1には、複数台の端末装置10、複数台の配信装置100が含まれてもよい。
[2. Configuration of Delivery Processing System]
Next, the configuration of the distribution processing system according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the distribution processing system 1 according to the embodiment. As shown in FIG. 3 , the distribution processing system 1 includes a terminal device 10 and a distribution device 100 . The terminal device 10 and the distribution device 100 are communicatively connected via a network N by wire or wirelessly. Note that the distribution processing system 1 shown in FIG. 3 may include a plurality of terminal devices 10 and a plurality of distribution devices 100 .

〔3.配信装置の構成〕
次に、図4を用いて、実施形態にかかる配信装置100について説明する。図4は、実施形態にかかる配信装置100の構成例を示す図である。図4に示すように、配信装置100は、通信部110と、記憶部120と、制御部130とを有する。
[3. Configuration of Distribution Device]
Next, the distribution device 100 according to the embodiment will be described using FIG. FIG. 4 is a diagram illustrating a configuration example of the distribution device 100 according to the embodiment. As shown in FIG. 4 , distribution device 100 includes communication unit 110 , storage unit 120 and control unit 130 .

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、端末装置10との間で情報の送受信を行う。
(Regarding communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits/receives information to/from the terminal device 10, for example.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、動画コンテンツ記憶部121と、閲覧履歴記憶部122とを有する。
(Regarding storage unit 120)
The storage unit 120 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, or a storage device such as a hard disk or an optical disk. Storage unit 120 has video content storage unit 121 and viewing history storage unit 122 .

(動画コンテンツ記憶部121について)
動画コンテンツ記憶部121は、動画サイトYを介してユーザが閲覧することのできる各種動画コンテンツを記憶する。ここで、図5に実施形態にかかる動画コンテンツ記憶部121の一例を示す。図5の例では、動画コンテンツ記憶部121は、「カテゴリ」、「動画ID」、「動画コンテンツ」、「動画時間」といった項目を有する。
(Regarding the video content storage unit 121)
The moving picture content storage unit 121 stores various moving picture contents that can be browsed by the user via the moving picture site Y. FIG. Here, FIG. 5 shows an example of the moving image content storage unit 121 according to the embodiment. In the example of FIG. 5, the video content storage unit 121 has items such as "category", "video ID", "video content", and "video time".

「カテゴリ」は、動画コンテンツが属するカテゴリを示す。「動画ID」は、動画コンテンツを識別するための識別情報を示す。「動画コンテンツ」は、動画コンテンツのデータを示す。図5の例では、「動画コンテンツ」として概念的な記号を用いているが、実際には、動画データや音楽データが記憶される。「動画時間」は、動画コンテンツの再生時間の長さを示す。 "Category" indicates the category to which the video content belongs. “Video ID” indicates identification information for identifying video content. “Video content” indicates data of video content. In the example of FIG. 5, a conceptual symbol is used as "moving image content", but actually moving image data and music data are stored. “Video time” indicates the length of playback time of video content.

すなわち、図5の例では、動画ID「C1」によって識別される動画コンテンツ「AAA」は、カテゴリ「映画」に属し、動画時間が「120分」である例を示す。なお、図1でも示したが、動画コンテンツを「動画ID」を用いて表記する。例えば、動画ID「C1」によって識別される動画コンテンツを、動画コンテンツC1と表記する。 That is, in the example of FIG. 5, the moving image content "AAA" identified by the moving image ID "C1" belongs to the category "movie" and the moving image time is "120 minutes". Note that, as shown in FIG. 1, moving image content is indicated using a “moving image ID”. For example, the video content identified by the video ID “C1” is referred to as video content C1.

(閲覧履歴記憶部122について)
閲覧履歴記憶部122は、動画サイトYを利用して動画コンテンツを閲覧したユーザの閲覧履歴を記憶する。ここで、図6に実施形態にかかる閲覧履歴記憶部122の一例を示す。図6の例では、閲覧履歴記憶部122は、「ユーザID」、「閲覧日時」、「閲覧動画」といった項目を有する。
(Regarding browsing history storage unit 122)
The viewing history storage unit 122 stores viewing histories of users who have viewed video content using the video site Y. FIG. Here, FIG. 6 shows an example of the browsing history storage unit 122 according to the embodiment. In the example of FIG. 6, the browsing history storage unit 122 has items such as "user ID", "browsing date and time", and "browsing video".

「ユーザID」は、動画サイトYを利用して動画コンテンツを閲覧したユーザのユーザIDを示す。「閲覧日時」は、動画コンテンツが閲覧された日時を示す。「閲覧動画」は、閲覧された動画の識別情報を示す。 “User ID” indicates the user ID of the user who used the video site Y to view the video content. “Browsing date and time” indicates the date and time when the video content was browsed. “Browsed movie” indicates identification information of the browsed movie.

すなわち、図6の例では、ユーザID「U1」によって識別されるユーザが、閲覧日時「2016年5月15日」に動画コンテンツ「C20」を閲覧したことを示す。 That is, the example of FIG. 6 indicates that the user identified by the user ID "U1" viewed the video content "C20" on the viewing date and time "May 15, 2016".

(制御部130について)
図4に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、配信装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Regarding the control unit 130)
Returning to FIG. 4, the control unit 130 executes various programs stored in a storage device inside the distribution apparatus 100 using a RAM as a work area by a CPU (Central Processing Unit), MPU (Micro Processing Unit), or the like. It is realized by Also, the control unit 130 is implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図4に示すように、制御部130は、受信部131と、抽出部132と、生成部133と、配信部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 4, the control unit 130 includes a receiving unit 131, an extracting unit 132, a generating unit 133, and a distributing unit 134, and implements or executes the information processing functions and actions described below. . Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 4, and may be another configuration as long as it performs information processing to be described later. Moreover, the connection relationship of each processing unit of the control unit 130 is not limited to the connection relationship shown in FIG. 4, and may be another connection relationship.

(受信部131について)
受信部131は、端末装置10から動画コンテンツの取得要求を受信する。例えば、受信部131は、図1で説明した複数の動画コンテンツから生成された1つの動画コンテンツの取得要求を受信する。
(Regarding the receiving unit 131)
The receiving unit 131 receives a video content acquisition request from the terminal device 10 . For example, the receiving unit 131 receives an acquisition request for one moving image content generated from a plurality of moving image contents described with reference to FIG.

(抽出部132について)
抽出部132は、端末装置10を用いて取得要求を送信したユーザに関するユーザ属性に基づいて、動画コンテンツ記憶部121から動画コンテンツを抽出する。例えば、受信部131によって、ユーザU1からの取得要求が受信されたとする。かかる場合、抽出部132は、閲覧履歴記憶部122および動画コンテンツ記憶部121を参照し、動画コンテンツに対するユーザU1の嗜好や閲覧傾向を判定する。
(Regarding the extraction unit 132)
The extraction unit 132 extracts video content from the video content storage unit 121 based on the user attributes of the user who has transmitted the acquisition request using the terminal device 10 . For example, assume that the receiving unit 131 receives an acquisition request from the user U1. In such a case, the extraction unit 132 refers to the browsing history storage unit 122 and the video content storage unit 121 to determine user U1's preference and viewing tendency for video content.

例えば、抽出部132は、これまでにユーザU1に閲覧された動画コンテンツが属するカテゴリを動画コンテンツ記憶部121から特定し、特定したカテゴリから動画コンテンツに対するユーザU1の嗜好や閲覧傾向(例えば、「映画好き」や「過去、1週間は映画をよく見ている」)を判定する。そして、抽出部132は、判定した嗜好や閲覧傾向をユーザU1のユーザ属性として、かかるユーザ属性に基づいて、動画コンテンツ記憶部121から動画コンテンツを抽出する。 For example, the extracting unit 132 identifies, from the moving image content storage unit 121, the category to which the moving image content that has been viewed by the user U1 so far belongs, and from the identified category, the user U1's preference and viewing tendency for moving image content (for example, "movie I like it" and "I've been watching movies a lot in the past week"). Then, the extracting unit 132 extracts the moving image content from the moving image content storage unit 121 based on the determined preference and viewing tendency as the user attribute of the user U1.

例えば、抽出部132は、ユーザU1がユーザ属性「映画好き」である場合には、動画コンテンツ記憶部121からカテゴリ「映画」が対応付けられた動画コンテンツを抽出する。抽出部132によって抽出される動画コンテンツの本数は任意であってよいが、本実施形態では、9本の動画コンテンツが抽出されるものとする。 For example, when the user U1 has the user attribute “movie lover”, the extracting unit 132 extracts moving image content associated with the category “movie” from the moving image content storage unit 121 . The number of moving image contents extracted by the extracting unit 132 may be arbitrary, but in this embodiment, nine moving image contents are extracted.

(生成部133について)
生成部133は、複数の動画コンテンツから、当該複数の動画コンテンツが同時再生されるような1つの動画コンテンツを生成する。具体的には、生成部133は、再生時間の長さを揃え、また、画質を下げた複数の動画コンテンツから、1つの動画コンテンツを生成する。
(Regarding the generation unit 133)
The generating unit 133 generates, from a plurality of moving image contents, one moving image content such that the plurality of moving image contents are reproduced simultaneously. Specifically, the generation unit 133 generates one piece of video content from a plurality of pieces of video content whose playback times are the same and whose image quality is lowered.

例えば、生成部133は、複数の動画コンテンツの再生時間が揃うように、複数の動画コンテンツの再生速度を調整し、調整後の複数の動画コンテンツの画質を下げる。このようにして、生成部133は、再生時間の長さを揃え、また、画質を下げた複数の動画コンテンツから、1つの動画コンテンツを生成する。また、生成部133は、複数の動画コンテンツに対応する音声データそれぞれを多重化する。 For example, the generation unit 133 adjusts the playback speeds of the plurality of moving image contents so that the playback times of the plurality of moving image contents are aligned, and lowers the image quality of the adjusted plurality of moving image contents. In this way, the generation unit 133 generates one piece of video content from a plurality of pieces of video content whose playback times are the same and whose image quality is lowered. In addition, the generation unit 133 multiplexes each audio data corresponding to a plurality of moving image contents.

なお、生成部133は、複数の動画コンテンツの再生時間が揃うように再生速度を調整する処理の一例として、複数の動画コンテンツそれぞれから所定の再生時間に対応する範囲を抽出する処理を行う。この点について、以下で具体的に説明する。 Note that the generation unit 133 performs a process of extracting a range corresponding to a predetermined reproduction time from each of the plurality of moving image contents, as an example of processing for adjusting the reproduction speed so that the reproducing times of the plurality of moving image contents are aligned. This point will be specifically described below.

まず、ユーザU1からの取得要求に応じて、抽出部132が、動画コンテンツC1~C9を抽出したとする。図5に示すように、動画コンテンツC1~C9は、それぞれ動画時間が異なる。したがって、まず、生成部133は、動画コンテンツC1~C9それぞれから共通する所定の時間分を切り出す(抽出する)ことにより、動画コンテンツC1~C9の動画時間を揃える。 First, it is assumed that the extraction unit 132 has extracted moving image contents C1 to C9 in response to an acquisition request from user U1. As shown in FIG. 5, the moving image contents C1 to C9 have different moving image times. Therefore, first, the generating unit 133 cuts (extracts) a predetermined common time from each of the moving image contents C1 to C9, thereby aligning the moving image times of the moving image contents C1 to C9.

図1に示すように、例えば、生成部133は、動画コンテンツC1~C9それぞれから再生時間「0分」~「3分」に対応する動画コンテンツを切り出すことにより、動画時間を「3分」に揃える。このように、動画時間を短く揃えられた動画コンテンツC1~C9が、短尺動画C11~C91である。 As shown in FIG. 1, for example, the generation unit 133 cuts out video content corresponding to reproduction times of “0 minutes” to “3 minutes” from each of video content C1 to C9, thereby reducing the video time to “3 minutes”. align. In this way, the moving image contents C1 to C9 whose moving image times are shortened are the short moving images C11 to C91.

また、生成部133は、動画コンテンツC1~C9それぞれから切り出して「3分」に揃えた動画コンテンツC1~C9、すなわち短尺動画C11~C91に含まれる動画データVD1~VD9それぞれの画質を落とす。また、生成部133は、短尺動画C11~C91に含まれる音声データSD1~SD9それぞれを多重化する。 In addition, the generating unit 133 reduces the image quality of each of the moving image data VD1 to VD9 included in the moving image contents C1 to C9 cut out from each of the moving image contents C1 to C9 and aligned to "3 minutes", that is, the short moving images C11 to C91. Further, the generation unit 133 multiplexes the audio data SD1 to SD9 included in the short moving images C11 to C91, respectively.

次に、複数の動画コンテンツから1つの動画コンテンツを生成する生成処理の一例について説明する。例えば、生成部133は、複数の動画コンテンツとして同時に再生される画像を含む1つの画像が再生されるように1つの動画コンテンツのフレームを生成する。この点について、図7を用いて説明する。 Next, an example of generation processing for generating one piece of video content from a plurality of pieces of video content will be described. For example, the generation unit 133 generates a frame of one moving image content so that one image including images reproduced simultaneously as a plurality of moving image content is reproduced. This point will be described with reference to FIG.

図7は、配信装置100による動画生成処理の一例を示す概念図である。なお、ここでは、説明を簡単にするために、複数の動画コンテンツとして、動画時間「3分」に揃え、画質を下げられた4つの短尺動画C11、C21、C41、C51を用いて説明する。 FIG. 7 is a conceptual diagram showing an example of moving image generation processing by the distribution device 100. As shown in FIG. For the sake of simplicity, four short videos C11, C21, C41, and C51 of which image quality has been reduced with the video time set to "3 minutes" will be used as the plurality of video contents.

図7に示すように、各動画コンテンツは、複数の静止画像から構成されるものである。例えば、短尺動画C11は、図7(a)に示すように、静止画像F1a~F1dから構成される。したがって、短尺動画C11に対応する動画データVD1は、静止画像F1a~F1dそれぞれの画像データの集合体といえる。短尺動画C21、C41、C51についても、図7(a)に示す通りである。 As shown in FIG. 7, each moving image content consists of a plurality of still images. For example, the short moving image C11 is composed of still images F1a to F1d as shown in FIG. 7(a). Therefore, the moving image data VD1 corresponding to the short moving image C11 can be said to be an aggregate of image data of the still images F1a to F1d. The short moving images C21, C41, and C51 are also shown in FIG. 7(a).

ここで、生成部133は、図7(b)に示すように、各短尺動画の1枚目の静止画像である静止画像F1a、F2a、F4a、F5aを組み合わせて、図7(c)に示すような1枚の静止画像F1-5aを生成する。同様に、生成部133は、各短尺動画の2枚目の静止画像である静止画像F1b、F2b、F4b、F5bを組み合わせて、1枚の静止画像F1-5bを生成する。また、生成部133は、各短尺動画の3枚目の静止画像である静止画像F1c、F2c、F4c、F5cを組み合わせて、1枚の静止画像F1-5cを生成する。また、生成部133は、各短尺動画の4枚目の静止画像である静止画像F1d、F2d、F4d、F5dを組み合わせて、1枚の静止画像F1-5dを生成する。 Here, as shown in FIG. 7B, the generation unit 133 combines the still images F1a, F2a, F4a, and F5a, which are the first still images of the respective short moving images, into the image shown in FIG. 7C. A single still image F1-5a is generated. Similarly, the generation unit 133 combines the still images F1b, F2b, F4b, and F5b, which are the second still images of the short moving images, to generate one still image F1-5b. The generation unit 133 also combines the still images F1c, F2c, F4c, and F5c, which are the third still images of the short moving images, to generate one still image F1-5c. The generating unit 133 also generates one still image F1-5d by combining the still images F1d, F2d, F4d, and F5d, which are the fourth still images of the short moving images.

そして、生成部133は、このように作成した一連の4枚の静止画像をエンコードした複数のフレームを生成し、図7(d)に示すように、生成したフレームを含む1つの動画データSC1とする。すなわち、生成部133は、動画データVD1、VD2、VD4、VD5のうち、同じ再生タイミングで表示される各静止画像を含む1つの静止画像を随時生成し、生成した静止画像を含む新たな動画コンテンツを生成する。以上のようにして、生成部133は、複数の動画コンテンツから1つの動画コンテンツを生成する。 Then, the generating unit 133 generates a plurality of frames obtained by encoding the series of four still images thus generated, and generates one moving image data SC1 including the generated frames as shown in FIG. do. That is, the generating unit 133 generates, at any time, one still image including each of the still images displayed at the same reproduction timing among the moving image data VD1, VD2, VD4, and VD5, and creates new moving image content including the generated still image. to generate As described above, the generation unit 133 generates one piece of video content from a plurality of pieces of video content.

なお、生成部133は、予測ベクトルに基づいて各静止画像を生成し、生成した静止画像を組み合わせてもよい。一例を示すと、生成部133は、静止画像F1aと、静止画像F1bに対応する予測ベクトルとから静止画像F1bを生成する。また、生成部133は、静止画像F1bと、静止画像F1cに対応する予測ベクトルとから静止画像F1cを生成する。また、生成部133は、静止画像F1cと、静止画像F1dに対応する予測ベクトルとから静止画像F1dを生成する。そして、生成部133は、短尺動画C21、C41、C51についても同様のことを行う。 Note that the generation unit 133 may generate each still image based on the prediction vector and combine the generated still images. As an example, the generation unit 133 generates a still image F1b from the still image F1a and the prediction vector corresponding to the still image F1b. Further, the generation unit 133 generates a still image F1c from the still image F1b and the prediction vector corresponding to the still image F1c. The generation unit 133 also generates a still image F1d from the still image F1c and the prediction vector corresponding to the still image F1d. Then, the generation unit 133 performs the same for the short moving images C21, C41, and C51.

(配信部134について)
配信部134は、生成部133によって生成された1つ動画コンテンツを配信する。具体的には、配信部134は、複数の動画コンテンツのうちのいずれかの動画コンテンツが拡大表示されるように1つの動画コンテンツを配信する。
(About distribution unit 134)
The distribution unit 134 distributes one video content generated by the generation unit 133 . Specifically, the distribution unit 134 distributes one moving image content such that one of the plurality of moving image contents is enlarged and displayed.

一例を示すと、配信部134は、生成部133によって生成された1つ動画コンテンツを所定の動画ファイル形式のコンテナに格納する。そして、配信部134は、1つ動画コンテンツを格納したコンテナを取得要求送信元の端末装置10に配信する。この点について、図1を用いて説明する。 As an example, the distribution unit 134 stores one moving image content generated by the generating unit 133 in a predetermined moving image file format container. Then, the distribution unit 134 distributes the container storing one video content to the terminal device 10 that is the source of the acquisition request. This point will be described with reference to FIG.

例えば、生成部133により、短尺動画C11~C91から、1つの動画データSC1が生成され、音声多重化により音声データMS1が得られたとする。動画データSC1と音声データMS1とで構成される動画コンテンツが、配信装置100によって短尺動画C11~C91から生成された1つの動画コンテンツ(動画コンテンツC11-91)である。 For example, it is assumed that the generation unit 133 generates one moving image data SC1 from the short moving images C11 to C91, and audio data MS1 is obtained by audio multiplexing. A moving image content composed of moving image data SC1 and audio data MS1 is one moving image content (moving image content C11-91) generated by distribution apparatus 100 from short moving images C11 to C91.

かかる場合、配信部134は、動画データSC1と音声データMS1を所定の動画ファイル形式(例えば、MP4)のコンテナにパッケージする。例えば、配信装置100は、「3分」分のオリジナルの動画コンテンツを1本格納するためのコンテナCTに、動画コンテンツC11-91をパッケージする。 In such a case, the distribution unit 134 packages the moving image data SC1 and the audio data MS1 into a container of a predetermined moving image file format (MP4, for example). For example, the distribution apparatus 100 packages the moving image content C11-91 in a container CT for storing one piece of original moving image content for "3 minutes".

また、配信部134は、端末装置10に対して、動画データSC1に含まれる動画データのうちのいずれかの動画データ(ここでは、動画データVD5とする)を拡大表示するよう指示したメタ情報MT1を生成する。そして、配信部134は、メタ情報MT1もコンテナCTに同封する。なお、メタ情報MT1は、生成部133によって生成されてもよい。そして、配信部134は、コンテナCTを取得要求送信元の端末装置10に配信する。 In addition, the distribution unit 134 instructs the terminal device 10 to enlarge and display any of the video data included in the video data SC1 (here, video data VD5). to generate The distribution unit 134 also encloses the meta information MT1 in the container CT. Note that the meta information MT1 may be generated by the generation unit 133. FIG. Then, the distribution unit 134 distributes the container CT to the terminal device 10 that has sent the acquisition request.

〔4.端末装置の構成〕
次に、図8を用いて、実施形態にかかる端末装置10について説明する。図8は、実施形態にかかる端末装置10の構成例を示す図である。図8に示すように、端末装置10は、通信部11と、制御部12とを有する。
[4. Configuration of terminal device]
Next, the terminal device 10 according to the embodiment will be described with reference to FIG. FIG. 8 is a diagram illustrating a configuration example of the terminal device 10 according to the embodiment. As shown in FIG. 8 , the terminal device 10 has a communication section 11 and a control section 12 .

(通信部11について)
通信部11は、例えば、NIC等によって実現される。そして、通信部11は、ネットワークNと有線または無線で接続され、例えば、配信装置100との間で情報の送受信を行う。
(Regarding communication unit 11)
The communication unit 11 is implemented by, for example, a NIC. The communication unit 11 is connected to the network N by wire or wirelessly, and transmits/receives information to/from the distribution device 100, for example.

(制御部12について)
制御部12は、CPUやMPU等によって、端末装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部12は、例えば、ASICやFPGA等の集積回路により実現される。
(Regarding the control unit 12)
The control unit 12 is realized by executing various programs stored in a storage device inside the terminal device 10 by the CPU, MPU, etc., using the RAM as a work area. Also, the control unit 12 is implemented by an integrated circuit such as an ASIC or FPGA, for example.

図8に示すように、制御部12は、受信部13と、アプリ制御部14とを有し、以下に説明する情報処理の機能や作用を実現または実行する。また、アプリ制御部14は、表示制御部14aと、送信部14bとを有する。また、アプリ制御部14は、動画再生を行うアプリケーションであるプレイヤーPLをインストールすることにより実行される処理部である。 As shown in FIG. 8, the control unit 12 has a receiving unit 13 and an application control unit 14, and realizes or executes information processing functions and actions described below. The application control unit 14 also has a display control unit 14a and a transmission unit 14b. Also, the application control unit 14 is a processing unit that is executed by installing a player PL, which is an application that reproduces moving images.

なお、制御部12の内部構成は、図8に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部12が有する各処理部の接続関係は、図8に示した接続関係に限られず、他の接続関係であってもよい。 Note that the internal configuration of the control unit 12 is not limited to the configuration shown in FIG. 8, and may be another configuration as long as it performs information processing described later. Further, the connection relationship between the processing units of the control unit 12 is not limited to the connection relationship shown in FIG. 8, and may be another connection relationship.

(受信部13について)
受信部13は、端末装置100によって配信された1つの動画コンテンツを受信する。例えば、受信部13は、配信装置100によって配信されたコンテナCTであって、1つの動画コンテンツである動画コンテンツC11-91が格納されたコンテナCTを受信する。また、受信部13は、受信したコンテナCTのエンコード解析を行うことにより、コンテナCT中の動画コンテンツC11-91を取り出すといった処理も行ってよい。
(Regarding the receiving unit 13)
The receiving unit 13 receives one video content distributed by the terminal device 100 . For example, the receiving unit 13 receives a container CT distributed by the distribution apparatus 100 and containing moving image content C11-91, which is one piece of moving image content. Further, the receiving unit 13 may perform processing such as extracting the moving image content C11-91 in the container CT by performing encoding analysis on the received container CT.

(表示制御部14aについて)
表示制御部14aは、受信部13により受信された1つの動画コンテンツに含まれる複数の動画コンテンツのうちのいずれかの動画コンテンツと対応する範囲を拡大表示させるよう制御する。この点について、図1および図2を用いて説明する。
(Regarding the display control unit 14a)
The display control unit 14a performs control to enlarge and display a range corresponding to one of a plurality of moving image contents included in one moving image content received by the receiving unit 13 . This point will be described with reference to FIGS. 1 and 2. FIG.

例えば、表示制御部14aは、動画コンテンツC11-91とともに格納されていたメタ情報MT1に従い、動画コンテンツC11-91の表示再生制御を行う。ここで、例えば、端末装置10にインストールされているプレイヤーPLが、メタ情報MT1で指示される表示態様、すなわち動画データVD5の拡大表示の実現に対応していないものとする。 For example, the display control unit 14a performs display/playback control of the moving image content C11-91 according to the meta information MT1 stored together with the moving image content C11-91. Here, for example, it is assumed that the player PL installed in the terminal device 10 does not support the display mode instructed by the meta information MT1, that is, the enlarged display of the video data VD5.

かかる場合、表示制御部14aは、プレイヤーPLに対して、図2(a)に示すように、動画データSC1そのものを画面Dに全体表示した状態で、動画データSC1を動画再生し、かつ、動画データVD1に対応する音声データSD1を音声再生するよう制御する。なお、表示制御部14aは、音声データSD1以外の音声データを再生させてもよい。 In such a case, the display control unit 14a causes the player PL to reproduce the moving image data SC1 as a moving image while displaying the entire moving image data SC1 itself on the screen D as shown in FIG. Control is performed to reproduce audio data SD1 corresponding to data VD1. Note that the display control unit 14a may reproduce audio data other than the audio data SD1.

また、プレイヤーPLが、メタ情報MT1で指示される表示態様、すなわち動画データVD5の拡大表示の実現に対応しているものとする。 It is also assumed that the player PL supports the display mode indicated by the meta information MT1, that is, the enlarged display of the video data VD5.

かかる場合、表示制御部14aは、プレイヤーPLに対して、動画データSC1の動画再生を開始した状態で、動画データVD5を画面Dの全体に拡大表示し、かつ、動画データVD5に対応する音声データSD5を音声再生するよう制御する。このため、図2(b)に示すように、画面Dの全体には、動画データVD5が拡大表示される。なお、動画データSC1を再生させることは、動画データSC1に含まれる動画データVD1~VD9を同時再生させることに相当するものである。 In this case, the display control unit 14a causes the player PL to display the moving image data VD5 in an enlarged manner on the entire screen D in a state where the moving image reproduction of the moving image data SC1 is started, and to display the audio data corresponding to the moving image data VD5. Control SD5 to play audio. Therefore, the moving image data VD5 is enlarged and displayed on the entire screen D as shown in FIG. 2(b). Note that reproducing the moving image data SC1 corresponds to simultaneously reproducing the moving image data VD1 to VD9 included in the moving image data SC1.

また、表示制御部14aは、同時再生されている複数の動画コンテンツのうちのいずれかの動画コンテンツが拡大表示されている場合に、ユーザ操作に応じて当該拡大表示されている動画コンテンツと対応する範囲から、他の動画コンテンツと対応する範囲へと拡大表示を切り替えるよう制御する。この点について、図2を用いて説明する。 Further, when any moving image content out of a plurality of simultaneously reproduced moving image contents is enlarged and displayed, the display control unit 14a responds to the enlarged and displayed moving image content according to the user operation. Control to switch the enlarged display from the range to the range corresponding to other video content. This point will be described with reference to FIG.

例えば、図2(b)のように、動画データVD5が拡大表示再生されている状態において、ユーザU1が、画面Dに対して、所定のユーザ操作(例えば、タップ操作)を行ったとする。かかる場合、表示制御部14aは、図2(c)に示すように、動画データVD5から、並び順が次の動画データVD6へと拡大表示を切り替えるとともに、動画データVD6に対応する音声データSD6へと音声再生を切り替えるよう制御する。 For example, assume that the user U1 performs a predetermined user operation (for example, a tap operation) on the screen D while the video data VD5 is being enlarged and reproduced as shown in FIG. 2B. In this case, as shown in FIG. 2C, the display control unit 14a switches the enlarged display from the moving image data VD5 to the next moving image data VD6 in the arrangement order, and also switches the display to the audio data SD6 corresponding to the moving image data VD6. and audio playback.

(送信部14bについて)
送信部14bは、複数の動画コンテンツのうち、現在拡大表示されている動画コンテンツが選択された場合に、選択された動画コンテンツに対応するオリジナルの動画コンテンツのうち、選択された際に再生されていた箇所よりも後の範囲の取得要求を送信する。
(Regarding the transmission unit 14b)
When a moving image content that is currently being enlarged and displayed is selected from among a plurality of moving image contents, the transmission unit 14b selects original moving image content corresponding to the selected moving image content, which is being reproduced when selected. Send a request to acquire the range after the specified location.

例えば、表示制御部14aは、短尺動画が拡大表示されている場合において、画面Dの所定箇所に「この動画を見る」とったボタンを表示させてもよい。例えば、ユーザU1が、動画データVD6が拡大表示再生されている場合において、再生時間「2分」のときに、「この動画を見る」と表記されたボタンを押下したとする。 For example, the display control unit 14a may display a button for "watch this video" at a predetermined location on the screen D when a short video is displayed in an enlarged manner. For example, assume that the user U1 presses the button labeled "Watch this video" when the video data VD6 is being enlarged and reproduced, and the playback time is "2 minutes".

かかる場合、送信部14bは、動画データVD6すなわち短尺動画V61に対するオリジナルの動画コンテンツである動画コンテンツC6の取得要求であって、再生時間「2分」以降に対応する動画コンテンツC6の取得要求を配信装置100に送信する。 In such a case, the transmitting unit 14b distributes a request to acquire the moving image content C6, which is the original moving image content for the moving image data VD6, that is, the short moving image V61, and corresponds to the reproduction time of "2 minutes" or later. Send to device 100 .

そして、例えば、配信装置100の抽出部132は、受信部131によって、かかる取得要求が受け付けられると、動画コンテンツ記憶部121から再生時間「2分」以降に対応する動画コンテンツC6を抽出する。そして、配信部134は、抽出部132により抽出された動画コンテンツC6を端末装置10に配信する。そして、端末装置10の表示制御部14aは、受信部13により受信された動画コンテンツC6が画面Dに表示されるよう表示制御する。 Then, for example, when the receiving unit 131 accepts the acquisition request, the extracting unit 132 of the distribution device 100 extracts the moving image content C6 corresponding to the playback time after “2 minutes” from the moving image content storage unit 121 . Then, the distribution unit 134 distributes the moving image content C6 extracted by the extraction unit 132 to the terminal device 10 . Then, the display control unit 14a of the terminal device 10 performs display control so that the moving image content C6 received by the receiving unit 13 is displayed on the screen D. FIG.

このように、配信装置100は、短尺動画においてユーザが視聴していたところに続くオリジナルの動画コンテンツを見せることができる。このため、配信装置100は、例えば、オリジナルの動画コンテンツにおいて、これまで短尺動画で視聴していた部分に続く部分を探さなければならないといった作業を省略させることができる。 In this way, the distribution device 100 can show the original moving image content that follows the user viewing the short moving image. Therefore, the distribution apparatus 100 can omit the work of searching for the part following the part that has been viewed in the short moving image, for example, in the original moving image content.

〔5.処理手順〕
次に、図9を用いて、実施形態にかかる配信装置100が実行する動画生成処理の手順について説明する。図9は、実施形態にかかる配信装置100による動画生成手順を示すフローチャートである。
[5. Processing procedure]
Next, a procedure of moving image generation processing executed by the distribution apparatus 100 according to the embodiment will be described with reference to FIG. 9 . FIG. 9 is a flowchart showing a moving image generation procedure by the distribution device 100 according to the embodiment.

まず、配信装置100の受信部131は、端末装置10から取得要求を受信したか否かを判定する(ステップS101)。受信部131は、取得要求を受信していないと判定した場合には(ステップS101;No)、受信するまで待機する。 First, the receiving unit 131 of the distribution device 100 determines whether or not an acquisition request has been received from the terminal device 10 (step S101). If the reception unit 131 determines that the acquisition request has not been received (step S101; No), it waits until it receives the acquisition request.

一方、受信部131によって取得要求が受信された場合には(ステップS101;Yes)、抽出部132は、取得要求送信元のユーザのユーザ属性に基づいて、動画コンテンツを抽出する(ステップS102)。例えば、抽出部132は、かかるユーザの過去の動画閲覧履歴から、かかるユーザの動画コンテンツに関するユーザ属性を特定する。そして、抽出部132は、特定したユーザ属性に基づいて、動画コンテンツを抽出する。 On the other hand, when the acquisition request is received by the receiving unit 131 (step S101; Yes), the extracting unit 132 extracts video content based on the user attributes of the user who sent the acquisition request (step S102). For example, the extraction unit 132 identifies a user attribute related to video content of the user from the user's past video browsing history. Then, the extraction unit 132 extracts video content based on the specified user attribute.

生成部133は、抽出部132によって抽出された複数の動画コンテンツの動画時間を揃える(ステップS103)。例えば、生成部133は、複数の動画コンテンツそれぞれから、共通する所定の再生時間分の動画コンテンツを切り出すことにより、動画時間を揃える。 The generating unit 133 aligns the moving image times of the plurality of moving image contents extracted by the extracting unit 132 (step S103). For example, the generation unit 133 aligns the video time by clipping video content for a common predetermined reproduction time from each of the plurality of video content.

また、生成部133は、動画時間を揃えた複数の短尺動画それぞれの画質を下げる(ステップS104)。例えば、生成部133は、短尺動画それぞれの動画データのビットレートを下げる。 In addition, the generating unit 133 lowers the image quality of each of the plurality of short moving images whose moving image times are aligned (step S104). For example, the generation unit 133 reduces the bit rate of the video data of each short video.

次に、生成部133は、短尺動画それぞれの音声を多重化する(ステップS105)。例えば、生成部133は、短尺動画それぞれの動画データを多重化する。そして、生成部133は、複数の短尺動画から1つの動画コンテンツを生成する(ステップS106)。例えば、生成部133は、複数の短尺動画それぞれの動画データであって、画質を落とした動画データを組み合わせることにより、1つの動画データを生成する。また、生成部133は、かかる1つの動画データと、多重化した音声データとを合わせて、1つの動画コンテンツとする。 Next, the generating unit 133 multiplexes the sound of each short moving image (step S105). For example, the generation unit 133 multiplexes the video data of each short video. Then, the generating unit 133 generates one moving image content from a plurality of short moving images (step S106). For example, the generating unit 133 generates one moving image data by combining moving image data of each of a plurality of short moving images with reduced image quality. In addition, the generation unit 133 combines the one moving image data and the multiplexed audio data to generate one moving image content.

そして、配信部134は、生成した1つの動画コンテンツをパッケージングする(ステップS107)。そして、配信部134は、パッケージングした1つの動画コンテンツを取得要求送信元の端末装置10に配信する(ステップS108)。 Then, the distribution unit 134 packages one generated moving image content (step S107). Then, the distribution unit 134 distributes one packaged moving image content to the terminal device 10 that has transmitted the acquisition request (step S108).

なお、ステップS104およびS105は、同時に行われてもよいし、順番が逆であってもよい。また、パッケージングは、生成部133によって行われてもよい。 Note that steps S104 and S105 may be performed at the same time, or the order may be reversed. Also, the packaging may be performed by the generation unit 133 .

〔6.変形例〕
上記実施形態にかかる配信装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、配信装置100の他の実施形態について説明する。
[6. Modification]
The distribution apparatus 100 according to the above embodiment may be implemented in various different forms other than the above embodiment. Therefore, another embodiment of the distribution device 100 will be described below.

〔6-1.配信と表示制御〕
配信部134は、所定の再生時間となった場合に、複数の動画コンテンツのうちの所定の動画コンテンツと対応する範囲が拡大表示されるように1つの動画コンテンツを配信してもよい。
[6-1. Distribution and display control]
The distribution unit 134 may distribute one moving image content so that a range corresponding to a predetermined moving image content out of the plurality of moving image content is enlarged and displayed when a predetermined reproduction time is reached.

一例を示すと、配信部134は、「VD5:1分30秒、VD6:2分30秒」といったメタ情報M2とともに、生成部133により生成された1つの動画コンテンツである動画コンテンツC11-91を配信する。かかるメタ情報MT2は、端末装置10に対して、動画コンテンツC11-91の再生時間が「1分30秒」となった場合に、動画データVD5を拡大表示再生させ、再生時間が「2分30秒」となった場合に、動画データVD6を拡大表示再生させるよう指示するものである。 As an example, the distribution unit 134 distributes video content C11-91, which is one video content generated by the generation unit 133, together with meta information M2 such as “VD5: 1 minute 30 seconds, VD6: 2 minutes 30 seconds”. To deliver. The meta information MT2 causes the terminal device 10 to reproduce the video data VD5 in enlarged display when the reproduction time of the video content C11-91 is "1 minute 30 seconds", and the reproduction time is "2 minutes 30 seconds". Seconds", it instructs to enlarge and reproduce the moving picture data VD6.

より具体的に説明する。例えば、端末装置10において動画コンテンツC11-91に対応する動画データSC1が動画再生されている状態で、現在、動画データVD4が拡大表示再生されているものとする。ここで、動画データSC1の再生時間が「1分30秒」になったとすると、表示制御部14aは、メタ情報MT2に従い、動画データVD4から、動画データVD5へと拡大表示再生を切り替えるとともに、動画データVD5に対応する音声データSD5へと音声再生を切り替えるよう制御する。 More specific description will be given. For example, it is assumed that the moving image data SC1 corresponding to the moving image content C11-91 is being reproduced in the terminal device 10, and the moving image data VD4 is currently being enlarged and reproduced. Here, assuming that the playback time of the video data SC1 has reached "1 minute and 30 seconds", the display control unit 14a switches the enlarged display playback from the video data VD4 to the video data VD5 according to the meta information MT2. Control is performed to switch audio reproduction to audio data SD5 corresponding to data VD5.

また、このように動画データVD5が拡大表示再生された状態で再生時間が経過し、動画データSC1の再生時間が「2分30秒」になったとする。かかる場合、表示制御部14aは、メタ情報M2に従い、動画データVD5から、動画データVD6へと拡大表示再生を切り替えるとともに、動画データVD6に対応する音声データSD6へと音声再生を切り替えるよう制御する。 It is also assumed that the playback time has passed while the moving image data VD5 is being enlarged and played back, and the playback time of the moving image data SC1 has reached "2 minutes and 30 seconds". In such a case, the display control unit 14a controls to switch the enlarged display reproduction from the moving image data VD5 to the moving image data VD6 and to switch the audio reproduction to the audio data SD6 corresponding to the moving image data VD6 according to the meta information M2.

これにより、配信装置100は、拡大表示させる短尺動画を自動で切り替えることができるため、1つの動画コンテンツに含まれる短尺動画をまんべんなくユーザに閲覧させることができる。 As a result, the distribution apparatus 100 can automatically switch the short moving images to be enlarged and displayed, so that the short moving images included in one piece of moving image content can be evenly viewed by the users.

〔6-2.広告配信(1)〕
動画コンテンツには、動画広告(例えば、コマーシャル)が挿入されている場合がある。ここでは、生成部133によって、動画時間が揃うように切り出された短尺動画に動画広告が挿入されていたとする。かかる場合、配信部134は、1つの動画コンテンツに含まれる複数の短尺動画のうち、広告コンテンツが挿入されている短尺動画の再生時間が当該広告コンテンツが挿入されている再生時間となった場合に、当該短尺動画と対応する範囲が拡大表示されるように制御された1つの動画コンテンツを配信する。この点について、図10を用いて説明する。なお、説明を簡単にするために、ここでは、4つの短尺動画から1つの動画コンテンツが生成されるものとする。
[6-2. Ad Delivery (1)]
Video content may include video advertisements (eg, commercials). Here, it is assumed that the generating unit 133 has inserted a video advertisement into short videos that have been cut out so that the video times are aligned. In such a case, when the reproduction time of a short video in which advertising content is inserted, among a plurality of short videos included in one video content, is equal to the reproduction time in which the advertising content is inserted, the distribution unit 134 , distributes one moving image content controlled so that the range corresponding to the short moving image is enlarged and displayed. This point will be described with reference to FIG. To simplify the explanation, it is assumed here that one moving image content is generated from four short moving images.

図10は、動画広告の表示再生制御の一例を示す図である。図10(a)では、生成部133により時間が揃えられた複数の動画コンテンツである短尺動画C11、C21、C41、C51のうち、短尺動画C21、C41、C51それぞれに動画広告CM21、動画広告CM41、動画広告CM51が挿入されている例を示す。また、生成部133により、短尺動画C11、C21、C41、C51から1つの動画コンテンツC11-51が生成されているものとする。 FIG. 10 is a diagram illustrating an example of video advertisement display/playback control. In FIG. 10A, among short videos C11, C21, C41, and C51, which are a plurality of video contents whose times have been aligned by the generating unit 133, video advertisement CM21 and video advertisement CM41 are shown in short videos C21, C41, and C51, respectively. , shows an example in which a video advertisement CM51 is inserted. It is also assumed that the generation unit 133 has generated one moving image content C11-51 from the short moving images C11, C21, C41, and C51.

図10(a)の例では、短尺動画C21には、再生時間「1分~1分10秒」の間に動画広告CM21が挿入されている。また、短尺動画C41には、再生時間「2分~2分10秒」の間に動画広告CM41が挿入されている。また、短尺動画51には、再生時間「3分~3分10秒」の間に動画広告CM51が挿入されている。 In the example of FIG. 10(a), the video advertisement CM21 is inserted in the short video C21 during the playback time "1 minute to 1 minute 10 seconds". In addition, a moving image advertisement CM41 is inserted in the short moving image C41 during the reproduction time of "2 minutes to 2 minutes and 10 seconds". In addition, a moving image advertisement CM 51 is inserted in the short moving image 51 during the reproduction time of “3 minutes to 3 minutes and 10 seconds”.

ここで、配信部134は、動画広告が挿入されている短尺動画と、動画広告が挿入されている時間位置、すなわち、短尺動画における動画広告の再生時間を示したメタ情報を生成する。上記例では、例えば、配信部134は、「C21:1分~1分10秒」、「C41:2分~2分10秒」、「C51:3分~3分10秒」を記載したメタ情報MT3を生成する。このようなメタ情報MT3は、端末装置10に対して、以下に示す表示再生制御を実行するよう指示するものである。そして、配信部134は、動画コンテンツC11-51とともに、生成したメタ情報MT3をコンテナCTにパッケージングし、端末装置10に配信する。 Here, the distribution unit 134 generates meta information indicating the short video in which the video advertisement is inserted and the time position at which the video advertisement is inserted, that is, the playback time of the video advertisement in the short video. In the above example, the distribution unit 134, for example, generates metadata describing “C21: 1 minute to 1 minute 10 seconds”, “C41: 2 minutes to 2 minutes 10 seconds”, and “C51: 3 minutes to 3 minutes 10 seconds”. Generate information MT3. Such meta information MT3 instructs the terminal device 10 to execute the display reproduction control described below. Then, the distribution unit 134 packages the generated meta information MT3 together with the moving image content C11-51 into the container CT and distributes it to the terminal device 10. FIG.

端末装置10の表示制御部14aは、まず、プレイヤーPLに対して、動画コンテンツC11-51の動画データの動画再生を開始した状態で、短尺動画C11に対応する動画データVD1を画面Dの全体に拡大表示し、かつ、短尺動画C11に対応する音声データSD1を音声再生するよう制御する。したがって、この時点では、端末装置10のユーザU1は、拡大表示されている短尺動画C11を閲覧していることになる。 First, the display control unit 14a of the terminal device 10 displays the moving image data VD1 corresponding to the short moving image C11 on the entire screen D in a state where the moving image data of the moving image content C11-51 has started to be played back to the player PL. Control is performed so that the display is enlarged and the audio data SD1 corresponding to the short moving image C11 is reproduced as audio. Therefore, at this point, the user U1 of the terminal device 10 is viewing the enlarged short video C11.

そして、短尺動画C11の動画再生が進み、再生時間が、短尺動画C21に挿入される動画広告CM21の再生開始時間「1分」となった場合に、表示制御部14aは、図10(a)に示すように、短尺動画C11から動画広告CM21へと拡大表示を自動で切り替える切替制御T1を実行する。かかる場合、ユーザU1は、図10(b)に示すように、拡大表示再生されていた短尺動画C11から、突然、動画広告CM21の拡大表示再生へと切り替えられる。 When the video advertisement CM21 inserted into the short video C21 is played for one minute as the video advertisement CM21 inserted into the short video C21 is reproduced, the display control unit 14a performs the following operations as shown in FIG. , switching control T1 is executed to automatically switch the enlarged display from the short moving image C11 to the moving image advertisement CM21. In such a case, as shown in FIG. 10B, the user U1 is suddenly switched from the enlarged display reproduction of the short video C11 to the enlarged display reproduction of the video advertisement CM21.

また、動画広告CM21の再生が進み、動画広告CM21の再生終了時間「1分10秒」となった場合に、表示制御部14aは、元々拡大表示されていた短尺動画C11へと拡大表示を切り替えるよう制御する。具体的には、表示制御部14aは、動画広告CM21から動画データVD1へと拡大表示を自動で切り替えるとともに、短尺動画C11に対応する音声データSD1へと音声再生を切り替える切替制御T2を実行する。かかる場合、ユーザU1は、図10(b)に示すように、拡大表示再生されていた動画広告CM21から、短尺動画C11の拡大表示再生へと切り替えられる。 Further, when the playback of the video advertisement CM21 progresses and the playback end time of the video advertisement CM21 reaches "1 minute 10 seconds", the display control unit 14a switches the enlarged display to the short video C11 that was originally enlarged and displayed. to control. Specifically, the display control unit 14a automatically switches the enlarged display from the video advertisement CM21 to the video data VD1, and executes switching control T2 for switching audio reproduction to the audio data SD1 corresponding to the short video C11. In such a case, as shown in FIG. 10(b), the user U1 is switched from the video advertisement CM21 being enlarged and reproduced to the enlarged display and reproduction of the short moving image C11.

そして、再生時間「1分10秒」以降、短尺動画C11の再生が進み、短尺動画C41に挿入される動画広告CM41の再生開始時間「2分」となった場合に、表示制御部14aは、図10(a)に示すように、短尺動画C11から動画広告CM41へと拡大表示を自動で切り替える切替制御T3を実行する。かかる場合、ユーザU1は、図10(b)に示すように、拡大表示再生されていた短尺動画C11から、突然、動画広告CM41の拡大表示再生へと切り替えられる。 After the playback time of "1 minute and 10 seconds", the playback of the short video C11 progresses, and when the playback start time of the video advertisement CM41 inserted into the short video C41 reaches "2 minutes", the display control unit 14a As shown in FIG. 10A, switching control T3 is executed to automatically switch the enlarged display from the short moving image C11 to the moving image advertisement CM41. In such a case, as shown in FIG. 10B, the user U1 is suddenly switched from the enlarged display reproduction of the short video C11 to the enlarged display reproduction of the video advertisement CM41.

また、動画広告CM41の再生が進み、動画広告CM41の再生終了時間「2分10秒」となった場合に、表示制御部14aは、元々拡大表示されていた短尺動画C11へと拡大表示を切り替えるよう制御する。具体的には、表示制御部14aは、動画広告CM41から動画データVD1へと拡大表示を自動で切り替えるとともに、短尺動画C11に対応する音声データSD1へと音声再生を切り替える切替制御T4を実行する。かかる場合、ユーザU1は、図10(b)に示すように、拡大表示再生されていた動画広告CM41から、短尺動画C11の拡大表示再生へと切り替えられる。 Further, when the playback of the video advertisement CM41 progresses and the playback end time of the video advertisement CM41 reaches "2 minutes and 10 seconds", the display control unit 14a switches the enlarged display to the short video C11 that was originally enlarged and displayed. to control. Specifically, the display control unit 14a automatically switches the enlarged display from the video advertisement CM41 to the video data VD1, and executes switching control T4 for switching audio reproduction to the audio data SD1 corresponding to the short video C11. In such a case, as shown in FIG. 10(b), the user U1 is switched from the video advertisement CM41 being enlarged and reproduced to the enlarged display and reproduction of the short moving image C11.

そして、再生時間「2分10秒」以降、短尺動画C11の再生が進み、短尺動画C51に挿入される動画広告CM51の再生開始時間「3分」となった場合に、表示制御部14aは、図10(a)に示すように、短尺動画C11から動画広告CM51へと拡大表示を自動で切り替える切替制御T5を実行する。かかる場合、ユーザU1は、図10(b)に示すように、拡大表示再生されていた短尺動画C11から、突然、動画広告CM51の拡大表示再生へと切り替えられる。 After the playback time of "2 minutes and 10 seconds", the playback of the short video C11 progresses, and when the playback start time of the video advertisement CM51 inserted in the short video C51 reaches "3 minutes", the display control unit 14a As shown in FIG. 10A, switching control T5 is executed to automatically switch the enlarged display from the short moving image C11 to the moving image advertisement CM51. In such a case, as shown in FIG. 10B, the user U1 is suddenly switched from the enlarged display reproduction of the short video C11 to the enlarged display reproduction of the video advertisement CM51.

また、動画広告CM51の再生が進み、動画広告CM51の再生終了時間「3分10秒」となった場合に、表示制御部14aは、元々拡大表示されていた短尺動画C11へと拡大表示を切り替えるよう制御する。具体的には、表示制御部14aは、動画広告CM51から動画データVD1へと拡大表示を自動で切り替えるとともに、短尺動画C11に対応する音声データSD1へと音声再生を切り替える切替制御T6を実行する。かかる場合、ユーザU1は、図10(b)に示すように、拡大表示再生されていた動画広告CM51から、短尺動画C11の拡大表示再生へと切り替えられる。 Further, when the playback of the video advertisement CM51 progresses and the playback end time of the video advertisement CM51 reaches "3 minutes and 10 seconds", the display control unit 14a switches the enlarged display to the short video C11 that was originally enlarged and displayed. to control. Specifically, the display control unit 14a automatically switches the enlarged display from the video advertisement CM51 to the video data VD1, and executes switching control T6 for switching audio reproduction to the audio data SD1 corresponding to the short video C11. In such a case, as shown in FIG. 10(b), the user U1 is switched from the video advertisement CM51 being enlarged and reproduced to the enlarged display and reproduction of the short moving image C11.

このように、ユーザは、動画コンテンツを閲覧中であっても、自動で動画広告へと切り替えられるため、半強制的に動画広告を閲覧させられることになる。つまり、配信装置100は、ユーザに対し動画広告をより閲覧させることができるため、動画広告の広告効果を高めることができる。 In this way, the user is automatically switched to the video advertisement even while viewing the video content, so that the user is semi-forced to view the video advertisement. In other words, the distribution device 100 can increase the advertising effect of the video advertisement, since the user can view the video advertisement more often.

〔6-3.広告配信(2)〕
上記変形例では、動画広告は、各動画コンテンツに予め挿入されているものとして説明した。しかし、生成部133は、複数の動画コンテンツにそれぞれに所定の広告コンテンツを挿入し、当該所定の広告コンテンツを挿入した複数の動画コンテンツから、1つの動画コンテンツを生成してもよい。この点について、図11を用いて説明する。
[6-3. Ad Delivery (2)]
In the modified example above, it is assumed that the video advertisement is pre-inserted into each video content. However, the generating unit 133 may insert predetermined advertising content into each of a plurality of moving image contents, and generate one moving image content from the plurality of moving image contents into which the predetermined advertising content is inserted. This point will be described with reference to FIG.

図11は、動画コンテンツに対する動画広告の挿入例を示す図である。まず、生成部133は、図11に示すように、短尺動画C11、C21、C41、C51を切り出すことにより動画時間を「5分」に揃えているものとする。 FIG. 11 is a diagram showing an example of inserting a video advertisement into video content. First, as shown in FIG. 11, the generating unit 133 cuts out the short moving images C11, C21, C41, and C51, thereby adjusting the moving image duration to "5 minutes."

ここで、生成部133は、短尺動画C11、C21、C41、C51に動画広告を挿入する。図示しないが、動画広告は、配信装置100における所定の記憶部(例えば、広告情報記憶部)に格納されているものとする。また、各短尺動画に挿入される動画広告は、生成部133によって抽出されてもよいし、抽出部132によって抽出されてもよい。 Here, the generation unit 133 inserts video advertisements into the short videos C11, C21, C41, and C51. Although not shown, it is assumed that the video advertisement is stored in a predetermined storage unit (for example, advertisement information storage unit) in the distribution device 100 . Also, the video advertisement inserted into each short video may be extracted by the generation unit 133 or may be extracted by the extraction unit 132 .

ここでは、生成部133が、動画広告の抽出も行うものとする。例えば、生成部133は、配信先のユーザの属性情報とのマッチングにより動画広告を抽出してもよいし、短尺動画の内容(カテゴリ)とのマッチングにより動画広告を抽出してもよい。すなわち、生成部133は、既存の任意の手法を用いて動画広告を抽出することができる。 Here, it is assumed that the generation unit 133 also extracts video advertisements. For example, the generation unit 133 may extract a video advertisement by matching with attribute information of a user to whom distribution is made, or may extract a video advertisement by matching with content (category) of a short video. That is, the generation unit 133 can extract the video advertisement using any existing method.

ここでは、生成部133は、短尺動画C11に挿入する動画広告として動画広告CM11-1を抽出し、短尺動画C21に挿入する動画広告として動画広告CM21-1を抽出し、短尺動画C41に挿入する動画広告として動画広告CM41-1を抽出し、短尺動画C51に挿入する動画広告として動画広告CM51-1を抽出したとする。 Here, the generation unit 133 extracts the video advertisement CM11-1 as the video advertisement to be inserted into the short video C11, extracts the video advertisement CM21-1 as the video advertisement to be inserted into the short video C21, and inserts it into the short video C41. Assume that the moving image advertisement CM41-1 is extracted as the moving image advertisement, and the moving image advertisement CM51-1 is extracted as the moving image advertisement to be inserted into the short moving image C51.

そして、生成部133は、各動画広告の再生時間をずらすように各動画広告を各短尺動画に挿入する。例えば、生成部133は、図11に示すように、短尺動画C11において再生時間「1分~1分20秒」の間に動画広告CM11-1を挿入する。また、生成部133は、短尺動画C11の再生時間途中「1分05秒」が再生開始時間となるように、短尺動画C21において再生時間「1分05秒~1分25秒」の間に動画広告CM21-1を挿入する。 Then, the generation unit 133 inserts each video advertisement into each short video so as to shift the reproduction time of each video advertisement. For example, as shown in FIG. 11, the generating unit 133 inserts the moving image advertisement CM11-1 in the short moving image C11 during the playback time "1 minute to 1 minute 20 seconds". In addition, the generating unit 133 generates a moving image during the playback time of "1 minute 05 seconds to 1 minute 25 seconds" in the short moving image C21 so that the playback start time is "1 minute 05 seconds" in the middle of the playback time of the short moving image C11. Advertisement CM21-1 is inserted.

また、生成部133は、短尺動画C21の再生時間途中「1分10秒」が再生開始時間となるように、短尺動画C41において再生時間「1分10秒~1分30秒」の間に動画広告CM41-1を挿入する。また、生成部133は、短尺動画C41の再生時間途中「1分15秒」が再生開始時間となるように、短尺動画C51において再生時間「1分15秒~1分35秒」の間に動画広告CM51-1を挿入する。 In addition, the generation unit 133 generates a moving image during the playback time "1 minute 10 seconds to 1 minute 30 seconds" in the short moving image C41 so that the playback start time is "1 minute 10 seconds" in the middle of the playback time of the short moving image C21. Advertisement CM41-1 is inserted. In addition, the generation unit 133 generates a moving image during the playback time of "1 minute 15 seconds to 1 minute 35 seconds" in the short moving image C51 so that the playback start time is "1 minute 15 seconds" in the middle of the playback time of the short moving image C41. Advertisement CM51-1 is inserted.

そして、生成部133は、上記のように動画広告を挿入した各短尺動画から1つの動画コンテンツC11-51を生成する。そして、配信部134は、例えば、短尺動画C11に対応する動画データVD1を拡大表示するよう指示したメタ情報とともに、動画コンテンツC11-51をコンテナCTに格納して端末装置10に配信する。 Then, the generating unit 133 generates one moving image content C11-51 from each short moving image in which the moving image advertisement is inserted as described above. Then, the distribution unit 134 stores the moving image content C11-51 in the container CT and distributes it to the terminal device 10 together with the meta information instructing the enlarged display of the moving image data VD1 corresponding to the short moving image C11.

これにより、端末装置10のユーザU1は、初めに拡大表示再生される短尺動画C11を閲覧することになるが、再生時間が「1分」になったところで動画広告CM11-1を見せられることになる。 As a result, the user U1 of the terminal device 10 first browses the short moving image C11 that is enlarged and reproduced, but is shown the moving image advertisement CM11-1 when the reproduction time reaches "1 minute". Become.

ここで、例えば、ユーザは、テレビ番組を見ている最中にコマーシャルが入ると、他の番組へとチャンネルを切り替える傾向がある。かかる変形例は、このようなユーザの特性を利用して、半強制的に動画広告を見せようとするものである。 Here, for example, users tend to switch channels to other programs when a commercial comes on while they are watching a TV program. Such a modified example utilizes such user's characteristics to show a video advertisement semi-forcedly.

具体的には、上記のように、再生時間が「1分」になったところで動画広告CM11-1が表示されるため、例えば、ユーザU1は、ユーザ操作を行うことにより、短尺動画C21へと拡大表示を切り替えたとする。このユーザ操作を行ったのが再生時間「1分05秒」辺りであったとすると、短尺動画C21へと拡大表示を切り替えたとしても、ユーザU1は、動画広告CM21-1を見なければならないことになる。 Specifically, as described above, the video advertisement CM11-1 is displayed when the playback time reaches "1 minute". Suppose that the enlarged display is switched. Assuming that this user operation was performed around the playback time of "1 minute 05 seconds", even if the enlarged display is switched to the short video C21, the user U1 must view the video advertisement CM21-1. become.

このため、さらにユーザU1は、ユーザ操作を行うことにより、短尺動画C41へと拡大表示を切り替えたとする。このユーザ操作を行ったのが再生時間「1分10秒」辺りであったとすると、短尺動画C41へと拡大表示を切り替えたとしても、ユーザU1は、動画広告CM41-1を見なければならないことになる。 Therefore, it is assumed that the user U1 further switches the enlarged display to the short moving image C41 by performing a user operation. Assuming that this user operation is performed at a playback time of about 1 minute 10 seconds, even if the enlarged display is switched to the short video C41, the user U1 must view the video advertisement CM41-1. become.

そして、さらにユーザU1は、ユーザ操作を行うことにより、短尺動画C51へと拡大表示を切り替えたとする。このユーザ操作を行ったのが再生時間「1分15秒」辺りであったとすると、短尺動画C51へと拡大表示を切り替えたとしても、ユーザU1は、動画広告CM51-1を見なければならないことになる。 Further, it is assumed that the user U1 switches the enlarged display to the short moving image C51 by performing a user operation. Assuming that this user operation is performed at a playback time of about 1 minute 15 seconds, even if the enlarged display is switched to the short video C51, the user U1 must view the video advertisement CM51-1. become.

結果として、ユーザU1は、どの短尺動画でも動画広告が表示されているため、短尺動画の表示が再開されるまで、いずれかの動画広告を見て待機しようとする。このように、配信装置100は、ユーザに対し動画広告を半強制的に閲覧させることができるため、動画広告の広告効果を高めることができる。 As a result, since the video advertisement is displayed in all the short videos, the user U1 tries to watch one of the video advertisements and wait until the display of the short videos is resumed. In this way, the distribution device 100 can make the user view the video advertisement semi-forcedly, so that the advertising effect of the video advertisement can be enhanced.

なお、上記例では、生成部133が、各広告動画を再生時間をずらして挿入する例を示した。しかし、生成部133は、複数の動画コンテンツにおける所定の再生時刻に広告コンテンツを挿入してもよい。すなわち、生成部133は、各広告動画の再生時間を統一するように挿入してもよい。そして、配信部134は、所定の再生時刻となった場合に、複数の動画コンテンツが一覧表示されるように制御された1つの動画コンテンツを配信する。 In addition, in the above example, the generation unit 133 shows an example in which the advertisement moving images are inserted with their reproduction times shifted. However, the generating unit 133 may insert advertising content at predetermined playback times in a plurality of video content. That is, the generation unit 133 may insert so as to unify the reproduction time of each advertisement moving image. Then, when a predetermined playback time comes, the distribution unit 134 distributes one moving image content controlled so that a list of a plurality of moving image contents is displayed.

例えば、生成部133は、短尺動画C11において再生時間「1分~1分20秒」の間に動画広告CM11-1を挿入する。また、生成部133は、短尺動画C21においても再生時間「1分~1分20秒」の間に動画広告CM21-1を挿入する。 For example, the generation unit 133 inserts the moving image advertisement CM11-1 in the short moving image C11 during the playback time "1 minute to 1 minute 20 seconds". The generation unit 133 also inserts the video advertisement CM21-1 in the short video C21 during the playback time "1 minute to 1 minute 20 seconds".

また、生成部133は、短尺動画C41においても再生時間「1分~1分20秒」の間に動画広告CM41-1を挿入し、短尺動画C51においても再生時間「1分~1分20秒」の間に動画広告CM51-1を挿入する。 The generating unit 133 also inserts the video advertisement CM41-1 between the playback time of "1 minute to 1 minute 20 seconds" in the short video C41, , the moving image advertisement CM51-1 is inserted between .

また、かかる場合、端末装置10の表示制御部14aは、動画コンテンツC11-51において、いずれかの短尺動画を拡大表示再生している場合であっても、上記のように統一された再生時間「1分~1分20秒」の間は、短尺動画C11、C21、C41、C51を、例えば、図2(a)に示すように一覧表示させる。これにより、配信装置100は、ユーザに対し同時に複数の動画広告を閲覧させることができる。 Further, in such a case, the display control unit 14a of the terminal device 10, even when any of the short moving images in the moving image content C11-51 is being enlarged and reproduced, the unified reproduction time " 1 minute to 1 minute 20 seconds”, short moving images C11, C21, C41, and C51 are displayed as a list, for example, as shown in FIG. 2(a). Accordingly, the distribution device 100 can allow the user to view multiple video advertisements at the same time.

〔6-4.広告配信(3)〕
また、生成部133は、複数の動画コンテンツにおいて、広告コンテンツを含む範囲を選択し、選択した範囲を用いて、1つの動画コンテンツを生成してもよい。例えば、生成部133は、動画時間を揃えるために、オリジナルの動画コンテンツから短尺動画を切り出す際に、オリジナルの動画コンテンツにおいて動画広告の挿入されている部分を切り出すことによって、動画広告の挿入された短尺動画とする。
[6-4. Ad Delivery (3)]
In addition, the generating unit 133 may select a range including advertising content in a plurality of moving image contents, and generate one moving image content using the selected range. For example, in order to align the video time, the generation unit 133 cuts out a portion in which the video advertisement is inserted in the original video content when cutting out a short video from the original video content. Make it a short video.

このとき、生成部133は、図11で説明したように、各動画広告が再生開始されるタイミングをずらすように短尺動画を切り出してもよい。また、生成部133は、各動画広告の再生時間を統一するように短尺動画を切り出してもよい。そして、生成部133は、上記のように切り出した動画広告から1つの動画コンテンツを生成する。 At this time, as described with reference to FIG. 11, the generating unit 133 may cut out the short moving images so that the timings at which the respective moving image advertisements start to be reproduced are staggered. In addition, the generation unit 133 may cut out the short video so as to unify the playback time of each video advertisement. Then, the generation unit 133 generates one piece of video content from the clipped video advertisement as described above.

これにより、配信装置100は、予め複数の動画コンテンツにおいて、動画広告が含まれている場合、その動画広告を含むように1つの動画コンテンツを生成することができる。これにより、配信装置100は、動画広告がユーザに閲覧される機会を増やすことができるため、広告効果を高めることができる。 As a result, when a plurality of moving image contents contain a moving image advertisement in advance, the distribution device 100 can generate one moving image content including the moving image advertisement. As a result, the distribution device 100 can increase the chances that the video advertisement will be viewed by the user, thereby enhancing the advertising effect.

〔6-5.表示制御〕
また、表示制御部14aは、図2(b)に示すように、生成部133により生成された1つの動画コンテンツの一部を拡大表示する際に、拡大表示を切り替えさせるためのユーザインタフェースを画面Dに表示させてもよい。
[6-5. Display control〕
In addition, as shown in FIG. 2B, the display control unit 14a displays a user interface on the screen for switching the enlarged display when part of one video content generated by the generation unit 133 is enlarged and displayed. It can be displayed on D.

ここで、図12は、ユーザインタフェースの一例を示す図である。例えば、表示制御部14aは、図12に示すように、1~9までの番号が付された仮想的なリモコンRCをユーザインタフェースとして表示させる。図2(a)に対応付けて説明すると、例えば、表示制御部14aは、「5」番が付された領域が押下された場合には、動画データVD5を拡大表示再生させるとともに、音声データSD5を音声再生させる。また、例えば、表示制御部14aは、「9」番が付された領域が押下された場合には、動画データVD9を拡大表示再生させるとともに、音声データSD9を音声再生させる。 Here, FIG. 12 is a diagram showing an example of the user interface. For example, as shown in FIG. 12, the display control unit 14a displays virtual remote controllers RC numbered 1 to 9 as a user interface. 2(a), for example, when the area numbered "5" is pressed, the display control unit 14a enlarges and reproduces the video data VD5 and reproduces the audio data SD5. is played. Further, for example, when the area numbered "9" is pressed, the display control unit 14a causes the moving image data VD9 to be enlarged and reproduced, and the audio data SD9 to be reproduced by voice.

〔6-6.動画コンテンツ配信〕
上記実施形態では、生成部133が、複数の動画コンテンツから1つの動画コンテンツを生成し、配信部134が、生成部133により生成された1つの動画コンテンツを配信する例を示した。しかし、生成部133は、必ずしも複数の動画コンテンツから1つの動画コンテンツを生成しなくてもよい。かかる場合、配信部134は、複数の動画コンテンツを1つのコンテナにパッケージングして端末装置10に配信する。あるいは、配信部134は、複数の動画コンテンツを個々にパッケージングして端末装置10に配信する。
[6-6. Video content distribution]
In the above embodiment, an example was shown in which the generating unit 133 generates one moving image content from a plurality of moving image contents, and the distribution unit 134 distributes the one moving image content generated by the generating unit 133 . However, the generation unit 133 does not necessarily have to generate one piece of video content from a plurality of pieces of video content. In such a case, the distribution unit 134 packages a plurality of moving image contents into one container and distributes it to the terminal device 10 . Alternatively, the distribution unit 134 individually packages a plurality of moving image contents and distributes them to the terminal device 10 .

例えば、生成部133は、複数の動画コンテンツである動画コンテンツC1~C9それぞれから所定時間分に相当する動画コンテンツを切り出すことにより、動画時間を揃えた短尺動画を得る。また、生成部133は、動画コンテンツC1~C9に対応する短尺動画C11~C91それぞれの画質を下げる。具体的には、生成部133は、短尺動画C11~C91それぞれに対応する動画データVD1~VD9それぞれのビットレートを下げる。 For example, the generating unit 133 obtains a short moving image with the same moving image time by cutting out moving image content corresponding to a predetermined time from each of moving image contents C1 to C9, which are a plurality of moving image contents. In addition, the generation unit 133 lowers the image quality of each of the short moving images C11 to C91 corresponding to the moving image contents C1 to C9. Specifically, the generation unit 133 lowers the bit rate of each of the video data VD1 to VD9 corresponding to each of the short videos C11 to C91.

そして、配信部134は、生成部133により画質が下げられた短尺動画C11~C91を1つのコンテナに格納し、かかるコンテナを端末装置10に配信する。あるいは、配信部134は、生成部133により画質が下げられた短尺動画C11~C91を個々にコンテナに格納し、各コンテナを同時に端末装置10に配信する。 Then, the distribution unit 134 stores the short moving images C11 to C91 whose image quality has been lowered by the generation unit 133 in one container, and distributes the container to the terminal device 10 . Alternatively, the distribution unit 134 individually stores the short moving images C11 to C91 whose image quality has been reduced by the generation unit 133 in containers, and distributes each container to the terminal device 10 at the same time.

つまり、端末装置10は、配信装置100から1つの動画コンテンツではなく、短尺動画群(短尺動画C11~C91)を受信することになる。したがって、端末装置10の表示制御部14aは、例えば、配信装置100の指示に従って、短尺動画群を同時に表示させるとともに、同時に再生させる。また、表示制御部14aは、例えば、配信装置100の指示に従って、短尺動画群を同時に再生させるとともに、短尺動画群に含まれるいずれかの短尺動画を拡大表示させる。 In other words, the terminal device 10 receives not one moving image content but a group of short moving images (short moving images C11 to C91) from the distribution device 100. FIG. Therefore, the display control unit 14a of the terminal device 10 simultaneously displays and simultaneously reproduces the short moving image group according to an instruction from the distribution device 100, for example. In addition, the display control unit 14a simultaneously reproduces the short moving image group and enlarges and displays any short moving image included in the short moving image group, for example, according to an instruction from the distribution device 100 .

〔7.プログラム〕
また、上述してきた実施形態にかかる配信装置100は、例えば図13に示すような構成のコンピュータ1000によって実現される。図13は、配信装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[7. program〕
Also, the distribution apparatus 100 according to the above-described embodiments is implemented by a computer 1000 configured as shown in FIG. 13, for example. FIG. 13 is a hardware configuration diagram showing an example of a computer 1000 that implements the functions of the distribution apparatus 100. As shown in FIG. Computer 1000 has CPU 1100 , RAM 1200 , ROM 1300 , HDD 1400 , communication interface (I/F) 1500 , input/output interface (I/F) 1600 and media interface (I/F) 1700 .

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. Communication interface 1500 receives data from other devices via communication network 50 and sends the data to CPU 1100 , and transmits data generated by CPU 1100 to other devices via communication network 50 .

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/output interface 1600 . CPU 1100 acquires data from an input device via input/output interface 1600 . CPU 1100 also outputs the generated data to an output device via input/output interface 1600 .

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200 . CPU 1100 loads such a program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態にかかる配信装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the distribution apparatus 100 according to the embodiment, the CPU 1100 of the computer 1000 implements the functions of the control unit 130 by executing programs loaded on the RAM 1200 . In addition, data in storage unit 120 is stored in HDD 1400 . CPU 1100 of computer 1000 reads these programs from recording medium 1800 and executes them, but as another example, these programs may be obtained from another device via communication network 50 .

〔8.その他〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[8. others〕
Of the processes described in the above embodiments, all or part of the processes described as being automatically performed can be manually performed, or all or part of the processes described as being manually performed. Part can also be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Moreover, each embodiment described above can be appropriately combined within a range in which the processing contents are not inconsistent.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.

1 配信処理システム
10 端末装置
12 制御部
13 受信部
14a 表示制御部
14b 送信部
100 配信装置
121 動画コンテンツ記憶部
122 閲覧履歴記憶部
130 制御部
131 受信部
132 抽出部
133 生成部
134 配信部
1 distribution processing system 10 terminal device 12 control unit 13 reception unit 14a display control unit 14b transmission unit 100 distribution device 121 video content storage unit 122 viewing history storage unit 130 control unit 131 reception unit 132 extraction unit 133 generation unit 134 distribution unit

Claims (4)

端末装置に、
複数の動画コンテンツから生成された1つの動画コンテンツであって、当該複数の動画コンテンツが同時再生される1つの動画コンテンツを配信装置から受信する受信手順と、
前記受信手順により受信された1つの動画コンテンツに含まれる前記複数の動画コンテンツが同時再生されている状態で、同時再生されている前記複数の動画コンテンツのうち拡大表示されている動画コンテンツから、拡大表示されている当該動画コンテンツとは異なる他の動画コンテンツへと拡大表示を切り替えさせるユーザ操作に応じて、前記他の動画コンテンツとしての動画データであって、ユーザ操作が行われた時点に対応する再生位置以降の再生時間分の動画データのみが拡大表示されるよう制御する表示制御手順と
を実行させることを特徴とする端末プログラム。
to the terminal device,
a receiving procedure for receiving, from a distribution device, one piece of video content generated from a plurality of pieces of video content, in which the plurality of pieces of video content are played back simultaneously;
In a state in which the plurality of moving image contents included in one moving image content received by the receiving procedure are being simultaneously reproduced, the moving image content being enlarged and displayed among the plurality of moving image contents being simultaneously reproduced is enlarged. In response to a user operation for switching enlarged display to other moving image content different from the displayed moving image content, moving image data as the other moving image content corresponding to the point in time when the user operation is performed. and a display control procedure for controlling to enlarge and display only video data corresponding to the playback time after the playback position.
前記複数の動画コンテンツのうち、現在拡大表示されている動画コンテンツが選択された場合に、選択された動画コンテンツに対応するオリジナルの動画コンテンツであって、選択された際に拡大表示されていた再生位置に続く再生位置を再生の開始位置とする動画コンテンツとしてのデータのうち、当該再生位置以降の再生時間分の動画データの取得要求を送信する送信手順を前記端末装置にさらに実行させる
ことを特徴とする請求項1に記載の端末プログラム。
When the video content currently enlarged and displayed is selected from the plurality of video content, the original video content corresponding to the selected video content, which was enlarged and displayed at the time of selection, is reproduced. The terminal device is further caused to execute a transmission procedure for transmitting an acquisition request for video data for a playback time after the playback position, among data as video content whose playback start position is the playback position following the position. The terminal program according to claim 1, wherein:
複数の動画コンテンツから生成された1つの動画コンテンツであって、当該複数の動画コンテンツが同時再生される1つの動画コンテンツを配信装置から受信する受信部と、a receiving unit for receiving, from a distribution device, one piece of video content generated from a plurality of pieces of video content, the plurality of pieces of video content being reproduced simultaneously;
前記受信部により受信された1つの動画コンテンツに含まれる前記複数の動画コンテンツが同時再生されている状態で、同時再生されている前記複数の動画コンテンツのうち拡大表示されている動画コンテンツから、拡大表示されている当該動画コンテンツとは異なる他の動画コンテンツへと拡大表示を切り替えさせるユーザ操作に応じて、前記他の動画コンテンツとしての動画データであって、ユーザ操作が行われた時点に対応する再生位置以降の再生時間分の動画データのみが拡大表示されるよう制御する表示制御部とIn a state in which the plurality of moving image contents included in the single moving image content received by the receiving unit are being simultaneously reproduced, the moving image content being enlarged and displayed among the plurality of moving image contents being simultaneously reproduced is enlarged. In response to a user operation for switching enlarged display to other moving image content different from the displayed moving image content, moving image data as the other moving image content corresponding to the point in time when the user operation is performed. a display control unit that controls so that only video data for the playback time after the playback position is enlarged and displayed;
を有することを特徴とする端末装置。A terminal device comprising:
端末装置が実行する情報処理方法であって、An information processing method executed by a terminal device,
複数の動画コンテンツから生成された1つの動画コンテンツであって、当該複数の動画コンテンツが同時再生される1つの動画コンテンツを配信装置から受信する受信手順と、a receiving procedure for receiving, from a distribution device, one piece of video content generated from a plurality of pieces of video content, in which the plurality of pieces of video content are played back simultaneously;
前記受信手順により受信された1つの動画コンテンツに含まれる前記複数の動画コンテンツが同時再生されている状態で、同時再生されている前記複数の動画コンテンツのうち拡大表示されている動画コンテンツから、拡大表示されている当該動画コンテンツとは異なる他の動画コンテンツへと拡大表示を切り替えさせるユーザ操作に応じて、前記他の動画コンテンツとしての動画データであって、ユーザ操作が行われた時点に対応する再生位置以降の再生時間分の動画データのみが拡大表示されるよう制御する表示制御手順とIn a state in which the plurality of moving image contents included in one moving image content received by the receiving procedure are being simultaneously reproduced, the moving image content being enlarged and displayed among the plurality of moving image contents being simultaneously reproduced is enlarged. In response to a user operation for switching enlarged display to other moving image content different from the displayed moving image content, moving image data as the other moving image content corresponding to the point in time when the user operation is performed. A display control procedure for controlling so that only the video data for the playback time after the playback position is enlarged and displayed;
を含むことを特徴とする情報処理方法。An information processing method comprising:
JP2016113067A 2016-06-06 2016-06-06 TERMINAL PROGRAM, TERMINAL DEVICE, AND INFORMATION PROCESSING METHOD Active JP7160513B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016113067A JP7160513B2 (en) 2016-06-06 2016-06-06 TERMINAL PROGRAM, TERMINAL DEVICE, AND INFORMATION PROCESSING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016113067A JP7160513B2 (en) 2016-06-06 2016-06-06 TERMINAL PROGRAM, TERMINAL DEVICE, AND INFORMATION PROCESSING METHOD

Publications (2)

Publication Number Publication Date
JP2017220763A JP2017220763A (en) 2017-12-14
JP7160513B2 true JP7160513B2 (en) 2022-10-25

Family

ID=60656317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016113067A Active JP7160513B2 (en) 2016-06-06 2016-06-06 TERMINAL PROGRAM, TERMINAL DEVICE, AND INFORMATION PROCESSING METHOD

Country Status (1)

Country Link
JP (1) JP7160513B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115916359A (en) * 2020-05-29 2023-04-04 科乐美数码娱乐株式会社 Distribution system, control method for distribution system, and computer program
JP7082431B2 (en) * 2020-05-29 2022-06-08 株式会社コナミデジタルエンタテインメント Distribution system, distribution system control method and computer program
JP6905133B1 (en) * 2020-08-28 2021-07-21 Kddi株式会社 Information processing equipment, information processing methods and programs

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238175A (en) 2000-02-25 2001-08-31 Victor Co Of Japan Ltd Information recording and reproducing device
JP2001326868A (en) 2000-05-15 2001-11-22 Nec Corp Cm transmission/reception system and communication transmission/reception method using it
JP2003143558A (en) 2001-10-30 2003-05-16 Funai Electric Co Ltd Support method and device for generating digest program
JP2004166131A (en) 2002-11-15 2004-06-10 Casio Comput Co Ltd Image processor, thumbnail moving image creation method and thumbnail moving image creation program
JP2007135241A (en) 1995-05-22 2007-05-31 British Sky Broadcasting Ltd Improvement of television signal receiver
JP2007516650A (en) 2003-05-29 2007-06-21 イーエイティー.ティーブイ、インコーポレイテッド System for presenting multimedia content
JP2013222989A (en) 2012-04-12 2013-10-28 Dowango:Kk Video display system, reproduction region designation server device, terminal device and program
WO2016002496A1 (en) 2014-06-30 2016-01-07 ソニー株式会社 Information processing device and method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH028966A (en) * 1988-06-27 1990-01-12 Nippon Telegr & Teleph Corp <Ntt> Partial image displaying and processing method
JP3855282B2 (en) * 1995-02-06 2006-12-06 ソニー株式会社 Receiving apparatus and receiving method
JPH11345242A (en) * 1998-06-03 1999-12-14 Matsushita Electric Ind Co Ltd Image display method
JP2008005428A (en) * 2006-06-26 2008-01-10 Toshiba Corp Video signal processor and video signal processing method
US20080163059A1 (en) * 2006-12-28 2008-07-03 Guideworks, Llc Systems and methods for creating custom video mosaic pages with local content
JP2010177986A (en) * 2009-01-29 2010-08-12 Nec Corp Image delivery device
JP5219888B2 (en) * 2009-03-02 2013-06-26 キヤノン株式会社 Broadcast receiving apparatus and control method thereof
JP5321267B2 (en) * 2009-06-16 2013-10-23 日産自動車株式会社 Vehicular image display device and overhead image display method
JP2016019248A (en) * 2014-07-10 2016-02-01 キヤノン株式会社 Motion picture display control device, motion picture display control method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007135241A (en) 1995-05-22 2007-05-31 British Sky Broadcasting Ltd Improvement of television signal receiver
JP2001238175A (en) 2000-02-25 2001-08-31 Victor Co Of Japan Ltd Information recording and reproducing device
JP2001326868A (en) 2000-05-15 2001-11-22 Nec Corp Cm transmission/reception system and communication transmission/reception method using it
JP2003143558A (en) 2001-10-30 2003-05-16 Funai Electric Co Ltd Support method and device for generating digest program
JP2004166131A (en) 2002-11-15 2004-06-10 Casio Comput Co Ltd Image processor, thumbnail moving image creation method and thumbnail moving image creation program
JP2007516650A (en) 2003-05-29 2007-06-21 イーエイティー.ティーブイ、インコーポレイテッド System for presenting multimedia content
JP2013222989A (en) 2012-04-12 2013-10-28 Dowango:Kk Video display system, reproduction region designation server device, terminal device and program
WO2016002496A1 (en) 2014-06-30 2016-01-07 ソニー株式会社 Information processing device and method

Also Published As

Publication number Publication date
JP2017220763A (en) 2017-12-14

Similar Documents

Publication Publication Date Title
US20210142824A1 (en) Systems and methods for modifying a playlist of media assets based on user interactions with a playlist menu
EP2076027B1 (en) Screen generating apparatus and screen layout sharing system
JP5979483B2 (en) Content reproduction apparatus, content reproduction system, and content reproduction method
US9118950B2 (en) Broadcast receiving apparatus, playback apparatus, broadcast communication system, broadcast receiving method, playback method, and program
US9800923B2 (en) Systems and methods for recording content from a different source when previous content runs over
AU2017290574A1 (en) Method and system for transferring an interactive feature to another device
JP2005210686A (en) Signal output method and channel-selecting apparatus
US20140139742A1 (en) Methods and systems for displaying advertisements
TW200824451A (en) Method and related system capable of notifying and buffering predetermined events in a program
JP7160513B2 (en) TERMINAL PROGRAM, TERMINAL DEVICE, AND INFORMATION PROCESSING METHOD
US20150358663A1 (en) Personal linear channel
US9978083B2 (en) Systems and methods for determining a dynamic advertisement schedule for a playlist session
US20140359668A1 (en) Method, electronic device, and computer program product
JP5243871B2 (en) Video playback device
JP2015104081A (en) Method, electronic apparatus, and program
JP6403616B2 (en) Advertisement distribution apparatus, advertisement distribution method, advertisement distribution program, and information processing program
KR101474018B1 (en) Apparatus and method for reproducing commercial data in IP broadcasting receiver
JP6431288B2 (en) System, method, and program
JP2009500712A (en) Electronic device and method for generating a sequence of content items
JP7350200B1 (en) Video distribution device, video distribution method, video distribution program, and system
JP5355742B2 (en) Playback apparatus and playback method
JP2018056811A (en) Terminal device, content reproduction system, content reproduction method, and program
KR102149724B1 (en) Apparatus of providing personalized advertisement
JP6876551B2 (en) Content viewing device, content distribution device and information provision program
WO2023008156A1 (en) Moving-image delivery system, playback device, playback method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200909

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200909

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200917

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200923

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20201204

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20201208

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210608

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211004

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20220428

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220726

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220809

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220913

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221013

R150 Certificate of patent or registration of utility model

Ref document number: 7160513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350