Nothing Special   »   [go: up one dir, main page]

JP2002111998A - Image composition method and information processor - Google Patents

Image composition method and information processor

Info

Publication number
JP2002111998A
JP2002111998A JP2000295242A JP2000295242A JP2002111998A JP 2002111998 A JP2002111998 A JP 2002111998A JP 2000295242 A JP2000295242 A JP 2000295242A JP 2000295242 A JP2000295242 A JP 2000295242A JP 2002111998 A JP2002111998 A JP 2002111998A
Authority
JP
Japan
Prior art keywords
image
terminal
composite
combined
composite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000295242A
Other languages
Japanese (ja)
Inventor
Takashi Ida
孝 井田
Osamu Hori
修 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000295242A priority Critical patent/JP2002111998A/en
Publication of JP2002111998A publication Critical patent/JP2002111998A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image composition method capable of compositing an image of a decentralized processing type in which a portable communication terminal with small process capability can also be particitaped; and an information processor therefore. SOLUTION: In a second terminal connected to one or a plurality of first terminals so as to mutually communicate with each other, a composite image obtained by compositing a second image obtained at its own terminal with an object image extracted from among a first image transmitted from the first image is generated, and this composite image is transmitted to the first terminal to display, thereby decreasing a process load of the first terminal. Thus, an image composition of a decentralized processing type is carried out between a portable communication terminal with small processing capability and the second terminal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、インター
ネットなどを経由して画像を伝送しながら合成画像を生
成する合成画像生成方法および情報処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a composite image generation method and an information processing apparatus for generating a composite image while transmitting the image via, for example, the Internet.

【0002】[0002]

【従来の技術】近年のインターネットの普及に伴い、パ
ソコンを用いて遠隔地にあるサーバから画像データをダ
ウンロードしながら映像を楽しんだり、あるいは、パソ
コンに接続したカメラを用いて自分の顔を撮影し、それ
を互いに送り合ういわゆるテレビ電話機能を楽しむ機会
が増えている。さらに、撮影した画像をそのまま伝送、
表示するのではなく、顔などの物体を切出し、別の画像
と合成して表示することにより、多様な仮想空間を造出
する要求も多くなってきている。
2. Description of the Related Art With the spread of the Internet in recent years, a user can enjoy a video while downloading image data from a remote server using a personal computer, or photograph his / her own face using a camera connected to the personal computer. There is an increasing opportunity to enjoy the so-called videophone function of sending each other. In addition, the captured image is transmitted as it is,
There has been an increasing demand for creating various virtual spaces by cutting out an object such as a face, and displaying it by combining it with another image instead of displaying it.

【0003】本願発明の発明者らは、文献「自己相似モ
デルを用いたリアルタイムオブジェクト抽出」(井田、
堀、三本杉、第6回画像センシングシンポジウム講演論
文集、pp161−166、 2000年)において、
切出した利用者の顔画像を別の背景画像に合成する顔画
像伝送システムを提案した。このシステムによれば、合
成画像を共有することにより、遠く離れた者同士が互い
の顔を見ながら会話を楽しむことができる。
[0003] The inventors of the present invention have described a document "Real-time object extraction using self-similar model" (Ida,
Hori, Sanbonsugi, Proceedings of the 6th Image Sensing Symposium, pp. 161-166, 2000)
We proposed a face image transmission system that combines the extracted user's face image with another background image. According to this system, distant persons can enjoy a conversation while seeing each other's faces by sharing the composite image.

【0004】上記文献に記載されたシステムの概略構成
を図9に示す。カメラ1で撮影された撮影画像2は、切
出し部3に入力される。切出し部3では、撮影画像2の
中から顔の領域を自動的に検出し、人物の頭部を輪郭に
沿って切出す。ここで、切出すとは、具体的には、物体
のアルフファマスクを生成することをいう。アルファマ
スクは、原画像と同じサイズの2値画像で、背景領域に
「0」、物体領域に「1」の画素を配置したものであ
る。また、ここでは、アルファマスク付きの画像データ
のことを切出し画像という。その切出し画像4は圧縮部
5に送られて圧縮データ6に変換される。圧縮部5で
は、例えばMPEG−4のシェイプモードを用いて、画
像データとアルファマスクの両方を符号化する。ここま
でが、端末7での処理である。
FIG. 9 shows a schematic configuration of the system described in the above document. A captured image 2 captured by the camera 1 is input to the extraction unit 3. The cutout unit 3 automatically detects a face area from the captured image 2 and cuts out the head of the person along the contour. Here, to extract specifically means to generate an alpha mask of an object. The alpha mask is a binary image having the same size as the original image, in which “0” pixels are arranged in the background area and “1” pixels are arranged in the object area. Here, image data with an alpha mask is referred to as a cut-out image. The cut-out image 4 is sent to a compression unit 5 and converted into compressed data 6. The compression unit 5 encodes both the image data and the alpha mask using, for example, a shape mode of MPEG-4. The processing up to this point is performed by the terminal 7.

【0005】圧縮データ6は端末8に伝送され、その再
生部9に入力される。再生部9において、圧縮データ6
は切出し画像10に変換され、合成部11に送られる。
一方、ハードディスク等の画像記憶部12に記録されて
いた背景画像13も合成部11に送られる。
[0005] The compressed data 6 is transmitted to the terminal 8 and input to the reproducing unit 9 thereof. In the reproducing unit 9, the compressed data 6
Is converted into a cutout image 10 and sent to the synthesizing unit 11.
On the other hand, the background image 13 recorded in the image storage unit 12 such as a hard disk is also sent to the synthesizing unit 11.

【0006】合成部11では、背景画像13に顔の切出
し画像10を合成した合成画像を生成する。合成の処理
は、具体的には、切出し画像に対して、そのアルファマ
スクを参照しながら、アルファマスクの画素値が「0」
の部分を背景画像に置き換える。このようにして合成さ
れた画像を合成画像という。
The synthesizing unit 11 generates a synthesized image obtained by synthesizing the cut-out image 10 of the face with the background image 13. In the combining process, specifically, the pixel value of the alpha mask is “0” for the cut-out image while referring to the alpha mask.
Is replaced with the background image. The image synthesized in this way is called a synthesized image.

【0007】合成画像14は圧縮部15に送られて圧縮
データ16に変換される。合成画像14は、アルファマ
スクが付かない、通常の画像であるので、圧縮部15で
は画像データだけを符号化する。圧縮データ16は端末
7に送り返される。
[0007] The composite image 14 is sent to a compression unit 15 and converted into compressed data 16. Since the composite image 14 is a normal image without an alpha mask, the compression unit 15 encodes only the image data. The compressed data 16 is sent back to the terminal 7.

【0008】端末7では、圧縮データ16を再生部17
に入力し、合成画像18に変換する。合成画像18はC
RTモニタなどの表示部19に送られて表示される。
In the terminal 7, the compressed data 16 is reproduced
, And converted into a composite image 18. Synthetic image 18 is C
It is sent to a display unit 19 such as an RT monitor and displayed.

【0009】上記文献では、端末8に、さらに別の切出
し画像を入力することで、複数の顔画像を1つの画像に
合成し、互いの顔を見ることができるシステムが示され
ている。
In the above document, there is disclosed a system in which a plurality of face images are combined into one image by inputting another cut-out image to the terminal 8, and the faces of each other can be seen.

【0010】上記文献に記載されたシステムでは、物体
の切出しや合成処理を端末に分散することができる。し
かし、端末8と比較して端末7の単位時間あたりに処理
可能な演算量が少ない、つまり処理能力が低い場合、端
末7での処理がボトルネックとなって、全体の動作速度
が遅くなり、その結果、画像のフレームレートが低くな
ることがある。
[0010] In the system described in the above-mentioned document, object extraction and synthesis processing can be distributed to terminals. However, if the amount of computation that can be processed per unit time of the terminal 7 is smaller than that of the terminal 8, that is, if the processing capacity is low, the processing at the terminal 7 becomes a bottleneck, and the overall operation speed decreases, As a result, the frame rate of the image may decrease.

【0011】[0011]

【発明が解決しようとする課題】このように、従来は、
複数の端末間の分散処理により合成画像を生成する際、
消費電力や回路規模が小さく、また、処理能力の低い、
例えば携帯電話、PDA等の携帯型の通信端末には、処
理負荷が大きく、容易に参加できないという問題点があ
った。
As described above, conventionally,
When generating a composite image by distributed processing between multiple terminals,
The power consumption and circuit scale are small, and the processing capacity is low.
For example, a portable communication terminal such as a mobile phone and a PDA has a problem that a processing load is large and it is not easy to participate.

【0012】そこで、本発明は、上記問題点に鑑み、処
理能力の小さい携帯型の通信端末も参加可能な分散処理
型の画像合成を可能にする画像合成方法およびそのため
の情報処理装置を提供することを目的とする。
In view of the above problems, the present invention provides an image synthesizing method and an information processing apparatus for enabling distributed processing type image synthesizing in which a portable communication terminal having a small processing capability can participate. The purpose is to:

【0013】[0013]

【課題を解決するための手段】本発明の画像合成方法
は、1または複数の第1の端末と互いに通信可能に接続
された第2の端末において、自端末で取得した第2の画
像と前記第1の端末から送信されてきた第1の画像中か
ら抽出した物体画像とを合成した合成画像を生成し、こ
の合成画像を、前記第1の端末に送信して表示させるこ
とにより、第1の端末は、単に第1の画像を提供して、
それを用いて合成された合成画像を受け取るだけである
ので、第1の端末の処理負荷を軽減でき、よって、第1
の端末が処理能力の小さい携帯型の通信端末であっても
第2の端末との間では分散処理型の画像合成が行える。
According to the image synthesizing method of the present invention, in a second terminal communicably connected to one or a plurality of first terminals, a second image acquired by the own terminal and the second image are stored. A first image is generated by synthesizing an object image extracted from the first image transmitted from the first terminal and transmitting the synthesized image to the first terminal for display. Terminal simply provides the first image,
Since it only receives a synthesized image synthesized by using it, the processing load on the first terminal can be reduced, and thus the first terminal can be reduced.
Even if the terminal is a portable communication terminal having a small processing capability, distributed processing-type image synthesis can be performed with the second terminal.

【0014】本発明の情報処理装置は、相手装置から第
1の画像を受信する手段と、前記第1の画像中から所定
の物体画像を抽出する手段と、自装置で取得した第2の
画像と前記物体画像とを合成した合成画像を生成する手
段と、前記合成画像を前記相手装置へ送信して表示させ
る手段とを具備したことにより、相手装置は単に第1の
画像を提供して、それを用いて合成された合成画像を受
け取るだけであるので、相手装置が処理能力の小さい携
帯型の通信端末であっても、この相手装置との間で分散
処理型の画像合成が行える。
An information processing apparatus according to the present invention includes a means for receiving a first image from a partner apparatus, a means for extracting a predetermined object image from the first image, and a second image acquired by the own apparatus. Means for generating a combined image combining the object image and the object image, and means for transmitting and displaying the combined image to the partner device, the partner device simply provides a first image, Since it only receives a synthesized image synthesized by using it, even if the partner device is a portable communication terminal having a small processing capability, it is possible to perform distributed processing type image combining with the partner device.

【0015】好ましくは、前記第1の画像には、前記第
1の画像と合成する第2の画像に対する指示情報が付加
され、この指示情報に基づき前記合成画像を生成し、ま
た、前記合成画像が前記画像に対する指示情報とともに
送られてきたときには、その指示情報に基づき新たな合
成画像を生成することにより、第1の画像の提供者の好
みに応じた合成画像を生成することができる。
Preferably, instruction information for a second image to be combined with the first image is added to the first image, and the composite image is generated based on the instruction information. Is transmitted together with the instruction information for the image, by generating a new composite image based on the instruction information, it is possible to generate a composite image according to the preference of the provider of the first image.

【0016】[0016]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0017】図1は、本実施形態に係る画像合成方法を
実施するためのシステム構成を示したもので、第1の端
末201と、第2の端末206とが互いに通信可能なよ
うに有線あるいは無線の通信回線で接続されて、第2の
端末206で第1の端末から送られてきた第1の画像か
ら物体画像を抽出して、それを第2の端末で取得した第
2の画像に合成して、合成画像を作成し、この合成画像
を第1の端末201へ送信するようになっている。な
お、第1の端末は複数あってもよく、この場合、第2の
端末は複数の第1の端末とそれぞれ通信可能に接続され
ていればよい。
FIG. 1 shows a system configuration for implementing the image synthesizing method according to the present embodiment. The first terminal 201 and the second terminal 206 are wired or connected so that they can communicate with each other. Connected by a wireless communication line, the second terminal 206 extracts an object image from the first image sent from the first terminal and converts it into a second image acquired by the second terminal. By combining the images, a synthesized image is created, and the synthesized image is transmitted to the first terminal 201. Note that there may be a plurality of first terminals, and in this case, the second terminal only needs to be communicably connected to the plurality of first terminals.

【0018】第1の端末201は、消費電力や回路規模
が小さく、また、処理能力の低い、例えば携帯電話、P
DA等の携帯型の通信端末である。
The first terminal 201 has a small power consumption and a small circuit size, and has a low processing capability, for example, a mobile phone, a P
It is a portable communication terminal such as DA.

【0019】第2の端末206は、好ましくは第1の端
末201、すなわち、携帯型の通信端末より処理能力の
高いパーソナルコンピュータなどである。
The second terminal 206 is preferably the first terminal 201, that is, a personal computer having a higher processing capability than a portable communication terminal.

【0020】図1の第1の端末201において、まず、
カメラ202で撮影された第1の画像203は圧縮部2
04に入力される。圧縮部204では、第1の画像20
3が圧縮データ205に変換され、第2の端末206に
伝送される。
In the first terminal 201 of FIG. 1, first,
The first image 203 captured by the camera 202 is a compression unit 2
04 is input. In the compression unit 204, the first image 20
3 is converted to compressed data 205 and transmitted to the second terminal 206.

【0021】第2の端末206では、圧縮データ205
を再生部207に入力し、第1の画像208に変換す
る。第1の画像208は、切出し部209に入力され、
そこで物体画像が切出される。この切り出された物体画
像を切出し画像と呼ぶ。切出し画像210は合成部21
1に送られる。一方、ハードディスク、メモリなどの記
録媒体から構成される画像記憶部212に記憶されてい
た第2の画像213が読み出され、これも合成部211
に送られる。
In the second terminal 206, the compressed data 205
Is input to the reproducing unit 207, and is converted into the first image 208. The first image 208 is input to the cutout unit 209,
Then, the object image is cut out. This cut-out object image is called a cut-out image. The cut-out image 210 is generated by the combining unit 21
Sent to 1. On the other hand, the second image 213 stored in the image storage unit 212 composed of a recording medium such as a hard disk and a memory is read out, and is also read out by the combining unit 211.
Sent to

【0022】合成部211は、第2の画像213を背景
画像として、それに切出し画像210を合成し、合成画
像214を生成する。合成画像214は圧縮部215に
送られて圧縮データ216に変換される。圧縮データ2
16は、第1の端末201に送られる。
The combining section 211 combines the cut-out image 210 with the second image 213 as a background image to generate a combined image 214. The composite image 214 is sent to the compression unit 215 and converted into compressed data 216. Compressed data 2
16 is sent to the first terminal 201.

【0023】第1の端末201では、圧縮データ216
を再生部217に入力し、合成画像218に変換する。
合成画像218はCRTモニタ、液晶ディスプレイなど
の表示部219に送られて表示される。
In the first terminal 201, the compressed data 216
Is input to the reproducing unit 217, and is converted into a composite image 218.
The composite image 218 is sent to and displayed on a display unit 219 such as a CRT monitor or a liquid crystal display.

【0024】以上のような構成により、第1の端末20
1には、切出し処理や、圧縮部204でのアルファマス
クの符号化が不要になり、処理量を最小限に抑えられる
とともに、消費電力や回路規模も小さくできる。
With the above configuration, the first terminal 20
No. 1 does not require the clipping process and the encoding of the alpha mask in the compression unit 204, so that the processing amount can be minimized and the power consumption and the circuit scale can be reduced.

【0025】図2は、図1のシステムの処理動作を説明
するためのフローチャートである。
FIG. 2 is a flowchart for explaining the processing operation of the system of FIG.

【0026】第2の端末206において物体画像の切出
しと画像の合成処理が行われる。第1の端末201で
は、物体が切出される第1の画像を、例えば付属するカ
メラ202で撮影して取得するか、あるいは、予めハー
ドディスク、メモリなどの記録媒体から構成された記憶
部(図1には、図示せず)に保持されていて、それを読
み出すことにより、第1の画像を取得する。
At the second terminal 206, an object image is cut out and the image is synthesized. In the first terminal 201, a first image from which an object is cut out is acquired by, for example, photographing it with an attached camera 202, or a storage unit (FIG. 1) configured in advance from a recording medium such as a hard disk or a memory. The first image is acquired by reading out the information from the first image.

【0027】ステップS1:第1の端末201におい
て、第1の画像を取得する。例えば、カメラ202で第
1の端末201のユーザの顔画像を含む画像を取り込
む。このようにして取得した第1の画像の一例を図7に
示す。
Step S1: The first terminal 201 acquires a first image. For example, the camera 202 captures an image including a face image of the user of the first terminal 201. FIG. 7 shows an example of the first image thus obtained.

【0028】ステップS2:第1の画像を第2の端末2
06に伝送する。この際、通信回線の容量が小さい場合
には、第1の端末201において送信前に圧縮部204
でデータ圧縮を行い、第2の端末206において受信後
に再生部207でデータ再生を行う。
Step S2: Copy the first image to the second terminal 2.
06. At this time, if the capacity of the communication line is small, the first
Then, after the data is received by the second terminal 206, the data is reproduced by the reproducing unit 207.

【0029】ステップS3:第2の端末206で、受信
した第1の画像から物体画像の切出しを行う。この処理
は、先にあげた文献「自己相似写像を用いたリアルタイ
ムオブジェクト抽出」に示した手法を用いてもよく、そ
の場合の処理動作について、図3に示すフローチャート
を参照して説明する。
Step S3: The second terminal 206 extracts an object image from the received first image. For this processing, the method described in the above-mentioned document “Real-time object extraction using self-similar mapping” may be used, and the processing operation in that case will be described with reference to the flowchart shown in FIG.

【0030】ステップS11:第1の画像から分離度な
どを用いて人間の顔の位置を検出する。
Step S11: The position of the human face is detected from the first image using the degree of separation and the like.

【0031】ステップS12:検出された位置に八角形
などの概略形状を設定し、その概略形状の輪郭をフラク
タル法などを用いて人物の頭部に一致させることで、頭
部の輪郭線を抽出する。
Step S12: An outline shape such as an octagon is set at the detected position, and the outline of the outline is extracted by making the outline of the outline shape coincide with the head of the person using a fractal method or the like. I do.

【0032】ステップS13:抽出された頭部を切出
す。つまり、頭部の輪郭線の内側に「1」、外側に
「0」を配置したアルファマスクを生成する。
Step S13: The extracted head is cut out. That is, an alpha mask in which “1” is arranged inside the contour of the head and “0” is arranged outside the contour is generated.

【0033】図2の説明に戻る。Returning to the description of FIG.

【0034】ステップS4:第2の端末206は、画像
記憶部212に記憶されている画像を読み出し、それを
第2の画像とする。なお、この第2の画像は、画像記憶
部212から読み出した画像である必要はなく、例え
ば、第2の端末206に接続されたカメラ(図1には図
示せず)で撮影して取り込んだ、例えば、その時の風景
画像などでもよい。
Step S4: The second terminal 206 reads the image stored in the image storage unit 212 and sets it as the second image. The second image does not need to be an image read from the image storage unit 212. For example, the second image is captured and captured by a camera (not shown in FIG. 1) connected to the second terminal 206. For example, a landscape image at that time may be used.

【0035】ステップS5:第2の画像を背景画像とし
て、これに、先に切出した物体の画像を合成し、合成画
像を生成する。
Step S5: The second image is used as a background image, and the image of the object extracted earlier is combined with the background image to generate a combined image.

【0036】ステップS6:生成した合成画像を第1の
端末201に伝送する。このときも、通信回線の容量が
小さい場合には、第2の端末206において送信前に圧
縮部215でデータ圧縮を行い、第1の端末201にお
いて受信後に再生部217でデータ再生を行う。
Step S6: The generated composite image is transmitted to the first terminal 201. Also at this time, when the capacity of the communication line is small, the data compression is performed by the compression unit 215 before transmission at the second terminal 206, and the data is reproduced by the reproduction unit 217 after reception at the first terminal 201.

【0037】ステップS7:第1の端末201では、受
信した合成画像を液晶ディスプレイ、CRTモニタなど
の表示部219に表示する。
Step S7: The first terminal 201 displays the received composite image on a display unit 219 such as a liquid crystal display or a CRT monitor.

【0038】このように、第1の端末201では、第1
の画像から物体の切出し処理を行わなくて済み、処理量
を最小限におさえられる。
As described above, in the first terminal 201, the first terminal
It is not necessary to perform the process of extracting the object from the image of (1), and the processing amount can be minimized.

【0039】なお、上記説明では、第1の画像と第2の
画像とが1枚のみの場合を説明したが、両者あるいはど
ちらか一方が時間的に連続する画像(動画像)である場
合は、図2に示した処理を繰り返せば動画像に対して合
成画像を作ることもできる。
In the above description, the case where the first image and the second image are only one has been described. However, when both or one of them is a temporally continuous image (moving image), By repeating the processing shown in FIG. 2, a composite image can be created for a moving image.

【0040】また、例えば、第2の端末206が処理能
力の高いサーバ装置であり、それに様々な不特定の複数
のクライアント端末(第1の端末201に対応する)が
アクセスする用途に特に有効である。なぜなら、クライ
アント端末の中には処理能力が非常に低いものがある確
率が高いからである。
Further, for example, the second terminal 206 is a server device having a high processing capability, and is particularly effective for an application in which various unspecified plural client terminals (corresponding to the first terminal 201) access. is there. This is because there is a high probability that some client terminals have very low processing capabilities.

【0041】(第2の実施形態)次に、以上説明したよ
うなシステムをインターネットを介した商品販売に用い
る場合について説明する。すなわち、このような場合、
購買者側の端末(第1の端末)から、例えば図7に示し
たような第1の画像が、商品販売サービスを提供するサ
ーバ装置としての商店側の端末(第2の端末)へ送ら
れ、第2の端末では、それを基に生成した図8に示すよ
うな合成画像を購買者側の端末へ送り返すものとする。
(Second Embodiment) Next, a case where the system described above is used for selling goods via the Internet will be described. That is, in such a case,
For example, a first image as shown in FIG. 7 is transmitted from a terminal on the purchaser side (first terminal) to a terminal on the store side (second terminal) as a server device for providing a product sales service. In the second terminal, a composite image generated based on the composite image as shown in FIG. 8 is sent back to the terminal on the purchaser side.

【0042】第2の端末では、図7に示した第1の画像
から顔画像を切り出し、図8に示したように、この切出
し画像H1を第2の画像としての背景画像に合成すると
ともに、中央上部に販売員の顔画像H2や購買者が要求
した帽子の画像M1、その帽子以外にもおすすめの帽子
の画像M2、M3を合成し、さらに、それら帽子の販売
価格も表示されている。
In the second terminal, a face image is cut out from the first image shown in FIG. 7, and as shown in FIG. 8, this cut out image H1 is combined with a background image as a second image, and In the upper center, a face image H2 of the salesperson, an image M1 of the hat requested by the purchaser, images M2 and M3 of recommended hats in addition to the hat, and the selling prices of the hats are also displayed.

【0043】販売員は、画像合成を行う側の端末、すな
わち、第2の端末にいて、販売員の顔画像や帽子の画像
は、図2のステップS5や合成部211で合成され、そ
れぞれの音声も別途伝送される。これにより、販売員と
購買者が離れていても、対面販売が可能となり、商品の
売上の向上が期待できる。
The salesperson is at the terminal that performs image synthesis, that is, at the second terminal, and the salesperson's face image and hat image are synthesized at step S5 and the synthesis unit 211 in FIG. Audio is also transmitted separately. As a result, face-to-face sales can be performed even if the salesperson is away from the purchaser, and an improvement in sales of the product can be expected.

【0044】図4は、第2の実施形態にかかる画像合成
方法を実施するためのシステム構成を示したものであ
る。なお、図1と同一部分には同一符号を付し、異なる
部分について説明する。すなわち、図4の第2の端末2
06の合成部211周辺の構成が異なる。なお、第1の
端末は複数あってもよく、この場合、第2の端末は複数
の第1の端末とそれぞれ通信可能に接続されていればよ
い。
FIG. 4 shows a system configuration for implementing the image synthesizing method according to the second embodiment. The same parts as those in FIG. 1 are denoted by the same reference numerals, and different parts will be described. That is, the second terminal 2 in FIG.
The configuration around the synthesizing unit 211 is different. Note that there may be a plurality of first terminals, and in this case, the second terminal only needs to be communicably connected to the plurality of first terminals.

【0045】切出し部209には、操作部620から切
出しに用いる第1のパラメータ621が送られてくる。
第1のパラメータ621は、切出しの精度を高めるため
のものである。
The first parameter 621 used for cutting is sent from the operating unit 620 to the cutting unit 209.
The first parameter 621 is for improving the accuracy of cutting out.

【0046】操作部620は、切出し部209での切出
し精度が不十分であるために、輪郭がずれたときなど、
第2の端末206の操作者が、切出しの補助的な操作を
行うためのものである。例えば、図7に示した第1の画
像を第2の端末206の表示部に表示し、操作者、すな
わち、販売員が操作部620を利用して、人物の大まか
な輪郭をマウスなどを用いて描く、あるいは、単に、顔
の中心をクリックする。これらの座標を第1のパラメー
タ621として利用することにより、輪郭線の抽出精度
や、顔の位置の検出精度が向上する。先の商品販売の例
では、購買者の手を煩わすことなく、切出しの精度を向
上できる。
The operation unit 620 is used when the contour is shifted due to insufficient cutting accuracy in the cutting unit 209.
This is for the operator of the second terminal 206 to perform an auxiliary operation for cutting out. For example, the first image shown in FIG. 7 is displayed on the display unit of the second terminal 206, and the operator, that is, the salesperson, uses the operation unit 620 to draw a rough outline of the person using a mouse or the like. Draw or simply click on the center of the face. By using these coordinates as the first parameter 621, the accuracy of contour line extraction and the accuracy of face position detection are improved. In the above example of merchandise sales, the accuracy of clipping can be improved without bothering the buyer.

【0047】カメラ622で、第2の端末206の操作
者、すなわち、販売員を撮影して得られた第3の画像6
23が切出し部624に送られる。切出し部624で
は、販売員の顔画像625を切出し、合成部211へ送
る。
The third image 6 obtained by photographing the operator of the second terminal 206, that is, the salesperson, with the camera 622
23 is sent to the extracting section 624. The cutout unit 624 cuts out the salesperson's face image 625 and sends it to the synthesizing unit 211.

【0048】情報記憶部612には、背景画像とすべき
第2の画像のほか、商品の画像(例えば、ここでは、帽
子の切出し画像(簡単に帽子の画像と呼ぶこともあ
る))などが記憶されており、それらの画像626も合
成部211に送られる。そして、販売員が操作部620
を操作することによって、合成のための第2のパラメー
タ627が合成部211に送られる。
In the information storage unit 612, in addition to the second image to be used as a background image, an image of a product (for example, a cutout image of a hat (which may be simply called an image of a hat) in this case) and the like. The stored images 626 are also sent to the synthesizing unit 211. Then, the salesperson operates the operation unit 620.
Is operated, the second parameter 627 for composition is sent to the composition unit 211.

【0049】この第2のパラメータ627は、例えば、
どの切出し画像を背景画像中のどの位置に合成するかを
指示したり、切り出し画像の大きさを指示したり、背景
画像の切り換えを指示したりするためのもので、販売員
がマウスを用いて、例えば、所望の切り出し画像の選択
と配置位置等とを指示することにより入力される。
The second parameter 627 is, for example,
It is used to indicate which cutout image is to be combined with which position in the background image, to indicate the size of the cutout image, or to switch the background image. For example, it is input by instructing selection of a desired cut-out image and an arrangement position.

【0050】合成部211では、第2のパラメータ62
7に従って、背景画像としての第2の画像に、切出し部
209で切り出された画像と、切出し部624で切り出
された販売員の顔画像と、情報記憶部612から読み出
された商品の画像とを第2のパラメータ627により指
示された配置位置に合成する。
In the synthesizing section 211, the second parameter 62
7, the image cut out by the cutout unit 209, the face image of the salesperson cut out by the cutout unit 624, and the image of the product read from the information storage unit 612 in the second image as the background image At the arrangement position specified by the second parameter 627.

【0051】合成部211で合成する際には、販売員が
操作部620を操作することで入力された第2のパラメ
ータ627により、例えば、購買者の顔画像、販売員の
顔画像、帽子などの商品の画像の配置や大きさを変えた
り、背景画像を他の画像に切り替えたりできる。背景画
像を切り替えることにより、雰囲気を盛り上げて、購買
意欲を増幅させることも可能となる。また、図8に示し
たように、あたかも帽子を購買者がかぶっているように
合成することも可能である。購買者が頭部を動かして
も、その位置は切出し部209で検出しているので、そ
の動きに追随して帽子も移動させることができる。
At the time of synthesizing by the synthesizing unit 211, for example, a face image of a purchaser, a facial image of a sales clerk, a hat, etc., based on the second parameter 627 input by the salesperson operating the operation unit 620 It is possible to change the arrangement and size of the image of the product and to switch the background image to another image. By switching the background image, it is possible to excite the atmosphere and amplify the purchase will. Further, as shown in FIG. 8, it is also possible to combine the hats as if they were wearing a hat. Even if the purchaser moves his / her head, the position is detected by the cutout unit 209, so that the hat can be moved following the movement.

【0052】なお、操作部620は、販売員以外のもの
が操作してもよい。
The operation section 620 may be operated by a person other than the salesperson.

【0053】以上は、商店側の端末である第2の端末で
合成パラメータを設定する場合を説明したが、この場合
に限らず、購買者側の端末である第1の端末で合成のた
めのパラメータを設定することも可能である。
In the above description, the case where the combination parameter is set at the second terminal, which is the terminal on the store side, has been described. However, the present invention is not limited to this case. It is also possible to set parameters.

【0054】図5は、購買者側の端末である第1の端末
で合成パラメータを設定する場合のシステム構成を示し
たものである。なお、図1と同一部分には同一符号を付
し、異なる部分について説明する。すなわち、図5の第
1の端末201にはパラメータ設定部430が新たに設
けられ、第2の端末206の合成部211では、パラメ
ータ設定部430で設定されたパラメータを基に合成を
行うようになっている。なお、第1の端末は複数あって
もよく、この場合、第2の端末は複数の第1の端末とそ
れぞれ通信可能に接続されていればよい。
FIG. 5 shows a system configuration in a case where the combination parameter is set at the first terminal which is the terminal on the purchaser side. The same parts as those in FIG. 1 are denoted by the same reference numerals, and different parts will be described. That is, a parameter setting unit 430 is newly provided in the first terminal 201 of FIG. 5, and the combining unit 211 of the second terminal 206 performs combining based on the parameters set by the parameter setting unit 430. Has become. Note that there may be a plurality of first terminals, and in this case, the second terminal only needs to be communicably connected to the plurality of first terminals.

【0055】パラメータ設定部430では、購買者の操
作に従って、合成のためのパラメータ434が設定さ
れ、圧縮部204に送られる。圧縮部204では、カメ
ラ202で撮影された画像、すなわち、第1の画像20
3を変換した圧縮データに、パラメータ設定部430で
設定されたパラメータ434を多重化して伝送データ2
05として伝送する。
In parameter setting section 430, parameters 434 for combination are set in accordance with the operation of the purchaser and sent to compression section 204. In the compression unit 204, the image captured by the camera 202, that is, the first image 20
3 is multiplexed with the parameter 434 set by the parameter setting unit 430 on the compressed data obtained by converting
05 is transmitted.

【0056】第2の端末206の再生部207では、伝
送データ205からパラメータ436を分離して合成部
211に送る。合成部211では、パラメータ436に
従って画像を合成する。
The reproducing unit 207 of the second terminal 206 separates the parameter 436 from the transmission data 205 and sends it to the synthesizing unit 211. The combining unit 211 combines the images according to the parameter 436.

【0057】図6は、図5のシステムの処理動作を説明
するためのフローチャートである。
FIG. 6 is a flowchart for explaining the processing operation of the system of FIG.

【0058】なお、図6において、図2と同一部分に
は、同一符号を付し、異なる部分について説明する。す
なわち、図6では、図2のステップS2をステップS2
2とステップS23とに置き換え、図2のステップS5
をステップS24に置き換えている。
In FIG. 6, the same parts as those in FIG. 2 are denoted by the same reference numerals, and different parts will be described. That is, in FIG. 6, step S2 of FIG.
2 and step S23, and step S5 in FIG.
Is replaced with step S24.

【0059】ステップS22では、パラメータ設定部4
30で合成のためのパラメータを設定する。例えば、購
買者は、表示部219に表示された、図8に示したよう
な商店側の第2の端末から送られてきた合成画像を見な
がら、帽子の画像M1ではなく、別の帽子の画像M3を
マウスでクリックする。すると、その選択された帽子の
画像M3に対応する商品の帽子を示すものが購買者によ
り設定されたパラメータとなる。また、予め第2の端末
206から第1の端末201に商品のリストが提供され
ているとき、このリストから所望の商品(例えば、帽
子)をマウス等を用いて選択する。すると、この選択さ
れた商品を示すものが購買者により設定されたパラメー
タとなる。顧客側が設定するパラメータとしては、上記
の他にも種々考えられる。例えば、背景画像を指示する
ためのものであってもよい。要は、販売者側に第1の画
像と合成する第2の画像や合成画像に対する顧客の希望
・指示を伝えるものであれば、何でもよい。
In step S22, the parameter setting unit 4
In step 30, parameters for combination are set. For example, while looking at the composite image transmitted from the second terminal on the shop side as shown in FIG. 8 and displayed on the display unit 219, the purchaser does not use the hat image M1 but a different hat image. Click the image M3 with the mouse. Then, what indicates the product hat corresponding to the selected hat image M3 is the parameter set by the purchaser. When a list of products is provided from the second terminal 206 to the first terminal 201 in advance, a desired product (for example, a hat) is selected from the list using a mouse or the like. Then, what indicates the selected product is a parameter set by the purchaser. Various parameters other than those described above can be considered as parameters set by the customer. For example, it may be for designating a background image. In short, any method can be used as long as it informs the seller of the customer's desire / instruction for the second image or the combined image to be combined with the first image.

【0060】ステップS23では、第1の画像として、
例えば、図8に示したような合成画像あるいは図7に示
したような画像と、パラメータとが伝送される。
In step S23, as the first image,
For example, a composite image as shown in FIG. 8 or an image as shown in FIG. 7 and a parameter are transmitted.

【0061】図7に示したような物体画像の抽出されて
いない第1の画像に対しては、図2の説明と同様にして
物体画像の抽出を行い(ステップS3)、背景画像とし
ての第2の画像に合成する(ステップS4〜ステップS
24)。
For the first image from which no object image has been extracted as shown in FIG. 7, an object image is extracted in the same manner as described with reference to FIG. 2 (step S3), and the first image as a background image is extracted. (Step S4 to Step S4)
24).

【0062】さらに、ステップS24において、合成部
211では、第1の端末から第1の画像とともに送られ
てきたパラメータに従って、例えば、当該購買者により
選択された帽子の画像M3を購買者の頭部に合成する。
Further, in step S24, the synthesizing unit 211, for example, converts the image M3 of the hat selected by the buyer into the head of the buyer according to the parameters sent together with the first image from the first terminal. To be synthesized.

【0063】なお、図6では、最後のステップ(ステッ
プS7)が終了したら直ちに最初のステップに戻るよう
になっている。これにより動画像の処理が可能となる。
In FIG. 6, the process returns to the first step immediately after the last step (step S7) is completed. This enables processing of a moving image.

【0064】これにより、購買者の好みに応じた合成画
像を生成できる。
Thus, it is possible to generate a composite image according to the purchaser's preference.

【0065】本発明を用いれば、例えば、第2の端末2
06では、第1の画像として送られてきた第1の端末2
01のユーザの顔画像を抽出して、それに化粧を施した
画像を合成することも可能である。そうすれば、遠隔地
に居ながら、様々な色の口紅を試して気に入ったものを
購入することもできる。
According to the present invention, for example, the second terminal 2
06, the first terminal 2 sent as the first image
It is also possible to extract a face image of the user No. 01 and synthesize a makeup image on the face image. That way, you can even try out different colored lipsticks and buy the one you like while staying in a remote location.

【0066】また、第2の端末206に有名タレントの
画像を予め用意しておき、それに第1の画像から抽出さ
れた第1の端末201のユーザの画像を合成すること
で、あたかも、そのタレントと一緒に写したかのような
画像を遠隔地に居ながら即座に取得することもできる。
Also, an image of a famous talent is prepared in the second terminal 206 in advance, and an image of the user of the first terminal 201 extracted from the first image is combined with the image to make it as if the talent is It is also possible to immediately obtain an image as if it were taken together with the remote location.

【0067】本システムを商品販売に用いる場合は、合
成画像に購入ボタンを配置すれば、購買者がこれをクリ
ックすることで、購入の意思を販売者に伝えることがで
きる。あるいは、購入ボタンを配置しなくても、その商
品の上で例えばダブルクリックすることにより、発注す
る方法もある。これらの場合には、図5や図6を参照し
た説明したに実施形態を用いれば、購買者の操作を販売
者側に伝えることができる。
In the case where the present system is used for selling goods, if a purchase button is arranged on the composite image, the purchaser can inform the seller of the purchase intention by clicking the purchase button. Alternatively, even if the purchase button is not arranged, there is a method of placing an order by double-clicking on the product, for example. In these cases, the operation of the buyer can be transmitted to the seller by using the embodiment described with reference to FIGS.

【0068】本発明の実施の形態に記載した本発明の手
法は、コンピュータに実行させることのできるプログラ
ムとして、磁気ディスク(フロッピー(登録商標)ディ
スク、ハードディスクなど)、光ディスク(CD−RO
M、DVDなど)、半導体メモリなどの記録媒体に格納
して頒布することもできる。
The method of the present invention described in the embodiments of the present invention can be executed by a computer as a program such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-RO).
M, DVD, etc.) and a storage medium such as a semiconductor memory.

【0069】なお、本発明は、上記実施形態に限定され
るものではなく、実施段階ではその要旨を逸脱しない範
囲で種々に変形することが可能である。さらに、上記実
施形態には種々の段階の発明は含まれており、開示され
る複数の構成用件における適宜な組み合わせにより、種
々の発明が抽出され得る。例えば、実施形態に示される
全構成要件から幾つかの構成要件が削除されても、発明
が解決しようとする課題の欄で述べた課題(の少なくと
も1つ)が解決でき、発明の効果の欄で述べられている
効果(のなくとも1つ)が得られる場合には、この構成
要件が削除された構成が発明として抽出され得る。
It should be noted that the present invention is not limited to the above-described embodiment, and can be variously modified in an implementation stage without departing from the gist of the invention. Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriate combinations of a plurality of disclosed configuration requirements. For example, even if some components are deleted from all the components shown in the embodiment, (at least one of) the problems described in the column of the problem to be solved by the invention can be solved, and the effect of the invention can be solved. If at least one of the effects described in (1) is obtained, a configuration from which this component is deleted can be extracted as an invention.

【0070】[0070]

【発明の効果】以上説明したように、本発明によれば、
処理能力の小さい携帯型の通信端末も参加可能な分散処
理型の画像合成を可能にする。
As described above, according to the present invention,
It enables distributed processing type image synthesis in which even a portable communication terminal having a small processing capacity can participate.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態に係る第1の端末と第
2の端末の構成例を示した図。
FIG. 1 is a diagram showing a configuration example of a first terminal and a second terminal according to a first embodiment of the present invention.

【図2】第1の実施形態に係る第1の端末と第2の端末
の処理動作を説明するためのフローチャート。
FIG. 2 is a flowchart for explaining processing operations of a first terminal and a second terminal according to the first embodiment.

【図3】物体画像切出し処理を説明するためのフローチ
ャート。
FIG. 3 is a flowchart for explaining an object image cutout process.

【図4】本発明の第2の実施形態に係る第1の端末と第
2の端末の構成例を示した図。
FIG. 4 is a diagram showing a configuration example of a first terminal and a second terminal according to a second embodiment of the present invention.

【図5】第2の実施形態に係る第1の端末と第2の端末
の他の構成例を示した図。
FIG. 5 is a diagram showing another configuration example of the first terminal and the second terminal according to the second embodiment.

【図6】第2の実施形態に係る第1の端末と第2の端末
の処理動作を説明するためのフローチャート。
FIG. 6 is a flowchart for explaining processing operations of a first terminal and a second terminal according to the second embodiment.

【図7】第1の画像の具体例を示した図。FIG. 7 is a view showing a specific example of a first image.

【図8】合成画像の具体例を示した図。FIG. 8 is a diagram showing a specific example of a composite image.

【図9】従来の分散処理型の画像合成を行うための各端
末の構成例を示した図。
FIG. 9 is a diagram showing a configuration example of each terminal for performing a conventional distributed processing type image synthesis.

【符号の説明】[Explanation of symbols]

201…第1の端末 202…カメラ 203、208…第1の画像 204…圧縮部 205、216…圧縮データ 206…第2の端末 207…再生部 209…切出し部 210…切出し画像 211…合成部 212…第2の画像記憶部 213…第2の画像 214、218…合成画像 215…圧縮部 217…再生部 219…表示部 201: first terminal 202: camera 203, 208 ... first image 204 ... compression unit 205, 216 ... compressed data 206 ... second terminal 207 ... reproduction unit 209 ... cutout unit 210 ... cutout image 211 ... synthesis unit 212 ... second image storage unit 213 ... second images 214 and 218 ... composite image 215 ... compression unit 217 ... reproduction unit 219 ... display unit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 1または複数の第1の端末と互いに通信
可能に接続された第2の端末において、自端末で取得し
た第2の画像と前記第1の端末から送信されてきた第1
の画像中から抽出した物体画像とを合成した合成画像を
生成し、この合成画像を、前記第1の端末に送信して表
示させることを特徴とする画像合成方法。
A second terminal communicably connected to one or more first terminals and a second image acquired by the first terminal and a first image transmitted from the first terminal.
An image combining method comprising: generating a combined image by combining an object image extracted from an image of a first terminal; and transmitting the combined image to the first terminal for display.
【請求項2】 前記第1の端末から送信される前記第1
の画像には、前記第1の画像と合成する第2の画像に対
する前記第1の端末のユーザの指示情報が付加され、前
記第2の端末は、受信した前記第1の画像に付加された
前記指示情報に基づき前記合成画像を生成することを特
徴とする請求項1記載の画像合成方法。
2. The first terminal transmitted from the first terminal.
The information of the user of the first terminal with respect to the second image to be combined with the first image is added to the image of the first image, and the second terminal is added to the received first image. 2. The image synthesizing method according to claim 1, wherein the synthetic image is generated based on the instruction information.
【請求項3】 前記第1の端末は、前記合成画像に前記
1の端末のユーザの前記合成画像に対する指示情報を付
加して前記第2の端末へ送信し、前記第2の端末は、受
信した前記合成画像に付加された指示情報と前記合成画
像とに基づき新たな合成画像を生成することを特徴とす
る請求項1記載の画像合成方法。
3. The first terminal adds the instruction information of the user of the first terminal to the composite image to the composite image and transmits the composite image to the second terminal, and the second terminal receives the composite image. The method according to claim 1, wherein a new composite image is generated based on the instruction information added to the composite image and the composite image.
【請求項4】 相手装置から第1の画像を受信する手段
と、 前記第1の画像中から所定の物体画像を抽出する手段
と、 自装置で取得した第2の画像と前記物体画像とを合成し
た合成画像を生成する手段と、 前記合成画像を前記相手装置へ送信して表示させる手段
と、 を具備したことを特徴とする情報処理装置。
4. A means for receiving a first image from a partner device, a means for extracting a predetermined object image from the first image, and a second image and an object image acquired by the own device. An information processing apparatus comprising: a unit configured to generate a combined image that has been combined; and a unit configured to transmit the combined image to the partner device and display the combined image.
【請求項5】 受信した前記第1の画像に、前記第1の
画像と合成する第2の画像に対する前記相手装置のユー
ザの指示情報が付加されているとき、この指示情報に基
づき前記合成画像を生成することを特徴とする請求項4
記載の情報処理装置。
5. When the received first image is added with instruction information of a user of the counterpart device for a second image to be combined with the first image, the combined image is displayed based on the instruction information. 5. The method according to claim 4, wherein
An information processing apparatus according to claim 1.
【請求項6】 相手装置から、前記相手端末のユーザの
前記合成画像に対する指示情報の付加された前記合成画
像を受信する手段と、 前記合成画像と該合成画像に付加された指示情報とに基
づき新たな合成画像を生成する手段と、 をさらに具備したことを特徴とする請求項4記載の情報
処理装置。
6. A means for receiving, from a partner device, the composite image to which instruction information of the user of the partner terminal for the composite image has been added, based on the composite image and the instruction information added to the composite image. The information processing apparatus according to claim 4, further comprising: means for generating a new composite image.
【請求項7】 相手装置から送信されてくる第1の画像
を用いて合成画像を生成する処理をコンピュータに実行
させるためのプログラムを記録した機械読み取り可能な
記録媒体であって、 前記相手装置から第1の画像を受信するための処理と、 前記第1の画像中から所定の物体画像を抽出するための
処理と、 前記第1の画像とは別個に取得した第2の画像と前記物
体画像とを合成した合成画像を生成するための処理と、 前記合成画像を前記相手装置へ送信して表示させるため
の処理と、 をコンピュータに実行させるためのプログラムを記録し
た記録媒体。
7. A machine-readable recording medium on which a program for causing a computer to execute a process of generating a composite image using a first image transmitted from a partner device is recorded. A process for receiving a first image, a process for extracting a predetermined object image from the first image, a second image and the object image acquired separately from the first image A recording medium storing a program for causing a computer to execute a process for generating a combined image obtained by combining the above and a process for transmitting and displaying the combined image to the partner device.
【請求項8】 相手装置から送信されてくる第1の画像
を用いて合成画像を生成する処理をコンピュータに実行
させるためのプログラム製品であって、 前記相手装置から第1の画像を受信するための処理と、 前記第1の画像中から所定の物体画像を抽出するための
処理と、 前記第1の画像とは別個に取得した第2の画像と前記物
体画像とを合成した合成画像を生成するための処理と、 前記合成画像を前記相手装置へ送信して表示させるため
の処理と、 をコンピュータに実行させるためのプログラム製品。
8. A program product for causing a computer to execute a process of generating a composite image using a first image transmitted from a partner device, wherein the program product receives a first image from the partner device. And a process for extracting a predetermined object image from the first image; and generating a combined image obtained by combining the second image acquired separately from the first image and the object image. And a process for transmitting the composite image to the partner device and displaying the composite image.
JP2000295242A 2000-09-27 2000-09-27 Image composition method and information processor Pending JP2002111998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000295242A JP2002111998A (en) 2000-09-27 2000-09-27 Image composition method and information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000295242A JP2002111998A (en) 2000-09-27 2000-09-27 Image composition method and information processor

Publications (1)

Publication Number Publication Date
JP2002111998A true JP2002111998A (en) 2002-04-12

Family

ID=18777700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000295242A Pending JP2002111998A (en) 2000-09-27 2000-09-27 Image composition method and information processor

Country Status (1)

Country Link
JP (1) JP2002111998A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004171543A (en) * 2002-11-07 2004-06-17 Matsushita Electric Ind Co Ltd Method and device for image processing
WO2005011263A1 (en) * 2003-07-04 2005-02-03 Field System, Inc. Moving picture generation/distribution system and imaging support tool for mobile terminal
US7088385B2 (en) 2002-04-26 2006-08-08 Kabushiki Kaisha Toshiba Information apparatus, picture display method, and picture transmitting method
JP2007527128A (en) * 2003-06-19 2007-09-20 ソニー エリクソン モバイル コミュニケーションズ, エービー Mixing media streams
JP2014106647A (en) * 2012-11-26 2014-06-09 Canon Inc Image processing apparatus, image processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7088385B2 (en) 2002-04-26 2006-08-08 Kabushiki Kaisha Toshiba Information apparatus, picture display method, and picture transmitting method
JP2004171543A (en) * 2002-11-07 2004-06-17 Matsushita Electric Ind Co Ltd Method and device for image processing
JP2007527128A (en) * 2003-06-19 2007-09-20 ソニー エリクソン モバイル コミュニケーションズ, エービー Mixing media streams
US7907638B2 (en) 2003-06-19 2011-03-15 Sony Ericsson Mobile Communications, Ab Media stream mixing
WO2005011263A1 (en) * 2003-07-04 2005-02-03 Field System, Inc. Moving picture generation/distribution system and imaging support tool for mobile terminal
JP2014106647A (en) * 2012-11-26 2014-06-09 Canon Inc Image processing apparatus, image processing method, and program

Similar Documents

Publication Publication Date Title
US11383163B2 (en) Game presenting system
CN106792228B (en) Live broadcast interaction method and system
US20190030441A1 (en) Using a Portable Device to Interface with a Scene Rendered on a Main Display
JP5201142B2 (en) Screen transmission system, screen transmission server, screen transmission method, and program recording medium
US7263499B2 (en) Electronic commerce system in which commodities are displayed in combination with background images
WO2020150693A1 (en) Systems and methods for generating personalized videos with customized text messages
US20220286624A1 (en) Personalized videos
JP2019054488A (en) Providing apparatus, providing method, and program
US20230049489A1 (en) Personalized videos featuring multiple persons
US20240087204A1 (en) Generating personalized videos with customized text messages
US6307561B1 (en) Animation generating apparatus and method
JP5123089B2 (en) Image distribution system, server, method and program thereof
US11477366B2 (en) Selfie setup and stock videos creation
JP5596844B2 (en) Image processing apparatus, image processing system, and image processing method
JP2017027482A (en) Server, data providing method and program for server
JP2002111998A (en) Image composition method and information processor
KR102337020B1 (en) Augmented reality video production system and method using 3d scan data
WO2018042963A1 (en) Attention object-related information providing system and information providing method
JP6609078B1 (en) Content distribution system, content distribution method, and content distribution program
CN111538920A (en) Content presentation method, device, system, storage medium and electronic device
JPH09138860A (en) System for taking actually taken picture into virtual picture space
JP2004207936A (en) Image processing apparatus
JP2015136069A (en) Video distribution system, video distribution method, and video distribution program
JP2007004442A (en) Panorama virtual reality file providing device, program, method, and system
JP6135463B2 (en) Simulation system, simulation method, program, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050705