JP7560207B2 - オブジェクトの表示方法、装置、電子機器及びコンピュータ可読型記憶媒体 - Google Patents
オブジェクトの表示方法、装置、電子機器及びコンピュータ可読型記憶媒体 Download PDFInfo
- Publication number
- JP7560207B2 JP7560207B2 JP2022522321A JP2022522321A JP7560207B2 JP 7560207 B2 JP7560207 B2 JP 7560207B2 JP 2022522321 A JP2022522321 A JP 2022522321A JP 2022522321 A JP2022522321 A JP 2022522321A JP 7560207 B2 JP7560207 B2 JP 7560207B2
- Authority
- JP
- Japan
- Prior art keywords
- target object
- shape
- point
- tracking point
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000004044 response Effects 0.000 claims description 46
- 230000008859 change Effects 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 15
- 230000000295 complement effect Effects 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000008034 disappearance Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本願は、2019年10月14日に中国特許庁に出願した、出願番号が201910974919.3であり、発明の名称が「オブジェクトの表示方法、装置、電子機器及びコンピュータ可読型記憶媒体」である中国特許出願の優先権を主張し、その全ての内容が参照により本願に援用される。
動画画像を受信するステップと、
前記動画画像における目標オブジェクトを識別するステップと、
識別された第1の目標オブジェクトに応じて、前記動画画像の第1の位置に第1の形状を有する第1のオブジェクトを表示するステップと、
識別された第2の目標オブジェクトに応じて、前記動画画像の第2の位置に第2の形状を有する第2のオブジェクトを表示するステップと、
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離が第1の閾値より小さい場合、前記第1のオブジェクトと第2のオブジェクトとを結合させて、前記第1のオブジェクトと前記第2のオブジェクトとが第3の形状を形成し、前記第3の形状は、前記第1の形状と前記第2の形状との組合せによって形成されるステップと、を含む。
動画画像を受信するための画像受信手段と、
前記動画画像における目標オブジェクトを識別するための目標オブジェクト識別手段と、
識別された第1の目標オブジェクトに応じて、前記動画画像の第1の位置に第1の形状を有する第1のオブジェクトを表示するための第1のオブジェクト表示手段と、
識別された第2の目標オブジェクトに応じて、前記動画画像の第2の位置に第2の形状を有する第2のオブジェクトを表示するための第2のオブジェクト表示手段と、
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離が第1の閾値より小さい場合、前記第1のオブジェクトと第2のオブジェクトとを結合させて、前記第1のオブジェクトと前記第2のオブジェクトとが第3の形状を形成し、前記第3の形状が、前記第1の形状と前記第2の形状との組合せによって形成される結合手段と、を備える。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続され、前記少なくとも1つのプロセッサによって実行される指令が記憶されているメモリと、を備え、
前記指令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが上記の第1形態におけるオブジェクトの表示方法を実行する。
コンピュータに上記の第1形態におけるオブジェクトの表示方法を実行させるためのコンピュータ指令を記憶する。
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離が第2の閾値より小さい場合、第1のオブジェクト及びオブジェクトを消失させるための消失制御手段と、
第3の形状を有する第3のオブジェクトを含む第1のシーケンスフレームを表示するためのシーケンスフレーム表示手段と、
をさらに備える。
識別された第1の目標オブジェクトに応じて、前記第1の目標オブジェクトの追跡点を取得するための第1の追跡点取得ユニットと、
前記第1の目標オブジェクトの追跡点に基づいて、前記第1の位置を算出するための第1の位置算出ユニットと、
前記第1の位置に前記第1のオブジェクトを表示するための第1のオブジェクト表示ユニットと、
をさらに備える。
識別された第1の目標オブジェクトに応じて、前記第1の目標オブジェクトの前記動画画像における位置を決定するための第1の目標オブジェクト位置決定部と、
前記第1の目標オブジェクトの前記動画画像における位置に基づいて、前記第1の目標オブジェクトの追跡点を取得するための第1の追跡点取得部と、
をさらに備える。
識別された第2の目標オブジェクトに応じて、前記第2の目標オブジェクトの追跡点を取得するための第2の追跡点取得ユニットと、
前記第2の目標オブジェクトの追跡点に基づいて、前記第2の位置を算出するための第2の位置算出ユニットと、
前記第2の位置に前記第2のオブジェクトを表示するための第2のオブジェクト表示ユニットと、
をさらに備える。
識別された第2の目標オブジェクトに応じて、前記第2の目標オブジェクトの前記動画画像における位置を決定するための第2の目標オブジェクト位置決定部と、
前記第2の目標オブジェクトの前記動画画像における位置に基づいて、前記第2の目標オブジェクトの追跡点を取得するための第2の追跡点取得部と、
をさらに備える。
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの距離を算出するための距離算出手段と、
前記距離に基づいて、前記第1のオブジェクト及び前記第2のオブジェクトの変化パラメータを取得するための変化パラメータ取得手段と、
前記変化パラメータに基づいて、前記第1のオブジェクト及び前記第2のオブジェクトの表示状態を変更するための表示状態変更手段と、
をさらに備える。
動画画像を受信するステップと、
前記動画画像における目標オブジェクトを識別するステップと、
識別された第1の目標オブジェクトに応じて、前記動画画像の第1の位置に第1の形状を有する第1のオブジェクトを表示するステップと、
識別された第2の目標オブジェクトに応じて、前記動画画像の第2の位置に第2の形状を有する第2のオブジェクトを表示するステップと、
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離が第1の閾値より小さい場合、前記第1のオブジェクトと第2のオブジェクトとを結合させて、前記第1のオブジェクトと前記第2のオブジェクトとが第3の形状を形成し、前記第3の形状は、前記第1の形状と前記第2の形状との組合せによって形成されるステップと、
を含む。
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離が第2の閾値より小さい場合、第1のオブジェクトと第2のオブジェクトとを消失させるステップと、
第3の形状を有する第3のオブジェクトを含む第1のシーケンスフレームを表示するステップと、
をさらに含む。
識別された第1の目標オブジェクトに応じて、前記第1の目標オブジェクトの追跡点を取得するステップと、
前記第1の目標オブジェクトの追跡点に基づいて、前記第1の位置を算出するステップと、
前記第1の位置に前記第1のオブジェクトを表示するステップと、
をさらに含む。
識別された第1の目標オブジェクトに応じて、前記第1の目標オブジェクトの前記動画画像における位置を決定するステップと、
前記第1の目標オブジェクトの前記動画画像における位置に基づいて、前記第1の目標オブジェクトの追跡点を取得するステップと、
をさらに含む。
識別された第2の目標オブジェクトに応じて、前記第2の目標オブジェクトの追跡点を取得するステップと、
前記第2の目標オブジェクトの追跡点に基づいて、前記第2の位置を算出するステップと、
前記第2の位置に前記第2のオブジェクトを表示するステップと、
をさらに含む。
識別された第2の目標オブジェクトに応じて、前記第2の目標オブジェクトの前記動画画像における位置を決定するステップと、
前記第2の目標オブジェクトの前記動画画像における位置に基づいて、前記第2の目標オブジェクトの追跡点を取得するステップと、
をさらに含む。
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離を算出するステップと、
前記距離に基づいて、前記第1のオブジェクト及び前記第2のオブジェクトの変化パラメータを取得するステップと、
前記変化パラメータに基づいて、前記第1のオブジェクト及び前記第2のオブジェクトの表示状態を変更するステップと、
をさらに含む。
動画画像を受信するための画像受信手段と、
前記動画画像における目標オブジェクトを識別するための目標オブジェクト識別手段と、
識別された第1の目標オブジェクトに応じて、前記動画画像の第1の位置に第1の形状を有する第1のオブジェクトを表示するための第1のオブジェクト表示手段と、
識別された第2の目標オブジェクトに応じて、前記動画画像の第2の位置に第2の形状を有する第2のオブジェクトを表示するための第2のオブジェクト表示手段と、
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離が第1の閾値より小さい場合、前記第1のオブジェクトと第2のオブジェクトとを結合させて、前記第1のオブジェクトと前記第2のオブジェクトとが第3の形状を形成し、前記第3の形状が、前記第1の形状と前記第2の形状との組合せによって形成される結合手段と、
を備える。
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離が第2の閾値より小さい場合、第1のオブジェクト及びオブジェクトを消失させるための消失制御手段と、
第3の形状を有する第3のオブジェクトを含む第1のシーケンスフレームを表示するためのシーケンスフレーム表示手段と、
をさらに備える。
識別された第1の目標オブジェクトに応じて、前記第1の目標オブジェクトの追跡点を取得するための第1の追跡点取得ユニットと、
前記第1の目標オブジェクトの追跡点に基づいて、前記第1の位置を算出するための第1の位置算出ユニットと、
前記第1の位置に前記第1のオブジェクトを表示するための第1のオブジェクト表示ユニットと、
をさらに備える。
識別された第1の目標オブジェクトに応じて、前記第1の目標オブジェクトの前記動画画像における位置を決定するための第1の目標オブジェクト位置決定部と、
前記第1の目標オブジェクトの前記動画画像における位置に基づいて、前記第1の目標オブジェクトの追跡点を取得するための第1の追跡点取得部と、
をさらに備える。
識別された第2の目標オブジェクトに応じて、前記第2の目標オブジェクトの追跡点を取得するための第2の追跡点取得ユニットと、
前記第2の目標オブジェクトの追跡点に基づいて、前記第2の位置を算出するための第2の位置算出ユニットと、
前記第2の位置に前記第2のオブジェクトを表示するための第2のオブジェクト表示ユニットと、
をさらに備える。
識別された第2の目標オブジェクトに応じて、前記第2の目標オブジェクトの前記動画画像における位置を決定するための第2の目標オブジェクト位置決定部と、
前記第2の目標オブジェクトの前記動画画像における位置に基づいて、前記第2の目標オブジェクトの追跡点を取得するための第2の追跡点取得部と、
をさらに備える。
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの距離を算出するための距離算出手段と、
前記距離に基づいて、前記第1のオブジェクト及び前記第2のオブジェクトの変化パラメータを取得するための変化パラメータ取得手段と、
前記変化パラメータに基づいて、前記第1のオブジェクト及び前記第2のオブジェクトの表示状態を変更するための表示状態変更手段と、
をさらに備える。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続され、前記少なくとも1つのプロセッサによって実行される指令が記憶されているメモリと、を備え、
前記指令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが上記のしたいずれか1つの前記オブジェクトの表示方法を実行する。
コンピュータに上記したいずれか1つの前記オブジェクトの表示方法を実行させるためのコンピュータ指令を記憶する。
Claims (8)
- 動画画像を受信するステップと、
前記動画画像における目標オブジェクトを識別するステップであり、前記目標オブジェクトは、第1の目標オブジェクト及び第2の目標オブジェクトを含む、ステップと、
識別された前記第1の目標オブジェクトに応じて、前記第1の目標オブジェクトの追跡点を取得し、前記第1の目標オブジェクトの前記追跡点に基づいて第1の位置を算出し、前記動画画像の前記第1の位置に第1の形状を有する第1のオブジェクトを表示するステップであり、前記第1の目標オブジェクトの前記追跡点は、前記第1の目標オブジェクトのキーポイントとエッジ上のキーポイントとの連結線の延長線上の点であり、前記第1の目標オブジェクトの前記追跡点は、前記第1の目標オブジェクトの領域の外部に位置し、前記第1の目標オブジェクトの前記キーポイントは、前記第1の目標オブジェクトの前記領域の内部に位置する、ステップと、
識別された前記第2の目標オブジェクトに応じて、前記第2の目標オブジェクトの追跡点を取得し、前記第2の目標オブジェクトの前記追跡点に基づいて第2の位置を算出し、前記動画画像の前記第2の位置に第2の形状を有する第2のオブジェクトを表示するステップであり、前記第2の形状が前記第1の形状と相補する形状であり、前記第2の目標オブジェクトの前記追跡点は、前記第2の目標オブジェクトのキーポイントとエッジ上のキーポイントとの連結線の延長線上の点であり、前記第2の目標オブジェクトの前記追跡点は、前記第2の目標オブジェクトの領域の外部に位置し、前記第2の目標オブジェクトの前記キーポイントは、前記第2の目標オブジェクトの前記領域の内部に位置する、ステップと、
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離が第1の閾値より小さい場合、前記第1のオブジェクトと第2のオブジェクトとを結合させて、前記第1のオブジェクトと前記第2のオブジェクトとが第3の形状を形成し、前記第3の形状は、前記第1の形状と前記第2の形状との組合せによって形成されるステップと、を含むことを特徴とするオブジェクトの表示方法。 - 前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離が第2の閾値より小さい場合、第1のオブジェクトと第2のオブジェクトとを消失させるステップと、
第3の形状を有する第3のオブジェクトを含む第1のシーケンスフレームを表示するステップと、をさらに含むことを特徴とする請求項1に記載のオブジェクトの表示方法。 - 上記の識別された第1の目標オブジェクトに応じて、前記第1の目標オブジェクトの追跡点を取得するステップは、
識別された第1の目標オブジェクトに応じて、前記第1の目標オブジェクトの前記動画画像における位置を決定するステップと、
前記第1の目標オブジェクトの前記動画画像における位置に基づいて、前記第1の目標オブジェクトの追跡点を取得するステップと、をさらに含むことを特徴とする請求項1に記載のオブジェクトの表示方法。 - 上記の識別された第2の目標オブジェクトに応じて、前記第2の目標オブジェクトの追跡点を取得するステップは、
識別された第2の目標オブジェクトに応じて、前記第2の目標オブジェクトの前記動画画像における位置を決定するステップと、
前記第2の目標オブジェクトの前記動画画像における位置に基づいて、前記第2の目標オブジェクトの追跡点を取得するステップと、をさらに含むことを特徴とする請求項1に記載のオブジェクトの表示方法。 - 上記の識別された第2の目標オブジェクトに応じて、前記動画画像の第2の位置に第2の形状を有する第2のオブジェクトを表示するステップの後に、
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離を算出するステップと、
前記距離に基づいて、前記第1のオブジェクト及び前記第2のオブジェクトの変化パラメータを取得するステップと、
前記変化パラメータに基づいて、前記第1のオブジェクト及び前記第2のオブジェクトの表示状態を変更するステップと、をさらに含むことを特徴とする請求項1に記載のオブジェクトの表示方法。 - 動画画像を受信するための画像受信手段と、
前記動画画像における目標オブジェクトを識別するための目標オブジェクト識別手段であり、前記目標オブジェクトは、第1の目標オブジェクト及び第2の目標オブジェクトを含む、目標オブジェクト識別手段と、
識別された前記第1の目標オブジェクトに応じて、前記第1の目標オブジェクトの追跡点を取得し、前記第1の目標オブジェクトの前記追跡点に基づいて第1の位置を算出し、前記動画画像の前記第1の位置に第1の形状を有する第1のオブジェクトを表示するための第1のオブジェクト表示手段であり、前記第1の目標オブジェクトの前記追跡点は、前記第1の目標オブジェクトのキーポイントとエッジ上のキーポイントとの連結線の延長線上の点であり、前記第1の目標オブジェクトの前記追跡点は、前記第1の目標オブジェクトの領域の外部に位置し、前記第1の目標オブジェクトの前記キーポイントは、前記第1の目標オブジェクトの前記領域の内部に位置する、第1のオブジェクト表示手段と、
識別された前記第2の目標オブジェクトに応じて、前記第2の目標オブジェクトの追跡点を取得し、前記第2の目標オブジェクトの前記追跡点に基づいて第2の位置を算出し、前記動画画像の前記第2の位置に第2の形状を有する第2のオブジェクトを表示するための第2のオブジェクト表示手段であり、前記第2の形状が前記第1の形状と相補する形状であり、前記第2の目標オブジェクトの前記追跡点は、前記第2の目標オブジェクトのキーポイントとエッジ上のキーポイントとの連結線の延長線上の点であり、前記第2の目標オブジェクトの前記追跡点は、前記第2の目標オブジェクトの領域の外部に位置し、前記第2の目標オブジェクトの前記キーポイントは、前記第2の目標オブジェクトの前記領域の内部に位置する、第2のオブジェクト表示手段と、
前記第1の目標オブジェクトと前記第2の目標オブジェクトとの間の距離が第1の閾値より小さい場合、前記第1のオブジェクトと第2のオブジェクトとを結合させて、前記第1のオブジェクトと前記第2のオブジェクトとが第3の形状を形成し、前記第3の形状が、前記第1の形状と前記第2の形状との組合せによって形成される結合手段と、を備えることを特徴とするオブジェクトの表示装置。 - コンピュータ可読指令を記憶するためのメモリと、
前記コンピュータ可読指令を実行するためのプロセッサと、を備え、
前記プロセッサが動作するときに、請求項1~5のいずれか1項に記載のオブジェクトの表示方法を実現することを特徴とする電子機器。 - コンピュータ可読指令を記憶した非一時的なコンピュータ可読型記憶媒体であって、
前記コンピュータ可読指令がコンピュータによって実行されるときに、前記コンピュータが請求項1~5のいずれか1項に記載のオブジェクトの表示方法を実行することを特徴とする非一時的なコンピュータ可読型記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910974919.3 | 2019-10-14 | ||
CN201910974919.3A CN110807728B (zh) | 2019-10-14 | 2019-10-14 | 对象的显示方法、装置、电子设备及计算机可读存储介质 |
PCT/CN2020/106818 WO2021073204A1 (zh) | 2019-10-14 | 2020-08-04 | 对象的显示方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022551671A JP2022551671A (ja) | 2022-12-12 |
JP7560207B2 true JP7560207B2 (ja) | 2024-10-02 |
Family
ID=69488395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022522321A Active JP7560207B2 (ja) | 2019-10-14 | 2020-08-04 | オブジェクトの表示方法、装置、電子機器及びコンピュータ可読型記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11810336B2 (ja) |
JP (1) | JP7560207B2 (ja) |
CN (1) | CN110807728B (ja) |
WO (1) | WO2021073204A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807728B (zh) | 2019-10-14 | 2022-12-13 | 北京字节跳动网络技术有限公司 | 对象的显示方法、装置、电子设备及计算机可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005107848A (ja) | 2003-09-30 | 2005-04-21 | Lic Corporation:Kk | 子供画像生成装置 |
JP2006048415A (ja) | 2004-08-05 | 2006-02-16 | Advanced Telecommunication Research Institute International | 画像合成装置 |
JP2012034242A (ja) | 2010-07-30 | 2012-02-16 | Namco Bandai Games Inc | 撮影装置、プログラム、情報記憶媒体及び撮影方法 |
JP2012039410A (ja) | 2010-08-06 | 2012-02-23 | Furyu Kk | 画像作成装置および方法、並びにプログラム |
JP2013247457A (ja) | 2012-05-24 | 2013-12-09 | Olympus Imaging Corp | 撮影機器及び動画像データの記録方法 |
JP2014074914A (ja) | 2013-11-11 | 2014-04-24 | Furyu Kk | 画像編集装置および方法、並びにプログラム |
WO2017013936A1 (ja) | 2015-07-21 | 2017-01-26 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2465791A (en) * | 2008-11-28 | 2010-06-02 | Sony Corp | Rendering shadows in augmented reality scenes |
CN101477690B (zh) * | 2008-12-30 | 2011-04-27 | 清华大学 | 一种视频帧序列中物体轮廓跟踪的方法和装置 |
JP5024465B2 (ja) * | 2010-03-26 | 2012-09-12 | 株式会社ニコン | 画像処理装置、電子カメラ、画像処理プログラム |
US8527445B2 (en) * | 2010-12-02 | 2013-09-03 | Pukoa Scientific, Llc | Apparatus, system, and method for object detection and identification |
JP5962547B2 (ja) * | 2013-03-08 | 2016-08-03 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9947139B2 (en) * | 2014-06-20 | 2018-04-17 | Sony Interactive Entertainment America Llc | Method and apparatus for providing hybrid reality environment |
US20160012594A1 (en) * | 2014-07-10 | 2016-01-14 | Ditto Labs, Inc. | Systems, Methods, And Devices For Image Matching And Object Recognition In Images Using Textures |
US10007996B2 (en) * | 2015-03-02 | 2018-06-26 | Lawrence Livermore National Security, Llc | System for detecting objects in streaming 3D images formed from data acquired with a medium penetrating sensor |
CN105335064B (zh) * | 2015-09-29 | 2017-08-15 | 腾讯科技(深圳)有限公司 | 一种信息处理方法和终端 |
US10152630B2 (en) * | 2016-08-09 | 2018-12-11 | Qualcomm Incorporated | Methods and systems of performing blob filtering in video analytics |
US20180254065A1 (en) * | 2017-03-03 | 2018-09-06 | Qualcomm Incorporated | Methods and systems for splitting non-rigid objects for video analytics |
CN109391792B (zh) * | 2017-08-03 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 视频通信的方法、装置、终端及计算机可读存储介质 |
CN107633526B (zh) * | 2017-09-04 | 2022-10-14 | 腾讯科技(深圳)有限公司 | 一种图像跟踪点获取方法及设备、存储介质 |
CN107993191B (zh) * | 2017-11-30 | 2023-03-21 | 腾讯科技(深圳)有限公司 | 一种图像处理方法和装置 |
CN108289180B (zh) * | 2018-01-30 | 2020-08-21 | 广州市百果园信息技术有限公司 | 根据肢体动作处理视频的方法、介质和终端装置 |
CN108958610A (zh) * | 2018-07-27 | 2018-12-07 | 北京微播视界科技有限公司 | 基于人脸的特效生成方法、装置和电子设备 |
CN109068053B (zh) * | 2018-07-27 | 2020-12-04 | 香港乐蜜有限公司 | 图像特效展示方法、装置和电子设备 |
CN110058685B (zh) * | 2019-03-20 | 2021-07-09 | 北京字节跳动网络技术有限公司 | 虚拟对象的显示方法、装置、电子设备和计算机可读存储介质 |
CN110062176B (zh) * | 2019-04-12 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 生成视频的方法、装置、电子设备和计算机可读存储介质 |
CN110213638B (zh) * | 2019-06-05 | 2021-10-08 | 北京达佳互联信息技术有限公司 | 动画显示方法、装置、终端及存储介质 |
CN110321865A (zh) * | 2019-07-09 | 2019-10-11 | 北京字节跳动网络技术有限公司 | 头部特效处理方法及装置、存储介质 |
CN110807728B (zh) * | 2019-10-14 | 2022-12-13 | 北京字节跳动网络技术有限公司 | 对象的显示方法、装置、电子设备及计算机可读存储介质 |
-
2019
- 2019-10-14 CN CN201910974919.3A patent/CN110807728B/zh active Active
-
2020
- 2020-08-04 JP JP2022522321A patent/JP7560207B2/ja active Active
- 2020-08-04 WO PCT/CN2020/106818 patent/WO2021073204A1/zh active Application Filing
-
2022
- 2022-04-13 US US17/720,232 patent/US11810336B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005107848A (ja) | 2003-09-30 | 2005-04-21 | Lic Corporation:Kk | 子供画像生成装置 |
JP2006048415A (ja) | 2004-08-05 | 2006-02-16 | Advanced Telecommunication Research Institute International | 画像合成装置 |
JP2012034242A (ja) | 2010-07-30 | 2012-02-16 | Namco Bandai Games Inc | 撮影装置、プログラム、情報記憶媒体及び撮影方法 |
JP2012039410A (ja) | 2010-08-06 | 2012-02-23 | Furyu Kk | 画像作成装置および方法、並びにプログラム |
JP2013247457A (ja) | 2012-05-24 | 2013-12-09 | Olympus Imaging Corp | 撮影機器及び動画像データの記録方法 |
JP2014074914A (ja) | 2013-11-11 | 2014-04-24 | Furyu Kk | 画像編集装置および方法、並びにプログラム |
WO2017013936A1 (ja) | 2015-07-21 | 2017-01-26 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022551671A (ja) | 2022-12-12 |
CN110807728A (zh) | 2020-02-18 |
US11810336B2 (en) | 2023-11-07 |
WO2021073204A1 (zh) | 2021-04-22 |
US20220245920A1 (en) | 2022-08-04 |
CN110807728B (zh) | 2022-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111414225B (zh) | 三维模型远程展示方法、第一终端、电子设备及存储介质 | |
JP7181375B2 (ja) | 目標対象の動作認識方法、装置及び電子機器 | |
CN111833461B (zh) | 一种图像特效的实现方法、装置、电子设备及存储介质 | |
CN112053449A (zh) | 基于增强现实的显示方法、设备及存储介质 | |
US11587280B2 (en) | Augmented reality-based display method and device, and storage medium | |
CN110796664B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN112965780B (zh) | 图像显示方法、装置、设备及介质 | |
US20220159197A1 (en) | Image special effect processing method and apparatus, and electronic device and computer readable storage medium | |
US20240005625A1 (en) | Image processing method and apparatus, electronic device and storage medium | |
CN115002359B (zh) | 视频处理方法、装置、电子设备及存储介质 | |
WO2023138559A1 (zh) | 虚拟现实交互方法、装置、设备和存储介质 | |
CN114598823B (zh) | 特效视频生成方法、装置、电子设备及存储介质 | |
CN112105983A (zh) | 增强的视觉能力 | |
US11880919B2 (en) | Sticker processing method and apparatus | |
JP7560207B2 (ja) | オブジェクトの表示方法、装置、電子機器及びコンピュータ可読型記憶媒体 | |
CN108874141B (zh) | 一种体感浏览方法和装置 | |
CN113703704B (zh) | 界面显示方法、头戴式显示设备和计算机可读介质 | |
CN116193216A (zh) | 特效视频帧的生成方法、装置、电子设备及存储介质 | |
US12022162B2 (en) | Voice processing method and apparatus, electronic device, and computer readable storage medium | |
US20240269553A1 (en) | Method, apparatus, electronic device and storage medium for extending reality display | |
US20240078734A1 (en) | Information interaction method and apparatus, electronic device and storage medium | |
CN117631810A (zh) | 基于虚拟现实空间的操作处理方法、装置、设备及介质 | |
CN117994403A (zh) | 场景加载方法、装置、电子设备和存储介质 | |
CN117762280A (zh) | 人机交互方法、装置、设备 | |
WO2023244880A1 (en) | Thermal management of an electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240312 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7560207 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |