JP6811796B2 - 拡張現実アプリケーションのためのビデオにおけるリアルタイムオーバーレイ配置 - Google Patents
拡張現実アプリケーションのためのビデオにおけるリアルタイムオーバーレイ配置 Download PDFInfo
- Publication number
- JP6811796B2 JP6811796B2 JP2019040829A JP2019040829A JP6811796B2 JP 6811796 B2 JP6811796 B2 JP 6811796B2 JP 2019040829 A JP2019040829 A JP 2019040829A JP 2019040829 A JP2019040829 A JP 2019040829A JP 6811796 B2 JP6811796 B2 JP 6811796B2
- Authority
- JP
- Japan
- Prior art keywords
- overlay position
- label
- frames
- real time
- calculated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title description 12
- 238000000034 method Methods 0.000 claims description 55
- 230000015654 memory Effects 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 description 12
- 238000002474 experimental method Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- OXSYGCRLQCGSAQ-UHFFFAOYSA-N CC1CCC2N(C1)CC3C4(O)CC5C(CCC6C(O)C(O)CCC56C)C4(O)CC(O)C3(O)C2(C)O Chemical compound CC1CCC2N(C1)CC3C4(O)CC5C(CCC6C(O)C(O)CCC56C)C4(O)CC(O)C3(O)C2(C)O OXSYGCRLQCGSAQ-UHFFFAOYSA-N 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000002922 simulated annealing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/20—Linear translation of whole images or parts thereof, e.g. panning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本出願は、2018年9月6日にインドにおいて出願された「拡張現実アプリケーションのためのビデオにおけるリアルタイムオーバーレイ配置」と題するインド特許出願第201821033541号の完全明細書に対する優先権を主張する。
1)kは、処理をスキップするフレームの数である。本開示の技法/方法は、kフレームごとに実行される。k=1の場合、本開示の方法はすべてのフレームにおいて実行される。同様に、k=2の場合、本方法は1つおきのフレームにおいて実行される。
2)λは後続のオーバーレイの時間的コヒーレンスを制御する。λの値が小さいことは、オーバーレイがそれほど顕著でない領域に配置される可能性が高いが、それはまた多くのジッタの影響を受けることになることを意味する。λの値が高くなると、ジッタは低減するが、オーバーレイの動きも制限される。
3)Σは、探索空間サンプリングパラメータである。これは、2次元画像空間内のピクセルを均一にサンプリングする。例えば、uwおよびuhがそれぞれフレームの幅および高さであると考える。これらは、本発明のコンテキストでは探索空間の寸法である。このとき、uh/Σおよびuw/Σ個のピクセルが、それぞれの画像寸法においてスキップされる。
4)Oh、Owは、それぞれオーバーレイ高さおよびオーバーレイ幅である。
a)XP;YPは、前回の反復におけるオーバーレイの最適位置である。これはフレームの中央に初期化される。
b)X;Yは、現在の反復において計算されるオーバーレイの最適位置である。
c)SMは、従来の計算技法(複数可)(例えば、Achanta他としても参照されるRadhakrishna Achanta、Sheila Hemami、Francisco Estrada、およびSabine Susstrunk「Frequency−tuned salient region detection」(Computer vision and pattern recognition,2009.cvpr 2009.ieee conference on.IEEE,2009,pp.1597−1604)、または、従来の視覚的顕著性技法を参照されたい。これらは本明細書では互換的に使用され得る)を用いて計算される顕著性マップである。
d)Pは、探索空間からサンプリングされるピクセルの集合である。
e)Fw,Fhは、それぞれビデオフレームの幅および高さである。
1.(XP;YP)=(フレーム幅/2,フレーム高さ/2)
2.kフレームごとに
3.SM=顕著性マップ計算(フレーム)
4.for(x,y)∈P
5. L={(a,b)|x≦a≦x+Ow,y≦b≦y+Oh}
6. sx,y=Σ(a,b)∈LSM(a,b)
7. dx,y=λ×距離((X,Y),(XP,YP))
8.smin=min(sx,y+dx,y)
9.(X,Y):=arg_min(sx,y)
10.(XP,YP):=(X,Y)//遷移全体に線形補間を使用する
実験には、タブレットを通じた3Dプリンタによる検査中の対象物を観察するために被験者(例えば、方法/擬似コードを試験するために、25〜34歳の年齢層の25人の研究者、10人の女性および15人の男性)が関与した。主観的および客観的な一連の測定基準を取得して、(a)ユーザ体験、および(b)オーバーレイの配置を評価した。すべての実験で、寸法50×50のラベルを使用した。これはユーザのニーズに従ってカスタマイズすることができる。実験は、Nexus(登録商標)6アンドロイドフォンおよびNexus(登録商標)9タブレット上で行った。ユーザには、以下のパラメータを1〜5の尺度でレーティングすることを課した。その後、平均意見スコアを得た。使用された測定基準は、(i)オーバーレイの位置、(ii)オーバーレイ内の低ジッタ、(iii)オーバーレイボックスおよびテキストの色、ならびに(iv)オーバーレイ応答性である。
主観的測定基準
下記の例示的な表(表1)は、主観的測定基準スコアを示す。
本開示の方法/擬似コードによって実行されたオーバーレイ配置の有効性が比較された。この比較のための評価基準は、ビデオの顕著性グラウンドトゥルースを有するラベルによって遮蔽される平均LOSスコアに基づいていた。スコアが小さいほど、遮蔽の少ない効果的なオーバーレイ配置を示す。ラベル遮蔽対顕著性(LOS)スコアSは、以下の式として定義され、表される。
式中、Lは、オーバーレイによって遮蔽されているピクセル(x,y)のセットであり、Gは、グラウンドトゥルース顕著性マップである。本開示の方法に関する上記の擬似コードは、0.042の平均LOSスコアを有し、オーバーレイ位置を計算するのに0.021秒の時間がかかることが分かった。
102 メモリ
104 ハードウェアプロセッサ
106 入出力(I/O)インターフェース
108 データベース
Claims (15)
- プロセッサ実施方法であって、
(i)複数のフレームと前記複数のフレーム内の対象物とを含む入力ビデオ、および(ii)前記入力ビデオの空間的に中央のフレーム上の配置について初期オーバーレイ位置が予め計算されているラベルをリアルタイムで受信すること(202)と、
複数の顕著性マップを取得するために、前記複数のフレームの各々について顕著性マップをリアルタイムで計算すること(204)と、
複数のユークリッド距離を取得するために、前記複数のフレームの各々について、前記ラベルの前記初期オーバーレイ位置に基づいて現在のオーバーレイ位置と以前のオーバーレイ位置との間のユークリッド距離をリアルタイムで計算すること(206)と、
前記複数の顕著性マップおよび前記複数のユークリッド距離に基づいて、前記入力ビデオ内に配置するための前記ラベルの更新されたオーバーレイ位置をリアルタイムで算出すること(208)と、
を含む、プロセッサ実施方法。 - 前記ラベルの前記更新されたオーバーレイ位置は、前記複数の顕著性マップと前記複数のユークリッド距離とを組み合わせることによって計算される、請求項1に記載のプロセッサ実施方法。
- 前記複数のフレームの各々の前記ユークリッド距離は、前記入力ビデオ内に配置される前記ラベルの位置における時間ジッタをリアルタイムで制御するために計算される、請求項1に記載のプロセッサ実施方法。
- 前記対象物の観察が遮られるのを最小限に抑えるために、前記ラベルを前記初期オーバーレイ位置から前記更新されたオーバーレイ位置にシフトすること(210)をさらに含む、請求項1に記載のプロセッサ実施方法。
- 前記現在のオーバーレイ位置と前記以前のオーバーレイ位置との間の、所定の閾値範囲内にあるユークリッド距離に対応する複数のピクセルが、前記初期オーバーレイ位置から前記更新されたオーバーレイ位置へラベルをシフトするために選択される、請求項1に記載のプロセッサ実施方法。
- 命令を記憶するメモリ(102)と、
1つまたは複数の通信インターフェース(106)と、
前記1つまたは複数の通信インターフェース(106)を介して前記メモリ(102)に結合されている1つまたは複数のハードウェアプロセッサ(104)と
を備えたシステム(100)であって、
前記1つまたは複数のハードウェアプロセッサ(104)は、前記命令によって、
(i)複数のフレームと前記複数のフレーム内の対象物とを含む入力ビデオ、および(ii)前記入力ビデオの空間的に中央のフレーム上の配置について初期オーバーレイ位置が予め計算されているラベルをリアルタイムで受信することと、
複数の顕著性マップを取得するために、前記複数のフレームの各々について顕著性マップをリアルタイムで計算することと、
複数のユークリッド距離を取得するために、前記複数のフレームの各々について、前記ラベルの前記初期オーバーレイ位置に基づいて現在のオーバーレイ位置と以前のオーバーレイ位置との間のユークリッド距離をリアルタイムで計算することと、
前記複数の顕著性マップおよび前記複数のユークリッド距離に基づいて、前記入力ビデオ内に配置するための前記ラベルの更新されたオーバーレイ位置をリアルタイムで算出することと、
を行うように構成されている、システム(100)。 - 前記ラベルの前記更新されたオーバーレイ位置は、前記複数の顕著性マップと前記複数のユークリッド距離とを組み合わせることによって計算される、請求項6に記載のシステム。
- 前記複数のフレームの各々の前記ユークリッド距離は、前記入力ビデオ内に配置される前記ラベルの位置における時間ジッタをリアルタイムで制御するために計算される、請求項6に記載のシステム。
- 前記1つまたは複数のハードウェアプロセッサは、前記対象物の観察が遮られるのを最小限に抑えるために、前記ラベルを前記初期オーバーレイ位置から前記更新されたオーバーレイ位置にシフトするようにさらに構成されている、請求項6に記載のシステム。
- 前記現在のオーバーレイ位置と前記以前のオーバーレイ位置との間の、所定の閾値範囲内にあるユークリッド距離に対応する複数のピクセルが、前記初期オーバーレイ位置から前記更新されたオーバーレイ位置へラベルをシフトするために選択される、請求項6に記載のシステム。
- 1つまたは複数のハードウェアプロセッサによって実行されると、
(i)複数のフレームと前記複数のフレーム内の対象物とを含む入力ビデオ、および(ii)前記入力ビデオの空間的に中央のフレーム上の配置について初期オーバーレイ位置が予め計算されているラベルをリアルタイムで受信することと、
複数の顕著性マップを取得するために、前記複数のフレームの各々について顕著性マップをリアルタイムで計算することと、
複数のユークリッド距離を取得するために、前記複数のフレームの各々について、前記ラベルの前記初期オーバーレイ位置に基づいて現在のオーバーレイ位置と以前のオーバーレイ位置との間のユークリッド距離をリアルタイムで計算することと、
前記複数の顕著性マップおよび前記複数のユークリッド距離に基づいて、前記入力ビデオ内に配置するための前記ラベルの更新されたオーバーレイ位置をリアルタイムで算出することと、
をもたらす1つまたは複数の命令を含む、1つまたは複数の非一時的機械可読情報記憶媒体。 - 前記ラベルの前記更新されたオーバーレイ位置は、前記複数の顕著性マップと前記複数のユークリッド距離とを組み合わせることによって計算される、請求項11に記載の1つまたは複数の非一時的機械可読情報記憶媒体。
- 前記複数のフレームの各々の前記ユークリッド距離は、前記入力ビデオ内に配置される前記ラベルの位置における時間ジッタをリアルタイムで制御するために計算される、請求項11に記載の1つまたは複数の非一時的機械可読情報記憶媒体。
- 前記命令は、前記1つまたは複数のハードウェアプロセッサによって実行されると、前記対象物の観察が遮られるのを最小限に抑えるために、前記ラベルを前記初期オーバーレイ位置から前記更新されたオーバーレイ位置にシフトすることをさらにもたらす、請求項11に記載の1つまたは複数の非一時的機械可読情報記憶媒体。
- 前記現在のオーバーレイ位置と前記以前のオーバーレイ位置との間の、所定の閾値範囲内にあるユークリッド距離に対応する複数のピクセルが、前記初期オーバーレイ位置から前記更新されたオーバーレイ位置へラベルをシフトするために選択される、請求項11に記載の1つまたは複数の非一時的機械可読情報記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201821033541 | 2018-09-06 | ||
IN201821033541 | 2018-09-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042759A JP2020042759A (ja) | 2020-03-19 |
JP6811796B2 true JP6811796B2 (ja) | 2021-01-13 |
Family
ID=65408871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019040829A Active JP6811796B2 (ja) | 2018-09-06 | 2019-03-06 | 拡張現実アプリケーションのためのビデオにおけるリアルタイムオーバーレイ配置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10636176B2 (ja) |
EP (1) | EP3621039A1 (ja) |
JP (1) | JP6811796B2 (ja) |
KR (1) | KR102218608B1 (ja) |
CN (1) | CN110881109B (ja) |
AU (1) | AU2019201358B2 (ja) |
CA (1) | CA3035482C (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021176892A1 (ja) * | 2020-03-06 | 2021-09-10 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN111444295B (zh) * | 2020-03-09 | 2023-05-02 | 北京明略软件系统有限公司 | 一种管理感知设备的方法和装置 |
JP2022537861A (ja) * | 2020-05-26 | 2022-08-31 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | Arシーンコンテンツの生成方法、表示方法、装置及び記憶媒体 |
US20220207787A1 (en) * | 2020-12-28 | 2022-06-30 | Q Alpha, Inc. | Method and system for inserting secondary multimedia information relative to primary multimedia information |
KR102423096B1 (ko) * | 2020-12-29 | 2022-07-19 | 한국세라믹기술원 | 가상 결함 데이터 생성 방법 |
CN114463295B (zh) * | 2022-01-24 | 2024-08-02 | 湖北工业大学 | 基于双层脉冲发放皮层模型的文档图像分割方法及系统 |
CN117409175B (zh) * | 2023-12-14 | 2024-03-19 | 碳丝路文化传播(成都)有限公司 | 一种视频录制方法、系统、电子设备及介质 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6282317B1 (en) | 1998-12-31 | 2001-08-28 | Eastman Kodak Company | Method for automatic determination of main subjects in photographic images |
JP4048996B2 (ja) * | 2003-04-11 | 2008-02-20 | ソニー株式会社 | テロップの抽出装置および抽出方法、並びにプログラムおよび媒体 |
JP5110978B2 (ja) * | 2007-06-25 | 2012-12-26 | 三菱電機株式会社 | 送信装置、受信装置及び再生装置 |
CN102047654A (zh) * | 2008-09-02 | 2011-05-04 | 松下电器产业株式会社 | 内容显示处理设备和内容显示处理方法 |
US8693780B2 (en) | 2009-06-22 | 2014-04-08 | Technion Research & Development Foundation Limited | Automated collage formation from photographic images |
US9183580B2 (en) * | 2010-11-04 | 2015-11-10 | Digimarc Corporation | Methods and systems for resource management on portable devices |
US20110287811A1 (en) * | 2010-05-21 | 2011-11-24 | Nokia Corporation | Method and apparatus for an augmented reality x-ray |
US8698843B2 (en) * | 2010-11-02 | 2014-04-15 | Google Inc. | Range of focus in an augmented reality application |
US9147221B2 (en) * | 2012-05-23 | 2015-09-29 | Qualcomm Incorporated | Image-driven view management for annotations |
ITRM20130022A1 (it) * | 2013-01-11 | 2014-07-12 | Natural Intelligent Technologies S R L | Procedimento e apparato di riconoscimento di scrittura a mano |
JP2014235224A (ja) * | 2013-05-31 | 2014-12-15 | 株式会社ニコン | 撮像装置および制御プログラム |
US9467750B2 (en) * | 2013-05-31 | 2016-10-11 | Adobe Systems Incorporated | Placing unobtrusive overlays in video content |
US20150262428A1 (en) * | 2014-03-17 | 2015-09-17 | Qualcomm Incorporated | Hierarchical clustering for view management augmented reality |
WO2015170142A1 (en) * | 2014-05-08 | 2015-11-12 | Sony Corporation | Portable electronic equipment and method of controlling a portable electronic equipment |
US20170023793A1 (en) * | 2015-03-16 | 2017-01-26 | RaayonNova, LLC | Smart Contact Lens with Embedded Display and Image Focusing System |
US9684993B2 (en) * | 2015-09-23 | 2017-06-20 | Lucasfilm Entertainment Company Ltd. | Flight path correction in virtual scenes |
CN107771310B (zh) * | 2016-06-22 | 2020-12-04 | 华为技术有限公司 | 头戴式显示设备及其处理方法 |
-
2019
- 2019-01-29 EP EP19154180.4A patent/EP3621039A1/en active Pending
- 2019-02-01 US US16/265,969 patent/US10636176B2/en active Active - Reinstated
- 2019-02-27 AU AU2019201358A patent/AU2019201358B2/en active Active
- 2019-03-04 CA CA3035482A patent/CA3035482C/en active Active
- 2019-03-06 JP JP2019040829A patent/JP6811796B2/ja active Active
- 2019-09-05 KR KR1020190110345A patent/KR102218608B1/ko active IP Right Grant
- 2019-09-06 CN CN201910843028.4A patent/CN110881109B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US10636176B2 (en) | 2020-04-28 |
JP2020042759A (ja) | 2020-03-19 |
KR102218608B1 (ko) | 2021-02-19 |
KR20200028317A (ko) | 2020-03-16 |
AU2019201358A1 (en) | 2020-03-26 |
CA3035482A1 (en) | 2020-03-06 |
CA3035482C (en) | 2022-06-28 |
EP3621039A1 (en) | 2020-03-11 |
CN110881109A (zh) | 2020-03-13 |
AU2019201358B2 (en) | 2021-02-25 |
US20200082574A1 (en) | 2020-03-12 |
CN110881109B (zh) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6811796B2 (ja) | 拡張現実アプリケーションのためのビデオにおけるリアルタイムオーバーレイ配置 | |
CN109508681B (zh) | 生成人体关键点检测模型的方法和装置 | |
US10937200B2 (en) | Object-based color adjustment | |
US8478072B2 (en) | Device, method, and program for image processing | |
CN110503703B (zh) | 用于生成图像的方法和装置 | |
CN113034358B (zh) | 一种超分辨率图像处理方法以及相关装置 | |
JP2022528294A (ja) | 深度を利用した映像背景減算法 | |
CN107622504B (zh) | 用于处理图片的方法和装置 | |
US11978216B2 (en) | Patch-based image matting using deep learning | |
CN110516598B (zh) | 用于生成图像的方法和装置 | |
JP2023525462A (ja) | 特徴を抽出するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
US20240320807A1 (en) | Image processing method and apparatus, device, and storage medium | |
US10445921B1 (en) | Transferring motion between consecutive frames to a digital image | |
CN113657518A (zh) | 训练方法、目标图像检测方法、装置、电子设备以及介质 | |
US9036921B2 (en) | Face and expression aligned movies | |
WO2024051632A1 (zh) | 图像处理方法、装置、介质及设备 | |
Rakholia et al. | Where to place: A real-time visual saliency based label placement for augmented reality applications | |
CN113989404B (zh) | 图片处理方法、装置、设备、存储介质和程序产品 | |
US20240212239A1 (en) | Logo Labeling Method and Device, Update Method and System of Logo Detection Model, and Storage Medium | |
US12106398B2 (en) | Machine learning-based chroma keying process | |
US20240028871A1 (en) | Wire segmentation for images using machine learning | |
US20240161364A1 (en) | Generating image mattes without trimap segmenetations via a multi-branch neural network | |
WO2024130715A1 (zh) | 视频处理方法、视频处理装置和可读存储介质 | |
JP7583924B2 (ja) | 機械学習を用いた選択的な画像ぼやけ | |
US20240221119A1 (en) | Image-Filtering Interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6811796 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |