JP6009099B2 - Apparatus, program and system for improving 3D images - Google Patents
Apparatus, program and system for improving 3D images Download PDFInfo
- Publication number
- JP6009099B2 JP6009099B2 JP2015549599A JP2015549599A JP6009099B2 JP 6009099 B2 JP6009099 B2 JP 6009099B2 JP 2015549599 A JP2015549599 A JP 2015549599A JP 2015549599 A JP2015549599 A JP 2015549599A JP 6009099 B2 JP6009099 B2 JP 6009099B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- texture
- color intensity
- light sources
- instructions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 claims description 102
- 238000000034 method Methods 0.000 claims description 43
- 238000012545 processing Methods 0.000 claims description 21
- 230000007246 mechanism Effects 0.000 claims description 14
- 238000009877 rendering Methods 0.000 claims description 14
- 230000002708 enhancing effect Effects 0.000 claims description 7
- 238000007639 printing Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 239000003086 colorant Substances 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000002085 persistent effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 235000019557 luminance Nutrition 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012067 mathematical method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000010146 3D printing Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Description
本願発明は、概して、複数の3次元デジタル画像の向上に関する。 The present invention relates generally to improving a plurality of three-dimensional digital images.
複数の3Dプリンタ及び3Dディスプレイデバイスに加えて、3次元(3D)ステレオカメラ及び関連する深度センシング方法の急増は、複数の3D画像の処理及び向上に関する複数のチャレンジの新たなセットを生成した。より具体的には、キャプチャされた複数の3D画像の品質は、グレア又はほのかに光る領域のような、キャプチャの時に存在する最適以下の複数のライティング条件の効果に苦しみうる。複数の標準コンピュータグラフィックス方法が、複数の3D画像を向上させて、ライティング効果を変化させるために用いられうるが、複数の画像における複数のオブジェクトの表面からの3D深度情報が提供され、そのようなキャプチャされた複数の画像が、3Dライティングを変化させるべく又は最適以下の複数のライティング条件の効果を減少させ若しくは除去するべく、向上されることができる適切な標準方法は現在ない。 In addition to multiple 3D printers and 3D display devices, the proliferation of three-dimensional (3D) stereo cameras and associated depth sensing methods has generated a new set of multiple challenges for processing and enhancing multiple 3D images. More specifically, the quality of captured 3D images can suffer from the effects of suboptimal lighting conditions that exist at the time of capture, such as glare or faint areas. Multiple standard computer graphics methods can be used to enhance multiple 3D images and change lighting effects, but provide 3D depth information from the surfaces of multiple objects in multiple images, and so on. There is currently no suitable standard way that multiple captured images can be improved to change 3D lighting or to reduce or eliminate the effects of suboptimal lighting conditions.
画像テクスチャ情報に関連付けられた深度情報もキャプチャする画像キャプチャの間に用いられうる様々な技術がある。深度情報は、画像内の複数の3Dオブジェクトの形状を定義する3次元(3D)多角形メッシュを用いてポイントクラウド又は深度マップを生成するべく、処理される。処理後に、深度情報は、限定されないが、3D空間、又は複数の三角形又は四辺形の3D表面メッシュにおけるX,Y,及びZポイントクラウドを含む、いくつかのフォーマットで表されうる。深度情報を表すための他の複数のフォーマットは、XMLエンコードフォーマット、テクスチャフォーマット、又はopenGLのようなグラフィカルフォーマットを含むことができる。 There are various techniques that can be used during image capture that also capture depth information associated with image texture information. The depth information is processed to generate a point cloud or depth map using a three-dimensional (3D) polygonal mesh that defines the shape of multiple 3D objects in the image. After processing, the depth information can be represented in several formats including, but not limited to, 3D space, or X, Y, and Z point clouds in multiple triangle or quadrilateral 3D surface meshes. Other formats for representing depth information can include an XML encoding format, a texture format, or a graphical format such as openGL.
概して上記のように、3D画像が、3Dステレオカメラ、深度センサ、マルチビューカメラ、ステレオサテライト、他の深度キャプチャイメージングデバイス、又は、例えば、同時の自己位置推定及び地図作成(Simultaneous Localization and Mapping:SLAM)又は光(しばしばレーザ)検出と測距のような深度キャプチャ方法によってキャプチャされる場合、深度情報は、関連付けられたテクスチャ情報とともに抽出されて処理されうる。例えば、複数の構造化ライトパターンは、シーンにばらまかれてよく、複数の構造化ライトパターンが距離で変化するため、深度情報は、複数のパターンのサイズを検出することによって再構成されうる。他の複数の例において、飛行時間(time of flight:TOF)センサが、センサからオブジェクトへ及び戻ってくる赤外光の飛行のラウンドトリップタイムを測定することによって、情報を集めるべく利用されうる。抽出された深度情報は、関連付けられたテクスチャ情報とともにエンコードされ、任意のメディアコーデックフォーマットで利用され又は新たなコーデックフォーマットでエンコードされうる。 As generally described above, 3D images can be converted into 3D stereo cameras, depth sensors, multi-view cameras, stereo satellites, other depth capture imaging devices, or, for example, simultaneous localization and mapping (SLAM). ) Or light (often laser) detection and depth capture methods such as ranging, depth information can be extracted and processed along with associated texture information. For example, multiple structured light patterns may be scattered in a scene, and multiple structured light patterns vary with distance, so depth information can be reconstructed by detecting the size of the multiple patterns. In other examples, a time of flight (TOF) sensor can be utilized to gather information by measuring the round trip time of the flight of infrared light back from the sensor to the object. The extracted depth information can be encoded with associated texture information, utilized in any media codec format, or encoded in a new codec format.
画像テクスチャ及びテクスチャという用語は、表面上の複数の色を表す2D画像アレイを記述するべく同義的に利用される。複数のコンピュータグラフィックス技術を用いて、複数の画像テクスチャがテクスチャマッピングされる。テクスチャマッピングは、画像を、表面の幾何学的形状を含む多角形メッシュ上に適合する処理である。従って、テクスチャマッピングの間に、テクスチャのセットが幾何学的に適合され、不規則な表面上で伸ばされて表面に接着されるゴムシートと同様に、多角形メッシュ上に反らされる。この方法で、表面形状が、表面上の実際の複数の色又は画像テクスチャとは別個の多角形メッシュとして表される。 The terms image texture and texture are used interchangeably to describe a 2D image array that represents multiple colors on a surface. A plurality of image textures are texture mapped using a plurality of computer graphics techniques. Texture mapping is the process of fitting an image onto a polygonal mesh that includes surface geometry. Thus, during texture mapping, a set of textures are geometrically matched and warped onto a polygonal mesh, similar to a rubber sheet that is stretched over an irregular surface and adhered to the surface. In this way, the surface shape is represented as a polygonal mesh that is separate from the actual colors or image textures on the surface.
さらに、複数の実施形態において示されるように、表面メッシュセクション、表面パッチ、表面メッシュ、表面ポリゴン、及び多角形パッチという用語は、接続されて全体の表面を規定するメッシュとなる、複数の三角形、四辺形、又は他の多角形に関して表面形状を記述するべく、交換可能に利用されうる。例えば、図2は、表面形状の三角形メッシュ表示を示す。 Further, as shown in embodiments, the terms surface mesh section, surface patch, surface mesh, surface polygon, and polygon patch are a plurality of triangles that are connected into a mesh that defines the entire surface, It can be used interchangeably to describe a surface shape with respect to a quadrilateral or other polygon. For example, FIG. 2 shows a triangular mesh display of surface shapes.
表面色又は画像テクスチャから表面形状を分離することによって複数の画像の上記の表示を採用することで、複数の本技術は、各画像テクスチャに対するベクトル解析及び色空間強度ランク付けを用いて、元のシーンにおける複数の元の光源位置ベクトル及び光源色を提供、回復、決定できる。複数の本技術はまた、元のライティングを減じる又は変更して、新たな複数の色を有する新たな光源をレンダリングに追加することにより、続いて起こる複数のレンダリングにおいて、シーン内のライティングを変化させうる。上記のように、画像及びシーンという用語は、交換可能に利用されうる。 By adopting the above display of multiple images by separating the surface shape from the surface color or image texture, the present technology uses the vector analysis and color space intensity ranking for each image texture, Multiple original light source position vectors and light source colors in the scene can be provided, recovered, and determined. The techniques also reduce or change the original lighting and change the lighting in the scene in subsequent renderings by adding new light sources with new colors to the rendering. sell. As noted above, the terms image and scene can be used interchangeably.
抽出された深度情報は、現在既知の又は今後開発される複数の方法を用いて、複数の3Dポイント、複数の表面ベクトル、若しくは例えば複数の三角形、四辺形等のような複数の幾何学的形状で構成される、3D表面メッシュ又は深度マップの作成を可能にするのに十分である。しかし、深度情報及び関連付けられた画像テクスチャ情報のフォーマットは標準化されない。深度情報及び関連付けられた画像テクスチャ情報を送信する標準方法がないため、ライティング情報を用いて、複数のシーンにおける複数の深度ベースライティング補正又は向上を可能にするような、様々な適用における深度情報の利用が回避できる。従って、本開示の複数の実施形態は、標準深度マップフォーマット及び関連付けられたテクスチャ情報を用いて複数の3D画像内のライティング情報を向上させることに関し、これらは、複数の標準コンピューティングシステムにおいて複数の多角形メッシュ及び関連付けられた複数の画像テクスチャをレンダリングするためのopenGL又はマイクロソフトDirectX(登録商標)のような、複数のグラフィックス処理ユニット及び標準コンピュータグラフィックス方法を用いてレンダリングされうる。標準深度マップフォーマット及びテクスチャ情報は、任意のメディアコーデックフォーマットで利用され又は新たなコーデックフォーマットでエンコードされうる。複数の3D深度マップが標準フォーマットのメッシュにおいて各三角形又は四辺形に対する光表面色彩強度ランキングを含むことができるようにすることで、複数の測色調整が画像又はシーンに行われることができる。当業者は、複数の標準コンピュータグラフィックス方法が、本発明の複数の方法を用いてなされる表面色彩強度ランク付け及び光源の決定を与えられたテクスチャ化された複数の3D多角形メッシュへの無制限のライティング調整を行うように用いられることができ、これが、タブレット、電話、アイマウンテッドディスプレイコンピュータ、ラップトップ、又はデスクトップシステムのような、標準コンピュータシステム上に具現化されうることを認識するであろう。このため、複数のライティング調整は、複数の3D深度画像及び対応する複数のテクスチャに行われることができる。 The extracted depth information can be obtained using a plurality of currently known or later developed methods, a plurality of 3D points, a plurality of surface vectors, or a plurality of geometric shapes such as triangles, quadrilaterals, etc. Is sufficient to allow the creation of a 3D surface mesh or depth map composed of However, the format of depth information and associated image texture information is not standardized. Since there is no standard way to transmit depth information and associated image texture information, lighting information can be used to improve depth information in various applications, such as allowing multiple depth-based lighting corrections or enhancements in multiple scenes. Use can be avoided. Accordingly, embodiments of the present disclosure relate to improving lighting information in multiple 3D images using a standard depth map format and associated texture information, which are multiple in multiple standard computing systems. It can be rendered using multiple graphics processing units and standard computer graphics methods, such as openGL or Microsoft DirectX® for rendering polygonal meshes and associated image textures. The standard depth map format and texture information can be used with any media codec format or encoded with a new codec format. Multiple colorimetric adjustments can be made to an image or scene by allowing multiple 3D depth maps to include a light surface color intensity ranking for each triangle or quadrilateral in a standard format mesh. Those of ordinary skill in the art will be able to limit any number of standard computer graphics methods to textured 3D polygon meshes given surface color intensity ranking and light source determination made using the methods of the present invention. Will recognize that this can be embodied on a standard computer system, such as a tablet, phone, eye-mounted display computer, laptop, or desktop system. Let's go. Thus, multiple lighting adjustments can be made to multiple 3D depth images and corresponding multiple textures.
以下の説明及び請求項において、「接続」及び「連結」という用語は、それらの派生語と共に用いられうる。これらの用語が、お互いに同義語として意図されないことは理解されるべきである。むしろ、特に複数の実施形態において、「連結」は、2又は3以上の要素がお互いに直接物理的又は電気的に接触していることを示すために用いられうる。「接続」は、2又は3以上の要素が、直接物理的又は電気的に接触していることを意味しうる。しかし、「接続」はまた、2又は3以上の要素が、お互いに直接接触していないが、まだお互いに協働で動作又はインタラクトすることを意味しうる。 In the following description and claims, the terms “connection” and “coupling” may be used in conjunction with their derivatives. It should be understood that these terms are not intended as synonyms for each other. Rather, particularly in embodiments, “coupled” can be used to indicate that two or more elements are in direct physical or electrical contact with each other. “Connected” can mean that two or more elements are in direct physical or electrical contact. However, “connection” may also mean that two or more elements are not in direct contact with each other but still operate or interact in cooperation with each other.
いくつかの実施形態は、ハードウェア、ファームウェア、及びソフトウェアの1つ又は組み合わせにおいて実装されうる。いくつかの実施形態はまた、機械可読媒体上に格納される複数の命令として実装されてよく、それは、コンピューティングプラットフォームによって読み取られて、実行され、本開示の複数の操作を実行する。機械可読媒体は、マシン、例えばコンピュータによって可読な形態で情報を格納又は送信するための任意の機構を含みうる。例えば、機械可読媒体は、中でも、リードオンリーメモリ(ROM);ランダムアクセスメモリ(RAM);磁気ディスクストレージメディア;光ストレージメディア;フラッシュメモリデバイス;又は電気、光、音響、又は他の形態の伝搬する信号、例えば搬送波、赤外線信号、デジタル信号、又は信号を送信および/または受信するインターフェースを含みうる。 Some embodiments may be implemented in one or a combination of hardware, firmware, and software. Some embodiments may also be implemented as a plurality of instructions stored on a machine-readable medium that are read and executed by a computing platform to perform the operations of the present disclosure. A machine-readable medium may include any mechanism for storing or transmitting information in a form readable by a machine, eg, a computer. For example, a machine-readable medium includes, among other things, read-only memory (ROM); random access memory (RAM); magnetic disk storage media; optical storage media; flash memory devices; or electrical, optical, acoustic, or other forms of propagation It may include a signal, eg, a carrier wave, an infrared signal, a digital signal, or an interface that transmits and / or receives signals.
実施形態は、実装又は例である。「実施形態」、「1つの実施形態」、「いくつかの実施形態」、「様々な実施形態」、又は「他の複数の実施形態」への明細書における参照は、複数の実施形態に関して説明された特定の特徴、構造、又は特性が、複数の発明の少なくともいくつかの実施形態に含まれるが、必ずしも、全ての実施形態に含まれるわけではないことを意味する。「実施形態」、「1つの実施形態」、又は「いくつかの実施形態」の様々な出現が、同一の複数の実施形態を必ずしも全て参照するものではない。実施形態からの複数の要素又は態様は、他の実施形態の複数の要素又は態様と組み合わせられうる。 Embodiments are implementations or examples. References in the specification to “embodiments,” “one embodiment,” “some embodiments,” “various embodiments,” or “other embodiments” are described with respect to a plurality of embodiments. A particular feature, structure, or characteristic specified is included in at least some embodiments of the inventions, but not necessarily in all embodiments. The various appearances of “an embodiment”, “one embodiment”, or “some embodiments” do not necessarily all refer to the same embodiments. Multiple elements or aspects from an embodiment may be combined with multiple elements or aspects of other embodiments.
本開示で説明され示された全てのコンポーネント、特徴、構造、特性等が、特定の実施形態又は複数の実施形態に含まれる必要があるというわけではない。明細書がコンポーネント、特徴、構造、又は特性が含まれうる("may","might","can"又は"could")場合、例えば、その特定のコンポーネント、特徴、構造、又は特性が含まれることは必須ではない。明細書又は請求項が1つの(「a」又は「an」)要素を参照する場合、それは、要素の一つのみがあるということを意味しない。明細書又は請求項が、「1つの追加の」要素を参照する場合、それは、1より多くの追加の要素があるということを排除しない。 Not all components, features, structures, characteristics, etc. described and shown in this disclosure need to be included in a particular embodiment or embodiments. Where the description may include a component, feature, structure, or property ("may", "might", "can", or "could"), for example, that particular component, feature, structure, or property That is not essential. When a specification or claim refers to one (“a” or “an”) element, it does not mean that there is only one of the elements. Where the specification or claims refer to “an additional” element, it does not exclude that there are more than one additional element.
いくつかの実施形態が特定の複数の実装を参照して説明されたが、他の複数の実装がいくつかの実施形態により可能であることは留意されるべきである。更に、図面で示されたおよび/または本開示で説明された複数の回路要素又は他の複数の特徴の構成および/または順序は、示され説明された特定の方法で配置されることは必須ではない。多くの他の構成が、いくつかの実施形態により可能である。 Although some embodiments have been described with reference to particular implementations, it should be noted that other implementations are possible with some embodiments. Further, the arrangement and / or order of multiple circuit elements or other features shown in the drawings and / or described in the present disclosure is not necessarily arranged in the particular manner shown and described. Absent. Many other configurations are possible with some embodiments.
図に示された各システムにおいて、いくつかの場合の複数の要素は、表された複数の要素が異なるおよび/または同様でありうることを提案すべく、同一の参照番号又は異なる参照番号を有する。しかし、要素は、複数の異なる実装を有し、本開示で示され又は説明した複数のシステムのいくつか又は全てで動作するために十分に順応性がありうる。複数の図で示された様々な要素は、同一又は異なりうる。どれを第1の要素として参照するか、及びどれを第2の要素と呼ぶかは、任意である。 In each system shown in the figures, the elements in some cases have the same or different reference numbers to suggest that the elements shown may be different and / or similar. . However, an element may have multiple different implementations and be sufficiently flexible to operate with some or all of the multiple systems shown or described in this disclosure. The various elements shown in the figures may be the same or different. Which is referred to as the first element and which is referred to as the second element is arbitrary.
図1は、複数の実施形態による、ライティング及びテクスチャが適用される、複数の表面を有する例の3D多角形メッシュ102を示す。3D多角形メッシュ102は、人間の顔の構造を形成する。多角形メッシュは、3Dオブジェクトの形状、詳細には人間の顔を定義するために用いられる複数の頂点、線、エッジ、及び面を含む。任意のタイプのメッシュが、複数の本技術により用いられうる。例えば、メッシュは、四辺形メッシュ又は三角形メッシュでありうる。さらに、代替の複数の深度フォーマットはまた、複数の実施形態により用いられうる。例えば、メッシュが3D空間内の複数のポイントで構成されるため、深度情報はまた、3Dポイントクラウドと考えられうる。さらに、メッシュは、複数のアレイ値が各ポイントの深度を示す2Dアレイにおける深度マップとしてエンコードされてよい。
FIG. 1 illustrates an example
多角形メッシュ102は、複数のコントロールポイントを含みうる。コントロールポイントは、色、複数の法線ベクトル、及び複数のテクスチャ座標のような対応する情報を含む、多角形メッシュ102内の位置である。複数のテクスチャ座標は、コントロールポイントを、テクスチャマップのようなテクスチャ情報にリンクするべく用いられうる。テクスチャ情報は、複数の詳細、色、又は画像テクスチャ情報を三角形メッシュに追加する。
画像は、表面多角形メッシュ102上へ適用又はテクスチャマッピングされてよく、それにより画像104を生成する。複数のテクスチャが各表面ポリゴン上に適用される場合、表面多角形メッシュ102は、人間の顔の形態を示す。多角形メッシュ102、及び適用されて画像104をもたらす対応する複数のテクスチャは、3D画像をレンダリングする文脈で説明されたが、複数の2D画像も、複数の本技術を用いてレンダリングされうる。いずれの場合でも、複数の多角形メッシュ及び対応するテクスチャを用いて画像をレンダリングすることは、openGL、DirectX、H.264、MPEG4、及びVC1のような標準グラフィックス又はメディアエンコードフォーマット及び任意の他のメディアコーデックフォーマットと併せて、グラフィックスパイプラインを用いて達成されうる。
The image may be applied or texture mapped onto the
追加のライティング及び複数のテクスチャは、さらに画像104をリファインするべく適用されてよく、画像108をもたらす。ライティングは画像108に適用されて、画像108において人間の顔のあごからネック上へのかすかな影をもたらす。アンラップされたテクスチャマップ106は、いかなるライティングも適用しない、画像108からのテクスチャ情報を示す。複数の実施形態において、画像108上へのライティングは、画像108において人間の顔のあごからネック上への影を減少又は除去するべく変化されうる。
Additional lighting and multiple textures may be applied to further refine the
図2は、複数の実施形態による、複数の三角形表面202、204、206、・・・、214等へ細分化される球体の例の表面メッシュ200を示す。しかし、表面メッシュが、例えば複数の3Dポイント、表面ベクトル、又は他の複数の幾何学的形状を有する複数の表面を用いて細分化されてよいことは理解されるべきである。表面メッシュ200の複数の表面の各々(例えば202,204,206,・・・、214等)は、例の球体のテクスチャ画像(不図示)のセクションに対応する。複数のテクスチャ画像セクションの各々の色彩強度は、例えば、HSL(色相(hue)、彩度(saturation)、及び明度(lightness))、HSV(色相、彩度、及び値)、YUV、又は色彩強度を決定してランク付けする他の適切な方法のような、色空間における強度によって決定されてランク付けされうる。色彩強度によって、複数の表面をソートしてそれらをランク付けすることにより、実際のシーンライティングは、観察位置面表面法線による各表面の表面法線のベクトル解析を用いて復元され、これは複数の光源ベクトルの方向を生じ、メッシュを再ライティングするのに有用である。複数の高水準の色彩強度を有する複数のテクスチャ画像セクションは、光源から観察位置への高水準の正反射を有する表面メッシュ200の複数のセクションに対応し、このため、光源ベクトル方向及び色を決定するのに有用な輝線の複数のエリアを示し、光源情報は、複数の標準コンピュータグラフィックス方法を用いてライティング効果を変化させるために有用である。逆に、複数の低いレベルの色彩強度を有する複数のテクスチャ画像セクションは、光源から観察位置への複数の低いレベルの正反射を有する表面メッシュ200の複数のセクションに対応し、このため、低い又は薄暗いライティングの複数のエリアを示しうる。このため、複数のテクスチャ画像セクションは、実際の複数のシーンライティング方向ベクトル及び光源色を決定するために、高い色彩強度から低い色彩強度へランク付けされうる。
FIG. 2 illustrates an
最大光反射は、面法線ベクトルNが観察(画像キャプチャデバイス)ベクトルVと光源ベクトルLとの間の中間であるときに生じる。表面の中間法線ベクトル情報は、カメラの位置を定義するビューベクトルVの認識を与えられる光源ベクトルを算出するために用いられうる。高い方のランキングの色彩強度の複数の表面、及び多角形メッシュからのそれらの対応する面法線ベクトルは、与えられた画像の光源ベクトルLの近似値を計算すべく、セットとして共に用いられる。実施形態において、光源ベクトルLは、元の3D表面形状データ及び各表面に対して対応する複数の画像テクスチャパッチから復元され、決定されてよく、さらに、元の光源ベクトルの最良の推定が、最も高い色彩強度に対応するメッシュのポリゴンからの複数の面法線Nに基づいて選択され、又はさもなければ、光源ベクトルLが、複数のLベクトルの平均、中央値Lベクトル、複数のLベクトルの一次回帰、又は他の数学的方法のような、各面法線Nについて計算された複数の光源ベクトルLのセットの、重み付けされ又は計算された数学的な組み合わせから導出されうる。このため、光源は、3D空間に位置されうる。より具体的に本開示で以下説明されるように、色彩強度でランク付けされた複数の表面のセット、及びそれらの対応する複数の法線ベクトルは、さらに、キャプチャされた複数の3D画像のライティングを調節、追加、又は取り除き、高め、ライティングの色を変化させ、又はさもなければライティングを変更するために用いられてよく、色彩強度でランク付けされた複数の面法線ベクトルのセット、複数の画像テクスチャ、及び関連付けられた複数のポリゴンは、標準コードフォーマット又は他の標準のデータフォーマットで、ファイル、通信ストリーム、メモリ、又は他のデータ構造体にエンコードされてよい。 Maximum light reflection occurs when the surface normal vector N is intermediate between the observation (image capture device) vector V and the light source vector L. The surface intermediate normal vector information can be used to calculate a light source vector that is given recognition of the view vector V that defines the position of the camera. The higher ranking color intensity surfaces and their corresponding surface normal vectors from the polygon mesh are used together as a set to calculate an approximation of the light source vector L of a given image. In an embodiment, the light source vector L may be recovered and determined from the original 3D surface shape data and a plurality of image texture patches corresponding to each surface, and the best estimate of the original light source vector is the most Selected based on a plurality of surface normals N from mesh polygons corresponding to high color intensity, or else the light source vector L is an average of a plurality of L vectors, a median L vector, a plurality of L vectors It can be derived from a weighted or calculated mathematical combination of a set of multiple light source vectors L calculated for each surface normal N, such as linear regression or other mathematical methods. For this reason, the light source can be located in 3D space. As described more specifically in this disclosure below, a set of surfaces ranked by color intensity, and their corresponding normal vectors, are further used to capture the lighting of the captured multiple 3D images. Can be used to adjust, add or remove, enhance, change the color of lighting, or otherwise change the lighting, set of multiple surface normal vectors ranked by color intensity, multiple The image texture and associated polygons may be encoded in a file, communication stream, memory, or other data structure in a standard code format or other standard data format.
図3は、複数の実施形態による、複数の3D画像を向上させる方法300を示す処理フロー図である。様々な実施形態において、方法300は、向上された3D画像を提供する。いくつかの実施形態では、方法300は、本開示でより具体的に説明されるように、コンピューティング又は他の電子デバイス上で実行されうる。方法300は、3D画像をキャプチャする段階302、3D画像から深度情報及びテクスチャ情報を抽出する段階304、表面メッシュを生成する段階306、複数の表面メッシュセクションに対応する複数のテクスチャセクションを決定する段階308、複数の表面をランク付けする段階310、複数の光源ベクトルを決定する段階312、ライティングを調節する段階314、及び向上された画像を出力する段階316を含む。
FIG. 3 is a process flow diagram illustrating a
ブロック302において、3D画像が、3Dステレオカメラ、深度センサ、マルチビューカメラ、ステレオサテライト、他の深度キャプチャイメージングデバイス、又は、例えば、同時の自己位置推定及び地図作成(Simultaneous Localization and Mapping:SLAM)又は光(典型的にはレーザ)検出及び測距のような深度キャプチャ方法を用いてキャプチャされ、又はさもなければソース3D画像を提供される。深度情報及びテクスチャ情報を抽出する段階304は、キャプチャされた3D画像データから深度又はテクスチャマップを抽出する又はさもなければ決定することを含みうる。
At
ブロック306では、例の表面メッシュ200のような表面メッシュは、抽出された深度情報を用いて生成され、表面メッシュがその後前に説明したような複数の表面メッシュセクションに分配されうる。上記のように、複数の表面メッシュセクションは、複数の3Dポイント及び複数の表面ベクトルである、三角形、四辺形等を含む任意の望ましい幾何学的形状であってよい。
At
ブロック208では、各表面メッシュセクションに対応するテクスチャセクションが決定される。例えば、表面メッシュ200の個別の各表面メッシュセクション202―214に対して、3D画像深度又はテクスチャマップの対応するテクスチャ画像セクションが決定される。
At
ブロック310では、複数のテクスチャ画像セクションは、色彩強度に関してランク付けされ、これは、上記のように、表面メッシュ200の複数の個別の表面の各々の正反射をランク付けすることに対応する。このため、複数の表面は、色彩強度の最も高い方から最も低い方へランク付けされうる。
At
ブロック312では、複数の光源ベクトルが決定され、これは、複数の個別のテクスチャ画像セクションの各々又は所望のサブセットについての複数の中間法線ベクトルを決定することを含む。一実施形態では、最も高いランクの個別のテクスチャ画像セクション及びその表面の対応する中間法線ベクトルは、既知の複数のベクトル方法を介して光源ベクトルを決定すべく用いられてよく、それにより、3D空間における光源の位置を決定し、これは、表面ライティングのための複数の標準コンピュータグラフィックス方法を用いて複数の光源の新たなセットへの各表面テクスチャのライティングに対して、続いて起こる複数の変化を可能にする。複数の他の実施形態では、予め定められた閾値を超えるランクの色彩強度を有する複数のテクスチャ画像セクション、及びそれらの表面に対応する複数の法線ベクトルは、複数のグループとして共に数学的に結合されて正しい光源ベクトルの最良の推定がなされ、中間法線ベクトルの結果の最良の推定は、既知の複数のベクトル方法を介して光源ベクトルの位置を決定すべく用いられてよく、それにより、3D空間における光源の位置を決定する。さらに他の複数の実施形態では、予め定められた閾値を超えるランクを有する複数のテクスチャ画像セクションの各々に対して決定された複数の光源ベクトルは、複数のグループに数学的に共に結合され、元の光源ベクトルの最良の推定を決定し、それにより、3Dにおける光源の位置を決定しうる。実施形態において、光源ベクトルLは、最も高い色彩強度に対応するメッシュのポリゴンからの面法線Nに基づいて選択されてよく、又はさもなければ、光源ベクトルLは、複数のLベクトルの平均、中央値Lベクトル、複数のLベクトルの一次回帰、又は他の数学的方法のような、各面法線Nに対して計算された複数の光源ベクトルLのセットの重み付けされ又は計算された組み合わせから導出されてよい。
At
ブロック314では、光源の複数の特質又は特性が調節され、これは、概して、限定されないが、光のブライトネス、色(すなわち色相、彩度、クロマ等)、色彩強度又はルミナンスを調節すること、及び複数の光源を追加及び除去することを含みうる。より具体的には、1つの例の実施形態において、予め定められた閾値を超える色彩強度ランクを有する複数のテクスチャ画像セクションのうちの1または複数へのライティングは、効果的にライトを除去するべく、又はアンチライトを提供すべく、1または複数の表面の色彩強度を減じることにより調節され、これは、1実施形態ではグレアを除去するために又は標準コンピュータグラフィックス方法を用いて新たな位置から光を追加することによって暗い表面のライティングを増加させるために有用でありうる。他の例の実施形態では、予め定められた閾値以下の色彩強度ランクを有する複数のテクスチャ画像セクションの1または複数のライティングは、1または複数の表面の色彩強度を増加させることによって調節される。さらに他の例の実施形態では、前述の複数の実施形態は組み合わせられてよく、予め定められた閾値を超える色彩強度ランクを有するテクスチャ画像セクションの1または複数のライティングを、それらの1または複数の表面の色彩強度を減じることによって減じ、及びそれらの1または複数の表面の色彩強度を増加させることによって予め定められた閾値以下の色彩強度ランクを有するテクスチャ画像セクションの1または複数へライティングを追加する。本開示の前述の又は後の複数の実施形態と同様に組み合わされうる、さらに他の例の実施形態では、1または複数の光源が、関連付けられた光源色を有する位置ベクトルを追加することによって追加されてよく、追加された光源が、概して全ての表面に方向付けられ、又は、例えば予め定められた閾値と等しい、より大きい又はより小さい色彩強度を有する複数の表面のような、所定の複数の表面に選択的に方向付けられうる。このため、向上された画像が、生成されうる。実施形態の全てが、標準コンピュータグラフィックス方法において及び用いて具現化されうる。
At
ブロック314で実行される、光源の複数の特質又は特性の調整はまた、複数の実施形態において、「アンチライト」を投射することによってキャプチャされたときの3D画像に存在する任意の光源を除去することを含みうる。本開示で用いたように、「アンチライト」は、全ての又は選択したテクスチャ画像セクションの色彩強度を変更することを含む。「アンチライト」を追加することは、複数のテクスチャ画像セクションから光を除去することである。ブロック314で実行される、光源の複数の特質又は特性の調整は、同一又は他の実施形態では、さらに、3D画像へ複数の新たな光源を追加すること、複数のライティング特性を調節すべくインタラクティブな制御を用いること、合成光源情報を複数の標準ビデオエンコードフォーマットに追加すること、ライティング効果を追加/除去すべく複数の標準GPUグラフィックスパイプラインを用いることによって複数のライティング特性を調節すること、及び複数のカメラシステムにおけるデジタル光測定及び調整を用いることを含む。
The adjustment of multiple characteristics or properties of the light source performed at
ブロック316では、向上された画像が出力され、これは、向上された画像を、ディスプレイデバイス上で又は2D又は3Dプリンティングを介してレンディングすることを含みうる。別の実施形態において、向上された画像は、例えばメディアフォーマットファイルのようなコンピュータ可読ファイルとして、例えば、ハードディスクドライブ、メモリスティック、SDカード、ランダムアクセスメモリ、リードオンリーメモリ、又は現在既知又は後に考案される電子ストレージの任意の他の形式のようなコンピュータ可読メモリに、向上された画像を保存することによって出力されうる。さらに、向上された画像を出力することは、また、対応する複数のテクスチャ表面を有する複数の三角形又は他の幾何学的形状から構成される表面メッシュ、複数のポイントクラウドのような標準深度マップフォーマット、深度又はZ次元に対応するピクセル値を有する複数のZ画像又は2Dピクセルアレイ、又はMIPI規格のサブセットのような規格カメラ画像センサ出力フォーマットのような所定または標準フォーマットにおいて、色彩強度でランク付けされた複数の表面のセットを提供し、それにより、最初の又は追加のライティング調整が、向上された画像のレンダリングの前又は併せて下流で実行されることを可能にする。
At
図3の処理フロー図は、方法300の複数のブロックが任意の特定の順序で実行されるべきであること、又はブロックの全てが実行されるべき又は全ての実施形態に含まれるべきであることを示すことを意図しない。さらに、任意の数の追加のブロックが、特定の実装の詳細に依存して、方法300内に含まれうる。
The process flow diagram of FIG. 3 shows that multiple blocks of the
図4A−Cは概して、複数の実施形態による、光についての複数の光ベクトル、ビューア/カメラ、反射、スペキュラーハイライト、及び面法線を示す。より具体的には、図4Aは、中間法線ベクトル「n」が、光源のソースベクトルL及びビューベクトル「w」の間の中間にあることを決定されることを示す。前に述べたように、中間ベクトルは、光源の最大反射が観察されるベクトルである。図4Bは、非平坦な表面についての、ビューベクトルV、面法線ベクトルN、光源ベクトルL、及び反射ベクトルRを示す。図4Cは、光源ベクトルL、ビューベクトルV、光源ベクトルLのミラー反射ベクトルR、滑らかな面法線ベクトルN、及びベクトルL及びVの間の中間ベクトルである半角ベクトルHの間の関係を示す。 4A-C generally illustrate multiple light vectors, viewer / camera, reflection, specular highlight, and surface normal for light, according to multiple embodiments. More specifically, FIG. 4A shows that the intermediate normal vector “n” is determined to be in the middle between the source vector L and the view vector “w” of the light source. As previously mentioned, the intermediate vector is the vector where the maximum reflection of the light source is observed. FIG. 4B shows a view vector V, a surface normal vector N, a light source vector L, and a reflection vector R for a non-planar surface. FIG. 4C shows the relationship between the light source vector L, the view vector V, the mirror reflection vector R of the light source vector L, the smooth surface normal vector N, and the half-angle vector H which is an intermediate vector between the vectors L and V. .
図5は、複数の実施形態による、複数の3D画像を向上させるコードを格納する有形持続性コンピュータ可読媒体500を示すブロック図である。有形持続性コンピュータ可読媒体500は、プロセッサ502によって信号バス504を介してアクセスされうる。さらに、媒体500は、プロセッサ502に本開示の複数の方法及び特に方法300を実行させるように構成されたコードを含みうる。媒体500は、図3に示された方法300の処理に対応する複数のコンポーネント又はモジュールを含む、様々なソフトウェアコンポーネント又はモジュールを格納しうる。例えば、媒体500は、3D画像をキャプチャ、インポート、又はさもなければ取得又は受信するように構成されうる、3D画像キャプチャモジュール512を含みうる。媒体500はまた、3D画像の深度及びテクスチャマップを抽出又はさもなければ決定するように構成された、深度情報及びテクスチャ情報抽出モジュール514を含みうる。媒体500はまた、3D画像の表面メッシュを生成するように構成されうる、表面メッシュ生成モジュール516を含みうる。媒体500はさらに、各表面メッシュセクションに対して、対応するテクスチャセクションを決定するように構成されうる、表面メッシュセクションに対応するテクスチャセクション決定モジュール518を含みうる。媒体500はまださらに、色彩強度及び正反射の少なくとも1つに関して複数の表面をランク付けするように構成されうる、表面ランク付けモジュール520を含みうる。媒体500はまださらに、光源ベクトルを決定してそれにより3D空間における光源の位置を示すように構成されうる、光源ベクトル決定モジュール522を含みうる。媒体500はまた、方法300に関して上記でより具体的に説明したような、3D画像の光源の複数の特性を調節するように構成されうるライティング調節モジュール524を含みうる。媒体500はまた、色彩強度でランク付けされた複数の表面及び関連付けられた複数テクスチャのセットのような、向上された画像及び関連付けられたデータを出力するように構成されうる向上された画像出力モジュール526を含みうる。
FIG. 5 is a block diagram illustrating a tangible persistent computer
図5のブロック図は、有形の持続性コンピュータ可読媒体500が本開示で示されたコンポーネントの全てを含むべきであることを示すことを意図しない。さらに、有形持続性コンピュータ可読媒体500は、特定の実装の詳細に依存して、図5に示されない任意の数の追加的なコンポーネントを含みうる。
The block diagram of FIG. 5 is not intended to indicate that the tangible persistent computer
図6は、複数の実施形態により用いられうる電子デバイスのブロック図である。電子デバイス600は、実質的には、例えば、プリントデバイス、カメラ、ラップトップ、又は他のポータブル又はデスクトップコンピュータ、セルラー又は他の携帯電話等を含む任意の電子デバイスでありうる。電子デバイス600は、中央処理ユニット(CPU)602、メモリ604、信号バス606、グラフィックス処理ユニット(GPU)608、イメージキャプチャメカニズム610、センサ612、ディスプレイ614を含みうる。
FIG. 6 is a block diagram of an electronic device that can be used in accordance with embodiments. The
CPU602は、メモリ604に格納されうる複数のアプリケーション620を、信号バス606を介して読み取り、実行するように構成されうる。CPU602は、シングル、デュアル、又はマルチコアプロセッサ又は任意の他の適切な処理デバイスでありうる。メモリ604は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、ハードディスク又はソリッドステートドライブ、フラッシュメモリ、又は他の適切なタイプのメモリを含みうる。メモリ604は、複数のアプリケーション620を格納する。
The
信号バス606は、CPU602、メモリ604、GPU608、イメージキャプチャメカニズム608、イメージキャプチャメカニズム610、センサ612、及びディスプレイ614を相互接続し、同一のものの間及び中での電子信号及びデータの転送を可能にする。
A
GPU608は、任意の適切なGPUプロセッサであってよく、例えば、デバイス600のユーザへディスプレイ614又は他のディスプレイ上で表示するための、複数のグラフィックス画像、フレーム、又はビデオ等のレンダリング又は処理のような、任意の数のグラフィックス操作を実行するように構成されうる。いくつかの実施形態では、GPU608は、複数の特定のグラフィックスタスクを実行するように構成されうる多くのグラフィックスエンジン(不図示)を含みうる。
The
イメージキャプチャメカニズム610は、3D画像をキャプチャするように構成されうる。イメージキャプチャメカニズム610は、カメラ、ステレオスコープカメラ、赤外線センサ、又は他のイメージキャプチャメカニズムとして構成されうる。イメージキャプチャメカニズム610は、キャプチャされた3D画像と関連付けられた深度及び画像テクスチャ情報をキャプチャするように構成される。複数の例において、代替的に、センサ612は、キャプチャ画像の深度及び画像テクスチャ情報をキャプチャするように構成されてよく、このため、電荷結合素子画像センサ、システムオンチップセンサ画像センサ、又は他の適切なセンサ又は複数のセンサの組み合わせとして構成されてよい。複数のアプリケーション620は、現在存在する又は今後開発される規格化されたメディアコーデックにおいて、3D深度マップ又は表面メッシュ200のような表面メッシュにおける深度及び画像テクスチャ情報をエンコードする。
ディスプレイ614は、フラットパネル液晶、又はユーザにキャプチャ画像を表示するように構成された他のディスプレイデバイスとして構成されてよく、さらに、デバイス600の制御及び操作のためのユーザへのグラフィカル又はヒューマンマシンインターフェースを表示するよう構成されてよい。ディスプレイ614は、デバイス600と一体又は別個でよい。
The
複数のアプリケーション620は、方法300を実行するのに十分な複数の命令を含む。例えば、複数のアプリケーション620は、方法300に関して上記でより具体的に説明したように、3D画像をキャプチャ又は取得又はさもなければ受信するべく、深度情報及びテクスチャ情報を抽出又はさもなければ3D画像の深度及びテクスチャマップを決定すべく、3D画像の表面メッシュモジュールを生成すべく、複数の表面メッシュセクションに対応する画像の複数のテクスチャセクションを決定すべく、色彩強度及び正反射の少なくとも1つに関して複数の表面をランク付けすべく、光源ベクトルを決定してそれにより3D空間における光源の位置を示すべく、及び3D画像の光源の複数の特性を調節すべく、複数の命令を含みうる。複数のアプリケーション620は、また、色彩強度でランク付けされた複数の表面及び3D画像に関連付けられた複数のテクスチャのセットのような、向上された画像及びそれに関連付けられたデータを出力するべく複数の命令を含みうる。
The plurality of
電子デバイス600は、いくつかの実施形態では、表面メッシュ200のようなエンコードされた3D表面メッシュ及び対応する複数のテクスチャセクションを印刷できる、プリンタ、ファックスマシン、及び他の複数のプリントデバイスのような、プリントデバイス622を含みうる。プリントデバイス622は、電子デバイス600と一体又はその外部にありうる。複数のアプリケーション620は、プリントデバイス622とインターフェースして動かすのに必要な複数の命令を含みうる。
The
図6のブロック図は、デバイス600が図6に示されたコンポーネントの全てを含むべきであることを示すことを意図されない。さらに、デバイス600は、特定の実装の詳細に依存して、図6に示されない任意の数の追加的なコンポーネントを含みうる。
The block diagram of FIG. 6 is not intended to indicate that the
図7は、複数の実施形態による、ポリゴンの3Dメッシュ及び対応する複数のテクスチャを用いて複数の画像をエンコードする例のシステム700のブロック図である。同様の数字が付けられた複数のアイテムが、図6に関して記載される。いくつかの実施形態では、システム700は、メディアシステムである。加えて、システム700は、パーソナルコンピュータ(PC)、ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、ポータブルコンピュータ、ハンドヘルドコンピュータ、パームトップコンピュータ、パーソナルデジタルアシスタント(PDA)、携帯電話、携帯電話/PDAの組み合わせ、テレビ、スマートデバイス(例えばスマートフォン、スマートタブレット、又はスマートテレビ)、モバイルインターネットデバイス(MID)、メッセージングデバイス、又はデータ通信デバイス等に組み込まれうる。
FIG. 7 is a block diagram of an
様々な実施形態において、システム700はディスプレイ704に接続されたプラットフォーム702を備える。プラットフォーム702は、コンテンツサービスデバイス706またはコンテンツ配信デバイス708、若しくは他の同様の複数のコンテンツソースのような、コンテンツデバイスからコンテンツを受信しうる。1または複数のナビゲーション機能を含むナビゲーションコントローラ710は、例えばプラットフォーム702および/またはディスプレイ704とインタラクトするために用いられ得る。これらのコンポーネントの各々は、以下でより詳細に説明される。
In various embodiments, the
プラットフォーム702は、チップセット712、中央処理ユニット(CPU)602、メモリデバイス604、ストレージデバイス713、グラフィックスサブシステム714、複数のアプリケーション620、及び無線装置716の任意の組み合わせを含みうる。チップセット712は、CPU602、メモリデバイス604、ストレージデバイス713、グラフィックスサブシステム714、複数のアプリケーション620、及び無線装置714の間での相互通信を提供しうる。
CPU602は、複合命令セットコンピュータ(CISC)又は縮小命令セットコンピュータ(RISC)プロセッサ、x86命令セット互換性プロセッサ、マルチコア、又は任意の他のマイクロプロセッサ又は中央処理ユニット(CPU)として実装されうる。いくつかの実施形態において、CPU602は、デュアルコアプロセッサ、デュアルコアモバイルプロセッサ、またはその他を含む。
The
メモリデバイス604は、限定されないが、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、又はスタティックRAM(SRAM)のような、揮発性メモリデバイスとして実装されうる。ストレージデバイス713は、限定されるわけではないが、磁気ディスクドライブ、光ディスクドライブ、テープドライブ、内部ストレージデバイス、接続されたストレージデバイス、フラッシュメモリ、バッテリバックアップSDRAM(シンクロナスDRAM)、および/またはネットワークアクセス可能ストレージデバイスのような不揮発性ストレージデバイスとして実装されてよい。いくつかの実施形態では、ストレージデバイス713は、例えば、複数のハードドライブが含まれる場合に、大切なデジタルメディアのためのストレージパフォーマンスエンハンスドプロテクションを増すための技術を含む。
グラフィックスサブシステム714は、表示のためのスチール又はビデオのような、複数の画像の処理を実行しうる。グラフィックスサブシステム714は、例えばGPU608又はビジュアル処理ユニット(VPU)のようなグラフィックス処理ユニット(GPU)を含んでよい。アナログまたはデジタルインターフェースは、グラフィックスサブシステム714およびディスプレイ704を通信可能に連結するために使用されてもよい。例えば、インターフェースは、高精細度マルチメディアインターフェース、ディスプレイポート、無線HDMI(登録商標)および/または無線HD準拠技術のいずれかでありうる。グラフィックスサブシステム714は、CPU602またはチップセット712に統合されうる。代わりに、グラフィックスサブシステム714は、チップセット712に通信可能に連結されたスタンドアロンカードであってよい。
Graphics subsystem 714 may perform processing of multiple images, such as still or video for display. Graphics subsystem 714 may include a graphics processing unit (GPU) such as
本開示で説明されるグラフィックスおよび/またはビデオ処理技術は、様々なハードウェアキテクチャで実装されうる。例えば、グラフィックスおよび/またはビデオ機能が、チップセット712内に統合されてよい。代わりに、別個のグラフィックスおよび/またはビデオプロセッサが用いられうる。さらに他の実施形態として、グラフィックスおよび/またはビデオ機能は、マルチコアプロセッサを含む汎用プロセッサによって実装されうる。さらなる実施形態では、複数の機能は、家庭用電子デバイスで実装されてもよい。
The graphics and / or video processing techniques described in this disclosure may be implemented in various hardware architectures. For example, graphics and / or video functions may be integrated within
無線装置716は、様々な適切なワイヤレス通信技術を使用して信号を送信及び受信可能な1または複数の無線機を含んでよい。そのような複数の技術は、1または複数の無線ネットワークを介した複数の通信を伴ってもよい。例となる無線ネットワークは、無線ローカルエリアネットワーク(WLAN)、無線パーソナルエリアネットワーク(WPAN)、無線メトロポリタンエリアネットワーク(WMAN)、セルラーネットワーク、衛星ネットワーク、又は同種のものを含む。そのような複数のネットワークにわたる通信において、無線装置716は、任意のバージョンの1または複数の適用可能規格により動作しうる。 Wireless device 716 may include one or more radios that can transmit and receive signals using a variety of suitable wireless communication technologies. Such techniques may involve multiple communications over one or more wireless networks. Exemplary wireless networks include a wireless local area network (WLAN), a wireless personal area network (WPAN), a wireless metropolitan area network (WMAN), a cellular network, a satellite network, or the like. In communication across such multiple networks, the wireless device 716 may operate according to any version of one or more applicable standards.
ディスプレイ704は、任意のテレビタイプモニタ又はディスプレイを含んでよい。例えば、ディスプレイ704は、コンピュータディスプレイ画面、タッチスクリーンディスプレイ、ビデオモニタ、テレビ、またはその他を含んでもよい。ディスプレイ704は、デジタルおよび/またはアナログであってよい。いくつかの実施形態では、ディスプレイ704は、ホログラフィーディスプレイである。また、ディスプレイ704は、視覚投影を受信しうる透明面であってよい。複数のそのような投影は、様々な形態の情報、画像、オブジェクト又は同種のものを伝達しうる。例えば、複数のそのような投影は、モバイル拡張現実(MAR)アプリケーションのためのビジュアルオーバーレイでありうる。1または複数のソフトウェアアプリケーション620の制御下で、プラットフォーム702は、ディスプレイ704上にユーザインターフェース718を表示してもよい。
コンテンツサービスデバイス706は、任意の国の、国際の、又は独立のサービスによってホストされてよく、それ故に、例えば、インターネットを介してプラットフォーム702に対してアクセス可能であってよい。コンテンツサービスデバイス706は、プラットフォーム702および/またはディスプレイ704に連結されうる。プラットフォーム702および/またはコンテンツサービスデバイス706は、ネットワーク720から及びに対してメディア情報を通信(例えば、送信および/または受信)するべく、ネットワーク720に連結されてよい。コンテンツ配信デバイス708はまた、プラットフォーム702および/またはディスプレイ704に連結されてもよい。
The
コンテンツサービスデバイス706は、デジタル情報を配信可能な、ケーブルテレビボックス、パーソナルコンピュータ、ネットワーク、電話、又はインターネット可能デバイスを含みうる。加えて、コンテンツサービスデバイス706は、複数のコンテンツプロバイダ及びプラットフォーム702又はディスプレイ704の間で、ネットワーク720を介して又は直接、コンテンツを一方向に又は双方向に通信可能な他の同様の複数の任意のデバイスを含みうる。コンテンツは、ネットワーク720を介して、システム700およびコンテンツプロバイダ中の複数のコンポーネントの何れか1つへ、及びこれらの何れか1つから、一方向および/または双方向に通信されうることが理解されよう。コンテンツの複数の例として、例えば、ビデオ、音楽、医療、ゲーム情報、及びその他を含む任意のメディア情報を含みうる。
コンテンツサービスデバイス706は、メディア情報、デジタル情報又は他のコンテンツを含むケーブルテレビプログラムのようなコンテンツを受信してよい。複数のコンテンツプロバイダの例には、中でも、任意のケーブルまたは衛星テレビ、若しくは無線またはインターネットコンテンツプロバイダが含まれうる。
いくつかの実施形態では、プラットフォーム702は、1または複数のナビゲーション機能を含む、ナビゲーションコントローラ710から複数の制御信号を受信する。ナビゲーションコントローラ710のナビゲーション機能は、例えば、ユーザインターフェース718と情報をやりとりするために使用されてよい。ナビゲーションコントローラ710は、ユーザが、空間(例えば、連続的かつ多次元の)データをコンピュータに入力できるようにするコンピュータハードウェアコンポーネント(具体的にはヒューマンインターフェースデバイス)であり得るポインティングデバイスであってよい。複数のグラフィカルユーザインターフェース(GUI)、テレビ、及びモニターのような多くのシステムにより、ユーザが、身体的ジェスチャを用いてコンピュータ又はテレビへのデータを制御し提供することができる。複数の身体的ジェスチャは、限定されないが、顔の表情、顔の動き、様々な手足の動き、体の動き、身ぶり、又はそれらの任意の組み合わせを含む。 そのような複数の身体的ジェスチャは、認識され、複数のコマンドまたは複数の命令に変換されることができる。
In some embodiments,
ナビゲーションコントローラ710のナビゲーション機能の動きは、ディスプレイ704上に表示されるポインタ、カーソル、フォーカスリング、又は複数の他の視覚的なインジケータの動きによって、ディスプレイ704上に反映される。例えば、複数のアプリケーション620の制御下において、ナビゲーションコントローラ710に位置する複数のナビゲーション機能は、ユーザインターフェース718上に表示された複数の視覚的なナビゲーション機能に対してマッピングされうる。いくつかの実施形態では、ナビゲーションコントローラ710は、別個のコンポーネントではなくてよいが、しかしむしろ、プラットフォーム702および/またはディスプレイ704内に統合されてよい。
The movement of the navigation function of the
システム700は、例えば、複数のユーザが、イネーブルである場合に、初めの起動後のボタンのタッチにより、プラットフォーム702を即座にオン、オフできるようにする技術を含む、複数のドライバ(不図示)を含みうる。プログラムロジックは、プラットフォームがオフの場合、プラットフォーム702が、コンテンツを、複数のメディアアダプタ、若しくは、他のコンテンツサービスデバイス706またはコンテンツ配信デバイス708にストリームすることを可能にしうる。加えて、チップセット712は、例えば、6.1サラウンドサウンドオーディオおよび/または高解像度7.1サラウンドサウンドオーディオへのハードウェアおよび/またはソフトウェアのサポートを含みうる。複数のドライバは、統合されたグラフィックスプラットフォームのためのグラフィックスドライバを含んでよい。いくつかの実施形態では、グラフィックスドライバは、ペリフェラルコンポーネントインターコネクトエクスプレス(PCIe)グラフィックスカードを含む。
The
様々な実施形態において、システム700に示されるコンポーネントのうちいずれかの1または複数は統合されうる。例えば、プラットフォーム702及びコンテンツサービスデバイス706が統合されてよく、プラットフォーム702及びコンテンツ配信デバイス708が統合されてよく、又は、プラットフォーム702、コンテンツサービスデバイス706及びコンテンツ配信デバイス708が統合されてよい。いくつかの実施形態では、プラットフォーム702及びディスプレイ704は統合されたユニットである。例えば、ディスプレイ704及びコンテンツサービスデバイス706が統合されてよく、又は、ディスプレイ704及びコンテンツ配信デバイス708が統合されてよい。
In various embodiments, one or more of any of the components shown in
システム700は、無線システム又は有線システムとして実装されうる。無線システムとして実装された場合、システム700は、1または複数のアンテナ、送信機、受信機、トランシーバ、増幅器、フィルタ、制御ロジック及びその他のような、無線共有媒体上で通信するのに適した複数のコンポーネント及びインターフェースを含みうる。無線共有媒体の一例は、RFスペクトルのような、無線スペクトルの一部を含んでよい。有線システムとして実装された場合、システム700は、複数の入出力(I/O)アダプタ、I/Oアダプタを対応する有線通信媒体に接続する複数の物理コネクタ、ネットワークインターフェースカード(NIC)、ディスクコントローラ、ビデオコントローラ、オーディオコントローラ、又は同種のもののような、有線通信媒体で通信するために適した複数のコンポーネント及びインターフェースを含んでよい。有線通信媒体の複数の例は、ワイヤ、ケーブル、複数のメタルリード、プリント回路基板(PCB)、バックプレーン、スイッチファブリック、半導体材料、ツイストペアワイヤ、同軸ケーブル、又はファイバーオプティックス等を含みうる。
プラットフォーム702は、情報を通信するべく、1または複数の論理チャネル又は物理チャネルを確立してよい。情報は、メディア情報及び制御情報を含みうる。メディア情報は、ユーザ向けコンテンツを表す任意のデータを指してもよい。コンテンツの複数の例は、例えば、音声会話、ビデオ会議、ストリーミングビデオ、電子メール(Eメール)メッセージ、ボイスメールメッセージ、複数の英数字のシンボル、グラフィックス、画像、ビデオ、テキスト、及び同種のものからのデータを含んでよい。音声会話からのデータは、例えば、スピーチ情報、沈黙期間、バックグラウンドノイズ、コンフォートノイズ、及びトーン等でありうる。制御情報は、自動化システム向けの、複数のコマンド、複数の命令、または複数の制御ワードを表している任意のデータを指してもよい。例えば、制御情報は、システムを通じてメディア情報をルーティングするべく、又は予め定められたやり方でメディア情報を処理するようノードに指示するべく用いられてもよい。しかし、複数の実施形態は、図8において示すまたは説明される要素または文脈に限定されるものではない。
図8は、複数の実施形態による、図7のシステム700が具体化されうるスモールフォームファクタデバイス800の概略図である。同様の数字が付けられたアイテムは、図7に関して説明されたものと同じである。いくつかの実施形態では、例えば、デバイス700は、複数の無線機能を有するモバイルコンピューティングデバイスとして実装される。モバイルコンピューティングデバイスは、例えば、処理システム、及び1または複数のバッテリのようなモバイル電源又はサプライを有する任意のデバイスを指しうる。
FIG. 8 is a schematic diagram of a small
上述のように、モバイルコンピューティングデバイスの複数の例は、パーソナルコンピュータ(PC),ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、ポータブルコンピュータ、ハンドヘルドコンピュータ、パームトップコンピュータ、パーソナルデジタルアシスタント(PDA)、携帯電話、携帯電話/PDAの組み合わせ、テレビ、スマートデバイス(例えば、スマートフォン、スマートタブレット、又はスマートテレビ)、モバイルインターネットデバイス(MID)、メッセージングデバイス、データ通信デバイス、及び同種のものを含んでよい。 As mentioned above, several examples of mobile computing devices include personal computers (PCs), laptop computers, ultra laptop computers, tablets, touchpads, portable computers, handheld computers, palmtop computers, personal digital assistants (PDAs). ), Mobile phones, cell phone / PDA combinations, televisions, smart devices (eg, smart phones, smart tablets, or smart TVs), mobile internet devices (MID), messaging devices, data communication devices, and the like Good.
モバイルコンピューティングデバイスの例は、また、リストコンピュータ、フィンガーコンピュータ、リングコンピュータ、アイグラスコンピュータ、ベルトクリップコンピュータ、アームバンドコンピュータ、シューコンピュータ、衣類コンピュータ、又は任意の他の適切なタイプのウェアラブルコンピュータのような、人によって着用されるように配置されるコンピュータを含みうる。例えば、モバイルコンピューティングデバイスは、音声通信および/またはデータ通信とともに、複数のコンピュータアプリケーションを実行可能なスマートフォンとして実装されうる。いくつかの実施形態は、例として、スマートフォンとして実装されるモバイルコンピューティングデバイスにより説明されてもよいが、複数の他の実施形態は、同様に他の複数の無線モバイルコンピューティングデバイスを用いて実装されてもよいことが理解されよう。 Examples of mobile computing devices are also like wrist computers, finger computers, ring computers, eyeglass computers, belt clip computers, armband computers, shoe computers, clothing computers, or any other suitable type of wearable computer May include a computer arranged to be worn by a person. For example, a mobile computing device can be implemented as a smartphone capable of executing multiple computer applications with voice and / or data communications. Some embodiments may be described by way of example as a mobile computing device implemented as a smartphone, although other embodiments are implemented using other wireless mobile computing devices as well. It will be understood that this may be done.
図8に示すように、デバイス800は、筐体802、ディスプレイ804、入出力(I/O)デバイス806、およびアンテナ808を有しうる。デバイス800はまた、複数のナビゲーション機能810を含みうる。ディスプレイ804は、モバイルコンピューティングデバイスに適した情報を表示するための任意の適切なディスプレイユニットを含んでよい。I/Oデバイス806は、モバイルコンピューティングデバイスに情報を入力するのに適した任意のI/Oデバイスを含みうる。例えば、I/Oデバイス806は、英数字キーボード、テンキーパッド、タッチパッド、複数の入力キー、複数のボタン、複数のスイッチ、複数のロッカースイッチ、複数のマイク、複数のスピーカ、音声認識デバイス及びソフトウェア、又は同種のものを含みうる。情報はまた、マイクを用いてデバイス800に入力されうる。そのような情報は、音声認識デバイスによってデジタル化されてよい。
As shown in FIG. 8, the
複数の実施形態において、イメージキャプチャメカニズムは、Mobile Industry Processor Interface(MIPI)カメラシリアルインターフェース(CSI)アライアンスによる仕様書に従い開発されたインターフェースを用いてホストプロセッサとインターフェースで接続するカメラデバイスでありうる。例えば、カメラシリアルインターフェースは、MIPI CSI−1インターフェース、MIPI CSI−2インターフェース、又はMIPI CSI−3インターフェースでありうる。従って、カメラシリアルインターフェースは、現在開発されている又は今後開発される任意のカメラシリアルインターフェースでありうる。複数の実施形態では、カメラシリアルインターフェースは、データ及びクロック信号との一方向差動シリアルインターフェースであるデータ送信インターフェースを含みうる。さらに、ホストプロセッサとのカメラインターフェースはまた、現在開発されている又は今後開発される任意のカメラパラレルインターフェース(CPI)でありうる。 In embodiments, the image capture mechanism may be a camera device that interfaces with a host processor using an interface developed in accordance with specifications from the Mobile Industry Processor Interface (MIPI) Camera Serial Interface (CSI) Alliance. For example, the camera serial interface can be a MIPI CSI-1 interface, a MIPI CSI-2 interface, or a MIPI CSI-3 interface. Thus, the camera serial interface can be any camera serial interface that is currently being developed or will be developed in the future. In embodiments, the camera serial interface may include a data transmission interface that is a one-way differential serial interface with data and clock signals. Furthermore, the camera interface with the host processor can also be any camera parallel interface (CPI) currently developed or developed in the future.
複数の実施形態では、イメージキャプチャメカニズムは、モバイルコンピューティングデバイスのコンポーネントであってよい。例えば、MIPI CSIアライアンス規格に従って開発されたカメラデバイスは、図6のデバイス600、図7のシステム700、図8のデバイス800、又はそれらの任意の組み合わせの少なくとも1つ又は複数と統合されるイメージキャプチャメカニズムであってよい。イメージキャプチャメカニズムは、深度センサ、画像センサ、赤外線センサ、X線光子カウンティングセンサ又はそれらの任意の組み合わせのような、様々なセンサを含みうる。複数の画像センサは、電荷結合素子(CCD)画像センサ、相補型金属酸化膜半導体(CMOS)画像センサ、システムオンチップ(SOC)画像センサ、感光性薄膜トランジスタを有する画像センサ、又はそれらの任意の組み合わせを含みうる。
In embodiments, the image capture mechanism may be a component of a mobile computing device. For example, a camera device developed in accordance with the MIPI CSI Alliance standard may be integrated with at least one or more of the
例1 Example 1
3D画像を向上させる装置は本開示で説明される。3D画像は、それに関連付けられた深度情報及びテクスチャ情報を含む。装置は、少なくとも部分的に深度情報に依存して、複数の表面メッシュセクションを有する3Dメッシュを生成するためのロジックと、少なくとも部分的にテクスチャ情報に依存して、複数の表面メッシュセクションに対応する複数のテクスチャセクションを決定するためのロジックとを含む。装置はまた、少なくとも部分的に複数のテクスチャセクションの色彩強度に依存して、テクスチャセクション及び対応する複数の表面メッシュセクションをランク付けするためのロジックと、1または複数の光源の複数の特性を調節して、色彩強度でランク付けされた複数のテクスチャセクションのうちの1または複数の色彩強度を変更し、それにより向上された画像を生成するためのロジックとを含む。 An apparatus for enhancing 3D images is described in this disclosure. A 3D image includes depth information and texture information associated with it. The apparatus corresponds to the plurality of surface mesh sections depending at least in part on the depth information and logic for generating a 3D mesh having the plurality of surface mesh sections and at least in part on the texture information. Logic for determining a plurality of texture sections. The apparatus also adjusts the logic for ranking the texture section and the corresponding plurality of surface mesh sections and the characteristics of the one or more light sources, depending at least in part on the color intensity of the plurality of texture sections. Logic for changing one or more of the plurality of texture sections ranked by color intensity and thereby generating an improved image.
1または複数の光源の位置が決定され、1または複数の光源が、キャプチャされた後の3D画像に追加されうる。1または複数の光源はまた、キャプチャされたときに3D画像内に存在しうる。1または複数の光源の位置を決定するためのロジックは、少なくとも部分的に色彩強度でランク付けされた複数の画像テクスチャ及び対応する複数の表面メッシュ法線ベクトルに依存して、1または複数の光源ベクトルを用いて、3D画像内の複数の光源の位置を決定することを含みうる。1または複数の光源ベクトルを決定するためのロジックは、また、色彩強度でランク付けされた複数のテクスチャセクションの各々について、対応する光源ベクトルを決定し、光源ベクトルのセットを数学的に結合することを含みうる。色彩強度でランク付けされた複数のテクスチャセクションの色彩強度は、予め定められた閾値より小さい及びそれより大きいのうちの一方である色彩強度を有する複数のテクスチャセクションを含みうる。光源ベクトルを決定するためのロジックは、中間ベクトルを決定することを含んでよく、中間ベクトルは、ビューベクトルと、色彩強度でランク付けされた1または複数のテクスチャセクション及び表面メッシュセクションの各々に対する垂直なベクトルと、対応する表面ベクトルとの間のほぼ真ん中にある。少なくとも1つの光源の複数の特性を調節するためのロジックは、少なくとも1つの光源のうちの1または複数のブライトネス、色、色相、彩度、クロマ、明度、色彩強度、及びルミナンスの少なくとも1つを変更することを含みうる。少なくとも1つの光源の複数の特性を調節するためのロジックは、また、少なくとも1つの光源を追加及び除去することの一方を含みうる。表面メッシュ及び対応する複数のテクスチャは、複数の新たな光源を用いて再レンダリングされてよく、結果の画像は、また、出力されてよい。表面メッシュ及び対応する複数のテクスチャを再レンダリングして結果の画像を出力することは、予め定められた標準フォーマット、標準深度マップフォーマット、又は標準カメラ出力フォーマットで、色彩強度でランク付けされた複数の表面の少なくとも1つを提供することを含みうる。少なくとも1つの光源の複数の特性を調節するためのロジックは、向上された画像のレンダリングの前に、又は併せて実行されうる。さらに、装置は、プリントデバイス又はイメージキャプチャメカニズムでありうる。 The position of the one or more light sources can be determined and the one or more light sources can be added to the captured 3D image. One or more light sources may also be present in the 3D image when captured. The logic for determining the location of the one or more light sources depends on the plurality of image textures and the corresponding plurality of surface mesh normal vectors at least partially ranked by color intensity, and the one or more light sources The method may include determining the position of a plurality of light sources in the 3D image using the vector. The logic for determining one or more light source vectors may also determine a corresponding light source vector for each of the plurality of texture sections ranked by color intensity and mathematically combine the set of light source vectors. Can be included. The color intensity of the plurality of texture sections ranked by color intensity may include a plurality of texture sections having a color intensity that is one of less than and greater than a predetermined threshold. The logic for determining the light source vector may include determining an intermediate vector that is perpendicular to the view vector and each of the one or more texture sections and surface mesh sections ranked by color intensity. Between the correct vector and the corresponding surface vector. Logic for adjusting the plurality of characteristics of the at least one light source includes at least one of brightness, color, hue, saturation, chroma, lightness, color intensity, and luminance of one or more of the at least one light source. Can include changing. The logic for adjusting the plurality of characteristics of the at least one light source may also include one of adding and removing at least one light source. The surface mesh and corresponding multiple textures may be re-rendered using multiple new light sources, and the resulting image may also be output. Re-rendering the surface mesh and corresponding multiple textures and outputting the resulting image can be done with multiple standard ranked by color intensity in a predefined standard format, standard depth map format, or standard camera output format. Providing at least one of the surfaces may be included. Logic for adjusting the plurality of characteristics of the at least one light source may be performed prior to or in conjunction with enhanced image rendering. Further, the apparatus can be a printing device or an image capture mechanism.
例2 Example 2
それに格納された複数の命令を有する少なくとも1つの非一時的機械読み出し可能媒体が説明される。複数の命令は、デバイス上で実行されることに応じて、デバイスに、3D画像に関連付けられた深度情報及びテクスチャ情報を抽出させ、複数の表面メッシュセクションを有する表面メッシュを深度情報から生成させる。複数の命令は、デバイスで実行されることに応じて、デバイスに、複数の表面メッシュセクションに対応する複数のテクスチャセクションを、テクスチャ情報から決定させ、複数のテクスチャセクション及び対応する複数の表面メッシュセクションを、それらの各自の色彩強度に関してランク付けさせる。更に、複数の命令は、デバイス上で実行されることに応じて、デバイスに、1または複数の光源の複数の特性を調節させて、それにより、色彩強度でランク付けされた複数のテクスチャセクションのうちの1または複数の色彩強度を変更して、向上された画像を生成させる。 At least one non-transitory machine readable medium having a plurality of instructions stored thereon is described. The instructions, when executed on the device, cause the device to extract depth information and texture information associated with the 3D image and to generate a surface mesh having a plurality of surface mesh sections from the depth information. The plurality of instructions are executed by the device, causing the device to determine a plurality of texture sections corresponding to the plurality of surface mesh sections from the texture information, the plurality of texture sections and the corresponding plurality of surface mesh sections. Are ranked with respect to their respective color intensity. In addition, the instructions may cause the device to adjust the characteristics of the one or more light sources in response to being executed on the device, thereby providing a plurality of texture sections ranked by color intensity. One or more of the color intensities are changed to generate an improved image.
少なくとも1つの光源の複数の特性を調節するための複数の命令は、3D画像に対して、1または複数の光源を追加又は除去するための複数の命令を含みうる。1または複数の光源の複数の特性を調節、追加又は除去するための複数の命令は、また、キャプチャされたときに3D画像内に存在する光源の複数の特性を調節、追加、又は除去するための複数の命令を含みうる。少なくとも1つの光源の位置が決定されうる。1または複数の光源の位置を決定するための複数の命令は、デバイス上で実行されることに応じて、色彩強度でランク付けされた複数のテクスチャセクションの各々に対して、対応する複数の表面メッシュセクションについての対応する光源ベクトルを決定し、複数の光源ベクトルを数学的に共に組み合わせる複数の命令をさらに含みうる。色彩強度でランク付けされた複数のテクスチャセクションは、予め定められた閾値未満及びそれより大きいのうちの一方である色彩強度を有する複数のテクスチャセクションを含みうる。少なくとも1つの光源の複数の特性を調節、追加、又は除去するための複数の命令は、デバイス上で実行されたときに、少なくとも1つの光源のうちの1または複数のブライトネス、色、色相、彩度、クロマ、明度、色彩強度、及びルミナンスのうちの少なくとも1つを変化させる複数の命令をさらに含みうる。少なくとも1つの光源の複数の特性を調節するための複数の命令は、デバイス上で実行された場合に、少なくとも1つの光源を追加又は除去する複数の命令をさらに含みうる。 The instructions for adjusting the characteristics of the at least one light source may include instructions for adding or removing one or more light sources to the 3D image. Multiple instructions for adjusting, adding or removing multiple characteristics of one or more light sources also adjust, add or remove multiple characteristics of the light sources present in the 3D image when captured A plurality of instructions can be included. The position of at least one light source can be determined. The plurality of instructions for determining the position of the one or more light sources is executed on the device, and a corresponding plurality of surfaces for each of the plurality of texture sections ranked by color intensity. A plurality of instructions for determining a corresponding light source vector for the mesh section and combining the plurality of light source vectors together mathematically may be further included. The plurality of texture sections ranked by color intensity may include a plurality of texture sections having a color intensity that is one of less than and greater than a predetermined threshold. A plurality of instructions for adjusting, adding, or removing a plurality of characteristics of at least one light source, when executed on the device, the brightness, color, hue, chrominance of one or more of the at least one light source. A plurality of instructions for changing at least one of degree, chroma, lightness, color intensity, and luminance may be further included. The instructions for adjusting the characteristics of the at least one light source may further include instructions for adding or removing at least one light source when executed on the device.
非一時的機械読み出し可能媒体は、また、デバイス上で実行されたときに、複数の新たな光源を用いて、表面メッシュ及び対応する複数のテクスチャを再レンダリングし、向上された画像を出力する複数の命令を含みうる。向上された画像を出力するための複数の命令は、デバイス上で実行されたときに、また、複数のカメラ、センサ、2D又は3Dプリンタ、2D又は3Dディスプレイ、コンピュータグラフィックスシステム又はコンピュータシステムの間で、予め定められた標準フォーマット、標準深度マップフォーマット、標準カメラ出力フォーマット、標準媒体コーデックフォーマット、標準コンピュータグラフィックスフォーマット、標準3D深度ファイルフォーマット、又は標準プロトコルフォーマットで、色彩強度でランク付けされた複数の表面の少なくとも1つを提供する複数の命令をさらに含みうる。 The non-transitory machine-readable medium also uses a plurality of new light sources to re-render the surface mesh and corresponding textures when executed on the device, and output an enhanced image. Can include the following instructions. Multiple instructions for outputting an enhanced image are executed on the device and between multiple cameras, sensors, 2D or 3D printers, 2D or 3D displays, computer graphics systems or computer systems. A plurality of ranked by color intensity in a predetermined standard format, standard depth map format, standard camera output format, standard media codec format, standard computer graphics format, standard 3D depth file format, or standard protocol format. A plurality of instructions for providing at least one of the surfaces of the display;
例3 Example 3
システムが本開示で説明される。システムは、格納された複数の命令を実行するように構成された中央処理ユニットと、中央処理ユニットにより読み取り可能な複数の命令を格納する少なくとも1つのメモリデバイスとを含み、複数の命令は、中央処理ユニットによって実行されたときに、3D画像から深度情報及びテクスチャ情報を抽出し、深度情報から、複数の表面メッシュセクションを有する表面メッシュを生成するように構成される。システムはまた、実行されたときに、複数の表面メッシュセクションに対応する複数のテクスチャセクションをテクスチャ情報から決定し、複数のテクスチャセクションを、それらの各自の色彩強度に関してランク付けし、1または複数の光源の複数の特性を調節、追加、又は除去して、それにより、色彩強度でランク付けされた複数のテクスチャセクションのうちの1または複数の色彩強度を変更し、それにより、向上された画像を生成するように構成された複数の命令を含みうる。 A system is described in this disclosure. The system includes a central processing unit configured to execute a plurality of stored instructions and at least one memory device storing a plurality of instructions readable by the central processing unit, wherein the plurality of instructions are central When executed by the processing unit, it is configured to extract depth information and texture information from the 3D image and generate a surface mesh having a plurality of surface mesh sections from the depth information. When executed, the system also determines a plurality of texture sections corresponding to the plurality of surface mesh sections from the texture information and ranks the plurality of texture sections with respect to their respective color strengths. Adjust, add, or remove multiple characteristics of the light source, thereby changing one or more color intensities of the multiple texture sections ranked by color intensity, thereby improving the image A plurality of instructions configured to generate may be included.
システムはさらに、3D画像及び関連付けられた深度情報及びテクスチャ情報をキャプチャするように構成された少なくとも1つのセンサを含みうる。複数の命令は、さらに、1または複数の光源の位置を決定するように構成される。複数の命令はまた、予め定められた閾値未満及びそれより大きいうちの一方である色彩強度を有する色彩強度でランク付けされた複数のテクスチャセクションの各々に対して、対応する光源ベクトルを決定し、複数の光源ベクトルを共に数学的に結合し、それにより、1または複数の光源の位置を決定するように構成されうる。複数の命令はまた、少なくとも1つの光源の複数の特性を調節して、1または複数の光源のうちの1または複数のものの、ブライトネス、色、色相、彩度、クロマ、明度、色彩強度、及びルミナンスの少なくとも1つを修正するように構成されうる。 The system may further include at least one sensor configured to capture 3D images and associated depth and texture information. The plurality of instructions is further configured to determine a position of the one or more light sources. The instructions also determine a corresponding light source vector for each of the plurality of texture sections ranked by color intensity having a color intensity that is one of less than and greater than a predetermined threshold, A plurality of light source vectors may be mathematically combined together to thereby determine the position of one or more light sources. The instructions also adjust a plurality of characteristics of the at least one light source to provide brightness, color, hue, saturation, chroma, lightness, color intensity, and one or more of the one or more light sources. It can be configured to modify at least one of the luminances.
更に、複数の命令は、1または複数の光源の複数の特性を調節するように構成されてよく、さらに、追加の光源を追加し、存在する複数の光源を除去するように構成される。複数の命令は、複数のカメラ、センサ、2D又は3Dプリンタ、2D又は3Dディスプレイ、コンピュータグラフィックスシステム又はコンピュータシステムの間で、予め定められた標準フォーマット、標準深度マップフォーマット、標準カメラ出力フォーマット、標準媒体コーデックフォーマット、標準コンピュータグラフィックスフォーマット、標準3D深度ファイルフォーマット、又は標準プロトコルフォーマットで、色彩強度でランク付けされた複数の表面を出力するようにさらに構成されうる。 Further, the instructions may be configured to adjust a plurality of characteristics of the one or more light sources, and further configured to add additional light sources and remove existing light sources. Multiple commands include multiple standard cameras, sensors, 2D or 3D printers, 2D or 3D displays, computer graphics systems or computer systems, a standard format, standard depth map format, standard camera output format, standard It may be further configured to output multiple surfaces ranked by color intensity in a media codec format, a standard computer graphics format, a standard 3D depth file format, or a standard protocol format.
複数のフロー図および/または状態図が、複数の実施形態を説明すべく本開示で用いられたが、複数の発明は、それらの図又は対応する本開示の説明に限定されないということは理解されるべきである。例えば、フローは、図示されたそれぞれのボックスまたは状態を経て進行する必要はないし、本明細書で図示および説明されているのと厳密に同じ順序で進行する必要もない。 Although multiple flow diagrams and / or state diagrams have been used in this disclosure to describe multiple embodiments, it is understood that the inventions are not limited to those diagrams or the corresponding description of the disclosure. Should be. For example, the flow need not proceed through each illustrated box or state, nor does it need to proceed in exactly the same order as shown and described herein.
複数の発明は、本開示で挙げられた特定の詳細に限定されない。実際、当業者であれば、前述の説明及び図面から多くの他のバリエーションが、本願発明の範囲内で行われうることは理解するであろう。従って、複数の本発明の範囲を定義するものは、いかなる変更をも含む以下の特許請求である。 The inventions are not limited to the specific details listed in this disclosure. Indeed, those skilled in the art will appreciate that many other variations may be made within the scope of the present invention from the foregoing description and drawings. Accordingly, what defines the scope of the invention is the following claims, including any modifications.
Claims (28)
少なくとも部分的に前記深度情報に依存して、複数の表面メッシュセクションを有する3Dメッシュを生成する手段と、
少なくとも部分的に前記テクスチャ情報に依存して、前記複数の表面メッシュセクションに対応する複数のテクスチャセクションを決定する手段と、
少なくとも部分的に前記複数のテクスチャセクションの色彩強度に依存して、前記複数のテクスチャセクションおよび対応する複数の表面メッシュセクションをランク付けする手段と、
前記色彩強度でランク付けされた複数のテクスチャセクションのうちの1または複数についての前記色彩強度を変更して、それにより向上された画像を生成すべく、1または複数の光源の複数の特性を調節する手段と、
前記1または複数の光源の位置を決定する手段と
を備え、
前記1または複数の光源の前記位置を決定する手段は、少なくとも部分的に複数の画像テクスチャの前記ランク付けされた色彩強度および対応する複数の表面メッシュ法線ベクトルに依存して、1または複数の光源ベクトルを用いる前記3D画像における複数の光源の前記位置を決定することを含む、装置。 An apparatus for enhancing the 3D image having depth information and texture information associated with the 3D image, comprising:
Means for generating a 3D mesh having a plurality of surface mesh sections, depending at least in part on the depth information;
Means for determining a plurality of texture sections corresponding to the plurality of surface mesh sections, depending at least in part on the texture information;
Means for ranking the plurality of texture sections and the corresponding plurality of surface mesh sections, depending at least in part on the color intensity of the plurality of texture sections;
Adjust multiple characteristics of one or more light sources to alter the color intensity for one or more of the texture sections ranked by the color intensity, thereby producing an improved image Means to
E Bei the <br/> and means for determining the position of the one or more light sources,
The means for determining the position of the one or more light sources depends on the ranked color intensity of the plurality of image textures and the corresponding plurality of surface mesh normal vectors, Determining the position of a plurality of light sources in the 3D image using a light source vector .
請求項1に記載の装置。 The apparatus of claim 1, wherein the one or more light sources are added to the captured 3D image.
請求項1または2に記載の装置。 The apparatus according to claim 1 or 2 , wherein the one or more light sources are in a 3D image when captured.
請求項1から3のいずれか1項に記載の装置。 The means for determining the one or more light source vectors includes determining a corresponding light source vector for each of the plurality of texture sections ranked by color intensity and mathematically combining the set of light source vectors together. An apparatus according to any one of claims 1 to 3 .
請求項4に記載の装置。 The apparatus of claim 4 , wherein the color intensity of the plurality of texture sections ranked by color intensity includes a plurality of texture sections having a color intensity that is one of less than and greater than a predetermined threshold.
請求項1から5のいずれか1項に記載の装置。 The means for determining the one or more light source vectors includes a view vector, a vector perpendicular to each of the one or more texture intensity and surface mesh sections ranked by the color intensity, and the corresponding plurality of 6. The apparatus according to any one of claims 1 to 5, comprising determining an intermediate vector that is approximately in the middle between the surface vectors.
請求項1から6のいずれか1項に記載の装置。 Means for adjusting said plurality of characteristics of the one or more light sources, wherein at least one of brightness for one or more of the light source, color, hue, saturation, chroma, lightness, color intensity, of the luminance 7. The apparatus according to any one of claims 1 to 6 , comprising changing at least one.
請求項1から7のいずれか1項に記載の装置。 It means for adjusting said plurality of characteristics of the one or more light sources, according to any one of claims 1 7 comprising one of addition and removal of the at least one light source.
請求項1から8のいずれか1項に記載の装置。 The apparatus according to any one of claims 1 to 8 , further comprising means for re-rendering the surface mesh and a plurality of corresponding textures using a plurality of new light sources and outputting the resulting image. .
請求項9に記載の装置。 Re-rendering the surface mesh and corresponding textures and outputting the resulting image is ranked by the color intensity in a predetermined standard format, standard depth map format, or standard camera output format. 10. The apparatus of claim 9 , further comprising providing at least one of the plurality of surfaces.
請求項1から10のいずれか1項に記載の装置。 11. The apparatus according to any one of claims 1 to 10 , wherein the means for adjusting the plurality of characteristics of the at least one light source is performed prior to or in conjunction with the enhanced rendering of the image.
請求項1から11のいずれか1項に記載の装置。 The apparatus according to any one of claims 1 to 11 which is a printing device.
請求項1から11のいずれか1項に記載の装置。 The apparatus according to any one of claims 1 to 11 is an image capture mechanism.
3D画像に関連付けられた深度情報及びテクスチャ情報を抽出する段階と、
複数の表面メッシュセクションを有する表面メッシュを前記深度情報から生成する段階と、
前記複数の表面メッシュセクションに対応する複数のテクスチャセクションを、前記テクスチャ情報から決定する段階と、
前記複数のテクスチャセクションおよび対応する複数の表面メッシュセクションを、それらの各自の色彩強度に関してランク付けする段階と、
1または複数の光源の複数の特性を調節して、それにより前記色彩強度でランク付けされた複数のテクスチャセクションのうちの1または複数についての前記色彩強度を変更して、向上された画像を生成する段階と、
前記1または複数の光源の位置を決定する段階と、
を実行させ、
前記1または複数の光源の位置を決定するための前記複数の命令は、前記デバイス上で実行されることに応じて、前記デバイスに、
少なくとも部分的に複数の画像テクスチャの前記ランク付けされた色彩強度および対応する複数の表面メッシュ法線ベクトルに依存して、1または複数の光源ベクトルを用いる前記3D画像における複数の光源の前記位置を決定する段階を実行させる複数の命令をさらに含む、プログラム。 A program having a plurality of instructions, wherein the plurality of instructions are executed on the device in response to being executed on the device.
Extracting depth information and texture information associated with the 3D image;
Generating a surface mesh having a plurality of surface mesh sections from the depth information;
Determining a plurality of texture sections corresponding to the plurality of surface mesh sections from the texture information;
Ranking the plurality of texture sections and corresponding plurality of surface mesh sections with respect to their respective color strengths;
Adjust multiple characteristics of one or more light sources, thereby changing the color intensity for one or more of the plurality of texture sections ranked by the color intensity to generate an improved image the method comprising,
Determining the position of the one or more light sources;
Was executed,
The plurality of instructions for determining the position of the one or more light sources is executed on the device in response to being executed on the device,
Depending on the ranked color intensity of the plurality of image textures and the corresponding plurality of surface mesh normal vectors at least in part, the position of the plurality of light sources in the 3D image using one or more light source vectors. A program further comprising a plurality of instructions that cause the determining step to be executed .
請求項14に記載のプログラム。 Wherein one or more of said plurality of instructions for adjusting the plurality of characteristics of the light source, in claim 14 including a plurality of instructions for adding or removing one or more light sources with respect to the 3D image The listed program.
請求項14または15に記載のプログラム。 Adjusting said plurality of characteristics of the one or more light sources, additional, or wherein the plurality of instructions for removing, said plurality of characteristics of one or more light sources present in the 3D image when captured The program according to claim 14 or 15 , comprising a plurality of instructions for adjusting, adding or removing.
色彩強度でランク付けされた複数のテクスチャセクションの各々について、対応する複数の表面メッシュセクションのための対応する光源ベクトルを決定する段階と、
複数の前記光源ベクトルのセットを数学的に結合する段階とを実行させる複数の命令をさらに含む
請求項14から16のいずれか1項に記載のプログラム。 The plurality of instructions for determining the position of the one or more light sources is executed on the device in response to being executed on the device,
Determining, for each of a plurality of texture sections ranked by color intensity, a corresponding light source vector for a corresponding plurality of surface mesh sections;
The program according to any one of claims 14 to 16, further comprising: a plurality of instructions for executing a step of mathematically combining the plurality of sets of light source vectors.
請求項17に記載のプログラム。 The program of claim 17 , wherein the plurality of texture sections ranked by color intensity includes a plurality of texture sections having a color intensity that is one of less than and greater than a predetermined threshold.
請求項14から18のいずれか1項に記載のプログラム。 Adjusting said plurality of characteristics of the one or more light sources, additional, or wherein the plurality of instructions for removing, when executed on the device, the device, of the at least one light source 1 or brightness for multiple, color, hue, saturation, either chroma, brightness, color intensity, claims 14, further comprising a plurality of instructions for executing the steps of changing at least one of luminance 18 1 The program described in the section.
請求項14から19のいずれか1項に記載のプログラム。 The instructions for adjusting the plurality of characteristics of the one or more light sources, when executed on the device, cause the device to perform the steps of adding or removing at least one light source. The program according to any one of claims 14 to 19 , further comprising:
請求項14から20のいずれか1項に記載のプログラム。 When executed on the device, the device causes the device to perform a step of re-rendering the surface mesh and corresponding textures using a new light source to output the enhanced image. The program according to any one of claims 14 to 20 , further comprising an instruction.
請求項21に記載のプログラム。 When executed on the device, the plurality of instructions for outputting the enhanced image includes a plurality of cameras, a plurality of sensors, a plurality of 2D or 3D printers, a plurality of 2D or 3D, Predefined standard formats, standard depth map formats, standard camera output formats, standard media codec formats, standard computer graphics formats, standard 3D depth files between displays, multiple computer graphics systems, or multiple computer systems The program according to claim 21 , further comprising: a plurality of instructions for executing a step of further providing at least one of a plurality of surfaces ranked by color intensity in a format or standard protocol format.
前記複数の命令は、前記中央処理ユニットによって実行されるときに、
深度情報及びテクスチャ情報を3D画像から抽出する段階と、
複数の表面メッシュセクションを有する表面メッシュを前記深度情報から生成する段階と、
前記複数の表面メッシュセクションに対応する複数のテクスチャセクションを、前記テクスチャ情報から決定する段階と、
前記複数のテクスチャセクションを、それらの各自の色彩強度に関してランク付けする段階と、
1または複数の光源の特性を調節、追加、又は除去し、それにより、前記色彩強度でランク付けされた複数のテクスチャセクションのうちの前記1または複数についての前記色彩強度を変更して、それにより、向上された画像を生成する段階と、
前記1または複数の光源の位置を決定する段階と、
を実行するように構成され、
前記複数の命令は、
少なくとも部分的に複数の画像テクスチャの前記ランク付けされた色彩強度および対応する複数の表面メッシュ法線ベクトルに依存して、1または複数の光源ベクトルを用いる前記3D画像における複数の光源の前記位置を決定する段階を実行させるようにさらに構成される、システム。 A system comprising a central processing unit for executing a plurality of stored instructions and at least one memory device for storing a plurality of instructions readable by the central processing unit,
When the plurality of instructions are executed by the central processing unit,
Extracting depth information and texture information from the 3D image;
Generating a surface mesh having a plurality of surface mesh sections from the depth information;
Determining a plurality of texture sections corresponding to the plurality of surface mesh sections from the texture information;
Ranking the plurality of texture sections with respect to their respective color strengths;
Adjusting, adding, or removing characteristics of one or more light sources, thereby changing the color intensity for the one or more of the plurality of texture sections ranked by the color intensity, thereby and generating an enhanced image,
Determining the position of the one or more light sources;
It is configured to run,
The plurality of instructions are:
Depending on the ranked color intensity of the plurality of image textures and the corresponding plurality of surface mesh normal vectors at least in part, the position of the plurality of light sources in the 3D image using one or more light source vectors. A system further configured to cause the determining step to be performed .
請求項23に記載のシステム。 24. The system of claim 23 , further comprising at least one sensor that captures a 3D image and the associated depth and texture information.
予め定められた閾値より小さいおよびより大きいのうちの一方である色彩強度を有する色彩強度でランク付けされた複数のテクスチャセクションの各々について、対応する光源ベクトルを決定する段階と、
複数の前記光源ベクトルを数学的に共に結合し、それにより前記光源の各々の位置を決定する段階とを実行するようにさらに構成される
請求項23または24に記載のシステム。 The plurality of instructions are:
Determining a corresponding light source vector for each of a plurality of texture sections ranked by color intensity having a color intensity that is one of less than and greater than a predetermined threshold;
25. The system of claim 23 or 24 , further configured to mathematically combine a plurality of the light source vectors together to thereby determine the position of each of the light sources.
請求項23から25のいずれか1項に記載のシステム。 The one or more light sources wherein the plurality of instructions configured to adjust a plurality of said characteristics of said one or more light sources of brightness, color, hue, saturation, chroma, lightness, color intensity, luminance The system according to any one of claims 23 to 25 , wherein at least one of them is modified.
請求項23から26のいずれか1項に記載のシステム。 The plurality of instructions configured to adjust a plurality of the characteristics of the one or more light sources is further configured to add additional light sources and remove existing light sources. 27. The system according to any one of 23 to 26 .
請求項23から27のいずれか1項に記載のシステム。 The plurality of instructions may be a predetermined standard format between a plurality of cameras, a plurality of sensors, a plurality of 2D or 3D printers, a plurality of 2D or 3D displays, a plurality of computer graphics systems, or a plurality of computer systems. Output a plurality of surfaces ranked by the color intensity in a standard depth map format, standard camera output format, standard media codec format, standard computer graphics format, standard 3D depth file format, or standard protocol format. The system according to any one of claims 23 to 27 , further configured.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/727,504 US9536345B2 (en) | 2012-12-26 | 2012-12-26 | Apparatus for enhancement of 3-D images using depth mapping and light source synthesis |
US13/727,504 | 2012-12-26 | ||
PCT/US2013/075930 WO2014105542A1 (en) | 2012-12-26 | 2013-12-18 | Apparatus for enhancement of 3-d images using depth mapping and light source synthesis |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016505968A JP2016505968A (en) | 2016-02-25 |
JP6009099B2 true JP6009099B2 (en) | 2016-10-19 |
Family
ID=50974107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015549599A Active JP6009099B2 (en) | 2012-12-26 | 2013-12-18 | Apparatus, program and system for improving 3D images |
Country Status (6)
Country | Link |
---|---|
US (1) | US9536345B2 (en) |
EP (1) | EP2939216B1 (en) |
JP (1) | JP6009099B2 (en) |
KR (1) | KR101713463B1 (en) |
CN (1) | CN105051792B (en) |
WO (1) | WO2014105542A1 (en) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9536345B2 (en) | 2012-12-26 | 2017-01-03 | Intel Corporation | Apparatus for enhancement of 3-D images using depth mapping and light source synthesis |
US9880623B2 (en) | 2013-01-24 | 2018-01-30 | Immersion Corporation | Friction modulation for three dimensional relief in a haptic device |
US9643362B2 (en) * | 2013-03-15 | 2017-05-09 | Microsoft Technology Licensing, Llc | Full color three-dimensional object fabrication |
US9965893B2 (en) * | 2013-06-25 | 2018-05-08 | Google Llc. | Curvature-driven normal interpolation for shading applications |
US20150042757A1 (en) * | 2013-08-09 | 2015-02-12 | Makerbot Industries, Llc | Laser scanning systems and methods |
GB2518019B (en) * | 2013-12-13 | 2015-07-22 | Aveva Solutions Ltd | Image rendering of laser scan data |
US9734264B2 (en) * | 2014-05-05 | 2017-08-15 | Microsoft Technology Licensing, Llc | Fabricating three-dimensional objects with embossing |
JP6424020B2 (en) * | 2014-06-09 | 2018-11-14 | 株式会社キーエンス | Image inspection apparatus, image inspection method, image inspection program, computer-readable recording medium, and recorded apparatus |
US10169909B2 (en) * | 2014-08-07 | 2019-01-01 | Pixar | Generating a volumetric projection for an object |
KR102441437B1 (en) * | 2014-09-03 | 2022-09-08 | 네버마인드 캐피탈 엘엘씨 | Methods and apparatus for capturing, streaming and/or playing back content |
JP6442209B2 (en) * | 2014-09-26 | 2018-12-19 | キヤノン株式会社 | Image processing apparatus and control method thereof |
GB201419438D0 (en) * | 2014-10-31 | 2014-12-17 | Microsoft Corp | Modifying video call data |
US9710699B2 (en) * | 2014-10-31 | 2017-07-18 | Irvine Sensors Corp. | Three dimensional recognition from unscripted sources technology (TRUST) |
JP2018507650A (en) * | 2015-03-01 | 2018-03-15 | ネクストブイアール・インコーポレイテッド | Method and apparatus for supporting content generation, transmission, and / or playback |
US10368104B1 (en) * | 2015-04-01 | 2019-07-30 | Rockwell Collins, Inc. | Systems and methods for transmission of synchronized physical and visible images for three dimensional display |
US10311634B2 (en) * | 2015-07-21 | 2019-06-04 | IAM Robotics, LLC | Three dimensional scanning and data extraction systems and processes for supply chain piece automation |
US20170057170A1 (en) * | 2015-08-28 | 2017-03-02 | Intel IP Corporation | Facilitating intelligent calibration and efficeint performance of three-dimensional printers |
US10657724B2 (en) * | 2015-12-21 | 2020-05-19 | Thomson Licensing | Key lights direction detection |
KR102508426B1 (en) | 2016-01-29 | 2023-03-09 | 삼성전자주식회사 | Sensor capable of detecting stiffness, mobile apparatus having the same, and 3D printer using the same |
CN109690634A (en) * | 2016-09-23 | 2019-04-26 | 苹果公司 | Augmented reality display |
KR101892741B1 (en) | 2016-11-09 | 2018-10-05 | 한국전자통신연구원 | Apparatus and method for reducing nosie of the sparse depth map |
TWI603287B (en) * | 2016-11-11 | 2017-10-21 | 財團法人工業技術研究院 | Image synthesis method of a virtual object and the apparatus thereof |
KR101863648B1 (en) * | 2017-01-11 | 2018-06-04 | 대양의료기(주) | Apparatus and method for diagnosticating scoliosis |
US11665308B2 (en) | 2017-01-31 | 2023-05-30 | Tetavi, Ltd. | System and method for rendering free viewpoint video for sport applications |
EP3607353B1 (en) * | 2017-04-05 | 2023-03-01 | Telefonaktiebolaget LM Ericsson (PUBL) | Illuminating an environment for localisation |
KR102333101B1 (en) * | 2017-06-21 | 2021-12-01 | 삼성전자주식회사 | Electronic device for providing property information of external light source for interest object |
KR101825063B1 (en) * | 2017-10-30 | 2018-02-02 | 주식회사 셀빅 | The hardware system for inputting 3D image in a flat panel |
US10643398B2 (en) * | 2018-07-23 | 2020-05-05 | Microsoft Technology Licensing, Llc | Depth ray layer for reduced visual noise |
US10735665B2 (en) | 2018-10-30 | 2020-08-04 | Dell Products, Lp | Method and system for head mounted display infrared emitter brightness optimization based on image saturation |
JP7239362B2 (en) * | 2019-03-20 | 2023-03-14 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical image processing device and medical observation system |
EP3798679B1 (en) * | 2019-09-30 | 2023-06-21 | STMicroelectronics (Research & Development) Limited | Laser safety verification |
JP7490457B2 (en) | 2020-06-09 | 2024-05-27 | キヤノン株式会社 | Processing device, processing system, imaging device, processing method, and program |
US11615586B2 (en) * | 2020-11-06 | 2023-03-28 | Adobe Inc. | Modifying light sources within three-dimensional environments by utilizing control models based on three-dimensional interaction primitives |
US11423607B2 (en) | 2020-11-20 | 2022-08-23 | Adobe Inc. | Generating enriched light sources utilizing surface-centric representations |
US11551409B2 (en) | 2020-12-01 | 2023-01-10 | Institut Mines Telecom | Rendering portions of a three-dimensional environment with different sampling rates utilizing a user-defined focus frame |
CN113126944B (en) * | 2021-05-17 | 2021-11-09 | 北京的卢深视科技有限公司 | Depth map display method, display device, electronic device, and storage medium |
TWI777801B (en) * | 2021-10-04 | 2022-09-11 | 邦鼎科技有限公司 | Augmented reality display method |
EP4220074A1 (en) * | 2022-01-28 | 2023-08-02 | Koninklijke Philips N.V. | Determining a parameter map for a region of a subject's body |
KR102402643B1 (en) * | 2022-03-21 | 2022-05-26 | 주식회사 인포인 | 3D color modeling optimization processing system |
WO2023191795A1 (en) * | 2022-03-31 | 2023-10-05 | Magic Leap, Inc. | Localized dimming at wearable optical system |
Family Cites Families (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04361386A (en) | 1991-06-07 | 1992-12-14 | Nippon Telegr & Teleph Corp <Ntt> | Highlight area extraction device of color image |
JP3499608B2 (en) | 1994-09-22 | 2004-02-23 | 松下電器産業株式会社 | Input coordinate judgment device |
JP3397938B2 (en) * | 1995-06-21 | 2003-04-21 | 日立金属株式会社 | Magnet roll |
US6252976B1 (en) * | 1997-08-29 | 2001-06-26 | Eastman Kodak Company | Computer program product for redeye detection |
US6636627B1 (en) * | 1999-07-12 | 2003-10-21 | Fuji Photo Film Co., | Light source direction estimating method and apparatus |
US6654013B1 (en) * | 2000-03-17 | 2003-11-25 | Hewlett-Packard Development Company, Lp. | Apparatus for and method of enhancing shape perception with parametric texture maps |
US6677942B1 (en) * | 2000-08-01 | 2004-01-13 | International Business Machines Corporation | Method and apparatus for acquiring normals maps consistent with low spatial resolution meshes |
US6728401B1 (en) * | 2000-08-17 | 2004-04-27 | Viewahead Technology | Red-eye removal using color image processing |
US6859565B2 (en) * | 2001-04-11 | 2005-02-22 | Hewlett-Packard Development Company, L.P. | Method and apparatus for the removal of flash artifacts |
US8300234B2 (en) * | 2009-06-24 | 2012-10-30 | University Of Southern California | Estimating spectral distribution of reflections from object surface based on low frequency illumination |
JP3984191B2 (en) | 2002-07-08 | 2007-10-03 | 株式会社東芝 | Virtual makeup apparatus and method |
JP3901644B2 (en) * | 2003-01-30 | 2007-04-04 | 株式会社東芝 | Texture image compression apparatus and method, texture image extraction apparatus and method, data structure, and storage medium |
US7091973B1 (en) * | 2003-06-20 | 2006-08-15 | Jonathan Michael Cohen | Apparatus and method for estimating reflected radiance under complex distant illumination |
JP2005051739A (en) * | 2003-07-16 | 2005-02-24 | Ricoh Co Ltd | Image processing apparatus, image processing method, image processing program using the image processing method and recording medium with the image processing program stored thereon |
US7042452B1 (en) * | 2003-10-02 | 2006-05-09 | Sun Microsystems, Inc. | Triangle coverage estimation and edge-correct tessellation |
JP4072108B2 (en) * | 2003-10-07 | 2008-04-09 | オリンパス株式会社 | Image display device and image display method |
US7696995B2 (en) * | 2004-05-07 | 2010-04-13 | Valve Corporation | System and method for displaying the effects of light illumination on a surface |
US20050254720A1 (en) | 2004-05-17 | 2005-11-17 | Kar-Han Tan | Enhanced surgical visualizations with multi-flash imaging |
US20060244757A1 (en) * | 2004-07-26 | 2006-11-02 | The Board Of Trustees Of The University Of Illinois | Methods and systems for image modification |
KR100624457B1 (en) | 2005-01-08 | 2006-09-19 | 삼성전자주식회사 | Depth-image based modeling method and apparatus |
JP2007004318A (en) | 2005-06-22 | 2007-01-11 | Sega Corp | Image processing method, program for executing image processing and storage medium with its program stored |
US8164594B2 (en) | 2006-05-23 | 2012-04-24 | Panasonic Corporation | Image processing device, image processing method, program, storage medium and integrated circuit |
WO2007142649A1 (en) * | 2006-06-09 | 2007-12-13 | Thomson Licensing | Method and system for color correction using three-dimensional information |
US8320702B2 (en) * | 2006-09-28 | 2012-11-27 | Jadak Technologies, Inc. | System and method for reducing specular reflection |
US8090222B1 (en) * | 2006-11-15 | 2012-01-03 | Google Inc. | Selection of an image or images most representative of a set of images |
JP2009098925A (en) * | 2007-10-17 | 2009-05-07 | Sony Corp | Image processor, image processing method, and program |
US8094964B2 (en) * | 2007-10-26 | 2012-01-10 | Adobe Systems Incorporated | Methods and systems for estimating illumination source characteristics from a single image |
US20090322795A1 (en) * | 2008-06-30 | 2009-12-31 | Maximino Vasquez | Method and apparatus for reducing power consumption for displays |
JP4469021B2 (en) * | 2008-07-08 | 2010-05-26 | パナソニック株式会社 | Image processing method, image processing apparatus, image processing program, image composition method, and image composition apparatus |
US8368693B2 (en) * | 2008-08-20 | 2013-02-05 | Take Two Interactive Software, Inc. | Systems and methods for fast real-time rendering of multiple light sources |
WO2010026983A1 (en) * | 2008-09-03 | 2010-03-11 | 日本電気株式会社 | Image processing device, image processing method, and image processing program |
US8497871B2 (en) * | 2008-10-21 | 2013-07-30 | Zulch Laboratories, Inc. | Color generation using multiple illuminant types |
US8823934B2 (en) * | 2009-03-27 | 2014-09-02 | Brightex Bio-Photonics Llc | Methods and systems for imaging and modeling skin using polarized lighting |
US8405680B1 (en) * | 2010-04-19 | 2013-03-26 | YDreams S.A., A Public Limited Liability Company | Various methods and apparatuses for achieving augmented reality |
WO2012073414A1 (en) * | 2010-11-30 | 2012-06-07 | パナソニック株式会社 | Image processing device |
US20120213436A1 (en) | 2011-02-18 | 2012-08-23 | Hexagon Technology Center Gmbh | Fast Image Enhancement and Three-Dimensional Depth Calculation |
US9007435B2 (en) | 2011-05-17 | 2015-04-14 | Himax Technologies Limited | Real-time depth-aware image enhancement system |
KR101849696B1 (en) * | 2011-07-19 | 2018-04-17 | 삼성전자주식회사 | Method and apparatus for obtaining informaiton of lighting and material in image modeling system |
US8934722B2 (en) * | 2011-09-19 | 2015-01-13 | Given Imaging Ltd. | System and method for classification of image data items based on indirect user input |
US8559753B2 (en) * | 2011-09-23 | 2013-10-15 | The Boeing Company | Reflection removal system |
US9060110B2 (en) * | 2011-10-07 | 2015-06-16 | Canon Kabushiki Kaisha | Image capture with tunable polarization and tunable spectral sensitivity |
CN102523473B (en) * | 2011-12-01 | 2016-08-31 | 南京中兴软件有限责任公司 | A kind of three-dimensional interface display device, method and terminal |
US8436853B1 (en) * | 2012-07-20 | 2013-05-07 | Google Inc. | Methods and systems for acquiring and ranking image sets |
US9479677B2 (en) | 2012-09-05 | 2016-10-25 | Intel Corproation | Protocol for communications between platforms and image devices |
US20140092439A1 (en) | 2012-09-28 | 2014-04-03 | Scott A. Krig | Encoding images using a 3d mesh of polygons and corresponding textures |
US9536345B2 (en) | 2012-12-26 | 2017-01-03 | Intel Corporation | Apparatus for enhancement of 3-D images using depth mapping and light source synthesis |
-
2012
- 2012-12-26 US US13/727,504 patent/US9536345B2/en active Active
-
2013
- 2013-12-18 CN CN201380061586.6A patent/CN105051792B/en active Active
- 2013-12-18 EP EP13866654.0A patent/EP2939216B1/en active Active
- 2013-12-18 WO PCT/US2013/075930 patent/WO2014105542A1/en active Application Filing
- 2013-12-18 JP JP2015549599A patent/JP6009099B2/en active Active
- 2013-12-18 KR KR1020157013615A patent/KR101713463B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20150079768A (en) | 2015-07-08 |
JP2016505968A (en) | 2016-02-25 |
EP2939216A4 (en) | 2016-08-10 |
EP2939216A1 (en) | 2015-11-04 |
EP2939216B1 (en) | 2018-01-31 |
WO2014105542A1 (en) | 2014-07-03 |
US9536345B2 (en) | 2017-01-03 |
CN105051792A (en) | 2015-11-11 |
KR101713463B1 (en) | 2017-03-07 |
CN105051792B (en) | 2019-02-22 |
US20140176535A1 (en) | 2014-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6009099B2 (en) | Apparatus, program and system for improving 3D images | |
KR101685866B1 (en) | Variable resolution depth representation | |
US20200051269A1 (en) | Hybrid depth sensing pipeline | |
US20140092439A1 (en) | Encoding images using a 3d mesh of polygons and corresponding textures | |
CN109660782B (en) | Reducing textured IR patterns in stereoscopic depth sensor imaging | |
US9661298B2 (en) | Depth image enhancement for hardware generated depth images | |
TWI557683B (en) | Mipmap compression | |
US20140347363A1 (en) | Localized Graphics Processing Based on User Interest | |
US9600864B2 (en) | Skin tone tuned image enhancement | |
KR20190082080A (en) | Multi-camera processor with feature matching | |
EP2702562A2 (en) | Depth buffer compression for stochastic motion blur rasterization | |
JP6745020B2 (en) | Method, computer program, computer-readable recording medium and device | |
TW201428683A (en) | Method, apparatus and system for recording the results of visibility tests at the input geometry object granularity | |
CN108665510B (en) | Rendering method and device of continuous shooting image, storage medium and terminal | |
US20140267617A1 (en) | Adaptive depth sensing | |
US20190043154A1 (en) | Concentration based adaptive graphics quality | |
US20150077575A1 (en) | Virtual camera module for hybrid depth vision controls | |
US9262841B2 (en) | Front to back compositing | |
US20130318458A1 (en) | Modifying Chrome Based on Ambient Conditions | |
US9344608B2 (en) | Systems, methods, and computer program products for high depth of field imaging | |
CN117582661A (en) | Virtual model rendering method, device, medium and equipment | |
CN112383719B (en) | Image brightness adjusting method, device and equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6009099 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |