Nothing Special   »   [go: up one dir, main page]

JP6009099B2 - Apparatus, program and system for improving 3D images - Google Patents

Apparatus, program and system for improving 3D images Download PDF

Info

Publication number
JP6009099B2
JP6009099B2 JP2015549599A JP2015549599A JP6009099B2 JP 6009099 B2 JP6009099 B2 JP 6009099B2 JP 2015549599 A JP2015549599 A JP 2015549599A JP 2015549599 A JP2015549599 A JP 2015549599A JP 6009099 B2 JP6009099 B2 JP 6009099B2
Authority
JP
Japan
Prior art keywords
image
texture
color intensity
light sources
instructions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015549599A
Other languages
Japanese (ja)
Other versions
JP2016505968A (en
Inventor
エー. クリグ、スコット
エー. クリグ、スコット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2016505968A publication Critical patent/JP2016505968A/en
Application granted granted Critical
Publication of JP6009099B2 publication Critical patent/JP6009099B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

本願発明は、概して、複数の3次元デジタル画像の向上に関する。   The present invention relates generally to improving a plurality of three-dimensional digital images.

複数の3Dプリンタ及び3Dディスプレイデバイスに加えて、3次元(3D)ステレオカメラ及び関連する深度センシング方法の急増は、複数の3D画像の処理及び向上に関する複数のチャレンジの新たなセットを生成した。より具体的には、キャプチャされた複数の3D画像の品質は、グレア又はほのかに光る領域のような、キャプチャの時に存在する最適以下の複数のライティング条件の効果に苦しみうる。複数の標準コンピュータグラフィックス方法が、複数の3D画像を向上させて、ライティング効果を変化させるために用いられうるが、複数の画像における複数のオブジェクトの表面からの3D深度情報が提供され、そのようなキャプチャされた複数の画像が、3Dライティングを変化させるべく又は最適以下の複数のライティング条件の効果を減少させ若しくは除去するべく、向上されることができる適切な標準方法は現在ない。   In addition to multiple 3D printers and 3D display devices, the proliferation of three-dimensional (3D) stereo cameras and associated depth sensing methods has generated a new set of multiple challenges for processing and enhancing multiple 3D images. More specifically, the quality of captured 3D images can suffer from the effects of suboptimal lighting conditions that exist at the time of capture, such as glare or faint areas. Multiple standard computer graphics methods can be used to enhance multiple 3D images and change lighting effects, but provide 3D depth information from the surfaces of multiple objects in multiple images, and so on. There is currently no suitable standard way that multiple captured images can be improved to change 3D lighting or to reduce or eliminate the effects of suboptimal lighting conditions.

画像テクスチャ情報に関連付けられた深度情報もキャプチャする画像キャプチャの間に用いられうる様々な技術がある。深度情報は、画像内の複数の3Dオブジェクトの形状を定義する3次元(3D)多角形メッシュを用いてポイントクラウド又は深度マップを生成するべく、処理される。処理後に、深度情報は、限定されないが、3D空間、又は複数の三角形又は四辺形の3D表面メッシュにおけるX,Y,及びZポイントクラウドを含む、いくつかのフォーマットで表されうる。深度情報を表すための他の複数のフォーマットは、XMLエンコードフォーマット、テクスチャフォーマット、又はopenGLのようなグラフィカルフォーマットを含むことができる。   There are various techniques that can be used during image capture that also capture depth information associated with image texture information. The depth information is processed to generate a point cloud or depth map using a three-dimensional (3D) polygonal mesh that defines the shape of multiple 3D objects in the image. After processing, the depth information can be represented in several formats including, but not limited to, 3D space, or X, Y, and Z point clouds in multiple triangle or quadrilateral 3D surface meshes. Other formats for representing depth information can include an XML encoding format, a texture format, or a graphical format such as openGL.

複数の実施形態による、ライティング及び複数のテクスチャが適用される、複数の表面を有する例の3D多角形メッシュを示す。6 illustrates an example 3D polygon mesh with multiple surfaces to which lighting and multiple textures are applied, according to embodiments. 複数の実施形態による、複数の三角形表面に細分化される球体の例の表面メッシュを示す。FIG. 6 illustrates an example surface mesh of a sphere that is subdivided into a plurality of triangular surfaces, according to embodiments. 複数の実施形態による、複数の3D画像を向上させる方法を示す処理フロー図である。FIG. 5 is a process flow diagram illustrating a method for enhancing a plurality of 3D images according to embodiments. 図4Aは概して、複数の実施形態による、光、ビューア/カメラ、反射、スペキュラーハイライト、及び面法線についての複数の光ベクトルを示す。FIG. 4A generally shows multiple light vectors for light, viewer / camera, reflection, specular highlight, and surface normal, according to multiple embodiments. 図4Bは概して、複数の実施形態による、光、ビューア/カメラ、反射、スペキュラーハイライト、及び面法線についての複数の光ベクトルを示す。FIG. 4B generally illustrates multiple light vectors for light, viewer / camera, reflection, specular highlight, and surface normal, according to multiple embodiments. 図4Cは概して、複数の実施形態による、光、ビューア/カメラ、反射、スペキュラーハイライト、及び面法線についての複数の光ベクトルを示す。FIG. 4C generally shows multiple light vectors for light, viewer / camera, reflection, specular highlight, and surface normal, according to multiple embodiments. 複数の実施形態による、複数の3D画像を向上させるコードを格納する有形持続性コンピュータ可読媒体を示すブロック図である。FIG. 6 is a block diagram illustrating a tangible persistent computer readable medium storing code for enhancing a plurality of 3D images according to embodiments. 複数の実施形態により用いられうる電子デバイスのブロック図である。1 is a block diagram of an electronic device that can be used in accordance with embodiments. 複数の実施形態による、複数のポリゴン及び対応する複数のテクスチャの3Dメッシュを用いて複数の画像をエンコードする例のシステムのブロック図である。FIG. 3 is a block diagram of an example system that encodes multiple images using a 3D mesh of multiple polygons and corresponding multiple textures, according to embodiments. 複数の実施形態による、図7のシステムが具体化されうるスモールフォームファクタデバイスの概略図である。 複数の同一の数字が、同様の複数のコンポーネント及び特徴を参照すべく、本開示及び複数の図を通じて用いられる。100番台の複数の数字が、図1において初出の複数の特徴を参照し、200番台の複数の数字が、図2において、初出の複数の特徴を参照する、等である。FIG. 8 is a schematic diagram of a small form factor device in which the system of FIG. 7 may be implemented, according to embodiments. Multiple identical numerals are used throughout this disclosure and multiple figures to refer to similar components and features. The numbers in the 100s refer to the first features in FIG. 1, the numbers in the 200s refer to the first features in FIG. 2, and so on.

概して上記のように、3D画像が、3Dステレオカメラ、深度センサ、マルチビューカメラ、ステレオサテライト、他の深度キャプチャイメージングデバイス、又は、例えば、同時の自己位置推定及び地図作成(Simultaneous Localization and Mapping:SLAM)又は光(しばしばレーザ)検出と測距のような深度キャプチャ方法によってキャプチャされる場合、深度情報は、関連付けられたテクスチャ情報とともに抽出されて処理されうる。例えば、複数の構造化ライトパターンは、シーンにばらまかれてよく、複数の構造化ライトパターンが距離で変化するため、深度情報は、複数のパターンのサイズを検出することによって再構成されうる。他の複数の例において、飛行時間(time of flight:TOF)センサが、センサからオブジェクトへ及び戻ってくる赤外光の飛行のラウンドトリップタイムを測定することによって、情報を集めるべく利用されうる。抽出された深度情報は、関連付けられたテクスチャ情報とともにエンコードされ、任意のメディアコーデックフォーマットで利用され又は新たなコーデックフォーマットでエンコードされうる。   As generally described above, 3D images can be converted into 3D stereo cameras, depth sensors, multi-view cameras, stereo satellites, other depth capture imaging devices, or, for example, simultaneous localization and mapping (SLAM). ) Or light (often laser) detection and depth capture methods such as ranging, depth information can be extracted and processed along with associated texture information. For example, multiple structured light patterns may be scattered in a scene, and multiple structured light patterns vary with distance, so depth information can be reconstructed by detecting the size of the multiple patterns. In other examples, a time of flight (TOF) sensor can be utilized to gather information by measuring the round trip time of the flight of infrared light back from the sensor to the object. The extracted depth information can be encoded with associated texture information, utilized in any media codec format, or encoded in a new codec format.

画像テクスチャ及びテクスチャという用語は、表面上の複数の色を表す2D画像アレイを記述するべく同義的に利用される。複数のコンピュータグラフィックス技術を用いて、複数の画像テクスチャがテクスチャマッピングされる。テクスチャマッピングは、画像を、表面の幾何学的形状を含む多角形メッシュ上に適合する処理である。従って、テクスチャマッピングの間に、テクスチャのセットが幾何学的に適合され、不規則な表面上で伸ばされて表面に接着されるゴムシートと同様に、多角形メッシュ上に反らされる。この方法で、表面形状が、表面上の実際の複数の色又は画像テクスチャとは別個の多角形メッシュとして表される。   The terms image texture and texture are used interchangeably to describe a 2D image array that represents multiple colors on a surface. A plurality of image textures are texture mapped using a plurality of computer graphics techniques. Texture mapping is the process of fitting an image onto a polygonal mesh that includes surface geometry. Thus, during texture mapping, a set of textures are geometrically matched and warped onto a polygonal mesh, similar to a rubber sheet that is stretched over an irregular surface and adhered to the surface. In this way, the surface shape is represented as a polygonal mesh that is separate from the actual colors or image textures on the surface.

さらに、複数の実施形態において示されるように、表面メッシュセクション、表面パッチ、表面メッシュ、表面ポリゴン、及び多角形パッチという用語は、接続されて全体の表面を規定するメッシュとなる、複数の三角形、四辺形、又は他の多角形に関して表面形状を記述するべく、交換可能に利用されうる。例えば、図2は、表面形状の三角形メッシュ表示を示す。   Further, as shown in embodiments, the terms surface mesh section, surface patch, surface mesh, surface polygon, and polygon patch are a plurality of triangles that are connected into a mesh that defines the entire surface, It can be used interchangeably to describe a surface shape with respect to a quadrilateral or other polygon. For example, FIG. 2 shows a triangular mesh display of surface shapes.

表面色又は画像テクスチャから表面形状を分離することによって複数の画像の上記の表示を採用することで、複数の本技術は、各画像テクスチャに対するベクトル解析及び色空間強度ランク付けを用いて、元のシーンにおける複数の元の光源位置ベクトル及び光源色を提供、回復、決定できる。複数の本技術はまた、元のライティングを減じる又は変更して、新たな複数の色を有する新たな光源をレンダリングに追加することにより、続いて起こる複数のレンダリングにおいて、シーン内のライティングを変化させうる。上記のように、画像及びシーンという用語は、交換可能に利用されうる。   By adopting the above display of multiple images by separating the surface shape from the surface color or image texture, the present technology uses the vector analysis and color space intensity ranking for each image texture, Multiple original light source position vectors and light source colors in the scene can be provided, recovered, and determined. The techniques also reduce or change the original lighting and change the lighting in the scene in subsequent renderings by adding new light sources with new colors to the rendering. sell. As noted above, the terms image and scene can be used interchangeably.

抽出された深度情報は、現在既知の又は今後開発される複数の方法を用いて、複数の3Dポイント、複数の表面ベクトル、若しくは例えば複数の三角形、四辺形等のような複数の幾何学的形状で構成される、3D表面メッシュ又は深度マップの作成を可能にするのに十分である。しかし、深度情報及び関連付けられた画像テクスチャ情報のフォーマットは標準化されない。深度情報及び関連付けられた画像テクスチャ情報を送信する標準方法がないため、ライティング情報を用いて、複数のシーンにおける複数の深度ベースライティング補正又は向上を可能にするような、様々な適用における深度情報の利用が回避できる。従って、本開示の複数の実施形態は、標準深度マップフォーマット及び関連付けられたテクスチャ情報を用いて複数の3D画像内のライティング情報を向上させることに関し、これらは、複数の標準コンピューティングシステムにおいて複数の多角形メッシュ及び関連付けられた複数の画像テクスチャをレンダリングするためのopenGL又はマイクロソフトDirectX(登録商標)のような、複数のグラフィックス処理ユニット及び標準コンピュータグラフィックス方法を用いてレンダリングされうる。標準深度マップフォーマット及びテクスチャ情報は、任意のメディアコーデックフォーマットで利用され又は新たなコーデックフォーマットでエンコードされうる。複数の3D深度マップが標準フォーマットのメッシュにおいて各三角形又は四辺形に対する光表面色彩強度ランキングを含むことができるようにすることで、複数の測色調整が画像又はシーンに行われることができる。当業者は、複数の標準コンピュータグラフィックス方法が、本発明の複数の方法を用いてなされる表面色彩強度ランク付け及び光源の決定を与えられたテクスチャ化された複数の3D多角形メッシュへの無制限のライティング調整を行うように用いられることができ、これが、タブレット、電話、アイマウンテッドディスプレイコンピュータ、ラップトップ、又はデスクトップシステムのような、標準コンピュータシステム上に具現化されうることを認識するであろう。このため、複数のライティング調整は、複数の3D深度画像及び対応する複数のテクスチャに行われることができる。   The extracted depth information can be obtained using a plurality of currently known or later developed methods, a plurality of 3D points, a plurality of surface vectors, or a plurality of geometric shapes such as triangles, quadrilaterals, etc. Is sufficient to allow the creation of a 3D surface mesh or depth map composed of However, the format of depth information and associated image texture information is not standardized. Since there is no standard way to transmit depth information and associated image texture information, lighting information can be used to improve depth information in various applications, such as allowing multiple depth-based lighting corrections or enhancements in multiple scenes. Use can be avoided. Accordingly, embodiments of the present disclosure relate to improving lighting information in multiple 3D images using a standard depth map format and associated texture information, which are multiple in multiple standard computing systems. It can be rendered using multiple graphics processing units and standard computer graphics methods, such as openGL or Microsoft DirectX® for rendering polygonal meshes and associated image textures. The standard depth map format and texture information can be used with any media codec format or encoded with a new codec format. Multiple colorimetric adjustments can be made to an image or scene by allowing multiple 3D depth maps to include a light surface color intensity ranking for each triangle or quadrilateral in a standard format mesh. Those of ordinary skill in the art will be able to limit any number of standard computer graphics methods to textured 3D polygon meshes given surface color intensity ranking and light source determination made using the methods of the present invention. Will recognize that this can be embodied on a standard computer system, such as a tablet, phone, eye-mounted display computer, laptop, or desktop system. Let's go. Thus, multiple lighting adjustments can be made to multiple 3D depth images and corresponding multiple textures.

以下の説明及び請求項において、「接続」及び「連結」という用語は、それらの派生語と共に用いられうる。これらの用語が、お互いに同義語として意図されないことは理解されるべきである。むしろ、特に複数の実施形態において、「連結」は、2又は3以上の要素がお互いに直接物理的又は電気的に接触していることを示すために用いられうる。「接続」は、2又は3以上の要素が、直接物理的又は電気的に接触していることを意味しうる。しかし、「接続」はまた、2又は3以上の要素が、お互いに直接接触していないが、まだお互いに協働で動作又はインタラクトすることを意味しうる。   In the following description and claims, the terms “connection” and “coupling” may be used in conjunction with their derivatives. It should be understood that these terms are not intended as synonyms for each other. Rather, particularly in embodiments, “coupled” can be used to indicate that two or more elements are in direct physical or electrical contact with each other. “Connected” can mean that two or more elements are in direct physical or electrical contact. However, “connection” may also mean that two or more elements are not in direct contact with each other but still operate or interact in cooperation with each other.

いくつかの実施形態は、ハードウェア、ファームウェア、及びソフトウェアの1つ又は組み合わせにおいて実装されうる。いくつかの実施形態はまた、機械可読媒体上に格納される複数の命令として実装されてよく、それは、コンピューティングプラットフォームによって読み取られて、実行され、本開示の複数の操作を実行する。機械可読媒体は、マシン、例えばコンピュータによって可読な形態で情報を格納又は送信するための任意の機構を含みうる。例えば、機械可読媒体は、中でも、リードオンリーメモリ(ROM);ランダムアクセスメモリ(RAM);磁気ディスクストレージメディア;光ストレージメディア;フラッシュメモリデバイス;又は電気、光、音響、又は他の形態の伝搬する信号、例えば搬送波、赤外線信号、デジタル信号、又は信号を送信および/または受信するインターフェースを含みうる。   Some embodiments may be implemented in one or a combination of hardware, firmware, and software. Some embodiments may also be implemented as a plurality of instructions stored on a machine-readable medium that are read and executed by a computing platform to perform the operations of the present disclosure. A machine-readable medium may include any mechanism for storing or transmitting information in a form readable by a machine, eg, a computer. For example, a machine-readable medium includes, among other things, read-only memory (ROM); random access memory (RAM); magnetic disk storage media; optical storage media; flash memory devices; or electrical, optical, acoustic, or other forms of propagation It may include a signal, eg, a carrier wave, an infrared signal, a digital signal, or an interface that transmits and / or receives signals.

実施形態は、実装又は例である。「実施形態」、「1つの実施形態」、「いくつかの実施形態」、「様々な実施形態」、又は「他の複数の実施形態」への明細書における参照は、複数の実施形態に関して説明された特定の特徴、構造、又は特性が、複数の発明の少なくともいくつかの実施形態に含まれるが、必ずしも、全ての実施形態に含まれるわけではないことを意味する。「実施形態」、「1つの実施形態」、又は「いくつかの実施形態」の様々な出現が、同一の複数の実施形態を必ずしも全て参照するものではない。実施形態からの複数の要素又は態様は、他の実施形態の複数の要素又は態様と組み合わせられうる。   Embodiments are implementations or examples. References in the specification to “embodiments,” “one embodiment,” “some embodiments,” “various embodiments,” or “other embodiments” are described with respect to a plurality of embodiments. A particular feature, structure, or characteristic specified is included in at least some embodiments of the inventions, but not necessarily in all embodiments. The various appearances of “an embodiment”, “one embodiment”, or “some embodiments” do not necessarily all refer to the same embodiments. Multiple elements or aspects from an embodiment may be combined with multiple elements or aspects of other embodiments.

本開示で説明され示された全てのコンポーネント、特徴、構造、特性等が、特定の実施形態又は複数の実施形態に含まれる必要があるというわけではない。明細書がコンポーネント、特徴、構造、又は特性が含まれうる("may","might","can"又は"could")場合、例えば、その特定のコンポーネント、特徴、構造、又は特性が含まれることは必須ではない。明細書又は請求項が1つの(「a」又は「an」)要素を参照する場合、それは、要素の一つのみがあるということを意味しない。明細書又は請求項が、「1つの追加の」要素を参照する場合、それは、1より多くの追加の要素があるということを排除しない。   Not all components, features, structures, characteristics, etc. described and shown in this disclosure need to be included in a particular embodiment or embodiments. Where the description may include a component, feature, structure, or property ("may", "might", "can", or "could"), for example, that particular component, feature, structure, or property That is not essential. When a specification or claim refers to one (“a” or “an”) element, it does not mean that there is only one of the elements. Where the specification or claims refer to “an additional” element, it does not exclude that there are more than one additional element.

いくつかの実施形態が特定の複数の実装を参照して説明されたが、他の複数の実装がいくつかの実施形態により可能であることは留意されるべきである。更に、図面で示されたおよび/または本開示で説明された複数の回路要素又は他の複数の特徴の構成および/または順序は、示され説明された特定の方法で配置されることは必須ではない。多くの他の構成が、いくつかの実施形態により可能である。   Although some embodiments have been described with reference to particular implementations, it should be noted that other implementations are possible with some embodiments. Further, the arrangement and / or order of multiple circuit elements or other features shown in the drawings and / or described in the present disclosure is not necessarily arranged in the particular manner shown and described. Absent. Many other configurations are possible with some embodiments.

図に示された各システムにおいて、いくつかの場合の複数の要素は、表された複数の要素が異なるおよび/または同様でありうることを提案すべく、同一の参照番号又は異なる参照番号を有する。しかし、要素は、複数の異なる実装を有し、本開示で示され又は説明した複数のシステムのいくつか又は全てで動作するために十分に順応性がありうる。複数の図で示された様々な要素は、同一又は異なりうる。どれを第1の要素として参照するか、及びどれを第2の要素と呼ぶかは、任意である。   In each system shown in the figures, the elements in some cases have the same or different reference numbers to suggest that the elements shown may be different and / or similar. . However, an element may have multiple different implementations and be sufficiently flexible to operate with some or all of the multiple systems shown or described in this disclosure. The various elements shown in the figures may be the same or different. Which is referred to as the first element and which is referred to as the second element is arbitrary.

図1は、複数の実施形態による、ライティング及びテクスチャが適用される、複数の表面を有する例の3D多角形メッシュ102を示す。3D多角形メッシュ102は、人間の顔の構造を形成する。多角形メッシュは、3Dオブジェクトの形状、詳細には人間の顔を定義するために用いられる複数の頂点、線、エッジ、及び面を含む。任意のタイプのメッシュが、複数の本技術により用いられうる。例えば、メッシュは、四辺形メッシュ又は三角形メッシュでありうる。さらに、代替の複数の深度フォーマットはまた、複数の実施形態により用いられうる。例えば、メッシュが3D空間内の複数のポイントで構成されるため、深度情報はまた、3Dポイントクラウドと考えられうる。さらに、メッシュは、複数のアレイ値が各ポイントの深度を示す2Dアレイにおける深度マップとしてエンコードされてよい。   FIG. 1 illustrates an example 3D polygonal mesh 102 having multiple surfaces to which lighting and textures are applied, according to multiple embodiments. The 3D polygon mesh 102 forms a human face structure. The polygon mesh includes a plurality of vertices, lines, edges, and faces that are used to define the shape of the 3D object, specifically the human face. Any type of mesh can be used by multiple techniques. For example, the mesh can be a quadrilateral mesh or a triangular mesh. Further, alternative multiple depth formats can also be used by multiple embodiments. For example, depth information can also be considered a 3D point cloud because the mesh is composed of multiple points in 3D space. Further, the mesh may be encoded as a depth map in a 2D array where multiple array values indicate the depth of each point.

多角形メッシュ102は、複数のコントロールポイントを含みうる。コントロールポイントは、色、複数の法線ベクトル、及び複数のテクスチャ座標のような対応する情報を含む、多角形メッシュ102内の位置である。複数のテクスチャ座標は、コントロールポイントを、テクスチャマップのようなテクスチャ情報にリンクするべく用いられうる。テクスチャ情報は、複数の詳細、色、又は画像テクスチャ情報を三角形メッシュに追加する。   Polygon mesh 102 may include a plurality of control points. A control point is a position within the polygon mesh 102 that includes corresponding information such as color, multiple normal vectors, and multiple texture coordinates. Multiple texture coordinates can be used to link control points to texture information such as a texture map. Texture information adds multiple details, colors, or image texture information to a triangular mesh.

画像は、表面多角形メッシュ102上へ適用又はテクスチャマッピングされてよく、それにより画像104を生成する。複数のテクスチャが各表面ポリゴン上に適用される場合、表面多角形メッシュ102は、人間の顔の形態を示す。多角形メッシュ102、及び適用されて画像104をもたらす対応する複数のテクスチャは、3D画像をレンダリングする文脈で説明されたが、複数の2D画像も、複数の本技術を用いてレンダリングされうる。いずれの場合でも、複数の多角形メッシュ及び対応するテクスチャを用いて画像をレンダリングすることは、openGL、DirectX、H.264、MPEG4、及びVC1のような標準グラフィックス又はメディアエンコードフォーマット及び任意の他のメディアコーデックフォーマットと併せて、グラフィックスパイプラインを用いて達成されうる。   The image may be applied or texture mapped onto the surface polygon mesh 102, thereby generating the image 104. When multiple textures are applied on each surface polygon, the surface polygon mesh 102 exhibits the shape of a human face. While polygon mesh 102 and the corresponding textures that are applied to yield image 104 have been described in the context of rendering 3D images, multiple 2D images can also be rendered using multiple techniques. In any case, rendering an image using a plurality of polygonal meshes and corresponding textures can be performed using openGL, DirectX, H.264, or the like. It can be achieved using a graphics pipeline in conjunction with standard graphics or media encoding formats such as H.264, MPEG4, and VC1 and any other media codec format.

追加のライティング及び複数のテクスチャは、さらに画像104をリファインするべく適用されてよく、画像108をもたらす。ライティングは画像108に適用されて、画像108において人間の顔のあごからネック上へのかすかな影をもたらす。アンラップされたテクスチャマップ106は、いかなるライティングも適用しない、画像108からのテクスチャ情報を示す。複数の実施形態において、画像108上へのライティングは、画像108において人間の顔のあごからネック上への影を減少又は除去するべく変化されうる。   Additional lighting and multiple textures may be applied to further refine the image 104, resulting in the image 108. Lighting is applied to the image 108 to produce a faint shadow on the neck from the chin of the human face on the image 108. Unwrapped texture map 106 shows texture information from image 108 without any lighting applied. In embodiments, the lighting on the image 108 may be varied to reduce or eliminate shadows on the human face from the chin to the neck in the image 108.

図2は、複数の実施形態による、複数の三角形表面202、204、206、・・・、214等へ細分化される球体の例の表面メッシュ200を示す。しかし、表面メッシュが、例えば複数の3Dポイント、表面ベクトル、又は他の複数の幾何学的形状を有する複数の表面を用いて細分化されてよいことは理解されるべきである。表面メッシュ200の複数の表面の各々(例えば202,204,206,・・・、214等)は、例の球体のテクスチャ画像(不図示)のセクションに対応する。複数のテクスチャ画像セクションの各々の色彩強度は、例えば、HSL(色相(hue)、彩度(saturation)、及び明度(lightness))、HSV(色相、彩度、及び値)、YUV、又は色彩強度を決定してランク付けする他の適切な方法のような、色空間における強度によって決定されてランク付けされうる。色彩強度によって、複数の表面をソートしてそれらをランク付けすることにより、実際のシーンライティングは、観察位置面表面法線による各表面の表面法線のベクトル解析を用いて復元され、これは複数の光源ベクトルの方向を生じ、メッシュを再ライティングするのに有用である。複数の高水準の色彩強度を有する複数のテクスチャ画像セクションは、光源から観察位置への高水準の正反射を有する表面メッシュ200の複数のセクションに対応し、このため、光源ベクトル方向及び色を決定するのに有用な輝線の複数のエリアを示し、光源情報は、複数の標準コンピュータグラフィックス方法を用いてライティング効果を変化させるために有用である。逆に、複数の低いレベルの色彩強度を有する複数のテクスチャ画像セクションは、光源から観察位置への複数の低いレベルの正反射を有する表面メッシュ200の複数のセクションに対応し、このため、低い又は薄暗いライティングの複数のエリアを示しうる。このため、複数のテクスチャ画像セクションは、実際の複数のシーンライティング方向ベクトル及び光源色を決定するために、高い色彩強度から低い色彩強度へランク付けされうる。   FIG. 2 illustrates an example surface mesh 200 that is subdivided into a plurality of triangular surfaces 202, 204, 206,..., 214, etc., according to embodiments. However, it should be understood that the surface mesh may be subdivided using multiple surfaces having, for example, multiple 3D points, surface vectors, or other geometric shapes. Each of the plurality of surfaces (eg, 202, 204, 206,..., 214, etc.) of the surface mesh 200 corresponds to a section of an example sphere texture image (not shown). The color intensity of each of the plurality of texture image sections is, for example, HSL (hue, saturation, and lightness), HSV (hue, saturation, and value), YUV, or color intensity. Can be determined and ranked by intensity in color space, such as other suitable methods of determining and ranking. By sorting multiple surfaces according to color intensity and ranking them, the actual scene lighting is restored using a vector analysis of the surface normal of each surface by the observation position surface normal, Is useful for relighting the mesh. A plurality of texture image sections having a plurality of high levels of color intensity correspond to a plurality of sections of the surface mesh 200 having a high level of specular reflection from the light source to the viewing position, thus determining the light source vector direction and color. Illustrated are multiple areas of bright lines that are useful to do, and light source information is useful for changing lighting effects using multiple standard computer graphics methods. Conversely, a plurality of texture image sections having a plurality of low level color intensities correspond to a plurality of sections of the surface mesh 200 having a plurality of low level specular reflections from the light source to the viewing position, and therefore, low or Can show multiple areas of dim lighting. Thus, multiple texture image sections can be ranked from high color intensity to low color intensity to determine the actual scene lighting direction vectors and light source colors.

最大光反射は、面法線ベクトルNが観察(画像キャプチャデバイス)ベクトルVと光源ベクトルLとの間の中間であるときに生じる。表面の中間法線ベクトル情報は、カメラの位置を定義するビューベクトルVの認識を与えられる光源ベクトルを算出するために用いられうる。高い方のランキングの色彩強度の複数の表面、及び多角形メッシュからのそれらの対応する面法線ベクトルは、与えられた画像の光源ベクトルLの近似値を計算すべく、セットとして共に用いられる。実施形態において、光源ベクトルLは、元の3D表面形状データ及び各表面に対して対応する複数の画像テクスチャパッチから復元され、決定されてよく、さらに、元の光源ベクトルの最良の推定が、最も高い色彩強度に対応するメッシュのポリゴンからの複数の面法線Nに基づいて選択され、又はさもなければ、光源ベクトルLが、複数のLベクトルの平均、中央値Lベクトル、複数のLベクトルの一次回帰、又は他の数学的方法のような、各面法線Nについて計算された複数の光源ベクトルLのセットの、重み付けされ又は計算された数学的な組み合わせから導出されうる。このため、光源は、3D空間に位置されうる。より具体的に本開示で以下説明されるように、色彩強度でランク付けされた複数の表面のセット、及びそれらの対応する複数の法線ベクトルは、さらに、キャプチャされた複数の3D画像のライティングを調節、追加、又は取り除き、高め、ライティングの色を変化させ、又はさもなければライティングを変更するために用いられてよく、色彩強度でランク付けされた複数の面法線ベクトルのセット、複数の画像テクスチャ、及び関連付けられた複数のポリゴンは、標準コードフォーマット又は他の標準のデータフォーマットで、ファイル、通信ストリーム、メモリ、又は他のデータ構造体にエンコードされてよい。   Maximum light reflection occurs when the surface normal vector N is intermediate between the observation (image capture device) vector V and the light source vector L. The surface intermediate normal vector information can be used to calculate a light source vector that is given recognition of the view vector V that defines the position of the camera. The higher ranking color intensity surfaces and their corresponding surface normal vectors from the polygon mesh are used together as a set to calculate an approximation of the light source vector L of a given image. In an embodiment, the light source vector L may be recovered and determined from the original 3D surface shape data and a plurality of image texture patches corresponding to each surface, and the best estimate of the original light source vector is the most Selected based on a plurality of surface normals N from mesh polygons corresponding to high color intensity, or else the light source vector L is an average of a plurality of L vectors, a median L vector, a plurality of L vectors It can be derived from a weighted or calculated mathematical combination of a set of multiple light source vectors L calculated for each surface normal N, such as linear regression or other mathematical methods. For this reason, the light source can be located in 3D space. As described more specifically in this disclosure below, a set of surfaces ranked by color intensity, and their corresponding normal vectors, are further used to capture the lighting of the captured multiple 3D images. Can be used to adjust, add or remove, enhance, change the color of lighting, or otherwise change the lighting, set of multiple surface normal vectors ranked by color intensity, multiple The image texture and associated polygons may be encoded in a file, communication stream, memory, or other data structure in a standard code format or other standard data format.

図3は、複数の実施形態による、複数の3D画像を向上させる方法300を示す処理フロー図である。様々な実施形態において、方法300は、向上された3D画像を提供する。いくつかの実施形態では、方法300は、本開示でより具体的に説明されるように、コンピューティング又は他の電子デバイス上で実行されうる。方法300は、3D画像をキャプチャする段階302、3D画像から深度情報及びテクスチャ情報を抽出する段階304、表面メッシュを生成する段階306、複数の表面メッシュセクションに対応する複数のテクスチャセクションを決定する段階308、複数の表面をランク付けする段階310、複数の光源ベクトルを決定する段階312、ライティングを調節する段階314、及び向上された画像を出力する段階316を含む。   FIG. 3 is a process flow diagram illustrating a method 300 for enhancing multiple 3D images, according to multiple embodiments. In various embodiments, the method 300 provides an enhanced 3D image. In some embodiments, the method 300 may be performed on a computing or other electronic device, as described more specifically in this disclosure. The method 300 includes capturing a 3D image 302, extracting depth information and texture information 304 from the 3D image, generating a surface mesh 306, determining a plurality of texture sections corresponding to the plurality of surface mesh sections. 308, ranking a plurality of surfaces 310, determining a plurality of light source vectors 312, adjusting lighting 314, and outputting an enhanced image 316.

ブロック302において、3D画像が、3Dステレオカメラ、深度センサ、マルチビューカメラ、ステレオサテライト、他の深度キャプチャイメージングデバイス、又は、例えば、同時の自己位置推定及び地図作成(Simultaneous Localization and Mapping:SLAM)又は光(典型的にはレーザ)検出及び測距のような深度キャプチャ方法を用いてキャプチャされ、又はさもなければソース3D画像を提供される。深度情報及びテクスチャ情報を抽出する段階304は、キャプチャされた3D画像データから深度又はテクスチャマップを抽出する又はさもなければ決定することを含みうる。   At block 302, a 3D image is converted into a 3D stereo camera, depth sensor, multi-view camera, stereo satellite, other depth capture imaging device, or, for example, simultaneous self localization and mapping (SLAM) or Captured using depth capture methods such as light (typically laser) detection and ranging, or otherwise provided with source 3D images. Extracting depth information and texture information 304 may include extracting or otherwise determining a depth or texture map from the captured 3D image data.

ブロック306では、例の表面メッシュ200のような表面メッシュは、抽出された深度情報を用いて生成され、表面メッシュがその後前に説明したような複数の表面メッシュセクションに分配されうる。上記のように、複数の表面メッシュセクションは、複数の3Dポイント及び複数の表面ベクトルである、三角形、四辺形等を含む任意の望ましい幾何学的形状であってよい。   At block 306, a surface mesh, such as the example surface mesh 200, can be generated using the extracted depth information and the surface mesh can then be distributed into multiple surface mesh sections as previously described. As described above, the plurality of surface mesh sections may be any desired geometric shape including triangles, quadrilaterals, etc., which are a plurality of 3D points and a plurality of surface vectors.

ブロック208では、各表面メッシュセクションに対応するテクスチャセクションが決定される。例えば、表面メッシュ200の個別の各表面メッシュセクション202―214に対して、3D画像深度又はテクスチャマップの対応するテクスチャ画像セクションが決定される。   At block 208, a texture section corresponding to each surface mesh section is determined. For example, for each individual surface mesh section 202-214 of the surface mesh 200, the corresponding texture image section of the 3D image depth or texture map is determined.

ブロック310では、複数のテクスチャ画像セクションは、色彩強度に関してランク付けされ、これは、上記のように、表面メッシュ200の複数の個別の表面の各々の正反射をランク付けすることに対応する。このため、複数の表面は、色彩強度の最も高い方から最も低い方へランク付けされうる。   At block 310, the plurality of texture image sections are ranked with respect to color intensity, which corresponds to ranking the specular reflection of each of the plurality of individual surfaces of the surface mesh 200, as described above. Therefore, the plurality of surfaces can be ranked from the highest color intensity to the lowest color intensity.

ブロック312では、複数の光源ベクトルが決定され、これは、複数の個別のテクスチャ画像セクションの各々又は所望のサブセットについての複数の中間法線ベクトルを決定することを含む。一実施形態では、最も高いランクの個別のテクスチャ画像セクション及びその表面の対応する中間法線ベクトルは、既知の複数のベクトル方法を介して光源ベクトルを決定すべく用いられてよく、それにより、3D空間における光源の位置を決定し、これは、表面ライティングのための複数の標準コンピュータグラフィックス方法を用いて複数の光源の新たなセットへの各表面テクスチャのライティングに対して、続いて起こる複数の変化を可能にする。複数の他の実施形態では、予め定められた閾値を超えるランクの色彩強度を有する複数のテクスチャ画像セクション、及びそれらの表面に対応する複数の法線ベクトルは、複数のグループとして共に数学的に結合されて正しい光源ベクトルの最良の推定がなされ、中間法線ベクトルの結果の最良の推定は、既知の複数のベクトル方法を介して光源ベクトルの位置を決定すべく用いられてよく、それにより、3D空間における光源の位置を決定する。さらに他の複数の実施形態では、予め定められた閾値を超えるランクを有する複数のテクスチャ画像セクションの各々に対して決定された複数の光源ベクトルは、複数のグループに数学的に共に結合され、元の光源ベクトルの最良の推定を決定し、それにより、3Dにおける光源の位置を決定しうる。実施形態において、光源ベクトルLは、最も高い色彩強度に対応するメッシュのポリゴンからの面法線Nに基づいて選択されてよく、又はさもなければ、光源ベクトルLは、複数のLベクトルの平均、中央値Lベクトル、複数のLベクトルの一次回帰、又は他の数学的方法のような、各面法線Nに対して計算された複数の光源ベクトルLのセットの重み付けされ又は計算された組み合わせから導出されてよい。   At block 312, a plurality of light source vectors is determined, including determining a plurality of intermediate normal vectors for each or a desired subset of the plurality of individual texture image sections. In one embodiment, the highest ranked individual texture image section and its surface corresponding intermediate normal vector may be used to determine the light source vector via known multiple vector methods, thereby providing a 3D Determining the position of the light source in space, which for each surface texture lighting to a new set of multiple light sources using multiple standard computer graphics methods for surface lighting, Enable change. In other embodiments, a plurality of texture image sections having a color intensity with a rank exceeding a predetermined threshold, and a plurality of normal vectors corresponding to their surfaces are mathematically combined together as a plurality of groups. The best estimate of the correct light source vector is made, and the best estimate of the intermediate normal vector result may be used to determine the position of the light source vector via known multiple vector methods, thereby providing a 3D Determine the position of the light source in space. In yet other embodiments, the plurality of light source vectors determined for each of the plurality of texture image sections having a rank that exceeds a predetermined threshold are mathematically combined together into a plurality of groups, Can determine the best estimate of the light source vector, thereby determining the position of the light source in 3D. In an embodiment, the light source vector L may be selected based on the surface normal N from the mesh polygon corresponding to the highest color intensity, or else the light source vector L is an average of a plurality of L vectors, From a weighted or calculated combination of sets of multiple light source vectors L calculated for each surface normal N, such as median L vector, linear regression of multiple L vectors, or other mathematical methods May be derived.

ブロック314では、光源の複数の特質又は特性が調節され、これは、概して、限定されないが、光のブライトネス、色(すなわち色相、彩度、クロマ等)、色彩強度又はルミナンスを調節すること、及び複数の光源を追加及び除去することを含みうる。より具体的には、1つの例の実施形態において、予め定められた閾値を超える色彩強度ランクを有する複数のテクスチャ画像セクションのうちの1または複数へのライティングは、効果的にライトを除去するべく、又はアンチライトを提供すべく、1または複数の表面の色彩強度を減じることにより調節され、これは、1実施形態ではグレアを除去するために又は標準コンピュータグラフィックス方法を用いて新たな位置から光を追加することによって暗い表面のライティングを増加させるために有用でありうる。他の例の実施形態では、予め定められた閾値以下の色彩強度ランクを有する複数のテクスチャ画像セクションの1または複数のライティングは、1または複数の表面の色彩強度を増加させることによって調節される。さらに他の例の実施形態では、前述の複数の実施形態は組み合わせられてよく、予め定められた閾値を超える色彩強度ランクを有するテクスチャ画像セクションの1または複数のライティングを、それらの1または複数の表面の色彩強度を減じることによって減じ、及びそれらの1または複数の表面の色彩強度を増加させることによって予め定められた閾値以下の色彩強度ランクを有するテクスチャ画像セクションの1または複数へライティングを追加する。本開示の前述の又は後の複数の実施形態と同様に組み合わされうる、さらに他の例の実施形態では、1または複数の光源が、関連付けられた光源色を有する位置ベクトルを追加することによって追加されてよく、追加された光源が、概して全ての表面に方向付けられ、又は、例えば予め定められた閾値と等しい、より大きい又はより小さい色彩強度を有する複数の表面のような、所定の複数の表面に選択的に方向付けられうる。このため、向上された画像が、生成されうる。実施形態の全てが、標準コンピュータグラフィックス方法において及び用いて具現化されうる。   At block 314, a plurality of attributes or characteristics of the light source are adjusted, which generally include, but are not limited to, adjusting light brightness, color (ie, hue, saturation, chroma, etc.), color intensity or luminance, and It may include adding and removing multiple light sources. More specifically, in one example embodiment, lighting to one or more of the plurality of texture image sections that have a color intensity rank that exceeds a predetermined threshold should effectively remove the light. Or adjusted to reduce the color intensity of one or more surfaces to provide anti-light, which in one embodiment is to remove glare or from a new location using standard computer graphics methods. It can be useful to increase the lighting of dark surfaces by adding light. In another example embodiment, the one or more lightings of the plurality of texture image sections having a color intensity rank below a predetermined threshold are adjusted by increasing the color intensity of the one or more surfaces. In yet another example embodiment, the above-described embodiments may be combined, and one or more lightings of a texture image section having a color intensity rank that exceeds a predetermined threshold may be combined with the one or more of them. Add lighting to one or more of the texture image sections that have a color intensity rank that is less than or equal to a predetermined threshold by reducing the color intensity of the surface and increasing the color intensity of those one or more surfaces . In yet another example embodiment, which may be combined similarly to the previous or later embodiments of the present disclosure, one or more light sources are added by adding a position vector with an associated light source color The added light source is generally directed to all surfaces, or a predetermined plurality of surfaces, such as a plurality of surfaces having greater or lesser color intensity equal to a predetermined threshold, for example. It can be directed selectively to the surface. Thus, an improved image can be generated. All of the embodiments can be implemented in and using standard computer graphics methods.

ブロック314で実行される、光源の複数の特質又は特性の調整はまた、複数の実施形態において、「アンチライト」を投射することによってキャプチャされたときの3D画像に存在する任意の光源を除去することを含みうる。本開示で用いたように、「アンチライト」は、全ての又は選択したテクスチャ画像セクションの色彩強度を変更することを含む。「アンチライト」を追加することは、複数のテクスチャ画像セクションから光を除去することである。ブロック314で実行される、光源の複数の特質又は特性の調整は、同一又は他の実施形態では、さらに、3D画像へ複数の新たな光源を追加すること、複数のライティング特性を調節すべくインタラクティブな制御を用いること、合成光源情報を複数の標準ビデオエンコードフォーマットに追加すること、ライティング効果を追加/除去すべく複数の標準GPUグラフィックスパイプラインを用いることによって複数のライティング特性を調節すること、及び複数のカメラシステムにおけるデジタル光測定及び調整を用いることを含む。   The adjustment of multiple characteristics or properties of the light source performed at block 314 also removes any light source present in the 3D image when captured by projecting “anti-light” in embodiments. Can include. As used in this disclosure, “anti-light” includes changing the color intensity of all or selected texture image sections. Adding “anti-light” is removing light from multiple texture image sections. The adjustment of the plurality of characteristics or characteristics of the light source performed in block 314 may be interactive in the same or other embodiments, further adding a plurality of new light sources to the 3D image, adjusting a plurality of lighting characteristics. Using multiple controls, adding synthetic light source information to multiple standard video encoding formats, adjusting multiple lighting characteristics by using multiple standard GPU graphics pipelines to add / remove lighting effects, and Using digital light measurement and adjustment in multiple camera systems.

ブロック316では、向上された画像が出力され、これは、向上された画像を、ディスプレイデバイス上で又は2D又は3Dプリンティングを介してレンディングすることを含みうる。別の実施形態において、向上された画像は、例えばメディアフォーマットファイルのようなコンピュータ可読ファイルとして、例えば、ハードディスクドライブ、メモリスティック、SDカード、ランダムアクセスメモリ、リードオンリーメモリ、又は現在既知又は後に考案される電子ストレージの任意の他の形式のようなコンピュータ可読メモリに、向上された画像を保存することによって出力されうる。さらに、向上された画像を出力することは、また、対応する複数のテクスチャ表面を有する複数の三角形又は他の幾何学的形状から構成される表面メッシュ、複数のポイントクラウドのような標準深度マップフォーマット、深度又はZ次元に対応するピクセル値を有する複数のZ画像又は2Dピクセルアレイ、又はMIPI規格のサブセットのような規格カメラ画像センサ出力フォーマットのような所定または標準フォーマットにおいて、色彩強度でランク付けされた複数の表面のセットを提供し、それにより、最初の又は追加のライティング調整が、向上された画像のレンダリングの前又は併せて下流で実行されることを可能にする。   At block 316, the enhanced image is output, which may include rendering the enhanced image on a display device or via 2D or 3D printing. In another embodiment, the enhanced image is a computer readable file, such as a media format file, for example, a hard disk drive, memory stick, SD card, random access memory, read only memory, or presently known or later devised. Can be output by storing the enhanced image in a computer readable memory, such as any other form of electronic storage. In addition, the output of the enhanced image is also a standard depth map format such as a surface mesh composed of a plurality of triangles or other geometric shapes with a corresponding plurality of textured surfaces, a plurality of point clouds Ranked in color intensity in a predetermined or standard format, such as multiple Z images or 2D pixel arrays with pixel values corresponding to depth or Z dimension, or standard camera image sensor output formats such as a subset of MIPI standards A plurality of sets of surfaces, thereby allowing an initial or additional lighting adjustment to be performed downstream prior to or in conjunction with enhanced image rendering.

図3の処理フロー図は、方法300の複数のブロックが任意の特定の順序で実行されるべきであること、又はブロックの全てが実行されるべき又は全ての実施形態に含まれるべきであることを示すことを意図しない。さらに、任意の数の追加のブロックが、特定の実装の詳細に依存して、方法300内に含まれうる。   The process flow diagram of FIG. 3 shows that multiple blocks of the method 300 should be executed in any particular order, or that all of the blocks should be executed or included in all embodiments. Not intended to show. Moreover, any number of additional blocks may be included in method 300 depending on the particular implementation details.

図4A−Cは概して、複数の実施形態による、光についての複数の光ベクトル、ビューア/カメラ、反射、スペキュラーハイライト、及び面法線を示す。より具体的には、図4Aは、中間法線ベクトル「n」が、光源のソースベクトルL及びビューベクトル「w」の間の中間にあることを決定されることを示す。前に述べたように、中間ベクトルは、光源の最大反射が観察されるベクトルである。図4Bは、非平坦な表面についての、ビューベクトルV、面法線ベクトルN、光源ベクトルL、及び反射ベクトルRを示す。図4Cは、光源ベクトルL、ビューベクトルV、光源ベクトルLのミラー反射ベクトルR、滑らかな面法線ベクトルN、及びベクトルL及びVの間の中間ベクトルである半角ベクトルHの間の関係を示す。   4A-C generally illustrate multiple light vectors, viewer / camera, reflection, specular highlight, and surface normal for light, according to multiple embodiments. More specifically, FIG. 4A shows that the intermediate normal vector “n” is determined to be in the middle between the source vector L and the view vector “w” of the light source. As previously mentioned, the intermediate vector is the vector where the maximum reflection of the light source is observed. FIG. 4B shows a view vector V, a surface normal vector N, a light source vector L, and a reflection vector R for a non-planar surface. FIG. 4C shows the relationship between the light source vector L, the view vector V, the mirror reflection vector R of the light source vector L, the smooth surface normal vector N, and the half-angle vector H which is an intermediate vector between the vectors L and V. .

図5は、複数の実施形態による、複数の3D画像を向上させるコードを格納する有形持続性コンピュータ可読媒体500を示すブロック図である。有形持続性コンピュータ可読媒体500は、プロセッサ502によって信号バス504を介してアクセスされうる。さらに、媒体500は、プロセッサ502に本開示の複数の方法及び特に方法300を実行させるように構成されたコードを含みうる。媒体500は、図3に示された方法300の処理に対応する複数のコンポーネント又はモジュールを含む、様々なソフトウェアコンポーネント又はモジュールを格納しうる。例えば、媒体500は、3D画像をキャプチャ、インポート、又はさもなければ取得又は受信するように構成されうる、3D画像キャプチャモジュール512を含みうる。媒体500はまた、3D画像の深度及びテクスチャマップを抽出又はさもなければ決定するように構成された、深度情報及びテクスチャ情報抽出モジュール514を含みうる。媒体500はまた、3D画像の表面メッシュを生成するように構成されうる、表面メッシュ生成モジュール516を含みうる。媒体500はさらに、各表面メッシュセクションに対して、対応するテクスチャセクションを決定するように構成されうる、表面メッシュセクションに対応するテクスチャセクション決定モジュール518を含みうる。媒体500はまださらに、色彩強度及び正反射の少なくとも1つに関して複数の表面をランク付けするように構成されうる、表面ランク付けモジュール520を含みうる。媒体500はまださらに、光源ベクトルを決定してそれにより3D空間における光源の位置を示すように構成されうる、光源ベクトル決定モジュール522を含みうる。媒体500はまた、方法300に関して上記でより具体的に説明したような、3D画像の光源の複数の特性を調節するように構成されうるライティング調節モジュール524を含みうる。媒体500はまた、色彩強度でランク付けされた複数の表面及び関連付けられた複数テクスチャのセットのような、向上された画像及び関連付けられたデータを出力するように構成されうる向上された画像出力モジュール526を含みうる。   FIG. 5 is a block diagram illustrating a tangible persistent computer readable medium 500 that stores code for enhancing a plurality of 3D images, according to embodiments. Tangible persistent computer readable medium 500 may be accessed by processor 502 via signal bus 504. Moreover, medium 500 can include code configured to cause processor 502 to perform the methods and particularly method 300 of the present disclosure. Media 500 may store various software components or modules, including a plurality of components or modules that correspond to the processing of method 300 shown in FIG. For example, the medium 500 can include a 3D image capture module 512 that can be configured to capture, import, or otherwise obtain or receive 3D images. The medium 500 may also include a depth information and texture information extraction module 514 configured to extract or otherwise determine the depth and texture map of the 3D image. The medium 500 can also include a surface mesh generation module 516 that can be configured to generate a surface mesh of the 3D image. The medium 500 can further include a texture section determination module 518 corresponding to the surface mesh section that can be configured to determine a corresponding texture section for each surface mesh section. The medium 500 can still further include a surface ranking module 520 that can be configured to rank the plurality of surfaces with respect to at least one of color intensity and specular reflection. The medium 500 can still further include a light source vector determination module 522 that can be configured to determine a light source vector and thereby indicate the position of the light source in 3D space. The medium 500 may also include a lighting adjustment module 524 that may be configured to adjust a plurality of characteristics of the light source of the 3D image, as described more specifically above with respect to the method 300. The medium 500 can also be configured to output an enhanced image and associated data, such as a set of multiple surfaces ranked by color intensity and associated multiple textures. 526 may be included.

図5のブロック図は、有形の持続性コンピュータ可読媒体500が本開示で示されたコンポーネントの全てを含むべきであることを示すことを意図しない。さらに、有形持続性コンピュータ可読媒体500は、特定の実装の詳細に依存して、図5に示されない任意の数の追加的なコンポーネントを含みうる。   The block diagram of FIG. 5 is not intended to indicate that the tangible persistent computer readable medium 500 should include all of the components shown in this disclosure. Further, tangible persistent computer readable medium 500 may include any number of additional components not shown in FIG. 5, depending on the particular implementation details.

図6は、複数の実施形態により用いられうる電子デバイスのブロック図である。電子デバイス600は、実質的には、例えば、プリントデバイス、カメラ、ラップトップ、又は他のポータブル又はデスクトップコンピュータ、セルラー又は他の携帯電話等を含む任意の電子デバイスでありうる。電子デバイス600は、中央処理ユニット(CPU)602、メモリ604、信号バス606、グラフィックス処理ユニット(GPU)608、イメージキャプチャメカニズム610、センサ612、ディスプレイ614を含みうる。   FIG. 6 is a block diagram of an electronic device that can be used in accordance with embodiments. The electronic device 600 can be virtually any electronic device including, for example, a printing device, camera, laptop, or other portable or desktop computer, cellular or other mobile phone, and the like. The electronic device 600 may include a central processing unit (CPU) 602, a memory 604, a signal bus 606, a graphics processing unit (GPU) 608, an image capture mechanism 610, a sensor 612, and a display 614.

CPU602は、メモリ604に格納されうる複数のアプリケーション620を、信号バス606を介して読み取り、実行するように構成されうる。CPU602は、シングル、デュアル、又はマルチコアプロセッサ又は任意の他の適切な処理デバイスでありうる。メモリ604は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、ハードディスク又はソリッドステートドライブ、フラッシュメモリ、又は他の適切なタイプのメモリを含みうる。メモリ604は、複数のアプリケーション620を格納する。   The CPU 602 may be configured to read and execute a plurality of applications 620 that may be stored in the memory 604 via the signal bus 606. CPU 602 may be a single, dual, or multi-core processor or any other suitable processing device. Memory 604 may include random access memory (RAM), read only memory (ROM), hard disk or solid state drive, flash memory, or other suitable type of memory. The memory 604 stores a plurality of applications 620.

信号バス606は、CPU602、メモリ604、GPU608、イメージキャプチャメカニズム608、イメージキャプチャメカニズム610、センサ612、及びディスプレイ614を相互接続し、同一のものの間及び中での電子信号及びデータの転送を可能にする。   A signal bus 606 interconnects the CPU 602, memory 604, GPU 608, image capture mechanism 608, image capture mechanism 610, sensor 612, and display 614 to allow the transfer of electronic signals and data between and within the same. To do.

GPU608は、任意の適切なGPUプロセッサであってよく、例えば、デバイス600のユーザへディスプレイ614又は他のディスプレイ上で表示するための、複数のグラフィックス画像、フレーム、又はビデオ等のレンダリング又は処理のような、任意の数のグラフィックス操作を実行するように構成されうる。いくつかの実施形態では、GPU608は、複数の特定のグラフィックスタスクを実行するように構成されうる多くのグラフィックスエンジン(不図示)を含みうる。   The GPU 608 may be any suitable GPU processor, for example, rendering or processing of multiple graphics images, frames, or videos, etc., for display on a display 614 or other display to a user of the device 600. Can be configured to perform any number of graphics operations. In some embodiments, GPU 608 may include a number of graphics engines (not shown) that may be configured to perform a plurality of specific graphics tasks.

イメージキャプチャメカニズム610は、3D画像をキャプチャするように構成されうる。イメージキャプチャメカニズム610は、カメラ、ステレオスコープカメラ、赤外線センサ、又は他のイメージキャプチャメカニズムとして構成されうる。イメージキャプチャメカニズム610は、キャプチャされた3D画像と関連付けられた深度及び画像テクスチャ情報をキャプチャするように構成される。複数の例において、代替的に、センサ612は、キャプチャ画像の深度及び画像テクスチャ情報をキャプチャするように構成されてよく、このため、電荷結合素子画像センサ、システムオンチップセンサ画像センサ、又は他の適切なセンサ又は複数のセンサの組み合わせとして構成されてよい。複数のアプリケーション620は、現在存在する又は今後開発される規格化されたメディアコーデックにおいて、3D深度マップ又は表面メッシュ200のような表面メッシュにおける深度及び画像テクスチャ情報をエンコードする。   Image capture mechanism 610 may be configured to capture 3D images. The image capture mechanism 610 may be configured as a camera, stereoscope camera, infrared sensor, or other image capture mechanism. Image capture mechanism 610 is configured to capture depth and image texture information associated with the captured 3D image. In some examples, the sensor 612 may alternatively be configured to capture captured image depth and image texture information, so that a charge coupled device image sensor, a system on chip sensor image sensor, or other It may be configured as a suitable sensor or a combination of sensors. Multiple applications 620 encode depth and image texture information in a surface mesh, such as a 3D depth map or surface mesh 200, in a standardized media codec that currently exists or will be developed in the future.

ディスプレイ614は、フラットパネル液晶、又はユーザにキャプチャ画像を表示するように構成された他のディスプレイデバイスとして構成されてよく、さらに、デバイス600の制御及び操作のためのユーザへのグラフィカル又はヒューマンマシンインターフェースを表示するよう構成されてよい。ディスプレイ614は、デバイス600と一体又は別個でよい。   The display 614 may be configured as a flat panel liquid crystal or other display device configured to display captured images to the user, and further a graphical or human machine interface to the user for control and operation of the device 600. May be configured to display. Display 614 may be integral with or separate from device 600.

複数のアプリケーション620は、方法300を実行するのに十分な複数の命令を含む。例えば、複数のアプリケーション620は、方法300に関して上記でより具体的に説明したように、3D画像をキャプチャ又は取得又はさもなければ受信するべく、深度情報及びテクスチャ情報を抽出又はさもなければ3D画像の深度及びテクスチャマップを決定すべく、3D画像の表面メッシュモジュールを生成すべく、複数の表面メッシュセクションに対応する画像の複数のテクスチャセクションを決定すべく、色彩強度及び正反射の少なくとも1つに関して複数の表面をランク付けすべく、光源ベクトルを決定してそれにより3D空間における光源の位置を示すべく、及び3D画像の光源の複数の特性を調節すべく、複数の命令を含みうる。複数のアプリケーション620は、また、色彩強度でランク付けされた複数の表面及び3D画像に関連付けられた複数のテクスチャのセットのような、向上された画像及びそれに関連付けられたデータを出力するべく複数の命令を含みうる。   The plurality of applications 620 includes a plurality of instructions sufficient to perform the method 300. For example, multiple applications 620 may extract depth information and texture information or otherwise capture 3D images to capture, acquire, or otherwise receive 3D images, as described more specifically above with respect to method 300. A plurality of at least one of color intensity and specular reflection to determine a depth and texture map, to generate a surface mesh module of a 3D image, to determine a plurality of texture sections of the image corresponding to a plurality of surface mesh sections Multiple instructions may be included to rank the surface of the image, to determine the light source vector and thereby indicate the position of the light source in 3D space, and to adjust multiple characteristics of the light source in the 3D image. The plurality of applications 620 may also output a plurality of enhanced images and associated data, such as sets of textures associated with a plurality of surfaces and 3D images ranked by color intensity. Instructions can be included.

電子デバイス600は、いくつかの実施形態では、表面メッシュ200のようなエンコードされた3D表面メッシュ及び対応する複数のテクスチャセクションを印刷できる、プリンタ、ファックスマシン、及び他の複数のプリントデバイスのような、プリントデバイス622を含みうる。プリントデバイス622は、電子デバイス600と一体又はその外部にありうる。複数のアプリケーション620は、プリントデバイス622とインターフェースして動かすのに必要な複数の命令を含みうる。   The electronic device 600 can in some embodiments print an encoded 3D surface mesh, such as the surface mesh 200, and a corresponding plurality of texture sections, such as a printer, fax machine, and other printing devices. A print device 622. The print device 622 can be integral with or external to the electronic device 600. The plurality of applications 620 may include a plurality of instructions necessary to interface and operate with the print device 622.

図6のブロック図は、デバイス600が図6に示されたコンポーネントの全てを含むべきであることを示すことを意図されない。さらに、デバイス600は、特定の実装の詳細に依存して、図6に示されない任意の数の追加的なコンポーネントを含みうる。   The block diagram of FIG. 6 is not intended to indicate that the device 600 should include all of the components shown in FIG. Further, device 600 may include any number of additional components not shown in FIG. 6, depending on the particular implementation details.

図7は、複数の実施形態による、ポリゴンの3Dメッシュ及び対応する複数のテクスチャを用いて複数の画像をエンコードする例のシステム700のブロック図である。同様の数字が付けられた複数のアイテムが、図6に関して記載される。いくつかの実施形態では、システム700は、メディアシステムである。加えて、システム700は、パーソナルコンピュータ(PC)、ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、ポータブルコンピュータ、ハンドヘルドコンピュータ、パームトップコンピュータ、パーソナルデジタルアシスタント(PDA)、携帯電話、携帯電話/PDAの組み合わせ、テレビ、スマートデバイス(例えばスマートフォン、スマートタブレット、又はスマートテレビ)、モバイルインターネットデバイス(MID)、メッセージングデバイス、又はデータ通信デバイス等に組み込まれうる。   FIG. 7 is a block diagram of an example system 700 that encodes multiple images using a 3D mesh of polygons and corresponding multiple textures, according to multiple embodiments. A plurality of items with similar numbers are described with respect to FIG. In some embodiments, system 700 is a media system. In addition, the system 700 is a personal computer (PC), laptop computer, ultra laptop computer, tablet, touchpad, portable computer, handheld computer, palmtop computer, personal digital assistant (PDA), mobile phone, mobile phone / It can be incorporated into a combination of PDAs, televisions, smart devices (eg, smart phones, smart tablets, or smart TVs), mobile internet devices (MID), messaging devices, data communication devices, and the like.

様々な実施形態において、システム700はディスプレイ704に接続されたプラットフォーム702を備える。プラットフォーム702は、コンテンツサービスデバイス706またはコンテンツ配信デバイス708、若しくは他の同様の複数のコンテンツソースのような、コンテンツデバイスからコンテンツを受信しうる。1または複数のナビゲーション機能を含むナビゲーションコントローラ710は、例えばプラットフォーム702および/またはディスプレイ704とインタラクトするために用いられ得る。これらのコンポーネントの各々は、以下でより詳細に説明される。   In various embodiments, the system 700 includes a platform 702 connected to a display 704. Platform 702 may receive content from a content device, such as content service device 706 or content distribution device 708, or other similar content sources. A navigation controller 710 that includes one or more navigation functions may be used to interact with the platform 702 and / or the display 704, for example. Each of these components is described in more detail below.

プラットフォーム702は、チップセット712、中央処理ユニット(CPU)602、メモリデバイス604、ストレージデバイス713、グラフィックスサブシステム714、複数のアプリケーション620、及び無線装置716の任意の組み合わせを含みうる。チップセット712は、CPU602、メモリデバイス604、ストレージデバイス713、グラフィックスサブシステム714、複数のアプリケーション620、及び無線装置714の間での相互通信を提供しうる。   Platform 702 may include any combination of chipset 712, central processing unit (CPU) 602, memory device 604, storage device 713, graphics subsystem 714, multiple applications 620, and wireless device 716. Chipset 712 may provide intercommunication between CPU 602, memory device 604, storage device 713, graphics subsystem 714, multiple applications 620, and wireless device 714.

CPU602は、複合命令セットコンピュータ(CISC)又は縮小命令セットコンピュータ(RISC)プロセッサ、x86命令セット互換性プロセッサ、マルチコア、又は任意の他のマイクロプロセッサ又は中央処理ユニット(CPU)として実装されうる。いくつかの実施形態において、CPU602は、デュアルコアプロセッサ、デュアルコアモバイルプロセッサ、またはその他を含む。   The CPU 602 may be implemented as a compound instruction set computer (CISC) or reduced instruction set computer (RISC) processor, x86 instruction set compatible processor, multi-core, or any other microprocessor or central processing unit (CPU). In some embodiments, the CPU 602 includes a dual core processor, dual core mobile processor, or others.

メモリデバイス604は、限定されないが、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、又はスタティックRAM(SRAM)のような、揮発性メモリデバイスとして実装されうる。ストレージデバイス713は、限定されるわけではないが、磁気ディスクドライブ、光ディスクドライブ、テープドライブ、内部ストレージデバイス、接続されたストレージデバイス、フラッシュメモリ、バッテリバックアップSDRAM(シンクロナスDRAM)、および/またはネットワークアクセス可能ストレージデバイスのような不揮発性ストレージデバイスとして実装されてよい。いくつかの実施形態では、ストレージデバイス713は、例えば、複数のハードドライブが含まれる場合に、大切なデジタルメディアのためのストレージパフォーマンスエンハンスドプロテクションを増すための技術を含む。   Memory device 604 may be implemented as a volatile memory device, such as, but not limited to, random access memory (RAM), dynamic random access memory (DRAM), or static RAM (SRAM). Storage device 713 includes, but is not limited to, a magnetic disk drive, optical disk drive, tape drive, internal storage device, connected storage device, flash memory, battery backup SDRAM (synchronous DRAM), and / or network access. It may be implemented as a non-volatile storage device such as a possible storage device. In some embodiments, the storage device 713 includes technology to increase storage performance enhanced protection for important digital media, for example when multiple hard drives are included.

グラフィックスサブシステム714は、表示のためのスチール又はビデオのような、複数の画像の処理を実行しうる。グラフィックスサブシステム714は、例えばGPU608又はビジュアル処理ユニット(VPU)のようなグラフィックス処理ユニット(GPU)を含んでよい。アナログまたはデジタルインターフェースは、グラフィックスサブシステム714およびディスプレイ704を通信可能に連結するために使用されてもよい。例えば、インターフェースは、高精細度マルチメディアインターフェース、ディスプレイポート、無線HDMI(登録商標)および/または無線HD準拠技術のいずれかでありうる。グラフィックスサブシステム714は、CPU602またはチップセット712に統合されうる。代わりに、グラフィックスサブシステム714は、チップセット712に通信可能に連結されたスタンドアロンカードであってよい。   Graphics subsystem 714 may perform processing of multiple images, such as still or video for display. Graphics subsystem 714 may include a graphics processing unit (GPU) such as GPU 608 or a visual processing unit (VPU). An analog or digital interface may be used to communicatively couple graphics subsystem 714 and display 704. For example, the interface can be any of a high definition multimedia interface, a display port, wireless HDMI® and / or wireless HD compliant technology. Graphics subsystem 714 can be integrated into CPU 602 or chipset 712. Alternatively, graphics subsystem 714 may be a stand-alone card that is communicatively coupled to chipset 712.

本開示で説明されるグラフィックスおよび/またはビデオ処理技術は、様々なハードウェアキテクチャで実装されうる。例えば、グラフィックスおよび/またはビデオ機能が、チップセット712内に統合されてよい。代わりに、別個のグラフィックスおよび/またはビデオプロセッサが用いられうる。さらに他の実施形態として、グラフィックスおよび/またはビデオ機能は、マルチコアプロセッサを含む汎用プロセッサによって実装されうる。さらなる実施形態では、複数の機能は、家庭用電子デバイスで実装されてもよい。   The graphics and / or video processing techniques described in this disclosure may be implemented in various hardware architectures. For example, graphics and / or video functions may be integrated within chipset 712. Alternatively, separate graphics and / or video processors can be used. As yet another embodiment, graphics and / or video functionality may be implemented by a general purpose processor including a multi-core processor. In further embodiments, multiple functions may be implemented in a consumer electronic device.

無線装置716は、様々な適切なワイヤレス通信技術を使用して信号を送信及び受信可能な1または複数の無線機を含んでよい。そのような複数の技術は、1または複数の無線ネットワークを介した複数の通信を伴ってもよい。例となる無線ネットワークは、無線ローカルエリアネットワーク(WLAN)、無線パーソナルエリアネットワーク(WPAN)、無線メトロポリタンエリアネットワーク(WMAN)、セルラーネットワーク、衛星ネットワーク、又は同種のものを含む。そのような複数のネットワークにわたる通信において、無線装置716は、任意のバージョンの1または複数の適用可能規格により動作しうる。   Wireless device 716 may include one or more radios that can transmit and receive signals using a variety of suitable wireless communication technologies. Such techniques may involve multiple communications over one or more wireless networks. Exemplary wireless networks include a wireless local area network (WLAN), a wireless personal area network (WPAN), a wireless metropolitan area network (WMAN), a cellular network, a satellite network, or the like. In communication across such multiple networks, the wireless device 716 may operate according to any version of one or more applicable standards.

ディスプレイ704は、任意のテレビタイプモニタ又はディスプレイを含んでよい。例えば、ディスプレイ704は、コンピュータディスプレイ画面、タッチスクリーンディスプレイ、ビデオモニタ、テレビ、またはその他を含んでもよい。ディスプレイ704は、デジタルおよび/またはアナログであってよい。いくつかの実施形態では、ディスプレイ704は、ホログラフィーディスプレイである。また、ディスプレイ704は、視覚投影を受信しうる透明面であってよい。複数のそのような投影は、様々な形態の情報、画像、オブジェクト又は同種のものを伝達しうる。例えば、複数のそのような投影は、モバイル拡張現実(MAR)アプリケーションのためのビジュアルオーバーレイでありうる。1または複数のソフトウェアアプリケーション620の制御下で、プラットフォーム702は、ディスプレイ704上にユーザインターフェース718を表示してもよい。   Display 704 may include any television type monitor or display. For example, display 704 may include a computer display screen, touch screen display, video monitor, television, or the like. Display 704 may be digital and / or analog. In some embodiments, the display 704 is a holographic display. The display 704 may also be a transparent surface that can receive visual projections. A plurality of such projections may convey various forms of information, images, objects or the like. For example, a plurality of such projections can be visual overlays for mobile augmented reality (MAR) applications. Under the control of one or more software applications 620, the platform 702 may display a user interface 718 on the display 704.

コンテンツサービスデバイス706は、任意の国の、国際の、又は独立のサービスによってホストされてよく、それ故に、例えば、インターネットを介してプラットフォーム702に対してアクセス可能であってよい。コンテンツサービスデバイス706は、プラットフォーム702および/またはディスプレイ704に連結されうる。プラットフォーム702および/またはコンテンツサービスデバイス706は、ネットワーク720から及びに対してメディア情報を通信(例えば、送信および/または受信)するべく、ネットワーク720に連結されてよい。コンテンツ配信デバイス708はまた、プラットフォーム702および/またはディスプレイ704に連結されてもよい。   The content service device 706 may be hosted by any national, international, or independent service and thus may be accessible to the platform 702 via, for example, the Internet. Content service device 706 may be coupled to platform 702 and / or display 704. Platform 702 and / or content service device 706 may be coupled to network 720 to communicate (eg, send and / or receive) media information from and to network 720. Content distribution device 708 may also be coupled to platform 702 and / or display 704.

コンテンツサービスデバイス706は、デジタル情報を配信可能な、ケーブルテレビボックス、パーソナルコンピュータ、ネットワーク、電話、又はインターネット可能デバイスを含みうる。加えて、コンテンツサービスデバイス706は、複数のコンテンツプロバイダ及びプラットフォーム702又はディスプレイ704の間で、ネットワーク720を介して又は直接、コンテンツを一方向に又は双方向に通信可能な他の同様の複数の任意のデバイスを含みうる。コンテンツは、ネットワーク720を介して、システム700およびコンテンツプロバイダ中の複数のコンポーネントの何れか1つへ、及びこれらの何れか1つから、一方向および/または双方向に通信されうることが理解されよう。コンテンツの複数の例として、例えば、ビデオ、音楽、医療、ゲーム情報、及びその他を含む任意のメディア情報を含みうる。   Content service device 706 may include a cable television box, personal computer, network, telephone, or Internet-enabled device capable of distributing digital information. In addition, the content service device 706 can communicate content between multiple content providers and platforms 702 or displays 704 over a network 720 or directly, in other similar plurality of any one-way or two-way. Devices may be included. It will be appreciated that content may be communicated unidirectionally and / or bidirectionally via the network 720 to and from any one of a plurality of components in the system 700 and content providers. Like. Examples of content may include any media information including, for example, video, music, medical, game information, and others.

コンテンツサービスデバイス706は、メディア情報、デジタル情報又は他のコンテンツを含むケーブルテレビプログラムのようなコンテンツを受信してよい。複数のコンテンツプロバイダの例には、中でも、任意のケーブルまたは衛星テレビ、若しくは無線またはインターネットコンテンツプロバイダが含まれうる。   Content service device 706 may receive content such as cable television programs that include media information, digital information, or other content. Examples of multiple content providers may include, among other things, any cable or satellite television, or a wireless or internet content provider.

いくつかの実施形態では、プラットフォーム702は、1または複数のナビゲーション機能を含む、ナビゲーションコントローラ710から複数の制御信号を受信する。ナビゲーションコントローラ710のナビゲーション機能は、例えば、ユーザインターフェース718と情報をやりとりするために使用されてよい。ナビゲーションコントローラ710は、ユーザが、空間(例えば、連続的かつ多次元の)データをコンピュータに入力できるようにするコンピュータハードウェアコンポーネント(具体的にはヒューマンインターフェースデバイス)であり得るポインティングデバイスであってよい。複数のグラフィカルユーザインターフェース(GUI)、テレビ、及びモニターのような多くのシステムにより、ユーザが、身体的ジェスチャを用いてコンピュータ又はテレビへのデータを制御し提供することができる。複数の身体的ジェスチャは、限定されないが、顔の表情、顔の動き、様々な手足の動き、体の動き、身ぶり、又はそれらの任意の組み合わせを含む。 そのような複数の身体的ジェスチャは、認識され、複数のコマンドまたは複数の命令に変換されることができる。   In some embodiments, platform 702 receives a plurality of control signals from navigation controller 710 that includes one or more navigation functions. The navigation function of the navigation controller 710 may be used to interact with the user interface 718, for example. The navigation controller 710 may be a pointing device that may be a computer hardware component (specifically a human interface device) that allows a user to enter spatial (eg, continuous and multi-dimensional) data into a computer. . Many systems, such as multiple graphical user interfaces (GUIs), televisions, and monitors, allow users to control and provide data to a computer or television using physical gestures. The plurality of physical gestures include, but are not limited to, facial expressions, facial movements, various limb movements, body movements, gestures, or any combination thereof. Such multiple physical gestures can be recognized and converted into multiple commands or multiple commands.

ナビゲーションコントローラ710のナビゲーション機能の動きは、ディスプレイ704上に表示されるポインタ、カーソル、フォーカスリング、又は複数の他の視覚的なインジケータの動きによって、ディスプレイ704上に反映される。例えば、複数のアプリケーション620の制御下において、ナビゲーションコントローラ710に位置する複数のナビゲーション機能は、ユーザインターフェース718上に表示された複数の視覚的なナビゲーション機能に対してマッピングされうる。いくつかの実施形態では、ナビゲーションコントローラ710は、別個のコンポーネントではなくてよいが、しかしむしろ、プラットフォーム702および/またはディスプレイ704内に統合されてよい。   The movement of the navigation function of the navigation controller 710 is reflected on the display 704 by the movement of a pointer, cursor, focus ring, or several other visual indicators displayed on the display 704. For example, under the control of a plurality of applications 620, a plurality of navigation functions located on the navigation controller 710 can be mapped to a plurality of visual navigation functions displayed on the user interface 718. In some embodiments, navigation controller 710 may not be a separate component, but rather may be integrated within platform 702 and / or display 704.

システム700は、例えば、複数のユーザが、イネーブルである場合に、初めの起動後のボタンのタッチにより、プラットフォーム702を即座にオン、オフできるようにする技術を含む、複数のドライバ(不図示)を含みうる。プログラムロジックは、プラットフォームがオフの場合、プラットフォーム702が、コンテンツを、複数のメディアアダプタ、若しくは、他のコンテンツサービスデバイス706またはコンテンツ配信デバイス708にストリームすることを可能にしうる。加えて、チップセット712は、例えば、6.1サラウンドサウンドオーディオおよび/または高解像度7.1サラウンドサウンドオーディオへのハードウェアおよび/またはソフトウェアのサポートを含みうる。複数のドライバは、統合されたグラフィックスプラットフォームのためのグラフィックスドライバを含んでよい。いくつかの実施形態では、グラフィックスドライバは、ペリフェラルコンポーネントインターコネクトエクスプレス(PCIe)グラフィックスカードを含む。   The system 700 includes a plurality of drivers (not shown), including, for example, a technique that allows multiple users to immediately turn the platform 702 on and off by touching a button after initial activation when multiple users are enabled. Can be included. Program logic may allow platform 702 to stream content to multiple media adapters or other content service devices 706 or content distribution devices 708 when the platform is off. In addition, the chipset 712 may include hardware and / or software support for 6.1 surround sound audio and / or high resolution 7.1 surround sound audio, for example. The plurality of drivers may include a graphics driver for the integrated graphics platform. In some embodiments, the graphics driver includes a peripheral component interconnect express (PCIe) graphics card.

様々な実施形態において、システム700に示されるコンポーネントのうちいずれかの1または複数は統合されうる。例えば、プラットフォーム702及びコンテンツサービスデバイス706が統合されてよく、プラットフォーム702及びコンテンツ配信デバイス708が統合されてよく、又は、プラットフォーム702、コンテンツサービスデバイス706及びコンテンツ配信デバイス708が統合されてよい。いくつかの実施形態では、プラットフォーム702及びディスプレイ704は統合されたユニットである。例えば、ディスプレイ704及びコンテンツサービスデバイス706が統合されてよく、又は、ディスプレイ704及びコンテンツ配信デバイス708が統合されてよい。   In various embodiments, one or more of any of the components shown in system 700 may be integrated. For example, platform 702 and content service device 706 may be integrated, platform 702 and content distribution device 708 may be integrated, or platform 702, content service device 706 and content distribution device 708 may be integrated. In some embodiments, platform 702 and display 704 are an integrated unit. For example, the display 704 and the content service device 706 may be integrated, or the display 704 and the content distribution device 708 may be integrated.

システム700は、無線システム又は有線システムとして実装されうる。無線システムとして実装された場合、システム700は、1または複数のアンテナ、送信機、受信機、トランシーバ、増幅器、フィルタ、制御ロジック及びその他のような、無線共有媒体上で通信するのに適した複数のコンポーネント及びインターフェースを含みうる。無線共有媒体の一例は、RFスペクトルのような、無線スペクトルの一部を含んでよい。有線システムとして実装された場合、システム700は、複数の入出力(I/O)アダプタ、I/Oアダプタを対応する有線通信媒体に接続する複数の物理コネクタ、ネットワークインターフェースカード(NIC)、ディスクコントローラ、ビデオコントローラ、オーディオコントローラ、又は同種のもののような、有線通信媒体で通信するために適した複数のコンポーネント及びインターフェースを含んでよい。有線通信媒体の複数の例は、ワイヤ、ケーブル、複数のメタルリード、プリント回路基板(PCB)、バックプレーン、スイッチファブリック、半導体材料、ツイストペアワイヤ、同軸ケーブル、又はファイバーオプティックス等を含みうる。   System 700 can be implemented as a wireless system or a wired system. When implemented as a wireless system, the system 700 is suitable for communicating over a wireless shared medium, such as one or more antennas, transmitters, receivers, transceivers, amplifiers, filters, control logic, and the like. Components and interfaces. An example of a wireless shared medium may include a portion of the radio spectrum, such as the RF spectrum. When implemented as a wired system, system 700 includes a plurality of input / output (I / O) adapters, a plurality of physical connectors for connecting the I / O adapters to corresponding wired communication media, a network interface card (NIC), a disk controller. A plurality of components and interfaces suitable for communicating over a wired communication medium, such as a video controller, an audio controller, or the like. Examples of wired communication media may include wires, cables, multiple metal leads, printed circuit boards (PCBs), backplanes, switch fabrics, semiconductor materials, twisted pair wires, coaxial cables, fiber optics, and the like.

プラットフォーム702は、情報を通信するべく、1または複数の論理チャネル又は物理チャネルを確立してよい。情報は、メディア情報及び制御情報を含みうる。メディア情報は、ユーザ向けコンテンツを表す任意のデータを指してもよい。コンテンツの複数の例は、例えば、音声会話、ビデオ会議、ストリーミングビデオ、電子メール(Eメール)メッセージ、ボイスメールメッセージ、複数の英数字のシンボル、グラフィックス、画像、ビデオ、テキスト、及び同種のものからのデータを含んでよい。音声会話からのデータは、例えば、スピーチ情報、沈黙期間、バックグラウンドノイズ、コンフォートノイズ、及びトーン等でありうる。制御情報は、自動化システム向けの、複数のコマンド、複数の命令、または複数の制御ワードを表している任意のデータを指してもよい。例えば、制御情報は、システムを通じてメディア情報をルーティングするべく、又は予め定められたやり方でメディア情報を処理するようノードに指示するべく用いられてもよい。しかし、複数の実施形態は、図8において示すまたは説明される要素または文脈に限定されるものではない。   Platform 702 may establish one or more logical or physical channels to communicate information. The information can include media information and control information. The media information may refer to arbitrary data representing content for the user. Examples of content include, for example, voice conversations, video conferencing, streaming video, email (email) messages, voicemail messages, multiple alphanumeric symbols, graphics, images, videos, text, and the like Data from may be included. Data from a voice conversation can be, for example, speech information, silence periods, background noise, comfort noise, tones, and the like. Control information may refer to any data representing multiple commands, multiple instructions, or multiple control words for an automated system. For example, the control information may be used to route media information through the system or to instruct a node to process media information in a predetermined manner. However, embodiments are not limited to the elements or context shown or described in FIG.

図8は、複数の実施形態による、図7のシステム700が具体化されうるスモールフォームファクタデバイス800の概略図である。同様の数字が付けられたアイテムは、図7に関して説明されたものと同じである。いくつかの実施形態では、例えば、デバイス700は、複数の無線機能を有するモバイルコンピューティングデバイスとして実装される。モバイルコンピューティングデバイスは、例えば、処理システム、及び1または複数のバッテリのようなモバイル電源又はサプライを有する任意のデバイスを指しうる。   FIG. 8 is a schematic diagram of a small form factor device 800 in which the system 700 of FIG. 7 may be implemented, according to embodiments. Items labeled with similar numbers are the same as described with respect to FIG. In some embodiments, for example, device 700 is implemented as a mobile computing device having multiple wireless functions. A mobile computing device can refer to any device having a processing system and a mobile power source or supply, such as one or more batteries, for example.

上述のように、モバイルコンピューティングデバイスの複数の例は、パーソナルコンピュータ(PC),ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、ポータブルコンピュータ、ハンドヘルドコンピュータ、パームトップコンピュータ、パーソナルデジタルアシスタント(PDA)、携帯電話、携帯電話/PDAの組み合わせ、テレビ、スマートデバイス(例えば、スマートフォン、スマートタブレット、又はスマートテレビ)、モバイルインターネットデバイス(MID)、メッセージングデバイス、データ通信デバイス、及び同種のものを含んでよい。   As mentioned above, several examples of mobile computing devices include personal computers (PCs), laptop computers, ultra laptop computers, tablets, touchpads, portable computers, handheld computers, palmtop computers, personal digital assistants (PDAs). ), Mobile phones, cell phone / PDA combinations, televisions, smart devices (eg, smart phones, smart tablets, or smart TVs), mobile internet devices (MID), messaging devices, data communication devices, and the like Good.

モバイルコンピューティングデバイスの例は、また、リストコンピュータ、フィンガーコンピュータ、リングコンピュータ、アイグラスコンピュータ、ベルトクリップコンピュータ、アームバンドコンピュータ、シューコンピュータ、衣類コンピュータ、又は任意の他の適切なタイプのウェアラブルコンピュータのような、人によって着用されるように配置されるコンピュータを含みうる。例えば、モバイルコンピューティングデバイスは、音声通信および/またはデータ通信とともに、複数のコンピュータアプリケーションを実行可能なスマートフォンとして実装されうる。いくつかの実施形態は、例として、スマートフォンとして実装されるモバイルコンピューティングデバイスにより説明されてもよいが、複数の他の実施形態は、同様に他の複数の無線モバイルコンピューティングデバイスを用いて実装されてもよいことが理解されよう。   Examples of mobile computing devices are also like wrist computers, finger computers, ring computers, eyeglass computers, belt clip computers, armband computers, shoe computers, clothing computers, or any other suitable type of wearable computer May include a computer arranged to be worn by a person. For example, a mobile computing device can be implemented as a smartphone capable of executing multiple computer applications with voice and / or data communications. Some embodiments may be described by way of example as a mobile computing device implemented as a smartphone, although other embodiments are implemented using other wireless mobile computing devices as well. It will be understood that this may be done.

図8に示すように、デバイス800は、筐体802、ディスプレイ804、入出力(I/O)デバイス806、およびアンテナ808を有しうる。デバイス800はまた、複数のナビゲーション機能810を含みうる。ディスプレイ804は、モバイルコンピューティングデバイスに適した情報を表示するための任意の適切なディスプレイユニットを含んでよい。I/Oデバイス806は、モバイルコンピューティングデバイスに情報を入力するのに適した任意のI/Oデバイスを含みうる。例えば、I/Oデバイス806は、英数字キーボード、テンキーパッド、タッチパッド、複数の入力キー、複数のボタン、複数のスイッチ、複数のロッカースイッチ、複数のマイク、複数のスピーカ、音声認識デバイス及びソフトウェア、又は同種のものを含みうる。情報はまた、マイクを用いてデバイス800に入力されうる。そのような情報は、音声認識デバイスによってデジタル化されてよい。   As shown in FIG. 8, the device 800 may include a housing 802, a display 804, an input / output (I / O) device 806, and an antenna 808. Device 800 may also include a plurality of navigation functions 810. Display 804 may include any suitable display unit for displaying information suitable for a mobile computing device. I / O device 806 may include any I / O device suitable for entering information into a mobile computing device. For example, the I / O device 806 includes an alphanumeric keyboard, a numeric keypad, a touch pad, a plurality of input keys, a plurality of buttons, a plurality of switches, a plurality of rocker switches, a plurality of microphones, a plurality of speakers, a voice recognition device, and software. Or the like. Information can also be input to the device 800 using a microphone. Such information may be digitized by a voice recognition device.

複数の実施形態において、イメージキャプチャメカニズムは、Mobile Industry Processor Interface(MIPI)カメラシリアルインターフェース(CSI)アライアンスによる仕様書に従い開発されたインターフェースを用いてホストプロセッサとインターフェースで接続するカメラデバイスでありうる。例えば、カメラシリアルインターフェースは、MIPI CSI−1インターフェース、MIPI CSI−2インターフェース、又はMIPI CSI−3インターフェースでありうる。従って、カメラシリアルインターフェースは、現在開発されている又は今後開発される任意のカメラシリアルインターフェースでありうる。複数の実施形態では、カメラシリアルインターフェースは、データ及びクロック信号との一方向差動シリアルインターフェースであるデータ送信インターフェースを含みうる。さらに、ホストプロセッサとのカメラインターフェースはまた、現在開発されている又は今後開発される任意のカメラパラレルインターフェース(CPI)でありうる。   In embodiments, the image capture mechanism may be a camera device that interfaces with a host processor using an interface developed in accordance with specifications from the Mobile Industry Processor Interface (MIPI) Camera Serial Interface (CSI) Alliance. For example, the camera serial interface can be a MIPI CSI-1 interface, a MIPI CSI-2 interface, or a MIPI CSI-3 interface. Thus, the camera serial interface can be any camera serial interface that is currently being developed or will be developed in the future. In embodiments, the camera serial interface may include a data transmission interface that is a one-way differential serial interface with data and clock signals. Furthermore, the camera interface with the host processor can also be any camera parallel interface (CPI) currently developed or developed in the future.

複数の実施形態では、イメージキャプチャメカニズムは、モバイルコンピューティングデバイスのコンポーネントであってよい。例えば、MIPI CSIアライアンス規格に従って開発されたカメラデバイスは、図6のデバイス600、図7のシステム700、図8のデバイス800、又はそれらの任意の組み合わせの少なくとも1つ又は複数と統合されるイメージキャプチャメカニズムであってよい。イメージキャプチャメカニズムは、深度センサ、画像センサ、赤外線センサ、X線光子カウンティングセンサ又はそれらの任意の組み合わせのような、様々なセンサを含みうる。複数の画像センサは、電荷結合素子(CCD)画像センサ、相補型金属酸化膜半導体(CMOS)画像センサ、システムオンチップ(SOC)画像センサ、感光性薄膜トランジスタを有する画像センサ、又はそれらの任意の組み合わせを含みうる。   In embodiments, the image capture mechanism may be a component of a mobile computing device. For example, a camera device developed in accordance with the MIPI CSI Alliance standard may be integrated with at least one or more of the device 600 of FIG. 6, the system 700 of FIG. 7, the device 800 of FIG. 8, or any combination thereof. It can be a mechanism. The image capture mechanism may include various sensors, such as a depth sensor, an image sensor, an infrared sensor, an x-ray photon counting sensor, or any combination thereof. The plurality of image sensors may be a charge coupled device (CCD) image sensor, a complementary metal oxide semiconductor (CMOS) image sensor, a system on chip (SOC) image sensor, an image sensor having a photosensitive thin film transistor, or any combination thereof. Can be included.

例1   Example 1

3D画像を向上させる装置は本開示で説明される。3D画像は、それに関連付けられた深度情報及びテクスチャ情報を含む。装置は、少なくとも部分的に深度情報に依存して、複数の表面メッシュセクションを有する3Dメッシュを生成するためのロジックと、少なくとも部分的にテクスチャ情報に依存して、複数の表面メッシュセクションに対応する複数のテクスチャセクションを決定するためのロジックとを含む。装置はまた、少なくとも部分的に複数のテクスチャセクションの色彩強度に依存して、テクスチャセクション及び対応する複数の表面メッシュセクションをランク付けするためのロジックと、1または複数の光源の複数の特性を調節して、色彩強度でランク付けされた複数のテクスチャセクションのうちの1または複数の色彩強度を変更し、それにより向上された画像を生成するためのロジックとを含む。   An apparatus for enhancing 3D images is described in this disclosure. A 3D image includes depth information and texture information associated with it. The apparatus corresponds to the plurality of surface mesh sections depending at least in part on the depth information and logic for generating a 3D mesh having the plurality of surface mesh sections and at least in part on the texture information. Logic for determining a plurality of texture sections. The apparatus also adjusts the logic for ranking the texture section and the corresponding plurality of surface mesh sections and the characteristics of the one or more light sources, depending at least in part on the color intensity of the plurality of texture sections. Logic for changing one or more of the plurality of texture sections ranked by color intensity and thereby generating an improved image.

1または複数の光源の位置が決定され、1または複数の光源が、キャプチャされた後の3D画像に追加されうる。1または複数の光源はまた、キャプチャされたときに3D画像内に存在しうる。1または複数の光源の位置を決定するためのロジックは、少なくとも部分的に色彩強度でランク付けされた複数の画像テクスチャ及び対応する複数の表面メッシュ法線ベクトルに依存して、1または複数の光源ベクトルを用いて、3D画像内の複数の光源の位置を決定することを含みうる。1または複数の光源ベクトルを決定するためのロジックは、また、色彩強度でランク付けされた複数のテクスチャセクションの各々について、対応する光源ベクトルを決定し、光源ベクトルのセットを数学的に結合することを含みうる。色彩強度でランク付けされた複数のテクスチャセクションの色彩強度は、予め定められた閾値より小さい及びそれより大きいのうちの一方である色彩強度を有する複数のテクスチャセクションを含みうる。光源ベクトルを決定するためのロジックは、中間ベクトルを決定することを含んでよく、中間ベクトルは、ビューベクトルと、色彩強度でランク付けされた1または複数のテクスチャセクション及び表面メッシュセクションの各々に対する垂直なベクトルと、対応する表面ベクトルとの間のほぼ真ん中にある。少なくとも1つの光源の複数の特性を調節するためのロジックは、少なくとも1つの光源のうちの1または複数のブライトネス、色、色相、彩度、クロマ、明度、色彩強度、及びルミナンスの少なくとも1つを変更することを含みうる。少なくとも1つの光源の複数の特性を調節するためのロジックは、また、少なくとも1つの光源を追加及び除去することの一方を含みうる。表面メッシュ及び対応する複数のテクスチャは、複数の新たな光源を用いて再レンダリングされてよく、結果の画像は、また、出力されてよい。表面メッシュ及び対応する複数のテクスチャを再レンダリングして結果の画像を出力することは、予め定められた標準フォーマット、標準深度マップフォーマット、又は標準カメラ出力フォーマットで、色彩強度でランク付けされた複数の表面の少なくとも1つを提供することを含みうる。少なくとも1つの光源の複数の特性を調節するためのロジックは、向上された画像のレンダリングの前に、又は併せて実行されうる。さらに、装置は、プリントデバイス又はイメージキャプチャメカニズムでありうる。   The position of the one or more light sources can be determined and the one or more light sources can be added to the captured 3D image. One or more light sources may also be present in the 3D image when captured. The logic for determining the location of the one or more light sources depends on the plurality of image textures and the corresponding plurality of surface mesh normal vectors at least partially ranked by color intensity, and the one or more light sources The method may include determining the position of a plurality of light sources in the 3D image using the vector. The logic for determining one or more light source vectors may also determine a corresponding light source vector for each of the plurality of texture sections ranked by color intensity and mathematically combine the set of light source vectors. Can be included. The color intensity of the plurality of texture sections ranked by color intensity may include a plurality of texture sections having a color intensity that is one of less than and greater than a predetermined threshold. The logic for determining the light source vector may include determining an intermediate vector that is perpendicular to the view vector and each of the one or more texture sections and surface mesh sections ranked by color intensity. Between the correct vector and the corresponding surface vector. Logic for adjusting the plurality of characteristics of the at least one light source includes at least one of brightness, color, hue, saturation, chroma, lightness, color intensity, and luminance of one or more of the at least one light source. Can include changing. The logic for adjusting the plurality of characteristics of the at least one light source may also include one of adding and removing at least one light source. The surface mesh and corresponding multiple textures may be re-rendered using multiple new light sources, and the resulting image may also be output. Re-rendering the surface mesh and corresponding multiple textures and outputting the resulting image can be done with multiple standard ranked by color intensity in a predefined standard format, standard depth map format, or standard camera output format. Providing at least one of the surfaces may be included. Logic for adjusting the plurality of characteristics of the at least one light source may be performed prior to or in conjunction with enhanced image rendering. Further, the apparatus can be a printing device or an image capture mechanism.

例2   Example 2

それに格納された複数の命令を有する少なくとも1つの非一時的機械読み出し可能媒体が説明される。複数の命令は、デバイス上で実行されることに応じて、デバイスに、3D画像に関連付けられた深度情報及びテクスチャ情報を抽出させ、複数の表面メッシュセクションを有する表面メッシュを深度情報から生成させる。複数の命令は、デバイスで実行されることに応じて、デバイスに、複数の表面メッシュセクションに対応する複数のテクスチャセクションを、テクスチャ情報から決定させ、複数のテクスチャセクション及び対応する複数の表面メッシュセクションを、それらの各自の色彩強度に関してランク付けさせる。更に、複数の命令は、デバイス上で実行されることに応じて、デバイスに、1または複数の光源の複数の特性を調節させて、それにより、色彩強度でランク付けされた複数のテクスチャセクションのうちの1または複数の色彩強度を変更して、向上された画像を生成させる。   At least one non-transitory machine readable medium having a plurality of instructions stored thereon is described. The instructions, when executed on the device, cause the device to extract depth information and texture information associated with the 3D image and to generate a surface mesh having a plurality of surface mesh sections from the depth information. The plurality of instructions are executed by the device, causing the device to determine a plurality of texture sections corresponding to the plurality of surface mesh sections from the texture information, the plurality of texture sections and the corresponding plurality of surface mesh sections. Are ranked with respect to their respective color intensity. In addition, the instructions may cause the device to adjust the characteristics of the one or more light sources in response to being executed on the device, thereby providing a plurality of texture sections ranked by color intensity. One or more of the color intensities are changed to generate an improved image.

少なくとも1つの光源の複数の特性を調節するための複数の命令は、3D画像に対して、1または複数の光源を追加又は除去するための複数の命令を含みうる。1または複数の光源の複数の特性を調節、追加又は除去するための複数の命令は、また、キャプチャされたときに3D画像内に存在する光源の複数の特性を調節、追加、又は除去するための複数の命令を含みうる。少なくとも1つの光源の位置が決定されうる。1または複数の光源の位置を決定するための複数の命令は、デバイス上で実行されることに応じて、色彩強度でランク付けされた複数のテクスチャセクションの各々に対して、対応する複数の表面メッシュセクションについての対応する光源ベクトルを決定し、複数の光源ベクトルを数学的に共に組み合わせる複数の命令をさらに含みうる。色彩強度でランク付けされた複数のテクスチャセクションは、予め定められた閾値未満及びそれより大きいのうちの一方である色彩強度を有する複数のテクスチャセクションを含みうる。少なくとも1つの光源の複数の特性を調節、追加、又は除去するための複数の命令は、デバイス上で実行されたときに、少なくとも1つの光源のうちの1または複数のブライトネス、色、色相、彩度、クロマ、明度、色彩強度、及びルミナンスのうちの少なくとも1つを変化させる複数の命令をさらに含みうる。少なくとも1つの光源の複数の特性を調節するための複数の命令は、デバイス上で実行された場合に、少なくとも1つの光源を追加又は除去する複数の命令をさらに含みうる。   The instructions for adjusting the characteristics of the at least one light source may include instructions for adding or removing one or more light sources to the 3D image. Multiple instructions for adjusting, adding or removing multiple characteristics of one or more light sources also adjust, add or remove multiple characteristics of the light sources present in the 3D image when captured A plurality of instructions can be included. The position of at least one light source can be determined. The plurality of instructions for determining the position of the one or more light sources is executed on the device, and a corresponding plurality of surfaces for each of the plurality of texture sections ranked by color intensity. A plurality of instructions for determining a corresponding light source vector for the mesh section and combining the plurality of light source vectors together mathematically may be further included. The plurality of texture sections ranked by color intensity may include a plurality of texture sections having a color intensity that is one of less than and greater than a predetermined threshold. A plurality of instructions for adjusting, adding, or removing a plurality of characteristics of at least one light source, when executed on the device, the brightness, color, hue, chrominance of one or more of the at least one light source. A plurality of instructions for changing at least one of degree, chroma, lightness, color intensity, and luminance may be further included. The instructions for adjusting the characteristics of the at least one light source may further include instructions for adding or removing at least one light source when executed on the device.

非一時的機械読み出し可能媒体は、また、デバイス上で実行されたときに、複数の新たな光源を用いて、表面メッシュ及び対応する複数のテクスチャを再レンダリングし、向上された画像を出力する複数の命令を含みうる。向上された画像を出力するための複数の命令は、デバイス上で実行されたときに、また、複数のカメラ、センサ、2D又は3Dプリンタ、2D又は3Dディスプレイ、コンピュータグラフィックスシステム又はコンピュータシステムの間で、予め定められた標準フォーマット、標準深度マップフォーマット、標準カメラ出力フォーマット、標準媒体コーデックフォーマット、標準コンピュータグラフィックスフォーマット、標準3D深度ファイルフォーマット、又は標準プロトコルフォーマットで、色彩強度でランク付けされた複数の表面の少なくとも1つを提供する複数の命令をさらに含みうる。   The non-transitory machine-readable medium also uses a plurality of new light sources to re-render the surface mesh and corresponding textures when executed on the device, and output an enhanced image. Can include the following instructions. Multiple instructions for outputting an enhanced image are executed on the device and between multiple cameras, sensors, 2D or 3D printers, 2D or 3D displays, computer graphics systems or computer systems. A plurality of ranked by color intensity in a predetermined standard format, standard depth map format, standard camera output format, standard media codec format, standard computer graphics format, standard 3D depth file format, or standard protocol format. A plurality of instructions for providing at least one of the surfaces of the display;

例3   Example 3

システムが本開示で説明される。システムは、格納された複数の命令を実行するように構成された中央処理ユニットと、中央処理ユニットにより読み取り可能な複数の命令を格納する少なくとも1つのメモリデバイスとを含み、複数の命令は、中央処理ユニットによって実行されたときに、3D画像から深度情報及びテクスチャ情報を抽出し、深度情報から、複数の表面メッシュセクションを有する表面メッシュを生成するように構成される。システムはまた、実行されたときに、複数の表面メッシュセクションに対応する複数のテクスチャセクションをテクスチャ情報から決定し、複数のテクスチャセクションを、それらの各自の色彩強度に関してランク付けし、1または複数の光源の複数の特性を調節、追加、又は除去して、それにより、色彩強度でランク付けされた複数のテクスチャセクションのうちの1または複数の色彩強度を変更し、それにより、向上された画像を生成するように構成された複数の命令を含みうる。   A system is described in this disclosure. The system includes a central processing unit configured to execute a plurality of stored instructions and at least one memory device storing a plurality of instructions readable by the central processing unit, wherein the plurality of instructions are central When executed by the processing unit, it is configured to extract depth information and texture information from the 3D image and generate a surface mesh having a plurality of surface mesh sections from the depth information. When executed, the system also determines a plurality of texture sections corresponding to the plurality of surface mesh sections from the texture information and ranks the plurality of texture sections with respect to their respective color strengths. Adjust, add, or remove multiple characteristics of the light source, thereby changing one or more color intensities of the multiple texture sections ranked by color intensity, thereby improving the image A plurality of instructions configured to generate may be included.

システムはさらに、3D画像及び関連付けられた深度情報及びテクスチャ情報をキャプチャするように構成された少なくとも1つのセンサを含みうる。複数の命令は、さらに、1または複数の光源の位置を決定するように構成される。複数の命令はまた、予め定められた閾値未満及びそれより大きいうちの一方である色彩強度を有する色彩強度でランク付けされた複数のテクスチャセクションの各々に対して、対応する光源ベクトルを決定し、複数の光源ベクトルを共に数学的に結合し、それにより、1または複数の光源の位置を決定するように構成されうる。複数の命令はまた、少なくとも1つの光源の複数の特性を調節して、1または複数の光源のうちの1または複数のものの、ブライトネス、色、色相、彩度、クロマ、明度、色彩強度、及びルミナンスの少なくとも1つを修正するように構成されうる。   The system may further include at least one sensor configured to capture 3D images and associated depth and texture information. The plurality of instructions is further configured to determine a position of the one or more light sources. The instructions also determine a corresponding light source vector for each of the plurality of texture sections ranked by color intensity having a color intensity that is one of less than and greater than a predetermined threshold, A plurality of light source vectors may be mathematically combined together to thereby determine the position of one or more light sources. The instructions also adjust a plurality of characteristics of the at least one light source to provide brightness, color, hue, saturation, chroma, lightness, color intensity, and one or more of the one or more light sources. It can be configured to modify at least one of the luminances.

更に、複数の命令は、1または複数の光源の複数の特性を調節するように構成されてよく、さらに、追加の光源を追加し、存在する複数の光源を除去するように構成される。複数の命令は、複数のカメラ、センサ、2D又は3Dプリンタ、2D又は3Dディスプレイ、コンピュータグラフィックスシステム又はコンピュータシステムの間で、予め定められた標準フォーマット、標準深度マップフォーマット、標準カメラ出力フォーマット、標準媒体コーデックフォーマット、標準コンピュータグラフィックスフォーマット、標準3D深度ファイルフォーマット、又は標準プロトコルフォーマットで、色彩強度でランク付けされた複数の表面を出力するようにさらに構成されうる。   Further, the instructions may be configured to adjust a plurality of characteristics of the one or more light sources, and further configured to add additional light sources and remove existing light sources. Multiple commands include multiple standard cameras, sensors, 2D or 3D printers, 2D or 3D displays, computer graphics systems or computer systems, a standard format, standard depth map format, standard camera output format, standard It may be further configured to output multiple surfaces ranked by color intensity in a media codec format, a standard computer graphics format, a standard 3D depth file format, or a standard protocol format.

複数のフロー図および/または状態図が、複数の実施形態を説明すべく本開示で用いられたが、複数の発明は、それらの図又は対応する本開示の説明に限定されないということは理解されるべきである。例えば、フローは、図示されたそれぞれのボックスまたは状態を経て進行する必要はないし、本明細書で図示および説明されているのと厳密に同じ順序で進行する必要もない。   Although multiple flow diagrams and / or state diagrams have been used in this disclosure to describe multiple embodiments, it is understood that the inventions are not limited to those diagrams or the corresponding description of the disclosure. Should be. For example, the flow need not proceed through each illustrated box or state, nor does it need to proceed in exactly the same order as shown and described herein.

複数の発明は、本開示で挙げられた特定の詳細に限定されない。実際、当業者であれば、前述の説明及び図面から多くの他のバリエーションが、本願発明の範囲内で行われうることは理解するであろう。従って、複数の本発明の範囲を定義するものは、いかなる変更をも含む以下の特許請求である。   The inventions are not limited to the specific details listed in this disclosure. Indeed, those skilled in the art will appreciate that many other variations may be made within the scope of the present invention from the foregoing description and drawings. Accordingly, what defines the scope of the invention is the following claims, including any modifications.

Claims (28)

3D画像に関連付けられた深度情報及びテクスチャ情報を有する前記3D画像を向上させる装置であって、
少なくとも部分的に前記深度情報に依存して、複数の表面メッシュセクションを有する3Dメッシュを生成する手段と、
少なくとも部分的に前記テクスチャ情報に依存して、前記複数の表面メッシュセクションに対応する複数のテクスチャセクションを決定する手段と、
少なくとも部分的に前記複数のテクスチャセクションの色彩強度に依存して、前記複数のテクスチャセクションおよび対応する複数の表面メッシュセクションをランク付けする手段と、
前記色彩強度でランク付けされた複数のテクスチャセクションのうちの1または複数についての前記色彩強度を変更して、それにより向上された画像を生成すべく、1または複数の光源の複数の特性を調節する手段と、
前記1または複数の光源の位置を決定する手段と
を備え、
前記1または複数の光源の前記位置を決定する手段は、少なくとも部分的に複数の画像テクスチャの前記ランク付けされた色彩強度および対応する複数の表面メッシュ法線ベクトルに依存して、1または複数の光源ベクトルを用いる前記3D画像における複数の光源の前記位置を決定することを含む、装置。
An apparatus for enhancing the 3D image having depth information and texture information associated with the 3D image, comprising:
Means for generating a 3D mesh having a plurality of surface mesh sections, depending at least in part on the depth information;
Means for determining a plurality of texture sections corresponding to the plurality of surface mesh sections, depending at least in part on the texture information;
Means for ranking the plurality of texture sections and the corresponding plurality of surface mesh sections, depending at least in part on the color intensity of the plurality of texture sections;
Adjust multiple characteristics of one or more light sources to alter the color intensity for one or more of the texture sections ranked by the color intensity, thereby producing an improved image Means to
E Bei the <br/> and means for determining the position of the one or more light sources,
The means for determining the position of the one or more light sources depends on the ranked color intensity of the plurality of image textures and the corresponding plurality of surface mesh normal vectors, Determining the position of a plurality of light sources in the 3D image using a light source vector .
前記1または複数の光源は、キャプチャ後の前記3D画像に加えられる
請求項1に記載の装置。
The apparatus of claim 1, wherein the one or more light sources are added to the captured 3D image.
前記1または複数の光源は、キャプチャされるときの3D画像内にある
請求項1または2に記載の装置。
The apparatus according to claim 1 or 2 , wherein the one or more light sources are in a 3D image when captured.
前記1または複数の光源ベクトルを決定する手段は、色彩強度でランク付けされた複数のテクスチャセクションの各々について、対応する光源ベクトルを決定し、前記光源ベクトルのセットを共に数学的に結合することを含む
請求項1から3のいずれか1項に記載の装置。
The means for determining the one or more light source vectors includes determining a corresponding light source vector for each of the plurality of texture sections ranked by color intensity and mathematically combining the set of light source vectors together. An apparatus according to any one of claims 1 to 3 .
前記色彩強度でランク付けされた複数のテクスチャセクションの前記色彩強度は、予め定められた閾値より小さいおよびより大きいの一方である色彩強度を有する複数のテクスチャセクションを含む
請求項に記載の装置。
The apparatus of claim 4 , wherein the color intensity of the plurality of texture sections ranked by color intensity includes a plurality of texture sections having a color intensity that is one of less than and greater than a predetermined threshold.
前記1または複数の光源ベクトルを決定する手段は、ビューベクトルと、1または複数の前記色彩強度でランク付けされたテクスチャセクションおよび表面メッシュセクションの各々に対して垂直なベクトルと、前記対応する複数の表面ベクトルとの間のほぼ真ん中である中間ベクトルを決定することを含む
請求項1から5のいずれか1項に記載の装置。
The means for determining the one or more light source vectors includes a view vector, a vector perpendicular to each of the one or more texture intensity and surface mesh sections ranked by the color intensity, and the corresponding plurality of 6. The apparatus according to any one of claims 1 to 5, comprising determining an intermediate vector that is approximately in the middle between the surface vectors.
前記1または複数の光源の前記複数の特性を調節する手段は、前記少なくとも1つの光源のうちの1または複数についてのブライトネス、色、色相、彩度、クロマ、明度、色彩強度、ルミナンスのうちの少なくとも1つを変更することを含む
請求項1からのいずれか1項に記載の装置。
Means for adjusting said plurality of characteristics of the one or more light sources, wherein at least one of brightness for one or more of the light source, color, hue, saturation, chroma, lightness, color intensity, of the luminance 7. The apparatus according to any one of claims 1 to 6 , comprising changing at least one.
前記1または複数の光源の前記複数の特性を調節する手段は、少なくとも1つの光源の追加および除去のうちの一方を含む
請求項1から7のいずれか1項に記載の装置。
It means for adjusting said plurality of characteristics of the one or more light sources, according to any one of claims 1 7 comprising one of addition and removal of the at least one light source.
複数の新たな光源を用いて、前記表面メッシュと対応する複数のテクスチャとを再レンダリングして、結果の前記画像を出力する手段をさらに備える
請求項1からのいずれか1項に記載の装置。
The apparatus according to any one of claims 1 to 8 , further comprising means for re-rendering the surface mesh and a plurality of corresponding textures using a plurality of new light sources and outputting the resulting image. .
前記表面メッシュおよび対応する複数のテクスチャを再レンダリングして、結果の前記画像を出力することは、予め定められた標準フォーマット、標準深度マップフォーマット、又は標準カメラ出力フォーマットにおける前記色彩強度でランク付けされた複数の表面の少なくとも1つを提供することを含む
請求項に記載の装置。
Re-rendering the surface mesh and corresponding textures and outputting the resulting image is ranked by the color intensity in a predetermined standard format, standard depth map format, or standard camera output format. 10. The apparatus of claim 9 , further comprising providing at least one of the plurality of surfaces.
前記少なくとも1つの光源の前記複数の特性を調節する手段は、向上された前記画像のレンダリングの前に又は併せて実行される
請求項1から10のいずれか1項に記載の装置。
11. The apparatus according to any one of claims 1 to 10 , wherein the means for adjusting the plurality of characteristics of the at least one light source is performed prior to or in conjunction with the enhanced rendering of the image.
前記装置は、プリントデバイスである
請求項1から11のいずれか1項に記載の装置。
The apparatus according to any one of claims 1 to 11 which is a printing device.
前記装置は、イメージキャプチャメカニズムである
請求項1から11のいずれか1項に記載の装置。
The apparatus according to any one of claims 1 to 11 is an image capture mechanism.
複数の命令を有するプログラムであって、前記複数の命令は、デバイス上で実行されることに応じて、前記デバイスに、
3D画像に関連付けられた深度情報及びテクスチャ情報を抽出する段階と、
複数の表面メッシュセクションを有する表面メッシュを前記深度情報から生成する段階と、
前記複数の表面メッシュセクションに対応する複数のテクスチャセクションを、前記テクスチャ情報から決定する段階と、
前記複数のテクスチャセクションおよび対応する複数の表面メッシュセクションを、それらの各自の色彩強度に関してランク付けする段階と、
1または複数の光源の複数の特性を調節して、それにより前記色彩強度でランク付けされた複数のテクスチャセクションのうちの1または複数についての前記色彩強度を変更して、向上された画像を生成する段階と
前記1または複数の光源の位置を決定する段階と、
を実行させ、
前記1または複数の光源の位置を決定するための前記複数の命令は、前記デバイス上で実行されることに応じて、前記デバイスに、
少なくとも部分的に複数の画像テクスチャの前記ランク付けされた色彩強度および対応する複数の表面メッシュ法線ベクトルに依存して、1または複数の光源ベクトルを用いる前記3D画像における複数の光源の前記位置を決定する段階を実行させる複数の命令をさらに含む、プログラム。
A program having a plurality of instructions, wherein the plurality of instructions are executed on the device in response to being executed on the device.
Extracting depth information and texture information associated with the 3D image;
Generating a surface mesh having a plurality of surface mesh sections from the depth information;
Determining a plurality of texture sections corresponding to the plurality of surface mesh sections from the texture information;
Ranking the plurality of texture sections and corresponding plurality of surface mesh sections with respect to their respective color strengths;
Adjust multiple characteristics of one or more light sources, thereby changing the color intensity for one or more of the plurality of texture sections ranked by the color intensity to generate an improved image the method comprising,
Determining the position of the one or more light sources;
Was executed,
The plurality of instructions for determining the position of the one or more light sources is executed on the device in response to being executed on the device,
Depending on the ranked color intensity of the plurality of image textures and the corresponding plurality of surface mesh normal vectors at least in part, the position of the plurality of light sources in the 3D image using one or more light source vectors. A program further comprising a plurality of instructions that cause the determining step to be executed .
前記1または複数の光源の前記複数の特性を調節するための前記複数の命令は、前記3D画像に対して1または複数の光源を追加又は除去するための複数の命令を含む
請求項14に記載のプログラム。
Wherein one or more of said plurality of instructions for adjusting the plurality of characteristics of the light source, in claim 14 including a plurality of instructions for adding or removing one or more light sources with respect to the 3D image The listed program.
前記1または複数の光源の前記複数の特性を調節、追加、又は除去するための前記複数の命令は、キャプチャされたときの前記3D画像に存在する1または複数の光源の前記複数の特性を調節、追加、又は除去するための複数の命令を含む
請求項14または15に記載のプログラム。
Adjusting said plurality of characteristics of the one or more light sources, additional, or wherein the plurality of instructions for removing, said plurality of characteristics of one or more light sources present in the 3D image when captured The program according to claim 14 or 15 , comprising a plurality of instructions for adjusting, adding or removing.
前記1または複数の光源の位置を決定するための前記複数の命令は、前記デバイス上で実行されることに応じて、前記デバイスに、
色彩強度でランク付けされた複数のテクスチャセクションの各々について、対応する複数の表面メッシュセクションのための対応する光源ベクトルを決定する段階と、
複数の前記光源ベクトルのセットを数学的に結合する段階とを実行させる複数の命令をさらに含む
請求項14から16のいずれか1項に記載のプログラム。
The plurality of instructions for determining the position of the one or more light sources is executed on the device in response to being executed on the device,
Determining, for each of a plurality of texture sections ranked by color intensity, a corresponding light source vector for a corresponding plurality of surface mesh sections;
The program according to any one of claims 14 to 16, further comprising: a plurality of instructions for executing a step of mathematically combining the plurality of sets of light source vectors.
前記色彩強度でランク付けされた複数のテクスチャセクションは、予め定められた閾値より小さいおよびより大きいのうちの一方である色彩強度を有する複数のテクスチャセクションを含む
請求項17に記載のプログラム。
The program of claim 17 , wherein the plurality of texture sections ranked by color intensity includes a plurality of texture sections having a color intensity that is one of less than and greater than a predetermined threshold.
前記1または複数の光源の前記複数の特性を調節、追加、又は除去するための前記複数の命令は、前記デバイス上で実行されるときに、前記デバイスに、前記少なくとも1つの光源のうちの1または複数についてのブライトネス、色、色相、彩度、クロマ、明度、色彩強度、ルミナンスのうちの少なくとも1つを変更する段階を実行させる複数の命令をさらに含む
請求項14から18のいずれか1項に記載のプログラム。
Adjusting said plurality of characteristics of the one or more light sources, additional, or wherein the plurality of instructions for removing, when executed on the device, the device, of the at least one light source 1 or brightness for multiple, color, hue, saturation, either chroma, brightness, color intensity, claims 14, further comprising a plurality of instructions for executing the steps of changing at least one of luminance 18 1 The program described in the section.
前記1または複数の光源の前記複数の特性を調節するための前記複数の命令は、前記デバイス上で実行されるときに、前記デバイスに、少なくとも1つの光源を追加又は除去する段階を実行させる複数の命令をさらに含む
請求項14から19のいずれか1項に記載のプログラム。
The instructions for adjusting the plurality of characteristics of the one or more light sources, when executed on the device, cause the device to perform the steps of adding or removing at least one light source. The program according to any one of claims 14 to 19 , further comprising:
前記デバイス上で実行されるときに、前記デバイスに、新たな光源を用いて、前記表面メッシュおよび対応する複数のテクスチャを再レンダリングして、向上された前記画像を出力する段階を実行させる複数の命令をさらに含む
請求項14から20のいずれか1項に記載のプログラム。
When executed on the device, the device causes the device to perform a step of re-rendering the surface mesh and corresponding textures using a new light source to output the enhanced image. The program according to any one of claims 14 to 20 , further comprising an instruction.
向上された前記画像を出力するための前記複数の命令は、前記デバイス上で実行されるときに、前記デバイスに、複数のカメラ、複数のセンサ、複数の2D又は3Dプリンタ、複数の2D又は3Dディスプレイ、複数のコンピュータグラフィックスシステム、又は複数のコンピュータシステム間での、予め定められた標準フォーマット、標準深度マップフォーマット、標準カメラ出力フォーマット、標準媒体コーデックフォーマット、標準コンピュータグラフィックスフォーマット、標準3D深度ファイルフォーマット、又は標準プロトコルフォーマットにおける前記色彩強度でランク付けされた複数の表面のうちの少なくとも1つをさらに提供する段階を実行させる複数の命令をさらに含む
請求項21に記載のプログラム。
When executed on the device, the plurality of instructions for outputting the enhanced image includes a plurality of cameras, a plurality of sensors, a plurality of 2D or 3D printers, a plurality of 2D or 3D, Predefined standard formats, standard depth map formats, standard camera output formats, standard media codec formats, standard computer graphics formats, standard 3D depth files between displays, multiple computer graphics systems, or multiple computer systems The program according to claim 21 , further comprising: a plurality of instructions for executing a step of further providing at least one of a plurality of surfaces ranked by color intensity in a format or standard protocol format.
格納された複数の命令を実行する中央処理ユニットと、前記中央処理ユニットによって読み取り可能な複数の命令を格納する少なくとも1つのメモリデバイスとを備えるシステムであって、
前記複数の命令は、前記中央処理ユニットによって実行されるときに、
深度情報及びテクスチャ情報を3D画像から抽出する段階と、
複数の表面メッシュセクションを有する表面メッシュを前記深度情報から生成する段階と、
前記複数の表面メッシュセクションに対応する複数のテクスチャセクションを、前記テクスチャ情報から決定する段階と、
前記複数のテクスチャセクションを、それらの各自の色彩強度に関してランク付けする段階と、
1または複数の光源の特性を調節、追加、又は除去し、それにより、前記色彩強度でランク付けされた複数のテクスチャセクションのうちの前記1または複数についての前記色彩強度を変更して、それにより、向上された画像を生成する段階と
前記1または複数の光源の位置を決定する段階と、
を実行するように構成され、
前記複数の命令は、
少なくとも部分的に複数の画像テクスチャの前記ランク付けされた色彩強度および対応する複数の表面メッシュ法線ベクトルに依存して、1または複数の光源ベクトルを用いる前記3D画像における複数の光源の前記位置を決定する段階を実行させるようにさらに構成される、システム。
A system comprising a central processing unit for executing a plurality of stored instructions and at least one memory device for storing a plurality of instructions readable by the central processing unit,
When the plurality of instructions are executed by the central processing unit,
Extracting depth information and texture information from the 3D image;
Generating a surface mesh having a plurality of surface mesh sections from the depth information;
Determining a plurality of texture sections corresponding to the plurality of surface mesh sections from the texture information;
Ranking the plurality of texture sections with respect to their respective color strengths;
Adjusting, adding, or removing characteristics of one or more light sources, thereby changing the color intensity for the one or more of the plurality of texture sections ranked by the color intensity, thereby and generating an enhanced image,
Determining the position of the one or more light sources;
It is configured to run,
The plurality of instructions are:
Depending on the ranked color intensity of the plurality of image textures and the corresponding plurality of surface mesh normal vectors at least in part, the position of the plurality of light sources in the 3D image using one or more light source vectors. A system further configured to cause the determining step to be performed .
前記システムは、3D画像と、関連付けられた前記深度情報及びテクスチャ情報とをキャプチャする少なくとも1つのセンサをさらに備える
請求項23に記載のシステム。
24. The system of claim 23 , further comprising at least one sensor that captures a 3D image and the associated depth and texture information.
前記複数の命令は、
予め定められた閾値より小さいおよびより大きいのうちの一方である色彩強度を有する色彩強度でランク付けされた複数のテクスチャセクションの各々について、対応する光源ベクトルを決定する段階と、
複数の前記光源ベクトルを数学的に共に結合し、それにより前記光源の各々の位置を決定する段階とを実行するようにさらに構成される
請求項23または24に記載のシステム。
The plurality of instructions are:
Determining a corresponding light source vector for each of a plurality of texture sections ranked by color intensity having a color intensity that is one of less than and greater than a predetermined threshold;
25. The system of claim 23 or 24 , further configured to mathematically combine a plurality of the light source vectors together to thereby determine the position of each of the light sources.
前記1または複数の光源の複数の前記特性を調節するように構成された前記複数の命令は、前記1または複数の光源のブライトネス、色、色相、彩度、クロマ、明度、色彩強度、ルミナンスのうちの少なくとも1つを修正する
請求項23から25のいずれか1項に記載のシステム。
The one or more light sources wherein the plurality of instructions configured to adjust a plurality of said characteristics of said one or more light sources of brightness, color, hue, saturation, chroma, lightness, color intensity, luminance The system according to any one of claims 23 to 25 , wherein at least one of them is modified.
前記1または複数の光源の複数の前記特性を調節するように構成された前記複数の命令は、追加の複数の光源を追加し、存在する複数の光源を除去するようにさらに構成される
請求項23から26のいずれか1項に記載のシステム。
The plurality of instructions configured to adjust a plurality of the characteristics of the one or more light sources is further configured to add additional light sources and remove existing light sources. 27. The system according to any one of 23 to 26 .
前記複数の命令は、複数のカメラ、複数のセンサ、複数の2D又は3Dプリンタ、複数の2D又は3Dディスプレイ、複数のコンピュータグラフィックスシステム、又は複数のコンピュータシステム間での、予め定められた標準フォーマット、標準深度マップフォーマット、標準カメラ出力フォーマット、標準媒体コーデックフォーマット、標準コンピュータグラフィックスフォーマット、標準3D深度ファイルフォーマット、又は標準プロトコルフォーマットにおいて、前記色彩強度でランク付けされた複数の表面を出力するようにさらに構成される
請求項23から27のいずれか1項に記載のシステム。
The plurality of instructions may be a predetermined standard format between a plurality of cameras, a plurality of sensors, a plurality of 2D or 3D printers, a plurality of 2D or 3D displays, a plurality of computer graphics systems, or a plurality of computer systems. Output a plurality of surfaces ranked by the color intensity in a standard depth map format, standard camera output format, standard media codec format, standard computer graphics format, standard 3D depth file format, or standard protocol format. The system according to any one of claims 23 to 27 , further configured.
JP2015549599A 2012-12-26 2013-12-18 Apparatus, program and system for improving 3D images Active JP6009099B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/727,504 US9536345B2 (en) 2012-12-26 2012-12-26 Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
US13/727,504 2012-12-26
PCT/US2013/075930 WO2014105542A1 (en) 2012-12-26 2013-12-18 Apparatus for enhancement of 3-d images using depth mapping and light source synthesis

Publications (2)

Publication Number Publication Date
JP2016505968A JP2016505968A (en) 2016-02-25
JP6009099B2 true JP6009099B2 (en) 2016-10-19

Family

ID=50974107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015549599A Active JP6009099B2 (en) 2012-12-26 2013-12-18 Apparatus, program and system for improving 3D images

Country Status (6)

Country Link
US (1) US9536345B2 (en)
EP (1) EP2939216B1 (en)
JP (1) JP6009099B2 (en)
KR (1) KR101713463B1 (en)
CN (1) CN105051792B (en)
WO (1) WO2014105542A1 (en)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9536345B2 (en) 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
US9880623B2 (en) 2013-01-24 2018-01-30 Immersion Corporation Friction modulation for three dimensional relief in a haptic device
US9643362B2 (en) * 2013-03-15 2017-05-09 Microsoft Technology Licensing, Llc Full color three-dimensional object fabrication
US9965893B2 (en) * 2013-06-25 2018-05-08 Google Llc. Curvature-driven normal interpolation for shading applications
US20150042757A1 (en) * 2013-08-09 2015-02-12 Makerbot Industries, Llc Laser scanning systems and methods
GB2518019B (en) * 2013-12-13 2015-07-22 Aveva Solutions Ltd Image rendering of laser scan data
US9734264B2 (en) * 2014-05-05 2017-08-15 Microsoft Technology Licensing, Llc Fabricating three-dimensional objects with embossing
JP6424020B2 (en) * 2014-06-09 2018-11-14 株式会社キーエンス Image inspection apparatus, image inspection method, image inspection program, computer-readable recording medium, and recorded apparatus
US10169909B2 (en) * 2014-08-07 2019-01-01 Pixar Generating a volumetric projection for an object
KR102441437B1 (en) * 2014-09-03 2022-09-08 네버마인드 캐피탈 엘엘씨 Methods and apparatus for capturing, streaming and/or playing back content
JP6442209B2 (en) * 2014-09-26 2018-12-19 キヤノン株式会社 Image processing apparatus and control method thereof
GB201419438D0 (en) * 2014-10-31 2014-12-17 Microsoft Corp Modifying video call data
US9710699B2 (en) * 2014-10-31 2017-07-18 Irvine Sensors Corp. Three dimensional recognition from unscripted sources technology (TRUST)
JP2018507650A (en) * 2015-03-01 2018-03-15 ネクストブイアール・インコーポレイテッド Method and apparatus for supporting content generation, transmission, and / or playback
US10368104B1 (en) * 2015-04-01 2019-07-30 Rockwell Collins, Inc. Systems and methods for transmission of synchronized physical and visible images for three dimensional display
US10311634B2 (en) * 2015-07-21 2019-06-04 IAM Robotics, LLC Three dimensional scanning and data extraction systems and processes for supply chain piece automation
US20170057170A1 (en) * 2015-08-28 2017-03-02 Intel IP Corporation Facilitating intelligent calibration and efficeint performance of three-dimensional printers
US10657724B2 (en) * 2015-12-21 2020-05-19 Thomson Licensing Key lights direction detection
KR102508426B1 (en) 2016-01-29 2023-03-09 삼성전자주식회사 Sensor capable of detecting stiffness, mobile apparatus having the same, and 3D printer using the same
CN109690634A (en) * 2016-09-23 2019-04-26 苹果公司 Augmented reality display
KR101892741B1 (en) 2016-11-09 2018-10-05 한국전자통신연구원 Apparatus and method for reducing nosie of the sparse depth map
TWI603287B (en) * 2016-11-11 2017-10-21 財團法人工業技術研究院 Image synthesis method of a virtual object and the apparatus thereof
KR101863648B1 (en) * 2017-01-11 2018-06-04 대양의료기(주) Apparatus and method for diagnosticating scoliosis
US11665308B2 (en) 2017-01-31 2023-05-30 Tetavi, Ltd. System and method for rendering free viewpoint video for sport applications
EP3607353B1 (en) * 2017-04-05 2023-03-01 Telefonaktiebolaget LM Ericsson (PUBL) Illuminating an environment for localisation
KR102333101B1 (en) * 2017-06-21 2021-12-01 삼성전자주식회사 Electronic device for providing property information of external light source for interest object
KR101825063B1 (en) * 2017-10-30 2018-02-02 주식회사 셀빅 The hardware system for inputting 3D image in a flat panel
US10643398B2 (en) * 2018-07-23 2020-05-05 Microsoft Technology Licensing, Llc Depth ray layer for reduced visual noise
US10735665B2 (en) 2018-10-30 2020-08-04 Dell Products, Lp Method and system for head mounted display infrared emitter brightness optimization based on image saturation
JP7239362B2 (en) * 2019-03-20 2023-03-14 ソニー・オリンパスメディカルソリューションズ株式会社 Medical image processing device and medical observation system
EP3798679B1 (en) * 2019-09-30 2023-06-21 STMicroelectronics (Research & Development) Limited Laser safety verification
JP7490457B2 (en) 2020-06-09 2024-05-27 キヤノン株式会社 Processing device, processing system, imaging device, processing method, and program
US11615586B2 (en) * 2020-11-06 2023-03-28 Adobe Inc. Modifying light sources within three-dimensional environments by utilizing control models based on three-dimensional interaction primitives
US11423607B2 (en) 2020-11-20 2022-08-23 Adobe Inc. Generating enriched light sources utilizing surface-centric representations
US11551409B2 (en) 2020-12-01 2023-01-10 Institut Mines Telecom Rendering portions of a three-dimensional environment with different sampling rates utilizing a user-defined focus frame
CN113126944B (en) * 2021-05-17 2021-11-09 北京的卢深视科技有限公司 Depth map display method, display device, electronic device, and storage medium
TWI777801B (en) * 2021-10-04 2022-09-11 邦鼎科技有限公司 Augmented reality display method
EP4220074A1 (en) * 2022-01-28 2023-08-02 Koninklijke Philips N.V. Determining a parameter map for a region of a subject's body
KR102402643B1 (en) * 2022-03-21 2022-05-26 주식회사 인포인 3D color modeling optimization processing system
WO2023191795A1 (en) * 2022-03-31 2023-10-05 Magic Leap, Inc. Localized dimming at wearable optical system

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04361386A (en) 1991-06-07 1992-12-14 Nippon Telegr & Teleph Corp <Ntt> Highlight area extraction device of color image
JP3499608B2 (en) 1994-09-22 2004-02-23 松下電器産業株式会社 Input coordinate judgment device
JP3397938B2 (en) * 1995-06-21 2003-04-21 日立金属株式会社 Magnet roll
US6252976B1 (en) * 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
US6636627B1 (en) * 1999-07-12 2003-10-21 Fuji Photo Film Co., Light source direction estimating method and apparatus
US6654013B1 (en) * 2000-03-17 2003-11-25 Hewlett-Packard Development Company, Lp. Apparatus for and method of enhancing shape perception with parametric texture maps
US6677942B1 (en) * 2000-08-01 2004-01-13 International Business Machines Corporation Method and apparatus for acquiring normals maps consistent with low spatial resolution meshes
US6728401B1 (en) * 2000-08-17 2004-04-27 Viewahead Technology Red-eye removal using color image processing
US6859565B2 (en) * 2001-04-11 2005-02-22 Hewlett-Packard Development Company, L.P. Method and apparatus for the removal of flash artifacts
US8300234B2 (en) * 2009-06-24 2012-10-30 University Of Southern California Estimating spectral distribution of reflections from object surface based on low frequency illumination
JP3984191B2 (en) 2002-07-08 2007-10-03 株式会社東芝 Virtual makeup apparatus and method
JP3901644B2 (en) * 2003-01-30 2007-04-04 株式会社東芝 Texture image compression apparatus and method, texture image extraction apparatus and method, data structure, and storage medium
US7091973B1 (en) * 2003-06-20 2006-08-15 Jonathan Michael Cohen Apparatus and method for estimating reflected radiance under complex distant illumination
JP2005051739A (en) * 2003-07-16 2005-02-24 Ricoh Co Ltd Image processing apparatus, image processing method, image processing program using the image processing method and recording medium with the image processing program stored thereon
US7042452B1 (en) * 2003-10-02 2006-05-09 Sun Microsystems, Inc. Triangle coverage estimation and edge-correct tessellation
JP4072108B2 (en) * 2003-10-07 2008-04-09 オリンパス株式会社 Image display device and image display method
US7696995B2 (en) * 2004-05-07 2010-04-13 Valve Corporation System and method for displaying the effects of light illumination on a surface
US20050254720A1 (en) 2004-05-17 2005-11-17 Kar-Han Tan Enhanced surgical visualizations with multi-flash imaging
US20060244757A1 (en) * 2004-07-26 2006-11-02 The Board Of Trustees Of The University Of Illinois Methods and systems for image modification
KR100624457B1 (en) 2005-01-08 2006-09-19 삼성전자주식회사 Depth-image based modeling method and apparatus
JP2007004318A (en) 2005-06-22 2007-01-11 Sega Corp Image processing method, program for executing image processing and storage medium with its program stored
US8164594B2 (en) 2006-05-23 2012-04-24 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
WO2007142649A1 (en) * 2006-06-09 2007-12-13 Thomson Licensing Method and system for color correction using three-dimensional information
US8320702B2 (en) * 2006-09-28 2012-11-27 Jadak Technologies, Inc. System and method for reducing specular reflection
US8090222B1 (en) * 2006-11-15 2012-01-03 Google Inc. Selection of an image or images most representative of a set of images
JP2009098925A (en) * 2007-10-17 2009-05-07 Sony Corp Image processor, image processing method, and program
US8094964B2 (en) * 2007-10-26 2012-01-10 Adobe Systems Incorporated Methods and systems for estimating illumination source characteristics from a single image
US20090322795A1 (en) * 2008-06-30 2009-12-31 Maximino Vasquez Method and apparatus for reducing power consumption for displays
JP4469021B2 (en) * 2008-07-08 2010-05-26 パナソニック株式会社 Image processing method, image processing apparatus, image processing program, image composition method, and image composition apparatus
US8368693B2 (en) * 2008-08-20 2013-02-05 Take Two Interactive Software, Inc. Systems and methods for fast real-time rendering of multiple light sources
WO2010026983A1 (en) * 2008-09-03 2010-03-11 日本電気株式会社 Image processing device, image processing method, and image processing program
US8497871B2 (en) * 2008-10-21 2013-07-30 Zulch Laboratories, Inc. Color generation using multiple illuminant types
US8823934B2 (en) * 2009-03-27 2014-09-02 Brightex Bio-Photonics Llc Methods and systems for imaging and modeling skin using polarized lighting
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
WO2012073414A1 (en) * 2010-11-30 2012-06-07 パナソニック株式会社 Image processing device
US20120213436A1 (en) 2011-02-18 2012-08-23 Hexagon Technology Center Gmbh Fast Image Enhancement and Three-Dimensional Depth Calculation
US9007435B2 (en) 2011-05-17 2015-04-14 Himax Technologies Limited Real-time depth-aware image enhancement system
KR101849696B1 (en) * 2011-07-19 2018-04-17 삼성전자주식회사 Method and apparatus for obtaining informaiton of lighting and material in image modeling system
US8934722B2 (en) * 2011-09-19 2015-01-13 Given Imaging Ltd. System and method for classification of image data items based on indirect user input
US8559753B2 (en) * 2011-09-23 2013-10-15 The Boeing Company Reflection removal system
US9060110B2 (en) * 2011-10-07 2015-06-16 Canon Kabushiki Kaisha Image capture with tunable polarization and tunable spectral sensitivity
CN102523473B (en) * 2011-12-01 2016-08-31 南京中兴软件有限责任公司 A kind of three-dimensional interface display device, method and terminal
US8436853B1 (en) * 2012-07-20 2013-05-07 Google Inc. Methods and systems for acquiring and ranking image sets
US9479677B2 (en) 2012-09-05 2016-10-25 Intel Corproation Protocol for communications between platforms and image devices
US20140092439A1 (en) 2012-09-28 2014-04-03 Scott A. Krig Encoding images using a 3d mesh of polygons and corresponding textures
US9536345B2 (en) 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis

Also Published As

Publication number Publication date
KR20150079768A (en) 2015-07-08
JP2016505968A (en) 2016-02-25
EP2939216A4 (en) 2016-08-10
EP2939216A1 (en) 2015-11-04
EP2939216B1 (en) 2018-01-31
WO2014105542A1 (en) 2014-07-03
US9536345B2 (en) 2017-01-03
CN105051792A (en) 2015-11-11
KR101713463B1 (en) 2017-03-07
CN105051792B (en) 2019-02-22
US20140176535A1 (en) 2014-06-26

Similar Documents

Publication Publication Date Title
JP6009099B2 (en) Apparatus, program and system for improving 3D images
KR101685866B1 (en) Variable resolution depth representation
US20200051269A1 (en) Hybrid depth sensing pipeline
US20140092439A1 (en) Encoding images using a 3d mesh of polygons and corresponding textures
CN109660782B (en) Reducing textured IR patterns in stereoscopic depth sensor imaging
US9661298B2 (en) Depth image enhancement for hardware generated depth images
TWI557683B (en) Mipmap compression
US20140347363A1 (en) Localized Graphics Processing Based on User Interest
US9600864B2 (en) Skin tone tuned image enhancement
KR20190082080A (en) Multi-camera processor with feature matching
EP2702562A2 (en) Depth buffer compression for stochastic motion blur rasterization
JP6745020B2 (en) Method, computer program, computer-readable recording medium and device
TW201428683A (en) Method, apparatus and system for recording the results of visibility tests at the input geometry object granularity
CN108665510B (en) Rendering method and device of continuous shooting image, storage medium and terminal
US20140267617A1 (en) Adaptive depth sensing
US20190043154A1 (en) Concentration based adaptive graphics quality
US20150077575A1 (en) Virtual camera module for hybrid depth vision controls
US9262841B2 (en) Front to back compositing
US20130318458A1 (en) Modifying Chrome Based on Ambient Conditions
US9344608B2 (en) Systems, methods, and computer program products for high depth of field imaging
CN117582661A (en) Virtual model rendering method, device, medium and equipment
CN112383719B (en) Image brightness adjusting method, device and equipment and readable storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160913

R150 Certificate of patent or registration of utility model

Ref document number: 6009099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250