JP2023164990A - Event-based vision sensor manufactured with 3d-ic technology - Google Patents
Event-based vision sensor manufactured with 3d-ic technology Download PDFInfo
- Publication number
- JP2023164990A JP2023164990A JP2023145998A JP2023145998A JP2023164990A JP 2023164990 A JP2023164990 A JP 2023164990A JP 2023145998 A JP2023145998 A JP 2023145998A JP 2023145998 A JP2023145998 A JP 2023145998A JP 2023164990 A JP2023164990 A JP 2023164990A
- Authority
- JP
- Japan
- Prior art keywords
- event
- die
- wafer
- pixel
- vision sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005516 engineering process Methods 0.000 title abstract description 14
- 230000015654 memory Effects 0.000 claims description 30
- 108091008695 photoreceptors Proteins 0.000 claims description 28
- 239000003990 capacitor Substances 0.000 claims description 26
- 239000002184 metal Substances 0.000 claims description 20
- 229910052751 metal Inorganic materials 0.000 claims description 20
- 229910052710 silicon Inorganic materials 0.000 claims description 11
- 239000010703 silicon Substances 0.000 claims description 11
- 230000001419 dependent effect Effects 0.000 claims description 2
- 235000012431 wafers Nutrition 0.000 abstract description 132
- 230000010354 integration Effects 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 29
- 239000010410 layer Substances 0.000 description 16
- 239000010949 copper Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000008901 benefit Effects 0.000 description 10
- 239000004065 semiconductor Substances 0.000 description 10
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 9
- 238000005286 illumination Methods 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 230000005855 radiation Effects 0.000 description 6
- 239000000758 substrate Substances 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000000969 carrier Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000003475 lamination Methods 0.000 description 2
- 150000002739 metals Chemical class 0.000 description 2
- 230000003071 parasitic effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 229910001218 Gallium arsenide Inorganic materials 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012995 silicone-based technology Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/79—Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14634—Assemblies, i.e. Hybrid structures
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14609—Pixel-elements with integrated switching, control, storage or amplification elements
- H01L27/14612—Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
- H01L27/14614—Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor having a special gate structure
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14636—Interconnect structures
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14683—Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
- H01L27/1469—Assemblies, i.e. hybrid integration
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L29/00—Semiconductor devices specially adapted for rectifying, amplifying, oscillating or switching and having potential barriers; Capacitors or resistors having potential barriers, e.g. a PN-junction depletion layer or carrier concentration layer; Details of semiconductor bodies or of electrodes thereof ; Multistep manufacturing processes therefor
- H01L29/40—Electrodes ; Multistep manufacturing processes therefor
- H01L29/41—Electrodes ; Multistep manufacturing processes therefor characterised by their shape, relative sizes or dispositions
- H01L29/423—Electrodes ; Multistep manufacturing processes therefor characterised by their shape, relative sizes or dispositions not carrying the current to be rectified, amplified or switched
- H01L29/42312—Gate electrodes for field effect devices
- H01L29/42316—Gate electrodes for field effect devices for field-effect transistors
- H01L29/4232—Gate electrodes for field effect devices for field-effect transistors with insulated gate
- H01L29/42364—Gate electrodes for field effect devices for field-effect transistors with insulated gate characterised by the insulating layer, e.g. thickness or uniformity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/47—Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/77—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2201/00—Indexing scheme relating to error detection, to error correction, and to monitoring
- G06F2201/86—Event-based monitoring
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/51—Control of the gain
Landscapes
- Engineering & Computer Science (AREA)
- Power Engineering (AREA)
- Physics & Mathematics (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Ceramic Engineering (AREA)
- Solid State Image Pick-Up Elements (AREA)
- Metal-Oxide And Bipolar Metal-Oxide Semiconductor Integrated Circuits (AREA)
- Internal Circuitry In Semiconductor Integrated Circuit Devices (AREA)
- Semiconductor Integrated Circuits (AREA)
Abstract
Description
本出願は、2018年3月14日に出願された米国特許仮出願第62/642,838号の利益を35U.S.C.§119(e)に基づき主張するものであり、該仮出願は、参照により本明細書に組み込まれる。 This application incorporates the benefit of U.S. Provisional Application No. 62/642,838, filed March 14, 2018, under 35 U.S.C. S. C. §119(e), the provisional application being incorporated herein by reference.
イベントベース画素アレイ(ダイナミックビジョンセンサ(DVS:Dynamic Vision Sensor)とも称する)の設計において重要なパラメータの1つに、量子効率(QE:quantum efficiency)がある。量子効率(QE)とは、光信号に対して生成される電子の数と、この光信号の光子の数との比率である。このパラメータは曲線因子(FF:fill-factor)に直接左右される。この曲線因子(FF)は、露光される感光デバイスの面積と、露光される集積回路の全面積との比率である。 One of the important parameters in the design of an event-based pixel array (also referred to as a dynamic vision sensor (DVS)) is quantum efficiency (QE). Quantum efficiency (QE) is the ratio of the number of electrons generated for an optical signal to the number of photons of this optical signal. This parameter depends directly on the fill-factor (FF). The fill factor (FF) is the ratio of the area of the photosensitive device that is exposed to the total area of the integrated circuit that is exposed.
今日において、イベントベースビジョンセンサはシリコン・プレーナ・プロセスを用いて実現されるため、露光されるエリアは感光デバイスと、画素回路を構成する他の半導体デバイスとの間で共有される。この手法には2つの主な欠点がある。1つは、感光デバイスの面積が制限されるということであり、もう1つは、露光する必要のない回路が光にさらされ、これにより回路のパフォーマンスが低下することである。 Today, event-based vision sensors are realized using silicon planar processes, so that the exposed area is shared between the photosensitive device and other semiconductor devices that make up the pixel circuit. This approach has two main drawbacks. One is that the area of the photosensitive device is limited, and the other is that circuitry that does not need to be exposed is exposed to light, which degrades the performance of the circuit.
本発明の主な目的は、イベントベースビジョンセンサの製造において高度な積層技術を用いてこれらの2つの問題を緩和することにある。このような高度な積層技術は3次元集積化(3D-IC:Three-Dimensional Integrated Circuit)技術として知られている。3D-IC技術では、多くのウェーハ(又はダイ)を積層し、これらを垂直に相互接続することができる。 The main objective of the present invention is to alleviate these two problems using advanced lamination techniques in the manufacture of event-based vision sensors. Such advanced stacking technology is known as three-dimensional integrated circuit (3D-IC) technology. 3D-IC technology allows many wafers (or dies) to be stacked and interconnected vertically.
現存の動機として、以下のものがある。 The existing motives include:
FFを増加させること。 Increase FF.
光を受容する必要が無い、又は光を受容するべきではない回路のシールドを行うこと。 Shielding circuits that do not need to or should not receive light.
画素の異なる構成要素には異なる要件を定めること。この要件を満たすためには、これらの構成要素をそれぞれ異なるICプロセスで実現することが最適である(感光デバイスは、理論的には、非シリコンベースの技術、例えばGaAsで製造してもよい)。 Establish different requirements for different components of a pixel. To meet this requirement, it is optimal to realize each of these components in a different IC process (the photosensitive device could theoretically be fabricated in non-silicon-based technologies, e.g. GaAs). .
一般的に、一様態においては、イベントベースビジョンセンサ(EBVS)が垂直に接続された積層ダイを含むことが本発明の特徴とされる。結果として、画素アレイの各画素の感光デバイスを露光されるダイに配置し、光の受容には用いられない他のデバイスを他のウェーハ又はダイに配置することができる。 In general, in one aspect, the invention features that an event-based vision sensor (EBVS) includes vertically connected stacked dies. As a result, the photosensitive device of each pixel of the pixel array can be placed on the die to be exposed, and other devices not used for receiving light can be placed on other wafers or dies.
好ましくは、ダイ間の画素アレイのすべての画素に対して少なくとも1の接続部があればよい。 Preferably, there is at least one connection for every pixel in the inter-die pixel array.
通常、画素アレイの各画素のフォトダイオードは第1のダイにあり、第2のダイの画素アレイの各画素のイベント検出器と、第1のダイと第2のダイ間の相互接続部によってフォトダイオードは各イベント検出器に接続される。 Typically, a photodiode for each pixel in the pixel array is located on a first die, and an event detector for each pixel in the pixel array on a second die and an interconnect between the first and second die. A diode is connected to each event detector.
この手法は、表面照射構造に用いることもできるし、裏面照射構造に用いることもできる。 This technique can be used for both front-illuminated structures and back-illuminated structures.
また、画素アレイの各画素のフォトレセプタ回路を実装するためには多くの異なる方法が存在する。例えば、フォトレセプタ回路は第2のダイ上に位置することもできるし、第1のダイ上に位置することもできるし、第1のダイと第2のダイの間に分布することもできる。 Also, there are many different ways to implement the photoreceptor circuitry for each pixel in the pixel array. For example, the photoreceptor circuit can be located on the second die, it can be located on the first die, or it can be distributed between the first die and the second die.
追加のアンプ段は、第1のダイに追加されてもよい。 Additional amplifier stages may be added to the first die.
多くの場合、n-FETトランジスタは第1のウェーハ又はダイにおいて用いられ、第2のダイではn-FETトランジスタとp-FETトランジスタの両方が用いられる。 Often, n-FET transistors are used in a first wafer or die, and both n-FET and p-FET transistors are used in a second die.
また、第1のダイ上のトランジスタと第2のダイ上のトランジスタのトランジスタ特性は異なっていてもよく、ゲート酸化物の厚さが異なっていてもよいし、又はインプラントが異なっていてもよい。 Also, the transistor characteristics of the transistor on the first die and the transistor on the second die may be different, the gate oxide thickness may be different, or the implant may be different.
概して、一様態においては、イベントベースビジョンセンサの製造方法が本発明の特徴とされる。通常、この方法は、異なるウェーハ又はダイにおいて画素アレイの各画素で異なるデバイスを製造し、その後このウェーハ又はダイを積層することを含む。 In general, in one aspect, the invention features a method of manufacturing an event-based vision sensor. Typically, this method involves manufacturing a different device for each pixel of the pixel array on a different wafer or die, and then stacking the wafers or dies.
本明細書で用いる「ダイ」という用語は、半導体ウェーハの一部を意味し、通常、チップ等の矩形の形状を有する。ここで、この半導体ウェーハの一部は、イベントベースビジョンセンサ等の集積回路デバイスの例の一部を含む。ウェーハ又はダイへの言及は、異なる製造手法の可能性に基づいている。積層は、ダイへのダイシングを行う前に、ウェーハレベルで行ってもよいし、ウェーハからダイを切り出した(ダイシングを行った)後に、個々のダイに対して積層を行ってもよい。結果として、このような製造プロセスによって得られる最終的なデバイスは積層ダイとなる。 As used herein, the term "die" refers to a portion of a semiconductor wafer, typically having a rectangular shape, such as a chip. Here, the portion of the semiconductor wafer includes a portion of an example integrated circuit device, such as an event-based vision sensor. Reference to wafer or die is based on the possibility of different manufacturing techniques. The stacking may be performed at the wafer level before dicing into dies, or the stacking may be performed on individual dies after the dies are cut out from the wafer (dicing is performed). As a result, the final device obtained by such a manufacturing process is a stacked die.
この方法はその後、例えばCu-Cu接合を用いて各画素を接続することを含む。 The method then includes connecting each pixel using, for example, a Cu-Cu junction.
一実施例においては、この方法はさらに、第1のウェーハ又はダイにおける画素アレイの各画素のフォトダイオードを製造し、第2のウェーハ又はダイにおける画素アレイの各画素のイベント検出器を製造することを含む。 In one embodiment, the method further includes fabricating a photodiode for each pixel of the pixel array on the first wafer or die and fabricating an event detector for each pixel of the pixel array on the second wafer or die. including.
構造や部品の組合せに関して多様な新規の細部を含む発明の上記又はその他の特徴及び他の利点は、添付の図面を参照して本明細書において詳細に記載され、特許請求の範囲において指摘される。本発明を実施する特定の方法及びデバイスは、本発明を限定せず、単に例として示されることが理解される。本発明の原理及び特徴は、本発明の範囲から逸脱しない限りにおいて、様々な実施形態において実施され得る。 These and other features and other advantages of the invention, including various novel details as to construction and combinations of parts, will be described in detail in the specification with reference to the accompanying drawings, and pointed out in the claims. . It is understood that the particular methods and devices implementing the invention are not limiting, and are shown by way of example only. The principles and features of the invention may be embodied in various embodiments without departing from the scope of the invention.
添付図面において、異なる図面においても同じ参照符号は同一の部品を示す。図面は必ずしも正確な縮尺で描かれているわけではなく、本発明の原理を示すことに重きが置かれている。 In the accompanying drawings, the same reference numerals indicate the same parts in different drawings. The drawings are not necessarily to scale, emphasis instead being placed upon illustrating the principles of the invention.
以下では、本発明の例示的な実施例を示す添付図面を参照して、本発明について詳しく説明する。しかし、本発明は、様々な異なる形態で実施することができ、本明細書に記載される実施形態に限定されるものとして解釈されるべきではなく、むしろ、これらの実施形態は、本開示が完全かつ完璧なものになり、当業者に本発明の範囲を十分に伝えるように提供される。 The invention will now be described in detail with reference to the accompanying drawings, in which exemplary embodiments of the invention are shown. However, this invention may be embodied in a variety of different forms and should not be construed as limited to the embodiments set forth herein; rather, these embodiments may be embodied in a variety of different forms and should not be construed as limited to the embodiments set forth herein; It is provided that this disclosure will be complete and complete, and will fully convey the scope of the invention to those skilled in the art.
本明細書において用いられる場合、「及び/又は(and/or)」の用語は、関連付けられて列挙された項目のうちの1つ又は複数の任意又はすべての組み合わせを含む。また、単数形及び冠詞の"a"、"an"及び"the"は、特に明確な指示のない限り、複数形態も含むことが意図される。また、「含む」や「有する」(includes、comprises、including、comprising)という用語がこの明細書内で使用される場合、述べられた特徴、整数、ステップ、動作、エレメント、及び/又は構成要素の存在を規定するものの、1つ以上の他の特徴、整数、ステップ、動作、エレメント、構成要素、及び/又はそれらの集合の存在や追加を排除しないということが理解される。また、構成要素又はサブシステムを含むエレメントが他のエレメントと接続又は結合するものとして言及されたり図示されたりする場合、これらはダイレクトに接続又は接合されてもよいし、介在するエレメントが存在してもよいことが理解される。 As used herein, the term "and/or" includes any or all combinations of one or more of the associated listed items. Additionally, the singular forms and articles "a," "an," and "the" are intended to include plural forms unless clearly stated otherwise. Also, when the terms "includes" and "comprises" are used in this specification, they refer to the features, integers, steps, acts, elements, and/or components mentioned. It is understood that defining the existence does not exclude the presence or addition of one or more other features, integers, steps, acts, elements, components, and/or collections thereof. Also, when elements, including components or subsystems, are referred to or illustrated as being connected or coupled to other elements, they may be directly connected or joined or there may be intervening elements. It is understood that it is also good.
特に定義しない場合には、本明細書で用いる(技術用語や科学用語を含む)すべての用語は、本発明が属する分野における当業者によって一般的に理解されている意味と同じ意味を有する。さらに、一般的に使用される辞書で定義されるような用語は、関連技術の文脈におけるそれらの意味と同様の意味を有するものとして解釈されるべきであり、本明細書で明示的に定義されない限り、理想化された又は過度に形式的な意味で解釈されることはないことが理解される。 Unless defined otherwise, all terms (including technical and scientific terms) used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Furthermore, terms as defined in commonly used dictionaries should be construed as having meanings similar to their meaning in the context of the relevant art and are not expressly defined herein. It is understood that the invention is not to be construed in any idealized or overly formal sense.
定義 definition
イベントベース画素アレイ(EBPA:Event-Based Pixel Array)は、感光デバイスを有する画素のアレイ(配列)である。これらの画素は、それぞれ空間的及び/又は時間的に独立しており、受けとった光放射に応じて離散化データを生成する。 An Event-Based Pixel Array (EBPA) is an array of pixels with photosensitive devices. These pixels are each spatially and/or temporally independent and generate discretized data in response to the light radiation they receive.
イベントベースビジョンセンサ(EBVS:Event-based Vision Sensor)は、EBPAから抽出及び/又は構成されたデータを出力するセンサである。 An event-based vision sensor (EBVS) is a sensor that outputs data extracted and/or constructed from an EBPA.
曲線因子(FF:fill-factor)は、画素の面積と画素内にある感光デバイスの面積の比率として定義される。これは、センサの表面に到達したすべての光放射のうちどのくらいの量がセンサによって効率的に受容されているかを示す尺度である。 Fill-factor (FF) is defined as the ratio of the area of a pixel to the area of the photosensitive device within the pixel. This is a measure of how much of the total light radiation reaching the surface of the sensor is efficiently received by the sensor.
量子効率(QE:quantum efficiency)は、感光センサの表面に到達した光子の数と、それに応じて生成され、電気信号に変換される電子の数の比率として定義される。 Quantum efficiency (QE) is defined as the ratio between the number of photons that reach the surface of a photosensitive sensor and the number of electrons that are correspondingly generated and converted into an electrical signal.
3D ICは、3次元集積化(Three-Dimensional Integrated Circuit)の頭字語であり、シリコンウェーハ又はダイを積層し、それらを垂直に相互接続することによって集積回路を製造する技術である。 3D IC is an acronym for Three-Dimensional Integrated Circuit, a technology that manufactures integrated circuits by stacking silicon wafers or dies and vertically interconnecting them.
表面照射(FSI:Front-Side Illumination)はプレーナ・プロセスのレイヤが実装される側であるダイの上部から光が入射するように、集積回路(IC)として実現されるイメージセンサのタイプである。すべてのデバイスと金属配線は、感光デバイスとともに、直接光放射を受容する。 Front-Side Illumination (FSI) is a type of image sensor that is implemented as an integrated circuit (IC) such that light enters from the top of the die, which is the side on which the planar process layers are implemented. All devices and metal interconnects, along with photosensitive devices, receive direct optical radiation.
裏面照射(BSI:Back-Side Illumination)は基板側であるダイの下部から光が入射するように、ICとして実現されるイメージセンサのタイプである。デバイスと金属配線は、直接光放射を受容せず、基板を介してのみ光放射を受容する。 Back-Side Illumination (BSI) is a type of image sensor that is implemented as an IC so that light enters from the bottom of the die, which is the substrate side. The devices and metal interconnects do not receive optical radiation directly, but only through the substrate.
従来技術 Conventional technology
イベントベースビジョンセンサの例は、例えば、PCT/IB2017/058526、US7728269B2、U.S.Pub.No.2018/0191972に記載されている。 Examples of event-based vision sensors include, for example, PCT/IB2017/058526, US7728269B2, U. S. Pub. No. It is described in 2018/0191972.
図1に、本明細書で参考として用いるEBVSのEBPAの画素構造の例を示す。これはPCT/IB2017/058526及びU.S.Pub.No.2018/0191972に基づいており、これらは参照により本明細書に組み込まれる。しかしながら、本発明の主要な概念は、使用される特定の画素構造に依存することなく、ICとして実現される任意のイベントベースビジョンセンサに実質的に適用することができる。 FIG. 1 shows an example of an EBPA pixel structure of EBVS used as a reference in this specification. This is based on PCT/IB2017/058526 and U. S. Pub. No. 2018/0191972, which are incorporated herein by reference. However, the main concepts of the invention can be applied to virtually any event-based vision sensor implemented as an IC, independent of the particular pixel structure used.
画素回路の主要な構成要素を以下に列挙する。 The main components of the pixel circuit are listed below.
1.フォトレセプタモジュール。図に示されるように、画素回路100は、衝突光を測定して光強度を電流Iphotoへ変換するためのフォトダイオードPD又は他のフォトセンサ、光強度に依存するフォトレセプタ信号Vprを生成するためのフォトレセプタ回路PRC、及び過去のフォトレセプタ信号を記憶するためのメモリキャパシタC1を含む。フォトセンサPD及びフォトレセプタ回路PRCは、フォトレセプタモジュールPRを構成する。
1. Photoreceptor module. As shown in the figure, the
2.メモリキャパシタC1:フォトレセプタ信号Vpr、従って、フォトセンサPDによって受光された光に応じた電荷をキャパシタの第1のプレートが帯びるようにフォトレセプタ信号Vprを受け取る。メモリキャパシタC1はイベント検出器EDの一部である。メモリキャパシタC1の第2のプレートは、A1の比較器ノード(反転入力)に接続される。従って、比較器ノードの電圧Vdiffは、フォトレセプタ信号Vprの変化とともに変動する。 2. Memory capacitor C1: receives photoreceptor signal Vpr, and thus receives photoreceptor signal Vpr such that the first plate of the capacitor is charged in accordance with the light received by photosensor PD. Memory capacitor C1 is part of event detector ED. The second plate of memory capacitor C1 is connected to the comparator node (inverting input) of A1. Therefore, the voltage Vdiff at the comparator node varies with changes in the photoreceptor signal Vpr.
3.比較器A1:これは、現在のフォトレセプタ信号Vprと過去のフォトレセプタ信号との間の差を閾値と比較するための手段である。比較器A1はイベント検出器EDの一部である。この比較器A1は、各画素中にあってもよいし、画素のサブセット(例えば、画素列)間で共有されてもよい。好ましい実施形態では、比較器は画素と一体であり、各画素がそれぞれ専用の比較器A1を有する。 3. Comparator A1: This is a means for comparing the difference between the current photoreceptor signal Vpr and the past photoreceptor signal with a threshold value. Comparator A1 is part of event detector ED. This comparator A1 may be in each pixel or may be shared between a subset of pixels (eg, a pixel column). In a preferred embodiment, the comparators are integral to the pixels, with each pixel having its own dedicated comparator A1.
4.メモリ:メモリ50は、コントローラ60からのサンプル信号に基づいて比較器出力を保存する。メモリ50はイベント検出器EDの一部である。メモリは、サンプリング回路(例えば、スイッチおよび寄生または明示的キャパシタ)あるいはデジタルメモリ回路(ラッチまたはフリップフロップ)とすることができる。ある実施形態では、メモリはサンプリング回路であり、各画素が2つのメモリを有する。
4. Memory:
5.条件付きリセット回路R1:リセットのための条件とは、記憶された比較器出力の状態とコントローラ60によって適用されるリセット信号との組み合わせである。条件付きリセット回路R1はイベント検出器EDの一部である。
5. Conditional Reset Circuit R1: The condition for reset is the combination of the stored state of the comparator output and the reset signal applied by
6.周辺回路の構成要素:比較器A1及びメモリ50は、画素中又は(画素回路の外部の)周辺回路中に位置することができる。
6. Peripheral circuit components: Comparator A1 and
周辺回路は、コントローラ60を含み、コントローラ60は、閾値信号を比較器A1に適用し、制御信号をメモリ50へ送り、条件付きリセット回路R1がアクティブになる時間を選択する。
The peripheral circuitry includes a
周辺回路は、読み出し回路も含んでもよい。読み出し回路は、メモリ50のコンテンツを読み取り、所与の画素についての光強度が、増加したか、減少したか、又は変化しなかったかどうかを判定して、(現在のメモリ値から計算された)出力をプロセッサへ送る。
The peripheral circuitry may also include readout circuitry. The readout circuit reads the contents of
さらに詳細には、比較器は、光が増加及び/又は減少したかどうかを伝える。Off事象について:Vdiffが(Vb上の)閾値Voffより低ければ、比較器出力はハイであり、このレベルがメモリに保存される。これは、減少が検出されることを意味する。Vdiffが閾値より低くなければ、比較器出力はローとなる。つまり、減少は検出されない。 More specifically, the comparator tells whether the light has increased and/or decreased. For an Off event: if Vdiff is less than the threshold Voff (above Vb), the comparator output is high and this level is stored in memory. This means that a decrease is detected. If Vdiff is not below the threshold, the comparator output will be low. That is, no decrease is detected.
唯一困難なのは、On事象では、ロー比較器出力が増加を意味し、一方でハイ比較器出力が変化なしを意味するが、Off事象については、ハイ比較器出力が減少を意味し、一方でロー比較器出力が変化なしを意味する点である。 The only difficulty is that for an On event, a low comparator output means an increase, while a high comparator output means no change, but for an Off event, a high comparator output means a decrease, while a low This is the point where the comparator output means no change.
従って、読み出しの際は、メモリコンテンツ、及びどの閾値が適用されたかを認識する必要がある。 Therefore, when reading, it is necessary to be aware of the memory content and which threshold was applied.
画素回路100およびコントローラ60は、以下のように作動する。
フォトセンサPDによって受光される光強度の変化は、フォトレセプタ信号Vprの変化に換算される。リセット回路R1が導通していないときには、比較器A1への反転入力(-)における比較器ノードの電圧VdiffにもVprの変化が反映される。これは、メモリキャパシタC1の両端間の電圧が一定のままであるために発生する。 A change in the light intensity received by the photosensor PD is converted into a change in the photoreceptor signal Vpr. When the reset circuit R1 is not conducting, the change in Vpr is also reflected in the voltage Vdiff at the comparator node at the inverting input (-) to the comparator A1. This occurs because the voltage across memory capacitor C1 remains constant.
コントローラ60によって選択された時刻に、比較器A1は、メモリキャパシタC1の第2の端子における比較器ノードの電圧(Vdiff)を、比較器A1の非反転入力(+)に適用された(コントローラからの)閾値電圧Vbと比較する。
At a time selected by the
コントローラ60は、比較器出力Vcompを保存するためにメモリ50を作動させる。メモリ50は、図示されるように、典型的には画素回路100の一部として実装される。しかしながら、他の実施形態では、メモリ50は列論理回路(周辺回路、画素アレイの各列ごとに1つ)の一部として実装される。
メモリ50に保持された保存比較器出力の状態が光強度の変化を示し、AND、コントローラ60からのグローバルリセット信号であるGlobalReset信号がアクティブであれば、条件付きリセット回路R1は、導通している。ここで「AND」は、論理AND演算子を示す。条件付きリセット回路R1が導電状態にあると、比較器A1の反転入力における比較器ノードの電圧(Vdiff)は、既知のレベルへリセットされる。従って、比較器A1は、現在のフォトレセプタ信号VprをメモリキャパシタC1上に保存する。
If the state of the storage comparator output held in the
現在のところ、このような図1に示す画素のEBPAを有するEBVSは、シングルウェーハ上でシリコン・プレーナ・プロセスを用いた集積回路として製造されている。この技術を用いると、半導体デバイス(例えばMOSトランジスタ、ダイオード、フォトダイオード、ポリシリコンレジスタ等)は単一のレイヤの上にのみ配置され、半導体デバイスを垂直に積層することはできない。 At present, the EBVS having the EBPA of the pixel shown in FIG. 1 is manufactured as an integrated circuit on a single wafer using a silicon planar process. Using this technique, semiconductor devices (eg MOS transistors, diodes, photodiodes, polysilicon resistors, etc.) are placed only on a single layer, and vertical stacking of semiconductor devices is not possible.
このため、画素100のエリアは感光デバイス(例えばPD)と、回路の他の要素との間で共有される必要がある。これに関して、図2Aは表面照射構造を示し、図2Bは裏面照射構造を示し、特に図2Cは平面図を示している。これはつまり、光検出器PDは表面に到達したすべての光を使用することができないことを意味する。この問題はマイクロレンズのレイヤを用いることで軽減することはできても、センサの表面は常に光放射を有用な電気信号に変換せずに吸収する部分を有することとなる。
For this reason, the area of
また、非感光デバイスに到達した光は望まない効果を有する可能性がある。これは、非感光デバイスの特徴のうちのいくつかが、非感光デバイスに衝突する光によって変化する可能性があるためである。例えば、MOSトランジスタはいくつかの半導体pn接合を含む。通常、半導体pn接合は光生成キャリアを捕捉し、これに応じて不必要な信号を生成する。 Also, light reaching non-photosensitive devices can have undesired effects. This is because some of the characteristics of the non-photosensitive device may change due to the light impinging on the non-photosensitive device. For example, a MOS transistor includes several semiconductor pn junctions. Typically, semiconductor pn junctions trap photogenerated carriers and generate unwanted signals in response.
裏面照射(BSI:back-side illumination)と呼ばれるより高度なプロセス技術によると、シリコン基板側であるウェーハ又はダイの裏面を露光させることにより、利用可能エリアの利用向上を行うことができる。このような方法で、画素内の感光デバイスの上方に位置することが可能な配線金属接続の自由度を高めることができる一方、表面照射(FSI:front-side illumination)技術では、感光デバイスは、ウェーハの上部に向かって光に露光されなければならず、そのため、捕捉される光を最大化するためには、感光デバイスの上部に金属を配置することができない。本発明は、シングルウェーハ又はダイ上で実施されるBSI手法及びFSI手法の両方よりも優れている。 A more advanced process technique called back-side illumination (BSI) allows for improved utilization of the available area by exposing the back side of the wafer or die, which is the side of the silicon substrate. In this way, the flexibility of wiring metal connections that can be located above the photosensitive device within the pixel can be increased, while in front-side illumination (FSI) technology, the photosensitive device The light must be exposed toward the top of the wafer, so no metal can be placed on top of the photosensitive device to maximize the captured light. The present invention is superior to both BSI and FSI approaches that are implemented on a single wafer or die.
周知のように、イベントベースビジョンセンサは画素アレイに基づく。この画素は自身に到達した光に応じてデータを生成する。各画素はそれぞれ空間的及び/又は時間的に独立している。 As is well known, event-based vision sensors are based on pixel arrays. The pixels generate data depending on the light that reaches them. Each pixel is spatially and/or temporally independent.
各画素は回路を含む。この回路は、感光部(例えばフォトダイオードPD)と、非感光部(例えばフォトレセプタ回路PRC、キャパシタC1、比較器A1、メモリ50、及びリセット回路R1)に分けられる。非感光部は感光回路に対してバイアスをかけ、光に応じて生成された信号を受け取り、多くの場合、第1の信号調整又は精緻化を行う。このようなタイプの画素の例については(従来技術として)前述した。
Each pixel includes circuitry. This circuit is divided into a photosensitive part (for example, photodiode PD) and a non-photosensitive part (for example, photoreceptor circuit PRC, capacitor C1, comparator A1,
通常、このようなセンサはプレーナ・プロセスに基づきシリコン集積回路(IC)として製造される。これはつまり、画素の感光部と残りの回路が単層の半導体デバイスを用いて実現される必要があることを意味する。この結果、画素のエリアの一部は非感光回路が占めることになり、実質的に画素の曲線因子が低下する(図2A、2B、2C参照)。このため、量子効率も低下する。同様のことが、シングルウェーハ又はダイ上に製造される裏面照射(BSI)ICにも言える。 Typically, such sensors are manufactured as silicon integrated circuits (ICs) based on planar processes. This means that the photosensitive part of the pixel and the rest of the circuitry need to be realized using a single layer semiconductor device. As a result, a portion of the area of the pixel is occupied by non-photosensitive circuitry, which substantially reduces the fill factor of the pixel (see FIGS. 2A, 2B, and 2C). Therefore, the quantum efficiency also decreases. The same is true for back side illuminated (BSI) ICs that are fabricated on a single wafer or die.
本発明では、3次元集積化(3DIC)として知られる技術を用いて複数のウェーハ又はダイを積層することにより、イベントベースビジョンセンサの画素の曲線因子を最大化することができる。 In the present invention, the fill factor of the pixels of an event-based vision sensor can be maximized by stacking multiple wafers or dies using a technique known as three-dimensional integration (3DIC).
感光デバイスは回路の非感光部に重ねることができるため、上記の技術を用いれば、画素の回路を異なるウェーハ又はダイ間で分けることができ、感光デバイスのエリアを最大化することが可能になる。さらに、トップウェーハの下のウェーハ上に位置する回路は、トップウェーハによって捕捉されるいかなる(又はほとんどの)光放射も受け取らないので、衝突光による非感光回路における望ましくない挙動の大幅な低減を可能にする。 Since the photosensitive device can be stacked on non-photosensitive parts of the circuit, the above technique allows pixel circuitry to be separated between different wafers or dies, maximizing the area of the photosensitive device. . Additionally, circuits located on wafers below the top wafer do not receive any (or most) optical radiation captured by the top wafer, allowing for a significant reduction in undesirable behavior in non-photosensitive circuits due to impinging light. Make it.
この手法の他の利点としては、2つのウェーハ又はダイが2つの異なる技術プロセスを用いて製造することができる点が挙げられる。これにより、感光デバイスと残りの回路の両方にとって利用可能な一番良いプロセスを選択することが可能となる。このような2種類の回路の技術要件は完全には重複しない場合が多い。 Another advantage of this approach is that two wafers or dies can be manufactured using two different technology processes. This allows selecting the best available process for both the photosensitive device and the rest of the circuitry. The technical requirements for these two types of circuits often do not overlap completely.
実施形態の例 Examples of embodiments
図3Aから3Cは本発明の第1の実施形態(好適な実施形態)を示す。図3Aと図3Bでは、EBVSのICの縦断面図を示す。図3Aは、2つの積層ウェーハ(又はダイ)を図示している。ボトムウェーハ(ウェーハ2)への接続部は、トップウェーハ(ウェーハ1)の上面に配置されるワイヤボンドパッド210として提供される。スルーシリコンビア(TSV:Through-Silicon Via)を用いることによって、トップウェーハ(ウェーハ1)の本体を貫通して電気的接続が成される。TSVの端は銅ボールバンプ等のCu-Cu接合部CCとなっている。このようにして、トップウェーハの底面とボトムウェーハ(ウェーハ2)の上面上の電気回路が電気的に接続される。
3A to 3C illustrate a first embodiment (preferred embodiment) of the invention. 3A and 3B show longitudinal cross-sectional views of an EBVS IC. FIG. 3A illustrates two stacked wafers (or dies). Connections to the bottom wafer (wafer 2) are provided as
なお、本明細書において、ダイとウェーハはそれぞれ同じ意味で用いられる。一般的に「ダイ」とは、半導体ウェーハの一部を意味し、通常、チップ等の矩形の形状を有する。ここで、この半導体ウェーハの一部は、イベントベースビジョンセンサ等の集積回路デバイスの例の一部を含む。ウェーハ又はダイへの言及は、異なる製造手法の可能性に基づいている。積層は、ダイへのダイシングを行う前に、ウェーハレベルで行うことができる。又は、ウェーハからダイを切り出した(ダイシングを行った)後に、個々のダイに対して積層を行ってもよい。いずれにせよ、この製造プロセスから生じる最終的な単一化されたデバイス、つまりEBVSは、複数のダイを積層したものとなる。 Note that in this specification, die and wafer are used interchangeably. Generally, a "die" means a part of a semiconductor wafer, and usually has a rectangular shape such as a chip. Here, the portion of the semiconductor wafer includes a portion of an example integrated circuit device, such as an event-based vision sensor. Reference to wafer or die is based on the possibility of different manufacturing techniques. Lamination can be done at the wafer level before dicing into die. Alternatively, the individual dies may be laminated after the dies are cut out from the wafer (dicing is performed). In any case, the final unified device, or EBVS, resulting from this manufacturing process will be a stack of multiple dies.
図3BはEBVSの画素の縦断面図の詳細を示す。これにより、どのようにして光が基板側(BSI)のトップウェーハ(ウェーハ1)の表面にのみ衝突するか、及び、どのようにしてこのウェーハが感光デバイス、フォトダイオードPDのみを含むかが分かる。このため、ボトムウェーハ(又はダイ)と接続するために各画素ごとに1つのCu-Cu接合部CCが用いられる。ボトムウェーハ(ウェーハ2)には、画素回路の非感光部、例えば比較器A1が実装される。 FIG. 3B shows details of a vertical cross-sectional view of an EBVS pixel. This shows how the light impinges only on the surface of the top wafer (wafer 1) on the substrate side (BSI) and how this wafer only contains photosensitive devices, photodiodes PD. . For this reason, one Cu-Cu junction CC is used for each pixel to connect to the bottom wafer (or die). A non-photosensitive part of a pixel circuit, for example, a comparator A1, is mounted on the bottom wafer (wafer 2).
図3Cは画素回路図を示す。この例はPCT/IB2017/058526及びU.S.Pub.No.2018/0191972及び図1に記載の画素回路を参照しているが、異なる構造のイベント検出画素を用いてもよい。これは、2つのウェーハ(又はダイ)間で回路がどのように割り振られているかを図示している。トップウェーハ/ダイ(ウェーハ1)にはフォトダイオードPDのみが実装され、ボトムウェーハ/ダイには残りの画素回路が実装されている。すべての画素に対してCu-Cu接合部CCが存在する。Cu-Cu接合部CCはフォトダイオードと受光回路を接続する。また、ウェーハ2上のイベント検出器も図示されている。読み出し回路ROはウェーハ2に設置されてもよいし、他のウェーハ又はダイに設置されてもよい。
FIG. 3C shows a pixel circuit diagram. Examples of this are PCT/IB2017/058526 and U. S. Pub. No. Although reference is made to the pixel circuit described in 2018/0191972 and FIG. 1, event detection pixels with a different structure may be used. This illustrates how circuits are distributed between two wafers (or dies). Only the photodiode PD is mounted on the top wafer/die (wafer 1), and the remaining pixel circuits are mounted on the bottom wafer/die. There is a Cu--Cu junction CC for every pixel. The Cu--Cu junction CC connects the photodiode and the light receiving circuit. Also shown is an event detector on
図3Dは、ウェーハ2に実装されるフォトレセプタ回路PRCの詳細を回路図を用いて示す。
FIG. 3D shows details of the photoreceptor circuit PRC mounted on the
図4A及び図4Bは他の実施形態を示す。画素として選択される回路は図3C及び3Dで示されたものと同じだが、回路の構成要素はウェーハ/ダイ間で異なるように配置される。 4A and 4B show other embodiments. The circuit selected for the pixel is the same as shown in FIGS. 3C and 3D, but the circuit components are arranged differently from wafer/die to wafer.
さらに、図4Bに示すよう区分されたウェーハ/ダイは、イベント検出器がp型デバイスのみで実現され得るので、ボトムウェーハ内の回路を全てp型MOSFETデバイスで実現することを可能にする。この手法によると、画素領域全体を同じnウェル内に配置することができるので、画素の面積をさらに減らすことができる。通常、n型MOSFETデバイスとnウェル(ここにp型MOSFETデバイスが位置する)との間には最低限の隙間(クリアランス)が必要となる。n型デバイスが無く画素が単一のnウェルに含まれている場合、画素のために必要な面積はn型デバイスとp型デバイスの両方が全ての画素に使用される場合よりも小さくすることができる。 Furthermore, the partitioned wafer/die as shown in FIG. 4B allows the circuitry in the bottom wafer to be implemented entirely with p-type MOSFET devices, since the event detector can be implemented with only p-type devices. According to this method, the entire pixel region can be placed in the same n-well, so the area of the pixel can be further reduced. Typically, a minimum clearance is required between the n-type MOSFET device and the n-well (where the p-type MOSFET device is located). If there are no n-type devices and the pixels are contained in a single n-well, the area required for the pixels should be less than if both n-type and p-type devices are used for every pixel. Can be done.
図4Bに示すように、トップウェーハ(ウェーハ1)はフォトダイオードPDと共に受光回路PRCのうちの2つのn-FETトランジスタ(M1及びMA1)を含む。この場合、ウェーハ/ダイ間のCu-Cu接合部CCは、フィードバックトランジスタM1のゲートとMA1のドレインに接続するノードと、バイアスp-FETトランジスタMA2のドレインとイベント検出器の入力に接続するノードとの間に位置する。イベント検出器の入力とは、図1に示すキャパシタC1のプレートのうちの1つに相当する。このような配置により、曲線因子が過度に低減することなく、また、トップウェーハの複雑さを低減することなく(製造に必要なプロセスマスクの数を効果的に制限する)、光検出のパフォーマンスを向上させることができる。このパフォーマンスは、特にノイズに関して向上する。Cu-Cu接合部は、典型的には、一方のウェーハの表面に到達するために必要なビアと金属レイヤ、そして、他方のウェーハのデバイスが原因で、ある程度の抵抗を有する。この抵抗のために、熱雑音が生じる。さらに、この積層した金属レイヤとビアは、通常、異なる金属を用いて製造され、この金属接合のために雑音が生じる。このような理由から、図4A及び4Bに示したような解決法が有益である。この解決法では、ウェーハ/ダイ積層技術によって最初にもたらされた面積占有に関する利益の犠牲が少なくて済む。また、このような解決方法では、トランジスタの数が少なくて済むため、下側のウェーハ(ウェーハ2)上において必要とされる面積が少なくなる。このため、画素サイズを縮小することができる。この解決方法(及び両方のウェーハ上にトランジスタを設ける他の解決法)のさらなる利点としては、上側のウェーハ上の2つのトランジスタの特性を、下側のウェーハ(ウェーハ2)上のトランジスタの特性とは独立して最適化できる点が挙げられる。 As shown in FIG. 4B, the top wafer (wafer 1) includes two n-FET transistors (M1 and MA1) of the photodetector circuit PRC along with a photodiode PD. In this case, the wafer/die Cu-Cu junction CC is connected to a node that connects to the gate of feedback transistor M1 and the drain of MA1, and a node that connects to the drain of bias p-FET transistor MA2 and the input of the event detector. located between. The input of the event detector corresponds to one of the plates of capacitor C1 shown in FIG. Such an arrangement improves photodetection performance without unduly reducing fill factor or reducing top wafer complexity (effectively limiting the number of process masks required for fabrication). can be improved. This performance improves especially with respect to noise. Cu-Cu bonds typically have some resistance due to the vias and metal layers required to reach the surface of one wafer and the devices on the other wafer. This resistance creates thermal noise. Furthermore, the stacked metal layers and vias are typically fabricated using different metals, and the metal bonding introduces noise. For this reason, solutions such as those shown in FIGS. 4A and 4B are beneficial. This solution sacrifices less of the area occupancy benefits initially provided by wafer/die stacking techniques. Such a solution also requires less area on the lower wafer (wafer 2) since fewer transistors are required. Therefore, the pixel size can be reduced. A further advantage of this solution (and other solutions with transistors on both wafers) is that the characteristics of the two transistors on the upper wafer can be compared to the characteristics of the transistors on the lower wafer (wafer 2). can be optimized independently.
図5Aから5Dには、第3の実施形態を示す。第3の実施形態は上記の実施形態で提示した回路について再び言及するが、第3の実施形態のトップウェーハ(ウェーハ1)はフロントエンド回路のバイアストランジスタを含む。最終的には、好ましくはソースフォロワアンプ段として実現されるバッファ段を追加することも可能である。 A third embodiment is shown in FIGS. 5A to 5D. The third embodiment refers again to the circuits presented in the above embodiments, but the top wafer (wafer 1) of the third embodiment includes bias transistors of the front-end circuit. Finally, it is also possible to add a buffer stage, preferably realized as a source follower amplifier stage.
この実施形態の利点として、ウェーハ(ダイ)間の接合前の回路の駆動能力を改善するという点が挙げられる。特に、バッファ段を追加する場合、出力ノードへの負荷が低減されるので、Cu‐Cu接合部CCの抵抗がフロントエンドのパフォーマンスに与える影響が少なくなる。この場合、Cu-Cu接合部は、フロントエンドの出力ノードと、イベント検出回路の入力との間に位置する。一例として、フロントエンドの出力ノードはM1のゲート、MA1のドレイン、及びMA2のドレインから構成される。イベント検出回路の入力は、キャパシタC1のプレートのうちの1つに相当する。 An advantage of this embodiment is that it improves the drive capability of the circuit before bonding between wafers (dies). In particular, when adding a buffer stage, the load on the output node is reduced so that the resistance of the Cu-Cu junction CC has less impact on front-end performance. In this case, the Cu-Cu junction is located between the output node of the front end and the input of the event detection circuit. As an example, the output node of the front end consists of the gate of M1, the drain of MA1, and the drain of MA2. The input of the event detection circuit corresponds to one of the plates of capacitor C1.
しかし、この手法の最大の利点としては、キャパシタC1通常はMIM(金属-絶縁体-金属構造)キャパシタとして製造されるという点に関係している。このタイプのデバイスは、シリコン・プレーナ・プロセスの最上層となる2つの金属レイヤ、又は最終的には最上層の下の1つの金属レイヤを使用して製造される。そして、トップウェーハに実装された回路の出力をMIMキャパシタのトッププレートに直接接続することができ、キャパシタの大きさを最大化することができる。これは、トップウェーハの回路はMIMキャパシタC1のトッププレートをのぞいて他のノードに接続する必要がないので、画素の全エリアを占めることによって実現することができるためである。 However, the greatest advantage of this approach relates to the fact that capacitor C1 is usually manufactured as a MIM (metal-insulator-metal construction) capacitor. This type of device is manufactured using two metal layers on top of a silicon planar process, or one metal layer ultimately below the top layer. Then, the output of the circuit mounted on the top wafer can be directly connected to the top plate of the MIM capacitor, and the size of the capacitor can be maximized. This is because the circuit on the top wafer does not need to be connected to other nodes except the top plate of the MIM capacitor C1, and can be realized by occupying the entire area of the pixel.
従って、この手法では、2つのウェーハ/ダイの間にデバイスをうまく分配することによって、画素のレイアウトを大幅に容易にし、最終的にはより小さな画素を実現することができる。 Therefore, this approach can greatly facilitate pixel layout and ultimately achieve smaller pixels by better distributing the devices between two wafers/dies.
この様子は図5Bに示す。図5Bは、シリコン・プレーナ・プロセス技術で実現される、2つの積層ウェーハ(ウェーハ1及びウェーハ2)の概略図であり、ウェーハを形成する様々なレイヤを図示している。これにより、トップウェーハの最後の金属レイヤがどのようにしてMIMキャパシタC1のプレートのうち1つに直接接続できるかが理解される。この具体例において、トップウェーハ/ダイはBSI(裏面照射)構造として配置されているので、トップウェーハ/ダイは基板側で光を受光し、Cu-Cu接合部CCを用いて他のウェーハに接続され、2つのウェーハ/ダイの2つのそれぞれの上部金属レイヤが接合される。図面を簡単にするために、図5に示されるフォトダイオード接合は、p基板内のnウェルとして実現されるが、実際にはより高度な構造が好ましい。
This situation is shown in FIG. 5B. FIG. 5B is a schematic diagram of two stacked wafers (
図5Cと図5Dは2つの異なる回路レイアウトを示す。具体的には、図5Dは、バッファアンプB(好ましくはソースフォロワアンプ)を含むフロントエンドを示す。 Figures 5C and 5D show two different circuit layouts. Specifically, FIG. 5D shows a front end that includes a buffer amplifier B (preferably a source follower amplifier).
TSV(スルーシリコンビア)を用いてトップウェーハをボトムウェーハに接続することにより、トップウェーハに対するFSI(表面照射)手法を実現することができる。 By connecting the top wafer to the bottom wafer using TSVs (through silicon vias), an FSI (front surface illumination) approach to the top wafer can be realized.
この手法を用い、2つのウェーハ(又はダイ)間で同じトランジスタの配置を使用して、MIMキャパシタC1をボトムウェーハ(又はダイ)(ウェーハ2)の代わりに、トップウェーハ(又はダイ)(ウェーハ1)に配置することもできる。このような手法は、例えば、最も費用対効果の高い解決法に従ってウェーハ(又はダイ)間に金属レイヤを分配するように金属レイヤに関して固有の検討を行うことで、理に適う手法とすることができる。2つのウェーハは2つの異なる技術で実現することができる。これらの技術プロセスのうちの1つでは、他のプロセスよりも安価に金属レイヤやMIM特有の金属レイヤを追加することができる。
Using this technique and using the same transistor placement between the two wafers (or dies), MIM capacitor C1 is placed on the top wafer (or die) (wafer 1) instead of the bottom wafer (or die) (
本明細書で示された全てのウェーハの例において、露光側にマイクロレンズ及び/又は光導波路を実装するレイヤを追加で積層することができ、これによりフォトレセプタのQEを改善することができるが、図面を簡略化するためにこのマイクロレンズ及び/又は光導波路は図示されていない。 In all wafer examples presented herein, additional layers implementing microlenses and/or optical waveguides can be stacked on the exposure side, which can improve the QE of the photoreceptor. , the microlens and/or the optical waveguide are not shown to simplify the drawing.
図6Aでは、ピクセルフロントエンドの他の実施形態を示す。この場合も同様に、画素ごとに1つのウェーハ(又はダイ)間接続部のみが必要となる。トップウェーハ(ウェーハ1)は、フォトダイオードPDとともに、フォトレセプタ回路PRCを含むピクセルフロントエンドを構成するトランジスタを含む。 In FIG. 6A, another embodiment of a pixel front end is shown. Again, only one inter-wafer (or die) connection is required per pixel. The top wafer (wafer 1) includes transistors that, together with photodiodes PD, constitute a pixel front end that includes a photoreceptor circuit PRC.
図6Bでは、どのようにして最終的にアンプ段B(好ましくはソースフォロワアンプとして実現される)を追加することができるか、及びどのようにしてトップウェーハ(ウェーハ1)にアンプ段Bを含めることができるかを示している。これには、フロントエンドの駆動能力を向上させ、フロントエンドの出力ノード(M1のゲート、MA1のドレイン、及びMA2のドレイン)への負荷を効果的に制限することができるという利点がある。実際、Cu-Cu接合部CCは、もしアンプ段がなければ、フロントエンドの出力に直接負荷がかかる無視できない抵抗を有する場合がある。 FIG. 6B shows how amplifier stage B (preferably realized as a source follower amplifier) can be added in the end and how to include amplifier stage B in the top wafer (wafer 1). It shows what you can do. This has the advantage of increasing the drive capability of the front end and effectively limiting the load on the front end output nodes (gate of M1, drain of MA1, and drain of MA2). In fact, the Cu-Cu junction CC may have a non-negligible resistance that would directly load the output of the front end if there were no amplifier stage.
図7Aでは、図5Bに示したものと同様のピクセルフロントエンド回路を示している。図7Aのアンプ段は、n-FET MOSデバイスで実現されるソース-フォロアアンプとして明示されている。ここで提案された解決法では、トップウェーハ内にp-FETデバイスを含まないため、必要とされるウェーハ(又はダイ)間接続部の数は1より多くなる。ここでは特に1画素に対して2つの接続部が存在している。 FIG. 7A shows a pixel front end circuit similar to that shown in FIG. 5B. The amplifier stage of FIG. 7A is specified as a source-follower amplifier implemented with n-FET MOS devices. The solution proposed here does not include p-FET devices in the top wafer, so the number of inter-wafer (or die) connections required is greater than one. Here, in particular, there are two connections for one pixel.
トップウェーハ内にp-FET MOSデバイスを有しないという選択は、QEを改善するとう利点を有する。これは、照射されたウェーハ内にnウェルが存在する場合、このnウェルは、衝突光によって生成されたキャリアを引き付け、供給電圧と接地(グランド)との間に接続された寄生フォトダイオードとして作用するからである。 The choice of not having p-FET MOS devices in the top wafer has the advantage of improving QE. This means that if an n-well is present in the irradiated wafer, this n-well will attract the carriers generated by the impinging light and act as a parasitic photodiode connected between the supply voltage and ground. Because it does.
図7Cでは、ピクセルフロントエンドの他の実施例を示しており、これは図6Bに示したものと同様である。この実施形態では、図7Aのように、照射されるトップウェーハはp-FET MOSデバイスを含まず、このため、1画素ごとに複数のウェーハ(又はダイ)間接続部が必要となる。この実施形態の場合には、1画素当たり4つの接続部が必要となる。バッファ段はn-FETデバイスから成るソースフォロワアンプとして実現される。 FIG. 7C shows another embodiment of a pixel front end, which is similar to that shown in FIG. 6B. In this embodiment, as in FIG. 7A, the top wafer being illuminated does not contain p-FET MOS devices, thus requiring multiple inter-wafer (or die) connections per pixel. This embodiment requires four connections per pixel. The buffer stage is implemented as a source follower amplifier consisting of n-FET devices.
図7Cでは、図7Bで使用されたのと同じ画素構造を示しているが、バッファとして作用するソースフォロワアンプは、p-FET MOSデバイスによって実現されている。このようにして、1画素につき1つの接続部を省略することができ、必要な接続部の数は3つのみとなる。 In FIG. 7C, the same pixel structure as used in FIG. 7B is shown, but the source follower amplifier acting as a buffer is realized by a p-FET MOS device. In this way, one connection per pixel can be omitted, and the number of connections required is only three.
一般的に、画素回路の分割には多くの異なる方法が利用可能であり、全ての方法にそれぞれの利点と欠点がある。例えば、回路のそれぞれのパーツにとって最適なテクノロジーを見つけることにフォーカスする場合、回路のデジタル部分とアナログ部分を分離することが考えられる。また、例えば、Cu-Cu接合部とTSVを使用することにより、積層技術によって積層され、垂直に接続され得るウェーハ/ダイの数に関する理論的限界がもたらされることが無くなる。このような接続部は、すべての画素内、又は画素アレイの端に配置することができる。例えば、列及び/又は行ごとに1つの接続部が配置される。 In general, many different methods of partitioning pixel circuits are available, all with their own advantages and disadvantages. For example, if your focus is on finding the best technology for each part of your circuit, you might want to separate the digital and analog parts of your circuit. Also, the use of Cu-Cu junctions and TSVs, for example, eliminates the theoretical limits imposed on the number of wafers/dies that can be stacked and vertically connected by stacking techniques. Such connections can be placed within every pixel or at the edges of the pixel array. For example, one connection is arranged per column and/or row.
本発明の好適な実施形態を参照しつつ本発明に関して具体的に図示と説明を行ったが、当業者には、添付の特許請求の範囲に包含される本発明の範囲を逸脱することないように本発明の形態及び詳細において種々の変更がなされ得ることが理解される。 While the present invention has been particularly illustrated and described with reference to preferred embodiments thereof, it is apparent to those skilled in the art that the present invention does not depart from the scope of the invention as encompassed by the appended claims. It will be understood that various changes may be made in the form and details of the invention.
Claims (7)
前記第1のダイに画素アレイの各画素のフォトダイオードが配置され、
前記第2のダイに画素アレイの各画素のイベント検出器と、光強度に依存するフォトレセプタ信号を生成して前記イベント検出器に入力するフォトレセプタ回路が配置され、
前記フォトレセプタ回路は、複数のトランジスタで構成され、
前記イベント検出器は、メモリキャパシタと、比較器と、メモリとを有し、
前記メモリキャパシタは、MIM(金属-絶縁体-金属構造)キャパシタで構成され、前記MIMキャパシタの第1のプレートは前記フォトレセプタ回路により生成されたフォトレセプタ信号と接続され、前記MIMキャパシタの第2のプレートは前記比較器の一方の入力に接続され、前記比較器の他方の入力はコントローラによって適用される閾値信号と接続され、
前記比較器の出力は前記メモリに記憶されるように構成される、
イベントベースビジョンセンサ。 An event-based vision sensor comprising a stacked first die and a second die, the sensor comprising:
A photodiode for each pixel of a pixel array is arranged on the first die,
An event detector for each pixel of the pixel array and a photoreceptor circuit that generates a photoreceptor signal dependent on light intensity and inputs it to the event detector are disposed on the second die,
The photoreceptor circuit is composed of a plurality of transistors,
The event detector includes a memory capacitor, a comparator, and a memory;
The memory capacitor is constituted by an MIM (metal-insulator-metal structure) capacitor, a first plate of the MIM capacitor is connected to a photoreceptor signal generated by the photoreceptor circuit, and a second plate of the MIM capacitor is connected to a photoreceptor signal generated by the photoreceptor circuit. a plate of is connected to one input of the comparator, the other input of the comparator being connected to a threshold signal applied by a controller;
the output of the comparator is configured to be stored in the memory;
Event-based vision sensor.
前記MIMキャパシタの前記第2のプレートと前記比較器の一方の入力との間には前記条件付きリセット回路が接続され、前記条件付きリセット回路は、前記メモリに記憶された前記比較器の出力とコントローラによって適用されるリセット信号との組み合わせに基づいて導通状態が切り替えられるように構成される、
イベントベースビジョンセンサ。 The event-based vision sensor according to claim 1,
The conditional reset circuit is connected between the second plate of the MIM capacitor and one input of the comparator, and the conditional reset circuit is connected to the output of the comparator stored in the memory. configured to switch the conduction state based on combination with a reset signal applied by the controller;
Event-based vision sensor.
前記第1のダイは配線層が光入射面とは反対側に配置される裏面照射構造を有する
イベントベースビジョンセンサ。 The event-based vision sensor according to claim 1,
The first die has a back-illuminated structure in which the wiring layer is arranged on the opposite side of the light incident surface. The event-based vision sensor.
前記第1のダイと前記第2のダイはCu-Cu接合部を用いて互いに接続される
イベントベースビジョンセンサ。 The event-based vision sensor according to claim 1,
The first die and the second die are connected to each other using a Cu-Cu junction.
前記第1のダイ及び/又は前記第2のダイは積層ダイを含み、前記積層ダイは、スルーシリコンビア接続を有する
イベントベースビジョンセンサ。 The event-based vision sensor according to claim 1,
The first die and/or the second die include stacked dies, and the stacked dies have through-silicon via connections.
前記フォトレセプタ回路は、n-FETトランジスタ及びp-FETトランジスタを含む
イベントベースビジョンセンサ。 The event-based vision sensor according to claim 1,
The photoreceptor circuit includes an n-FET transistor and a p-FET transistor. Event-based vision sensor.
前記フォトレセプタ回路は、2つのn-FETトランジスタとp-FETトランジスタを含む
イベントベースビジョンセンサ。 The event-based vision sensor according to claim 1,
The photoreceptor circuit includes two n-FET transistors and a p-FET transistor. Event-based vision sensor.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862642838P | 2018-03-14 | 2018-03-14 | |
US62/642,838 | 2018-03-14 | ||
JP2020571913A JP2021516872A (en) | 2018-03-14 | 2019-03-08 | Event-based vision sensor manufactured using 3D-IC technology |
PCT/IB2019/051920 WO2019175733A1 (en) | 2018-03-14 | 2019-03-08 | Event-based vision sensor manufactured with 3d-ic technology |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020571913A Division JP2021516872A (en) | 2018-03-14 | 2019-03-08 | Event-based vision sensor manufactured using 3D-IC technology |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023164990A true JP2023164990A (en) | 2023-11-14 |
Family
ID=66102157
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020571913A Pending JP2021516872A (en) | 2018-03-14 | 2019-03-08 | Event-based vision sensor manufactured using 3D-IC technology |
JP2023145998A Pending JP2023164990A (en) | 2018-03-14 | 2023-09-08 | Event-based vision sensor manufactured with 3d-ic technology |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020571913A Pending JP2021516872A (en) | 2018-03-14 | 2019-03-08 | Event-based vision sensor manufactured using 3D-IC technology |
Country Status (6)
Country | Link |
---|---|
US (2) | US10923520B2 (en) |
EP (1) | EP3766099A1 (en) |
JP (2) | JP2021516872A (en) |
KR (2) | KR20230170980A (en) |
CN (1) | CN112243536A (en) |
WO (1) | WO2019175733A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230224605A1 (en) * | 2020-06-19 | 2023-07-13 | Sony Semiconductor Solutions Corporation | Imaging device |
CN116324959A (en) * | 2020-09-28 | 2023-06-23 | 索尼半导体解决方案公司 | Electronic apparatus and method of controlling the same |
JP2022108423A (en) * | 2021-01-13 | 2022-07-26 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state imaging element and imaging apparatus |
US20240205567A1 (en) * | 2022-12-15 | 2024-06-20 | Prophesee | Event sensor pixel with sensitivity and dynamic range optimization |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6084229A (en) | 1998-03-16 | 2000-07-04 | Photon Vision Systems, Llc | Complimentary metal oxide semiconductor imaging device |
KR100610481B1 (en) | 2004-12-30 | 2006-08-08 | 매그나칩 반도체 유한회사 | Image sensor with enlarged photo detecting area and method for fabrication thereof |
CN101204079B (en) | 2005-06-03 | 2011-07-27 | 苏黎世大学 | Photoarray for detecting time-dependent image data |
EP3514831B1 (en) * | 2009-12-26 | 2021-10-13 | Canon Kabushiki Kaisha | Solid-state image pickup apparatus and image pickup system |
TWI513301B (en) * | 2010-06-02 | 2015-12-11 | Sony Corp | Semiconductor device, solid-state imaging device, and camera system |
US8637800B2 (en) * | 2011-04-19 | 2014-01-28 | Altasens, Inc. | Image sensor with hybrid heterostructure |
JP5959186B2 (en) * | 2011-05-25 | 2016-08-02 | オリンパス株式会社 | Solid-state imaging device, imaging device, and signal readout method |
JP5791571B2 (en) * | 2011-08-02 | 2015-10-07 | キヤノン株式会社 | Imaging device and imaging apparatus |
KR101887988B1 (en) * | 2012-07-03 | 2018-08-14 | 삼성전자 주식회사 | Image sensor chip, operation method thereof, and system having the same |
JP6374869B2 (en) | 2012-10-05 | 2018-08-15 | ラムバス・インコーポレーテッド | Multi-bit readout image sensor with conditional reset |
KR20140056986A (en) * | 2012-11-02 | 2014-05-12 | 삼성전자주식회사 | Motion sensor array device, depth sensing system and method using the same |
KR102136055B1 (en) | 2014-01-08 | 2020-07-21 | 삼성전자 주식회사 | Vision sensor chip having open-loop amplifier, method thereof, and data processing system including the same |
US9564464B2 (en) * | 2015-06-03 | 2017-02-07 | Semiconductor Components Industries, Llc | Monolithically stacked image sensors |
WO2017009944A1 (en) * | 2015-07-14 | 2017-01-19 | オリンパス株式会社 | Solid-state image pickup device |
WO2017013806A1 (en) * | 2015-07-23 | 2017-01-26 | オリンパス株式会社 | Solid-state imaging device |
JP6655922B2 (en) * | 2015-09-15 | 2020-03-04 | サムスン エレクトロニクス カンパニー リミテッド | Solid-state imaging device |
CN116995084A (en) * | 2016-03-31 | 2023-11-03 | 株式会社尼康 | Image pickup element and image pickup device |
US20170337469A1 (en) * | 2016-05-17 | 2017-11-23 | Agt International Gmbh | Anomaly detection using spiking neural networks |
JP2017209045A (en) | 2016-05-25 | 2017-11-30 | 日油株式会社 | milk beverage |
JP6651079B2 (en) | 2016-05-25 | 2020-02-19 | 株式会社ササキコーポレーション | Bulb loading section of bulb planting machine |
KR102541757B1 (en) | 2016-12-30 | 2023-06-13 | 소니 어드밴스드 비주얼 센싱 아게 | Dynamic vision sensor architecture |
WO2019087472A1 (en) * | 2017-10-30 | 2019-05-09 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state image pickup element |
JP7311423B2 (en) * | 2017-10-30 | 2023-07-19 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state image sensor |
-
2019
- 2019-03-08 JP JP2020571913A patent/JP2021516872A/en active Pending
- 2019-03-08 KR KR1020237041949A patent/KR20230170980A/en active Search and Examination
- 2019-03-08 KR KR1020207026285A patent/KR20210028139A/en not_active IP Right Cessation
- 2019-03-08 WO PCT/IB2019/051920 patent/WO2019175733A1/en unknown
- 2019-03-08 EP EP19716563.2A patent/EP3766099A1/en active Pending
- 2019-03-08 US US16/297,267 patent/US10923520B2/en active Active
- 2019-03-08 CN CN201980018550.7A patent/CN112243536A/en active Pending
-
2021
- 2021-01-29 US US17/161,961 patent/US11652126B2/en active Active
-
2023
- 2023-09-08 JP JP2023145998A patent/JP2023164990A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US10923520B2 (en) | 2021-02-16 |
WO2019175733A1 (en) | 2019-09-19 |
JP2021516872A (en) | 2021-07-08 |
US11652126B2 (en) | 2023-05-16 |
US20190288024A1 (en) | 2019-09-19 |
KR20230170980A (en) | 2023-12-19 |
KR20210028139A (en) | 2021-03-11 |
US20210151492A1 (en) | 2021-05-20 |
CN112243536A (en) | 2021-01-19 |
EP3766099A1 (en) | 2021-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109698209B (en) | Stacked CMOS image sensor | |
TWI701824B (en) | Image sensor, integrated circuit and method of forming image sensor | |
JP2023164990A (en) | Event-based vision sensor manufactured with 3d-ic technology | |
US10312275B2 (en) | Single-photon avalanche diode image sensor with photon counting and time-of-flight detection capabilities | |
US9443836B2 (en) | Forming pixel units of image sensors through bonding two chips | |
KR101514119B1 (en) | Cmos image sensor chips with stacked scheme and methods for forming the same | |
US8957358B2 (en) | CMOS image sensor chips with stacked scheme and methods for forming the same | |
KR20180136874A (en) | Solid state image sensor and manufacturing method thereof | |
TWI718760B (en) | Cmos image sensor and method of forming image sensor | |
US20170229509A1 (en) | Pixel and circuit design for image sensors with hole-based photodiodes | |
CN108305885B (en) | Pixel cell and method of forming the same and imaging system assembly for digital camera | |
WO2020059335A1 (en) | Solid-state imaging device and electronic apparatus | |
US11271022B2 (en) | Imaging device, method of manufacturing the same, and camera | |
JP2024015381A (en) | Imaging device | |
WO2020137334A1 (en) | Photoelectric conversion element, solid-state imaging device and electronic device | |
JP7532025B2 (en) | Semiconductor equipment and devices | |
JP2017183407A (en) | Semiconductor device and method of manufacturing the same | |
CN220963352U (en) | Integrated chip and semiconductor structure | |
US20230299109A1 (en) | Stacked image sensors and methods of manufacturing thereof | |
WO2022118617A1 (en) | Imaging device | |
US20230041837A1 (en) | Semiconductor devices and methods of forming the same | |
CN117976681A (en) | Double-layer stacked CMOS image sensor | |
CN116705810A (en) | Image sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241028 |