FR2742910A1 - Procede et dispositif d'adressage d'un ecran matriciel - Google Patents
Procede et dispositif d'adressage d'un ecran matriciel Download PDFInfo
- Publication number
- FR2742910A1 FR2742910A1 FR9515405A FR9515405A FR2742910A1 FR 2742910 A1 FR2742910 A1 FR 2742910A1 FR 9515405 A FR9515405 A FR 9515405A FR 9515405 A FR9515405 A FR 9515405A FR 2742910 A1 FR2742910 A1 FR 2742910A1
- Authority
- FR
- France
- Prior art keywords
- video
- sub
- pixels
- signals sent
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000011159 matrix material Substances 0.000 title claims abstract description 15
- 238000000034 method Methods 0.000 title claims description 43
- 239000003086 colorant Substances 0.000 claims description 83
- 230000015654 memory Effects 0.000 claims description 14
- 230000000737 periodic effect Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 239000000470 constituent Substances 0.000 claims 1
- 101100042610 Arabidopsis thaliana SIGB gene Proteins 0.000 description 5
- 230000000630 rising effect Effects 0.000 description 4
- 101100421503 Arabidopsis thaliana SIGA gene Proteins 0.000 description 3
- 101100042613 Arabidopsis thaliana SIGC gene Proteins 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 101100294408 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) MOT2 gene Proteins 0.000 description 2
- 101150117326 sigA gene Proteins 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 102100029279 Homeobox protein SIX1 Human genes 0.000 description 1
- 101000634171 Homo sapiens Homeobox protein SIX1 Proteins 0.000 description 1
- 238000004737 colorimetric analysis Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000003973 irrigation Methods 0.000 description 1
- 230000002262 irrigation Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/2003—Display of colours
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2300/00—Aspects of the constitution of display devices
- G09G2300/04—Structural and physical details of display devices
- G09G2300/0439—Pixel structures
- G09G2300/0452—Details of colour pixel setup, e.g. pixel composed of a red, a blue and two green components
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2310/00—Command of the display device
- G09G2310/02—Addressing, scanning or driving the display screen or processing steps related thereto
- G09G2310/0202—Addressing of scan or signal lines
- G09G2310/0205—Simultaneous scanning of several lines in flat panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2310/00—Command of the display device
- G09G2310/02—Addressing, scanning or driving the display screen or processing steps related thereto
- G09G2310/0264—Details of driving circuits
- G09G2310/0297—Special arrangements with multiplexing or demultiplexing of display data in the drivers for data electrodes, in a pre-processing circuitry delivering display data to said drivers or in the matrix panel, e.g. multiplexing plural data signals to one D/A converter or demultiplexing the D/A converter output to multiple columns
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/22—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
- G09G3/28—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/34—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
- G09G3/36—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
- G09G3/3607—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals for displaying colours or for displaying grey scales with a specific pixel layout, e.g. using sub-pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/39—Control of the bit-mapped memory
- G09G5/393—Arrangements for updating the contents of the bit-mapped memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/39—Control of the bit-mapped memory
- G09G5/399—Control of the bit-mapped memory using two or more bit-mapped memories, the operations of which are switched in time, e.g. ping-pong buffers
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Liquid Crystal Display Device Control (AREA)
- Control Of Gas Discharge Display Tubes (AREA)
Abstract
La présente invention concerne un procédé et un dispositif d'adressage d'un écran matriciel tel qu'un écran du type LCD ou à plasma. Selon l'invention, l'adressage de l'écran matriciel est effectué par un procédé caractérisé en ce que l'on utilise au moins deux lignes physiques successives de la surface de l'écran pour constituer une ligne vidéo de l'image à afficher de manière à obtenir un meilleur compromis entre la résolution verticale et la résolution horizontale.
Description
PROCEDE ET DISPOSITIF D'ADRESSAGE
D'UN ECRAN MATRICIEL
La présente invention conceme un procédé et un dispositif d'adressage d'un écran matriciel tel qu'un écran du.type LCD ou à plasma.
D'UN ECRAN MATRICIEL
La présente invention conceme un procédé et un dispositif d'adressage d'un écran matriciel tel qu'un écran du.type LCD ou à plasma.
Les surfaces d'affichages de tels écrans comportent généralement une pluralité de sous-pixels P(i,j) représentant l'une des couleurs primaires R, V, ou B adressés à travers un réseau croisé de N lignes horizontales et de M colonnes verticales. Chaque sous-pixel recevant, à travers un interrupteur qui le relie à la colonne adjacente pendant la phase d'adressage (temps ligne), un signal vidéo échantillonné.
La résolution spatiale de tels écrans dépend du nombre et du mode de combinaisons de sous-pixels adressables utilisées pour réaliser des pixels affichables dont les séquences successives constituent les lignes et les colonnes vidéo de l'image à afficher.
La figure i illustre un mode de combinaison de sous-pixels connu, appelé mode L, utilisé pour adresser un écran orthogonal et consistant à réaliser un pixel affichable par combinaison de trois sous-pixels R, V et B situés sur la même ligne. Dans ce cas, la résolution horizontale, notée Hr, est égale à M/3, et est réduite par rapport à la résolution verticale, notée Hv, dont la valeur est égale à N. En effet, la construction d'un écran VGA de 480 lignes et 640 colonnes utilisant le mode d'adressage L, nécessite un nombre de colonnes M égale à 6403 = 1920. et un nombre de lignes N égale à 480 lignes. En outre, afin de respecter le format de rimage, ce mode de combinaison requiert un nombre élevé de sous-pixels ce qui accroît notablement le coût de l'écran.
Par ailleurs, dans la mesure où les écrans matriciels ne peuvent être adressés qu' en mode progressif, le mode de combinaison décrit à la figure i nécessite l'utilisation d'un algorithme permettant d'adapter l'écran à une source d'images entrelacée.
Les figures 2 et 3 illustrent respectivement une première variante et une deuxième variante d'un deuxième mode connu, de combinaison des sous-pixels, appelé mode Delta, utilisé pour adresser un écran du type
DELTA. A l'instar du mode L, un pixel affichable est obtenu par combinaison de trois sous-pixels R, V, et B situés sur la même ligne horizontale.
DELTA. A l'instar du mode L, un pixel affichable est obtenu par combinaison de trois sous-pixels R, V, et B situés sur la même ligne horizontale.
Cependant, dans la première variante du mode Delta, représentée À la figure 2, deux lignes successives sont décalées horizontalement l'une par rapport à l'autre d'un demi sous-pixel, tandis que dans la deuxième variante, représentée à figure 3, deux lignes successives sont décalées horizontalement l'une par rapport à l'autre d'un sous-pixel et demi. II en résulte, que dans le premier cas, une colonne de pixels affichables a une largeur égale à trois fois et demi la largeur d'un sous-pixel tandis que dans le deuxième cas, une colonne de pixels affichables a une largeur égale à quatre fois et demi celle d'un sous-pixel. Dans le premier cas, la résolution horizontale est réduite dans une proportion de trois fois et demi par rapport à la résolution verticale, tandis que dans le deuxième cas la résolution horizontale est réduite dans une proportion de quatre fois et demi par rapport à la résolution verticale.
Le but de l'invention est de réaliser un procédé d'adressage d'un écran matriciel permettant d'améliorer la résolution horizontale sans trop dégrader la résolution verticale.
Un autre but de l'invention est de réaliser un procédé permettant d'adapter 1' écran matriciel à une source d'images entrelacées.
Selon l'invention, I'adressage de l'écran matriciel est effectué par un procédé caractérisé en ce que l'on utilise au moins deux lignes physiques successives de la surface de l'écran pour constituer une ligne vidéo de l'image à afficher.
Grâce au procédé selon l'invention, on obtient un meilleur compromis entre la résolution verticale et la résolution horizontale.
Selon une autre caractéristique importante de l'invention, on décompose l'image à afficher en une trame impaire comprenant des lignes vidéo impaires et une trame paire comprenant des lignes vidéo paires, lesdites trames impaires et paires étant décalées, I'une par rapport à l'autre, d'une ligne physique, de manière à permettre un entrelacement des lignes vidéo impaires avec les lignes vidéo paires.
Ainsi, le procédé d'adressage selon l'invention permet d'entrelacer les lignes vidéo paires et les lignes vidéo impaires sans nécessiter un algorithme additionnel.
D'autres caractéristiques et avantages de l'invention ressortiront de la description qui va suivre, prise à titre d'exemple non limitatif, en référence aux figures annexées dans lesquelles:
- la figure 1 illustre partiellement un premier mode de combinaison des sous-pixels R, V et B d'un écran matriciel du type orthogonal, utilisé dans un procédé d'adressage de l'art antérieur;
- les figures 2 et 3 illustrent une application du mode de combinaison de sous-pixels de la figure 1 à un écran du type Delta.
- la figure 1 illustre partiellement un premier mode de combinaison des sous-pixels R, V et B d'un écran matriciel du type orthogonal, utilisé dans un procédé d'adressage de l'art antérieur;
- les figures 2 et 3 illustrent une application du mode de combinaison de sous-pixels de la figure 1 à un écran du type Delta.
- la figure 4 illustre partiellement un premier mode de combinaison des sous-pixels R, V et B d'un écran matriciel utilisé dans un procédé d'adressage conforme à l'invention appliqué à un écran du type orthogonal;
- la figure 5 illustre partiellement une première variante du mode de combinaison des sous-pixels R, V et B illustré à la figure 4;
- la figure 6 illustre une deuxième variante du mode de combinaison des sous-pixels R, V et B illustré à la figure 4;
- les figures 7a et 7b illustrent partiellement une troisième et une quatrième variantes du mode de combinaison des sous-pixels R, V et B illustré à la figure 4 appliqué à un écran matriciel du type Delta.
- la figure 5 illustre partiellement une première variante du mode de combinaison des sous-pixels R, V et B illustré à la figure 4;
- la figure 6 illustre une deuxième variante du mode de combinaison des sous-pixels R, V et B illustré à la figure 4;
- les figures 7a et 7b illustrent partiellement une troisième et une quatrième variantes du mode de combinaison des sous-pixels R, V et B illustré à la figure 4 appliqué à un écran matriciel du type Delta.
- la figure 8 illustre partiellement un deuxième mode de combinaison des sous-pixels R, V et B utilisé dans un procédé d'adressage conforme à l'invention appliqué à un écran matriciel du type orthogonal.
- la figure 9 illustre partiellement une cinquième variante du mode de combinaison des sous-pixels R, V et B illustré à la figure 4 appliqué à un écran matriciel du type Delta.
- la figure 10 représente partiellement un premier mode de réalisation d'un dispositif destiné à mettre en oeuvre un procédé d'adressage conforme à l'invention.
- la figure Il représente partiellement un deuxième mode de réalisation d'un dispositif destiné à mettre en oeuvre un procédé d'adressage conforme à l'invention.
- la figure 12 représente un schéma explicatif d' un procédé d'adressage selon l'invention;
- les figures 13 et 14 représentent un schéma explicatif du fonctionnement du dispositif de la figure 10.
- les figures 13 et 14 représentent un schéma explicatif du fonctionnement du dispositif de la figure 10.
- les figures 15 et 16 représentent un schéma explicatif du fonctionnement du dispositif de la figure 11.
Les figures 4 à 9, illustrent des combinaisons des sous-pixels
R,V,B utilisées dans un procédé conforme à l'invention caractérisé en ce que l'on utilise au moins deux lignes physiques successives de la surface de l'écran pour constituer une ligne vidéo de l'image à afficher.
R,V,B utilisées dans un procédé conforme à l'invention caractérisé en ce que l'on utilise au moins deux lignes physiques successives de la surface de l'écran pour constituer une ligne vidéo de l'image à afficher.
Dans une exemple particulier d'application du procédé selon l'invention, illustré à la figure 9, le nombre de lignes physiques utilisé est de trois.
Selon un mode de réalisation préféré de l'invention illustré partiellement par les figures 4 à 9, on utilise deux lignes physiques Li et Li+1 pour constituer une ligne vidéo de l'image à afficher, et l'on décompose ladite image en une trame impaire (9, 11,13, 15, 17,19, 20) comprenant des lignes vidéo impaires (21, 23, 25, 27, 29, 31, 33, 35, 37, 39, 41, 43, 45, 47, 49) et une trame paire (40, 42, 44, 46, 48, 50, 52) comprenant des lignes vidéo paires (54, 56, 58, 60, 62, 64, 65, 66, 67, 68), lesdites trames impaires et paires étant décalées, I'une par rapport à rautre d'une ligne physique, de manière à permettre un entrelacement des lignes vidéo impaires avec les lignes vidéo paires.
Comme on peut le voir sur chacune des figures 4 à 8, les lignes physiques Li utilisées pour constituer les lignes vidéo paires (54, 56, 58, 64, 65, 67) sont également utilisées pour constituer les lignes physiques Li+1 des lignes vidéo impaires respectives (21, 25, 29, 35, 39, 43). Ceci permet de réaliser un entrelacement desdites lignes vidéo paires et desdites lignes vidéo impaires.
Selon une première application du procédé d' adressage conforme à l'invention illustré par les figures 4 à 7b et 9, on combine deux sous-pixels contigus situé sur la ligne physique Li (respectivement Li+1) avec un sous-pixel situé sur la ligne physique Li+1 (respectivement Li), puis un sous-pixel situé sur la ligne Li (respectivement (Li+1) avec deux souspixels situés sur la ligne Li+1 (respectivement Li) pour adresser un pixel d'une ligne vidéo de l'image à afficher, puis ron envoie à chaque sous-pixel
R, un signal vidéo analogique de luminance correspondant à la couleur primaire R, et à chaque sous-pixel V un signal vidéo analogique de luminance correspondant à la couleur primaire V et à chaque sous-pixel B un signal vidéo analogique de luminance correspondant à la couleur primaire B.
R, un signal vidéo analogique de luminance correspondant à la couleur primaire R, et à chaque sous-pixel V un signal vidéo analogique de luminance correspondant à la couleur primaire V et à chaque sous-pixel B un signal vidéo analogique de luminance correspondant à la couleur primaire B.
Selon une deuxième application du procédé d' adressage conforme à l'invention illustré par la figure 8, on combine un premier souspixel situé sur la ligne physique Li avec un deuxième sous-pixel adjacent au premier sous-pixel, et situé sur la ligne physique Li+1 pour adresser un pixel de la ligne vidéo (43, 47) ( respectivement 67).
Ce mode de combinaison est particulièrement adapté à des utilisations ne nécessitant pas une bonne colorimétrie mais requérant plutôt une bonne finesse de détail, dans la mesure où d'une part, il permet de tripler la résolution horizontale par rapport aux modes de combinaison de l'art antérieur décrit précédemment, et d'autre part; il provoque des repliements de spectre connus sous le terme anglais "aliasing" coloré produisant une irrisation des détails de l'image affichée.
Selon une caractéristique importante de l'invention, on échantillonne les signaux vidéo envoyés aux squs-pixels combinés, soit simultanément, soit en mode spatiale, c'est-å-dire à des instants différents correspondant à leurs positions respectives sur l'écran.
Ainsi, en désignant par i et par j les positions relatives des souspixels respectivement sur les lignes et sur les colonnes physiques de l'écran matriciel, dans un premier exemple d'application du procédé selon l'invention, pour j variant périodiquement de 1 à M, et pour deux lignes physiques Li et Li+1 données situées sur la trame impaire 19, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(ij) et p(i+1 JD représentant respectivement les couleurs primaires R et V pour constituer les premiers pixels affichables de la ligne vidéo impaire (43, 45), puis les signaux vidéo envoyés aux sous-pixels p(i,j+1) et p(i+1j+1) représentant respectivement les couleurs primaires V et B pour constituer les deuxièmes pixels affichables desdites lignes vidéo impaires (43 et 45), et pour deux lignes physiques Li et Li+1 données située sur la trame paire 50, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(ij) et p(i+1 j) représentant respectivement les couleurs primaires V et R pour constituer le premier pixel affichable de la ligne vidéo paire 67, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1) et p(i+1,j+1) représentant respectivement les couleurs primaires B et G pour constituer le deuxième pixel affichable de ladite ligne vidéo paire 67.
- les signaux vidéo envoyés aux sous-pixels p(ij) et p(i+1 JD représentant respectivement les couleurs primaires R et V pour constituer les premiers pixels affichables de la ligne vidéo impaire (43, 45), puis les signaux vidéo envoyés aux sous-pixels p(i,j+1) et p(i+1j+1) représentant respectivement les couleurs primaires V et B pour constituer les deuxièmes pixels affichables desdites lignes vidéo impaires (43 et 45), et pour deux lignes physiques Li et Li+1 données située sur la trame paire 50, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(ij) et p(i+1 j) représentant respectivement les couleurs primaires V et R pour constituer le premier pixel affichable de la ligne vidéo paire 67, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1) et p(i+1,j+1) représentant respectivement les couleurs primaires B et G pour constituer le deuxième pixel affichable de ladite ligne vidéo paire 67.
Dans un deuxième exemple d'application du procédé à un écran du type orthogonal, illustré par la figure 4, pour j variant périodiquement de 1 à M par pas de 3, et pour deux lignes physiques Li et Li+l données situées sur la trame impaire 9, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(ij), p(i, j+1) et p(i+1 j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire (21, 23), puis les signaux vidéo envoyés aux sous-pixels p(i,j+2), p(i+1,j+1) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le pixel suivant de ladite ligne vidéo impaire (21, 23), et pour deux lignes physiques Li et Li+1 données situées sur la trame paire 40, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1, j) et p(i+1 ,j+1) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la- -ligne -vidéo paire 54, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(ij+2) et p(i+1, j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le pixel suivant de ladite ligne vidéo paire 54.
- les signaux vidéo envoyés aux sous-pixels p(ij), p(i, j+1) et p(i+1 j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire (21, 23), puis les signaux vidéo envoyés aux sous-pixels p(i,j+2), p(i+1,j+1) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le pixel suivant de ladite ligne vidéo impaire (21, 23), et pour deux lignes physiques Li et Li+1 données situées sur la trame paire 40, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1, j) et p(i+1 ,j+1) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la- -ligne -vidéo paire 54, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(ij+2) et p(i+1, j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le pixel suivant de ladite ligne vidéo paire 54.
Dans un troisième exemple d'application du procédé à un écran du type orthogonal, illustré par la figure 5, pour j variant périodiquement de 1 à M par pas de 3, et pour deux lignes physiques Li et Li+1 données situées sur la trame impaire 11, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i+1,j) et p(i+1 ,j+I) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel affichable de la ligne vidéo impaire (25, 27), puis les signaux vidéo envoyés aux sous-pixels p(i,j+2), p(i,j+3) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le pixel suivant de ladite ligne vidéo impaire (25, 27), et pour deux lignes physiques Li et Li+1 données situées sur la trame paire 42, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(ij+1) et p < i+I j+1) représentant respectivement les couleurs primaires B, R et V pow constituer le premier pixel affichable de la ligne vidéo paire 56, puis les signaux vidéo envoyés aux sous-pixels p(i,j+2), p(i+I,j+2) et p(i+ij+3) représentant respectivement les couleurs primaires V, B et R pour constituer le pixel suivant de ladite ligne vidéo paire 56.
- les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i+1,j) et p(i+1 ,j+I) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel affichable de la ligne vidéo impaire (25, 27), puis les signaux vidéo envoyés aux sous-pixels p(i,j+2), p(i,j+3) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le pixel suivant de ladite ligne vidéo impaire (25, 27), et pour deux lignes physiques Li et Li+1 données situées sur la trame paire 42, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(ij+1) et p < i+I j+1) représentant respectivement les couleurs primaires B, R et V pow constituer le premier pixel affichable de la ligne vidéo paire 56, puis les signaux vidéo envoyés aux sous-pixels p(i,j+2), p(i+I,j+2) et p(i+ij+3) représentant respectivement les couleurs primaires V, B et R pour constituer le pixel suivant de ladite ligne vidéo paire 56.
Dans un cinquième exemple d'application du procédé à un écran du type orthogonal, illustré par la figure 6, pour j variant périodiquement de I à M par pas de 3, et pour six lignes physiques Li et Li+1, Li+2, Li+3, Li+4,
Li+5 données situées sur la trame impaire 13, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1, j) et p(i+I j+l) représentant respectivement les couleurs primaires R, V et B pow constituer le premier pixel affichable de la ligne vidéo impaire 29, puis les signaux vidéo envoyés aux sous-pixels p(ij+1), p(i,j+2) et p(i+1, j+2) représentant respectivement les couleurs primaires V, B et R pour constituer le deuxième pixel de ladite ligne vidéo impaire 29, puis les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+lj) et p(i+1, j+i) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel de la ligne vidéo impaire suivante 31, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i, j+2) et p(i+1,j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le deuxième pixel affichable de la ligne vidéo impaire 31, puis les signaux vidéo envoyés aux souspixels p(i,j), p(i+1 j) et p(i+1, j+i) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel de ladite ligne vidéo impaire 33, puis les signaux vidéo envoyés aux sous-pixels p(ij+1), p(ij+2) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel de ladite ligne vidéo impaire 33, et pour pour six lignes physiques Li et Li+1, Li+2, Li+3, Li+4, Li+5 données situées sur la trame paire 44, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1, j) et p(i+1 j+1) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel affichable de la ligne vidéo paire 58, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i,j+2) et p(i+1 j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel de ladite ligne vidéo paire 58, puis les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1 ,j) et p(i+1 j+l) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel de la ligne vidéo paire suivante 60, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i, j+2) et p(i+1,j+2) représentant respectivement les couleurs primaires V, B et R pour constituer le deuxième pixel affichable de la ligne vidéo paire 60, puis les signaux vidéo envoyés aux sous-pixels p(ij), p(i+1 j) et p(i+1, j+1) représentant respectivement les couleurs primaires B,
R et V pour constituer le premier pixel de ladite ligne vidéo paire 62, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i,j+2) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel de ladite ligne vidéo paire 62.
Li+5 données situées sur la trame impaire 13, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1, j) et p(i+I j+l) représentant respectivement les couleurs primaires R, V et B pow constituer le premier pixel affichable de la ligne vidéo impaire 29, puis les signaux vidéo envoyés aux sous-pixels p(ij+1), p(i,j+2) et p(i+1, j+2) représentant respectivement les couleurs primaires V, B et R pour constituer le deuxième pixel de ladite ligne vidéo impaire 29, puis les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+lj) et p(i+1, j+i) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel de la ligne vidéo impaire suivante 31, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i, j+2) et p(i+1,j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le deuxième pixel affichable de la ligne vidéo impaire 31, puis les signaux vidéo envoyés aux souspixels p(i,j), p(i+1 j) et p(i+1, j+i) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel de ladite ligne vidéo impaire 33, puis les signaux vidéo envoyés aux sous-pixels p(ij+1), p(ij+2) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel de ladite ligne vidéo impaire 33, et pour pour six lignes physiques Li et Li+1, Li+2, Li+3, Li+4, Li+5 données situées sur la trame paire 44, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1, j) et p(i+1 j+1) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel affichable de la ligne vidéo paire 58, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i,j+2) et p(i+1 j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel de ladite ligne vidéo paire 58, puis les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1 ,j) et p(i+1 j+l) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel de la ligne vidéo paire suivante 60, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i, j+2) et p(i+1,j+2) représentant respectivement les couleurs primaires V, B et R pour constituer le deuxième pixel affichable de la ligne vidéo paire 60, puis les signaux vidéo envoyés aux sous-pixels p(ij), p(i+1 j) et p(i+1, j+1) représentant respectivement les couleurs primaires B,
R et V pour constituer le premier pixel de ladite ligne vidéo paire 62, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i,j+2) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel de ladite ligne vidéo paire 62.
Dans un sixième exemple d'application du procédé à un écran du type Delta représenté à la figure 7a, dans lequel les lignes physiques Li+1 sont décalées vers la droite d'un demi souspixel par rapport aux lignes physiques Li, pour j variant périodiquement de 1 à M par pas de 3, et pour deux lignes physiques Li et Li+1 données situées sur la trame impaire 15, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i, j+1) et p(i+I j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire (35, 37), puis les signaux vidéo envoyés aux sous-pixels p(ij+2), p(i+ij+i) et p(i+i, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le pixel suivant de ladite ligne vidéo impaire (35, 37), et pour deux lignes physiques Li et Li+1 situées sur la trame paire 46, on échantillonne:
- les signaux vidéo envoyés aux sous-pixe!s p(i,j), p(i+i, j) et p(i+i,j+i) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo paire 64, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i,j+2) et p(i+1, j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le pixel suivant de ladite ligne vidéo paire 64.
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i, j+1) et p(i+I j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire (35, 37), puis les signaux vidéo envoyés aux sous-pixels p(ij+2), p(i+ij+i) et p(i+i, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le pixel suivant de ladite ligne vidéo impaire (35, 37), et pour deux lignes physiques Li et Li+1 situées sur la trame paire 46, on échantillonne:
- les signaux vidéo envoyés aux sous-pixe!s p(i,j), p(i+i, j) et p(i+i,j+i) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo paire 64, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i,j+2) et p(i+1, j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le pixel suivant de ladite ligne vidéo paire 64.
Dans un septième exemple d'application du procédé à un écran du type Delta représenté à la figure 7b, pour j variant périodiquement de 1 à
M par pas de 3, pour deux lignes physiques Li et Li+1 situées sur la trame vidéo impaire 17, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(ij+1) et p(i+1,j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire 39, puis les signaux vidéo envoyés aux sous-pixels p(iJ+2), p(i+I ,j+I) et p(i+I j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel affichable de la ligne vidéo impaire 39, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i+1,j) et p(i+ij+l) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel affichable de la ligne vidéo impaire 41, puis les signaux vidéo envoyés aux sous-pixels p(iJ+2), p(i,j+3) et p(i+1 ,j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel affichable de la ligne vidéo impaire 41, et pour deux lignes physiques Li et Li+1 situées sur la trame vidéo paire 48, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+I j) et p(i+l,j+i) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo impaire 65, puis les signaux vidéo envoyés aux sous-pixels p(i"j+1), p(i,,j+2) et p(i+ij+2) représentant respectivement les couleurs primaires R, V et B pour constituer le deuxième pixel affichable de la ligne vidéo impaire 65, puis les signaux vidéo envoyés aux sous-pixels p(i,j), p(i,j+i) et p(i+I ,j+I) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo impaire 66, puis les signaux vidéo envoyés aux sous-pixels p(iJ+2), p(i+I ,j+2) et p(i+1,j+3) représentant respectivement les couleurs primaires V, B et R pour constituer le deuxième pixel affichable de la ligne vidéo impaire 66.
M par pas de 3, pour deux lignes physiques Li et Li+1 situées sur la trame vidéo impaire 17, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(ij+1) et p(i+1,j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire 39, puis les signaux vidéo envoyés aux sous-pixels p(iJ+2), p(i+I ,j+I) et p(i+I j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel affichable de la ligne vidéo impaire 39, puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i+1,j) et p(i+ij+l) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel affichable de la ligne vidéo impaire 41, puis les signaux vidéo envoyés aux sous-pixels p(iJ+2), p(i,j+3) et p(i+1 ,j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel affichable de la ligne vidéo impaire 41, et pour deux lignes physiques Li et Li+1 situées sur la trame vidéo paire 48, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+I j) et p(i+l,j+i) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo impaire 65, puis les signaux vidéo envoyés aux sous-pixels p(i"j+1), p(i,,j+2) et p(i+ij+2) représentant respectivement les couleurs primaires R, V et B pour constituer le deuxième pixel affichable de la ligne vidéo impaire 65, puis les signaux vidéo envoyés aux sous-pixels p(i,j), p(i,j+i) et p(i+I ,j+I) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo impaire 66, puis les signaux vidéo envoyés aux sous-pixels p(iJ+2), p(i+I ,j+2) et p(i+1,j+3) représentant respectivement les couleurs primaires V, B et R pour constituer le deuxième pixel affichable de la ligne vidéo impaire 66.
Dans un huitième exemple d'application du procédé à un écran du type Delta représenté à la figure 9, pour j variant périodiquement de I à M par pas de 3, pour quatre lignes physiques Li, Lui+1, Li+2 et Li+3 situées sur la trame vidéo impaire 20, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(ij+i) et p(i+1 j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire 47, puis les signaux vidéo envoyés aux sous-pixels p(i+1,j+1), p(i,j+2) et p(i+2j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le deuxième pixel affichable commun à la ligne vidéo impaire 51 et À la ligne vidéo 49, puis les signaux vidéo envoyés aux sous-pixels p(i+2,j), p(i+2j+1) et p(i+3,j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire 49, et pour trois lignes physiques Li, Li+1 et Li+2 situées sur la trame vidéo paire 52, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1j) et p(i+l,j+l) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo paire 68, puis les signaux vidéo envoyés aux sous-pixels p(i+1,j+2), p(i+2,j+1) et p(i+2j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel affichable de la ligne vidéo impaire 68.
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(ij+i) et p(i+1 j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire 47, puis les signaux vidéo envoyés aux sous-pixels p(i+1,j+1), p(i,j+2) et p(i+2j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le deuxième pixel affichable commun à la ligne vidéo impaire 51 et À la ligne vidéo 49, puis les signaux vidéo envoyés aux sous-pixels p(i+2,j), p(i+2j+1) et p(i+3,j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire 49, et pour trois lignes physiques Li, Li+1 et Li+2 situées sur la trame vidéo paire 52, on échantillonne:
- les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1j) et p(i+l,j+l) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo paire 68, puis les signaux vidéo envoyés aux sous-pixels p(i+1,j+2), p(i+2,j+1) et p(i+2j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel affichable de la ligne vidéo impaire 68.
Le procédé selon l'invention est mis en oeuvre à l'aide d'un premier exemple de dispositif représenté à la figure 10 et comportant un moyen de stockage 70 des données numériques représentant les pixels constituant les lignes vidéo de l'image à afficher, un moyen d' écriture 72 destiné à écrire périodiquement lesdites données dans ledit moyen de stockage, pendant une phase dite d'écriture, un moyen de lecture 74 destiné à lire, périodiquement, les données numériques préalablement écrites dans le moyen de stockage 70, pendant une phase dite de lecture et un moyen de commande 76 destiné à générer des signaux de synchronisation desdites phases d'écriture et desdites phases de lecture.
Comme on peut le voir à la figure 10, le moyen de stockage 70 comporte trois mémoires du type RAM, soit une première mémoire 80 dédiée au stockage des données numériques résultant de l'échantillonnage des signaux envoyés aux sous-pixels R, une deuxième mémoire 82 dédiée au stockage des données numériques résultant de l'échantillonnage des signaux envoyés aux sous-pixels V et une troisième mémoire 84 dédiée au stockage des données numériques résultant de l'échantillonnage des signaux envoyés aux sous-pixels B. Lesdites données numériques sont ensuite transmises au moyen de stockage 70 par l'intermédiaire de trois bus de données, soit un bus 86 relié à la mémoire 80, un bus 88 relié à la mémoire 82 et un bus 90 relié à la mémoire 84 transportant respectivement les données relatives aux sous-pixels R, les données relatives aux souspixels V et les données relatives aux sous-pixels B.
Les sorties respectives des mémoires 80, 82 et 84 sont reliées, via trois autres bus de données 92, 94 et 96 à un circuit d'adressage colonne 100, représenté à la figure 12, permettant de foumir les échantillons des signaux vidéo aux sous-pixels de l'écran matriciel.
Afin de mieux synchroniser les phases d'écriture et de lecture des données numériques, chacune desdites mémoires 80, 82, et 84 comporte deux zones distinctes, soit une première zorié 102 dans laquelle on écrit les données vidéo relatives aux sous-pixels R, V ou B d' une ligne vidéo donnée, pendant une phase d'écriture donnée, et une deuxième zone 104 à partir de laquelle on lit, pendant la même phase, les données vidéo relatives aux sous-pixels R, V ou B situés sur la ligne vidéo précédente, écrites pendant la phase d'écriture précédente.
Comme on peut le voir sur la figure 12, illustrant un exemple d'adressage selon l'invention, d' un écran du type Delta représenté partiellement, les pixels successifs PXk ( k=1, 2, 3 ect ) de la ligne vidéo 53 sont désignés en fonction de leurs positions spatiales respectives, indiquées par l'indice k. Chaque pixel est constitué par la combinaison de trois sous-pixels Rk, Vk et Bk. Les signaux SIG1, SIG2, SIG3 représentent les échantillons des signaux de luminance envoyés respectivement aux sous-pixels Rk, Vk et Rk, situés sur la même colonne vidéo. Ainsi les souspixels de la ligne physique Li reçoivent respectivement les séquences SIX1, SIG2, SIG3 comportant respectivement les échantillons RI, R3, R5..., V1,
V3, V5.... et B2, B4, B6 tandis que les sous-pixels de la ligne physique
Li+1 reçoivent respectivement les séquences SIG1, SIG2, SIG3 comportant respectivement les échantillons R2, R4, R6..., V2, V4, V6.... et B3, B5, B7.
V3, V5.... et B2, B4, B6 tandis que les sous-pixels de la ligne physique
Li+1 reçoivent respectivement les séquences SIG1, SIG2, SIG3 comportant respectivement les échantillons R2, R4, R6..., V2, V4, V6.... et B3, B5, B7.
La figure 14 illustre la phase pendant laquelle s'effectue, d'une part, L'écriture des données relatives aux sous-pixels R, V et B d'une ligne vidéo LV, et d'autre part, la lecture des données relatives aux sous-pixels R,
V et B de la ligne vidéo précédente LV-1, puis la phase suivante, pendant laquelle s'effectue, d'une part, L'écriture des données relatives aux souspixels R, V et B d'une ligne vidéo LV+1, et d'autre part, la lecture des données relatives aux sous-pixels R, V et B de la ligne vidéo LV écrite pendant la phase précédente.
V et B de la ligne vidéo précédente LV-1, puis la phase suivante, pendant laquelle s'effectue, d'une part, L'écriture des données relatives aux souspixels R, V et B d'une ligne vidéo LV+1, et d'autre part, la lecture des données relatives aux sous-pixels R, V et B de la ligne vidéo LV écrite pendant la phase précédente.
Comme cela a été expliqué précédemment l'écriture de ladite ligne vidéo LV et la lecture de ladite ligne vidéo LV-1 se font simultanément et leur synchronisation est obtenue par le moyen de commande 76 qui envoie au moyen d'écriture 72 et au moyen de lecture 74, un signal W/R, représenté à la figure 14, permettant, d'une part, d'écrire de façon progressive les données vidéo relatives aux sous-pixels R, V, ou B, et d'autre part, de lire lesdites données corrélativement aux positions spatiales respectives de chacun des sous-pixels R, V et B sur l'écran.
La phase d'écriture de la ligne LV est illustrée par les lignes
RSTW, WAB, WDA, et W/R tandis que la phase de lecture de la ligne LV-1 est illustrée par les lignes RSTR, RVAB, RVRDA, BDA, BRDA
La ligne RSTW représente un s
RSTW, WAB, WDA, et W/R tandis que la phase de lecture de la ligne LV-1 est illustrée par les lignes RSTR, RVAB, RVRDA, BDA, BRDA
La ligne RSTW représente un s
Les bus 86, 88, 90 sont configurés de telle sorte que les données
Rk, Vk et Bk représentées sur la ligne WDA soient écrites progressivement, tandis que les bus de données 92, 94, 96 sont configurés de telle sorte que les données RVRDA et BRDA, préalablement écrites, soient lues corrélativement à leur positions respectives sur l'écran.
Rk, Vk et Bk représentées sur la ligne WDA soient écrites progressivement, tandis que les bus de données 92, 94, 96 sont configurés de telle sorte que les données RVRDA et BRDA, préalablement écrites, soient lues corrélativement à leur positions respectives sur l'écran.
Selon un deuxième mode de réalisation, représenté à la figure 4, le moyen de stockage comporte deux groupes de trois piles du type FIFO, soit un premier groupe 200 comportant une pile 202, une pile 204 et une pile 206 destinées respectivement à contenir les données vidéo relatives aux sous-pixels R, V, et B situés sur I' une des lignes physiques constituant une ligne vidéo paire, et un deuxième groupe 210 comportant une pile 212, une pile 214 et une pile 216 destinées respectivement à contenir les données vidéo relatives aux sous-pixels R, V, et B situés sur I' une des lignes physiques constituant une ligne vidéo impaire. lesdites données sont préalablement triées avant d'être stockées au moyen d'un étage de démultiplexage 220 destiné, d'une part, à aiguiller les données relatives aux sous-pixels R, V, et B appartenant aux colonnes vidéo impaires vers le groupe 200 de manière à écrire lesdites données, pendant une phase d'écriture d'une ligne vidéo de durée D, respectivement dans les piles 202, 204 et 206, , et d'autre part, à aiguiller les données relatives aux souspixels
R, V, et B appartenant aux colonnes vidéo paires vers le groupe 210, de manière à écrire lesdites données, pendant la phase d'écriture, respectivement dans les piles 212, 214 et 216.
R, V, et B appartenant aux colonnes vidéo paires vers le groupe 210, de manière à écrire lesdites données, pendant la phase d'écriture, respectivement dans les piles 212, 214 et 216.
Les données écrites respectivement dans les piles 202, 204, 206, 212, 214 et 216 sont transportées aux moyens des bus de données 220, 222, 224 vers un moyen de multiplexage 230 permettant de sélectionner à une fréquence 1/D, à partir d' une date coïncidant à la moitié de la durée D, une séquence de données représentant les sous-pixels appartenant À une ligne vidéo à afficher préalablement stockées dans l'une des piles 202, 204, 206,212,214ou216.
La figure 15 illustre partiellement une pile 202 et une pile 210 et la figure 16 illustre, la phase pendant laquelle s'effectue, d'une part,
L'écriture des données relatives aux sous-pixels R, V et B d'une ligne vidéo
LV, et d'autre part, la phase pendant laquelle s'effectue la lecture des données relatives aux sous-pixels R, V et B de ladite ligne vidéo LV précédemment écrites dans les piles 202 et 210, puis la phase, pendant laquelle s'effectue, d'une part, I'écriture des données relatives aux souspixels R, V et B de la ligne vidéo LV+1, et d'autre part, la phase pendant laquelle s'effectue la lecture des données relatives aux sous-pixels R, V et B de ladite ligne vidéo LV+1, précédemment écrites dans les piles 202 et 210.
L'écriture des données relatives aux sous-pixels R, V et B d'une ligne vidéo
LV, et d'autre part, la phase pendant laquelle s'effectue la lecture des données relatives aux sous-pixels R, V et B de ladite ligne vidéo LV précédemment écrites dans les piles 202 et 210, puis la phase, pendant laquelle s'effectue, d'une part, I'écriture des données relatives aux souspixels R, V et B de la ligne vidéo LV+1, et d'autre part, la phase pendant laquelle s'effectue la lecture des données relatives aux sous-pixels R, V et B de ladite ligne vidéo LV+1, précédemment écrites dans les piles 202 et 210.
La synchronisation desdites phases d'écriture et de lecture est réalisée par l'intermédiaire d'un moyen de synchronisation 240 fournissant, d'une part, à l'étage de démultiplexage 220, un premier signal périodique OW de fréquence F commandant l'écriture des données vidéo relatives aux souspixels R, V et B situés sur une colonne vidéo impaire respectivement dans les piles 202, 204 et 206, et un deuxième signal périodique EW de fréquence F commandant l'écriture des données vidéo relatives aux souspixels R, V et B situés sur une colonne vidéo paire respectivement dans les piles 212, 214 et 216, et, d'autre part, au moyen de multiplexage 230 un troisième signal périodique RD de fréquence 2*F commandant la lecture des données vidéo relatives aux sous-pixels d'une colonne vidéo paire (respectivement impaire) sélectionnée par le moyen de multiplexage 230.
Sur la figure 16, La ligne IE représente un signal d'initialisation de la phase d'écriture, la ligne OW représente le signal de commande de l'écriture des données vidéo relatives aux sous-pixels R, V et 8 situés sur une colonne vidéo impaire, la ligne EW représente le signal de commande de l'écriture des données vidéo relatives aux sous-pixels R, V et B situés sur une colonne vidéo paire, la ligne WDA représente les données numériques à écrire dans les piles 202 et 210, la ligne IL représente un signal d'initialisation de la phase de lecture, la ligne RDA représente les données lues, la ligne OEE représente un signal de sélection des données relatives aux sous-pixels R, V et B situés sur une colonne vidéo impaire, la ligne EOE représente un signal de sélection des données relatives aux sous-pixels R,
V et B situés sur une colonne vidéo paire. Comme on peut le voir sur les lignes OW, I'écriture dans la pile 202 des données vidéo relatives aux souspixels R, V et B situés sur une colonne vidéo impaire est synchronisée sur chaque front montant du signal OW. De même, l'écriture, dans la pile 210, des données vidéo relatives aux sous-pixels R, V et B situés sur une colonne vidéo paire est synchronisée sur chaque front montant du signal
EW. Le signal RD permettant la lecture des données numériques a une fréquence double de celle des signaux OW et EW. Par conséquent, afin de synchroniser, avec la fréquence d'une ligne vidéo, la durée totale des phases de lecture des données relatives aux sous-pixels R, V et B situés sw une colonne vidéo impaire et celles relatives aux sous-pixels R, V et B situés sur une colonne vidéo paire, lesdites phases de lecture démarrent lorsque les piles 202 et 212 sont à moitié pleines. Ainsi dans l'exemple de la figure 16, les données impaires sont lues à chaque front montant du signal RD à partir d'un instant coïncidant avec l'écriture, de la 321 nièce donnée, située dans cet exemple à la moitié de la pile 202, et lorsque le signal OEE a un niveau logique Haut. Parallèlement les données paires sont lues À chaque front montant du signal RD à un instant coïncidant avec l'écriture, dans la pile 212, de la 321nièce donnée lorsque le signal'EOE'a un niveau logique
Haut.
V et B situés sur une colonne vidéo paire. Comme on peut le voir sur les lignes OW, I'écriture dans la pile 202 des données vidéo relatives aux souspixels R, V et B situés sur une colonne vidéo impaire est synchronisée sur chaque front montant du signal OW. De même, l'écriture, dans la pile 210, des données vidéo relatives aux sous-pixels R, V et B situés sur une colonne vidéo paire est synchronisée sur chaque front montant du signal
EW. Le signal RD permettant la lecture des données numériques a une fréquence double de celle des signaux OW et EW. Par conséquent, afin de synchroniser, avec la fréquence d'une ligne vidéo, la durée totale des phases de lecture des données relatives aux sous-pixels R, V et B situés sw une colonne vidéo impaire et celles relatives aux sous-pixels R, V et B situés sur une colonne vidéo paire, lesdites phases de lecture démarrent lorsque les piles 202 et 212 sont à moitié pleines. Ainsi dans l'exemple de la figure 16, les données impaires sont lues à chaque front montant du signal RD à partir d'un instant coïncidant avec l'écriture, de la 321 nièce donnée, située dans cet exemple à la moitié de la pile 202, et lorsque le signal OEE a un niveau logique Haut. Parallèlement les données paires sont lues À chaque front montant du signal RD à un instant coïncidant avec l'écriture, dans la pile 212, de la 321nièce donnée lorsque le signal'EOE'a un niveau logique
Haut.
Grâce au procédé et au dispositif selon l'invention, la résolution obtenue pour les écrans du type orthogonal et du type Delta est égale à Mur/3 et donc double de la résolution obtenue par les modes d'adressage de ces écrans selon les procédés de l'art antérieur décrits précédemment et la résolution verticale est égale à N/2 pour des lignes strictement verticales et à N pour des lignes diagonales.
Claims (23)
1. Procédé d'adressage d'un écran matriciel propre à afficher une image comportant une pluralité de lignes et de colonnes vidéo dont les pixels constitutifs sont obtenus par combinaison d'une pluralité de souspixels R, V, B adressés à travers un réseau de N lignes et M colonnes physiques quadrillant la surface d'affichage de l'écran, caractérisé en ce que l'on utilise au moins deux lignes physiques successives de la surface de
L'écran pour constituer une ligne vidéo de l'image à afficher.
2. Procédé selon la revendication 1, caractérisé en ce que l'on décompose l'image à afficher en une trame impaire (9, 11, 13, 15, 17, 19, 20) comprenant des lignes vidéo impaires (21, 23, 25, 27, 29, 31, 33, 35, 37, 39, 41, 43, 45, 47, 49) et une trame paire (40, 42, 44, 46, 48; 50, 52) comprenant des lignes vidéo paires (54, 56, 58, 60, 62, 64, 66, 68), lesdites trames impaires et paires étant décalées, I'une par rapport à l'autre dune ligne physique, de manière à permettre un entrelacement des lignes vidéo impaires avec les lignes vidéo paires.
3. Procédé selon la revendication 2, caractérisé en ce que l'on combine deux sous-pixels contigus situé sur la ligne physique Li (respectivement Li+1) avec un sous-pixel situé sur la ligne physique Li+1 (respectivement Li) pour adresser un pixel de la ligne vidéo (21, 23, 25, 27, 29, 31, 33, 35, 37, 39, 41, 43, 45, 47, 49, 51, 53) (respectivement (54, 56, 58, 60, 62, 64, 66)).
4. Procédé selon la revendication 2, caractérisé en ce que l'on combine un premier sous-pixel situé sur la ligne physique Li avec un deuxième sous-pixel adjacent au premier sous-pixel, et situé sur la ligne physique Li+1 pour adresser un pixel de la ligne vidéo (45, 47) (respectivement 64).
5. Procédé selon la revendication 1 à 4, caractérisé en ce que ron envoie à chaque sous-pixel R, un signal vidéo analogique de luminance correspondant à la couleur primaire R, à chaque sous-pixel V un signal vidéo analogique de luminance correspondant à la couleur primaire V et À chaque sous-pixel B un signal vidéo analogique de luminance correspondant à la couleur primaire B.
6. Procédé selon la revendication 5, caractérisé en ce que l'on échantillonne simultanément ou non les signaux vidéo envoyés aux souspixels combinés.
7. Procédé selon la revendication 5, caractérisé en ce que ron échantillonne les signaux vidéo envoyés aux sous-pixels combinés corrélativement à leurs positions respectives sur la surface de l'écran.
8. Procédé selon les revendications 5 å, appliqué à un écran du type orthogonal, caractérisé en ce que, pour j variant périodiquement de 1 À
M, et pour deux lignes physiques Li et Li+1 données située sur la trame impaire (19), on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j) et p(i+I j) représentant respectivement les couleurs primaires R et V pour constituer les premiers pixels affichables de la ligne vidéo impaire (43, 45),
puis les signaux vidéo envoyés aux sous-pixels p(i,j+1 ) et p(i+1,j+1) représentant respectivement les couleurs primaires V et B pour constituer les deuxièmes pixels affichables de ladite ligne vidéo impaire (43, 45),
et pour deux lignes physiques Li et Li+1 données située sur la trame paire (50), on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j) et p(i+1 j) représentant respectivement les couleurs primaires V et R pour constituer le premier pixel affichable de la ligne vidéo paire (67),
puis les signaux vidéo envoyés aux sous-pixels p(ij+1) et p(i+1 ,j+1) représentant respectivement les couleurs primaires B et G pour constituer le deuxième pixel affichable de ladite ligne vidéo paire (67).
9. Procédé selon les revendications 5 à 7, appliqué à un écran du type orthogonal, caractérisé en ce que pour j variant périodiquement de 1 à
M par pas de 3, et pour deux lignes physiques Li et Li+l données situées sur la trame impaire (9), on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j), p(i, j+1) et p(i+1,j) représentant respectivement les couleurs primaires R V et B pour constituer le premier pixel affichable de la ligne vidéo impaire (21, 23),
puis les signaux vidéo envoyés aux sous-pixels p(i,j+2), p(i+I j+1) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le pixel suivant de ladite ligne vidéo impaire (21, 23),
et pour deux lignes physiques Li et Li+1 données situées sur la trame paire (40), on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1, j) et p(i+1 ,j+1) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo paire (54),
puis les signaux vidéo envoyés aux sous-pixels p(ij+i), p(ij+2) et p(i+1, j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le pixel suivant de ladite ligne vidéo paire (54).
10. Procédé selon les revendications 5 à 7, appliqué à un écran du type orthogonal, caractérisé en ce que, pour j variant périodiquement de 1 à M par pas de 3, et pour deux lignes physiques Li et Li+1 données située sur la trame impaire (11), on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i+1j) et p(i+1,j+1) représentant respectivement les couleurs primaires V et B et R pour constituer le premier pixel affichable de la ligne vidéo impaire (25, 27), puis les signaux vidéo envoyés aux sous-pixels p(i,j+2), p(i,j+3) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le pixel suivant de ladite ligne vidéo impaire (25, 27),
et pour deux lignes physiques Li et Li+1 données situées sur la trame paire 42, on échantillonne:
les signaux vidéo envoyés aux sous-pixels - p(ij), p(ij+I) et p(i+1 j+1) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo paire (56),
puis les signaux vidéo envoyés aux souspixels p(i,j+2), p(i+lj+2) et p(i+t,j+3) représentant respectivement les couleurs primaires V, B et R pour constituer le pixel suivant de ladite ligne vidéo paire 56.
11. Procédé selon les revendications 5 à 7, appliqué à un écran du type orthogonal, caractérisé en ce que, pour j variant périodiquement de 1 à M par pas de 3, et pour six lignes physiques Li et Li+1, Li+2, Li+3, Li+4,
Li+5 données situées sur la trame impaire (13), on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1, j) et p(i+i,j+i) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire (29),
puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i,j+2) et p(i+1, j+2) représentant respectivement les couleurs primaires V, B et R pour constituer le deuxième pixel de ladite ligne vidéo impaire (29),
puis les signaux vidéo envoyés aux sous-pixels p(ij), p(i+I j) et p(i+i,j+l) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel de la ligne vidéo impaire suivante (31),
puis les signaux vidéo envoyés aux sous-pixeis p(i,j+1), p(i, j+2) et p(i+1,j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le deuxième pixel affichable de la ligne vidéo impaire (31),
puis les signaux vidéo envoyés aux sous-pixels p(ij), p(i+I j) et p(i+1, j+1 ) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel de ladite ligne vidéo impaire (33),
puis les signaux vidéo envoyés aux sous-pixels p(ij+i), p(ij+2) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pow constituer le deuxième pixel de ladite ligne vidéo impaire (33);
et pour six lignes physiques Li et Li+1, Li+2, Li+3, Li+4, Li+5 données situées sur la trame paire 44,
on échantillonne:
les signaux vidéo envoyés aux sous pixels p(i,j), p(i+1, j) et p(i+I j+1) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel affichable de la ligne vidéo paire (58),
puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(ij+2) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel de ladite ligne vidéo paire (58),
puis les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+I j) et p(i+1, j+1) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel de la ligne vidéo paire suivante (60),
puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i, j+2) et p(i+1 ,j+2) représentant respectivement les couleurs primaires V, B et R pour constituer le deuxième pixel affichable de la ligne vidéo paire (60),
puis les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+I j) et p(i+1, j+1) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel de ladite ligne vidéo paire (62),
puis les signaux vidéo envoyés aux sous-pixels p(ij+1), p(i,j+2) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel de ladite ligne vidéo paire (62).
12. Procédé selon les revendications 5 à 7, appliqué À un écran du type Delta, caractérisé en ce que, pour j variant périodiquement de I à M par pas de 3, et pour deux lignes physiques Li et Li+1 données situées sur la trame impaire (15), on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j), p(i, j+1 ) et p(i+1 j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire (35, 37),
puis les signaux vidéo envoyés aux sous-pixels p(ij+2), p(i+ij+l) et p(i+1, j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le pixel suivant de ladite ligne vidéo impaire (35, 37),
et pour deux lignes physiques Li et Li+l situées sur la trame paire (46), on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1 j) et p(i+1 j+1) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo paire (64),
puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(ij+2) et p(i+1, j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le pixel suivant de ladite ligne vidéo paire (64).
13. Procédé selon les revendications 5 à 7, appliqué à un écran du type Delta, caractérisé en ce que, pour j variant périodiquement de 1 à M par pas de 3,
pour deux lignes physiques Li et Li+1 situées sur la trame vidéo impaire (17), on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j), p(i,j+1) et p(i+Ij) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire (39),
puis les signaux vidéo envoyés aux sous-pixels p(ij+2), p(i+1 j+I) et p(i+1 j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel affichable de la ligne vidéo impaire (39),
puis les signaux vidéo envoyés aux sous-pixels p(i,j+1), p(i+1j) et p(i+1 'j+1) représentant respectivement les couleurs primaires V, B et R pour constituer le premier pixel affichable de la ligne vidéo impaire suivante (41),
puis les signaux vidéo envoyés aux sous-pixels p(ij+2), p(ij+3) et p(i+1 j+2) représentant respectivement les couleurs primaires B, R et V pour constituer le deuxième pixel affichable de la ligne vidéo impaire suivante (41),
et pour deux lignes physiques Li et Li+1 situées sur la trame vidéo paire (48), on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1 j) et p(i+1 j+1) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo impaire (65),
puis les signaux vidéo envoyés aux sous-pixels p(i,j), p(i,j+1) et p(i+1 ,j+1) représentant respectivement les couleurs primaires R, V et B pour constituer le deuxième pixel affichable de la ligne vidéo impaire (65),
puis les signaux vidéo envoyés aux sous-pixels p(i,j), p(ij+1) et p(i+1 J+1) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo impaire suivante (66),
puis les signaux vidéo envoyés aux sous-pixels p(i,j+2), p(i+1j+2) et p(i+1 j+3) représentant respectivement les couleurs primaires V, B et R pour constituer le deuxième pixel affichable de la ligne vidéo impaire suivante (66).
14. Procédé selon les revendications 5 à 7, appliqué à un écran du type Delta, caractérisé en ce que, pour j variant périodiquement de 1 à M par pas de 3, pour quatre lignes physiques Li, Li+1, Li+2 et Li+3 situées sur la trame vidéo impaire 20, on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j), p(ij+1) et p(i+ij) représentant respectivement les couleurs primaires R, V et 8 pour constituer le premier pixel affichable de la ligne vidéo impaire (47),
puis les signaux vidéo envoyés aux sous-pixels p(i+1 j+1), p(ij+2) et p(i+2,j+2) représentant respectivement les couleurs primaires R, V et B pour constituer le deuxième pixel affichable commun à la ligne vidéo impaire (51) et à la ligne vidéo (49),
puis les signaux vidéo envoyés aux sous-pixels p(i+2j), pi+2j+1) et p(i+3,j) représentant respectivement les couleurs primaires R, V et B pour constituer le premier pixel affichable de la ligne vidéo impaire (49),
pour trois lignes physiques Li, Li+1 et Li+2 situées sur la trame vidéo paire 52, on échantillonne:
les signaux vidéo envoyés aux sous-pixels p(i,j), p(i+1 j) et p(i+I ,j+1) représentant respectivement les couleurs primaires B, R et V pour constituer le premier pixel affichable de la ligne vidéo paire (68),
puis les signaux vidéo envoyés aux sous-pixels p(i+1 j+2), p(i+2j+1) et p(i+2,j+2) représentant respectivement les couleurs primaires B,
R et V pour constituer le deuxième pixel affichable de la ligne vidéo impaire (68).
15. Dispositif destiné à mettre en oeuvre le procédé selon les revendications 1 à 14, caractérisé en ce qu'il comporte, un moyen de stockage (70; 200; 210) des données numériques représentant les lignes vidéo constituant l'image à afficher.
16. Dispositif selon la revendication 15, caractérisé en ce qu'il comporte un moyen d' écriture (72) destiné à écrire périodiquement lesdites données dans ledit moyen de stockage, pendant une phase dite d'écriture, un moyen de lecture (74) destiné à lire, périodiquement, les données numériques préalablement écrites dans le moyen de stockage (70), pendant une phase dite de lecture et un moyen de commande (76) destiné à générer des signaux de synchronisation desdites phases d'écriture et desdites phases de lecture.
17. Dispositif selon la revendication 16, caractérisé en ce que le moyen de stockage (70) comporte trois mémoires du type RAM, soit une première mémoire (80) dédiée au stockage des données numériques résultant de l'échantillonnage des signaux envoyés aux sous-pixels R, une deuxième mémoire (82) dédiée au stockage des données numériques résultant de l'échantillonnage des signaux envoyés aux sous-pixels V et une troisième mémoire (84) dédiée au stockage des données numériques résultant de l'échantillonnage des signaux envoyés aux sous-pixels B.
18. Dispositif selon la revendication 17, caractérisé en ce que chacune desdites mémoires (80), (82), et (84) comporte deux zones distinctes, soit une première zone (102) dans laquelle on écrit les données vidéo relatives aux sous-pixels R, V ou B d' une ligne vidéo donnée, pendant une phase d'écriture donnée, et une deuxième zone (104) À partir de laquelle on lit, pendant la même phase, les données vidéo relatives aux sous-pixels R, V ou B situés la ligne vidéo précédente et écrites pendant la phase d'écriture précédente.
19. Dispositif selon les revendications 16 à 18, caractérisé en ce que le moyen de commande (76) envoie au moyen d'écriture (72) et au moyen de lecture (74), un signal W permettant, d'une part, d'écrire de façon progressive les données vidéo relatives aux sous-pixels R, V, ou B, et d'autre part, de lire lesdites données corrélativement aux positions spatiales respectives de chacun des sous-pixels R, V et B sur l'écran.
20. Dispositif selon la revendication 15, caractérisé en ce que le moyen de stockage comporte deux groupes de trois piles du types FIFO, soit un premier groupe (200) comportant une pile (202), une pile (204) et une pile (206( destinées respectivement à contenir les données vidéo relatives aux sous-pixels R, V, et B situés sur I' une des lignes physiques constituant une ligne vidéo paire, et un deuxième groupe (210) comportant une pile (212), une pile (214) et une pile (216) destinées respectivement à contenir les données vidéo relatives aux sous-pixels R, V, et B situés sur I' une des lignes physiques constituant une ligne vidéo impaire.
21. Dispositif selon la revendication 20, caractérisé en ce qu'il comporte un étage de démultiplexage (220( destiné, d'une part, à aiguiller les données relatives aux sous-pixels R, V, et B appartenant aux colonnes vidéo impaires vers le groupe (200) de manière à écrire lesdites données, pendant une phase d'écriture d'une ligne vidéo da durée D, respectivement dans les piles (202, 204 et 206), et d'autre part, à aiguiller les données relatives aux sous-pixels R, V, et B appartenant aux colonnes vidéo paires vers le groupe (210), de manière à écrire lesdites données, pendant la phase d'écriture, respectivement dans les piles (212, 214 et 216).
22. dispositif selon la revendication 21, caractérisé en ce qu'il comporte un moyen de multiplexage (230) permettant de sélectionner à une fréquence 1/D, à partir d' une date coïncidant à la moitié de la durée D, une séquence de données représentant les sous-pixels appartenant à une ligne vidéo à afficher préalablement stockées dans l'une. des piles (202, 204, 206, 212, 214 ou 216).
23. dispositif selon la revendication 22, caractérisé en ce quil comporte un moyen de synchronisation (240( foumissant, d'une part, À l'étage de démultiplexage (220) un premier signal périodique OW de fréquence F commandant l'écriture des données vidéo relatives aux souspixels R, V et B situés sur une colonne vidéo impaire respectivement dans les piles (202, 204 et 206(, et un deuxième signal périodique EW de fréquence F commandant l'écriture des données vidéo relatives aux souspixels R, V et B situés sur une ligne vidéo paire respectivement dans les piles (212, 214 et 216), et, d'autre part, au moyen de multiplexage (230) un troisième signal périodique RD de fréquence 2*F commandant la lecture des données vidéo relatives aux sous-pixels d'une ligne vidéo paire (respectivement impaire) sélectionnée par le moyen de multiplexage (230).
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9515405A FR2742910B1 (fr) | 1995-12-22 | 1995-12-22 | Procede et dispositif d'adressage d'un ecran matriciel |
KR10-1998-0704070A KR100425248B1 (ko) | 1995-12-22 | 1996-12-18 | 매트릭스스크린의어드레스지정장치 |
EP96942417A EP0976122B1 (fr) | 1995-12-22 | 1996-12-18 | Dispositif d'adressage d'un ecran matriciel |
DE69637857T DE69637857D1 (de) | 1995-12-22 | 1996-12-18 | Matrixanzeigeadressierungsverfahren |
US09/077,379 US6252613B1 (en) | 1995-12-22 | 1996-12-18 | Matrix display addressing device |
PCT/FR1996/002013 WO1997023861A1 (fr) | 1995-12-22 | 1996-12-18 | Dispositif d'adressage d'un ecran matriciel |
JP52335497A JP4105228B2 (ja) | 1995-12-22 | 1996-12-18 | マトリクス・スクリーンをアドレッシングする装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9515405A FR2742910B1 (fr) | 1995-12-22 | 1995-12-22 | Procede et dispositif d'adressage d'un ecran matriciel |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2742910A1 true FR2742910A1 (fr) | 1997-06-27 |
FR2742910B1 FR2742910B1 (fr) | 1998-04-17 |
Family
ID=9485892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR9515405A Expired - Fee Related FR2742910B1 (fr) | 1995-12-22 | 1995-12-22 | Procede et dispositif d'adressage d'un ecran matriciel |
Country Status (7)
Country | Link |
---|---|
US (1) | US6252613B1 (fr) |
EP (1) | EP0976122B1 (fr) |
JP (1) | JP4105228B2 (fr) |
KR (1) | KR100425248B1 (fr) |
DE (1) | DE69637857D1 (fr) |
FR (1) | FR2742910B1 (fr) |
WO (1) | WO1997023861A1 (fr) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0903717A2 (fr) * | 1997-09-13 | 1999-03-24 | Gia Chuong Phan | Dispositif d'affichage et méthode de commande dynamique d'éléments d'image |
EP0911792A2 (fr) * | 1997-10-22 | 1999-04-28 | Carl Zeiss | Méthode de formation d'une image sur un écran à couleurs et écran à couleurs approprié |
US7286136B2 (en) | 1997-09-13 | 2007-10-23 | Vp Assets Limited | Display and weighted dot rendering method |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4158874B2 (ja) * | 2000-04-07 | 2008-10-01 | 株式会社日立プラズマパテントライセンシング | 画像表示方法および表示装置 |
US7027013B2 (en) | 2000-12-22 | 2006-04-11 | Ifire Technology, Inc. | Shared pixel electroluminescent display driver system |
US6720972B2 (en) | 2001-02-28 | 2004-04-13 | Honeywell International Inc. | Method and apparatus for remapping subpixels for a color display |
JP2003043990A (ja) * | 2001-07-31 | 2003-02-14 | Fujitsu Ltd | カラー画像表示方法 |
KR100489445B1 (ko) | 2001-11-29 | 2005-05-17 | 엘지전자 주식회사 | 플라즈마 표시 패널의 구동방법 |
JP2005351920A (ja) * | 2004-06-08 | 2005-12-22 | Semiconductor Energy Lab Co Ltd | 表示装置の制御回路及びそれを内蔵した表示装置・電子機器並びにその駆動方法 |
US7705821B2 (en) * | 2005-01-31 | 2010-04-27 | Semiconductor Energy Laboratory Co., Ltd. | Driving method using divided frame period |
CN101523478B (zh) * | 2006-10-13 | 2011-09-21 | 夏普株式会社 | 显示装置和信号转换装置 |
JP5441312B2 (ja) * | 2007-02-09 | 2014-03-12 | 株式会社ジャパンディスプレイ | 表示装置 |
TWI395195B (zh) * | 2008-07-30 | 2013-05-01 | Orise Technology Co Ltd | 共用同一遞色演算表的方法及使用其之顯示面板驅動方法 |
WO2012067038A1 (fr) * | 2010-11-15 | 2012-05-24 | シャープ株式会社 | Dispositif d'affichage à couleurs multi-primaires |
CN102903318B (zh) * | 2011-07-29 | 2015-07-08 | 深圳云英谷科技有限公司 | 显示器的子像素排列及其呈现方法 |
US20180168855A1 (en) * | 2016-12-15 | 2018-06-21 | Penguin Fingers, Llc | Joint compress cold pack |
WO2019042072A1 (fr) * | 2017-08-31 | 2019-03-07 | 昆山国显光电有限公司 | Structure de pixels, dispositif d'affichage à oled et procédé de commande |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3634092A1 (de) * | 1986-10-07 | 1988-04-14 | Thomson Brandt Gmbh | Schaltungsanordnung zur verzoegerung eines digitalen signals |
EP0273995A1 (fr) * | 1987-01-08 | 1988-07-13 | Hosiden Electronics Co., Ltd. | Dispositif d'affichage plat |
EP0368572A2 (fr) * | 1988-11-05 | 1990-05-16 | SHARP Corporation | Dispositif et méthode de commande d'un panneau d'affichage à cristaux liquides |
US4985698A (en) * | 1987-10-28 | 1991-01-15 | Hitachi, Ltd. | Display panel driving apparatus |
EP0428324A2 (fr) * | 1989-11-13 | 1991-05-22 | DELCO ELECTRONICS CORPORATION (a Delaware corp.) | Panneau d'affichage adressé en matrice et circuit de commande compatible avec un TRC |
EP0619571A1 (fr) * | 1993-04-08 | 1994-10-12 | Sagem Sa | Afficheur matriciel en couleurs |
EP0686960A2 (fr) * | 1994-06-06 | 1995-12-13 | Canon Kabushiki Kaisha | Dispositif d'affichage et méthode de commande |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4792856A (en) * | 1987-04-14 | 1988-12-20 | Rca Licensing Corporation | Sampled data memory system as for a television picture magnification system |
JPH0248863A (ja) * | 1988-08-10 | 1990-02-19 | Nec Corp | ディジタルビデオ信号処理回路 |
US5841480A (en) * | 1989-09-07 | 1998-11-24 | Advanced Television Technology Center | Film to video format converter using least significant look-up table |
JPH06332843A (ja) | 1992-06-24 | 1994-12-02 | Seiko Epson Corp | 動画映像データ転送装置およびコンピュータシステム |
-
1995
- 1995-12-22 FR FR9515405A patent/FR2742910B1/fr not_active Expired - Fee Related
-
1996
- 1996-12-18 WO PCT/FR1996/002013 patent/WO1997023861A1/fr active IP Right Grant
- 1996-12-18 JP JP52335497A patent/JP4105228B2/ja not_active Expired - Fee Related
- 1996-12-18 KR KR10-1998-0704070A patent/KR100425248B1/ko not_active IP Right Cessation
- 1996-12-18 DE DE69637857T patent/DE69637857D1/de not_active Expired - Lifetime
- 1996-12-18 EP EP96942417A patent/EP0976122B1/fr not_active Expired - Lifetime
- 1996-12-18 US US09/077,379 patent/US6252613B1/en not_active Expired - Lifetime
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3634092A1 (de) * | 1986-10-07 | 1988-04-14 | Thomson Brandt Gmbh | Schaltungsanordnung zur verzoegerung eines digitalen signals |
EP0273995A1 (fr) * | 1987-01-08 | 1988-07-13 | Hosiden Electronics Co., Ltd. | Dispositif d'affichage plat |
US4985698A (en) * | 1987-10-28 | 1991-01-15 | Hitachi, Ltd. | Display panel driving apparatus |
EP0368572A2 (fr) * | 1988-11-05 | 1990-05-16 | SHARP Corporation | Dispositif et méthode de commande d'un panneau d'affichage à cristaux liquides |
EP0428324A2 (fr) * | 1989-11-13 | 1991-05-22 | DELCO ELECTRONICS CORPORATION (a Delaware corp.) | Panneau d'affichage adressé en matrice et circuit de commande compatible avec un TRC |
EP0619571A1 (fr) * | 1993-04-08 | 1994-10-12 | Sagem Sa | Afficheur matriciel en couleurs |
EP0686960A2 (fr) * | 1994-06-06 | 1995-12-13 | Canon Kabushiki Kaisha | Dispositif d'affichage et méthode de commande |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0903717A2 (fr) * | 1997-09-13 | 1999-03-24 | Gia Chuong Phan | Dispositif d'affichage et méthode de commande dynamique d'éléments d'image |
EP0903717A3 (fr) * | 1997-09-13 | 1999-12-29 | Gia Chuong Phan | Dispositif d'affichage et méthode de commande dynamique d'éléments d'image |
US6661429B1 (en) | 1997-09-13 | 2003-12-09 | Gia Chuong Phan | Dynamic pixel resolution for displays using spatial elements |
US7286136B2 (en) | 1997-09-13 | 2007-10-23 | Vp Assets Limited | Display and weighted dot rendering method |
US8860642B2 (en) | 1997-09-13 | 2014-10-14 | Vp Assets Limited | Display and weighted dot rendering method |
EP0911792A2 (fr) * | 1997-10-22 | 1999-04-28 | Carl Zeiss | Méthode de formation d'une image sur un écran à couleurs et écran à couleurs approprié |
EP0911792A3 (fr) * | 1997-10-22 | 2000-03-22 | Carl Zeiss | Méthode de formation d'une image sur un écran à couleurs et écran à couleurs approprié |
Also Published As
Publication number | Publication date |
---|---|
WO1997023861A1 (fr) | 1997-07-03 |
KR19990071791A (ko) | 1999-09-27 |
DE69637857D1 (de) | 2009-04-16 |
EP0976122B1 (fr) | 2009-03-04 |
US6252613B1 (en) | 2001-06-26 |
JP4105228B2 (ja) | 2008-06-25 |
FR2742910B1 (fr) | 1998-04-17 |
JP2000502813A (ja) | 2000-03-07 |
EP0976122A1 (fr) | 2000-02-02 |
KR100425248B1 (ko) | 2004-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0976122B1 (fr) | Dispositif d'adressage d'un ecran matriciel | |
EP0697161B1 (fr) | Dispositif et systeme video autostereoscopique | |
EP0311500B1 (fr) | Procédé de visualisation d'images en demi-teintes sur un écran matriciel | |
FR2599873A1 (fr) | Systeme d'affichage video | |
FR2736236A1 (fr) | Systeme video et procede d'utilisation de celui-ci | |
FR2543776A1 (fr) | Agencement de correction de distorsion de la trame dans un systeme de traitement video numerique | |
FR2554948A1 (fr) | Procedes et appareils de codage et d'affectation d'emplacements de memoire pour affichage d'images traitees numeriquement | |
JPS63104582A (ja) | テレビジョン信号処理回路 | |
FR2613570A1 (fr) | Correcteur d'inversion d'entrelacement pour un generateur de signaux video a image dans l'image | |
FR3034902A1 (fr) | Procede d’affichage d’images sur un ecran matriciel | |
FR2587499A1 (fr) | Systeme de visualisation sur un ecran d'affichage matriciel de donnees en coordonnees polaires | |
US6552750B1 (en) | Apparatus for improving the presentation of graphics data on a television display | |
EP0524842B1 (fr) | Dispositif temps réel de présentation d'images de type télévision sur un écran de visualisation | |
FR2664779A1 (fr) | Procede de traitement d'un signal video. | |
FR2551286A1 (fr) | Dispositif de visualisation d'une image de television couleur balayee progressivement | |
FR2910684A1 (fr) | Procede d'adressage d'un afficheur a cristaux liquides en mode sequentiel couleur. | |
FR2736495A1 (fr) | Procede permettant de generer une video a haute resolution | |
EP0472463B1 (fr) | Procédé de présentation d'images sur un écran matriciel et système pour la mise en oeuvre du procédé | |
FR2803076A1 (fr) | Procede d'adressage de panneau d'affichage au plasma | |
FR2631474A1 (fr) | Circuit et procede pour commander la presentation d'une information de couleurs a un dispositif d'affichage d'un systeme informatique | |
US5442371A (en) | Simplified image reconstruction interface | |
EP1131810A1 (fr) | Procede d'adressage pour ecran a plasma base sur un adressage separe des lignes paires et impaires | |
FR2901906A1 (fr) | Procede et dispositif d'affichage d'une sequence d'images | |
EP0287174A1 (fr) | Dispositif d'anamorphose et système muni d'un tel dispositif | |
JP2790546B2 (ja) | 表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |