Nothing Special   »   [go: up one dir, main page]

JP5224721B2 - Video projection system - Google Patents

Video projection system Download PDF

Info

Publication number
JP5224721B2
JP5224721B2 JP2007129620A JP2007129620A JP5224721B2 JP 5224721 B2 JP5224721 B2 JP 5224721B2 JP 2007129620 A JP2007129620 A JP 2007129620A JP 2007129620 A JP2007129620 A JP 2007129620A JP 5224721 B2 JP5224721 B2 JP 5224721B2
Authority
JP
Japan
Prior art keywords
video
image
projector
screen
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007129620A
Other languages
Japanese (ja)
Other versions
JP2008288714A (en
Inventor
貴之 大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OHIRA TECH LTD.
Original Assignee
OHIRA TECH LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OHIRA TECH LTD. filed Critical OHIRA TECH LTD.
Priority to JP2007129620A priority Critical patent/JP5224721B2/en
Publication of JP2008288714A publication Critical patent/JP2008288714A/en
Application granted granted Critical
Publication of JP5224721B2 publication Critical patent/JP5224721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Description

本発明は、複数のプロジェクタを用いてドームスクリーン上に映像を投影し、プラネタリウムなどに応用される映像投影システムに関する。   The present invention relates to a video projection system that projects a video on a dome screen using a plurality of projectors and is applied to a planetarium or the like.

ドームスクリーンに映像を投影するに際し、複数のプロジェクタを用いて高解像度の映像を得るマルチプロジェクションシステムがプラネタリウム装置として多用されている。
これは単一のプロジェクタでは投影できない高解像度の映像を投影できる特長があり極めて有用である。ドームスクリーン全体に映像を投影するドーム映像装置では、魚眼レンズを使用する単眼式に比べてマルチプロジェクション方式は高解像度が得やすく、魚眼レンズ特有の周辺像の収差、すなわち地平線付近の画質の劣化や周辺減光による地平線付近の明度不足などの問題が生じにくいため、中〜大規模のドームシアターにおける映像投影ではマルチプロジェクション方式が好んで使用されている。また、このプラネタリウム施設に光学式プラネタリウムを併用する場合、プロジェクタを中心に設置せずドーム周辺に設置できるマルチプロジェクション方式は極めて有用である。
When projecting an image on a dome screen, a multi-projection system that obtains a high-resolution image using a plurality of projectors is often used as a planetarium device.
This is extremely useful because it has the feature that it can project high-resolution images that cannot be projected by a single projector. In the dome image device that projects the image on the entire dome screen, the multi-projection method is easier to obtain than the monocular method using a fisheye lens, and the aberration of the peripheral image peculiar to the fisheye lens, that is, the deterioration of the image quality near the horizon or the peripheral reduction. Since it is difficult to cause problems such as insufficient brightness near the horizon due to light, the multi-projection method is preferably used for image projection in medium to large dome theaters. Further, when an optical planetarium is used in combination with this planetarium facility, a multi-projection method that can be installed around the dome without installing the projector at the center is extremely useful.

マルチプロジェクション方式の映像システムでは、共通のスクリーン面に対し複数のプロジェクタから映像を投影する。この際、それぞれにあらかじめ投影する領域を別々に設定しておき、おのおののプロジェクタから投影される映像が一つに繋がるように境界線を設定してドームスクリーン全体の映像を形成する。それぞれのプロジェクタから投影される映像がつながって一つの映像として見えるためには、当然ながらそれぞれの投影位置の違いや特性のばらつきに起因するさまざまな映像の歪みを補正し、スクリーン面の継ぎ目でぴったり一致するように投影しなければならないのはむろんである。マルチプロジェクション方式における位置あわせについては特許文献1および2などで提案されている。   In a multi-projection video system, video is projected from a plurality of projectors onto a common screen surface. At this time, the areas to be projected are set separately for each, and the boundary line is set so that the images projected from the respective projectors are connected to one to form an image of the entire dome screen. In order for the images projected from the projectors to be connected and viewed as a single image, it is natural to correct various image distortions caused by differences in the projection positions and variations in characteristics, making it perfect at the joints on the screen surface. Of course you have to project to match. The alignment in the multi-projection method is proposed in Patent Documents 1 and 2.

こうした歪み補正には複雑な演算が必要なため、歪み補正機能を有する映像送出装置や、映像変形装置を用い、実際の歪み補正演算にはコンピュータを用いることがほとんどである。
しかし、実際には投影に僅かな誤差を完全にゼロにすることができないので、それぞれの投影面の継ぎ目を目立たなくするため、継ぎ目付近では、継ぎ目を挟む複数の投影面の映像をある程度の幅にわたって重複させた上、それぞれにグラデーションをかけて継ぎ目を目立たなくするような処理を行う。これをエッジブレンディングと呼ぶ。
エッジブレンディングには、大まかにわけて電子式ブレンディングと光学式ブレンディングがある。
Since such distortion correction requires complicated calculation, it is almost the case that a video transmission device or a video deformation device having a distortion correction function is used, and a computer is used for actual distortion correction calculation.
However, in reality, slight errors in projection cannot be made completely zero, so in order to make the joints between the projection planes inconspicuous, the images on the multiple projection planes sandwiching the joints have a certain width in the vicinity of the joints. In addition, the processing is performed so that the joints are made inconspicuous by applying gradation to each. This is called edge blending.
Edge blending is roughly divided into electronic blending and optical blending.

電子式ブレンディングは、各プロジェクタから投影される画面で、別のプロジェクタの投影面に重なるため投影する必要のない範囲は、映像そのものにあらかじめマスキング処理をするか、または電気的に映像信号にマスキング処理を行う方法である。
一方、光学式ブレンディングは、プロジェクタの投影レンズ前に、所定の形状の透過窓が開けられた光学マスクを設置するもので、それぞれの投影画面で不必要な部分を遮光してしまうものである。遮光板には投影レンズの焦点が合わないため、結果的に光学マスクの影にはある程度のぼけが生じ、グラデーション効果をもたらす(特許文献3)。
Electronic blending is a screen projected from each projector, and the area that does not need to be projected because it overlaps the projection surface of another projector is either masked in advance on the video itself, or electrically masked on the video signal. It is a method to do.
On the other hand, in optical blending, an optical mask having a predetermined shape of a transmission window is installed in front of a projection lens of a projector, and unnecessary portions of each projection screen are shielded from light. Since the projection lens is not focused on the light-shielding plate, the shadow of the optical mask results in a certain degree of blur, resulting in a gradation effect (Patent Document 3).

電子式ブレンディングでは、境界線をソフトウエアで自在に設定でき、コンピュータによる演算を駆使し、またカメラによる撮像によりブレンディング自体を自動化可能な技術も存在する(特許文献1)。
ただし、プロジェクタとして多く用いられる液晶式やDLP式、レーザー投影式プロジェクタでは、あらかじめ照射した光を光学素子により各画素ごとに制御する方式なので、原理的に完全な黒を作ることが難しい。すなわち、プロジェクタの光源が点灯している限り、真っ黒であるべき部分も僅かに黒浮きして見えてしまい、映像のコントラストが低下する。特にプラネタリウムにおいて、恒星と共に投影する場合、この黒浮き現象によるフレームが見えてしまい、恒星の見え方に影響する。特にスクリーン上で多数の投影面が重なる領域では、黒浮きが投影面の分だけ加算されることになり益々不自然さが誇張される。電子式ブレンディング方式だけではこの問題を解決することが困難である。
特許3497805号 特開2006−337682号公報 特開平5−19346号公報
In electronic blending, there is a technique that can freely set boundaries with software, make full use of computer calculations, and can automate blending itself by imaging with a camera (Patent Document 1).
However, in liquid crystal type, DLP type, and laser projection type projectors that are often used as projectors, it is difficult in principle to make perfect black because the light irradiated in advance is controlled for each pixel by an optical element. In other words, as long as the light source of the projector is lit, the portion that should be completely black appears to be slightly black, and the contrast of the image is lowered. In particular, in the planetarium, when projecting together with a star, a frame due to this black floating phenomenon is seen, which affects the way the star is seen. In particular, in a region where a large number of projection planes overlap on the screen, the black float is added by the amount corresponding to the projection plane, and unnaturalness is exaggerated more and more. It is difficult to solve this problem only by the electronic blending method.
Patent 3497805 JP 2006-337682 A Japanese Patent Laid-Open No. 5-19346

そこで光学式ブレンディングが使用されている。光学式ブレンディングでは、余分な部分の光を物理的にカットしてしまうので、電子式のような背景のフレームが出てしまう問題を軽減できる。また、光学マスクである程度余裕を残して余分な光をカットして、電子的な補正で継ぎ目付近の明度を一様に補正することにより良好なつながりを得る方法も実施されている。
ところで、近年のプラネタリウムでは、光学式恒星投影機とプロジェクタから投影されるディジタル映像を併用する複合型プラネタリウムが有効性を増している。
恒星は光学式恒星投影機から投影したほうが美しく投影でき、また複雑な演出効果はプロジェクタが得意とするためである。しかし光学式恒星投影機とプロジェクタを併用して使用する場合、光学式恒星投影機から恒星を投影し、星座線や星座絵などをプロジェクタから投影する場合、プロジェクタの黒浮きは星空の見え方に大いに影響するので、最小限にしなければならない。また、星座絵や星座線などは星との明るさのバランスからさほど明るく投影される必要はない。
Therefore, optical blending is used. In optical blending, an extra portion of light is physically cut off, which can reduce the problem of an electronic background frame. In addition, a method of obtaining a good connection by cutting off excess light while leaving a certain margin with an optical mask and correcting the lightness in the vicinity of the joint uniformly by electronic correction.
By the way, in recent planetariums, composite planetariums using both an optical stellar projector and a digital image projected from a projector have become more effective.
This is because a star can be projected more beautifully when projected from an optical stellar projector, and the projector is good at complicated effects. However, when using an optical stellar projector and a projector in combination, when projecting a star from the optical stellar projector and projecting constellation lines or constellation pictures from the projector, the black floating of the projector will look like a starry sky. It has a great impact and must be minimized. Also, constellation pictures and constellation lines need not be projected so brightly because of the balance of brightness with stars.

そこで星空と共存させるためにはプロジェクタの光量を絞って使用することになるが、この際、絞りを絞って投影するのが最も理想的である。それは市販品の多くのプロジェクタがこうした絞り機構を内蔵していることに加え、絞りを絞ることにより明暗部のコントラストが向上する効果があるため、明るい部分に対して黒浮きが一層抑制されて好都合になるためである。しかし恒星と併用しない、または映像の明るさや華やかさを重視したい場合は絞りを絞った状態では光量が不足するため、絞りを開いて投影したい場合も多く出てくる。したがって、演出シーンによって絞りを開いたり閉じたりできることが望ましい。   Therefore, in order to coexist with the starry sky, the projector is used with the light amount of the projector being reduced, but in this case, it is most ideal to project with the aperture stopped down. In addition to the fact that many commercially available projectors have such a diaphragm mechanism built in, the contrast of bright and dark areas can be improved by narrowing the diaphragm. Because it becomes. However, if you do not want to use it with stars, or if you want to emphasize the brightness and gorgeousness of the image, the amount of light is insufficient when the aperture is stopped, so there are many cases where you want to project with the aperture open. Therefore, it is desirable that the aperture can be opened or closed depending on the production scene.

しかし、光学式ブレンディングでは、たとえばプロジェクタの投影レンズの開口数が変わると、焦点深度が変わりグラデーション効果が変わるという特質がある。絞りが閉じられると、焦点深度が深まるため光学マスクの影はくっきりするし、開くとぼやける。
しかし、前記のような映像補正方法では絞りの開口数の変化に伴う、こうした光学マスクの特性の変化は考慮されておらず、特定の開口数においてはムラのない投影ができるが、開口数を変えるとムラが生じてしまう問題点があった。したがって、在来のマルチプロジェクションシステムでは、絞りを開放したり絞ったりして投影することが難しく、明るく華やかな演出と、星空との親和性の維持を両立しにくいという問題点があった。
However, in optical blending, for example, when the numerical aperture of the projection lens of a projector changes, the depth of focus changes and the gradation effect changes. When the iris is closed, the depth of focus is deepened, so that the shadow of the optical mask is clear, and when it is opened, it becomes blurred.
However, in the image correction method as described above, such a change in the characteristics of the optical mask due to the change in the numerical aperture of the diaphragm is not taken into consideration. There was a problem that unevenness would occur if changed. Therefore, the conventional multi-projection system has a problem in that it is difficult to project with the aperture being opened or closed, and it is difficult to achieve both bright and gorgeous effects and the compatibility with the starry sky.

上記背景から従来は、ドームスクリーンに高品位の映像を投影するために、魚眼レンズを用いた投影機をドーム中央に設置する方法では、解像度に制限がある上、地平線付近の映像が劣化する問題があった。また複数の画面に投影する方式では、基準マークを用いる方法等によって複数の画面の位置関係を正確に維持することはできるものの、エッジブレンディングに技術的な問題があった。すなわち、液晶方式やDLP方式などの大多数のプロジェクタでは、黒を完全に黒く表現できず黒浮き現象があるため、映像の不要な部分をマスキングするソフトウエアエッジブレンディングでは、背景の黒浮き現象が起きて、各プロジェクタの投影フレーム枠が不自然に見えてしまったり、複数のプロジェクタの投影面が重なる部分では特にこの黒浮きが目立ってしまったりするという問題点があった。   From the above background, conventionally, in order to project a high-quality image on the dome screen, the method of installing a projector using a fisheye lens in the center of the dome has a problem that the resolution near the horizon and the image near the horizon deteriorate. there were. Further, in the method of projecting on a plurality of screens, although the positional relationship between the plurality of screens can be accurately maintained by a method using a reference mark or the like, there is a technical problem in edge blending. In other words, the majority of projectors such as the liquid crystal system and the DLP system cannot express black completely, and there is a black floating phenomenon. In software edge blending that masks unnecessary parts of the image, the background black floating phenomenon occurs. Waking up has the problem that the projection frame frame of each projector looks unnatural, and this black float is particularly noticeable in the part where the projection surfaces of a plurality of projectors overlap.

一方、光学的マスクを使用した場合は前記の問題は起きにくくなるが、物理的なマスクのみによる補正では、分割境界線におけるマスクの形状を正確に調整することが極めて困難で、また正確な調整がなされたとしても、光ムラにより継ぎ目が不自然になる問題点があった。また光学マスクとソフトウエアによるエッジブレンディングを併用する方法では、前記の問題を解決することができるが、明るい映像を鮮明に見せるために絞りを開いて上映する時と、星空と共に映像を投影する際に暗い映像を表示する際に、プロジェクタの絞りを変えることが望ましいが、光学マスクによる影のパターンは開口数によって変わるために、分割境界線の変化パターンが変化してしまうため絞りの開口数を変えると、分割境界線において光量ムラが顕著に生じてしまう問題点があった。
この発明は、前記のような問題を解決するためになされたものである。
On the other hand, when an optical mask is used, the above problem is less likely to occur. However, with correction using only a physical mask, it is extremely difficult to accurately adjust the shape of the mask at the dividing boundary line, and accurate adjustment is possible. However, there is a problem that the joint becomes unnatural due to uneven light. The method of using edge blending with an optical mask and software can solve the above-mentioned problems, but it can be used when screening with the aperture open to show a bright image clearly, and when projecting an image with the starry sky. When displaying dark images, it is desirable to change the aperture of the projector, but since the shadow pattern by the optical mask changes depending on the numerical aperture, the change pattern of the dividing boundary line changes, so the numerical aperture of the aperture is changed. If it is changed, there is a problem that unevenness in the amount of light occurs remarkably at the dividing boundary line.
The present invention has been made to solve the above problems.

本件出願人は、光学マスクを用いるマルチプロジェクションシステムにおいて、プロジェクタの絞りを制御して開口数を変化させた際に起きる、光学系による投影光量分布、すなわち光学プロファイルの変化に着目し、この変化を相殺して映像の明度分布を補正する手法を提案するものである。
すなわち、まずあらかじめ設定された分割投影の設定に基づき、各プロジェクタが投影すべき投影光量分布、すなわち目標プロファイルを算出し、一方、光学マスクによる影響を受けたプロジェクタの投影光量分布たる光学プロファイルと比較演算を行って、映像の各部の補正量を割り出し、これを補正プロファイルとし、この補正プロファイルに基づいて映像の明度を補正することにより、目標プロファイルに一致する明度の映像を得るものである。
In the multi-projection system using an optical mask, the applicant of the present application pays attention to the projection light quantity distribution by the optical system, that is, the change in the optical profile, which occurs when the numerical aperture is changed by controlling the aperture of the projector, and this change is observed. We propose a method of canceling and correcting the brightness distribution of video.
That is, first, the projection light quantity distribution to be projected by each projector, that is, the target profile, is calculated based on the preset division projection setting, and compared with the optical profile that is the projection light quantity distribution of the projector affected by the optical mask. By calculating, the correction amount of each part of the video is determined, and this is used as a correction profile. By correcting the brightness of the video based on this correction profile, a video having a brightness matching the target profile is obtained.

本発明の目的はコンピュータやビデオ装置などから出力される映像をスクリーンに投影し、複数のプロジェクタによって投影された画面をスクリーン上で重ね合わせてひとつの映像を形成させる映像投影システムにおいて、プロジェクタの開口数が変わっても、投影面の継ぎ目付近に輝度のムラを生じにくく、明るい映像も星空と調和して暗い映像も投影することができる高品位な映像投影システムを提供することにある。   An object of the present invention is to provide an image projection system for projecting an image output from a computer, a video device, or the like onto a screen, and superimposing screens projected by a plurality of projectors on the screen to form one image. It is an object of the present invention to provide a high-definition video projection system capable of projecting both bright images and dark images in harmony with the starry sky, even if the number changes, hardly causing uneven brightness near the joints of the projection surfaces.

前記目的を達成するために本発明の請求項1は、コンピュータやビデオ装置の映像生成手段から出力される映像をスクリーンに投影し、複数の、開口数を可変可能なプロジェクタによって投影された画面をスクリーン上で重ね合わせてひとつの映像を形成させる映像投影システムであって、プロジェクタの開口数を所定の値に設定して画像を前記スクリーンに投影し、投影画像をカメラ撮影して補正マップを得、スクリーンに投影された投影像のデータを取得可能な投影像取得手段と、実際のプロジェクタの投影時の開口数に応じて前記補正マップによる演算により投影時補正マップを作成し、該投影時補正マップによって、投影時の開口数における映像補正データを算出する映像補正データ算出手段とを備え、前記映像補正データを用いて映像の輝度の補正を行うことを特徴とする。
本発明の請求項2は、コンピュータやビデオ装置の映像生成手段から出力される映像をスクリーンに投影し、複数の、開口数を可変可能なプロジェクタによって投影された画面をスクリーン上で重ね合わせてひとつの映像を形成させる映像投影システムであって、前記スクリーンに投影された映像を撮影可能なカメラを有するとともに各プロジェクタ毎に開口数を所定の値に設定してスクリーンに投影されたテストパターンを撮影し、撮影して得た、それぞれのプロジェクタの投影像の撮像データを得る撮影像取得手段と、各プロジェクタの絞りの開口数を、前記テストパターン撮影時と異なる値に設定して映像を投影する場合、前記撮像データ,前記撮影時の各プロジェクタの開口数および該投影時の開口数をもとに、所定の演算を行って映像の輝度を補正する補正データを求める映像補正データ算出手段と、前記映像補正データにより映像の輝度の補正を行って投影する映像補正投影手段とを備えたことを特徴とする。
本発明の請求項3は、コンピュータやビデオ装置の映像生成手段から出力される映像をスクリーンに投影し、複数のプロジェクタによって投影された画面をスクリーン上で重ね合わせてひとつの映像を形成させる映像投影システムであって、前記スクリーンに投影された映像を撮影可能なカメラを有するとともに前記複数のプロジェクタのそれぞれは、外部からの指令により開閉可能な絞りを有し、各プロジェクタ毎に絞りの開口数を所定の値に設定してスクリーンに投影されたテストパターンを撮影し、撮影して得た、それぞれのプロジェクタの投影像の撮像データを得る撮影像取得手段と、各プロジェクタの絞りの開口数を、前記テストパターン撮影時と異なる値に設定して映像を投影する場合、前記撮影像取得手段の撮像データより得られる光学プロファイルと、各プロジェクタが投影するべき光量を画面上の位置に応じて示す、あらかじめ設定した目標プロファイルまたは目標ブレンドマスクをもとに、所定の演算によって映像の各位置の輝度を補正する補正データを求める映像補正データ算出手段と、前記補正データにより映像の輝度の補正を行って投影する映像補正投影手段とを備えたことを特徴とする。
上記光学プロファイルは、遮光マスクの影響を受けるプロジェクタでテストパターンをスクリーンに投影し、投影像をカメラで撮像することで取得することができる。例えば、開口数が複数異なる(開放値と最小絞りなど)場合における光学プロファイルを取得し、これから実際の使用時の開口数における光学プロファイルを得るか、または所定の開口数における光学プロファイルを取得した後、数値手段により撮影時とは異なる開口数における光学プロファイルを推定し、これに基づき補正演算するものである。そして補正演算した映像を投影するものである。
本発明の請求項4は、請求項1,2または3記載の発明において、前記スクリーンは、曲面を有するドーム状スクリーンであることを特徴とする。
本発明の請求項5は、請求項2,3または4記載の発明において、前記撮影像取得手段は、プロジェクタの開口数が既知である複数の値において複数の撮像データを得、前記映像補正データ算出手段が用いるデータは、前記複数の撮像データ,前記既知の開口数であることを特徴とする。
本発明の請求項6は、請求項2,3,4または5記載の発明において、前記プロジェクタの前面には、画面周辺の光を遮光する遮光マスクを有することを特徴とする。
本発明の請求項7は、請求項6記載の発明において、前記所定の演算は、絞りの開口部が前記遮光マスクのエッジによってある位置関係で遮光されるときの位置と透過光量の関係を関数化したグラデーション関数を用いて行うことを特徴とする。
本発明の請求項8は、請求項7記載の発明において、前記遮光マスクにより形成される光学グラデーション領域と、投影面の重複領域が、少なくとも一部重複していることを特徴とする。
本発明の請求項9は、請求項2乃至8のいずれか記載の発明において、前記カメラは、恒星投影機に搭載され、該カメラの方向を恒星投影機の回転軸の角位置制御によって設定する手段を有することを特徴とする。
In order to achieve the above object, claim 1 of the present invention projects an image output from image generation means of a computer or a video apparatus onto a screen, and displays a screen projected by a plurality of projectors having variable numerical apertures. An image projection system that forms a single image by superimposing on a screen, sets the numerical aperture of the projector to a predetermined value, projects the image onto the screen, and shoots the projected image with a camera to obtain a correction map. A projection image acquisition means capable of acquiring data of a projection image projected on the screen, and a projection correction map is created by calculation using the correction map according to the numerical aperture at the time of projection of an actual projector, and the correction at the time of projection Image correction data calculating means for calculating image correction data at the numerical aperture at the time of projection by a map, and using the image correction data It characterized that you correct the brightness of an image.
According to a second aspect of the present invention, an image output from image generation means of a computer or a video device is projected on a screen, and a plurality of screens projected by a projector capable of changing the numerical aperture are superimposed on the screen. An image projection system for forming an image of the image, having a camera capable of photographing the image projected on the screen and photographing a test pattern projected on the screen with a numerical aperture set to a predetermined value for each projector Then, the captured image acquisition means for obtaining the captured image data of the projected images of the respective projectors obtained by photographing, and the numerical aperture of the diaphragm of each projector is set to a value different from that at the time of the test pattern photographing to project the image. A predetermined calculation is performed based on the imaging data, the numerical aperture of each projector at the time of shooting, and the numerical aperture at the time of projection. Characterized by comprising the image correction data calculating means for calculating correction data for correcting the luminance of an image, and image correction projection means for projecting performing correction of the luminance of the image by the image correction data.
According to a third aspect of the present invention, the image output from the image generation means of the computer or video apparatus is projected onto the screen, and the image projected by the plurality of projectors is superimposed on the screen to form one image. The system includes a camera capable of capturing an image projected on the screen, and each of the plurality of projectors has an aperture that can be opened and closed by an external command, and the numerical aperture of each aperture is set for each projector. The test pattern projected on the screen is set to a predetermined value, and the captured image acquisition means for obtaining the captured image data of the projected image of each projector, and the numerical aperture of the diaphragm of each projector, When projecting a video with a value different from that at the time of shooting the test pattern, it is obtained from the imaging data of the captured image acquisition means Correction that corrects the luminance of each position of the image by a predetermined calculation based on the preset target profile or target blend mask that shows the optical profile to be projected and the amount of light that each projector should project according to the position on the screen and image correction data calculating means for obtaining the data, characterized by comprising a video correction projection means for projecting performing correction of the luminance of the image by the correction data.
The optical profile can be obtained by projecting a test pattern onto a screen with a projector affected by a light shielding mask and capturing a projected image with a camera. For example, after obtaining an optical profile in the case of multiple different numerical apertures (open aperture and minimum aperture, etc.) and obtaining an optical profile at the actual numerical aperture during use, or after obtaining an optical profile at a predetermined numerical aperture The optical profile at a numerical aperture different from that at the time of photographing is estimated by numerical means, and correction calculation is performed based on this. Then, the corrected image is projected.
According to a fourth aspect of the present invention, in the first, second, or third aspect, the screen is a dome-shaped screen having a curved surface.
According to a fifth aspect of the present invention, in the invention according to the second, third, or fourth aspect, the photographed image acquisition means obtains a plurality of imaging data at a plurality of values with known numerical apertures of the projector, and the video correction data The data used by the calculation means is the plurality of imaging data and the known numerical aperture.
According to a sixth aspect of the present invention, in the invention according to the second, third, fourth, or fifth aspect, the front surface of the projector has a light shielding mask for shielding light around the screen.
According to a seventh aspect of the present invention, in the invention according to the sixth aspect, the predetermined calculation is a function of a relationship between a position and a transmitted light amount when the aperture of the diaphragm is shielded from light by an edge of the light shielding mask. It is characterized by using a converted gradation function.
According to an eighth aspect of the present invention, in the invention according to the seventh aspect, the optical gradation area formed by the light shielding mask and the overlapping area of the projection surface are at least partially overlapped.
A ninth aspect of the present invention is the camera according to any one of the second to eighth aspects, wherein the camera is mounted on a stellar projector, and the direction of the camera is set by angular position control of a rotation axis of the stellar projector. It has the means.

前記構成によれば、複雑でコストのかかる人為的な調整作業を行わずとも、自動的に調整された上で、ドームスクリーンに対し複数のプロジェクタを用いて投影される映像にムラを生じずに、一様な明るさで映像を投影することができる。
また、プロジェクタの黒レベルが十分低くないとき、余分な部分の光を除去する目的で光学的マスクと併用した場合、光学マスクの透過窓の形状を決めるに際して、最適な形状を表示し、試行錯誤によらず、容易に透過窓を作成することができる。
さらに、撮像に使用するカメラは、映像の歪み補正に使用するものと併用できるため、恒星投影機に搭載して高精度の位置あわせを行うカメラと共用することにより、位置と映像の明るさや色を追加ハードウエアなしに補正することができる。これにより、高品位のドーム映像を、容易かつ安定かつ低コストで提供することが可能となる。
According to the above-described configuration, the image that is automatically adjusted and projected using the plurality of projectors without causing unevenness without performing complicated and costly artificial adjustment work. The image can be projected with uniform brightness.
When the projector's black level is not low enough, when it is used together with an optical mask for the purpose of removing excess light, the optimal shape is displayed when determining the shape of the transmission window of the optical mask. Regardless of this, the transmission window can be easily created.
In addition, since the camera used for imaging can be used together with the camera used for image distortion correction, the position and brightness and color of the image can be shared with a camera that is mounted on a stellar projector and performs high-precision alignment. Can be corrected without additional hardware. This makes it possible to provide a high-quality dome image easily, stably and at a low cost.

以下、図面等を参照して本発明の実施の形態を詳しく説明する。
図1Aは、本発明による映像投影システムの外観を説明するための斜視図である。
ドームスクリーン1の中心にはビデオカメラ6を取り付けた光学式恒星投影機2が設置されている。なお、この実施の形態では光学式恒星投影機2は恒星投影機能は用いられず、後述するビデオカメラ6の搭載手段として使用するものである。
ドームスクリーン1の周囲にはビデオプロジェクタ3が複数台設置され、それぞれから投影された映像はドームスクリーン上で重なり、ドームスクリーン1の全面を被うようにそれぞれの位置と姿勢角に固定されて設置されている。本図ではそのうちの2台とそれから投影された画面のみを図示している。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1A is a perspective view for explaining the appearance of a video projection system according to the present invention.
At the center of the dome screen 1, an optical stellar projector 2 with a video camera 6 is installed. In this embodiment, the optical stellar projector 2 does not use the stellar projection function, and is used as a mounting means for the video camera 6 described later.
A plurality of video projectors 3 are installed around the dome screen 1, and the images projected from the video projectors 3 overlap each other on the dome screen, and are fixed at respective positions and posture angles so as to cover the entire surface of the dome screen 1 Has been. In the figure, only two of them and the screen projected therefrom are shown.

ビデオプロジェクタ3で投影される映像は、映像生成PC4からアナログRGB信号またはDVI信号などで供給される。映像生成PC4は、制御PC5と通信線で接続され、映像生成のためなどの各種のコマンドやデータの送受信が可能である。
なお、各プロジェクタ3の位置と姿勢角は既知であり、各プロジェクタ3の投影画面上の座標とドームスクリーン1上の地平座標は、座標変換により相互変換が可能な状態であるとする。地平座標からプロジェクタ画面上の座標変換をプロジェクション変換とし、その逆変換をプロジェクション逆変換と呼ぶこととする。
例えば恒星投影機2に備わった基準マーク手段を用いてプロジェクション変換およびプロジェクション逆変換を高精度に行うことが可能である。図1Bにドームスクリーンの地平座標の表示例を示す。
The video projected by the video projector 3 is supplied from the video generation PC 4 as an analog RGB signal or DVI signal. The video generation PC 4 is connected to the control PC 5 via a communication line, and can transmit and receive various commands and data for video generation.
It is assumed that the position and orientation angle of each projector 3 are known, and the coordinates on the projection screen of each projector 3 and the horizontal coordinates on the dome screen 1 are in a state where mutual conversion is possible by coordinate conversion. The coordinate transformation on the projector screen from the horizontal coordinate is referred to as projection transformation, and the inverse transformation is referred to as projection inverse transformation.
For example, it is possible to perform projection conversion and projection reverse conversion with high accuracy using the reference mark means provided in the star projector 2. FIG. 1B shows a display example of the horizontal coordinate of the dome screen.

図2は、ドームスクリーン中心に設置される恒星投影機の構造の斜視図である。
台座10の上に、方位軸を中心に回転可能にベース11が設置され、その上に架台フォーク12が取り付けられている。ベース11と架台フォーク12は、図示しない方位軸サーボモータにより、任意に回転制御可能である。また、架台フォーク12には、水平に取り付けられた、緯度を調整する緯度回転軸13が設置され、この緯度回転軸13を中心にして円柱状の日周ベース14が回転可能な構造で設置されている。緯度軸を中心とした日周ベース14の回転運動も、図示しない緯度軸サーボモータにより任意に回転制御可能である。また、恒星を投影する機能を有する北天恒星球15と南天恒星球16は、日周ベース14上に、緯度軸と直交して設置された日周軸を中心に任意に回転可能である。しかしこの実施の形態ではこの日周運動は用いられない。
日周ベース14には、緯度軸と日周軸いずれとも直交する方向に投影像取得手段として、ビデオカメラ6が取り付けられている。ビデオカメラはCCDカメラ等の電子的な撮影ができるカメラであり、撮像結果は、ビデオ信号またはLVDSによるデジタル映像信号などの形で得られ、図示しないが緯度軸スリップリングまたは方位軸スリップリングを介して外部に映像信号を送ることが可能である。また映像送信の方法は無線などを利用することもできる。
FIG. 2 is a perspective view of the structure of a stellar projector installed at the center of the dome screen.
A base 11 is installed on a base 10 so as to be rotatable around an azimuth axis, and a gantry fork 12 is attached thereon. The base 11 and the gantry fork 12 can be arbitrarily controlled for rotation by an azimuth axis servo motor (not shown). The gantry fork 12 is provided with a horizontally mounted latitude rotating shaft 13 for adjusting the latitude, and a cylindrical daily base 14 is installed around the latitude rotating shaft 13 so as to be rotatable. ing. The rotational movement of the daily base 14 around the latitude axis can also be arbitrarily controlled by a latitude axis servo motor (not shown). In addition, the northern sky star sphere 15 and the southern sky star sphere 16 having a function of projecting a star can be arbitrarily rotated around the diurnal axis installed on the diurnal base 14 at right angles to the latitude axis. However, this diurnal motion is not used in this embodiment.
A video camera 6 is attached to the diurnal base 14 as projection image acquisition means in a direction orthogonal to both the latitude axis and the diurnal axis. The video camera is a camera capable of electronic photography such as a CCD camera, and the imaging result is obtained in the form of a video signal or a digital video signal by LVDS, etc., though not shown, via a latitudinal slip ring or an azimuth axis slip ring. Video signals can be sent to the outside. Also, the video transmission method can be wireless.

カメラの主点は、緯度軸からCOFSだけ離れて設置されている。
このような恒星投影機2に搭載したビデオカメラ6の向きは、緯度軸と方位軸の回転制御により任意に向けることができる。この場合、カメラの光軸の方位角AZM は方位軸の回転制御により、また光軸の仰角ALT は緯度軸の回転制御により設定可能である。
例えば北天恒星球15が上になり日周軸が直立した状態であれば仰角は0度で、日周軸が水平になったときには仰角は90度または−90度になる。南北水平線は、この恒星投影機を恒星投影に使用した際の南方地平線と北方地平線を結ぶ直線であり、ビデオカメラ6の仰角はこの南北水平線とカメラ光軸のなす角である。
ビデオカメラ6は、ゲインや絞りを自動的に変える機能を持つものが多いが、この実施の形態では常にゲイン,絞りともに固定の状態で用いる。また、物理的な輝度と撮像データ(ビデオカメラのCCD撮像素子の各画素から得られるデータ)から得られる輝度は直線的な関係ではないものが多い(カメラのガンマ特性)が、ガンマ特性は事前に測定され、ビデオカメラの画素を読み込む際には、このガンマ特性関数により補正され、実際の物理量としての輝度とのリニアリティがとれた輝度データが得られるようにしてある。
The main point of the camera is set away from the latitude axis by COFS.
The orientation of the video camera 6 mounted on the stellar projector 2 can be arbitrarily oriented by controlling the rotation of the latitude axis and the azimuth axis. In this case, the azimuth angle AZM of the optical axis of the camera can be set by rotation control of the azimuth axis, and the elevation angle ALT of the optical axis can be set by rotation control of the latitude axis.
For example, the elevation angle is 0 degree when the northern star is 15 up and the diurnal axis is upright, and the elevation angle is 90 or -90 degrees when the diurnal axis is horizontal. The north-south horizon is a straight line connecting the south horizon and the north horizon when the stellar projector is used for stellar projection, and the elevation angle of the video camera 6 is an angle formed by the north-south horizon and the camera optical axis.
Many of the video cameras 6 have a function of automatically changing the gain and the aperture, but in this embodiment, both the gain and the aperture are always used in a fixed state. In addition, the physical luminance and the luminance obtained from the imaging data (data obtained from each pixel of the CCD image sensor of the video camera) are often not linearly related (camera gamma characteristics). When the pixel of the video camera is read, the luminance data corrected by the gamma characteristic function and linear with the luminance as an actual physical quantity is obtained.

このガンマ関数は、被写体の照度をあらかじめ分かる形で変えてビデオカメラで撮影し、撮像結果から得られた輝度データと、その際の照度をもとに取得することが可能であるが、この手順は公知かつ容易に推察可能であり、本発明の本質ではないため具体的な手順は省く。以後、カメラから得られる輝度データは、特に断り書きがない限り、すべてこのガンマ補正後の輝度として扱う。
本発明において、カメラ撮像手段としてビデオカメラを恒星投影機に搭載することは必須ではない。しかし本発明の一つの目的である、プラネタリウムでの使用においては多くの場合、恒星投影機がドームスクリーンの中心に設置される。この恒星投影機にビデオカメラを搭載することにより、恒星投影機を移動させることなく、ドーム球心を基準とした理想的な位置で死角なくドーム全面を撮像できる上、カメラの方向を制御する手段も恒星投影機の運動機能によって実現されるので、別途特別な駆動機構を用意する必要がなくなる。また、恒星投影機2に搭載したビデオカメラは、基準マークを用いる他の、映像の歪みを自動的かつ高精度に補正する装置と併用することができるため好都合である。この実施の形態では上記のような理由から恒星投影機に搭載したビデオカメラで説明を行う。
なお、恒星投影機が存在しない場合には、他の手段によってビデオカメラの方向を任意に制御することも可能であり、そのような実施の形態も本発明の範疇に含まれる。
This gamma function can be acquired based on the luminance data obtained from the imaging result and the illuminance at that time, by taking a picture with a video camera while changing the illuminance of the subject in advance. Can be known and easily guessed, and is not the essence of the present invention, so a specific procedure is omitted. Thereafter, all brightness data obtained from the camera is treated as the brightness after this gamma correction unless otherwise specified.
In the present invention, it is not essential to mount a video camera on the stellar projector as the camera imaging means. However, in one use of the present invention, the planetarium, a stellar projector is often placed in the center of the dome screen. By mounting a video camera on this stellar projector, it is possible to take an image of the entire dome without blind spots at an ideal position based on the dome's center without moving the stellar projector, and to control the direction of the camera Since it is realized by the motion function of the stellar projector, it is not necessary to prepare a special drive mechanism separately. Further, the video camera mounted on the stellar projector 2 is advantageous because it can be used in combination with other devices that automatically and highly accurately correct image distortion using a reference mark. In this embodiment, a video camera mounted on a stellar projector will be described for the reasons described above.
In the case where there is no stellar projector, the direction of the video camera can be arbitrarily controlled by other means, and such an embodiment is also included in the scope of the present invention.

図3は、本発明に用いるプロジェクタの実施の形態を示す斜視図である。
プロジェクタ3は液晶またはDLP素子を用いた市販のビデオプロジェクタであり、映像入力ケーブル21から入力された映像信号(映像生成PCからの映像信号)を投影する機能を有する。投影レンズ22内には、電動で開口数を変化可能な可動絞り(図中には現れない)が内蔵されている。制御信号ケーブル23から入力された制御信号(たとえばRS−232Cのコマンド)により、可動絞りの開口数をプロジェクタ固有の仕様で設定された範囲(たとえばF3.2−F8 )の範囲で制御可能である。絞りを開くと、投影される映像は明るくなるが、コントラスト比は低めになる。絞りを閉じると、投影される映像は暗くなるがコントラスト比は上昇する。
FIG. 3 is a perspective view showing an embodiment of a projector used in the present invention.
The projector 3 is a commercially available video projector using a liquid crystal or a DLP element, and has a function of projecting a video signal input from the video input cable 21 (video signal from the video generation PC). The projection lens 22 has a built-in movable aperture (not shown in the figure) that can change the numerical aperture electrically. With the control signal (for example, RS-232C command) input from the control signal cable 23, the numerical aperture of the movable diaphragm can be controlled within the range (for example, F3.2-F8) set by the specifications unique to the projector. . When the aperture is opened, the projected image becomes brighter but the contrast ratio is lower. When the aperture is closed, the projected image becomes dark, but the contrast ratio increases.

プロジェクタ3はベース24の上に取り付けられており、ベース24を介して投影レンズ22の前には、十分な透明度を持つガラス基板25が直立して設置され、投影像はガラス基板25のガラス板を透過するようになっている。ガラスの透過率は極めて高いが、表面反射があると投影像にゴーストが発生することもあるため、片面または両面には反射防止膜が施されている。このガラス板の表面には、光を通さない遮光マスク27が貼られている。遮光マスク27の材質は、表面が黒く塗られた薄アルミニウム板などを用いる。この遮光マスク27には、プロジェクタの投影する光を半ば通すように、所定の形状の投影窓28が設置されている。投影窓28は、プロジェクタ3から投影される映像の大部分を通すが、周辺部分の光は遮光し、ドームスクリーンに投影された映像の周辺部をぼんやりと暗くマスキングする効果を有する。この投影窓の形状については後述する。   The projector 3 is mounted on a base 24, and a glass substrate 25 having sufficient transparency is installed upright through the base 24 in front of the projection lens 22, and the projection image is a glass plate of the glass substrate 25. It is designed to pass through. Although the transmittance of glass is extremely high, a ghost may occur in the projected image when there is surface reflection, and thus an antireflection film is provided on one side or both sides. A light shielding mask 27 that does not transmit light is attached to the surface of the glass plate. The light shielding mask 27 is made of a thin aluminum plate whose surface is painted black. The light-shielding mask 27 is provided with a projection window 28 having a predetermined shape so that the light projected by the projector can pass halfway. The projection window 28 allows most of the image projected from the projector 3 to pass through, but blocks the light in the peripheral portion, and has the effect of masking the peripheral portion of the image projected on the dome screen in a dimly dark manner. The shape of the projection window will be described later.

つぎにビデオカメラの画角について説明する。
ビデオカメラの画面解像度は、幅がCW画素,高さがCH画素,CCD素子のピッチがCPとなっている。
カメラの焦点距離がFとすると、横画角QW、縦画角QHは
QW=atan(CW*CP/(2*F)*2) ・・・(1)
QH=atan(CH*CP/(2*F)*2) ・・・(2)
となる。
これにより、ドーム曲率半径R、恒星投影機に搭載したカメラの方位角がAZM 、高度がALT が決まると、ビデオカメラ画面の任意の画素(CX、CY) に映るドームスクリーン上の座標は座標変換により計算できる。具体的な計算方法は公知であるので省略する。
Next, the angle of view of the video camera will be described.
As for the screen resolution of the video camera, the width is CW pixels, the height is CH pixels, and the pitch of the CCD elements is CP.
If the focal length of the camera is F, the horizontal field angle QW and the vertical field angle QH are QW = atan (CW * CP / (2 * F) * 2) (1)
QH = atan (CH * CP / (2 * F) * 2) (2)
It becomes.
As a result, when the dome radius of curvature R, the azimuth angle of the camera mounted on the stellar projector is determined as AZM, and the altitude is determined as ALT, the coordinates on the dome screen reflected in any pixel (CX, CY) on the video camera screen are transformed. Can be calculated by Since a specific calculation method is known, it will be omitted.

つぎに図1Aを用いてシステム接続構成を説明する。
複数のビデオプロジェクタでに投影する画面は、各プロジェクタに割り当てられた映像生成PC4によってそれぞれ生成される。制御PC5は、すべての映像生成PC4と通信線で接続され、制御PC5からは、通信ポートから所定の命令により任意の図形や映像を映像生成PC4によって生成することができる。例えば点や直線、円などのベクトル図形、または動画である。また、プロジェクタ3に備わっている開口数を変えられる可動絞りの開閉は、映像生成PC4から絞り制御線によって制御可能であり、制御PCから一括して全てのプロジェクタの絞りの開口数を制御可能となっている。
制御PC5は恒星投影機2とも通信線で接続され、サーボI/Fから所定の移動量に相当するパルス列を出力し、サーボ制御装置を介して、恒星投影機の回転角位置や回転角速度制御も行えるようになっている。また、恒星投影機2には、既に述べたようにビデオカメラ6が内蔵されており、ビデオカメラ6で撮像された映像信号は、制御PC5のフレームグラバにより制御PC5内に取り込めるようになっている。フレームグラバには、取得された映像の各画素の輝度情報が格納されており、任意の画素の輝度がアクセス可能であり、ビデオカメラの同期信号ごとに更新される。
Next, a system connection configuration will be described with reference to FIG. 1A.
Screens to be projected by a plurality of video projectors are respectively generated by the video generation PC 4 assigned to each projector. The control PC 5 is connected to all the video generation PCs 4 by communication lines, and from the control PC 5 it is possible to generate arbitrary graphics and video by the video generation PC 4 by a predetermined command from the communication port. For example, vector graphics such as points, straight lines, circles, or moving images. In addition, the opening / closing of the movable diaphragm that can change the numerical aperture of the projector 3 can be controlled by the diaphragm control line from the image generation PC 4, and the numerical apertures of the diaphragms of all projectors can be controlled collectively from the control PC. It has become.
The control PC 5 is also connected to the star projector 2 via a communication line, outputs a pulse train corresponding to a predetermined movement amount from the servo I / F, and controls the rotation angle position and rotation angular velocity of the star projector via the servo control device. It can be done. The stellar projector 2 has a built-in video camera 6 as described above, and a video signal picked up by the video camera 6 can be taken into the control PC 5 by a frame grabber of the control PC 5. . The frame grabber stores luminance information of each pixel of the acquired video, and the luminance of an arbitrary pixel can be accessed and updated for each synchronization signal of the video camera.

図4は、複数のプロジェクタを用いてドームスクリーン全面に映像を投影するレイアウトの一例を示す図である。本図は、ドームマスターと呼ぶ表現方法で、正方形の内接円を地平線とし、中心が天頂に相当する。すなわち、ドームマスター上の座標は、容易にドームスクリーン上の高度,方位角(地平座標)と相互変換可能である。全天はS1〜S6の6面に分割され、それぞれ個別のプロジェクタで投影される。
但し、それぞれのプロジェクタの投影面の境界線を完全に一致させることは極めて困難なため、投影面相互の間はそれぞれある程度の幅をもった重複領域を設けて、お互いにグラデーションをかけてオーバーラップさせるように投影する必要がある。これをエッジブレンディングと呼ぶ。
FIG. 4 is a diagram showing an example of a layout for projecting an image on the entire dome screen using a plurality of projectors. This figure is an expression method called a dome master. A square inscribed circle is the horizon, and the center corresponds to the zenith. That is, the coordinates on the dome master can be easily converted into altitude and azimuth (horizontal coordinates) on the dome screen. The whole sky is divided into 6 planes S1 to S6 and projected by individual projectors.
However, since it is extremely difficult to perfectly match the boundary lines of the projection planes of the projectors, overlapping areas with a certain width are provided between the projection planes, and they overlap each other with gradation. It is necessary to project so that This is called edge blending.

図5Aはドームマスター上で各プロジェクタの投影画面の重複領域を加えて示した図である。
重複領域は、それぞれの投影面の境界線に、一定の幅を持って設けられる。ここで複数のプロジェクタによりドームスクリーン全面に白い映像(全白映像)を所定の輝度(目標輝度)で投影することを考える。それぞれの投影面の占有領域は、それぞれ対応のプロジェクタによってのみ投影される。重複領域は境界線を挟んで隣り合う2面以上のプロジェクタからの投影光が合成される。このとき、重複領域の輝度は、占有領域と一致させなければならない。そのためには、それぞれのプロジェクタから投影される光量を重複領域では一定の比率で落とすことが必要になる。図5BはS1面とS2面の境界線において、S1面のプロジェクタによる輝度と、S2面のそれを合わせて図示したものである。重複領域においてS1とS2それぞれの光量をクロスさせて変化させることにより両者の和は占有領域の輝度と等しくなる。このような条件にすれば、占有領域と重複領域いずれも一様な明るさで見えることになる。
FIG. 5A is a diagram showing the overlapping area of the projection screen of each projector on the dome master.
The overlapping region is provided with a certain width at the boundary line of each projection plane. Here, it is assumed that a white image (all white image) is projected at a predetermined luminance (target luminance) on the entire dome screen by a plurality of projectors. The area occupied by each projection plane is projected only by the corresponding projector. In the overlapping area, projection light from two or more projectors adjacent to each other across the boundary line is synthesized. At this time, the luminance of the overlapping area must match the occupied area. For this purpose, it is necessary to reduce the amount of light projected from each projector at a constant ratio in the overlapping region. FIG. 5B shows the luminance of the projector on the S1 plane and the S2 plane at the boundary line between the S1 plane and the S2 plane. By crossing and changing the light amounts of S1 and S2 in the overlapping region, the sum of both becomes equal to the luminance of the occupied region. Under such conditions, both the occupied area and the overlapping area can be seen with uniform brightness.

分割投影する際の各プロジェクタが投影するべき光量を画面上の位置に応じて示したものを目標プロファイルと呼ぶ。目標プロファイルは、分割境界線の位置や境界線の幅などのデータを元に都度算出することもできるが、実際には、一度、ドームスクリーンの全面にわたって計算し、2次元のデータとする方が計算量が減るので良い。これはドームマスター上で表すものと、投影画面上で表すものがあるが、この実施の形態では投影画面上のものを使用する。目標プロファイルは、ブレンドマスクと同義のものであり、ドームマスター型のブレンドマスクから、プロジェクション変換またはプロジェクション逆変換を用いて投影画面に変形して作ることができる。目標プロファイルは各投影面ごとに用意される。
例えばドームマスター型のブレンドマスクは、所定の解像度たとえば縦横2000PIXEL のモノクロ256階調の画像で作成される。それぞれのピクセルの明度がその位置の輝度に相当する。たとえばピクセルの明度が0であれば輝度がゼロであり、その画面では投影されない位置であり、255であれば占有領域となる。全投影面のドームマスター型の目標ブレンドマスクの各画素を全て加算すると、すべてが1(256階調で255)となる。
The amount of light that should be projected by each projector when performing divided projection according to the position on the screen is referred to as a target profile. The target profile can be calculated each time based on data such as the position of the dividing boundary line and the width of the boundary line. However, in practice, it is better to calculate the target profile once over the entire surface of the dome screen to obtain two-dimensional data. It is good because the amount of calculation is reduced. This is expressed on the dome master and expressed on the projection screen. In this embodiment, the one on the projection screen is used. The target profile is synonymous with a blend mask, and can be created by transforming a dome master type blend mask into a projection screen using projection transformation or inverse projection transformation. A target profile is prepared for each projection plane.
For example, a dome master type blend mask is created with a monochrome 256 gradation image having a predetermined resolution, for example, 2000 PIXEL. The brightness of each pixel corresponds to the brightness at that position. For example, if the brightness of a pixel is 0, the brightness is zero, and the position is not projected on the screen. When all the pixels of the dome master type target blend mask of all the projection planes are added, all become 1 (255 in 256 gradations).

図6は、図4の例におけるS1面のドームマスター型のブレンドマスクをドームマスター型で示した一例である。また、図7は同じく各投影面のドームマスター型のブレンドマスクを図示したものである。
ここで、具体的な実施の形態の手順の説明の前に、遮光マスクを備えたプロジェクタにおいて出力される光学プロファイルの基本的特性を説明し、実際の映像の輝度を補正して目標プロファイルに一致させる基本原理と、補正するために用いる補正プロファイルについて説明する。
FIG. 6 is an example showing the dome master type blend mask of the S1 surface in the example of FIG. FIG. 7 also shows a dome master type blend mask on each projection plane.
Here, before explaining the procedure of the specific embodiment, the basic characteristics of the optical profile output in a projector equipped with a light-shielding mask will be explained, and the luminance of the actual video will be corrected to match the target profile The basic principle to be used and the correction profile used for correction will be described.

図8は、遮光マスクを取り付けたビデオプロジェクタから投影される映像の輝度分布を説明するための図である。複数台使用されるうちの1台のみ図示している。
ビデオプロジェクタ3の投影レンズ22の主点には絞り29が内蔵されており、所定の開口数に設定されている。このビデオプロジェクタ3の前方に遮光マスク27が設置されており、ビデオプロジェクタ3から投影される投影光は遮光マスク27の投影窓を十分被う範囲をカバーしているものとする。ここでビデオプロジェクタ3から一様な明るさの映像、例えば全白の映像を投影した場合、遮光マスク27によりドームスクリーン1の周辺部分の光はケラれて遮光されるが、遮光マスク27にはピントが合っていないのでその影は大きくぼけたものになる。
ビデオプロジェクタ3自体に投影ムラがないとしたときの、プロジェクタが何ら輝度補正を施さない全白画面を投影したときのスクリーン上の輝度分布を、最大値を「1」として表したものを光学プロファイルと呼ぶことにする。光学プロファイルは、遮光マスクの影の影響を受けない全透過領域ではほぼ一定の値になっている。
FIG. 8 is a diagram for explaining a luminance distribution of an image projected from a video projector to which a light shielding mask is attached. Only one of the multiple units used is shown.
A diaphragm 29 is built in the principal point of the projection lens 22 of the video projector 3 and is set to a predetermined numerical aperture. It is assumed that a light shielding mask 27 is installed in front of the video projector 3 and the projection light projected from the video projector 3 covers a range that sufficiently covers the projection window of the light shielding mask 27. Here, when a video of uniform brightness, for example, an image of all white, is projected from the video projector 3, the light around the dome screen 1 is vignetted and blocked by the light shielding mask 27. The shadow is greatly blurred because it is out of focus.
When the video projector 3 itself has no projection unevenness, the optical profile represents the luminance distribution on the screen when the projector projects an all-white screen without any luminance correction, with the maximum value being “1”. I will call it. The optical profile has a substantially constant value in the entire transmission region that is not affected by the shadow of the light shielding mask.

一方、遮光マスク27の影で全く映像が映らない領域を全遮光領域という。全透過領域と全遮光領域の間には、ある幅をもって明度が連続的に変化する光学グラデーション領域ができる。非投影領域とは、他の投影面の占有領域でもある。
本図を見れば明らかなように、目標プロファイルのパターンは、光学プロファイルよりも下回っている。しかし光学プロファイルのグラデーション領域と、目標プロファイルの重複領域は一部で重なっている。
光学プロファイルは物理的に投影できる最大の輝度を表すものであるから、目標プロファイルは投影画面の全ての位置で光学プロファイル以下でなければならない。本図では光学プロファイルと目標プロファイルを一次元の関数で関係付けているが、実際には2次元の映像を扱うため、いずれのプロファイルも2次元の関数で表現されることとなる。
On the other hand, an area where no image is reflected by the shadow of the light shielding mask 27 is referred to as a total light shielding area. An optical gradation region in which the brightness changes continuously with a certain width is formed between the total transmission region and the total light shielding region. The non-projection area is also an area occupied by another projection plane.
As is apparent from this figure, the pattern of the target profile is lower than the optical profile. However, the gradation area of the optical profile and the overlapping area of the target profile partially overlap.
Since the optical profile represents the maximum luminance that can be physically projected, the target profile must be less than or equal to the optical profile at all positions on the projection screen. In this figure, the optical profile and the target profile are related by a one-dimensional function. However, since a two-dimensional image is actually handled, any profile is expressed by a two-dimensional function.

厄介なのは、ビデオプロジェクタの開口数を変えることにより、光学プロファイルのカーブが変化することである。
図9は、ビデオプロジェクタの絞りの開口数を変えたときの光学プロファイルの変化を説明するための図である。遮光マスクの位置も図示してある。図9(a)は、開口数がF8,図9(b)がF3.2の例である。光学プロファイルは、いずれも遮光マスクのエッジ位置を挟んでほぼ対称に変化しているが、F8の場合の方が絞りが狭い分被写界深度が深くなり、変化が急激になっていることが分かる。
このような関係の上で、映像を投影する場合、映像の輝度分布を目標プロファイルに一致させるには、映像自体にあらかじめ補正をかけるか、映像信号に補正をかけてやればよい。この目標プロファイルに輝度値を補正するもの、すなわち目標プロファイルと光学プロファイルの比から輝度値の補正量を示すものを補正プロファイルと呼ぶこととし、図9に図示している。但し、補正は減光させることしかできないため、補正プロファイルはつねに画面上の全ての位置で1以下にならなければならない。
図9(a)と(b)はいずれもこの条件を満足しており、開口数の違いによって、補正プロファイルが変わる様子を示している。
The trouble is that changing the numerical aperture of the video projector changes the curve of the optical profile.
FIG. 9 is a diagram for explaining a change in the optical profile when the numerical aperture of the diaphragm of the video projector is changed. The position of the light shielding mask is also shown. FIG. 9A shows an example in which the numerical aperture is F8 and FIG. 9B is F3.2. The optical profiles change almost symmetrically across the edge position of the light-shielding mask. However, in the case of F8, the depth of field becomes deeper and the change is abrupt because the aperture is narrower. I understand.
When projecting an image based on such a relationship, in order to make the luminance distribution of the image coincide with the target profile, the image itself may be corrected in advance or the image signal may be corrected. The target profile for correcting the luminance value, that is, the one indicating the correction amount of the luminance value from the ratio between the target profile and the optical profile is called a correction profile, and is shown in FIG. However, since the correction can only be dimmed, the correction profile must always be 1 or less at all positions on the screen.
FIGS. 9A and 9B both satisfy this condition, and show how the correction profile changes depending on the difference in numerical aperture.

つぎに補正マップ作成方法について説明する。
ビデオプロジェクタの開口数の高い状態と低い状態の2状態で撮影してそれぞれの状態の補正マップを得て、実際の投影時の開口数に応じて2つの補正マップから補間演算により投影時補正マップを作成する手順である。
図10は、補正マップを得る手順を示すフローチャートで、複数ある投影面のうち1面についての流れ図である。
ビデオプロジェクタの絞りは、F3.2〜F8の範囲で任意に設定可能であり、ビデオプロジェクタの投影画面と地平座標は相互変換可能になっているものとする。
まず、あらかじめ各投影面のドームマスター型ブレンドマスクをメモリ部に読み込む(ステップ(以下、「S」という)001)。つづいてビデオプロジェクタの全画素の座標から地平座標への変換手段を用いて、前記メモリ部からブレンドマスクのデータを読み込み、プロジェクタ画面上の目標プロファイルデータとして、目標プロファイルデータメモリ部に格納する。図11に、S1面の目標プロファイルを画像化した一例を示す。
Next, a correction map creation method will be described.
Shooting in two states of high and low numerical aperture of the video projector to obtain the correction map of each state, according to the numerical aperture at the time of actual projection, the correction map at the time of projection by interpolation calculation from the two correction maps It is a procedure to create.
FIG. 10 is a flowchart showing a procedure for obtaining a correction map, and is a flowchart for one of a plurality of projection planes.
The aperture of the video projector can be arbitrarily set in the range of F3.2 to F8, and the projection screen of the video projector and the horizontal coordinate can be converted to each other.
First, the dome master type blend mask of each projection plane is read into the memory unit in advance (step (hereinafter referred to as “S”) 001). Subsequently, the blend mask data is read from the memory unit using the conversion means from the coordinates of all the pixels of the video projector to the horizontal coordinate, and stored in the target profile data memory unit as target profile data on the projector screen. FIG. 11 shows an example in which the target profile of the S1 surface is imaged.

つづいて、プロジェクタの開口数を開放(F3.2)とする(S002)。これでカメラ撮影を行い(カメラ撮影は後で詳述)、補正マップ1を得る(S003,S004)。これを開放補正マップとする。
次に開口数を最小(F8)にする。この開口数でカメラ撮影を行い補正マップ2を得る(S006,S007)。これを最小絞り補正マップ2とする。
Subsequently, the numerical aperture of the projector is set to open (F3.2) (S002). Thus, camera shooting is performed (camera shooting will be described in detail later), and a correction map 1 is obtained (S003, S004). This is the open correction map.
Next, the numerical aperture is minimized (F8). Camera correction is performed with this numerical aperture to obtain a correction map 2 (S006, S007). This is the minimum aperture correction map 2.

つぎに、カメラ撮影手順の詳細を説明する。
図12はカメラ撮影の状態を図示したものである。
ビデオプロジェクタからの映像は、図中のプロジェクタ投影範囲30にわたって投影可能となっており、制御PC(図示していない)からの指令により、任意の形状と色の図形を表示できる状態とする。
ドームスクリーン1中心に設置された恒星投影機2に搭載したビデオカメラ6が、恒星投影機2の回転角位置制御により方位角AZM 、仰角ALT に向いている。この場合、カメラ撮像範囲は矩形となり、図示している通りドームスクリーン1の一部を撮像可能である。
ここで、ビデオプロジェクタ3はカメラ撮像範囲31の中心を通る縦の所定の広さの白い直線をテストパターン32として、色の補正を一切行わずに、カメラ撮影範囲31より上下に十分溢れるように投影する。
Next, details of the camera photographing procedure will be described.
FIG. 12 illustrates the state of camera shooting.
The image from the video projector can be projected over the projector projection range 30 in the figure, and a figure of any shape and color can be displayed by a command from a control PC (not shown).
The video camera 6 mounted on the stellar projector 2 installed at the center of the dome screen 1 is directed to the azimuth angle AZM and the elevation angle ALT by the rotation angle position control of the stellar projector 2. In this case, the camera imaging range is rectangular, and a part of the dome screen 1 can be imaged as shown.
Here, the video projector 3 uses a white straight line of a predetermined vertical length passing through the center of the camera imaging range 31 as a test pattern 32 so that the video projector 3 sufficiently overflows above and below the camera imaging range 31 without performing any color correction. Project.

その様子をカメラ画面上で表示したのが図13である。カメラの方位角AZM は60度,仰角ALT がおよそ58度に設定されたときのカメラ画面である。斜線で塗りつぶされたのが投影されるテストパタ−ン32である。このテストパタ−ン32の太さがある程度あれば、カメラ画面上において、画面中心を通る縦一列の画素は、テストパターンに重なる。例えばカメラの解像度が640×480画素であったとすると、X=320,Y=0〜X=320,Y=479の合計480画素である。今後、カメラ撮影ではこの縦一列の画素(取得画素)のデータを使用するものとする。
例えば(320,0)と、(320,479)の2点のカメラ画面座標を、カメラの方位角と仰角を参照して地平座標に変換する。この2点の地平座標をビデオプロジェクタの投影画面上の座標に変換して、プロジェクタ投影画面上で、たとえば太さが10ピクセル〜20ピクセル程度で、この2点を結ぶ白線を描画すれば、図13のような状態が得られる。もしゆがみが大きいときは、2点でなくカメラ画面上のより多くの点を結ぶようにしてもよい。いずれしても、カメラの向きが分かっていれば、座標変換によりカメラ画面の中心を通る直線を描画することができる。カメラ撮影時は常にこの状態を維持する。
簡易に求めるには、このような描画でなく、プロジェクタ全画面に全白に塗りつぶした図形を表示する方法もあるが、全白画面を表示した場合、散乱光による誤差が出る可能性があるため、図形表示は取得範囲を被うぎりぎりの部分に留めるのが良い。
FIG. 13 shows the state on the camera screen. This is the camera screen when the camera azimuth AZM is set to 60 degrees and the elevation angle ALT is set to approximately 58 degrees. The test pattern 32 to be projected is shaded. If the test pattern 32 has a certain thickness, the vertical line of pixels passing through the center of the screen overlaps the test pattern on the camera screen. For example, if the resolution of the camera is 640 × 480 pixels, X = 320, Y = 0 to X = 320, Y = 479, which is a total of 480 pixels. From now on, it is assumed that the data of the pixels in one vertical column (acquired pixels) will be used in camera shooting.
For example, two camera screen coordinates (320, 0) and (320, 479) are converted into horizon coordinates with reference to the azimuth and elevation angles of the camera. If these two horizon coordinates are converted into coordinates on the projection screen of the video projector and a white line connecting these two points is drawn on the projector projection screen, for example, with a thickness of about 10 to 20 pixels, A state like 13 is obtained. If the distortion is large, more points on the camera screen may be connected instead of two points. In any case, if the orientation of the camera is known, a straight line passing through the center of the camera screen can be drawn by coordinate conversion. This state is always maintained during camera shooting.
A simple way to find out is to display a figure filled with all white on the full screen of the projector instead of drawing like this. However, if an all white screen is displayed, errors due to scattered light may occur. In the graphic display, it is preferable to keep the acquisition range at the bare part.

図14は、カメラの方向を変えてビデオプロジェクタの投影画面全面の明度を撮影する範囲を図示したものである。
点線で示されたプロジェクタの投影画面33を十分被うように、カメラの方位角と仰角を変えながら撮影を行う。本図では、カメラの仰角を3段階に分け、それぞれの仰角において、方位角を一定速度で動かしながら撮影をする。仮に画面中心の方位角が0度であったとすれば、第1スキャンでは、方位角を-WAZM1からWAZM1 まで移動させる。同様に第2,第3スキャンも行う。
スキャン撮影の様子を図16に示す。
この移動中に、カメラの取得画素から輝度データを逐次取得すれば、投影画面の全面を被って撮影できることになる。
FIG. 14 illustrates a range in which the brightness of the entire projection screen of the video projector is photographed by changing the direction of the camera.
Shooting is performed while changing the azimuth angle and elevation angle of the camera so as to sufficiently cover the projection screen 33 of the projector indicated by the dotted line. In this figure, the elevation angle of the camera is divided into three stages, and shooting is performed while moving the azimuth angle at a constant speed at each elevation angle. If the azimuth angle at the center of the screen is 0 degree, the azimuth angle is moved from -WAZM1 to WAZM1 in the first scan. Similarly, the second and third scans are also performed.
FIG. 16 shows the state of scan shooting.
If luminance data is sequentially acquired from the acquired pixels of the camera during this movement, the entire surface of the projection screen can be covered and photographed.

図15はこの投影画像から補正マップを得るシステムのブロック図であり、本図を用いて手順とデータの流れを説明する。
あらかじめビデオプロジェクタの絞りは開口数設定部41により第1の状態にして、撮影する画面以外のプロジェクタはオフにしておく。
まず、入力装置43で撮像位置設定部42にカメラの向きを設定する。例えば、撮像位置設定部42をカメラ画面中心の高度と方位角を投影画面の隅にあたる位置に設定し、方位角を一定の速さで動し、これを画面全面を被うように繰り返すように指令を入力する。
恒星投影機2のサーボ制御装置44がこの指令に基づいて恒星投影機2を動かし、ビデオカメラ6の向きを上記のように変化させる。
サーボ制御装置44は、恒星投影機2の方位軸と緯度軸の回転角位置を随時保持しており、この値よりカメラ画面中心の高度と方位角を割り出すことができる。取得画素設定部45は、カメラ画面上の取得画素が設定されており、たとえば(320,0)〜(320,479)の値を随時繰り返し出力する。カメラ画素座標−地平座標変換部46は、ビデオカメラ画面中心の高度と方位角を参照することにより、カメラ画面上の取得画素を地平座標に変換する。この地平座標はさらに、プロジェクション変換部47で投影画面上の座標に変換される。
FIG. 15 is a block diagram of a system for obtaining a correction map from this projection image. The procedure and data flow will be described with reference to this figure.
In advance, the aperture of the video projector is set to the first state by the numerical aperture setting unit 41, and the projectors other than the screen to be photographed are turned off.
First, the orientation of the camera is set in the imaging position setting unit 42 by the input device 43. For example, the imaging position setting unit 42 sets the altitude and azimuth angle at the center of the camera screen to a position corresponding to the corner of the projection screen, moves the azimuth angle at a constant speed, and repeats this so as to cover the entire screen. Enter the command.
The servo control device 44 of the stellar projector 2 moves the stellar projector 2 based on this command, and changes the direction of the video camera 6 as described above.
The servo control device 44 holds the rotational angle positions of the azimuth axis and the latitude axis of the stellar projector 2 as needed, and can determine the altitude and azimuth angle at the center of the camera screen from these values. The acquisition pixel setting unit 45 is set with an acquisition pixel on the camera screen, and repeatedly outputs, for example, values of (320, 0) to (320, 479) as needed. The camera pixel coordinate-horizon coordinate conversion unit 46 converts the acquired pixel on the camera screen into the horizontal coordinate by referring to the altitude and the azimuth angle at the center of the video camera screen. The horizon coordinates are further converted into coordinates on the projection screen by the projection conversion unit 47.

一方、取得画素座標をもとに、ビデオカメラ6からフレームグラバ48を通じてその画素の撮像データが読み出される。撮像データはガンマ補正部49によるビデオカメラのガンマ関数で補正される。このようにして得た補正済撮像データは、光学プロファイルのデータになるが、このままでは、物理量をそのまま記憶した値でもあるので、変換しなければならない。そのために、補正済撮像データは撮像データメモリ部50に格納する。撮像データメモリ部50は、プロジェクタの投影画素数に等しい画素数をもつ2次元配列で、この配列上の前記投影画面上の座標に、前記補正済撮像データを格納する。
なお、このような撮影と書き込みでは、同じ画素が複数回指定されることもあるが、その場合は上書きするか、または既に撮像データメモリ部50に登録されている値との平均値を得てそれを書き込む等をしてもよい。逆に、ビデオカメラの解像度が荒かったり、方位角を移動させる速度が速すぎる場合は、撮像データメモリの全ての画素が埋められるとは限らず、データが格納されない部分もあり得るので、この場合は補間計算により近くの値から近似値を得て書き込む必要がある。
On the other hand, based on the acquired pixel coordinates, imaging data of the pixel is read from the video camera 6 through the frame grabber 48. The imaging data is corrected by the gamma function of the video camera by the gamma correction unit 49. The corrected imaging data obtained in this way becomes optical profile data. However, if it remains as it is, it is also a value that stores the physical quantity as it is, so it must be converted. For this purpose, the corrected imaging data is stored in the imaging data memory unit 50. The imaging data memory unit 50 is a two-dimensional array having a number of pixels equal to the number of projection pixels of the projector, and stores the corrected imaging data at coordinates on the projection screen on this array.
In such shooting and writing, the same pixel may be designated a plurality of times, but in that case, it is overwritten or an average value with a value already registered in the imaging data memory unit 50 is obtained. You may write it. Conversely, if the resolution of the video camera is rough or the moving speed of the azimuth is too fast, not all the pixels in the imaging data memory will be filled, and there may be parts where data is not stored. It is necessary to write an approximate value from a nearby value by interpolation calculation.

光学プロファイルデータメモリ部51も、プロジェクタの投影画面と同じ画素数を持つ2次元配列である。光学プロファイルデータメモリ部51は撮像データメモリ部50からピーク値を取得し、ピーク値で除算して光学プロファイルを得、これを書き込む。
このような処理により、ビデオカメラで投影画面の全面をスキャンすれば、光学プロファイルデータメモリ部51に値が格納される。
また別の方法として、ビデオプロジェクタの遮光マスクを一時的に退避させて撮像を行い、非遮光撮像データメモリ部(図示しない)に撮像結果を書き込み、その後に遮光マスクを復帰させた状態で撮像された結果である撮像データを非遮光撮像データメモリ部の値で画素ごとに除算して光学プロファイルを求めてもよい。この場合、ビデオプロジェクタの光学投影ムラがあっても、純粋な遮光マスクの影響だけを抽出することができる。
The optical profile data memory unit 51 is also a two-dimensional array having the same number of pixels as the projection screen of the projector. The optical profile data memory unit 51 obtains a peak value from the imaging data memory unit 50, divides by the peak value, obtains an optical profile, and writes this.
With such processing, when the entire surface of the projection screen is scanned by the video camera, the value is stored in the optical profile data memory unit 51.
As another method, imaging is performed by temporarily retracting the shading mask of the video projector, writing an imaging result in a non-shielding imaging data memory unit (not shown), and then returning the shading mask. The optical profile may be obtained by dividing the imaging data as a result of the calculation for each pixel by the value of the non-shielded imaging data memory unit. In this case, even if there is optical projection unevenness of the video projector, only the influence of a pure light shielding mask can be extracted.

この光学プロファイルデータメモリ部51に格納されたデータを参照し、目標プロファイルデータメモリ部53の目標プロファイルデータによって補正プロファイル算出部52は演算し、補正プロファイルが算出される。補正プロファイルは、補正マップ部54の補正マップ1に書き込まれる。
同様の手順で、開口数を第2の状態にして同様の処理により、補正マップ2を取得することができる。
この実施の形態では、ビデオカメラの画角があまり広くないため、ビデオカメラの方向を変えてスキャン撮影する場合を説明したが、より簡便にはビデオカメラに画角の広いものを用いてビデオカメラをビデオプロジェクタの投影画面中心に向けて静止させた状態で、投影画面全面の輝度を得てもよい。また、ビデオカメラ画面にビデオプロジェクタの投影面が収まらない場合でも、カメラの方向を複数の値で静止させてビデオカメラ画面の全画素を読み取り、合成して同様の効果を得ても良い。この場合、より短時間に撮影が完了する。ただし、この場合はカメラ画面の周辺まで使うため、ビデオカメラおよびカメラレンズの周辺減光の影響を受けやすくなるので、あらかじめカメラレンズの周辺減光特性を取得して、撮影データに補正することが望ましい。
With reference to the data stored in the optical profile data memory unit 51, the correction profile calculation unit 52 calculates the target profile data in the target profile data memory unit 53, and the correction profile is calculated. The correction profile is written in the correction map 1 of the correction map unit 54.
With the same procedure, the correction map 2 can be obtained by performing the same process with the numerical aperture set to the second state.
In this embodiment, since the angle of view of the video camera is not so wide, a case has been described in which scanning is performed by changing the direction of the video camera. However, more simply, a video camera having a wide angle of view is used for the video camera. The brightness of the entire projection screen may be obtained in a state where is stopped toward the center of the projection screen of the video projector. Further, even when the projection surface of the video projector does not fit on the video camera screen, the same effect may be obtained by reading and synthesizing all the pixels of the video camera screen with the camera direction stationary at a plurality of values. In this case, shooting is completed in a shorter time. However, in this case, since it is used up to the periphery of the camera screen, it is easy to be affected by the peripheral dimming of the video camera and camera lens. desirable.

図17は、このようにして得た補正マップ1と補正マップ2を用いて、実際に投影する開口数における補正マップを補間演算により得る流れを説明するためのブロック図である。
たとえば、ある画素において、開口数F3.2の補正マップ1のデータが0.62,開口数F8の補正マップ2のデータが0.44であるとする。
投影する際に開口数がF6のときのデータは、
A=(0.44−0.62)/(8−3.2) ・・・(3)
B=0.62−A*3.2 = 0.74 ・・・(4)
データ=A*6+B=0.515 ・・・(5)
となる。これを全ての画素について行えば良い。
なお、補間演算はあくまで近似計算であり、大きく状態の異なる2状態の中間を正しく表すものではない。より精度を上げるには、プロジェクタの開口数がより多くの状態で補正マップを得て補間演算するのが良い。もちろん、開口数を3つ以上の状態で3つ以上の補正マップを得て補間演算することも本発明の範疇に含まれる。
FIG. 17 is a block diagram for explaining a flow of obtaining a correction map for the numerical aperture to be actually projected by interpolation calculation using the correction map 1 and the correction map 2 obtained as described above.
For example, in a certain pixel, the correction map 1 data with a numerical aperture F3.2 is 0.62, and the correction map 2 data with a numerical aperture F8 is 0.44.
The data when the numerical aperture is F6 when projecting is
A = (0.44-0.62) / (8-3.2) (3)
B = 0.62−A * 3.2 = 0.74 (4)
Data = A * 6 + B = 0.515 (5)
It becomes. This may be performed for all pixels.
Note that the interpolation calculation is merely an approximation calculation, and does not correctly represent the middle of two states that are largely different. In order to increase the accuracy, it is preferable to obtain a correction map and perform an interpolation calculation when the numerical aperture of the projector is larger. Of course, it is also included in the scope of the present invention to obtain an interpolation calculation by obtaining three or more correction maps with three or more numerical apertures.

つづいて補正マップを用いて映像の表示の実施の形態を説明する。
図18は、リアルタイムに映像に補正をかけて上映する場合の映像生成PCの実施の形態を示すブロック図である。
映像の補正は、ビデオプロジェクタ3に映像信号を送る映像生成PC4の内部で行う。 そのため、あらかじめ制御PC5で取得した補正マップ1と補正マップ2のデータを映像生成PC内部の補正マップメモリ部61に転送しておく。
映像描画部62は、投影する元の画像を生成するものであり、あらかじめ編集されて作成された映像を再生する場合もあれば、リアルタイムにベクトル図形を描く場合もある。あらかじめ編集された映像は、たとえばAVI 形式やWMV 形式の動画ファイルであり、ドームマスター等の全天映像から、あらかじめ地平座標−プロジェクタ画面座標変換によって、それぞれのビデオプロジェクタに応じた変形を行って作成しておき、これを描画する。ベクトル図形を描画する場合は、図形の特徴点の座標は、そのまま地平座標か、または他の座標(たとえば赤道座標)から座標変換によって地平座標に変換されて指定されるので、これを描画時に地平座標からプロジェクタ画面上座標に変換して描画を行う。
いずれにしても、描画はいきなりビデオプロジェクタに出力するフレームバッファ66に行うのでなく、画面には現れないオフスクリーンバッファ63に対して行う。
開口数設定部60は、上映時のビデオプロジェクタの開口数が設定される。これは入力装置により開口数を入力してもよいし、あらかじめ設定されたシーケンスに基づいて設定されてもよい。ここで設定された開口数はビデオプロジェクタ3に送られてビデオプロジェクタの絞りが作動してこの開口数に設定される。
Next, an embodiment of displaying an image using a correction map will be described.
FIG. 18 is a block diagram showing an embodiment of a video generation PC when a video is corrected and displayed in real time.
The video correction is performed inside the video generation PC 4 that sends a video signal to the video projector 3. Therefore, the data of the correction map 1 and the correction map 2 acquired in advance by the control PC 5 are transferred to the correction map memory unit 61 inside the video generation PC.
The video drawing unit 62 generates an original image to be projected, and may reproduce a video that has been edited and created in advance, or may draw a vector graphic in real time. The pre-edited video is, for example, a video file in AVI format or WMV format, and is created from the whole sky video such as dome master by performing transformation according to each video projector by converting the horizontal coordinate to the projector screen coordinate in advance. Aside, draw this. When drawing a vector figure, the coordinates of the feature points of the figure are specified as horizon coordinates or converted to horizon coordinates by coordinate conversion from other coordinates (for example, equator coordinates). Drawing is performed by converting the coordinates into coordinates on the projector screen.
In any case, the drawing is not performed on the frame buffer 66 that is output to the video projector suddenly, but on the off-screen buffer 63 that does not appear on the screen.
The numerical aperture setting unit 60 sets the numerical aperture of the video projector at the time of screening. The numerical aperture may be input by an input device, or may be set based on a preset sequence. The numerical aperture set here is sent to the video projector 3 and the aperture of the video projector is activated to set the numerical aperture.

一方、補間演算部64にもこの開口数が送られ、この値をもとに、補正マップ1と補正マップ2の間で補間演算を行い、上映時の開口数に即した補正マップを作成する。本図では、開口数に即した補正マップを独立した形で設けるのではなく、二つの補正マップから、毎回全画素に対して毎回演算して得た画素ごとの補正値を映像補正部65に送る構成として示しているが、もちろん開口数に即した補正マップを独立して設け、二つの補正マップから得た補正マップデータをいったんメモリ部に格納して使用する構成にしてもよい。
映像補正部65は、オフスクリーンバッファ63に描画された画面に対して、補正データに基づいた演算をかけて補正を行い、これを出力フレームバッファ66に書き出す。
映像補正部65の補正演算は、投影する画素のデータに補正マップから得た各画素の補正データを乗算して行う。但し、単に乗算するのでは好ましくない。それはビデオプロジェクタが投影する輝度は一般に入力信号に対して比例せず、非線形のカーブを持った特性(ビデオプロジェクタのガンマ特性)を持つためである。ビデオプロジェクタのガンマ特性の一例を図19に示す。具体的特性は機種や設定によっても変わるので、実際の使用時の特性を実測するかメーカーの仕様書などで入手しておく必要がある。
On the other hand, this numerical aperture is also sent to the interpolation calculation unit 64, and based on this value, an interpolation calculation is performed between the correction map 1 and the correction map 2, and a correction map corresponding to the numerical aperture at the time of screening is created. . In this figure, the correction map corresponding to the numerical aperture is not provided in an independent form, but the correction value for each pixel obtained by calculating each pixel for each time from the two correction maps is supplied to the video correction unit 65. Although shown as a configuration for sending, of course, a correction map corresponding to the numerical aperture may be provided independently, and correction map data obtained from the two correction maps may be temporarily stored in the memory unit and used.
The video correction unit 65 corrects the screen drawn in the off-screen buffer 63 by performing a calculation based on the correction data, and writes this to the output frame buffer 66.
The correction calculation of the video correction unit 65 is performed by multiplying the pixel data to be projected by the correction data of each pixel obtained from the correction map. However, simple multiplication is not preferable. This is because the luminance projected by the video projector is generally not proportional to the input signal and has a characteristic having a non-linear curve (gamma characteristic of the video projector). An example of the gamma characteristic of the video projector is shown in FIG. The specific characteristics vary depending on the model and settings, so it is necessary to actually measure the characteristics during use or obtain them from the manufacturer's specifications.

ここでオフスクリーンバッファの描画出力から出力フレームバッファに出力するまでの手順について説明する。
1.オフスクリーンバッファの各画素のデータを読み出す。
2.カラー映像の場合、R,G,Bの3つの値があるので、R,G,Bの輝度を分離して得る。
3.R,G,Bそれぞれをガンマ関数によって変換し、実際に投影されるガンマ補正値R1,G1,B1を得る。
4.このガンマ補正値に各画素ごとの補正値を乗算する。得た値をR2,G2,B2とする。
5.補正値を、ガンマ関数の逆関数によって逆変換し、データ用の輝度にする。R3,G3,B3とする。
6.このR3,G3,B3を合成してもとのカラーデータに戻し、出力フレームバッファの該当画素に書き出す。
この処理をフレーム周期ごとに繰り返して映像を出力すると、ドームスクリーンには補正された正しい輝度の映像が投影される。
また、リアルタイムに補正するのでなく、あらかじめ再生する映像に補正をかける方法もある。
Here, the procedure from the drawing output of the off-screen buffer to the output to the output frame buffer will be described.
1. Read the data of each pixel of the off-screen buffer.
2. In the case of a color image, since there are three values of R, G, and B, the luminances of R, G, and B are obtained separately.
3. R, G, and B are converted by a gamma function to obtain gamma correction values R1, G1, and B1 that are actually projected.
4). The gamma correction value is multiplied by the correction value for each pixel. The obtained values are R2, G2, and B2.
5. The correction value is inversely transformed by an inverse function of the gamma function to obtain data luminance. Let R3, G3, B3.
6). R3, G3, and B3 are combined and returned to the original color data, and written to the corresponding pixel in the output frame buffer.
When this process is repeated for each frame period and an image is output, the corrected image having the correct luminance is projected onto the dome screen.
There is also a method of correcting the video to be reproduced in advance instead of correcting in real time.

図20は、あらかじめ作成された映像データに補正をかけて補正済み映像データを作るためのブロック図である。
元映像データ71は、図18と同様、あらかじめ歪み補正は行われているものとする。また、ビデオプロジェクタの開口数は、あらかじめ再生時間に応じてシーケンス化して開口数シーケンスとして用意しておく。処理内容はつぎの通りである。
1.補正演算部74は元映像データ71から、1フレームずつ画像を取り出す。
2.そしてそのフレームに相当する時間を割り出し、その瞬間の開口数を開口数制御シーケンス72から割り出す。
3.この開口数をもとに、補正マップ部70の補正マップ1,2から補間演算部73で投影時の補正データを作る。
4.補正演算部74は、補正データをもとに元映像データ71に補正をかける。
5.補正後の映像データをフレームとして書き出し、これを補正済映像データ75とする。
このようにして作成された補正済映像データ75を、そのまま再生してビデオプロジェクタから投影すれば、正しい輝度の映像が投影される。
FIG. 20 is a block diagram for creating corrected video data by correcting video data created in advance.
The original video data 71 is assumed to have been subjected to distortion correction in advance as in FIG. Further, the numerical aperture of the video projector is prepared in advance as a numerical aperture sequence by making a sequence according to the reproduction time. The processing contents are as follows.
1. The correction calculation unit 74 extracts an image from the original video data 71 frame by frame.
2. Then, the time corresponding to the frame is determined, and the numerical aperture at that moment is determined from the numerical aperture control sequence 72.
3. Based on the numerical aperture, correction data at the time of projection is generated by the interpolation calculation unit 73 from the correction maps 1 and 2 of the correction map unit 70.
4). The correction calculation unit 74 corrects the original video data 71 based on the correction data.
5. The corrected video data is written out as a frame, and this is set as corrected video data 75.
If the corrected video data 75 created in this way is reproduced as it is and projected from a video projector, a video with the correct luminance is projected.

つぎに第2の実施の形態を説明する。
基本的な手順は第1の実施の形態と同様だが、補正マップを得るための撮影を複数回行わずに1回だけ行い、この撮影結果をもとに任意の開口数における補正マップを得る方法である。
まず、基本原理を説明する。
光学プロファイルの光学グラデーションは、ビデオプロジェクタの投影レンズにある、ほぼ円形の開口部を遮光マスクが遮ることにより生じる。
Next, a second embodiment will be described.
The basic procedure is the same as in the first embodiment, but a method for obtaining a correction map at an arbitrary numerical aperture based on the result of photographing, which is performed only once instead of multiple times for obtaining a correction map. It is.
First, the basic principle will be described.
The optical gradation of the optical profile is generated when the light shielding mask blocks a substantially circular opening in the projection lens of the video projector.

図21(a)は投影レンズの出射瞳と遮光板をスクリーン側から図示したものである。
スクリーン面からみたレンズの出射瞳90に対する遮光板91の位置Pは、スクリーン面の位置によって変わる。
図22は、ビデオプロジェクタから投影された光が遮光マスクにより周辺部が遮光される際の、ドームスクリーン上の3点から見た出射瞳と遮光板の位置関係を図示したものである。出射瞳90に遮光板91が影を作ることによりドームスクリーンの輝度が下がる。出射瞳80を通る光束分布が一様であると仮定すると、ドームスクリーン面の所定の位置から見た出射瞳の面積が、その位置におけるスクリーン面の輝度に比例する。
本図では半径Rの出射瞳の中心に対して遮光板91のエッジがPだけずれてレンズ面を被っている。
この時の出射瞳90の露出部分の面積を、全開の状態を「1」とすると、図21(b)で示す式で算出できる。
Rを「1」として、この関数をグラフ化すると図23のようになる。この関数を基本グラデーション関数とする。また、この逆関数を逆基本グラデーション関数とする。すなわち光学グラデーションのカーブがこの関数になる原理を利用する。
FIG. 21A illustrates the exit pupil and the light shielding plate of the projection lens from the screen side.
The position P of the light shielding plate 91 with respect to the exit pupil 90 of the lens viewed from the screen surface varies depending on the position of the screen surface.
FIG. 22 illustrates the positional relationship between the exit pupil and the light shielding plate viewed from three points on the dome screen when the light projected from the video projector is shielded from the periphery by the light shielding mask. The light shielding plate 91 creates a shadow on the exit pupil 90, thereby reducing the brightness of the dome screen. Assuming that the light flux distribution through the exit pupil 80 is uniform, the area of the exit pupil viewed from a predetermined position on the dome screen surface is proportional to the luminance of the screen surface at that position.
In this figure, the edge of the light shielding plate 91 is shifted by P from the center of the exit pupil having the radius R and covers the lens surface.
The area of the exposed portion of the exit pupil 90 at this time can be calculated by the equation shown in FIG. 21B, where the fully opened state is “1”.
When R is “1” and this function is graphed, FIG. 23 is obtained. This function is a basic gradation function. This inverse function is an inverse basic gradation function. That is, the principle that an optical gradation curve becomes this function is used.

光学グラデーションの幅は、図9の例で明かなように、プロジェクタの絞りの開口数によって決まる。そして絞りの開口部の大きさに比例することは図8からみて明かである。図24は、遮光マスクのエッジ付近の光学プロファイルを、開口数がF3.2,F5.6,F8の3つのケースについて、ピーク光学輝度を100%として図示したものである。図を見れば分かるとおり、グラデーションの曲線形状はほとんど変化がなく、単にグラデーションは幅が開口数に反比例して伸縮していることが分かる。逆に言えば、ある開口数における光学プロファイルを得れば、ここから他の光学プロファイルを推定可能であると考えてよい。   The width of the optical gradation is determined by the numerical aperture of the projector aperture, as is apparent from the example of FIG. The fact that it is proportional to the size of the aperture of the diaphragm is apparent from FIG. FIG. 24 shows the optical profile near the edge of the light-shielding mask with the peak optical brightness being 100% for three cases with numerical apertures of F3.2, F5.6, and F8. As can be seen from the figure, the curve shape of the gradation hardly changes, and it can be seen that the gradation simply expands and contracts in inverse proportion to the numerical aperture. In other words, if an optical profile at a certain numerical aperture is obtained, it may be considered that another optical profile can be estimated therefrom.

そこで、一つの開口数における光学プロファイルをカメラ撮影によって求め、投影時の開口数に応じた光学プロファイルを推定した後、補正マップを作成する実施の形態を説明する。
図25は、本発明による映像システムの回路構成の第2の実施の形態を示すもので、光学プロファイル推定法による補正マップ算出を行う回路のブロック図である。
基本的な回路構成は第1の実施の形態と同じであるので、その部分の説明は省略する。 まず、絞りがたとえば開放の状態(F3.2)で前回同様の撮影を行い、ビデオプロジェクタの光学プロファイルを得る。その後、異なるのは、光学プロファイルから算出される補正マップでなく、ここで得た光学プロファイルのデータを保存することである。これを撮影時光学プロファイルと呼び、そのメモリ部を撮影時光学プロファイルデータメモリ部80とする。
映像投影時に、開口数設定部41によって設定された開口数をもとに、撮像時光学プロファイルから投影時光学プロファイルを算出し、投影時光学プロファイルデータメモリ部81に格納する。この算出方法は後述する。
その後の処理は前回同様、補正プロファイル算出部82によって目標プロファイルをこの投影時光学プロファイルで除算して補正マップを得、補正マップ部83に格納する。この補正マップを用いた映像の投影の方法は、前回の実施の形態と同様である。演算対象となる光学プロファイルが、「1」をピークとする相対光学プロファイルであるので、目標プロファイル算出のための目標輝度は、「1」未満、例えば0.8〜0.9程度の値を設定する。
Therefore, an embodiment will be described in which an optical profile at one numerical aperture is obtained by camera photographing, and an optical profile corresponding to the numerical aperture at the time of projection is estimated, and then a correction map is created.
FIG. 25 shows a second embodiment of the circuit configuration of the video system according to the present invention, and is a block diagram of a circuit for calculating a correction map by the optical profile estimation method.
Since the basic circuit configuration is the same as that of the first embodiment, the description thereof is omitted. First, in the state where the aperture is open (F3.2), for example, the same shooting as the previous time is performed to obtain the optical profile of the video projector. Then, the difference is that the optical profile data obtained here is stored, not the correction map calculated from the optical profile. This is referred to as an optical profile at the time of photographing, and the memory unit is referred to as an optical profile data memory unit 80 at the time of photographing.
At the time of image projection, a projection optical profile is calculated from the imaging optical profile based on the numerical aperture set by the numerical aperture setting unit 41, and stored in the projection optical profile data memory unit 81. This calculation method will be described later.
Subsequent processing is the same as the previous process, the correction profile calculation unit 82 divides the target profile by this projection optical profile to obtain a correction map, and stores it in the correction map unit 83. The video projection method using this correction map is the same as in the previous embodiment. Since the optical profile to be calculated is a relative optical profile having a peak at “1”, the target luminance for target profile calculation is set to a value less than “1”, for example, about 0.8 to 0.9. To do.

ついで撮影時光学プロファイルから基本グラデーション関数を用いて、投影時光学プロファイルを求める演算方法を説明する。
図26は、相対光学プロファイルから投影時光学プロファイルを求める原理を図示したものである。相対光学プロファイルの一つのデータの値をY1であるとする。ここでY1値のグラデーション上のX座標Sは、Y1を逆基本グラデーション関数に入れて算出できる。撮影時の開口数がK1、投影時の開口数がK2であるとすると、開口数比はK2/K1 である。そこでS値に開口数比を乗算し、これを基本グラデーション関数によって変換すると、Y2を算出できる。
Next, a calculation method for obtaining an optical profile at the time of projection using a basic gradation function from the optical profile at the time of shooting will be described.
FIG. 26 illustrates the principle of obtaining the projection optical profile from the relative optical profile. It is assumed that one data value of the relative optical profile is Y1. Here, the X coordinate S on the gradation of the Y1 value can be calculated by putting Y1 into the inverse basic gradation function. If the numerical aperture at the time of shooting is K1, and the numerical aperture at the time of projection is K2, the numerical aperture ratio is K2 / K1. Therefore, Y2 can be calculated by multiplying the S value by the numerical aperture ratio and converting this by the basic gradation function.

つぎに、撮影時の開口数がF3.2で、投影時の開口数がF7として、相対光学プロファイルのある画素のデータY1が0.61であったとしたときのY2の算出例を次に示す。
図27は、基本グラデーション関数の値を、Xを0.01刻みで示した図である。
計算例の説明補助のため、行番号と列番号を付記している。本図より数値を読み取って計算を進めることとなる。
なお、説明便宜のため誤差をある程度含んでいるが、この図から近似の値を読み取り、そのまま採択する。しかし実際にはコンピュータにより補間計算を行って精度を上げることもできる。
0.61の逆基本グラデーション関数による演算値S は、この図からY が最も0.61に近い値を探すと、3列目の38行目のX=0.17,Y=0.608 である。
開口数比は、7/3.2=2.189 であるから、S'は0.17*2.189=0.372となる。これをグラデーション関数に入力する。すなわちこの図のX=0.372の値に最も近い値を探すと、4列目の18行目、X=0.37,Y=0.73を求めることができる。
Next, an example of calculating Y2 when the numerical aperture at the time of photographing is F3.2, the numerical aperture at the time of projection is F7, and the data Y1 of the pixel having the relative optical profile is 0.61 is shown below.
FIG. 27 is a diagram showing the value of the basic gradation function with X in increments of 0.01.
Row numbers and column numbers are added to help explain the calculation examples. The numerical value is read from this figure and the calculation proceeds.
Although some errors are included for convenience of explanation, approximate values are read from this figure and adopted as they are. However, in practice, interpolation accuracy can be improved by a computer.
The calculated value S by the inverse basic gradation function of 0.61 is X = 0.17, Y = 0.608 in the 38th row of the third column when Y is the closest value to 0.61 in this figure.
Since the numerical aperture ratio is 7 / 3.2 = 2.189, S ′ is 0.17 * 2.189 = 0.372. This is input to the gradation function. That is, when a value closest to the value of X = 0.372 in this figure is searched, the 18th row of the fourth column, X = 0.37, Y = 0.73 can be obtained.

このYの値が、投影時光学プロファイルのデータとなる。この演算を、全ての画素について行えば良い。
実際の演算においては、この図の内容をコンピュータに読み込み、補間計算により上述の計算を行う。
この実施の形態では説明の便宜のため、開口数が一つの状態において光学プロファイルを求めて、他の開口数における光学プロファイルは数値演算によって得る例を示したが、実際には複数の光学プロファイルを用いる第1の実施の形態と併用して、より精度を高めることもできる。
The value of Y becomes the data of the optical profile during projection. This calculation may be performed for all pixels.
In actual calculation, the contents of this figure are read into a computer and the above calculation is performed by interpolation calculation.
In this embodiment, for convenience of explanation, an example is shown in which an optical profile is obtained in a state where the numerical aperture is one, and optical profiles at other numerical apertures are obtained by numerical calculation. However, in practice, a plurality of optical profiles are obtained. In combination with the first embodiment to be used, the accuracy can be further improved.

以上の第1および第2の実施の形態では、投影像取得手段としてビデオカメラを用いた例を説明したが、実際にはディジタルスチルカメラを用いて、連続的に画像を取得するか、複数回撮影した画像を取得して、上記同様の演算により光学プロファイルを求めても良い。たとえばカメラに魚眼レンズを装着してドーム全面を撮像可能な構成としてドームスクリーン全面に渡り一括して撮像して光学プロファイルを取得してもよいし、カメラの向く方向を制御可能として複数方向にわたり撮像して光学プロファイルを求めても良い。   In the first and second embodiments described above, an example in which a video camera is used as a projection image acquisition unit has been described. However, in actuality, a digital still camera is used to acquire images continuously or multiple times. A photographed image may be acquired to obtain an optical profile by the same calculation as described above. For example, a fisheye lens can be attached to the camera so that the entire dome can be imaged, and an optical profile can be obtained by capturing images over the entire dome screen. Alternatively, the camera can be controlled in multiple directions. An optical profile may be obtained.

複数のプロジェクタを用いてドームスクリーンに映像を投影するマルチプロジェクションシステムを用いたプラネタリウム施設に設置されるシステムで、特に恒星投影機と併用した際、明るい映像と星空を調和する暗くてコントラストの高い映像を投影可能なシステムである。   A system installed in a planetarium facility using a multi-projection system that projects images onto a dome screen using multiple projectors, especially when used in conjunction with a stellar projector, a dark and high-contrast image that harmonizes a bright image with the starry sky. It is a system that can project.

本発明による映像投影システムの外観を説明するための斜視図である。It is a perspective view for demonstrating the external appearance of the image | video projection system by this invention. ドームスクリーンの地平座標の表示例を示す。A display example of the horizontal coordinate of the dome screen is shown. ドームドーム中心に設置される恒星投影機の構造の斜視図である。It is a perspective view of the structure of the stellar projector installed in the center of the dome dome. 本発明に用いるプロジェクタの実施の形態を示す斜視図である。It is a perspective view which shows embodiment of the projector used for this invention. 複数のプロジェクタを用いてドームスクリーン全面に映像を投影するレイアウトの一例を示す図である。It is a figure which shows an example of the layout which projects an image | video on the dome screen whole surface using a some projector. ドームマスター上で各プロジェクタの投影画面の重複領域を加えて示した図である。It is the figure which added the duplication area | region of the projection screen of each projector on the dome master, and showed. 重複領域の輝度の制御方法を説明するための図である。It is a figure for demonstrating the control method of the brightness | luminance of an overlap area | region. 図4の例におけるS1面のドームマスター型のブレンドマスクをドームマスター型で示す図である。It is a figure which shows the dome master type | mold blend mask of the S1 surface in the example of FIG. 4 with a dome master type | mold. 図4の例におけるS1〜S6面のドームマスター型のブレンドマスクの投影面の一例をドームマスター型のブレンドマスクで示す図である。FIG. 5 is a diagram illustrating an example of a projection surface of a dome master type blend mask on surfaces S1 to S6 in the example of FIG. 4 using a dome master type blend mask. 遮光マスクを取り付けたプロジェクタから投影される映像の輝度分布を説明した図である。It is a figure explaining the luminance distribution of the image | video projected from the projector which attached the light shielding mask. プロジェクタの絞りの開口数を変えたときの光学プロファイルの変化を説明するための図である。It is a figure for demonstrating the change of the optical profile when changing the numerical aperture of the aperture_diaphragm | restriction of a projector. 補正マップを得る手順を示すフローチャートである。It is a flowchart which shows the procedure which obtains a correction map. S1面の目標プロファイルを画像化した一例を示す図である。It is a figure which shows an example which imaged the target profile of S1 surface. カメラ撮影の状態を示す図である。It is a figure which shows the state of camera imaging | photography. テストパターンをカメラ画面上で表示した図である。It is the figure which displayed the test pattern on the camera screen. カメラの方向を変えてビデオプロジェクタの投影画面全面の明度を撮影する範囲を説明するための図である。It is a figure for demonstrating the range which changes the direction of a camera and image | photographs the brightness of the projection screen whole surface of a video projector. 本発明による映像投影システムの回路構成の第1の実施の形態を示すもので、光学プロファイを投影画像から補正マップを得るシステムのブロック図である。1 shows a first embodiment of a circuit configuration of a video projection system according to the present invention, and is a block diagram of a system for obtaining a correction map from a projection image of an optical profile. スキャン撮影の様子を説明するための図である。It is a figure for demonstrating the mode of scan imaging | photography. 補正マップ1と補正マップ2を用いて実際に投影する開口数における補正マップを補間演算により得る流れを説明するためのブロック図である。It is a block diagram for demonstrating the flow which obtains the correction map in the numerical aperture actually projected using the correction map 1 and the correction map 2 by interpolation calculation. リアルタイムに映像に補正をかけて上映する場合の映像生成PCの実施の形態を示すブロック図である。It is a block diagram which shows embodiment of video production | generation PC in the case of carrying out correction | amendment to a video in real time and showing it. ビデオプロジェクタのガンマ特性の一例を示す図である。It is a figure which shows an example of the gamma characteristic of a video projector. あらかじめ作成された映像データに補正をかけて補正済み映像データを作るためのブロック図である。It is a block diagram for making correction | amendment to the video data produced beforehand and making corrected video data. 投影レンズの出射瞳と遮光板をスクリーン側から示した図である。It is the figure which showed the exit pupil and light-shielding plate of the projection lens from the screen side. ビデオプロジェクタから投影された光が遮光マスクにより周辺部が遮光される際の、スクリーン上の3点から見た出射瞳と遮光板の位置関係を示す図である。It is a figure which shows the positional relationship of the exit pupil seen from three points on a screen, and the light-shielding plate when the light projected from the video projector is light-shielded by the light-shielding mask. 出射瞳の露出部分の面積に対する関係をグラフ化した図である。It is the figure which made the relationship with the area of the exposed part of an exit pupil a graph. 遮光マスクのエッジ付近の光学プロファイルを開口数がF3.2、F5.6、F8の3つのケースの例を示す図である。It is a figure which shows the example of three cases whose numerical aperture is F3.2, F5.6, and F8 about the optical profile near the edge of a light shielding mask. 本発明による映像システムの回路構成の第2の実施の形態を示すもので、光学プロファイル推定法による補正マップ算出を行う回路のブロック図である。FIG. 5 is a block diagram of a circuit that performs a correction map calculation by an optical profile estimation method according to a second embodiment of a circuit configuration of a video system according to the present invention. 相対光学プロファイルから投影時光学プロファイルを求める原理を説明するための図である。It is a figure for demonstrating the principle which calculates | requires the optical profile at the time of projection from a relative optical profile. 基本グラデーション関数の値を、Xを0.01刻みで示した図である。It is the figure which showed the value of the basic gradation function in X increments of 0.01.

符号の説明Explanation of symbols

1 ドームスクリーン
2 恒星投影機(光学式恒星投影機)
3 プロジェクタ(ビデオプロジェクタ)
4 映像生成PC
5 制御PC
6 ビデオカメラ
10 台座
11,24 ベース
12 架台フォーク
13 緯度回転軸
14 日周ベース
15 北天恒星球
16 南天恒星球
21 映像入力ケーブル
22 投影レンズ
23 制御信号ケーブル
24 ベース
25 ガラス基板
27 遮光マスク
28 投影窓
29 絞り
30 プロジェクタ投影範囲
31 カメラ撮像範囲
32 テストパターン
33 プロジェクタの投影画面
41 開口数設定部
42 撮像位置設定部
43 入力装置
44 サーボ制御装置
45 取得画素設定部
46 カメラ画素座標−地平座標変換部
47 プロジェクション変換部
48 フレームグラバ
49 ガンマ補正部
50 撮像データメモリ部
51 光学プロファイルデータメモリ部
52 補正プロファイル算出部
53 目標プロファイルデータメモリ部
54,61,83 補正マップ(メモリ)部
62 映像描画部
63 オフスクリーンバッファ
64 補間演算部
65 映像補正部
66 出力フレームバッファ
80 撮像時光学プロファイルデータメモリ部
81 投影時光学プロファイルデータメモリ部
82 補正プロファイル算出部
1 Dome screen
2 Stellar projector (optical stellar projector)
3 Projector (video projector)
4 Video generation PC
5 Control PC
6 video camera 10 pedestal 11,24 base 12 mount fork 13 latitudinal axis 14 diurnal base
15 North Star Stellar Sphere
16 Stellar sphere 21 Image input cable 22 Projection lens 23 Control signal cable 24 Base 25 Glass substrate 27 Shading mask 28 Projection window 29 Aperture 30 Projector projection range 31 Camera imaging range 32 Test pattern 33 Projector screen 41 Numerical aperture setting section
42 Image pickup position setting unit 43 Input device 44 Servo control device 45 Acquisition pixel setting unit 46 Camera pixel coordinate-horizontal coordinate conversion unit
47 Projection conversion unit 48 Frame grabber 49 Gamma correction unit 50 Imaging data memory unit 51 Optical profile data memory unit 52 Correction profile calculation unit 53 Target profile data memory unit 54, 61, 83 Correction map (memory) unit 62 Video drawing unit
63 Off-screen buffer 64 Interpolation calculation unit 65 Video correction unit 66 Output frame buffer 80 Optical profile data memory unit during imaging 81 Optical profile data memory unit during projection 82 Correction profile calculation unit

Claims (9)

コンピュータやビデオ装置の映像生成手段から出力される映像をスクリーンに投影し、複数の、開口数を可変可能なプロジェクタによって投影された画面をスクリーン上で重ね合わせてひとつの映像を形成させる映像投影システムであって、
プロジェクタの開口数を所定の値に設定して画像を前記スクリーンに投影し、投影画像をカメラ撮影して補正マップを得、スクリーンに投影された投影像のデータを取得可能な投影像取得手段と、
実際のプロジェクタの投影時の開口数に応じて前記補正マップによる演算により投影時補正マップを作成し、該投影時補正マップによって、投影時の開口数における映像補正データを算出する映像補正データ算出手段とを備え、
前記映像補正データを用いて映像の輝度の補正を行うことを特徴とする映像投影システム。
A video projection system that projects video output from video generation means of a computer or video apparatus onto a screen and forms a single video by superimposing screens projected by a plurality of projectors with variable numerical apertures on the screen Because
Projection image acquisition means capable of setting the numerical aperture of the projector to a predetermined value, projecting an image on the screen, photographing the projection image with a camera to obtain a correction map, and acquiring projection image data projected on the screen; ,
Image correction data calculation means for creating a projection correction map by calculation using the correction map in accordance with the numerical aperture at the time of projection of an actual projector, and calculating image correction data at the numerical aperture at the time of projection by the projection correction map And
Video projection system, characterized that you correct the brightness of the image by using the image correction data.
コンピュータやビデオ装置の映像生成手段から出力される映像をスクリーンに投影し、複数の、開口数を可変可能なプロジェクタによって投影された画面をスクリーン上で重ね合わせてひとつの映像を形成させる映像投影システムであって、
前記スクリーンに投影された映像を撮影可能なカメラを有するとともに各プロジェクタ毎に開口数を所定の値に設定してスクリーンに投影されたテストパターンを撮影し、撮影して得た、それぞれのプロジェクタの投影像の撮像データを得る撮影像取得手段と、
各プロジェクタの絞りの開口数を、前記テストパターン撮影時と異なる値に設定して映像を投影する場合、前記撮像データ,前記撮影時の各プロジェクタの開口数および該投影時の開口数をもとに、所定の演算を行って映像の輝度を補正する補正データを求める映像補正データ算出手段と、
前記映像補正データにより映像の輝度の補正を行って投影する映像補正投影手段とを備えたことを特徴とする映像投影システム。
A video projection system that projects video output from video generation means of a computer or video apparatus onto a screen and forms a single video by superimposing screens projected by a plurality of projectors with variable numerical apertures on the screen Because
Each projector has a camera capable of shooting the image projected on the screen, sets the numerical aperture for each projector to a predetermined value, shoots the test pattern projected on the screen, and shoots Photographic image acquisition means for obtaining imaging data of a projected image;
When projecting an image by setting the numerical aperture of the aperture of each projector to a value different from that at the time of shooting the test pattern, based on the imaging data, the numerical aperture of each projector at the time of shooting, and the numerical aperture at the time of projection. Video correction data calculating means for obtaining correction data for correcting the luminance of the video by performing a predetermined calculation;
Video projection system, characterized by comprising a video correction projection means for projecting performing correction of the luminance of the image by the image correction data.
コンピュータやビデオ装置の映像生成手段から出力される映像をスクリーンに投影し、複数のプロジェクタによって投影された画面をスクリーン上で重ね合わせてひとつの映像を形成させる映像投影システムであって、
前記スクリーンに投影された映像を撮影可能なカメラを有するとともに前記複数のプロジェクタのそれぞれは、外部からの指令により開閉可能な絞りを有し、
各プロジェクタ毎に絞りの開口数を所定の値に設定してスクリーンに投影されたテストパターンを撮影し、撮影して得た、それぞれのプロジェクタの投影像の撮像データを得る撮影像取得手段と、
各プロジェクタの絞りの開口数を、前記テストパターン撮影時と異なる値に設定して映像を投影する場合、前記撮影像取得手段の撮像データより得られる光学プロファイルと、各プロジェクタが投影するべき光量を画面上の位置に応じて示す、あらかじめ設定した目標プロファイルまたは目標ブレンドマスクをもとに、所定の演算によって映像の各位置の輝度を補正する補正データを求める映像補正データ算出手段と、
前記補正データにより映像の輝度の補正を行って投影する映像補正投影手段とを備えたことを特徴とする映像投影システム。
An image projection system for projecting an image output from image generation means of a computer or a video device on a screen and superimposing screens projected by a plurality of projectors on the screen to form one image,
Each of the plurality of projectors has a camera that can shoot an image projected on the screen, and has an aperture that can be opened and closed by an external command,
Photographing test patterns projected on the screen by setting the numerical aperture of the aperture to a predetermined value for each projector, photographed image acquisition means for obtaining imaging data of the projected image of each projector,
When projecting an image by setting the numerical aperture of the diaphragm of each projector to a value different from that at the time of shooting the test pattern, the optical profile obtained from the imaging data of the captured image acquisition means and the light amount to be projected by each projector Video correction data calculation means for obtaining correction data for correcting the luminance of each position of the video by a predetermined calculation based on a preset target profile or target blend mask, which is indicated according to the position on the screen;
Video projection system, characterized by comprising a video correction projection means for projecting the corrected data by performing the correction of the luminance of the image.
前記スクリーンは、曲面を有するドーム状スクリーンであることを特徴とする請求項1,2または3記載の映像投影システム。   The video projection system according to claim 1, wherein the screen is a dome-shaped screen having a curved surface. 前記撮影像取得手段は、
プロジェクタの開口数が既知である複数の値において複数の撮像データを得、
前記映像補正データ算出手段が用いるデータは、前記複数の撮像データ,前記既知の開口数であることを特徴とする請求項2,3または4記載の映像投影システム。
The captured image acquisition means includes:
Obtaining a plurality of imaging data at a plurality of values with a known numerical aperture of the projector;
The video projection system according to claim 2, 3 or 4, wherein the data used by the video correction data calculation means is the plurality of imaging data and the known numerical aperture.
前記プロジェクタの前面には、画面周辺の光を遮光する遮光マスクを有することを特徴とする請求項2,3,4または5記載の映像投影システム。   6. The video projection system according to claim 2, further comprising a light shielding mask for shielding light around the screen on a front surface of the projector. 前記所定の演算は、
絞りの開口部が前記遮光マスクのエッジによってある位置関係で遮光されるときの位置と透過光量の関係を関数化したグラデーション関数を用いて行うことを特徴とする請求項6記載の映像投影システム。
The predetermined calculation is:
7. The image projection system according to claim 6, wherein a gradation function is used which functions as a function of a relationship between a position and a transmitted light amount when the aperture of the aperture is shielded by an edge of the light shielding mask in a certain positional relationship.
前記遮光マスクにより形成される光学グラデーション領域と、投影面の重複領域が、少なくとも一部重複していることを特徴とする請求項7記載の映像投影システム。   8. The video projection system according to claim 7, wherein the optical gradation area formed by the light shielding mask and the overlapping area of the projection surface overlap at least partially. 前記カメラは、
恒星投影機に搭載され、該カメラの方向を恒星投影機の回転軸の角位置制御によって設定する手段を有することを特徴とする請求項2乃至8のいずれか記載の映像投影システム。
The camera
Mounted in star projector, video projection system according to any one of claims 2 to 8, characterized in that it has means for the orientation of the camera to set the angular position control of the rotational shaft of the star projector.
JP2007129620A 2007-05-15 2007-05-15 Video projection system Active JP5224721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007129620A JP5224721B2 (en) 2007-05-15 2007-05-15 Video projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007129620A JP5224721B2 (en) 2007-05-15 2007-05-15 Video projection system

Publications (2)

Publication Number Publication Date
JP2008288714A JP2008288714A (en) 2008-11-27
JP5224721B2 true JP5224721B2 (en) 2013-07-03

Family

ID=40148055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007129620A Active JP5224721B2 (en) 2007-05-15 2007-05-15 Video projection system

Country Status (1)

Country Link
JP (1) JP5224721B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023003527A1 (en) * 2021-07-22 2023-01-26 Slyusarenko Vitaliy Serhiiovych Method for calibration of an optical-digital projection system

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686022A (en) * 2012-09-13 2014-03-26 武汉麦塔威科技有限公司 Hedra projection system
KR101489261B1 (en) 2013-08-26 2015-02-04 씨제이씨지브이 주식회사 Apparatus and method for managing parameter of theater
CN103713457A (en) * 2013-12-12 2014-04-09 浙江大学 Geometrical correction device and method for 360-degree annular screen multi-projection system
JP5939718B2 (en) * 2014-07-20 2016-06-22 公益財団法人日本科学技術振興財団 Image projection system and image projection method
JP6419480B2 (en) * 2014-07-30 2018-11-07 株式会社クリプトン Multi-projection device
CN104122740A (en) * 2014-08-05 2014-10-29 江苏卡罗卡国际动漫城有限公司 Spherical projecting device
CN105702150B (en) * 2014-12-16 2020-06-30 伍少昊 Integrated optical-digital planetarium
KR101931788B1 (en) * 2016-06-30 2018-12-21 엘지전자 주식회사 Beam projector and operating method thereof
JP2018175066A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP2018175076A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP6869611B2 (en) * 2017-04-05 2021-05-12 株式会社ユニバーサルエンターテインメント Game machine
JP2018175064A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP2018175077A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP2018175069A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP2018175067A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP6869612B2 (en) * 2017-04-05 2021-05-12 株式会社ユニバーサルエンターテインメント Game machine
JP2018175068A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
CN108563981B (en) * 2017-12-31 2022-04-15 广景视睿科技(深圳)有限公司 Gesture recognition method and device based on projector and camera
JP2019220781A (en) * 2018-06-18 2019-12-26 日本放送協会 Video correction apparatus and program of the same
US11762264B2 (en) 2018-11-20 2023-09-19 Konica Minolta Planetarium Co., Ltd. Projection system and projection lens unit
JP7179648B2 (en) * 2019-02-25 2022-11-29 キヤノン株式会社 PROJECTION CONTROL DEVICE, IMAGE PROJECTION DEVICE, AND PROJECTION CONTROL METHOD
JP2021076719A (en) * 2019-11-08 2021-05-20 シャープ福山セミコンダクター株式会社 Projector device, method for controlling projector device, program and recording medium
JP2022020323A (en) * 2020-07-20 2022-02-01 有限会社大平技研 Optical planetarium and planetarium system including the same
CN114363592A (en) * 2021-12-10 2022-04-15 河南中光学集团有限公司 Method for reducing picture chromatic aberration of different projectors
CN115514944A (en) * 2022-09-21 2022-12-23 南京创斐信息技术有限公司 Intelligent household projection angle correction system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519346A (en) * 1991-06-18 1993-01-29 Matsushita Electric Ind Co Ltd Projection type image display device
JP3735158B2 (en) * 1996-06-06 2006-01-18 オリンパス株式会社 Image projection system and image processing apparatus
JP2006178080A (en) * 2004-12-21 2006-07-06 Olympus Corp Projector
JP5068007B2 (en) * 2005-06-01 2012-11-07 有限会社大平技研 Video projection system
JP2007011144A (en) * 2005-07-01 2007-01-18 Olympus Corp Luminance adjustment mechanism for multi-display apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023003527A1 (en) * 2021-07-22 2023-01-26 Slyusarenko Vitaliy Serhiiovych Method for calibration of an optical-digital projection system

Also Published As

Publication number Publication date
JP2008288714A (en) 2008-11-27

Similar Documents

Publication Publication Date Title
JP5224721B2 (en) Video projection system
JP6882835B2 (en) Systems and methods for displaying images
JP3735158B2 (en) Image projection system and image processing apparatus
JP3908255B2 (en) Image projection system
JP3497805B2 (en) Image projection display device
US6983082B2 (en) Reality-based light environment for digital imaging in motion pictures
US8311366B2 (en) System and method for calibrating and adjusting a projected image of a projection apparatus
TWI242374B (en) Image processing system, projector, program, information storing medium, and image processing method
WO2022206527A1 (en) Method for projection image correction and laser projection device
KR20160034847A (en) System and method for calibrating a display system using a short throw camera
JP2008533501A (en) Computer-implemented method for adjusting the attitude of a projector and apparatus for adjusting the attitude of a projector
MXPA06007550A (en) System and method for smoothing seams in tiled displays.
JP2005354680A (en) Image projection system
KR101725024B1 (en) System for real time making of 360 degree VR video base on lookup table and Method for using the same
JP2004015205A (en) Multi-projection system and correction data acquisition method in multi-projection system
JPH11242737A (en) Method for processing picture and device therefor and information recording medium
KR101704362B1 (en) System for real time making of panoramic video base on lookup table and Method for using the same
WO2022183721A1 (en) Projection correction method and apparatus, and projection system
JP4751084B2 (en) Mapping function generation method and apparatus, and composite video generation method and apparatus
WO2019155904A1 (en) Image processing device, image processing method, program, and projection system
JP2006285482A (en) Device for correcting image geometry
JP3709395B2 (en) Image projection system
JP2010266714A (en) Video processor, video display device and video processing method
JP4355508B2 (en) Video image projector on dome screen
JP2004282712A (en) Adjustment device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130312

R150 Certificate of patent or registration of utility model

Ref document number: 5224721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250