JPH0470288A - Photographic picture recording and reproducing system - Google Patents
Photographic picture recording and reproducing systemInfo
- Publication number
- JPH0470288A JPH0470288A JP2184756A JP18475690A JPH0470288A JP H0470288 A JPH0470288 A JP H0470288A JP 2184756 A JP2184756 A JP 2184756A JP 18475690 A JP18475690 A JP 18475690A JP H0470288 A JPH0470288 A JP H0470288A
- Authority
- JP
- Japan
- Prior art keywords
- search
- data
- image
- images
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 11
- 230000002194 synthesizing effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 46
- 230000008569 process Effects 0.000 description 33
- 238000012545 processing Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 17
- 238000012937 correction Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 238000001454 recorded image Methods 0.000 description 7
- 238000011049 filling Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 229910052709 silver Inorganic materials 0.000 description 5
- 239000004332 silver Substances 0.000 description 5
- -1 silver halide Chemical class 0.000 description 5
- 238000003909 pattern recognition Methods 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 239000013256 coordination polymer Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000001932 seasonal effect Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 241000239241 Amphipoda Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 229910052792 caesium Inorganic materials 0.000 description 1
- TVFDJXOCXUVLDH-UHFFFAOYSA-N caesium atom Chemical compound [Cs] TVFDJXOCXUVLDH-UHFFFAOYSA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 235000019504 cigarettes Nutrition 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 229910052701 rubidium Inorganic materials 0.000 description 1
- IGLNJRXAVVLDKE-UHFFFAOYSA-N rubidium atom Chemical compound [Rb] IGLNJRXAVVLDKE-UHFFFAOYSA-N 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Camera Data Copying Or Recording (AREA)
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、I影時に焦点距離情報、被写体距離情報が記
録可能なカメラと、撮影画像を再生する再生機とから成
る撮影画像記録再生システムに係り、特に再生される画
像の実際の被写体の大きさに関するデータを併記表示す
るものである。[Detailed Description of the Invention] [Industrial Application Field] The present invention provides a photographed image recording and reproducing system comprising a camera capable of recording focal length information and object distance information during I-shading, and a reproducing device that reproduces photographed images. In particular, data regarding the actual size of the subject in the reproduced image is also displayed.
従来、撮影画像を着脱可能なメモリカードに記憶する方
式のカメラは既に提案されており(特開昭63−274
289号公報)、更に進んでこのようにして得られたメ
モリカード内の記憶画像を7フイリングシステム(DA
T)に転送するようにし、必要に応じて再生するように
したシステムが知られている。Conventionally, a camera that stores captured images on a removable memory card has already been proposed (Japanese Patent Laid-Open No. 63-274).
289 Publication), and proceeding further, the images stored in the memory card obtained in this manner are processed using the 7 Filling System (DA
A system is known in which the data is transferred to T) and played back as necessary.
また、銀塩カメラで写真撮影する際に、被写体の横に該
被写体の大きさが確認できる、例えば定規、タバコや人
物等スケールとなるものを置いて撮影を行い、撮影画像
と共にこのスケールを写し込むようにしたものが提案さ
れている(特開昭58−158507N、特開昭62−
259004号公報)。Also, when taking a photo with a silver halide camera, place something next to the subject that can be used as a scale, such as a ruler, a cigarette, or a person, so that you can check the size of the subject, and then copy this scale along with the photographed image. (Japanese Patent Application Laid-Open No. 58-158507N, Japanese Patent Application Laid-Open No. 62-1989)
259004).
〔発明が解決しようとする課題]
撮影画像がメモリカードに記憶可能になされた装置にお
いても、またファイリングシステムに転送して、必要に
応じて再生するシステムにおいても被写体の大きさに関
するデータを自動的に併記表示する技術は開示されてい
ない。[Problems to be Solved by the Invention] Data regarding the size of a subject can be automatically stored in a device that allows photographed images to be stored in a memory card, or in a system that transfers captured images to a filing system and reproduces them as needed. No technology has been disclosed for displaying the same.
また、銀塩カメラ、すなわちフィルム面にスケールを写
し込むものでは、スケールに相当するものを撮影毎に被
写体の横に置く作業が必要となり、頻鱈となる。特に、
被写体が遠くに位置する場合等では最早スケールを置く
ことが出来ないという問題がある。また、そのスケール
は固定的であるため、必要に応じて異なる態様によるス
ケール表示を行うことは出来ず、汎用面で充分とは言え
ない。In addition, with a silver halide camera, that is, one that imprints a scale on the film surface, it is necessary to place something corresponding to the scale next to the subject every time a photograph is taken, which results in frequent use. especially,
There is a problem in that it is no longer possible to place a scale when the subject is located far away. Furthermore, since the scale is fixed, it is not possible to display the scale in different ways as required, and it cannot be said to be sufficient for general use.
本発明は上記に鑑みてなされたもので、カメラでの撮影
時に記録された焦点距離情報や被写体距離情報を基に、
再生される画像の実際の被写体の大きさに関するデータ
を自動的に、あるいは更に表示態様を変更可能にして併
記表示する撮影画像記録再生システムを提供することを
目的とする。The present invention was made in view of the above, and based on the focal length information and subject distance information recorded when shooting with a camera,
It is an object of the present invention to provide a photographed image recording and reproducing system that automatically displays data regarding the actual size of a subject in an image to be reproduced, or in combination with the display mode being changeable.
本発明に係る撮影画像記録再生システムは、撮影時にお
ける焦点距離情報、被写体距離情報と撮影画像とを対応
付けて配録する記録媒体を有するカメラと、上記記録媒
体に記録された撮影画像を再生する再生機とから成り、
上記再生機は、上記再生される画像の焦点距離情報及び
被写体距離情報より撮像面上での被写体の大きさに関す
るデータを求める算出手段と、該求めたデータを表示す
べく出力するデータ出力手段とを備え、この出力データ
を前記再生画像と共に表示するようにしたものである。A photographed image recording and reproducing system according to the present invention includes a camera having a recording medium that records photographed images in association with focal length information and subject distance information at the time of photographing, and a camera that reproduces photographed images recorded on the recording medium. It consists of a playback machine that
The playback device includes a calculation means for obtaining data regarding the size of the subject on the imaging surface from the focal length information and subject distance information of the image to be played back, and a data output means for outputting the obtained data for display. The output data is displayed together with the reproduced image.
また、上記算出手段が撮像面上で所定長となるスケール
と該スケールの実際長データを求める演算部と像倍率デ
ータを求める演算部とを有し、切換手段により上記両演
算部で得られたデータの一方が選択的に前記出力手段か
ら出力されるようにしてもよい。Further, the calculation means has a scale having a predetermined length on the imaging surface, a calculation section for calculating actual length data of the scale, and a calculation section for calculating image magnification data, and the switching means has a calculation section for calculating the actual length data of the scale, and the switching means has a calculation section for calculating the actual length data of the scale, and the switching means has a calculation section for calculating the actual length data of the scale. One of the data may be selectively output from the output means.
本発明によれば、撮影画像の記録と共にその時得られた
焦点距離情報、被写体距離情報が対応付けて記録され、
II影画像の再生時には、再生されるmeに対応する焦
点距離情報及び被写体距離情報に基づいて該再生画像の
実際の被写体の大きさに関するデータが算出される。こ
のデータは表示すべく出力され、再生画像と共に表示さ
れる。According to the present invention, the photographed image is recorded, and the focal length information and subject distance information obtained at that time are recorded in association with each other,
When a II shadow image is reproduced, data regarding the actual size of the subject of the reproduced image is calculated based on focal length information and subject distance information corresponding to the reproduced me. This data is output for display and displayed along with the reproduced image.
また、上記算出される被写体の大きさに関するデータは
スケールと該スケールの実際長データ、及び像倍率デー
タであり、かかる両データは切換手段により選択的に切
換えられ、一方のデータのみが出力されて再生画一と共
に表示される。スケールと該スケールの実際長データが
選択された場合は、再生画面上に所定寸法のスケールと
該スケールの被写界での実際の長さが表示される。一方
、像倍率が選択された場合には、算出された像倍率がそ
のまま表示される。Further, the data regarding the size of the subject calculated above is a scale, actual length data of the scale, and image magnification data, and both of these data are selectively switched by a switching means, and only one of the data is output. Displayed along with the playback image. When a scale and actual length data of the scale are selected, a scale of a predetermined size and the actual length of the scale in the field of view are displayed on the playback screen. On the other hand, when the image magnification is selected, the calculated image magnification is displayed as is.
第1図は、画像撮影を行うカメラのブロック図の一例を
示すものである。FIG. 1 shows an example of a block diagram of a camera that captures images.
図において、レンズ1乃至エンコーダ8は撮影画像のた
めの構成である。In the figure, a lens 1 to an encoder 8 are configured for photographing images.
2はレンズ1の光軸上後方位置に配設された撮像素子(
以下、CODという)で、レンズ1を通して得られる被
写体像を撮像するものである。増幅器3はC0D2から
の出力画一信号を所定の増幅率で増幅し、次段ADコン
バータ4に出力する。2 is an image sensor (
(hereinafter referred to as COD), the object image obtained through the lens 1 is captured. The amplifier 3 amplifies the uniform output signal from the C0D 2 at a predetermined amplification factor and outputs it to the next stage AD converter 4.
ADコンバータ4は入力されたアナログ画一信号をデジ
タル画像信号に変換する。ホワイトバランス補正回路5
はデジタル画像信号に後述するホワイトバランスセンサ
14からの色温度データに基づいてホワイトバランス補
正を施し、T補正回路6は更にγ補正を施すものである
。更に、マトリクス処理回路7はデジタル画像信号に所
定のN講補正を施すものである。エンコーダ8は入力さ
れるデジタル画像信号を再生画像用としてのNTSC信
号にエンコードするもので、エンコートサれたNTSC
信号をメモリカードI/F9へ出力する。The AD converter 4 converts the input analog uniformity signal into a digital image signal. White balance correction circuit 5
The T correction circuit 6 performs white balance correction on the digital image signal based on color temperature data from a white balance sensor 14, which will be described later, and the T correction circuit 6 further performs γ correction. Furthermore, the matrix processing circuit 7 performs a predetermined N-correction on the digital image signal. The encoder 8 encodes the input digital image signal into an NTSC signal for use as a reproduced image.
Output the signal to memory card I/F9.
マイク10乃至メモリ13は音声入力のための構成であ
る。The microphone 10 to the memory 13 are configured for voice input.
マイク10はカメラ本体の適所に設けられ、撮影者、被
撮影者等の音声を取り込むものである。A microphone 10 is provided at a suitable location on the camera body and captures the voices of the photographer, the person to be photographed, and the like.
増幅器11はマイク10からの音声信号を所定の増幅率
で増幅し、次段ADコンバータ12に出力する。ADコ
ンバータ12は入力されたアナログ音声信号をデジタル
音声信号に変換する。メモリ13は音声記録用(話者m
l用)として用いられるもので、入力されたデジタル音
声データを一旦記憶し、その後に前記メモリカードI/
F9へ出力する。The amplifier 11 amplifies the audio signal from the microphone 10 at a predetermined amplification factor and outputs it to the next stage AD converter 12. The AD converter 12 converts the input analog audio signal into a digital audio signal. The memory 13 is for voice recording (speaker m
This device is used as a memory card (for I/O), which temporarily stores the input digital audio data, and then stores it on the memory card I/O.
Output to F9.
次に、その他の各種情報を取り込むための構成について
説明する。Next, a configuration for importing various other information will be explained.
ホワイトバランスセンサ14は被写界の色温度を検出す
るもので、得られた色温度データから撮影が螢光灯下で
行われたのか太陽光下で行われたのかを判別して前記適
切なホワイトバランスを施す。AFセンサ15は既知の
測距方法を利用して被写体までの距離を算出するために
用いられるもので、例えばレンズ1を通過した被写体影
像を二方向に分離してそれぞれの受光部(不図示)に被
写体像を導くように構成されている。そして、上記両受
光部で得られた被写体像はAFCPU16に入力される
ようになされており、AFCPI、’16は上記両受光
部の被写体像からその位相差を求め、該位相差から被写
体像までの距離を算出する。The white balance sensor 14 detects the color temperature of the subject, and determines from the obtained color temperature data whether the photograph was taken under fluorescent light or sunlight, and selects the appropriate one. Apply white balance. The AF sensor 15 is used to calculate the distance to the subject using a known distance measurement method, and for example, separates the subject image that has passed through the lens 1 into two directions and sends the image to each light receiving section (not shown). It is configured to guide the image of the subject. The subject images obtained by the two light receiving sections are input to the AFCPU 16, and the AFCPI '16 calculates the phase difference from the subject images of the two light receiving sections, and from this phase difference, the subject image is determined. Calculate the distance.
また、AFCPtJ16は算出した距離データを基に不
図示のレンズ駆動系を駆動させてレンズ1を合焦位置に
移動させる。そして、合焦位置への移動が完了すると、
レンズ1からの焦点距離データfとAFCPU16から
の被写体距離データDが後述する制御部(以下、CPL
Jという)20へ出力される。Furthermore, the AFCPtJ16 drives a lens drive system (not shown) based on the calculated distance data to move the lens 1 to the in-focus position. Then, when the movement to the focus position is completed,
The focal length data f from the lens 1 and the subject distance data D from the AFCPU 16 are transmitted to a control unit (hereinafter referred to as CPL) which will be described later.
J) 20.
温度センサ17、湿度センサ18及び気圧センサ19は
撮影下における温度(気温)、湿度及び気圧をそれぞれ
測定するものである。測定された各データはCPU20
へ出力される。上記各センサは撮影下における各データ
を自動的に測定し、CPU20に導くようにされている
。The temperature sensor 17, the humidity sensor 18, and the atmospheric pressure sensor 19 measure the temperature (air temperature), humidity, and atmospheric pressure, respectively, during imaging. Each measured data is processed by CPU20
Output to. Each of the above-mentioned sensors automatically measures each data during photographing and guides it to the CPU 20.
受信同調部21とIu11部22、またGPS受信器2
3は位置情報を得るための構成である。受信同調部21
はアンテナ21aを通して受信される場所に関するコー
ド(地域、観光地あるいはイベント等を示すコード、以
下場所コードという)を含むFM電波を受信するもので
、復調部22は受信されたFM信号を復調することによ
り場所コードのデータを再生し、CPU20へ出力する
。なお、詳細は第2図で説明する。一方、GPS受信器
23は図外の衛星からの電波をアンテナ23aで受信し
、現在位置の緯度、経度及び高度を算出してCPL12
0へ出力するもので、詳細は第3図で説明する。The reception tuning section 21, the Iu11 section 22, and the GPS receiver 2
3 is a configuration for obtaining position information. Reception tuning section 21
The demodulator 22 receives FM radio waves including a code related to a location (a code indicating a region, tourist spot, event, etc., hereinafter referred to as a location code) received through the antenna 21a, and the demodulator 22 demodulates the received FM signal. The location code data is reproduced and output to the CPU 20. Note that details will be explained with reference to FIG. 2. On the other hand, the GPS receiver 23 receives radio waves from a satellite (not shown) with an antenna 23a, calculates the latitude, longitude, and altitude of the current position, and calculates the latitude, longitude, and altitude of the current position.
The details are explained in FIG. 3.
計時部24はカメラ本体に内蔵された日時を計時するも
のである。The clock section 24 is for clocking the date and time built into the camera body.
操作及び制御系は前記CPU20と、各操作スイッチ8
1〜S3の操作状態を該CPU20へ出力する操作及び
表示部25とから構成される。The operation and control system includes the CPU 20 and each operation switch 8.
It is comprised of an operation and display unit 25 that outputs the operation states of S1 to S3 to the CPU 20.
CPU20は前述したカメラ各部の動作を統括的に一制
御するマイクロコンピュータである。撮影準備用スイッ
チS1は前記各センサの動作をスタートさせるものであ
る。露出スタート用スイッチS2は、いわゆるレリーズ
ボタンであり、カメラの露出動作を開始させるものであ
る。なお、好ましくは上記撮影準備用スイッチS1は上
記レリーズボタンが半押しされた状態で作動し、露出ス
タート用スイッチS2はレリーズボタンが全押しされる
と作動するようにしである。また、操作及び表示部25
は上記各スイッチ81〜S3の切換状態をCPU20へ
出力するとともに、必要に応じてCPU20からのコマ
番号等撮影時の各種データを表示するものである。The CPU 20 is a microcomputer that comprehensively controls the operations of the various parts of the camera described above. The photographing preparation switch S1 starts the operation of each of the sensors. The exposure start switch S2 is a so-called release button that starts the exposure operation of the camera. Preferably, the photography preparation switch S1 is activated when the release button is pressed halfway, and the exposure start switch S2 is activated when the release button is pressed fully. In addition, the operation and display section 25
outputs the switching states of the switches 81 to S3 to the CPU 20, and displays various data from the CPU 20 at the time of photographing, such as frame numbers, as necessary.
また、メモリカードI/F9はCPLI20の制御によ
り、前記画像データ、音声データ及び各種撮影情報をカ
メラ本体に装着脱可能なSRAMあるいはE2PROM
から成るメモリカード26に記憶し、またメモリカード
26の使用状1i(記憶領域の有無等)をCP Ll
2 ’Oへ出力する。Also, the memory card I/F 9 is controlled by the CPLI 20 to store the image data, audio data, and various shooting information in an SRAM or E2PROM that can be attached to and removed from the camera body.
CP Ll is stored in the memory card 26 consisting of
2 Output to 'O.
メモリカード26に記憶された上記各撮影情報は、後述
するように7フイリング詩の検索用情報として利用され
る。The above-mentioned photographic information stored in the memory card 26 is used as search information for the 7-filling poem, as will be described later.
第2図は、場所コードの送受信装置を説明するもので、
同図(A)は各地域、観光地あるいはイベント会場等に
設置され場所コードを送信する送信機を示し、同図(B
)は上記場所コードを受信するカメラ本体に設けられる
受信機を示す。Figure 2 explains the location code transmitting and receiving device.
Figure (A) shows a transmitter that is installed in each region, tourist spot, event venue, etc. and transmits a location code.
) indicates a receiver installed in the camera body that receives the location code.
図(A>において、ROM201は場所コード、例えば
場所(イベント)識別コードか、場所(イベント)名の
漢字のJISコード列のいずれかが、あるいは双方が予
め書き込まれたものである。DPSK変調部202は8
0M201からの出力コードデータにより搬送波に差分
位相変調(DPSK:Dif’ferential
Phase 5hurt l(eying)を施す
ものである。FM変調部203は入力されるシリアルデ
ータにより搬送波にFM変調を施し、更に増幅器204
で所定の電力に増幅された後、アンテナ205から場所
コードを含むFM電波として送信される。In the figure (A>), the ROM 201 has a location code, for example, a location (event) identification code, a Kanji JIS code string of the location (event) name, or both, written in advance.DPSK modulation section 202 is 8
The output code data from 0M201 applies differential phase modulation (DPSK) to the carrier wave.
Phase 5hurt 1 (eyeing) is applied. The FM modulation section 203 performs FM modulation on the carrier wave based on the input serial data, and further performs FM modulation on the carrier wave using the input serial data.
After being amplified to a predetermined power, the signal is transmitted from the antenna 205 as an FM radio wave including a location code.
タイミング発生回路206は送信機側の各ブロックのタ
イミングを#J allするもので、ROM201には
読出用のアドレスデータを、DPSK変調部202及び
FM変講部203にはクロックパルスGKを出力する。A timing generation circuit 206 generates the timing of each block on the transmitter side, and outputs read address data to the ROM 201 and clock pulse GK to the DPSK modulation section 202 and FM conversion section 203.
なお、上記DPSK変調は上記タイミング発生回路20
6のクロックパルスCKを用いて可Ii域でのAFM、
中波でのMFMあるいはPLL方式等によりデジタルデ
ータから位相差データを抽出し、シリアルデータに変換
するものである。Note that the DPSK modulation is performed by the timing generation circuit 20.
AFM in the possible Ii range using 6 clock pulses CK,
Phase difference data is extracted from digital data using a medium wave MFM or PLL method, and is converted into serial data.
次に、図(B)において、アンテナ21aは前記送信機
側のアンテナ205から送信された場所コードのFM電
波を受信するもので、受信信号は増幅器207で増幅さ
れてFMlI調部208に入力される。受信信号はFM
復調部208でキャリア周波数が取り除かれ、更に次段
DPSKII調部209で元のコードデータに復調され
る。、CPU20は復調されたコードデータを取込むと
ともに、メモリカード26に記憶させる。すなわち、C
PU20は該メモリカード26へのコードデータの書込
をその時の撮影画像の書込と対応付けて行うようにして
いる。タイミング発生回路210は受信機側の各ブロッ
クのタイミングを制御するもので、CPLJ20からの
制御信号に応じてFM復講部208、DPSK1![1
1部209にクロックパルスGKを出力する。Next, in Figure (B), the antenna 21a receives the FM radio wave of the location code transmitted from the antenna 205 on the transmitter side, and the received signal is amplified by the amplifier 207 and input to the FMlI tuning section 208. Ru. Received signal is FM
A demodulator 208 removes the carrier frequency, and a next-stage DPSKII modulator 209 demodulates the data to the original code data. , the CPU 20 takes in the demodulated code data and stores it in the memory card 26. That is, C
The PU 20 writes the code data to the memory card 26 in association with the writing of the photographed image at that time. The timing generation circuit 210 controls the timing of each block on the receiver side, and in response to the control signal from the CPLJ 20, the FM review section 208, DPSK1! [1
A clock pulse GK is output to the first section 209.
従って、ある地域、観光地、イベント会場等上記送信機
が設置されている場所で、カメラ撮影が行われると、場
所コードが自動的にメモリカードに記憶される。Therefore, when a camera image is taken at a location where the transmitter is installed, such as a certain area, tourist spot, or event venue, the location code is automatically stored in the memory card.
なお、上記ROM201はその場所固有の場所コードの
み記憶しているものでもよく、あるいは複数の場所コー
ドが予め書込まれており、設置場所に応じた場所コード
を出力すべく切換可能になされたものでもよい。The ROM 201 may be one that stores only a location code specific to that location, or one that has multiple location codes written in advance and can be switched to output the location code depending on the installation location. But that's fine.
第3図は、GPS受信機23の詳細なブロック図である
。FIG. 3 is a detailed block diagram of the GPS receiver 23.
アンテナ23aは図外のNAVASTARII星からの
送信電波を受信する、例えばクオドリフィラーへリツク
ス<auadrifilar he! iX)型であ
る。このアンテナ23aで受信されたRF倍信号混合器
230に入力される。一方、変調器231は局部発振器
232からの局部発振信号CK1をPNココ−発生器2
33からのPNコード信号で拡散するもので、該拡散さ
れた変調信号は上記混合器230に入力される。これに
よって、上記RF倍信号中間周波数であるIF倍信号変
換され、データ復調回路234に入力される。The antenna 23a receives transmitted radio waves from a star NAVASTARII (not shown), for example, a quadrifilar helix <auadrifilar he! iX) type. The RF signal received by the antenna 23a is input to the RF signal mixer 230. On the other hand, the modulator 231 converts the local oscillation signal CK1 from the local oscillator 232 into a PN coco generator 2.
33, and the spread modulation signal is input to the mixer 230. As a result, the IF multiplied signal, which is the intermediate frequency of the RF multiplied signal, is converted and inputted to the data demodulation circuit 234.
このデータ復調回路234は入力信号から衛星が信号を
送信する時刻等を含むデータを復調するものである。復
調されたデータはデータ処理回路235及び遅延計測回
路236に入力される。This data demodulation circuit 234 demodulates data including the time when the satellite transmits the signal from the input signal. The demodulated data is input to a data processing circuit 235 and a delay measurement circuit 236.
該遅延計測回路236は、先ず復調データが入力される
と、タイミング信号をPNココ−発生器233に出力す
る。PNココ−発生器233はPNコード用クロック発
生器237からのりOツクパルスCK2により常時PN
コードを発生しており、上記タイミング信号が入力され
ると発生したPNコードを遅延計測回路236に送出す
るようになされている。そして、データ復調回路234
からのPNコードとPNコード発生器233からのPN
コードとが遅延計測回路236に導かれ、両PNコード
の相関に必要なPNコードの遅延時間が測定される。こ
のPNコードの遅延時間は計測用クロック発生器238
からの高周波クロックパルスCK3を計数することによ
り計測され、該計数値が両PNコードの相関に必要な遅
延データとして、遅延計測回路236からデータ処理回
路235へ出力される。The delay measuring circuit 236 first outputs a timing signal to the PN coco generator 233 when demodulated data is input. The PN code generator 233 is always PN by the clock pulse CK2 from the PN code clock generator 237.
A code is generated, and when the timing signal is input, the generated PN code is sent to the delay measurement circuit 236. And data demodulation circuit 234
PN code from and PN from PN code generator 233
The code is led to a delay measuring circuit 236, and the delay time of the PN code necessary for correlation between both PN codes is measured. The delay time of this PN code is determined by the measurement clock generator 238.
The counted value is outputted from the delay measuring circuit 236 to the data processing circuit 235 as delay data necessary for correlating both PN codes.
データ処理回路235はマイクロプロセッサで構成され
、データ処理用クロック発生回路239からのクロック
パルスCK4によって駆動されるもので、データ復調回
路234からの復調データ中に含まれる送信時刻データ
とGPS受信機内蔵の不図示のセシウム及びルビジウム
蒸気原子時計より得られる受信時刻データとから衛!か
らGPS受信機(カメラ)までの電波伝搬時間を求め、
該時間より衛星からGPS受信機(カメラ)までの距離
を算出する。そして、データ処理回路235は、それぞ
れの衛星からの距離情報と復調データ中に含まれるそれ
ぞれの衛星自身の位置情報とからカメラ(l影者)の1
1度、経度及び高度に関する位置情報を演算して求め、
CPLI20へ出力する。The data processing circuit 235 is composed of a microprocessor, is driven by the clock pulse CK4 from the data processing clock generation circuit 239, and has a built-in GPS receiver and transmission time data included in the demodulated data from the data demodulation circuit 234. From reception time data obtained from a cesium and rubidium vapor atomic clock (not shown)! Find the radio wave propagation time from to the GPS receiver (camera),
The distance from the satellite to the GPS receiver (camera) is calculated from this time. Then, the data processing circuit 235 uses the distance information from each satellite and the position information of each satellite itself included in the demodulated data to
Calculate and obtain position information regarding 1 degree, longitude and altitude,
Output to CPLI20.
GPSは周知のようにNAVASTAR18個により全
世界を網羅するシステムであるが、現在は全ての衛星が
打上げられておらず、受信不能な地域や時刻により受信
不能となる地域がある。CPU20は、かかる受信不能
な地域において前記場所コード受信機からの場所コード
データを自動記憶可能にし、一方、場所コード送信機が
設置されておらず場所コードが受信されないときは、衛
星からのデータを受信し、該受信データを位置情報とし
て取り込み、お互いに補間し合うように、両受信機を制
御している。As is well known, GPS is a system that covers the entire world using 18 NAVASTARs, but currently not all satellites have been launched, and there are areas where reception is not possible or where reception is unavailable depending on the time of day. The CPU 20 automatically stores location code data from the location code receiver in areas where reception is not possible, while storing data from the satellite when no location code transmitter is installed and no location code is received. Both receivers are controlled so that they receive data, take in the received data as position information, and interpolate each other.
第4図は、カメラの動作を説明するフローチャートであ
る。FIG. 4 is a flowchart explaining the operation of the camera.
ステップ#1で、不図示の電源がオンされるのを持ち、
電源がオンになるとくステップ#1でYES)、メモリ
カード26の有無が判別される(ステップ#2)。メモ
リカード26が無い場合は[カード無コの表示及び撮影
(記録)不可の警告を行ってステップ#1に戻る(ステ
ップ#3、ステップ#4)。なお、この場合、メモリカ
ード26とは別にカメラ内部に複数コマ記録可能なメモ
リを持たせてもよい。In step #1, a power supply (not shown) is turned on, and
When the power is turned on (YES in step #1), the presence or absence of the memory card 26 is determined (step #2). If there is no memory card 26, a message indicating that there is no card is displayed and a warning that photographing (recording) is not possible is performed, and the process returns to step #1 (step #3, step #4). In this case, the camera may have a memory capable of recording a plurality of frames in addition to the memory card 26.
メモリカード26が装着されている場合は、「カード有
」の表示を行い(ステップ#5)、続いてメモリカード
26の使用状況、すなわち記録可能な空き領域の有無が
検知される(ステップ#6)。空き領域が無い場合は(
ステップ#7でYES) 、記録不可として警告を行い
ステップ#1に戻る。なお、前述したように、複数コマ
分の内蔵メモリを備えている場合は、該内蔵メモリの空
き領域の有無も考慮して記録不可の判別をするようにし
てもよい。If the memory card 26 is installed, "card present" is displayed (step #5), and then the usage status of the memory card 26, that is, the presence or absence of recordable free space is detected (step #6). ). If there is no free space (
(YES in step #7), a warning is issued indicating that recording is not possible, and the process returns to step #1. Note that, as described above, when a built-in memory for a plurality of frames is provided, whether or not recording is not possible may be determined in consideration of the presence or absence of free space in the built-in memory.
一方、記録が可能な場合は(ステップ#7でNo>、m
彰準備用スイッチS1がオンであるか否かの判別が行わ
れる(ステップ#9)。上記スイッチS1がオンでなけ
れば(ステップ#9でNo)、カメラは未撮影状態にあ
ると判断してステップ#1に戻り、オンであれば(ステ
ップ#9でYES)、ステップ#10に移行して撮影準
備のための各操作、処理が行われる。すなわち、AFセ
ンサ15による被写体まで゛の測距、WBセンサ14に
よる被写界の色温度測定、温度センサ17による温度測
定、湿度センサ18による湿度測定、気圧センサ19に
よる気圧測定、GPS受信機23による測位、そして場
所コード受信121.22による場所コードを含むFM
電波の受信が順次行われる(ステップ#10〜ステップ
#16)。なお、上記ステップでは、各センサ等からの
撮影情報を全て入力するようにしているが、所望の撮影
情報のみ入力可能なように図外のスイッチで選択し得る
ようにしてもよい。On the other hand, if recording is possible (No in step #7>, m
It is determined whether or not the light preparation switch S1 is on (step #9). If the switch S1 is not on (No in step #9), it is determined that the camera is not shooting and the process returns to step #1; if it is on (YES in step #9), the process moves to step #10. Then, various operations and processes for preparing for shooting are performed. That is, the AF sensor 15 measures the distance to the subject, the WB sensor 14 measures the color temperature of the object, the temperature sensor 17 measures temperature, the humidity sensor 18 measures humidity, the air pressure sensor 19 measures atmospheric pressure, and the GPS receiver 23 FM including location code and location code reception by 121.22
Radio waves are received sequentially (steps #10 to #16). In the above steps, all photographic information from each sensor etc. is input, but a switch not shown may be used to select desired photographic information so that only desired photographic information can be input.
上記各センサ等から撮影情報の入力動作が終了すると、
次に露出スタート用スイッチS2がオンであるか否かの
判別が行われる(ステップ#17)。上記スイッチS2
がオンでなければ(ステップ#17でNo>、ステップ
#18に進み、スイッチS1の状態が再度調べられる。When the input operation of shooting information from each of the above sensors etc. is completed,
Next, it is determined whether or not the exposure start switch S2 is on (step #17). Above switch S2
If not on (No in step #17), the process advances to step #18 and the state of the switch S1 is checked again.
ここで、スイッチS1がオンであれば(ステップ#18
でYES)、撮影直前のより正確な撮影情報を取得すべ
く、ステップ#10に戻って再度前記各センサ等による
センシングが行われ、一方、スイッチS1がオフであれ
ば(ステップ#18でNo>、撮影は解除されたものと
判断して、ステップ#1に戻る。Here, if switch S1 is on (step #18
If the switch S1 is off (No in step #18), the process returns to step #10 and sensing is performed again using the sensors, etc., in order to obtain more accurate photographic information immediately before the photograph is taken. , it is determined that photography has been canceled, and the process returns to step #1.
スイッチS2がオンであれば(ステップ#17でYES
)、測距データがロックされ、続いてレンズ1から焦点
距離情報f及びAFCPU16からの被写体距離情報り
とが記憶される(ステップ#19.ステップ#20)。If switch S2 is on (YES in step #17)
), the distance measurement data is locked, and then focal length information f from the lens 1 and object distance information from the AFCPU 16 are stored (step #19 and step #20).
そして、WBセンサ14で得られた測色データがロック
され、次にマイク10による音声入力動作が開始される
(ステップ#21.ステップ#22)。また、かかる動
作と並行して露光が行われ(ステップ#23)、該露光
が終了すると(ステップ#24でYES)、撮影画像を
取り込むための所定の信号処理が開始される(ステップ
#25)。Then, the colorimetric data obtained by the WB sensor 14 is locked, and then the voice input operation using the microphone 10 is started (Step #21. Step #22). Further, in parallel with this operation, exposure is performed (step #23), and when the exposure is completed (YES in step #24), predetermined signal processing for capturing the photographed image is started (step #25). .
続いて、ステップ#26で、音声入力切換スイッチS3
がオンであるか否かが判別され、上記スイッチS3がオ
ンであれば(ステップ#26でYES)、音声が全て取
り込まれ(ステップ#27)、オンでなければ(ステッ
プ#26でNo)、H識用として、例えば1秒間だけ音
声が取り込まれる(ステップ#28)。Next, in step #26, the audio input selector switch S3 is turned on.
It is determined whether or not the switch S3 is on, and if the switch S3 is on (YES in step #26), all audio is captured (step #27), and if it is not on (no in step #26), For example, only one second of audio is captured as H recognition (step #28).
以上の動作の後、画像データ、音声データ及び各センサ
等から得られた検索用情報(W/1影情報)がメモリカ
ード26に対応する形(第27図参照)で書き込まれ(
ステップ#29) 、メモリカード26の空き情報の更
新がなされるとともにコマ番号を1だけカウントアツプ
して(ステップ#30゜ステップ#31)、次の撮影に
備える。After the above operations, image data, audio data, search information (W/1 shadow information) obtained from each sensor, etc. are written into the memory card 26 in a corresponding format (see FIG. 27).
Step #29), the free space information on the memory card 26 is updated, and the frame number is counted up by 1 (step #30 and step #31) to prepare for the next photographing.
第5図は、検索機能を備えた撮影画像の再生機の一例を
示すブロック図である。FIG. 5 is a block diagram showing an example of a photographed image playback device equipped with a search function.
本再生機はCPU50により統括的に制御される。この
CPU50は、後述する各検索、再生処理内容に応じて
各種の制御機能を果たすよう予めプログラムされている
。This reproducing machine is centrally controlled by a CPU 50. This CPU 50 is programmed in advance to perform various control functions in accordance with the content of each search and reproduction process described later.
メモリカードI/F51はメモリカード26から再生機
鋼へ記録画像、検索用情報及び該メモリカード26の使
用状況に関するデータを導くとともに、再生機側からメ
モリカード26へ読出画像選択用データを導くためのイ
ンターフェースである。特殊再生処理部52はメモリカ
ード26から読出された画像を、後述するように特殊処
理するもので、該特殊再生処理部52で処理された画像
データは一旦、画像用フレームメモリ53に格納される
。合成部54は画像データと後述するスーパーインポー
ズされる画像とを合成するもので、CPU50からのオ
ンスクリーン表示0N10FF切換用制御信号により切
換制御される。合成された画像信号はOAコンバータ5
5でアナログ信号に変換され、更に次段増幅器56で増
幅された後、TVモニタ57に導かれて再生表示される
。The memory card I/F 51 is used to guide recorded images, search information, and data regarding the usage status of the memory card 26 from the memory card 26 to the reproducing machine, and also to guide read image selection data from the reproducing machine to the memory card 26. This is the interface. The special reproduction processing section 52 performs special processing on the image read out from the memory card 26 as will be described later, and the image data processed by the special reproduction processing section 52 is temporarily stored in the image frame memory 53. . The combining unit 54 combines image data with a superimposed image, which will be described later, and is switched and controlled by an on-screen display 0N10FF switching control signal from the CPU 50. The synthesized image signal is sent to the OA converter 5
The signal is converted into an analog signal at step 5, and further amplified at the next stage amplifier 56, and then guided to a TV monitor 57 for reproduction and display.
スーパーインボーズ用メモリ58は各種検索用情報やス
ケール等のオンスクリーン表示パターンを記憶するもの
である。読出クロック発生回路59は画像フレームメモ
リ53、合成部54、DAコンバータ55及びスーパー
インボーズ用メモリ58にそれぞれ読出タイミング用の
クロックパルスを供給するものである。The superimpose memory 58 stores various search information and on-screen display patterns such as scales. The read clock generation circuit 59 supplies clock pulses for read timing to the image frame memory 53, the synthesis section 54, the DA converter 55, and the superimpose memory 58, respectively.
キャラクタジェネレータ60は日本工業規格JISコー
ド列の文字フォントを記憶しているもので、前記場所コ
ードとしてJISコード列が採用されている場合に、対
応する文字コードをCPU50に出力する。ファイリン
グ装置61は光ディスク等の記録媒体とその駆動回路と
から構成され、メモリカード26内の記録画像を適宜記
録する、所謂アルバムである。このファイリング装置!
61はCPU50により読出、書込制御され、及び画像
、登録用検索情報を記録するとともに、CPU50に登
録用検索情報及びディスク管理情報を出力する。The character generator 60 stores the character font of the Japanese Industrial Standard JIS code string, and outputs the corresponding character code to the CPU 50 when the JIS code string is adopted as the location code. The filing device 61 is composed of a recording medium such as an optical disk and its driving circuit, and is a so-called album that appropriately records recorded images in the memory card 26. This filing device!
61 is read and written under control by the CPU 50, records images and registration search information, and outputs registration search information and disk management information to the CPU 50.
キーボード62は検索用情報の入力や修正を行うととも
に、ファイリング装置61に記録されている検索用情報
、特に地図、地名の位置指定を行うためのマウス、トラ
ックボールまたタブレット等の位置指定部材63が接続
されている。音声入カ部64は検索用音声登録時に音声
を入力するもので、話者データ用E PROM65は
音声登録時の入力音声を符号化し、登録音声として記録
するものである。The keyboard 62 is used for inputting and modifying search information, and also for specifying the position of the search information recorded in the filing device 61, especially maps and place names. It is connected. The voice input unit 64 is used to input voice when registering voice for search, and the speaker data EPROM 65 is used to encode the input voice at the time of voice registration and record it as registered voice.
また、音声データメモリ66はメモリカードI/F51
を介して入力されるメモリカード26に記録されている
音声を一旦記憶するもので、その後OAコンバータ67
、増幅器68を経てスピーカ69に導かれて音声再生さ
れる。話者認識部70はメモリカードI/F51を介し
て入力される音声データと前記話者データ用E2PRO
M65に登録された話者データとを照合して誰の声であ
るかを判別するものである。この話者の判定結果はCP
U50にも出力され、検索時のインデックスとして用い
られる。In addition, the audio data memory 66 is connected to the memory card I/F 51.
It temporarily stores the audio recorded on the memory card 26 that is input via the OA converter 67.
, and is guided to a speaker 69 via an amplifier 68 and reproduced as audio. The speaker recognition unit 70 recognizes the voice data input via the memory card I/F 51 and the E2PRO for the speaker data.
This is to determine whose voice the voice is by comparing it with speaker data registered in the M65. The judgment result for this speaker is CP
It is also output to U50 and used as an index during a search.
なお、71〜73は記憶画像や検索画像を伝送して出力
するためのプリンタ、FAX及びTV電話である。Note that 71 to 73 are printers, facsimile machines, and video telephones for transmitting and outputting stored images and search images.
上記構成において、次に再生機側の処理を第6図〜第2
2図のフローチャートにより説明する。In the above configuration, next, the processing on the playback machine side is shown in Figures 6 to 2.
This will be explained using the flowchart shown in FIG.
先ず、第6図によりメモリカード26内の画像をフフイ
リング装!61に登録する手順について説明する。First, the images on the memory card 26 are filled in according to FIG. 61 will be described below.
メモリカード26が再生機に挿入されると(ステップ#
41)、該メモリカード26内の記録画像が順次読出さ
れる(ステップ#42)。読出された記録画像は特殊再
生処理l552でマルチ画面用に再生処理された後、T
Vモニタ57にマルチ表示される(ステップ#43)。When the memory card 26 is inserted into the player (step #
41), the recorded images in the memory card 26 are sequentially read out (step #42). The read recorded image is played back for multi-screen use in special playback processing l552, and then
Multi-display is performed on the V monitor 57 (step #43).
マルチ表示は、1枚のフレームに所定のコマ数、あるい
はメモリカード26内の記録画像数に応じて設定される
コマ数が割り当てられることにより行われる。Multi-display is performed by allocating a predetermined number of frames to one frame, or a number of frames set according to the number of recorded images in the memory card 26.
次に、CPU50はマルチ画面内の画像の中からフフイ
リング装置61に登録を希望する画像の選択を受付け、
続いてキーボード62等により該当する画像のコマ番号
を入力して選択が行われると(ステップ#44)、選択
された画像について再度マルチ画像の表示が行われる(
ステップ#45)。次に、ステップ#45で、カメラ側
で入力された検索用情報の修正、または追加の有無が判
断される。この修正、追加の内容としては、話者判別の
結果が誤って表示されている場合の人名修正や位置情報
の修正、またコメント等の追加が例として挙げられる。Next, the CPU 50 accepts the selection of an image desired to be registered in the filling device 61 from among the images in the multi-screen,
Next, when the frame number of the relevant image is input using the keyboard 62 or the like to select it (step #44), the multi-image display is performed again for the selected image (
Step #45). Next, in step #45, it is determined whether the search information input on the camera side is to be modified or added. Examples of such corrections and additions include correcting a person's name when the result of speaker identification is displayed incorrectly, correcting position information, and adding comments.
検索用情報の修正等がない場合はくステップ#46でN
o> 、キーボード62で登録操作を行うことにより前
記画像及び検索用情報が7フイリング装置161に記録
されるとともに、該記録された画像、検索用情報がメモ
リカード26から消去される(ステップ#47、ステッ
プ#48)。メモリカード26はこの消去動作により空
き領域が出来、新たな撮影画像の記録が可能となる。If there is no modification of the search information, press N at step #46.
o> By performing a registration operation using the keyboard 62, the image and search information are recorded in the 7 filling device 161, and the recorded image and search information are erased from the memory card 26 (step #47). , step #48). This erasing operation creates a free space in the memory card 26, making it possible to record new captured images.
一方、修正等がある場合(ステップ#46でYES)、
キーボード62や位置指示部材63で修正等を要する画
像が選択されると、その画像及び検索用情報がTVモニ
タの画面に表示される(ステップ#49、ステップ#5
0)。ユーザーは画面を見ながら必要な修正や追加を行
う(ステップ#51)。一つの画像について修正等が終
了する毎にその他の画像に対して順次修正等の要否の問
い掛けが行われる(ステップ#51からステップ#46
へ戻る)、、そして、必要な修正等が完了すると、ステ
ップ#47に移行して登録処理が終了する。On the other hand, if there is a correction etc. (YES in step #46),
When an image that requires correction or the like is selected using the keyboard 62 or position indicating member 63, the image and search information are displayed on the TV monitor screen (step #49, step #5).
0). The user makes necessary corrections and additions while looking at the screen (step #51). Every time the correction, etc. of one image is completed, the other images are asked whether or not correction, etc. is necessary (steps #51 to #46).
), and when the necessary corrections, etc. are completed, the process moves to step #47 and the registration process ends.
次に、第7図及び第8図により音声を登録する手順につ
いて説明する。Next, the procedure for registering audio will be explained with reference to FIGS. 7 and 8.
第7図は音声と人名を対応付けて登録する「音声登録■
」の手順を示し、第8図は音声のみを登録する「音声登
録■」の手順を示す。この両手類は前記ステップ#51
で実行するようにしてもよいし、別に音声登録モードと
して持たせるようにしてもよい。Figure 7 shows “Voice Registration
'', and FIG. 8 shows the procedure of ``audio registration ■'' in which only audio is registered. This amphipod is in step #51 above.
It may be executed in , or it may be provided as a separate voice registration mode.
第7図において、先ず、CPU50が音声入力の受付け
を可能にした後、音声入力部64のマイクから音声が入
力されるとくステップ#61)、入力された音声はAD
変換され、符号化される(ステップ#62、#63)。In FIG. 7, first, after the CPU 50 enables reception of voice input, voice is input from the microphone of the voice input unit 64 (step #61), and the input voice is transmitted to the AD.
It is converted and encoded (steps #62, #63).
この符号化された音声データは話者データ記録用E
PROM65に登録される(ステップ#64)。続いて
、CPU50はキーボード62からのデータを受付は可
能にし、話者の人名がキーボード62から入力されると
(ステップ#65) 、符号化され(ステップ#66)
、更に上記話者の音声データと対応付けられてE2PR
OM65に登録される(ステップ#67)。This encoded voice data is used for recording speaker data.
It is registered in the PROM 65 (step #64). Next, the CPU 50 makes it possible to accept data from the keyboard 62, and when the speaker's name is input from the keyboard 62 (step #65), it is encoded (step #66).
, and is further associated with the voice data of the speaker and E2PR.
It is registered in OM65 (step #67).
従って、後述するように音声による検索時にはスーパー
インボーズにより検索画像と共に話者の人名がTVモニ
タ57に重ね表示されることになる。Therefore, as will be described later, when searching by voice, the speaker's name is superimposed on the TV monitor 57 along with the search image by superimposition.
第8図において、先ず、CPU50が音声入力を受付は
可能とした後、音声入カフ!!64のマイクから音声が
入力されると(ステップ#71 ) 、入力された音声
はAD変換され、符号化される(ステップ#72、#7
3)。この符号化された音声データは話者データ記録用
E2 PROM65に登録される(ステップ#74)。In FIG. 8, first, the CPU 50 makes it possible to accept voice input, and then the voice input cuff! ! When audio is input from the microphone 64 (step #71), the input audio is AD converted and encoded (steps #72 and #7).
3). This encoded voice data is registered in the E2 PROM 65 for recording speaker data (step #74).
従って、音声による検索時には検索画像のみがTVモニ
タ57に表示されることになる。Therefore, only the searched image will be displayed on the TV monitor 57 when searching by voice.
次に、第9図〜第21図により各種の検索手順を説明す
る。Next, various search procedures will be explained with reference to FIGS. 9 to 21.
第9図は検索処理のメインフローを示す。FIG. 9 shows the main flow of the search process.
先ず、どの項目(条件)で検索するかをキーボード62
等により入力すると、CPU50は該検索項目と各自像
乃至は検索用情報とを照合しくステップ#81)、合致
した画像を順次メモリカード26から読出してTVモニ
タ57にマルチ表示させる(ステップ#82)。そして
、マルチ表示された画像の中からユーザーが希望する1
または複数の画像の選択が行われる(ステップ#83)
。First, select which item (condition) to search using the keyboard 62.
etc., the CPU 50 collates the search item with each self-portrait or search information (step #81), sequentially reads matching images from the memory card 26, and displays them on the TV monitor 57 in multiple formats (step #82). . Then, the user selects the desired one from among the multi-displayed images.
Or multiple images are selected (step #83)
.
現表示画面に対して選択が終了すると、前記検索項目に
合致した画像を表示する他のマルチ画面全てが表示され
たか否かが判別され(ステップ#84)、他のマルチ画
面があれば現画面から次画面に更新される(ステップ#
85)。そして、更新されるマルチ画面に対して画像選
択が終了するとくステップ#83、ステップ#84でY
ES)、選択された画像が、後述するように所望の出力
形態で出力される(ステップ#86)。When the selection for the current display screen is completed, it is determined whether all other multi-screens that display images that match the search items have been displayed (step #84), and if there are other multi-screens, the current screen is will be updated to the next screen (step #
85). Then, when the image selection for the multi-screen to be updated is completed, Y is selected in step #83 and step #84.
ES), the selected image is output in a desired output format as described below (step #86).
第10図は前記ステップ#81で示した検索項目に対す
る「項目検索」の70−チャートを示す。FIG. 10 shows a 70-chart of "item search" for the search items shown in step #81.
この実施例では、検索項目として「場所」 1日時」「
天候」 「人名」 「室内外」 「人物風景」「イベン
ト」 「音声」等が挙−げられている。In this example, the search items are "location", "1 date and time", "
Examples include weather, people's names, indoors and outdoors, scenes of people, events, and audio.
「項目検索」が開始されると、先ず、検索項目として「
場所」を選択するか否かの問い合わせが行われる(ステ
ップ#91〉。「場所」が選択されると、第11図に示
す「場所検索」のフローが実行される(ステップ#92
)。選択されなければ、次に検索項目として「日時」を
選択するか否かの問い合わせが行われる(ステップ#9
3)。When “Item Search” starts, first, “
An inquiry is made as to whether or not to select "location" (step #91). If "location" is selected, the "location search" flow shown in FIG. 11 is executed (step #92).
). If it is not selected, then an inquiry is made as to whether or not to select "date and time" as a search item (step #9).
3).
「日時」が選択されると、第12図に示す「日時検索」
のフローが実行される(ステップ#94)。When "Date and time" is selected, "Date and time search" shown in Figure 12
The flow is executed (step #94).
選択されなければ、次に検索項目として「天候」を選択
するか否かの問い合わせが行われる(ステップ#95)
。「天候」が選択されると、第13図に示す「天候検索
」のフローが実行される(ステップ#96)。選択され
なければ、次に検索項目として「人名」を選択するか否
かの問い合わせが行われる(ステップ#97)。「人名
」が選択されると、第14図に示す「人名検索」のフロ
ーが実行される(ステップ#98)。選択されなければ
、次に検索項目として「室内外」を選択するか否かの問
い合わせが行われる(ステップ#99)「室内外」が選
択されると、第16図に示す「室内外検索」のフローが
実行される(ステップ#100)、選択されなければ、
次に検索項目として「人物風景」を選択するか否かの問
い合わせが行われる(ステップ#101)。「人物風景
Jが選択されると、第17図に示す「人物風景検索」の
フローが実行される(ステップa102>。選択されな
ければ、次に検索項目として「イベント」を選択するか
否かの問い合わせが行われる(ステップ#103)、r
イベント」が選択されると、第19図に示す「イベント
検索」のフローが実行される(ステップ#104)。選
択されなければ、次に検索項目として「音声」を選択す
るか否かの問い合わせが行われる(ステップ#105)
。If it is not selected, then an inquiry is made as to whether or not to select "weather" as a search item (step #95).
. When "weather" is selected, the "weather search" flow shown in FIG. 13 is executed (step #96). If it is not selected, then an inquiry is made as to whether or not to select "person's name" as a search item (step #97). When "person's name" is selected, the flow of "person's name search" shown in FIG. 14 is executed (step #98). If it is not selected, then an inquiry is made as to whether or not to select "indoor/outdoor" as a search item (step #99).If "indoor/outdoor" is selected, "indoor/outdoor search" shown in FIG. 16 is performed. flow is executed (step #100), if not selected,
Next, an inquiry is made as to whether "portrait scenery" should be selected as a search item (step #101). When "Portrait Scenery J" is selected, the flow of "Portrait Scenery Search" shown in FIG. An inquiry is made (step #103), r
When "event" is selected, the "event search" flow shown in FIG. 19 is executed (step #104). If it is not selected, then an inquiry is made as to whether or not to select "audio" as a search item (step #105).
.
「音声」が選択されると、第20図に示す「音声検索」
のフローが実行される(ステップ#106)。続いて、
検索項目の変更や追加等を考慮して、再選択を可能にし
ている(ステップ#107でNO)。この後、「項目検
索」処理を終了して、ステップ#82にリターンする。When “Voice” is selected, “Voice search” shown in Figure 20
The flow is executed (step #106). continue,
Re-selection is made possible in consideration of changes or additions to search items (NO in step #107). Thereafter, the "item search" process is ended and the process returns to step #82.
これらの検索項目はカメラ側の各センサ等に依存してお
り、また2以上の項目を重複して選択することも可能と
なっている。These search items depend on each sensor on the camera side, and it is also possible to select two or more items at the same time.
以下、第11図〜第21図により上記各検索処理の詳細
を説明する。The details of each of the above search processes will be explained below with reference to FIGS. 11 to 21.
第11図に示す「場所検索Jのフローにおいては、場所
コード及び/またはGPS測位データが位置情報のイン
デックスになる。In the flow of "location search J" shown in FIG. 11, the location code and/or GPS positioning data serve as an index of location information.
先ず、TVモニタ57への地図表示の要否が判別される
(ステップ#111)、地図表示を行う場合、すなわち
地図上でm彰場所を指示する場合はファイリング装置6
1またはCPU50の内蔵メモリ(図示せず)、若しく
は着脱可能な地図専用メモリ(同じく図示せず)に記憶
されている地図をTVモニタ57に導いて表示しくステ
ップ#112)、マウス等の位置指示部材63で表示地
図上における位置の指定を行う(ステップ#113)。First, it is determined whether or not to display a map on the TV monitor 57 (step #111). When displaying a map, that is, when indicating a location on the map, the filing device 6
1 or the built-in memory (not shown) of the CPU 50, or the removable map-dedicated memory (also not shown) to be displayed on the TV monitor 57 (step #112), and the position of the mouse, etc. The member 63 specifies a position on the displayed map (step #113).
指示された位置データ(緯度、経度)は表示地図と位置
指示部材63の出力位置信号に基づいて算出される。あ
るいは、例えばタブレット等により検出するようにして
もよい。一方、地図表示が不要な場合は、記録画像に関
連付けて記録されている地名や場所を読出して表示し、
この表示された地名等の中から所望の地名等をキーボー
ド62から入力することで指定を行う(ステップ#11
4、#115)。続いて、CPU50は指定された位置
または入力された地名等に合致する画像の検索を実行す
る(ステップ#116)。この検索は各画像に関連付け
て配録されている検索用情報を走査することにより行わ
れる。検索が終了すると、該検索結果として該当件数が
表示される(ステップ#117)。このとき、該当する
画像のコマ番号を表示するようにしてもよい。この後、
再検索の要否について判別される(ステップ#118)
。再検索の例としては、該当件数が多数の場合や逆に零
の場合が考えられる。再検索の場合は他の検索条件を入
力または指定すると、上記と同様にしてCPLI50に
よる検索が行われる(ステップ#111〜ステップ#1
17)。そして、検索が終了するとくステップ#118
でNo>、ステップ#93にリターンする。The indicated position data (latitude, longitude) is calculated based on the displayed map and the output position signal of the position pointing member 63. Alternatively, the detection may be performed using a tablet or the like, for example. On the other hand, if map display is not required, place names and places recorded in association with recorded images are read out and displayed.
A desired place name, etc. is input from the displayed place names, etc. from the keyboard 62 to specify it (step #11).
4, #115). Subsequently, the CPU 50 searches for an image matching the specified position or input place name, etc. (step #116). This search is performed by scanning search information recorded in association with each image. When the search is completed, the number of matching items is displayed as the search result (step #117). At this time, the frame number of the corresponding image may be displayed. After this,
It is determined whether re-search is necessary (step #118)
. Examples of re-search include a case where the number of matching items is large or, conversely, a case where the number of matching items is zero. In the case of re-search, if you input or specify other search conditions, the search by CPLI 50 is performed in the same manner as above (step #111 to step #1).
17). Then, when the search ends, step #118
If No>, return to step #93.
第12図に示す「日時検索」のフローにおいては、計時
部24からの日付情報がインデックスとなる。In the flow of "date and time search" shown in FIG. 12, the date information from the timer 24 serves as an index.
日時、すなわち年月日あるいは時分又は季節等がキーボ
ード62から入力されると(ステップ#121)、CP
LI50は入力された検索条件に合致する画像の検索を
実行する(ステップ#122)。この検索は前述同様各
画像に関連付けて記録されている検索用情報(日時デー
タ)を走査することにより行われる。なお、CPU50
内には季節と日時データとを対応付けた記憶手段が設け
られており、検索条件が季節の場合には、入力された季
節が該記憶手段で対応する日時データに変換され、該変
換された日時データにより検索が行われる。When the date and time, that is, the year, month, day, hour, minute, season, etc., are input from the keyboard 62 (step #121), the CP
The LI 50 searches for images matching the input search conditions (step #122). This search is performed by scanning the search information (date and time data) recorded in association with each image, as described above. In addition, CPU50
There is a storage means in which the season and date and time data are associated with each other, and when the search condition is season, the input season is converted into the corresponding date and time data in the storage means, and the converted Search is performed using date and time data.
検索が終了すると、該検索結果として該当件数が表示さ
れる(ステップ#123>。なお、該当する画像のコマ
番号を表示するようにしてもよい点は前述と同様である
。この後、再検索の要否について判別される(ステップ
a124)。再検索の場合は他の検索条件を入力すると
、上記と同様にしてCPLI50による検索が行われる
(ステップ#121〜ステップ#123)。そして、検
索が終了すると(ステップ#124でNo) 、ステッ
プ#95にリターンする。When the search is completed, the number of matching items is displayed as the search result (step #123>. Note that the frame number of the matching image may also be displayed as described above. After this, the search is performed again. It is determined whether or not the search is necessary (step a124).In the case of a re-search, if other search conditions are input, a search is performed using the CPLI 50 in the same manner as above (steps #121 to #123). When finished (No in step #124), the process returns to step #95.
第13図に示す「天候検索」のフローにおいては、温度
センサ17や湿度センサ18からの温度、湿度情報がイ
ンデックスとなる。In the flow of "weather search" shown in FIG. 13, the temperature and humidity information from the temperature sensor 17 and humidity sensor 18 serve as indexes.
天候に関する状態、例えば「晴れ」、「雨」、「暑い」
、「寒い」等がキーボード62から入力されると(ステ
ップ#131)、CPU50内力された検索条件に合致
する画像の検索を、検索用情報を走査することにより行
う(ステップ#132)。CPU50内には上記天候に
関する状態と温度、湿度からなる天候データとの対応関
係を予め記憶している記憶手段が設けられている。例え
ば「暑い」と入力した場合は、温度(気温)が30℃以
上のもの、湿度80%以上のものといったように、ある
所定気温、湿度を基準に検索するようにすればよい。更
に、その基準温度、湿度は場所、日時(季節も)によっ
て変更するようにしてもよい。例えば「夏+暑い」で検
索したい場合は、気温が30℃以上で、かつ7.8.9
月のものとし、一方、「冬+暑い」では気温が25℃以
上で、かつ12.1.2月のものというようにする。そ
して、検索時には、入力された天候に関する状態を上記
記憶手段で対応する天候データに変換し、該変換された
天候データにより検索が行われる。Weather-related conditions, such as "sunny", "rainy", "hot"
, "It's cold", etc. are input from the keyboard 62 (step #131), the CPU 50 searches for images matching the input search conditions by scanning the search information (step #132). The CPU 50 is provided with a storage means that stores in advance the correspondence between the above-mentioned weather-related conditions and weather data consisting of temperature and humidity. For example, if you enter "hot", you may search based on a certain temperature or humidity, such as a temperature of 30° C. or higher or a humidity of 80% or higher. Furthermore, the reference temperature and humidity may be changed depending on the location, date and time (and season). For example, if you want to search for "summer + hot", the temperature is 30℃ or higher, and 7.8.9
On the other hand, for "winter + hot", the temperature should be 25 degrees Celsius or higher, and it should be from December, January, and February. When searching, the input weather-related conditions are converted into corresponding weather data in the storage means, and the search is performed using the converted weather data.
検索が終了すると、該検索結果として該当件数等が表示
される(ステップ#133)。この後、再検索の要否に
ついて判別される(ステップ#134)。再検索の場合
は他の検索条件を入力すると、上記と同様にしてCPI
J50による検索が行われる(ステップ#131〜ステ
ップ#133)。When the search is completed, the number of matching items etc. are displayed as the search results (step #133). Thereafter, it is determined whether a re-search is necessary (step #134). If you want to search again, enter other search conditions and the CPI
A search using J50 is performed (steps #131 to #133).
そして、検索が終了すると(ステップ#134でNO)
、ステップ#97にリターンする。Then, when the search is completed (NO in step #134)
, return to step #97.
第14図に示す「人名検索」のフローにおいては、「音
声」、または「人名」がインデックスとなる。In the flow of "person name search" shown in FIG. 14, "voice" or "person name" serves as an index.
「人名」がキーボード62から入力されると(ステップ
#141)、CPU50は入力された検索条件に合致す
る画像の検索を実行する(ステップ#142)。この処
理は第15図に示す「検索処理工」に従って行われる。When a "person's name" is input from the keyboard 62 (step #141), the CPU 50 searches for images matching the input search conditions (step #142). This process is performed according to the "search process" shown in FIG.
すなわち、先ず、「音声」による検索か「人名」による
検索かが判別される(ステップ#151)。「音声」に
よる検索の場合は、入力された人名は符号化されて人名
コードに変換され、該人名コードに対応した音声コード
がE2PROM65から抽出される(ステップ#153
、#154)。次に、ファイリング装置61から予め登
録されている画像に関連付けられて記録されている音声
データが抽出され、符号化される(ステップ#155、
#156)。That is, first, it is determined whether the search is by "voice" or by "person's name" (step #151). In the case of a search by "voice", the input person's name is encoded and converted into a person's name code, and the voice code corresponding to the person's name code is extracted from the E2PROM 65 (step #153).
, #154). Next, the audio data recorded in association with the pre-registered image is extracted from the filing device 61 and encoded (step #155,
#156).
そして、E PROM65からの音声コードと7フイ
リング装W61からの音声コードとの照合が行われる(
ステップ#157)。この照合はファイリング装置61
内に登録された画像の音声コードを順次走査することに
より、全画像に対して行われる(ステップ#156〜ス
テップ#158でNo、ステップ#159のループ)。Then, the audio code from the EPROM 65 is compared with the audio code from the 7 filling device W61 (
Step #157). This verification is done by the filing device 61.
This is performed for all images by sequentially scanning the audio codes of the images registered in the image (No in steps #156 to #158, loop of step #159).
全画像に対する照合が終了すると(ステップ#158で
YES)、ステップ#143にリターンする。一方、ス
テップ#151で、人名による検索が選択された場合は
、ファイリング装置f61への画像登録時に入力された
人名コードを走査して検索しくステップ#152)、該
検索が終了すると、ステップ#143にリターンする。When the matching for all images is completed (YES in step #158), the process returns to step #143. On the other hand, if the search by person's name is selected in step #151, the search is performed by scanning the person's name code input at the time of image registration to the filing device f61 (step #152), and when the search is completed, step #143 Return to.
第14図に戻って、上記検索結果として該当件数等が表
示される(ステップ#143)、この後。Returning to FIG. 14, the number of matching items etc. are displayed as the search results (step #143), after which.
再検索の要否について判別される(ステップ#144)
。再検索の場合は他の検索条件を入力すると、上記と同
様にしてCPU50による検索が行われる(ステップ#
141〜ステップ#143)。It is determined whether re-search is necessary (step #144)
. In the case of re-search, if other search conditions are input, the search by the CPU 50 is performed in the same manner as above (step #
141 to step #143).
そして、検索が終了すると(ステップ#144でNo)
、ステップ#99にリターンする。Then, when the search is completed (No in step #144)
, return to step #99.
第16図に示す「室内外検索」の70−においては、W
Bセンサ14からの出力がインデックスとなる。In 70- of "indoor/outdoor search" shown in FIG.
The output from the B sensor 14 becomes an index.
「室内」、「屋外」の一方が選択的にキーボード62か
ら入力されるとくステップ#161 )、CPU50は
入力された検索条件に合致する画像の検索を、検索用情
報を走査することにより行う(ステップ#162)。C
PL、150内には、上記検索条件とWBセンサの出力
(色濃度データ)との対応関係、例えば蛍光灯下に相当
する色温度データに対しては「室内」、太陽光下に相当
する色温度データに対しては「屋外」として記憶する記
憶手段が設けられている。そして、検索時には、入力さ
れた「室内」、「屋外」の一方を上記記憶手段で対応す
る色濃度データに変換し、該変換された色温度データに
より検索が行われる。When either "indoors" or "outdoors" is selectively input from the keyboard 62 (step #161), the CPU 50 searches for images that match the input search conditions by scanning the search information ( Step #162). C
PL, 150 contains the correspondence between the above search conditions and the output of the WB sensor (color density data), for example, "indoor" for color temperature data corresponding to fluorescent lighting, and "indoor" for color temperature data corresponding to sunlight. A storage means is provided for storing temperature data as "outdoors". When searching, one of the input "indoors" and "outdoors" is converted into corresponding color density data in the storage means, and the search is performed using the converted color temperature data.
検索が終了すると、該検索結果として該当件数等が表示
される(ステップ#163)。この後、再検索の要否に
ついて判別される(ステップ#164)。再検索の場合
は他の検索条件を入力すると、上記と同様にしてCPU
50による検索が行われる(ステップ#161〜ステッ
プ#163)。When the search is completed, the number of matching items etc. are displayed as the search results (step #163). After this, it is determined whether a re-search is necessary (step #164). If you want to search again, enter other search conditions and the CPU
50 is performed (step #161 to step #163).
そして、検索が終了すると(ステップ#164でNo>
、ステップ#101にリターンする。Then, when the search is completed (No in step #164)
, return to step #101.
第17図に示す「人物風景検索」のフローにおいては、
F焦点路JIlfJ及び「被写体距離DJの情報(像倍
率β−f−D)がインデックスとなる。In the flow of “person scene search” shown in Figure 17,
The information on the F focal path JIlfJ and the object distance DJ (image magnification β-f-D) serves as an index.
先ず、「人物」か「風景」のいずれかがキーボード62
から入力されると(ステップ#171)、CPU50内
入力された検索条件に合致する画像の検索を実行する(
ステップ#172)。この処理は第18図に示す「検索
処理■」に従って行われる。すなわち、先ず、ファイリ
ング装置61に予め登録された画像に対応して記録され
ている焦点距離fと被写体距離りとが全て読出されて全
画像に対する各像倍率β−f−Dが演算される(ステッ
プ$181>。続いて、得られた各像倍率βがβ≧1/
100か否かが判別され(ステップ#182)、β≧1
/100であれば、風景であると判断しくステップ#1
84)、逆の場合は人物であると判断する(ステップ1
183)、そして、CPL、150は、検索条件として
「人物」が入力されたときはステップ#183の結果を
抽出し、−方「風景」が入力されたときはステップ#1
84の結果を抽出する。First, select either "person" or "landscape" on the keyboard 62.
(step #171), the CPU 50 executes a search for images matching the input search conditions (step #171).
Step #172). This process is performed according to "Search Process ■" shown in FIG. That is, first, all focal lengths f and subject distances recorded in correspondence with images registered in advance in the filing device 61 are read out, and each image magnification β-f-D for all images is calculated ( Step $181>.Subsequently, each obtained image magnification β is β≧1/
100 or not (step #182), β≧1
/100, it is considered a landscape Step #1
84), and in the opposite case, it is determined that it is a person (step 1).
183), and CPL 150 extracts the result of step #183 when "person" is input as a search condition, and extracts the result of step #1 when "landscape" is input as a search condition.
Extract 84 results.
なお、照合方法として、前述のように画像毎に判別を行
い、かかる判別を順次繰り返し行うようにしてもよい。Note that as a matching method, discrimination may be performed for each image as described above, and such discrimination may be sequentially repeated.
全画像に対する判別が終了すると、ステップ#173に
リターンする。When the determination for all images is completed, the process returns to step #173.
第17図に戻って、上記検索結果として該当件数等が表
示される(ステップ#173)。この後、再検索の要否
について判別される(ステップ#174)。再検索の場
合は他方の検索条件を入力すると、上記と同様にしてC
PU50による検索が行われる(ステップ群1フ1〜ス
テツプ#173)。そして、検索が終了すると(ステッ
プ#174でNo) 、ステップ#103にリターンす
る。Returning to FIG. 17, the number of matching items etc. are displayed as the search results (step #173). Thereafter, it is determined whether a re-search is necessary (step #174). If you want to search again, enter the other search condition, and click C in the same way as above.
A search is performed by the PU 50 (step group 1 F1 to step #173). When the search is completed (No in step #174), the process returns to step #103.
なお、上記実施例では、像倍率βと「人物」、「風景」
との関連付けをプログラムとして記憶しているが、予め
像倍率βと「人物」、「風景」とが対応付けて記憶され
た記憶手段をCPU50内に設けておいてもよい。また
、他の検索方法として、記録されている焦点距離fと被
写体距離りとから像倍率βを求め、一方、入力される「
人物j、「風景」に対する像倍率βの範囲を予め定めて
おき、検索対象となる各像倍率βがいずれの範囲に含ま
れるかを判断することにより検索を行うようにしてもよ
い。In addition, in the above embodiment, the image magnification β, "person", "landscape"
Although the association is stored as a program, a storage means may be provided in the CPU 50 in which the image magnification β and "person" and "landscape" are stored in association with each other in advance. In addition, as another search method, the image magnification β is calculated from the recorded focal length f and subject distance;
The range of image magnification β for person j and “landscape” may be determined in advance, and the search may be performed by determining in which range each image magnification β to be searched is included.
第19図に示す「イベント検索」のフローにおいては、
場所コード(イベントコード)がインデックスとなる。In the “event search” flow shown in Figure 19,
The location code (event code) becomes the index.
イベント名がキーボード62から入力されると(ステッ
プ#191)、CPU50は入力された検索条件に合致
する画像の検索を、ファイリング1i1F61に予め登
録された画像に関連付けて記録されたイベントコードを
走査することにより行う(ステップ#192)。検索が
終了すると、該検索結果として該当件数等が表示される
(ステップ#193)。この後、再検索の要否について
判別される(ステップ#194)。再検索の場合は他の
検索条件を入力すると、上記と同様にしてCPU50に
よる検索が行われる(ステップ#191〜ステップ#1
93)。そして、検索が終了すると(ステップ#194
でNo>、ス°テップ#105にリターンする。When an event name is input from the keyboard 62 (step #191), the CPU 50 searches for an image matching the input search condition by scanning the event code recorded in association with the image registered in advance in the filing 1i1F 61. (Step #192). When the search is completed, the number of matching items etc. are displayed as the search results (step #193). Thereafter, it is determined whether a re-search is necessary (step #194). In the case of re-search, if other search conditions are input, the search by the CPU 50 is performed in the same manner as above (steps #191 to #1).
93). Then, when the search is completed (step #194
If No>, return to step #105.
なお、場所コードとして、その場所の識別コードもしく
は場所に関する情報を表示する文字のJIsコード列に
すれば、該コードにより直接検索が可能となり、撮影時
には、場所コードの内容を判別することなくそのまま記
録することが可能となる。また、場所コードの内容を判
別するための特別な判別手段を必要としないので、その
分、例えば検索側の構成の簡素化が図れる。In addition, if the location code is an identification code for the location or a JIs code string of characters that displays information about the location, it will be possible to search directly using the code, and the content of the location code will be recorded as is when shooting without having to distinguish it. It becomes possible to do so. Furthermore, since no special determining means is required to determine the content of the location code, the configuration of the search side, for example, can be simplified accordingly.
第20図に示す「音声検索」のフローにおいては、画像
と関連付けて記録されている音声と検索の際に入力され
る音声とが照合される。In the flow of "voice search" shown in FIG. 20, the voice recorded in association with the image is compared with the voice input during the search.
音声入力部64のマイクから音声が入力されるとくステ
ップ#201 )、CPU50内た音声に合致する画像
の検索を実行する(ステップ#192)。−この処理は
第21図に示す「検索処理■」に従って行われる。すな
わち、先ず、入力された音声はAD変換され、符号化さ
れた優、不図示の参照部に記憶される(ステップ#21
1〜ステップ#213)。次に、ファイリング装置61
から予め登録されている画像に関連付けられて記録され
ている音声データが抽出され、符号化される(ステップ
#214、#215)。そして。When a voice is input from the microphone of the voice input section 64 (step #201), a search for an image matching the voice within the CPU 50 is executed (step #192). -This process is performed according to "Search process ■" shown in FIG. That is, first, the input voice is AD converted, encoded, and stored in a reference section (not shown) (step #21).
1 to step #213). Next, the filing device 61
Audio data recorded in association with images registered in advance is extracted and encoded (steps #214, #215). and.
上記参照部からの音声コードとファイリング装置61か
らの音声コードとの照合が行われる(ステップ#216
>。この照合はファイリング装置61内に登録された画
像の音声コードを順次走査することにより、全画像に対
して行われる(ステップ#215〜ステップ#217で
No、ステップ#218のループ)。全画像に対する照
合が終了するとくステップ#217でYES)、ステッ
プ#203にリターンする。The audio code from the reference section is compared with the audio code from the filing device 61 (step #216).
>. This verification is performed for all images by sequentially scanning the audio codes of the images registered in the filing device 61 (No in steps #215 to #217, loop of step #218). When the verification of all images is completed (YES in step #217), the process returns to step #203.
第20図に戻って、上記検索結果として該当件数等が表
示される(ステップ#203>。この後、再検索の要否
について判別される(ステップ#204)。再検索の場
合は音声による他の言葉を入力すると、上記と同様にし
てCPU50による検索が行われる(ステップ#201
〜ステップ#203)。そして、検索が終了するとくス
テップ#204でNo>、ステップ#107にリターン
する。Returning to FIG. 20, the number of matching items is displayed as the above search result (Step #203>. After this, it is determined whether a re-search is necessary (Step #204). In the case of a re-search, it is determined whether the re-search is necessary or not. When the word is input, a search is performed by the CPU 50 in the same manner as above (step #201).
~Step #203). Then, when the search is completed, the result in step #204 is No>, and the process returns to step #107.
次に、第9図に戻って、ステップ#86の実行処理につ
いて、第22図を用いて説明する。Next, returning to FIG. 9, the execution process of step #86 will be explained using FIG. 22.
この実行モードでは、先ず、出力形態の選択が行われる
。表1はこの出力形態を示すものである。In this execution mode, first, the output format is selected. Table 1 shows this output format.
(以下、余白)
表 1
すなわち、検索が完了した後、上記表1のA〜Fの出力
形態の中から1つの出力形態が選択され、キーボード6
2から、例えば対応する文字が入力されると(ステップ
#221)、検索結果である出力画像数をNと設定しく
ステップ#222)、続いて、出力すべき画像がコマ番
号の小さい順に7フイリング装W161から読み出され
て順次フレームメモリ53に転送される(ステップ#2
23>。次に、ステップ#221で選択された出力形態
に沿って画像を出力する。出力形!!Aが選択された場
合(ステップ#224でYES>、そのままTVモニタ
57に表示される。出力形IIBが選択された場合(ス
テップ#225でYES)、その画像の焦点距離f、被
写体距離りの情報より撮像面上での被写体の大きさに関
するデータ、すなわち目盛サイズが決定され、画像と該
目盛サイズとが合成される(ステップ#226、#22
7>。(Hereinafter, blank space) Table 1 In other words, after the search is completed, one output format is selected from the output formats A to F in Table 1 above, and the keyboard 6
2, for example, when a corresponding character is input (step #221), the number of output images that are the search results is set to N (step #222), and then the images to be output are 7 filled in order of decreasing frame number. are read out from the frame memory 53 and sequentially transferred to the frame memory 53 (step #2
23>. Next, the image is output according to the output format selected in step #221. Output type! ! If A is selected (YES in step #224), the image will be displayed on the TV monitor 57. If output type IIB is selected (YES in step #225), the focal length f and subject distance of the image will be displayed on the TV monitor 57. Data regarding the size of the subject on the imaging plane, that is, the scale size, is determined from the information, and the image and the scale size are combined (steps #226, #22
7>.
すなわち、目盛サイズがスーパーインポーズの形で合成
部54で画像と合成され、TVモニタ57に出力される
。That is, the scale size is superimposed with the image in the composition section 54 and output to the TV monitor 57.
例えば単位スケール表示を行う場合(第24図(B)参
照)、該単位スケールSCに記される目盛サイズは、焦
点路1111f、被写体距離りから算出した像倍率βか
ら上記単位スケール当りの長さを算出したものである。For example, when displaying a unit scale (see Fig. 24 (B)), the scale size marked on the unit scale SC is the length per unit scale calculated from the focal path 1111f and the image magnification β calculated from the subject distance. is calculated.
ここで、上記単位スケールSCの長さの算出について、
第23図に示される結像状態にある原理図を用いて具体
的に説明する。Here, regarding the calculation of the length of the unit scale SC,
This will be explained in detail using the principle diagram in the imaging state shown in FIG.
図中、L&;tll彰距離で、被写体100から撮像面
200までの距離、fは撮影レンズ300の焦点距離、
Hは撮影レンズ300の主点間隔、Xは被写体100か
ら撮影レンズ300の前側焦点までの距離、X−はms
画面00から撮影レンズ300の後側焦点までの距離、
yは被写体100の長さ及びy−は**面200での被
写体100の像の長さであり、上記各変数1.’r、H
,x、xy、y−の間には、
y:y−震x:f−f:x−・・・・・・(1)x
−L−2f−H−x −−−−−−(2)の
関係がある。この(1)、(2)式からは、X2−(L
−2f−H)x+f2−0− (3)の方程式が成立す
る。この(3)式の根を求めると、
x−((L−2f−H)+
−H) −4f )/2
・・・・・・ (4)
更に、上記(2)式を利用して、
x =−((L−2f−H) −
−1−1) −4f )/2
・・・・・・ (5)
となる。また、上記(1)式から、
y−y−・X/f ・・・・・・(
6)y−y= ・ f/x−・・−・・・ (7)で
あるので、上記<4) <5)式のx、x−に基づ
いてこの〈6)式または(7)式の演算を行えば、撮像
面上の−の長さy′に対応した被写体の長ざyが求まる
。ここで、上記撮像面上の像の長さy′を前記単位スケ
ールSCの長さとして扱うと、この単位スケールは(I
l像面上での)その実長が予め分かつているので、前記
(6)式または(7)式の演算により該単位スケールS
Cの目盛サイズが求められる。In the figure, L&;tll is the distance from the subject 100 to the imaging plane 200, f is the focal length of the photographic lens 300,
H is the distance between the principal points of the photographic lens 300, X is the distance from the subject 100 to the front focal point of the photographic lens 300, and X- is ms
The distance from the screen 00 to the rear focal point of the photographic lens 300,
y is the length of the subject 100, y- is the length of the image of the subject 100 on the ** plane 200, and each of the above variables 1. 'r, H
, x, xy, y-, y:y-quakex:f-f:x-...(1)x
-L-2f-H-x ---------(2) is the relationship. From these equations (1) and (2),
-2f-H)x+f2-0- The equation (3) holds true. Finding the root of this equation (3), x-((L-2f-H)+ -H) -4f )/2... (4) Furthermore, using equation (2) above, , x = -((L-2f-H) - -1-1) -4f )/2 (5). Also, from the above formula (1), y−y−・X/f ・・・・・・(
6) y−y=・f/x−・・・・・(7) Therefore, based on x and x− in the above formulas <4) and <5), this formula (6) or (7) By performing the calculation, the length y of the subject corresponding to the negative length y' on the imaging plane can be found. Here, if the length y' of the image on the imaging surface is treated as the length of the unit scale SC, then this unit scale is (I
Since its actual length (on the image plane) is known in advance, the unit scale S can be calculated by the above equation (6) or (7).
The scale size of C is found.
第24図は、目盛サイズの表示例を示す。FIG. 24 shows an example of displaying the scale size.
同図(A)は像倍率をそのまま表示する場合の表示例で
あり、同図(B)は単位スケールSCが10cmに相当
することを示した場合の表示例である。4A is a display example in which the image magnification is displayed as is, and FIG. 2B is a display example in which the unit scale SC corresponds to 10 cm.
かかる目盛サイズの表示により、画像の実際の大きさが
把握容易となる。また、スケールSCの表示タイミング
はCPU50で制御される読出しクロック発生部59に
より自在に変更可能にし得るので、スケールSCを所望
の位置に移動させることが出来、例えばトラックボール
(位置指定部材63)で行えるようにすれば操作性にも
優れる。By displaying such a scale size, the actual size of the image can be easily grasped. Furthermore, since the display timing of the scale SC can be freely changed by the readout clock generator 59 controlled by the CPU 50, the scale SC can be moved to a desired position using, for example, a trackball (position specifying member 63). If you can do this, it will be easier to operate.
更に、スケール表示のオン、オフ切換も容易であり、ま
た同図(A)と(B)の表示形態を自由に切換えれるよ
うにしてもよい。Furthermore, it is easy to turn on and off the scale display, and the display formats shown in FIGS. 3A and 3B may be freely switched.
なお、特開昭58−158507号公報記載の技術を用
いて、スケールを銀塩フィルムに写し込むようにするこ
とにより、該目盛サイズの表示を銀塩フィルムの場合に
も適用可能にすることが出来る。In addition, by using the technique described in JP-A-58-158507 to imprint the scale onto the silver halide film, it is possible to make the display of the scale size applicable to the silver halide film as well. I can do it.
次に、出力形!ICが選択された場合(ステップ#22
8でYES)、表示画面のサイズ(たとえばCRTのイ
ンチ等)がキーボード62より入力される(ステップ#
229>。続いて、焦点距離f、被写体距離りから求ま
る像倍率と上記表示画面サイズとから画一サイズの変更
が行われる(ステップ#230)。すなわち、実際の被
写体の大きさに対する最終的にTVモニタ57に表示さ
れた!iIの大きさの表示倍率(ii画一サイズが表示
され、あるいは表示倍率を表示画面サイズに関係なく所
定サイズに固定すべく表示画像の大きざが変更されて表
示される。Next, the output form! If IC is selected (step #22
8), the size of the display screen (for example, CRT inches, etc.) is input from the keyboard 62 (step #8).
229>. Subsequently, the image size is changed based on the image magnification determined from the focal length f and the subject distance and the display screen size (step #230). That is, the actual size of the subject finally displayed on the TV monitor 57! The display magnification of the size of iI (ii) is displayed at one size, or the size of the display image is changed and displayed so that the display magnification is fixed at a predetermined size regardless of the display screen size.
すなわち、CPU50は、焦点距離f、被写体距離りか
ら求まる像倍率と上記表示画面サイズとから再生画像の
表示倍率を求める表示倍率算出手段を有しており、この
表示倍率算出手段により、実際の被写体の大きさに対す
るTVモニタ57に表示された画像の大きさが決定され
る。また、予め表示倍率が設定されている場合には、上
記表示倍率算出手段により求められた表示倍率と該設定
倍率との比率を求め、この比率に応じて、表示される画
像を拡大、縮小すべく画像処理が施される。That is, the CPU 50 has a display magnification calculation means that calculates the display magnification of the reproduced image from the image magnification determined from the focal length f and the subject distance and the display screen size. The size of the image displayed on the TV monitor 57 with respect to the size of is determined. In addition, if the display magnification is set in advance, the ratio between the display magnification calculated by the display magnification calculating means and the set magnification is calculated, and the displayed image is enlarged or reduced according to this ratio. Image processing is performed as necessary.
上記において、最終的な表示倍率は必要に応じてTVモ
ニタ57の適所に表示される。In the above, the final display magnification is displayed at an appropriate location on the TV monitor 57 as necessary.
このようにすることにより、TVモニタ57に表示され
た画像の実際の大きさを把握容易にすることが出来る。By doing so, it is possible to easily grasp the actual size of the image displayed on the TV monitor 57.
次に、出力形!lDが選択された場合(ステップ#23
1でYES)、合成表示させたいj像が前記第10図で
示す項目検索で抽出される(ステッブ#232>。そし
て、検索条件に合致した画像の中から所望の画像が選択
される(ステップ#233)。続いて、先に選択された
画像の像倍率と後に選択された画像の像倍率及び併記表
示される両画像が特殊再生処理部52に導かれ、ここで
、例えば両画像内の特定の被写体が同一大になるように
画像サイズが適宜変更されて画像フレームメモリ53に
1込まれ、TVモニタ57に出力される(ステップ#2
34)。このようにすることにより、最終的にTVモニ
タ57に併記表示された両画像内の被写体の大きさをあ
たかも同一大にして表示させることが出来る。あるいは
、逆に併記表示される両画像の画像サイズが一致するよ
うにすれば、両画像内の被写体の実際の大きざが容易に
対比できる。更に、前記スケール表示の場合と同様、両
表示画嫌をトラックボール(位置指定部材63)等で移
動(重りすることにより、合成写真等を楽しむことがで
きる。Next, the output form! If LD is selected (step #23
1: YES), the image to be displayed in a composite manner is extracted by the item search shown in FIG. #233).Subsequently, the image magnification of the first selected image, the image magnification of the second selected image, and both images to be displayed together are led to the special reproduction processing unit 52, where, for example, The image size is appropriately changed so that the specific subject is the same size, one is stored in the image frame memory 53, and the image is output to the TV monitor 57 (step #2
34). By doing so, the sizes of the objects in both images finally displayed together on the TV monitor 57 can be displayed as if they were the same size. Alternatively, if the image sizes of both images that are displayed together are made to match, the actual size of the subject in both images can be easily compared. Furthermore, as in the case of scale display, by moving (weighting) both display images with a trackball (position specifying member 63) or the like, a composite photograph or the like can be enjoyed.
なお、今回の撮影画像と以前に撮影した写真とを両像倍
率を利用して合成するようにし、例えば頒切れ写真等を
完成写真として再生することも可能となる。Note that it is also possible to combine the current photographed image and a previously photographed photograph by using both image magnifications, so that, for example, an out-of-print photograph can be reproduced as a completed photograph.
次に、出力形態Eが選択された場合(ステップ#235
でYES) 、表示される画像は特殊再生処理部52に
導かれ、ここで表示画像に対してモザイク、ネガ/ポジ
反転等各種の特殊加工が施された後、TVモニタ57に
出力される(ステップ#236)。Next, if output form E is selected (step #235
(Yes), the displayed image is guided to the special reproduction processing section 52, where various special processing such as mosaic, negative/positive inversion, etc. are applied to the displayed image, and then output to the TV monitor 57 ( Step #236).
次に、出力形態Fが選択された場合(ステップ#235
7−No>、1画面に4枚、9枚アルイハ16枚等の所
定枚数の画像が再生される。この所定枚数は予め、ある
いは必要に応じて前記枚数が選択され、また(2X3)
枚のような所望の枚数が選択しえるようにしてもよい。Next, if output form F is selected (step #235
7-No>, a predetermined number of images, such as 4 images, 9 images, 16 images, etc., are reproduced on one screen. This predetermined number of sheets is selected in advance or as necessary, and (2×3)
It may also be possible to select a desired number of sheets, such as .
先ず、マルチ再生を希望する画像のコマ番号と画像枚数
とが記憶される(ステップ#237)。First, the frame number and number of images for which multiple reproduction is desired are stored (step #237).
次に、画像枚数が上記所定枚数になったか否かが判別さ
れ(ステップ#238) 、所定枚数であると、マルチ
処理が施されて(ステップ#239)、ステップ#24
0に移行する。一方、所定枚数でなければ、ステップ#
247に移行する。なお、出力形態Fの場合の処理の詳
細については、後述する。Next, it is determined whether the number of images has reached the predetermined number (step #238), and if it is the predetermined number, multi-processing is performed (step #239), and step #24
Transition to 0. On the other hand, if the number of sheets is not the predetermined number, step #
247. Note that details of the processing in the case of output form F will be described later.
さて、出力形態A〜Fのいずれかが選択され、該選択の
下で得られた画像がTVモニタ57に表示されると(ス
テップ#240) 、次に、表示画像について音声が記
録されているか否かの判別が行われる(ステップ#24
1)。音声が記録されているときは、表示画像に対応す
る音声が再生される(ステップ#242)。続いて、表
示画像をプリントするかどうか、また伝送するかどうか
が判別される(ステップ#243、#245)。プリン
ト指示を行うと、プリンタ71により表示画像のプリン
トアウトが行われ、また伝送指示を行うと、FAX72
やTV電話73等を利用して表示画像の伝送が行われる
(ステップ#244、#246)。Now, when one of the output formats A to F is selected and the image obtained under the selection is displayed on the TV monitor 57 (step #240), it is next determined whether audio is recorded for the displayed image. A determination is made as to whether or not (step #24
1). If audio is recorded, the audio corresponding to the displayed image is played back (step #242). Subsequently, it is determined whether the displayed image is to be printed or transmitted (steps #243 and #245). When a print instruction is issued, the displayed image is printed out by the printer 71, and when a transmission instruction is issued, the fax 72
The displayed image is transmitted using the TV phone 73 or the like (steps #244 and #246).
1枚のプリントあるいは伝送が終了すると、前記ステッ
プ#221で設定された出力画像数Nが1だけデクリメ
ントされ(出力形IFが選択されている場合は除<)、
続いて、該出力画像数、Nが0かどうかが判別される(
ステップ#248)。When printing or transmission of one sheet is completed, the number of output images N set in step #221 is decremented by 1 (except when the output form IF is selected),
Next, it is determined whether the number of output images, N, is 0 (
Step #248).
N−0でなければ、ステップ# 2”21に戻って、次
の画像が表示され、該表示画−がプリントや伝送された
後、Nの値がデクリメントされる(ステップ#221〜
ステップ#247>。かかる処理は出力画像数分繰り返
し行われ、この後、N−0になると(ステップ#248
でYES)、出力形W!AFの場合を除いて(ステップ
#249でYES)、第9図のメインフローにリターン
する。If it is not N-0, the process returns to step #2''21, the next image is displayed, and after the displayed image is printed or transmitted, the value of N is decremented (steps #221 to 221).
Step #247>. This process is repeated for the number of output images, and after that, when the number of output images is N-0 (step #248
YES), output type W! Except for the case of AF (YES in step #249), the process returns to the main flow of FIG. 9.
一方、出力形MFが選択されているときは、1画面内に
所定枚数の画像が取り込まれることから、前記出力形!
IA〜Fの場合と多少異なる処理が行われる。すなわち
、画像が読出される毎にその画像数が出力画像数Nから
デクリメントされ(ステップ#238でNO1ステップ
#247)、所定数に達する毎に(ステップ#238で
YES)、マルチ処理が施される(ステップ#239)
。そして、マルチ処理された所定枚数の画像がTVモニ
タ57に表示された後、所定枚数単位で前述同様プリン
トあるいは伝送される。このとき、所定枚数に達した時
点の画像分がステップ#246の後のステップ#247
でデクリメントされることにより、出力画像数Nの正確
なデクリメント処理が行われるようにされている。なお
、出力形!IFの場合で、出力画像数Nが所定枚数の整
数倍でないときは、ステップ#248でN−0となって
も、残りの画像が存在するので(ステップ#238でN
o、ステップ#248でYES、ステップ#249でN
o> 、この残りの画像についてもステップ#240以
降の処理が行われる。On the other hand, when the output type MF is selected, a predetermined number of images are captured in one screen, so the output type MF!
Processing that is somewhat different from that for IA to F is performed. That is, each time an image is read out, the number of images is decremented from the output image number N (NO in step #238, step #247), and each time a predetermined number is reached (YES in step #238), multi-processing is performed. (Step #239)
. After a predetermined number of multi-processed images are displayed on the TV monitor 57, they are printed or transmitted in units of a predetermined number of images as described above. At this time, the images at the time when the predetermined number of images is reached are stored in step #247 after step #246.
By decrementing the number N, the number N of output images can be decremented accurately. In addition, output form! In the case of IF, if the number of output images N is not an integral multiple of the predetermined number, even if it becomes N-0 in step #248, there are remaining images (N in step #238).
o, YES in step #248, N in step #249
o>, the processing from step #240 onward is also performed on the remaining images.
第25図は、目次の表示例で、メモリカード26が再生
機側に装着されると、同図に示すように記録順に(ある
いは撮影コマ番号の順に)「日時」「時間」 「場所」
「音声有/無」 「人名」等の内容がTVモニタ57
に表示される。この目次表示を基に画像の再生表示、あ
るいはファイリング装置61への記録方法の選択が容易
となる。FIG. 25 shows an example of the table of contents displayed. When the memory card 26 is inserted into the playback device, the "Date and Time", "Time", and "Location" are displayed in the order of recording (or in the order of the photographed frame numbers) as shown in the figure.
Contents such as “audio presence/absence” and “person’s name” are displayed on the TV monitor 57.
will be displayed. Based on this table of contents display, it becomes easy to select the method for reproducing and displaying images or recording them in the filing device 61.
第26図は、検索の際の検索条件を入力する画面の一例
を示す。検索条件としては「日時」「時刻」 「場所」
「話者」 「天候」 「その他」が準備されており、
各条件欄に図示の如く「日付」として「夏」が、「時刻
」として「夕方」が、「場所」として「死時」が、「話
者」として「難波」がキーボード62から入力されてい
る。CPU50は該入力された検索条件に基づいて前述
した検索処理を実行する。一方、画面下方には各種の操
作指示欄が準備されており、例えばタブレットやマウス
で位置指示することにより、その指定が行えるようにな
っている。FIG. 26 shows an example of a screen for inputting search conditions for a search. Search conditions include "date and time,""time," and "location."
"Speaker", "Weather", and "Other" are prepared.
As shown in the figure, in each condition column, "summer" is entered as "date,""evening" is entered as "time,""time of death" is entered as "place," and "Namba" is entered as "speaker" from the keyboard 62. There is. The CPU 50 executes the above-described search process based on the input search conditions. On the other hand, various operation instruction columns are prepared at the bottom of the screen, and can be specified by pointing the position with a tablet or mouse, for example.
第27図は、メモリカード26のメモリマツプの一例を
示すもので、検索用情報エリア、画像データエリア、音
声オン/オフ及び音声データエリアとからなる。また、
この検索用情報エリアには上記各エリアに対するスター
トアドレス(■Sta、 Asta) 、エンドアドレ
ス(Vend、Aend)も書き込まれている。各エリ
アへの記録はCPtJ50の指示により画像データ、音
声ブタ、検索用情報の順に行われる。FIG. 27 shows an example of the memory map of the memory card 26, which consists of a search information area, an image data area, an audio on/off and audio data area. Also,
In this search information area, start addresses (■Sta, Asta) and end addresses (Vend, Aend) for each of the above areas are also written. Recording in each area is performed in the order of image data, audio data, and search information according to instructions from the CPtJ50.
次に、前述した各検索を推論機能(ファジィ検索)を利
用して行う場合について、第28図〜第31図により説
明する。Next, a case where each of the above-mentioned searches is performed using an inference function (fuzzy search) will be explained with reference to FIGS. 28 to 31.
かかる推論により検索はメンバーシップ関数に基づいて
行われる。このメンバーシップ関数は各検索条件に対応
する形で適合度記憶手段に予め記憶されている。そして
、検索条件が入力されると、該入力された検索条件に該
当するメンバーシップ関数が選択され、この選択された
メンバーシップ関数に基づいて適合度の^い順に検索が
行われる。With such reasoning, searches are performed based on membership functions. This membership function is stored in advance in the suitability storage means in a form corresponding to each search condition. Then, when a search condition is input, a membership function corresponding to the input search condition is selected, and a search is performed in descending order of suitability based on the selected membership function.
さて、第28図は、長さく大きさ)検索、例えばr 5
0 CmJ程度のものを再生したい場合のメンバーシッ
プ関数を示したものである。[50立5cmJは適合度
“1”とし、r25cmJ、r75cmJは適合度“0
.5″としている。従って、r50cmJという検索条
件を入力した場合には、このメンバーシップ関数に基づ
いて適合度″1”のものから順に“0,9”0.8”・
・・のように優先順位が付され、先ず[50±5cmJ
のものが抽出され、再生される。次に、r44 crn
J、r56cmJのもの、続いて[4OcmJ、r60
cmJ近辺のもの、更に「35cmJ、r65cmJ近
辺のものといったように適合度の^いものから順に抽出
され、再生されることになる。また、rloocmJと
いう検索条件を入力した場合には、rioo±5cmJ
を適合度“1”とし、例えばr75cmJを適合度“0
.5”として、前記同様適合度の高いものから順次抽出
され、再生されることになる。Now, Figure 28 shows the length and size) search, for example r 5
This shows the membership function when it is desired to reproduce something of about 0 CmJ. [For 50 cmJ, the suitability is "1", and for r25cmJ and r75cmJ, the suitability is "0".
.. 5". Therefore, if you enter the search condition r50cmJ, based on this membership function, the suitability is "1", "0.9", "0.8", etc.
The order of priority is given as follows: [50±5cmJ
are extracted and reproduced. Next, r44 crn
J, r56cmJ, followed by [4OcmJ, r60
Those near cmJ, and those with the highest degree of suitability, such as those near 35cmJ and r65cmJ, will be extracted and reproduced in order.Also, if you enter the search condition rlookmJ, rioo±5cmJ
For example, r75cmJ has a fitness of “0”.
.. 5'', and as described above, those with the highest degree of suitability are sequentially extracted and reproduced.
第29図は、場所検索、例えば「近畿地方」で撮影した
もの、を再生したい場合のメンバーシップ関数を示した
ものである。従って、「近畿地方」と入力した場合には
、このメンバーシップ関数に基づいて、先ず適合度“1
″の「大阪」と「京都」で撮影が行われたものが抽出さ
れ、再生される。FIG. 29 shows membership functions when it is desired to reproduce a location search, for example, a photograph taken in the "Kinki region." Therefore, when "Kinki region" is input, the fitness level is "1" based on this membership function.
Films shot in ``Osaka'' and ``Kyoto'' are extracted and played back.
次に、「兵庫」、「奈良」で撮影されたもの、更に「和
歌山」、「滋賀」、続いて「三重」、「徳島」、そして
「岡山」、「福井」といったように適合度の高いものか
ら順に抽出され、再生されることになる。Next are those taken in "Hyogo" and "Nara", followed by "Wakayama" and "Shiga", followed by "Mie", "Tokushima", and "Okayama" and "Fukui", which have a high degree of relevance. Things will be extracted and reproduced in order.
第30図は、季節検索、例えば「春」、「夏」、「秋J
、「冬」の各季節に撮影されたものを再生したい場合の
各メンバーシップ関数を示したものである。例えば、「
春」に撮影したものを再生したい場合、先ず適合度“1
”の「4月」と「5月jに撮影されたものが抽出され、
再生される。次に、「6月」に撮影されたものが抽出さ
れ、再生されることになる。また、「夏]に撮影したも
のを再生したい場合、適合度“1″の「7月」、「8月
」及び「9月」に撮影されたものが抽出され、再生され
る。次に、「6月」に撮影されたものが抽出され、再生
されることになる。「秋」に撮影したものを再生したい
場合、適合度“1”の「10月」と「11月」に撮影さ
れたものが抽出され、再生される。次に、「9月jに撮
影されたものが抽出され、再生されることになる。「冬
」に撮影したものを再生したい場合、適合度“1”の「
12月J「1月」及び「2月」に撮影されたものが抽出
され、再生される。次に、「3月」に撮影されたものが
抽出され、再生されることになる。Figure 30 shows seasonal searches, such as "spring", "summer", "autumn"
, which shows each membership function when you want to play back images taken during each season of "winter." for example,"
If you want to play back images taken in ``Spring,'' first set the suitability to ``1.''
” photos taken in “April” and “May j” are extracted,
will be played. Next, images taken in "June" will be extracted and played back. Furthermore, when it is desired to playback images taken in "summer", images taken in "July", "August", and "September" with a suitability of "1" are extracted and played back. Next, images taken in "June" will be extracted and played back. If you want to play back images taken in "autumn," images shot in "October" and "November" with a suitability of "1" are extracted and played back. Next, images taken in September j will be extracted and played back.If you want to play back images taken in winter, select
Photographs taken in December J "January" and "February" are extracted and played back. Next, images taken in "March" will be extracted and played back.
なお、季節検索は上記のように月単位に限らず、日付単
位で行うようにしてもよい。例えば「9月中旬」に対し
て、「夏」の場合の適合度を“0゜5″ 「秋Jの場
合の適合度を“0.5”といったように優先順位を付け
てもよい。また、温度、湿度等の他の検索条件も加味し
てより広い観点からの検索を行うようにしてもよい。例
えば、検索条件が「夏+署い」であるときは、前記「夏
」を満足するものと、気温30℃以上のものとの論理積
をとる。また同様に、検索条件が「冬十暑い」であると
きは、前記「冬」を満足するものと、気温25℃以上の
ものとの論理積をとる。Note that the seasonal search is not limited to monthly units as described above, but may also be performed by date units. For example, for "mid-September," the suitability for "summer" may be "0°5" and the suitability for "autumn J" may be "0.5." , temperature, humidity, etc., to perform a search from a broader perspective.For example, when the search condition is "summer + traffic sign", the search condition that satisfies the above-mentioned "summer" may be searched from a broader perspective. Take the logical AND of the temperature that is above 30℃ and the temperature that is above 30℃. Similarly, when the search condition is "100% hot in winter", a logical AND is performed between those that satisfy the above-mentioned "winter" and those that have a temperature of 25° C. or higher.
第31図は、日時検索の内、Nflj、r昼」、「夕方
」、「夜」といった各時間帯で撮影されたものを再生し
たい場合のメンバーシップ関数を示すものである。FIG. 31 shows the membership function when it is desired to play back images taken in each time zone such as "Nflj, r noon", "evening", and "night" in the date and time search.
「朝」と入力した場合は、先ず適合度“1”の「6時」
〜「9時」の間に撮影されたものが抽出され、再生され
る。続いて、「5時」、「10時」「4時」といった順
で撮影されたものが抽出され、再生される。「昼」と入
力した場合は、先ず適合度“1″の「12時J〜「14
時」の園に撮影されたものが抽出され、再生される。続
いて、「11時」、r 1511J ニWlileサレ
tCモ(1)カ抽出され、再生される。「夕方jと入力
した場合は、先ず適合度“1”の「17時」、「18時
」に撮影されたものが抽出され、再生される。続いて、
「16時」に撮影されたものが抽出され、再生される。If you enter "morning", first "6 o'clock" with a fitness of "1" is input.
The images taken between "9 o'clock" and "9 o'clock" are extracted and played back. Subsequently, images taken in the order of "5 o'clock,""10o'clock," and "4 o'clock" are extracted and played back. If you enter "daytime", firstly, "12 o'clock J to "14 o'clock J" with relevance "1".
What was photographed in the Garden of Time will be extracted and played back. Subsequently, "11 o'clock", r 1511J, 2Wlile Sale tC mo(1) is extracted and played back. When "evening j" is input, first, images taken at "17:00" and "18:00" with a suitability of "1" are extracted and played back. continue,
The image taken at "16 o'clock" is extracted and played back.
「夜」と入力した場合は、先ず適合度“1”の「20時
」〜「3時」の園に撮影されたものが抽出され、再生さ
れる。続いて、「19時」、r41Jに撮影されたもの
が抽出され、再生される。なお、前記季節検索の場合同
様、温度、湿度等数の検索条件を加味してより広い観点
からの検索を行うようにしてもよい。When "night" is input, first, images taken in the garden between "8:00 p.m." and "3:00 p.m." with a suitability of "1" are extracted and played back. Subsequently, the image taken at r41J at "7pm" is extracted and played back. Note that, as in the case of the seasonal search, search conditions such as temperature, humidity, etc. may be taken into account to perform a search from a broader perspective.
なお、上記各検索例に加えて、気圧センサ19及びGP
S受信機23による高度情報から山登り時に撮影した画
像を検索する事も出来る。更に、この気圧情報、高度情
報に焦点距離f、撮影距離りを加味すると航空写真とし
ての撮影情報も自動的に入力可能である。In addition to the above search examples, the barometric pressure sensor 19 and GP
It is also possible to search for images taken during mountain climbing from the altitude information provided by the S receiver 23. Furthermore, by adding the focal length f and photographing distance to the atmospheric pressure information and altitude information, it is possible to automatically input photographing information as an aerial photograph.
また、検索時の他の判断方法として以下のものが考えら
れる。すなわち、
(1)男女の音質の相違を音声認識技術を用いて男女判
別を行う。Further, the following can be considered as other determination methods at the time of search. That is, (1) Distinguish between men and women using voice recognition technology based on the difference in sound quality between men and women.
(2>WBセンサ14の撮影画像に対する色温度とパタ
ーン認識とから人物判別を行う。(2> Person identification is performed based on the color temperature and pattern recognition of the photographed image of the WB sensor 14.
(3)像倍率とパターン認識とから大人、子供の判別を
行う。(3) Adults and children are distinguished from image magnification and pattern recognition.
(4)パターン認Iにより眼鏡の有無判別を行う。(4) The presence or absence of glasses is determined by pattern recognition I.
(5)画像内の人物を予め覚えさせておき、他の画像内
の人物をパターン認識と学園機能とを用いて判別する。(5) The person in the image is memorized in advance, and the person in other images is discriminated using pattern recognition and the school function.
なお、本実施例においては、記録媒体としてデジタルメ
モリで説明したが、フロッピー等のアナログメモリでも
よい。また、カメラと再生機とを別体としているが、一
体型であってもよい。更に、各センサから得られるデー
タを操作及び表示部25にあるいは別個に設けられる表
示部に表示するようにしてもよい。In this embodiment, a digital memory is used as the recording medium, but an analog memory such as a floppy disk may also be used. Further, although the camera and the playback device are separate bodies, they may be integrated. Furthermore, the data obtained from each sensor may be displayed on the operation and display section 25 or on a separately provided display section.
また、本実施例では電子スチルカメラを用いて説明した
が、銀塩カメラに各センサを設け、周知の日付写し込み
技術を利用して上記各センサの撮影情報を撮影画面内適
所に写し込むようにしてもよい。この場合、再生機は光
学式読取部、フィルム駆動部、メモリ及び本実施例に係
る検索処理部等を有して成り、フィルム容器を該光学式
読取部にセットし、順次あるいは指示されたコマの撮影
画像や写し込まれた撮影情報をCOD等により読み取っ
て電気信号として抽出し、メモリに記録するようにすれ
ばよい。そして、この取り込まれた撮影画像及び撮影情
報により前述同様の検索処理が実行されることになる。Furthermore, although this embodiment has been explained using an electronic still camera, each sensor is provided in a silver halide camera, and the photographing information of each of the above sensors is imprinted at an appropriate location within the photographic screen using a well-known date imprinting technique. Good too. In this case, the playback machine includes an optical reading section, a film drive section, a memory, a search processing section according to this embodiment, etc., and the film container is set in the optical reading section and the frames are sequentially or instructed. The photographed image and the imprinted photographic information may be read by COD or the like, extracted as an electrical signal, and recorded in the memory. Then, the same search process as described above is executed using the captured image and the captured information.
以上説明したように、本発明に係る撮影画像記録再生シ
ステムによれば、撮影画像と焦点距離情報、被写体距離
情報とを記録媒体に対応付けて記録するカメラと、上記
記録媒体に記録された撮影画像を再生する再生機とから
成り、上記再生機に、再生される画像に対応する焦点距
離情報及び被写体距離情報から被写体の大きさに関する
データを自動的に併記表示するようにしたので、従来の
ように被写体の槓にその都度スケールに相当するものを
置くという頻雑な作業を強いられることなく、再生画像
から実際の被写体の大きさを容易にgiiすることが出
来る。As explained above, according to the photographed image recording and reproducing system according to the present invention, there is provided a camera that records a photographed image, focal length information, and subject distance information in association with a recording medium, and a photographic image recorded on the recording medium. It consists of a player that plays back images, and the player automatically displays data related to the size of the subject based on the focal length information and object distance information corresponding to the image being played back. In this way, the actual size of the subject can be easily determined from the reproduced image without being forced to perform the frequent work of placing something corresponding to the scale on the object's scale each time.
また、被写体の大きさに関するデータとして複数の表示
M!!を採用すると共に選択的に切換可能としたので、
認識し易い表示8mの選択が出来、より正確、迅速に被
写体の大きさをH!Iすることが可能となる。In addition, multiple displays M! are displayed as data regarding the size of the subject. ! In addition to adopting this, we also made it possible to switch selectively.
You can select an easy-to-recognize display of 8m, and more accurately and quickly determine the size of the subject. It becomes possible to do this.
第1図はスチルカメラのブロック図、第2図は場所コー
ドの送受信装置を説明するもので、同図(A)は場所コ
ードを送信する送信機のブロック図、同図(B)は上記
場所コードを受信するカメラ本体に設けられる受信機の
ブロック図、第3図はGPS受信機の詳細なブロック図
、第4図はカメラの動作を説明するフローチャート、第
5図は検索機能を備えた撮影画像の再生機の一例を示す
ブロック図、第6図はメモリカードの画像をフフイリン
グ装置に登録する手順を示すフローチャート、第7図及
び第8図はメモリカードの音声をファイリング装置に登
録する手順を示すフローチャート、第9図〜第21図は
各種の検索手順を示すフローチャート、第22図は再生
、プリント等の実行処理を示すフローチャート、第23
図は目盛サイズの求め方を説明するための結像状態にあ
る原理図、第24図は目盛サイズの表示例を示すもので
、同図(A>は像倍率をそのまま表示する場合の図、同
図(B)は単位スケールが10cmに相当することを示
した場合の図、第25図は目次の表示例を示す図、第2
6図は検索の際の検索条件を入力する画面の一例を示す
図、第27図はメモリカードのメモリマツプの一例を示
す図、第28図〜第31図は各検索を推論機能(ファジ
ィ検索)を利用して行わす場合の各メンバーシップ関数
を示す図である。
1・・・レンズ、2・・・撮像素子、5・・・WB補正
回路、6・・・γ補正回路、7・・・マトリクス回路、
8・・・エンコーダ、9・・・メモリカードr/F、1
0・・・マイク、13・・・メモリ、14・・・WBセ
ンサ、15・・・AFセンサ、16・AFCPU、17
17−2i11セン+j、18・・・湿度センサ、19
・・・気圧センサ、20・・・CPU、21・・・受信
変調部、22・・・IIW部、23・・・GPS受信機
、24・・・計時部、25川操作及び表示部、26−・
・メモIJ カー ト、201 ・ROM、202・・
・DPSK変調部、203・・・FM変調部、206.
210・・・タイミング発生回路、208・・・FM復
調部、209・・・DPSKl[:m1部、50・・・
CPU、51・・・メモリカードI/F、52・・・特
殊再生処理部、53・・・画像フレームメモリ、54・
・・混合部、57・・・TVモニタ、58・・・スーパ
ーインポーズ用メモリ、59・・・続出クロック発生回
路、60・・・キャラクタジェネレータ、61・・・フ
フイリング装置、62・・・キーボード、63・・・位
置指定部材、64・・・音声入力部、65・・・話者デ
ータE2FROM、66・・・音声データメモリ、69
・・・スピーカ、7o・・・話者!!識部、SC・・・
単位スケール。
特許出願人 ミノルタカメラ株式会社第
図
第
図
第
図
第
図
第
図
第
図
第
図
第
図
第
図
第
図
第
図
第
図
第
図
第
図
第
図
第
図
(A)
(B)
第
図
第
図
第
図
LL+718
山
庫
販
部
良
買
!
井Figure 1 is a block diagram of a still camera, Figure 2 is an explanation of a location code transmitting/receiving device, Figure (A) is a block diagram of a transmitter that transmits a location code, and Figure (B) is a block diagram of a transmitter that transmits a location code. A block diagram of the receiver installed in the camera body that receives the code, Figure 3 is a detailed block diagram of the GPS receiver, Figure 4 is a flowchart explaining the operation of the camera, and Figure 5 is a camera with a search function. A block diagram showing an example of an image playback device, FIG. 6 is a flowchart showing the procedure for registering the image on the memory card in the filing device, and FIGS. 7 and 8 show the procedure for registering the audio on the memory card in the filing device. 9 to 21 are flowcharts showing various search procedures, FIG. 22 is a flowchart showing execution processing such as playback and printing, and FIG.
The figure is a principle diagram in an imaging state to explain how to find the scale size, and Figure 24 shows an example of how the scale size is displayed. Figure (B) is a diagram showing that the unit scale is equivalent to 10 cm, Figure 25 is a diagram showing an example of displaying the table of contents, and Figure 2
Figure 6 shows an example of a screen for inputting search conditions during a search, Figure 27 shows an example of a memory map of a memory card, and Figures 28 to 31 show an inference function (fuzzy search) for each search. It is a figure which shows each membership function in the case of performing using. DESCRIPTION OF SYMBOLS 1... Lens, 2... Image pickup element, 5... WB correction circuit, 6... γ correction circuit, 7... Matrix circuit,
8...Encoder, 9...Memory card r/F, 1
0... Microphone, 13... Memory, 14... WB sensor, 15... AF sensor, 16... AFCPU, 17
17-2i11sen+j, 18...humidity sensor, 19
... Barometric pressure sensor, 20... CPU, 21... Reception modulation section, 22... IIW section, 23... GPS receiver, 24... Time measurement section, 25 River operation and display section, 26 −・
・Memo IJ cart, 201 ・ROM, 202...
-DPSK modulation section, 203...FM modulation section, 206.
210... Timing generation circuit, 208... FM demodulation section, 209... DPSKl[:m1 section, 50...
CPU, 51...Memory card I/F, 52...Special playback processing unit, 53...Image frame memory, 54.
...Mixing unit, 57...TV monitor, 58...Superimpose memory, 59...Continuous clock generation circuit, 60...Character generator, 61...Filling device, 62...Keyboard , 63... Position specifying member, 64... Audio input section, 65... Speaker data E2FROM, 66... Audio data memory, 69
...Speaker, 7o...Speaker! ! Shikibu, SC...
unit scale. Patent Applicant: Minolta Camera Co., Ltd. (A) (B) (A) (B) Figure LL+718 Yamako sales department good buy! well
Claims (1)
影画像とを対応付けて記録する記録媒体を有するカメラ
と、上記記録媒体に記録された撮影画像を再生する再生
機とから成り、上記再生機は、上記再生される画像の焦
点距離情報及び被写体距離情報より撮像面上での被写体
の大きさに関するデータを求める算出手段と、該求めた
データを表示すべく出力するデータ出力手段とを備え、
この出力データを前記再生画像と共に表示することを特
徴とする撮影画像記録再生システム。 2、請求項1記載の撮影画像記録再生システムにおいて
、前記算出手段は、撮像面上で所定長となるスケールと
該スケールの実際長データを求める演算部と像倍率デー
タを求める演算部とを有し、切換手段により上記両演算
部で得られたデータの一方が選択的に前記出力手段から
出力されるようになされたことを特徴とする撮影画像記
録再生システム。[Claims] 1. A camera having a recording medium that records focal length information and subject distance information at the time of photography in association with a photographed image, and a playback device that reproduces the photographed image recorded on the recording medium. The playback device comprises a calculation means for obtaining data regarding the size of the subject on the imaging surface from the focal length information and subject distance information of the image to be played back, and data for outputting the obtained data to display the data. and an output means,
A photographed image recording and reproducing system characterized in that this output data is displayed together with the reproduced image. 2. In the photographed image recording and reproducing system according to claim 1, the calculation means includes a scale having a predetermined length on the imaging surface, a calculation section for calculating actual length data of the scale, and a calculation section for calculating image magnification data. A photographic image recording and reproducing system characterized in that a switching means selectively outputs one of the data obtained by the two arithmetic units from the output means.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2184756A JPH0470288A (en) | 1990-07-11 | 1990-07-11 | Photographic picture recording and reproducing system |
US08/029,991 US5335072A (en) | 1990-05-30 | 1993-03-12 | Photographic system capable of storing information on photographed image data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2184756A JPH0470288A (en) | 1990-07-11 | 1990-07-11 | Photographic picture recording and reproducing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0470288A true JPH0470288A (en) | 1992-03-05 |
Family
ID=16158795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2184756A Pending JPH0470288A (en) | 1990-05-30 | 1990-07-11 | Photographic picture recording and reproducing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0470288A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009103908A (en) * | 2007-10-23 | 2009-05-14 | Sharp Corp | Image display and image display method |
-
1990
- 1990-07-11 JP JP2184756A patent/JPH0470288A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009103908A (en) * | 2007-10-23 | 2009-05-14 | Sharp Corp | Image display and image display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7518640B2 (en) | Method, apparatus, and recording medium for generating album | |
US7760263B2 (en) | Image photographing/reproducing system and method, photographing apparatus and image reproducing apparatus used in the image photographing/reproducing system and method as well as image reproducing method | |
US7170632B1 (en) | Image reproducing method and apparatus, image processing method and apparatus, and photographing support system | |
US5335072A (en) | Photographic system capable of storing information on photographed image data | |
JP4017804B2 (en) | Image photographing apparatus, image processing apparatus, and image management method | |
US20040183918A1 (en) | Producing enhanced photographic products from images captured at known picture sites | |
JP2943263B2 (en) | Image search system | |
JP2007164269A (en) | Retrieval device, retrieval/reproducing device, and image reproducing device | |
TW200806027A (en) | Imaging/reproducing device | |
JPH0471070A (en) | Camera system | |
JP2006197579A (en) | Method and device for reproducing image | |
JPH0470726A (en) | Camera capable of recording humidity information | |
JP3092142B2 (en) | Image recording and playback system | |
JPH0470724A (en) | Camera capable of recording position information | |
JP2943265B2 (en) | Camera that can record location information | |
JP4414107B2 (en) | Image photographing / reproducing system and method | |
JPH0470288A (en) | Photographic picture recording and reproducing system | |
JPH09322109A (en) | Electronic camera | |
JPH0471068A (en) | Photographed image recording/reproducing system | |
JPH0470225A (en) | Position information transmitter | |
JPH0471069A (en) | Camera system | |
JPH0470732A (en) | Photographed image retrieval system | |
JPH0470730A (en) | Photographed image retrieval system | |
JPH0470733A (en) | Photographed image retrieval system | |
JPH0470731A (en) | Photographed image retrieval system |