Nothing Special   »   [go: up one dir, main page]

JP2005033570A - Method and system for providing mobile body image - Google Patents

Method and system for providing mobile body image Download PDF

Info

Publication number
JP2005033570A
JP2005033570A JP2003271186A JP2003271186A JP2005033570A JP 2005033570 A JP2005033570 A JP 2005033570A JP 2003271186 A JP2003271186 A JP 2003271186A JP 2003271186 A JP2003271186 A JP 2003271186A JP 2005033570 A JP2005033570 A JP 2005033570A
Authority
JP
Japan
Prior art keywords
image
terminal
student
target
zoom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003271186A
Other languages
Japanese (ja)
Inventor
Fumitoki Amano
史斎 天野
Mizuo Tsukidate
瑞男 月舘
Hitoshi Miura
均 三浦
Eiji Honda
英二 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Chuo Electronics Co Ltd
Original Assignee
Victor Company of Japan Ltd
Chuo Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd, Chuo Electronics Co Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2003271186A priority Critical patent/JP2005033570A/en
Publication of JP2005033570A publication Critical patent/JP2005033570A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile body imaging system not making students and general audience dizzy when watching a terminal, allowing a teacher side to grasp the face of a questioner on a screen, and allowing a person in a remote place to have a feeling of attendance at a lecture. <P>SOLUTION: The system includes a first imaging means 3 with a platform side as a visual field, and a second imaging means 4 with a student side from the platform side as a visual field. The first imaging means 3 comprises a first wide angle camera 1 and a first tracking camera 2. The second imaging means 4 comprises a second wide angle camera 5 and a second tracking camera 6. The first imaging means 3 detects a target (student or teacher) on the platform, and tracks the new target by zoom-up even when a plurality of targets exist. The second imaging means 4 displays the image of the whole attending students or the zoom-up image of the questioner on the monitor 10 of a host computer. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は複数台の撮像装置を用いて移動対象物となる移動物体を適切に捉えて、当該移動物体の状況に合わせて映像を適宜な速度で追尾可能とする移動体画像提供システムに関するものである。   The present invention relates to a moving body image providing system that appropriately captures a moving object as a moving object using a plurality of imaging devices and can track an image at an appropriate speed according to the situation of the moving object. is there.

近年、スーパーマーケットやコンビニエンスストア、パチンコなどの大型店舗が増加している。   In recent years, large stores such as supermarkets, convenience stores, and pachinko machines are increasing.

このような店舗は、市民生活態様の変化に伴って、営業時間が深夜に及びものなど長時間化する傾向にある。このため、テレビカメラ(TV)により、昼夜お客や店員の行動を監視する監視システムが多く利用される傾向にある。 そして、このような監視システムにより、お客の混雑度の把握及び犯罪等を未然に防ぐように考慮されていることは周知のことである。   Such stores tend to have long hours such as business hours in the middle of the night with changes in the way of civic life. For this reason, there is a tendency to use a surveillance system that monitors the behavior of customers and store clerk day and night with a television camera (TV). It is well known that such a monitoring system is considered so as to grasp the degree of congestion of customers and prevent crimes.

しかして、近年のマルチメディア関連技術の発展およびネットワーク技術の大幅な普及に伴ない大容量の情報をネットワーク上に送信できるブロードバンドが採用されている。   As a result of the recent development of multimedia-related technologies and the widespread use of network technologies, broadband capable of transmitting large amounts of information over networks has been adopted.

このようなブロードバンドは、例えば1.5M,8M〜20Mなど大容量情報を送信することができるため、TVカメラを用いた遠隔地医療システムおよび遠隔地教育など高精細度情報の送信にも採用されつつあるのが現状である。   Such broadband is capable of transmitting large-capacity information such as 1.5M, 8M to 20M, for example, and is being adopted for transmission of high-definition information such as a remote medical system using a TV camera and remote education. There is the present situation.

つまり、TVカメラによる遠隔地視聴システムにより時間および空間を超えた形での情報の取得が可能となっている。   That is, it is possible to acquire information in a form that exceeds time and space by a remote viewing system using a TV camera.

例えば大学の講義、結婚式、コンサート等の映像をリアルタイムで遠隔地に送信して、遠隔地のユーザが視聴できるようになっている。   For example, videos of university lectures, weddings, concerts, etc. can be transmitted in real time to remote locations so that users at remote locations can view them.

また、遠隔地視聴システムのような教育または監視にも使える撮像システムでは、例えば特許文献1の特開平5−334572号公報がある。この文献1は、監視のための広角用のTVカメラと追尾用のTVカメラを共用して一方で全体空間を撮影し、その全体映像より映像の変化を捉えて他方の追尾用のTVカメラで映像を取得している。
特許文献1:特開平5−334572号公報
An imaging system that can also be used for education or monitoring, such as a remote viewing system, is disclosed in JP-A-5-334572. In this document 1, a wide-angle TV camera for tracking and a TV camera for tracking are shared, and the entire space is photographed on the one hand. The video is being acquired.
Patent Document 1: JP-A-5-334572

しかしながら、上記のような方式は、一方向から見た映像を配信するシステムであるから、例えば学校の講義においては、教壇側の映像は配信できるが、質問者の顔をとらえた映像は配信できないという課題があった。   However, since the above-mentioned system is a system that distributes video viewed from one direction, for example, in a school lecture, video on the teacher's side can be distributed, but video that captures the face of the questioner cannot be distributed. There was a problem.

例えば、大教室で講義を行った場合には、講師と学生との距離があって、質問者の顔を教師が把握できないことになる。   For example, when a lecture is given in a large classroom, there is a distance between the instructor and the student, and the teacher cannot grasp the questioner's face.

さらに、上記したような撮像システムを使用して例えば遠隔地視聴教育を行う場合、通常の監視システムに採用されている自動追尾システムをそのまま利用すると、例えば教壇上の教師の行動を捉えようとした時は、追尾性能がそのまま反映され端末機の視聴者(学生)にとっては、送信さけれる追尾映像の目まぐるしい変化に対応することができず、めまいを起こしてしまうばかりか、講義などを集中して視聴できる状態にならない。   Furthermore, when performing remote viewing education using the imaging system as described above, for example, if an automatic tracking system employed in a normal monitoring system is used as it is, an attempt is made to capture the behavior of a teacher on the platform, for example. At the time, the tracking performance is reflected as it is, and the viewer (student) of the terminal cannot respond to the dizzying change of the tracking video that can be transmitted, causing not only dizziness but also focusing on lectures etc. Cannot watch.

このようなことを解決するために、カメラを人的に操作したのではこれまた生産性が低下するばかりか人件費もかさみ、さらにカメラマンの各人の感性により撮影された映像の品位にばらつきが生じて、これまた有効な手段ではない。   In order to solve this, manual operation of the camera not only reduces productivity but also increases labor costs, and the quality of the images taken varies depending on the sensitivity of each photographer. This is also not an effective means.

従って、学生、一般聴講者等が端末を見てもめまいを起こさないと共に、教師側が質問者の顔を画面上で把握できると共に、講義中における教師側の映像、質問者の顔の映像を配信して、遠隔地点でも講義に参加している感じが得られるシステムを得ることが望ましい。   Therefore, students, general auditors, etc. will not be dizzy when they see the terminal, and the teacher can grasp the questioner's face on the screen, and the teacher's video and the questioner's face during the lecture will be distributed. Therefore, it is desirable to obtain a system that can give a feeling of participating in a lecture even at a remote location.

本発明は、聴講会場の講師が講義する教壇側の映像をネットワークを介して受講者端末に提供する一方、前記講師から受講者側を見た受講者側の映像を、講師側の端末、指定の端末に提供する移動体撮像方法である。   The present invention provides a lecturer side video to be lectured by the lecturer at the auditorium to the student terminal via the network, while the student side video viewed from the lecturer is designated as a lecturer terminal. It is the moving body imaging method provided to the terminal.

(a).前記講師側の第1の広域映像、第1のズーム映像からなる講師側画像を第1の撮像手段で撮影させる工程と、(b).前記受講者側の第2の広域映像及び第2のズーム映像からなる受講者側画像を第2の撮影手段で撮影する工程とを有する。 (A). Taking a lecturer-side image comprising the first wide-area video and the first zoom video on the lecturer side with a first imaging means; and (b). Capturing a student-side image composed of the second wide-area video and the second zoom video on the student side by a second imaging means.

主制御装置は、(c).前記第1の撮像手段の前記講師側画像を前記ネットワークを介して前記講師側の端末又は指定の端末に提供する工程と、(d).前記講師側画像の第1の広域映像から第1のターゲットを検出して追尾すると共に、その第1のターゲットの前記第1のズーム映像を前記ネットワークを介して前記講師側の端末、指定の端末に提供する工程と、(e).前記第2の撮像手段の受講者側画像を前記ネットワークを介して前記講師側の端末又は指定の端末に提供する工程と、(f).前記受講者側画像から第2のターゲットを検出して前記講師の端末、指定の端末に前記第2のターゲットの第2のズーム映像を撮影させて前記ネットワークを介して前記講師の端末、指定の端末に提供する工程とを備えたことを要旨とする。   The main controller is (c). Providing the instructor-side image of the first imaging means to the instructor-side terminal or a designated terminal via the network; and (d). A first target is detected and tracked from the first wide-area video of the lecturer-side image, and the first zoom video of the first target is connected to the teacher-side terminal and designated terminal via the network. Providing (e). Providing a student-side image of the second imaging means to the instructor-side terminal or a designated terminal via the network; (f). A second target is detected from the student-side image, and the instructor's terminal and the designated terminal are caused to take a second zoom image of the second target and the instructor's terminal is designated via the network. And a step of providing to the terminal.

また、本発明は、ホストコンピュータが聴講会場の講師が講義する教壇側の映像をネットワークを介して受講者端末に提供する一方、前記講師から受講者側を見た受講者側の映像を、講師側の端末、指定の端末に提供する移動体画像提供システムである。前記講師側の広域映像を撮影する第1の広角カメラ及びパン、チルト動作でズーム映像を撮影する第1の追尾カメラとからなる第1の撮影装置と、前記受講者側の広域映像を撮影する第2の広角カメラ及びパン、チルト動作でズーム映像を撮影する第2の追尾カメラとからなる第2の撮影装置と、前記第1の広角カメラの広域映像から前記講師側のターゲットを検出して追尾すると共にその第1のズーム映像を前記第1の広角カメラの広域映像に代わって前記第1のズーム映像を送信する第1の主制御装置と、前記第2の撮影装置からの第2の広域映像に動きがあったときは、その動き検出画像に基づく受講者側のターゲットを認識した位置に前記第2の追尾カメラを制御して、その受講者側のターゲットの第2のズーム映像を撮影させ、該第2のズーム映像を送信する第2の主制御装置とを備える。   In addition, the present invention provides a video image of the lecturer side lectured by the lecturer at the attendance hall to the student terminal via the network, while the video image of the student side viewed from the lecturer is shown by the lecturer. This is a mobile image providing system provided to a terminal on the side and a designated terminal. A first imaging device including a first wide-angle camera that captures a wide-area image of the instructor side and a first tracking camera that captures a zoom image by panning and tilting operations, and a wide-area image of the student side A second imaging device comprising a second wide-angle camera and a second tracking camera that captures a zoom image by panning and tilting operations; and detecting the instructor-side target from the wide-area video of the first wide-angle camera. A first main controller for tracking and transmitting the first zoom image in place of the wide-area image of the first wide-angle camera, and a second main unit from the second photographing device. When there is movement in the wide-area video, the second tracking camera is controlled at the position where the target on the student side is recognized based on the motion detection image, and the second zoom video of the target on the student side is obtained. Let me shoot And a second main controller to transmit a second zoom image.

前記ホストコンピュータは、 前記講師の端末が指定したモードに基づいて前記第1の撮影装置と前記第2の主制御装置との組み合わせ又は前記第2の撮像装置と前記第2の主制御装置との組み合わせで動作させる手段と、 前記第1の主制御装置からの第1の広角カメラの映像、前記第1のズーム映像、前記第2の主制御装置からの第2の広角カメラの映像、前記第2のズーム映像を前記講師側の端末、遠隔地点の受講者端末に送信する手段とを備えたことを要旨とする。   The host computer is a combination of the first imaging device and the second main control device or a combination of the second imaging device and the second main control device based on a mode designated by the instructor's terminal. Means for operating in combination; an image of a first wide-angle camera from the first main control device; an image of the first zoom image; an image of a second wide-angle camera from the second main control device; And a means for transmitting the zoom image of No. 2 to the instructor side terminal and the remote student terminal.

以上のように本発明によれば、講師の講義中には講師の動きを追尾しながら、その講師のズーム映像が遠隔視聴者端末に表示される。また、教室内で質問があったときは、講師側のモニタ、遠隔視聴者端末には質問者のズームイン画像が得られるので、講師、遠隔視聴者はどんな方が質問したかを把握できるという効果がある。   As described above, according to the present invention, during the lecturer's lecture, the lecturer's zoom image is displayed on the remote viewer terminal while tracking the movement of the lecturer. In addition, when there is a question in the classroom, the instructor's monitor and remote viewer terminal can get a zoomed-in image of the questioner, so the instructor and remote viewer can understand who asked the question. There is.

また、視聴者側の端末には、講師がセンスエリア内にあって移動すると、その講師のズーム映像(ズームイン)が表示され、センスエリアを出たときはズームアウト映像に直ちに代わるので、視聴者はめまいを覚えることなく自然に見ることができる。   In addition, when the instructor moves within the sense area on the viewer's terminal, the instructor's zoom image (zoom-in) is displayed, and when leaving the sense area, the zoom-out image is immediately replaced. It can be seen naturally without learning dizziness.

このため、特定のプロのカメラマンのような人を利用する事も無いので、コストを低減できる。   For this reason, since a person like a specific professional photographer is not used, the cost can be reduced.

また、外部の視聴者の端末に講義の映像(講師側、教室内の質問者)を提供して、視聴者から質問があったときに、その顔映像を講師の端末に表示するので、遠隔地点の視聴者と、教室内の視聴者と、講師が同じ教室にいる感覚で受講できるという効果がある。   Also, the video of the lecture (instructor side, questioner in the classroom) is provided to the external viewer's terminal, and when there is a question from the viewer, the face image is displayed on the instructor's terminal. There is an effect that the lecturer can attend the lecture as if the lecturer is in the same classroom as the viewer at the location and the viewer in the classroom.

さらに、教壇に多数の学生が上がった場合は、学生数に応じたズーム比の画像を遠隔視聴者端末に提供するので、教壇の多数の学生の映像を所定のズーム比で遠隔視聴者が見ることができる。   Furthermore, when a large number of students go up to the platform, the remote viewer terminal is provided with images with a zoom ratio according to the number of students. be able to.

<実施の形態1>
図1は実施の形態1の移動体画像提供システムの概略構成図である。図1に示すように、教壇側を視野とする第1の撮像手段3と、教壇側から学生側を視野とする第2の撮像手段4とを備え、第1の撮像手段3は、第1の広角カメラ1及び第1の追尾カメラ2を有している。また、第2の撮像手段4が第2の広角カメラ7と第2の追尾用カメラ6を有している。
<Embodiment 1>
FIG. 1 is a schematic configuration diagram of a mobile object image providing system according to the first embodiment. As shown in FIG. 1, a first imaging unit 3 having a visual field on the side of the platform and a second imaging unit 4 having a visual field on the side of the student from the platform side are provided. Wide-angle camera 1 and first tracking camera 2. Further, the second imaging means 4 has a second wide-angle camera 7 and a second tracking camera 6.

そして、第1の撮像手段3によって、教壇上のターゲット(学生、先生)を検出し、この学生ターゲットが多数のときには、学生ターゲット人数に応じた一定のズーム率で追尾撮影し、その追尾映像をホストコンピュータ10(先生側に配置)が遠隔視聴者端末31に送信する。また、学生ターゲットが1個の場合は、この学生ターゲットを追尾し、停止したときにズームインする。   Then, the first imaging means 3 detects targets on the platform (students and teachers). When there are a large number of student targets, tracking shooting is performed at a fixed zoom rate according to the number of student targets, and the tracking video is recorded. The host computer 10 (arranged on the teacher side) transmits to the remote viewer terminal 31. If there is only one student target, the student target is tracked and zoomed in when stopped.

さらに、第2の撮像手段4によって、教室内の学生全員の画像(受講者画像又は視聴者画像という)又は質問者のズームアップ画像を撮影し、これらの画像をホストコンピュータ10(教壇側に設ける)がモニタ8に表示することを可能としている。   Further, the second imaging means 4 takes images of all the students in the classroom (referred to as student images or viewer images) or zoomed-in images of the questioners, and these images are provided on the host computer 10 (the teacher's side). ) Can be displayed on the monitor 8.

(各部の構成)
前述の第1の追尾用カメラ2(ドームカメラ)及び第2の追尾用カメラ6はドーム状の外形形状を呈し内部にはカメラ部(図示せず)を備え、基部にはカメラ部をパン及びチルト動作させる駆動部をそれぞれ内蔵して天井等に固定されている。
(Configuration of each part)
The first tracking camera 2 (dome camera) and the second tracking camera 6 described above have a dome-like outer shape and have a camera part (not shown) inside, and the base part has a panning camera part. Each drive unit for tilting is built in and fixed to the ceiling or the like.

また、第1の広角カメラ1は第1の追尾用カメラ2の後方になるように、第2の広角カメラ7は第2の追尾用カメラ4の後方になるように、それぞれ所定間隔をおいて教室の天井に取り付けられている。第1の広角カメラ1は、追尾用カメラ2のドーム下部と教壇とを視野としている。第2の広角カメラ7は、第2の追尾用カメラ6の下部と学生側(聴講者側)を視野としている。   The first wide-angle camera 1 is located behind the first tracking camera 2 and the second wide-angle camera 7 is located behind the second tracking camera 4 at predetermined intervals. Attached to the ceiling of the classroom. The first wide-angle camera 1 has a view of the lower dome of the tracking camera 2 and the platform. The second wide-angle camera 7 has a field of view below the second tracking camera 6 and the student side (listener side).

また、第1の追尾用カメラ2及び第1の広角カメラ1は、第1の自動追尾装置12に接続され、この第1の自動追尾装置12によって遠隔制御される。この第1の自動追尾装置12は、第1の画像出力装置13に接続されている。これらを総称して教壇側監視用主制御装置14ともいう。   The first tracking camera 2 and the first wide-angle camera 1 are connected to a first automatic tracking device 12 and are remotely controlled by the first automatic tracking device 12. The first automatic tracking device 12 is connected to the first image output device 13. These are collectively referred to as the main control device 14 for monitoring the teaching side.

一方、第2の撮像手段4は、図1に示すように、教壇側から受講学生を監視する第2の広角カメラ7と第2の追尾カメラ6とを第2の自動追尾装置16に接続し、第2の自動追尾装置16は第2の画像出力装置17に接続している。これらを総称して生徒側監視用主制御装置19ともいう。     On the other hand, as shown in FIG. 1, the second imaging unit 4 connects a second wide-angle camera 7 and a second tracking camera 6 that monitor students from the teaching side to a second automatic tracking device 16. The second automatic tracking device 16 is connected to the second image output device 17. These are also collectively referred to as a student-side monitoring main controller 19.

前述の第1の自動追尾装置12及び第2の自動追尾装置16は、それぞれがCPU、DSP、RAM、ROM等(図示せず)によって、動き検出部、ターゲット追尾部、多数ターゲット範囲設定部、追尾カメラ制御部(ズーム機能を含む)等を実現している。   The first automatic tracking device 12 and the second automatic tracking device 16 described above each include a motion detection unit, a target tracking unit, a multiple target range setting unit, a CPU, a DSP, a RAM, a ROM, and the like (not shown). A tracking camera control unit (including a zoom function) is realized.

すなわち、広角カメラで捉えた広域映像の動き検出エリア内の移動体(学生、先生、…等:ターゲット)を動き検出部で検出し、移動体が学生であり、その学生数が一定数であれば、これらの学生を視野とする範囲を多数ターゲット範囲設定部が定めると共に、その中心を追尾点とする。そして、ターゲット追尾部がこの追尾点を追尾する。   That is, a moving object (student, teacher, etc .: target) in a motion detection area of a wide-area image captured by a wide-angle camera is detected by a motion detector, and the moving object is a student, and the number of students is constant. For example, the target range setting unit determines a range with these students as the field of view and sets the center as a tracking point. Then, the target tracking unit tracks this tracking point.

つまり、多数のターゲットが存在したときは、一定のズーム率で追尾撮影を可能にしている。   That is, when there are a large number of targets, tracking shooting can be performed at a constant zoom rate.

第1の画像出力装置13及び第2の画像出力装置17は、自動追尾装置12からの教壇監側視画像、自動追尾装置16からの学生側監視用画像を入力し、これらの画像を増幅してホストコンピュータ10の主コンピュータ21に送出する。   The first image output device 13 and the second image output device 17 are inputted with the supervision side view image from the automatic tracking device 12 and the student side monitoring image from the automatic tracking device 16 and amplify these images. To the main computer 21 of the host computer 10.

(自動追尾装置の構成)
第1の自動追尾装置12、第2の自動追尾装置16は図2に示す構成を有している。本実施の形態では、第1の自動追尾装置12を代表にして説明する。
(Configuration of automatic tracking device)
The first automatic tracking device 12 and the second automatic tracking device 16 have the configuration shown in FIG. In the present embodiment, the first automatic tracking device 12 will be described as a representative.

図2は第1の自動追尾装置12の概略構成図である。図2に示すように、第1の自動追尾装置12は、動き検出部120と、ターゲット追尾部121と、追尾カメラ制御部122と、多数ターゲット範囲設定部123等を備えている。   FIG. 2 is a schematic configuration diagram of the first automatic tracking device 12. As shown in FIG. 2, the first automatic tracking device 12 includes a motion detection unit 120, a target tracking unit 121, a tracking camera control unit 122, a multiple target range setting unit 123, and the like.

動き検出部12は、第1の広角カメラ1の光電変換された出力信号をデジタル画像信号に変換して第1のフレームメモリに保存し、第2のフレームメモリ(前回の画像用)に保存されている画像の画素値(例えば輝度)の差分を画素毎に求め、その差(絶対値)が大きい画素を「1」、小さい画素を「0」とした画素を生成(これを動き検出画像と本実施の形態では称する)する。前述の動き検出のために、動き検出部120は、メモリ124に予め設定されている動き検出エリア、マスクエリア等に基づいてターゲットを検出する。   The motion detection unit 12 converts the photoelectrically converted output signal of the first wide-angle camera 1 into a digital image signal, saves it in the first frame memory, and saves it in the second frame memory (for the previous image). The pixel value (for example, luminance) of the image is determined for each pixel, and a pixel having a large difference (absolute value) is “1” and a small pixel is “0” (this is referred to as a motion detection image). Referred to in this embodiment). For the above-described motion detection, the motion detection unit 120 detects a target based on a motion detection area, a mask area, or the like preset in the memory 124.

ターゲット追尾部121は、動き検出画像から値「1」の画素の「島(連結領域)」を切り出し、この切り出したターゲットが予め設定されているセンスエリアに存在するときに新たなターゲットと認識する。そして、切り出されたターゲットに対するシンボル符号(ターゲットがいると推定される座標を含むシンボル符号:追尾位置情報)を生成する(追尾)。但し、システム起動直前は、1個のターゲットのみを検出する。また、多数のターゲットを検出したとき、シンボル符号(追尾位置情報ともいう)を多数ターゲット範囲追尾設定部に出力する。   The target tracking unit 121 cuts out an “island (connected region)” of a pixel of value “1” from the motion detection image, and recognizes this as a new target when the cut out target exists in a preset sense area. . Then, a symbol code for the cut target (symbol code including coordinates estimated to be present: tracking position information) is generated (tracking). However, just before the system is started, only one target is detected. When a large number of targets are detected, a symbol code (also referred to as tracking position information) is output to the multiple target range tracking setting unit.

また、1個のターゲットを検出している場合に、そのターゲットが動きを停止したときは、ターゲット追尾停止信号(シンボル符号を含む)を出力している。   Further, when one target is detected and the target stops moving, a target tracking stop signal (including a symbol code) is output.

多数ターゲット範囲追尾設定部123は、図3に示すように、センスエリアに、例えば第1ターゲット(先生)の他に、第2ターゲット(学生)、第3ターゲット(学生)を示すシンボル符号(2個)がターゲット追尾部121から入力したときは、このシンボル符号に対応する第2のターゲット、第3のターゲットを引き当てる。つまり、第1のターゲット(先生)は、除かれる。   As shown in FIG. 3, the multiple target range tracking setting unit 123 includes, in the sense area, for example, a symbol code (2) indicating a second target (student) and a third target (student) in addition to the first target (teacher). Are input from the target tracking unit 121, the second target and the third target corresponding to this symbol code are allocated. That is, the first target (teacher) is excluded.

そして、第2のターゲット、第3のターゲットの重心を定め、センスエリアの両端から第2のターゲット、第3のターゲットの重心までの距離(L1、L2)を求め、センスエリア長LからL1、L2を引いて、所定の長mを加算して水平範囲を定める。そして、所定高さhの範囲Giを求め、この範囲の中心を追尾位置とする。つまり、第2,第3のターゲットの重心を結ぶ直線上に範囲Giの追尾点が定められる。   Then, the center of gravity of the second target and the third target is determined, the distances (L1, L2) from both ends of the sense area to the center of the second target and the third target are obtained, and the sense area length L to L1, A horizontal range is determined by subtracting L2 and adding a predetermined length m. Then, a range Gi of a predetermined height h is obtained, and the center of this range is set as the tracking position. That is, the tracking point of the range Gi is determined on a straight line connecting the centroids of the second and third targets.

ターゲット追尾部121は、範囲Giと、追尾点(座標位置)とからなる追尾情報を追尾カメラ制御部122に出力する。   The target tracking unit 121 outputs tracking information including the range Gi and the tracking point (coordinate position) to the tracking camera control unit 122.

追尾カメラ制御部122は、第1の追尾カメラ2のチルト角、パン角、ズーム比等を記憶し、前述の追尾情報を入力する毎に、この追尾情報の追尾位置に基づくチルト角、パン角を制御させてターゲットが第1の追尾カメラ2の視野角内に収まるようにして、かつ範囲Giのズーム比を制御する。この制御は、目的の角度になるように、それぞれの角度と速度とをそれぞれ制御する。つまり、追尾位置を目標値とする速度制御を行って角度制御に切り替えている。   The tracking camera control unit 122 stores the tilt angle, pan angle, zoom ratio, and the like of the first tracking camera 2, and every time the tracking information is input, the tilt angle and pan angle based on the tracking position of the tracking information. Is controlled so that the target falls within the viewing angle of the first tracking camera 2 and the zoom ratio of the range Gi is controlled. In this control, each angle and speed are controlled so as to achieve a target angle. That is, the speed control with the tracking position as the target value is performed to switch to the angle control.

映像重ね部31は、広角カメラ1からの広角カメラ映像又は追尾カメラ映像若しくは両方の映像を重ね合わせて画像出力装置13に送出する。   The video superimposing unit 31 superimposes the wide-angle camera video and / or tracking camera video from the wide-angle camera 1 and sends them to the image output device 13.

但し、学生側監視用主制御装置19の自動追尾装置16は、第2の送受信装置19に接続され、システムオンに伴って、第2の広角カメラ7の広角カメラ映像(生徒側広角カメラ映像)を画像出力装置17を介してホストコンピュータ8に送出する。   However, the automatic tracking device 16 of the student-side monitoring main control device 19 is connected to the second transmission / reception device 19, and the wide-angle camera image (student-side wide-angle camera image) of the second wide-angle camera 7 when the system is turned on. Is sent to the host computer 8 via the image output device 17.

また、第2の自動追尾装置16は、システムオン後に第1のターゲット(先生)が得られた場合において、学生が立ち上がったときは、その学生の移動を検出して質問者のターゲット)と認識し、所定のズーム比でズームアップさせる。そして、このズームアップ映像をホストコンピュータ8に送出する。   Further, when the first target (teacher) is obtained after the system is turned on and the student stands up, the second automatic tracking device 16 detects the movement of the student and recognizes it as the questioner's target). Then, the zoom is increased at a predetermined zoom ratio. Then, this zoom-up image is sent to the host computer 8.

このときのセンスエリア及び検出エリアは、図4に示すように着席範囲に対して上に長方形の形で設定されている。   The sense area and detection area at this time are set in a rectangular shape above the seating range as shown in FIG.

一方、ホストコンピュータ10は、アクセスポイントである送受信装置25に接続されている。   On the other hand, the host computer 10 is connected to a transmission / reception device 25 that is an access point.

また、モニタ8に対して学生監視用制御装置19からの学生画像または遠隔視聴者端末31が撮影した遠隔者画像を表示させる。   In addition, a student image from the student monitoring control device 19 or a remote person image taken by the remote viewer terminal 31 is displayed on the monitor 8.

また、ホストコンピュータ10は、教壇監視用主制御装置14からの教壇側画像をネットワーク(ブロードバンド)を介して遠隔視聴者端末31に送信する。   In addition, the host computer 10 transmits the teacher-side image from the teacher-monitoring main control device 14 to the remote viewer terminal 31 via the network (broadband).

さらに、ホストコンピュータ10には、スピーカ(図示せず)、液晶TVが接続され、スピーカからは質問者(遠隔視聴者、学生、)及び先生の音声を発生させ、携帯コントローラ28の指示に基づいて遠隔視聴者の映像を液晶TV(プロジェクタでもよい)に表示させる。   Further, a speaker (not shown) and a liquid crystal TV are connected to the host computer 10, and voices of questioners (remote viewers, students, and teachers) and teachers are generated from the speakers and based on instructions from the portable controller 28. The video of the remote viewer is displayed on a liquid crystal TV (or a projector).

また、本実施の形態は大教室で使用する場合もある。このような場合は広角カメラ、追尾用カメラは、図5(a)に示すように多数設ける場合もある。また、図5(b)に示すように、階段教室の床に対して光軸中心が平行になるように広角カメラを設け、追尾用カメラを広角カメラの上に設けてもよい。   Further, this embodiment may be used in a large classroom. In such a case, a large number of wide-angle cameras and tracking cameras may be provided as shown in FIG. In addition, as shown in FIG. 5B, a wide-angle camera may be provided so that the center of the optical axis is parallel to the floor of the staircase classroom, and the tracking camera may be provided on the wide-angle camera.

さらに、ホストコンピュータ10は、教室番号に年月日、講義開始時間、終了時間、講義名、担当講師名等を対応させた講義情報を予め保存している(図6)参照)。この講義情報は、月単位、週単位で管理するのが好ましい。   Furthermore, the host computer 10 stores in advance lecture information in which a classroom number is associated with a date, a lecture start time, an end time, a lecture name, a lecturer name in charge (see FIG. 6)). This lecture information is preferably managed on a monthly or weekly basis.

さらに、ホストコンピュータ10は、図7に示すモード表が予め記憶されている。このモード表は視聴覚教室モード、受講モード、監視モード等があり、マスク、ペン、チルト、速度、センス色等を行うかどうかを決めるものである。   Further, the host computer 10 stores a mode table shown in FIG. 7 in advance. This mode table includes an audiovisual classroom mode, a study mode, a monitoring mode, and the like, and determines whether to perform mask, pen, tilt, speed, sense color, and the like.

例えば、図8に示す表示される視聴覚教室モード、受講モード、監視モードが選択されると、ホストコンピュータのモード表に対応したマトリックスで基準の制御情報が決まるようにしている。そして、選択されたマトリックス情報が自動追尾装置に設定される。   For example, when the displayed audiovisual classroom mode, attendance mode, and monitoring mode shown in FIG. 8 are selected, the reference control information is determined by a matrix corresponding to the mode table of the host computer. The selected matrix information is set in the automatic tracking device.

さらに、図示しない各設備のコントロールボックスに接続され、このコントロールボックスは、液晶TV、ビュアー、プロゼェクター、照明コントロールボックス等に接続されている。   Furthermore, it is connected to a control box of each facility (not shown), and this control box is connected to a liquid crystal TV, a viewer, a projector, a lighting control box, and the like.

(動作説明)
図9は本実施の形態1のシステムの動作を説明するシーケンス図である。本実施の形態では、教室内の質問者は立ち上がることにしている。また、遠隔視聴者は、質問がある場合は、端末31に表示している質問ボタンを選択すると決めている。
(Description of operation)
FIG. 9 is a sequence diagram for explaining the operation of the system according to the first embodiment. In this embodiment, the questioner in the classroom stands up. Further, the remote viewer has decided to select the question button displayed on the terminal 31 when there is a question.

このような取り決めの元で、先生は教室に入ると、携帯コントローラ28を操作して、システムオン(受講モード)をホストコンピュータ10に送信させる(d1)。ホストコンピュータ10は、システムオン信号を送受信装置25を介して受信したときは、直ちに学生側監視用主制御装置19及び教壇監視用主制御装置14を起動させる(d2)。このシステムオン信号は、携帯コントローラ28のID、送受信装置25のID、講師コード(講義名、担当講師、年月日、時間)からなる。   Under this arrangement, when the teacher enters the classroom, the teacher operates the portable controller 28 to transmit a system-on (learning mode) to the host computer 10 (d1). When the host computer 10 receives the system-on signal via the transmission / reception device 25, the host computer 10 immediately activates the student-side monitoring main control device 19 and the textbook monitoring main control device 14 (d2). This system-on signal includes the ID of the portable controller 28, the ID of the transmission / reception device 25, and the lecturer code (lecture name, lecturer in charge, date, time).

また、ホストコンピュータ10は、システムオン信号を受信したときは、予め保存されている該当の教室の初期教室画像(図10参照)を抽出してモニタ8に送信する(d3)。   Further, when receiving the system-on signal, the host computer 10 extracts an initial classroom image (see FIG. 10) stored in advance for the corresponding classroom and transmits it to the monitor 8 (d3).

また、教壇側監視用主制御装置14は、システムオンに伴って広角カメラ1が撮影した教壇側画像をホストコンピュータ10に送出し(d4)、ホストコンピュータ10は教壇側画像をネットワークを介して遠隔者端末31に送信し(d5)、かつモニタ8に送出する(d6)。このときの教壇側画像の推移については後述する。   In addition, the main control device 14 for monitoring the platform side sends the platform side image captured by the wide-angle camera 1 to the host computer 10 when the system is turned on (d4), and the host computer 10 remotely transmits the platform side image via the network. To the user terminal 31 (d5) and to the monitor 8 (d6). The transition of the text side image at this time will be described later.

また、学生側監視用主制御装置19は、システムオンに伴って広角カメラ7が撮影した学生側画像をホストコンピュータ10に送出する(d7)。ホストコンピュータ10は学生側画像の入力に伴って、教壇側画像に代えて学生側画像をモニタ8に出力する(d8)。   Further, the student-side monitoring main control device 19 sends the student-side image captured by the wide-angle camera 7 to the host computer 10 when the system is turned on (d7). In response to the input of the student side image, the host computer 10 outputs the student side image to the monitor 8 instead of the platform side image (d8).

そして、学生が立ち上がると、学生側監視用主制御装置19は、この学生を含んだ学生側画像をホストコンピュータ10に送出し(d9)、ホストコンピュータ10は遠隔視聴者端末31及びモニタ8に送信する(d10、d11)。   When the student starts up, the student-side monitoring main control device 19 sends the student-side image including the student to the host computer 10 (d9), and the host computer 10 transmits it to the remote viewer terminal 31 and the monitor 8. (D10, d11).

学生側監視用主制御装置19は、図4に示すように、動き検出エリア(センスエリアと同じにしている)を設定しているので、学生が立ち上がったときは、動き検出部がその学生の動き検出画像をとらえる。   As shown in FIG. 4, the student-side monitoring main control unit 19 has a motion detection area (the same as the sense area). Therefore, when the student starts up, the motion detection unit Capture motion detection images.

次に、ターゲット追尾部121が図4に示すセンスエリアに存在しているときは新たなターゲットとして認識し、このターゲット(質問者ターゲット)の重心(中心部)を決めて追尾カメラ制御部122に追尾させると共に、所定のズーム比で質問者ターゲットをズームインさせる(図11参照)。   Next, when the target tracking unit 121 exists in the sense area shown in FIG. 4, the target tracking unit 121 recognizes it as a new target, determines the center of gravity (center portion) of this target (questioner target), and sends it to the tracking camera control unit 122. In addition to tracking, the interrogator target is zoomed in at a predetermined zoom ratio (see FIG. 11).

すなわち、学生側監視用主制御装置19からは、この質問者のズームイン画像がホストコンピュータ10に送出される(d12)。   In other words, the student-side monitoring main control device 19 sends the interrogator's zoomed-in image to the host computer 10 (d12).

ホストコンピュータ10は、質問者のズームイン画像を遠隔視聴者端末31及びモニタ8に送信する(d13、d14)。すなわち、遠隔視聴者端末31及びモニタ8には、立ち上がって質問の意思を示した質問者のズームアップ画像が表示されることになる。   The host computer 10 transmits the zoomed-in image of the questioner to the remote viewer terminal 31 and the monitor 8 (d13, d14). That is, the remote viewer terminal 31 and the monitor 8 display a zoom-up image of the questioner who has stood up and indicated the intention of the question.

そして、図9に示すように、質問者が座ると、図4に示すセンスエリア及び動き検出エリアを出ることになるからターゲット追尾部121は、その質問者のターゲットの追尾を解除する。この追尾解除に伴って、追尾カメラ制御部122は、学生全員をとらえるズーム比でズームアウトする。   Then, as shown in FIG. 9, when the questioner sits, the target tracking unit 121 cancels the tracking of the target of the questioner because the sense area and the motion detection area shown in FIG. 4 are left. With this tracking cancellation, the tracking camera control unit 122 zooms out at a zoom ratio that captures all students.

すなわち、前述の教壇側画像がホストコンピュータ10に送出されて(d15)、モニタ8及び遠隔視聴者端末31に送信される(d16,d17)。   That is, the above-mentioned text image is sent to the host computer 10 (d15) and transmitted to the monitor 8 and the remote viewer terminal 31 (d16, d17).

一方、遠隔視聴者が遠隔視聴者端末31の質問ボタン(図示せず)を操作して質問する場合もある。この質問ボタンの選択によって、遠隔視聴者端末31は、視聴者IDと質問コードとをホストコンピュータ10に送信する(d18)。   On the other hand, the remote viewer may ask a question by operating a question button (not shown) of the remote viewer terminal 31. By selecting this question button, the remote viewer terminal 31 transmits the viewer ID and the question code to the host computer 10 (d18).

ホストコンピュータ10には、教室番号に年月日、講義開始時間、終了時間、講義名、担当講師名、視聴者登録許可ID等を対応させた講義情報を予め保存している。この講義情報は、月単位、週単位で管理するのが好ましい。   The host computer 10 stores in advance lecture information in which a classroom number is associated with a date, a lecture start time, an end time, a lecture name, a lecturer name, a viewer registration permission ID, and the like. This lecture information is preferably managed on a monthly or weekly basis.

ホストコンピュータ10は、遠隔視聴者端末31からの視聴者質問情報の視聴者IDと講義情報とを比較し、一致しるIDが存在したときは、その視聴者からの質問を受け付け、視聴者IDに対応させて記憶している地域名及び氏名(遠隔質問者情報)をモニタ8に送信する(d19)。つまり、どこの誰かが分かるようにしている。   The host computer 10 compares the viewer ID of the viewer question information from the remote viewer terminal 31 with the lecture information, and if there is a matching ID, the host computer 10 receives the question from the viewer and receives the viewer ID. The area name and the name (remote questioner information) stored in correspondence with are transmitted to the monitor 8 (d19). In other words, someone is trying to understand.

先生は携帯コントローラ28を操作してモニタ8に表示された遠隔質問者情報を選択すると(d20)、ホストコンピュータ10は直ちに遠隔視聴者端末31に対して映像要求コマンドを送信し(d21)、遠隔地点の視聴者の画像を撮影させて送信させる(d22)。   When the teacher operates the portable controller 28 and selects the remote questioner information displayed on the monitor 8 (d20), the host computer 10 immediately transmits a video request command to the remote viewer terminal 31 (d21). An image of the viewer at the point is taken and transmitted (d22).

ホストコンピュータ10は、この遠隔地点の視聴者の画像をモニタ8に送信させる(d23)。すなわち、先生は、遠隔地点の視聴者の顔が分かるので、どんな方が質問しているかを把握できる。   The host computer 10 transmits the image of the viewer at this remote location to the monitor 8 (d23). In other words, the teacher can understand the face of the viewer at the remote location, so that he can understand who is asking the question.

(教壇側監視用主制御装置の動作)
ここで、教壇側監視用主制御装置の動作について説明を補充する。初めに先生は、ホストコンピュータ10を操作して、システムオンを行うと、図10に示す各種機器を操作する操作アイコン、教室のイメージ図が表示される。こイメージ図は教室に応じて表示される。
(Operation of the main control device for teaching side monitoring)
Here, the description of the operation of the main control device for monitoring the teaching side is supplemented. First, when the teacher operates the host computer 10 to turn on the system, operation icons for operating various devices shown in FIG. 10 and an image of the classroom are displayed. This image is displayed according to the classroom.

そして、例えば、先生が教壇に入ると、広角カメラ1が撮影した映像は図12(a)に示す全体を撮影した教壇側画像となる。   For example, when the teacher enters the platform, the video captured by the wide-angle camera 1 becomes a platform-side image captured of the entire image shown in FIG.

さらに先生が進んで行くと、教壇監視用主制御装置14の自動追尾装置12の動き検出部120は、以下に説明する処理によって先生の動き画像を検出し、ターゲット追尾部121、追尾カメラ制御部122が図12(b)のズーム映像を得る。   When the teacher further proceeds, the motion detection unit 120 of the automatic tracking device 12 of the main control device 14 for monitoring the platform detects the teacher's motion image by the processing described below, and the target tracking unit 121, the tracking camera control unit 122 obtains the zoom image of FIG.

具体的には、動き検出部120がメモリ(ROM、RAM)に保存されている動き検出エリア(座標で定義)と広角カメラ1で撮影した教壇側画像と比較し、この教壇側画像が動き検出エリアに存在したときは、動き検出画像(先生)として検出する。   Specifically, the motion detection unit 120 compares the motion detection area (defined by coordinates) stored in the memory (ROM, RAM) with the platform side image captured by the wide-angle camera 1, and the platform side image detects motion. When it exists in the area, it is detected as a motion detection image (teacher).

次に、ターゲット追尾部121が先生の動き検出画像を切り出し、このターゲットの追尾位置情報を生成する。ターゲット追尾部121は、メモリに保存されているセンスエリアに(図12のcを参照)、ターゲットが存在しているときに(ターゲットを検出したとき)、追尾位置情報を追尾カメラ制御部122に出力してズームインさせる。   Next, the target tracking unit 121 cuts out the teacher's motion detection image and generates tracking position information of the target. The target tracking unit 121 sends tracking position information to the tracking camera control unit 122 when a target exists (when a target is detected) in the sense area stored in the memory (see c in FIG. 12). Output and zoom in.

センスエリアは、追尾カメラのチルト方向の動きを抑制するための手段として簡易的な方法として横一文字にしている。   The sense area is a single horizontal character as a simple method for suppressing the movement of the tracking camera in the tilt direction.

追尾カメラ制御部122は、追尾位置情報に基づいて追尾カメラのパン・チルト、ズーム比等を制御する。これによって、図11(b)に示すズーム映像が得られることになる。   The tracking camera control unit 122 controls pan / tilt, zoom ratio, and the like of the tracking camera based on the tracking position information. As a result, the zoom image shown in FIG. 11B is obtained.

すなわち、広角カメラの映像は映像切出し手段(図示せず)にて所定の映像として取り出されることにより、これに基づくカメラ制御情報が追尾カメラの駆動部(図示せず)に送出されて、追尾カメラがパン/チルト動作を行う。   That is, the video of the wide-angle camera is taken out as a predetermined video by a video cutting means (not shown), and camera control information based on the video is sent to a driving unit (not shown) of the tracking camera. Performs pan / tilt operation.

このズーム映像(先生)が画像出力装置に取り込まれてホストコンピュータに出力されて、HDD(圧縮)に保存される。   This zoom image (teacher) is taken into the image output device, outputted to the host computer, and stored in the HDD (compression).

そして、学生が何らかの質問で教壇に上がったとすると(図13のaを参照)、動き検出部120は、前回の広角カメラ映像と今回の広角カメラ映像と比較して、センスエリアの場合は学生を新たなターゲットして認識する。この認識によって、遠隔視聴者端末31には図13(a)に示す学生と先生を視野とする全体の映像が送信される。つまり、画像が切り替わる。そして、ターゲット追尾部121は、新たなターゲットの追尾位置情報を求めて追尾カメラ制御部122に出力する。追尾カメラ制御部122は新たなターゲットに対してチルト、パン、ズーム比を求めてズームインさせる(図13(b)参照)。   If the student goes up to the platform with some question (see a in FIG. 13), the motion detection unit 120 compares the previous wide-angle camera image with the current wide-angle camera image, and determines the student in the sense area. Recognize as a new target. Due to this recognition, the remote viewer terminal 31 is transmitted with the entire image shown in FIG. That is, the images are switched. Then, the target tracking unit 121 calculates tracking position information of a new target and outputs it to the tracking camera control unit 122. The tracking camera control unit 122 obtains a tilt, pan, and zoom ratio for a new target and zooms in (see FIG. 13B).

さらに、学生が新たに入って教壇に学生が二人になったときは(図14(a)参照)、先生と先の学生の追尾を停止させると共に、新たなターゲットの追尾位置情報を多数ターゲット範囲追尾設定部123に出力する。   Furthermore, when a new student enters the platform and there are two students (see Fig. 14 (a)), the tracking of the teacher and the previous student is stopped, and a large number of tracking information of new targets are targeted. The data is output to the range tracking setting unit 123.

また、多数ターゲット範囲追尾設定部123は、ターゲットが複数となったので、生徒二人の中心に追尾位置情報を定めている。   Further, since the multiple target range tracking setting unit 123 has a plurality of targets, tracking position information is determined at the center of two students.

つまり、、第2のターゲット、第3のターゲットの重心を定め、センスエリアの両端から第2のターゲット、第3のターゲットの重心までの距離(L1、L2)を求め、センスエリア長LからL1、L2を引いて、所定の長mを加算して水平範囲を定める。そして、所定高さhの範囲Giを求め、この範囲の中心を追尾位置とする。つまり、第2,第3のターゲットの重心を結ぶ直線上に範囲Giの追尾点が定められる。   That is, the centroids of the second target and the third target are determined, the distances (L1, L2) from both ends of the sense area to the centroid of the second target and the third target are obtained, and the sense area length L to L1 , L2 is subtracted and a predetermined length m is added to define the horizontal range. Then, a range Gi of a predetermined height h is obtained, and the center of this range is set as the tracking position. That is, the tracking point of the range Gi is determined on a straight line connecting the centroids of the second and third targets.

これによって、追尾カメラ制御部は、二人の学生が収まるようにチルト、パン角度、ズーム比を求めてズームアップして追尾する(図14(b)参照)。   As a result, the tracking camera control unit obtains the tilt, pan angle, and zoom ratio so as to accommodate two students, and zooms in to track (see FIG. 14B).

従って、自動追尾装置7からは、学生二人を纏めてズームインした映像が出力される。   Accordingly, the automatic tracking device 7 outputs an image in which two students are zoomed in together.

さらに、図15に示すようにマスクエリアを設定できるようにし、例えばプロゼェクターが投影した映像等を誤ってターゲットとして認識しないようにするのが好ましい。このマスク領域は色を付与しておくのが好ましい。     Further, it is preferable that a mask area can be set as shown in FIG. 15 so that, for example, an image projected by a projector is not erroneously recognized as a target. This mask region is preferably colored.

次に、前述の動き検出及び追尾処理について図16のフローチャートを用いて説明を補充する。本実施の形態は自動追尾装置12を代表にして説明する。   Next, the description of the motion detection and tracking process described above will be supplemented using the flowchart of FIG. In this embodiment, the automatic tracking device 12 will be described as a representative.

動き検出部120は、システムオンに伴ってメモリの動き検出エリアと、センスエリアとマスクエリアとホストコンピュータ10からのモード表に基づく制御値を内部に設定する(S1601)。   When the system is turned on, the motion detection unit 120 internally sets control values based on the motion detection area of the memory, the sense area, the mask area, and the mode table from the host computer 10 (S1601).

次に、動き検出・切り出し処理を行う(S1602)。動き検出部120で動き検出エリアで動き検出を行い、その動き検出映像をターゲット追尾部122が切り出して、シンボル符号を定めている。   Next, motion detection / cutout processing is performed (S1602). The motion detection unit 120 performs motion detection in the motion detection area, and the target tracking unit 122 cuts out the motion detection video to determine the symbol code.

本実施の形態ではシステムオン直後であるから追尾カメラ2は、ズームアウトされているので、広角カメラ1の教室全体の映像が取得されている。   Since the tracking camera 2 is zoomed out since the system is turned on in the present embodiment, an image of the entire classroom of the wide-angle camera 1 is acquired.

次に、システムオン直後かどうかを判断する(S1603)。ステップS1603において、システムオン直後と判断したときは、ターゲットは1個かどうかを判断する(S1604)。ステップS1604において、ターゲットが1個と判断したときは、追尾処理部が第1ターゲットを中心として一定範囲をズームインさせる追尾処理を行う(S1605)。つまり、先生が動き検出エリアに入り、かつセンスエリアに存在するときは、新たなターゲットとして認識し、ズームイン処理が行われる
また、ステップS1604において、ターゲットが1個ではないと判定したときは(生徒が入ってきたとき、)、ターゲットは2個以上かどうかを判断する(S1606)。
Next, it is determined whether or not the system is immediately on (S1603). If it is determined in step S1603 that the system has just been turned on, it is determined whether there is one target (S1604). If it is determined in step S1604 that the number of targets is one, the tracking processing unit performs a tracking process for zooming in on a certain range around the first target (S1605). That is, when the teacher enters the motion detection area and exists in the sense area, it is recognized as a new target, and zoom-in processing is performed. When it is determined in step S1604 that there is not one target (student ), It is determined whether there are two or more targets (S1606).

ステップS1606において、ターゲットが2個以上と判定したときは、ターゲット数を判定する(S1607)。ステップS1607において、ターゲット数が2個以内と判定したときは、ターゲット追尾部は、第1のターゲット(先生)に対してズームアウトをさせる信号を生成し(S1611a)、初めの小ターゲット(生徒)を基準にして所定の範囲をズームインする制御信号を生成して(S1611b)、処理をステップS1610に移す。   If it is determined in step S1606 that there are two or more targets, the number of targets is determined (S1607). If it is determined in step S1607 that the number of targets is two or less, the target tracking unit generates a signal for zooming out the first target (teacher) (S1611a), and the first small target (student) A control signal for zooming in on a predetermined range is generated with reference to (S1611b), and the process proceeds to step S1610.

また、ステップS1607において、ターゲット数が3個以上と判定したときは、第1のターゲットをズームアウトさせ(S1608)、小ターゲット同士(生徒)の距離を求め、この距離を基準にしたズームイン範囲を決定して、ズームインさせ(S1609)、追尾処理を行う(S1610)。つまり、生徒がセンスエリアを出たときは、先生のターゲットに追尾が引き継がれる。   If it is determined in step S1607 that the number of targets is three or more, the first target is zoomed out (S1608), the distance between the small targets (students) is obtained, and a zoom-in range based on this distance is determined. A decision is made to zoom in (S1609), and a tracking process is performed (S1610). In other words, when a student leaves the sense area, tracking is handed over to the teacher's target.

従って、ターゲットがセンスエリアから抜け出るとズームアウトになるが、その後カメラアングルを引いたのと同じ広角カメラ映像が学生端末に表示されることになるから自然な状態となり、遠隔教育などには好ましい撮影形態となる。このため聴講生はカメラ酔いをするようなことも無く自然な映像を取得できる。   Therefore, when the target moves out of the sense area, it zooms out, but then the same wide-angle camera image that the camera angle is pulled will be displayed on the student terminal, so it will be in a natural state, which is preferable for distance education etc. It becomes a form. For this reason, auditors can acquire natural images without camera sickness.

そして、引き続き、講義が開始され、先生に対して複数の学生が教壇に近づき(レポート提出及びロールプレーイングのような)センスエリア内に入るとシステムは複数(例えば3以上の複数)であると認識し、追尾カメラ2にズームアウト信号を送信)して映像はズームアウトしたものとなる。このズームアウト動作は、撮像領域をセンタ位置に戻した後に実行される。また、ズームアウト動作は、先にズームアウトしてからセンター位置にもどす方法も有効であり、ターゲットを写しながら、プリセット・センタ位置に戻るので、物体を見のがさないことになり、より効果的である。   Then, when the lecture is started and multiple students approach the teacher and enter the sense area (such as report submission and role playing), the system is multiple (for example, three or more). The image is zoomed out by recognizing and transmitting a zoom-out signal to the tracking camera 2). This zoom-out operation is executed after the imaging area is returned to the center position. In addition, the zoom-out operation is also effective because it can be zoomed out first and then returned to the center position, returning to the preset center position while copying the target, so that the object will not be missed. .

<実施の形態2>
図17は実施の形態2の自動追尾装置の詳細構成図である。図17において図1と同一のものは同一符号を付している。
<Embodiment 2>
FIG. 17 is a detailed configuration diagram of the automatic tracking apparatus according to the second embodiment. In FIG. 17, the same components as those in FIG.

実施の形態2のシステムは、広角カメラ2の広域映像を動き検出部120の動き検出手段120aが入力し、動き検出部120が変化があった画像情報(セルの集合)のみを検出する。そして、この検出画像がメモリ120bの動き検出エリアに存在しているかどうかを判断する。このとき、関係のない箇所を検出しないようにメモリ120cのマスクエリアを避けて検出している。   In the system according to the second embodiment, the motion detection unit 120a of the motion detection unit 120 inputs a wide-area video image of the wide-angle camera 2, and the motion detection unit 120 detects only the image information (cell set) that has changed. Then, it is determined whether or not this detected image exists in the motion detection area of the memory 120b. At this time, the detection is performed by avoiding the mask area of the memory 120c so as not to detect an unrelated part.

また、メモリ121bには、特定の色を検出するためのセンス色、特定形状のものがあるかどうかを検出するためのセンス形状とを保存している。   The memory 121b stores a sense color for detecting a specific color and a sense shape for detecting whether there is a specific shape.

ターゲット追尾部121の切り出し手段121aは、動きがある画像を検出すると、動いている物体の有無と、切り出した動き検出画像の大きさと、位置と、移動方向と、移動速度と、センスエリアを通過したかどうかの有無と、動き検出画像が特定の色を有しているかの有無とをバッファ50に保存する。   When the clipping unit 121a of the target tracking unit 121 detects a moving image, the clipping unit 121a passes through the sense area, the presence / absence of a moving object, the size, position, moving direction, moving speed, and sensing area of the clipped motion detection image. Whether the motion detection image has a specific color or not is stored in the buffer 50.

また、切り出し手段121aは、バッファ51にメモリ121bに基づく特定形状を検出したかの有無と、その特定形状の大きさと、種類とをバッファ51に保存している。   In addition, the cutout unit 121 a stores in the buffer 51 whether or not a specific shape based on the memory 121 b is detected in the buffer 51, the size and type of the specific shape.

これらは、システムバスに接続され、コンピュータ41(CPU41)で解読されて、追尾カメラ2の制御データが得られるようにしている。   These are connected to the system bus and decoded by the computer 41 (CPU 41) so that control data of the tracking camera 2 can be obtained.

また、追尾カメラ2からのアナログ映像信号は、A/D変換手段53でデジタル変換されてCPU41によって画像記憶装置60に保存(HDD、MPEG、JPEG圧縮)される。   The analog video signal from the tracking camera 2 is digitally converted by the A / D conversion means 53 and stored in the image storage device 60 (HDD, MPEG, JPEG compression) by the CPU 41.

また、集音マイク43の音声信号はA/D変換手段54によってデジタル変換されて、CPU41によって画像記憶装置16に保存される。   The audio signal from the sound collection microphone 43 is digitally converted by the A / D conversion means 54 and stored in the image storage device 16 by the CPU 41.

一方、CPU41は、バッファメモリ50、51に保存されているデータを順次読込み、バッファ56に保存すると共に、位置情報に基づいてパン、チルト各、ズーム比を制御する追尾制御信号を、バッファ56のカメラ状態から生成して追尾カメラ制御部122に出力する。   On the other hand, the CPU 41 sequentially reads the data stored in the buffer memories 50 and 51 and stores the data in the buffer 56, and sends tracking control signals for controlling pan, tilt, and zoom ratio based on the position information in the buffer 56. It is generated from the camera state and output to the tracking camera control unit 122.

追尾カメラ制御部122は、メモリ40のカメラパラメータを読み込んで、追尾制御信号に基づくコントロール信号を追尾カメラ20に力する。   The tracking camera control unit 122 reads the camera parameters in the memory 40 and applies a control signal based on the tracking control signal to the tracking camera 20.

また、メモリ55には、教室毎の情報(マスク範囲、動き検出エリア、センスエリア、特定のセンス色等)が操作手段によって保存され、これらの教室情報をシステムオンに伴って動き検出部120、ターゲット追尾部121に設定している。   The memory 55 stores information for each classroom (mask range, motion detection area, sense area, specific sense color, etc.) by the operation means, and these classroom information is stored in the motion detection unit 120 when the system is turned on. The target tracking unit 121 is set.

さらに、メモリ55には、映像ジェスチャー、音声ジェスチャーを保存することで、特定のジェスチャー、音声を発生したときに、ズームインするようにしている。   Furthermore, the memory 55 stores video gestures and voice gestures so that zoom-in is performed when a specific gesture or voice is generated.

そして、各種機器の操作と共にカメラの使用モードを切り換えるメニューを呼び出すことにより、例えば視聴覚教育モード、監視モード、及び受講モードに適宜変更することもできるようにしている。本実施の形態では視聴覚教育モードに設定とする。   Then, by calling a menu for switching the camera use mode along with the operation of various devices, it is possible to appropriately change to, for example, the audiovisual education mode, the monitoring mode, and the attendance mode. In this embodiment, the audiovisual education mode is set.

<実施の形態4>
本実施の形態4は、各学生が学生端末を備え、この学生端末の画面に教壇側画像または質問者のズームアップ画像を表示させるシステムである。
<Embodiment 4>
The fourth embodiment is a system in which each student has a student terminal, and a platform image or a zoomed-in image of a questioner is displayed on the screen of the student terminal.

図18は実施の形態4の移動体撮像システムの概略構成図である。本実施の形態では、教壇側監視用主制御装置26が自動追尾装置12と画像出力装置13とアクセスポイントである送受信装置27とを備える。また、生徒側監視用主制御装置28は、自動追尾装置16と画像出力装置17とアクセスポイントである送受信装置29とを備えている。 FIG. 18 is a schematic configuration diagram of a moving body imaging system according to the fourth embodiment. In the present embodiment, the platform-side monitoring main control device 26 includes an automatic tracking device 12, an image output device 13, and a transmission / reception device 27 as an access point. The student-side monitoring main control device 28 includes an automatic tracking device 16, an image output device 17, and a transmission / reception device 29 as an access point.

また、教室内のテーブルには、学生端末9i(9a、9b、9c、…:マイク付きが好ましい)を備えている。   The table in the classroom is equipped with student terminals 9i (9a, 9b, 9c,..., Preferably with a microphone).

そして、第1の撮像手段3によって撮影された教壇上のターゲット(学生、先生)の追尾映像(教壇側画像)をホストコンピュータ40を介して学生端末9i(9a、9b、9c、…)、遠隔視聴者端末31に送信する。   Then, a tracking image (an image on the side of the teacher) on the platform (student, teacher) photographed by the first imaging means 3 is sent via the host computer 40 to the student terminal 9i (9a, 9b, 9c,...) It transmits to the viewer terminal 31.

また、第2の撮像手段4によって撮影された学生側画像を学生端末9i、モニタ8、遠隔視聴者端末31に送信する。   In addition, the student-side image captured by the second imaging unit 4 is transmitted to the student terminal 9 i, the monitor 8, and the remote viewer terminal 31.

(各部の構成)
学生端末9i(9a、9b、…)は、本システムの映像の提供を受けるときは、学生番号、講義番号、年月日、学生ID、コンテンツ種類(追尾ズーム映像の有無)等からなる端末要求情報を入力させて、教壇側画像(広角、追尾、ズーム含む)又は学生側画像の提供を受ける。 前述の端末要求情報、映像の送受信のために無線PCカードで行える機能を有している。
(Configuration of each part)
When the student terminal 9i (9a, 9b,...) Receives the video of this system, the terminal request including the student number, the lecture number, the date, the student ID, the content type (whether or not the tracking zoom video is present), etc. Enter information and receive a lecture-side image (including wide-angle, tracking, zoom) or student-side image. It has a function that can be performed by the wireless PC card for transmitting and receiving the above-mentioned terminal request information and video.

前述の送受信装置(アクセスポイント)は、それぞれが教室の壁、天井に設けられている。これらの送受信装置は、内部にMAC回路、ベースバンドプロセッサ、周波数変換回路、アンテナ(ダイパーシティ方式)、RAM、ROM、CPU等を備え、学生端末9iから端末要求情報を受信したとき、この端末要求情報を画像出力装置に送出し、許可信号を得たとき、自動追尾装置の広角カメラ映像、追尾ズーム映像をその学生端末9iに送信する。   Each of the aforementioned transmission / reception devices (access points) is provided on the classroom wall and ceiling. These transmission / reception devices are internally provided with a MAC circuit, a baseband processor, a frequency conversion circuit, an antenna (diversity method), a RAM, a ROM, a CPU, and the like. When terminal request information is received from the student terminal 9i, this terminal request When the information is sent to the image output device and the permission signal is obtained, the wide-angle camera image and the tracking zoom image of the automatic tracking device are transmitted to the student terminal 9i.

一方、ホストコンピュータ40は、学生端末からのコンテンツ種別を判断し、質問者のズームの要求があるときは、課金処理をする機能を有している。つまり、質問者のズーム画面は本システムでは課金を行う。   On the other hand, the host computer 40 has a function of determining the content type from the student terminal and performing a billing process when the questioner requests zooming. In other words, the questioner's zoom screen charges for this system.

<実施の形態5>
実施の形態5は先生が追尾している場合で、複数(1名〜5名)の学生が教壇に上がって来たとすると、最初は先生だけを追尾させる。
<Embodiment 5>
The fifth embodiment is a case where the teacher is tracking, and when a plurality (1 to 5 students) of students come up to the platform, only the teacher is tracked first.

そして、自動追尾装置16は、学生が1名、2名…とセンスエリアに入ってきた場合、学生1人目でターゲットチェンジをし、学生が2人目以上入ってきた場合、入ってきた学生全員(リミットは例えば5名)が撮影できるように、追尾用カメラ2を徐々に若しくはステップでズームを引かせるようにする。   The automatic tracking device 16 changes the target when the student enters the sense area with one, two, and so on. When the student enters more than one, all the students who have entered ( The tracking camera 2 is gradually or stepwise zoomed so that the limit can be photographed by, for example, five people.

また、このときに、ある学生(動いている)が先生と交叉してしまった場合は、先生も学生と見なして、ズームのターゲットとして認識する。そして、例えば6人目の学生が入ってきたら、センター位置でズームを引ききってしまう動作をさせる。、
なお、上記実施の形態の各自動追尾装置をカメラと一体化したカメラ装置として構成してもよい。
At this time, if a student (moving) crosses the teacher, the teacher is also regarded as a student and is recognized as a zoom target. For example, when a sixth student comes in, the zooming is performed at the center position. ,
In addition, you may comprise each automatic tracking apparatus of the said embodiment as a camera apparatus integrated with the camera.

本実施の形態1の移動体画像提供システムの概略構成図である。It is a schematic block diagram of the mobile body image provision system of this Embodiment 1. 本実施の形態1の自動追尾装置の概略構成図である。It is a schematic block diagram of the automatic tracking apparatus of this Embodiment 1. 多数ターゲットのズームインを説明する説明図である。It is explanatory drawing explaining zoom-in of many targets. 教室内の質問者を検出するための検出エリア、センスエリアを説明する説明図である。It is explanatory drawing explaining the detection area for detecting the questioner in a classroom, and a sense area. 撮像装置を多数設けた場合の説明図である。It is explanatory drawing at the time of providing many imaging devices. 講義情報の説明図である。It is explanatory drawing of lecture information. 設定状況モード表の説明図である。It is explanatory drawing of a setting condition mode table | surface. カメラモードの設定画面を説明する説明図である。It is explanatory drawing explaining the setting screen of a camera mode. 本実施の形態の動作を説明するシーケンス図である。It is a sequence diagram explaining operation | movement of this Embodiment. 初期画面を説明する説明図である。It is explanatory drawing explaining an initial screen. 質問者ズーム表示を説明する説明図である。It is explanatory drawing explaining a questioner zoom display. 広角カメラ、パンチルト、追尾を説明する説明図である。It is explanatory drawing explaining a wide angle camera, pan tilt, and tracking. 検出エリア(センスエリア、動き検出エリア)の説明図である。It is explanatory drawing of a detection area (sense area, motion detection area). 多数ターゲット追尾を説明する説明図である。It is explanatory drawing explaining multiple target tracking. 本実施の形態のマスクエリアの説明図である。It is explanatory drawing of the mask area of this Embodiment. 実施の形態1の自動追尾装置の動作を説明するフローチャートである。3 is a flowchart for explaining the operation of the automatic tracking device according to the first embodiment. 本実施の形態2の自動追尾装置の概略構成図である。It is a schematic block diagram of the automatic tracking apparatus of this Embodiment 2. 本実施の形態4の移動体撮像システムの概略構成図である。It is a schematic block diagram of the mobile body imaging system of this Embodiment 4.

符号の説明Explanation of symbols

3 第1の撮像手段
4 第2の撮像手段
9 教室内の学生端末
12 第1の自動追尾装置
14 教壇側監視用主制御装置
16 第2の自動追尾装置
19 生徒側監視用主制御装置
3 First image pickup means 4 Second image pickup means 9 Student terminal 12 in the classroom First automatic tracking device 14 Main controller for teaching platform side 16 Second automatic tracking device 19 Main control device for student side monitoring

Claims (9)

聴講会場の講師が講義する教壇側の映像をネットワークを介して受講者端末に提供する一方、前記講師から受講者側を見た受講者側の映像を、講師側の端末、指定の端末に提供する移動体撮像方法であって、
(a).前記講師側の第1の広域映像、第1のズーム映像からなる講師側画像を第1の撮像手段で撮影させる工程と、
(b).前記受講者側の第2の広域映像及び第2のズーム映像からなる受講者側画像を第2の撮影手段で撮影する工程とを有し、
主制御装置は、
(c).前記第1の撮像手段の前記講師側画像を前記ネットワークを介して前記講師側の端末又は指定の端末に提供する工程と、
(d).前記講師側画像の第1の広域映像から第1のターゲットを検出して追尾すると共に、その第1のターゲットの前記第1のズーム映像を前記ネットワークを介して前記講師側の端末、指定の端末に提供する工程と、
(e).前記第2の撮像手段の受講者側画像を前記ネットワークを介して前記講師側の端末又は指定の端末に提供する工程と、
(f).前記受講者側画像から第2のターゲットを検出して前記講師の端末、指定の端末に前記第2のターゲットの第2のズーム映像を撮影させて前記ネットワークを介して前記講師の端末、指定の端末に提供する工程と
を有することを特徴とする移動体画像提供方法。
The lecturer's video for the lecturer at the auditorium is provided to the student terminal via the network, while the student's video as viewed from the lecturer is provided to the instructor's terminal and the designated terminal. A moving body imaging method,
(A). A step of photographing a lecturer-side image composed of a first wide-area video on the lecturer side and a first zoom video by a first imaging means;
(B). Capturing a student-side image composed of the second wide-area video and the second zoom video on the student side with a second imaging means,
The main control unit
(C). Providing the instructor-side image of the first imaging means to the instructor-side terminal or a designated terminal via the network;
(D). A first target is detected and tracked from the first wide-area video of the lecturer-side image, and the first zoom video of the first target is connected to the teacher-side terminal and designated terminal via the network. The process of providing
(E). Providing a student-side image of the second imaging means to the instructor-side terminal or a designated terminal via the network;
(F). A second target is detected from the student-side image, and the instructor's terminal and the designated terminal are caused to take a second zoom image of the second target and the instructor's terminal is designated via the network. And a step of providing the terminal to a terminal.
(g).予め設定されているモードに基づいて、前記(a)、(c)、(d)の工程とからなる組み合わせ又は前記(b)、(e)、(f)の工程とからなる組み合わせを選択する工程と、
を有することを特徴とする請求項1記載の移動体画像提供方法。
(G). Based on a preset mode, a combination including the steps (a), (c), and (d) or a combination including the steps (b), (e), and (f) is selected. Process,
The moving body image providing method according to claim 1, further comprising:
前記指定の端末は、遠隔地点の遠隔視聴者端末又は前記聴講会場内の受講者の端末であることを特徴とする請求項1又は2のいずれかに記載の移動体画像提供方法。 The mobile image providing method according to claim 1, wherein the designated terminal is a remote viewer terminal at a remote location or a student terminal in the attendance hall. ホストコンピュータが聴講会場の講師が講義する教壇側の映像をネットワークを介して受講者端末に提供する一方、前記講師から受講者側を見た受講者側の映像を、講師側の端末、指定の端末に提供する移動体画像提供システムであって、
前記講師側の広域映像を撮影する第1の広角カメラ及びパン、チルト動作でズーム映像を撮影する第1の追尾カメラとからなる第1の撮影装置と、
前記受講者側の広域映像を撮影する第2の広角カメラ及びパン、チルト動作でズーム映像を撮影する第2の追尾カメラとからなる第2の撮影装置と、
前記第1の広角カメラの広域映像から前記講師側のターゲットを検出して追尾すると共にその第1のズーム映像を前記第1の広角カメラの広域映像に代わって前記第1のズーム映像を送信する第1の主制御装置と、
前記第2の撮影装置からの第2の広域映像に動きがあったときは、その動き検出画像に基づく受講者側のターゲットを認識した位置に前記第2の追尾カメラを制御して、その受講者側のターゲットの第2のズーム映像を撮影させ、該第2のズーム映像を送信する第2の主制御装置と、
前記ホストコンピュータは、
前記講師の端末が指定したモードに基づいて前記第1の撮影装置と前記第2の主制御装置との組み合わせ又は前記第2の撮像装置と前記第2の主制御装置との組み合わせで動作させる手段と、
前記第1の主制御装置からの第1の広角カメラの映像、前記第1のズーム映像、前記第2の主制御装置からの第2の広角カメラの映像、前記第2のズーム映像を前記講師側の端末、遠隔地点の受講者端末に送信する手段と
を有することを特徴とする移動体画像提供システム。
While the host computer provides the lecturer's video that the lecturer at the auditorium lectures to the student terminal via the network, the student's video as seen from the lecturer by the lecturer's terminal A mobile image providing system provided to a terminal,
A first imaging device comprising a first wide-angle camera that captures a wide-area image on the instructor side and a first tracking camera that captures a zoom image by pan and tilt operations;
A second imaging device comprising a second wide-angle camera that captures a wide-area image of the student side and a second tracking camera that captures a zoom image by pan and tilt operations;
The instructor side target is detected and tracked from the wide-area image of the first wide-angle camera, and the first zoom image is transmitted instead of the wide-area image of the first wide-angle camera. A first main controller;
When there is movement in the second wide-area video from the second imaging device, the second tracking camera is controlled at a position where the target on the student side based on the motion detection image is recognized, and the attendance is A second main control device for capturing a second zoom image of the target on the user side and transmitting the second zoom image;
The host computer
Means for operating in a combination of the first imaging device and the second main control device or a combination of the second imaging device and the second main control device based on a mode designated by the instructor's terminal When,
The lecturer displays the first wide-angle camera image from the first main controller, the first zoom image, the second wide-angle camera image from the second main controller, and the second zoom image. And a means for transmitting to a remote student terminal.
前記第1の撮像装置、第2の撮像装置は、一方を、パン及びチルト動作する追尾撮像手段とし他方を一定視野角で一定方向を撮像する監視撮像手段として、監視映像領域内における移動体のズームイン又はズームアウト映像を得ることを特徴とする請求項4記載の移動体画像提供システム。 One of the first imaging device and the second imaging device is a tracking imaging unit that performs pan and tilt operations, and the other is a monitoring imaging unit that images a certain direction at a certain viewing angle. 5. The moving body image providing system according to claim 4, wherein a zoomed-in or zoomed-out image is obtained. 前記第2の主制御装置、第1の主制御装置は、
予め設定されている検出領域に前記移動体を検出したときは、該検出毎に、前記移動体が予め設定されているセンスエリアに存在するかどうかを判定する手段と、
前記ターゲットが前記センスエリアに所定個数以下存在しているときは、これらのターゲットが含まれる所定のズーム比になるまで、段階的にズームアウトさせる手段と、
を有することを特徴とする請求項4又は5のいずれかに記載の移動体画像提供システム。
The second main control device and the first main control device are:
Means for determining whether the moving object is present in a preset sense area for each detection when the moving object is detected in a preset detection region;
When the target is present in the sense area in a predetermined number or less, means for zooming out in stages until a predetermined zoom ratio including these targets is obtained;
6. The moving body image providing system according to claim 4, wherein the moving body image providing system is provided.
前記ターゲットの認識は、
動き検出エリアと、センスエリアとを有し、前記広域映像のターゲットが前記動き検出エリアに新たに存在し、かつ前記センスエリアに存在したときにそのターゲットの位置に前記ズームインさせることを特徴とする請求項4、5又は6のいずれかに記載の移動体画像提供システム。
The target recognition is
A motion detection area; and a sense area, wherein a target of the wide-area video is newly present in the motion detection area, and when the target is present in the sense area, the target position is zoomed in. The moving body image providing system according to claim 4.
前記第1の主制御部、第2の主制御部はホストコンピュータに接続され、
ホストコンピュータは、
少なくとも、受講モード及び視聴覚モードを有し、受講モードが選択されたときは、前記第2の主制御部を介して前記第2の撮像手段を動作させて前記受講者のズーム映像を撮影させる手段と、
前記視聴覚モードが選択されたときは、前記第1の主制御部を介して前記第1の撮像手段を動作させて前記講師側のズーム映像を撮影させる手段と、
前記受講モード、視聴覚モードの両方が選択されたときは、前記第1の主制御部及び第2の主制御部を動作させて、受講者側のズーム映像、講師側のズーム映像を撮影させる手段と
を有することを特徴とする請求項4、5、6又は7のいずれかに記載の移動体画像提供システム。
The first main control unit and the second main control unit are connected to a host computer,
The host computer
At least a learning mode and an audiovisual mode, and when the learning mode is selected, the second imaging unit is operated via the second main control unit to capture a zoom image of the student When,
When the audiovisual mode is selected, means for operating the first imaging means via the first main control unit to photograph the lecturer side zoom image;
When both the attendance mode and the audiovisual mode are selected, the first main control unit and the second main control unit are operated to take a zoom video on the student side and a zoom video on the lecturer side. The moving body image providing system according to claim 4, wherein the moving body image providing system is provided.
前記ホストコンピュータは、webサーバ機能を有し、前記講師側の端末から外部の受講者端末の選択があったとき、前記外部の受講者端末に対して、撮影コマンドを送信して、前記外部の受講者端末から外部の受講者の映像を送信させ、これを講師側端末に提供する手段
を有することを特徴とする請求項4、5、6、7又は8のいずれかに記載の移動体画像提供システム。
The host computer has a web server function, and when an external student terminal is selected from the instructor side terminal, sends a shooting command to the external student terminal, and The moving body image according to any one of claims 4, 5, 6, 7 and 8, further comprising means for transmitting an external student video from the student terminal and providing the video to the instructor terminal. Offer system.
JP2003271186A 2003-07-04 2003-07-04 Method and system for providing mobile body image Pending JP2005033570A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003271186A JP2005033570A (en) 2003-07-04 2003-07-04 Method and system for providing mobile body image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003271186A JP2005033570A (en) 2003-07-04 2003-07-04 Method and system for providing mobile body image

Publications (1)

Publication Number Publication Date
JP2005033570A true JP2005033570A (en) 2005-02-03

Family

ID=34209141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003271186A Pending JP2005033570A (en) 2003-07-04 2003-07-04 Method and system for providing mobile body image

Country Status (1)

Country Link
JP (1) JP2005033570A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1921843A2 (en) * 2006-11-13 2008-05-14 Fujinon Corporation Remote-controlled platform system
JP2008154213A (en) * 2006-12-15 2008-07-03 Young Kook Electronics Co Ltd Monitoring system and monitoring method utilizing cctv
KR100917166B1 (en) 2008-01-07 2009-09-15 유로원 Leture shooting device and leture shooting method
JP2012523587A (en) * 2009-04-07 2012-10-04 ラーニング ツリー インターナショナル, インコーポレイテッド System and method for hybrid course instruction
JP2013535896A (en) * 2010-08-16 2013-09-12 コリア リサーチ インスティチュート オブ スタンダーズ アンド サイエンス Security camera tracking and monitoring system and method using thermal image coordinates
JP2015041945A (en) * 2013-08-23 2015-03-02 国立大学法人山梨大学 Apparatus, method, and program for visualizing degree of activity within image
CN104917999A (en) * 2015-06-08 2015-09-16 深圳锐取信息技术股份有限公司 Dual video stream directed broadcasting method and system
CN108965817A (en) * 2018-08-03 2018-12-07 青岛华师京城网络科技有限公司 A kind of method for tracking target contacting classroom
CN109635787A (en) * 2019-01-22 2019-04-16 合肥市云联鸿达信息技术有限公司 A kind of tracking camera shooting tutoring system
WO2019087577A1 (en) * 2017-10-31 2019-05-09 ソニー株式会社 Information processing device, information processing method, and information processing program
WO2019124111A1 (en) 2017-12-21 2019-06-27 ソニー株式会社 Control device and control method
WO2020090516A1 (en) * 2018-11-02 2020-05-07 Sony Corporation Image processing device, image processing method, and program
CN112258909A (en) * 2020-10-26 2021-01-22 宁波阶梯教育科技有限公司 Teaching content display method and intelligent platform
JP2022031184A (en) * 2020-08-05 2022-02-18 一般財団法人全日本情報学習振興協会 Online examination system
EP3857867A4 (en) * 2018-09-28 2022-09-14 Brainbaby Inc Self-contained low profile cross shooting video apparatus
WO2024062971A1 (en) * 2022-09-22 2024-03-28 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1921843A2 (en) * 2006-11-13 2008-05-14 Fujinon Corporation Remote-controlled platform system
JP2008124812A (en) * 2006-11-13 2008-05-29 Fujinon Corp Remote-controlled universal head system
EP1921843A3 (en) * 2006-11-13 2011-08-10 Fujinon Corporation Remote-controlled platform system
JP2008154213A (en) * 2006-12-15 2008-07-03 Young Kook Electronics Co Ltd Monitoring system and monitoring method utilizing cctv
KR100917166B1 (en) 2008-01-07 2009-09-15 유로원 Leture shooting device and leture shooting method
JP2012523587A (en) * 2009-04-07 2012-10-04 ラーニング ツリー インターナショナル, インコーポレイテッド System and method for hybrid course instruction
JP2013535896A (en) * 2010-08-16 2013-09-12 コリア リサーチ インスティチュート オブ スタンダーズ アンド サイエンス Security camera tracking and monitoring system and method using thermal image coordinates
JP2015041945A (en) * 2013-08-23 2015-03-02 国立大学法人山梨大学 Apparatus, method, and program for visualizing degree of activity within image
CN104917999A (en) * 2015-06-08 2015-09-16 深圳锐取信息技术股份有限公司 Dual video stream directed broadcasting method and system
CN111345035A (en) * 2017-10-31 2020-06-26 索尼公司 Information processing device, information processing method, and information processing program
US11403057B2 (en) 2017-10-31 2022-08-02 Sony Corporation Information processing device, information processing method, and information processing program
WO2019087577A1 (en) * 2017-10-31 2019-05-09 ソニー株式会社 Information processing device, information processing method, and information processing program
JPWO2019087577A1 (en) * 2017-10-31 2020-12-17 ソニー株式会社 Information processing equipment, information processing methods and information processing programs
JP7302477B2 (en) 2017-10-31 2023-07-04 ソニーグループ株式会社 Information processing device, information processing method and information processing program
WO2019124111A1 (en) 2017-12-21 2019-06-27 ソニー株式会社 Control device and control method
US11818454B2 (en) 2017-12-21 2023-11-14 Sony Corporation Controller and control method
JPWO2019124111A1 (en) * 2017-12-21 2020-12-10 ソニー株式会社 Control device and control method
JP7218728B2 (en) 2017-12-21 2023-02-07 ソニーグループ株式会社 Control device and control method
CN108965817A (en) * 2018-08-03 2018-12-07 青岛华师京城网络科技有限公司 A kind of method for tracking target contacting classroom
EP3857867A4 (en) * 2018-09-28 2022-09-14 Brainbaby Inc Self-contained low profile cross shooting video apparatus
CN112997474A (en) * 2018-11-02 2021-06-18 索尼集团公司 Image processing apparatus, image processing method, and program
WO2020090516A1 (en) * 2018-11-02 2020-05-07 Sony Corporation Image processing device, image processing method, and program
CN109635787B (en) * 2019-01-22 2022-09-30 合肥市云联鸿达信息技术有限公司 Tracking camera teaching system
CN109635787A (en) * 2019-01-22 2019-04-16 合肥市云联鸿达信息技术有限公司 A kind of tracking camera shooting tutoring system
JP2022031184A (en) * 2020-08-05 2022-02-18 一般財団法人全日本情報学習振興協会 Online examination system
JP7458595B2 (en) 2020-08-05 2024-04-01 一般財団法人全日本情報学習振興協会 online exam system
CN112258909A (en) * 2020-10-26 2021-01-22 宁波阶梯教育科技有限公司 Teaching content display method and intelligent platform
WO2024062971A1 (en) * 2022-09-22 2024-03-28 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
US10440322B2 (en) Automated configuration of behavior of a telepresence system based on spatial detection of telepresence components
KR101231518B1 (en) Camera control apparatus, camera system, electronic conference system, and camera control method
US9894320B2 (en) Information processing apparatus and image processing system
EP2179586B1 (en) Method and system for automatic camera control
JP6547496B2 (en) Communication apparatus, communication method, program and communication system
JP2005033570A (en) Method and system for providing mobile body image
EP3785429B1 (en) Videoconferencing device and method
WO2018209879A1 (en) Method and device for automatically selecting camera image, and audio and video system
JP2007158860A (en) Photographing system, photographing device, image switching device, and data storage device
JP4736381B2 (en) Imaging apparatus and method, monitoring system, program, and recording medium
US9035995B2 (en) Method and apparatus for widening viewing angle in video conferencing system
JP3157769B2 (en) TV voice control device
US11657574B2 (en) Systems and methods for providing an audio-guided virtual reality tour
JP2004289779A (en) Mobile body imaging method and mobile body imaging system
JP2007158680A (en) Tracking imaging apparatus and tracking imaging system utilizing it
JP4195844B2 (en) Movable moving body imaging device
KR102501244B1 (en) Continuous mobile wireless live broadcasting and real-time video conferencing device
JPH07135646A (en) Video conference system
CN116016950A (en) Method and system for transmitting video stream
CN112887620A (en) Video shooting method and device and electronic equipment
KR101193129B1 (en) A real time omni-directional and remote surveillance system which is allowable simultaneous multi-user controls
JPH04309087A (en) Video camera controller
JP2021013138A (en) Imaging apparatus and information processing device
JP6565777B2 (en) COMMUNICATION DEVICE, CONFERENCE SYSTEM, PROGRAM, AND DISPLAY CONTROL METHOD
JP2005110160A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060601

A977 Report on retrieval

Effective date: 20090327

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Effective date: 20090407

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Effective date: 20090728

Free format text: JAPANESE INTERMEDIATE CODE: A02