JP2005033570A - Method and system for providing mobile body image - Google Patents
Method and system for providing mobile body image Download PDFInfo
- Publication number
- JP2005033570A JP2005033570A JP2003271186A JP2003271186A JP2005033570A JP 2005033570 A JP2005033570 A JP 2005033570A JP 2003271186 A JP2003271186 A JP 2003271186A JP 2003271186 A JP2003271186 A JP 2003271186A JP 2005033570 A JP2005033570 A JP 2005033570A
- Authority
- JP
- Japan
- Prior art keywords
- image
- terminal
- student
- target
- zoom
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は複数台の撮像装置を用いて移動対象物となる移動物体を適切に捉えて、当該移動物体の状況に合わせて映像を適宜な速度で追尾可能とする移動体画像提供システムに関するものである。 The present invention relates to a moving body image providing system that appropriately captures a moving object as a moving object using a plurality of imaging devices and can track an image at an appropriate speed according to the situation of the moving object. is there.
近年、スーパーマーケットやコンビニエンスストア、パチンコなどの大型店舗が増加している。 In recent years, large stores such as supermarkets, convenience stores, and pachinko machines are increasing.
このような店舗は、市民生活態様の変化に伴って、営業時間が深夜に及びものなど長時間化する傾向にある。このため、テレビカメラ(TV)により、昼夜お客や店員の行動を監視する監視システムが多く利用される傾向にある。 そして、このような監視システムにより、お客の混雑度の把握及び犯罪等を未然に防ぐように考慮されていることは周知のことである。 Such stores tend to have long hours such as business hours in the middle of the night with changes in the way of civic life. For this reason, there is a tendency to use a surveillance system that monitors the behavior of customers and store clerk day and night with a television camera (TV). It is well known that such a monitoring system is considered so as to grasp the degree of congestion of customers and prevent crimes.
しかして、近年のマルチメディア関連技術の発展およびネットワーク技術の大幅な普及に伴ない大容量の情報をネットワーク上に送信できるブロードバンドが採用されている。 As a result of the recent development of multimedia-related technologies and the widespread use of network technologies, broadband capable of transmitting large amounts of information over networks has been adopted.
このようなブロードバンドは、例えば1.5M,8M〜20Mなど大容量情報を送信することができるため、TVカメラを用いた遠隔地医療システムおよび遠隔地教育など高精細度情報の送信にも採用されつつあるのが現状である。 Such broadband is capable of transmitting large-capacity information such as 1.5M, 8M to 20M, for example, and is being adopted for transmission of high-definition information such as a remote medical system using a TV camera and remote education. There is the present situation.
つまり、TVカメラによる遠隔地視聴システムにより時間および空間を超えた形での情報の取得が可能となっている。 That is, it is possible to acquire information in a form that exceeds time and space by a remote viewing system using a TV camera.
例えば大学の講義、結婚式、コンサート等の映像をリアルタイムで遠隔地に送信して、遠隔地のユーザが視聴できるようになっている。 For example, videos of university lectures, weddings, concerts, etc. can be transmitted in real time to remote locations so that users at remote locations can view them.
また、遠隔地視聴システムのような教育または監視にも使える撮像システムでは、例えば特許文献1の特開平5−334572号公報がある。この文献1は、監視のための広角用のTVカメラと追尾用のTVカメラを共用して一方で全体空間を撮影し、その全体映像より映像の変化を捉えて他方の追尾用のTVカメラで映像を取得している。
しかしながら、上記のような方式は、一方向から見た映像を配信するシステムであるから、例えば学校の講義においては、教壇側の映像は配信できるが、質問者の顔をとらえた映像は配信できないという課題があった。 However, since the above-mentioned system is a system that distributes video viewed from one direction, for example, in a school lecture, video on the teacher's side can be distributed, but video that captures the face of the questioner cannot be distributed. There was a problem.
例えば、大教室で講義を行った場合には、講師と学生との距離があって、質問者の顔を教師が把握できないことになる。 For example, when a lecture is given in a large classroom, there is a distance between the instructor and the student, and the teacher cannot grasp the questioner's face.
さらに、上記したような撮像システムを使用して例えば遠隔地視聴教育を行う場合、通常の監視システムに採用されている自動追尾システムをそのまま利用すると、例えば教壇上の教師の行動を捉えようとした時は、追尾性能がそのまま反映され端末機の視聴者(学生)にとっては、送信さけれる追尾映像の目まぐるしい変化に対応することができず、めまいを起こしてしまうばかりか、講義などを集中して視聴できる状態にならない。 Furthermore, when performing remote viewing education using the imaging system as described above, for example, if an automatic tracking system employed in a normal monitoring system is used as it is, an attempt is made to capture the behavior of a teacher on the platform, for example. At the time, the tracking performance is reflected as it is, and the viewer (student) of the terminal cannot respond to the dizzying change of the tracking video that can be transmitted, causing not only dizziness but also focusing on lectures etc. Cannot watch.
このようなことを解決するために、カメラを人的に操作したのではこれまた生産性が低下するばかりか人件費もかさみ、さらにカメラマンの各人の感性により撮影された映像の品位にばらつきが生じて、これまた有効な手段ではない。 In order to solve this, manual operation of the camera not only reduces productivity but also increases labor costs, and the quality of the images taken varies depending on the sensitivity of each photographer. This is also not an effective means.
従って、学生、一般聴講者等が端末を見てもめまいを起こさないと共に、教師側が質問者の顔を画面上で把握できると共に、講義中における教師側の映像、質問者の顔の映像を配信して、遠隔地点でも講義に参加している感じが得られるシステムを得ることが望ましい。 Therefore, students, general auditors, etc. will not be dizzy when they see the terminal, and the teacher can grasp the questioner's face on the screen, and the teacher's video and the questioner's face during the lecture will be distributed. Therefore, it is desirable to obtain a system that can give a feeling of participating in a lecture even at a remote location.
本発明は、聴講会場の講師が講義する教壇側の映像をネットワークを介して受講者端末に提供する一方、前記講師から受講者側を見た受講者側の映像を、講師側の端末、指定の端末に提供する移動体撮像方法である。 The present invention provides a lecturer side video to be lectured by the lecturer at the auditorium to the student terminal via the network, while the student side video viewed from the lecturer is designated as a lecturer terminal. It is the moving body imaging method provided to the terminal.
(a).前記講師側の第1の広域映像、第1のズーム映像からなる講師側画像を第1の撮像手段で撮影させる工程と、(b).前記受講者側の第2の広域映像及び第2のズーム映像からなる受講者側画像を第2の撮影手段で撮影する工程とを有する。 (A). Taking a lecturer-side image comprising the first wide-area video and the first zoom video on the lecturer side with a first imaging means; and (b). Capturing a student-side image composed of the second wide-area video and the second zoom video on the student side by a second imaging means.
主制御装置は、(c).前記第1の撮像手段の前記講師側画像を前記ネットワークを介して前記講師側の端末又は指定の端末に提供する工程と、(d).前記講師側画像の第1の広域映像から第1のターゲットを検出して追尾すると共に、その第1のターゲットの前記第1のズーム映像を前記ネットワークを介して前記講師側の端末、指定の端末に提供する工程と、(e).前記第2の撮像手段の受講者側画像を前記ネットワークを介して前記講師側の端末又は指定の端末に提供する工程と、(f).前記受講者側画像から第2のターゲットを検出して前記講師の端末、指定の端末に前記第2のターゲットの第2のズーム映像を撮影させて前記ネットワークを介して前記講師の端末、指定の端末に提供する工程とを備えたことを要旨とする。 The main controller is (c). Providing the instructor-side image of the first imaging means to the instructor-side terminal or a designated terminal via the network; and (d). A first target is detected and tracked from the first wide-area video of the lecturer-side image, and the first zoom video of the first target is connected to the teacher-side terminal and designated terminal via the network. Providing (e). Providing a student-side image of the second imaging means to the instructor-side terminal or a designated terminal via the network; (f). A second target is detected from the student-side image, and the instructor's terminal and the designated terminal are caused to take a second zoom image of the second target and the instructor's terminal is designated via the network. And a step of providing to the terminal.
また、本発明は、ホストコンピュータが聴講会場の講師が講義する教壇側の映像をネットワークを介して受講者端末に提供する一方、前記講師から受講者側を見た受講者側の映像を、講師側の端末、指定の端末に提供する移動体画像提供システムである。前記講師側の広域映像を撮影する第1の広角カメラ及びパン、チルト動作でズーム映像を撮影する第1の追尾カメラとからなる第1の撮影装置と、前記受講者側の広域映像を撮影する第2の広角カメラ及びパン、チルト動作でズーム映像を撮影する第2の追尾カメラとからなる第2の撮影装置と、前記第1の広角カメラの広域映像から前記講師側のターゲットを検出して追尾すると共にその第1のズーム映像を前記第1の広角カメラの広域映像に代わって前記第1のズーム映像を送信する第1の主制御装置と、前記第2の撮影装置からの第2の広域映像に動きがあったときは、その動き検出画像に基づく受講者側のターゲットを認識した位置に前記第2の追尾カメラを制御して、その受講者側のターゲットの第2のズーム映像を撮影させ、該第2のズーム映像を送信する第2の主制御装置とを備える。 In addition, the present invention provides a video image of the lecturer side lectured by the lecturer at the attendance hall to the student terminal via the network, while the video image of the student side viewed from the lecturer is shown by the lecturer. This is a mobile image providing system provided to a terminal on the side and a designated terminal. A first imaging device including a first wide-angle camera that captures a wide-area image of the instructor side and a first tracking camera that captures a zoom image by panning and tilting operations, and a wide-area image of the student side A second imaging device comprising a second wide-angle camera and a second tracking camera that captures a zoom image by panning and tilting operations; and detecting the instructor-side target from the wide-area video of the first wide-angle camera. A first main controller for tracking and transmitting the first zoom image in place of the wide-area image of the first wide-angle camera, and a second main unit from the second photographing device. When there is movement in the wide-area video, the second tracking camera is controlled at the position where the target on the student side is recognized based on the motion detection image, and the second zoom video of the target on the student side is obtained. Let me shoot And a second main controller to transmit a second zoom image.
前記ホストコンピュータは、 前記講師の端末が指定したモードに基づいて前記第1の撮影装置と前記第2の主制御装置との組み合わせ又は前記第2の撮像装置と前記第2の主制御装置との組み合わせで動作させる手段と、 前記第1の主制御装置からの第1の広角カメラの映像、前記第1のズーム映像、前記第2の主制御装置からの第2の広角カメラの映像、前記第2のズーム映像を前記講師側の端末、遠隔地点の受講者端末に送信する手段とを備えたことを要旨とする。 The host computer is a combination of the first imaging device and the second main control device or a combination of the second imaging device and the second main control device based on a mode designated by the instructor's terminal. Means for operating in combination; an image of a first wide-angle camera from the first main control device; an image of the first zoom image; an image of a second wide-angle camera from the second main control device; And a means for transmitting the zoom image of No. 2 to the instructor side terminal and the remote student terminal.
以上のように本発明によれば、講師の講義中には講師の動きを追尾しながら、その講師のズーム映像が遠隔視聴者端末に表示される。また、教室内で質問があったときは、講師側のモニタ、遠隔視聴者端末には質問者のズームイン画像が得られるので、講師、遠隔視聴者はどんな方が質問したかを把握できるという効果がある。 As described above, according to the present invention, during the lecturer's lecture, the lecturer's zoom image is displayed on the remote viewer terminal while tracking the movement of the lecturer. In addition, when there is a question in the classroom, the instructor's monitor and remote viewer terminal can get a zoomed-in image of the questioner, so the instructor and remote viewer can understand who asked the question. There is.
また、視聴者側の端末には、講師がセンスエリア内にあって移動すると、その講師のズーム映像(ズームイン)が表示され、センスエリアを出たときはズームアウト映像に直ちに代わるので、視聴者はめまいを覚えることなく自然に見ることができる。 In addition, when the instructor moves within the sense area on the viewer's terminal, the instructor's zoom image (zoom-in) is displayed, and when leaving the sense area, the zoom-out image is immediately replaced. It can be seen naturally without learning dizziness.
このため、特定のプロのカメラマンのような人を利用する事も無いので、コストを低減できる。 For this reason, since a person like a specific professional photographer is not used, the cost can be reduced.
また、外部の視聴者の端末に講義の映像(講師側、教室内の質問者)を提供して、視聴者から質問があったときに、その顔映像を講師の端末に表示するので、遠隔地点の視聴者と、教室内の視聴者と、講師が同じ教室にいる感覚で受講できるという効果がある。 Also, the video of the lecture (instructor side, questioner in the classroom) is provided to the external viewer's terminal, and when there is a question from the viewer, the face image is displayed on the instructor's terminal. There is an effect that the lecturer can attend the lecture as if the lecturer is in the same classroom as the viewer at the location and the viewer in the classroom.
さらに、教壇に多数の学生が上がった場合は、学生数に応じたズーム比の画像を遠隔視聴者端末に提供するので、教壇の多数の学生の映像を所定のズーム比で遠隔視聴者が見ることができる。 Furthermore, when a large number of students go up to the platform, the remote viewer terminal is provided with images with a zoom ratio according to the number of students. be able to.
<実施の形態1>
図1は実施の形態1の移動体画像提供システムの概略構成図である。図1に示すように、教壇側を視野とする第1の撮像手段3と、教壇側から学生側を視野とする第2の撮像手段4とを備え、第1の撮像手段3は、第1の広角カメラ1及び第1の追尾カメラ2を有している。また、第2の撮像手段4が第2の広角カメラ7と第2の追尾用カメラ6を有している。
<Embodiment 1>
FIG. 1 is a schematic configuration diagram of a mobile object image providing system according to the first embodiment. As shown in FIG. 1, a
そして、第1の撮像手段3によって、教壇上のターゲット(学生、先生)を検出し、この学生ターゲットが多数のときには、学生ターゲット人数に応じた一定のズーム率で追尾撮影し、その追尾映像をホストコンピュータ10(先生側に配置)が遠隔視聴者端末31に送信する。また、学生ターゲットが1個の場合は、この学生ターゲットを追尾し、停止したときにズームインする。
Then, the first imaging means 3 detects targets on the platform (students and teachers). When there are a large number of student targets, tracking shooting is performed at a fixed zoom rate according to the number of student targets, and the tracking video is recorded. The host computer 10 (arranged on the teacher side) transmits to the
さらに、第2の撮像手段4によって、教室内の学生全員の画像(受講者画像又は視聴者画像という)又は質問者のズームアップ画像を撮影し、これらの画像をホストコンピュータ10(教壇側に設ける)がモニタ8に表示することを可能としている。
Further, the second imaging means 4 takes images of all the students in the classroom (referred to as student images or viewer images) or zoomed-in images of the questioners, and these images are provided on the host computer 10 (the teacher's side). ) Can be displayed on the
(各部の構成)
前述の第1の追尾用カメラ2(ドームカメラ)及び第2の追尾用カメラ6はドーム状の外形形状を呈し内部にはカメラ部(図示せず)を備え、基部にはカメラ部をパン及びチルト動作させる駆動部をそれぞれ内蔵して天井等に固定されている。
(Configuration of each part)
The first tracking camera 2 (dome camera) and the
また、第1の広角カメラ1は第1の追尾用カメラ2の後方になるように、第2の広角カメラ7は第2の追尾用カメラ4の後方になるように、それぞれ所定間隔をおいて教室の天井に取り付けられている。第1の広角カメラ1は、追尾用カメラ2のドーム下部と教壇とを視野としている。第2の広角カメラ7は、第2の追尾用カメラ6の下部と学生側(聴講者側)を視野としている。
The first wide-angle camera 1 is located behind the
また、第1の追尾用カメラ2及び第1の広角カメラ1は、第1の自動追尾装置12に接続され、この第1の自動追尾装置12によって遠隔制御される。この第1の自動追尾装置12は、第1の画像出力装置13に接続されている。これらを総称して教壇側監視用主制御装置14ともいう。
The
一方、第2の撮像手段4は、図1に示すように、教壇側から受講学生を監視する第2の広角カメラ7と第2の追尾カメラ6とを第2の自動追尾装置16に接続し、第2の自動追尾装置16は第2の画像出力装置17に接続している。これらを総称して生徒側監視用主制御装置19ともいう。
On the other hand, as shown in FIG. 1, the
前述の第1の自動追尾装置12及び第2の自動追尾装置16は、それぞれがCPU、DSP、RAM、ROM等(図示せず)によって、動き検出部、ターゲット追尾部、多数ターゲット範囲設定部、追尾カメラ制御部(ズーム機能を含む)等を実現している。
The first
すなわち、広角カメラで捉えた広域映像の動き検出エリア内の移動体(学生、先生、…等:ターゲット)を動き検出部で検出し、移動体が学生であり、その学生数が一定数であれば、これらの学生を視野とする範囲を多数ターゲット範囲設定部が定めると共に、その中心を追尾点とする。そして、ターゲット追尾部がこの追尾点を追尾する。 That is, a moving object (student, teacher, etc .: target) in a motion detection area of a wide-area image captured by a wide-angle camera is detected by a motion detector, and the moving object is a student, and the number of students is constant. For example, the target range setting unit determines a range with these students as the field of view and sets the center as a tracking point. Then, the target tracking unit tracks this tracking point.
つまり、多数のターゲットが存在したときは、一定のズーム率で追尾撮影を可能にしている。 That is, when there are a large number of targets, tracking shooting can be performed at a constant zoom rate.
第1の画像出力装置13及び第2の画像出力装置17は、自動追尾装置12からの教壇監側視画像、自動追尾装置16からの学生側監視用画像を入力し、これらの画像を増幅してホストコンピュータ10の主コンピュータ21に送出する。
The first
(自動追尾装置の構成)
第1の自動追尾装置12、第2の自動追尾装置16は図2に示す構成を有している。本実施の形態では、第1の自動追尾装置12を代表にして説明する。
(Configuration of automatic tracking device)
The first
図2は第1の自動追尾装置12の概略構成図である。図2に示すように、第1の自動追尾装置12は、動き検出部120と、ターゲット追尾部121と、追尾カメラ制御部122と、多数ターゲット範囲設定部123等を備えている。
FIG. 2 is a schematic configuration diagram of the first
動き検出部12は、第1の広角カメラ1の光電変換された出力信号をデジタル画像信号に変換して第1のフレームメモリに保存し、第2のフレームメモリ(前回の画像用)に保存されている画像の画素値(例えば輝度)の差分を画素毎に求め、その差(絶対値)が大きい画素を「1」、小さい画素を「0」とした画素を生成(これを動き検出画像と本実施の形態では称する)する。前述の動き検出のために、動き検出部120は、メモリ124に予め設定されている動き検出エリア、マスクエリア等に基づいてターゲットを検出する。
The
ターゲット追尾部121は、動き検出画像から値「1」の画素の「島(連結領域)」を切り出し、この切り出したターゲットが予め設定されているセンスエリアに存在するときに新たなターゲットと認識する。そして、切り出されたターゲットに対するシンボル符号(ターゲットがいると推定される座標を含むシンボル符号:追尾位置情報)を生成する(追尾)。但し、システム起動直前は、1個のターゲットのみを検出する。また、多数のターゲットを検出したとき、シンボル符号(追尾位置情報ともいう)を多数ターゲット範囲追尾設定部に出力する。
The
また、1個のターゲットを検出している場合に、そのターゲットが動きを停止したときは、ターゲット追尾停止信号(シンボル符号を含む)を出力している。 Further, when one target is detected and the target stops moving, a target tracking stop signal (including a symbol code) is output.
多数ターゲット範囲追尾設定部123は、図3に示すように、センスエリアに、例えば第1ターゲット(先生)の他に、第2ターゲット(学生)、第3ターゲット(学生)を示すシンボル符号(2個)がターゲット追尾部121から入力したときは、このシンボル符号に対応する第2のターゲット、第3のターゲットを引き当てる。つまり、第1のターゲット(先生)は、除かれる。
As shown in FIG. 3, the multiple target range
そして、第2のターゲット、第3のターゲットの重心を定め、センスエリアの両端から第2のターゲット、第3のターゲットの重心までの距離(L1、L2)を求め、センスエリア長LからL1、L2を引いて、所定の長mを加算して水平範囲を定める。そして、所定高さhの範囲Giを求め、この範囲の中心を追尾位置とする。つまり、第2,第3のターゲットの重心を結ぶ直線上に範囲Giの追尾点が定められる。 Then, the center of gravity of the second target and the third target is determined, the distances (L1, L2) from both ends of the sense area to the center of the second target and the third target are obtained, and the sense area length L to L1, A horizontal range is determined by subtracting L2 and adding a predetermined length m. Then, a range Gi of a predetermined height h is obtained, and the center of this range is set as the tracking position. That is, the tracking point of the range Gi is determined on a straight line connecting the centroids of the second and third targets.
ターゲット追尾部121は、範囲Giと、追尾点(座標位置)とからなる追尾情報を追尾カメラ制御部122に出力する。
The
追尾カメラ制御部122は、第1の追尾カメラ2のチルト角、パン角、ズーム比等を記憶し、前述の追尾情報を入力する毎に、この追尾情報の追尾位置に基づくチルト角、パン角を制御させてターゲットが第1の追尾カメラ2の視野角内に収まるようにして、かつ範囲Giのズーム比を制御する。この制御は、目的の角度になるように、それぞれの角度と速度とをそれぞれ制御する。つまり、追尾位置を目標値とする速度制御を行って角度制御に切り替えている。
The tracking
映像重ね部31は、広角カメラ1からの広角カメラ映像又は追尾カメラ映像若しくは両方の映像を重ね合わせて画像出力装置13に送出する。
The
但し、学生側監視用主制御装置19の自動追尾装置16は、第2の送受信装置19に接続され、システムオンに伴って、第2の広角カメラ7の広角カメラ映像(生徒側広角カメラ映像)を画像出力装置17を介してホストコンピュータ8に送出する。
However, the
また、第2の自動追尾装置16は、システムオン後に第1のターゲット(先生)が得られた場合において、学生が立ち上がったときは、その学生の移動を検出して質問者のターゲット)と認識し、所定のズーム比でズームアップさせる。そして、このズームアップ映像をホストコンピュータ8に送出する。
Further, when the first target (teacher) is obtained after the system is turned on and the student stands up, the second
このときのセンスエリア及び検出エリアは、図4に示すように着席範囲に対して上に長方形の形で設定されている。 The sense area and detection area at this time are set in a rectangular shape above the seating range as shown in FIG.
一方、ホストコンピュータ10は、アクセスポイントである送受信装置25に接続されている。
On the other hand, the
また、モニタ8に対して学生監視用制御装置19からの学生画像または遠隔視聴者端末31が撮影した遠隔者画像を表示させる。
In addition, a student image from the student
また、ホストコンピュータ10は、教壇監視用主制御装置14からの教壇側画像をネットワーク(ブロードバンド)を介して遠隔視聴者端末31に送信する。
In addition, the
さらに、ホストコンピュータ10には、スピーカ(図示せず)、液晶TVが接続され、スピーカからは質問者(遠隔視聴者、学生、)及び先生の音声を発生させ、携帯コントローラ28の指示に基づいて遠隔視聴者の映像を液晶TV(プロジェクタでもよい)に表示させる。
Further, a speaker (not shown) and a liquid crystal TV are connected to the
また、本実施の形態は大教室で使用する場合もある。このような場合は広角カメラ、追尾用カメラは、図5(a)に示すように多数設ける場合もある。また、図5(b)に示すように、階段教室の床に対して光軸中心が平行になるように広角カメラを設け、追尾用カメラを広角カメラの上に設けてもよい。 Further, this embodiment may be used in a large classroom. In such a case, a large number of wide-angle cameras and tracking cameras may be provided as shown in FIG. In addition, as shown in FIG. 5B, a wide-angle camera may be provided so that the center of the optical axis is parallel to the floor of the staircase classroom, and the tracking camera may be provided on the wide-angle camera.
さらに、ホストコンピュータ10は、教室番号に年月日、講義開始時間、終了時間、講義名、担当講師名等を対応させた講義情報を予め保存している(図6)参照)。この講義情報は、月単位、週単位で管理するのが好ましい。
Furthermore, the
さらに、ホストコンピュータ10は、図7に示すモード表が予め記憶されている。このモード表は視聴覚教室モード、受講モード、監視モード等があり、マスク、ペン、チルト、速度、センス色等を行うかどうかを決めるものである。
Further, the
例えば、図8に示す表示される視聴覚教室モード、受講モード、監視モードが選択されると、ホストコンピュータのモード表に対応したマトリックスで基準の制御情報が決まるようにしている。そして、選択されたマトリックス情報が自動追尾装置に設定される。 For example, when the displayed audiovisual classroom mode, attendance mode, and monitoring mode shown in FIG. 8 are selected, the reference control information is determined by a matrix corresponding to the mode table of the host computer. The selected matrix information is set in the automatic tracking device.
さらに、図示しない各設備のコントロールボックスに接続され、このコントロールボックスは、液晶TV、ビュアー、プロゼェクター、照明コントロールボックス等に接続されている。 Furthermore, it is connected to a control box of each facility (not shown), and this control box is connected to a liquid crystal TV, a viewer, a projector, a lighting control box, and the like.
(動作説明)
図9は本実施の形態1のシステムの動作を説明するシーケンス図である。本実施の形態では、教室内の質問者は立ち上がることにしている。また、遠隔視聴者は、質問がある場合は、端末31に表示している質問ボタンを選択すると決めている。
(Description of operation)
FIG. 9 is a sequence diagram for explaining the operation of the system according to the first embodiment. In this embodiment, the questioner in the classroom stands up. Further, the remote viewer has decided to select the question button displayed on the terminal 31 when there is a question.
このような取り決めの元で、先生は教室に入ると、携帯コントローラ28を操作して、システムオン(受講モード)をホストコンピュータ10に送信させる(d1)。ホストコンピュータ10は、システムオン信号を送受信装置25を介して受信したときは、直ちに学生側監視用主制御装置19及び教壇監視用主制御装置14を起動させる(d2)。このシステムオン信号は、携帯コントローラ28のID、送受信装置25のID、講師コード(講義名、担当講師、年月日、時間)からなる。
Under this arrangement, when the teacher enters the classroom, the teacher operates the
また、ホストコンピュータ10は、システムオン信号を受信したときは、予め保存されている該当の教室の初期教室画像(図10参照)を抽出してモニタ8に送信する(d3)。
Further, when receiving the system-on signal, the
また、教壇側監視用主制御装置14は、システムオンに伴って広角カメラ1が撮影した教壇側画像をホストコンピュータ10に送出し(d4)、ホストコンピュータ10は教壇側画像をネットワークを介して遠隔者端末31に送信し(d5)、かつモニタ8に送出する(d6)。このときの教壇側画像の推移については後述する。
In addition, the
また、学生側監視用主制御装置19は、システムオンに伴って広角カメラ7が撮影した学生側画像をホストコンピュータ10に送出する(d7)。ホストコンピュータ10は学生側画像の入力に伴って、教壇側画像に代えて学生側画像をモニタ8に出力する(d8)。
Further, the student-side monitoring
そして、学生が立ち上がると、学生側監視用主制御装置19は、この学生を含んだ学生側画像をホストコンピュータ10に送出し(d9)、ホストコンピュータ10は遠隔視聴者端末31及びモニタ8に送信する(d10、d11)。
When the student starts up, the student-side monitoring
学生側監視用主制御装置19は、図4に示すように、動き検出エリア(センスエリアと同じにしている)を設定しているので、学生が立ち上がったときは、動き検出部がその学生の動き検出画像をとらえる。
As shown in FIG. 4, the student-side monitoring
次に、ターゲット追尾部121が図4に示すセンスエリアに存在しているときは新たなターゲットとして認識し、このターゲット(質問者ターゲット)の重心(中心部)を決めて追尾カメラ制御部122に追尾させると共に、所定のズーム比で質問者ターゲットをズームインさせる(図11参照)。
Next, when the
すなわち、学生側監視用主制御装置19からは、この質問者のズームイン画像がホストコンピュータ10に送出される(d12)。
In other words, the student-side monitoring
ホストコンピュータ10は、質問者のズームイン画像を遠隔視聴者端末31及びモニタ8に送信する(d13、d14)。すなわち、遠隔視聴者端末31及びモニタ8には、立ち上がって質問の意思を示した質問者のズームアップ画像が表示されることになる。
The
そして、図9に示すように、質問者が座ると、図4に示すセンスエリア及び動き検出エリアを出ることになるからターゲット追尾部121は、その質問者のターゲットの追尾を解除する。この追尾解除に伴って、追尾カメラ制御部122は、学生全員をとらえるズーム比でズームアウトする。
Then, as shown in FIG. 9, when the questioner sits, the
すなわち、前述の教壇側画像がホストコンピュータ10に送出されて(d15)、モニタ8及び遠隔視聴者端末31に送信される(d16,d17)。
That is, the above-mentioned text image is sent to the host computer 10 (d15) and transmitted to the
一方、遠隔視聴者が遠隔視聴者端末31の質問ボタン(図示せず)を操作して質問する場合もある。この質問ボタンの選択によって、遠隔視聴者端末31は、視聴者IDと質問コードとをホストコンピュータ10に送信する(d18)。
On the other hand, the remote viewer may ask a question by operating a question button (not shown) of the
ホストコンピュータ10には、教室番号に年月日、講義開始時間、終了時間、講義名、担当講師名、視聴者登録許可ID等を対応させた講義情報を予め保存している。この講義情報は、月単位、週単位で管理するのが好ましい。
The
ホストコンピュータ10は、遠隔視聴者端末31からの視聴者質問情報の視聴者IDと講義情報とを比較し、一致しるIDが存在したときは、その視聴者からの質問を受け付け、視聴者IDに対応させて記憶している地域名及び氏名(遠隔質問者情報)をモニタ8に送信する(d19)。つまり、どこの誰かが分かるようにしている。
The
先生は携帯コントローラ28を操作してモニタ8に表示された遠隔質問者情報を選択すると(d20)、ホストコンピュータ10は直ちに遠隔視聴者端末31に対して映像要求コマンドを送信し(d21)、遠隔地点の視聴者の画像を撮影させて送信させる(d22)。
When the teacher operates the
ホストコンピュータ10は、この遠隔地点の視聴者の画像をモニタ8に送信させる(d23)。すなわち、先生は、遠隔地点の視聴者の顔が分かるので、どんな方が質問しているかを把握できる。
The
(教壇側監視用主制御装置の動作)
ここで、教壇側監視用主制御装置の動作について説明を補充する。初めに先生は、ホストコンピュータ10を操作して、システムオンを行うと、図10に示す各種機器を操作する操作アイコン、教室のイメージ図が表示される。こイメージ図は教室に応じて表示される。
(Operation of the main control device for teaching side monitoring)
Here, the description of the operation of the main control device for monitoring the teaching side is supplemented. First, when the teacher operates the
そして、例えば、先生が教壇に入ると、広角カメラ1が撮影した映像は図12(a)に示す全体を撮影した教壇側画像となる。 For example, when the teacher enters the platform, the video captured by the wide-angle camera 1 becomes a platform-side image captured of the entire image shown in FIG.
さらに先生が進んで行くと、教壇監視用主制御装置14の自動追尾装置12の動き検出部120は、以下に説明する処理によって先生の動き画像を検出し、ターゲット追尾部121、追尾カメラ制御部122が図12(b)のズーム映像を得る。
When the teacher further proceeds, the
具体的には、動き検出部120がメモリ(ROM、RAM)に保存されている動き検出エリア(座標で定義)と広角カメラ1で撮影した教壇側画像と比較し、この教壇側画像が動き検出エリアに存在したときは、動き検出画像(先生)として検出する。
Specifically, the
次に、ターゲット追尾部121が先生の動き検出画像を切り出し、このターゲットの追尾位置情報を生成する。ターゲット追尾部121は、メモリに保存されているセンスエリアに(図12のcを参照)、ターゲットが存在しているときに(ターゲットを検出したとき)、追尾位置情報を追尾カメラ制御部122に出力してズームインさせる。
Next, the
センスエリアは、追尾カメラのチルト方向の動きを抑制するための手段として簡易的な方法として横一文字にしている。 The sense area is a single horizontal character as a simple method for suppressing the movement of the tracking camera in the tilt direction.
追尾カメラ制御部122は、追尾位置情報に基づいて追尾カメラのパン・チルト、ズーム比等を制御する。これによって、図11(b)に示すズーム映像が得られることになる。
The tracking
すなわち、広角カメラの映像は映像切出し手段(図示せず)にて所定の映像として取り出されることにより、これに基づくカメラ制御情報が追尾カメラの駆動部(図示せず)に送出されて、追尾カメラがパン/チルト動作を行う。 That is, the video of the wide-angle camera is taken out as a predetermined video by a video cutting means (not shown), and camera control information based on the video is sent to a driving unit (not shown) of the tracking camera. Performs pan / tilt operation.
このズーム映像(先生)が画像出力装置に取り込まれてホストコンピュータに出力されて、HDD(圧縮)に保存される。 This zoom image (teacher) is taken into the image output device, outputted to the host computer, and stored in the HDD (compression).
そして、学生が何らかの質問で教壇に上がったとすると(図13のaを参照)、動き検出部120は、前回の広角カメラ映像と今回の広角カメラ映像と比較して、センスエリアの場合は学生を新たなターゲットして認識する。この認識によって、遠隔視聴者端末31には図13(a)に示す学生と先生を視野とする全体の映像が送信される。つまり、画像が切り替わる。そして、ターゲット追尾部121は、新たなターゲットの追尾位置情報を求めて追尾カメラ制御部122に出力する。追尾カメラ制御部122は新たなターゲットに対してチルト、パン、ズーム比を求めてズームインさせる(図13(b)参照)。
If the student goes up to the platform with some question (see a in FIG. 13), the
さらに、学生が新たに入って教壇に学生が二人になったときは(図14(a)参照)、先生と先の学生の追尾を停止させると共に、新たなターゲットの追尾位置情報を多数ターゲット範囲追尾設定部123に出力する。
Furthermore, when a new student enters the platform and there are two students (see Fig. 14 (a)), the tracking of the teacher and the previous student is stopped, and a large number of tracking information of new targets are targeted. The data is output to the range
また、多数ターゲット範囲追尾設定部123は、ターゲットが複数となったので、生徒二人の中心に追尾位置情報を定めている。
Further, since the multiple target range
つまり、、第2のターゲット、第3のターゲットの重心を定め、センスエリアの両端から第2のターゲット、第3のターゲットの重心までの距離(L1、L2)を求め、センスエリア長LからL1、L2を引いて、所定の長mを加算して水平範囲を定める。そして、所定高さhの範囲Giを求め、この範囲の中心を追尾位置とする。つまり、第2,第3のターゲットの重心を結ぶ直線上に範囲Giの追尾点が定められる。 That is, the centroids of the second target and the third target are determined, the distances (L1, L2) from both ends of the sense area to the centroid of the second target and the third target are obtained, and the sense area length L to L1 , L2 is subtracted and a predetermined length m is added to define the horizontal range. Then, a range Gi of a predetermined height h is obtained, and the center of this range is set as the tracking position. That is, the tracking point of the range Gi is determined on a straight line connecting the centroids of the second and third targets.
これによって、追尾カメラ制御部は、二人の学生が収まるようにチルト、パン角度、ズーム比を求めてズームアップして追尾する(図14(b)参照)。 As a result, the tracking camera control unit obtains the tilt, pan angle, and zoom ratio so as to accommodate two students, and zooms in to track (see FIG. 14B).
従って、自動追尾装置7からは、学生二人を纏めてズームインした映像が出力される。
Accordingly, the
さらに、図15に示すようにマスクエリアを設定できるようにし、例えばプロゼェクターが投影した映像等を誤ってターゲットとして認識しないようにするのが好ましい。このマスク領域は色を付与しておくのが好ましい。 Further, it is preferable that a mask area can be set as shown in FIG. 15 so that, for example, an image projected by a projector is not erroneously recognized as a target. This mask region is preferably colored.
次に、前述の動き検出及び追尾処理について図16のフローチャートを用いて説明を補充する。本実施の形態は自動追尾装置12を代表にして説明する。
Next, the description of the motion detection and tracking process described above will be supplemented using the flowchart of FIG. In this embodiment, the
動き検出部120は、システムオンに伴ってメモリの動き検出エリアと、センスエリアとマスクエリアとホストコンピュータ10からのモード表に基づく制御値を内部に設定する(S1601)。
When the system is turned on, the
次に、動き検出・切り出し処理を行う(S1602)。動き検出部120で動き検出エリアで動き検出を行い、その動き検出映像をターゲット追尾部122が切り出して、シンボル符号を定めている。
Next, motion detection / cutout processing is performed (S1602). The
本実施の形態ではシステムオン直後であるから追尾カメラ2は、ズームアウトされているので、広角カメラ1の教室全体の映像が取得されている。
Since the tracking
次に、システムオン直後かどうかを判断する(S1603)。ステップS1603において、システムオン直後と判断したときは、ターゲットは1個かどうかを判断する(S1604)。ステップS1604において、ターゲットが1個と判断したときは、追尾処理部が第1ターゲットを中心として一定範囲をズームインさせる追尾処理を行う(S1605)。つまり、先生が動き検出エリアに入り、かつセンスエリアに存在するときは、新たなターゲットとして認識し、ズームイン処理が行われる
また、ステップS1604において、ターゲットが1個ではないと判定したときは(生徒が入ってきたとき、)、ターゲットは2個以上かどうかを判断する(S1606)。
Next, it is determined whether or not the system is immediately on (S1603). If it is determined in step S1603 that the system has just been turned on, it is determined whether there is one target (S1604). If it is determined in step S1604 that the number of targets is one, the tracking processing unit performs a tracking process for zooming in on a certain range around the first target (S1605). That is, when the teacher enters the motion detection area and exists in the sense area, it is recognized as a new target, and zoom-in processing is performed. When it is determined in step S1604 that there is not one target (student ), It is determined whether there are two or more targets (S1606).
ステップS1606において、ターゲットが2個以上と判定したときは、ターゲット数を判定する(S1607)。ステップS1607において、ターゲット数が2個以内と判定したときは、ターゲット追尾部は、第1のターゲット(先生)に対してズームアウトをさせる信号を生成し(S1611a)、初めの小ターゲット(生徒)を基準にして所定の範囲をズームインする制御信号を生成して(S1611b)、処理をステップS1610に移す。 If it is determined in step S1606 that there are two or more targets, the number of targets is determined (S1607). If it is determined in step S1607 that the number of targets is two or less, the target tracking unit generates a signal for zooming out the first target (teacher) (S1611a), and the first small target (student) A control signal for zooming in on a predetermined range is generated with reference to (S1611b), and the process proceeds to step S1610.
また、ステップS1607において、ターゲット数が3個以上と判定したときは、第1のターゲットをズームアウトさせ(S1608)、小ターゲット同士(生徒)の距離を求め、この距離を基準にしたズームイン範囲を決定して、ズームインさせ(S1609)、追尾処理を行う(S1610)。つまり、生徒がセンスエリアを出たときは、先生のターゲットに追尾が引き継がれる。 If it is determined in step S1607 that the number of targets is three or more, the first target is zoomed out (S1608), the distance between the small targets (students) is obtained, and a zoom-in range based on this distance is determined. A decision is made to zoom in (S1609), and a tracking process is performed (S1610). In other words, when a student leaves the sense area, tracking is handed over to the teacher's target.
従って、ターゲットがセンスエリアから抜け出るとズームアウトになるが、その後カメラアングルを引いたのと同じ広角カメラ映像が学生端末に表示されることになるから自然な状態となり、遠隔教育などには好ましい撮影形態となる。このため聴講生はカメラ酔いをするようなことも無く自然な映像を取得できる。 Therefore, when the target moves out of the sense area, it zooms out, but then the same wide-angle camera image that the camera angle is pulled will be displayed on the student terminal, so it will be in a natural state, which is preferable for distance education etc. It becomes a form. For this reason, auditors can acquire natural images without camera sickness.
そして、引き続き、講義が開始され、先生に対して複数の学生が教壇に近づき(レポート提出及びロールプレーイングのような)センスエリア内に入るとシステムは複数(例えば3以上の複数)であると認識し、追尾カメラ2にズームアウト信号を送信)して映像はズームアウトしたものとなる。このズームアウト動作は、撮像領域をセンタ位置に戻した後に実行される。また、ズームアウト動作は、先にズームアウトしてからセンター位置にもどす方法も有効であり、ターゲットを写しながら、プリセット・センタ位置に戻るので、物体を見のがさないことになり、より効果的である。 Then, when the lecture is started and multiple students approach the teacher and enter the sense area (such as report submission and role playing), the system is multiple (for example, three or more). The image is zoomed out by recognizing and transmitting a zoom-out signal to the tracking camera 2). This zoom-out operation is executed after the imaging area is returned to the center position. In addition, the zoom-out operation is also effective because it can be zoomed out first and then returned to the center position, returning to the preset center position while copying the target, so that the object will not be missed. .
<実施の形態2>
図17は実施の形態2の自動追尾装置の詳細構成図である。図17において図1と同一のものは同一符号を付している。
<
FIG. 17 is a detailed configuration diagram of the automatic tracking apparatus according to the second embodiment. In FIG. 17, the same components as those in FIG.
実施の形態2のシステムは、広角カメラ2の広域映像を動き検出部120の動き検出手段120aが入力し、動き検出部120が変化があった画像情報(セルの集合)のみを検出する。そして、この検出画像がメモリ120bの動き検出エリアに存在しているかどうかを判断する。このとき、関係のない箇所を検出しないようにメモリ120cのマスクエリアを避けて検出している。
In the system according to the second embodiment, the motion detection unit 120a of the
また、メモリ121bには、特定の色を検出するためのセンス色、特定形状のものがあるかどうかを検出するためのセンス形状とを保存している。
The
ターゲット追尾部121の切り出し手段121aは、動きがある画像を検出すると、動いている物体の有無と、切り出した動き検出画像の大きさと、位置と、移動方向と、移動速度と、センスエリアを通過したかどうかの有無と、動き検出画像が特定の色を有しているかの有無とをバッファ50に保存する。
When the
また、切り出し手段121aは、バッファ51にメモリ121bに基づく特定形状を検出したかの有無と、その特定形状の大きさと、種類とをバッファ51に保存している。
In addition, the
これらは、システムバスに接続され、コンピュータ41(CPU41)で解読されて、追尾カメラ2の制御データが得られるようにしている。
These are connected to the system bus and decoded by the computer 41 (CPU 41) so that control data of the tracking
また、追尾カメラ2からのアナログ映像信号は、A/D変換手段53でデジタル変換されてCPU41によって画像記憶装置60に保存(HDD、MPEG、JPEG圧縮)される。
The analog video signal from the tracking
また、集音マイク43の音声信号はA/D変換手段54によってデジタル変換されて、CPU41によって画像記憶装置16に保存される。
The audio signal from the sound collection microphone 43 is digitally converted by the A / D conversion means 54 and stored in the
一方、CPU41は、バッファメモリ50、51に保存されているデータを順次読込み、バッファ56に保存すると共に、位置情報に基づいてパン、チルト各、ズーム比を制御する追尾制御信号を、バッファ56のカメラ状態から生成して追尾カメラ制御部122に出力する。
On the other hand, the
追尾カメラ制御部122は、メモリ40のカメラパラメータを読み込んで、追尾制御信号に基づくコントロール信号を追尾カメラ20に力する。
The tracking
また、メモリ55には、教室毎の情報(マスク範囲、動き検出エリア、センスエリア、特定のセンス色等)が操作手段によって保存され、これらの教室情報をシステムオンに伴って動き検出部120、ターゲット追尾部121に設定している。
The
さらに、メモリ55には、映像ジェスチャー、音声ジェスチャーを保存することで、特定のジェスチャー、音声を発生したときに、ズームインするようにしている。
Furthermore, the
そして、各種機器の操作と共にカメラの使用モードを切り換えるメニューを呼び出すことにより、例えば視聴覚教育モード、監視モード、及び受講モードに適宜変更することもできるようにしている。本実施の形態では視聴覚教育モードに設定とする。 Then, by calling a menu for switching the camera use mode along with the operation of various devices, it is possible to appropriately change to, for example, the audiovisual education mode, the monitoring mode, and the attendance mode. In this embodiment, the audiovisual education mode is set.
<実施の形態4>
本実施の形態4は、各学生が学生端末を備え、この学生端末の画面に教壇側画像または質問者のズームアップ画像を表示させるシステムである。
<
The fourth embodiment is a system in which each student has a student terminal, and a platform image or a zoomed-in image of a questioner is displayed on the screen of the student terminal.
図18は実施の形態4の移動体撮像システムの概略構成図である。本実施の形態では、教壇側監視用主制御装置26が自動追尾装置12と画像出力装置13とアクセスポイントである送受信装置27とを備える。また、生徒側監視用主制御装置28は、自動追尾装置16と画像出力装置17とアクセスポイントである送受信装置29とを備えている。
FIG. 18 is a schematic configuration diagram of a moving body imaging system according to the fourth embodiment. In the present embodiment, the platform-side monitoring
また、教室内のテーブルには、学生端末9i(9a、9b、9c、…:マイク付きが好ましい)を備えている。 The table in the classroom is equipped with student terminals 9i (9a, 9b, 9c,..., Preferably with a microphone).
そして、第1の撮像手段3によって撮影された教壇上のターゲット(学生、先生)の追尾映像(教壇側画像)をホストコンピュータ40を介して学生端末9i(9a、9b、9c、…)、遠隔視聴者端末31に送信する。
Then, a tracking image (an image on the side of the teacher) on the platform (student, teacher) photographed by the first imaging means 3 is sent via the
また、第2の撮像手段4によって撮影された学生側画像を学生端末9i、モニタ8、遠隔視聴者端末31に送信する。
In addition, the student-side image captured by the
(各部の構成)
学生端末9i(9a、9b、…)は、本システムの映像の提供を受けるときは、学生番号、講義番号、年月日、学生ID、コンテンツ種類(追尾ズーム映像の有無)等からなる端末要求情報を入力させて、教壇側画像(広角、追尾、ズーム含む)又は学生側画像の提供を受ける。 前述の端末要求情報、映像の送受信のために無線PCカードで行える機能を有している。
(Configuration of each part)
When the student terminal 9i (9a, 9b,...) Receives the video of this system, the terminal request including the student number, the lecture number, the date, the student ID, the content type (whether or not the tracking zoom video is present), etc. Enter information and receive a lecture-side image (including wide-angle, tracking, zoom) or student-side image. It has a function that can be performed by the wireless PC card for transmitting and receiving the above-mentioned terminal request information and video.
前述の送受信装置(アクセスポイント)は、それぞれが教室の壁、天井に設けられている。これらの送受信装置は、内部にMAC回路、ベースバンドプロセッサ、周波数変換回路、アンテナ(ダイパーシティ方式)、RAM、ROM、CPU等を備え、学生端末9iから端末要求情報を受信したとき、この端末要求情報を画像出力装置に送出し、許可信号を得たとき、自動追尾装置の広角カメラ映像、追尾ズーム映像をその学生端末9iに送信する。 Each of the aforementioned transmission / reception devices (access points) is provided on the classroom wall and ceiling. These transmission / reception devices are internally provided with a MAC circuit, a baseband processor, a frequency conversion circuit, an antenna (diversity method), a RAM, a ROM, a CPU, and the like. When terminal request information is received from the student terminal 9i, this terminal request When the information is sent to the image output device and the permission signal is obtained, the wide-angle camera image and the tracking zoom image of the automatic tracking device are transmitted to the student terminal 9i.
一方、ホストコンピュータ40は、学生端末からのコンテンツ種別を判断し、質問者のズームの要求があるときは、課金処理をする機能を有している。つまり、質問者のズーム画面は本システムでは課金を行う。
On the other hand, the
<実施の形態5>
実施の形態5は先生が追尾している場合で、複数(1名〜5名)の学生が教壇に上がって来たとすると、最初は先生だけを追尾させる。
<Embodiment 5>
The fifth embodiment is a case where the teacher is tracking, and when a plurality (1 to 5 students) of students come up to the platform, only the teacher is tracked first.
そして、自動追尾装置16は、学生が1名、2名…とセンスエリアに入ってきた場合、学生1人目でターゲットチェンジをし、学生が2人目以上入ってきた場合、入ってきた学生全員(リミットは例えば5名)が撮影できるように、追尾用カメラ2を徐々に若しくはステップでズームを引かせるようにする。
The
また、このときに、ある学生(動いている)が先生と交叉してしまった場合は、先生も学生と見なして、ズームのターゲットとして認識する。そして、例えば6人目の学生が入ってきたら、センター位置でズームを引ききってしまう動作をさせる。、
なお、上記実施の形態の各自動追尾装置をカメラと一体化したカメラ装置として構成してもよい。
At this time, if a student (moving) crosses the teacher, the teacher is also regarded as a student and is recognized as a zoom target. For example, when a sixth student comes in, the zooming is performed at the center position. ,
In addition, you may comprise each automatic tracking apparatus of the said embodiment as a camera apparatus integrated with the camera.
3 第1の撮像手段
4 第2の撮像手段
9 教室内の学生端末
12 第1の自動追尾装置
14 教壇側監視用主制御装置
16 第2の自動追尾装置
19 生徒側監視用主制御装置
3 First image pickup means 4 Second image pickup means 9
Claims (9)
(a).前記講師側の第1の広域映像、第1のズーム映像からなる講師側画像を第1の撮像手段で撮影させる工程と、
(b).前記受講者側の第2の広域映像及び第2のズーム映像からなる受講者側画像を第2の撮影手段で撮影する工程とを有し、
主制御装置は、
(c).前記第1の撮像手段の前記講師側画像を前記ネットワークを介して前記講師側の端末又は指定の端末に提供する工程と、
(d).前記講師側画像の第1の広域映像から第1のターゲットを検出して追尾すると共に、その第1のターゲットの前記第1のズーム映像を前記ネットワークを介して前記講師側の端末、指定の端末に提供する工程と、
(e).前記第2の撮像手段の受講者側画像を前記ネットワークを介して前記講師側の端末又は指定の端末に提供する工程と、
(f).前記受講者側画像から第2のターゲットを検出して前記講師の端末、指定の端末に前記第2のターゲットの第2のズーム映像を撮影させて前記ネットワークを介して前記講師の端末、指定の端末に提供する工程と
を有することを特徴とする移動体画像提供方法。 The lecturer's video for the lecturer at the auditorium is provided to the student terminal via the network, while the student's video as viewed from the lecturer is provided to the instructor's terminal and the designated terminal. A moving body imaging method,
(A). A step of photographing a lecturer-side image composed of a first wide-area video on the lecturer side and a first zoom video by a first imaging means;
(B). Capturing a student-side image composed of the second wide-area video and the second zoom video on the student side with a second imaging means,
The main control unit
(C). Providing the instructor-side image of the first imaging means to the instructor-side terminal or a designated terminal via the network;
(D). A first target is detected and tracked from the first wide-area video of the lecturer-side image, and the first zoom video of the first target is connected to the teacher-side terminal and designated terminal via the network. The process of providing
(E). Providing a student-side image of the second imaging means to the instructor-side terminal or a designated terminal via the network;
(F). A second target is detected from the student-side image, and the instructor's terminal and the designated terminal are caused to take a second zoom image of the second target and the instructor's terminal is designated via the network. And a step of providing the terminal to a terminal.
を有することを特徴とする請求項1記載の移動体画像提供方法。 (G). Based on a preset mode, a combination including the steps (a), (c), and (d) or a combination including the steps (b), (e), and (f) is selected. Process,
The moving body image providing method according to claim 1, further comprising:
前記講師側の広域映像を撮影する第1の広角カメラ及びパン、チルト動作でズーム映像を撮影する第1の追尾カメラとからなる第1の撮影装置と、
前記受講者側の広域映像を撮影する第2の広角カメラ及びパン、チルト動作でズーム映像を撮影する第2の追尾カメラとからなる第2の撮影装置と、
前記第1の広角カメラの広域映像から前記講師側のターゲットを検出して追尾すると共にその第1のズーム映像を前記第1の広角カメラの広域映像に代わって前記第1のズーム映像を送信する第1の主制御装置と、
前記第2の撮影装置からの第2の広域映像に動きがあったときは、その動き検出画像に基づく受講者側のターゲットを認識した位置に前記第2の追尾カメラを制御して、その受講者側のターゲットの第2のズーム映像を撮影させ、該第2のズーム映像を送信する第2の主制御装置と、
前記ホストコンピュータは、
前記講師の端末が指定したモードに基づいて前記第1の撮影装置と前記第2の主制御装置との組み合わせ又は前記第2の撮像装置と前記第2の主制御装置との組み合わせで動作させる手段と、
前記第1の主制御装置からの第1の広角カメラの映像、前記第1のズーム映像、前記第2の主制御装置からの第2の広角カメラの映像、前記第2のズーム映像を前記講師側の端末、遠隔地点の受講者端末に送信する手段と
を有することを特徴とする移動体画像提供システム。 While the host computer provides the lecturer's video that the lecturer at the auditorium lectures to the student terminal via the network, the student's video as seen from the lecturer by the lecturer's terminal A mobile image providing system provided to a terminal,
A first imaging device comprising a first wide-angle camera that captures a wide-area image on the instructor side and a first tracking camera that captures a zoom image by pan and tilt operations;
A second imaging device comprising a second wide-angle camera that captures a wide-area image of the student side and a second tracking camera that captures a zoom image by pan and tilt operations;
The instructor side target is detected and tracked from the wide-area image of the first wide-angle camera, and the first zoom image is transmitted instead of the wide-area image of the first wide-angle camera. A first main controller;
When there is movement in the second wide-area video from the second imaging device, the second tracking camera is controlled at a position where the target on the student side based on the motion detection image is recognized, and the attendance is A second main control device for capturing a second zoom image of the target on the user side and transmitting the second zoom image;
The host computer
Means for operating in a combination of the first imaging device and the second main control device or a combination of the second imaging device and the second main control device based on a mode designated by the instructor's terminal When,
The lecturer displays the first wide-angle camera image from the first main controller, the first zoom image, the second wide-angle camera image from the second main controller, and the second zoom image. And a means for transmitting to a remote student terminal.
予め設定されている検出領域に前記移動体を検出したときは、該検出毎に、前記移動体が予め設定されているセンスエリアに存在するかどうかを判定する手段と、
前記ターゲットが前記センスエリアに所定個数以下存在しているときは、これらのターゲットが含まれる所定のズーム比になるまで、段階的にズームアウトさせる手段と、
を有することを特徴とする請求項4又は5のいずれかに記載の移動体画像提供システム。 The second main control device and the first main control device are:
Means for determining whether the moving object is present in a preset sense area for each detection when the moving object is detected in a preset detection region;
When the target is present in the sense area in a predetermined number or less, means for zooming out in stages until a predetermined zoom ratio including these targets is obtained;
6. The moving body image providing system according to claim 4, wherein the moving body image providing system is provided.
動き検出エリアと、センスエリアとを有し、前記広域映像のターゲットが前記動き検出エリアに新たに存在し、かつ前記センスエリアに存在したときにそのターゲットの位置に前記ズームインさせることを特徴とする請求項4、5又は6のいずれかに記載の移動体画像提供システム。 The target recognition is
A motion detection area; and a sense area, wherein a target of the wide-area video is newly present in the motion detection area, and when the target is present in the sense area, the target position is zoomed in. The moving body image providing system according to claim 4.
ホストコンピュータは、
少なくとも、受講モード及び視聴覚モードを有し、受講モードが選択されたときは、前記第2の主制御部を介して前記第2の撮像手段を動作させて前記受講者のズーム映像を撮影させる手段と、
前記視聴覚モードが選択されたときは、前記第1の主制御部を介して前記第1の撮像手段を動作させて前記講師側のズーム映像を撮影させる手段と、
前記受講モード、視聴覚モードの両方が選択されたときは、前記第1の主制御部及び第2の主制御部を動作させて、受講者側のズーム映像、講師側のズーム映像を撮影させる手段と
を有することを特徴とする請求項4、5、6又は7のいずれかに記載の移動体画像提供システム。 The first main control unit and the second main control unit are connected to a host computer,
The host computer
At least a learning mode and an audiovisual mode, and when the learning mode is selected, the second imaging unit is operated via the second main control unit to capture a zoom image of the student When,
When the audiovisual mode is selected, means for operating the first imaging means via the first main control unit to photograph the lecturer side zoom image;
When both the attendance mode and the audiovisual mode are selected, the first main control unit and the second main control unit are operated to take a zoom video on the student side and a zoom video on the lecturer side. The moving body image providing system according to claim 4, wherein the moving body image providing system is provided.
を有することを特徴とする請求項4、5、6、7又は8のいずれかに記載の移動体画像提供システム。 The host computer has a web server function, and when an external student terminal is selected from the instructor side terminal, sends a shooting command to the external student terminal, and The moving body image according to any one of claims 4, 5, 6, 7 and 8, further comprising means for transmitting an external student video from the student terminal and providing the video to the instructor terminal. Offer system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003271186A JP2005033570A (en) | 2003-07-04 | 2003-07-04 | Method and system for providing mobile body image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003271186A JP2005033570A (en) | 2003-07-04 | 2003-07-04 | Method and system for providing mobile body image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005033570A true JP2005033570A (en) | 2005-02-03 |
Family
ID=34209141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003271186A Pending JP2005033570A (en) | 2003-07-04 | 2003-07-04 | Method and system for providing mobile body image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005033570A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1921843A2 (en) * | 2006-11-13 | 2008-05-14 | Fujinon Corporation | Remote-controlled platform system |
JP2008154213A (en) * | 2006-12-15 | 2008-07-03 | Young Kook Electronics Co Ltd | Monitoring system and monitoring method utilizing cctv |
KR100917166B1 (en) | 2008-01-07 | 2009-09-15 | 유로원 | Leture shooting device and leture shooting method |
JP2012523587A (en) * | 2009-04-07 | 2012-10-04 | ラーニング ツリー インターナショナル, インコーポレイテッド | System and method for hybrid course instruction |
JP2013535896A (en) * | 2010-08-16 | 2013-09-12 | コリア リサーチ インスティチュート オブ スタンダーズ アンド サイエンス | Security camera tracking and monitoring system and method using thermal image coordinates |
JP2015041945A (en) * | 2013-08-23 | 2015-03-02 | 国立大学法人山梨大学 | Apparatus, method, and program for visualizing degree of activity within image |
CN104917999A (en) * | 2015-06-08 | 2015-09-16 | 深圳锐取信息技术股份有限公司 | Dual video stream directed broadcasting method and system |
CN108965817A (en) * | 2018-08-03 | 2018-12-07 | 青岛华师京城网络科技有限公司 | A kind of method for tracking target contacting classroom |
CN109635787A (en) * | 2019-01-22 | 2019-04-16 | 合肥市云联鸿达信息技术有限公司 | A kind of tracking camera shooting tutoring system |
WO2019087577A1 (en) * | 2017-10-31 | 2019-05-09 | ソニー株式会社 | Information processing device, information processing method, and information processing program |
WO2019124111A1 (en) | 2017-12-21 | 2019-06-27 | ソニー株式会社 | Control device and control method |
WO2020090516A1 (en) * | 2018-11-02 | 2020-05-07 | Sony Corporation | Image processing device, image processing method, and program |
CN112258909A (en) * | 2020-10-26 | 2021-01-22 | 宁波阶梯教育科技有限公司 | Teaching content display method and intelligent platform |
JP2022031184A (en) * | 2020-08-05 | 2022-02-18 | 一般財団法人全日本情報学習振興協会 | Online examination system |
EP3857867A4 (en) * | 2018-09-28 | 2022-09-14 | Brainbaby Inc | Self-contained low profile cross shooting video apparatus |
WO2024062971A1 (en) * | 2022-09-22 | 2024-03-28 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
-
2003
- 2003-07-04 JP JP2003271186A patent/JP2005033570A/en active Pending
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1921843A2 (en) * | 2006-11-13 | 2008-05-14 | Fujinon Corporation | Remote-controlled platform system |
JP2008124812A (en) * | 2006-11-13 | 2008-05-29 | Fujinon Corp | Remote-controlled universal head system |
EP1921843A3 (en) * | 2006-11-13 | 2011-08-10 | Fujinon Corporation | Remote-controlled platform system |
JP2008154213A (en) * | 2006-12-15 | 2008-07-03 | Young Kook Electronics Co Ltd | Monitoring system and monitoring method utilizing cctv |
KR100917166B1 (en) | 2008-01-07 | 2009-09-15 | 유로원 | Leture shooting device and leture shooting method |
JP2012523587A (en) * | 2009-04-07 | 2012-10-04 | ラーニング ツリー インターナショナル, インコーポレイテッド | System and method for hybrid course instruction |
JP2013535896A (en) * | 2010-08-16 | 2013-09-12 | コリア リサーチ インスティチュート オブ スタンダーズ アンド サイエンス | Security camera tracking and monitoring system and method using thermal image coordinates |
JP2015041945A (en) * | 2013-08-23 | 2015-03-02 | 国立大学法人山梨大学 | Apparatus, method, and program for visualizing degree of activity within image |
CN104917999A (en) * | 2015-06-08 | 2015-09-16 | 深圳锐取信息技术股份有限公司 | Dual video stream directed broadcasting method and system |
CN111345035A (en) * | 2017-10-31 | 2020-06-26 | 索尼公司 | Information processing device, information processing method, and information processing program |
US11403057B2 (en) | 2017-10-31 | 2022-08-02 | Sony Corporation | Information processing device, information processing method, and information processing program |
WO2019087577A1 (en) * | 2017-10-31 | 2019-05-09 | ソニー株式会社 | Information processing device, information processing method, and information processing program |
JPWO2019087577A1 (en) * | 2017-10-31 | 2020-12-17 | ソニー株式会社 | Information processing equipment, information processing methods and information processing programs |
JP7302477B2 (en) | 2017-10-31 | 2023-07-04 | ソニーグループ株式会社 | Information processing device, information processing method and information processing program |
WO2019124111A1 (en) | 2017-12-21 | 2019-06-27 | ソニー株式会社 | Control device and control method |
US11818454B2 (en) | 2017-12-21 | 2023-11-14 | Sony Corporation | Controller and control method |
JPWO2019124111A1 (en) * | 2017-12-21 | 2020-12-10 | ソニー株式会社 | Control device and control method |
JP7218728B2 (en) | 2017-12-21 | 2023-02-07 | ソニーグループ株式会社 | Control device and control method |
CN108965817A (en) * | 2018-08-03 | 2018-12-07 | 青岛华师京城网络科技有限公司 | A kind of method for tracking target contacting classroom |
EP3857867A4 (en) * | 2018-09-28 | 2022-09-14 | Brainbaby Inc | Self-contained low profile cross shooting video apparatus |
CN112997474A (en) * | 2018-11-02 | 2021-06-18 | 索尼集团公司 | Image processing apparatus, image processing method, and program |
WO2020090516A1 (en) * | 2018-11-02 | 2020-05-07 | Sony Corporation | Image processing device, image processing method, and program |
CN109635787B (en) * | 2019-01-22 | 2022-09-30 | 合肥市云联鸿达信息技术有限公司 | Tracking camera teaching system |
CN109635787A (en) * | 2019-01-22 | 2019-04-16 | 合肥市云联鸿达信息技术有限公司 | A kind of tracking camera shooting tutoring system |
JP2022031184A (en) * | 2020-08-05 | 2022-02-18 | 一般財団法人全日本情報学習振興協会 | Online examination system |
JP7458595B2 (en) | 2020-08-05 | 2024-04-01 | 一般財団法人全日本情報学習振興協会 | online exam system |
CN112258909A (en) * | 2020-10-26 | 2021-01-22 | 宁波阶梯教育科技有限公司 | Teaching content display method and intelligent platform |
WO2024062971A1 (en) * | 2022-09-22 | 2024-03-28 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10440322B2 (en) | Automated configuration of behavior of a telepresence system based on spatial detection of telepresence components | |
KR101231518B1 (en) | Camera control apparatus, camera system, electronic conference system, and camera control method | |
US9894320B2 (en) | Information processing apparatus and image processing system | |
EP2179586B1 (en) | Method and system for automatic camera control | |
JP6547496B2 (en) | Communication apparatus, communication method, program and communication system | |
JP2005033570A (en) | Method and system for providing mobile body image | |
EP3785429B1 (en) | Videoconferencing device and method | |
WO2018209879A1 (en) | Method and device for automatically selecting camera image, and audio and video system | |
JP2007158860A (en) | Photographing system, photographing device, image switching device, and data storage device | |
JP4736381B2 (en) | Imaging apparatus and method, monitoring system, program, and recording medium | |
US9035995B2 (en) | Method and apparatus for widening viewing angle in video conferencing system | |
JP3157769B2 (en) | TV voice control device | |
US11657574B2 (en) | Systems and methods for providing an audio-guided virtual reality tour | |
JP2004289779A (en) | Mobile body imaging method and mobile body imaging system | |
JP2007158680A (en) | Tracking imaging apparatus and tracking imaging system utilizing it | |
JP4195844B2 (en) | Movable moving body imaging device | |
KR102501244B1 (en) | Continuous mobile wireless live broadcasting and real-time video conferencing device | |
JPH07135646A (en) | Video conference system | |
CN116016950A (en) | Method and system for transmitting video stream | |
CN112887620A (en) | Video shooting method and device and electronic equipment | |
KR101193129B1 (en) | A real time omni-directional and remote surveillance system which is allowable simultaneous multi-user controls | |
JPH04309087A (en) | Video camera controller | |
JP2021013138A (en) | Imaging apparatus and information processing device | |
JP6565777B2 (en) | COMMUNICATION DEVICE, CONFERENCE SYSTEM, PROGRAM, AND DISPLAY CONTROL METHOD | |
JP2005110160A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060601 |
|
A977 | Report on retrieval |
Effective date: 20090327 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Effective date: 20090407 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A02 | Decision of refusal |
Effective date: 20090728 Free format text: JAPANESE INTERMEDIATE CODE: A02 |