Nothing Special   »   [go: up one dir, main page]

JP4436101B2 - robot - Google Patents

robot Download PDF

Info

Publication number
JP4436101B2
JP4436101B2 JP2003337232A JP2003337232A JP4436101B2 JP 4436101 B2 JP4436101 B2 JP 4436101B2 JP 2003337232 A JP2003337232 A JP 2003337232A JP 2003337232 A JP2003337232 A JP 2003337232A JP 4436101 B2 JP4436101 B2 JP 4436101B2
Authority
JP
Japan
Prior art keywords
light source
camera
robot
data
dimensional model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003337232A
Other languages
Japanese (ja)
Other versions
JP2005107644A (en
Inventor
政行 新井
智也 鈴木
清敬 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
Original Assignee
Tokyo University of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science filed Critical Tokyo University of Science
Priority to JP2003337232A priority Critical patent/JP4436101B2/en
Publication of JP2005107644A publication Critical patent/JP2005107644A/en
Application granted granted Critical
Publication of JP4436101B2 publication Critical patent/JP4436101B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Generation (AREA)

Description

本発明は、頭部の表情、特に光による陰影、色などが自然に見えるようにしたロボット
に関するものである。
The present invention relates to a robot in which facial expressions, particularly shadows and colors caused by light, can be seen naturally.

人間や動物の形をしたロボットを実現する上で、その頭部は顔や髪の毛があり、人間が
見たときに違和感のないようなものである必要性がある。
In order to realize a human- or animal-shaped robot, its head has a face and hair, and it is necessary that the human head does not feel uncomfortable.

そこで、特許文献1の「コミュニケーションロボット」には、電磁モータによって機械
的にゴム皮膜を駆動し、顔の表情を作り出す技術が開示されている。
しかし、機械的に顔の表情を実現する場合、構造が複雑となり、コストがかかることや
故障が起きやすいなどの問題点がある。
Therefore, the “communication robot” of Patent Document 1 discloses a technique for creating a facial expression by mechanically driving a rubber film by an electromagnetic motor.
However, when a facial expression is mechanically realized, there are problems such as a complicated structure, high cost, and failure.

一方、電子的な表示装置により顔の表情を実現する試みも成されている。
例えば、特許文献2の「表情を有する知的ロボット」では、複数用意された表情のパタ
ーンを電子的な表示装置に描画することにより、ロボットの顔を実現している。
しかし、この方法の場合、上記した機械式の場合と比較して周辺の環境、例えば光、風
などに左右されずに顔が表現されてしまい、違和感のあるものとなり、ロボットと人間が
会話するようなことを想定した場合、よりリアルに顔が表現されることが望まれる。
On the other hand, attempts have been made to realize facial expressions using an electronic display device.
For example, in “Intelligent robot having facial expression” of Patent Document 2, a robot face is realized by drawing a plurality of prepared facial expression patterns on an electronic display device.
However, in this method, the face is expressed without being influenced by the surrounding environment, for example, light, wind, etc., compared to the case of the mechanical type described above, and it becomes uncomfortable, and the robot and the human have a conversation. When such a thing is assumed, it is desired that the face is expressed more realistically.

このような課題を解決するために、特許文献3の「ロボット」では、電子的なディスプ
レイと周囲の光或いは風を検出する手段を有して、周囲の状況に連動して違和感なく顔の
表情が変化するロボットを実現した技術が開示されている。
In order to solve such a problem, the “robot” of Patent Document 3 has an electronic display and a means for detecting ambient light or wind, so that facial expressions can be expressed without any sense of incompatibility in conjunction with the surrounding situation. A technology that realizes a robot that changes the speed is disclosed.

特開平6−261982号公報JP-A-6-261982 特開2001−215940号公報JP 2001-215940 A 特開2003−187267号公報JP 2003-187267 A

上記特許文献3に記載された技術のように、三次元コンピュータグラフィクスの技術と
外部環境要因を検出する手段を利用すれば、環境に連動した人間や動物の顔をリアルに表
現し、ディスプレイ上に表示することが可能である。そして、これをロボットの顔として
利用することは、前述の機械式の場合と比較して、安価に且つ故障がすくなくリアルな顔
を実現できることとなる。
If the 3D computer graphics technology and the means for detecting external environmental factors are used like the technology described in Patent Document 3, the human or animal face linked to the environment is realistically represented on the display. It is possible to display. Then, using this as the face of the robot can realize a realistic face at a low cost and with few failures compared to the case of the mechanical type described above.

しかしながら、特許文献3に記載された技術においては、光の検出手段を用いることに
より三次元モデル表示手段にデータを入力し、周囲の光環境を取り入れてはいるが、光源
の推定を行っていないため、光の検出手段の数を増やさなくては多くの情報が得られず、
リアルな顔の表現はできなかった。
However, in the technique described in Patent Document 3, data is input to the three-dimensional model display unit by using the light detection unit and the ambient light environment is taken in, but the light source is not estimated. Therefore, much information cannot be obtained without increasing the number of light detection means.
I couldn't express a real face.

そこで、本発明が解決しようとする課題は、電子的なディスプレイを用いて、光の検出
手段の数を減らしながらも、得られた情報から光源の状況を推定することによって、安価
且つ違和感のない頭部を実現できるロボットを提供することにある。
Therefore, the problem to be solved by the present invention is to reduce the number of light detection means by using an electronic display, and to estimate the state of the light source from the obtained information. The object is to provide a robot capable of realizing a head.

前記課題を解決するため、本発明のロボットは、人間や動物の頭部を表現した三次元モデルのデータと、前記データをディスプレイに表示する三次元モデル表示手段と、前記ディスプレイの周辺の光を検出するカメラを有し、前記三次元モデル表示手段が、前記カメラの出力に基づいて前記三次元モデルのデータを更新し、それを前記三次元モデル表示手段により前記ディスプレイに表示するロボットにおいて、前記カメラの画像データを二値化処理し、次にラベリング処理をし、その中に所定以上の大きさを有する物体があるかどうかを判断し、所定以上の大きさを有する物体がある場合、ラべリングされた物体を大きいものから順に光源とみなし、その光源の大きさ、形状、方向、色、距離、種類を前記画像データから算出し求め、前記三次元モデルのデータ中の光源に関するデータを更新する、光源推定手段をさらに備える構成とした。 In order to solve the above problems, a robot according to the present invention provides three-dimensional model data representing a human or animal head, three-dimensional model display means for displaying the data on a display, and light around the display. In the robot having a camera to detect , the three-dimensional model display means updates the data of the three-dimensional model based on the output of the camera, and displays it on the display by the three-dimensional model display means. The camera image data is binarized and then labeled, and it is determined whether there is an object having a size greater than or equal to a predetermined size. Considering the labeled object as the light source in order from the largest, the size, shape, direction, color, distance, type of the light source is calculated from the image data, It updates the data relates to a light source in the data of the dimensional model, and the structure further comprises a light source estimation means.

また、本発明のロボットは、前記光源推定手段が、ラベリング処理され光源とみなされた部分の画素数を合計することで光源の大きさ、形状、種類を求め、またそれぞれの光源を構成する各画素のx、y座標の位置情報をすべて足し、画素数で割ることにより物体の中心点を求め、これを光源の中心位置とし、この光源の中心位置と同じ位置の色を前記カメラからの入力画像を参照して取得し、これを光源の色とする構成とした。 Further, in the robot according to the present invention, the light source estimation unit obtains the size, shape, and type of the light source by summing the number of pixels of the portion that has been labeled and regarded as the light source, and each of the light sources constituting the light source Add all the x and y coordinate position information of the pixel and divide by the number of pixels to find the center point of the object, which is the center position of the light source, and input the color at the same position as the center position of this light source from the camera The image was obtained by referring to the image, and this was used as the color of the light source .

さらに、本発明のロボットは、前記カメラによる画像データに光源とみなす物体がない場合、前記光源推定手段が、前記画像データを上下左右に分割し、もっとも明るい範囲を割り出し、その方向に光源があると推定し、その方向に光源を設定する構成とした。
Further, in the robot according to the present invention, when there is no object regarded as a light source in the image data obtained by the camera, the light source estimation unit divides the image data vertically and horizontally, finds the brightest range, and has a light source in that direction. The light source is set in that direction.

さらに、本発明のロボットは、前記カメラによる画像データに光源とみなす物体がない
場合、該画像データから光源が存在する方向を推定し、その方向にカメラの撮影方向を移
動する構成とした。
Furthermore, the robot of the present invention is configured such that when there is no object regarded as a light source in the image data from the camera, the direction in which the light source exists is estimated from the image data, and the shooting direction of the camera is moved in that direction.

上記した本発明に係るロボットによれば、人間や動物の頭部を表現した三次元モデルの
データを有し、それをディスプレイに表示する三次元モデル表示手段と、頭部が表示され
たディスプレイの周辺の光の強さ、色などを検出する光検出手段を有し、前記光検出手段
の検出結果から光源推定手段においてディスプレイの周辺に存在する光源自体を推定し、
この光源の推定結果により前記三次元モデルのデータ中の光源に関するデータを更新し、
それを三次元モデル表示手段によりディスプレイに表示する構成としたため、少ない光検
出手段によって周囲の光の明暗や方向、色などをリアルに表現することができ、安価且つ
違和感のないロボットの頭部を実現できる効果がある。
According to the above-described robot according to the present invention, there is provided a three-dimensional model display means for displaying data on a display having three-dimensional model data representing a human or animal head, and a display on which the head is displayed. It has light detection means for detecting the intensity, color, etc. of ambient light, and estimates the light source itself existing around the display in the light source estimation means from the detection result of the light detection means,
Update the data on the light source in the data of the three-dimensional model according to the estimation result of the light source,
Since it is configured to be displayed on the display by means of the three-dimensional model display means, it is possible to realistically express the brightness, direction, color, etc. of ambient light with a small number of light detection means, and to make the robot's head inexpensive and comfortable. There is an effect that can be realized.

また、本発明に係るロボットにおいては、前記光検出手段としてカメラを用い、該カメ
ラによる画像データと該カメラの撮影情報とから、前記光源推定手段において光源の大き
さ、形状、方向、色、距離、種類を推定し、この推定結果に基づき前記三次元モデルのデ
ータ中の光源に関するデータを更新し、それを前記ディスプレイに表示する構成としても
よく、この場合には、カメラは二次元の情報が得られるために一台のカメラでも上記本発
明に係るロボットの実現が可能であり、また、カメラを二台用いて行なえば、両眼ステレ
オ法などの手法を用いることにより正確な光源の距離を求めることができ、よりリアルな
光源の推定が可能となる。
In the robot according to the present invention, a camera is used as the light detection unit, and the size, shape, direction, color, and distance of the light source in the light source estimation unit are calculated from image data obtained by the camera and shooting information of the camera. The type may be estimated, and the data on the light source in the data of the three-dimensional model may be updated based on the estimation result, and displayed on the display. In this case, the camera has two-dimensional information. Therefore, even with one camera, the robot according to the present invention can be realized. If two cameras are used, an accurate light source distance can be obtained by using a method such as a binocular stereo method. This makes it possible to estimate a more realistic light source.

さらに、本発明に係るロボットにおいては、前記カメラによる画像データに光源とみな
す物体がない場合、該画像データから光源が存在する方向、例えば明るい方向に光源が存
在すると推定し、その方向に光源を設定することで、上記本発明に係るロボットの実現が可能になる。
Further, in the robot according to the present invention, when there is no object regarded as a light source in the image data by the camera, it is estimated from the image data that the light source exists, for example, in a bright direction, and the light source is set in that direction. By setting, the robot according to the present invention can be realized.

さらに、本発明に係るロボットにおいては、前記カメラによる画像データに光源とみな
す物体がない場合、該画像データから光源が存在する方向、例えば明るい方向に光源が存
在すると推定し、その方向にカメラの撮影方向を移動する構成としてもよく、この場合に
は、光源を画像データとして確実に捉えることができ、その画像データから正確な光源情
報が得られ、より精度の高い光源の推定が可能となる。
Furthermore, in the robot according to the present invention, when there is no object regarded as a light source in the image data obtained by the camera, it is estimated from the image data that the light source exists in a direction where the light source exists, for example, in a bright direction. The configuration may be such that the shooting direction is moved. In this case, the light source can be reliably captured as image data, accurate light source information can be obtained from the image data, and the light source can be estimated with higher accuracy. .

以下、上記した本発明に係るロボットの最良の実施の形態を、図面等を示して詳細に説
明する。
Hereinafter, the best embodiment of the robot according to the present invention will be described in detail with reference to the drawings.

図1は本発明に係るロボットのシステム構成の一例を示した図である。この図に示した
ように、本発明に係るロボットは、ロボットの頭部を表示するディスプレイ1、このディ
スプレイ1に三次元モデルを表示する三次元モデル表示部2、この三次元モデル表示部2
に与えるデータとしての光源データ3、材質データ4及び形状データ5などの三次元モデ
ルのデータ、そして、一個或いは複数個からなる光検出手段であるカメラ7、このカメラ
7からのデータを解析して上記三次元モデル表示部2に与えるデータを更新する光源推定
部6とから構成されている。
なお、上記三次元モデル表示部2、光源推定部6は計算機内部の処理部であり、上記光
源データ3、材質データ4及び形状データ5などの三次元モデルのデータは計算機内部の
データである。
FIG. 1 is a diagram showing an example of a system configuration of a robot according to the present invention. As shown in this figure, the robot according to the present invention includes a display 1 that displays the head of the robot, a three-dimensional model display unit 2 that displays a three-dimensional model on the display 1, and the three-dimensional model display unit 2.
Analyzing three-dimensional model data such as light source data 3, material data 4 and shape data 5 as data to be given to the camera 7, and a camera 7 which is one or a plurality of light detection means, and data from the camera 7 The light source estimation unit 6 updates the data to be given to the three-dimensional model display unit 2.
The three-dimensional model display unit 2 and the light source estimation unit 6 are processing units inside the computer, and the three-dimensional model data such as the light source data 3, the material data 4 and the shape data 5 are data inside the computer.

上記頭部を表示するディスプレイ1の周辺には、図2に示したように、上記カメラ7が
配置され、ディスプレイ1に当たっている光Lの状態を検出できるようになっている。
上記カメラ7は光の強さ、色などが検出できるものとする。カメラ7を光検出手段とし
て用いる利点は、カメラは二次元の情報が得られるために一台のカメラでも本発明に係る
ロボットの実現が可能であり、また、カメラを二台用いて行なえば、両眼ステレオ法など
の手法を用いることにより正確な光源の距離を求めることができ、よりリアルな光源の推
定が可能となることにある。
As shown in FIG. 2, the camera 7 is arranged around the display 1 that displays the head, so that the state of the light L striking the display 1 can be detected.
The camera 7 can detect light intensity, color, and the like. The advantage of using the camera 7 as a light detection means is that since the camera can obtain two-dimensional information, the robot according to the present invention can be realized even with one camera, and if the two cameras are used, By using a technique such as the binocular stereo method, an accurate distance of the light source can be obtained, and a more realistic light source can be estimated.

一個或いは複数個のカメラ7の画像情報から光源の大きさ、形状、方向、色、距離、種
類を推定する。この推定処理を行うのが光源推定部6である。光源推定部6は、計算機内
部の光源データ3などを更新する。そして、この更新した光源データ3、頭部の形状を表
現した形状データ5、頭部の形状データ5と対応して色や質感などを示した材質データ4を使って三次元モデル表示部2によりディスプレイ1上に、ロボットの頭部の画像が表示される。
なお、上記ディスプレイ1は、現状で長方形のものしか入手できないが、人間や動物の
頭部の形状に近いディスプレイを使用することもできる。
The size, shape, direction, color, distance, and type of the light source are estimated from the image information of one or a plurality of cameras 7. The light source estimation unit 6 performs this estimation process. The light source estimation unit 6 updates the light source data 3 and the like inside the computer. The three-dimensional model display unit 2 uses the updated light source data 3, shape data 5 representing the shape of the head, and material data 4 indicating the color and texture corresponding to the shape data 5 of the head. An image of the head of the robot is displayed on the display 1.
In addition, although the said display 1 can obtain only a rectangular thing at present, the display close | similar to the shape of the head of a human or an animal can also be used.

図3は、本発明に係るロボットの動作の一例を説明するためのフローチャートである。
このフローチャートに示したように、まず、カメラ7から画像データを得る(P1)。
次に、この画像データから、光源の大きさ、形状、方向、色、距離、種類を推定する(P
2)。そして、前記推定結果に基づき光源データ3を更新し、それを他の三次元モデルの
データ4,5と共にディスプレイ1に表示する(P3)。
以上の処理を繰り返すことにより、ロボットの頭部の周辺の光が変化すると同時に、デ
ィスプレイ1上に表示されたロボットの頭部はその周辺の光に応じてリアルタイムに変化
させることができる。例えば、光が右から当たればロボットの顔も右から光が当たったよ
うに表示され、周りを暗くすればディスプレイ1上のロボットの顔が黒く、また赤い光を
当てればロボットの顔も赤い光に照らされたように表示される。
FIG. 3 is a flowchart for explaining an example of the operation of the robot according to the present invention.
As shown in this flowchart, first, image data is obtained from the camera 7 (P1).
Next, the size, shape, direction, color, distance, and type of the light source are estimated from this image data (P
2). Then, the light source data 3 is updated based on the estimation result, and is displayed on the display 1 together with other three-dimensional model data 4 and 5 (P3).
By repeating the above processing, the light around the robot's head changes, and at the same time, the robot's head displayed on the display 1 can be changed in real time according to the surrounding light. For example, if the light hits from the right, the robot's face appears as if it hits the right. If the surroundings are darkened, the robot's face on the display 1 will be black. It is displayed as if illuminated.

図4は、上記図3の推定部分(P2)の動作の一例を詳細に説明するためのフローチャ
ートである。
この実施の形態においては、まず、カメラ7から得られた画像データを二値化処理する
(Q1)。次に、ラベリング処理を行う(Q2)。次に、所定以上の大きさを有する物体
があるかどうかを判断する(Q3)。所定以上の大きさを有する物体がある場合、ラべリ
ングされた物体を大きいものから順に光源とみなし、その光源の位置、大きさ、形状、種
類を画像データから算出し求める(Q4)。次に、上記カメラ7の画像データと比較し、
光源の色を抽出する(Q5)。こうして周囲の光源を推定し、搭載されたカメラ7の向き
、位置などの撮影情報と画像中の光源位置から実空間上の光源の位置を求める(Q8)。
これらの処理を行い、図3の光源推定部分(P2)の動作は終了する。
また、上記二値化処理(Q1)、ラべリング処理(Q2)を行い、所定以上の大きさを
有する物体があるかどうかを判断(Q3)した結果、所定以上の大きさを有する物体がな
い場合には、画像全体の輝度の平均値を求め、周囲の明るさを求めることによって光源の
有無を推定する(Q6)。つまり、画像全体の輝度の平均値がないなら周囲に光源はない
と推定される。それ以外の場合は光源があると判断され、光源位置の推定を行なう(Q7
)。
FIG. 4 is a flowchart for explaining in detail an example of the operation of the estimation portion (P2) of FIG.
In this embodiment, first, the image data obtained from the camera 7 is binarized (Q1). Next, a labeling process is performed (Q2). Next, it is determined whether there is an object having a size larger than a predetermined size (Q3). When there is an object having a size greater than or equal to a predetermined size, the labeled object is regarded as the light source in order from the largest, and the position, size, shape, and type of the light source are calculated from the image data (Q4). Next, compared with the image data of the camera 7,
The color of the light source is extracted (Q5). In this way, the surrounding light source is estimated, and the position of the light source in the real space is obtained from the shooting information such as the direction and position of the mounted camera 7 and the light source position in the image (Q8).
These processes are performed, and the operation of the light source estimation part (P2) in FIG. 3 ends.
The binarization process (Q1) and the labeling process (Q2) are performed, and it is determined whether there is an object having a size larger than a predetermined value (Q3). If not, the average value of the luminance of the entire image is obtained, and the presence or absence of the light source is estimated by obtaining the ambient brightness (Q6). That is, if there is no average luminance value of the entire image, it is estimated that there is no light source around. Otherwise, it is determined that there is a light source, and the light source position is estimated (Q7).
).

上記図4のQ7における光源位置の推定方法の一例としては、例えば画像データを上下左右に4分割し、もっとも明るい範囲を割り出し、その方向に光源があると推定する。そして、この推定結果に基づき上記した実空間上の光源の位置を求め(Q8)、図3の光源推定部分(P2)の動作は終了する。この方法により、画像データ上に光源とみなす物体が存在しない場合でも、光源の位置を推定することが可能となる。   As an example of the method of estimating the light source position in Q7 in FIG. 4, for example, the image data is divided into four parts in the vertical and horizontal directions, the brightest range is determined, and it is estimated that there is a light source in that direction. Then, based on this estimation result, the position of the light source in the real space is obtained (Q8), and the operation of the light source estimation part (P2) in FIG. By this method, it is possible to estimate the position of the light source even when there is no object regarded as the light source on the image data.

図5は、上記図4の(Q1)、(Q2)部分である画像から光源を推定する推定手段の
前処理の一例を詳細に説明するための図である。
カメラ7からの入力画像(R1)は、それぞれの画素にx、y座標の位置情報、RGB
の色情報、明るさを表す輝度情報を持っている。この入力画像を輝度の大きい画素だけを
取り出すために二値化処理を行う(R2)。しかし、二値化処理を行ったままでは隣り合
う画素が明るくても同じ物体としては扱われず、そのため光源の大きさや形状を算出することができない。そこで、明るい画素の集合体を一つの物体であると認識するために、ラベリング処理を行う(R3)。ここでラべリングされた画像(R3)の画素は位置情報と輝度情報のほかに物体を識別するための番号がつけられる。これらの処理を行うことによって、画像中の明るい部分の形状や、画素数を合計することで物体の大きさが求められるようになる。
FIG. 5 is a diagram for explaining in detail an example of the preprocessing of the estimation means for estimating the light source from the images (Q1) and (Q2) in FIG.
The input image (R1) from the camera 7 has x, y coordinate position information, RGB for each pixel.
Color information and brightness information indicating brightness. A binarization process is performed to extract only pixels with high luminance from this input image (R2). However, if binarization processing is performed, even if adjacent pixels are bright, they are not treated as the same object, and therefore the size and shape of the light source cannot be calculated. Therefore, in order to recognize a collection of bright pixels as one object, labeling processing is performed (R3). Here, the pixels of the labeled image (R3) are given numbers for identifying objects in addition to position information and luminance information. By performing these processes, the size of the object can be obtained by summing the shape of the bright part in the image and the number of pixels.

図6は、さらに上記図4の(Q4)、(Q5)、(Q8)部分である画像から光源を推
定する推定手段の一例を詳細に説明するためのフローチャートである。
上記のように入力画像を前処理し、そしてラベリング処理された画像で所定以上の大き
さを有する物体がある場合(Q4スタート)、ラベリング処理された画像で大きい物体か
ら順に光源とみなし、複数個作成する(S1)。次に、それぞれの光源を構成する部分の
形状や、画素数を合計することで光源の大きさ、形状、種類を求め、またそれぞれの光源
を構成する各画素のx、y座標の位置情報をすべて足し、画素数で割ることにより物体の
中心点を求め、これを光源の中心位置とする(S2)。そして、この光源の中心位置と同
じ位置の色をカメラ7からの入力画像を元に参照してRGB情報を取得し、これを光源の
色とする(S3)。
これらの処理により得られた画像中における光源の位置情報と、カメラ7の位置、向き
、倍率などの撮影情報とから、実空間でどの方向に、どの程度の距離はなれて光源がある
かを計算する(S4)。ここまでの処理で二次元での光源の位置は推定することができる
。そこで、三次元で作成されたコンピュータグラフィック内に、画像で得られた方向へ光
源を所定の距離の場所に作成する(S5)。こうすることで二次元情報から三次元情報に
し、光源の推定を行う。
なお、ここではカメラ7を一台用いて光源の推定を行っているが、二台用いて行なえば
、両眼ステレオ法などの手法を用いることにより正確な光源の距離を求めることができ、
よりリアルな光源の推定が可能となる。
FIG. 6 is a flowchart for explaining in detail an example of the estimation means for estimating the light source from the image that is the (Q4), (Q5), and (Q8) portions of FIG.
When an input image is pre-processed as described above and an object having a size greater than or equal to a predetermined size is present in the labeled image (Q4 start), a plurality of images are regarded as light sources in order from the largest object in the labeled image. Create (S1). Next, the size, shape, and type of the light source are obtained by summing the shape of the parts constituting each light source and the number of pixels, and the position information of the x and y coordinates of each pixel constituting each light source is obtained. All are added, and the center point of the object is obtained by dividing by the number of pixels, and this is set as the center position of the light source (S2). Then, RGB information is obtained by referring to the color at the same position as the center position of the light source based on the input image from the camera 7, and this is used as the color of the light source (S3).
Based on the position information of the light source in the image obtained by these processes and the shooting information such as the position, orientation, and magnification of the camera 7, it is calculated in which direction in the real space and how far away the light source is. (S4). With the processing so far, the position of the light source in two dimensions can be estimated. Therefore, a light source is created at a predetermined distance in the direction obtained by the image in the computer graphic created in three dimensions (S5). By doing so, the light source is estimated from the two-dimensional information to the three-dimensional information.
Here, the light source is estimated using one camera 7, but if two cameras are used, an accurate light source distance can be obtained by using a technique such as a binocular stereo method.
A more realistic light source can be estimated.

図7は、上記で得られた光源の情報を表示する三次元モデル表示部2の説明図である。
図は光Lが曲面Sに当たったときに目Eに入る光について説明するものである。目に入
る光は、拡散光と反射光と環境光があり、計算機内部でこれらの光成分が当たったとき目
に入る光を計算する方法が確立されている。この目に入る光をディスプレイ1上の各画素
上で行うと、三次元モデルが陰影の付いたリアルな画像としてディスプレイ1上に表示さ
れることとなる。
この方法としては、フォーンシェーディングやグーロシェーディングなどの方法がある
。このような処理アルゴリズムは、例えばOpenGLというグラフィックライブラリの
中で実現されており、光源データ3と材質データ4と形状データ5を入力すればディスプ
レイ1上に陰影のついた三次元画像が容易に得られる。この処理部が三次元モデル表示部
2である。
FIG. 7 is an explanatory diagram of the three-dimensional model display unit 2 that displays the light source information obtained above.
The figure explains the light that enters the eye E when the light L hits the curved surface S. FIG. Light entering the eye includes diffused light, reflected light, and ambient light, and a method for calculating the light entering the eye when these light components hit inside the computer has been established. When the light entering this eye is performed on each pixel on the display 1, the three-dimensional model is displayed on the display 1 as a realistic image with a shadow.
As this method, there are methods such as phone shading and Guro shading. Such a processing algorithm is realized, for example, in a graphic library called OpenGL. If the light source data 3, the material data 4 and the shape data 5 are inputted, a three-dimensional image with a shadow on the display 1 can be easily obtained. It is done. This processing unit is the three-dimensional model display unit 2.

図8は、光検知手段であるカメラ7を可動式にしたもののロボットの頭部の概観の一例
を示した図である。
この実施の形態においては、カメラ7を移動させるためにモータ8を用い、上下左右に
カメラ7を移動できる仕組みになっている。ここでは、カメラ7のみを移動させる形態を
とっているが、カメラとロボットの頭部であるディスプレイを同時に移動させてもよい。
FIG. 8 is a view showing an example of an overview of the head of the robot in which the camera 7 as the light detection means is movable.
In this embodiment, the motor 8 is used to move the camera 7, and the camera 7 can be moved vertically and horizontally. Although only the camera 7 is moved here, the camera and the display that is the head of the robot may be moved simultaneously.

図9は、図8におけるカメラ7を可動式にしたものの動作の一例を説明するためのフロ
ーチャートである。
このフローチャートにおいて、(Q1)から(Q5)、及び(Q8)は上記で説明した
図4のフローチャートと動作が同じであるため、その説明は省略する。
二値化処理(Q1)、ラべリング処理(Q2)を行い、所定以上の大きさを有する物体
があるかどうかを判断(Q3)した結果、所定以上の大きさを有する物体がない場合、画
像全体の輝度の平均値を求め、周囲に明るさが有るかないかを判断する(T1)。周囲に
明るさがないと判断された場合には、周囲に光源はないと推定し(T2)、その後は、図
4のフローチャートと同様の動作をたどる。一方、周囲に明るさがあると判断された場合
には、画像を上下左右に4分割し、それぞれの範囲の輝度を求め、もっとも明るい方向を
検出する(T3)。そして、そのもっとも明るい方向に光源があると推定し、カメラ7に
取り付けられたモータ8によってその方向にカメラを移動させる(T4)。移動させた後
、再度得られたカメラの画像データに基づき前記した光源の推定を行うことにより、周囲
の光源情報をより正確に反映した光源推定を実現する。
FIG. 9 is a flowchart for explaining an example of the operation of the movable camera 7 in FIG.
In this flowchart, (Q1) to (Q5) and (Q8) have the same operations as those in the flowchart of FIG. 4 described above, and thus description thereof is omitted.
When binarization processing (Q1) and labeling processing (Q2) are performed and it is determined whether there is an object having a size greater than or equal to a predetermined value (Q3), An average value of the luminance of the entire image is obtained, and it is determined whether or not there is brightness in the surroundings (T1). If it is determined that there is no brightness in the surroundings, it is estimated that there is no light source in the surroundings (T2), and thereafter the same operation as in the flowchart of FIG. 4 is followed. On the other hand, if it is determined that there is brightness in the surroundings, the image is divided into four parts, top, bottom, left, and right, the brightness of each range is obtained, and the brightest direction is detected (T3). Then, the light source is estimated to be in the brightest direction, and the camera is moved in that direction by the motor 8 attached to the camera 7 (T4). After the movement, the above-described light source estimation is performed based on the camera image data obtained again, thereby realizing light source estimation more accurately reflecting the surrounding light source information.

以上、本発明に係るロボットの実施の形態を説明したが、本発明は、何ら既述の実施の
形態に限定されず、特許請求の範囲の記載した本発明の技術的思想の範囲内において、種
々の変形及び更新が可能であることは当然である。
Although the embodiment of the robot according to the present invention has been described above, the present invention is not limited to the embodiment described above, and within the scope of the technical idea of the present invention described in the claims, Naturally, various modifications and updates are possible.

本発明に係るロボットのシステム構成の一例を示した図である。It is the figure which showed an example of the system configuration | structure of the robot which concerns on this invention. 本発明に係るロボットの頭部の概観の一例を示した図である。It is the figure which showed an example of the general view of the head of the robot which concerns on this invention. 本発明に係るロボットの動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of operation | movement of the robot which concerns on this invention. 本発明に係るロボットの固定カメラによる光源推定部分の動作の一例を詳細に説明するためのフローチャートである。It is a flowchart for demonstrating in detail an example of operation | movement of the light source estimation part by the fixed camera of the robot which concerns on this invention. 本発明に係るロボットの光源推定のための画像の前処理の一例を詳細に説明するための図である。It is a figure for demonstrating in detail an example of the pre-processing of the image for the light source estimation of the robot which concerns on this invention. 本発明に係るロボットの前処理後の画像から光源を推定する推定手段の一例を詳細に説明するためのフローチャートである。It is a flowchart for demonstrating in detail an example of the estimation means which estimates a light source from the image after the pre-processing of the robot which concerns on this invention. 本発明に係るロボットの三次元モデル表示部の説明図である。It is explanatory drawing of the three-dimensional model display part of the robot which concerns on this invention. 可動カメラを搭載した本発明に係るロボットの頭部の概観の一例を示した図である。It is the figure which showed an example of the general view of the head of the robot which concerns on this invention carrying a movable camera. 本発明に係るロボットの可動カメラによる光源推定部分の動作の一例を詳細に説明するためのフローチャートである。It is a flowchart for demonstrating in detail an example of operation | movement of the light source estimation part by the movable camera of the robot which concerns on this invention.

符号の説明Explanation of symbols

1 ディスプレイ
2 三次元モデル表示部
3 光源データ
4 材質データ
5 形状データ
6 風量推定部
7 カメラ
8 モータ
L 光
S 曲面
E 目
DESCRIPTION OF SYMBOLS 1 Display 2 3D model display part 3 Light source data 4 Material data 5 Shape data 6 Air volume estimation part 7 Camera 8 Motor L Light S Curved surface E Eye

Claims (4)

人間や動物の頭部を表現した三次元モデルのデータと、前記データをディスプレイに表示する三次元モデル表示手段と、前記ディスプレイの周辺の光を検出するカメラを有し、前記三次元モデル表示手段が、前記カメラの出力に基づいて前記三次元モデルのデータを更新し、それを前記三次元モデル表示手段により前記ディスプレイに表示するロボットであって、前記カメラの画像データを二値化処理し、次にラベリング処理をし、その中に所定以上の大きさを有する物体があるかどうかを判断し、所定以上の大きさを有する物体がある場合、ラべリングされた物体を大きいものから順に光源とみなし、その光源の大きさ、形状、方向、色、距離、種類を前記画像データから算出し求め、前記三次元モデルのデータ中の光源に関するデータを更新する、光源推定手段をさらに備えることを特徴とするロボット。 Three-dimensional model data representing a human or animal head, three-dimensional model display means for displaying the data on a display, and a camera for detecting light around the display , the three-dimensional model display means Is a robot that updates the data of the three-dimensional model based on the output of the camera and displays it on the display by the three-dimensional model display means , and binarizes the image data of the camera, Next, a labeling process is performed, and it is determined whether or not there is an object having a size larger than a predetermined size. If there is an object having a size larger than a predetermined size, the labeled objects are lighted in order from the largest. The size, shape, direction, color, distance, and type of the light source is calculated from the image data, and data on the light source in the data of the three-dimensional model is obtained. New to the robot, characterized in that it further comprises a light source estimation means. 前記光源推定手段が、ラベリング処理され光源とみなされた部分の画素数を合計することで光源の大きさ、形状、種類を求め、またそれぞれの光源を構成する各画素のx、y座標の位置情報をすべて足し、画素数で割ることにより物体の中心点を求め、これを光源の中心位置とし、この光源の中心位置と同じ位置の色を前記カメラからの入力画像を参照して取得し、これを光源の色とすることを特徴とする、請求項1記載のロボット。 The light source estimation means calculates the size, shape, and type of the light source by summing the number of pixels of the portion that has been labeled and regarded as the light source, and the position of the x and y coordinates of each pixel constituting each light source Add all the information, find the center point of the object by dividing by the number of pixels, this is the center position of the light source, obtain the color at the same position as the center position of this light source with reference to the input image from the camera, The robot according to claim 1, wherein this is a color of a light source . 前記カメラによる画像データに光源とみなす物体がない場合、前記光源推定手段が、前記画像データを上下左右に分割し、もっとも明るい範囲を割り出し、その方向に光源があると推定し、その方向に光源を設定することをことを特徴とする、請求項記載のロボット。 When there is no object regarded as a light source in the image data from the camera, the light source estimation means divides the image data vertically and horizontally, finds the brightest range, estimates that there is a light source in that direction, and the light source in that direction characterized in that to set the claim 1, wherein the robot. 前記カメラによる画像データに光源とみなす物体がない場合、該画像データから光源が存在する方向を推定し、その方向にカメラの撮影方向を移動することを特徴とする、請求項に記載のロボット。 If there is no object regarded as a light source in the image data by the camera, to estimate the direction in which the light source from the image data exists, characterized by moving the photographing direction of the camera in that direction, according to claim 1 Robot .
JP2003337232A 2003-09-29 2003-09-29 robot Expired - Fee Related JP4436101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003337232A JP4436101B2 (en) 2003-09-29 2003-09-29 robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003337232A JP4436101B2 (en) 2003-09-29 2003-09-29 robot

Publications (2)

Publication Number Publication Date
JP2005107644A JP2005107644A (en) 2005-04-21
JP4436101B2 true JP4436101B2 (en) 2010-03-24

Family

ID=34533118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003337232A Expired - Fee Related JP4436101B2 (en) 2003-09-29 2003-09-29 robot

Country Status (1)

Country Link
JP (1) JP4436101B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080142A1 (en) * 2009-12-21 2011-07-07 Thomson Licensing Method for generating an environment map
JP5506371B2 (en) * 2009-12-24 2014-05-28 三星電子株式会社 Image processing apparatus, image processing method, and program
WO2017154046A1 (en) * 2016-03-10 2017-09-14 パナソニックIpマネジメント株式会社 Display device

Also Published As

Publication number Publication date
JP2005107644A (en) 2005-04-21

Similar Documents

Publication Publication Date Title
CN106355153B (en) A kind of virtual objects display methods, device and system based on augmented reality
US20230377183A1 (en) Depth-Aware Photo Editing
CN109003325B (en) Three-dimensional reconstruction method, medium, device and computing equipment
CN106062862B (en) System and method for immersive and interactive multimedia generation
JP6560480B2 (en) Image processing system, image processing method, and program
CN107251101B (en) Scene modification for augmented reality using markers with parameters
US9846966B2 (en) Image processing device, image processing method, and computer program product
KR100974900B1 (en) Marker recognition apparatus using dynamic threshold and method thereof
Tian et al. Handling occlusions in augmented reality based on 3D reconstruction method
US7454065B2 (en) Specific point detecting method and device
US8860760B2 (en) Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
JP2019510297A (en) Virtual try-on to the user's true human body model
CN108510583A (en) The generation method of facial image and the generating means of facial image
CN111275731A (en) Projection type real object interactive desktop system and method for middle school experiment
US20220189078A1 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
US20180286130A1 (en) Graphical image augmentation of physical objects
KR20110107691A (en) Spatial augmented reality-based interactive display system and method of the same
CN113552942B (en) Method and equipment for displaying virtual object based on illumination intensity
RU2735066C1 (en) Method for displaying augmented reality wide-format object
CN110870304A (en) Method and apparatus for providing information to a user for viewing multi-view content
JP4436101B2 (en) robot
US10902669B2 (en) Method for estimating light for augmented reality and electronic device thereof
CN114066715A (en) Image style migration method and device, electronic equipment and storage medium
JP2004030408A (en) Three-dimensional image display apparatus and display method
US11138807B1 (en) Detection of test object for virtual superimposition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091225

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees