JP2001236505A - Method, device and system for estimating coordinate - Google Patents
Method, device and system for estimating coordinateInfo
- Publication number
- JP2001236505A JP2001236505A JP2000044400A JP2000044400A JP2001236505A JP 2001236505 A JP2001236505 A JP 2001236505A JP 2000044400 A JP2000044400 A JP 2000044400A JP 2000044400 A JP2000044400 A JP 2000044400A JP 2001236505 A JP2001236505 A JP 2001236505A
- Authority
- JP
- Japan
- Prior art keywords
- interest
- estimating
- coordinate
- unit
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は座標推定技術に関
する。この発明はとくに、二次元画像に含まれる目的物
の三次元座標を推定する方法、装置およびそれらを用い
たシステムに関する。[0001] The present invention relates to a coordinate estimation technique. In particular, the present invention relates to a method and an apparatus for estimating three-dimensional coordinates of an object included in a two-dimensional image, and a system using the same.
【0002】[0002]
【従来の技術】国民の生活水準の向上または安定化に伴
い、スポーツなどの余暇に当てられる資金や時間は増加
傾向にある。たとえば、わが国におけるゴルフ愛好者は
1000万人を超えるといわれ、一般にその技能向上へ
の関心は高い。そのため、雑誌、ビデオなどによるワン
ポイントレッスンやプロによる個人レッスンが行われて
いる。しかし、これらの方法はコストや情報の一方向性
のために、万人の満足に叶うものではない。2. Description of the Related Art With the improvement or stabilization of the standard of living of people, funds and time allotted for leisure such as sports are increasing. For example, it is said that the number of golf lovers in Japan exceeds 10 million, and there is generally a high interest in improving their skills. For this reason, one-point lessons using magazines and videos and individual lessons by professionals are held. However, these methods are not satisfactory for everyone due to cost and unidirectionality of information.
【0003】一方、最近CG(コンピュータグラフィッ
クス)、ロボティックス、バーチャルリアリティなどさ
まざまな分野の研究において、人体の動きへの関心が高
まっている。CGをスポーツに適用し、人体の動きを解
析する研究もしばしば行われてきた。こうした取組みの
ひとつに、ステレオカメラを用いた三次元座標計測技術
がある。この技術をたとえばゴルフに応用する場合、ユ
ーザはまず自分のスイングをステレオカメラで取り込
み、三角測量の原理で身体のいろいろな点の三次元座標
を計測する。しかる後、たとえばスイングモーションを
三次元表示することができる。On the other hand, interest in the movement of the human body has recently increased in research in various fields such as CG (computer graphics), robotics, and virtual reality. There have been many studies that apply CG to sports and analyze the movement of the human body. One of such efforts is a three-dimensional coordinate measurement technology using a stereo camera. When this technique is applied to, for example, golf, a user first captures his or her swing with a stereo camera and measures three-dimensional coordinates of various points on the body based on the principle of triangulation. Thereafter, for example, the swing motion can be displayed three-dimensionally.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、この方
法には以下の課題がある。すなわち、システム全体が一
般に高価であり、設置や扱いが難しく、複数のカメラ画
像間の対応点指定に手間がかかる。したがって、特殊な
映像スタジオであればもとかく、個人が屋外などで気軽
にスイングのチェックをしたいというような用途には一
般に向かない。However, this method has the following problems. That is, the entire system is generally expensive, difficult to install and handle, and it takes time to specify corresponding points between a plurality of camera images. Therefore, it is not generally suitable for an application in which an individual wants to easily check a swing outdoors or the like, regardless of a special video studio.
【0005】この発明はこうした課題に鑑みてなされた
ものであり、その目的は、安価かつ手軽な方法で人体等
の三次元座標を推定する技術の提供にある。本発明の別
の目的は、一台のカメラの画像のように、一枚の二次元
画像から三次元座標を推定する技術の提供にある。[0005] The present invention has been made in view of such problems, and an object of the present invention is to provide a technique for estimating three-dimensional coordinates of a human body or the like by an inexpensive and easy method. Another object of the present invention is to provide a technique for estimating three-dimensional coordinates from one two-dimensional image, such as an image of one camera.
【0006】[0006]
【課題を解決するための手段】本発明の座標推定装置
は、目的物が含まれる二次元画像を取得するユニット
と、前記目的物に固有な位置的な拘束条件をもとに、前
記目的物にとられた複数の注目点の三次元座標を推定す
るユニットとを備える。A coordinate estimating apparatus according to the present invention comprises: a unit for acquiring a two-dimensional image including an object; and a coordinate estimating apparatus for acquiring the object based on a positional constraint unique to the object. And a unit for estimating the three-dimensional coordinates of the plurality of points of interest taken in step (a).
【0007】ここで「二次元画像」は、カメラ映像のほ
か、任意の画像、たとえばCGなどによる人工的な画像
でもよい。「目的物」は画像の一部として含まれる人
体、物体などの被写体のほか、CGやマンガの画像に含
まれる所定の領域などであってもよく、画像全体が目的
物であってもよい。「位置的な拘束条件」とは、ある注
目点の三次元座標の範囲を限定する方向に働く条件であ
って、目的物に関連するものをいう。「三次元座標」は
世界座標その他の座標でよく、画像のカメラ視点から定
まる座標であってもよい。Here, the "two-dimensional image" may be an arbitrary image, for example, an artificial image such as a CG image, in addition to a camera image. The “target” may be a subject such as a human body or an object included as a part of the image, a predetermined area included in a CG or manga image, or the entire image may be the target. The “positional constraint condition” is a condition that acts in a direction that limits the range of the three-dimensional coordinates of a certain point of interest, and refers to a condition related to an object. The “three-dimensional coordinates” may be world coordinates or other coordinates, or may be coordinates determined from a camera viewpoint of an image.
【0008】一般に、二次元画像から注目点の三次元座
標を特定するには、少なくともふたつの方向からの画像
が必要である。しかしながら本発明の座標推定装置によ
れば、目的物に関する知見、すなわち拘束条件を利用す
るため、注目点の三次元座標のとりうる範囲を限定し、
三次元座標を推定することができる。この装置は、前記
二次元画像の画面内座標と前記三次元座標の間の変換規
則を導出するための校正ユニットをさらに備えてもよ
い。画面内座標の例として、画素の縦、横方向の番号が
ある。ただし、この校正の段階では、三次元座標の奥行
き成分、つまり画像の視点からの距離が画面内座標全体
にわたって特定される必要はない。Generally, in order to specify three-dimensional coordinates of a point of interest from a two-dimensional image, images from at least two directions are required. However, according to the coordinate estimating device of the present invention, in order to use the knowledge about the target, that is, the constraint condition, the possible range of the three-dimensional coordinates of the point of interest is limited,
Three-dimensional coordinates can be estimated. The apparatus may further include a calibration unit for deriving a conversion rule between the in-screen coordinates of the two-dimensional image and the three-dimensional coordinates. As an example of the coordinates in the screen, there are vertical and horizontal numbers of pixels. However, in this calibration stage, it is not necessary to specify the depth component of the three-dimensional coordinates, that is, the distance from the viewpoint of the image over the entire coordinates in the screen.
【0009】前記推定するユニットは、前記複数の注目
点のうち前記校正ユニットによる処理の結果をもとに三
次元座標が確定するものを起点として、順次前記拘束条
件を適用することにより、他の注目点の三次元座標を順
次推定してもよい。前述のごとく、画面内座標のみを手
かがりとしてその三次元座標の奥行き成分を特定するこ
とは一般に不可能である。しかし、たとえば床に寸法が
既知の直方体をおいてその三辺を世界座標系に定める場
合、少なくともその床の世界座標系における式が確定す
る。つぎに、その床にひとつ印をつけてこれを画面に映
し出せば、その印へ向けた視線の方向と床平面の交点と
してその点の三次元座標が確定する。このような、校正
のやり方に依存して三次元座標が決まる特異点が「起
点」の候補である。The estimating unit sequentially applies the constraint conditions starting from one of the plurality of points of interest whose three-dimensional coordinates are determined based on the result of the processing by the calibration unit, thereby obtaining another point. The three-dimensional coordinates of the point of interest may be sequentially estimated. As described above, it is generally impossible to specify the depth component of the three-dimensional coordinates using only the in-screen coordinates as a clue. However, for example, when a rectangular parallelepiped having a known size is placed on the floor and its three sides are determined in the world coordinate system, at least the equation of the floor in the world coordinate system is determined. Next, if one mark is put on the floor and this is projected on the screen, the three-dimensional coordinates of the point are determined as the intersection of the direction of the line of sight toward the mark and the floor plane. Such a singular point whose three-dimensional coordinates are determined depending on the calibration method is a candidate for the “starting point”.
【0010】前記推定するユニットは、前記複数の注目
点の処理順序に基づいて、それら注目点間の接続情報を
取得してもよい。処理順序として、たとえばユーザが指
定する順序や、逆に本装置がユーザに指示する順序など
がある。The unit for estimating may acquire connection information between the plurality of points of interest based on a processing order of the plurality of points of interest. The processing order includes, for example, the order specified by the user, and the order in which the present apparatus instructs the user.
【0011】本装置はさらに、前記複数の注目点の奥行
きが既知の値になる状態において、それら注目点間の距
離、すなわち相対距離または絶対距離を取得する初期設
定ユニットを備えてもよい。前記の状態として、たとえ
ばそれらの注目点が既知の基準平面上にくる状態、その
平面から既知の距離を保つ状態、既知の曲面上にくる状
態などがある。いずれにしても、奥行きが既知であれ
ば、前記画面座標と前記三次元座標の変換規則を一意に
特定でき、したがって各注目点の三次元座標が既知とな
る。その結果、任意の注目点間の距離、ここでは三次元
座標系における距離が判明する。[0011] The apparatus may further comprise an initialization unit for acquiring a distance between the points of interest, that is, a relative distance or an absolute distance, when the depths of the plurality of points of interest are known values. The states include, for example, a state in which the points of interest are on a known reference plane, a state in which the points are kept at a known distance from the plane, and a state in which the points are on a known curved surface. In any case, if the depth is known, the conversion rule between the screen coordinates and the three-dimensional coordinates can be uniquely specified, so that the three-dimensional coordinates of each point of interest are known. As a result, the distance between arbitrary points of interest, in this case, the distance in the three-dimensional coordinate system is determined.
【0012】本装置は、前記推定の結果をもとに、前記
複数の注目点の位置を三次元的に表示する制御ユニット
を備えてもよい。このとき、前記複数の注目点の三次元
座標および接続情報が反映されたグラフを表示してもよ
いし、さらにそれをアニメーションで表示してもよい。The apparatus may include a control unit for displaying the positions of the plurality of points of interest three-dimensionally based on the result of the estimation. At this time, a graph reflecting the three-dimensional coordinates and the connection information of the plurality of points of interest may be displayed, or the graph may be displayed as an animation.
【0013】一方、本発明の座標推定方法は、目的物が
含まれる二次元画像を取得する工程と、前記目的物に固
有な位置的な拘束条件をもとに、前記目的物の複数の注
目点の三次元座標を推定する工程とを備える。ここで、
この拘束条件は、前記複数の注目点の奥行きの大小関係
の推定に供するべく採用されてもよい。前記目的物が人
体の場合、拘束条件はその関節のとりうる角度を考慮し
て定められてもよい。On the other hand, a coordinate estimating method according to the present invention includes a step of obtaining a two-dimensional image including an object, and a method of estimating a plurality of objects of the object based on positional constraints unique to the object. Estimating the three-dimensional coordinates of the point. here,
This constraint condition may be employed to provide for estimation of the depth relationship between the plurality of points of interest. When the object is a human body, the constraint condition may be determined in consideration of the possible angle of the joint.
【0014】他方、本発明の座標推定システムは、クラ
イアントとサーバを備えて構成される。このサーバは、
クライアントから送られた画像を受けとるユニットと、
その画像に含まれる目的物の注目点の三次元座標を推定
するユニットと、その推定結果に関連する情報を前記ク
ライアントへ送り返すユニットを備える。この情報は、
注目点の三次元座標をもとに生成される可視化のための
データを含んでもよい。前記可視化のためのデータは、
前記注目点の三次元座標および接続情報が反映されたグ
ラフを含んでもよい。On the other hand, the coordinate estimating system of the present invention comprises a client and a server. This server is
A unit for receiving images sent from the client,
A unit for estimating the three-dimensional coordinates of the point of interest of the target included in the image; and a unit for returning information related to the estimation result to the client. This information
It may include data for visualization generated based on the three-dimensional coordinates of the point of interest. The data for the visualization is:
It may include a graph in which the three-dimensional coordinates of the point of interest and the connection information are reflected.
【0015】なお、本発明の座標推定装置の特徴は、座
標推定方法または座標推定システムに導入されてもよ
く、その逆も可能である。すなわち、これらの装置、方
法、システムの特徴や構成は、それぞれ当業者によって
相当自由に交流させることが可能である。また、本発明
の処理をプログラムの形で実行する場合、そのプログラ
ムをコンピュータで読み取り可能な記録媒体に格納して
提供してもよい。The features of the coordinate estimating apparatus of the present invention may be introduced into a coordinate estimating method or a coordinate estimating system, and vice versa. That is, the features and configurations of these devices, methods, and systems can be freely exchanged by those skilled in the art. When the processing of the present invention is performed in the form of a program, the program may be provided by being stored in a computer-readable recording medium.
【0016】[0016]
【発明の実施の形態】図1は実施の形態に係る座標推定
装置の構成を示す。また、図2は座標推定装置10によ
る処理の大略を示すフローチャートである。概略的にい
えば、座標推定装置10は外部から画像を取り込み、そ
の画像の被写体にとられた多数の注目点における三次元
座標を取得または推定する。ここでは目的物として人
体、注目点として人体の主な関節をとって説明する。FIG. 1 shows the configuration of a coordinate estimating apparatus according to an embodiment. FIG. 2 is a flowchart showing the outline of the processing performed by the coordinate estimating apparatus 10. Roughly speaking, the coordinate estimating apparatus 10 takes in an image from the outside and acquires or estimates three-dimensional coordinates at a number of points of interest taken by a subject in the image. Here, a human body will be described as an object, and main joints of the human body will be described as points of interest.
【0017】画像入力ユニット12は、デジタルカメラ
などで撮影された画像を入力するインタフェイス、また
はそれ自体がカメラである。ここでは一例として、画像
入力ユニット12がカメラであるとする。画像入力ユニ
ット12は、まず画像を入力する(図2のS10)。The image input unit 12 is an interface for inputting an image captured by a digital camera or the like, or is a camera itself. Here, as an example, it is assumed that the image input unit 12 is a camera. The image input unit 12 first inputs an image (S10 in FIG. 2).
【0018】つぎに、校正ユニット14によって校正が
行われる(S12)。図3は校正のために画面40内に
置かれた大きさが既知の立方体の枠44を示す。枠44
は床面42に置かれている。ここでは、枠44の辺で定
まる3つの方向を世界座標系(Xw,Yw,Zw)と定
める。校正の最終目的は、この世界座標系と画像入力ユ
ニット12であるカメラの画面40内座標系の変換規則
の取得にある。ただし、この導出方法自体は既知である
ため、以下、概略を示すにとどめる。Next, calibration is performed by the calibration unit 14 (S12). FIG. 3 shows a cubic frame 44 of known size placed in the screen 40 for calibration. Frame 44
Is placed on the floor surface 42. Here, three directions defined by the sides of the frame 44 are defined as a world coordinate system (Xw, Yw, Zw). The final purpose of the calibration is to obtain a conversion rule between the world coordinate system and the coordinate system in the screen 40 of the camera which is the image input unit 12. However, since the derivation method itself is known, only an outline will be given below.
【0019】変換規則を特定すべく、まずカメラ座標系
を定義する。カメラ座標系では、カメラの視線方向をZ
cとし、それに垂直な二方向をXc、Ycと決める。ま
た、画面内座標を(x,y,1)と定める。この座標は
たとえば縦横の画素番号を利用できる。いま、カメラ座
標(Xc,Yc,Zc)の点が画面内座標(x,y,
1)に投影されるなら、 x=f・Xc/Zc, y=f・Yc/Zc となる。ここでfはカメラの焦点距離である。行列を用
いてこの式を書き直すと、 sm=P・M〜c (式1) となる。ここで、m=(x,y,1)T、M〜c=(X
c,Yc,Zc,1)T、sはスカラー、Pは、First, a camera coordinate system is defined to specify a conversion rule. In the camera coordinate system, the viewing direction of the camera is Z
c, and two directions perpendicular thereto are determined as Xc and Yc. The coordinates in the screen are defined as (x, y, 1). As the coordinates, for example, vertical and horizontal pixel numbers can be used. Now, the point of the camera coordinates (Xc, Yc, Zc) is the screen coordinates (x, y,
If projected to 1), then x = f.Xc / Zc, y = f.Yc / Zc. Here, f is the focal length of the camera. If this equation is rewritten using a matrix, sm = P ・M〜c (Equation 1). Here, m = (x, y, 1) T , M c = (X
c, Yc, Zc, 1) T , s is a scalar, and P is
【0020】[0020]
【数1】 である。また、カメラ座標系の点Mcと世界座標系にお
けるその点の座標Mwの間には、 M〜c=D・M〜w なる関係がある。ここで、Dは三次元のユークリッド変
換を表す行列で、回転と平行移動の組合せである。した
がって式1より、 sm=P・M〜c=P・D・M〜w となる。ここで新たに射影行列Pwを、 Pw=PD のようにおくと、 sm=Pw・M〜w (式2) となる。これが画面内座標と世界座標の変換規則であ
る。Pwを定めるために、理論上5個の点について画面
内座標と世界座標の関係を調べればよいことが知られて
おり、ここでは図3の枠44の頂点のうち5個以上をこ
のために利用する。以上で校正が終了し、式2に関する
データが準備データ格納部18へ格納される。(Equation 1)It is. Also, the point Mc in the camera coordinate system and the world coordinate system
Between the coordinates Mw of the point~ C= DM~ W There is a relationship. Where D is a three-dimensional Euclidean transformation
This is a matrix that represents a permutation, and is a combination of rotation and translation. did
Therefore, from equation 1, sm = PM~ C= P ・ D ・ M~ W Becomes Here, if the projection matrix Pw is newly set as Pw = PD, sm = Pw · M~ W (Equation 2) This is the conversion rule between on-screen coordinates and world coordinates.
You. Screen for 5 points in theory to determine Pw
It is known that the relationship between interior coordinates and world coordinates should be checked.
Here, five or more of the vertices of the frame 44 in FIG.
Use for With the above, the calibration is completed.
The data is stored in the preparation data storage unit 18.
【0021】ここで注意すべきは、式2のスカラーsは
一般に定まらないことである。カメラから同一視線方向
にある点の奥行きは判明しないことによる。このため、
この実施の形態では、後述のように、校正のみから三次
元座標が完全に定まる、つまり奥行きも完全に定まる特
異点を起点として各注目点の座標を確定する手続が導入
されている。It should be noted here that the scalar s in equation (2) is not generally determined. This is because the depth of a point in the same line of sight from the camera cannot be determined. For this reason,
In this embodiment, as will be described later, a procedure is introduced in which three-dimensional coordinates are completely determined only from calibration, that is, the coordinates of each point of interest are determined starting from a singular point whose depth is also completely determined.
【0022】つづいて、人体の画像が入力され(図2の
S14)、初期設定ユニット16による初期設定が行わ
れる(S16)。初期設定とは、後の座標推定のため
に、予め目的物の注目点間の絶対距離を取得する処理を
いう。図4は人体に関する初期設定のために入力された
画像を示す。ここでは人物は背筋を伸ばし、手を伸ばし
て直立する。注目点の詳細は後述するが、ここでは足の
親指と小指以外の注目点が同一平面内にあると仮定す
る。この状態では、足の指が床面42に乗っており、か
つ床面42の式が求まっているため、視線方向の直線と
床面42の式の交点から足の指の三次元座標を特定する
ことができる。すなわち、足の指は初期設定において、
および次の推定の過程において、処理の起点として利用
される。Subsequently, an image of the human body is input (S14 in FIG. 2), and initialization is performed by the initialization unit 16 (S16). The initial setting refers to a process of acquiring in advance the absolute distance between the target points of interest of the target object for later coordinate estimation. FIG. 4 shows an image input for an initial setting relating to the human body. Here, the person stretches his back, reaches for his hand and stands upright. Although the details of the attention point will be described later, it is assumed here that the attention points other than the thumb and the little finger are on the same plane. In this state, since the toe is on the floor surface 42 and the expression of the floor surface 42 has been determined, the three-dimensional coordinates of the toe are specified from the intersection of the line of sight direction and the expression of the floor surface 42. can do. In other words, the toes are initially set
And in the process of the next estimation, it is used as the starting point of processing.
【0023】いま初期設定では、まず足の親指および小
指の三次元座標が求まる。つぎに、足首の三次元座標が
指からの距離に応じて定まる。以降、他の注目点は足首
と同一平面にあることが仮定されているため、それらの
任意の2点間の画面上の距離から三次元座標系における
絶対距離が定まる。以上で初期設定が終わり、この人体
に関する関節間距離データが準備データ格納部18へ格
納される。In the initial setting, first, the three-dimensional coordinates of the toe and the little toe are obtained. Next, the three-dimensional coordinates of the ankle are determined according to the distance from the finger. Hereinafter, since it is assumed that the other points of interest are on the same plane as the ankle, the absolute distance in the three-dimensional coordinate system is determined from the distance on the screen between any two of these points. Thus, the initial setting is completed, and the inter-joint distance data relating to the human body is stored in the preparation data storage unit 18.
【0024】つぎに、実際の推定処理へ移行する。ここ
でゴルフスイングのモーション中、重要なタイミングに
おける各注目点の三次元座標を推定し、各注目点をノー
ドとする三次元グラフを生成および表示するものとす
る。図5は、図2の推定(S20)の詳細手順を示す。
ユーザはまず、姿勢特定ユニット22を介して処理すべ
き姿勢を特定し(図5のS200)、その画像を入力す
る(図2のS18)。ここでは「ゴルフ」の「アドレ
ス」、「ゴルフ」の「テイクバック」、「テニス」の
「サーブ」の「インパクト」のようにいろいろな姿勢を
階層的に指定する。Next, the process proceeds to an actual estimation process. Here, during the motion of the golf swing, the three-dimensional coordinates of each point of interest at an important timing are estimated, and a three-dimensional graph having each point of interest as a node is generated and displayed. FIG. 5 shows a detailed procedure of the estimation (S20) of FIG.
First, the user specifies a posture to be processed via the posture specifying unit 22 (S200 in FIG. 5), and inputs the image (S18 in FIG. 2). Here, various postures are hierarchically designated, such as "address" of "golf", "takeback" of "golf", and "impact" of "serve" of "tennis".
【0025】つぎに、拘束条件供給ユニット24は特定
された姿勢をもとに最適な拘束条件を特定し(S20
2)、これを推定ユニット20へ提供する。たとえばゴ
ルフのアドレスの場合、「膝の関節は足首よりも前方に
出ている」がひとつの拘束条件となる。拘束条件は、人
体の姿勢および人体の関節がとりうる角度、その他人体
に固有のパラメータから定まる。したがって、拘束条件
供給ユニット24は予めこうしたデータをなるべく多数
保持していることが望ましい。Next, the restraint condition supply unit 24 specifies an optimum restraint condition based on the specified posture (S20).
2), provide this to the estimation unit 20. For example, in the case of a golf address, one constraint condition is that "the knee joint is located forward of the ankle". The constraint condition is determined from the posture of the human body, the angle that the joint of the human body can take, and other parameters unique to the human body. Therefore, it is desirable that the constraint condition supply unit 24 previously holds as many such data as possible.
【0026】つづいて、三次元座標を特定していくため
の起点を定める(S204)。ここでは前述の足の親指
または小指の一方を利用する。この実施の形態の特徴の
ひとつは、起点から順に拘束条件を適用することによ
り、起点に近い注目点から徐々に三次元座標を確定して
いく点にある。Next, a starting point for specifying three-dimensional coordinates is determined (S204). Here, one of the above-mentioned thumb or little finger is used. One of the features of this embodiment is that three-dimensional coordinates are gradually determined from a point of interest close to the starting point by applying a constraint condition sequentially from the starting point.
【0027】図6はスイングのアドレス姿勢において三
次元座標を推定すべき注目点の分布を、図7は起点から
順に注目点の三次元座標を特定していく順序をそれぞれ
示している。FIG. 6 shows the distribution of points of interest whose three-dimensional coordinates are to be estimated in the swing address posture, and FIG. 7 shows the order in which the three-dimensional coordinates of the point of interest are specified in order from the starting point.
【0028】図6のごとく、人体には多数の注目点がと
られる。いま人体の右半身について考えれば、人体の注
目点の三次元座標は、図7のごとく右親指130または
右小指128を起点として、以下の順に確定する。As shown in FIG. 6, a number of points of interest are taken on the human body. Now, considering the right half of the human body, the three-dimensional coordinates of the point of interest of the human body are determined in the following order starting from the right thumb 130 or the right little finger 128 as shown in FIG.
【0029】右足首132→右膝関節124→右股関節
120→腹114→右肩106→右肘110→右手11
8→クラブヘッド140 同様に、左半身について考えれば、左親指138または
左小指136を起点として、以下の順に確定する。Right ankle 132 → right knee joint 124 → right hip joint 120 → belly 114 → right shoulder 106 → right elbow 110 → right hand 11
8 → Club Head 140 Similarly, considering the left half body, the following order is determined starting from the left thumb 138 or the left little finger 136.
【0030】左足首134→左膝関節126→左股関節
122→腹114→左肩108→左肘112→左手11
6→クラブヘッド140 なお、首104から頭の頂点100については、 右肩106および左肩108→首104→鼻102→頂
点100 の順に定まる。腹114は左右両方の股関節の位置を加
味して定まり、クラブヘッド140は左右両方の手の位
置を加味して定まり、首104は右肩106および左肩
108の位置を加味して定まる。Left ankle 134 → Left knee joint 126 → Left hip joint 122 → Belly 114 → Left shoulder 108 → Left elbow 112 → Left hand 11
6 → club head 140 Note that the apex 100 of the head from the neck 104 is determined in the order of the right shoulder 106 and the left shoulder 108 → the neck 104 → the nose 102 → the apex 100. The belly 114 is determined by considering the positions of both the left and right hip joints, the club head 140 is determined by considering the positions of both the left and right hands, and the neck 104 is determined by considering the positions of the right shoulder 106 and the left shoulder 108.
【0031】いま起点の三次元座標が確定してその座標
が座標データ格納部28へ格納されたとする。ユーザは
注目点指定ユニット26を介してつぎに処理すべき注目
点を指定する(S206)。注目点指定ユニット26は
たとえば図7の矢印の順にユーザが指定するよう入力を
促してもよいし、ユーザが注目点の名称を入力しながら
自分の好きな順序で指定してもよい。指定は注目点の画
面上の位置をクリックすることで行う。このことでクリ
ックされた画面内座標が取得される。It is now assumed that the three-dimensional coordinates of the starting point are determined and the coordinates are stored in the coordinate data storage unit 28. The user specifies a point of interest to be processed next via the point of interest specifying unit 26 (S206). For example, the attention point designation unit 26 may prompt the user to designate in the order of the arrows in FIG. 7, or the user may designate the attention point while inputting the name of the attention point in his or her favorite order. The designation is performed by clicking the position of the point of interest on the screen. As a result, the clicked coordinates in the screen are obtained.
【0032】座標推定装置10は現在ユーザがクリック
している注目点が図6または図7のいずれの点に当たる
か把握する必要がある。そのため、たとえばユーザが間
違った注目点をクリックしたと思われる場合、注目点指
定ユニット26はユーザに警告を出してもよい。間違っ
たかどうかは、クリックすべき注目点の画面内座標が想
定値と大きく異なる場合や、不自然な場合がある。たと
えば、右半身に関してクリックされた座標が入力済みの
左半身に関してクリックされた座標よりもさらに左であ
る場合、入力ミスの可能性がある。The coordinate estimating apparatus 10 needs to know which point in FIG. 6 or FIG. 7 the point of interest currently clicked by the user falls on. Thus, for example, if the user seems to have clicked on the wrong attention point, the attention point designation unit 26 may issue a warning to the user. Whether it is wrong may be that the coordinates of the point of interest to be clicked on the screen are significantly different from the assumed values or that it is unnatural. For example, if the coordinates clicked on the right body are further left than the coordinates clicked on the input left body, there is a possibility of an input error.
【0033】いずれにしても、起点以降の注目点の指定
がなされると(S206)、推定ユニット20は拘束条
件を適用し(S208)、その注目点の座標を推定する
(S210)。In any case, when a point of interest after the starting point is designated (S206), the estimation unit 20 applies a constraint condition (S208) and estimates the coordinates of the point of interest (S210).
【0034】図8は三次元座標を推定する原理を示す。
既述のごとく、式2のパラメータsは一般に定まらな
い。たとえばすでに求まった右足首132の座標をもと
に右膝関節124の座標を求める場合、両者の絶対距離
rは初期設定の段階で判明している。したがって、右足
首132を中心とする半径rの球を想定し、この球と右
膝関節124へ向けた視線方向の直線(Xc,Yc,Z
c)=t(l,m,n)(ただし、l,m,nは定数、
tは変数)の交点を求めると、同図のごとく、ふたつの
解P1とP2が現れる。ここで、現在考察中の注目点に
ついて決まる拘束条件は「膝は足首より前にある」であ
るため、右膝関節124の位置は点P1であることが判
明する。すなわち、拘束条件を導入したことにより、一
枚の画像から注目点の奥行きが特定できるのである。FIG. 8 shows the principle of estimating three-dimensional coordinates.
As described above, the parameter s in Equation 2 is not generally determined. For example, when obtaining the coordinates of the right knee joint 124 based on the coordinates of the right ankle 132 already obtained, the absolute distance r between the two is known at the stage of initialization. Therefore, a sphere having a radius r centered on the right ankle 132 is assumed, and the sphere and a straight line (Xc, Yc, Z) in the line of sight toward the right knee joint 124 are assumed.
c) = t (l, m, n) (where l, m, n are constants,
When the intersection of (t is a variable) is obtained, two solutions P1 and P2 appear as shown in FIG. Here, since the constraint condition determined for the point of interest currently under consideration is “the knee is before the ankle”, it is clear that the position of the right knee joint 124 is the point P1. That is, by introducing the constraint condition, the depth of the point of interest can be specified from one image.
【0035】一般化のために、ある注目点Piから次の
注目点Pi+1の距離をriとし、P iからPi+1の位置
を求めると、つぎのふたつの解があると記述できる。For generalization, a certain point of interest PiFrom next
Attention point Pi + 1The distance of riAnd P iTo Pi + 1Position of
Can be described as having the following two solutions:
【0036】 Pi+1=fi N(Pi,ri)およびfi F(Pi,ri) (式3) ここで、添え字Nはカメラにより近いほうの解、Fはよ
り遠いほうの解を示す。[0036] P i + 1 = f i N (P i, r i) and f i F (P i, r i) ( Equation 3) Here, the solution closer by subscript N cameras, F is more Shows the farther solution.
【0037】図7にはある注目点から次の注目点の位置
を推定するとき、NとFのいずれの解を採用するかを各
経路上に「N」または「F」で示しており、注目点が残
っている限り(図5のS212Y)、「N」または
「F」の解の一方を採用しながら各注目点の座標を推定
していくことができる。なお、一連の推定の中で注意す
べきは以下の場合である。 股関節から腹 右股関節120をもとに推定される座標と左股関節12
2をもとに推定される座標の中点をとる。 肩から首 バランスを考え、注目点間の絶対距離は使わない。首の
z座標は両肩のそれらの平均とし、それをもとにx、y
座標を決定する。In FIG. 7, when estimating the position of the next point of interest from one point of interest, which of N and F is adopted is indicated by "N" or "F" on each route. As long as the point of interest remains (S212Y in FIG. 5), the coordinates of each point of interest can be estimated while employing one of the solutions “N” or “F”. Note that the following cases should be noted in the series of estimation. Coordinates estimated from hip joint and belly right hip joint 120 and left hip joint 12
The midpoint of the coordinates estimated based on 2 is taken. Consider shoulder-to-neck balance and do not use the absolute distance between points of interest. The z coordinate of the neck is the average of those of the shoulders, and x, y
Determine the coordinates.
【0038】以上で推定ユニット20による処理が終わ
る。各注目点の三次元座標は座標データ格納部28へ格
納される。Thus, the processing by the estimation unit 20 is completed. The three-dimensional coordinates of each point of interest are stored in the coordinate data storage unit 28.
【0039】つぎに推定された三次元座標をもとに、表
示制御ユニット30による表示装置32への表示が行わ
れる(図2のS22)。座標推定装置10は注目点指定
ユニット26における指定の順序から、注目点間の接続
情報を取得しているため、表示制御ユニット30は人体
の骨格が自然な形で表示されるよう必要な注目点間をエ
ッジで結び、人体の三次元グラフを生成する。図9はこ
うして生成され表示されたアドレス姿勢である。同図か
ら理解されるよう、拘束条件の有効活用により、一枚の
画像から自然な三次元グラフを生成することができる。Next, display on the display device 32 is performed by the display control unit 30 based on the estimated three-dimensional coordinates (S22 in FIG. 2). Since the coordinate estimation device 10 obtains connection information between the points of interest from the order of designation in the point-of-interest designation unit 26, the display control unit 30 determines the necessary points of interest so that the skeleton of the human body is displayed in a natural form A three-dimensional graph of the human body is created by connecting the edges with edges. FIG. 9 shows the address attitude generated and displayed in this manner. As can be understood from the figure, a natural three-dimensional graph can be generated from one image by effectively utilizing the constraint conditions.
【0040】なお、以上アドレス姿勢について説明した
が、実際には同様の座標推定をテイクバック、トップス
イング、ダウンスイング、インパクト、フォロースルー
の5通りの姿勢についても行うことができる。その場
合、拘束条件に関する注意点は、1)腹から肩、および
肩から肘を定める際、トップスイングにおいては「F」
の解を、その他の場合は「N」の解をそれぞれ採用する
こと、および2)手からクラブヘッドを定める際、アド
レス、テイクバック、ダウンスイングおよびインパクト
で「N」の解を、それ以外では「F」の解をそれぞれ採
用することである。こうしてスイング中の一連の動きを
三次元的に取得および表示することにより、姿勢の把握
と改善が非常に容易になり、またそのための設備も手軽
かつ安価にすむ。Although the address posture has been described above, the same coordinate estimation can be actually performed for five postures of takeback, top swing, down swing, impact, and follow-through. In this case, the points to note regarding the constraint conditions are as follows: 1) When defining the shoulder from the belly and the elbow from the shoulder, "F"
And, in other cases, the solution of "N", and 2) when defining the club head from the hand, the solution of "N" in address, takeback, downswing and impact, otherwise That is, the solution of "F" is adopted. By acquiring and displaying a series of movements during a swing in three dimensions in this way, it is very easy to grasp and improve the posture, and the equipment for this is simple and inexpensive.
【0041】図10は、実施の形態に係るクライアント
・サーバシステム300の構成を示す。三次元座標推定
のためのサーバ302と、クライアントであるユーザ側
のPC304は、ネットワーク306で結ばれている。
サーバ302には、図1の構成またはその主要部分がイ
ンプリメントされている。図11はこのシステム300
による一連の処理を示す。FIG. 10 shows the configuration of a client-server system 300 according to the embodiment. A server 302 for three-dimensional coordinate estimation and a PC 304 on the user side, which is a client, are connected by a network 306.
The server 302 has the configuration of FIG. 1 or its main part implemented. FIG. 11 shows this system 300.
Is shown.
【0042】同図において、まずクライアント側は、自
らのゴルフ姿勢などを写した写真画像を送信し(S30
0)、これをサーバ側で受信する(S302)。このと
き送る画像は、校正用、初期設定用および実際に座標を
推定すべき画像の3枚セットであるとする。In the figure, first, the client transmits a photographic image of the golf posture of the client (S30).
0), and this is received on the server side (S302). Assume that the images to be sent at this time are three sets of images for calibration, for initial setting, and images for which coordinates are to be actually estimated.
【0043】つづいて、サーバ302は既述の方法によ
って校正、初期設定および推定を行い、ユーザの姿勢に
関する三次元座標を取得する(S304)。サーバ30
2はこれをもとに三次元グラフを生成し(S306)、
これをクライアントへ送り返す(S308)。ユーザ側
のPC304は送信された画像、とくに三次元グラフを
受信し(S310)、画面に表示するなどの方法で利用
する。Subsequently, the server 302 performs calibration, initial setting, and estimation by the methods described above, and acquires three-dimensional coordinates related to the posture of the user (S304). Server 30
2 generates a three-dimensional graph based on this (S306),
This is sent back to the client (S308). The PC 304 on the user side receives the transmitted image, particularly the three-dimensional graph (S310), and uses it by a method such as displaying it on the screen.
【0044】以上が処理の概要である。この方法によれ
ば、三次元座標を推定する処理の部分をサーバ302で
代行できるため、クライアントの負担を軽減することが
できる。The above is the outline of the processing. According to this method, the part of the process of estimating the three-dimensional coordinates can be performed by the server 302, so that the burden on the client can be reduced.
【0045】変形技術 以上述べた実施の形態の変形または改良技術を列挙す
る。実施の形態では校正のステップを必要としたが、こ
れは必ずしも毎回必要でない。たとえば、ゴルフ練習場
のような場所に座標推定装置10を設置するとき、最初
の1回だけ校正をしておけば、後は初期設定と推定処理
を行えばよい。なお、目的物までの距離が遠く、目的物
各部の奥行きの差が無視できるような場合、校正をまっ
たくスキップする余地も生ずる。Modification Techniques Modification or improvement techniques of the embodiment described above are listed. Although the embodiment requires a calibration step, this is not always necessary. For example, when the coordinate estimating apparatus 10 is installed in a place such as a driving range, it is only necessary to calibrate the first time only once, and then the initial setting and the estimating process may be performed. If the distance to the target is long and the difference in depth between the parts of the target can be ignored, there is room for skipping calibration at all.
【0046】テレビに映し出されたゴルファーの画像の
ように校正が不可能な場合には、いったんその奥行きを
一定と仮定して各注目点の三次元座標を推定した後、不
自然な結果に終わった推定値を修正してもよい。たとえ
ば、ゴルフスイングでは、クラブヘッドの奥行きは他の
部分に比べてかなり異なる。そうした場合、上記のよう
に一定の奥行きを仮定すると、推定されたクラブヘッド
の座標に生じる誤差が比較的大きい。そのため、「クラ
ブヘッドはインパクトの際、地面すれすれにある」とい
う知見、または拘束条件を導入してその座標を修正する
ことができる。インパクトの瞬間の画像がない場合は、
その前後の画像からインパクト時の画像を補間したり、
そのときのクラブヘッドの位置を推定してもよい。目的
物の動きを利用して座標推定の精度をあげることができ
る。When calibration is impossible, as in the case of a golfer's image displayed on a television, the depth is assumed to be constant, and the three-dimensional coordinates of each point of interest are estimated. The estimated value may be modified. For example, in a golf swing, the depth of the club head is significantly different than in other parts. In such a case, assuming a constant depth as described above, an error occurring in the estimated club head coordinates is relatively large. Therefore, it is possible to correct the coordinates by introducing the knowledge that the club head is just off the ground at the time of impact, or by introducing a constraint condition. If you do n’t have an image of the moment of impact,
Interpolate the image at impact from the images before and after it,
The position of the club head at that time may be estimated. The accuracy of coordinate estimation can be improved using the movement of the target object.
【0047】初期設定もスキップできる場合がある。た
とえば、座標推定装置10はユーザの性別や身長など特
定の情報を入力させる「パラメータ入力ユニット」を備
えることにより、関節間の距離をある程度想定すること
ができる。この想定値を利用して推定処理を行ってもよ
い。In some cases, the initial setting can be skipped. For example, the coordinate estimation device 10 includes a “parameter input unit” for inputting specific information such as the user's gender and height, so that the distance between joints can be estimated to some extent. The estimation process may be performed using the assumed value.
【0048】実施の形態では、座標推定装置10が拘束
条件を自動的に決めていったが、ユーザによる設定を入
力する「ユーザ設定ユニット」を備えてもよい。その場
合、座標推定装置10にとって初めての目的物が入力さ
れたときでもユーザによって「N」または「F」の指定
が可能となり、正しく三次元座標が取得できる。一般則
として、座標の推定が困難な注目点についても、クライ
アントのユーザインタフェイスを用いてカメラや目的物
などの位置情報をユーザに入力させてもよい。In the embodiment, the coordinate estimating apparatus 10 automatically determines the constraint condition. However, the coordinate estimating apparatus 10 may include a "user setting unit" for inputting a setting by a user. In this case, the user can specify “N” or “F” even when the first target is input to the coordinate estimating apparatus 10, so that three-dimensional coordinates can be correctly acquired. As a general rule, for a point of interest whose coordinates are difficult to estimate, the user may be allowed to input positional information such as a camera or a target using the user interface of the client.
【0049】注目点指定ユニット26はユーザ主導、ま
たはシステム主導で注目点を指定した。この部分の設計
にも相当の自由度がある。たとえば、「ゴルフのアドレ
ス姿勢」というだけで図6のような注目点の配置が判明
するため、ユーザには任意の順にクリックさせ、一方注
目点指定ユニット26が注目点の配置のテンプレートと
クリックされた各点のマッチングをとることで各注目点
と関節を自動的に関連づける構成としてもよい。The attention point designation unit 26 designates an attention point under the initiative of the user or the system. There is considerable freedom in the design of this part. For example, since the arrangement of the attention points as shown in FIG. 6 can be determined only by “the golf address attitude”, the user is allowed to click in an arbitrary order, while the attention point designation unit 26 is clicked with the template of the arrangement of the attention points. A configuration may be adopted in which each point of interest is automatically associated with a joint by matching each point.
【0050】ゴルフのアドレス姿勢からテイクバックへ
移行するように、動きに連続性があるか、またはある程
度近い姿勢の間では、注目点間の相対位置にある程度相
関がある。したがって注目点指定ユニット26は、ひと
つの姿勢について注目点と関節の関連づけがなされたと
き、その情報をもとに次の画像における関連づけを予測
してもよい。In the case where the movement has continuity or is close to a certain degree such that the golf ball moves from the golf address posture to the takeback, there is a certain correlation between the relative positions between the points of interest. Therefore, when the attention point and the joint are associated with one posture, the attention point designation unit 26 may predict the association in the next image based on the information.
【0051】その際、注目点間のなす角度の維持に大き
な重みづけをすることができる。たとえば図9の場合、
両肘と手のなす角度はモーション全体を通してほぼ一定
と考えられるので、その知見をもとに予測ができる。い
ずれにしても、予測結果をユーザに示すことにより、ユ
ーザは誤り箇所のみ修正すれば足りる。At this time, a large weight can be given to the maintenance of the angle between the points of interest. For example, in the case of FIG.
Since the angle between the elbow and the hand is considered to be almost constant throughout the motion, it can be predicted based on the knowledge. In any case, by showing the prediction result to the user, the user only needs to correct only the error part.
【0052】実施の形態では隣接する注目点間の拘束条
件、いわば局所的拘束条件を定めたが、拘束条件供給ユ
ニット24は大域的拘束条件を保持していてもよい。た
とえば、足首に対して腹がより「F」、つまり遠い場
合、体のバランスを保つために、頭の頂点は腹より
「N」、つまり近くなると考えられる。このように、体
のバランスまたは重心という考え方を利用することでま
ず全体の姿勢を誤りなく特定することができる。In the embodiment, the constraint condition between adjacent points of interest, that is, the local constraint condition is determined, but the constraint condition supply unit 24 may hold the global constraint condition. For example, if the belly is more "F", that is, farther from the ankle, the top of the head is considered to be "N", that is, closer, than the belly to maintain body balance. As described above, by using the concept of the balance or the center of gravity of the body, first, the entire posture can be specified without error.
【0053】実施の形態では目的物を人体としたが、こ
れは任意の三次元物体でよい。たとえば、「自動車」が
目的物であり、その左前方から写した画像を処理する場
合、ユーザは姿勢特定ユニット22に対して「左前方か
ら見た状態」である旨を入力する。すると、拘束条件供
給ユニット24は、「右のヘッドライトは左のヘッドラ
イトより遠い」、「フロントガラスの上辺の端点はそれ
ぞれ下辺の端点より遠い」などの拘束条件がつぎつぎに
決まっていく。注目点としては、ある程度特徴を捉えや
すい点、たとえば突点や曲線の両端点などを採用すれば
よい。In the embodiment, the target object is a human body, but it may be an arbitrary three-dimensional object. For example, when the “car” is the target object and an image taken from the front left is processed, the user inputs to the posture specifying unit 22 that the vehicle is “viewed from the front left”. Then, the constraint condition supply unit 24 successively determines constraint conditions such as “the right headlight is farther than the left headlight” and “the upper end points of the windshield are farther than the lower end points”. As a point of interest, a point at which a feature can be easily captured to some extent, for example, a salient point or both end points of a curve may be adopted.
【0054】表示制御ユニット30は目的物をグラフ表
示することにしたが、これにも当然いろいろな変形例が
ある。たとえば、人体をある程度正確にモデリングして
テクスチャを貼り付けることにより、ユーザが画面内を
自由に動く場面を作ることができる。この技術により、
ユーザは任意の情景の中にロール・プレイング・ゲーム
のように入り込むことができる。Although the display control unit 30 displays the target object in the form of a graph, there are naturally various modifications. For example, it is possible to create a scene where the user moves freely on the screen by modeling the human body to some extent accurately and pasting the texture. With this technology,
The user can enter into any scene like a role playing game.
【0055】表示制御ユニット30を動きの練習に利用
する場合、手本となる動きを別のウインドウに、または
同一のウインドウに重ねて表示してもよい。たとえば、
いろいろな体型のゴルフプロのスイングを予め三次元グ
ラフ化して保持しておき、ユーザにもっとも近い体型の
プロのスイングとそのユーザのスイングを重ねて表示す
れば練習効果は高まる。さらに、両者の差分のみを表示
したり、差分を強調表示したり、その差分が所定の許容
値を超えたところのみを表示するなど、いろいろな工夫
が考えられる。差分は各注目点の座標のそれでもよい
し、関節角など複数の注目点から定まるものについて取
得されてもよいし、筋力の差などに変換された形で表示
してもよい。When the display control unit 30 is used for practicing the movement, the example movement may be displayed in another window or overlaid on the same window. For example,
If the swings of golf professionals of various body shapes are preliminarily converted into a three-dimensional graph and held, and the professional swing of the body shape closest to the user and the swing of the user are displayed in a superimposed manner, the practice effect is enhanced. Further, various measures are conceivable, such as displaying only the difference between the two, highlighting the difference, and displaying only where the difference exceeds a predetermined allowable value. The difference may be that of the coordinates of each point of interest, may be obtained for a point determined from a plurality of points of interest such as joint angles, or may be displayed in a form converted to a difference in muscle strength.
【0056】差分ではなく、その差分をもとにユーザが
意識してとるべき姿勢を指示してもよい。たとえば、ユ
ーザの上体が右に偏っているとき、「上体はもう少し左
に」などというインストラクションを画面に表示しても
よいし、画面上、上体のある箇所に「←」の記号を入れ
て左側を指示することができる。同様に、「もう少しテ
イクバック時に力を抜いてください」など、筋力その他
のパラメータに関する指示であってもよい。Instead of the difference, the posture to be taken by the user may be instructed based on the difference. For example, when the upper body of the user is biased to the right, an instruction such as “the upper body is a little more to the left” may be displayed on the screen, or a “←” symbol may be displayed at a position of the upper body on the screen. You can put it on the left. Similarly, the instruction may be an instruction relating to muscle strength or other parameters, such as “please release power at takeback”.
【0057】差分の表示の際、現実の三次元座標上の差
をそのまま表示するほか、たとえば手本となるゴルファ
ーのある関節角と、ユーザの関節角のスイング中の変化
をひとつのグラフに重ねて表示してもよい。クラブヘッ
ドの軌跡についても同様である。In displaying the difference, in addition to displaying the difference on the actual three-dimensional coordinates as it is, for example, the joint angle of the golfer who is a model and the change during the swing of the joint angle of the user are superimposed on one graph. May be displayed. The same applies to the trajectory of the club head.
【0058】同様に差分表示のオプションとして、ユー
ザと手本のゴルファーの体型上の相違や筋力の相違など
を考慮して、差分を補正してもよい。すなわち、ユーザ
の体型等に会う理想的な動きを得るために、ゴルファー
のスイングをユーザ用に補正した後、差分をとることが
できる。なお、この補正によって新たに不自然な三次元
座標が得られたところ、たとえばスイング中にクラブヘ
ッドが本来あり得ない「地中を移動」しているような場
合、それに関連する注目点の三次元座標を修正してもよ
い。Similarly, as an option for displaying the difference, the difference may be corrected in consideration of the difference in the body shape and the difference in muscle strength between the user and the model golfer. In other words, the difference can be obtained after correcting the golfer's swing for the user in order to obtain an ideal movement that meets the user's body type or the like. In addition, when unnatural three-dimensional coordinates are newly obtained by this correction, for example, when the club head is “moving in the ground” which is originally impossible during a swing, the third order of the attention point related thereto is The original coordinates may be modified.
【0059】推定ユニットによる推定精度を上げるため
に、連続画像から推定値の修正を行ってもよい。たとえ
ば、スイング面が所定の平面内にあることを想定する場
合、その知見または拘束条件をもとに推定値を調整でき
る。また、この拘束条件によれば、「N」「F」に関す
る想定が誤っている可能性の高い部分を検出し、ユーザ
の注意を喚起することができる。この一連の調整処理は
本装置とユーザの間の繰り返し処理であってもよい。In order to increase the estimation accuracy by the estimation unit, the estimation value may be corrected from the continuous image. For example, when it is assumed that the swing surface is within a predetermined plane, the estimated value can be adjusted based on the knowledge or the constraint condition. Further, according to the constraint condition, it is possible to detect a portion where the assumption regarding “N” and “F” is likely to be incorrect, and call the user's attention. This series of adjustment processing may be a repetition processing between the present apparatus and the user.
【0060】推定ユニットによって、ある注目点の三次
元座標が推定されるたびに、それを図9のようなグラフ
に逐次追加してもよい。その場合、ユーザによる注目点
の指定の間に、それまでの処理によって得られたグラフ
が描かれ、処理内容の確認が容易になる。Each time the estimation unit estimates the three-dimensional coordinates of a certain point of interest, it may be sequentially added to the graph shown in FIG. In this case, while the user designates the point of interest, a graph obtained by the processing up to that point is drawn, and the processing contents can be easily confirmed.
【0061】複数の画像について座標の推定が必要なと
き、すでに処理済みの画像の注目点の位置をもとに、新
たな画像の注目点位置を自動検出してもよい。そのため
に、オプティカルフローや画像マッチングなどの技術が
利用できる。When it is necessary to estimate the coordinates of a plurality of images, the position of a point of interest of a new image may be automatically detected based on the position of the point of interest of an already processed image. For this purpose, techniques such as optical flow and image matching can be used.
【0062】実施の形態のクライアントサーバシステム
300はクライアントターミナルとしてPC304を考
えたが、これは任意の装置であってよい。たとえば、L
CDをもつ携帯電話やクライアントソフトウエアをイン
プリメントしたデジタルテレビ、ビュアの機能だけを備
えた軽量クライアントなど、その形態は任意である。Although the PC 304 is considered as the client terminal in the client server system 300 of the embodiment, it may be an arbitrary device. For example, L
The form is arbitrary, such as a mobile phone having a CD, a digital television equipped with client software, and a lightweight client having only a viewer function.
【0063】実施の形態では、サーバがグラフを生成し
てこれをクライアントに送ったが、そうした可視化デー
タのほかに、筋力やトルクなどについて解析された結果
を送ってもよい。そうしたパラメータの計算には、既知
の逆運動力学を利用することもできる。In the embodiment, the server generates a graph and sends it to the client. However, in addition to such visualized data, a result obtained by analyzing muscle strength, torque, and the like may be sent. Known inverse kinematics can be used to calculate such parameters.
【0064】実施の形態では、クライアントは単に画像
をサーバに送信したが、クライアントで、クリックなど
の動作によってある程度サーバ側の座標推定を手助けし
てもよい。In the embodiment, the client simply transmits the image to the server. However, the client may assist the server in estimating the coordinates to some extent by an operation such as clicking.
【0065】サーバに種々のデータを保存、蓄積してい
くことにより、座標の推定を改良することもできる。た
とえば、集められた動きや画像データから、いま処理し
ようとしている目的物の動きや画像に似たものをサーチ
して利用することにより、ユーザの設定作業等を軽減す
ることができる。By storing and accumulating various data in the server, the estimation of coordinates can be improved. For example, by searching for and using similar motions and images of the object to be processed from the collected motions and image data, the user's setting work and the like can be reduced.
【0066】実施の形態ではゴルフの練習を例に挙げた
が、本技術は当然その他の用途、たとえばスポーツ全
般、リバビリテーション、武術や舞踏に利用できる。さ
らに本技術は、広く二次元画像から三次元画像を生成す
るものであり、たとえばユーザが撮影した一枚の写真か
らホログラムのような立体写真を作ったり、三次元CG
を作ることもできる。その場合、画像に写った被写体で
ある目的物に関する拘束条件を人手で決定してもよい
し、システム側で多数の「目的物テンプレート」とその
姿勢またはそれを見込む視線方向の組合せを準備し、ユ
ーザの簡単なクリック動作で三次元座標を決めていって
もよい。In the embodiment, golf practice is described as an example. However, the present technology can naturally be used for other uses, for example, sports in general, rehabilitation, martial arts, and butoh. Further, the present technology widely generates a three-dimensional image from a two-dimensional image. For example, a three-dimensional image such as a hologram is created from a single photograph taken by a user, or a three-dimensional CG is generated.
Can also be made. In that case, the constraint conditions for the target object that is the subject in the image may be manually determined, or the system side prepares a combination of a large number of "target templates" and their postures or gaze directions looking at them, The three-dimensional coordinates may be determined by a simple click operation of the user.
【0067】目的物が人体の場合、動きのトルクを筋肉
成分に分解して、どの筋肉が使われているかを色の塗り
分けなどで表示してもよい。また、プロの動きについて
も同様の処理を施すことにより、ユーザによる比較検討
の便宜を図ってもよい。When the target object is a human body, the movement torque may be decomposed into muscle components, and which muscle is used may be indicated by different colors. The same processing may be performed on professional movements to facilitate the user's comparative study.
【図1】 実施の形態に係る座標推定装置の構成図であ
る。FIG. 1 is a configuration diagram of a coordinate estimation device according to an embodiment.
【図2】 図1の装置による処理の手順を示すフローチ
ャートである。FIG. 2 is a flowchart showing a procedure of processing by the apparatus of FIG. 1;
【図3】 校正処理の手順を示すフローチャートであ
る。FIG. 3 is a flowchart illustrating a procedure of a calibration process.
【図4】 初期設定のために人体がとるべき姿勢を示す
図である。FIG. 4 is a diagram illustrating a posture to be taken by a human body for initial setting.
【図5】 図2の推定処理S20の詳細手順を示す図で
ある。FIG. 5 is a diagram showing a detailed procedure of an estimation process S20 of FIG. 2;
【図6】 目的物である人体に設定すべき注目点の位置
を示す図である。FIG. 6 is a diagram showing the position of a point of interest to be set on a target human body.
【図7】 実施の形態において注目点の座標を推定して
いく順序を示す図である。FIG. 7 is a diagram showing an order of estimating coordinates of a point of interest in the embodiment.
【図8】 二次元画像から三次元座標を取得するときに
生じうるふたつの解を示す図である。FIG. 8 is a diagram showing two solutions that can occur when acquiring three-dimensional coordinates from a two-dimensional image.
【図9】 座標推定の結果生成された目的物の三次元グ
ラフを示す図である。FIG. 9 is a diagram illustrating a three-dimensional graph of an object generated as a result of coordinate estimation.
【図10】 実施の形態に係るクライアントサーバシス
テムの構成図である。FIG. 10 is a configuration diagram of a client server system according to an embodiment.
【図11】 図10のクライアントサーバシステムの処
理手順を示すフローチャートである。11 is a flowchart showing a processing procedure of the client server system of FIG.
10 座標推定装置 12 画像入力ユニット 14 校正ユニット 16 初期設定ユニット 18 準備データ格納部 20 推定ユニット 22 姿勢特定ユニット 24 拘束条件供給ユニット 26 注目点指定ユニット 28 座標データ格納部 30 表示制御ユニット 32 表示装置 300 クライアントサーバシステム 302 サーバ 304 PC Reference Signs List 10 Coordinate estimation device 12 Image input unit 14 Calibration unit 16 Initial setting unit 18 Preparation data storage unit 20 Estimation unit 22 Attitude specifying unit 24 Constraint condition supply unit 26 Attention point designation unit 28 Coordinate data storage unit 30 Display control unit 32 Display device 300 Client server system 302 Server 304 PC
フロントページの続き (72)発明者 幸村 琢 埼玉県所沢市山口1096−3 (72)発明者 村井 将彦 千葉県浦安市美浜4−15−3 (72)発明者 品川 嘉久 江戸川区西葛西5−10−26−204 Fターム(参考) 5B050 CA08 EA07 EA28 FA02 5B057 BA02 CA12 CB13 CD14 DA07 DB02 Continuation of the front page (72) Inventor Taku Yukimura 1096-3 Yamaguchi, Tokorozawa-shi, Saitama (72) Inventor Masahiko Murai 4-15-3, Mihama, Urayasu-shi, Chiba (72) Inventor Yoshihisa Shinagawa 5-10 Nishikasai, Edogawa-ku −26−204 F term (reference) 5B050 CA08 EA07 EA28 FA02 5B057 BA02 CA12 CB13 CD14 DA07 DB02
Claims (14)
ユニットと、 前記目的物に固有な位置的な拘束条件をもとに、前記目
的物にとられた複数の注目点の三次元座標を推定するユ
ニットと、 を備えることを特徴とする座標推定装置。A unit for acquiring a two-dimensional image including an object; and three-dimensional coordinates of a plurality of points of interest taken on the object based on positional constraints unique to the object. And a unit for estimating the coordinate.
元座標の間の変換規則を導出するための校正ユニットを
さらに備える請求項1に記載の座標推定装置。2. The coordinate estimating apparatus according to claim 1, further comprising a calibration unit for deriving a conversion rule between the in-screen coordinates of the two-dimensional image and the three-dimensional coordinates.
目点のうち前記校正ユニットによる処理の結果をもとに
三次元座標が確定するものを起点として、順次前記拘束
条件を適用することにより、他の注目点の三次元座標を
順次推定していく請求項2に記載の座標推定装置。3. The unit for estimating, by starting from the plurality of points of interest whose three-dimensional coordinates are determined based on the result of processing by the calibration unit, sequentially applying the constraint condition, 3. The coordinate estimating device according to claim 2, wherein three-dimensional coordinates of another point of interest are sequentially estimated.
数の注目点の処理順序に基づいて、それら注目点間の接
続情報を取得する請求項1から3のいずれかに記載の座
標推定装置。4. The coordinate estimating apparatus according to claim 1, wherein the estimating unit further acquires connection information between the plurality of points of interest based on a processing order of the plurality of points of interest.
なる状態において、それら注目点間の距離を取得する初
期設定ユニットをさらに備える請求項1から4のいずれ
かに記載の座標推定装置。5. The coordinate estimating apparatus according to claim 1, further comprising an initialization unit that acquires a distance between the plurality of points of interest in a state where the depth of the plurality of points of interest is a known value. .
目点の位置を三次元的に表示する制御ユニットをさらに
備える請求項1から5のいずれかに記載の座標推定装
置。6. The coordinate estimating device according to claim 1, further comprising a control unit that three-dimensionally displays the positions of the plurality of points of interest based on a result of the estimation.
工程と、 前記目的物に固有な位置的な拘束条件をもとに、前記目
的物の複数の注目点の三次元座標を推定する工程と、 を備えることを特徴とする座標推定方法。7. A step of acquiring a two-dimensional image including an object, and estimating three-dimensional coordinates of a plurality of points of interest on the object based on positional constraints unique to the object. A method for estimating coordinates, comprising the steps of:
行きの大小関係の推定に供するべく採用される請求項7
に記載の座標推定方法。8. The system according to claim 7, wherein the constraint condition is used for estimating a depth relationship between the plurality of points of interest.
The coordinate estimation method described in 1.
は前記人体の関節のとりうる角度を考慮して定められる
請求項8に記載の座標推定方法。9. The coordinate estimating method according to claim 8, wherein the object is a human body, and the constraint condition is determined in consideration of a possible angle of a joint of the human body.
れた座標推定システムであって、前記サーバは、 前記クライアントから送られた画像を受けとるユニット
と、 その画像に含まれる目的物の注目点の三次元座標を推定
するユニットと、 その推定結果に関連する情報を前記クライアントへ送り
返すユニットと、 を備えることを特徴とする座標推定システム。10. A coordinate estimating system comprising a client and a server, wherein the server receives an image transmitted from the client, and a three-dimensional image of a target point of interest included in the image. A coordinate estimating system comprising: a unit for estimating coordinates; and a unit for sending information related to the estimation result back to the client.
に固有な位置的な拘束条件をもとに、前記三次元座標を
推定する請求項10に記載の座標推定システム。11. The coordinate estimating system according to claim 10, wherein the estimating unit estimates the three-dimensional coordinates based on positional constraints unique to the object.
をもとに生成される可視化のためのデータを含む請求項
10、11のいずれかに記載の座標推定システム。12. The coordinate estimation system according to claim 10, wherein the information includes data for visualization generated based on three-dimensional coordinates of the point of interest.
目点の三次元座標および接続情報が反映されたグラフを
含む請求項12に記載の座標推定システム。13. The coordinate estimation system according to claim 12, wherein the data for visualization includes a graph in which three-dimensional coordinates of the point of interest and connection information are reflected.
プログラムを記録した記録媒体であって、当該プログラ
ムは、目的物が含まれる二次元画像を取得する機能と、 前記目的物に固有な位置的な拘束条件をもとに、前記目
的物にとられた複数の注目点の三次元座標を推定する機
能と、 をコンピュータに実行せしめることを特徴とする記録媒
体。14. A recording medium on which a program readable by a computer is recorded, the program comprising: a function of acquiring a two-dimensional image including an object; and a positional constraint condition unique to the object. A recording medium characterized by causing a computer to execute a function of estimating three-dimensional coordinates of a plurality of points of interest taken on the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000044400A JP2001236505A (en) | 2000-02-22 | 2000-02-22 | Method, device and system for estimating coordinate |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000044400A JP2001236505A (en) | 2000-02-22 | 2000-02-22 | Method, device and system for estimating coordinate |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001236505A true JP2001236505A (en) | 2001-08-31 |
Family
ID=18567152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000044400A Pending JP2001236505A (en) | 2000-02-22 | 2000-02-22 | Method, device and system for estimating coordinate |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001236505A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008537815A (en) * | 2005-03-17 | 2008-09-25 | 本田技研工業株式会社 | Pose estimation based on critical point analysis |
JP2010514064A (en) * | 2006-12-21 | 2010-04-30 | 本田技研工業株式会社 | Human posture estimation and tracking using labeling |
JP2010524113A (en) * | 2007-04-15 | 2010-07-15 | エクストリーム リアリティー エルティーディー. | Man-machine interface device system and method |
JP2016131782A (en) * | 2015-01-21 | 2016-07-25 | セイコーエプソン株式会社 | Head wearable display device, detection device, control method for head wearable display device, and computer program |
JP6425847B1 (en) * | 2017-08-14 | 2018-11-21 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
US10162408B2 (en) | 2014-06-06 | 2018-12-25 | Seiko Epson Corporation | Head mounted display, detection device, control method for head mounted display, and computer program |
CN110619662A (en) * | 2019-05-23 | 2019-12-27 | 深圳大学 | Monocular vision-based multi-pedestrian target space continuous positioning method and system |
WO2020189313A1 (en) * | 2019-03-20 | 2020-09-24 | アースアイズ株式会社 | Monitoring device, monitoring system, and monitoring method |
CN111899373A (en) * | 2020-08-05 | 2020-11-06 | 中国工商银行股份有限公司 | Method and device for determining inspection point of machine room, robot and storage medium |
KR102249769B1 (en) * | 2019-12-06 | 2021-05-12 | 주식회사 모빌테크 | Estimation method of 3D coordinate value for each pixel of 2D image and autonomous driving information estimation method using the same |
CN113076921A (en) * | 2021-04-21 | 2021-07-06 | 华南理工大学 | Multispectral texture synchronous mapping method of three-dimensional finger biological feature model |
WO2023189838A1 (en) * | 2022-04-01 | 2023-10-05 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
-
2000
- 2000-02-22 JP JP2000044400A patent/JP2001236505A/en active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4686595B2 (en) * | 2005-03-17 | 2011-05-25 | 本田技研工業株式会社 | Pose estimation based on critical point analysis |
JP2008537815A (en) * | 2005-03-17 | 2008-09-25 | 本田技研工業株式会社 | Pose estimation based on critical point analysis |
JP2010514064A (en) * | 2006-12-21 | 2010-04-30 | 本田技研工業株式会社 | Human posture estimation and tracking using labeling |
US8351646B2 (en) | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
JP2010524113A (en) * | 2007-04-15 | 2010-07-15 | エクストリーム リアリティー エルティーディー. | Man-machine interface device system and method |
US10162408B2 (en) | 2014-06-06 | 2018-12-25 | Seiko Epson Corporation | Head mounted display, detection device, control method for head mounted display, and computer program |
JP2016131782A (en) * | 2015-01-21 | 2016-07-25 | セイコーエプソン株式会社 | Head wearable display device, detection device, control method for head wearable display device, and computer program |
JP2019036288A (en) * | 2017-08-14 | 2019-03-07 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP6425847B1 (en) * | 2017-08-14 | 2018-11-21 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
US10726620B2 (en) | 2017-08-14 | 2020-07-28 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
WO2020189313A1 (en) * | 2019-03-20 | 2020-09-24 | アースアイズ株式会社 | Monitoring device, monitoring system, and monitoring method |
JP2020154730A (en) * | 2019-03-20 | 2020-09-24 | アースアイズ株式会社 | Monitoring device, monitoring system and monitoring method |
CN110619662A (en) * | 2019-05-23 | 2019-12-27 | 深圳大学 | Monocular vision-based multi-pedestrian target space continuous positioning method and system |
CN110619662B (en) * | 2019-05-23 | 2023-01-03 | 深圳大学 | Monocular vision-based multi-pedestrian target space continuous positioning method and system |
KR102249769B1 (en) * | 2019-12-06 | 2021-05-12 | 주식회사 모빌테크 | Estimation method of 3D coordinate value for each pixel of 2D image and autonomous driving information estimation method using the same |
WO2021112462A1 (en) * | 2019-12-06 | 2021-06-10 | 주식회사 모빌테크 | Method for estimating three-dimensional coordinate values for each pixel of two-dimensional image, and method for estimating autonomous driving information using same |
CN111899373A (en) * | 2020-08-05 | 2020-11-06 | 中国工商银行股份有限公司 | Method and device for determining inspection point of machine room, robot and storage medium |
CN113076921A (en) * | 2021-04-21 | 2021-07-06 | 华南理工大学 | Multispectral texture synchronous mapping method of three-dimensional finger biological feature model |
WO2023189838A1 (en) * | 2022-04-01 | 2023-10-05 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11132533B2 (en) | Systems and methods for creating target motion, capturing motion, analyzing motion, and improving motion | |
JP7262937B2 (en) | Information processing device, information processing method, and program | |
KR101183000B1 (en) | A system and method for 3D space-dimension based image processing | |
CN107646126A (en) | Camera Attitude estimation for mobile device | |
CN112381003B (en) | Motion capture method, motion capture device, motion capture equipment and storage medium | |
CN112950751B (en) | Gesture action display method and device, storage medium and system | |
KR20160096473A (en) | System and method for motion evaluation | |
US20110018862A1 (en) | Gaze Intent Estimation for Retargeting of Characters | |
CN112348942B (en) | Body-building interaction method and system | |
JP2015186531A (en) | Action information processing device and program | |
CN114219878A (en) | Animation generation method and device for virtual character, storage medium and terminal | |
JP2001236505A (en) | Method, device and system for estimating coordinate | |
CN109144252A (en) | Object determines method, apparatus, equipment and storage medium | |
JP6799468B2 (en) | Image processing equipment, image processing methods and computer programs | |
CN113345552A (en) | Method and system for intelligently assisting in guiding dance exercises and mobile terminal | |
JP2023057498A (en) | Motion attitude evaluating system by overlapping comparison of images | |
EP4303824A1 (en) | System and method for monitoring a body pose of a user | |
KR102342760B1 (en) | The golf image learning apparatus based on the artificial intelligence, and the method thereof and recording medium | |
CN117859153A (en) | Information processing device, information processing method, and program | |
TW202226062A (en) | Golf swing analysis system, golf swing analysis method, and program | |
JP2021179687A (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040204 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040105 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20040213 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20040319 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060508 |