Nothing Special   »   [go: up one dir, main page]

JP2004233233A - Photogrammetric method of linear object - Google Patents

Photogrammetric method of linear object Download PDF

Info

Publication number
JP2004233233A
JP2004233233A JP2003023081A JP2003023081A JP2004233233A JP 2004233233 A JP2004233233 A JP 2004233233A JP 2003023081 A JP2003023081 A JP 2003023081A JP 2003023081 A JP2003023081 A JP 2003023081A JP 2004233233 A JP2004233233 A JP 2004233233A
Authority
JP
Japan
Prior art keywords
straight line
image
linear
camera
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003023081A
Other languages
Japanese (ja)
Inventor
Mamoru Otsuki
守 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2003023081A priority Critical patent/JP2004233233A/en
Publication of JP2004233233A publication Critical patent/JP2004233233A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a survey method capable of surveying a linear section even in the case markers such as a corner section and the like do not exist in a photographic image. <P>SOLUTION: The photogrammetric method is provided with a first step in which images are obtained by photographing a linear object to be photographed from different observation points by using a camera, a second step in which two reference points are set arbitrarily on the object to be photographed with respect to different images obtained in the first step, and a third step in which a straight line prescribing the linear object to be photographed is calculated on the basis of the two reference points set on the respective different images in the second step and the observation points where the images are photographed. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は写真測量に関する。特に、カメラ撮影で得た画像を用いて線状の物体を測量するための写真測量方法に関する。ここで線状物体としては、建物の縁部分のように物体の一部に含まれる形状や模様等の部分や送電線のようにそれ自身が線状であるものを含んでいる。
【0002】
【従来の技術】
従来の写真測量では、一般に被写体に属している点を利用して測量が行われている。被写体が建物であるような場合は、建物の角部や他に認識できる複数の点(目印)を特定する。そして、それらの点の座標を定め、各点の座標を結ぶことにより測量を行っている。
【0003】
ところで、従来の写真測量では、建物間の間隔や間柱(まばしら)間隔を測定する場合でも、上記に準じた手法を採用せざるを得ない。例えば被写体が2つのビルでその縦縁と縦縁との間隔を測量するような場合には、屋上の角部や地面との接点や縁上で他に認識できる点が画面内に写っていればそれを特定する。そして、それらの点座標を求め、各点の座標を結ぶという手法で線状物体(例えば、ビルの縁)を測量するようにしている。
【0004】
【発明が解決しようとする課題】
しかしながら、写真撮影した建物には必ずしも認識できる点が存在するとは限らない。建物の縁を測量しようとした場合に、両角部(末端部)以外に認識できる点が存在しないという場合も多い。また、一般に線状の物体を測量するときには、被写体の末端部や染み等の手掛かりとなる点(後に目印としたい点)が存在するように写真撮影を行うことが必要である。しかし、これら目印を都合よく設定できない場合も多い。例えば、意図していた目印が撮影画面外になってしまった場合、線が滑らかで目印がない場合、被写体の端部が物陰に隠れてしまい目印を設定できない場合等がある。
【0005】
上記のような場合には、写真撮影した画像から線状の部分を測量できないという問題を生じる。したがって、本発明の目的は、写真画像に角部等の目印となる点が存在しない場合でも線状の部分を測量できる写真測量方法を提供することである。
【0006】
【課題を解決するための手段】
上記目的は請求項1に記載する、線状の被写体を異なる観測点からカメラで撮影することにより画像を得る第1ステップと、
前記第1ステップで取得した異なる画像それぞれで、前記被写体上に任意に2つの参照点を設定する第2ステップと、
前記第2ステップで設定した異なる画像それぞれにおける前記2つの参照点および当該画像を撮影した観測点に基づき前記線状の被写体を規定する直線を算出する第3ステップとを含む線状物体の写真測量方法により達成される。
【0007】
本発明では、異なる観測点からカメラ撮影して得た、異なる画像それぞれについて被写体上に任意に2つの参照点を設定し、参照点および当該画像を撮影した観測点に基づき前記線状の被写体を規定する直線を算出することにより線状の被写体を特定する。ここでの参照点は、従来のように物体の端部、或いは特別に設けた目印である必要はなく任意に設定できる。よって、本発明によると、線状の被写体さえ判別できれば測量を実行できる。
【0008】
そして、請求項2に記載のように、前記第3ステップでは、前記第2ステップで設定した前記2つの参照点および当該画像を撮影した観測点を含む面の式を異なる画像それぞれについて算出し、この算出した2つの面の式の交線を前記線状の被写体を規定する直線として算出して、線状の被写体を特定できる。
【0009】
なお、請求項3に記載のように、前記第3ステップでは、前記観測点を結ぶカメラ基軸に対する前記カメラから見た左右角α及び前記カメラ基軸回りの前記カメラから見た仰角βを用いて表示した前記参照点の方向に基づいて前記面の式を誘導することができる。
【0010】
また、請求項4に記載のように、曲線状の被写体を異なる観測点からカメラで撮影することにより画像を得る第1ステップと、
前記第1ステップで得た異なる画像それぞれで、前記曲線状の被写体を複数の直線部分に分割し、該直線部分の両端に参照点を設定する第2ステップと、
異なる画像それぞれで、前記第2ステップで設定した前記両端の参照点及び当該画像を撮影した観測点を含む面の式を、全ての直線部分について算出する第3ステップと、
前記第3ステップで得た、同一の直線部分に関する異なる画像による面の式の交線を該直線部分を規定する直線として、全ての直線部分について算出する第4ステップと、
前記第4ステップで取得した直線部分を連続させることにより前記曲線状の被写体を求める第5ステップとを含む、線状物体の写真測量方法によっても上記目的を達成できる。本発明によると、被写体が曲線である場合でも、直線とみなせる部分(直線部分)の組合せとしてその線状の物体を測量することができる。
【0011】
そして、請求項4の発明では、請求項5に記載するように、前記第2ステップで、前記曲線状の被写体を複数の直線部分とするときに、前記異なる画像相互でおおよそ同じ部分となるように分割して同数の直線部分を得ればよい。すなわち、一方の画像で曲線の被写体をおおよそ(目視で)直線とみなせる部分の複数に分割する。他方の画像でも同様に、曲線の被写体を直線とみなせる部分で分割する。後の画像の分割位置は、先の分割位置とおおよそ同じ位置とするのが好ましい。
【0012】
また、上記目的は、請求項6に記載する、線状の被写体を異なる観測点で撮影したカメラから取得した画像データを読取る第1処理と、
前記第1処理による画像データをモニタ装置に表示し前記被写体上に任意に2つの参照点を設定し、前記参照点について画像上の2次元座標を異なる画像それぞれで得る第2処理と、
前記第2処理により得られた異なる画像それぞれにおける前記2つの参照点の画像上の2次元座標および当該画像を撮影した観測点に基づき、前記線状の被写体を規定する直線を算出する第3処理とを、コンピュータに実行させる写真測量プログラムによっても達成できる。そして、請求項7に記載するように、前記第3の処理では、前記2つの参照点の画像上の2次元座標および当該画像を撮影した観測点に基づき、前記参照点および観測点を含む面の式を異なる画像それぞれについて算出し、この算出した2つの面の式の交線を前記線状の被写体を規定する直線として求めることができる。
【0013】
前記第2処理における参照点は、請求項8に記載するように、異なる画像の相互で、前記線状の被写体上でおおよそ同じ位置になるように設定したものでよい。このように画像相互で設定する参照点は任意に定めることができるので、従来のように被写体上に目印となるものが無くてもよい。また、請求項9に記載するように、前記第2処理での参照点は、被写体が曲線状であるときこれを複数に分割した直線部分の両端に設定すればよい。
【0014】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。本発明は、二つの面が交差する部分が線となることを利用して線状物体を精度よく測量する方法である。図1及び図2は、例えばデジタル式のスチルカメラ等を用いてA、Bの2方向から線状物体Lを撮影して測量する場合について示している。このような線状物体Lには、電線、樹木等のようにそれ自身が長尺である物体の他、建物の縁部のように物の一部となる形状、模様等を含めることができる。図1及び図2では、理解を容易にするため線状物体Lを直線Lで表示し、これを測量する場合について説明する。
【0015】
図1で、符号A,Bで示すのはカメラを設置する2地点である。これら2つの観測位置を観測点A、Bと称する。また、観測点A,Bを結ぶ直線をカメラ基軸1と称することとする。図1は、このカメラ基軸1を図1の紙面に平行にして投影した図である。図2は、カメラ基軸1に直交し、観測点Aから観測点Bを見た向きの断面に投影した図である。なお、図1及び図2においては、前記カメラ基軸1と平行な方向をZ軸、このZ軸に直角で上下に延びる方向をY軸、これらZ軸及びY軸に直角である方向をX軸とした座標系を設定してここでの説明に用いる。
【0016】
また、直線L上に設定した参照点は、観測点Aに関するものに添え字aを、観測点Bに関するものに添え字bを付して示している。さらにこれら参照点に関して、位置を区別するために1〜nの添え数字を付している。図1及び図2では、観測点A、Bに関してそれぞれ2ずつの参照点を設定した場合を例示している。観測点A及び観測点Bから見た参照点は、直線L上で任意に定めることができる。すなわち、従来のように直線Lの末端部や目印のある部分である必要はない。換言するならば、観測点A、Bについて定める参照点は直線L上に存在するという条件を満たせばよい。さらに、観測点A、Bについてそれぞれで任意に設定でき、A,B相互で異なる所(直線L上の位置)を指示してもよい。図1及び図2では、観測点Aに関する参照点はLa1、La2、観測点Bに関する参照点はLb1、Lb2である。
【0017】
また、図1で、観測点Aに関して、参照点La1と観測点Aを結ぶ線3と、カメラ基軸1とが成す角(以下、左右角と称す)をαa1とする。以下同様に、参照点La2に関して線4とカメラ基軸1とが成す左右角をαa2、参照点Lb1に関して線5とカメラ基軸1とが成す左右角をαb1、参照点Lb2に関して線6とカメラ基軸1とが成す角左右をαb2、とする。なお、この左右角αは図1の紙面に投影した角度ではない。この左右角αは、参照点が図1紙面上にある場合を除いて、この図1紙面から立ち上がった状態となる立体的に見た角である。また、観測点Aと観測点Bとの離間距離はSである。
【0018】
図2で、観測点Aに関して参照点La1と観測点Aを結ぶ線3と、特定方向7との成す角(以下、仰角と称す)をβa1とする。以下同様に、参照点La2に関して線4と特定方向7とが成す仰角をβa2、参照点Lb1に関して線5と特定方向7とが成す仰角をβb1、参照点Lb2に関して線6と特定方向7とが成す仰角をβb2、とする。この図2で示す仰角βは、図1の左右角αとは異なり、断面に投影した角度である。なお、上記特定方向7は任意に設定することができるが、例えばX軸と平行な方向としておけば後のデータ処理を簡素化できる。
【0019】
前記の観測点Aに関する左右角αa1、αa2及び仰角をβa1、βa2、並びに観測点Bに関する左右角αb1、αb2及び仰角をβb1、βb2の算出手法には特に限定はない。これら角度を算出する手法の一例を次に示す。図3は、カメラ10により直線Lを撮影する様子を示した図である。カメラ10を2箇所の観測点A、Bに設置して直線Lを撮影する。2台のカメラを用いてステレオ撮影してもよい。ここでは説明を簡単にするため、カメラ10に用いるレンズには歪が無いものとする。また、この図3にも前述したカメラ基軸1が図示されている。ここでは簡略化して示しているが、カメラ基軸1は厳密には各カメラのレンズ主点を結ぶ線である。
【0020】
カメラレンズの光軸CSa、CSbの方向は、カメラ基軸1に対して直角(図4、α90で示す)であるものとする。また、この光軸CSa、CSbは、特定方向7に対する仰角βが共にゼロとなるように調整する。例えば図3で示すように直線状のカメラ固定治具11を使用することで、左右角α、仰角βを簡単に一致させることができる。よって、図3の場合、このカメラ固定治具11の両端が観測点A,Bとなり、カメラ基軸1はカメラ固定治具11の伸びる方向となる。また、光軸CSa、CSbの仰角βが0(ゼロ)となる方向が、図2で示した特定方向7に一致する。このように条件を整えると、La1に対する左右角αa1及びβa1を簡単に求めることができる。
【0021】
図4は、図3で示した位置関係を維持して、カメラ基軸1及びカメラレンズの光軸CSa、CSbを含む面と平行に示した図である。また、図5はカメラ基軸1と直交する面に投影した図である。なお、この図5は観測点Aでのカメラに関して示している。さらに図6は観測点Aに設置したカメラで撮影した画像15の一例を示した図である。
【0022】
図4、5では、カメラ10より前方に仮想撮像面CFを仮想している。実際の撮像面(フィルム面、CCD等)はレンズの後方である。しかし、理解を容易とするために、レンズ前方の一定距離Dに光軸と直交するように仮想撮像面CFを設けて説明する。これらで示す像は実際の撮像およびコンピュータのディスプレイ上の像と相似である。それぞれの面を2次元座標とした画像上の位置を係数の乗除のみで容易に相互変換することができる。例えば、コンピュータのディスプレイ上でマウスにより直線L上で任意の位置にLa1を指示すれば、光軸貫通点cを基準とした縦横ピクセル数に係数を乗除し仮想撮像面CF上の対応点Lacを2次元座標値(xa1、ya1)を用いて特定することができる。図5でda1は、カメラ10の光軸CSaの始点から対応点Lacまでの距離である。
【0023】
上記図3〜図6の幾何位置の関係からαa1、βa1は下記の式で得られる。なお、図6では参考のため実像ではない光軸貫通点cの位置を示している。
βa1=tan−1(ya1/D)
da1=√(D+ya1
αa1=tan−1(da1/xa1)
【0024】
同様に直線L上に設定した図1及び図2で示している他の参照点αa2、βa2の方向も同様に得ることができる。また、観測点Bに設定したカメラについても同様である。観測点A,Bに設置したカメラのレンズ光軸CSa、CSbは、説明を簡単にするため、特定方向7と一致する設定としているが、これに限らない。カメラの向きを今回の光軸から任意の左右角α、仰角βに向けて撮影し、それに応じた式を立てることもできる。これらの式から各α、βを求めるようにしてもよい。さらには、カメラをレンズの光軸回りに回転して撮影し、それに応じた式を立て各α、βを求めることもできる。
【0025】
次に、再度、図1、図2に戻り、前述のように観測点A及びBについて求められる左右角α及び仰角βを用いて、上記観測点A及び直線L上の参照点La1,La2を含む平面(以下、A12平面と称す)と、観測点B及び直線L上の参照点Lb1,Lb2を含む平面(以下、B12平面と称す)とを求める。これら2つの平面は、上記で求めた左右角α、仰角βを用いて特定する。そして、この2つの平面が交差する線部分(直線部分)が直線Lとなる。すなわち、観測点A、Bの位置及び各参照点La1、La2、Lb1,Lb2の方向が定まれば、A12平面とB12平面の式を特定でき、さらに直線Lはこの2平面の交線の式として求められる。
【0026】
以下、直線Lを規定する式の求め方を具体的に説明する。
第1の平面となるA12平面を示す式(1)は下記のように表現できる。
Z=K1・X+K2・Y (1)
同様に
第2の平面となるB12平面を示す式(2)は下記のように表現できる。
Z=K3・X+K4・Y+S (2)
なお、(2)のSは図1に示した観測点Aと観測点Bとの離間距離である。
【0027】
上記式(1)、(2)中の係数K1〜K4は次のように求めることができる。ただし、観測点Aから参照点La1、La2及び観測点Bから参照点Lb1、Lb2までの距離は不明であるので、仮想した1つの面上にこれら参照点La1〜Lb2に対応する点が存在するものとしてその位置を求める。
【0028】
そのために、図1に示すように、観測点A、Bのそれぞれを中心とし単位距離Rを動径とした位置に、参照点La1、La2のそれぞれに対応するMa1,Ma2、及び参照点Lb1,Lb2のそれぞれに対応するMb1,Mb2の正方座標を求める。また、原点は観測点Aに設定している。X軸、Y軸及びZ軸の関係は前述した通りであり、図1及び図2に各軸を示している。
【0029】
Ma1の座標(mxa1、mya1、mza1)は、式(3)〜(5)により求められる。
mxa1=R・sinαa1・cosβa1 (3)
mya1=R・sinαa1・sinβa1 (4)
mza1=R・cosαa1 (5)
【0030】
同様に、Ma2の座標(mxa2、mya2、mza2)は、式(6)〜(8)により求められる。
mxa2=R・sinαa2・cosβa2 (6)
mya2=R・sinαa2・sinβa2 (7)
mza2=R・cosαa2 (8)
【0031】
さらに、Mb1の座標(mxb1、myb1、mzb1)は、式(9)〜(11)により求められる。
mxb1=R・sinαb1・cosβb1 (9)
myb1=R・sinαb1・sinβb1 (10)
mzb1=R・cosαb1(+S) (11)
【0032】
同様に、Mb2の座標(mxb2、myb2、mzb2)は、式(12)〜(14)により求められる。
mxb2=R・sinαb2・cosβb2 (12)
myb2=R・sinαb2・sinβb2 (13)
mzb2=R・cosαb2(+S) (14)
なお、上記式(11)、(14)中の(+S)は、面の式の係数を求める計算で相殺されるので、実質的に無視できる。
【0033】
続いて、以上で求めた各座標を前記A12平面を示す式(1)及びB12平面を示す式(2)に代入して連立方程式を立てる。A12平面を示す式(1)に式(3)〜(8)の座標を代入する。式(1)に(3)〜(8)を代入すると、
mza1=K1・mxa1+K2・mya1 (15)
mza2=K1・mxa2+K2・mya2 (16)
0=K1・0+K2・0 (17)
が得られる。
【0034】
同様に、B12平面を示す式(2)に式(9)〜(14)で示す各点の座標を代入する。式(2)に(9)〜(14)を代入すると、
mzb1=K3・mxb1+K4・myb1(+S) (18)
mzb2=K3・mxb2+K4・myb2(+S) (19)
(S)=K3・0+K4・0(+S) (20)
が得られる。
【0035】
平面を確定するためには、3点が必要である。よって上記式では、式(17)及び(20)で観測点A、Bの座標を代入した方程式を示している。しかし、式(17)および(20)は前記動径Rを0とした場合の式(15)、(16)および式(18)、(19)と同じであり(一次従属となり)、上記方程式を解く上で必要はない。以上の連立方程式を解くと下記の解(21)〜(24)が得られる。
【数1】

Figure 2004233233
【0036】
さらに、平面の式(1)及び(2)に基づいて直線Lを規定する式を誘導すると下記式(25)となる。
【数2】
Figure 2004233233
【0037】
なお、式(21)〜(25)で、分母が0の時は直線Lとカメラ基軸1とが接触交差または平行な状態のときである。つまり、カメラ基軸1と直線Lが延長上を含め接近すると、分母が0に近い状態となる。このようなときには直線Lの測量が不可能或いは精度が低下する。よって、測量の現場では撮影にあたってカメラを、カメラ基軸1と直線Lとが十分な距離をもって交差するように位置設定を行うことが必要である。そのためには、カメラ基軸1と直線Lとが同一平面に存在しない様に位置設定を行うことである。
【0038】
ところで、直線Lを規定するのが線の式であると、後述する曲線を測量する場合など、その成果を利用し難い場合がある。このような場合は線分としてその末端の座標を求めて、これを利用すればよい。例えば参照点La1の座標を求める場合を説明する。そのために、観測点Aから見た参照点La1までの距離を求める。但し、この距離を動径Ra1とする。
【0039】
式(25)に、式(3)及び(4)のRをRa1、mxa1をX、さらにmya1をYと、読み替えて代入し動径Ra1を求めると下記式(26)となる。
【数3】
Figure 2004233233
【0040】
La1の座標(xa1、ya1、za1)のそれぞれは、式(27)〜(29)により求められる。
xa1=Ra1・sinαa1・cosβa1 (27)
ya1=Ra1・sinαa1・sinβa1 (28)
za1=Ra1・cosαa1 (29)
他の線上の座標位置も同様に求めることができる。
【0041】
以上のように本発明によると直線Lを確実に求めることができ、直線L上の点の座標も容易に求めることができる。さらに、被写体が曲線状であるような場合については、直線と見なせる複数の部分に分割し、上記作業を適宜繰り返すことで同様に測量することができる。
【0042】
図7は、本発明による写真測量方法を実施するためのハードウェア構成の一例を示すブロック図である。ハードウェアとしてはパーソナルコンピュータ(PC)20が使用される。このパーソナルコンピュータ20は装置全体を制御する中央演算処理装置(CPU)22を備え、この中央演算処理装置22には入出力制御部26を介して入力装置であるキーボード27およびマウス28、出力装置であるモニタ装置(CRT)30およびプリンタ32、画像入力装置であるメモリカード読取装置34が接続される。また中央演算処理装置22には記憶装置であるハードディスク(HDD)24が接続され、このハードディスク24には写真測量を実施するためのコンピュータプログラム、上記α,βを求めるための各種定数や係数、各入力装置27、28、34から入力されたデータおよび中央演算処理装置22による演算処理データ等が格納される。
【0043】
本実施形態においては、カメラ10は、CCD等の固体撮像素子によって光学的被写体像を光電変換して、ビットマップ形式に従って生成した、あるいはJPEG等のフォーマットに従って圧縮した画像データをメモリカード36に記録する電子スチルカメラであり、このメモリカード36を介してパーソナルコンピュータ20に画像データが入力される。なお、画像データをパーソナルコンピュータ20に入力するためのインターフェースとしてはメモリカード36の他、USB等の有線あるいは赤外線等の無線を介してカメラ10から直接PCに画像データを入力する方式であってもよい。また、カメラ10はフィルムスチルカメラであってもよく、この場合にはさらに別途スキャナ(図示せず)をパーソナルコンピュータ20に接続し、このスキャナによってフィルムに記録された画像を画像データに変換してパーソナルコンピュータ20に入力するようにしてもよい。
【0044】
図8に示すフローチャートを参照し、図7に示したハードウェアを用いて、直線Lを測量する例を説明する。先ず、被写体となる直線Lを、異なる観測点A、Bから図3に示した固定治具11等を用いてデジタルカメラ10で撮影し、画像データを得る(ステップS101)。この際、観測点A、Bの離間距離Sをスケール等で直接計測して記録する(ステップS102)。なお、図3〜図6で示したようにカメラ10の姿勢を特別に固定した以外の撮影では、さらに観測点A、Bにおけるカメラ10の光軸CSa、CSbの左右角α、仰角β等を直接計測して記録する。
【0045】
カメラ撮影した画像を図7の装置に画像を入力する(ステップS103)。画像データを記録したカードをコンピュータのカード読取装置34等で読取り、HDD24に保存する。さらに、観測点A,Bの離間距離Sおよびカメラ特性データをキーボード27により入力し、メモリ23に保存する(ステップS104)。なお、カメラ特性データとは仮想撮像面CFの結像距離D、光軸貫通位置cの座標およびディスプレイ20の座標と仮想撮像面の座標を変換するための係数である。
【0046】
観測点A、Bの画像をHDD24から呼出し、コンピュータのディスプレイ30上に表示し、例えば、マウス38等を用いて直線Lの像上に任意の点を参照点としてクリックして指示し、参照点Lan,Lbnの画面における2次元座標(ピクセル単位)をメモリ23に保存する(ステップS105)。なお、被写体が曲線である場合は、目視で直線と見なせる複数の線分を適当に定め、その両端を参照点とする。その際、観測点Aでの画像データに参照点La1〜Lanと略対応するように観測点Bでの画像データに参照点Lb1〜Lbnを設定する。
【0047】
以上でメモリに保存したデータをファイルにしてHDD24に保存する(ステップS106)。Lan,Lbnの画像における2次元座標とカメラ特性をHDDから呼出して、変換係数を乗除して仮想撮像面における2次元座標(mm等、長さ単位)に変換し、xan,yan、xbn、ybnを求めメモリ23に保存する(ステップS107)。xan,yan、xbn、ybn及びカメラ特性データからαan、βan、αbn、βbnを算出して、メモリ23に保存する(ステップ108)。
【0048】
αan、βan、αbn、βbnから同一直線の組合せ毎に観測点A、Bに関して面の式を求め、さらにHDDより離間距離Sを呼出し観測点A、Bに関する面が交差して形成する線の関数の各パラメータを得てメモリ23に保存する。また、必要に応じてファイルにしてHDDに保存する(ステップS109)。なお、計算式の分母が0(ゼロ)または分子に対して分母が異常に小さい値となったとき、計算不能または精度不良のメッセージを発する様にしておくのが好ましい。このようなときは計算を中止してもよい。
【0049】
線の関数から線分、すなわち末端の点の座標を求めてメモリ23に保存する(ステップS110)。必要に応じてファイルにしてHDDに保存する。最後に、必要に応じて線分をディスプレイ30又はプリンタ32に図示または数値表示する。さらにはCAD用データとしてファイルにしてHDD24に保存してもよい(ステップS111)。
【0050】
以下では、さらに本発明を用いて送電線を測量する場合の実施例を説明する。ここでは、曲線状となる送電線を測量する実施例を示す。図9は鉄塔ST1、ST2に張られた送電線ELを測量する様子を示した図である。図9では、観測点Aを地上8、観測点Bを建物BLの屋上9とし、ここから送電線ELを撮影する場合を示している。ここで観測点Aと観測点Bとは、送電線ELを軸として回転する角度が大きくなる方向(例えば、30°以上)に離して設定する。
【0051】
すなわち、本発明では、線状物体Lの軸線周りの角度が大きくなるように観測点A、Bの位置を設定することが好ましい。特にこの角度は30°〜90°程度を設定することが好ましく、本発明者は約90°で最も精度良い測定が実現できることを確認している。具体的には、線状物体Lが樹木、柱等の鉛直方向に延びる線状体であるような場合、観測点A、Bは水平方向で十分な離間距離を取って設定する。その逆に、線状物体Lが電線等の水平方向に延びる線状体であるような場合、観測点A、Bは上下方向の高低差が大きくなるように十分な距離を取って設定する。ちなみに、図9は送電線ELを測量する場合であるから、地上8に観測点A、建物BLの屋上9に観測点Bを設定して、上下方向の移動距離を十分に確保している。
【0052】
また、例えば、送電線ELの下から見上げて撮影する位置を第1の観測点とし、さらに送電線ELを潜って横断するように移動した位置を第2の観測点としてもよい。ただし、このような場合に、画像からカメラの姿勢を求める手法と併用する場合は線以外の共通する被写体が各画像に写っている必要がある。よって、送電線等のように頭上にある線状物体は、下から見上げて撮影するよりも、ヘリコプタなどを利用して見下ろして撮影するという形態を採用するのが望ましい。
【0053】
図10は、図9の観測点A、Bそれぞれにおける撮影画像を示した図である。(A)は観測点Aにおける画像、(B)は観測点Bにおける画像である。LaとLbの参照点に関して、同じ番号で区切られる線分が同一の線分となるように視覚で凡そ判断して画像上での線上に各参照点La1〜La5及びLb1〜Lb5を設定する。LanとLan+1及びLbnとLbn+1の組合せで1つの直線部分を求める。この直線部分に関して、前述した面の式の交線として求めることで線の測量を実行する。前述したように曲線は複数の線分(直線部分)の連続と見なせるので、測量結果を得ることができる。
【0054】
以上の説明から明らかなように本発明では、カメラ画像に表示された線状物体上に目印となる点が存在しない場合でも、その物体さえ判別できれば測量を行うことができる。曲線についても直線の組合せとして同様に処理できる。また、従来においては樹木のように、表面からは見えない太い筒状物体の中心線を測量することは困難であった。しかし、本発明では幹の中心線を凡そ特定して参照点を設定することができるので、簡易に測量できる。
【0055】
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
【0056】
【発明の効果】
以上詳述したところから明らかなように、発明によれば、従来のように参照点を端部や印のある部分に設定することなく、線状の被写体さえ判別できれば測量を行うことができる。
【図面の簡単な説明】
【図1】観測点A、Bの2方向から線状物体を撮影して測量する場合を示した平面図である。
【図2】図1の観測点Aから観測点Bを見た向きでカメラ基軸に直交する断面に投影した場合を示した図である。
【図3】カメラにより直線Lを撮影する様子を示した図である。
【図4】図3で示した位置関係を維持して、カメラ基軸及びカメラレンズの光軸を含む面と平行に示した図である。
【図5】カメラ基軸と直交する面に投影した図である。
【図6】観測点Aに設置したカメラで撮影した画像の一例を示した図である。
【図7】本発明による写真測量方法を実施するためのハードウェア構成の一例を示すブロック図である。
【図8】直線の測量方法の一例を示すフローチャートである。
【図9】鉄塔に張られた送電線を測量する実施例について示した撮影風景図である
【図10】図9の観測点A、Bそれぞれにおける撮影画像を示した図である。
【符号の説明】
1 カメラ基軸
L 直線、線状物体(線状の被写体)
Lan 参照点
Lbn 参照点
A,B 観測点
10 カメラ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to photogrammetry. In particular, the present invention relates to a photogrammetry method for measuring a linear object using an image obtained by camera shooting. Here, the linear object includes a shape or pattern portion included in a part of the object, such as an edge portion of a building, or an object that itself is linear, such as a transmission line.
[0002]
[Prior art]
In conventional photogrammetry, surveying is generally performed using points belonging to a subject. When the object is a building, a plurality of recognizable points (marks) are specified at corners of the building and other places. The surveying is performed by determining the coordinates of these points and connecting the coordinates of each point.
[0003]
By the way, in the conventional photogrammetry, even when measuring the interval between buildings and the interval between studs (brightness), a method according to the above must be adopted. For example, when measuring the distance between the vertical edges of two buildings in a building, points that can be recognized on the corners of the roof, at the points of contact with the ground, or at the edges may appear in the screen. If it is specified. Then, a linear object (for example, an edge of a building) is measured by a method of obtaining the point coordinates and connecting the coordinates of each point.
[0004]
[Problems to be solved by the invention]
However, a photographed building does not always have a recognizable point. When surveying the edge of a building, it is often the case that there is no recognizable point other than both corners (ends). In general, when surveying a linear object, it is necessary to take a photograph so that there is a clue point (point to be a landmark later) such as the end of the subject or a stain. However, there are many cases where these marks cannot be set conveniently. For example, there are cases where the intended landmark is outside the shooting screen, where the line is smooth and there is no landmark, or where the end of the subject is hidden behind a shadow and the landmark cannot be set.
[0005]
In the above case, there is a problem that a linear portion cannot be measured from a photographed image. Accordingly, it is an object of the present invention to provide a photogrammetry method that can measure a linear portion even when there are no points such as corners in a photographic image.
[0006]
[Means for Solving the Problems]
A first step of obtaining an image by photographing a linear object with a camera from different observation points according to claim 1;
A second step of arbitrarily setting two reference points on the subject in each of the different images acquired in the first step;
A third step of calculating a straight line defining the linear subject based on the two reference points in each of the different images set in the second step and an observation point at which the image was captured. Achieved by the method.
[0007]
In the present invention, two different reference points are arbitrarily set on a subject for each of different images obtained by photographing a camera from different observation points, and the linear subject is set based on the reference points and the observation points where the images are taken. A linear object is specified by calculating a prescribed straight line. The reference point here does not need to be the end of the object or a specially provided mark as in the related art, and can be set arbitrarily. Therefore, according to the present invention, surveying can be performed as long as a linear object can be determined.
[0008]
Then, as described in claim 2, in the third step, a formula of a plane including the two reference points set in the second step and an observation point where the image is captured is calculated for each of different images, The line of intersection of the calculated two surfaces is calculated as a straight line defining the linear object, and the linear object can be specified.
[0009]
As described in claim 3, in the third step, the display is performed by using a left-right angle α viewed from the camera with respect to a camera base axis connecting the observation points and an elevation angle β viewed from the camera around the camera base axis. The expression of the surface can be derived based on the direction of the reference point.
[0010]
A first step of obtaining an image by photographing a curved object with a camera from different observation points, as described in claim 4,
A second step of dividing the curved object into a plurality of linear portions in each of the different images obtained in the first step, and setting reference points at both ends of the linear portions;
A third step of calculating, for each of the different images, an expression of a plane including the reference points at both ends set in the second step and an observation point at which the image is captured, for all the straight line portions;
A fourth step of calculating, for all the straight line parts, the intersection of the expressions of the surfaces of the same straight line part with different images obtained in the third step, as a straight line defining the straight line part;
The above object can also be achieved by a photogrammetry method for a linear object, including a fifth step of obtaining the curved subject by continuing the straight line portions obtained in the fourth step. According to the present invention, even when the subject is a curve, the linear object can be measured as a combination of portions that can be regarded as straight lines (linear portions).
[0011]
According to a fourth aspect of the present invention, as described in the fifth aspect, when the curved object is formed into a plurality of linear portions in the second step, the different images are substantially the same in each other. To obtain the same number of straight line portions. In other words, the curved object is divided into a plurality of portions that can be regarded as approximately straight lines (visually) in one image. Similarly, in the other image, the curved subject is divided at a portion that can be regarded as a straight line. It is preferable that the division position of the subsequent image is approximately the same as the division position of the previous image.
[0012]
In addition, the above-described object is a first process of reading image data obtained from a camera that has captured a linear subject at different observation points according to claim 6,
A second process of displaying image data obtained by the first process on a monitor device, arbitrarily setting two reference points on the subject, and obtaining two-dimensional coordinates on the image for the reference points in different images;
A third process of calculating a straight line defining the linear object based on two-dimensional coordinates on the image of the two reference points in each of the different images obtained by the second process and an observation point at which the image was captured; Can also be achieved by a photogrammetry program executed by a computer. Then, as described in claim 7, in the third processing, based on the two-dimensional coordinates of the two reference points on the image and the observation point at which the image was captured, a surface including the reference point and the observation point is provided. Can be calculated for each of the different images, and the intersection of the calculated two surfaces can be obtained as a straight line defining the linear subject.
[0013]
The reference point in the second process may be set so that different images are located at approximately the same position on the linear subject in different images. As described above, since the reference points set between the images can be arbitrarily determined, there is no need to provide a mark on the subject as in the related art. Further, as described in claim 9, the reference point in the second processing may be set at both ends of a straight line portion obtained by dividing the curved object when the object is curved.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is a method for accurately measuring a linear object by utilizing a portion where two surfaces intersect as a line. FIGS. 1 and 2 show a case where a linear object L is photographed and measured from two directions A and B using, for example, a digital still camera or the like. Such a linear object L can include a shape, a pattern, or the like that becomes a part of an object, such as an edge of a building, in addition to an object that is itself long, such as an electric wire or a tree. . FIGS. 1 and 2 illustrate a case where a linear object L is displayed as a straight line L and is measured for easy understanding.
[0015]
In FIG. 1, reference numerals A and B indicate two points where cameras are installed. These two observation positions are referred to as observation points A and B. A straight line connecting the observation points A and B is referred to as a camera base axis 1. FIG. 1 is a diagram in which the camera base axis 1 is projected parallel to the paper surface of FIG. FIG. 2 is a view orthogonal to the camera base axis 1 and projected on a cross section in a direction in which the observation point B is viewed from the observation point A. 1 and 2, a direction parallel to the camera base axis 1 is a Z axis, a direction perpendicular to the Z axis and extending vertically is a Y axis, and a direction perpendicular to the Z axis and the Y axis is an X axis. Is set and used for the description here.
[0016]
The reference points set on the straight line L indicate the observation point A with the suffix a and the observation point B with the suffix b. Further, with respect to these reference points, subscripts 1 to n are added to distinguish the positions. FIGS. 1 and 2 illustrate a case where two reference points are set for observation points A and B, respectively. The reference points viewed from the observation points A and B can be arbitrarily determined on the straight line L. That is, it is not necessary to be the end portion of the straight line L or a portion having a mark as in the related art. In other words, it is only necessary to satisfy the condition that the reference points defined for the observation points A and B exist on the straight line L. Further, the observation points A and B can be set arbitrarily, and different points (positions on the straight line L) between A and B may be designated. In FIGS. 1 and 2, reference points for observation point A are La1 and La2, and reference points for observation point B are Lb1 and Lb2.
[0017]
In FIG. 1, regarding the observation point A, an angle (hereinafter, referred to as a right and left angle) formed by a line 3 connecting the reference point La1 and the observation point A and the camera base axis 1 is αa1. Similarly, the left-right angle formed by the line 4 and the camera base 1 with respect to the reference point La2 is αa2, the left-right angle formed by the line 5 with the camera base 1 with respect to the reference point Lb1, αb1, the line 6 and the camera base 1 with respect to the reference point Lb2. Let αb2 be the angle left and right formed by. Note that the left-right angle α is not the angle projected on the paper surface of FIG. The left-right angle α is a three-dimensional angle that stands up from the plane of FIG. 1 except when the reference point is on the plane of FIG. The distance between the observation point A and the observation point B is S.
[0018]
In FIG. 2, an angle (hereinafter, referred to as an elevation angle) between a line 3 connecting the reference point La1 and the observation point A with respect to the observation point A and the specific direction 7 is defined as βa1. Similarly, the elevation angle between the line 4 and the specific direction 7 with respect to the reference point La2 is βa2, the elevation angle between the line 5 and the specific direction 7 with respect to the reference point Lb1 is βb1, and the line 6 and the specific direction 7 with respect to the reference point Lb2. The angle of elevation formed is βb2. The elevation angle β shown in FIG. 2 is different from the left-right angle α in FIG. 1 and is an angle projected on a cross section. The specific direction 7 can be set arbitrarily. For example, if the specific direction 7 is set to a direction parallel to the X axis, the subsequent data processing can be simplified.
[0019]
There is no particular limitation on the method of calculating the left and right angles αa1 and αa2 and the elevation angle of the observation point A, βa1 and βa2, and the left and right angles αb1, αb2 and the elevation angle of the observation point B, βb1 and βb2. An example of a method for calculating these angles will be described below. FIG. 3 is a diagram illustrating a state in which a straight line L is photographed by the camera 10. The camera 10 is installed at two observation points A and B, and a straight line L is photographed. Stereo shooting may be performed using two cameras. Here, for the sake of simplicity, it is assumed that the lens used for the camera 10 has no distortion. FIG. 3 also shows the camera main shaft 1 described above. Although shown here in a simplified manner, the camera base axis 1 is strictly a line connecting the lens principal points of each camera.
[0020]
The directions of the optical axes CSa and CSb of the camera lens are perpendicular to the camera base axis 1 (indicated by α90 in FIG. 4). The optical axes CSa and CSb are adjusted so that the elevation angle β with respect to the specific direction 7 is both zero. For example, by using a straight camera fixing jig 11 as shown in FIG. 3, the left-right angle α and the elevation angle β can be easily matched. Therefore, in the case of FIG. 3, both ends of the camera fixing jig 11 are the observation points A and B, and the camera base axis 1 is in the direction in which the camera fixing jig 11 extends. The direction in which the elevation angle β of the optical axes CSa and CSb is 0 (zero) coincides with the specific direction 7 shown in FIG. By setting the conditions in this way, the right and left angles αa1 and βa1 with respect to La1 can be easily obtained.
[0021]
FIG. 4 is a diagram showing the positional relationship shown in FIG. 3 in parallel with a plane including the camera base axis 1 and the optical axes CSa and CSb of the camera lens. FIG. 5 is a view projected on a plane orthogonal to the camera base axis 1. FIG. 5 shows the camera at the observation point A. FIG. 6 is a diagram illustrating an example of an image 15 captured by a camera installed at the observation point A.
[0022]
4 and 5, a virtual imaging plane CF is imagined ahead of the camera 10. The actual imaging surface (film surface, CCD, etc.) is behind the lens. However, in order to facilitate understanding, a description will be given with a virtual imaging plane CF provided at a fixed distance D in front of the lens so as to be orthogonal to the optical axis. The images shown are analogous to the actual images and images on the computer display. The positions on the image where the respective surfaces are two-dimensional coordinates can be easily converted to each other only by multiplication and division of coefficients. For example, when La1 is pointed to an arbitrary position on the straight line L by a mouse on a computer display, the number of pixels in the vertical and horizontal directions with respect to the optical axis penetration point c is multiplied and divided by a coefficient to find a corresponding point Lac on the virtual imaging plane CF. It can be specified using the two-dimensional coordinate values (xa1, ya1). In FIG. 5, da1 is the distance from the start point of the optical axis CSa of the camera 10 to the corresponding point Lac.
[0023]
Αa1 and βa1 can be obtained by the following equations from the relationship between the geometrical positions in FIGS. In FIG. 6, the position of the optical axis penetration point c which is not a real image is shown for reference.
βa1 = tan -1 (Ya1 / D)
da1 = √ (D 2 + Ya1 2 )
αa1 = tan -1 (Da1 / xa1)
[0024]
Similarly, the directions of the other reference points αa2 and βa2 shown in FIGS. 1 and 2 set on the straight line L can be obtained in the same manner. The same applies to the camera set at the observation point B. The lens optical axes CSa and CSb of the cameras installed at the observation points A and B are set to coincide with the specific direction 7 for simplicity of description, but are not limited thereto. The direction of the camera can be photographed from the optical axis at an arbitrary left / right angle α and elevation angle β, and an equation corresponding to the image can be established. Each of α and β may be obtained from these equations. Furthermore, the camera can be rotated around the optical axis of the lens to shoot an image, and equations α and β can be set to obtain the respective α and β.
[0025]
Next, returning to FIGS. 1 and 2 again, using the left and right angles α and the elevation angles β obtained for the observation points A and B as described above, the observation points A and the reference points La1 and La2 on the straight line L are determined. A plane including the observation point B and the reference points Lb1 and Lb2 on the straight line L (hereinafter referred to as a B12 plane) is obtained. These two planes are specified using the left-right angle α and the elevation angle β obtained above. Then, a line portion (straight line portion) where the two planes intersect becomes a straight line L. That is, if the positions of the observation points A and B and the directions of the reference points La1, La2, Lb1 and Lb2 are determined, the equation of the A12 plane and the B12 plane can be specified, and the straight line L is the equation of the intersection of the two planes. Is required.
[0026]
Hereinafter, a method of obtaining the equation defining the straight line L will be specifically described.
Equation (1) showing the A12 plane serving as the first plane can be expressed as follows.
Z = K1.X + K2.Y (1)
Likewise
Equation (2) representing the B12 plane, which is the second plane, can be expressed as follows.
Z = K3 · X + K4 · Y + S (2)
Note that S in (2) is the distance between the observation point A and the observation point B shown in FIG.
[0027]
The coefficients K1 to K4 in the above equations (1) and (2) can be obtained as follows. However, since the distances from the observation point A to the reference points La1 and La2 and the observation point B to the reference points Lb1 and Lb2 are unknown, points corresponding to these reference points La1 to Lb2 exist on one virtual surface. Asking for its position.
[0028]
Therefore, as shown in FIG. 1, Ma1, Ma2 corresponding to each of the reference points La1, La2, and the reference point Lb1, at the positions where the observation points A, B are the centers and the unit distance R is the radius. The square coordinates of Mb1 and Mb2 corresponding to each of Lb2 are obtained. The origin is set at the observation point A. The relationship among the X axis, the Y axis, and the Z axis is as described above, and FIGS. 1 and 2 show each axis.
[0029]
The coordinates (mxa1, mya1, mza1) of Ma1 are obtained by equations (3) to (5).
mxa1 = R · sinαa1 · cosβa1 (3)
mya1 = R · sinαa1 · sinβa1 (4)
mza1 = R · cosαa1 (5)
[0030]
Similarly, the coordinates (mxa2, mya2, mza2) of Ma2 are obtained by equations (6) to (8).
mxa2 = R · sinαa2 · cosβa2 (6)
mya2 = R · sinαa2 · sinβa2 (7)
mza2 = R · cosαa2 (8)
[0031]
Further, the coordinates (mxb1, myb1, mzb1) of Mb1 are obtained by equations (9) to (11).
mxb1 = R · sinαb1 · cosβb1 (9)
myb1 = R · sinαb1 · sinβb1 (10)
mzb1 = R · cosαb1 (+ S) (11)
[0032]
Similarly, the coordinates (mxb2, myb2, mzb2) of Mb2 are obtained by equations (12) to (14).
mxb2 = R · sinαb2 · cosβb2 (12)
myb2 = R · sinαb2 · sinβb2 (13)
mzb2 = R · cosαb2 (+ S) (14)
Note that (+ S) in the above equations (11) and (14) is substantially negligible because it is canceled by the calculation for obtaining the coefficients of the plane equation.
[0033]
Subsequently, simultaneous equations are established by substituting the respective coordinates obtained above into equation (1) indicating the A12 plane and equation (2) indicating the B12 plane. The coordinates of Expressions (3) to (8) are substituted into Expression (1) indicating the A12 plane. Substituting (3) to (8) into equation (1) gives
mza1 = K1 · mxa1 + K2 · mya1 (15)
mza2 = K1 · mxa2 + K2 · mya2 (16)
0 = K1 · 0 + K2 · 0 (17)
Is obtained.
[0034]
Similarly, the coordinates of each point represented by Expressions (9) to (14) are substituted into Expression (2) indicating the B12 plane. Substituting (9)-(14) into equation (2) gives
mzb1 = K3 · mxb1 + K4 · myb1 (+ S) (18)
mzb2 = K3.mxb2 + K4.myb2 (+ S) (19)
(S) = K3.0 + K4.0 (+ S) (20)
Is obtained.
[0035]
Three points are needed to determine the plane. Therefore, the above equation shows an equation obtained by substituting the coordinates of the observation points A and B in equations (17) and (20). However, Expressions (17) and (20) are the same as Expressions (15) and (16) and Expressions (18) and (19) when the radial radius R is set to 0 (being linearly dependent). There is no need to solve. When the above simultaneous equations are solved, the following solutions (21) to (24) are obtained.
(Equation 1)
Figure 2004233233
[0036]
Further, when an equation defining the straight line L is derived based on the plane equations (1) and (2), the following equation (25) is obtained.
(Equation 2)
Figure 2004233233
[0037]
In Equations (21) to (25), when the denominator is 0, the straight line L and the camera base axis 1 are in a state of contact intersection or parallel. That is, when the camera base axis 1 and the straight line L approach each other including the extension, the denominator becomes a state close to zero. In such a case, the measurement of the straight line L is impossible or the accuracy is reduced. Therefore, at the site of surveying, it is necessary to set the position of the camera so that the camera base axis 1 and the straight line L intersect with a sufficient distance when photographing. For that purpose, the position is set so that the camera base axis 1 and the straight line L do not exist on the same plane.
[0038]
By the way, if the line formula defines the straight line L, it may be difficult to use the result of the measurement, such as when measuring a curve described later. In such a case, the coordinates of the end of the line segment may be obtained and used. For example, a case where the coordinates of the reference point La1 are obtained will be described. For this purpose, the distance from the observation point A to the reference point La1 is determined. However, this distance is defined as a moving radius Ra1.
[0039]
Substituting R in Equations (3) and (4) for Ra1, mxa1 for X, and mya1 for Y in Equations (3) and (4) and substituting them for the radial radius Ra1 gives Equation (26) below.
[Equation 3]
Figure 2004233233
[0040]
Each of the coordinates (xa1, ya1, za1) of La1 is obtained by Expressions (27) to (29).
xa1 = Ra1 · sinαa1 · cosβa1 (27)
ya1 = Ra1 · sinαa1 · sinβa1 (28)
za1 = Ra1 · cosαa1 (29)
The coordinate positions on other lines can be similarly obtained.
[0041]
As described above, according to the present invention, the straight line L can be reliably obtained, and the coordinates of points on the straight line L can also be easily obtained. Further, in the case where the subject is curved, it can be similarly measured by dividing the subject into a plurality of portions that can be regarded as straight lines and repeating the above operation as appropriate.
[0042]
FIG. 7 is a block diagram showing an example of a hardware configuration for implementing the photogrammetry method according to the present invention. A personal computer (PC) 20 is used as hardware. The personal computer 20 includes a central processing unit (CPU) 22 for controlling the entire apparatus. The central processing unit 22 includes a keyboard 27 and a mouse 28 as input devices via an input / output control unit 26 and an output device. A certain monitor device (CRT) 30, a printer 32, and a memory card reader 34 as an image input device are connected. A hard disk (HDD) 24 as a storage device is connected to the central processing unit 22. The hard disk 24 has a computer program for performing photogrammetry, various constants and coefficients for obtaining the above α and β, and The data input from the input devices 27, 28, and 34, the data processed by the central processing unit 22, and the like are stored.
[0043]
In this embodiment, the camera 10 photoelectrically converts an optical subject image with a solid-state imaging device such as a CCD and records image data generated according to a bitmap format or compressed according to a format such as JPEG on a memory card 36. An electronic still camera that inputs image data to the personal computer 20 via the memory card 36. The interface for inputting the image data to the personal computer 20 may be a memory card 36 or a method of directly inputting the image data from the camera 10 to the PC via a cable such as USB or wireless such as infrared rays. Good. Further, the camera 10 may be a film still camera. In this case, a scanner (not shown) is further connected to the personal computer 20, and the image recorded on the film is converted into image data by the scanner. You may make it input into the personal computer 20.
[0044]
An example of measuring the straight line L using the hardware shown in FIG. 7 will be described with reference to the flowchart shown in FIG. First, a straight line L serving as a subject is photographed from different observation points A and B by the digital camera 10 using the fixing jig 11 or the like shown in FIG. 3 to obtain image data (step S101). At this time, the distance S between the observation points A and B is directly measured and recorded on a scale or the like (step S102). In addition, as shown in FIGS. 3 to 6, in photographing other than fixing the posture of the camera 10 in particular, the left and right angles α, the elevation angle β, and the like of the optical axes CSa and CSb of the camera 10 at the observation points A and B are further determined. Measure and record directly.
[0045]
The image captured by the camera is input to the apparatus shown in FIG. 7 (step S103). The card on which the image data is recorded is read by a card reader 34 of a computer or the like, and stored in the HDD 24. Further, the separation distance S between the observation points A and B and the camera characteristic data are input from the keyboard 27 and stored in the memory 23 (step S104). Note that the camera characteristic data is a coefficient for converting the imaging distance D of the virtual imaging plane CF, the coordinates of the optical axis penetration position c, the coordinates of the display 20, and the coordinates of the virtual imaging plane.
[0046]
The images of the observation points A and B are called from the HDD 24 and displayed on the display 30 of the computer. For example, an arbitrary point is clicked on the image of the straight line L as a reference point by using the mouse 38 or the like to designate the reference point. The two-dimensional coordinates (pixel units) of the screen of Lan and Lbn are stored in the memory 23 (step S105). When the subject is a curve, a plurality of line segments that can be visually regarded as straight lines are appropriately determined, and both ends thereof are set as reference points. At this time, reference points Lb1 to Lbn are set in the image data at observation point B such that the image data at observation point A substantially correspond to reference points La1 to Lan.
[0047]
The data stored in the memory is converted into a file and stored in the HDD 24 (step S106). The two-dimensional coordinates and the camera characteristics in the images of Lan and Lbn are called from the HDD, and converted to two-dimensional coordinates (length units such as mm, etc.) on the virtual imaging plane by multiplying / dividing the conversion coefficients, and xan, yan, xbn, ybn Is obtained and stored in the memory 23 (step S107). αan, βan, αbn, βbn are calculated from xan, yan, xbn, ybn and camera characteristic data and stored in the memory 23 (step 108).
[0048]
A function of a line formed by intersecting the planes related to the observation points A and B by obtaining the surface equations for the observation points A and B for each combination of the same straight lines from αan, βan, αbn, and βbn Are obtained and stored in the memory 23. Further, the file is stored in the HDD as needed (step S109). When the denominator of the calculation formula is 0 (zero) or the denominator is an abnormally small value with respect to the numerator, it is preferable that a message indicating that calculation is impossible or that the accuracy is poor is issued. In such a case, the calculation may be stopped.
[0049]
The line segment, that is, the coordinates of the terminal point is obtained from the function of the line and stored in the memory 23 (step S110). The file is stored in the HDD as necessary. Finally, the line segments are shown or numerically displayed on the display 30 or the printer 32 as necessary. Further, a file may be stored as CAD data in the HDD 24 (step S111).
[0050]
Hereinafter, an embodiment in the case of measuring a transmission line using the present invention will be described. Here, an embodiment in which a curved transmission line is measured will be described. FIG. 9 is a diagram showing a state where the transmission line EL stretched on the towers ST1 and ST2 is measured. FIG. 9 shows a case where the observation point A is the ground 8 and the observation point B is the roof 9 of the building BL, and the transmission line EL is photographed from here. Here, the observation point A and the observation point B are set apart from each other in a direction in which the angle of rotation about the transmission line EL increases (for example, 30 ° or more).
[0051]
That is, in the present invention, it is preferable to set the positions of the observation points A and B such that the angle around the axis of the linear object L increases. In particular, this angle is preferably set to about 30 ° to 90 °, and the present inventors have confirmed that the most accurate measurement can be realized at about 90 °. Specifically, when the linear object L is a linear object extending in the vertical direction such as a tree or a pillar, the observation points A and B are set with a sufficient separation distance in the horizontal direction. Conversely, when the linear object L is a linear object extending in the horizontal direction such as an electric wire, the observation points A and B are set with a sufficient distance so that the vertical difference in height becomes large. By the way, since FIG. 9 shows the case where the transmission line EL is measured, the observation point A is set on the ground 8 and the observation point B is set on the roof 9 of the building BL, so that a sufficient vertical movement distance is secured.
[0052]
Further, for example, the position where the user looks up from below the transmission line EL and takes a picture may be set as the first observation point, and the position where the user moves so as to dive across the transmission line EL may be set as the second observation point. However, in such a case, when used in combination with the method of obtaining the camera posture from the image, it is necessary that a common subject other than the line is shown in each image. Therefore, it is desirable to adopt a mode in which a linear object that is overhead such as a power transmission line is photographed by looking down using a helicopter or the like, rather than by looking up from below.
[0053]
FIG. 10 is a diagram showing captured images at observation points A and B in FIG. (A) is an image at observation point A, and (B) is an image at observation point B. The reference points La and Lb are visually visually determined so that the line segments separated by the same number become the same line segment, and the respective reference points La1 to La5 and Lb1 to Lb5 are set on the lines on the image. One straight line portion is obtained by a combination of Lan and Lan + 1 and Lbn and Lbn + 1. With respect to this straight line portion, the survey of the line is executed by obtaining it as the intersection line of the above-described surface equation. As described above, since the curve can be regarded as a continuation of a plurality of line segments (linear portions), a survey result can be obtained.
[0054]
As is clear from the above description, according to the present invention, even when a point serving as a mark does not exist on a linear object displayed on a camera image, surveying can be performed as long as the object can be determined. Curves can be similarly processed as combinations of straight lines. Conventionally, it has been difficult to measure the center line of a thick cylindrical object that cannot be seen from the surface, such as a tree. However, in the present invention, the center point of the trunk can be approximately specified and the reference point can be set, so that the survey can be easily performed.
[0055]
Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications and changes may be made within the scope of the present invention described in the appended claims. Changes are possible.
[0056]
【The invention's effect】
As is apparent from the details described above, according to the present invention, surveying can be performed as long as a linear object can be determined without setting a reference point at an end or a marked portion as in the related art.
[Brief description of the drawings]
FIG. 1 is a plan view showing a case where a linear object is photographed and surveyed from two directions of observation points A and B.
FIG. 2 is a diagram showing a case where the image is projected on a cross section orthogonal to a camera base axis in a direction in which an observation point B is observed from an observation point A in FIG.
FIG. 3 is a diagram illustrating a state in which a straight line L is photographed by a camera.
FIG. 4 is a diagram showing the positional relationship shown in FIG. 3 in parallel with a plane including the camera base axis and the optical axis of the camera lens.
FIG. 5 is a diagram projected on a plane orthogonal to a camera base axis.
FIG. 6 is a diagram illustrating an example of an image captured by a camera installed at an observation point A;
FIG. 7 is a block diagram showing an example of a hardware configuration for implementing a photogrammetry method according to the present invention.
FIG. 8 is a flowchart illustrating an example of a straight line surveying method.
FIG. 9 is a photographing landscape view showing an example of measuring a transmission line stretched over a steel tower.
FIG. 10 is a diagram illustrating captured images at observation points A and B in FIG. 9;
[Explanation of symbols]
1 Camera base
L Straight line, linear object (linear object)
Lan reference point
Lbn reference point
A, B observation points
10 Camera

Claims (9)

線状の被写体を異なる観測点からカメラで撮影することにより画像を得る第1ステップと、
前記第1ステップで取得した異なる画像それぞれで、前記被写体上に任意に2つの参照点を設定する第2ステップと、
前記第2ステップで設定した異なる画像それぞれにおける前記2つの参照点および当該画像を撮影した観測点に基づき前記線状の被写体を規定する直線を算出する第3ステップとを含む、ことを特徴とする線状物体の写真測量方法。
A first step of obtaining an image by photographing a linear subject with a camera from different observation points;
A second step of arbitrarily setting two reference points on the subject in each of the different images acquired in the first step;
A third step of calculating a straight line defining the linear subject based on the two reference points in each of the different images set in the second step and an observation point at which the image was captured. Photogrammetry method for linear objects.
前記第3ステップでは、前記2つの参照点および当該画像を撮影した観測点を含む面の式を異なる画像それぞれについて算出し、この算出した2つの面の式の交線を前記線状の被写体を規定する直線として求める、ことを特徴とする請求項1に記載の線状物体の写真測量方法。In the third step, a formula of a plane including the two reference points and an observation point at which the image is captured is calculated for each of the different images, and an intersection of the calculated formulas of the two planes is defined as the linear object. 2. The photogrammetry method for a linear object according to claim 1, wherein the linear object is determined as a prescribed straight line. 前記第3ステップでは、前記観測点を結ぶカメラ基軸に対する前記カメラから見た左右角α及び前記カメラ基軸回りの前記カメラから見た仰角βを用いて表示した前記参照点の方向に基づいて前記面の式を誘導する、ことを特徴とする請求項1または2に記載の線状物体の写真測量方法。In the third step, based on a direction of the reference point displayed using a left-right angle α viewed from the camera with respect to a camera base axis connecting the observation points and an elevation angle β viewed from the camera around the camera base axis, The photogrammetry method for a linear object according to claim 1 or 2, wherein the following equation is derived. 曲線状の被写体を異なる観測点からカメラで撮影することにより画像を得る第1ステップと、
前記第1ステップで得た異なる画像それぞれで、前記曲線状の被写体を複数の直線部分に分割し、該直線部分の両端に参照点を設定する第2ステップと、
異なる画像それぞれで、前記第2ステップで設定した前記両端の参照点及び当該画像を撮影した観測点を含む面の式を、全ての直線部分について算出する第3ステップと、
前記第3ステップで得た、同一の直線部分に関する異なる画像による面の式の交線を該直線部分を規定する直線として、全ての直線部分について算出する第4ステップと、
前記第4ステップで取得した直線部分を連続させることにより前記曲線状の被写体を求める第5ステップとを含む、ことを特徴とする線状物体の写真測量方法。
A first step of obtaining an image by photographing a curved object with a camera from different observation points;
A second step of dividing the curved object into a plurality of linear portions in each of the different images obtained in the first step, and setting reference points at both ends of the linear portions;
A third step of calculating, for each of the different images, an expression of a plane including the reference points at both ends set in the second step and an observation point at which the image is captured, for all the straight line portions;
A fourth step of calculating, for all the straight line parts, the intersection of the expressions of the surfaces of the same straight line part with different images obtained in the third step, as a straight line defining the straight line part;
A fifth step of obtaining the curved subject by continuing the straight line portions obtained in the fourth step.
前記第2ステップで、前記曲線状の被写体を複数の直線部分とするときに、前記異なる画像相互でおおよそ同じ部分となるように分割して同数の直線部分を得る、ことを特徴とする請求項4に記載の線状物体の写真測量方法。The method according to claim 2, wherein, in the second step, when the curved object is divided into a plurality of straight portions, the same number of straight portions are obtained by dividing the different images so as to be substantially the same portions. 5. The method for photogrammetry of a linear object according to 4. 線状の被写体を異なる観測点で撮影したカメラから取得した画像データを読取る第1処理と、
前記第1処理による画像データをモニタ装置に表示し前記被写体上に任意に2つの参照点を設定し、前記参照点について画像上の2次元座標を異なる画像それぞれで得る第2処理と、
前記第2処理により得られた異なる画像それぞれにおける前記2つの参照点の画像上の2次元座標および当該画像を撮影した観測点に基づき、前記線状の被写体を規定する直線を算出する第3処理とを、コンピュータに実行させることを特徴とする写真測量プログラム。
A first process of reading image data obtained from a camera that has captured a linear subject at different observation points;
A second process of displaying image data obtained by the first process on a monitor device, arbitrarily setting two reference points on the subject, and obtaining two-dimensional coordinates on the image for the reference points in different images;
A third process of calculating a straight line defining the linear object based on two-dimensional coordinates on the image of the two reference points in each of the different images obtained by the second process and an observation point at which the image was captured; And a computer for executing the photogrammetry program.
前記第3の処理では、前記2つの参照点の画像上の2次元座標および当該画像を撮影した観測点に基づき、前記参照点および観測点を含む面の式を異なる画像それぞれについて算出し、この算出した2つの面の式の交線を前記線状の被写体を規定する直線として求める、ことを特徴とする請求項6に記載の写真測量プログラム。In the third processing, based on the two-dimensional coordinates of the two reference points on the image and the observation point at which the image was captured, a formula of a plane including the reference point and the observation point is calculated for each of the different images. 7. The photogrammetry program according to claim 6, wherein an intersection of the calculated two surfaces is obtained as a straight line defining the linear subject. 前記第2処理における参照点は、前記異なる画像の相互で、前記線状の被写体上でおおよそ同じ位置になるように設定したものである、ことを特徴とする請求項6に記載の写真測量プログラム。7. The photogrammetry program according to claim 6, wherein the reference point in the second processing is set so as to be approximately at the same position on the linear object between the different images. 8. . 前記第2処理での参照点は、曲線状の被写体を複数に分割した直線部分の両端に設定されたものである、ことを特徴とする請求項6から8のいずれかに記載の写真測量プログラム。9. The photogrammetry program according to claim 6, wherein the reference points in the second processing are set at both ends of a straight line portion obtained by dividing a curved object into a plurality of objects. .
JP2003023081A 2003-01-31 2003-01-31 Photogrammetric method of linear object Pending JP2004233233A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003023081A JP2004233233A (en) 2003-01-31 2003-01-31 Photogrammetric method of linear object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003023081A JP2004233233A (en) 2003-01-31 2003-01-31 Photogrammetric method of linear object

Publications (1)

Publication Number Publication Date
JP2004233233A true JP2004233233A (en) 2004-08-19

Family

ID=32951987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003023081A Pending JP2004233233A (en) 2003-01-31 2003-01-31 Photogrammetric method of linear object

Country Status (1)

Country Link
JP (1) JP2004233233A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11879732B2 (en) 2019-04-05 2024-01-23 Ikegps Group Limited Methods of measuring structures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11879732B2 (en) 2019-04-05 2024-01-23 Ikegps Group Limited Methods of measuring structures

Similar Documents

Publication Publication Date Title
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
US9482515B2 (en) Stereoscopic measurement system and method
US9454822B2 (en) Stereoscopic measurement system and method
CN112132908B (en) Camera external parameter calibration method and device based on intelligent detection technology
US9286506B2 (en) Stereoscopic measurement system and method
US20130188018A1 (en) System &amp; method for processing stereoscopic vehicle information
EP2310799B1 (en) Stereoscopic measurement system and method
JP4170469B2 (en) Inspection point position acquisition method and apparatus
EP2283314B1 (en) Stereoscopic measurement system and method
JP2004233233A (en) Photogrammetric method of linear object
JP6448413B2 (en) Roof slope estimation system and roof slope estimation method
EP2286297B1 (en) Stereoscopic measurement system and method
JP2686664B2 (en) Three-dimensional measuring method and device
D’Amelio et al. 3D Modeling for Underwater Archaeological Documentation: Metric Verifications
Wang et al. Estimating heights of buildings from geotagged photos for data enrichment on OpenStreetMap
JP2003177019A (en) Method for camera posture calculation by free photographing
JPH04130586A (en) Three-dimensional picture processor

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Effective date: 20041022

Free format text: JAPANESE INTERMEDIATE CODE: A7422