Nothing Special   »   [go: up one dir, main page]

JP7406740B2 - System for inspecting objects and creating reports - Google Patents

System for inspecting objects and creating reports Download PDF

Info

Publication number
JP7406740B2
JP7406740B2 JP2019022751A JP2019022751A JP7406740B2 JP 7406740 B2 JP7406740 B2 JP 7406740B2 JP 2019022751 A JP2019022751 A JP 2019022751A JP 2019022751 A JP2019022751 A JP 2019022751A JP 7406740 B2 JP7406740 B2 JP 7406740B2
Authority
JP
Japan
Prior art keywords
user
image
images
comment
report
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019022751A
Other languages
Japanese (ja)
Other versions
JP2020134955A (en
Inventor
泰隆 倉本
真名美 北原
善太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SkymatiX Inc
Original Assignee
SkymatiX Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SkymatiX Inc filed Critical SkymatiX Inc
Priority to JP2019022751A priority Critical patent/JP7406740B2/en
Publication of JP2020134955A publication Critical patent/JP2020134955A/en
Priority to JP2023206429A priority patent/JP7650472B2/en
Application granted granted Critical
Publication of JP7406740B2 publication Critical patent/JP7406740B2/en
Priority to JP2025033638A priority patent/JP2025083369A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、画像を用いて対象の検査、点検又は評価を行い、その結果を記述した報告書を作成する作業を支援するための、コンピュータを利用したシステムに関する。 The present invention relates to a computer-based system for supporting the work of inspecting, inspecting, or evaluating an object using images and creating a report describing the results.

人工施設や自然物の調査や保守点検などの目的で、対象の土地又は施設を、その上空あるいは地上の移動体に搭載された又は人に携行されるカメラで撮影し、得られた多数の画像を人が見ながら対象を点検又は評価し、その結果を撮影画像及びそれに付属するマークやテキストコメントなどの組み合わせを用いて表現した報告書を作成する仕事が、さまざまな産業分野でなされている。 For the purpose of surveying and maintenance inspection of man-made facilities and natural objects, the target land or facility is photographed using a camera mounted on a moving vehicle above the site or on the ground, or carried by a person, and a large number of images are obtained. 2. Description of the Related Art Work is being done in various industrial fields in which people visually inspect or evaluate objects and create reports that express the results using a combination of photographed images and accompanying marks and text comments.

報告書の作成のためのシステムが、例えば特許文献1及び特許文献2などに開示されている。 Systems for creating reports are disclosed in, for example, Patent Document 1 and Patent Document 2.

特開2005-352848号公報JP2005-352848A 特開2007-34453号公報Japanese Patent Application Publication No. 2007-34453

例えば太陽光発電施設のように広大な対象の状態を、それを無人飛行体搭載のカメラで撮影して得られた画像に基づいて検査するような場合、撮影された画像の数は対象全体では非常に多くなる。それら多数の画像を見て対象の全貌を把握したり、個々の部分を子細に点検することは、人にとり容易な仕事ではない。 For example, when inspecting the condition of a vast object such as a solar power generation facility based on images taken by a camera mounted on an unmanned aerial vehicle, the number of images taken is larger than the total number of images taken for the entire object. It becomes very large. It is not an easy task for humans to grasp the entire picture of an object by looking at such a large number of images, or to inspect individual parts in detail.

さらに、その点検結果を他人に分かり易く理解させ得る報告書を作成するために、多くの画像を報告書上に巧みに配置し、それらの画像にマークやコメントなどを付したりする作業が必要である。報告書作成に多くの時間がかかる。例えば、太陽光発電施設を無人飛行体から撮影した画像に基づいて点検して報告書を作成するために、通常一週間程度の時間がかかるといわれている。 Furthermore, in order to create a report that allows others to easily understand the inspection results, it is necessary to skillfully arrange many images on the report and add marks and comments to those images. It is. Creating reports takes a lot of time. For example, it is said that it usually takes about a week to inspect a solar power generation facility and create a report based on images taken from an unmanned flying vehicle.

しかし、特許文献1,2に開示された従来技術は、上記の問題の解決に向けられていない。 However, the conventional techniques disclosed in Patent Documents 1 and 2 are not aimed at solving the above problem.

一つの目的は、対象から得られた多数の画像を用いて対象を検査する作業、又はその検査結果を報告書にまとめる作業を支援するコンピュータ利用システムを提供することにある。 One object is to provide a computer-based system that supports the task of inspecting an object using a large number of images obtained from the object, or the task of compiling the inspection results into a report.

一実施形態に従う、対象の検査と報告書の作成のためのシステムは、ユーザ端末と通信する手段と、対象の全体と対象の異なる部分とそれぞれ表した複数の画像を用意する手段と、ユーザに要求された画像とコメント入力ツールとを表示した作業画面を前記ユーザ端末に表示する手段と、前記ユーザにより前記作業画面に入力されたコメントを受けて、前記コメントを前記作業画面に表示された前記画像に関連付けて保存する手段と、報告書フォームを格納する手段と、保存された前記コメントと、それに関連付けられた前記画像とを用いて、前記報告書フォームに従って、報告書を自動的に作成する手段とを備える。 In accordance with one embodiment, a system for inspecting an object and generating a report includes means for communicating with a user terminal, means for providing a plurality of images, each representing an entire object and a different portion of the object; means for displaying a work screen displaying a requested image and a comment input tool on the user terminal; automatically creating a report in accordance with the report form using means for storing it in association with an image, means for storing a report form, the saved comment and the image associated therewith; and means.

一実施形態にかかる検査報告書支援システムの全体構造を示す。1 shows the overall structure of an inspection report support system according to an embodiment. 同システムにおけるデータ処理サーバとユーザとの間の基本的な通信の流れを示す。The basic communication flow between the data processing server and the user in the same system is shown. データ処理サーバが行う検査処理の流れを示す。The flow of inspection processing performed by the data processing server is shown. 検査処理においてユーザに検査対象の全体画像を俯瞰させるためのスクリーン表示例を示す。An example of a screen display for allowing a user to view an entire image of an object to be inspected in an inspection process is shown. 検査処理においてユーザに検査対象を複数の副領域に区分させるためスクリーン表示例を示す。An example of a screen display is shown to allow a user to divide an inspection target into a plurality of sub-areas in an inspection process. 検査処理においてユーザに検査対象の部分を詳細に検査させるためのスクリーン表示例を示す。An example of a screen display for allowing a user to inspect a portion to be inspected in detail during inspection processing is shown. 検査処理においてユーザに検査対象の注目箇所を一覧させ、各個所の検査結果を確認させるためのスクリーン表示例を示す。An example of a screen display is shown for allowing the user to list the points of interest of the object to be inspected and check the inspection results of each point in the inspection process. データ処理サーバが行う対比検査処理の流れを示す。The flow of comparison test processing performed by the data processing server is shown. 検査処理においてユーザに対象の二つの画像を対比観察させて検査を行わせるためのスクリーン表示例を示す。An example of a screen display for allowing a user to perform an inspection by comparing and observing two images of a target in an inspection process is shown. データ処理サーバが行う報告書作成処理の流れを示す。The flow of report creation processing performed by the data processing server is shown. データ処理サーバが自動作成した報告書例の一部分を示す。A portion of an example report automatically created by the data processing server is shown.

図1は、一実施形態にかかる検査報告書支援システムの全体構造を示す。 FIG. 1 shows the overall structure of an inspection report support system according to one embodiment.

図1に示すように、検査報告書支援システム1はデータ処理サーバ3を有し、データ処理サーバ3は1台又は複数台のサーバコンピュータマシンにより構成され得る。データ処理サーバ3は一人又は複数人のユーザのそれぞれに対して、一以上の対象物を検査して検査結果を報告書にまとめる作業を手伝うサービスを提供する。データ処理サーバ3は、WEBサーバ5を介して、それぞれのユーザの使用するパーソナルコンピュータやスマートフォンなどの情報処理端末(以下、ユーザ端末)7のウェブブラウザとデータ通信を行うことができる。図1では、便宜上、一つのユーザ端末7だけが図示されており、以下では、一人のユーザがデータ処理サーバ3を利用する場合を例にとり、本システムの詳細を説明する。 As shown in FIG. 1, the inspection report support system 1 has a data processing server 3, and the data processing server 3 may be configured by one or more server computer machines. The data processing server 3 provides each of one or more users with a service that helps them inspect one or more objects and compile the inspection results into a report. The data processing server 3 can perform data communication via the web server 5 with a web browser of an information processing terminal (hereinafter referred to as user terminal) 7 such as a personal computer or a smartphone used by each user. In FIG. 1, only one user terminal 7 is illustrated for convenience, and the details of this system will be described below by taking as an example a case where one user uses the data processing server 3.

データ処理サーバ3は、処理要求受付部11、データ保存・検索部13、画像登録部15、画像結合部17、地図・画像表示部19、コメント登録部21、報告書作成部23、報告書表示部25、報告書編集部27、及び報告書出力部29などの処理コンポーネントを有する。 The data processing server 3 includes a processing request reception section 11, a data storage/search section 13, an image registration section 15, an image combination section 17, a map/image display section 19, a comment registration section 21, a report creation section 23, and a report display section. It has processing components such as a section 25, a report editing section 27, and a report output section 29.

処理要求受付部11は、ユーザからの種々の処理要求(例えば、検査を行うための種々の処理要求、又は、報告書を作成するための種々の処理要求など)を受け付けて、要求された処理を行う処理コンポーネントにその要求を渡す。 The processing request receiving unit 11 receives various processing requests from users (for example, various processing requests for performing an inspection, various processing requests for creating a report, etc.), and performs the requested processing. Pass the request to a processing component that does the following:

データ保存・検索部13は、様々な検査対象の地図、画像、検査結果及び報告書などのデータを保存し、他の処理コンポーネントからのデータ要求に応じて、要求された地図、画像又は検査結果データを読み出してその処理コンポーネントに渡す。 The data storage/retrieval unit 13 stores data such as maps, images, test results, and reports of various inspection targets, and stores data such as maps, images, test results, and reports of various inspection targets, and stores data such as maps, images, test results, and other data in response to data requests from other processing components. Read data and pass it to its processing component.

画像登録部15は、ユーザ端末7から検査対象物の画像(それには、一般的な可視光の写真画像だけでなく、赤外線などの非可視光を用いた写真画像や、その他の種類の画像なども含まれ得る)を受信して、それらの画像をその検査対象物とそのユーザに関連付けてデータ保存・検索部13に登録する。通常、一つの検査対象について多数の画像が登録される。例えば、無人飛行体搭載のカメラで太陽光発電施設のような広大な対象の写真を撮影した場合、その施設の諸部分をそれぞれ撮影した多数の高画質写真画像が、その太陽光発電施設に関連付けて登録される。 The image registration unit 15 receives images of the inspection object from the user terminal 7 (including not only general visible light photographic images, but also photographic images using non-visible light such as infrared rays, and other types of images). (may also be included), and register those images in the data storage/retrieval unit 13 in association with the inspection object and the user. Usually, many images are registered for one inspection object. For example, if a camera mounted on an unmanned aerial vehicle takes a picture of a vast object such as a solar power generation facility, many high-quality photographic images of various parts of the facility will be associated with the solar power generation facility. will be registered.

画像結合部17は、登録された各検査対象の多数の画像を結合することで、ユーザがその対象物を検査するために観察することになる各種の画像(以下、検査画像という)を生成する。検査画像はデータ保存・検索部13に保存される。 The image combining unit 17 generates various images (hereinafter referred to as inspection images) that the user will observe to inspect the object by combining a large number of images of each registered inspection object. . The inspection image is stored in the data storage/retrieval section 13.

対象物の検査画像として、最低解像度から最高解像度まで解像度が複数レベルで異なる画像が作成されてよい。例えば、対象の全体を俯瞰するための比較的に低解像度の画像や、対象の個々の個所を詳細に検査するための比較的に高解像度の画像や、その中間の解像度の画像などが、検査画像として作成され得る。検査画像の形式とユーザへの提供は、例えば、WMTS(Web Map Tile Service)又はWMS(Web Map Service)に従った方法で行い得る。検査画像はオルソ画像であってもよいし、モザイク画像であてもよい。オルソ画像の検査画像の作成は、SfM(Structure from motion)を用いてなされてよい。 Images with different resolutions at multiple levels from the lowest resolution to the highest resolution may be created as inspection images of the object. For example, relatively low-resolution images can be used to provide an overview of the entire object, relatively high-resolution images can be used to examine individual parts of the object in detail, and images with resolutions in between can be used for inspection. Can be created as an image. The format of the inspection image and provision to the user can be performed, for example, in accordance with WMTS (Web Map Tile Service) or WMS (Web Map Service). The inspection image may be an orthoimage or a mosaic image. The inspection image of the ortho image may be created using SfM (Structure from motion).

地図・画像表示部19は、ユーザからの処理要求に応じて、ユーザ端末7のスクリーンに表示されるべき検査対象物の地図又は検査画像をWebサーバ5に送る。Webサーバ5が、その地図又は検査画像を組み込んだ作業画面をユーザ端末7に送ってそのウェブブラウザのスクリーン上に表示する。 The map/image display unit 19 sends a map or an inspection image of the inspection object to be displayed on the screen of the user terminal 7 to the Web server 5 in response to a processing request from the user. The web server 5 sends the work screen incorporating the map or inspection image to the user terminal 7 and displays it on the screen of the web browser.

コメント登録部21は、ユーザが対象物を検査するときにユーザ端末7に入力したコメント等(テキスト、選択肢、マーク又は図形など)を受けて、それをその対象物に関連付けられた検査結果データとして、データ保存・検索部13に保存する。 The comment registration unit 21 receives comments, etc. (text, options, marks, figures, etc.) input by the user into the user terminal 7 when inspecting an object, and records them as inspection result data associated with the object. , is saved in the data storage/search section 13.

報告書作成部23は、ユーザからの要求に応じて、データ保存・検索部13に保存された各検査対象の地図、検査画像及び検査結果などのデータを用いて、各検査対象の検査報告書を自動的に作成する。自動作成された報告書は、その対象に関連付けられて、データ保存・検索部13に保存される。 In response to a request from a user, the report creation unit 23 creates an inspection report for each inspection target using data such as maps, inspection images, and test results for each inspection target stored in the data storage/retrieval unit 13. automatically created. The automatically created report is stored in the data storage/search unit 13 in association with the subject.

報告書表示部25は、ユーザからの要求に応じて、自動作成された検査報告書をWebサーバ5に送る。Webサーバ5は、その報告書をユーザ端末7に送り、そのウェブブラウザのスクリーン上に表示する。 The report display unit 25 sends the automatically created inspection report to the Web server 5 in response to a request from a user. The web server 5 sends the report to the user terminal 7 and displays it on the screen of the web browser.

報告書編集部27は、ユーザ端末7のスクリーン上に表示された報告書を、ユーザが自由に編集することを可能にする。ユーザにより編集された報告書は、その対象に関連付けられて、データ保存・検索部13に保存される。 The report editing section 27 allows the user to freely edit the report displayed on the screen of the user terminal 7. The report edited by the user is stored in the data storage/search unit 13 in association with the subject.

報告書出力部29は、ユーザからの要求に応じて、編集された報告書をWebサーバ5に送る。Webサーバ5は、ユーザがその報告書をユーザ端末7にダウンロードすることを可能にする。 The report output unit 29 sends the edited report to the Web server 5 in response to a request from a user. The web server 5 allows the user to download the report to the user terminal 7.

図2は、検査報告書支援システム1におけるデータ処理サーバ3とユーザ9との間の基本的な通信の流れを示す。 FIG. 2 shows the basic flow of communication between the data processing server 3 and the user 9 in the inspection report support system 1.

図2において、ステップ31で、ユーザ9が、或る検査対象の画像(通常多数の画像がある)をデータ処理サーバ3に登録する。ステップ33で、データ処理サーバ3が、登録された画像を保存し、そしてステップ35で、保存された画像を結合して、その検査対象の解像度の異なる検査画像を作成する。 In FIG. 2, in step 31, the user 9 registers an image of a certain inspection object (usually there are many images) in the data processing server 3. In step 33, the data processing server 3 saves the registered images, and in step 35, the saved images are combined to create inspection images of different resolutions of the inspection object.

ステップ37で、ユーザが、その検査対象を検査するために、所望の検査画像(例えば、その対象の全体を俯瞰するための画像、又はその対象の特定個所を詳細に観察するための画像など)を要求する。その要求に応答して、ステップ39で、データ処理サーバ3が、要求された検査画像を保存された検査画像の中から選んで読み出し、そしてステップ41で、その検査画像をユーザ端末7に表示させる。 In step 37, the user selects a desired inspection image (for example, an image for overlooking the entire object, or an image for observing a specific part of the object in detail) in order to inspect the object. request. In response to the request, in step 39 the data processing server 3 selects and reads the requested inspection image from among the saved inspection images, and in step 41 displays the inspection image on the user terminal 7. .

ステップ43で、ユーザは表示された検査画像を観て調べて、検査対象について必要な判断を下し、そしてステップ45で、その判断結果に応じたコメント等(判断結果や意見を記述したテキストや選択肢や図形マーク等)を入力する。すると、ステップ47で、データ処理サーバ3が、調べられた画像と入力されたコメント等を相互に関連づけて保存する。 In step 43, the user views and examines the displayed inspection image, makes a necessary judgment regarding the inspection object, and in step 45, the user makes comments (such as text that describes the judgment result or opinion) in accordance with the judgment result. input options, graphic marks, etc.). Then, in step 47, the data processing server 3 stores the examined image and the input comment etc. in association with each other.

一つの検査対象の検査プロセスで、ステップ37からステップ47が、複数回繰り返され得る。例えば、ユーザは、最初に対象の全体を俯瞰してコメント等入力し、次に、対象の各部分の詳細画像を見てその部分を検査してコメント等を入力する、という作業をすべての部分の検査が終わるまで繰り返すであろう。その繰り返し作業の都度に、ステップ37からステップ47が行われる。 Steps 37 to 47 may be repeated multiple times in the inspection process for one inspection target. For example, the user first looks at the entire object and enters comments, etc., then looks at detailed images of each part of the object, inspects that part, and enters comments, etc. The test will be repeated until the test is completed. Steps 37 to 47 are performed each time the repetitive work is performed.

その後、ステップ49で、ユーザがその検査対象の検査結果をまとめた報告書を要求する。その要求を受けて、ステップ51で、データ処理サーバ3が、保存された検査結果を用いて報告書を自動的に作成し、そしてステップ53で、その報告書をユーザ端末7に表示する。 Thereafter, in step 49, the user requests a report summarizing the test results for the test target. Upon receiving the request, the data processing server 3 automatically creates a report using the stored test results in step 51, and displays the report on the user terminal 7 in step 53.

ステップ55で、ユーザが自動作成された報告書を確認し、そして、ステップ57で、その自動作成された報告書に所望の編集を加え、その編集された報告書をデータ処理サーバ3へ送る。ステップ59で、データ処理サーバ3が、編集された報告書を保存し、そしてステップ61で、その報告書を出力する。ステップ63で、ユーザがその出力された報告書をダウンロードする。 In step 55, the user confirms the automatically created report, and in step 57, the user makes desired edits to the automatically created report and sends the edited report to the data processing server 3. In step 59, data processing server 3 saves the edited report and in step 61 outputs the report. At step 63, the user downloads the output report.

図3は、データ処理サーバ3が行う検査処理(図2のステップ39、41及び47に相当する処理)の流れを示す。 FIG. 3 shows the flow of inspection processing (processing corresponding to steps 39, 41, and 47 in FIG. 2) performed by the data processing server 3.

図3に示すように、データ処理サーバ3は、検査処理を開始すると、ステップS1、S2及びS3の処理を並行的に行う。ステップS1では、ユーザから画像表示要求が来たか、及び、検査対象の全体又は特定部分などどのような領域の画像の表示がユーザから要求されたか、が判断される。ステップS2では、表示された画像のズーム又はスクロールがユーザから要求されたか、が判断される。ステップS3では、表示された画像内で、ユーザが選択した領域の画像かが判断される。 As shown in FIG. 3, upon starting the inspection process, the data processing server 3 performs steps S1, S2, and S3 in parallel. In step S1, it is determined whether an image display request has been received from the user and what kind of area, such as the entire inspection object or a specific portion, of the image has been requested to be displayed from the user. In step S2, it is determined whether the user has requested zooming or scrolling of the displayed image. In step S3, it is determined whether the image corresponds to an area selected by the user within the displayed image.

ステップS1で、或る検査対象の或る領域の画像の表示が要求されたと判断されると、データ処理サーバ3は、ステップS4で、当該検査対象の当該領域の画像を用意し、その画像を組み込んだ作業画面をユーザ端末7のスクリーンに表示させる。例えば、ユーザがその検査対象の全体を俯瞰するための画像の表示を要求した場合は、図4に例示するような作業画面が表示され、そこには、検査対象全体を包含した広い領域を示す画像71が組み込まれる。また例えば、ユーザが検査対象の特定の部分を詳細に調べるための画像を要求した場合には、図6に例示したような作業画面が表示され、そこには、その特定部分の狭い領域を示した画像91が組み込まれる。 When it is determined in step S1 that display of an image of a certain area of a certain inspection target is requested, the data processing server 3 prepares an image of the area of the inspection target in step S4, and displays the image. Display the incorporated work screen on the screen of the user terminal 7. For example, if a user requests the display of an image to provide an overview of the entire inspection object, a work screen such as the one illustrated in FIG. Image 71 is incorporated. For example, if a user requests an image to examine a specific part of the object in detail, a work screen like the one shown in Figure 6 is displayed, which shows a narrow area of the specific part. image 91 is incorporated.

再び図3を参照して、ステップS2で表示画像のズーム(拡大又縮小)又はスクロールが要求されたと判断された場合には、データ処理サーバ3は、ステップS5で、その表示画像の要求されたズーム又はスクロールを行う。例えば、図4に例示した作業画面でユーザは、対象全体を示す画像71をズームイン(拡大)して、この対象の一部分をより高解像度で詳細に見ることができる。あるいは例えば、図6に例示した作業画面でユーザは、対象の特定の一部を示す画像91をスクロールして、この対象の別の部分を見ることができる。 Referring again to FIG. 3, if it is determined in step S2 that zooming (enlargement or reduction) or scrolling of the display image is requested, the data processing server 3, in step S5, Zoom or scroll. For example, on the work screen illustrated in FIG. 4, the user can zoom in (enlarge) the image 71 showing the entire object to view a portion of the object in higher resolution and in more detail. Alternatively, for example, on the work screen illustrated in FIG. 6, the user may scroll through the image 91 showing a particular portion of the object to view other portions of the object.

再び図3を参照して、ステップS3で、作業画面に表示された画像内の或る領域がユーザにより選択されたと判断された場合には、データ処理サーバ3は、ステップS6で、その選択された領域の輪郭枠をその画像上に表示する。さらに、データ処理サーバ3は、ステップS7で、その選択された領域の領域名や検査結果などのコメント等をユーザが入力するための1以上のツール(以下、コメント等入力ツールという)を、Webサーバ5を介して作業画面に表示する。例えば、図4に示された作業画面上には、ユーザの選択した領域の輪郭枠75(この例では、選択された領域は検査対象である太陽光発電施設の全体敷地である)が画像上に表示されるとともに、その選択領域に関する領域名及び任意のコメントを入力するためのコメント等入力ツール76、77が表示されている。 Referring again to FIG. 3, if it is determined in step S3 that a certain area within the image displayed on the work screen has been selected by the user, data processing server 3 selects the selected area in step S6. Displays the outline of the area on the image. Furthermore, in step S7, the data processing server 3 provides one or more tools (hereinafter referred to as comment input tools) for the user to input comments such as the area name and test results of the selected area. It is displayed on the work screen via the server 5. For example, on the work screen shown in FIG. 4, an outline frame 75 of the area selected by the user (in this example, the selected area is the entire site of the solar power generation facility to be inspected) is displayed on the image. At the same time, comment input tools 76 and 77 for inputting an area name and an arbitrary comment regarding the selected area are also displayed.

再び図3を参照して、表示されたコメント等入力ツールを用いて、ユーザがその領域の領域名又はその領域に関するコメントを入力したならば、データ処理サーバ3は、ステップS8で、その入力された領域名又はコメントを作業画面上に表示する。例えば、図4に例示された作業画面では、コメント等入力ツール76に、入力された領域名が表示され、また、コメント表示フィールド79に、入力されたコメントが、入力時のタイムスタンプとともに、表示されている。 Referring again to FIG. 3, when the user inputs the area name of the area or a comment regarding the area using the displayed comment input tool, the data processing server 3 inputs the input in step S8. Display the area name or comment on the work screen. For example, on the work screen illustrated in FIG. 4, the input area name is displayed in the comment input tool 76, and the input comment is displayed in the comment display field 79 along with the time stamp at the time of input. has been done.

再び図3を参照して、データ処理サーバは、ステップS9で、作業画面に表示された画像、ユーザにより選択された領域(又は領域枠)の位置座標、ユーザにより入力された領域名及びコメントを、その選択領域の検査結果を構成するデータ要素として、その選択領域に関連付けて保存する。 Referring again to FIG. 3, in step S9, the data processing server collects the image displayed on the work screen, the position coordinates of the area (or area frame) selected by the user, the area name and comment input by the user. , is stored in association with the selected area as a data element constituting the inspection result of the selected area.

図4~図7は、図3に示された検査処理によってユーザ端末7のスクリーンに表示される、対象を検査するための作業画面の幾つかの例を示す。図4~図7に示された例では、或る太陽光発電施設が検査対象である。 4 to 7 show some examples of work screens for inspecting an object that are displayed on the screen of the user terminal 7 by the inspection process shown in FIG. 3. In the examples shown in FIGS. 4 to 7, a certain solar power generation facility is the subject of inspection.

図4は、ユーザに検査対象である太陽光発電施設の全体を俯瞰させて、その敷地の全体領域を選択させるための作業画面の例を示す。 FIG. 4 shows an example of a work screen that allows the user to view the entire solar power generation facility to be inspected and select the entire area of the site.

図4に示されるように、作業画面上に表示された画像71は、その太陽光発電施設の全体が写った比較的に低解像度の画像である。ユーザは、表示された画像をズームインして、より高解像度の画像を表示させて太陽光発電施設詳細を見ることができる。 As shown in FIG. 4, the image 71 displayed on the work screen is a relatively low-resolution image showing the entire solar power generation facility. The user can zoom in on the displayed image to display higher resolution images to view solar power facility details.

ユーザは、表示画像71上で、領域選択ツール73を用いて、検査対象つまり太陽光発電施設の全体敷地を選択できる(典型的には、その全体敷地の輪郭を描く)。すると、選択された領域の輪郭枠75が画像71上に表示される。それとともに、作業画面上に、その選択された領域について領域名やコメントを入力するためのツール(コメント等入力ツール)76、77が表示される。 The user can use the area selection tool 73 on the displayed image 71 to select the inspection target, that is, the entire site of the solar power generation facility (typically, by drawing an outline of the entire site). Then, an outline frame 75 of the selected area is displayed on the image 71. At the same time, tools 76 and 77 (comment input tools) for inputting an area name and a comment for the selected area are displayed on the work screen.

ユーザは、入力ツール76を用いて、その選択領域の領域名(例えば「A県B市C町 E施設」)を入力でき、また、入力ツール77を用いて、その選択領域の検査結果や説明など自由なコメントを入力できる。ユーザがそれら入力ツール76、77の送信ボタンをクリックすると、入力された領域名やコメントが、データ処理サーバ3へ送られて、表示画像71や選択領域(又は領域枠)の位置座標などと関連付けられて保存される。なお、図4の例では、コメント等入力ツール)76、77の他に、その選択領域について先に入力され保存されたコメントもコメント表示ツール79に表示されている。 The user can use the input tool 76 to input the area name of the selected area (for example, "A Prefecture, B City, C Town, E Facility"), and also use the input tool 77 to enter the inspection results and explanation of the selected area. You can enter any comments you like. When the user clicks the send button on the input tools 76 and 77, the input area name and comment are sent to the data processing server 3 and are associated with the display image 71 and the position coordinates of the selected area (or area frame). and saved. In the example of FIG. 4, in addition to the comment input tools 76 and 77, the comment display tool 79 also displays comments that were previously input and saved for the selected area.

ユーザは、図4に例示されたような作業画面上で、検査対象の輪郭枠75をダブルクリックするか、又はその他の所定方法で検査対象を指定すると、その検査対象の各部の状態を詳細に調べながら検査するための作業画面が、スクリーン上に表示されることになる。 When the user double-clicks the outline frame 75 of the inspection target on the work screen as illustrated in FIG. A work screen for inspection while investigating will be displayed on the screen.

図5は、既に選択された任意の領域内に1以上の副領域に設定することを可能にする作業画面の表示例を示す。 FIG. 5 shows a display example of a work screen that allows setting one or more sub-areas within an already selected arbitrary area.

図5に例示された作業画面は、図4の画面例で選択された太陽光発電施設の全体敷地の領域内に、複数の副領域が設定された場合を例示する。すなわち、ユーザが領域選択ツール73を用いて、それぞれの副領域の輪郭を描くと、描かれた輪郭枠81A、81Bが表示画像75上に表示される。同時に、それぞれの副領域の領域名やコメントを入力するためのコメント等入力ツール83A、85A、83B、85Bも作業画面上に表示される。ユーザが入力ツール83A、83Bを用いてそれぞれの領域の名称(例えば、「A区」と「B区」)を入力すると、それぞれの領域名が表示画像75上にそれぞれの副領域の輪郭枠81A、81Bに関連付けられて表示される。また、ユーザが入力ツール85A、85Bを用いてそれぞれの領域に関するコメントを入力する、それらのコメントが入力ツール85A、85Bにそれぞれ表示される。図5の例では、さらに、「A区」と名付けられた副領域に関して、過去に入力されたコメントも、コメント表示フィールド87Aに表示されている。 The work screen illustrated in FIG. 5 exemplifies a case where a plurality of sub-areas are set within the area of the entire site of the solar power generation facility selected in the screen example of FIG. 4 . That is, when the user draws the outline of each sub-region using the area selection tool 73, the drawn outline frames 81A and 81B are displayed on the display image 75. At the same time, comment input tools 83A, 85A, 83B, and 85B for inputting area names and comments for the respective subareas are also displayed on the work screen. When the user inputs the names of the respective regions (for example, "Archive A" and "Archive B") using the input tools 83A and 83B, the respective region names are displayed in the outline frame 81A of the respective sub-regions on the display image 75. , 81B. Further, the user inputs comments regarding each area using the input tools 85A and 85B, and these comments are displayed on the input tools 85A and 85B, respectively. In the example of FIG. 5, comments input in the past regarding the sub-area named "A Ward" are also displayed in the comment display field 87A.

ユーザは、さらに新たな副領域を追加設定することができる。追加された副領域のコメント等入力ツールは、図5に示された最下位置のコメント等入力ツール85Bの下方に追加されていく。ユーザは、作業画面75上のコメント等入力ツール群をスクロールすることで、任意のコメント等入力ツールにアクセスすることができる。 The user can additionally set a new sub-area. The comments, etc. input tool of the added sub-area is added below the comment, etc. input tool 85B at the bottom position shown in FIG. The user can access any input tool such as comments by scrolling the group of input tools such as comments on the work screen 75.

ユーザが図5に例示したような作業画面上で、任意の副領域の輪郭枠81A、81B又はその領域名をダブルクリックするか、あるいはその他の所定の方法で任意の副領域を指定すると、その指定された副領域の各部を詳細に調べながら検査を行うための作業画面が、スクリーン上に表示されることになる。 When the user double-clicks the outline frame 81A, 81B of an arbitrary sub-area or its area name on the work screen as illustrated in FIG. 5, or specifies an arbitrary sub-area using another predetermined method, the A work screen will be displayed on the screen for inspecting each part of the designated sub-area in detail.

図6は、検査対象の各部を詳細に調べながら検査を行うための作業画面の例を示す。 FIG. 6 shows an example of a work screen for performing an inspection while examining each part to be inspected in detail.

図6に示された例は、図5に示された副領域「A区」の各部を詳細に検査するための作業画面である。この作業画面では、A区の中の一部分の領域の状態を詳細に表した比較的に高解像度の画像91が表示される。加えて、その表示画像91が表す領域が検査対象の中のどの位置の部分に相当するのかを枠94で示した補助的な画像95も、その作業画面上に表示される。 The example shown in FIG. 6 is a work screen for inspecting in detail each part of the sub-area "Archive A" shown in FIG. 5. On this work screen, a relatively high-resolution image 91 showing in detail the state of a part of the A area is displayed. In addition, an auxiliary image 95 is also displayed on the work screen, showing in a frame 94 which part of the inspection object the area represented by the display image 91 corresponds to.

ユーザが、領域選択ツール73を用いて、表示画面91の中の注目すべき個所を選択すると(例えば、その箇所を囲む枠を描くと)、その注目個所の枠91が表示画面91上に表示される。同時に、その注目箇所が検査対象のどの位置にあるのかを示すマーク96が補助的画像95上に表示される。さらに同時に、その注目箇所に関する個所番号、位置情報、メンテナンスの緊急度、及び状態評価のコメントなどを入力するためのツール(コメント等入力ツール)97、99、101、103も、その作業画面上に表示される。 When the user selects a noteworthy point on the display screen 91 using the area selection tool 73 (for example, by drawing a frame surrounding that point), the frame 91 of the noted point is displayed on the display screen 91. be done. At the same time, a mark 96 is displayed on the auxiliary image 95 indicating where the point of interest is located on the inspection object. Furthermore, at the same time, tools (comment input tools) 97, 99, 101, 103 for inputting the location number, location information, maintenance urgency, condition evaluation comments, etc. regarding the point of interest are also displayed on the work screen. Is displayed.

ここで、個所番号は、自動的に設定されるようになっていてよいし、あるいは、ユーザが任意の番号を入力できるようになっていてよい。緊急度は、例えばメニューから「高」「中」又は「低」などの定型レベルを選べるようになっていてよい。また、状態評価のコメントも、図5に例示したようなプルダウンメニュー105から幾つかの定型コメントのどれかを選択できるようになっていてよいし、加えて、自由テキスを入力できるようになっていてよい。 Here, the location number may be automatically set, or the user may be able to input an arbitrary number. As for the degree of urgency, a standard level such as "high," "medium," or "low" may be selected from a menu, for example. Further, as for comments for condition evaluation, it may be possible to select one of several standard comments from a pull-down menu 105 as illustrated in FIG. 5, and in addition, it may be possible to input free text. It's fine.

その注目箇所の個所番号(例えば「(1)」)が設定又は入力されると、表示画面91上に、その個所番号がその注目箇所の枠93と関連付けられて表示され When the location number (for example, "(1)") of the point of interest is set or input, that point number is displayed on the display screen 91 in association with the frame 93 of the point of interest.

図7は、検査対象内の既に検査された注目個所の一覧を表示し、ぞれぞれの注目個所の検査結果を確認することを可能にするための作業画面の表示例を示す。 FIG. 7 shows a display example of a work screen for displaying a list of already inspected points of interest within the inspection target and allowing confirmation of the inspection results of each point of interest.

図7に示されるように、検査対象の全体を俯瞰できる画像71上に、それぞれの注目箇所を示す個所マーク113が表示される。ユーザがカーソル111で任意の個所マーク113を指定すると、それに該当する注目箇所の詳細状態を示す画像115、及び、その注目箇所の検査結果117が、作業画面上に表示される。 As shown in FIG. 7, place marks 113 indicating respective points of interest are displayed on an image 71 that provides an overview of the entire inspection target. When the user specifies an arbitrary point mark 113 with the cursor 111, an image 115 showing the detailed state of the corresponding point of interest and an inspection result 117 of the point of interest are displayed on the work screen.

図8は、上述した検査処理のプロセスの中で、データ処理サーバが行うことができる対比検査処理の流れを示す。 FIG. 8 shows the flow of comparison test processing that can be performed by the data processing server in the above-described test processing process.

対比検査処理とは、作業画面上に検査対象の異なる複数の画像を並べて表示して、ユーザがそれらの画像を対比して調べて検査を行うことを可能にする処理である。表示される複数の画像は、例えば、検査対象の同じ部分を異なる時期に撮影した画像、その同じ部分を異なる方法で撮影した画像(例えば、可視光写真画像と赤外線写真画像など)など、があり得る。 Comparative inspection processing is processing that displays a plurality of images of different inspection targets side by side on a work screen, and allows the user to compare and examine these images to perform an inspection. The multiple images displayed include, for example, images taken of the same part of the inspection target at different times, or images taken of the same part using different methods (for example, a visible light photographic image and an infrared photographic image). obtain.

図8に示されるように、データ処理サーバ3は、ステップS21で、ユーザから要求された複数の画像を作業画面に並列に表示する。 As shown in FIG. 8, the data processing server 3 displays a plurality of images requested by the user in parallel on the work screen in step S21.

その後、ステップS22で、表示された画像のいずれかのズーム又はスクロールがユーザから要求されると、ステップS23で、その作業画面に並列的に表示された複数の画像が同期して同様のズーム倍率又はスクロール方向及び距離だけにズーム又はスクロールされる。 Thereafter, in step S22, when the user requests zooming or scrolling of any of the displayed images, in step S23, the plurality of images displayed in parallel on the work screen are synchronized to have the same zoom magnification. Or, it is zoomed or scrolled only in the scrolling direction and distance.

また、ステップS24で、表示されたいずれかの画像上でユーザが任意の領域を示す枠を描くと、ステップS25で、複数の画像上にその領域枠が表示され、また、ステップS26で、その領域に関して検査結果などを入力するためのツール(コメント等入力ツール)が作業画面に表示される。 Further, when the user draws a frame indicating an arbitrary area on any of the displayed images in step S24, the area frame is displayed on the plurality of images in step S25, and in step S26, the area frame is displayed on a plurality of images. A tool for inputting inspection results and the like regarding the area (comment etc. input tool) is displayed on the work screen.

また、ステップS27で、ユーザがコメント等入力ツールを用いてコメント等を入力すると、入力されたコメント等が作業画面に表示され、また、ステップS28で、入力されたコメント等と、領域(又は領域枠)の座標と、作業画面上の複数の画像とが互いに関連付けられて、検査結果データとして保存される。 Further, in step S27, when the user inputs a comment etc. using the comment input tool, the input comment etc. is displayed on the work screen, and in step S28, the input comment etc. and the area (or The coordinates of the frame) and the plurality of images on the work screen are associated with each other and saved as inspection result data.

ステップS27で、ユーザが検査終了を要求すると、対比検査処理が終了する。 In step S27, when the user requests the end of the test, the comparison test process ends.

図9は、対比検査処理のための作業画面の表示例を示す。 FIG. 9 shows a display example of a work screen for comparative inspection processing.

図9に例示された作業画面上には、検査対象の同じ部分を表す二つの画像121、123が並べられて表示されている。例えば、一方の画像121が赤外線写真画像であり、他方の画像123が可視光写真画像であるというように、この並べられて表示される画像は同じあるいは別のセンサで撮影した他時期の画像であっても良い。 On the work screen illustrated in FIG. 9, two images 121 and 123 representing the same part of the inspection target are displayed side by side. For example, one image 121 is an infrared photographic image and the other image 123 is a visible light photographic image, and the images displayed side by side may be images taken at different times using the same or different sensors. It's okay.

ユーザが一方の画像(例えば画像121)をズーム又はスクロールすると、両方の画像121、123が同時に同様にズーム又はスクロールされる。 When the user zooms or scrolls one image (eg, image 121), both images 121, 123 are similarly zoomed or scrolled at the same time.

また、ユーザが領域選択ツール73を用いて、一方の画像(例えば画像121)上で領域枠を描くと、両方の画像121、123上に、その領域枠125、127が表示される。加えて、その領域に関するコメント等入力ツール129も表示される。 Furthermore, when the user draws a region frame on one image (for example, image 121) using the region selection tool 73, the region frames 125 and 127 are displayed on both images 121 and 123. In addition, a comment etc. input tool 129 regarding the area is also displayed.

図10は、データ処理サーバ3が行う報告書作成処理の流れを示す。 FIG. 10 shows the flow of report creation processing performed by the data processing server 3.

図10に示されるように、ステップS31で、前もって保存されている報告書フォーム(報告書の構成(例えば、どのような題目の項目がどの順序で並ぶが、各項目には、どのような画像及びテキストコメントがどのようなレイアウトで配置されるか、など)を定義したデータ)が読み出される。ここで、報告書フォームは、幾つか異なるやり方で用意することができる。一つの方法は、ユーザがプログラミングにより報告書の構成を定義する方法である。別の方法は、ユーザが既存の印刷された報告書の画像又は文書のファイル(例えば、報告書をイメージプリンタでスキャンして得た画像ファイル、又は、ワードプロセッサなどで作成された報告書の文書ファイル)をユーザ端末7からデータ処理サーバ3に送り、データ処理サーバ3がそのファイルを解析して報告書フォームを自動作成する方法である。 As shown in FIG. 10, in step S31, a previously saved report form (report structure (for example, what titles are arranged in what order, what images are included in each item, etc.) data that defines the layout in which text comments are arranged, etc.) is read out. Here, report forms can be prepared in several different ways. One method is for the user to define the structure of the report through programming. Another method is to use an existing printed report image or document file (e.g., an image file obtained by scanning the report with an image printer, or a report document file created with a word processor, etc.). ) is sent from the user terminal 7 to the data processing server 3, and the data processing server 3 analyzes the file and automatically creates a report form.

ステップ32で、報告書フォームに定義されている報告すべき諸項目の中から、未作成の項目が抽出される。そして、ステップS32で、各未作成項目を構成要素に該当する画像、領域座標、領域名称、コメント等が、保存されている検査結果データの中から読み出され、そして、ステップS34で、それら読み出されたデータに基づいて、報告書の該当項目の部分に、画像、領域名、領域枠、コメント等が、報告書フォームに定義されたレイアウトに従って配置され記載される。ステップS33とS34が、未作成項目がなくなるまで繰り返されることで、報告書が作成される。 At step 32, uncreated items are extracted from among the items to be reported defined in the report form. Then, in step S32, images, area coordinates, area names, comments, etc. corresponding to the constituent elements of each uncreated item are read out from the saved inspection result data, and in step S34, these are read out. Based on the output data, images, area names, area frames, comments, etc. are arranged and written in the corresponding item part of the report according to the layout defined in the report form. A report is created by repeating steps S33 and S34 until there are no more uncreated items.

その後、ステップS35で、その報告書が、ユーザが後に編集できる形式のファイルとして保存される。 Thereafter, in step S35, the report is saved as a file in a format that can be edited later by the user.

図11は、図10に示された処理によって自動作成された報告書例の一部分を示す。 FIG. 11 shows a portion of an example report automatically created by the process shown in FIG.

図11に示されるように、自動作成された報告書には、図4~図7に例示したような作業画面で使用された表示画像、画像上の領域枠、領域名、入力コメント等が、報告書フォームに定義された順序とレイアウトに従って記載されている。ユーザは、このような自動作成された報告書のファイルをユーザ端末7にダウンロードし、必要に応じて編集することで、報告書を完成させることができる。 As shown in Figure 11, the automatically created report includes the display image, area frame on the image, area name, input comment, etc. used on the work screen as illustrated in Figures 4 to 7. Written according to the order and layout defined in the report form. The user can complete the report by downloading such an automatically created report file to the user terminal 7 and editing it as necessary.

以上、一実施形態を説明したが、本発明の範囲はこの実施形態にのみ限定されるものではなく、例えば、自動生成された報告書に含まれる画像上の領域枠、領域名、入力コメント等は人工知能等によって自動的に作成されたものでもよく、その要旨を逸脱しない範囲で、他の様々な態様で実施することができる。 Although one embodiment has been described above, the scope of the present invention is not limited to this embodiment, and includes, for example, area frames, area names, input comments, etc. on images included in automatically generated reports. may be automatically created by artificial intelligence or the like, and may be implemented in various other forms without departing from the gist thereof.

1 検査報告書支援システム
3 データ処理サーバ
7 ユーザ端末
11 処理要求受付部
13 データ保存・検索部
15 画像登録部
17 画像結合部
19 地図・画像表示部
21 コメント登録部
23 報告書作成部
25 報告書表示部
27 報告書編集部
29 報告書出力部

1 Inspection report support system 3 Data processing server 7 User terminal 11 Processing request reception unit 13 Data storage/search unit 15 Image registration unit 17 Image combination unit 19 Map/image display unit 21 Comment registration unit 23 Report creation unit 25 Report Display section 27 Report editing section 29 Report output section

Claims (1)

対象の検査と報告書の作成のためのシステムにおいて、
ユーザにより使用されるユーザ端末と通信する手段と、
前記対象の全体と前記対象の異なる部分とをそれぞれ表した複数の画像を用意する手段と、
前記ユーザに要求された画像とコメント入力ツールとを表示した作業画面を前記ユーザ端末に表示する手段と、
前記ユーザにより前記作業画面に入力されたコメントを受けて、前記コメントを前記作業画面に表示された前記画像に関連付けて保存する手段と、
報告書フォームを格納する手段と、
保存された前記コメントと、それに関連付けられた前記画像とを用いて、前記報告書フォームに従って、報告書を自動的に作成する手段と
を備え、
前記表示する手段は、前記ユーザから複数の画像の表示を要求された場合、前記ユーザに要求された前記複数の画像を前記作業画面に表示し、前記作業画面上に表示された前記複数の画像のいずれか一つのズーム又はスクロールが前記ユーザから要求されると、前記作業画面上に表示された前記複数の画像を同期してズーム又はスクロールし、
前記表示する手段が、前記作業画面上に表示された前記複数の画像のいずれか一つの画像上で前記ユーザが任意の領域を指定すると、前記作業画面上に表示された前記複数の画像のそれぞれに前記指定された領域を表示し、
前記保存する手段が、前記複数の画像が表示された前記作業画面の前記指定された領域に関して前記ユーザが前記コメント入力ツールでコメントを入力した場合、前記入力されたコメントと、前記指定された領域の座標と、前記作業画面上の前記複数の画像とを関連付けて保存し、
前記報告書を自動的に作成する手段が、関連付けて保存された前記コメントと前記指定された領域の前記座標と前記画像とを読み出し、読み出した前記コメントと前記指定された領域の前記座標と前記画像とに基づいて、前記報告書に、前記報告書フォームに従って、前記コメントと前記指定された領域の枠と前記画像とを配置し記載する
ように構成されたシステム。
In the system for inspecting objects and creating reports,
means for communicating with a user terminal used by the user;
means for preparing a plurality of images each representing the entire object and different parts of the object;
means for displaying on the user terminal a work screen displaying the image and comment input tool requested by the user;
means for receiving a comment input by the user on the work screen and storing the comment in association with the image displayed on the work screen;
a means for storing a report form;
means for automatically creating a report according to the report form using the saved comment and the image associated therewith;
When the user requests display of a plurality of images, the display means displays the plurality of images requested by the user on the work screen, and displays the plurality of images displayed on the work screen. When any one of zooming or scrolling is requested by the user, synchronously zooming or scrolling the plurality of images displayed on the work screen;
When the user specifies an arbitrary area on any one of the plurality of images displayed on the work screen, the display means displays each of the plurality of images displayed on the work screen. display the specified area in
When the user inputs a comment using the comment input tool regarding the specified area of the work screen where the plurality of images are displayed, the storing means saves the input comment and the specified area. associate and save the coordinates of and the plurality of images on the work screen ;
The means for automatically creating the report reads the comment, the coordinates of the specified area, and the image that are stored in association with each other, and reads the comment, the coordinates of the specified area, and the image. arranging and describing the comment, the frame of the specified area, and the image in the report according to the report form based on the image;
A system configured as follows.
JP2019022751A 2019-02-12 2019-02-12 System for inspecting objects and creating reports Active JP7406740B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019022751A JP7406740B2 (en) 2019-02-12 2019-02-12 System for inspecting objects and creating reports
JP2023206429A JP7650472B2 (en) 2019-02-12 2023-12-06 System for inspecting objects and generating reports
JP2025033638A JP2025083369A (en) 2019-02-12 2025-03-04 System for the inspection of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019022751A JP7406740B2 (en) 2019-02-12 2019-02-12 System for inspecting objects and creating reports

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023206429A Division JP7650472B2 (en) 2019-02-12 2023-12-06 System for inspecting objects and generating reports

Publications (2)

Publication Number Publication Date
JP2020134955A JP2020134955A (en) 2020-08-31
JP7406740B2 true JP7406740B2 (en) 2023-12-28

Family

ID=72278519

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019022751A Active JP7406740B2 (en) 2019-02-12 2019-02-12 System for inspecting objects and creating reports
JP2023206429A Active JP7650472B2 (en) 2019-02-12 2023-12-06 System for inspecting objects and generating reports
JP2025033638A Pending JP2025083369A (en) 2019-02-12 2025-03-04 System for the inspection of an object

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023206429A Active JP7650472B2 (en) 2019-02-12 2023-12-06 System for inspecting objects and generating reports
JP2025033638A Pending JP2025083369A (en) 2019-02-12 2025-03-04 System for the inspection of an object

Country Status (1)

Country Link
JP (3) JP7406740B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058653A (en) 2001-08-21 2003-02-28 Isao Inoue Repair state managing device for wreck car
JP2007172403A (en) 2005-12-22 2007-07-05 Abis Technologies Inc Digital asset management system and digital asset management method
JP2011008764A (en) 2009-05-29 2011-01-13 Fujifilm Corp Inspection system, mobile terminal, inspection method and program
JP2011198251A (en) 2010-03-23 2011-10-06 Fujifilm Corp Inspection information processing apparatus, method, and program
JP2013257817A (en) 2012-06-14 2013-12-26 Hideaki Watanabe Construction site management system
JP2015225467A (en) 2014-05-27 2015-12-14 株式会社Nttファシリティーズ Inspection support device, inspection support method, and inspection support program
JP2016012345A (en) 2014-06-04 2016-01-21 パナソニック株式会社 Control method and program
JP2017130137A (en) 2016-01-22 2017-07-27 オリンパス株式会社 Endoscope report preparation support system
JP2018165906A (en) 2017-03-28 2018-10-25 国立大学法人 東京大学 Damage investigation system and method of use
JP2018180761A (en) 2017-04-07 2018-11-15 東急建設株式会社 Report preparation program with photo

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070632A (en) 2009-08-27 2011-04-07 Fujifilm Corp Inspection system, mobile terminal, inspection method, and program
JP5242731B2 (en) 2011-04-28 2013-07-24 オリンパス株式会社 Image display system and image display terminal device
JP6498069B2 (en) 2015-07-31 2019-04-10 キヤノン株式会社 Information processing apparatus, control method therefor, and computer program
JP6711676B2 (en) 2016-04-13 2020-06-17 キヤノン株式会社 Medical report creating apparatus and control method thereof, medical report creating system, and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058653A (en) 2001-08-21 2003-02-28 Isao Inoue Repair state managing device for wreck car
JP2007172403A (en) 2005-12-22 2007-07-05 Abis Technologies Inc Digital asset management system and digital asset management method
JP2011008764A (en) 2009-05-29 2011-01-13 Fujifilm Corp Inspection system, mobile terminal, inspection method and program
JP2011198251A (en) 2010-03-23 2011-10-06 Fujifilm Corp Inspection information processing apparatus, method, and program
JP2013257817A (en) 2012-06-14 2013-12-26 Hideaki Watanabe Construction site management system
JP2015225467A (en) 2014-05-27 2015-12-14 株式会社Nttファシリティーズ Inspection support device, inspection support method, and inspection support program
JP2016012345A (en) 2014-06-04 2016-01-21 パナソニック株式会社 Control method and program
JP2017130137A (en) 2016-01-22 2017-07-27 オリンパス株式会社 Endoscope report preparation support system
JP2018165906A (en) 2017-03-28 2018-10-25 国立大学法人 東京大学 Damage investigation system and method of use
JP2018180761A (en) 2017-04-07 2018-11-15 東急建設株式会社 Report preparation program with photo

Also Published As

Publication number Publication date
JP2025083369A (en) 2025-05-30
JP2020134955A (en) 2020-08-31
JP2024015248A (en) 2024-02-01
JP7650472B2 (en) 2025-03-25

Similar Documents

Publication Publication Date Title
US20100138874A1 (en) Apparatus and system for interactive seat selection
KR20140002750A (en) Contextual display and scrolling of search results in graphical environment
CN104656901A (en) Augmented reality system, method and apparatus for displaying an item image in a contextual environment
JP4708203B2 (en) Geographic information display device and geographic information display program
US11392269B2 (en) Geospatial asset management
CN115917610A (en) Device management method, device management device, device management program, recording medium
Javadnejad et al. BridgeDex: Proposed web GIS platform for managing and interrogating multiyear and multiscale bridge-inspection images
CN101094390A (en) Remote supporting apparatus, remote supporting system, remote supporting method, and program product therefor
US20100299629A1 (en) Process for displaying a portion of a history graph selected by a user
JP7406740B2 (en) System for inspecting objects and creating reports
US20090018844A1 (en) Interactive Property Tour
CN103177072B (en) Panoptic visualization document layout
Chagnaud et al. Visualization of documented 3D cities
JP2013084100A (en) Component management program and component management device
JP2021015572A (en) Information management system and information management method
JP2013232178A (en) Panoptic visualization of illustrated parts catalog
JP6361770B2 (en) Information processing apparatus, processing method thereof, and program
JP2003196283A (en) Image forming program and image forming device
JP7574537B2 (en) Information processing device and computer program
Berger et al. Analyzing the benefits of utilizing 360 panoramic photo survey technology on a shell offshore platform
JP2023026943A (en) Tubular structure investigation support device, tubular structure investigation support system, image display method for tubular structure, and program
Zuo et al. Map-based Dashboards versus Storytelling Maps
JP2023039679A (en) Tubular structure investigation support device, tubular structure investigation support system, tubular structure tube kind determination method and program
JP3596523B2 (en) Image forming program and image forming apparatus
JP7018818B2 (en) Bar arrangement inspection support system and bar arrangement inspection support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231206

R150 Certificate of patent or registration of utility model

Ref document number: 7406740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150