Nothing Special   »   [go: up one dir, main page]

JP7388623B1 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7388623B1
JP7388623B1 JP2022168616A JP2022168616A JP7388623B1 JP 7388623 B1 JP7388623 B1 JP 7388623B1 JP 2022168616 A JP2022168616 A JP 2022168616A JP 2022168616 A JP2022168616 A JP 2022168616A JP 7388623 B1 JP7388623 B1 JP 7388623B1
Authority
JP
Japan
Prior art keywords
vehicle
information processing
driver
user
seat
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022168616A
Other languages
Japanese (ja)
Other versions
JP2024060988A (en
Inventor
亨 杉本
浩史 太田
紗記子 斎藤
晃一 沢田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2022168616A priority Critical patent/JP7388623B1/en
Application granted granted Critical
Publication of JP7388623B1 publication Critical patent/JP7388623B1/en
Publication of JP2024060988A publication Critical patent/JP2024060988A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】撮影していない対象物の状態を適切に表示させること。【解決手段】本願に係る情報処理装置は、取得部と、生成部と、表示部とを備える。取得部は、異なる状態で対象物を撮影した複数の撮影画像を取得する。生成部は、取得部により取得された複数の撮影画像に基づいて、状態とは異なる状態の対象物の撮影画像を生成する。表示部は、生成部により生成された撮影画像と、取得部により取得された撮影画像とを提供することで、対象物を複数の状態で表示させる。【選択図】図11[Problem] To appropriately display the state of an object that has not been photographed. An information processing device according to the present application includes an acquisition section, a generation section, and a display section. The acquisition unit acquires a plurality of captured images of the object in different states. The generation unit generates a photographed image of the object in a state different from the state based on the plurality of photographed images acquired by the acquisition unit. The display unit displays the object in a plurality of states by providing the captured image generated by the generation unit and the captured image acquired by the acquisition unit. [Selection diagram] Figure 11

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

従来、商品の大きさを感覚的に捉えやすくするために、商品の画像と、比較対象となる比較物品の画像とを並べて表示する技術が知られている。 2. Description of the Related Art Conventionally, in order to make it easier to intuitively grasp the size of a product, a technique is known in which an image of the product and an image of a comparative article to be compared are displayed side by side.

特開2002-236941号公報JP2002-236941A

しかしながら、従来の技術では、撮影していない対象物の状態を適切に表示させることはできなかった。 However, with conventional techniques, it has not been possible to appropriately display the state of an object that has not been photographed.

本願は、上記に鑑みてなされたものであって、撮影していない車両の状態を適切に表示させることを目的とする。 The present application has been made in view of the above, and aims to appropriately display the state of a vehicle that is not photographed.

本願に係る情報処理装置は、異なる状態で対象物を撮影した複数の撮影画像を取得する取得部と、前記取得部により取得された複数の撮影画像に基づいて、前記状態とは異なる状態の対象物の撮影画像を生成する生成部と、前記生成部により生成された撮影画像と、前記取得部により取得された撮影画像とを提供することで、前記対象物を複数の状態で表示させる表示部と、を有することを特徴とする。 The information processing device according to the present application includes an acquisition unit that acquires a plurality of photographed images of a target object in different states, and an information processing device that acquires a plurality of photographed images of a target object in a different state from the state based on the plurality of photographed images acquired by the acquisition unit. A display unit that displays the object in a plurality of states by providing a generation unit that generates a photographed image of the object, a photographed image generated by the generation unit, and a photographed image acquired by the acquisition unit. It is characterized by having the following.

実施形態の一態様によれば、撮影していない対象物の状態を適切に表示させることができるという効果を奏する。 According to one aspect of the embodiment, it is possible to appropriately display the state of an object that has not been photographed.

図1は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an information processing system according to an embodiment. 図2は、実施形態に係る情報処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of information processing according to the embodiment. 図3は、実施形態に係る基準角度と車両の向きとの一例を示す図である。FIG. 3 is a diagram illustrating an example of the reference angle and the orientation of the vehicle according to the embodiment. 図4は、実施形態に係る撮影画像の生成の一例を示す図である。FIG. 4 is a diagram illustrating an example of generation of a captured image according to the embodiment. 図5は、実施形態に係る撮影画像の生成の一例を示す図である。FIG. 5 is a diagram illustrating an example of generation of a captured image according to the embodiment. 図6は、実施形態に係るインターフェース(UI)の一例を示す図である。FIG. 6 is a diagram illustrating an example of an interface (UI) according to the embodiment. 図7は、実施形態に係る端末装置の構成例を示す図である。FIG. 7 is a diagram illustrating a configuration example of a terminal device according to an embodiment. 図8は、実施形態に係る車両情報提供サーバの構成例を示す図である。FIG. 8 is a diagram illustrating a configuration example of a vehicle information providing server according to the embodiment. 図9は、実施形態に係る車両情報記憶部の一例を示す図である。FIG. 9 is a diagram illustrating an example of a vehicle information storage unit according to the embodiment. 図10は、実施形態に係る利用者情報記憶部の一例を示す図である。FIG. 10 is a diagram illustrating an example of a user information storage unit according to the embodiment. 図11は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 11 is a diagram illustrating a configuration example of an information processing device according to an embodiment. 図12は、実施形態に係る多視点画像記憶部の一例を示す図である。FIG. 12 is a diagram illustrating an example of a multi-view image storage unit according to the embodiment. 図13は、実施形態に係る情報処理の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of information processing according to the embodiment. 図14は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 14 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing device.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. Further, in each of the embodiments below, the same parts are given the same reference numerals, and redundant explanations will be omitted.

(実施形態)
〔1.情報処理システムの構成〕
図1に示す情報処理システム1について説明する。図1に示すように、情報処理システム1は、端末装置10と、車両情報提供サーバ50と、情報処理装置100とが含まれる。端末装置10と、車両情報提供サーバ50と、情報処理装置100とは所定の通信網(ネットワークN)を介して、有線または無線により通信可能に接続される。図1は、実施形態に係る情報処理システム1の構成例を示す図である。
(Embodiment)
[1. Information processing system configuration]
The information processing system 1 shown in FIG. 1 will be explained. As shown in FIG. 1, the information processing system 1 includes a terminal device 10, a vehicle information providing server 50, and an information processing device 100. The terminal device 10, the vehicle information providing server 50, and the information processing device 100 are communicably connected via a predetermined communication network (network N) by wire or wirelessly. FIG. 1 is a diagram illustrating a configuration example of an information processing system 1 according to an embodiment.

端末装置10は、車両情報を提供する所定のウェブサイト(例えば、車両を販売する販売店への送客を行う所定のウェブサイト(例えば、車両の検索サービスを提供するウェブサイト))を閲覧する利用者によって利用される情報処理装置である。利用者は、例えば、車両の購入を検討しているものである。端末装置10は、実施形態における処理を実現可能であれば、どのような装置であってもよい。また、端末装置10は、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等の装置であってもよい。図2では、端末装置10がスマートフォンである場合を示す。 The terminal device 10 browses a predetermined website that provides vehicle information (for example, a predetermined website that sends customers to a dealership that sells vehicles (for example, a website that provides a vehicle search service)). This is an information processing device used by a user. For example, the user is considering purchasing a vehicle. The terminal device 10 may be any device as long as it can implement the processing in the embodiment. Further, the terminal device 10 may be a device such as a smartphone, a tablet terminal, a notebook PC, a desktop PC, a mobile phone, or a PDA. FIG. 2 shows a case where the terminal device 10 is a smartphone.

端末装置10は、例えば、スマートフォンやタブレット等のスマートデバイスであり、3G~5G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者から指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付けてもよい。図2では、端末装置10は利用者U1によって利用される。 The terminal device 10 is, for example, a smart device such as a smartphone or a tablet, and is a mobile device that can communicate with any server device via a wireless communication network such as 3G to 5G (Generation) or LTE (Long Term Evolution). It is a terminal device. Further, the terminal device 10 has a screen such as a liquid crystal display, which has a touch panel function, and allows a user to perform a tap operation, a slide operation, a scroll operation, etc. using a finger or a stylus, etc. to respond to display data such as content. Various operations may be accepted. In FIG. 2, the terminal device 10 is used by a user U1.

車両情報提供サーバ50は、利用者からの要求に応じて車両情報を提供することを目的とした情報処理装置であり、実施形態における処理を実現可能であれば、どのような装置であってもよい。例えば、車両情報提供サーバ50は、車両の車種情報や発表・発売年月情報やグレード情報や駆動/ミッション情報や価格情報や主要諸元データ(例えば、全長、全幅、全高、乗車定員、車両重量、タイヤサイズ、ホイールタイプ、使用燃料)などの情報を提供する。車両情報提供サーバ50は、例えば、車両情報を提供する所定のウェブサイトを管理するサーバ装置やクラウドシステム等により実現される。 The vehicle information providing server 50 is an information processing device whose purpose is to provide vehicle information in response to a request from a user, and may be any device as long as it can implement the processing in the embodiment. good. For example, the vehicle information providing server 50 stores vehicle model information, announcement/release date information, grade information, drive/mission information, price information, and main specification data (for example, overall length, overall width, overall height, passenger capacity, vehicle weight, etc.). , tire size, wheel type, fuel used), etc. The vehicle information providing server 50 is realized by, for example, a server device, a cloud system, or the like that manages a predetermined website that provides vehicle information.

情報処理装置100は、利用者が選択した複数の車両を、見栄えを揃えて比較したいといった利用者の要望に適切に応えることを目的とした情報処理装置であり、実施形態における処理を実現可能であれば、どのような装置であってもよい。例えば、情報処理装置100は、車両情報提供サーバ50から車両の指定を受け付けると、指定された車両の撮影画像(元データ)を取得して、見栄えを揃えて比較したいといった利用者の要望に適切に応えるための表示データを生成し、生成した表示データを車両情報提供サーバ50へ提供する。情報処理装置100は、例えば、車両情報を提供する所定のウェブサイトを管理するサーバ装置やクラウドシステム等により実現される。 The information processing device 100 is an information processing device aimed at appropriately responding to the user's request to compare multiple vehicles selected by the user with the same appearance, and is capable of realizing the processing in the embodiment. Any device may be used. For example, when the information processing device 100 receives a vehicle specification from the vehicle information providing server 50, the information processing device 100 acquires a captured image (original data) of the specified vehicle and performs an appropriate process to meet the user's request to compare the images with the same appearance. The system generates display data to meet the requirements and provides the generated display data to the vehicle information providing server 50. The information processing device 100 is realized by, for example, a server device, a cloud system, or the like that manages a predetermined website that provides vehicle information.

なお、図1では、車両情報提供サーバ50と情報処理装置100とが別装置である場合を示したが、車両情報提供サーバ50と情報処理装置100とが一体であってもよい。 Although FIG. 1 shows a case where the vehicle information providing server 50 and the information processing device 100 are separate devices, the vehicle information providing server 50 and the information processing device 100 may be integrated.

〔2.情報処理の一例〕
図2は、実施形態に係る情報処理システム1の情報処理の一例を示す図である。以下実施形態において、利用者U1は、車両Aと車両Bとで購入を迷っており、車両Aと車両Bとの見栄えを揃えて比較したいといった要望を有する。なお、実施形態に係る車両は対象物の一例である。以下実施形態では、対象物の一例として車両を例に挙げて説明するが、この例に限定されなくてもよい。例えば、対象物は、車両に限られず、電化製品などの物品であってもよい。
[2. An example of information processing]
FIG. 2 is a diagram illustrating an example of information processing of the information processing system 1 according to the embodiment. In the following embodiment, a user U1 is undecided between purchasing vehicle A and vehicle B, and has a desire to compare vehicle A and vehicle B so that their appearances are the same. Note that the vehicle according to the embodiment is an example of a target object. In the following embodiments, a vehicle will be described as an example of a target object, but the present invention is not limited to this example. For example, the target object is not limited to a vehicle, but may also be an article such as an electrical appliance.

情報処理装置100は、様々な視点から車両を撮影した撮影画像(元データ)からなる多視点画像を車両ごとに取得する(ステップS101)。例えば、情報処理装置100は、車両をターンテーブルTB1に載せて少しずつ回転させながら車両を撮影した撮影画像からなる多視点画像を取得する。この際、車両は、例えば、車両の重心とターンテーブルTB1の中心とが一致するようにターンテーブルTB1に車両を載せて撮影される。また、車両の撮影は、例えば、情報処理装置100の管理者等によって実施される。 The information processing device 100 acquires a multi-view image for each vehicle, which is composed of captured images (original data) of the vehicle from various viewpoints (step S101). For example, the information processing device 100 acquires a multi-view image consisting of captured images of the vehicle while the vehicle is placed on the turntable TB1 and rotated little by little. At this time, the vehicle is photographed, for example, with the vehicle mounted on the turntable TB1 so that the center of gravity of the vehicle and the center of the turntable TB1 coincide. Further, the photographing of the vehicle is carried out by, for example, an administrator of the information processing device 100 or the like.

また、この際、車両の状態は様々であってもよい。例えば、車両のドアが閉まっている状態であってもよいし、車両のドアが開いている状態であってもよい。また、例えば、車両のライトが点灯していない状態であってもよいし、車両のライトが点灯している状態であってもよい。例えば、情報処理装置100は、ドアが閉まっている状態の車両をターンテーブルTB1に載せて撮影したあとにドアを開けて、ドアが開いている状態の同じ車両を撮影することで、ドアが閉まっている状態の多視点画像と、ドアが開いている状態の多視点画像とを取得してもよい。また、例えば、情報処理装置100は、ライトが点灯していない状態の車両をターンテーブルTB1に載せて撮影したあとにライトを点灯して、ライトが点灯している状態の同じ車両を撮影することで、ライトが点灯していない状態の多視点画像と、ライトが点灯している状態の多視点画像とを取得してもよい。なお、ドアが開いている状態や、ライトが点灯している状態は一例であり、実施形態に係る車両の状態はこれらの例に限られない。 Further, at this time, the state of the vehicle may vary. For example, the vehicle door may be in a closed state or the vehicle door may be in an open state. Further, for example, the vehicle lights may be in a state where they are not lit, or the vehicle lights may be in a state where the vehicle lights are lit. For example, the information processing device 100 takes a picture of a vehicle with the door closed on the turntable TB1, and then opens the door and photographs the same vehicle with the door open, so that the door is closed. A multi-view image with the door open and a multi-view image with the door open may be obtained. For example, the information processing device 100 may take a photograph of a vehicle with the lights off on the turntable TB1, then turn on the lights and photograph the same vehicle with the lights on. Then, a multi-view image with the light off and a multi-view image with the light on may be acquired. Note that the state where the door is open and the state where the light is on are just examples, and the state of the vehicle according to the embodiment is not limited to these examples.

情報処理装置100は、取得した多視点画像から、各撮影画像の車両の向きを特定し、特定した向きが、所定の基準角度から所定の範囲内であるか否かを判定する(ステップS102)。例えば、図3に示したように、情報処理装置100は、ターンテーブルTB1が360度回転するまでに所定の間隔で3枚撮影した場合には、360度を3で割ることで、各撮影画像の車両の向きを0度、120度、240度と特定する。そして、例えば、情報処理装置100は、基準角度が0度、50度、100度、150度、200度、250度、300度、350度である場合には、車両の向きの0度と、0度に最も近い基準角度の0度とを比較して所定の範囲内であるか否かを判定し、車両の向きの120度と、120度に最も近い基準角度の100度とを比較して所定の範囲内であるか否かを判定し、車両の向きの240度と、240度に最も近い基準角度の250度とを比較して所定の範囲内であるか否かを判定する。そして、例えば、情報処理装置100は、所定の範囲内であると判定した場合は、所定の基準角度の撮影画像としてタグ付けを行う(ステップS103)。また、例えば、情報処理装置100は、所定の範囲内でないと判定した場合は、タグ付けを行わない。なお、所定の範囲が0~30度であり、情報処理装置100は、0度、100度、250度の基準角度から所定の範囲内となる撮影画像があると判定したものとして以下説明する。 The information processing device 100 identifies the orientation of the vehicle in each photographed image from the acquired multi-view images, and determines whether the identified orientation is within a predetermined range from a predetermined reference angle (step S102). . For example, as shown in FIG. 3, when three images are taken at a predetermined interval before the turntable TB1 rotates 360 degrees, the information processing device 100 divides 360 degrees by 3 to Specify the orientation of the vehicle as 0 degrees, 120 degrees, and 240 degrees. For example, when the reference angle is 0 degrees, 50 degrees, 100 degrees, 150 degrees, 200 degrees, 250 degrees, 300 degrees, or 350 degrees, the information processing device 100 determines that the direction of the vehicle is 0 degrees, It compares 0 degrees, the reference angle closest to 0 degrees, to determine whether it is within a predetermined range, and compares the vehicle orientation of 120 degrees with 100 degrees, the reference angle closest to 120 degrees. It is determined whether the angle is within a predetermined range or not, and the 240 degree angle of the vehicle is compared with the reference angle of 250 degrees which is closest to 240 degrees to determine whether the angle is within a predetermined range. For example, if the information processing apparatus 100 determines that the image is within a predetermined range, it tags the image as a photographed image taken at a predetermined reference angle (step S103). Further, for example, if the information processing apparatus 100 determines that it is not within a predetermined range, it does not tag. Note that the following description will be made assuming that the predetermined range is 0 to 30 degrees, and that the information processing apparatus 100 has determined that there is a photographed image that falls within the predetermined range from the reference angle of 0 degrees, 100 degrees, and 250 degrees.

情報処理装置100は、基準角度の50度、150度、200度、300度、350度のように、所定の基準角度から所定の範囲内となる撮影画像がない場合は、取得した多視点画像から、向きが所定の基準角度となる撮影画像を生成する。例えば、情報処理装置100は、機械学習モデル(例えば、GAN:Generative Adversarial Network)や画像生成モデルなどを用いて撮影画像を生成する。具体的には、情報処理装置100は、所定の基準角度と角度が近い向きの撮影画像を入力すると、その所定の基準角度の撮影画像となるように学習されたモデルや、任意の画像生成手法を用いて撮影画像を生成してもよい。そして、情報処理装置100は、生成した撮影画像に、所定の基準角度の撮影画像としてタグ付けを行う。 If there is no captured image within a predetermined range from a predetermined reference angle, such as the reference angle of 50 degrees, 150 degrees, 200 degrees, 300 degrees, or 350 degrees, the information processing device 100 uses the acquired multi-view image. From this, a photographed image whose orientation corresponds to a predetermined reference angle is generated. For example, the information processing device 100 generates a captured image using a machine learning model (eg, GAN: Generative Adversarial Network), an image generation model, or the like. Specifically, when the information processing apparatus 100 inputs a photographed image in a direction that is close to a predetermined reference angle, the information processing apparatus 100 uses a model or any image generation method that has been trained to produce a photographed image at the predetermined reference angle. The photographed image may be generated using The information processing apparatus 100 then tags the generated captured image as a captured image at a predetermined reference angle.

情報処理装置100は、取得した多視点画像から基準状態の車両の撮影画像を特定する(ステップS104)。例えば、情報処理装置100は、ドアが閉まっている状態が基準状態である場合は、ドアが閉まっている状態の撮影画像を特定する。そして、情報処理装置100は、特定した撮影画像に、基準状態の撮影画像としてタグ付けを行う。なお、情報処理装置100は、基準状態の撮影画像が存在しない場合は、機械学習モデルや画像生成モデルなどを用いて撮影画像を生成する。例えば、図4に示したように、情報処理装置100は、ドアが半開きの状態が基準状態である場合は、ドアが閉まっている状態の撮影画像や、ドアが開いている状態の撮影画像などに基づき、機械学習モデルや画像生成モデルなどを用いて、ドアが半開きの状態の撮影画像を生成する。そして、情報処理装置100は、生成した撮影画像に、基準状態の撮影画像としてタグ付けを行う。 The information processing device 100 identifies a captured image of the vehicle in the reference state from the acquired multi-view images (step S104). For example, if the state in which the door is closed is the reference state, the information processing device 100 identifies a photographed image in which the door is closed. The information processing apparatus 100 then tags the identified captured image as a captured image in the reference state. Note that if there is no captured image in the reference state, the information processing apparatus 100 generates a captured image using a machine learning model, an image generation model, or the like. For example, as shown in FIG. 4, when the reference state is a state in which the door is ajar, the information processing device 100 may capture a photographed image with the door closed, a photographed image with the door open, etc. Based on this, a photographed image of the door in a half-open state is generated using machine learning models, image generation models, etc. Then, the information processing apparatus 100 tags the generated captured image as a captured image in the reference state.

なお、ここまで、情報処理装置100が車両の外装を撮影した撮影画像からなる多視点画像を取得する場合の処理について説明したが、情報処理装置100は、外装に限られず、車両の内装を撮影した撮影画像からなる多視点画像を取得してもよい。そして、情報処理装置100は、外装の場合と同様に、取得した多視点画像(車両の内装を撮影した撮影画像からなる多視点画像)から、各撮影画像の車両の向きを特定し、特定した向きが、所定の基準角度から所定の範囲内であるか否かを判定し、所定の範囲内であると判定した場合は、所定の基準角度の撮影画像としてタグ付けを行い、所定の基準角度から所定の範囲内となる撮影画像がない場合は、取得した多視点画像から、向きが所定の基準角度となる撮影画像を生成するなどの処理を行ってもよい。 Up to this point, we have described the process in which the information processing device 100 acquires a multi-view image consisting of captured images of the exterior of a vehicle. A multi-view image consisting of captured images may be acquired. Then, as in the case of the exterior, the information processing device 100 identifies the orientation of the vehicle in each captured image from the acquired multi-view images (multi-view images consisting of captured images of the interior of the vehicle), and specifies the orientation of the vehicle in each captured image. It is determined whether the orientation is within a predetermined range from a predetermined reference angle, and if it is determined that it is within a predetermined range, it is tagged as an image taken at a predetermined reference angle, and the image is taken at a predetermined reference angle. If there is no photographed image that falls within a predetermined range from , processing may be performed such as generating a photographed image whose orientation is at a predetermined reference angle from the acquired multi-view images.

また、情報処理装置100は、車両の内側から撮影した撮影画像に基づいて、利用者U1が運転席に座った際に利用者U1の身長で視界に入る風景等(例えば、フロントガラスやサイドミラーの見え方を含む)の撮影画像を生成し、生成した生成画像に、基本状態の撮影画像としてタグ付けを行ってもよい。例えば、図5に示したように、情報処理装置100は、利用者U1が運転席に座った際に利用者U1の身長で見える視界を基準状態とし、身長の低い人が運転席に座った際にその人の身長で見える視界に対応した撮影画像や、身長の高い人が運転席に座った際にその身長の高い人の身長で見える視界に対応した撮影画像などに基づき、機械学習モデルや画像生成モデルなどを用いて、利用者U1が運転席に座った際に利用者U1の身長で見える視界に対応した撮影画像を生成してもよい。この際、情報処理装置100は、フロントガラスの見え方や、サイドミラーやバックミラーの見え方を含む撮影画像を生成してもよい。 In addition, the information processing device 100 also uses images captured from the inside of the vehicle to determine the scenery, etc. (for example, the windshield, side mirrors, It is also possible to generate a photographed image (including how it looks) and tag the generated image as a photographed image in the basic state. For example, as shown in FIG. 5, the information processing device 100 uses the field of view seen by the height of the user U1 when the user U1 is sitting in the driver's seat as the reference state, and the information processing device 100 uses the field of view that can be seen at the height of the user U1 when the user U1 is sitting in the driver's seat as a reference state. A machine learning model is developed based on captured images that correspond to the field of view based on the person's height, or captured images that correspond to the field of view that a tall person would see when sitting in the driver's seat. A photographed image corresponding to the field of view seen by the height of the user U1 when the user U1 is seated in the driver's seat may be generated using an image generation model or the like. At this time, the information processing device 100 may generate a captured image that includes how the windshield looks, and how the side mirrors and rearview mirrors look.

ここで、利用者U1から複数の車両の選択を受け付けた場合の処理について説明する。端末装置10は、利用者U1の車両Aと車両Bとの選択を受け付けると、車両Aと車両Bとの選択を受け付けた旨を示す情報を車両情報提供サーバ50へ提供する(ステップS105)。情報処理装置100は、車両情報提供サーバ50から車両Aと車両Bとの車両の指定を受け付けると、指定された車両Aと車両Bとの撮影画像を取得して、車両Aと車両Bとを同じ向きで表示させるための表示データを生成する(ステップS106)。例えば、情報処理装置100は、車両Aと車両Bとのそれぞれにおいて、基準状態の撮影画像としてタグ付けがされた撮影画像や、所定の基準角度の撮影画像としてタグ付けがされた撮影画像などを取得することで、車両Aと車両Bとを同じ向きで表示させるための表示データを生成する。また、情報処理装置100は、利用者U1が基準角度や基準状態を変更する操作を行った場合には、変更後の基準角度や基準状態と対応する撮影画像を表示させるための表示データを生成してもよい。そして、情報処理装置100は、生成した表示データを車両情報提供サーバ50へ提供することで、端末装置10に、車両Aと車両Bとの見栄えを揃えて表示させる(ステップS107)。 Here, a description will be given of a process when a selection of a plurality of vehicles is received from the user U1. When the terminal device 10 receives the selection between the vehicle A and the vehicle B by the user U1, it provides the vehicle information providing server 50 with information indicating that the selection between the vehicle A and the vehicle B has been accepted (step S105). When the information processing device 100 receives the vehicle designation of vehicle A and vehicle B from the vehicle information providing server 50, it acquires photographed images of the designated vehicle A and vehicle B, and displays vehicle A and vehicle B. Display data for displaying in the same orientation is generated (step S106). For example, the information processing device 100 stores, for each of vehicle A and vehicle B, a photographed image tagged as a photographed image in a reference state, a photographed image tagged as a photographed image at a predetermined reference angle, etc. By acquiring this, display data for displaying vehicle A and vehicle B in the same direction is generated. Further, when the user U1 performs an operation to change the reference angle or reference state, the information processing device 100 generates display data for displaying a captured image corresponding to the changed reference angle or reference state. You may. Then, the information processing device 100 provides the generated display data to the vehicle information providing server 50, thereby causing the terminal device 10 to display the vehicle A and the vehicle B with the same appearance (step S107).

なお、上記実施形態において、情報処理装置100は、利用者U1が特定の撮影画像の車両の一部(例えば、サイドミラーなど)にアノテーションを付与した場合には、他の撮影画像にも車両の同様の部分にアノテーションを付与して、角度ごとにアノテーションを表示させてもよい。例えば、情報処理装置100は、利用者U1が車両Aのサイドミラーにアノテーションを付与した場合には、車両Aの他の撮影画像や、車両Bの撮影画像にも同様の部分にアノテーションを付与して、角度ごとにアノテーションを表示させてもよい。 Note that in the above embodiment, when the user U1 annotates a part of the vehicle (for example, a side mirror) in a specific captured image, the information processing device 100 annotates the vehicle in other captured images as well. Annotations may be added to similar portions and displayed for each angle. For example, when user U1 adds an annotation to the side mirror of vehicle A, the information processing device 100 adds annotations to the same portion in other captured images of vehicle A and captured images of vehicle B. Annotations may be displayed for each angle.

また、上記実施形態において、情報処理装置100は、所定の視点から車両を撮影した撮影画像を元データから削除した場合は、削除後の元データに基づいて表示データを生成してもよい。 Further, in the above embodiment, when the information processing device 100 deletes a captured image of a vehicle from a predetermined viewpoint from the original data, the information processing device 100 may generate display data based on the deleted original data.

(ユーザインターフェースの一例)
図6は、実施形態に係るインターフェース(UI)の一例を示す図である。コンテンツCT1は、基本情報、比較、レビュー、ニュース、動画といった項目を含む。図6では、比較の項目が選択され、2台の車両(車両A及び車両B)が表示されている。なお、この2台の車両のうち、車両Bは、車両Aとの比較のために選択された車両であってもよい。また、比較候補の車両は、関連車両をリスティングしたものの中から選択されたものであってもよい。ここで、スペック比較を選択すると(ステップS11)、スペックの比較画面(コンテンツCT2)が表示され、360度比較を選択すると(ステップS12)、2台の車両を回転可能な画面(コンテンツCT3)が表示される。なお、コンテンツCT3は、コンテンツCT31のような車両の外装を写すものであってもよいし、コンテンツCT32のような車両の内装を写すものであってもよい。また、コンテンツCT3では、内装及び外装といった項目の選択に応じて、コンテンツCT31及びコンテンツCT32の切り替えが可能であってもよい。また、コンテンツCT3において、車両の変更(例えば、比較候補の車両の変更)が可能であってもよい。
(Example of user interface)
FIG. 6 is a diagram illustrating an example of an interface (UI) according to the embodiment. Content CT1 includes items such as basic information, comparisons, reviews, news, and videos. In FIG. 6, the comparison item is selected and two vehicles (vehicle A and vehicle B) are displayed. Note that among these two vehicles, vehicle B may be selected for comparison with vehicle A. Further, the comparison candidate vehicle may be selected from a list of related vehicles. Here, if you select spec comparison (step S11), a spec comparison screen (content CT2) will be displayed, and if you select 360 degree comparison (step S12), a screen that allows you to rotate the two vehicles (content CT3) will be displayed. Is displayed. Note that the content CT3 may be one that depicts the exterior of a vehicle, such as the content CT31, or may be one that depicts the interior of a vehicle, such as the content CT32. Further, in the content CT3, it may be possible to switch between the content CT31 and the content CT32 according to selection of items such as interior and exterior. Further, in the content CT3, it may be possible to change the vehicle (for example, change the comparison candidate vehicle).

〔3.端末装置の構成〕
次に、図7を用いて、実施形態に係る端末装置10の構成について説明する。図7は、実施形態に係る端末装置10の構成例を示す図である。図7に示すように、端末装置10は、通信部11と、入力部12と、出力部13と、制御部14とを有する。
[3. Terminal device configuration]
Next, the configuration of the terminal device 10 according to the embodiment will be described using FIG. 7. FIG. 7 is a diagram showing a configuration example of the terminal device 10 according to the embodiment. As shown in FIG. 7, the terminal device 10 includes a communication section 11, an input section 12, an output section 13, and a control section 14.

(通信部11)
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、所定のネットワークNと有線又は無線で接続され、所定のネットワークNを介して、車両情報提供サーバ50等との間で情報の送取得を行う。
(Communication Department 11)
The communication unit 11 is realized by, for example, a NIC (Network Interface Card). The communication unit 11 is connected to a predetermined network N by wire or wirelessly, and transmits and obtains information to and from the vehicle information providing server 50 and the like via the predetermined network N.

(入力部12)
入力部12は、利用者からの各種操作を受け付ける。図2では、利用者U1からの各種操作を受け付ける。例えば、入力部12は、タッチパネル機能により表示面を介して利用者からの各種操作を受け付けてもよい。また、入力部12は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
(Input section 12)
The input unit 12 accepts various operations from the user. In FIG. 2, various operations from the user U1 are accepted. For example, the input unit 12 may accept various operations from the user via the display screen using a touch panel function. Further, the input unit 12 may accept various operations from buttons provided on the terminal device 10 or a keyboard or mouse connected to the terminal device 10.

(出力部13)
出力部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。例えば、出力部13は、車両情報提供サーバ50から受信したコンテンツを表示する。
(Output section 13)
The output unit 13 is a display screen of a tablet terminal or the like realized by, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display, and is a display device for displaying various information. For example, the output unit 13 displays content received from the vehicle information providing server 50.

(制御部14)
制御部14は、例えば、コントローラ(controller)であり、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部の記憶装置に記憶されている各種プログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現される。例えば、この各種プログラムには、端末装置10にインストールされたアプリケーションのプログラムが含まれる。例えば、この各種プログラムには、車両情報提供サーバ50から受信したコンテンツを表示させるアプリケーションのプログラムが含まれる。また、制御部14は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 14)
The control unit 14 is, for example, a controller, and various programs stored in a storage device inside the terminal device 10 are transferred to a RAM (Random Access Memory) by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. ) is executed as a work area. For example, these various programs include application programs installed on the terminal device 10. For example, these various programs include an application program that displays content received from the vehicle information providing server 50. Further, the control unit 14 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図7に示すように、制御部14は、受信部141と、送信部142とを有し、以下に説明する情報処理の作用を実現または実行する。 As shown in FIG. 7, the control unit 14 includes a receiving unit 141 and a transmitting unit 142, and realizes or executes the information processing operation described below.

(受信部141)
受信部141は、車両情報提供サーバ50等の他の情報処理装置から各種情報を受信する。例えば、受信部141は、車両情報を提供する所定のウェブサイトにおいて、利用者が選択した複数の車両の見栄えを揃えて表示させるための表示データを受信する。
(Receiving unit 141)
The receiving unit 141 receives various information from other information processing devices such as the vehicle information providing server 50. For example, the receiving unit 141 receives display data for displaying a plurality of vehicles selected by a user in a uniform appearance on a predetermined website that provides vehicle information.

(送信部142)
送信部142は、車両情報提供サーバ50等の他の情報処理装置へ各種情報を送信する。例えば、送信部142は、利用者から複数の車両の選択を受け付けた旨を示す情報を送信する。
(Transmission unit 142)
The transmitter 142 transmits various information to other information processing devices such as the vehicle information providing server 50. For example, the transmitter 142 transmits information indicating that selections of multiple vehicles have been received from the user.

〔4.車両情報提供サーバの構成〕
次に、図8を用いて、実施形態に係る車両情報提供サーバ50の構成について説明する。図8は、実施形態に係る車両情報提供サーバ50の構成例を示す図である。図8に示すように、車両情報提供サーバ50は、通信部51と、記憶部52と、制御部53とを有する。なお、車両情報提供サーバ50は、車両情報提供サーバ50の管理者から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[4. Configuration of vehicle information provision server]
Next, the configuration of the vehicle information providing server 50 according to the embodiment will be described using FIG. 8. FIG. 8 is a diagram showing a configuration example of the vehicle information providing server 50 according to the embodiment. As shown in FIG. 8, the vehicle information providing server 50 includes a communication section 51, a storage section 52, and a control section 53. The vehicle information providing server 50 includes an input section (for example, a keyboard, a mouse, etc.) that receives various operations from the administrator of the vehicle information providing server 50, and a display section (for example, a liquid crystal display, etc.) for displaying various information. It may have.

(通信部51)
通信部51は、例えば、NIC等によって実現される。そして、通信部51は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、情報処理装置100等との間で情報の送取得を行う。
(Communication Department 51)
The communication unit 51 is realized by, for example, a NIC or the like. The communication unit 51 is connected to the network N by wire or wirelessly, and transmits and obtains information to and from the information processing device 100 and the like via the network N.

(記憶部52)
記憶部52は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図8に示すように、記憶部52は、車両情報記憶部521と、利用者情報記憶部522とを有する。
(Storage unit 52)
The storage unit 52 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 8, the storage section 52 includes a vehicle information storage section 521 and a user information storage section 522.

車両情報記憶部521は、車両の車種情報や発表・発売年月情報やグレード情報や駆動/ミッション情報や価格情報や主要諸元データなどの情報を記憶する。ここで、図9に、実施形態に係る車両情報記憶部521の一例を示す。図9に示すように、車両情報記憶部521は、「車両ID」、「車両情報」といった項目を有する。 The vehicle information storage unit 521 stores information such as vehicle model information, announcement/release date information, grade information, drive/mission information, price information, and main specification data. Here, FIG. 9 shows an example of the vehicle information storage section 521 according to the embodiment. As shown in FIG. 9, the vehicle information storage unit 521 has items such as "vehicle ID" and "vehicle information."

「車両ID」は、車両を識別するための識別情報を示す。「車両情報」は、車両の車種情報や発表・発売年月情報やグレード情報や駆動/ミッション情報や価格情報や主要諸元データなどの情報を示す。図9に示した例では、「車両情報」に「車両情報#1」や「車両情報#2」といった概念的な情報が格納される例を示したが、実際は、車両の車種を示すテキスト情報などが格納される。 "Vehicle ID" indicates identification information for identifying a vehicle. "Vehicle information" indicates information such as vehicle model information, announcement/release date information, grade information, drive/mission information, price information, and main specification data. In the example shown in FIG. 9, conceptual information such as "vehicle information #1" and "vehicle information #2" is stored in "vehicle information", but in reality, text information indicating the model of the vehicle is stored. etc. are stored.

利用者情報記憶部522は、利用者情報を記憶する。ここで、図10に、実施形態に係る利用者情報記憶部522の一例を示す。図10に示すように、利用者情報記憶部522は、「利用者ID」、「利用者情報」といった項目を有する。 The user information storage unit 522 stores user information. Here, FIG. 10 shows an example of the user information storage unit 522 according to the embodiment. As shown in FIG. 10, the user information storage unit 522 has items such as "user ID" and "user information."

「利用者ID」は、利用者を識別するための識別情報を示す。「利用者情報」は、利用者の属性(例えば、年齢や性別)や所定のウェブサイトにおける行動履歴(例えば、閲覧履歴や検索履歴)などの情報を示す。図10に示した例では、「利用者情報」に「利用者情報#1」や「利用者情報#2」といった概念的な情報が格納される例を示したが、実際は、利用者の属性を示すテキスト情報などが格納される。 "User ID" indicates identification information for identifying a user. "User information" indicates information such as user attributes (eg, age and gender) and behavior history on a predetermined website (eg, browsing history and search history). In the example shown in Figure 10, conceptual information such as "user information #1" and "user information #2" is stored in "user information", but in reality, user attributes Text information indicating the etc. is stored.

(制御部53)
制御部53は、コントローラであり、例えば、CPUやMPU等によって、車両情報提供サーバ50内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部53は、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 53)
The control unit 53 is a controller, and is realized by, for example, a CPU, an MPU, or the like executing various programs stored in a storage device inside the vehicle information providing server 50 using the RAM as a work area. Further, the control unit 53 is realized by, for example, an integrated circuit such as an ASIC or an FPGA.

図8に示すように、制御部53は、受信部531と、送信部532とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部53の内部構成は、図8に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 8, the control unit 53 includes a receiving unit 531 and a transmitting unit 532, and realizes or executes the information processing operation described below. Note that the internal configuration of the control unit 53 is not limited to the configuration shown in FIG. 8, and may be any other configuration as long as it performs information processing to be described later.

(受信部531)
受信部531は、端末装置10等の他の情報処理装置から各種情報を受信する。例えば、受信部531は、利用者から複数の車両の選択を受け付けた旨を示す情報を受信する。また、例えば、受信部531は、利用者が選択した複数の車両の見栄えを揃えて表示させるための表示データを受信する。
(Receiving unit 531)
The receiving unit 531 receives various information from other information processing devices such as the terminal device 10. For example, the receiving unit 531 receives information indicating that selections of multiple vehicles have been accepted from the user. Further, for example, the receiving unit 531 receives display data for displaying a plurality of vehicles selected by the user with the same appearance.

(送信部532)
送信部532は、端末装置10等の他の情報処理装置へ各種情報を送信する。例えば、送信部532は、利用者が選択した複数の車両の見栄えを揃えて表示させるための表示データを送信する。また、例えば、送信部532は、利用者が選択した複数の車両を示す情報を送信する。
(Transmission unit 532)
The transmitter 532 transmits various information to other information processing devices such as the terminal device 10. For example, the transmitter 532 transmits display data for displaying a plurality of vehicles selected by the user with the same appearance. Further, for example, the transmitter 532 transmits information indicating a plurality of vehicles selected by the user.

〔5.情報処理装置の構成〕
次に、図11を用いて、実施形態に係る情報処理装置100の構成について説明する。図11は、実施形態に係る情報処理装置100の構成例を示す図である。図11に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[5. Configuration of information processing device]
Next, the configuration of the information processing device 100 according to the embodiment will be described using FIG. 11. FIG. 11 is a diagram illustrating a configuration example of the information processing device 100 according to the embodiment. As shown in FIG. 11, the information processing device 100 includes a communication section 110, a storage section 120, and a control section 130. Note that the information processing device 100 has an input unit (for example, a keyboard, a mouse, etc.) that accepts various operations from the administrator of the information processing device 100, and a display unit (for example, a liquid crystal display, etc.) for displaying various information. You may.

(通信部110)
通信部110は、例えば、NIC等によって実現される。そして、通信部110は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、車両情報提供サーバ50等との間で情報の送取得を行う。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and sends and receives information to and from the vehicle information providing server 50 and the like via the network N.

(記憶部120)
記憶部120は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図11に示すように、記憶部120は、多視点画像記憶部121を有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 11, the storage unit 120 includes a multi-view image storage unit 121.

多視点画像記憶部121は、様々な視点から(及び様々な状態で)車両を撮影した撮影画像からなる多視点画像を記憶する。ここで、図12に、実施形態に係る多視点画像記憶部121の一例を示す。図12に示すように、多視点画像記憶部121は、「車両ID」、「基準状態」、「基準角度1」、「基準角度2」といった項目を有する。 The multi-view image storage unit 121 stores multi-view images consisting of images of the vehicle taken from various viewpoints (and in various states). Here, FIG. 12 shows an example of the multi-view image storage unit 121 according to the embodiment. As shown in FIG. 12, the multi-view image storage unit 121 has items such as "vehicle ID", "reference state", "reference angle 1", and "reference angle 2".

「車両ID」は、車両を識別するための識別情報を示す。「基準状態」は、基準状態の車両の撮影画像を示す。図12に示した例では、「基準状態」に「基準状態#1」や「基準状態#2」といった概念的な情報が格納される例を示したが、実際は、画像データなどが格納される。また、「基準状態」には、例えば、画像データが所在するURLや、格納場所を示すファイルパス名等が格納されてもよい。「基準角度1」は、所定の基準角度の撮影画像を示す。図12に示した例では、「基準角度1」に「基準角度#11」や「基準角度#12」といった概念的な情報が格納される例を示したが、実際は、画像データなどが格納される。また、「基準角度1」には、例えば、画像データが所在するURLや、格納場所を示すファイルパス名等が格納されてもよい。「基準角度2」は、「基準角度1」と異なる基準角度である所定の基準角度の撮影画像を示す。図12に示した例では、「基準角度2」に「基準角度#21」や「基準角度#22」といった概念的な情報が格納される例を示したが、実際は、画像データなどが格納される。また、「基準角度2」には、例えば、画像データが所在するURLや、格納場所を示すファイルパス名等が格納されてもよい。 "Vehicle ID" indicates identification information for identifying a vehicle. “Reference state” indicates a photographed image of the vehicle in the reference state. In the example shown in FIG. 12, conceptual information such as "reference state #1" and "reference state #2" is stored in the "reference state", but in reality, image data etc. are stored. . Furthermore, the "reference state" may store, for example, a URL where image data is located, a file path name indicating a storage location, and the like. "Reference angle 1" indicates a captured image at a predetermined reference angle. In the example shown in FIG. 12, conceptual information such as "reference angle #11" and "reference angle #12" is stored in "reference angle 1", but in reality, image data etc. are stored. Ru. Further, "reference angle 1" may store, for example, a URL where image data is located, a file path name indicating a storage location, or the like. “Reference angle 2” indicates a captured image at a predetermined reference angle that is different from “reference angle 1”. In the example shown in FIG. 12, conceptual information such as "reference angle #21" and "reference angle #22" is stored in "reference angle 2", but in reality, image data etc. are stored. Ru. Furthermore, "reference angle 2" may store, for example, a URL where image data is located, a file path name indicating a storage location, and the like.

(制御部130)
制御部130は、コントローラであり、例えば、CPUやMPU等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 130)
The control unit 130 is a controller, and is realized by, for example, a CPU, an MPU, or the like executing various programs stored in a storage device inside the information processing device 100 using the RAM as a work area. Further, the control unit 130 is realized by, for example, an integrated circuit such as an ASIC or an FPGA.

図11に示すように、制御部130は、取得部131と、特定部132と、判定部133と、生成部134と、表示部135とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部130の内部構成は、図11に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 11, the control unit 130 includes an acquisition unit 131, a specification unit 132, a determination unit 133, a generation unit 134, and a display unit 135, and realizes the information processing operation described below. Or run. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 11, and may be any other configuration as long as it performs information processing to be described later.

(取得部131)
取得部131は、記憶部120から各種情報を取得する。また、取得部131は、取得した各種情報を記憶部120に格納する。
(Acquisition unit 131)
The acquisition unit 131 acquires various information from the storage unit 120. Further, the acquisition unit 131 stores various acquired information in the storage unit 120.

取得部131は、外部の情報処理装置から各種情報を取得する。取得部131は、車両情報提供サーバ50等の他の情報処理装置から各種情報を取得する。例えば、取得部131は、様々な視点から車両を撮影した撮影画像(元データ)からなる多視点画像を車両ごとに取得する。また、例えば、取得部131は、複数の視点から車両を撮影した複数の撮影画像からなる多視点画像を元データとして取得する。また、例えば、取得部131は、異なる状態(例えば、ドアが閉まっている状態や、ドアが開ききった状態や、ドアが半開きの状態)で車両を撮影した複数の撮影画像を取得する。また、例えば、取得部131は、利用者が選択した複数の車両を示す情報を取得する。 The acquisition unit 131 acquires various information from an external information processing device. The acquisition unit 131 acquires various information from other information processing devices such as the vehicle information providing server 50. For example, the acquisition unit 131 acquires, for each vehicle, a multi-view image consisting of captured images (original data) of the vehicle taken from various viewpoints. Further, for example, the acquisition unit 131 acquires, as original data, a multi-view image consisting of a plurality of captured images of the vehicle from a plurality of viewpoints. Further, for example, the acquisition unit 131 acquires a plurality of captured images of the vehicle in different states (for example, a state where the door is closed, a state where the door is fully open, and a state where the door is half open). Further, for example, the acquisition unit 131 acquires information indicating a plurality of vehicles selected by the user.

(特定部132)
特定部132は、取得部131によって取得された元データの各撮影画像が示す車両の向きを特定する。例えば、特定部132は、ターンテーブルが360度回転するまでに所定の間隔で所定の枚数撮影した場合には、360度を所定の枚数で割ることで、各撮影画像の車両の向きを特定する。また、特定部132は、取得部131によって取得された元データの各撮影画像が示す車両の大きさを特定してもよい。
(Specific unit 132)
The identification unit 132 identifies the orientation of the vehicle indicated by each captured image of the original data acquired by the acquisition unit 131. For example, when a predetermined number of images are taken at a predetermined interval until the turntable rotates 360 degrees, the identifying unit 132 identifies the orientation of the vehicle in each photographed image by dividing 360 degrees by the predetermined number of images. . Further, the identifying unit 132 may identify the size of the vehicle indicated by each captured image of the original data acquired by the acquiring unit 131.

(判定部133)
判定部133は、特定部132によって特定された車両の向きが、所定の基準角度から所定の範囲内であるか否かを判定する。例えば、判定部133は、所定の基準角度から所定の範囲内である車両の向きがあるか否かを判定する。例えば、判定部133は、所定の基準角度から所定の範囲内である車両の向きがあると判定した場合は、その車両の向きの撮影画像を所定の基準角度の撮影画像としてタグ付けを行う。また、例えば、判定部133は、所定の基準角度から所定の範囲内である車両の向きがないと判定した場合は、後述の生成部134によって、取得部131によって取得された多視点画像に基づいて、所定の基準角度の撮影画像を生成すると判定する。
(Determination unit 133)
The determination unit 133 determines whether the orientation of the vehicle specified by the identification unit 132 is within a predetermined range from a predetermined reference angle. For example, the determination unit 133 determines whether the orientation of the vehicle is within a predetermined range from a predetermined reference angle. For example, if the determining unit 133 determines that there is a direction of the vehicle within a predetermined range from a predetermined reference angle, it tags the photographed image of the direction of the vehicle as the photographed image of the predetermined reference angle. For example, if the determining unit 133 determines that the orientation of the vehicle is not within a predetermined range from a predetermined reference angle, the generating unit 134 (described later) may generate a multi-view image based on the multi-view image acquired by the acquiring unit 131. Then, it is determined that a captured image at a predetermined reference angle is to be generated.

(生成部134)
生成部134は、取得部131によって取得された多視点画像に基づいて、機械学習モデル(例えば、GAN)や画像生成モデルなどを用いて所定の基準角度の撮影画像を生成し、生成した撮影画像に所定の基準角度の撮影画像としてタグ付けを行う。また、生成部134は、基準角度や基準状態が変更された場合は、変更後の基準角度や基準状態と対応する撮影画像を生成し、生成した撮影画像に変更後の基準角度の撮影画像としてタグ付けを行ってもよい。また、生成部134は、異なる視点から車両を撮影した複数の撮影画像に基づいて、その異なる視点の中間の視点から車両を撮影した際に得られる撮影画像を生成する。
(Generation unit 134)
The generation unit 134 generates a captured image at a predetermined reference angle using a machine learning model (for example, GAN), an image generation model, etc. based on the multi-view image acquired by the acquisition unit 131, and generates the generated captured image. is tagged as an image taken at a predetermined reference angle. Furthermore, when the reference angle or reference state is changed, the generation unit 134 generates a captured image corresponding to the changed reference angle or reference state, and uses the generated captured image as a captured image at the changed reference angle. Tagging may also be performed. Further, the generation unit 134 generates a photographed image obtained when the vehicle is photographed from an intermediate viewpoint among the different viewpoints, based on a plurality of photographed images of the vehicle taken from different viewpoints.

生成部134は、取得部131によって取得された撮影画像が示す車両の状態とは異なる状態の車両の撮影画像を生成する。例えば、生成部134は、ドアが閉まっている状態で車両を撮影した撮影画像と、ドアが開ききった状態で車両を撮影した撮影画像とに基づいて、ドアが閉まっている状態から開ききるまでの中間の状態の車両の撮影画像を生成する。 The generation unit 134 generates a photographed image of the vehicle in a state different from the state of the vehicle indicated by the photographed image acquired by the acquisition unit 131. For example, the generation unit 134 generates information from the closed state to the fully opened state based on a captured image of the vehicle with the door closed and a captured image of the vehicle with the door fully opened. A captured image of the vehicle in an intermediate state is generated.

生成部134は、利用者が選択した複数の車両の見栄えを揃えて表示させるための表示データを生成する。例えば、生成部134は、利用者が選択した各車両を同じ向き(及び同じ大きさ、同じ状態)で表示させるための表示データを生成する。また、例えば、生成部134は、利用者によって向きが指定された場合は、利用者により指定された特定の向きで各車両を表示させるための表示データを生成する。 The generation unit 134 generates display data for displaying a plurality of vehicles selected by the user with the same appearance. For example, the generation unit 134 generates display data for displaying each vehicle selected by the user in the same orientation (and the same size and state). Further, for example, when the orientation is specified by the user, the generation unit 134 generates display data for displaying each vehicle in the specific orientation specified by the user.

生成部134は、特定部132によって特定された車両の大きさと、実際の車両の大きさとに基づいて、車両を所定の縮尺で表示させるための表示データを生成してもよい。例えば、生成部134は、利用者が選択した各車両を同じ縮尺で表示させるための表示データを生成してもよい。 The generation unit 134 may generate display data for displaying the vehicle at a predetermined scale based on the size of the vehicle specified by the identification unit 132 and the actual size of the vehicle. For example, the generation unit 134 may generate display data for displaying each vehicle selected by the user at the same scale.

生成部134は、複数の車両を並べて回転させることが可能な表示データであって回転に応じて表示される車両の一部のうち複数の車両で異なる部分に、回転に応じてその一部が表示される間のみアノテーションが付与される表示データを生成してもよい。例えば、生成部134は、前方から見て車両Aと車両Bのタイヤの太さが異なる場合は、前方から見える間のみタイヤ部分にアノテーションが付与される表示データを生成してもよい。また、例えば、生成部134は、回転に応じて他の異なる部分(一部とは異なる他の部分のうち複数の対象物で異なる部分)が表示されると、その他の部分に新たにアノテーションが付与される表示データを生成してもよい。 The generation unit 134 generates display data that allows a plurality of vehicles to be rotated side by side, and which is displayed in accordance with the rotation of a portion of the vehicle that differs among the plurality of vehicles depending on the rotation. Display data may be generated that is annotated only while being displayed. For example, if the tires of vehicle A and vehicle B have different thicknesses when viewed from the front, the generation unit 134 may generate display data in which an annotation is added to the tire portion only while it is visible from the front. For example, when another different part (a part that is different for multiple objects among other parts different from a part) is displayed according to the rotation, the generation unit 134 adds a new annotation to the other part. Display data to be provided may also be generated.

(表示部135)
表示部135は、生成部134により生成された表示データを車両情報提供サーバ50へ送信することで、端末装置10の画面上に、各車両を同じ向きに並べて表示させる。なお、表示部135は、生成部134により生成された表示データを端末装置10へ送信することで、端末装置10の画面上に、各車両を同じ向きに並べて表示させてもよい。また、表示部135は、生成部134により生成された撮影画像と、取得部131により取得された撮影画像とを送信することで、端末装置10の画面上に、複数の状態の車両を表示させる。
(Display section 135)
The display unit 135 transmits the display data generated by the generation unit 134 to the vehicle information providing server 50, thereby displaying the respective vehicles side by side in the same direction on the screen of the terminal device 10. Note that the display unit 135 may display the vehicles side by side in the same direction on the screen of the terminal device 10 by transmitting the display data generated by the generating unit 134 to the terminal device 10. Furthermore, the display unit 135 displays vehicles in a plurality of states on the screen of the terminal device 10 by transmitting the photographed image generated by the generation unit 134 and the photographed image acquired by the acquisition unit 131. .

〔6.情報処理のフロー〕
次に、図13を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図13は、実施形態に係る情報処理システム1による情報処理の手順を示すフローチャートである。
[6. Information processing flow]
Next, the procedure of information processing by the information processing system 1 according to the embodiment will be described using FIG. 13. FIG. 13 is a flowchart showing the procedure of information processing by the information processing system 1 according to the embodiment.

図13に示すように、情報処理装置100は、様々な視点から車両を撮影した撮影画像(元データ)からなる多視点画像を車両ごとに取得する(ステップS201)。 As shown in FIG. 13, the information processing device 100 acquires, for each vehicle, a multi-view image consisting of captured images (original data) of the vehicle from various viewpoints (step S201).

情報処理装置100は、取得した多視点画像から、各撮影画像の車両の向きを特定する(ステップS202)。 The information processing device 100 identifies the orientation of the vehicle in each captured image from the acquired multi-view images (step S202).

情報処理装置100は、所定の基準角度から所定の範囲内となる車両の向きがあるか否かを判定する(ステップS203)。 The information processing device 100 determines whether the orientation of the vehicle is within a predetermined range from a predetermined reference angle (step S203).

情報処理装置100は、所定の基準角度から所定の範囲内となる車両の向きがあると判定した場合(ステップS203;YES)、その車両の向きの撮影画像に、所定の基準角度の撮影画像としてタグ付けを行う(ステップS204)。一方、情報処理装置100は、所定の基準角度から所定の範囲内となる車両の向きがないと判定した場合(ステップS203;NO)、多視点画像から、車両の向きが所定の基準角度となる撮影画像を生成する(ステップS205)。 If the information processing device 100 determines that there is an orientation of the vehicle that is within a predetermined range from a predetermined reference angle (step S203; YES), the information processing device 100 adds the captured image of the vehicle orientation to the captured image of the predetermined reference angle. Tagging is performed (step S204). On the other hand, if the information processing device 100 determines that there is no orientation of the vehicle within the predetermined range from the predetermined reference angle (step S203; NO), the information processing device 100 determines that the orientation of the vehicle is within the predetermined reference angle from the multi-view image. A photographed image is generated (step S205).

情報処理装置100は、利用者が選択した複数の車両を示す情報を取得して、同じ向きで表示させるための表示データを生成する(ステップS206)。 The information processing device 100 acquires information indicating a plurality of vehicles selected by the user, and generates display data for displaying the vehicles in the same orientation (step S206).

〔7.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、生成部134と、表示部135とを有する。取得部131は、異なる状態で対象物を撮影した複数の撮影画像を取得する。生成部134は、取得部131により取得された複数の撮影画像に基づいて、状態とは異なる状態の対象物の撮影画像を生成する。表示部135は、生成部134により生成された撮影画像と、取得部131により取得された撮影画像とを提供することで、対象物を複数の状態で表示させる。
[7. effect〕
As described above, the information processing apparatus 100 according to the embodiment includes the acquisition section 131, the generation section 134, and the display section 135. The acquisition unit 131 acquires a plurality of captured images of the object in different states. The generation unit 134 generates a photographed image of the object in a state different from the state based on the plurality of photographed images acquired by the acquisition unit 131. The display unit 135 displays the object in a plurality of states by providing the photographed image generated by the generation unit 134 and the photographed image acquired by the acquisition unit 131.

これにより、実施形態に係る情報処理装置100は、撮影していない対象物の状態を適切に表示させることができる。また、実施形態に係る情報処理装置100は、複数の対象物を並べて表示させる場合には、対象物の見栄えを揃えて表示させることができる。 Thereby, the information processing apparatus 100 according to the embodiment can appropriately display the state of the object that has not been photographed. Furthermore, when displaying a plurality of objects side by side, the information processing apparatus 100 according to the embodiment can display the objects with the same appearance.

また、生成部134は、ドアが閉まっている状態で対象物である車両を撮影した撮影画像と、ドアが開ききった状態で対象物である車両を撮影した撮影画像とに基づいて、ドアが閉まっている状態から開ききるまでの中間の状態の対象物である車両の撮影画像を生成する。 Further, the generation unit 134 generates a door based on a captured image of the target vehicle with the door closed and a captured image of the target vehicle with the door fully open. A photographed image of a vehicle, which is an object, in an intermediate state between a closed state and a fully opened state is generated.

これにより、実施形態に係る情報処理装置100は、ドアが閉まっている状態から開ききるまでの中間の車両の状態を適切に表示させることができる。また、実施形態に係る情報処理装置100は、複数の車両を並べて表示させる場合には、ドアが閉まっている状態から開ききるまでの中間の車両の状態で、見栄えを揃えて表示させることができる。 Thereby, the information processing apparatus 100 according to the embodiment can appropriately display the intermediate state of the vehicle from the state in which the door is closed to the state in which the door is fully opened. Further, when displaying a plurality of vehicles side by side, the information processing device 100 according to the embodiment can display the vehicles in an intermediate state from the state where the doors are closed to the state where the doors are fully opened so that the appearance is uniform. .

また、生成部134は、異なる視点から対象物を撮影した複数の撮影画像に基づいて、中間の視点から対象物を撮影した際に得られる撮影画像を生成する。 Furthermore, the generation unit 134 generates a photographed image obtained when the object is photographed from an intermediate viewpoint, based on a plurality of photographed images of the object photographed from different viewpoints.

これにより、実施形態に係る情報処理装置100は、中間の視点から対象物を撮影した際に得られる対象物の状態を適切に表示させることができる。また、実施形態に係る情報処理装置100は、複数の対象物を並べて表示させる場合には、中間の視点から対象物を撮影した際に得られる対象物の状態で、見栄えを揃えて表示させることができる。 Thereby, the information processing apparatus 100 according to the embodiment can appropriately display the state of the object obtained when the object is photographed from an intermediate viewpoint. Furthermore, when displaying a plurality of objects side by side, the information processing device 100 according to the embodiment can display the objects in a uniform appearance in a state obtained when the objects are photographed from an intermediate viewpoint. I can do it.

また、生成部134は、身長の低い人が対象物である車両を運転する場合の視界を示す撮影画像と、身長の高い人が対象物である車両を運転する場合の視界を示す撮影画像とに基づいて、提供の対象者である利用者が対象物である車両を運転する場合の視界を示す撮影画像を生成する。 The generation unit 134 also generates a photographed image showing the field of view when a short person drives the target vehicle, and a photographed image showing the field of view when a tall person drives the target vehicle. Based on this, a photographed image is generated that shows the field of view when the user, who is the target of the provision, drives the vehicle, which is the target object.

これにより、実施形態に係る情報処理装置100は、利用者の視界の高さで適切に表示させることができる。 Thereby, the information processing device 100 according to the embodiment can appropriately display the information at the height of the user's field of view.

また、視界は、フロントガラスの見え方を含む視界である。 Further, the field of view includes the view through the windshield.

これにより、実施形態に係る情報処理装置100は、利用者の視界の高さでのフロントガラスの見え方を適切に表示させることができる。 Thereby, the information processing device 100 according to the embodiment can appropriately display how the windshield looks at the height of the user's field of vision.

また、視界は、サイドミラーの見え方を含む視界である。 Further, the field of view includes the view of the side mirrors.

これにより、実施形態に係る情報処理装置100は、利用者の視界の高さでのサイドミラーの見え方を適切に表示させることができる。 Thereby, the information processing apparatus 100 according to the embodiment can appropriately display the appearance of the side mirror at the height of the user's field of vision.

〔8.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置100は、例えば、図14に示すような構成のコンピュータ1000によって実現される。図14は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[8. Hardware configuration]
Further, the information processing apparatus 100 according to the embodiments described above is realized, for example, by a computer 1000 having a configuration as shown in FIG. FIG. 14 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing device 100. Computer 1000 has CPU 1100, RAM 1200, ROM 1300, HDD 1400, communication interface (I/F) 1500, input/output interface (I/F) 1600, and media interface (I/F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 CPU 1100 operates based on a program stored in ROM 1300 or HDD 1400, and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, programs depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを取得してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 acquires data from other devices via a predetermined communication network and sends it to the CPU 1100, and transmits data generated by the CPU 1100 to the other device via the predetermined communication network.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as a display and a printer, and input devices such as a keyboard and mouse via an input/output interface 1600. CPU 1100 obtains data from an input device via input/output interface 1600. Further, CPU 1100 outputs the generated data to an output device via input/output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200. CPU 1100 loads this program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing device 100 according to the embodiment, the CPU 1100 of the computer 1000 realizes the functions of the control unit 130 by executing a program loaded onto the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via a predetermined communication network.

〔9.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[9. others〕
Furthermore, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of the process can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the embodiments described above can be combined as appropriate within the range that does not conflict with the processing contents.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Some of the embodiments of the present application have been described above in detail based on the drawings, but these are merely examples, and various modifications and variations may be made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure section of the invention. It is possible to carry out the invention in other forms with modifications.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

1 情報処理システム
10 端末装置
11 通信部
12 入力部
13 出力部
14 制御部
50 車両情報提供サーバ
51 通信部
52 記憶部
53 制御部
100 情報処理装置
110 通信部
120 記憶部
121 多視点画像記憶部
130 制御部
131 取得部
132 特定部
133 判定部
134 生成部
135 表示部
141 受信部
142 送信部
521 車両情報記憶部
522 利用者情報記憶部
531 受信部
532 送信部
N ネットワーク
1 Information processing system 10 Terminal device 11 Communication unit 12 Input unit 13 Output unit 14 Control unit 50 Vehicle information providing server 51 Communication unit 52 Storage unit 53 Control unit 100 Information processing device 110 Communication unit 120 Storage unit 121 Multi-view image storage unit 130 Control unit 131 Acquisition unit 132 Specification unit 133 Determination unit 134 Generation unit 135 Display unit 141 Receiving unit 142 Transmission unit 521 Vehicle information storage unit 522 User information storage unit 531 Receiving unit 532 Transmission unit N Network

Claims (7)

車両の運転席からの身長に応じた視界であって利用者が車両の運転席に座った際に当該利用者の身長で見える視界が異なる状態で当該車両の内部を含む運転席の周囲全方向を撮影した複数の撮影画像を取得する取得部と、
前記取得部により取得された複数の撮影画像に基づいて、前記状態とは前記視界が異なる状態の前記車両の内部を含む運転席の周囲全方向の撮影画像を生成する生成部と、
前記生成部により生成された撮影画像と、前記取得部により取得された撮影画像とを提供することで、前記車両の内部を含む運転席の周囲全方向を複数の状態で表示させる表示部と、
を有することを特徴とする情報処理装置。
The visibility from the driver's seat of a vehicle is based on the user's height, and when the user sits in the driver's seat of the vehicle, the visibility that can be seen depending on the user's height varies in all directions around the driver's seat, including the inside of the vehicle. an acquisition unit that acquires a plurality of captured images;
a generation unit that generates a captured image of all directions around the driver's seat including the interior of the vehicle in a state where the field of view is different from the state, based on the plurality of captured images acquired by the acquisition unit;
a display unit that displays all directions around the driver's seat including the interior of the vehicle in a plurality of states by providing the captured image generated by the generation unit and the captured image acquired by the acquisition unit;
An information processing device comprising:
前記生成部は、
前記車両の運転席からの身長に応じた視界が異なる状態で前記車両の内部を含む運転席の周囲全方向を撮影した複数の前記撮影画像に基づいて、前記車両の運転席からの身長に応じた視界が中間の状態で前記車両の内部を含む運転席の周囲全方向を撮影した際に得られる撮影画像を生成する
ことを特徴とする請求項1に記載の情報処理装置。
The generation unit is
Based on the plurality of captured images taken in all directions around the driver 's seat including the inside of the vehicle with different visibility depending on the height from the driver's seat of the vehicle , The information processing apparatus according to claim 1, wherein the information processing apparatus generates a photographed image obtained by photographing all directions around the driver's seat including the interior of the vehicle with an intermediate field of view.
前記生成部は、
身長の低い利用者が前記車両を運転する場合の前記車両の内部を含む運転席の周囲全方向を撮影した撮影画像と、身長の高い利用者が前記車両を運転する場合の前記車両の内部を含む運転席の周囲全方向を撮影した撮影画像との前記異なる状態で撮影した複数の撮影画像に基づいて、前記提供の対象者が記車両を運転する場合の前記車両の内部を含む運転席の周囲全方向の撮影画像を生成する
ことを特徴とする請求項1に記載の情報処理装置。
The generation unit is
A photographed image taken of all directions around the driver's seat including the inside of the vehicle when a short user is driving the vehicle , and a photographed image when a tall user is driving the vehicle . Based on the plurality of photographed images taken in different conditions from the photographed image taken in all directions around the driver's seat including the interior of the vehicle , the condition of the vehicle when the person to whom the provision is provided is driving the vehicle. The information processing device according to claim 1, wherein the information processing device generates photographed images in all directions around the driver's seat including the inside .
前記視界は、フロントガラスの見え方を含む視界である
ことを特徴とする請求項1に記載の情報処理装置。
The information processing device according to claim 1, wherein the field of view includes a view of a windshield.
前記視界は、サイドミラーの見え方を含む視界である
ことを特徴とする請求項1に記載の情報処理装置。
The information processing device according to claim 1, wherein the field of view includes a view of a side mirror.
コンピュータが実行する情報処理方法であって、
車両の運転席からの身長に応じた視界であって利用者が車両の運転席に座った際に当該利用者の身長で見える視界が異なる状態で当該車両の内部を含む運転席の周囲全方向を撮影した複数の撮影画像を取得する取得工程と、
前記取得工程により取得された複数の撮影画像に基づいて、前記状態とは前記視界が異なる状態の前記車両の内部を含む運転席の周囲全方向の撮影画像を生成する生成工程と、
前記生成工程により生成された撮影画像と、前記取得工程により取得された撮影画像とを提供することで、前記車両の内部を含む運転席の周囲全方向を複数の状態で表示させる表示工程と、
を含むことを特徴とする情報処理方法。
An information processing method performed by a computer, the method comprising:
The visibility from the driver's seat of a vehicle is based on the user's height, and when the user sits in the driver's seat of the vehicle, the visibility that can be seen depending on the user's height varies in all directions around the driver's seat, including the inside of the vehicle. an acquisition step of acquiring a plurality of captured images;
a generation step of generating a photographed image of all directions around the driver's seat including the interior of the vehicle in a state where the field of view is different from the state, based on the plurality of photographed images acquired in the acquisition step;
a display step of displaying all directions around the driver's seat including the interior of the vehicle in a plurality of states by providing the photographed image generated in the generation step and the photographed image acquired in the acquisition step;
An information processing method characterized by comprising:
車両の運転席からの身長に応じた視界であって利用者が車両の運転席に座った際に当該利用者の身長で見える視界が異なる状態で当該車両の内部を含む運転席の周囲全方向を撮影した複数の撮影画像を取得する取得手順と、
前記取得手順により取得された複数の撮影画像に基づいて、前記状態とは前記視界が異なる状態の前記車両の内部を含む運転席の周囲全方向の撮影画像を生成する生成手順と、
前記生成手順により生成された撮影画像と、前記取得手順により取得された撮影画像とを提供することで、前記車両の内部を含む運転席の周囲全方向を複数の状態で表示させる表示手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
The visibility from the driver's seat of a vehicle is based on the user's height, and when the user sits in the driver's seat of the vehicle, the visibility that can be seen depending on the user's height varies in all directions around the driver's seat, including the inside of the vehicle. an acquisition procedure for acquiring multiple captured images;
a generation procedure of generating a captured image of all directions around the driver's seat including the interior of the vehicle in a state where the field of view is different from the state, based on the plurality of captured images acquired by the acquisition procedure;
a display procedure for displaying all directions around the driver's seat including the interior of the vehicle in a plurality of states by providing the photographed image generated by the generation procedure and the photographed image acquired by the acquisition procedure;
An information processing program that causes a computer to execute.
JP2022168616A 2022-10-20 2022-10-20 Information processing device, information processing method, and information processing program Active JP7388623B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022168616A JP7388623B1 (en) 2022-10-20 2022-10-20 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022168616A JP7388623B1 (en) 2022-10-20 2022-10-20 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP7388623B1 true JP7388623B1 (en) 2023-11-29
JP2024060988A JP2024060988A (en) 2024-05-07

Family

ID=88917851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022168616A Active JP7388623B1 (en) 2022-10-20 2022-10-20 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7388623B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280156A (en) 2003-03-12 2004-10-07 Mazda Motor Corp Image processing method, simulation device, program, and recording medium
JP2007288282A (en) 2006-04-12 2007-11-01 Toyota Motor Corp Vehicle periphery monitoring device
JP2017062295A (en) 2015-09-24 2017-03-30 日本放送協会 Stereoscopic image display device
JP2019114147A (en) 2017-12-25 2019-07-11 キヤノン株式会社 Image processing apparatus, control method for image processing apparatus, and program
US20200005372A1 (en) 2013-01-22 2020-01-02 Carvana, LLC Systems and Methods for Generating Virtual Item Displays

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280156A (en) 2003-03-12 2004-10-07 Mazda Motor Corp Image processing method, simulation device, program, and recording medium
JP2007288282A (en) 2006-04-12 2007-11-01 Toyota Motor Corp Vehicle periphery monitoring device
US20200005372A1 (en) 2013-01-22 2020-01-02 Carvana, LLC Systems and Methods for Generating Virtual Item Displays
JP2017062295A (en) 2015-09-24 2017-03-30 日本放送協会 Stereoscopic image display device
JP2019114147A (en) 2017-12-25 2019-07-11 キヤノン株式会社 Image processing apparatus, control method for image processing apparatus, and program

Also Published As

Publication number Publication date
JP2024060988A (en) 2024-05-07

Similar Documents

Publication Publication Date Title
US11010949B2 (en) Augmented reality z-stack prioritization
AU2017232108B9 (en) Object based contextual menu controls
US10515261B2 (en) System and methods for sending digital images
US11282133B2 (en) Augmented reality product comparison
US20150365480A1 (en) Methods and systems for communicating with electronic devices
CN103548051B (en) Descriptor and image based item model
KR102320749B1 (en) System and method for providing shopping inforation via influencers
US10521884B2 (en) Method for promoting and documenting customer engagement using an online photo-sharing platform
US20130311892A1 (en) Digital business card management system for mobile devices
US20170185279A1 (en) Information processing apparatus, information processing method, and program
US20110191203A1 (en) Automotive sales resource device and method of using the same
JP7388623B1 (en) Information processing device, information processing method, and information processing program
JP7388622B1 (en) Information processing device, information processing method, and information processing program
JP7388771B1 (en) Information processing device, information processing method, and information processing program
US20160210108A1 (en) View sharing and dual permission remote browsing methods and systems
JP6168434B1 (en) Information provision system
CN113407580B (en) Network and speed enhancement for distributing unified images via a computer network
CN112395109A (en) Clipboard content processing method and device
JP7407882B1 (en) Information processing device, information processing method, and information processing program
JP7417690B2 (en) Programs, information processing methods, terminals
US11494074B1 (en) Systems for accessing additional information from an interface
US20210082000A1 (en) System and method for enhancing media asset files for web platforms
KR101846093B1 (en) Method and apparatus for providing url link information
US20180052845A1 (en) Method for Promoting and Documenting Customer Engagement Using an Online Photo-sharing Platform
KR20230142106A (en) Intermediary device for mediating the sale of goods, mediation method and mediation system thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221219

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231102

R150 Certificate of patent or registration of utility model

Ref document number: 7388623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150