DE102019125612A1 - Method for the computer-implemented simulation of an optical sensor in a virtual environment - Google Patents
Method for the computer-implemented simulation of an optical sensor in a virtual environment Download PDFInfo
- Publication number
- DE102019125612A1 DE102019125612A1 DE102019125612.7A DE102019125612A DE102019125612A1 DE 102019125612 A1 DE102019125612 A1 DE 102019125612A1 DE 102019125612 A DE102019125612 A DE 102019125612A DE 102019125612 A1 DE102019125612 A1 DE 102019125612A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- cutting plane
- partial
- limit value
- frustum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000004088 simulation Methods 0.000 title claims abstract description 18
- 239000000872 buffer Substances 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000009877 rendering Methods 0.000 description 26
- 238000012360 testing method Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241000310247 Amyna axis Species 0.000 description 1
- 206010028813 Nausea Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008693 nausea Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000021317 sensory perception Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/30—Clipping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Optics & Photonics (AREA)
- Computing Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur computerimplementierten Simulation eines optischen Sensors (6) in einer virtuellen Umgebung, wobei der optische Sensor (6) Tiefeninformationen bereitstellt, mit den Schritten:
(S100) Einlesen eines Wertes (W) indikativ für eine Anzahl einer Mehrzahl von Teil-Frustums (F1, F2, F3) eines Frustums (F) des Sensors (6) mit je einer nahen Schnittebene (NS1, NS2, NS3) und einer fernen Schnittebene (FS1, FS2, FS3),
(S200) Bilden der Teil-Frustums (F1, F2, F3) gemäß dem Wert (W) durch Anordnungen der Teil-Frustum (F1, F2, F3) hintereinander entlang einer optischen Achse (A) des optischen Sensors (6), und
(S1300) Füllen eines Z-Puffers (8) mit Tiefendaten (TD), die auf Basis der Anwendung zumindest eines Teil-Frustums (F1, F2, F3) gewonnen wurden.
The invention relates to a method for the computer-implemented simulation of an optical sensor (6) in a virtual environment, the optical sensor (6) providing depth information, with the following steps:
(S100) Reading in a value (W) indicative of a number of a plurality of partial frustums (F1, F2, F3) of a frustum (F) of the sensor (6) each with a near cutting plane (NS1, NS2, NS3) and one far cutting plane (FS1, FS2, FS3),
(S200) Forming the partial frustums (F1, F2, F3) according to the value (W) by arranging the partial frustums (F1, F2, F3) one behind the other along an optical axis (A) of the optical sensor (6), and
(S1300) Filling a Z-buffer (8) with depth data (TD) which have been obtained on the basis of the application of at least one partial frustum (F1, F2, F3).
Description
Die Erfindung betrifft ein Verfahren zur computerimplementierten Simulation eines optischen Sensors in einer virtuellen Umgebung, wobei der optische Sensor Tiefeninformationen bereitstellt. Ferner betrifft die Erfindung ein Computerprogrammprodukt und ein System zur computerimplementierten Simulation eines derartigen LIDAR-Sensors.The invention relates to a method for the computer-implemented simulation of an optical sensor in a virtual environment, the optical sensor providing depth information. The invention also relates to a computer program product and a system for computer-implemented simulation of such a LIDAR sensor.
Kraftfahrzeuge können zum sogenannten autonomen Fahren ausgebildet sein. Ein autonom fahrendes Kraftfahrzeug ist ein selbstfahrendes Kraftfahrzeug, das ohne Einfluss eines menschlichen Fahrers fahren, steuern und einparken kann (hochautomatisiertes bzw. autonomes Fahren). Im Falle, dass keinerlei manuelles Steuern seitens des Fahrers nötig ist, wird auch der Begriff Roboterauto verwendet. Dann kann der Fahrersitz leer bleiben; eventuell sind Lenkrad, Brems- und Fahrpedal nicht vorhanden.Motor vehicles can be designed for so-called autonomous driving. An autonomously driving motor vehicle is a self-driving motor vehicle that can drive, control and park without the influence of a human driver (highly automated or autonomous driving). In the event that no manual control is required on the part of the driver, the term robot car is also used. Then the driver's seat can remain empty; possibly the steering wheel, brake and accelerator pedals are not available.
Derartige autonome Kraftfahrzeuge können mithilfe verschiedener Sensoren ihre Umgebung erfassen und aus den gewonnenen Informationen ihre eigene Position und die der anderen Verkehrsteilnehmer bestimmen, in Zusammenarbeit mit der Navigationssoftware ein Fahrziel ansteuern und Kollisionen auf dem Weg dorthin vermeiden.Autonomous vehicles of this type can use various sensors to detect their surroundings and use the information obtained to determine their own position and that of other road users, navigate to a destination in cooperation with the navigation software and avoid collisions on the way there.
Ein derartiger optischer Sensor kann ein sogenannter LIDAR-Sensor sein. LIDAR (Abkürzung für englisch light detection and ranging), bezeichnet dabei eine dem Radar verwandte Methode zur optischen Abstands- und Geschwindigkeitsmessung sowie zur Fernmessung. Statt elektromagnetischer Wellen wie beim RADAR werden Laserstrahlen verwendet.Such an optical sensor can be a so-called LIDAR sensor. LIDAR (abbreviation for light detection and ranging), describes a radar-related method for optical distance and speed measurement as well as for remote measurement. Instead of electromagnetic waves as with RADAR, laser beams are used.
LIDAR-Sensoren bieten den Vorteil, dass sie einen 360-Grad-Bereich um das Kraftfahrzeug herum mit hoher Auflösung und Geschwindigkeit ab-tasten können. Typischerweise verwendet ein LIDAR-Sensor eine Anordnung von laserbasierten Sensoren (z.B. 64), die sich mit hoher Geschwindigkeit (mehrere 100 n/min) drehen. Der LIDAR-Sensor ist dann in der Lage, Hindernisse zu erfassen, die von einem Laserstrahl getroffen werden. So ist es möglich, Koordinaten jedes Treffers bzw. von jedem Objekt im Umfeld des Kraftfahrzeugs zu bestimmen. Durch die Auswertung dieser LIDAR-Daten ist es auch möglich, Informationen über die Geländetopologie im Bereich um das Kraftfahrzeug herum zu gewinnen.LIDAR sensors offer the advantage that they can scan a 360-degree area around the motor vehicle with high resolution and speed. Typically, a LIDAR sensor uses an array of laser-based sensors (e.g. 64) that rotate at high speed (several 100 n / min). The LIDAR sensor is then able to detect obstacles hit by a laser beam. It is thus possible to determine the coordinates of every hit or of every object in the vicinity of the motor vehicle. By evaluating this LIDAR data, it is also possible to obtain information about the topology of the terrain in the area around the motor vehicle.
Ferner kann ein derartiger optischer Sensor eine 3D-Kamera bzw. Stereokamera sein. 3D-Kameras sind Kamerasysteme, die die bildliche Darstellung von Entfernungen einer ganzen Szene erlauben. Stereokameras z.B. besitzen in der Regel zwei nebeneinander angebrachte Objekte und ermöglichen beim Auslösen die gleichzeitige Aufnahme der für 3D-Bilder erforderlichen beiden stereoskopischen Halbbilder.Furthermore, such an optical sensor can be a 3D camera or stereo camera. 3D cameras are camera systems that allow the visual representation of distances from an entire scene. Stereo cameras, for example, usually have two objects attached next to each other and, when triggered, enable the two stereoscopic half-images required for 3D images to be recorded at the same time.
Um ein derartiges automatisiertes Fahren zu testen werden die Kraftfahrzeuge in der realen Welt getestet. Dies ist jedoch ein kostspieliger Vorgang und die Unfallgefahr ist hoch. Um Unfälle zu vermeiden und gleichzeitig Kosten zu senken, sind Tests in den computergenerierten virtuellen Umgebungen, wie beispielsweise Tests in virtuellen Städten, notwendig. Die VR-Technologie (Virtual-Reality-Technologie) zusammen mit einer virtuellen Umgebung eröffnet viele Möglichkeiten. Der Hauptvorteil der VR-Technologie besteht darin, dass sie einem Nutzer, wie z.B. einem Ingenieur, erlaubt, Teil der Tests zu sein, mit dem Testszenario oder den Konfigurationsparametern zu interagieren.In order to test such automated driving, the motor vehicles are tested in the real world. However, this is an expensive process and the risk of accidents is high. In order to avoid accidents and at the same time reduce costs, tests in the computer-generated virtual environments, such as tests in virtual cities, are necessary. The VR technology (Virtual Reality Technology) together with a virtual environment opens up many possibilities. The main advantage of VR technology is that it allows a user, such as an engineer, to be part of the tests, to interact with the test scenario or the configuration parameters.
Aus der
Es besteht Bedarf daran, Wege aufzuzeigen, wie eine computerimplementierte Simulation eines optischen Sensors in einer virtuellen Umgebung, der Tiefeninformationen bereitstellt, verbessert werden kann.There is a need to show ways in which a computer-implemented simulation of an optical sensor in a virtual environment that provides depth information can be improved.
Die Aufgabe der Erfindung wird gelöst durch ein Verfahren zur computerimplementierten Simulation eines optischen Sensors in einer virtuellen Umgebung, wobei der optische Sensor Tiefeninformationen bereitstellt, mit den Schritten:
- Einlesen eines Wertes indikativ für eine Anzahl einer Mehrzahl von Teil-Frustums eines Frustums des Sensors mit je einer nahen Schnittebene und einer fernen Schnittebene,
- Bilden der Teil-Frustums gemäß dem Wert durch Anordnungen der Teil-Frustum hintereinander entlang einer optischen Achse des optischen Sensors, und
- Füllen eines Z-Puffers mit Tiefendaten, die auf Basis der Anwendung zumindest eines Teil-Frustums gewonnen wurden.
- Reading in a value indicative of a number of a plurality of partial frustums of a frustum of the sensor, each with a near cutting plane and a distant cutting plane,
- Forming the partial frustums according to the value by arranging the partial frustums one behind the other along an optical axis of the optical sensor, and
- Filling a Z-buffer with depth data that was obtained on the basis of the application of at least a partial frustum.
Mit anderen Worten, das Frustum des Sensors, der ein LIDAR-Sensor oder eine 3D-Kamera sein kann, wird unterteilt in eine vorbestimmte Mehrzahl von Teil-Frustums, wobei jedem Teil-Frustum ein (virtueller) Bereichssensor zum Überwachen des jeweiligen Teil-Frustum zugeordnet wird. Es werden nur Objekte in dem jeweiligen Teil-Frustum zwischen der jeweiligen nahen Schnittebene und fernen Schnittebene erfasst, außerhalb des Teil-Frustum liegende Objekte bleiben unberücksichtigt. Durch das Vorsehen einer Mehrzahl von Teil-Frustums mit je einer nahen Schnittebene und einer fernen Schnittebene kann der Abstand zwischen den jeweiligen nahen und fernen Schnittebenen minimiert werden was die Genauigkeit der Tiefendaten erhöht. Die so gewonnenen Tiefendaten können dann zum Rendern einer Szene in der virtuellen Umgebung genutzt werden. So kann eine computerimplementierte Simulation eines optischen Sensors in einer virtuellen Umgebung, der Tiefeninformationen bereitstellt, verbessert werden.In other words, the frustum of the sensor, which can be a LIDAR sensor or a 3D camera, is divided into a predetermined plurality of partial frustums, with each partial frustum having a (virtual) area sensor for monitoring the respective partial frustum is assigned. Only objects in the respective partial frustum between the respective near cutting plane and the far cutting plane are recorded; objects lying outside the partial frustum are not taken into account. By providing a plurality of partial frustums, each with a near cutting plane and a distant one Cutting plane, the distance between the respective near and far cutting planes can be minimized, which increases the accuracy of the depth data. The depth data obtained in this way can then be used to render a scene in the virtual environment. In this way, a computer-implemented simulation of an optical sensor in a virtual environment that provides depth information can be improved.
Gemäß einer Ausführungsform werden die weiteren SchritteAccording to one embodiment, the further steps
Erfassen, ob sich ein Objekt innerhalb eines Teil-Frustums befindet, und auf ein Erfassen eines Objektes innerhalb des Teil-Frustums hin die Schritte:
- Aussenden einer vorbestimmten Anzahl von Strahlen von dem Sensor zu einem Objekt,
- Bestimmen des Strahls der vorbestimmten Anzahl von Strahlen, der das Objekt trifft und die geringste Distanz zu dem Sensor aufweist,
- Bestimmen einer Position einer nahen Schnittebene unter Auswertung des Strahls mit der geringsten Distanz zu dem Sensor,
- Bestimmen eines weiteren Strahls der vorbestimmten Anzahl von Strahlen, der das Objekt trifft und die größte Distanz zu dem Sensor aufweist, und
- Bestimmen einer Position einer fernen Schnittebene unter Auswertung des Strahls mit der größten Distanz zu dem Sensor ausgeführt.
- Sending out a predetermined number of beams from the sensor to an object,
- Determining the beam of the predetermined number of beams that hits the object and is the closest to the sensor,
- Determining a position of a near cutting plane while evaluating the beam with the smallest distance to the sensor,
- Determining a further beam of the predetermined number of beams which strikes the object and is the greatest distance from the sensor, and
- Determination of a position of a distant cutting plane carried out by evaluating the beam with the greatest distance to the sensor.
Mit anderen Worten, es wird die jeweilige Lage der nahen Schnittebene und einer fernen Schnittebene entlang der optischen Achse des Sensors angepasst, wenn in dem Teil-Frustum, das von der jeweiligen nahen Schnittebene und einer fernen Schnittebene begrenzt wird, ein Objekt erfasst wurde. Es werden dann sowohl die nahe Schnittebene als auch die ferne Schnittebene durch Verlagern entlang der optischen Achse des Sensors angepasst, und zwar in Bezug zu der Erstreckung oder Ausdehnung des Objektes in Bezug zu der optischen Achse des Sensors. Die Erstreckung oder Ausdehnung des Objektes wird bestimmt, indem eine Mehrzahl simulierter Strahlen, wie z.B. Laserstrahlen, vom Sensor ausgesendet wird und die Positionen des Auftreffens auf das Objekt bestimmt wird. So kann Nichtlinearitäten des z-Bufferings von Tiefeninformationen entgegengewirkt werden, sodass die Genauigkeit der Tiefeninformationen nochmals gesteigert ist.In other words, the respective position of the near cutting plane and a far cutting plane along the optical axis of the sensor is adapted if an object has been detected in the partial frustum that is delimited by the respective near cutting plane and a far cutting plane. Both the near cutting plane and the far cutting plane are then adjusted by shifting along the optical axis of the sensor, specifically in relation to the extension or expansion of the object in relation to the optical axis of the sensor. The extent of the object is determined by emitting a plurality of simulated beams, such as laser beams, from the sensor and determining the positions of impact on the object. In this way, non-linearities of the z-buffering of depth information can be counteracted, so that the accuracy of the depth information is further increased.
Gemäß einer weiteren Ausführungsform werden die weiteren Schritte
- Vergleichen der geringsten Distanz mit einem vorbestimmten Nah-Grenzwert, und
- Bestimmen einer Position einer nahen Schnittebene unter Auswertung des Nah-Grenzwertes, wenn die geringste Distanz kleiner als der Nah-Grenzwert ist ausgeführt.
- Comparing the smallest distance with a predetermined near limit value, and
- Determining a position of a near cutting plane while evaluating the near limit value when the smallest distance is smaller than the near limit value is carried out.
So kann ein Mindestabstand, unterhalb dem der Sensor kein Objekt zu erfassen vermag, besonders einfach berücksichtigt werden. Ferner kann der Fall berücksichtig werden, dass sich ein Objekt mit seiner Erstreckung oder Ausdehnung in Bezug zu der optischen Achse des Sensors in einen Bereich unterhalb des Mindestabstandes erstreckt, d.h., das Objekt ist teilweise zu nah an dem Sensor.In this way, a minimum distance below which the sensor is unable to detect an object can be taken into account in a particularly simple manner. Furthermore, the case can be taken into account that an object extends with its extension or extent in relation to the optical axis of the sensor in an area below the minimum distance, i.e. the object is partly too close to the sensor.
Gemäß einer weiteren Ausführungsform werden die weiteren Schritte
- Vergleichen der größten Distanz mit einem vorbestimmten Fern-Grenzwert, und
- Bestimmen einer Position einer fernen Schnittebene unter Auswertung des Fern-Grenzwertes, wenn die größte Distanz größer als der Fern-Grenzwert ist ausgeführt.
- Comparing the greatest distance to a predetermined far limit, and
- Determining a position of a distant cutting plane while evaluating the distant limit value when the greatest distance is greater than the distant limit value is carried out.
So kann in analoger Art und Weise ein Maximalabstand, oberhalb dem der Sensor kein Objekt zu erfassen vermag, besonders einfach berücksichtigt werden. Ferner kann der Fall berücksichtig werden, dass sich ein Objekt mit seiner Erstreckung oder Ausdehnung in Bezug zu der optischen Achse des Sensors in einen Bereich oberhalb des Maximalabstandes erstreckt, d.h., das Objekt ist teilweise zu weit von dem Sensor entfernt.A maximum distance above which the sensor is not able to detect an object can thus be taken into account in a particularly simple manner in an analogous manner. Furthermore, the case can be taken into account that an object extends with its extension or extent in relation to the optical axis of the sensor in an area above the maximum distance, i.e. the object is partly too far away from the sensor.
Ferner gehören zur Erfindung ein Computerprogrammprodukt und ein System zur computerimplementierten Simulation eines derartigen Sensors.The invention also includes a computer program product and a system for computer-implemented simulation of such a sensor.
Es wird nun die Erfindung anhand einer Zeichnung erläutert. Es zeigen:
-
1 in schematischer Darstellung Komponenten eines Systems zur computerimplementierten Simulation eines optischen Sensors in einer virtuellen Umgebung. -
2 in schematischer Darstellung weitere Details einer computerimplementierten Simulation eines optischen Sensors in einer virtuellen Umgebung. -
3 in schematischer Darstellung einen Verfahrensablauf zum Betrieb des in1 gezeigten Systems.
-
1 a schematic representation of components of a system for the computer-implemented simulation of an optical sensor in a virtual environment. -
2 a schematic representation of further details of a computer-implemented simulation of an optical sensor in a virtual environment. -
3rd a schematic representation of a process sequence for operating the in1 shown system.
Es wird zunächst auf
Dargestellt ist ein System
Als virtuelle Realität, kurz VR, wird die Darstellung und gleichzeitige Wahrnehmung der Wirklichkeit und ihrer physikalischen Eigenschaften in einer in Echtzeit computergenerierten, interaktiven virtuellen Umgebung bezeichnet.Virtual reality, or VR for short, is the representation and simultaneous perception of reality and its physical properties in a real-time, computer-generated, interactive virtual environment.
Um ein Gefühl der Immersion zu erzeugen werden zur Darstellung der virtuellen Umgebung spezielle Ausgabegeräte (nicht dargestellt), wie z.B. Virtual-Reality-Headsets, verwendet. Um einen räumlichen Eindruck zu vermitteln, werden zwei Bilder aus unterschiedlichen Perspektiven erzeugt und dargestellt (Stereoprojektion).In order to create a feeling of immersion, special output devices (not shown), such as virtual reality headsets, are used to represent the virtual environment. In order to convey a spatial impression, two images are generated and displayed from different perspectives (stereo projection).
Für die Interaktion mit der virtuellen Welt werden spezielle Eingabegeräte (nicht dargestellt) benötigt, wie z.B. 3D-Maus, Datenhandschuh oder Flystick. Der Flystick wird zur Navigation mit einem optischen Trackingsystem genutzt, wobei Infrarot-Kameras durch Erfassung von Markern am Flystick permanent die Position im Raum an das System
Einige Eingabegeräte vermitteln dem Nutzer eine Kraftrückkopplung auf die Hände oder andere Körperteile (Force Feedback), sodass der Nutzer sich durch die Haptik und Sensorik als weitere Sinnesempfindung in der virtuellen Umgebung orientieren kann.Some input devices provide the user with force feedback on the hands or other parts of the body (force feedback) so that the user can orientate himself through the haptics and sensors as a further sensory perception in the virtual environment.
Für die Erzeugung einer virtuellen Umgebung ist ferner eine speziell für diesen Zweck entwickelte Software erforderlich. Die Software muss komplexe dreidimensionale Welten in Echtzeit, d.h. mit mindestens 25 Bildern pro Sekunde, in Stereo getrennt für das linke und das rechte Auge des Nutzers berechnen können. Dieser Wert variiert je nach Anwendung - eine Fahrsimulation beispielsweise erfordert mindestens 60 Bilder pro Sekunde, um Übelkeit (Simulatorkrankheit) zu vermeiden.In addition, software specially developed for this purpose is required to create a virtual environment. The software must be able to calculate complex three-dimensional worlds in real time, i.e. with at least 25 frames per second, separately in stereo for the left and right eyes of the user. This value varies depending on the application - a driving simulation, for example, requires at least 60 images per second to avoid nausea (simulator sickness).
Der optische Sensor
Von den weiteren Komponenten des Systems
Das System
Die Rendering Engine
Die Rendering Engine
Unter Z-Buffering (auch Depth Buffering oder Tiefenspeicher-Verfahren) wird dabei ein Verfahren der Computergrafik zur Verdeckungsberechnung verstanden, also um die von einem Nutzer in der virtuellen Umgebung aus sichtbaren dreidimensionalen Flächen in der Computergrafik zu ermitteln. Durch Tiefeninformationen in Form von Tiefendaten
Dieser Ansatz ist bekanntlich schnell im Vergleich zu anderen Methoden, wie z.B. dem Raytracing.This approach is known to be fast compared to other methods, such as ray tracing.
Es wird nun zusätzlich auf
Dargestellt ist ein zu simulierender optischer Sensor
Das Frustum
Ausgehend von dem Sensor
Das Frustum
Die im vorliegenden Ausführungsbeispiel die in Richtung der Achse
Um im Sichtbereich des Sensors
Im vorliegenden Ausführungsbeispiel ist die Rendering Engine
Dabei weist jedes Teil-Frustum
Die Rendering Engine
Jedem Teil-Frustum
Die Rendering Engine
Des Weiteren ist die Rendering Engine
Analog bestimmt die Rendering Engine
Mit anderen Worten, der Teilabstand
Ferner ist die Rendering Engine
Um in analoger Art und Weise einen Maximalabstand, oberhalb dem der Bereichssensor
Schließlich füllt dann die Rendering Engine 4den Z-Puffer
Es wird nun zusätzlich auf
In einem ersten Schritt
In einem weiteren Schritt
In einem weiteren Schritt
Wenn dies der Fall ist sendet in einem weiteren Schritt
In einem weiteren Schritt
In einem weiteren Schritt
Wenn die geringste Distanz
Wenn hingegen die geringste Distanz
In einem weiteren Schritt
In einem weiteren Schritt
Wenn die größte Distanz
Wenn hingegen die größte Distanz
Schließlich füllt in einem weiteren Schritt
Abweichend vom vorliegenden Ausführungsbeispiel kann die Reihenfolge der Schritte auch eine andere sein. Ferner können mehrere Schritte auch zeitgleich bzw. simultan ausgeführt werden. Des Weiteren können auch abweichend vom vorliegenden Ausführungsbeispiel einzelne Schritte übersprungen oder ausgelassen werden.In a departure from the present exemplary embodiment, the sequence of the steps can also be different. Furthermore, several steps can also be carried out at the same time or simultaneously. Furthermore, different from the present exemplary embodiment, individual steps can also be skipped or omitted.
So kann eine computerimplementierte Simulation eines optischen Sensors
BezugszeichenlisteList of reference symbols
- 22
- Systemsystem
- 44th
- Rendering EngineRendering engine
- 66th
- Sensorsensor
- 6a6a
- BereichssensorArea sensor
- 6b6b
- BereichssensorArea sensor
- 6c6c
- BereichssensorArea sensor
- 88th
- z-Puffer z buffer
- AA.
- Achseaxis
- D1D1
- geringste Distanzsmallest distance
- D2D2
- größte Distanzgreatest distance
- FF.
- FrustumFrustration
- F1F1
- Teil-FrustumPartial frustum
- F2F2
- Teil-FrustumPartial frustum
- F3F3
- Teil-FrustumPartial frustum
- FGFG
- Fern-GrenzwertRemote limit value
- FS1FS1
- ferne Schnittebenedistant cutting plane
- FS2FS2
- ferne Schnittebenedistant cutting plane
- FS3FS3
- ferne Schnittebenedistant cutting plane
- NGNG
- Nah-GrenzwertNS1 nahe SchnittebeneNear limit value NS1 near cutting plane
- NS2NS2
- nahe Schnittebenenear cutting plane
- NS3NS3
- nahe Schnittebenenear cutting plane
- OO
- Objektobject
- STST
- StrahlenRays
- TD-TD-
- TiefendatenDepth data
- WW.
- Wertvalue
- xx
- GesamtabstandTotal distance
- x1x1
- TeilabstandPartial spacing
- x2x2
- TeilabstandPartial spacing
- x3x3
- Teilabstand Partial spacing
- S100S100
- Schrittstep
- S200S200
- Schrittstep
- S300S300
- Schrittstep
- S400S400
- Schrittstep
- S500S500
- Schrittstep
- S600S600
- Schrittstep
- S700S700
- Schrittstep
- S800S800
- Schrittstep
- S900S900
- Schrittstep
- S1000S1000
- Schrittstep
- S1100S1100
- Schrittstep
- S1200S1200
- Schrittstep
- S1300S1300
- Schrittstep
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- US 8665260 B2 [0008]US 8665260 B2 [0008]
- US 7525542 B2 [0008]US 7525542 B2 [0008]
- CN 104933758 A [0008]CN 104933758 A [0008]
Claims (9)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019125612.7A DE102019125612A1 (en) | 2019-09-24 | 2019-09-24 | Method for the computer-implemented simulation of an optical sensor in a virtual environment |
CN202010977169.8A CN112634342A (en) | 2019-09-24 | 2020-09-17 | Method for computer-implemented simulation of optical sensors in a virtual environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019125612.7A DE102019125612A1 (en) | 2019-09-24 | 2019-09-24 | Method for the computer-implemented simulation of an optical sensor in a virtual environment |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019125612A1 true DE102019125612A1 (en) | 2021-03-25 |
Family
ID=74846450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019125612.7A Pending DE102019125612A1 (en) | 2019-09-24 | 2019-09-24 | Method for the computer-implemented simulation of an optical sensor in a virtual environment |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112634342A (en) |
DE (1) | DE102019125612A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113171173B (en) * | 2021-04-28 | 2024-09-17 | 上海电气集团股份有限公司 | VR preoperative planning method and system for surgical robot |
-
2019
- 2019-09-24 DE DE102019125612.7A patent/DE102019125612A1/en active Pending
-
2020
- 2020-09-17 CN CN202010977169.8A patent/CN112634342A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN112634342A (en) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017107396B4 (en) | Test procedure and test device for driver assistance systems | |
DE102021101270A1 (en) | TRAINING A NEURAL NETWORK OF A VEHICLE | |
DE112016001150T5 (en) | ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES | |
DE102014006732A1 (en) | Image overlay of virtual objects in a camera image | |
DE102019215903A1 (en) | Method and device for generating training data for a recognition model for recognizing objects in sensor data of a sensor, in particular of a vehicle, method for training and method for actuation | |
DE102019125612A1 (en) | Method for the computer-implemented simulation of an optical sensor in a virtual environment | |
DE102019125075A1 (en) | Method for the computer-implemented simulation of a LIDAR sensor in a virtual environment | |
DE102022105025A1 (en) | System for distance measurement of objects with a 2D image sensor | |
EP3534240A1 (en) | Method and device for data annotation | |
WO2021130302A2 (en) | Method for controlling smart glasses while a motor vehicle is travelling and display apparatus, motor vehicle, analysis circuit and vr system | |
EP3352139B1 (en) | Method for representing the surroundings of a vehicle | |
DE102011005368A1 (en) | Driver assistance system for vehicle, particularly designed as assistance system for shunters or for parking vehicle, has video camera, by which video image of surrounding area of vehicle is recorded with objects | |
DE102015201642B4 (en) | Device and method for displaying the surroundings of a vehicle | |
DE102012010799B4 (en) | Method for the spatial visualization of virtual objects | |
EP1875167A1 (en) | Three-dimensional digital road map representation process | |
DE102022104134B4 (en) | Method and processor circuit and computer program for controlling data glasses for route-adaptive playback of a sequence of predetermined events in a virtual environment while driving a motor vehicle and associated data glasses | |
DE102012016765A1 (en) | Motor car simulation system for simulating and optimizing outer mirror to guide motor car, has simulation device virtually and three-dimensionally simulating mirror and image visible in mirror based on parameters of situation and mirror | |
DE102018116173A1 (en) | Operating a driver assistance system for a motor vehicle | |
DE102019130032B4 (en) | Method, computer program product and system for generating an image data set for a computer-implemented simulation | |
DE102012209917A1 (en) | Method for transforming real-world visual information in virtual three-dimensional environments, involves time-synchronized recording of raw data for test person in real world system with detection of head movements of test person | |
DE102022205393A1 (en) | Method for operating an information system, computer program product and vehicle | |
DE102015120927A1 (en) | Method for displaying a simulation environment | |
WO2020207845A1 (en) | Method for assigning at least one object feature to at least one sub-point set of a 3d point cloud | |
DE102021212928A1 (en) | Method, computer program and device for testing installation or removal of at least one component | |
DE102022126322A1 (en) | Method for operating a driver assistance system for a motor vehicle, driver assistance system for a motor vehicle and motor vehicle with a driver assistance system |