CN118656997B - 基于3DWebGIS的边坡地质灾害监测信息系统 - Google Patents
基于3DWebGIS的边坡地质灾害监测信息系统 Download PDFInfo
- Publication number
- CN118656997B CN118656997B CN202411139885.3A CN202411139885A CN118656997B CN 118656997 B CN118656997 B CN 118656997B CN 202411139885 A CN202411139885 A CN 202411139885A CN 118656997 B CN118656997 B CN 118656997B
- Authority
- CN
- China
- Prior art keywords
- data
- dimensional model
- real
- unit
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 131
- 230000003993 interaction Effects 0.000 claims abstract description 71
- 230000004927 fusion Effects 0.000 claims abstract description 54
- 230000002452 interceptive effect Effects 0.000 claims abstract description 33
- 238000005516 engineering process Methods 0.000 claims abstract description 28
- 238000004088 simulation Methods 0.000 claims abstract description 24
- 230000004044 response Effects 0.000 claims abstract description 13
- 230000006872 improvement Effects 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 53
- 230000008859 change Effects 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 38
- 230000006870 function Effects 0.000 claims description 36
- 238000011156 evaluation Methods 0.000 claims description 34
- 238000007726 management method Methods 0.000 claims description 26
- 238000004422 calculation algorithm Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 22
- 238000010276 construction Methods 0.000 claims description 19
- 238000006073 displacement reaction Methods 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 11
- 230000006399 behavior Effects 0.000 claims description 11
- 230000005856 abnormality Effects 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000013523 data management Methods 0.000 claims description 8
- 238000013500 data storage Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 7
- 238000012876 topography Methods 0.000 claims description 6
- 230000033001 locomotion Effects 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 4
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 239000011521 glass Substances 0.000 claims description 3
- 230000008676 import Effects 0.000 claims description 3
- 230000005855 radiation Effects 0.000 claims description 3
- 239000002689 soil Substances 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000013097 stability assessment Methods 0.000 claims 1
- 238000005553 drilling Methods 0.000 abstract description 15
- 230000007547 defect Effects 0.000 abstract description 3
- 238000005259 measurement Methods 0.000 description 13
- 230000009471 action Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 6
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000009191 jumping Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000004148 unit process Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000013468 resource allocation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- CLOMYZFHNHFSIQ-UHFFFAOYSA-N clonixin Chemical compound CC1=C(Cl)C=CC=C1NC1=NC=CC=C1C(O)=O CLOMYZFHNHFSIQ-UHFFFAOYSA-N 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012732 spatial analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供基于3DWebGIS的边坡地质灾害监测信息系统,涉及地质监测技术领域,系统包括多维度数据融合系统、实时三维模型搭建系统、全息交互控制系统、VR交互式应急演练系统和用户需求和功能交互系统,实时三维模型搭建系统搭建的地质三维实时模型进行场景设定,使VR交互式应急演练系统进行全息交互和VR交互演练平台的搭建,使用户可在结合实时地质模型的基础上,进行边坡地质灾害的模拟和场景参数设定,结合VR技术和全息交互技术进行演练,能够模拟真实的边坡地质灾害场景和多种影响因素,为监测人员和应急救援队伍提供了实战演练的平台,通过演练仿真,不仅提升了应急响应能力,还暴露了应急预案中的不足,为后续的改进和完善提供了重要依据。
Description
技术领域
本发明涉及地质监测技术领域,具体为基于3DWebGIS的边坡地质灾害监测信息系统。
背景技术
根据中国公开号为“CN118072198A”公开的一种地质灾害监测方法,涉及地质灾害监测技术领域,地质灾害监测方法包括:通过无人机拍摄被监测区域图像数据;对所述图像数据预处理,得到标准图像;根据所述标准图像,提取得到高精度的三维模型;分析所述三维模型,评估被监测区域地质灾害情况,得到评估结果;根据所述评估结果,生成报告,所述无人机采用倾斜拍摄的方式获取被监测区域图像数据,本申请所提供的地质灾害监测方法,通过无人机航拍巡检,可快速评估地质灾害情况,解决了人工地质灾害检查,具有一定危险性,且检测结果不能完全反映滑坡真实情况的问题。
上述文件及现有技术在使用时存在以下技术问题:
问题一,针对边坡地质灾害监测时,上述采用机器自动检测后得到三维模型进行评估,但无法根据地质参数的变化进行三维模型的实时更新,导致三维模型与实际地质情况不同步,影响对地质情况的应急处理的及时性;
问题二,上述文件中针对建立后的三维模型无法进行作业人员的实战演练,导致作业人员针对地质灾害的了解停留在理论知识,无法进行实战操作,从而导致在地质灾害发生时,作业人员应急响应能力和处理能力不足;
问题三,针对整个监测系统,用户无法针对监测系统进行监察,整个系统针对作业人员的可操作性和协同性差,监测工作不易开展。
发明内容
解决的技术问题
针对现有技术的不足,本发明提供了基于3DWebGIS的边坡地质灾害监测信息系统,解决了以下问题:
1、地质灾害的三维模型无法进行实施更新,三维模型与实际地质情况不同步的问题;
2、作业人员针对地质灾害的了解停留在理论知识,无法进行实战操作的问题;
3、用户无法针对监测系统进行监察,整个系统针对作业人员的可操作性和协同性差,监测工作不易开展的问题。
技术方案
为实现以上目的,本发明通过以下技术方案予以实现:基于3DWebGIS的边坡地质灾害监测信息系统,所述系统包括多维度数据融合系统、实时三维模型搭建系统、全息交互控制系统、VR交互式应急演练系统和用户需求和功能交互系统,其中:
所述多维度数据融合系统,包括数据源管理单元、数据融合单元和数据存储与管理单元,所述数据源管理单元接入来自物联网传感器的实时数据,包括边坡位移量、应力变化、降雨量等、遥感卫星提供的高分辨率图像、无人机定期拍摄的倾斜摄影测量数据,以及地质勘察部门提供的历史数据,所述数据融合单元对接入的数据进行处理,并利用数据融合算法将不同来源的数据进行融合,形成综合的边坡地质环境数据集,所述数据源管理单元中的数据源来源包括物联网传感器、遥感卫星和无人机倾斜摄影,其中:
所述物联网传感器,包括部署在边坡上的高精度位移传感器、应力传感器、土壤湿度传感器,所述物联网传感器每隔固定周期将采集的数据发送至数据源管理中心,且采集的数据通过LoRa、NB-IoT或5G的一种或几种进行无线通信技术传输;
所述遥感卫星,定期接收高分辨率的卫星图像,该卫星图像经过ENVI或ERDAS进行几何校正、辐射校正和增强处理,提取出边坡的地表变化信息;
所述无人机倾斜摄影,无人机携带高分辨率相机,按照预设航线对边坡进行倾斜摄影,获取多角度的图像数据,该获取的图像数据通过Structure-from-Motion算法进行三维重建,生成边坡的三维点云和纹理模型,三维模型构建公式如下:
三维模型M(t)的构建表示为:
M(t)=f(Dterrain,Dvegetation,Dbuildings,Droads)
其中,M(t)为在时间t时刻的三维模型,Dterrain为地形数据、Dvegetation为植被数据、Dbuildings为建筑物数据、Droads为道路数据;
WebGIS展示公式:
设三维模型M(t)的坐标为(x,y,z),利用WebGIS技术将其展示在三维地图上,展示函数g表示为:
Display=g(M(t))
函数g将三维模型M(t)转换为可视化展示的形式;
所述实时三维模型搭建系统,包括三维模型引擎搭建单元和动态更新单元,所述三维模型引擎搭建单元利用三维建模引擎,根据融合的数据集构建边坡的三维模型,且模型至少包括地形、植被、建筑物、道路要素,并能够准确反映边坡的几何形态和地质结构,所述动态更新单元实时监测传感器数据的变化,并将变化的数据传输至三维模型引擎搭建单元内部,驱动三维模型引擎搭建单元进行三维模型的更新;
所述全息交互控制系统,包括全息投影设备控制单元和交互手势识别单元,所述全息投影设备控制单元用于对系统连接的全息投影设备进行控制,并将三维模型及其监测数据以全息影像的形式呈现给用户,用户无需佩戴任何设备即可看到悬浮在空中的三维模型并进行交互,所述交互手势识别单元对用户设定的交互手势进行识别,控制手势操作与全息影像进行交互;
所述VR交互式应急演练系统,包括VR设备控制单元、场景模拟与任务设置单元和反馈评估单元,所述VR设备控制单元用于对VR设备进行控制,进行与虚拟环境的交互,所述场景模拟与任务设置单元基于全息投影和VR技术搭建交互式应急演练平台,用于对不同级别的地质灾害场景进行模拟和设定,并设定与灾害场景相关的演练任务,配合VR设备控制单元进行应急演练模拟,所述反馈评估单元用于对演练过程中的用户操作行为进行实时反馈和指引,并在演练结束后生成详细的评估报告;
所述用户需求和功能交互系统,用于系统中对多维度数据融合系统、实时三维模型搭建系统、全息交互控制系统和VR交互应急演练系统的操作控制和交互,并对地质信息进行监测和预警,所述用户需求和功能交互系统包括系统首页单元和工程管理单元,所述系统首页单元展示GIS地图、与登录用户相关的监测工程列表、以及等待登录用户处理的报告、超标预警事项,所述工程管理单元展示该工程的三维模型,三维模型展示该工程的监测点布置、风险提示内容、待处理的设备异常、待处理的监测数据更改,且用户登录后通过各个单元对各个子系统的数据进行交互和处理。
优选的,所述多维度数据融合系统中的数据融合单元使用卡尔曼滤波器对数据源管理单元中的传感器数据进行平滑处理,通过深度学习网络进行特征提取和权重分配,生成综合的边坡稳定性评估指标。
优选的,所述多维度数据融合系统中的数据存储与管理单元内部采用分布式数据库或云数据库服务对海量数据进行存储,并接入OLAP在线分析技术对数据进行快速查询和报表的自动生成,且内部提供API接口与其他系统连接,进行数据的访问和传输。
优选的,所述实时三维模型搭建系统进一步包括以下内容:
所述三维模型引擎搭建单元使用Unity3D或UnrealEngine游戏引擎作为三维可视化平台,通过插件和脚本处理多维度数据融合系统接收的实施技术局,并将其转换为三维模型中的动态参数;
所述动态更新单元提供数据监听服务,持续监听多维度数据融合系统发送的实时数据,所述动态更新单元接收到新数据时,触发三维模型的更新函数,根据数据变化调整模型的对应部分,引入时间戳和版本控制机制,使数据保持一致性和模型保持准确性。
优选的,所述全息交互控制系统进一步包括以下内容:
所述全息投影设备控制单元包括对全息屏幕、全息投影箱、全息投影桌的控制,包括启闭控制、对比度、视角的控制调节;
所述交互手势识别单元集成LeapMotion、Kinect或其他手势识别设备,对用户的手部动作机械能捕捉,并将其转换为计算机指令,开发手势识别算法或使用现成的SDK来识别特定的手势,如旋转、缩放、点击等,并将其映射到三维模型的操作上。
优选的,所述VR交互式应急演练系统进一步包括以下内容:
所述VR设备控制单元包括对VR设备,包括VR头盔、VR眼镜、VR跑步机的交互控制;
所述场景模拟与任务设备单元,根据实时三维模型搭建系统给出的实时场景,进行该场景可能发生的灾害场景进行模拟,如滑坡、崩塌、泥石流,并对场景的参数进行自定义,如灾害规模、发生时间、影响范围,且根据场景参数设置多样化的演练任务,如疏散演练、救援行动、资源调配,并设置相应的目标和评分标准,搭建场景模拟平台,等待用户佩带VR设备,通过VR设备控制单元进行启闭后进行应急演练使用;
所述反馈评估单元,在演练过程中,系统会根据用户的操作行为实时给出反馈,如当用户选择错误的疏散路线时,系统会发出警报并提示正确的路线,当用户成功完成某项任务时,系统会给予奖励和肯定,演练结束后,系统会生成详细的评估报告,包括用户的反应时间、决策准确性、资源利用效率等指标,帮助用户了解自身的应急响应能力并提出改进建议。
优选的,所述用户需求和功能交互系统在用户登录后,除显示系统首页单元和工程管理单元之外,还包括我的工作单元,所述我的工作单元包括数据导入、报告信息、超标处理、自动采集设备异常处理、监测数据更改等子模块,用户登录系统后,可在此模块集中处理数据、报告、超标、设备异常、更改监测数据等相关边坡监测日常工作,所述用户需求和功能交互系统将边坡监测数据导入或录入到系统后,经自动计算,如果出现某监测测点数据超标的情况,则开始超标预警处理流程,边坡监测工程的超标预警按照级别从高到低的顺序,分为红色预警、橙色预警和黄色预警三种。
优选的,所述系统的监测和演练流程如下:
Sp1:数据源的采集,所述多维度数据融合系统接收内部连接的多个数据源对边坡位置采集的数据,并对数据进行整合处理;
Sp2:地质三维模型的搭建,所述实时三维模型搭建系统对Sp1采集的数据构建边坡的三维模型,并根据实时监测数据源的变化,自主进行三维模型的实时调整;
Sp3:地质监测预警,所述用户需求和功能交互系统对Sp1采集的数据进行实时监测,在监测点数据出现超标情况时,进行分级,并按照预警的对应的级别的处理流程进行预警处理;
Sp4:交互设备的配置,所述全息交互控制系统和VR交互应急演练系统对全息交互设备和VR识别进行测试,确保设备连接正常、软件配置正确,能够完成正常的交互;
Sp5:演练场景的搭建,根据Sp2搭建的地质三维模型,选择一组模型场景分析其由于地势、环境、形态的影响最可能发生的地质灾害,并选择一种或几种进行模拟,设定环境参数和演练任务,连接Sp3中的交互设备,等待演练;
Sp6:应急响应和协同作战演练,用户佩带Sp3中的交互设备,与Sp4中的场景接入,根据场景和任务进行演练,演练过程中反馈评估单元进行实时数据记录和指引;
Sp7:评估总结,用户演练结束后由VR交互式应急演练平台中的反馈评估单元结合演练数据给出评估报告,报告内容至少包括演练目的达成情况、参与人员表现、存在问题及改进建议的内容,用户根据报告内容进行商讨和分析。
有益效果
本发明提供了基于3DWebGIS的边坡地质灾害监测信息系统。具备以下有益效果:
1、本发明采用系统内部通过多维度数据融合系统实时对边坡位置的各项数据进行监测,并通过实时三维模型搭建系统对采集的数据进行三维模型搭建,且根据数据的变化进行三维模型的实时更新,通过3DWebGIS技术构建的三维模型,能够高度还原边坡地形的真实情况,包括地形起伏、植被分布、地质构造等细节,使监测人员能够更直观地理解和分析边坡的地质特征,相对于传统的二维左边的局限性,通过三维模型,监测人员精准定位到边坡的具体位置,为后续的监测预警和应急处置提供准确的地理坐标,对边坡的稳定性进行更准确的评估,为制定防灾减灾措施提供科学依据。
2、本发明采用内部通过多维度数据融合系统实时对边坡位置的各项数据进行监测,并通过用于需求和功能交互系统进行显示,使系统能够实时接收来自各类监测传感器的数据,如位移传感器、应力传感器、雨量计等,确保监测数据的时效性和准确性,通过对实时监测数据的动态分析,系统能够及时发现边坡的异常变化,为预警提供有力支持,系统内置了地质灾害预警模型和算法,能够基于监测数据对边坡的稳定性进行快速评价,并发出预警信号,根据边坡稳定性的不同等级,系统设定不同的预警级别,为不同层级的决策者提供有针对性的预警信息。
3、本发明采用用户需求和功能交互系统对整个系统进行显示交互和控制调节,系统能够根据用户身份进行对应的工程信息的展示,使用户可直接通过系统进行边坡情况的监察、修改、任务下达、指令接收等操作,使系统能够支持多人在线协作和远程操控,极大地提高了监测工作的效率和协同性同时,这种交互操作控制也增强了监测人员与系统的互动性,使得监测工作更加灵活、高效。
4、采用系统根据实时三维模型搭建系统搭建的地质三维实时模型进行场景设定,使VR交互式应急演练系统进行全息交互和VR交互演练平台的搭建,使用户可在结合实时地质模型的基础上,进行边坡地质灾害的模拟和场景参数设定,结合VR技术和全息交互技术进行演练,能够模拟真实的边坡地质灾害场景和多种影响因素,为监测人员和应急救援队伍提供了实战演练的平台,通过演练仿真,不仅提升了应急响应能力,还暴露了应急预案中的不足,为后续的改进和完善提供了重要依据。
附图说明
图1为本发明的系统结构图;
图2为本发明的系统监测和预警流程图;
图3为本发明的黄色预警处理流程;
图4为本发明的橙色预警处理流程;
图5为本发明的红色预警处理流程。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
具体实施例一:
如图1-5所示,基于3DWebGIS的边坡地质灾害监测信息系统,系统包括多维度数据融合系统、实时三维模型搭建系统、全息交互控制系统、VR交互式应急演练系统和用户需求和功能交互系统,其中:
多维度数据融合系统,包括数据源管理单元、数据融合单元和数据存储与管理单元,数据源管理单元接入来自物联网传感器的实时数据,包括边坡位移量、应力变化、降雨量等、遥感卫星提供的高分辨率图像、无人机定期拍摄的倾斜摄影测量数据,以及地质勘察部门提供的历史数据,数据融合单元对接入的数据进行处理,并利用数据融合算法将不同来源的数据进行融合,形成综合的边坡地质环境数据集,使系统能够实时接收来自各类监测传感器的数据,如位移传感器、应力传感器、雨量计等,确保监测数据的时效性和准确性,通过对实时监测数据的动态分析,系统能够及时发现边坡的异常变化,为预警提供有力支持,系统内置了地质灾害预警模型和算法,能够基于监测数据对边坡的稳定性进行快速评价,并发出预警信号,根据边坡稳定性的不同等级,系统设定不同的预警级别,为不同层级的决策者提供有针对性的预警信息;
数据源管理单元负责接入和管理来自不同来源的数据,包括物联网传感器的实时数据、遥感卫星提供的高分辨率图像、无人机定期拍摄的倾斜摄影测量数据以及地质勘察部门提供的历史数据。
数据源公式表示:
设定Di表示第i个数据源,其中:
Dsensors:来自物联网传感嚣的数据,包括边坡位移量(ddisplacement)、应力变化(dstress)、降雨量(drain);
Dsatellite:遥感卫星提供的高分辨率图像数据;
Ddrone:无人机倾斜摄影测量数据;
Dhistorical:地质勘察部门提供的历史数据;
数据融合单元对接入的数据进行处理,并利用数据融合算法将不同来源的数据进行融合,形成综合,的边坡地质环境数据集。
数据融合主要采用加权融合算法(WeightedFusionAlgorithm)和贝叶斯融合算法(BayesianFusionAlgorithm)。
加权融合算法:
其中,wi是第i个数据源的权重,满足
贝叶斯融合算法假设我们有不同的数据源D1,D2,…,Dn和先验概率P(H)(即假设边坡稳定的概率),通过贝叶斯定理进行融合:
数据存储与管理单元负责存储和管理融合后的数据,确保数据的完整性和可访问性。
实时监测与预警系统能够实时接收来自各类监测传感器的数据,并通过动态分析及时发现边坡的异常变化,提供预警支持。
实时监测数据动态分析通过变化率和阈值比较来实现,设定T为当前时间,Δt为时间间隔。
位移变化率:
应力变化率:
降雨量变化率:
预警模型基于上述变化率和预设的阈值,当变化率超过阈值时触发预警:
θdisplacement、θstress、θrain分别为位移、应力和降雨量的预警阈值。
预警等级设定根据边坡稳定性的不同等级,系统设定不同的预警级别(如黄色预警、橙色预警、红色预警),并为不同层级的决策者提供有针对性的预警信息,预警等级公式预警等级基于变化率和阈值的相对大小进行设定:
实时三维模型搭建系统,包括三维模型引擎搭建单元和动态更新单元,三维模型引擎搭建单元利用三维建模引擎,根据融合的数据集构建边坡的三维模型,且模型至少包括地形、植被、建筑物、道路要素,并能够准确反映边坡的几何形态和地质结构,动态更新单元实时监测传感器数据的变化,并将变化的数据传输至三维模型引擎搭建单元内部,驱动三维模型引擎搭建单元进行三维模型的更新,通过实时三维模型搭建系统对采集的数据进行三维模型搭建,且根据数据的变化进行三维模型的实时更新,通过3DWebGIS技术构建的三维模型,能够高度还原边坡地形的真实情况,包括地形起伏、植被分布、地质构造等细节,使监测人员能够更直观地理解和分析边坡的地质特征,相对于传统的二维左边的局限性,通过三维模型,监测人员精准定位到边坡的具体位置,为后续的监测预警和应急处置提供准确的地理坐标,对边坡的稳定性进行更准确的评估,为制定防灾减灾措施提供科学依据;
三维模型引擎搭建单元利用三维建模引擎,根据融合的数据集构建边坡的三维模型,模型包括地形、植被、建筑物、道路要素,并能够准确反映边坡的几何形态和地质结构。
三维模型构建公式:
M(t)为在时间t时刻的三维模型,三维模型M(t)的构建表示为:
M(t)=f(Dterrain,Dvegetation,Dbuildings,Droads)
数据集D包括地形数据Dterrain、植被数据Dvegetation、建筑物数据Dbuildings、道路数据Droads;
函数f是三维建模引擎,将各类数据整合成一个完整的三维模型,地形建模公式地形建模通常利用数字高程模型(DigitalElevationModel,DEM),设DEM(x,y)为在位置(x,y)的地形高程值,三维地形模型T(x,y,z)表示为:
T(x,y,z)=DEM(x,y)
植被、建筑物和道路建模公式植被、建筑物和道路通过附加在地形上的附属元素建模,设定V(x,y)为植被分布密度,B(x,y)为建筑物的轮廓,R(x,y)为道路网络,植被模型Vm:
Vm(x,y,z)=V(x,y)·hv
hv是植被的高度;
建筑物模型Bm:
Bm(x,y,z)=B(x,y)·hb
hb是建筑物的高度;
道路模型Rm:
Rm(x,y,z)=R(x,y)
动态更新单元动态更新单元实时监测传感器数据的变化,并将变化的数据传输至三维模型引擎搭建单元内部,驱动三维模型引擎搭建单元进行三维模型的更新,动态更新公式设传感器数据在时间t的变化为ΔD(t),则在时间t时刻,三维模型的更新表示为:
M(t)=M(t-1)+ΔD(t)
其中,M(t-1)为前一时刻的三维模型,ΔD(t)为新传感器数据引起的变化。
实时更新公式设ΔDEM(x,y,t)为时间t时刻的地形变化,ΔV(x,y,t)为植被变化,ΔB(x,y,y)为建筑物变化,ΔR(x,y,t)为道路变化,实时更新后的三维模型表示为:
T(x,y,z,t)=T(x,y,z,t-1)+ΔDEM(x,y,t)
Vm(x,y,z,t)=Vm(x,y,z,t-1)+ΔV(x,y,t)
Bm(x,y,z,t)=Bm(x,y,z,t-1)+ΔB(x,y,t)
Rm(x,y,z,t)=Rm(x,y,z,t-1)+ΔR(x,y,t)
通过3DWebGIS技术构建的三维模型,能够高度还原边坡地形的真实情况,包括地形起伏、植被分布、地质构造等细节,使监测人员能够更直观地理解和分析边坡的地质特征。
WebGIS展示公式:
设三维模型M(t)的坐标为(x,y,z),利用WebGIS技术将其展示在三维地图上,展示函数g表示为:
Display=g(M(t))
函数g将三维模型M(t)转换为可视化展示的形式。
通过上述公式和解释,实时三维模型搭建系统有效实现三维模型的构建和动态更新,并通过3DWebGIS技术进行展示,使监测人员能够更直观地理解和分析边坡的地质特征,为后续的监测预警和应急处置提供科学依据。
全息交互控制系统,包括全息投影设备控制单元和交互手势识别单元,全息投影设备控制单元用于对系统连接的全息投影设备进行控制,并将三维模型及其监测数据以全息影像的形式呈现给用户,用户无需佩戴任何设备即可看到悬浮在空中的三维模型并进行交互,交互手势识别单元对用户设定的交互手势进行识别,控制手势操作与全息影像进行交互;
全息投影设备控制单元的三维模型数据的投影:三维模型的数据通常是由多个三角形面片组成,每个面片通过顶点坐标表示,假设一个三角形的顶点坐标为v1,v2,v3,顶点的坐标变换公式:
v′=TRv+t
T是投影变换矩阵,R是旋转矩阵,t是平移向量,-投影成像公式:对于全息投影,使用光学干涉和衍射来创建三维图像,通常用全息图记录和再现过程来解释,记录过程公式如下:
I(x,y)=|O(x,y)+R(x,y)|2
I(x,y)是记录的全息图,O(x,y)是物光波,R(x,y)是参考光波;
再现过程公式如下:
H(x,y)是再现的全息图像,表示傅里叶变换,R*(x,y)是参考光波的复共辄。
全息影像呈现:
最终的全息影像呈现给用户,用户无需佩戴任何设备即可看到悬浮在空中的三维模型,这里利用人眼的双目视觉原理,通过光的干涉和衍射实现三维效果。
手势识别算法:
通常使用计算机视觉技术对手势进行识别,手势识别涉及到图像处理和机器学习算法。
图像预处理:通过滤波和二值化处理图像,提取手势轮廓;
T是二值化阈值,Ibinary(x,y)是处理后的二值图像;
特征提取:提取手势的特征点或关键点,指尖和关节位置;
f={(x1,y1),(x2,y2),…,(xn,yn)}
f是特征点集,使用机器学习模型(卷积神经网络CNN)对手势进行分类;
是预测的手势类别,P(y=c∣f)是特征点集f对应类别c的概率。
VR交互式应急演练系统,包括VR设备控制单元、场景模拟与任务设置单元和反馈评估单元,VR设备控制单元用于对VR设备进行控制,进行与虚拟环境的交互,场景模拟与任务设置单元基于全息投影和VR技术搭建交互式应急演练平台,用于对不同级别的地质灾害场景进行模拟和设定,并设定与灾害场景相关的演练任务,配合VR设备控制单元进行应急演练模拟,反馈评估单元用于对演练过程中的用户操作行为进行实时反馈和指引,并在演练结束后生成详细的评估报告,使用户可在结合实时地质模型的基础上,进行边坡地质灾害的模拟和场景参数设定,结合VR技术和全息交互技术进行演练,能够模拟真实的边坡地质灾害场景和多种影响因素,为监测人员和应急救援队伍提供了实战演练的平台,通过演练仿真,不仅提升了应急响应能力,还暴露了应急预案中的不足,为后续的改进和完善提供了重要依据;
VR设备控制单元用于对VR设备进行控制,进行与虚拟环境的交互,该单元负责传感器数据采集、用户输入捕捉、设备状态监控以及与虚拟场影的互动,交互公式设定用户在时间t的操作行为为U(t),虚拟环境的状态为E(t),VR设备控制单元的输出为V(t),交互过程表示为:
函数f表示用户操作和虚拟环境状态的映射关系。
场景模拟与任务设置单元场景模拟与任务设置单元基于全息投影和VR技术搭建交互式应急演练平台,用于对不同级别的地质灾害场景进行模拟和设定,并设定与灾害场景相关的演练任务,场景模拟公式等,场景模拟表示为:
E(t)=g(S)
函数g表示将参数集合S转换为虚拟环境状态E(t)的过程。
任务设置公式设定任务集合为T,其中包括任务目标Tgoal、任务步骤Tsteps和任务条件Tconditions,任务设置表示为:
T(t)=h(Tgoal,Tsteps,Tconditions)
函数h表示任务集合T的设定过程;
反馈评估单元用于对演练过程中的用户操作行为进行实时反馈和指引,并在演练结束后生成详细的评估报告,实时反馈公式设定用户在时间t的操作行为为U(t),系统反馈为F(t),实时反馈过程表示为:
F(t)=k(U(t),E(t),T(t))
其中,函数k表示反馈生成的过程。
评估报告公式评估报告基于用户操作行为和演练结果,设定用户操作行为的集合为{U(t)},演练结果为R,评估报告生成表示为:
Report=m({U(t)},R)
其中,函数m表示评估报告生成的过程。
用户需求和功能交互系统,用于系统中对多维度数据融合系统、实时三维模型搭建系统、全息交互控制系统和VR交互应急演练系统的操作控制和交互,并对地质信息进行监测和预警,用户需求和功能交互系统包括系统首页单元和工程管理单元,系统首页单元展示GIS地图、与登录用户相关的监测工程列表、以及等待登录用户处理的报告、超标预警事项,工程管理单元主要展示该工程的三维模型,三维模型展示该工程的监测测点布置、风险提示内容、待处理的设备异常、待处理的监测数据更改,且用户登录后通过各个单元对各个子系统的数据进行交互和处理,系统能够根据用户身份进行对应的工程信息的展示,使用户可直接通过系统进行边坡情况的监察、修改、任务下达、指令接收等操作,使系统能够支持多人在线协作和远程操控,极大地提高了监测工作的效率和协同性同时,这种交互操作控制也增强了监测人员与系统的互动性,使得监测工作更加灵活、高效。
用户需求和功能交互系统用于对多维度数据融合系统、实时三维模型搭建系统、全息交互控制系统和VR交互应急演练系统的操作控制和交互,并对地质信息进行监测和预警,系统包括两个主要单元:系统首页单元和工程管理单元。
系统首页单元系统首页单元展示GIS地图、与登录用户相关的监测工程列表、以及等待登录用户处理的报告和超标预警事项。
用户相关工程列表公式设定用户U的相关工程集合为Eu,系统首页单元展示的工程列表为:
EU={E1,E2,…,En}
超标预警公式设定某工程Ei的监测数据为Di,预警阈值为θ,超标预警条件为:
Di>θ
TriggerWarning系统首页公式系统首页单元的展示内容SH表示为:
SH={GISMap,EU,PendingReports,Warnings}
工程管理单元主要展示该工程的三维模型、监测测点布置、风险提示内容、待处理的设备异常和待处理的监测数据更改,三维模型展示公式设定工程Ei的三维模型为Mi,三维模型展示内容为:
Mi=f(Di)
函数f表示根据监测数据Di构建二维模型的过程;
监测测点布置公式设定监测测点集合为P,其中每个测点pj包含位置(xj,yj,zj)和监测参数dj:
P={(xj,yj,zj,dj)∣j=1,2,…,m}
风险提示公式
设定风险提示内容为Ri,包含监测数据异常的提示和设备异常的提示:
Ri={DataAnomalies,DeviceFaults}
工程管理单元的展示内容EHi表示为:
EHi={Mi,P,Ri,PendingDataChanges,PendingDeviceFaults}
用户交互和操作控制用户登录后通过各个单元对各个子系统的数据进行交互和处理,系统能够根据用户身份进行对应的工程信息展示,并支持多人在线协作和远程操控,用户身份公式设定用户身份为ID,用户相关的操作权限集合为A:
A=g(ID)
函数g表示根据用户身份获取操作权限的过程;
交互操作公式设定用户在时间t进行的操作为U(t),系统的响应为R(t):
R(t)=h(U(t),A)
其中,函数h表示系统响应用户操作的过程;
具体实施例二:
如图1-5所示,根据上述具体实施例中的内容,进一步公开以下技术内容:
多维度数据融合系统中的数据源管理单元进一步包括以下内容:
数据源管理单元中的数据源来源包括物联网传感器、遥感卫星和无人机倾斜摄影,其中:
物联网传感器,包括部署在边坡上的高精度位移传感器、应力传感器、土壤湿度传感器,每隔几秒或几分钟发送一次数据源管理中心,所述物联网传感器采集的数据通过LoRa、NB-IoT或5G的一种或几种进行无线通信技术传输;
遥感卫星,定期接收高分辨率的卫星图像,该卫星图像经过ENVI或ERDAS进行几何校正、辐射校正和增强处理,提取出边坡的地表变化信息;
无人机倾斜摄影,无人机携带高分辨率相机,按照预设航线对边坡进行倾斜摄影,获取多角度的图像数据,该获取的图像数据通过Structure-from-Motion算法进行三维重建,生成边坡的三维点云和纹理模型;
多维度数据融合系统中的数据融合单元使用卡尔曼滤波器对数据源管理单元中的传感器数据进行平滑处理,通过深度学习网络进行特征提取和权重分配,生成综合的边坡稳定性评估指标。
针对数据融合算法旨在将来自不同源的数据如物联网传感器数据、遥感卫星图像、无人机倾斜摄影数据等,整合成一个统一、准确且全面的数据集,这通常涉及数据对齐、数据校准、数据关联和数据融合四个步骤,数据对齐通过时间戳或空间位置信息对齐不同来源的数据,数据校准消除由于传感器差异、环境因素等引起的数据偏差,数据关联建立不同数据源之间数据点的对应关系,数据融合采用深度学习模型融合数据,数据融合中常使用加权融合法,其基本公式为:
其中:
FusionDatai是第i个融合后的数据点;
N是数据源的数量;
wi是第j个数据源的权重,满足
Dataij是第j个数据源的第i个数据点。
针对卡尔曼滤波器,采用现有技术中的公式内容与本申请的数据处理进行结构,估计线性动态系统的状态,在边坡监测中,它用来平滑传感器数据中的噪声和异常值,公式内容如下:
预测更新:
Pk∣k-1=APk-1∣k-1AT+Q
测量更新:
Kk=Pk∣k-1HT(HPk∣k-1HT+R)
Pk∣k=(I-KkH)Pk∣k-1
其中:
是状态估计的预测值,表示在时刻k,基于时刻k-1的信息,包括测量值和估计值对系统状态的预测;
A是状态转移矩阵,描述了系统状态如何从上一时刻转移到当前时刻;
是上一时刻的状态估计值,即在时刻k-1对系统状态的最好估计,通过上一轮的预测和更新步骤得到的;
B是控制输入矩阵,描述了控制输入如何影响系统的状态,如果存在控制输入,如外部作用力、操作指令等,则需要根据系统的控制方程来构建此矩阵,在某些情况下,如果系统不受外部控制,则此矩阵可能不存在或为零矩阵;
uk-1在时刻k-1施加到系统上的外部作用力或操作指令,这通常来自系统的控制部分,根据系统的控制策略和目标来确定;
Pk∣k-1为预测误差协方差,表示在时刻k,基于时刻k-1的信息对系统状态预测的不确定性;
Q过程噪声协方差,表示系统动态模型中的不确定性或误差,这通常基于系统模型的精度、外部干扰的强度和频率等因素来估计;
Kk表示卡尔曼增益,表示在更新步骤中,测量值相对于预测值的权重,该方程平衡了预测误差协方差和测量噪声协方差,以确定测量值在更新状态估计时的贡献程度;
H表示观测矩阵,描述了系统状态如何映射到测量值上,取决于系统的测量方式和测量设备的特性,需要根据具体的测量模型来构建;
R表示测量噪声协方差,表示测量过程中的不确定性或误差,基于测量设备的精度、测量环境的稳定性和干扰等因素来估计;
zk表示测量值,在时刻k从系统外部获得的观测数据,来自系统的传感器或其他测量设备,用于提供关于系统状态的直接信息;
表示更新后的状态估计值,在时刻k,结合预测值和测量值对系统状态的最好估计,该方程结合了预测值和经过卡尔曼增益加权后的测量残差;
Pk∣k表示更新后的误差协方差,表示在时刻k,更新后的状态估计的不确定性,通过更新后的误差协方差方程计算得到,该方程考虑了卡尔曼增益和预测误差协方差。
卡尔曼滤波器通过预测和更新两个步骤,不断迭代更新系统的状态估计,同时最小化估计误差。
多维度数据融合系统中的数据存储与管理单元内部采用分布式数据库或云数据库服务对海量数据进行存储,并接入OLAP在线分析技术对数据进行快速查询和报表的自动生成,且内部提供API接口与其他系统连接,进行数据的访问和传输,针对数据存储与管理单元中,进一步完善以下内容:
针对分布式数据库或云数据库采用如HadoopHDFS、Cassandra、MongoDB等分布式数据库或AmazonRDS、GoogleCloudSQL等云数据库服务,实现海量数据的可靠存储和高效访问;
针对OLAP在线分析技术:利用如ApacheKylin、Tableau等工具,对存储的数据进行快速查询、聚合和报表生成;
针对API接口:提供RESTfulAPI、GraphQL等接口,与其他系统进行数据交换和集成。
数据融合算法通过内容,对将不同来源的数据进行融合,形成综合的边坡地质环境数据集,使系统能够实时接收来自各类监测传感器的数据,为三维建模提供数据基础,为系统监测提供数据支持。
具体实施例三:
如图1-5所示,根据上述具体实施例中的内容,进一步公开以下技术内容:
实时三维模型搭建系统进一步包括以下内容:
三维模型引擎搭建单元使用Unity3D或UnrealEngine游戏引擎作为三维可视化平台,通过插件和脚本处理多维度数据融合系统接收的实施技术局,并将其转换为三维模型中的动态参数,针对三维模型引擎搭建单元对三维模型的搭建,利用引擎的场景编辑器,通过拖拽、放置等方式构建三维场景,脚本与插件使用C#、C++等编程语言编写脚本,实现数据融合、模型动态更新等功能,利用引擎提供的插件或第三方插件处理特殊效果或数据格式,利用引擎的渲染引擎,实现高质量的三维渲染效果,包括光照、阴影、纹理映射等,针对三维模型搭建的处理内容如下:
输入:融合的数据集,包括地形数据、植被数据、建筑物数据、道路数据等;
处理流程:
Sp1:数据预处理:对输入数据进行清洗、格式转换和归一化处理,确保数据一致性和可用性;
Sp2:地形模型构建:使用数字高程模型DEM,根据地形数据构建三维地形模型;
Sp3:植被、建筑物、道路等要素添加:根据相应的数据集,将植被、建筑物、道路等要素以三维形式添加到模型中,利用纹理映射、光照模型等增强视觉效果;
Sp4:几何形态与地质结构表达:根据地质勘探数据,通过插值、模拟等技术,精确表达边坡的几何形态和地质结构;
输出:构建完成的边坡三维模型。
在模型构建过程中,使用WebGL技术,在Web浏览器中直接渲染三维模型,实现无需安装额外插件的三维场景展示,通过Ajax、WebSocket等技术,实现前端与服务器之间的数据交互,实时更新三维模型,利用GIS技术,对三维模型进行地理坐标校正、空间分析等处理,提高模型的地理准确性和应用价值。
动态更新单元提供数据监听服务,持续监听多维度数据融合系统发送的实时数据,动态更新单元接收到新数据时,触发三维模型的更新函数,根据数据变化调整模型的对应部分,通过事件监听、回调函数等技术,实现数据的实时监听和三维模型的动态更新,引入时间戳和版本控制机制,使数据保持一致性和模型保持准确性,针对动态更新单元的处理数据内容如下:
输入:实时传感器数据如位移、应力、降雨量等;
处理流程:
Sp1:数据监听:持续监听来自多维度数据融合系统的实时数据;
Sp2:数据解析:解析接收到的数据,提取关键信息,如位置、变化量等;
Sp3:模型更新触发:根据数据变化,触发三维模型的更新函数;
Sp4:模型调整:根据解析的数据,调整模型中对应部分的参数,如位置、形状、颜色等,以反映实际情况的变化;
Sp5:时间戳与版本控制:记录每次更新的时间戳,并引入版本控制机制,确保数据的一致性和模型的准确性;
输出:更新后的边坡三维模。
通过实时三维模型搭建系统,且根据数据的变化进行三维模型的实时更新,通过3DWebGIS技术构建的三维模型,能够高度还原边坡地形的真实情况,包括地形起伏、植被分布、地质构造等细节,使监测人员能够更直观地理解和分析边坡的地质特征。
具体实施例四:
如图1-5所示,根据上述具体实施例中的内容,进一步公开以下技术内容:
全息交互控制系统进一步包括以下内容:
全息投影设备控制单元包括对全息屏幕、全息投影箱、全息投影桌的控制,包括启闭控制、对比度、视角的控制调节;
交互手势识别单元集成LeapMotion、Kinect或其他手势识别设备,对用户的手部动作机械能捕捉,并将其转换为计算机指令,开发手势识别算法或使用现成的SDK来识别特定的手势,如旋转、缩放、点击等,并将其映射到三维模型的操作上,LeapMotion:LeapMotion是一种小型USB设备,通过红外光和摄像头捕捉手部动作,并将其转换为高精度的三维手部位置和方向数据,Kinect:Kinect是一种结合了摄像头、麦克风和红外传感器的设备,能够捕捉用户的全身动作和语音,通过深度传感器,Kinect获取人体的三维图像,并识别出手部动作,这些手势识别设备通过捕捉手部或身体的图像,利用计算机视觉和机器学习算法对图像进行分析和处理,识别出特定的手势或动作,并将其转换为计算机指令,通过API或SDK将全息投影设备、手势识别设备和三维模型渲染引擎进行集成,实现数据的传输和指令的交互,通过开发手势识别算法或使用现成的SDK,将用户的手势操作映射为对三维模型的操作指令,实现用户与全息影像的交互。
具体实施例五:
如图1-5所示,根据上述具体实施例中的内容,进一步公开以下技术内容:
VR交互式应急演练系统进一步包括以下内容:
VR设备控制单元包括对VR设备,包括但不限于VR头盔、VR眼镜、VR跑步机的交互控制,提供沉浸式的虚拟环境体验,结合全息投影技术,增强场景的真实感和立体感;
场景模拟与任务设备单元,根据实时三维模型搭建系统给出的实时场景,通过模拟真实的边坡地质灾害场景,使用户能够在安全的环境中进行实战演练,提高应急响应速度和准确性,进行该场景可能发生的灾害场景进行模拟,如滑坡、崩塌、泥石流,并对场景的参数进行自定义,如灾害规模、发生时间、影响范围,且根据场景参数设置多样化的演练任务,如疏散演练、救援行动、资源调配,并设置相应的目标和评分标准,搭建场景模拟平台,等待用户佩带VR设备,通过VR设备控制单元进行启闭后进行应急演练使用,相比传统的实地演练,VR交互式应急演练系统能够大幅降低培训成本和时间。
反馈评估单元,在演练过程中,系统会根据用户的操作行为实时给出反馈,如当用户选择错误的疏散路线时,系统会发出警报并提示正确的路线,当用户成功完成某项任务时,系统会给予奖励和肯定,演练结束后,系统会生成详细的评估报告,包括用户的反应时间、决策准确性、资源利用效率等指标,帮助用户了解自身的应急响应能力并提出改进建议。
具体实施例六:
如图1-5所示,根据上述具体实施例中的内容,进一步公开以下技术内容:
针对系统首页单元进一步包括以下内容:
GIS地图:用户登录系统后,系统首页的GIS地图上显示该用户相关的边坡监测工程位置,点状图标的形式在地图上显示,与该用户无关的边坡监测工程不显示,用户在某个工程位置上点击后,跳转至该工程的首页界面,根据用户在该工程中的角色、权限,动态加载相应功能菜单,进而用户进行各种不同操作;
边坡监测工程列表:系统首页的边坡监测工程列表,列出当前登录用户相关的边坡监测工程,用户点击列表中某个工程后,在GIS地图中定位该工程位置,并在地图上居中显示、图标短时间闪烁;
待办事项:在系统首页列出应由当前用户处理的相关事项及其数量,与当前登录用户相关的所有工程,具体包括待处理报告、待处理超标预警等,以超链接的形式展示待处理报告、超标预警等的数量,用户单击链接后,跳转到报告处理、超标处理流程页面后,进行不同操作针对工程管理单元。
针对工程管理单元,进一步包括以下内容:
三维模型:当用户在系统首页点击、选择某工程,进入该工程首页后,显示反映该工程测点布置的三维模型;
风险提示:根据该工程当前产生的超标测点类型,在首页显示每种超标测点类型相关的风险提示内容;
待处理设备异常:以超链接形式展示待处理设备异常的数量,用户单击链接后,跳转到设备异常处理页面;
待处理监测数据更改:以超链接形式展示待处理监测数据更改的数量,用户单击链接后,跳转到监测数据更改页面。
用户需求和功能交互系统在用户登录后,除显示系统首页单元和工程管理单元之外,还包括我的工作单元,我的工作单元包括数据导入、报告信息、超标处理、自动采集设备异常处理、监测数据更改等子模块,用户登录系统后,可在此模块集中处理数据、报告、超标、设备异常、更改监测数据等相关边坡监测日常工作,用户需求和功能交互系统将边坡监测数据导入或录入到系统后,经自动计算,如果出现某监测测点数据超标的情况,则开始超标预警处理流程,边坡监测工程的超标预警按照级别从高到低的顺序,分为红色预警、橙色预警和黄色预警三种,超标处理过程中应该体现限期和超期信息,限期信息指应当在规定时间内处理完毕该超标,超期信息指该超标处理时间超过限期的情况,是否超过限期,超期天数等,如图3所示,为黄色预警的处理流程,如图4所示,为橙色预警的处理流程,如图5所示,为红色预警的处理流程。
整个系统在对边坡地质灾害检测信息数据录入时,主要通过两种方式,一种为通过数据多维度数据融合系统的各个单元进行监测后的自动录入,另一种为项目负责人根据人工使用机器监测的数据,通过登录用户需求和功能交互系统进行手动录入,该手动录入的数据类别为多维度数据融合系统监测类别之外的数据,实现数据的两种录入方式。
具体实施例七:
如图1-5所示,根据上述具体实施例中的内容,进一步公开以下技术内容:
系统的监测和演练流程如下:
Sp1:数据源的采集,多维度数据融合系统接收内部连接的多个数据源对边坡位置采集的数据,并对数据进行整合处理;
Sp2:地质三维模型的搭建,实时三维模型搭建系统对Sp1采集的数据构建边坡的三维模型,并根据实时监测数据源的变化,自主进行三维模型的实时调整;
Sp3:地质监测预警,用户需求和功能交互系统对Sp1采集的数据进行实时监测,在监测点数据出现超标情况时,进行分级,并按照预警的对应的级别的处理流程进行预警处理;
Sp4:交互设备的配置,全息交互控制系统和VR交互应急演练系统对全息交互设备和VR识别进行测试,确保设备连接正常、软件配置正确,能够完成正常的交互;
Sp5:演练场景的搭建,根据Sp2搭建的地质三维模型,选择一组模型场景分析其由于地势、环境、形态的影响最可能发生的地质灾害,并选择一种或几种进行模拟,设定环境参数和演练任务,连接Sp3中的交互设备,等待演练;
Sp6:应急响应和协同作战演练,用户佩带Sp3中的交互设备,与Sp4中的场景接入,根据场景和任务进行演练,演练过程中反馈评估单元进行实时数据记录和指引;
Sp7:评估总结,用户演练结束后由VR交互式应急演练平台中的反馈评估单元结合演练数据给出评估报告,报告内容至少包括演练目的达成情况、参与人员表现、存在问题及改进建议的内容,用户根据报告内容进行商讨和分析。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个引用结构”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,理解在不脱离本发明的原理和精神的情况下对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (8)
1.基于3DWebGIS的边坡地质灾害监测信息系统,其特征在于:所述系统包括多维度数据融合系统、实时三维模型搭建系统、全息交互控制系统、VR交互式应急演练系统和用户需求和功能交互系统,其中:
所述多维度数据融合系统,包括数据源管理单元、数据融合单元和数据存储与管理单元,所述数据源管理单元接入来自物联网传感器的实时数据,所述数据融合单元对接入来自物联网传感器的实时数据进行处理,并利用数据融合算法将不同来源的数据进行融合,形成综合的边坡地质环境数据集,所述数据源管理单元中的数据源来源包括物联网传感器、遥感卫星和无人机倾斜摄影,其中:
所述物联网传感器,包括部署在边坡上的高精度位移传感器、应力传感器、土壤湿度传感器,所述物联网传感器每隔固定周期将采集的数据发送至数据源管理中心,且采集的数据通过LoRa、NB-IoT或5G的一种或几种进行无线通信技术传输;
所述遥感卫星,定期接收高分辨率的卫星图像,该卫星图像经过ENVI或ERDAS进行几何校正、辐射校正和增强处理,提取出边坡的地表变化信息;
所述无人机倾斜摄影,无人机携带高分辨率相机,按照预设航线对边坡进行倾斜摄影,获取多角度的图像数据,该获取的图像数据通过Structure-from-Motion算法进行三维重建,生成边坡的三维点云和纹理模型,三维模型构建公式如下:
三维模型M(t)的构建表示为:
M(t)=f(Dterrain,Dvegetation,Dbuildings,Droads)
其中,M(t)为在时间t时刻的三维模型,Dterrain为地形数据、Dvegetation为植被数据、Dbuildings为建筑物数据、Droads为道路数据;
WebGIS展示公式:
设三维模型M(t)的坐标为(x,y,z),利用WebGIS技术将其展示在三维地图上,展示函数g表示为:
Display=g(M(t))
函数g将三维模型M(t)转换为可视化展示的形式;
所述实时三维模型搭建系统,包括三维模型引擎搭建单元和动态更新单元,所述三维模型引擎搭建单元利用三维建模引擎,根据融合的数据集构建边坡的三维模型,所述动态更新单元实时监测来自物联网传感器的实时数据的变化,并将变化的实时数据传输至三维模型引擎搭建单元内部,驱动三维模型引擎搭建单元进行三维模型的更新;
所述全息交互控制系统,包括全息投影设备控制单元和交互手势识别单元,所述全息投影设备控制单元用于对系统连接的全息投影设备进行控制,所述交互手势识别单元对用户设定的交互手势进行识别,控制手势操作与全息影像进行交互;
所述VR交互式应急演练系统,包括VR设备控制单元、场景模拟与任务设置单元和反馈评估单元,所述VR设备控制单元用于对VR设备进行控制,进行与虚拟环境的交互,所述场景模拟与任务设置单元基于全息投影和VR技术搭建交互式应急演练平台,用于对不同级别的地质灾害场景进行模拟和设定,并设定与灾害场景相关的演练任务,配合VR设备控制单元进行应急演练模拟,所述反馈评估单元用于对演练过程中的用户操作行为进行实时反馈和指引,并在演练结束后生成详细的评估报告;
所述用户需求和功能交互系统,用于系统中对各个系统的操作控制和交互,并对地质信息进行监测和预警,所述用户需求和功能交互系统包括系统首页单元和工程管理单元。
2.根据权利要求1所述的基于3DWebGIS的边坡地质灾害监测信息系统,其特征在于:所述多维度数据融合系统中的数据融合单元使用卡尔曼滤波器对数据源管理单元中的传感器数据进行平滑处理,通过深度学习网络进行特征提取和权重分配,生成综合的边坡稳定性评估指标。
3.根据权利要求1所述的基于3DWebGIS的边坡地质灾害监测信息系统,其特征在于:所述多维度数据融合系统中的数据存储与管理单元内部采用分布式数据库或云数据库服务对海量数据进行存储,并接入OLAP在线分析技术对数据进行快速查询和报表的自动生成,且内部提供API接口与其他系统连接,进行数据的访问和传输。
4.根据权利要求1所述的基于3DWebGIS的边坡地质灾害监测信息系统,其特征在于:所述实时三维模型搭建系统进一步包括以下内容:
所述三维模型引擎搭建单元使用Unity3D或UnrealEngine游戏引擎作为三维可视化平台,通过插件和脚本处理多维度数据融合系统接收的实时数据,并将其转换为三维模型中的动态参数;
所述动态更新单元提供数据监听服务,持续监听多维度数据融合系统发送的实时数据,所述动态更新单元接收到新数据时,触发三维模型的更新函数,根据数据变化调整模型的对应部分,引入时间戳和版本控制机制,使数据保持一致性和模型保持准确性。
5.根据权利要求1所述的基于3DWebGIS的边坡地质灾害监测信息系统,其特征在于:所述全息交互控制系统进一步包括以下内容:
所述全息投影设备控制单元包括对全息屏幕、全息投影箱、全息投影桌的控制,包括启闭控制、对比度、视角的控制调节;
所述交互手势识别单元集成手势识别设备,所述手势识别设备包括LeapMotion、Kinect,所述手势识别设备对用户的手部动作机械能捕捉,并将其转换为计算机指令,开发手势识别算法或使用现成的SDK来识别特定的手势,并将其映射到三维模型的操作上。
6.根据权利要求1所述的基于3DWebGIS的边坡地质灾害监测信息系统,其特征在于:所述VR交互式应急演练系统进一步包括以下内容:
所述VR设备控制单元包括对VR设备,包括VR头盔、VR眼镜、VR跑步机的交互控制;
所述场景模拟与任务设备单元,根据实时三维模型搭建系统给出的实时场景,进行该场景预测发生的灾害场景进行模拟,并设置相应的目标和评分标准,搭建场景模拟平台,等待用户佩带VR设备,通过VR设备控制单元进行启闭后进行应急演练使用;
所述反馈评估单元,在演练过程中,系统会根据用户的操作行为实时给出反馈,当用户选择错误的疏散路线时,系统会发出警报并提示正确的路线,当用户成功完成某项任务时,系统会给予奖励和肯定,演练结束后,系统会生成详细的评估报告,包括用户的反应时间、决策准确性、资源利用效率指标,帮助用户了解自身的应急响应能力并提出改进建议。
7.根据权利要求1所述的基于3DWebGIS的边坡地质灾害监测信息系统,其特征在于:所述系统首页单元展示GIS地图、与登录用户相关的监测工程列表、以及等待登录用户处理的报告、超标预警事项,所述工程管理单元展示该工程的三维模型,三维模型展示该工程的监测点布置、风险提示内容、待处理的设备异常、待处理的监测数据更改,所述用户需求和功能交互系统将边坡监测数据导入或录入到系统后,经自动计算,如果出现某监测点数据超标的情况,则开始超标预警处理流程,边坡监测工程的超标预警按照级别从高到低的顺序,分为红色预警、橙色预警和黄色预警三种。
8.根据权利要求1所述的基于3DWebGIS的边坡地质灾害监测信息系统,其特征在于:所述系统的监测和演练流程如下:
Sp1:数据源的采集,所述多维度数据融合系统接收内部连接的多个数据源对边坡位置采集的数据,并对数据进行整合处理;
Sp2:地质三维模型的搭建,所述实时三维模型搭建系统对Sp1采集的数据构建边坡的三维模型,并根据实时监测数据源的变化,自主进行三维模型的实时调整;
Sp3:地质监测预警,所述用户需求和功能交互系统对Sp1采集的数据进行实时监测,在监测点数据出现超标情况时,进行分级,并按照预警的对应的级别的处理流程进行预警处理;
Sp4:交互设备的配置,所述全息交互控制系统和VR交互应急演练系统对全息交互设备和VR识别进行测试,确保设备连接正常、软件配置正确,能够完成正常的交互;
Sp5:演练场景的搭建,根据Sp2搭建的地质三维模型,选择一组模型场景分析其由于地势、环境、形态的影响发生的地质灾害,并选择一种或几种进行模拟,设定环境参数和演练任务,连接Sp3中的交互设备,等待演练;
Sp6:应急响应和协同作战演练,用户佩带Sp3中的交互设备,与Sp4中的场景接入,根据场景和任务进行演练,演练过程中反馈评估单元进行实时数据记录和指引;
Sp7:评估总结,用户演练结束后由VR交互式应急演练平台中的反馈评估单元结合演练数据给出评估报告,报告内容至少包括演练目的达成情况、参与人员表现、存在问题及改进建议的内容,用户根据报告内容进行商讨和分析。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202411139885.3A CN118656997B (zh) | 2024-08-20 | 2024-08-20 | 基于3DWebGIS的边坡地质灾害监测信息系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202411139885.3A CN118656997B (zh) | 2024-08-20 | 2024-08-20 | 基于3DWebGIS的边坡地质灾害监测信息系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118656997A CN118656997A (zh) | 2024-09-17 |
CN118656997B true CN118656997B (zh) | 2024-11-05 |
Family
ID=92704162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202411139885.3A Active CN118656997B (zh) | 2024-08-20 | 2024-08-20 | 基于3DWebGIS的边坡地质灾害监测信息系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118656997B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113990169A (zh) * | 2021-10-26 | 2022-01-28 | 新兴际华科技发展有限公司 | 一种分布式虚拟仿真地震应急演练系统 |
CN118212747A (zh) * | 2024-01-15 | 2024-06-18 | 华南理工大学 | 一种多源信息融合的边坡灾害智能监测预警系统及方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6806396B1 (ja) * | 2020-04-17 | 2021-01-06 | シンメトリー・ディメンションズ・インク | 災害予測システム、および災害予測方法 |
-
2024
- 2024-08-20 CN CN202411139885.3A patent/CN118656997B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113990169A (zh) * | 2021-10-26 | 2022-01-28 | 新兴际华科技发展有限公司 | 一种分布式虚拟仿真地震应急演练系统 |
CN118212747A (zh) * | 2024-01-15 | 2024-06-18 | 华南理工大学 | 一种多源信息融合的边坡灾害智能监测预警系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN118656997A (zh) | 2024-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11869192B2 (en) | System and method for vegetation modeling using satellite imagery and/or aerial imagery | |
US10740694B2 (en) | System and method for capture and adaptive data generation for training for machine vision | |
US20220067233A1 (en) | Generating operational and realistic models of physical systems | |
US20190012840A1 (en) | Cloud enabled augmented reality | |
US12045432B2 (en) | Interactive virtual interface | |
US8855439B2 (en) | Method for determining a localization error in a georeferenced image and related device | |
US20180204387A1 (en) | Image generation device, image generation system, and image generation method | |
CN117152371B (zh) | 一种三维地形测绘方法及系统 | |
Behzadan | ARVISCOPE: Georeferenced visualization of dynamic construction processes in three-dimensional outdoor augmented reality | |
RU2633642C1 (ru) | Способ получения, обработки, отображения и интерпретации геопространственных данных для геодезического мониторнига операционной обстановки паводковой ситуации с применением технологии дистанционного зондирования | |
CN107683498A (zh) | 利用视觉特征进行图像的自动连接 | |
CN114665608B (zh) | 用于变电站的智能感知巡检系统及方法 | |
CN116152863B (zh) | 一种人员信息识别方法、装置、电子设备及存储介质 | |
CN111354028B (zh) | 基于双目视觉的输电通道隐患物识别追踪方法 | |
CN118656997B (zh) | 基于3DWebGIS的边坡地质灾害监测信息系统 | |
Baeck et al. | Drone based near real-time human detection with geographic localization | |
CN113743015A (zh) | 火灾场景数据获取方法、介质及电子设备 | |
CN117910258A (zh) | 一种基于地质灾害的输电线路数字孪生体建模方法及系统 | |
CN117077238A (zh) | 一种用于消防点位精准跟踪的方法及系统 | |
CN117315139A (zh) | 一种基于点云的带电作业虚拟仿真分析方法 | |
KR102354870B1 (ko) | 게임엔진 기반 디지털 건설현장 안전 모니터링 시스템 | |
Alevizos | How to create high resolution digital elevation models of terrestrial landscape using uav imagery and open-source software | |
Jurado et al. | 3D underground reconstruction for real-time and collaborative virtual reality environment | |
CN111028339A (zh) | 一种行为动作建模方法、装置、电子设备和存储介质 | |
JP7330114B2 (ja) | 対象位置特定システムおよび対象位置特定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |