文摘
为了提高效率的动态可视化大规模道路交通数据在web环境中,本文提出了一个大满贯的3 d数字地形图在web环境中使用SqueezeNet可视化方法。我们提出一个层次道路网的组织方法,考虑道路属性和绘画道路在不同的看法高度;multiroad合并方法基于WebGL的线段索引特征(web图形库)技术,并优化现场拒绝和多线程技术结合视图。原型系统开发和案例研究进行了使用国家道路网数据为例。实验结果表明,大规模的道路交通数据可视化的帧速率网络环境高于40帧/秒,这是20 - 30帧/秒高于百度ECharts GL可视化方法。
1。介绍
随着城市化热潮,供给和需求之间的矛盾增加城市汽车保有量和有限的交通资源之间越来越激烈的(1),作为一个直接结果,交通堵塞是一个问题。道路交通信息的实时可视化可以清楚地显示实时交通拥堵状态,揭示了交通流的趋势变化,帮助交通部门监控实时交通流信息,及时发布社会2),允许人们选择他们的旅行时间和路线根据交通状况更计划的方式。然而,现有的浏览器的性能很难支持大规模实时交通信息的显示3]。因此,关键问题是如何有效地可视化实时道路交通的大量数据在web环境。大多数现有的web可视化技术需要安装浏览器插件来实现高效的大规模数据的呈现,但这带来了一定困难,维护和更新后,与此同时,浏览器插件无法满足用户的期望为方便和实时的网络地理信息系统(4,5]。然而,WebGL plug-in-free网络可视化技术,不能直接支持大规模的高质量和高效的渲染道路交通数据。
大多数国内外研究道路交通动态可视化使用WebGL技术反映了变化通过改变车辆轨迹流(6]。为电子产品,如百度地图,高德牌地图,和腾讯的地图,一般画在地图上的箭头,使用方向、厚度、或颜色的箭头来表示轨迹的方向和密度的程度3),比动画可视化效果较差。数据表示方法给降低感觉的刺激人类大脑的思维。(7)使用百度ECharts开源产品可视化动态可视化在重庆公共交通轨道;(5)可视化的车辆轨迹连接两个和三个维度,将三维属性值添加到二维地图代表速度和交通流量,但上述方法不支持大规模的交通数据的呈现和效率仍有缺点。
在可视化系统中,适当的使用动画和过渡效果的有效途径提高可视化结果视图的丰富性和可理解性(8]。流线和颜色梯度两种基本方法来提高可视化和产生巨大影响视觉效果和用户交互。流线,产生流动效应,不断更新光学特性,如颜色和透明度9),比静态线有更强的视觉冲击,色彩渐变可以作为援助增加用户的敏感观察交通模式的变化。如果大量的道路交通数据直接在浏览器中呈现,会有问题,如缓慢的数据采集,传输效率低、渲染效果。
因此,本文提出了一种轻量级实时道路交通数据的可视化方法大规模的网络。首先,我们使用高精度大型道路网络数据作为研究对象,基于道路网络数据的重建。基于道路网络的层次组织基于道路属性,我们系统地研究multiroad合并方法基于WebGL线段索引功能。其次,现场优化使用视图排斥和多线程技术设计和实现动画效果,如衰落和高效的实时动态流线,支持实时道路拥堵状态的变化。最后,实验和分析大规模简化网络的可视化进行了使用国家道路网数据为例。
2。项目设计
从Kinect摄像头获得的彩色图像与前一帧提取和匹配,和PnP型(perspective-n-point)是解决基于正确匹配特征信息结合的距离信息的深度图像获取构成两个坐标系之间的转换(10]。选择关键帧的运动设定一个合理的范围内,构成关键帧之间的转换信息和相邻关键帧存储。当前关键帧是环回检测到之前的所有关键帧,如果回送时,这两个关键帧进行特征提取,特征匹配和PnP型解决。那么所有位置信息在全球范围内优化使用图像优化工具,点云的地图是基于优化信息缝合在一起。
2.1。特征提取
在建立视觉里程计的主要问题是如何计算相机的位置变换的图像,所以需要找到一些特定点在图像。传统视觉SLAM算法通常使用筛选或浏览功能,是不变的,但是他们的计算都是很耗时的,不能满足实时要求的大满贯。在[11),ORB算法,速度比冲浪和筛选具有良好的不变性。出于这个原因,本文采用ORB特征提取算法。
ORB运营商包括两个部分:关键,称为“面向快速从加速段试验(特性),“是一个修改后的快速角点(12];描述符被称为短暂(二进制健壮的独立的基本特性)。在图像快速角点地方灰色梯度变化极大,如图1,f1是水平方向上的次序。首先,一个像素是取自图像并与16个像素的灰度值在一个半径为3的圆,如果N个连续点是大于或小于设定阈值,被认为是一个转折点。
解决拐角点定位的问题,规模和旋转特性被添加到描述。尺度不变性是通过构建图像金字塔和检测特征点图像,然后确定每一层的一般特征点检测到正确的检测结果。旋转属性所描述的灰度重心法,这决定了图像的质心的灰度值(13]。形象瞬间被定义为一个图像块米 在哪里是图像的时刻,订单在垂直方向,我(x,y)是灰度值点(x,y)。
质量中心的坐标图像块的C ,和方向矢量通过连接获得图像的几何中心O块质量的中心C。
简单是一种二进制描述符的0和1的向量编码之间的关系的大小两个像素附近的一个关键点。如果128年重点,128 - 0和1维向量的。结合快速角点的旋转特性的结果在一个简短的描述符具有旋转特性。
2.2。特征匹配和Pn P解决
图像的特征提取后,快速近邻搜索算法用于特征匹配。随机k d树构建找到对应点的特性在另一个图像,然后简要描述符之间的汉明距离计算两个特征点。最小的匹配点的距离图像表示这个距离d .阈值的4倍作为过滤条件过滤所有的匹配点,和小于这个距离的点被认为是正确的匹配点。最后,执行相同的操作图像,和匹配在一起的点被认为是最终的匹配点。
Pn P是一个方法求解三维到二维点对运动(14]。如果特征点的空间三维坐标的两张图片是已知的,至少需要三双点来估计摄像机的运动。特征点的空间三维坐标可以确定相机的深度图。有各种各样的方法来解决Pn P问题,如P3P,直接线性变换和非线性优化。
如图2在太空中,对于一个功能点,reprojection点是由于观测噪声的存在,有一个观察到的位置之间的偏差(像素坐标)和投影位置计算根据当前相机姿势,即reprojection错误,e节间的错误。
假设空间点的旋转矩阵 。相机的旋转矩阵的轨迹R和位移矢量t。我们构建的问题是一个非线性最小二乘问题通过最小化reprojection定义错误李代数,李代数的表示R和t通过ξ,reprojection点的像素坐标在这个轨迹 ,然后 在哪里深度点吗我;K是转换因子,是谎言代数反对称矩阵。
如果有n对匹配特性,可以构建基于最小二乘问题reprojection错误上面所提到的,在以下方程: 在哪里是代数reprojection谎言。
最小二乘问题可以通过高斯牛顿法或Levernberg-Marquardt解决方法。在大满贯,最小化误差的过程中通过调整相机的姿态和航点的坐标叫做BA(束调整)15]。
2.3。环回检测
如果视觉测程法建立只考虑相邻帧之间的运动,它可能会导致错误的积累,如果相机可以检测到通过相同的位置,然后可以添加约束估计摄像机运动轨迹,使其更接近真正的轨迹(16]。
卷积神经网络是一种前馈神经网络,主要由卷积和池层(17]。而人为设计的图像特征在传统的计算机视觉中,图像特征提取的CNN能更好地反映真正的特点,比传统计算机视觉图像和更有效的方法在图像分类和识别领域。因此,在这篇文章中,CNN是用来代替传统bag-of-words方法执行环回检测。
SqueezeNet是由加州大学伯克利分校和斯坦福大学的研究人员设计的,不是为了达到最好的CNN识别精度,而是简化网络的复杂性,实现公共网络的识别精度。SqueezeNet是火的核心组成模块。SqueezeNet由8火模块从fire2 fire9 fire2的结构如图3,H和W的高度和宽度特征地图,分别通道的数量。
SqueezeNet减少了参数的数量和失败在网络通过火的模块,每一个由紧缩和扩展模块。挤压模块使用e1 1×1卷积内核降低特征维数的地图,地图和特性是W H××e1ReLu后激活。特征映射是W H××e2两个水龙头后扩大(1×1和3×3卷积内核,分别)分别计算,然后两个水龙头缝合在一起的特征图谱的concat层产生W H××e3。e2= 4 e1和e3= 2e2自卷积内核消防网络是相同的大小,只有渠道不同的数量。图4表明火结构标记为火灾的数量的渠道结构输出 。
当网络的输入是一个224×224×3 RGB图像,网络计算只有837 MFlops,所以网络结构更适合轻量级设备如智能移动机器人。SqueezeNet用于本文的网络结构如图4(18]。
图像送入SqueezeNet网络作为一个224×224三通道RGB图像,和1 000 -维数组= (a1, a2, a3,…, a1 000)提取图像的特征向量。让我们假设其他图像的特征向量B = (b1, b2, b3,…, b1 000)。这两个图像的特征向量的余弦相似度可以用来确定两幅图像是否相似,如以下方程:
如果余弦相似度大于设定的阈值,则认为发生回送。否则,我们跳过下一帧,与输入图像的特征向量,直到回送。
2.4。全局优化
在大满贯过程中,全局优化的后端需要考虑。摄像机运动可以用玫瑰图,如图5,其中每个节点表示摄像机构成为每个关键帧和节点之间的边表示摄像机构成两个关键帧之间转换。
相机的姿势有6个自由度,3轴向位置,和扭矩3轴,用 ,也就是说, 。
两个姿势之间的转换关系
两个连接节点之间的误差k和j是 在哪里节点的估计价值吗k。
总结所有的节间错误和scalarizing他们使总误差 F组节点和在哪里之间的信息矩阵吗和 。
优化提出了可以通过求解最小二乘问题。在本文中,我们使用通用图形优化g2o获得优化提出了(19]。顶点和边的类型定义,添加节点和边的信息,和一个合适的解算器选择优化算法和迭代算法。g2o提供了三种不同的线性动力学:CSparse Cholmod Cholsky分解为基础,和PCG条件共轭梯度,和迭代算法,包括Gaussian-Newton Levernberg-Marquardt,鲍威尔的狗腿。
3所示。测试结果和分析
Turtlebot2机器人平台上进行了实验,Kinect V1深度相机和NvidiaTX2发展委员会(20.]。算法运行在一个Ubuntu 14.04系统,涉及ROS机器人操作系统和开源库,如咖啡,OpenCV,特征,PCL, g2o [21]。实验数据集包括中空的(音乐)技术大学的22nyuv2]数据集,数据集,数据集收集的Turtlebot2本身,如表所示1。空的数据集被计算机视觉集团收购的慕尼黑工业大学(23)和基于深度相机采集的高精度运动传感器,允许颜色和深度图像的真实运动摄像机。空的数据集还提出了一种方法来计算轨迹之间的误差估计SLAM算法的轨迹和标准轨迹高精度运动传感器获得。
3.1。与Loopback-Free检测的算法进行比较
968帧组成的数据集获得室内使用Turtlebot2,彩色图像的分辨率为640×480像素和相应的深度图像,获得了30帧/秒的速度。
建筑的结果估计有或没有环回检测如图6。当没有环回检测算法用于构建地图,相机轨迹漂移和失败关闭由于错误的积累。相比之下,使用这个算法时,运动约束添加到环回由于成功的环回检测,结果在一个封闭的运动轨迹(24]。
图7显示获得的点云映射在使用环回检测算法和环回检测算法。点云地图很大程度上重叠的位置循环发生,表明错误的估计轨迹是真正的轨迹。这表明该算法可以成功地检测循环和添加约束全局轨迹优化,使估计运动和建立地图更接近实际情况。
3.2。比较和对比的Bag-of-Words方法
算法确定一个回路发生可能不同于大约有4种不同的场景,如表所示2。
精度和回忆是用来测量环回检测结果的美好,在方程(8)和(9)。 在哪里 , ,和真阳性的数量、假阳性和假阴性,分别。
环回检测算法和bag-of-words方法提出了新的大学数据集上进行了测试和白手起家的数据集,分别和实验结果的精度和召回比较得到如图8,具体数据如表所示3。
从图可以看出8这个算法的召回率显著高于bag-of-words方法相同的精度。由于精度比回忆更重要在环回检测算法,假阳性结果将产生非常糟糕的影响最终的地图,所以重要的是要确保准确性是1。召回该算法精度时0.4是1,而召回bag-of-words方法是0.33。算法提高了约21% bag-of-words方法相比,和时间计算两幅图像的相似度降低74%。的时间来计算两幅图像之间的相似度降低了74%。
3.3。构建的准确性
计算机视觉组在慕尼黑工业大学,德国,提供了一个衡量的轨迹误差和绝对的轨迹误差(吃)空的数据集(25- - - - - -28]。吃了通过计算估计轨迹的均方根误差和标准轨迹。假设相机的标准轨迹 相机的估计轨迹 ,绝对的均方根误差轨迹 反式()函数获取手势翻译向量。
图9显示了估计算法的轨迹和标准轨迹高精度运动传感器获得的。由于收购较高频率的高精度运动传感器用于中空的数据集,轨迹信息获得更加丰富。
(一)
(b)
表4比较了映射算法的准确性。TUM fr3_stf数据集使用的总采购时间是31.55秒,标准轨迹的总长度是5.884米,平均相机移动速度是0.193米/秒。绝对的轨迹的均方根误差为0.050 0 m估计的算法。使用RGB-D大满贯(执行相同的映射23,绝对的均方根误差轨迹是0.049 0 m。绝对的轨迹误差的均方根值为0.049 0 m。从图9(一个)可以看出,没有回送TUM fr3_stf,和该算法的误差RGB-DSLAM的相似。
TUM fr3_xyz使用的数据收集时间为30.09,标准轨迹的总长度是7.112米,和相机运动的平均速度为0.244米/秒。绝对的均方根(RMS)轨迹误差是0.010 - 4米。绝对轨迹的均方根误差为0.013 5米当同一RGB-D大满贯是用于构建地图。从图9 (b),我们可以看到,有更多TUM fr3_xyz循环,构建地图和错误是RGB-D大满贯相比减少了29%。
4所示。结论
本文提出一种轻量级可视化方法大满贯三维数字地形地图使用SqueezeNet在web环境。本文提出一种multiroad基于WebGL的行索引特征的融合方法(web图形库)技术和优化相结合的场景视图排斥和多线程技术,设计和实现等动画效果消退和动态流线,支持实时改变道路拥堵状态。最后,开发了原型系统,实验和分析进行了与国家道路网数据。实验结果表明,与RGB-D大满贯相比,本文中描述的算法更适合大规模的动态可视化道路交通网络环境中的数据与地图建设的误差减少29%。
数据可用性
数据基础的研究结果中可用的手稿。
的利益冲突
作者宣称没有利益冲突的研究。所有作者出版的手稿和批准它。
确认
这项工作的部分赞助由安徽省级自然科学基金项目(BIM + GIS研究3 d场景建模和集成方法)(KJ2021A1082);安徽建设科技计划项目(建筑和智能消防平台的关键技术研究基于BIM + GIS, 2021 - yf11);滁州科技计划重点项目(关键技术研究和示范应用基于BIM的智能消防,2020 zn004)。