欢迎来到优发表网,发表咨询:400-888-9411 订阅咨询:400-888-1571股权代码(211862)

购物车(0)

期刊大全 杂志订阅 SCI期刊 期刊投稿 出版社 公文范文 精品范文

简述云计算的主要特征(合集7篇)

时间:2023-12-17 15:19:56
简述云计算的主要特征

简述云计算的主要特征第1篇

 

0引言

 

随着大规模精细三维模型获取技术的不断发展,三维激光扫描技术凭借其数据获取速度快、精度高、覆盖广的特点,成为高精度三维模型数据获取的主流方式之一,获取的点云数据量也呈几何级数增长,因此,如何对海量散乱点云数据进行简化已成为计算机图形学、快速成型、三维测绘、地理信息系统、数字城市、军事仿真、游戏娱乐等点云模型应用领域的重要研究课题之一。

 

传统的点云简化方法主要分为两个大类:第一类是顾及特征的简化[1-3],此类算法需要依据单点的K邻近点集拟合曲面,并构建曲面的法向量和曲率等相关特征度量因子判定单点是否为特征点,从而实现点云简化。这些算法能够保持模型特征,但是涉及K邻近点集等复杂计算操作,耗时多,仅适用于小数据量的点云简化。第二类是规则采样简化算法[4-6],此类算法依据一定规则对原始点云进行采样,然后以采样点作为特征点保留,剔除其他点实现点云简化。这类算法简化效率高,但是不能有效地保持模型特征,由于采样标准单一,在特征变化明显的尖锐弯曲处会导致局部细节过度光顺丢失细节。由此可见,传统算法的主要问题是点云简化过程中计算复杂与模型特征保持不能兼顾。

 

近年来通用计算图形处理器(General Purpose Graphics Processing Unit, GPGPU)的快速兴起,尤其是NVIDIA公司2006年推出的图形处理器(Graphics Processing Unit, GPU)并行计算框架——统一计算设备架构(Compute Unified Device Architecture, CUDA)[7]凭借其高性价比、低通信开销、卓越的并行计算能力,让海量化或者计算复杂度高的三维点云模型数据快速处理成为可能。文献[8]使用GPGPU实现基于边缘点的激光雷达(Light Detection And Ranging, LiDAR)点云滤波算法,文献[9]提出一种基于CUDA的双边滤波的点云滤波算法。两者都将K邻近点、曲面拟合、法向量以及曲率等计算复杂度高的步骤,利用CUDA编写不同的kernel并行化,从而加速点云简化,但是,由于在单个线程中完成类似求解单点K邻近点的计算需要消耗太多的全局内存等GPU资源,这严重制约此类算法处理点云的规模,仅适用于数十万级的小规模点云处理。

 

本文借助众核GPU通用计算高性能并行的特点,结合快速成型领域切片点云简化算法[10-12]顾及特征的优势,实现了基于CUDA的顾及模型特征且适合千万级点云的并行简化算法,并从该算法的时间效率方面的优势阐述了CUDA用于海量数据处理的优势和潜力。

 

1切片点云算法原理

 

基于CUDA的切片算法实现原理如下:首先,在CPU端根据点云的几何分布特征对点云进行分层并降维投影至相应的投影平面上;然后,依次对不同投影面上单层点云中的每一点和相应投影平面坐标原点所连直线与投影面某一坐标轴固定方向的夹角大小进行升序排序;最后,使用本文提出的利用CUDA在GPU端对每层排序后的切片点云依据弦高差法并行计算各点的弦高差值和各层切片的弦高差均值作为阈值,通过比较各点弦高差与阈值的关系,确定该点是否为特征点从而完成该层切片简化。

 

1.1特征点的提取原理

 

利用弦高差法来确定切片中各点是否为特征点,原理详见文献[13],其中弦高距离由式(1)求得:

 

di=|Axi+Byi+C|/A2i+B2i+C2i(1)

 

如图1所示,pi为目标待判定点,直线pi-1pi+1所构成直线方程为l:Ax+By+C=0,由计算几何的原理可求得pi到直线l的垂直距离为di。

 

其中:mj表示第j层点云的总数;di表示第j层点云中的第i个点的弦高差值。

 

1.2基于CUDA的切片算法实现

 

由上述原理可以看出:依次计算单点的弦高差、单层切片的阈值σ以及单点弦高与阈值的比较等操作均是计算密集的操作,不涉及对原始切片数据的写操作,不会因为数据的复写而引发数据的二义性,具备良好的数据独立性,因此本文借助NVIDIA推出的GPGPU平台CUDA的单程序多数据(Single Program Multiple Data, SPMD)特性[7],利用GPU中大规模并行处理器的并行计算能力,使用相互独立的线程并发执行这些计算,实现基于数据并行性的点云简化,具体算法如下。

 

步骤1将依据角度排序后的单层点云切片从CPU的cpuvector中传入至GPU的gpuvector中。

 

步骤2结合CUDA,设定核函数的线程块数量blockDim.x和线程块中线程数量threadDim.x,启动核函数BowstringCaculate_kernel并行计算出每一点的弦高差值并存入GPU显存的数组Height中。

 

步骤3在GPU中用并行归约算法求出该层切片的弦高差均值σ,作为该层切片的特征判定阈值。

 

步骤4启动核函数isFeaturePoint_kernel,根据BowstringCaculate_kernel返回的各点弦高Height与阈值σ,确定该层切片中的特征点,并将计算结果存入数组isFearturePoint中。

 

步骤5将isFearturePoint数组中的元素利用CUDA的核函数cudaMempy传回至CPU端,在CPU端根据对应索引位置的值决定cpuvector相应位置上的点保留与否,从而得到简化后的点云SimplyfiedVector。

 

步骤6回到步骤1继续对其他切片层的点云简化。算法中的流程如图2所示。

 

其中,执行单层切片点云弦高差计算的核函数BowstringCaculate_kernel的伪代码如下。

 

算法BowstringCaculate_kernel。

 

有序号的程序——————————Shift+Alt+Y

 

程序前

 

输入:LayerPoints为排序后的单层切片点云的坐标数组;Size表示该层切片的点云数量。

 

输出:Height为用于保存每个线程计算的弦高差值的数组。

 

1)

 

Dim index threadInx.x+blockIdx.x*blockDim.x;

 

2)

 

Dim *leftPoint,*rightPoin;

 

3)

 

if(index

4)

 

Loop index from 0 to Size Do

 

5)

 

leftPoint LayerPoints+index-1;

 

6)

 

rightPoint LayerPoints+index-1;

 

7)

 

if(index==0)Then

 

8)

 

leftPoint LayerPoints+Size-1;

 

9)

 

End if

 

10)

 

if(index==Size-1)

 

11)

 

rightPoint LayerPoints+index-(Size-1);

 

12)

 

End if

 

13)

 

Height[index] calculateHeight(leftPoint;

 

14)

 

LayerPoint[index],rightPoint);

 

15)

 

index index+blockDim.x*GridDim.x;

 

16)

 

End Loop

 

17)

 

End if

 

程序后

 

其中,calculateHeight为计算单点的弦高函数,其实现原理如式(1)和图1所示。

 

2实验分析

 

实验平台配置如下:Windows 7操作系统,CPU为Intel Core i53470 @ 3.20GHz 3.60GHz,内存为4.0GB(3.28GB可用),显卡为NVIDIA GeForce GT 640。在该平台下使用C++语言结合Visual Studio2010和NVIDIA的CUDA6.0框架实现本文算法。

 

算法实验的模型数据如图3所示:龙模型共437645个点,大佛模型共有1753052个点,高观音模型共11807207个点。

 

本文使用上述3个不同数量级的点云模型,对本文提出的基于CUDA的切片点云简化算法(简称GPU切片算法)与基于CPU的切片点云简化算法[13](以下简称CPU切片法)进行对比实验。

 

其中:弦高差阈值由式(1)求出,切片方向均为z轴,依次选取切片数量laynum为10,25,50,75,100作5组对比实验,结果如表1所示。

 

通过表1,可依次求得上述3个不同数量级模型的算法耗时与切片层数的关系曲线如图4所示。

 

其中图4中的折线图(a)、(b)、(c)依次表示龙模型、观音模型以及高观音模型的算法耗时与切片层数的对应关系,(d)表示龙模型、观音模型以及高观音模型对应的CPU切片法与GPU切片法的加速比(其中加速比等于CPU算法执行时间除以GPU算法执行时间)与切片层数的对应关系。

 

从表1呈现的数据以及图4的折线图(a)、(b)、(c)呈现的线条走势可以看出:在两种算法对应的压缩率基本一致基础上,本文提出的GPU切片算法的效率比传统CPU算法高出10~30倍,约1~2个量级;但是,随着切片层数的增加,本文提出的GPU算法耗时有一定程度的增加。因为在CUDA架构的切片算法中(流程如图2所示),随着切片层数的增加,CPU和GPU之间进行I/O交互的次数也随之增加,最终导致算法的执行时间有一定程度的增加。从图4(d)可以看出:龙模型和观音模型的加速比,均随着切片层数增加有一定程度的减小。而数据量多达千万个点的高观音模型,其加速比曲线变化相对平稳。这是由于GPU更适合于密集型的计算,当数据量(计算量)较小时,算法在GPU上的执行时间无法隐藏访问和数据传输的延迟,而随着数据量的增大,这些延迟逐渐被隐藏,因此加速比逐渐增大。而当数据量增大一定的程度,GPU近乎满负荷的工作,所有的访问和数据传输的延迟都已被很好地隐藏,加速比也趋于稳定如高观音模型的加速比曲线所示。

 

此外,以模型特征最为明显的观音模型为例,依次选取该模型切片数为25,50,75的底座前侧简化局部视图,如图5所示。发现当切片层数为25时,由于压缩率粒度太大导致底座衣服褶皱与莲花形等多处被过度平滑,特征丢失太严重;切片层数为75时,由于压缩粒度太小导致残留的冗余点较多;而切片层数为50时,底座衣服褶皱与莲花形的特征细节完整保持,而且冗余的点较少,简化效果是较为理想,因此,对不同的模型选取合适的切片层数对模型简化至关重要。

 

3结语

 

本文利用CUDA的高性能并行计算优势,对传统基于CPU的串行切片点云简化算法进行了改进,将传统算法的核心步骤:单点的弦高差计算与特征点判定算法逻辑并行化,通过对不同数量级的3个点云模型的简化实验,得出以下结论:

 

1)对于同一模型,GPU算法尽管随着切片层数的增加,耗时由于数据交互次数增加有一定程度的小幅震荡,但均远少于传统CPU算法。

 

2)对于不同数量级的模型,加速比曲线随着点云数量的增加而逐渐稳定,且加速效果更优,验证了本文算法应对海量点云简化的优势和潜力。

 

3)模型的特征保留完整性与切片层数无直接关系,仅仅与模型表面特征有关。

 

下一步主要工作是在CPU端使用多线程并行技术,提高点云切片分层排序的速度;应用GPU架构中不同访问性能的内存模型和基于任务并行性的流水线模型对算法进行优化。

简述云计算的主要特征第2篇

关键词:

海量点云;简化;切片法;计算设备架构;图形处理器;并行计算

中图分类号: TP391.413 文献标志码:A

0引言

随着大规模精细三维模型获取技术的不断发展,三维激光扫描技术凭借其数据获取速度快、精度高、覆盖广的特点,成为高精度三维模型数据获取的主流方式之一,获取的点云数据量也呈几何级数增长,因此,如何对海量散乱点云数据进行简化已成为计算机图形学、快速成型、三维测绘、地理信息系统、数字城市、军事仿真、游戏娱乐等点云模型应用领域的重要研究课题之一。

传统的点云简化方法主要分为两个大类:第一类是顾及特征的简化[1-3],此类算法需要依据单点的K邻近点集拟合曲面,并构建曲面的法向量和曲率等相关特征度量因子判定单点是否为特征点,从而实现点云简化。这些算法能够保持模型特征,但是涉及K邻近点集等复杂计算操作,耗时多,仅适用于小数据量的点云简化。第二类是规则采样简化算法[4-6],此类算法依据一定规则对原始点云进行采样,然后以采样点作为特征点保留,剔除其他点实现点云简化。这类算法简化效率高,但是不能有效地保持模型特征,由于采样标准单一,在特征变化明显的尖锐弯曲处会导致局部细节过度光顺丢失细节。由此可见,传统算法的主要问题是点云简化过程中计算复杂与模型特征保持不能兼顾。

近年来通用计算图形处理器(General Purpose Graphics Processing Unit, GPGPU)的快速兴起,尤其是NVIDIA公司2006年推出的图形处理器(Graphics Processing Unit, GPU)并行计算框架――统一计算设备架构(Compute Unified Device Architecture, CUDA)[7]凭借其高性价比、低通信开销、卓越的并行计算能力,让海量化或者计算复杂度高的三维点云模型数据快速处理成为可能。文献[8]使用GPGPU实现基于边缘点的激光雷达(Light Detection And Ranging, LiDAR)点云滤波算法,文献[9]提出一种基于CUDA的双边滤波的点云滤波算法。两者都将K邻近点、曲面拟合、法向量以及曲率等计算复杂度高的步骤,利用CUDA编写不同的kernel并行化,从而加速点云简化,但是,由于在单个线程中完成类似求解单点K邻近点的计算需要消耗太多的全局内存等GPU资源,这严重制约此类算法处理点云的规模,仅适用于数十万级的小规模点云处理。

本文借助众核GPU通用计算高性能并行的特点,结合快速成型领域切片点云简化算法[10-12]顾及特征的优势,实现了基于CUDA的顾及模型特征且适合千万级点云的并行简化算法,并从该算法的时间效率方面的优势阐述了CUDA用于海量数据处理的优势和潜力。

1切片点云算法原理

基于CUDA的切片算法实现原理如下:首先,在CPU端根据点云的几何分布特征对点云进行分层并降维投影至相应的投影平面上;然后,依次对不同投影面上单层点云中的每一点和相应投影平面坐标原点所连直线与投影面某一坐标轴固定方向的夹角大小进行升序排序;最后,使用本文提出的利用CUDA在GPU端对每层排序后的切片点云依据弦高差法并行计算各点的弦高差值和各层切片的弦高差均值作为阈值,通过比较各点弦高差与阈值的关系,确定该点是否为特征点从而完成该层切片简化。

1.1特征点的提取原理

利用弦高差法来确定切片中各点是否为特征点,原理详见文献[13],其中弦高距离由式(1)求得:

di=|Axi+Byi+C|/A2i+B2i+C2i(1)

如图1所示,pi为目标待判定点,直线pi-1pi+1所构成直线方程为l:Ax+By+C=0,由计算几何的原理可求得pi到直线l的垂直距离为di。

其中:mj表示第j层点云的总数;di表示第j层点云中的第i个点的弦高差值。

1.2基于CUDA的切片算法实现

由上述原理可以看出:依次计算单点的弦高差、单层切片的阈值σ以及单点弦高与阈值的比较等操作均是计算密集的操作,不涉及对原始切片数据的写操作,不会因为数据的复写而引发数据的二义性,具备良好的数据独立性,因此本文借助NVIDIA推出的GPGPU平台CUDA的单程序多数据(Single Program Multiple Data, SPMD)特性[7],利用GPU中大规模并行处理器的并行计算能力,使用相互独立的线程并发执行这些计算,实现基于数据并行性的点云简化,具体算法如下。

步骤1将依据角度排序后的单层点云切片从CPU的cpuvector中传入至GPU的gpuvector中。

步骤2结合CUDA,设定核函数的线程块数量blockDim.x和线程块中线程数量threadDim.x,启动核函数BowstringCaculate_kernel并行计算出每一点的弦高差值并存入GPU显存的数组Height中。

步骤3在GPU中用并行归约算法求出该层切片的弦高差均值σ,作为该层切片的特征判定阈值。

步骤4启动核函数isFeaturePoint_kernel,根据BowstringCaculate_kernel返回的各点弦高Height与阈值σ,确定该层切片中的特征点,并将计算结果存入数组isFearturePoint中。

步骤5将isFearturePoint数组中的元素利用CUDA的核函数cudaMempy传回至CPU端,在CPU端根据对应索引位置的值决定cpuvector相应位置上的点保留与否,从而得到简化后的点云SimplyfiedVector。

步骤6回到步骤1继续对其他切片层的点云简化。算法中的流程如图2所示。

其中,执行单层切片点云弦高差计算的核函数BowstringCaculate_kernel的伪代码如下。

算法BowstringCaculate_kernel。

有序号的程序――――――――――Shift+Alt+Y

程序前

输入:LayerPoints为排序后的单层切片点云的坐标数组;Size表示该层切片的点云数量。

输出:Height为用于保存每个线程计算的弦高差值的数组。

1)

Dim index threadInx.x+blockIdx.x*blockDim.x;

2)

Dim *leftPoint,*rightPoin;

3)

if(index

4)

Loop index from 0 to Size Do

5)

leftPoint LayerPoints+index-1;

6)

rightPoint LayerPoints+index-1;

7)

if(index==0)Then

8)

leftPoint LayerPoints+Size-1;

9)

End if

10)

if(index==Size-1)

11)

rightPoint LayerPoints+index-(Size-1);

12)

End if

13)

Height[index] calculateHeight(leftPoint;

14)

LayerPoint[index],rightPoint);

15)

index index+blockDim.x*GridDim.x;

16)

End Loop

17)

End if

程序后

其中,calculateHeight为计算单点的弦高函数,其实现原理如式(1)和图1所示。

2实验分析

实验平台配置如下:Windows 7操作系统,CPU为Intel Core i53470 @ 3.20GHz 3.60GHz,内存为4.0GB(3.28GB可用),显卡为NVIDIA GeForce GT 640。在该平台下使用C++语言结合Visual Studio2010和NVIDIA的CUDA6.0框架实现本文算法。

算法实验的模型数据如图3所示:龙模型共437645个点,大佛模型共有1753052个点,高观音模型共11807207个点。

本文使用上述3个不同数量级的点云模型,对本文提出的基于CUDA的切片点云简化算法(简称GPU切片算法)与基于CPU的切片点云简化算法[13](以下简称CPU切片法)进行对比实验。

其中:弦高差阈值由式(1)求出,切片方向均为z轴,依次选取切片数量laynum为10,25,50,75,100作5组对比实验,结果如表1所示。

通过表1,可依次求得上述3个不同数量级模型的算法耗时与切片层数的关系曲线如图4所示。

其中图4中的折线图(a)、(b)、(c)依次表示龙模型、观音模型以及高观音模型的算法耗时与切片层数的对应关系,(d)表示龙模型、观音模型以及高观音模型对应的CPU切片法与GPU切片法的加速比(其中加速比等于CPU算法执行时间除以GPU算法执行时间)与切片层数的对应关系。

从表1呈现的数据以及图4的折线图(a)、(b)、(c)呈现的线条走势可以看出:在两种算法对应的压缩率基本一致基础上,本文提出的GPU切片算法的效率比传统CPU算法高出10~30倍,约1~2个量级;但是,随着切片层数的增加,本文提出的GPU算法耗时有一定程度的增加。因为在CUDA架构的切片算法中(流程如图2所示),随着切片层数的增加,CPU和GPU之间进行I/O交互的次数也随之增加,最终导致算法的执行时间有一定程度的增加。从图4(d)可以看出:龙模型和观音模型的加速比,均随着切片层数增加有一定程度的减小。而数据量多达千万个点的高观音模型,其加速比曲线变化相对平稳。这是由于GPU更适合于密集型的计算,当数据量(计算量)较小时,算法在GPU上的执行时间无法隐藏访问和数据传输的延迟,而随着数据量的增大,这些延迟逐渐被隐藏,因此加速比逐渐增大。而当数据量增大一定的程度,GPU近乎满负荷的工作,所有的访问和数据传输的延迟都已被很好地隐藏,加速比也趋于稳定如高观音模型的加速比曲线所示。

此外,以模型特征最为明显的观音模型为例,依次选取该模型切片数为25,50,75的底座前侧简化局部视图,如图5所示。发现当切片层数为25时,由于压缩率粒度太大导致底座衣服褶皱与莲花形等多处被过度平滑,特征丢失太严重;切片层数为75时,由于压缩粒度太小导致残留的冗余点较多;而切片层数为50时,底座衣服褶皱与莲花形的特征细节完整保持,而且冗余的点较少,简化效果是较为理想,因此,对不同的模型选取合适的切片层数对模型简化至关重要。

3结语

本文利用CUDA的高性能并行计算优势,对传统基于CPU的串行切片点云简化算法进行了改进,将传统算法的核心步骤:单点的弦高差计算与特征点判定算法逻辑并行化,通过对不同数量级的3个点云模型的简化实验,得出以下结论:

1)对于同一模型,GPU算法尽管随着切片层数的增加,耗时由于数据交互次数增加有一定程度的小幅震荡,但均远少于传统CPU算法。

2)对于不同数量级的模型,加速比曲线随着点云数量的增加而逐渐稳定,且加速效果更优,验证了本文算法应对海量点云简化的优势和潜力。

3)模型的特征保留完整性与切片层数无直接关系,仅仅与模型表面特征有关。

下一步主要工作是在CPU端使用多线程并行技术,提高点云切片分层排序的速度;应用GPU架构中不同访问性能的内存模型和基于任务并行性的流水线模型对算法进行优化。

参考文献:

[1]

周煜,张万冰,杜发荣,等.散乱点云数据的曲率精简算法[J].北京理工大学学报,2010,30(7):785-790.(ZHOU Y, ZHANG W B, DU F R, et al. Algorithm for reduction of scattered point cloud data based on curvature [J].Transactions of Beijing Institute of Technology, 2010, 30(7): 785-790.)

[2]

李义琛,庞明勇.基于二次误差度量的点云简化[J].小型微型计算机系统,2012,33(11):2538-2543.(LI Y C, PANG M Y. Decimating point cloud based on quadric error metric [J]. Journal of Chinese Computer Systems, 2012, 33(11): 2538-2543.)

[3]

王先泽,李忠科,张晓娟,等.特征保持的基于紧支径向基函数的点云简化[J].计算机工程与设计,2013,34(1):201-206.(WANG X Z, LI Z K, ZHANG X J, et al. Feature preserving simplification of point cloud based on CSRBF [J]. Computer Engineering and Design, 2013, 34(1): 201-206.)

[4]

胡志胜,于敬武,述涛.一种结合了栅格化和特征判断的点云压缩方法[J].辽宁工程技术大学(自然科学版),2015,34(8):958-963.(HU Z S, YU J W, SHU T.A point cloud compression approach combined with rasterizing and feature estimate [J]. Journal of Liaoning Technical University (Natural Science), 2015, 34(8): 958-963.)

[5]

邢正全,邓喀中,薛继群.基于栅格划分和法向量估计得点云数据压缩[J].测绘通报,2012(7):50-54.(XING Z Q, DENG K Z, XUE J Q. Point cloud data compression based on grid division and normal vector estimation [J]. Bulletin of Surveying and Mapping, 2012(7): 50-54.)

[6]

邵正伟,席平.基于八叉树编码的点云数据精简方法[J].工程图学学报,2010,31(4):73-77.(SHAO Z W, XI P. Data reduction for point cloud using octree coding [J]. Journal of Engineering Graphics, 2010, 31(4): 73-77.)

[7]

赵开勇,汪朝辉.大规模并行处理器编程实战[M].2版.北京:清华大学出版社,2013:36-40.(ZHAO K Y, WANG C H. Programming Massively Parallel Processors: a Handson Approach [M]. 2nd ed. Beijing: Tsinghua University Press, 2013: 36-40.)

[8]

崔放,徐宏根,王宗跃.基于GPGPU的并行LiDAR点云滤波算法[J].华中师范大学学报(自然科学版版),2014,48(3):431-436.(CUI F, XU H G, WANG Z Y. A point cloud filtering algorithm based on GPGPU parallel computing [J].Journal of Huazhong Normal University (Natural Science), 2014, 48(3): 431-436.)

[9]

唐杰,徐波,宫中牛等.一种基于CUDA的三维点云快速光顺算法[J].系统仿真学报,2012,24(8):1633-1638.(TANG J, XU B, GONG Z L, et al. Fast fairing of 3D point cloud using CUDA [J].Journal of System Simulation, 2012, 24(8): 1633-1638.)

[10]

PARK H T, CHANG M H, PARK S C. A slicing algorithm of point cloud for rapid prototyping [C]// Proceedings of the 2007 Summer Computer Simulation Conference. San Diego, CA: Society for Computer Simulation International, 2007: Article No. 24.

[11]

SHIN H, PARK S. Direct slicing of a point set model for rapid prototyping [J]. ComputerAided Design and Applications, 2004, 1(1/2/3/4): 109-115.

[12]

PERCOCO G, GALANTUCCI L. Localgenetic slicing of point clouds for rapid prototyping [J]. Rapid Prototyping Journal, 2008, 14(3): 161-166.

[13]

方芳,程效军.海量散乱点云快速压缩算法[J].武汉大学学报(信息科学版),2013,38(11):1353-1357.(FANG F, CHENG X J. A fast reduction method for massive scattered point cloud based on slicing [J]. Geomatics and Information Science of Wuhan University, 2013, 38(11): 1353-1357.)

简述云计算的主要特征第3篇

【关键词】云计算 数据挖掘 系统设计

随着网络大数据信息处理技术的发展,对数据处理的规模不断增大,对数据信息处理的精度要求不断提升,采用云计算进行数据分布式网格计算,能提高数据的并行处理和调度性能,根本上提高数据的计算速度,因此,云计算成为未来大数据信息处理的主要趋势。在云计算环境下进行数据挖掘,是进行大数据信息特征提取和数据开采的基本技术,相关的算法研究受到人们的重视。

文献采用云计算环境下分布式数据模糊C均值聚类的挖掘算法,在受到较强的毗连特征干扰时,数据挖掘的精度不高。针对上述问题,本文提出一种基于分布式自适应特征调度和高阶累积量后置聚焦的数据挖掘算法,并进行了仿真实验性能分析,得出了较好的数据挖掘效果的结论。

1 基于云计算的分布式数据挖掘算法设计

为了实现对基于云计算的分布式数据挖掘系统设计,其中,数据挖掘算法设计是关键,本文提出一种基于分布式自适应特征调度和高阶累积量后置聚焦的数据挖掘算法,假设数据信息流为,数据信息流通过噪声滤波,得到数据流聚类相似性函数表示为,其是一组准平稳随机的时间序列,对数据库中的存储信息流进行能量谱密度特征提取,得到输出数据x(t)的第n个宽频带分量,分布式自适应特征调度模型表示为:

2 嵌入式Linux的内核下数据挖掘系统设计描述

在上述进行了算法设计的基础上,进行数据挖掘系统的软件开发设计,基于云计算的分布式数据挖掘系统总体模型中,采用ST 超低功耗 ARM CortexTM-M0 微控制器,系统建立在嵌入式Linux的内核平台上,系统包括程序加载模块、数据存储模块、数据缓存调度模块和数据通信传输模块等,通过配置CAN_IMASK寄存器,采用LabWindows/CVI进行数据远程控制和信息通信,基于云计算的分布式数据挖掘系统给用户提供一个简单、统一的系统调用接口,系统可配置4路组联合Cache,基于云计算的分布式数据挖掘系统的寄存器系统时钟120 MHz。嵌入式Linux的内核下数据挖掘系统通过VISA软件接口发送Flash设备上的文件系统内核到HP E1562D/E SCSI数据硬盘进行数据存储,调用s3c2440_adc_read()函数,进行程序加载和基于云计算的分布式数据挖掘系统的嵌入式控制,使用Qt/Embedded作为GUI,利用开源Linux操作系统的丰富网络资源,实现数据挖掘系统的远程通信信息传输和控制。

3 仿真实验

为了测试本文设计的基于云计算的分布式数据挖掘系统在实现数据挖掘中的优越性能,进行仿真实验,分布式数据信息采样的时宽为10 ms, 分布式数据的随机采样率为KHz,调控因子λ=0.25。根据上述仿真环境和参数设定,进行基于云计算的分布式数据挖掘系统的数据挖掘和处理性能分析,首先进行数据挖掘的输出时域波形采样,结果如图1所示。

从图可见,采用本文算法进行数据挖掘的准确度较高,为了对比性能,采用本文方法和传统方法,以数据挖掘的准确配准性为测试指标,得到对比结果如图2所示。

实验结果表明,采用该方法进行基于云计算的分布式数据挖掘,数据挖掘的准确配准性能较好,系统的可靠性较好。

4 结束语

本文提出一种基于分布式自适应特征调度和高阶累积量后置聚焦的数据挖掘算法,并进行了实验分析。结果表明,采用该方法进行数据挖掘,数据挖掘的准确配准性能较好,系统的可靠性较好,具有较好的应用价值。

参考文献

[1]陆兴华,谢辉迪,许剑锐.基于近场通讯和物联网的饭堂自动计价系统[J].智能计算机与应用,2015,5(06):18-21.

[2]童峥嵘,郭尊礼,曹晔,等.小波包变换对CO-OFDM系统高峰均比的抑制性能研究[J].光子学报,2015,44(12):1206001-1206001.

[3]谭营军,王俊平.基于MEACO的无线传感器网络路由光通信算法研究[J].激光杂志,2016,37(02):131-133.

作者简介

李颖(1977-),女,广东省韶关市人。硕士研究生学历。现为广东科学技术职业学院讲师。主要研究方向为虚拟化与云计算。

简述云计算的主要特征第4篇

【关键词】云计算环境 大数据 分布规律 模糊聚类方法

1 引言

云计算服务的兴起为大数据的应用提供了保障,在考虑其性能和成本的前提下,越来越多的企业考虑将大数据处理的相关应用转移到云计算环境下进行。在此背景下,学术界和企业界掀起了对云计算环境下大数据分布规律的结构优化设计方法的研究热潮,并获得了众多研究成果,其中最为常见的方法包括模糊聚类方法、详细度量方法和最小二乘法等。

2 云计算与大数据概述

2.1 云计算

云计算是指以互联网为基础,对所需资源进行随时随地的访问和分享,是当前一种依靠互联网技术的全新计算模式,其主要特征包括IT资源服务化、泛在接入、服务可计费、按需自服务及弹,其本质是通过IT资源服务化的特征在互联网上以泛在接入和服务可计费的方式,向用户提供按需自服务式的弹。由此得知,由于其IT资源服务化特征,在大规模应用计算时,云计算可提供资源保障;由于其所有过程皆是通过互联网手段,用粼诩焖魇据时,云计算可提供按需自服务式的弹;由于其泛在接入特征,用户可随时随地利用互联网在移动终端上访问或共享数据。

2.2 大数据

简单来说,大数据就是指规模庞大的数据。但由于互联网技术还在进一步更新和发展中,数据的规模和种类也在快速扩大和增加,不同的组织也因各自不同的需求对大数据有着不同的认识和理解,所以学术界尚不能对大数据进行统一定义。目前,由于IBM提出的大数据3V模型定义对大数据特征进行了形象的描述,而最能被人们普遍接受,即大数据具有海量性、多样性、高速性三个特征。其中,海量性是指数据规模巨大,达到TB级及PB级;多样性是指数据种类繁多,按照其结构分大致分为结构化数据和非结构化数据;高速性是指数据的出现速度、处理速度和分析速度都在持续加快。

3 云计算环境下大数据分布规律的结构优化设计

目前,研究云计算环境下大数据分布规律的结构优化设计方法有很多,主要包括模糊聚类方法、详细度量方法和最小二乘法等。其中,模糊聚类法是指通过研究数据分布规律本身属性,从而构建迷糊矩阵来确定聚类关系的一种方法;最小二乘法是指通过匹配最小化误差的平方和寻找数据的最佳函数,使得所求数据与实际数据之间误差平方和最小化的一种方法。

3.1 构建X上的模糊关系

构建待处理数据X上的模糊关系,是采用模糊聚类法的第一步,是大数据分布规律的结构优化设计的基础。在这一过程中,需将属性类似的系数构建成n阶的迷糊矩阵,即相似系数矩阵。根据矩阵确定其在待处理数据X上的模糊关系。其中两个模糊向量间的接近程度称之为贴近度,而相似系数的计算和描述则需利用贴近度法,例如将X中的元素Xi和Xj看作是其各自特征的模糊向量,用贴近度对相似系数rij进行计算,则rij的表达式为:

rij=1-c(dp(Xi,Xj))α (1)

(1)式中:c,α指的是描述常数;p指的是描述不同距离的代码系数,对论域X={x1,x2,…,x5}进行规格化处理,此时,取c值为0.1,计算相似系数,可获取模糊相似矩阵,如式(2):

(2)

结合式(1)、式(2),在获得模糊五阶相似矩阵后,需对其进行划分,才能进行下一步的大数据分布规律结构优化设计。

3.2 大数据分布规律结构优化设计

在进行大数据分布规律结构优化设计前,针对类和类间的距离,需运用最短距离法进行计算,例如用dij(i,j=1,2,…,n)描述样本i与j之间的距离,则有:

(3)

若用G1,G2,…来描述类,则第k类的Gk和第r类的Gr之间的最短距离为:

Dkr=min{dij:i∈Gk,j∈Gr} (4)

利用最短距离法对云计算环境下大数据分布规律结构进行优化设计,可有效分析辨别出需要调整和转移的数据,使得云计算环境下的大数据分布在一个不断调整的动态过程里,随时保持数据的最理想状态。

3.3 仿真实验

为了验证上述优化设计的有效性,现通过仿真实验,对模糊聚类方法、最小二乘法进行对比分析:两种方法分别进行10次实验,取其平均访问代价作为结果。在对两种方法进行评价的过程中,将相对访问成本作为衡量的标准。得出结果如下:

(1)随着存储容量的增加,比较采模糊聚类方法和最小二乘法进行大数据分布规律结构优化设计后的相对访问成本,随着存储容量的逐渐升高,模糊聚类方法的相对成本低于最小二乘法,当总预算从全部候选费用的10%增长至20%时,模糊聚类方法和最小二乘法的相对成本均在一定程度上有所增加,但模糊聚类方法的增加幅度低于最小二乘法,说明模糊聚类方法的性能优于最小二乘法。

(2)在各容量一定的情况下,云计算环境下预算费用逐渐增加时,比较模糊聚类方法和最小二乘方法相对成本的变化趋势,模糊聚类方法的性能明显优于最小二乘方法,在各容量或总预算较低时,模糊聚类方法的相对成本均低于最小二乘方法,当容量大小从50%到70%时,模糊聚类方法的相对成本基本没有发生改变,说明模糊聚类方法基本不受容量的影响。因此,通过仿真实验验证了模糊聚类方法的有效性。

4 结语

综上所述,在云计算概念提出以后,各大企业紧跟时代步伐,通过互联网采用多项云计算服务。因此,越来越多的学者对云计算环境下大数据分布规律的结构优化设计进行研究,本文提出了利用模糊聚类法对云计算环境下大数据分布规律进行优化设计,并经仿真实验分析确定了其有效性。

参考文献

[1]朱亚东,高翠芳.基于PSO的云计算环境中大数据优化聚类算法[J].计算机技术与发展,2016,26(9):178-182.

[2]陈志华,刘晓勇.云计算下大数据非结构的稳定性检索方法[J].现代电子技术,2016,39(6):58-61.

[3]姜明月.云计算平台下的大数据分流系统的设计与优化[J].现代电子技术,2016,39(2):28-32.

简述云计算的主要特征第5篇

关键词:点云 滤波 离群点

中图分类号:TP391 文献标识码:A 文章编号:1672-3791(2012)11(c)-0004-01

1 网格滤波问题

目前网格的光顺算法已经得到广泛研究。网格曲面光顺算法中最经典的算法是基于拉普拉斯算子的方法[1]。通过求取网格曲面的拉普拉斯算子,并且对网格曲面迭代使用拉普拉斯算法,可以得到平滑的网格曲面。这种算法的本质是求取网格曲面上某点及其临近点的中心点,将该中心点作为原顶点的新位置。Jones等根据各顶点的邻域点来预测新顶点位置,该方法的优点是不需要进行迭代计算。但是上述两种方法的缺点是经过平滑处理后,得到的网格模型会比原来的网格模型体积变小,并且新的模型会出现过平滑问题,也就是原有的尖锐的特征会消失。为了克服这两个问题,Wu等提出一种基于梯度场的平滑方法,该方法区别于前述的基于法向或顶点的平滑方法,而是通过求解泊松方程来得到平滑的网格曲面。等提出一种保持原有特征的网格曲面滤波算法,这种滤波方法的目的在于提高滤波后模型的可信度;Fan等提出一种鲁棒的保特征网格曲面滤波算法,这种算法基于以下原则:一个带有噪声的网格曲面对应的本原的曲面应该是分片光滑的,而尖锐特征往往在于多个光滑曲面交界处[2]。

2 点云滤波问题

以上网格曲面光顺算法都需要建立一个局部的邻域结构,而点云模型中的各个点本身缺乏连接信息,因此已有的网格光顺算法不能简单的推广到点云模型上来,如果仅仅简单地通过最近邻等方式在点云数据中引入点与点之间的连接关系,那么取得的光顺效果很差。所以,相对于网格模型来说,对点云模型进行滤波光顺比较困难,而且现有针对点云模型的滤波算法也较少。

逆向工程中广泛采用的非接触式测量仪为基于激光光源的测量仪。其优点在于能够一次性采集大批量的点云数据,方便实现对软质和超薄物体表面形状的测量,真正实现“零接触力测量”。在激光测量仪数据采集过程中,噪声产生的主要因素是被测物体的位置、物体表面的粗糙度和波纹等反射特性、物体颜色和对比度、环境光照条件和测量系统的误差等。

3 点云滤波方法

对于不同类型的点云数据有着相对应合适的滤波方法。对于扫描线式点云数据和阵列式点云数据来说,现有的三维点云数据的滤波光顺算法可以从以下两个方面进行分类:根据噪声在各个方向上的扩散方式不同可分为各向同性和各向异性算法;根据算法的复杂度分析可分为基于Laplace算子的方法、基于最优化的方法和简单的非迭代方法。各向同性算法优点是算法简单,但对噪声和模型的尖锐特征不能加以区分,在去除噪声的同时,尖锐特征不能得到保持。为了区分尖锐特征和噪声,各向异性算法修改了扩散方程,在去除噪声的同时,可保持模型的尖锐特征。这些算法需要计算大量的模型结构信息以保持细节,因此计算量非常大。其他可以采用的滤波算法有:最小二乘滤波、卡尔曼滤波和平滑滤波等。针对于散乱点云数据,许多相关学者也进行了深入的研究,提出了拉普拉斯(Laplacian)算子、平均曲率流、移动最小二次曲面等方法。

4 点云滤波中的离群点检测

离群点检测问题越来越受到重视,出现了很多有效的算法,本节将分别介绍基于统计的方法,基于距离的方法和基于密度的方法。

基于统计方法的离群点检测基本思想为:对于整个点集来说,假设其分布符合某种统计模型,那么离群点就是点集中那些不符合该种统计模型的一些点。

这种基于统计的方法的前提假设是数据点集基本符合某种统计模型,离群点严重地偏离这个统计模型。因此基于统计的方法具有很多缺点。首先,这种算法鲁棒性不强,均值$\mu$和协方差矩阵$\Sigma$的计算受离群点影响很大,所以得到的模型不一定真实地反映数据分布情况。之后再用这个误差很大的分布去判断离群点,必将导致判断的不准确。该方法的第二个缺点是对数据分布的先验知识过于依赖,如果预先不能正确设定数据分布模型,则检测结果会有极大的误差。

基于距离的离群点检测方法基本思想为,通过一个点与其周围相邻点的距离来判断该点是不是离群点。这种判断方法的最基本假设是正常数据点周围存在许多距离较近的数据点;离群点远离它们的最近的邻居。

这种基于距离的方法当数据点集的密度十分不均匀时,就会得到错误的检测结果。

考虑到基于距离的方法在数据点集的密度不均匀时容易导致离群点检测错误,breunig等提出一种基于密度的离群点检测方法。该方法与基于距离的方法根本区别在于,一个数据点的是否为离群点,不再是一个布尔型的属性,而是一个介于0和1之间的有理数,这个数值越大,该点就更可能是离群点。这个数值被称为“局部离群系数”(local outlier factor,LOF)。

5 结论与展望

点云数据滤波问题在逆向工程、三维重建等问题中具有重要的意义。本文研究了点云数据滤波问题及离群点检测问题,分析了离群点检测的三种方法。

点云数据的滤波和离群点检测问题还有很多难点没有克服,未来的研究方向主要包括:(1)根据目前的点云数据量越来越大,考虑到现有计算机系统的效率,寻找快速有效的滤波方法具有重要的意义。(2)随着kinect等设备的应用,动态点云数据的滤波问题显得越来越重要。对动态点云数据开展滤波和离群点检测研究具有重要意义。(3)目前的滤波和离群点检测方法主要表现为无监督学习方法[3],开展半监督和全监督的滤波和离群点检测算法研究有着广泛的应用前景。

参考文献

[1] Vollmer,J.and Mencl,R.and Mueller,H.Improved Laplacian smoothing of noisy surface meshes[J].Wiley Online Library,1999,10.

简述云计算的主要特征第6篇

【关键词】客户关系管理;云模型;客户细分;系统设计

1.引言

随着经济的快速发展和竞争的进一步加剧,企业已由传统的以产品和规模为中心的粗放式经营管理模式向以客户为中心、服务至上、实现客户价值和达到企业利润最大化的集约化经营管理模式转变。企业成功的关键在于重视客户的需求,提供满足客户需求的产品和服务,有效地管理客户关系,提升客户的满意度和忠诚度,通过维持长期的良好的客户关系来获取持续竞争优势。

在客户关系管理方面,国内外对客户细分的研究主要集中在现有数据挖掘分类方法在客户细分中的应用,现有的分类方法进行客户细分时,都采用确定性分类模型。这样会存在一定的不足。具体表现在:①一旦一个客户被归入某一类,就可能永远失去了对该客户使用其他客户策略的机会;②对于同一个类别中的客户没有区分不同客户属于该类的强度差异。而在现实社会中,由于受心理和社会等因素的影响,客户行为往往存在很大的不确定性和随机性,确定性的分类模型无法客观地描述客户的这种行为特征。

本文首先介绍了云模型理论,然后根据客户特征云模型,为客户细分建模,最后设计并实现客户关系管理系统。

2.云模型理论

云模型作为一种描述非确定性关系的数学方法,最早是由李德毅等人提出,它把模糊性和随机性相结合,构成定性描述和定量描述间的互相映射。人工智能学界主要采用模糊集的方法来表示和处理语言值和数值间的转换。然而,由于传统模糊学的不彻底性,它并没有很好地解决这一问题。其最为突出的问题是,隶属函数一旦通过人为假定,简化成精确数值表达后,就被强行纳入到精确数学王国。从此,概念的定义,定理的叙述及证明等都转入到了数学思维环节中,即不再有丝毫的模糊性了。针对上述问题,相关文献提出的云模型理论建立了新的不确定性模型。云是用语言值表示的某个定性概念与其定量表示之间的非确定性转换模型,他把模糊性和随机性相结合,构成定性和定量相互间的映射,作为自然语言与数据语言转换的基础。

2.1 云的基本理论

设U是一个用精确数值量表示的论域,U上对应的定性概念A,对于任意一个论域中的元素x,都存在一个有稳定倾向的随机数,叫做x对A的隶属度,则隶属度在论域上的分布称为隶属云,简称为云。云由许许多多云滴组成,云的整体形状反映了定性概念的重要特性,云滴则是对定性概念的定量描述,云滴的产生过程,表示定性概念和定量值之间的不确定性映射。

用期望值、熵、超熵三个参数即可表示一维正态云的数字特征,简记为,它反映了定性知识的定量特性,主要作用区域为。同样,改变论域U的维数也可以构成一维云、二维云、多维云等。

云模型是云运算、云推理、云控制等方法的基础。由定性概念到定量表示的过程,称为正向云发生器;由定量表示到定性概念的过程,称为逆向云发生器。

云变换是从某一属性的实际数据分布中抽取概念的过程,是从定量表示到定性描述的转换,是一个概念归纳的学习过程。其基本思想是,让高频率出现的数据值对定性既念的贡献大于低频率出现的数据值对定性概念的贡献,即将数据频率分布中的局部极大值点作为概念的中心――云模型的数学期望,它的峰值越高,表示数据汇聚越多,优先考虑其反映的定性概念;然后在原分布中减去该定性概念的对应数值部分,再寻找局部极大值;依次类推,最后根据已知的数据频率分布函数f(x),得到拟合误差函数f(x)及各个云模型的分布函数,计算出基于云模型的各个定性概念的3个特征值。

2.2 云发生器

3.基于客户特征云模型的客户细分建模

客户细分建模,即指基于客户服务数据库,利用各种分析与统计工具进行数据分析,获取每个客户对某一特定产品的消费或使用偏好特征,并结合给定的行业知识、专家知识以及相关规则库,挖掘出客户行为特征对每项服务所产生的判定因子,并将其作为制定客户服务计划的主要知识保存于服务推荐知识库中。

3.1 客户细分建模的过程

在云模型分类中,重点在于对客户特征的建模、客户特征模型中动态知识和客户的行为相关,例如交易目的、期望和偏好等信息。客户细分的建模过程如图1所示。

步骤4:云模型的隶属度控制和决策偏好的影响控制。

在云模型中,通过对隶属度阈值的设定,控制某些分类值是否可以归类到既定类型中。可以按照最小或同最大隶属度的绝对差(相对差)来确定的值。

4.设计并实现客户关系管理系统

5.总结

首先针对现有的数据挖掘模型解决客户不确定的不足,提出了基于云模型的动态客户细分分类模型。然后进行了系统的总体设计,接着完成系统数据库的设计,最后概要介绍了客户管理系统详细设计,包括主界面设置等。该系统经过中国电信公司的测试使用,对提高客户分类的准确性,实现有针对性的客户营销和满足客户个性化的服务需要均取得了较好的效果。

参考文献

[1]李德毅,刘常昱.论正态云的普适应[J].中国工程科学,2004,6:8.

[2]杜,宋自林,李德毅.基于云模型的关联规则挖掘方法[J].理工大学.

[3]李德毅等.隶属云和隶属云发生器[J].计算机研究和发展,1995,32(6).

[4]张国英等.多维云模型及其在多属性评价中的应用[J].北京理工大学学报,2004,24(12).

简述云计算的主要特征第7篇

【关键词】公路设计;逆向工程技术

1、逆向工程技术的概述

逆向工程技术在公路设计中的应用,主要是对实物模型进行的数据采集和建立数字模型这两个方面。逆向工程技术是未来公路设计的趋势和发展方向,对三维点云数据的采集利用的是激光测绘设备,然后对采集的数据进行优化处理,建立相应的地形数模,通过这种方式来进行公路的设计将更加精确、高效而且直观。[1]

逆向工程技术中首要的环节就是对数据的采集,也为建模反求提供了理论依据。建模的开发效率和质量受到了所采集数据的速度以及精度的影响。逆向工程中一个关键的技术就是能够快速、准确地采集三维点数据。逆向工程在各大领域的广泛应用,数据采集技术也在突飞猛进的发展,从一开始的接触式的测量方法,逐渐发展为以磁学、光学等为媒介的非接触式的测量方法,然后到最新研发的组合式的测量等。对不同类型的模型进行数据采集时,所选取的测量方法也不同,要合理利用现有的资源,通过最低的采集成本完成精确、高效的数据采集。

2、逆向工程技术的数据处理流程

在逆向工程技术中,一个重要的环节就是数据的处理。数据的处理直接关系到数据能够准确、方便地完成模型的重建。利用激光测量设备对模型的点云数据进行准确的测量,将没有用的噪声数据和有用的数据结合在一起,经过数据的处理,最后生成DEM。数据的处理过程由数据的滤波、数据的平滑、数据的精简、数据的分割以及多视点云对齐等构成。[2]

2.1数据滤波 数据的滤波是对行人、汽车经过之后留下的足迹等噪声进行消除。噪声是杂乱、稀疏的,这是与模型的点云数据最大的不同。抓住这一特点,可以使路面的面和点云相互垂直,实现投影效果,对点云数据的划分要通过正方形的格网进行,对格网点的数量进行统计,依据扫描间距进行阈值的设定,把阈值小于密度的格网中的点云进行保留,删除其它的点云,将格网的边长不断缩小,依次进行以上步骤将点云删除,通过这样的操作大部分的噪声将被消除。

2.2数据平滑 通过标准的高斯滤波算法或者是平均滤波算法进行数据的平滑。所谓高斯滤波算法就是利用高斯滤波器设置高斯分布,滤波的平均效果相对比较小,所以在进行数据滤波的同时能够在不损坏原数据形貌的前提下完成数据的滤波。而平均滤波算法指的是将模型采样点的值换成平均滤波器中各数据点相应的统计值,这样可以很好的将数据的毛刺消除。

2.3数据精简 在逆向工程技术的重构曲面环节,如果存在点云过于密集的情况,不仅会影响计算机的操作、存储以及运行的效率,而且还会影响到曲面模型的生成时间和光顺性。对采集的点云数据进行精简,就是为了防止这一问题的发生。而针对点云的类型,所选取的精简方式也是不一样的。例如,对于比较散乱的点云,往往是选择随机采样的方式进行数据的精简的;网格式的点云,进行数据的缩减主要采用的是最小包围区域的方法或者是等分布密度的方法。

2.4数据分割 以模型外形曲面相应子曲面的不同类型作为数据分割的依据,把类型相同的子曲面数据分成一组,形成互不重叠、特征比较单一的数据区域,给曲面模型的重建提供了便利。对电云数据进行区域分割的方法有两种,即自动分割法和测量分割法。自动分割法又包括基于边和基于面的两种方法。基于边的分割方法把测量点的曲率的变化作为是两个区域的边界,最终分割的区域结果是封闭的边界区域;基于面的分割方法是把几何特征比较相似的点作为同一个区域。而通过测量的分割方法是在进行数据测量的过程中,依据模型的外形特征进行分子曲面的划分,再对各不相同的特征区域进行标注,然后对测量的路径进行规划,按照曲面的不同特征将测量的数据通过CAD软件实现数据的处理和分成显示。

2.5多视点云实现对齐 由于模型的外形数据不是通过一次测量来得到的结果,所以需要把零乱的数据放到同一个坐标系里,要完成这一个过程就需要进行数据的对齐或者是拼合。目前,数据的对齐方法有两种,即直接对齐法图形对齐法。直接对齐法就是对数据进行直接的操作,完成数据的对齐,最终使得数据结构实现一致以及数据信息完整化。图像对齐法,首先对数据需要进行局部造型,然后拼合对齐视图数据相应的几何图形,这种方法虽然简单、快捷而且结果非常准确,但是在分割后不同的视图中,由于特征信息和拓扑不是很完成,局部造型很困难。

3、逆向工程技术在公路设计中的应用

对旧路进行改建是公路设计的一大难题,因为在改建过程中需要保护周边的环境以及还原区域实景等,文章以某一平交口的改造为例,讲述公路设计中逆向工程技术的应用。

3.1对地形数据进行采集和处理 利用激光扫描仪进行数据的采集,激光扫描仪主要由测距系统和扫描系统构成。激光的测距系统是一种非接触式的测量,激光束的发射和接收的时差来测量扫描议和扫描点之间的距离。激光的扫描系统是将激光束在反射镜的作用下均匀的旋转,并以等角的速度进行发射,然后对竖直和水平方向的激光束进行测量。测距系统和扫描系统相互结合,可以计算出扫描点的三维坐标。

利用ImgeWare软件可以对采集的点云数据进行处理。该软件将采集的三维点云数据进行去噪、平滑、分割、拼合等处理,最后得出完整的带有点号的点云文本数据和三维坐标数据。

3.2建立模型 把三维点数据的文本输入到CARD/1软件中,进行地形图的处理,导出高精度的DEM,采样之间的间距为0.2m,等高线之间的间距为1m。再次,将软件中导入DEM文件进行数模的叠加,最后得到带颜色的DEM文件。

3.3根据点云地形图进行平面设计 DEM模型是带有颜色的,设计人员对旧路中心线以及边缘线的确定会变得更精确和直观,最终使实景还原度得到提高,更有效的完成道路的优化处理。选取最佳的角度,对三维状态的模型方案进行设计。

3.4根据点云的地面线数据进行纵断面和横断面的设计 在点云DEM模型的基础上,对纵断面的插值进行计算,得出带有颜色的关于地面线的三维点云数据。点云DEM模型可以通过对景深进行设置,直观地看到中线法线方向的地面上实际的情况。

通过点云DEM模型,可以将带有视景深度横断方向的点云数据切出,然后对旧路横断方向的原有构造物、拆迁情况等有详细的了解,有把握地进行横断面的设计。

4、结语

逆向工程技术为公路的设计提供了很多的方便,尤其是对旧路的重建方面,所以在公路的设计中一定要充分利用逆向工程技术,使公路设计更加精准、快捷。

参考文献