数据简化

2024-06-30

数据简化(精选九篇)

数据简化 篇1

俗话说, 有备则无患, 为了保护重要文件的安全, 最稳妥的方式是对其进行及时备份。这样, 当数据丢失或者损坏时, 可以从容不迫的进行恢复。现在有很多数据备份工具, 功能上也各有特色。不过, 这些工具通常都要求用户执行手工备份, 操作起来比较繁琐。一旦出现疏漏, 忘记及时备份文件的话, 就会招致不应有的损失。所以, 为了提高数据备份的效率和安全性, 简化数据备份流程, 最好对其执行自动备份操作。这样, 无需您的额任何干预, 当到达预设时间后, 就可以又快又好的完成备份任务。

StoreOnce简化数据保护 篇2

为此,惠普推出了全新备份、恢复与归档解决方案StoreOnce备份系列产品,以帮助用户保护其日益增长的数据,并简化数据管理。据介绍,StoreOnce同时支持横向扩展和纵向扩展的体系架构,用户可以通过选择StoreOnce VSA软件定义备份解决方案或小型StoreOnce设备起步,之后可根据需要随时添加容量或节点。StoreOnce有多种不同型号选择,分别面向企业数据中心、中型数据中心,以及小型和远程办公室,满足不同用户的需求。StoreOnce另一个重要的特点是采用重复数据删除技术即可在整个企业中进行联合重复数据删除,可以选择在应用端、备份服务器端和目标端进行重复数据删除。

惠普存储负责人介绍说,StoreOnce对于企业来说,其价值主要在于降低成本、减少风险和增加灵活性。降低成本表现在三方面:通过自动备份和灾难恢复,减少对IT维护人员的需求;消除远程站点对磁带的需求,同时消除了对磁带保存环境的苛刻要求;降低远程分支机构的备份对带宽的需求。据介绍,某省交警的视频监控系统采用StoreOnce后,使备份速度比之前快6倍,需要备份的容量减少50%,从而节省了存储成本,IT人员也比之前多了2.5倍的时间。

数据流语言简化并行编程 篇3

1 数据流语言

由于汇编语言中都是直接操作处理器的寄存器,随着处理器硬件的发展,嵌入式工程师和相关编程人员通常都是直接根据硬件结构进行编程,嵌入式编程基本保持着按顺序逐行方式进行编程,因此大多数都停留在微处理器上单线程顺序。数据流编程语言是为了适应多核CPU进行并行处理时编程所适用的语言,它不仅能简化多内核处理器开发过程,而且还能够充分地发挥多内核CPU的优势。现代编程语言已经提升了其抽象层次,除了人工线程操作外,还提供基于任务的API和并行结构。

2 编程过程

由于大家习惯于单线程的编写程序,都是按照顺序语句编写,以流程图为依据然后分别进行编写对应的判断语句或不同的分支语句。但是数据流程序的编写却是以程序执行图进行检测并对应地址进行编译,所以编写的过程和应用范围都存在很大的区别。

2.1 流程图

流程图的处理过程是许多工程师针对某项应用展开研究的过程方法,然而普通流程图并不能按照CPU架构进行处理的顺序,当编程人员需要直接解决想要解决的问题时,都是集中精力于操作数据需要的算法上,以及这些算法之间的从属关系,而不是用直观可视方式表达并行过程。如果编程人员将所有流程图部分都转换为顺序语句让CPU去执行,将会极大地浪费CPU的运行时间,并且运行并行任务时相当困难。

2.2 编程应用

编写数据流的应用程序不但可以用文本方式编写(如VHDL语言),同时还可以用图形方式来表达,能够以最清晰的方式向编程人员表达数据之间的关系和并行机制。比如一个基本算术操作的源代码为:

结果=((B*C)+A)/(D-E),它可以用LabView数据流语言编写的程序如图1所示。从图形化数据流表达方式发现并行操作的直观性能够让编程人员快速判断程序元素之间的相互间的关系。智能编译器可以将源代码示意图中的各个部分划分成独立的小部分,然后分配给不同线程进而在多内核处理器上执行。

2.3 智能编译

解决数据流的方案是使用智能编译器检测并行机制(图2)。数据流编译器可以自动识别代码中的并行部分,然后选择最佳调度顺序型CPU指令,它能让开发人员集中精力解决手头的问题,而不再去考虑如何处理硬件问题。

此外,数据流源代码还可以包含信号处理算法、库调用以及大多数编程语言中常见的其它结构和操作。如今越来越多的编程语言都在增加数据流扩展功能,为数据流并行编程带来相当大的益处。现在不管是否只有两条并行路径的小程序,还是具有上百条并行路径的大程序,都可以利用数据流编程语言的固有并行机制,以便充分发挥多内核CPU硬件的优势。

即使编译器能够自动将数据流代码映射到并行处理器,但是并不能排除开发人员的责任。基本的并行编程技术,如任务并行机制、数据并行机制和管线,可以用数据流代码来实现,而优化过程取决于具体的数据流编程工具,但是也需要依赖人工线程和同步化的支持。

3 适应性

当前被广泛使用的并行硬件设备如:现场可编程门阵列,它可以使用像VDHL和Verilog等硬件描述语言通常用于对FPGA进行编程,它需要开发人员规定逻辑算法和数据依赖性。数据流语言是通过直接访问存储器,把并行代码部分自动映射到多内核CPU,它是通过赋值方式来进行访问。因此可以让编程人员以较小的代价来充分发挥并行硬件的优势,然而同时也会增加应用程序对存储器的占用量,所以数据流编译器会通过尽量减少对存储器的占用量。由于数据流语言与流程图之间存在着众多的相似性使得它们更容易学习和使用。

4 缺陷

数据流语言同样也存在缺点,因为数据流范例与传统顺序语言有很大区别,习惯于顺序语言的编程人员必须克服常规思维方式,而采用曲线顺利过渡到数据流语言。例如,像Lab View等数据流语言可以采用不同的方式输入现有的C代码甚至.m文件脚本,以便充分利用曾经掌握的大量现有代码的复用。

5 结语

随着多内核CPU的快速发展,究竟使用哪种编程语言能够充分发挥CPU的效率呢,机构或独立的编程人员都应认真看待数据流,并把它作为多内核编程的潜在解决方案。全世界对CPU的发展都是日新月异,从双核到多核,因此要想充分发挥CPU中每个核的效率,开发人员不能停留在固有的编程方法,比如利用数据流的编程方法以适应社会的发展,才能在充分利用CPU的同时减轻并行编程所带来的痛苦。

摘要:由于当前硬件的开发逐日增加,为了充分发挥这些硬件的功能,通过介绍数据流编程语言的应用方式,一同介绍了数据流语言所充分利用的类似流程图的用法。利用智能编译器进行检测程序过程,陈述了与硬件地址相结合的编程方法。这种方法极大地简化了开发人员编写多线程程序的难处,同时能够充分发挥多核CPU的效率。

关键词:并行编程,多核处理器,数据流

参考文献

[1]夏妍,郝忠孝.基于聚集块的多用户连续K最近邻多线程查询[J].齐齐哈尔大学学报(自然科学版),2010(06):16-20.

[2]刘玉,胡晖,仇宾.基于Java多线程的聊天室程序[J].电脑编程技巧与维护,2010(21):20-21.

新一代数据保护重在简化信息管理 篇4

赛门铁克存储专家周玉林介绍说,通过NetBackup 7,赛门铁克实现了其重复数据删除无处不在的战略,即通过在备份源端和介质服务器中加入重复数据删除技术,可以帮助企业降低其物理和虚拟环境中的整体存储消耗。通过将重复数据删除功能进一步靠近客户端的数据源,NetBackup可以帮助提高远程办公室、数据中心和虚拟环境中的备份速度和效率,并可以降低高达90%的网络流量。备份客户机具备了重复数据删除功能之后,就没有必要另外安装专门硬件或进行额外的设置了,因为用户只需升级到最新版本的软件即可大幅度节省存储空间。

同时,NetBackup还可通过赛门铁克OpenStorage技术(OST)程序,帮助企业更好地利用来自第三方硬件合作伙伴的存储设备。通过OST与NetBackup的整合,企业还可以利用来自不同合作伙伴的重复数据删除硬件,如Quantum、ExaGrid Systems和FalconStor等。

为虚拟机提供全面的保护也是NetBackup 7的一大特点。随着虚拟技术应用的增多,备份的难度和复杂度也在增加。NetBackup将Hyper-V和VMware备份标准化,通过重复数据删除和块级增量备份技术,加快了虚拟环境的备份速度,同时还提供了高效的单个文件恢复功能,从而简化了虚拟服务器数据的保护。NetBackup 7可以从VMware vSphere环境的分块增量备份中快速地恢复文件,还可以从Hyper-V虚拟机的影像级备份中轻松恢复单个文件或文件夹。通过在虚拟环境中使用NetBackup 7的重复数据删除和增量备份技术,企业能够大幅度提高备份的速度,同时可降低多达95%的虚拟机备份中的存储量。NetBackup 还可通过使用为Hyper-V提供的主机外备份技术(off-host)和为VMware提供的块级备份技术,帮助IT管理员降低备份操作对虚拟机的影响。

周玉林认为,NetBackup平台中新增加的复制技术使企业能够减少多达95%的各端点数据传输量,这确保了企业随时随地都能快速、轻松地进行应用的恢复和数据的备份,并降低了基于磁带的灾难恢复的成本,同时缩短了管理周期。NetBackup增加了备份目录复制,并将其作为主控制台内的标准功能,这进一步简化了灾难恢复流程。

数据简化 篇5

随着遥感技术、计算机视觉、计算机图形学等学科的发展, 由航空航天摄影测量或其他测量手段获取地形数据来生成具有高分辨率的三维地形模型已经十分普遍。这些由上百万或更多三角形面片表示的各种地形模型, 满足了人们对地形真实感所提出的越来越高的要求。但大数据量的三维场景重建对目前的图形硬件而言, 实现交互方式的实时绘制是十分困难的。因此, 早在上世纪70年代, 就提出了对三维网格数据进行简化的思想, 即用尽可能少的数据构造原始模型的逼近模型。如文献[1]中提出了一种顶点聚类算法, 算法通过将网格分割成小块, 每一块中的顶点聚合为一个新顶点来实现简化。文献[2]提出了一种区域合并算法。算法先将网格表面分成若干区域, 然后将区域的边界简化成多边形, 最后对多边形进行三角剖分, 得到简化网格。这些算法面向的应用目的不同, 各有优点和不足之处。

目前地形的三维建模方式有很多, 但总体上可以分为规则网格建模 (如正方形) 与不规则网格建模 (如TIN, Triangulated Irregular Network) 两大类。规则网格建模由于数据结构简单而得到了较为广泛的应用, 如常见的DEM (Digital elevation model) 数据就采用了规则网格。在借鉴上述简化思想的基础上, 针对规则网络的地形数据提出了基于区域聚合的地形数据简化算法。

1 区域聚合数据简化算法

采用规则网格方法时, 地形的分辨率相对固定, 在地形平坦区域存在数据冗余的现象, 如果能有效地消除这些冗余的数据, 则可在保持真实精度不变的情况下, 简化数据。从这一基本点出发, 该算法的设计思想与实现过程如下。

1.1区域聚合

针对规则网格数据的特点, 没有采用其他文献中常用的顶点聚类或区域合并算法, 而是采用了区域聚合。即将共面或近似共面的若干地形栅格点用这组栅格点的边界点代替, 并进行三角剖分。

1.2利用最大法向量夹角进行误差度量

地形简化的误差度量是用来量化简化前地形和简化后地形的差异, 引导地形数据简化, 从而使得简化后的误差在用户允许误差范围之内。如何确定所有顶点或三角面片的重要程度对简化地形模型的拟真度影响很大。有些算法用点到平面的平均距离作为局部误差度量来控制点的删除, 有些算法用曲率来计算顶点的重要程度, 近年来还有算法采用了体积[3]作为度量误差, 本算法采用了三角面间最大法向量夹角余弦值作为简化误差度量。最大法向量夹角θmax, 即一组地形栅格点所描述的地形面中每个三角面的法向量间最大的夹角, 其余弦值为cosθmax。

V1、V2、V33个顶点构成的三角面的法向量计算公式为:

Normal= (V1-V2) × (V2-V3) ; (1)

N1、N2 2个法向量的夹角θ的余弦值计算公式为:

cosθ= (NN2 ) / (|N1|×|N2|) 。 (2)

进行简化运算时, 事先根据简化需求指定简化阈值Ct:

当指定阈值夹角为0 °, 即Ct=1时, 地形数据简化为无失真的简化。

1.3递归算法实现

采用递归函数实现该地形数据简化算法, 以最常见的正方形栅格为例, 初始地形聚合区域大小设置为32*32, 算法过程可描述为:

① 读入栅格地形数据, 将栅格地形数据按32*32大小进行分块, 对每一块地形数据分别进行后续的递归聚合运算;

② 聚合运算函数

Step1:若分块大小为1, 即仅为一个栅格点, 则中止递归过程, 存储该点索引坐标 (u, v) ;

否则:

Step2:计算分块数据的最大法向量夹角θmax的余弦值cosθmax;

Step3:若cosθmax<=Ct, 则聚合成功, 中止递归过程, 存储该聚合区域的4个边角点的索引坐标 (u, v) ;

否则:

Step4:细化分块, 即将原分块分成4小分块, 对该4小分块分别调用聚合运算函数;

③ 地形数据中, 左侧及下侧条状区域小于初始分块区域大小的栅格点不作简化处理, 直接存储这些栅格点索引坐标 (u, v) ;

经上述过程运算后, 则可得到简化后的存留的栅格地形数据的索引坐标。

注:索引坐标 (u, v) 为该点在原栅格数据中的行列号。

1.4简化后地形数据的绘制

利用简化后存留的栅格地形数据的索引坐标和原始栅格地形数据, 求出简化后每个栅格点的真实坐标 (x, y, z) , 这样就得到了原地形数据经简化运算后的一系列散列点。此时, 对这些散列点的绘制, 一种作法是采用Delaunay三角化过程, 构造不规则三角形网TIN (Triangulated Irregular Network) , 从而实现绘制。这种作法存在2个主要的缺陷, 一是TIN的生成过程复杂, 二是结构存贮量大。

分析简化算法流程, 不难发现这些散列点每4个点即可构成一个平面 (斜面) , 可直接进行三角剖分进行绘制, 不需要进行Delaunay三角化, 图1为绘制的线框图。

很明显, 这种绘制方法存在着大量的地形裂缝, 这些地形裂缝存在于每个初始子块及简化时细分的子块间。消除了这些地形裂缝, 就可以实现简化后地形数据的绘制了, 图2给出了消除子块间地形裂缝的示意图, 算法实现时利用存留散列点的坐标索引 (u, v) 构造地形裂缝间的三角面片即可。

2 实验结果及分析

采用的实验数据为常州地区3块1 km*1 km的规则格网地形数据, 栅格精度为1 m, 分别设置阈值Ct=1与Ct=0.985进行简化实验。

Ct=1, 则最大法向量夹角为0°, 即简化时将共面的区域聚合为由4个项点表示的一个区域, 与原地形相比无失真。

Ct=0.985, 则最大法向量夹角为10°, 即聚合区域的面片间夹角均不小于170°。图3列出了其中一块地形数据, 数据简化前与用该算法简化后的格网对比。

由图3 (b) 可以直观地发现, 简化后地形平坦的区域, 用较少的数据表示, 地形起伏变化大的区域, 用较多的数据表示, 呈现出多级精度的特点。表1给出了对3块地形数据简化的相应实验数据, 其中简化后顶点数包括原地形数据中左侧及下侧条状区域小于初始分块区域大小的栅格点。可以看出对这3块地形数据, 即使是不失真的简化, 顶点简化率仍高达85%以上。其中主要原因在于这3块地形数据相对平坦, 最高海拔12 m, 最低海拔1 m, 且精度很高, 1 m分辨率, 因此数据冗余量大, 简化效果好;另一原因在于算法本身通过递归过程实现了不同分块大小的区域聚合, 最大聚合区域为32*32, 最小聚合区域为4*4。对于山区地带地形起伏变化大的数据, 适当调整阈值Ct, 也可以取得较好的简化效果。

3 结束语

对于高精度、大范围海量地形数据快速三维可视化的研究一直是众多研究者关注的问题, 目前的研究热点是动态细节层次模型[4,5] (Level of Detail, LOD) 。本算法与之相比, 优势体现在一是数据结构简单、存储量小、易于实现;二是精度可控, 对于DEM映射DOM纹理的应用还可以有效保留地形纹理坐标;三是更适用于地形数据的预处理, 将三维地形动态绘制的压力部分转移。同时, 本算法也存在一定的局限性, 即仅限于规则栅格数据的简化与三维绘制, 不适用于TIN结构的地形。从总体来说, 本算法对于地形快速绘制有一定的实用性。

参考文献

[1]ROSSIGNACJ, BORREL P.Multi-resolution 3D Approximationsfor Rendering Complex Scenes[C]∥In B.Falcidieno and T.Kunii, editors, Modeling in Computer Graphics:Methods andApplications, 1993:455-465.

[2]KALVINA, TAYLOR R.Superfaces:Polygonal MeshSimplification with Bounded Error[J].IEEE ComputerGraphics and Application, 1996, 16 (3) :64-77.

[3]ZHU Yuanchen.Uniform Remeshing with an AdaptiveDomain:A NewScheme for View-dependent Level-of-Detailrendering of Meshes[J].IEEE Transactions on visualizationand computer graphics.2005, 11 (3) :306-316.

[4]李建军, 李俊山.基于特征的三维模型简化算法研究[J].系统仿真学报, 2007, 19 (11) :2434-2436.

数据简化 篇6

业界对于抖动的测量,大部分都是基于实时采样的数字示波器,如Agilent,Tektronix,Lecroy等公司的示波器都具有基于实时采样的抖动分离分析功能。Wavecrest公司的SIA系列则是基于时间间隔的[2],但抖动测量的时间间隔都是连续的,因此,它们对于硬件电路的要求较高。本文提出了一种基于随机测量的时间间隔进行抖动分析分离的方案,大幅降低了对硬件电路的要求

1 抖动分类

图1所示的分类方法具有普遍性,下面对每种抖动分别进行讨论。

随机抖动(Random Jitter,RJ):之所以称之为随机抖动,是因为它有一定的随机性。理论上随机过程具有任意概率分布,但这里假设随机抖动符合高斯分布模型。做这种假设的原因是,随机噪声的主要来源是热噪声,而热噪声呈现高斯分布。另一个原因,根据中心极限定理,不管各个噪声源呈现什么分布,许多不相关的随机噪声源的合成效应应该接近高斯分布。高斯分布的特征是大部分样本聚集在均值附近,但只要样本数量足够大其峰值完全有可能达到无穷大。因此,随机抖动无法用边界值去衡量,它是无界的,只能用其均方差(RMS)值来表示,也就是高斯分布的σ值。

确定性抖动(DeterministicJitter,DJ):确定性抖动是一直存在的、大小固定且可预知的抖动,因为其有界性,可以用峰值来度量。通常样本数量达到数千,在样本的统计直方图上就有明显的表现,也可以比较高的置信度预测其边界,由于它可以用双-δ模型较好的描述[3,3],通常用DJ(δδ)表示。确定性抖动可以进一步细分为周期性抖动和数据相关性抖动。

周期性抖动(PeriodicJitter,PJ):周期性抖动是在某一周期或频率上重复出现的抖动,通常用PJ(δδ)表示。由于任何周期波形都可以分解成傅里叶顺序的谐波相关的正弦曲线,这类抖动又可称为正弦曲线抖动。周期性抖动一般是由耦合到系统中的外部确定性周期性的干扰引起,如开关电源噪声或强的局部RF载波,时钟恢复PLL不稳定也可能会导致周期性抖动。它与数据流中任何定期重复的码型和信号本身不相关,因此属于不相关抖动。

数据相关性抖动[3,3](DataDependentJitter,DDJ):与数据模式相关的任何抖动都称为数据相关性抖动。DDJ通常是由连接器、电缆、PCB传输线、背板等的频率响应引起的。不足带宽对数据序列强烈地执行低通滤波,由于滤波,所以波形没到达完全的高状态或低状态,除非有同极性的多个位连续出现。如图2所示,把数据流1010101和1010111相叠加,可以观察到连1的情况对后续比特造成干扰,即通常意义上的符号间干扰(Inter-SymbolInterference,ISI)。ISI与数据模式的游程密切相关,并且对特定的数据模式有有限的游程排列,所以ISI的值是有限且离散的。通常只取其中的最大值ISIpp来表征。

占空比失真(DutyCycleDistortion,DCD):产生DCD的一个原因是上升沿与下降沿的转换速率不同,一般判定门限位于50%幅度点,但如果波形的上升时间慢,导致上升沿跨过门限的时间比下降沿晚,结果在眼图上的交叉点不是50%的位置,出现占空比失真抖动DCD,如CMOS通常就有这样的特性。另外,当测量时间间隔时,由于判定“1”或“0”的门限电压过高或过低也会导致DCD的产生。

2 基于简化测量的抖动分离

这里明确几个概念:正脉宽(PulseWidth+):指波形的上升沿到相邻的下一个下降沿之间的距离。负脉宽(PulseWidth-):指波形的下降沿到相邻的下一个上升沿之间的距离。正周期(Period+):指对于周期性的时钟信号,波形的上升沿到相邻的下一个上升沿之间的距离。负周期(Period-):指对于周期性的时钟信号,波形的下降沿到相邻的下一个下降沿之间的距离,分别如图3所示。

2.1 测量数据的获得方法

如图4所示,“101101110011000…”为输入的任意比特数据流,只需获得上升沿-下降沿-上升沿之间的时间间隔,并且是离散的,这样,由于是随机采样,根据大数定理,只要采样时间足够长,就必然能够获得大部分的游程组合,如“10”、“110”、“1110”等。记1bit宽度的正脉宽为PW1+,2bit宽度的正脉宽为PW2+,则nbit宽度的正脉宽为PWn+,同理,nbit宽度的负脉宽记为PWn-。

2.2 抖动分离

为了进行各个抖动指标的分离,需要预先知道数据流的比特速率,假设为fb,则单个比特的宽度为

2.2.1 DCD的分离

通过对DCD的理解,可以知道,DCD实际上就是在没有其他抖动干扰的情况下单个比特宽度的正脉宽与单个比特宽度的负脉宽之间宽度的差异值,当然,现实的测量不可能直接把其他抖动的干扰排除掉,如随机抖动、符号间干扰等。实际上,只要把采样数据中所有的1bit宽度的正脉宽与1bit宽度的负脉宽都挑出来,分别记为PW1i+,PW1i-,(i=1,2,3,…),个数分别为n1+,n1-,则DCD就可以通过下式得到

式中,绝对值内的两项分别是对所有的PW1+和PW1-求均值,RJ的随机性及PJ正负摆动的周期性导致它们只要通过平均处理就可以滤除掉,ISI对1bit宽度的正负脉冲影响是一致的,因此相减可以把ISI的干扰排除,这样通过式(2),可以得到DCD。如图5所示为bit宽度为100ns的数据DCD分离实验结果,得到DCD=0.247ns。

2.2.2 ISI的分离

ISI与游程的长度密切相关,理论上游程越长,造成的ISI越大。通信系统中对数据流游程的最大长度都是有限制的,因此,这里只对游程长度为1~5bit的数据流做处理,也就是几种特定的脉宽宽度,如果要得到更高精度的结果,只要对游程更长的数据流进行处理即可。流程如下:

(1)从测量样本中挑出1bit宽度的正负脉宽,如果个数>300,分别求其均值,记为。

(2)从测量样本中挑出2bit宽度的正负脉宽,如果个数>300,分别求其均值,记为,依次可以求得

(3)分别从平均脉宽中把理想的bit宽度和DCD减掉,结果分别记为ISIi±,即

(4)求上步(3)中得到结果的最大值,作为ISIpp,即ISIpp=max{ISI1+,ISI1-,ISI2+,ISI2-,…,ISI5+,ISI5-}。

上述流程中,之所以要求正负脉宽的个数都>300,是因为只有当样本数量足够多时,进行平均处理才能有效地将RJ和PJ滤除。如图6所示为ISI的实验分离结果,图中将不同脉宽的ISI直方图层叠画出,只标记出最大的ISI,得到ISIpp=0.032 7ns。

2.2.3 RJ和DJ(δδ)的分离

DJ和RJ通过卷积后[3,3],一个明显的结果就是其概率分布函数的尾部反应了随机抖动过程,基于RJ服从高斯分布的假设,这里用拟合高斯曲线的方法进行RJ的分离,对于DJ可以用双δ模型描述,因此需要用统计学的方法获得DJ和RJ的概率分布直方图。

测量的样本是正负脉宽连续的,将每一个相邻的正负脉宽相加,就得到数目为原来样本数目一半的一个新样本,其长度不一,理论上应该包括了所有的脉冲组合,即“10”,“110”,“100”,“11100”等等,为了将数据统一到同一个水平,将每种组合的理想比特宽度减掉,即“10”组合减掉2Tb,“110”组合减掉3Tb,如此以后,对所得的数据进行直方图统计,则可得到类似图7所示的结果。

此时,可对其进行高斯拟合,拟合过程可采用Tailfit方法,也可采用其他方法拟合,可参考文献[2~3]。拟合以后分别得到左尾部和右尾部的最佳高斯曲线的均值和方差,分别记为μl、μr和σl、σr,则可得DJ(δδ)和RJ分别为

3 结束语

本文提出的基于简化测量的抖动分析分离方案,能够较好地分离DCD,ISI,DJ和RJ,降低了对测量硬件电路的要求。如果输入的bit流为时钟数据,则文中所述方法也都适用。但同时,这种方案也存在不足,由于是离散采样,而PJ对数据抖动的影响有累积效应离散采样无法反应出这一点因此无法较好地分离PJ。

摘要:针对通信系统中随机数据的抖动测量,一般都使用数字示波器的眼图功能,对于测量的硬件电路要求较高,要能够对波形进行实时测量。文中基于对抖动类型及其产生原因的分析,提出了一种基于简化测量的抖动分离方案,即只需随机测量波形中某个上升沿-下降沿-上升沿之间的时间间隔,即可获得大部分抖动分量,降低了对硬件电路的要求。

关键词:抖动分离,时间间隔,随机数据,简化测量

参考文献

[1]贝尔通信研究公司.同步光网络传输系统:常见的通用标准,TR-253-CORE[Z].美国:贝尔通信研究公司,1997.

[2]Wavecrest公司.SIA-4000 User Guide[Z].美国:Wavecrest公司,2006.

[3]李鹏.高速系统设计——抖动、噪声和信号完整性[M].李玉山,潘健,译.北京:电子工业出版社,2009.

[3]胡海洋.高速数据的抖动[EB/OL].(2008-12-25)[2010-06-16]http://www.eaw.com.cn

[4]孙灯亮.抖动成分及其产生原因分析[EB/OL].(2009-08-05)[2010-07-24]http://www.b log.sina.com.cn

数据简化 篇7

作为一家“保护性和可用性存储平台”公司, Actifio的主要使命是为大中小型企业、托管服务以及云服务提供商提供数据管理解决方案。因此, 复数数据存储平台也理所当然地成为了Actifio公司的核心产品。Actifio公司的复制数据存储平台允许客户使用虚拟化技术储存与管理数据, 也就是可以让客户创建出产品数据的单一副本, 同时能维持原本的变更。这一平台可以帮助企业更好地保护数据, 并尽可能降低储存成本, 此外, 它还能够减少90%的储存费用并可以大幅缩短数据还原时间。

什么是ACTIFIO

1.ACTIFIO———一个超级简化的复制数据管理平台

Actifio公司的复制数据存储技术可以让企业在极短时间内恢复所有的业务数据, 节约的时间高达90%。Actifio消除了孤立的数据保护应用, 通过虚拟化数据管理, 提供一个以应用程序为中心, 以服务水平协议 (SLA) 为驱动的解决方案, 从而将数据管理从数据存储、互联网和服务器基础设施这三者中分离出来。Actifio已经帮助各大IT组织以及各种规模的服务提供商从供应商锁定以及应对数据爆炸增长的管理挑战中解放出来。

2.Actifio———一个新的解决方案

Actifio可以将复制数据存储应用进行虚拟化, 提供一个单一但整合了备份、快照、业务连续、灾难恢复、测试开发、分析等多功能于一身的存储系统。它能够在分秒级内恢复所有的数据。这就是我们为什么说Actifio超级简单的原因。

3.Actifio———重新定义复制数据管理

为实现真正的变革, Actifio推翻了复制数据管理的传统规则, 重新定义了以下五条规则:

第一条规则:对所有的异构存储应用执行复制、存储、移动、恢复这些基本功能, 消除了孤立的系统。这意味着, Actifio所需的软件支持以及所要购买的许可证都更少, 其不存在整合上的困难, 也消除了操作的复杂性, 是一个真正简化的管理系统。

第二条规则:对于已有的数据, 不要重复存储。提供全局冗余数据删除功能消除数据重复存储。这不仅将网络中的数据移动量减少了70%, 而且也减少了高达90%的总体拥有成本 (TCO) 。

第三条规则:设计一个以应用为中心的解决方案。Actifio对应用程序级别的数据提供保护, 用户能够为每个应用程序创建不同的协议服务水平 (SLA) 。此外, Actifio还能让每一个应用程序在不同的时间点上都具有对应的数据副本, 使得用户在任一时间点上, 都可以即时恢复应用。

第四条规则:创建一个功能完整的灵活的存储系统, 能够通过直接安装数据到任何规模的服务器, 实现复制数据的瞬时获取。还能够像传统数据管理应用那样克隆或恢复数据。

第五条规则:这也是最重要的一条规则, 将解决方案的配置、管理和整合都极简化, 以降低运营成本, 提高RPO/RTO, 并解决数据管理上的各种困难。Actifio的接口是非常简单和直观的:通过几个简单的点击操作, 就可根据业务的重要性, 创建相应的SLA, 并为所有的应用程序提供保护。

如何存储复制数据

Actifio的复制数据存储既可以安装在存储区域网络 (SAN) 结构的内部, 也可以安装在“带外”。这两种方法各有其优点, 可供客户在安装Actifio解决方案时根据自身情况进行选择。Actifio解决方案的核心是虚拟数据管道技术 (VDP) , 其作用是将产品数据的拷贝管理过程虚拟化, 解决冗余不足的问题, 并实现唯一性数据在各种数据管理应用中的重复使用。当数据发生更改时, 虚拟数据管道技术 (VDP) 能从服务器上有效捕捉该变化数据的单一副本, 并将数据重复使用, 实现不同的目的。此外, 该技术能让应用程序直接从Actifio访问复制数据, 而不需要通过任何数据移动。

Actifio通过一个单一的解决方案就可以替换所有的备份软件、灾备工具或测试开发工具。此外, 还可以作为一个搜索和分析平台。与传统方法相比, Actifio解决方案使用的基础设施更少, 操作更加简单。

接下来, 我们将更深入探讨虚拟数据管道技术的复制、存储、移动和恢复这四大功能的细节信息。

复制操作的虚拟化

Actifio的快照功能里自带了数据块修改跟踪技术, 可即时捕捉与应用程序同步的复制数据。这一可扩展的数据采集技术是目前行业中最快速最高效的, 省去了传统的“备份窗口”, 同时也为用户提供了数据管理的协议服务水平 (SLA) , 这些都是传统技术无法做到的。用户可根据其使用环境, 充分利用多种技术, 如VMware v Storage API’sTM, Oracle RMANTM, Microsoft’sTM, 以及轻量级Actifio连接器进行多种方式的数据复制。

1.检索

为了使安装更加简便, Actifio在主机、应用程序和文件系统上执行了一次深度检索。通过向数据中心查询虚拟主机平台 (ESX) 的服务器列表, 可检索出VMware的特定运行环境。

2.VMware v Storage API

Actifio运用了VMware快照技术以及变更快跟踪技术 (CBT) 。CBT技术是VMware v Storage API在数据保护功能上的一个特征体现。在这两项技术的帮助下, Actifio可通过真正的永久增量结构来捕捉生产环境中发生的各种变化。变更块追踪技术使得Actifio可以只复制那些自前一次数据采集后发生变化的数据块。

3.应用API

为更好地管理数据副本, 一些企业级的应用程序和平台提供了先进的接口, 包括微软的Windows VSS和O-racle RMAN。Actifio直接与这些接口相连, 捕获应用程序中连续的数据快照, 并只导入发生改变的数据块。这为应用程序级别的数据捕获提供了更加有效的方式。

4.Actifio连接器

Actifio在物理服务器之间利用主机连接器进行连接, 以保证快照捕获过程中应用程序的一致性。Actifio连接器是一个轻量级的软体, 安装在服务器上, 为各种应用提供更加紧密的集成。

存储操作的虚拟化

1.对变化的数据进行全局冗余数据删除和压缩

一旦将变化的数据块导入Actifio, 下一步就是要对这些数据进行全局冗余数据删除 (即删除数据集中重复的数据, 只保留其中一份, 从而消除冗余数据) 和压缩。Actifio的复制数据存储器会将新导入的数据在所有物理服务器和虚拟服务器上进行冗余数据删除, 并将这些数据压缩写入磁盘。这样做的优点是:

(1) 经处理的数据可长时间存储在磁盘里, 更加经济实惠;

(2) 经处理的数据提供了一个完全独立的数据副本, 可其免受生产存储环境的物理性破坏;

(3) 冗余数据删除和压缩优化了不同站点的数据传输。

2.将数据存储库虚拟化

Actifio除了将存储空间的占用减少了10倍以上, 还能让客户使用任何存储设备。Actifio让用户通过使用简单但功能强大的SLA, 来自主决定应用程序的存储库, 而不再由存储供应商指定。许多用户会重新使用已有的存储设备来存储数据副本, 或选择成本更低的存储设备。这一能力在未来可以进一步降低50%以上的整体存储成本。

移动操作的虚拟化

在分布式环境中, 数据移动是制约数据有效管理的最大因素。Actifio提供的可扩展数据移动技术堪称业界最强大、最高效和最安全的, 它不仅将整体网络使用率提高到95%以上, 也省去了专用的WAN加速/优化的需求。Actifio提供了四种类型的复制存储方式:同步复制、异步复制、De Dup异步复制和De Dup备份复制。通过这几种方式的复制存储, Actifio创建了应用程序的远程数据副本, 以实现操作数据的即时恢复。De Dup备份复制方法主要是用于存储那些需长期保留的应用数据的远程备份。同步复制和异步复制则与传统存储的同步和异步复制较为相似。为实现高效的数据移动, Actifio采用了光纤通道来连接客户站点。此外, 上面描述的各种方法在进行数据复制时, 都使用了加密通信技术。

1.同步复制

同步复制适应于用户站点间距在300公里以内。

2.异步复制

异步复制对用户站点间距没有限制, 在带宽允许的范围内, 可以最大的速度在广域网内发送数据。

3.De Dup异步复制

De Dup异步复制是业内最高效的数据移动方式, 其将带宽要求提高到10倍以上, 使得大数据应用程序也可被有效复制。De Dup备份复制结合了数据的即时访问能力, 为更多的应用程序提供灾备保护功能。若要通过传统的数据存储复制技术实现上述功能, 其技术成本相当高。

4.De Dup备份复制

De Dup备份复制能够使位于远程Actifio系统的全局性独立数据块实现相互传递, 进而保证了数据的高效传输, 满足用户离线备份的需求。

恢复操作的虚拟化

Actifio具有一个独特的功能, 能让应用程序直接使用任何一个时间点的数据副本, 而无需通过传统的恢复操作。这是因为Actifio是一个智能的存储子系统, 可以在瞬间内创建任何时间点的应用程序数据“视图”, 并允许应用程序通过光纤通道或ISCSI接口访问Actifio, 就如同访问一个传统的存储系统。

任何与Actifio复制数据系统相连的系统, 都可以访问应用程序数据在任意一个时间点的数据副本。常见的使用情况是:在出现一个软件问题后还原虚拟机, 以检索意外删掉的文件, 或者是为了测试和开发而使用产品数据的虚拟副本。可通过以下三种方法访问Actifio复制数据储存平台里的数据:加载, 克隆和恢复。

1.加载

加载功能是使用最频繁的数据访问方法, 它可以直接利用Actifio平台里存储的虚拟副本。Actifio存储了产品的数据副本及其变更。通过使用有效的块级别iSCSI和光纤通道协议, 任何系统都可以即时加载虚拟的数据副本。

2.克隆

克隆功能用于创建一个独立的数据集副本。其最常见的用途是:开发和测试自动化, 数据审计, 数据仓库贮存, 用户验收测试等。在虚拟服务器或物理服务器中, 可以从系统里的任何一个应用程序中将数据集复制到用户环境中的一个独立存储器。

3.恢复

恢复功能可有效地恢复产品数据, 并保证数据和刚收集时是完全一致的。虽然这种数据访问方法比较不常用, 但在某些情况下它显得极其重要。典型的使用情况是:在出现大量数据损坏或存储阵列故障时, 将整个服务器或应用程序恢复到正确的有效状态。

总结

在存储系统优化领域, Actifio可谓是执行业之牛耳, 最典型的例子就是在2012年, Actifio的年销售增加率超过了700%, 此外, Actifio还在第4季度签约了64家公司, 每笔交易的数额达到21万美元。至今为止, 许多需要数据管理服务的企业都签约了Actifio。Actifio的客户既包括财富1000强的大型公司, 又包含部分中型企业, 这些客户主要遍及北美、欧洲、中东、以色列和其他亚太地区。据市场研究机构IDC的数据显示, Actifio目前所处这一市场的价值规模已达400亿美元。

Actifio公司团队希望能够凭借自身特色在世界各地一展所长。虽然Actifio公司的经营模式非常简单, 但凭借优秀的执行力和巨大的市场潜力, 我们仍然相信Actifio将脱颖而出并获得成功, 一切都让我们拭目以待。

参考文献

数据简化 篇8

Excel是我们日常工作中常用的Microsoft Office系列办公软件之一。目前绝大多数计算机上都装有Excel软件。Excel软件功能强大,界面美观,使用方便,主要适用于存储和处理各种各样的数据,并能将这些数据生成图表。利用Excel软件处理数据,不需要我们另行编程,只需要掌握Excel中一些函数功能,就可以很轻松地应对实验中的数据处理。

下面是扭摆法测定物体转动惯量实验中所得的一组数据:

如果我们用人工的方法计算上面这组数据,将会是一个很繁琐的过程,而且计算过程中很容易出错,每一步计算都会产生较大的计算误差,这对减小整个实验的误差,提高实验的精度是不利的。但如果我们利用Excel软件对表格中的数据进行处理,不仅可以简化数据处理过程,还可以减小人工计算所产生的随机误差,提高整个实验的精度。

观察分析上面的数据计算公式得知,这组数据处理主要要用到Excel中的AVERAGE(算术平均值)、POWER(乘幂)、SUM(求和)这三个函数功能,我们只需要对照上面的计算公式,在这三个命令之间再加上加减乘除运算,即可得到该组数据的处理模板。具体操作步骤如下:

1.首先计算出各组数据的算术平均值,用到AVER-AGE函数:

(1) 几何尺寸:在D11中输入“=AVERAGE (D8∶D10) ”;在D15中输入“=AVERAGE (D12∶D14) ”;在D19中输入“=AVERAGE (D16∶D18) ”;在D23中输入“=AV-ERAGE (D20∶D22) ”;

(2) 摆动周期:在F7中输入“=AVERAGE (F4∶F6) ”;在F11中输入“=AVERAGE (F8∶F10) ”;在D18中输入“=AVERAGE (F12∶F17) ”;在F23中输入“=AVERAGE (F20∶F22) ”;

2.计算塑料圆柱、金属圆柱、金属细杆的转动惯量理论值, 用到POWER、SUM函数的组合:

(1) 塑料圆柱:在G8中输入“= (1/8) *B8*POWER (D11, 2) ”;

(2) 金属圆柱:在G12中输入“= (1/8) *B12*SUM (POWER (D15, 2) , POWER (D19, 2) ) ”;

(3) 金属细杆:在G20中输入“= (1/12) *B20*POW-ER (D23, 2) ”;

3计算扭转常数K:用到POWER函数的运算组合:

其中圆周率取3.14159, 在A24中输入“=4*POWER (3.14159, 2) * (G8/ (POWER (F11, 2) -POWER (F7, 2) ) ”;

4.最后计算金属载物盘、塑料圆柱、金属圆柱、金属细杆的转动惯量实验值, 用到POWER函数的运算组合:

(1) 金属载物盘:在H4中输入“=G8*POWER (F7, 2) / (POWER (F11, 2) -POWER (F7, 2) ) ”;

(2) 塑料圆柱:其中圆周率取3.14159, 在H8中输入“= (A24*POWER (F11, 2) / (4*POWER (3.14159, 2) ) -H4) ”;

(3) 金属圆柱:其中圆周率取3.14159, 在H12中输入“= (A24*POWER (F18, 2) / (4*POWER (3.14159, 2) ) -H4) ”;

(4) 金属细杆:其中I夹=0.321×10-4Kgm2, 圆周率取3.14159, 在H20中输入“= (A24*POWER (F23, 2) / (4*POWER (3.14159, 2) ) -0.0000321) ”。

最后运算结果如下:

实践证明,本文利用Excel软件处理实验数据,应用性强、方便、直观、快捷、灵活、计算准确、有着较好的教学效果。读者也可以根据其他实验的数据处理公式,利用Excel软件的函数功能制作出相对应的数据处理模板,简化数据处理过程,提高实验精度。

摘要:通过运用Excel软件的函数计算功能对扭摆法测定物体转动惯量实验的数据处理为例, 阐述了Excel软件在科学计算中的强大功能, 为实验数据的处理提供了方便快捷又准确的辅助方法。

关键词:Excel,计算机,大学物理实验,数据处理

参考文献

[1]李平编编著.大学物理实验[M].北京:高等教育出版社, 2006, (12) .

[2]崔吉春.孙亚刚编著.Excel2003应用实例培训教程[M].北京:电子工业出版社, 2004, (4) .

数据简化 篇9

北京2012年11月15日电/美通社/--Analog Devices, Inc. (NASDAQ:ADI) , 全球领先的高性能信号处理解决方案供应商和数据转换技术领导者, 最近推出一款高度集成的数据采集IC (集成电路) ADAS3022, 该产品占用的电路板空间仅为竞争产品分立器件的三分之一, 有助于工程师简化设计, 缩小高级工业数据采集系统的尺寸。新款16位1 MSPS (每秒采样百万次) ADAS3022数据采集IC可有效用于电力线监控器、过程和电机控制、病人监护, 以及在±10V工业范围内运行的其他工业和仪器仪表系统。

Databeans Inc.市场分析师Matthew Scherer表示:“ADI公司在全球数据转换市场上占据了很大份额, 2011年的份额高达大约48.5%, 因此Databeans将ADI公司视为先进数据采集和信号调理市场的主导力量。ADI公司推出诸如ADAS3022之类的独特新产品具备极高性能, 而且外形小巧, 该公司仍担负很多高级技术开发的重任, 以推动这一充满活力的行业向前发展。Databeans相信, ADI公司不断发布此类产品, 势必在未来几年内继续保持该市场主导厂商的地位。”

本文来自 360文秘网(www.360wenmi.com),转载请保留网址和出处

【数据简化】相关文章:

采用Daubechies4小波变换简化DEM数据06-27

简化方法05-06

简化优化05-26

简化运算05-28

简化策略06-15

简化流程研究06-07

楼梯简化模型06-28

荷载的简化07-04

苗木购销合同简化05-16

2011讲话简化版小体05-23

上一篇:响应计算下一篇:商务日语教学