数据库集中管理

2024-06-23

数据库集中管理(精选十篇)

数据库集中管理 篇1

信息技术的发展使得IT系统在企业中被越来越广泛的应用。作为IT系统一部分的数据库系统维护,无疑占据了非常重要的地位。对于数据库管理员来说,常常要面对多个需要维护的数据库系统。特别是大型企业内部支撑企业运维的关键系统多,数据量大,数据库接口多,需要日常维护的工作量也就很大,这对管理员带来了很大的维护压力。

因此针对上述的问题,本文的研究主要用于解决数据库集中接口,定时操作,异地转存等方面的问题,以达到简化操作提高工作效率的目的。

2 软件架构

本文提出的数据库集中管理的维护架构。主要包含了应用配置、业务驱动、数据库接口、本地数据库等几个主要的模块。这几个模块之间通过相互调用,实现可以完成日常维护中大部分操作工作。

2.1 数据库接口模块

数据库接口模块中定义了和各远端数据库系统间的连接接口。包含了连接信息、数据库驱动、调用接口三部分。

连接信息是存储在本地数据库中的远端数据库的用户名、密码等信息。

数据库驱动是配置在模块中的用于连接各类数据库的驱动程序,支持对MSSql、Sybase、Oracle等类型数据库系统的链接,同时也支持通过ODBC接口进行连接。

调用接口是一系列函数,供业务驱动模块登录和退出数据库,执行SQL脚本等操作。

2.2 应用配置模块

应用配置模块用于给管理员进行维护脚本,定时逻辑关系,数据库接口的配置录入。这些配置被保存在本地数据库中,供业务驱动模块调用。

定时逻辑关系是指管理员配置脚本操作需要什么时候进行执行,返回值为何种情况时进行下一步脚本操作。数据库接口的录入用于配置数据库连接信息和驱动信息。

2.3 业务驱动模块

业务驱动模块用于根据定时逻辑关系调用和执行脚本,并返回结果。它包含了脚本调用、定时逻辑调用、接口调用等三个部分。通过逻辑关系和时间关系的组合进行操作。

2.4 本地数据库

主要用于存储前三个模块的配置数据和异地转存数据。

通过这样设计的数据库维护架构,可以提供管理员将操作脚本与定时关系、调用数据库接口的定义进行组合的功能。同时,对于性能采集类型的脚本,业务驱动模块将采集到得各个数据库的信息存入本地数据库,提供软件界面的调用函数,实现检测信息的呈现。

3 关键部分的实现

3.1 数据库集中接口

数据库接口可以通过编写ADO接口程序实现。目前主流的软件开发平台均支持ADO接口的实现。通过程序ADO连接字符串直接调用本地的数据库驱动程序,从而将数据库连接固话在程序中。各数据库系统的连接字符串如下:

其中uid、pss、srv、cal四个参数信息在本地数据库读取,对于连接字符串可以通过预存在本地数据库中的服务器地址、用户名、密码、默认库、安全策略、字符集等信息来动态生成。

3.2 定时策略

定时策略主要依靠数据库中配置的业务逻辑关系来生成,用Tim e r控件触发。其主要的部分是定时策略的逻辑关系生成和时间推算。逻辑关系通过表2来对应,通过递归关联可以实现事务日志的逻辑顺序,通过表2和表3、4的关联可以实现事务的定时策略绑定。

时间推算以表4为基础,通过触发时间点、浮动范围、定时间隔和频度来给出时间的触发点和下次触发间隔。通过时间推算和触法完成脚本的调用控制。

4 系统调试与部署

系统需要在局域网内部署一台本地数据库服务器以及一台应用服务器,分别用于运行本地数据库程序和系统程序。本设计可以让管理员通过查看定时操作的结果来判断数据库的运行状态、进行数据转存,无需远程登录操作。

5 结语

本设计通过Delphi软件进行开发,通过本软件的实现,简化了管理员日常维护的重复性和定时性操作。由于本软件结构简单,应用方便,比较适合服务器数量多,中小型的数据库集中维护、数据转存备份等应用场合,为数据库集中维护提出了有效的维护思路和解决途径。

摘要:利用Borland的Delphi工具编程开发的数据库集中管理软件。借鉴了主流数据库管理软件设计理念, 结合了自身维护经验设计而成。本文介绍了软件的设计架构和关键部分实现方式。

关键词:数据库,集中,维护

参考文献

[1]李维.Delphi7高效数据库程序设计[M].机械工业出版社, 2003.

数据库集中管理 篇2

(一)ctais 2.0的全面实施,标志着税收征管全面实现了省级数据集中

实施数据集中是税收发展的必然要求。这不仅是因为实现数据集中预示着税收信息化建设达到了一个新的高度,进而抢占信息化发展战略的新的制高点,而且是因为只有完成数据集中,才能做到税收数据与

征收机构的分离,为管理集中和科学运作奠定基础,帮助税务机关从以税收收入为中心转变为以客户(纳税人)为中心,实现税收管理的真正转型。

ctais 2.0的全面实施,标志着税收征管信息系统全面实现了省级数据集中,并逐步实现基础征管数据的总局集中。ctais 2.0带来的最大改变是由点到面的变化。以前ctais 1.0只能运行部分的征管业务,现在变成了综合征管,以前是单一的地市(县)级应用或单一业务的省级范围内应用,现在则成为一个全省范围内的综合应用,税收管理工作由点到面、由局部到整体,大大提升了管理层次。ctais 2.0的全面实施必将成为我国税收信息化建设的一个重要里程碑,大幅提升我国税收管理科学化、精细化水平,为尽快实现“金税”工程三期提出的税收信息化建设蓝图打下基础。

随着税收征管数据的省级集中,目前防伪税控、税收执法管理、货物运输发票管理、车购税管理、人事管理、财务管理等也实现了省级数据集中,税控收款机、行政管理系统等的省级数据集中工作也将陆续展开。

(二)随着省级数据集中的逐步完成,风险也在集中并有可能加大

省级数据集中后,原来分散的风险也在相应集中,其可能导致的影响面、影响力和破坏程度大大增加,风险较之从前实际上呈放大的趋势。

省级数据集中后主要有技术风险和系统风险两个方面。

1、技术风险。包括集中化风险、数据风险、通讯风险、交易量的峰值冲击风险、维护与管理风险和遭受攻击与入侵风险等。

集中化风险。原有分散的业务系统与新统一的业务系统在系统结构、数据结构、应用平台、运行环境、业务处理模式等方面存在巨大差异,两者之间难以实现线性平稳升级和数据上收集中。

数据风险。包括纳税人基础信息在内的所有业务数据都集中在一个中心,一旦数据混乱或丢失,会带来全局性的混乱。

通讯风险。若网络通讯质量无法满足数以万计的网络终端实时联机交易的数据传输要求,就会存在由于通讯阻塞造成大量联机交易失败或失效的风险。

交易量的峰值冲击风险。由于实时交易的突发性、巨量性和不可预测性,数据中心的峰值处理能力无法满足及时处理突然巨额增大的业务交易要求。

维护与管理风险。数据集中后需支撑各种应用,支持的范围广,处理的业务种类多,整个系统庞大而复杂,维护和管理工作中的哪怕一丝差错,其危害往往是全局性的。

遭受攻击与入侵风险。“一个数据中心”可能使敌对国家和势力军事攻击和网络入侵在目标与对象等的选取上更加方便,这种有组织的攻击与入侵行为往往攻击强度大、持续时间长、方式种类多,一旦无法防范和破解,会导致数据中心运行的全部或部分瘫痪。

2、系统风险。除技术风险外,省级数据集中还增加了系统风险,主要是指规划与设计风险。“一个数据中心”涉及数据运行中心方案、业务应用系统方案、通讯网络系统方案等各个环节,各个环节之间既有一定的独立性又相互关联、相互影响,规划与设计风险的难度很大。从国内外数据中心的建设现状看,尚缺乏完备的超大型数据中心的定性和定量设计规则,尚缺乏“一个数据中心”完备设计的实践经验。另外,项目建设方案与建设步骤中缺乏确保项目建设质量的成熟可行的技术与管理方法,很难提高数据中心总体的安全程度,所用的软硬件产品可能存在后门和安全漏洞。

(三)省级数据集中后风险的集中和加大,迫切要求进行有效的风险管理

事实上,在高新技术高度发展的今天,建造一个信息系统相对而言并不困难,但要让这个系统正常有序地运转起来并能实现其业务价值,则有很多现实的难题,需要防止和规避一系列的风险因素。省级数据集中逐步完成后技术风险和系统风险的集中和加大,其可能导致的后果是可怕的,这正是我们强化风险管理的理由。税收信息化建设中的重要课题,就是要使这些风险因素尽可能地消弥于无形。因此,需采用先进的技术与产品、优秀的管理方法,尽量地降低风险。但仅此还远远不够,必须通过引入一定的结构、规则与标准,使税务信息系统在“他律”(it治理)的基础上进行“自律”(it管理),才能使得税务信息系统风险在一定的框架内上下左右浮动,不超过计划中的风险范围,它决定了税收信息化建设中引入风险管理的必要性。这也正是现行的“以纳税申报和优化服务为基础,以计算机网络为依托,集中征收,重点稽查,强化管理”税收

征管模式的题中应有之义。

目前,风险管理以其管理的针对性、实用性、高效性,被广泛应用于各项经济社会管理活动之中,越来越为各界重视和推崇。通过对税务信息系统的风险管理可以进一步提高信息系统的安全度以及信息的深度利用水平,对税务机关本身和纳税人实施有效的、更加精细的管理。因此,在税收信息化建设中,借鉴和引入风险管理又有其必然

性。在当前税务机关强调既要强化管理,又要优化服务的大背景下,通过对税务信息系统实施风险管理,不断提高管理的针对性、有效性,更是具有重要的现实意义。

二、从系统的角度构建税务信息系统风险管理体系

风险管理理论强调,风险管理是一个系统过程,包括风险的识别、风险的估测、风险评价和风险的控制等环节。因此,一个完善的风险管理体系至少应该包括风险识别、风险评估和风险控制3个部分。

1、风险识别。主要是对可能发生损失和困难的制度、手段、环节、行为等进行感知和预测,直观地说,就是寻找可能造成风险的风险点和风险来源,主要功能就是查找管理漏洞。

2、风险评估。主要是对风险点进行准确判断、定位和评估,并应用各种风险评估技术来判定风险发生的概率、危害大小、影响程度、损失轻重和风险因素。它的一个重要功能就是风险预警。近几年来,税务系统实行的纳税评估工作已初具风险评估工具的雏形,在税务信息系统风险评估过程中,可以借鉴纳税评估工作的一些工具和做法。

3、风险控制。在确定了潜在的风险、具体的风险和可能发生的危险后,应该针对存在的风险因素,采取积极措施对风险进行控制。在风险发生前,降低风险发生的概率;在损失发生时,积极实施补救措施,缩小损失程度来达到控制目的;在损失发生并实施补救后,认真反思教训,找出原因,列出今后的应对方案。它的主要功能就是堵塞管理中的漏洞,最终实现“依法征收、征收率高、成本降低、社会满意”的税收征管工作十六字方针。

对税务信息系统风险的发现和识别,首先必须获取最大量的信息数据。没有来自税务信息系统各个方面的信息数据,对风险进行识别和评估便无从谈起。因此建立税务信息系统风险信息数据库势在必行。

1、风险信息数据库必须做到丰富、科学、完整和及时。要运用多种手段、通过各种渠道采集税务信息系统的风险信息数据,并进行梳理、分类、审核,必要时还需与其他信息进行比对,然后进行及时的分发、传递、应用。

2、保证风险信息数据的可靠性。目前税务信息系统还分属不同的平台,数据库、开发工具、取数标准等都不尽一致,在此基础上分析出来的一些结论,其真实性、准确性难以得到保障。因此,风险信息数据库中数据的采集要通过各种措施确保其有效性和可靠性。目前可通过以下3种途径:一是统一数据口径。要加强资料真实性、准确性的验证,去粗存精、去伪存真;二是统一接口标准。要根据统一的接口标准采集数据,对不同类别、不同软件、不同开发商的产品必须按照统一的接口标准接入,避免以往一再发生的“信息孤岛”现象。三是实现一次采集、多方应用。尽可能减少重复劳动,优化信息系统配置,提高风险信息数据的利用效率。

3、整个风险信息数据库需从现实成本和未来发展两个角度进行规划。一是要进行必要的成本控制,力戒贪大求洋。二是要满足现实需要,保证一定时期内发展的需求。三是对数据进行经常性的清分工作,摒弃垃圾数据,确保数据库的健壮性。四是还要考虑有适当的冗余,满足未来的发展需求。

税务信息系统风险管理的本质,可以看作是动态地对税务信息系统可能的风险进行的管理,即要实现对信息和信息系统的风险进行有效的全过程管理和控制。信息安全管理过程就是pdca(plan-do-check-act,即计划-实施与部署-监控与评估-维护和改进)的循环过程。通过计划、实施、调整、改进的循环,使信息安全保持在可持续发展的轨道上,阶段性地进行审计,以发现存在的偏离,及时调整到信息化的最终目标上来。

三、税务信息系统风险管理需要建立全视角的应对机制

(一)业务重组

加强税务信息系统的风险管理,不但要切切实实做好对系统本身的风险防范、应急处理等,更为重要的是要关口前移,对整个税收业务进行重组,避免一盘散沙、各自为政的现象,确保整个系统的健康和稳定。信息化支撑下的税收业务重组,一是梳理归并整合原分散在传统业务中的征管流程,建立符合税收征管规律和信息化要求的新流程,实现处理方式流程化、信息处理集约化、服务方式多元化。二是人与机器的良性互动。发挥税务干部的主观能动性,按照信息化的要求规范税收征管工作,使之管理科学、程序合理、环节简捷、标准具体,反馈及时,形成人与机器的良性互动。三是以流程为导向设置管理环节。简化中间环节,优化业务流程,精简表证单书,降低成本,提高效率,确保税务机关对涉税信息的准确获取、及时处理和有效利用。从而真正降低风险,建立以信息化和专业化为标志的现代税收征管体系,追求效率最优化。

(二)数据管理

对数据的科学管理是税务信息系统风险管理的切入点。数据管理是指对税收征管软件数据采集、数据处理、数据运用的过程进行全面管理,确保数据能够客观反映税收征纳状况。省级数据集中不是目的,如何利用好这些数据,加强数据管理,提高增值利用度,使之真正服务于税收工作,才是关键。一是要规范制度,保证数据质量,减小数据采集差错的风险度。建立健全各项管理制度,明确各部门的职责,加强绩效考核,数据采集应遵循原始、真实、准确、便利原则,注重数据录入质量。二是要强化管理,实施数据标准化,减小数据标准差异的风险度。要规范和统一采集标准,使各个管理系统能按统一的数据口径和标准来执行,采用数据挖掘技术,对原始数据进行分析加工,为决策和管理所用。三是要认真分析,利用数据集中优势,对各种相关数据进行分解、归并、整理,减小数据使用时间、范围、口径不一致的风险度。通过程序检测,将数据运行中的异常情况及时告知相关部门进行分析、整改,并随时监测整改情况,规范操作行为,在条件成熟时,成立专门的数据管理工作职能部门,培养一支高素质的数据管理队伍。

(三)系统整合一是按照总局税务管理信息一体化的原则,充分利用多年来税收信息化建设的成果,从根本上改变税务管理信息系统建设缺乏统一规划、自成体系、重复开发、功能交叉、信息不能共享的状况,逐步对现有应用系统进行整合和建设,达到真正意义上的一次采集、信息共享和各类基础数据层面的互联互通。只有这样才能有效减少风险点,增强整个系统的健康性,实现征管信息的五个统一集成:信息源的统一集成、分析加工的统一集成、发布预警的统一集成、处理的统一集成、反馈汇总的统一集成。

二是积极构建由预警体系、监控体系和考核体系三个部分组成的系统控制体系,三者互为条件,共同作用,实现全方位的风险监控。预警体系主要通过现有指标的分析对比和预测,对纳税人和税务机关自身不规范行为提出警戒;监控体系以税务机关内部控制为主,强化征管质量指标的日常考核,对基层税务机关的执法行为进行常规监控和管理,使质量控制工作实现日常化、规范化;考核体系指根据监控指标数据所反映的成绩和问题,对照奖惩标准采取的一定处理措施,包括征管质量体系、执法责任制、“两权”监督体系和岗责体系。

数据的集中与离散 篇3

(2)将甲的全部训练成绩(共100个)按环数从小到大依次排列,这100个数据中处于正中间位置的是第50个数据7和第51个数据8。这两数的平均数为7.5,即为甲训练成绩的中位数。

将乙的全部训练成绩(共99个)按环数从小到大依次排列,这99个数据中处于正中间位置的是第50个数据8,即为乙训练成绩的中位数。

从计算结果可知,一般情形下,甲发挥中等水平时成绩介于7环和8环之间的可能性较大,乙发挥中等水平时成绩是8环的可能性较大。

(3)在甲的全部训练成绩(共100个)中,出现次数最多的是7环(26次),7即这组数据的众数。

在乙的全部训练成绩(共99个)中,出现次数最多的是7环(25次)和8环(25次),7和8即这组数据的众数。

从计算结果可知,虽然每次射箭成绩可能会有变化,但在一般情形下,甲射中7环比射中其他环数的可能性要大,乙射中7环或8环比射中其他环数的可能性要大。

(4)由前面的平均数及方差公式,可得s2≈1.95,s2≈1.84。

从训练成绩的方差看,甲略大于乙,这说明甲的数据比乙的数据的离散程度略高,也即成绩的起伏略大。乙的成绩相对来说稳定些。

从上面这个例子可以看出,四种数据代表的求法不同,所表示的意义也各异。

平均数是所有数据之和除以数据的个数所得的商,它是分析和比较数据的集中趋势时最常用的数据代表。平均数的计算利用了一组数据中的每一个数据。任何一个数据的变化。都会影响平均数的大小。如果一组数据中有少数数据的值明显地过大或过小,最好不要仅仅使用平均数来考量,因为个别过大或过小的极端值会导致平均数与数据的实际集中点有较大差距。这时,最好用中位数作为数据代表,因为中位数不受极端值的影响。有时,为了决定是用平均数还是用中位数作为代表来分析一组数据的集中趋势,最好把这两个数据代表都算出来。如果它们的值很接近,则使用平均数;如果它们有很大的不同,则使用中位数。

根据一组数据的中位数,可以把数据分成同等数目的两组,其中一组数据的值不小于中位数,而另一组数据的值不大于中位数。将一组数据由小到大排列,有奇数个数据时,处于正中间位置的数就是中位数:有偶数个数据时,取处于正中间位置的两个数的平均数作为中位数。可以看出,中位数并不一定是原始数据之一。但它很好地代表了一组数据的“中点”,而且很容易找出它。

众数是指一组数据中出现次数最多的数据。它一定是这组数据中的某个数据。有时,众数可能不止一个。如上例中乙的训练成绩就有两个众数。如果一组数据中各个不同的数值出现的次数完全一样,则这组数据就没有众数。找众数只需要比较各数据的个数,而不需要计算。众数反映了一组数据的最大集中点。由众数可知这个数据在这组数据中出现的次数最多,但由它并不能知道这个数据具体出现了多少次,以及它比其他数据的出现次数多到何种程度。和中位数一样,众数也不受极端值的影响。

平均数、中位数和众数的侧重点不同,反映一组数据的集中趋势的角度不同。因此,应根据实际问题的需要,选取合适的数据代表来研究数据的集中趋势。

数据库集中管理 篇4

1财务信息系统管理现状

一般来说,财务核算系统、公积金管理系统、工资核算系统、 收费管理系统、药物管理系统、资产管理系统等组成医院的财务管理系统,然而,目前我国医院设置对应的平行且独立的部门实施对各系统的管理,造成数据过于分散,资源利用率差,没有集中性[1]。另外,医院对财务管理的操作人员没有严格要求,岗位过于单一,仅由一人进行数据管理和应用操作等一系列工作,对医院财务的管理造成很大的风险隐患。 有些医院财务信息系统虽然有高水平的管理人员,但是医院的信息管理职能分散,造成医院现有的高水平管理人员分散到各个职能科室, 造成了医院人力资源浪费等。 因此,面对现今医院财务信息系统管理的现状, 需要加快医院财务信息系统的系统化建设,培养复合型人才,实现医院财务信息系统的科学管理。

2医院财务信息中心的管理方向和工作职能

2.1构建全新财务经营模式,降低财务风险

医院财务信息中心主要职能是对全院财务数据信息进行编码,对分散的信息资源进行有机整合,构建统一的数据库,对财务信息数据实行统一管理,实现集中存储,数据统一加工,搭建整个财务部门共同的网络平台, 实现医院财务信息中心与医院整体系统的无缝对接。 财务信息中心对数据实行统一化管理,达到信息管理一体化水平,有效提升财务部门的管理、决策、核算以及监督水平,积极发挥财务部门不同科室的工作职能,从而提升医院整体工作效率。 财务不同科室和相关操作人员进行数据操作时都需遵守各自的权限, 严格区别管理界面业务操作和数据管理岗位,规范采集信息数据首先从技术上考虑,对业务信息的合法性、合理性和安全性有所提升。 另外,财务各科室和财务信息中心间的联系可以通过财务业务数据复查制度进行有效的内部牵制,进而在很大程度上减少财务风险的发生几率。

2.2实时监管财务信息数据,达成动态财务

医院财务管理中实现动态财务是一个重要的工作目标。 网络信息财务下的会计核算能够把事后的静态核算转化升级为事中的动态核算,最大程度上提升了会计信息的应用价值[2]。 动态财务报表能够让决策者直观的了解正确的财务信息。 财务信息网络平台搭建完成后, 各类数据信息在相关业务部门的录入和确认之后,生成系统化的数据信息,然后再进入到信息中心,财务信息中心可以对录入的信息数据进行实时加工, 使得决策者能够及时获得有效的、明确的财务信息。

2.3促成数据资源共享,实现财务工作透明化

财务数据信息集中管理后, 整个医院财务信息系统可以实现资源数据和设备的共享,一定程度上减少了设备投资成本,节省系统运行花费,从而减少维护管理成本。 医院各部门的工作业绩体现在信息管理中心的相关信息数据上, 有助于实现各科室间工作的有效监督, 同时还有利于领导阶层对各部门业绩的考核,促进工作公开化、透明化,保证了业绩考核的公正和客观,从根本上杜绝了下级工作造假而引发的信息不对称的情况, 真正意义上实现了医院财务信息的公开, 既便于医院职工了解医院具体的财力状况,也便于广大群众加入到医院管理行动中[3]。

2.4研发医院财务分析和决策系统

目前, 财务管理的重大改革即会计电算化朝会计信息化方向转变。 会计信息化促使核算、管理、分析与决策工作有机结合, 加速了会计信息数据和其他的管理信息交互与融合,实现开放、 共享的会计信息。 信息管理中心不断的搜集和整体各类信息资源, 积极研发财务信息分析和决策系统, 为医院的发展提供及时、有效的财务信息,帮助决策者进行正确决策。

2.5构建稳定、安全的财务网络运行环境

网络系统安全是保障万络财务安全发展的重要前提, 财务问题直接与资金安全相联系,所以,任何一个问题的出现都有可能造成重大的资金损耗问题,构建安全、稳定的财务网络运行环境是财务信息中心工作的重中之重。 网络安全是信息中心的重要工作目标,需要采取各种技术手段与管理办法,促进网络系统的安全运行,保障网络环境中信息数据的完整性、保密性以及可用性,安全保护数据系统,避免出现计算机的数据、软硬件遭受恶意破坏、泄露等情况。

3结语

GPS测量与数据处理集中实习 篇5

一、目的和要求

为巩固所学知识,通过集中实习,进一步深入了解GPS的基本原理以及在测绘中的应用。内容包括GPS静态控制测量、GPS动态地形测量、GPS RTK地形测量和工程放样以及相应的数据处理。

二、内容和形式

1.GPS静态测量及数据处理

(1)依照任务要求、测量规范或行业规范等,确定布网方法、网的精度,编写技术设计书;

(2)进行选点,绘制网设计图;

(3)设计测量安排表(测量时间、搬站时间、人员分配);

(4)GPS静态外业作业:找点、仪器架设、天线高测量、卫星状态、电源状态的监视。记录点名、时段、天线高、卫星状态和特殊情况;

(5)安装数据处理软件;

(6)下载数据和检查数据,进行RINEX格式转换;

(7)建立坐标系统;

(8)设置基线处理参数,进行基线解算;

(9)进行基线解算结果的质量控制;

(10)设置网平差参数,进行网平差;

(11)进行网平差结果的质量控制;

(12)编写技术总结。

2.GPS RTK 测量和放样

RTK测量

(1)架设基准站设置有关参数;

(2)创建流动站测量文件和坐标系统,设置有关参数;

(3)设置流动站动态测量参数;

(4)RTK走走停停测量

(5)RTK连续测量地形点

RTK工程放样

(1)架设基准站设置有关参数;

(2)创建流动站测量文件和坐标系统,设置有关参数;

(3)工程设计:按点、直线、缓和曲线、圆曲线设计

(3)设置流动站放样测量参数;

(4)按点、直线、缓和曲线、圆曲线放样工程。

3.地形图绘制

(1)下载RTK测量数据;

(2)检查点名和图形代码;

(3)检查点位精度;

(4)绘制平面图;

(5)添加属性、文字、符号指示;

(6)绘制等高线图;

(7)输出地形图。

三、实习地点

外业实习地点武汉大学校区内,内业实习地点在测绘学院实验中心,每个学生安排有不同的GPS接收机和一台计算机,2 周内完成全部实习任务。

四、时间安排

第一周:完成GPS静态控制测量实习的测量设计、测量实施、数据处理和结果分析。第二周:完成GPS动态地形测量设计、测量实施、数据处理和绘制地形图;完成工程设计、工程放样、放样点精度统计。

五、考核

数据库集中管理 篇6

关键词:端对端文件共享系统,BT,本地子网,数据流,主干网过载

0引言

BT是一种端对端的文件共享协议和软件。提供BT下载的服务器 (称之为Tracker) 拥有BT文件和所有用户的实时信息, BT下载文件时, 用户先向Tracker请求下载指定文件的用户列表, Tracker随机选择一组符合此条件的用户, 组成用户列表给予反馈, 然后用户再与列表上的用户建立通信连接, 交换文件片段共同下载文件。

统计表明:BT用户消耗互联网主干网带宽高达30%[2], 导致电信服务商抱怨BT传输占用了过多主干网的带宽, 极大地影响了其它网络应用[3]。BT业务大量消耗主干网带宽的原因在于Tracker选择用户列表机制的随机性, 随机选择的用户列表很大比例上都是属于不同子网的节点, 这种不同子网的节点通信必将穿越主干网, 消耗了大量的主干网带宽。因此, 本文的工作目标正是要将这种连接通信尽可能地限制在本地子网中。

1集中管理和节点分组策略

1.1集中管理和节点分组策略 (CMAPC) 概述

为了将用户连接通信数据流量尽可能多地整合到本地子网中, 本文提出集中管理和节点分组策略CMAPC (Centralized Management And Peer-node Cluster) 。其算法思想是:通过Tracker集中管理所有用户, 对所有用户进行网络距离测量, 彼此网络距离近的节点分在同一组, 然后保存所有节点的分组信息。当节点再向Tracker请求用户列表时, Tracker根据分组信息, 选择与请求节点邻近的若干节点组成用户列表给予反馈。

1.2节点分组和节点的分配

取上传带宽前30%的节点定义为“核心节点”, 其余的节点定义为“成员节点”。测量核心节点之间的距离, 如果足够小, 就将这几个核心节点归在一个组中 (一个组的核心节点一般为一个或两个) , 核心节点分组如图1所示。

定义一个距离值, 称之为分组半径。确定核心节点的分组后, 再测量成员节点和每个分组的核心节点之间的网络距离, 如果小于分组半径, 则将该成员节点分配到这个分组中。据此成员节点将分配到一个或多个分组中。由于分配到多个分组中节点可以作为连接多个分组的桥梁, 因此称之为“桥梁节点”。 通过以上的步骤, 我们建立了节点的最终分组, 如图2所示。

当有节点请求用户列表时, 不同类型的请求节点有着不同的节点分配方法, 如表1所示。

当请求者是“核心节点”时, 定义一个很重要的参数:“核心节点连接数”, 若其为N, 则其它不同分组中的N个“核心节点”, 将分配给这个“核心节点”请求者。

1.3节点之间的网络距离测量

参考现有的网络距离测量技术, Eugene Ng研究了如何测量RTT (往返时延) 、TCP的吞吐量和瓶颈带宽[4]。根据他的研究, 设计出网络定位系统。在实验环境中, Tracker和一个额外的服务器 (称之为观察者) 分别对每个用户进行网络距离测量, 综合考虑Tracker和观察者到每个用户的途经路由、途经跳数和RTT等信息。观察者将测量结果发送给Tracker, Tracker可以从不同的观察角度, 更准确地估算节点之间的网络距离。

2实验以及实验结果分析

2.1验证环境

在实验中, 我们设计了如图3所示的实验环境。

在此实验环境中, 有一个Tracker服务器和一个观察者 (网络定位服务器) 。一个种子节点 (提供完整下载文件的用户称之为“种子节点”) 以100KBps最高上传速率上传30MB的文件, 并且38个节点作为四个子网 (从子网1 到子网4) 的用户, 它们的"最大上传速率"按比例随机选取, 并在主干路由器1到路由器4上设置不同的固定路由时延。

一共检测不同参数和原始环境下的7组数据:

环境 (1) :原始环境, 不做任何的修改, 简称为“原始”

环境 (2) :分组半径:4 核心节点连接数:1 简称“[1,4]”

环境 (3) :分组半径:5 核心节点连接数:1 简称“[1,5]”

环境 (4) :分组半径:4 核心节点连接数:2 简称“[2,4]”

环境 (5) :分组半径:5 核心节点连接数:2 简称“[2,5]”

环境 (6) :分组半径:4 核心节点连接数:3 简称“[3,4]”

环境 (7) :分组半径:5 核心节点连接数:3 简称“[3,5]”

2.2不同验证环境下的各项试验结果

定义节点的数据流本地子网化的公式:

本子网化=×100%

将所有节点所得数值的平均值作为衡量数据流本子网化的标准, 得到如图4所示的结果。

通过与原始情况 (只有38.2%的数据流在本子网中) 对比, 更多数据流明显地被限制在本子网中。

为更好地检测此策略对BT系统的影响, 还要测量BT系统的其他两个重要性能参数:下载时间和公平性 (公平性:所有节点上传数据量与下载数据量的比值的平均值) 。结果如表2所示。

从表2中, 可以看到此策略在对主干网的负载分配有着明显改善的情况下, 没有对下载时间和公平性造成太大的影响。

2.3实验结果分析

实验结果表明, 集中管理和节点分组策略改进后的BT系统, 不牺牲其它性能的同时, 明显使更多的数据流限制在本子网中。通过不同的测试参数对比发现, 当核心节点连接数设定为1时 , 改善效果是最好的, 原因在于:在实验环境中, 不同分组的核心节点往往属于不同子网, 它们之间的通信需要通过主干网, 减小核心节点之间的连接数也将减轻主干网的负载。在实际的因特网中应用此策略时, 可以根据实际情况来设置合适的各项分组参数。

3结论

回顾现有的成果, 在BT系统中, 基于邻近节点的选择来实现数据流量本子网化的领域中, Ruchir Bindal也曾进行过类似的研究, 他的实验结果表明, Tracker返回的用户列表中的用户节点, 如果大多数都是和请求节点来自同一个互联网服务提供商 (ISP) , 穿越ISP的数据流将减少, 能很好地实现BT系统的用户本子网化[5]。国内相关的研究提到BT令牌桶流量控制算法, 控制出口BT带宽后, 内网节点之间的数据传输速率会适当增加, 平均每个节点的下载速率有所减少, 平均内网节点数增加[6]。本论文所提出的集中管理和节点分组策略 (CMAPC) 不同于之处在于以下三个方面:

(1) 集中管理策略, 只针对Tracker进行改进, 不对用户端程序做任何修改。由于Tracker 含有所有用户的实时信息, 在Tracker上容易实现集中控制机制。而且由于互联网上的网络客户运行不同版本, 不同版本之间会互相竞争以取得更好的下载, Tracker集中控制能减轻这种竞争, 以保证全局的公平性。

(2) 选择邻近节点是基于网络距离的测量而不是通过ISP上的用户数据, 提高了算法的适应能力和可行性。

(3) 根据最后的实验结果, 改进之后, BT的其他性能并没有下降, 每个节点的下载时间也没有受到太大影响。

本文致力于解决的问题是BT系统的数据流消耗大量的主干网带宽。研究和实验结果表明:本文提出的集中管理和节点分组策略通过把数据流限制在本子网内以达到减轻主干网负载的目的。通过改进, Tracker能够智能选择与请求者邻近的节点组成用户列表给予反馈, 使得互联网主干链路的负载得到有效的降低。综上所述, 在承担大部分通信任务的局域网和资源有限的广域网中, 应用CMAPC策略可以使BT数据流得到更有效的管理。

参考文献

[1]Byers J W, Considine J, Mitzenmacher M, Rost S.Informed content de-livery across adaptive overlay networks.IEEE/ACMTrans.Net w, 2004 (12) :767-780.

[2]EcontentMag.com.Chasing the user:The revenue streams of 2006, 2005.http://www.Econtentmag.com/Articles/ArticleReader.aspx?ArticleID=14532ContextSubtypeID=8.

[3]Research C.The true picture of peer-to-peer file sharing.http://www.cachelogic.com/home/pages/research/p2p2004.php.

[4]Ng T, Chu Y H, Rao S, Sripanidkulchai K, Zhang H.Measurement-based optimization techniques for bandwidth-demanding peer-to-peersystems.in INFOCOM 2003.Twenty-Second Annual Joint Conferenceof the IEEE Computer and Communications Societies.IEEE, 2003.

[5]Bindal R, Cao P, Chan W, Medved J, Suwala G, Bates T, Zhang A.Im-proving traffic locality in bittorrent via biased neighbor selection.in26th IEEE International Conference on Distributed Computing Sys-tems, 2006.

数据库集中管理 篇7

一、企业级信息系统运维管理现状

“6+1”企业级系统 (CSGII系统) 全面上线运行, 覆盖了90%以上的单位以及90%以上的核心业务, 基本实现各业务之间的横向协同、纵向贯通, 促进了信息技术与企业经营管理的深度融合, 助力深化创先战略和一体化管理落地。根据电网企业信息系统的历史发展形式进行分析, 目前信息化发展是采用互联网以及跨平台技术的相关应用发展的, 在电网企业信息系统建设与发展中, 其中的数据指数不仅呈现大幅度的增长现象, 对目前的信息系统运维管理工作也提出较高要求。而企业级信息系统在运维管理工作中主要依靠技术平台来实现的, 其中主要包括综合性的网络平台、安全性的管理系统以及信息化的运维流程系统等。

电网企业级信息系统运维管理现状的主要表现在:其一, 电网企业在传统发展到目前的信息化建设中已经获取相当的基础数据, 无论在生产、财务, 还是组织等方面, 这些数据的产生和应用都为信息化系统建设、运维管理工作提供较大便利。

其二, 目前的信息系统数据存在的整合性、关联度都比较差, 其中的应用系统在开发期间也存在较为困难的反复性。而且, 企业在资源管理中, 也无法满足整体性, 各个系统之间的联系也不够。其次, 系统中存在的类别也不同, 造成集成困难。最后, 数据实现的共享性以及及时性也比较低, 在这些问题上, 不仅降低了电网企业信息系统运维管理工作开展的积极性, 也阻碍了电网企业的有效发展。

二、企业级信息系统运维管理存在的问题

(一) 维护技术的薄弱

无论在哪种系统建立中, 都要呈现金字塔形, 其中, 要将底部作为建筑以及整体的基础部门。而目前企业级系统由于统一部署在网省两侧, 地市局仅是作为系统使用和基础运维服务的角色, 造成基层系统技术的缺失, 导致现有的基层系统运维管理工作也比较薄弱, 从而降低整体的工作效率。因为在系统建设的早期乃至需求调研的前期, 基层单位人员, 包括业务使用部门和信息部门并没有过多参与其中, 进而造成系统建设完毕后使用情况不理想, 而由于运营模式的改变, 地市局撤销厂家技术人员驻点服务, 而这些技术人员统一集中在网省两侧进行系统的日常运维, 使得地市局信息部门人员整体运维能力有所下降。而为了促进系统数据的安全性与稳定性, 限制了地市局层面的信息部门技术人员对系统数据的维护权限, 也从根本上限制了地市局信息部门人员研究问题、解决问题的可能性, 不利于运维工作的开展和信息部门人员业务、技术能力的提升。虽然维护工作都是靠省级单位来完成的, 在该形式上, 虽然促进了数据的安全性, 但在一定程度上也降低了的维护工作的效率, 一些基层人员的技术水平也不能得到积极提升, 从而影响了人员的工作积极性, 也不能促进电网企业信息系统的运维管理。

(二) 运维体系的不健全

运维体系建立的不够健全, 主要表现在两方面。一方面, 运维管理模式建设的不够完善, 因为在现有的运维工作中, 存在着分工不明确等现象, 大部分的工作都是依靠技术人员和信息部门来完成, 从而给技术人员和信息部门造成较大负担。而且, 业务部门及系统使用人员并未充分意识到, 他们对系统完善和运维工作也会有一定影响, 没有积极承担系统推广使用的责任, 从而使运维管理工作效率大大降低。其次, 在运维管理工作中的各个岗位上, 技术人员以及操作人员的专业水平也不同, 在实际管理工作中没有体现出规范性, 从而导致在其中发生的问题也没有科学组织对其严格解决。另一方面, 信息化建设与运维工作无法结合。因为运维工作与信息化工作是统一实施的, 对于电力企业来说, 它只是将企业的信息化过程分阶段进行, 其中的技术人员与信息部门运维管理人员是两个组织, 如果期间发生一些问题, 存在信息部门运维人员不仅无法认识到系统中存在的核心信息, 也不能促进运维工作的有效开展。

(三) 运维机制的不完善

运维机制的不完善主要表现在3方面。其一, 运维机制的建设与规划手段相对比较落后。因为我国电网企业在目前的建设与规划形式上还比较落后, 在建设期间存在严重的重复现象, 不仅降低了运维管理的一体化以及简单化发展, 还促进了数据冗余现象的严重性。其二, 没有合理的数据质量治理手段。运维机制建设的不够完善最主要的原因就是对数据质量治理欠缺合理性和真实性。数据质量核查规则, 扩展规则覆盖范围以及数据质量核查工具、固化核查规则, 支撑各层级问题数据准确定位都不够完善。造成在系统实用化后期阶段, 需要大量的人力、物力投入去进行数据质量质量工作。其三, 系统需求及缺陷问题反馈机制不健全, 由于技术人员集中在网省两侧, 而地市局基础用户作为系统第一线使用者, 他们在系统操作使用过程中发现的一些系统缺陷问题和功能需求要通过烦琐的问题上报流程, 才能流转至技术人员处进行处理, 一来造成问题解决效率低下和造成用户体验感和满意度的下降, 二来由于地市局信息部门运维人员没有权限去协助问题解决, 也没有能力对技术人员的解决情况进行监控, 统一大运维模式的长期发展, 会增加用户对系统的抵触情况以及对运维人员的抱怨, 影响信息化的建设推广, 进而加大运维工作难度, 并降低运维工作的效率。

三、在数据集中模式下电网企业级信息系统运维管理

(一) 加强技术培训

加强技术培训工作, 地市单位要开展针对性地培训工作, 并根据数据集中模式的主要特点, 促进运维管理工作的步骤、阶段等培训工作的针对性实施, 不仅要增强基层人员的专业力度, 还要提高人员培训的频率。其中, 可以完善激励体质, 特别对于基层的运维管理工作, 不仅要促进其公平性, 还要保证培训开展的定期性, 从而激发运维人员的工作积极性以及自身的学习能力。而且, 要积极鼓励运维管理人员积极学习新技术、新知识, 并在其中提出自己的意见, 从而给出相关的物质基础以及精神鼓励。

(二) 完善运维体系

完善运维体系, 促进运维之间的关系。首先, 要建设相关制度, 并促进管理工作的规范性。在互联网以及技术平台应用信息系统基础上, 能够保障电网企业的数据信息质量, 并将其运维管理工作的责任进行落实。同时, 构建各种制度, 以使各个运维工作在处理期间更为规范, 从而促进运维管理的安全、稳定运行。然后, 设置科学岗位, 对于省级以及地市基层的运维人员, 对其岗位要有针对性地提出, 并指派省级人员做好技术指导工作, 以提高基层运维人员的自身水平。对基层的运维管理人员, 还要对其操作水平以及操作能力进行鉴别, 并针对实际情况有针对性地对技术进行培训。在这种执行条件下, 不仅能够在不同岗位上设置出不同层次的问题, 还能促进其的运维管理工作的积极指导。

(三) 建立运维机制

建立运维机制能够提升运维工作的效率。首先, 建立技术交流机制, 因为缺乏沟通问题的存在, 所以该机制的发生能够促进省地两级的运维管理人员明确自身缺点, 以保证在运维工作中利用自身经验学会分享。然后, 建立运维数据库, 由于数据库中存在的故障问题, 所以建立的运维数据库不仅包括其运行数据、故障问题以及运维内容等, 还要为运维工作提供良好的交流平台, 并利用丰富经验提高工作人员的整体技术水平。其次, 建立数据监控中心, 它的实现能够对运维数据进行及时分析, 并将其资源充分发挥。还能促进技术与业务之间的更好连接, 以促进下一步运维工作的完好运行。

结语

当今世界是一个信息化为主的产业发展, 随着信息量的不断增加, 社会中的数据也越来越多。在数据集中模式下, 企业级信息系统运维管理要求也不断增高, 因此, 在对其管理期间, 为了适应时代的发展需要, 需要选择合理的管理措施, 以促进电网企业级信息系统的更好发展。

摘要:随着电力企业级管理系统的推广使用, 既“6+1”系统 (CSGII系统) 全面上线运行, 实现了核心业务在线运转, 支撑了管理制度化、制度流程化、流程表单化、表单信息化, 信息化建设取得了显著建设成效, 企业信息化得到跨越式发展。因此本文分析了电网企业信息系统运维管理现状, 研究企业级信息系统运维管理工作中存在的问题, 并阐述数据集中模式下的管理对策。

关键词:数据集中,电网企业,企业级信息系统,运维管理

参考文献

[1]张子睿.探究基于数据集中模式的电力企业信息系统运维管理[J].通信世界, 2016 (7) :146-147.

[2]伍扬彬.对大型电网公司财务商业智能系统的研究和实践[D].天津大学, 2012.

数据库集中管理 篇8

电力抄表系统依托光纤、无线和电力线载波等通信技术构筑的网络, 通过智能电表、集中器、中心站和用户智能交互终端等设备, 在用户和电力公司之间形成网络互动和即时连接, 从而实现用电信息采集、处理和监控[1]。智能电网需要即时采集各个终端的电能信息数据, 随着时间的推移, 所采集的数据呈线性增长, 这就对集中器的数据处理能力、存储能力和统计分析能力提出了更高的要求。为了使集中器能进行更有效的管理, 构建嵌入式数据库是一个有效的方法, 它能使用户在嵌入式设备中方便地存储、检索或修改数据, 实现一般传统数据库的功能。

1 集中器简介

抄表集中器作为主站和表计之间的结点, 负责终端电表数据的采集、存储和转发, 以及主站命令的下达。本文中的集中器采用高性能32位ARM9内核AT91SAM9260处理器, 有内存管理单元 (Memory Management Unit, MMU) 。存储器使用64 MB的NAND Flash和256 MB SDRAM[2], 以太网PHY接口电路芯片采用Intel公司的LXT971A。集中器上行采用网络传输方式, 下行采用塑料光纤作为传输介质, 通过ECOM-650M16光收发器, 将串口数据转换成光信号。ECOM-650M16光收发器有16个光口, 作为主设备, 其下最多可接16个从设备。配合采集端ECOM-650S1可方便地实现电能信息的自动、实时采集。集中器硬件设计框图如图1所示。其中主站与集中器之间采用的通信协议为Q/GDW376.1-2009。集中器与表计之间采用的通信协议为DL/T645-2007。软件方面, 选用Linux操作系统, 文件系统类型为JFFS2, 采用嵌入式SQLite数据库。集中器应用程序主要由远程通信模块、本地通信模块和数据管理模块构成, 各个模块之间的关系如图2所示。

2 SQLite数据库

SQLite是一款开源的嵌入式关系型数据库, 它没有独立的运行进程, 而是与所服务的应用程序在其进程空间内共生共存。SQLite通过API嵌入到应用程序代码中, 作为程序的一部分。SQLite具有简单、小巧、稳定等特点, 同时其支持的SQL语句并不逊色于其他开源数据库[3], 且占用的资源非常低, 在嵌入式系统中, 只需要几百k的内存。因此SQLite非常适合应用于嵌入式设备中。

3 SQLite在ARM-Linux上移植

一般的嵌入式系统为ARM体系结构, 而PC为x86体系结构, 为了使编译的SQLite能在嵌入式Linux平台运行, 必须选择交叉编译, 即在PC平台上编译能在ARM上运行的SQLite库文件。SQLite数据库提供了以源码发布的方式, 因此需要对源码进行交叉编译才能在集中器系统上运行。此次使用的是当前最新版本源码sqlite-autoconf-3071601.tar.gz。在解压缩后的源码文件夹下, 使用脚本#./configure--host=arm-none-linux-gnueabi---prefix=/usr/local/sqlite对源码进行配置。其中host指定使用的交叉编译器, prefix为安装的路径。完成配置后, 通过脚本#make&&make install在prefix指定的路径下生成bin, lib, include, share 4个文件夹, lib文件夹中含有静态库文件libsqlite3.a和动态库文件libsqlite3.so.0.8.6。头文件和可执行文件sqlite3分别位于include和bin文件夹中。因为嵌入式系统资源受限, 所以有必要对生成的库文件进行优化, 尽可能减小库文件的大小。使用脚本#arm-nonelinux-gnueabi-strip libsqlite3.so.0.8.6除去库文件中的调试信息[4]。完成交叉编译后, 将lib文件夹中的libsqite3.so.0.8.6和bin文件夹下的sqlite3分别复制到嵌入式系统根文件系统的/usr/lib和/usr/bin目录下, 然后在/usr/lib目录下使用脚本ln-s libsqlite3.so.0.8.6 libsqlite3.so.0建立一个软链接。重启集中器, 在终端中输入“sqlite3”, 结果如图3所示, 说明SQLite数据库已经在集中器平台上移植成功。

4 SQLite在集中器数据管理中的应用

4.1 SQLite C++封装类Cpp SQLite

集中器的软件设计基于自适配通信环境 (Adaptive Communication Environment, ACE) , 而ACE是基于C++的网络编程框架, 然而SQLite是采用C语言编写, 是面向过程的。为了方便面向对象的实现, 必须采用C++对SQLite进行封装。Cpp SQLite就是开源SQLite数据库API的C++封装, 因此可以直接采用Cpp SQLite封装类来进行集中器的数据管理工作。Cpp SQLite封装7个类, 其中常用的4个为数据库类Cpp SQLite3DB、表类Cpp SQLite3Table、查询类Cpp SQLite3Query和Cpp SQLite3Statement。Cpp SQLite3DB用于新建数据库、打开或关闭数据库连接、执行数据操纵语言 (Data Manipulation Language, DML) 、检索数据等;Cpp SQLite3Table是一个SQLite提供的用来专门存放一个完整的表结构, 可以通过Cpp SQLite Table类中的一些方法和函数去读取这个表中的内容;Cpp SQLite3Query用于检索记录并读出结果;Cpp SQLite3Statement可以执行SQL命令, 它最大的特点是支持参数绑定。

4.2 集中器中常用SQL

结构化查询语言 (Structured Query Language, SQL) 是一种直观的、用户友好的语言, 也是关系型数据库通信的唯一方法。数据库表是SQLite中SQL的起点, 所有的操作都是以表为中心的, 表由行和列组成。使用CREATE TABLE语句来创建数据表, CREATE TABLE语句是以“CREATE TABLE”关键字后面跟一个新的表名称以及括号内的一些定义和约束, 表名可以是字符串或者标示符。以“sqlite_”开头的表名是留给数据库引擎使用的。如集中器中使用strsql="CREATE TABLE"+Meter Table" (""M e t e r I D T E X T, ""T i m e F l a g T E X T, ""Reading Time TEXT, ""Forward Active Sum TEXT, ""R a t e C o u n t N U M E R I C, ""F o r w a r d A c t i v e R a t e BLOB, ""Primary Key (Meter ID, Time Flag) "") "创建数据表, 数据表各个字段描述详见表1。其中主关键字由Meter ID和Time Flag 2个字段组成, 用于唯一标识数据表中每一条记录。NUMERIC为数值型, BLOB为二进制类型。Insert into语句和Update语句分别用于向数据表插入数据和修改数据表中的数据。SELECT是SQL数据操作语言的核心, 它是查询数据库的唯一命令。SELECT是SQL命令中最大、最复杂的命令, SELECT的很多操作都源于关系代数。一条SELECT命令的返回结果是零或多行有固定字段数的数据。字段的数目由在SELECT和FROM之间的表达式列表定义。若表达式是*, 则表示所有表的所有字段。若表达式是表的名字后接.*, 则结果为该表中的所有字段。

注:当前正向有功值电能量表、日冻结正向有功电能量表、月冻结正向有功电能量表结构。

4.3 数据操作实现

数据管理是集中器软件的重要组成部分, 包括数据库的管理, 数据的管理与存储、数据的计算、配置参数的存储于读取等功能。SQLite数据库的管理主要实现数据库的连接、断开、写入、修改、删除、查询操作的封装。抄表集中器下行连接着正向有功、日冻结、月冻结3种类型的电能表, 所以集中器主要对当前正向有功值、抄表日冻结数据、抄表月冻结数据进行分类存储。正向有功值一个电表一天可以有多条数据, 日冻结正向有功功率一个电表一天只能有一条数据, 月冻结正向有功功率一个电表一个月只能有一条数据[5]。

数据的查询与写入是数据库最主要的操作, 当前正向有功电能值、日冻结电能值和月冻结电能值数据查询流程如图4所示, 是基于exec Query (const char*) 函数, exec Query (const char*) 函数内部先对一个const char*的SQL语句通过Compile (const char*) 生成一个sqlite3_stmt*对象, Sqlite3_step () 函数接收sqlite3_stmt*句柄, 生成多个步骤字节码指令。Sqlite3_step () 为结果集中的每个记录返回SQLITE_ROW。返回SQLITE_DONE表示已经到达结构集末尾。Cpp SQLite3Query函数通过调用sqlite3_column_count () 读取结果集中的列数。next Row () 函数用于检索下一行, eof () 函数用于判断是否到结果集的结尾。

一般Insert, Updated等SQL语句通过exec DML来执行, exec DML (const char*) 函数内部直接调用函数sqlite3_exec (sqlite3*, const char*sql, int (*callback) (void*, int, char**, char**) , void*, char**errmsg) , 它直接作用在数据库对象上, 提供一种快速方便地执行SQL命令的方法, 修改数据库的信息特别方便。其中参数sql中可以包含多个SQL命令, 直到字符串结束或者遇到错误。但是在集中器中, SQL语句所操作的数据表、字段都是一样的, 只是数据不一样, 所以可以使用Cpp SQLite3Statement来保存模板, 然后只对模板进行操作, 这样可以省去很多SQL语句编译时间, 有利于提高效率。图5中, 向数据表中写入数据就是使用Cpp SQLite3Statement类的功能。Cpp SQLite3Statement类中的bind () 函数用于给SQL语句中相应的字段绑定指定的值。

在对SQLite数据库进行操作时, 首先要判断SQLite数据库的文件是否存在, 当检测到存在后才能进行操作, 否则要先创建数据库文件。同样, 对SQLite数据库中的数据表进行操作时, 也要先检测表是否存在。任何对数据进行更新操作的SQL语句执行时, 一定要放在事务里面进行操作。使用事务, 一方面有利于数据回滚, 另一方面可对数据库进行独占式操作。SQLite数据库允许多个用户同时进行读操作, 但最多只允许一个用户在某一时刻对数据库进行更新操作和多个用户进行读操作。所有数据库的更新操作, 用Try…Catch…进行异常捕获处理, 获取未知异常。如果要同时对整个表进行读操作, 可以使用Cpp SQLite3Table来作为存放数据的容器。而对于单个表部分字段进行读操作时, 使用Cpp SQLite3Query作为存放数据的容器。

5 结语

SQLite是免费使用的嵌入式数据库, 在抄表集中器数据管理过程中, SQLite小巧、易用等特点得到很好的体现。SQLite无需配置和安装, 且数据库是一个文件, 非常容易实现数据库文件复制、移动和跨平台共享。在抄表集中器上基于嵌入式数据库对数据进行处理比传统的文本处理方式方便的多, 大大提高了数据查询效率。随着嵌入式系统对数据管理应用的需求进一步加强, SQLite将在嵌入式系统中广泛使用, 并拥有广阔的前景。

参考文献

[1]张晶, 徐新华, 崔仁涛.智能电网用电信息采集系统技术与应用[M].北京:中国电力出版社, 2013.

[2]刘友旗.智能电力系统抄表集中器的设计与实现[J].贵州大学学报, 2010, 27 (6) :86–91.LIU You-qi.Design and implementation of intelligent electric meter-reading system[J].Journal of Guizhou University, 2010, 27 (6) :86–91.

[3]ALLEN G, OWENS M.SQLite权威指南[M].北京:电子工业出版社, 2012.

[4]刘琼, 马海波, 姜薇.SQLite在嵌入式Web服务器中应用研究[J].微计算机信息, 2010, 26 (32) :44–46.LIU Qiong, MA Hai-bo, JIANG Wei.Research of SQLite being used in embedded web service[J].Microcomputer Information, 2010, 26 (32) :44–46.

我眼中的数据的“集中”和“离散” 篇9

一、平均数

1. 算术平均数

如:求以下数据的平均数:49, 50, 51, 49, 51.

2. 加权平均数

【理解】 (1) 相同数据xi的个数fi叫做权, fi越大, 表示xi的个数越多, “权”就越重; (2) 当各数据的权为1时, 加权平均数即为算术平均数 (算术平均数实质上是加权平均数的一种特殊情况) ; (3) 常见的权的形式有如下几种:百分数、出现的次数 (个数) 、权的比例关系.

如:你的期中成绩是80分, 期末成绩是90分, 老师要计算总平均成绩, 就按照期中成绩40%, 期末成绩60%的比例来算, 所以你的平均成绩是:80×40%+90×60%=86 (分) .

二、中位数

【概念】将一组数据按大小顺序排列, 如果数据的个数是奇数, 那么处于中间位置的数叫做这组数据的中位数;如果数据的个数是偶数, 那么处于中间位置的两个数的平均数叫做这组数据的中位数.

【理解】 (1) 中位数是刻画一组数据“中等水平”的重要数据代表, 它的优点是计算简单, 受极端值影响较小; (2) 当一组数据中个别数据与其他数据的大小差异很大时, 通常用中位数来描述这组数据的集中趋势; (3) 求一组数据的中位数时, 一定要按从小到大 (或从大到小) 的顺序将这组数据排列, 要注意这组数据个数的奇偶.

如: (1) 一组数据:0, 1, 2, 3, 3, 5, 5, 10的中位数为3; (2) 一组数据:2, 3, 6, 5, 4的中位数为4.

三、众数

【概念】一组数据中出现次数最多的数据叫做这组数据的众数.

【理解】 (1) 众数是刻画一组数据“多数水平”的重要数据代表; (2) 众数是一组数据中出现次数最多的数据, 而不是该数据出现的次数; (3) 一组数据中的众数不一定是唯一的, 可能是一个或几个.

如:一组数据8, 7, 7, 8, 9, 7的众数是7;一组数据8, 7, 7, 8, 9的众数是8和7.

四、三者之间关系的拓展

1. 平均数:

用平均数作为一组数据的代表比较可靠和稳定, 它与这组数据中的每一个数据都有关系, 对这组数据所包含信息的反映最为充分, 因而其应用最为广泛, 特别是在进行统计推断时有重要的作用, 但计算时比较繁琐, 并且容易受到极端数据的影响.

2. 中位数:

用中位数作为一组数据的代表, 可靠性比较差, 但中位数不受极端数据的影响, 当一组数据中的个别数据变动较大时, 可用它来描述其集中程度.

3. 众数:

用众数作为一组数据的代表, 着眼于各数据出现的次数, 其大小只与这组数据中的部分数据有关, 可靠性比较差, 但众数不受极端数据的影响.当一组数据中有不少数据多次重复出现时, 其众数往往是我们关心的一种统计量.

五、方差与极差

【概念】一组数据中各数与这组数据的平均数的差的平方的平均数叫方差;一组数据中最大值与最小值的差叫极差.

【理解】 (1) 方差可以用公式

如:为选派一名学生参加全市实践活动技能竞赛, A、B两位同学在学校实习基地现场进行加工直径为20 mm的零件的测试, 他俩各加工的10个零件的相关数据依次如图1所示 (单位:mm)

根据测试得到的有关数据, 试解答下列问题:

(1) 考虑平均数与完全符合要求的个数, 你认为_______的成绩好些;

(2) 计算出sB2的大小, 考虑平均数与方差, 说明谁的成绩好些;

(3) 考虑图中折线走势及竞赛中加工零件个数远远超过10个的实际情况, 你认为派谁去参赛较合适?说明你的理由.

【解析】 (1) 从表1中可以看出两个人平均数相同, 但B完全符合要求的个数多, 故B的成绩好.

(2) 因为

在平均数相同的情况下, B的波动性小, ∴B的成绩好些.

(3) 从图中折线走势可知, 尽管A的成绩前面起伏较大, 但后来逐渐稳定, 误差小, 预测A的潜力大, 可选派A去参赛.

【拓展】 (1) 若一组数据x1, x2, …, xn的方差是s2, 则数据x1+b, x2+b, …, xn+b的方差还是s2;

(2) 若一组数据x1, x2, …, xn的方差是s2, 则数据ax1, ax2, …, axn的方差是a2s2;

(3) 若一组数据x1, x2, …, xn的方差是s2, 则数据ax1+b, ax2+b, …, axn+b的方差是a2s2.

数据库集中管理 篇10

仓库建设进入第三阶段

在6月份表示, 奇美电子已

经成功完成Teradata企业二阶段搭建级数据仓库 (, 现在EDW) 第一正在进、

入第三阶段, 最终将彻底实现数据集中化, 从而达

到资源共享, 进而降低运 营成本。

奇美电子自2 0 0 5年

起开始部署Teradata企 业级数据仓库系统 (EDW) 及其相关解决方案, 经过近三年的时间, 目前已完 成第一、二阶段的搭建。在要是以这两个阶段的建设Teradata中ED, 主W为

基础推动运营企划系统 (G P C) 和质量信息系统 (QIS) 。Teradata解决方案协助奇美电子整合各厂独立的MES系统, 让ERP与各种前端交易系统连接, 提高信息质量, 大幅缩短收集数据的时间, 提高工作效率。

奇美电子运营企划及信息总处总处长郭国祥说, 在部署数据仓库之前, 奇美各厂各有一套报表系统, 总部只能掌握个别工厂情况, 但如果总部要了解整体情况, 例如质量, 光看一个厂是不够的。“奇美电子规模相当庞大, 不可能只看一个厂就知道企业运营情况及未来走向, 这个时候, 数据整合就有其必要及迫切性。”

在部署E D W前使用者在进行任何一项数据分析时, 必须花费一段相当长的时间到各厂搜集相关资料, 过程耗时且繁琐。在搭建E D W后, 通过EDW则可缩短数据收集和决策反应的时间, 提升竞争力。举例来说, 在部署EDW之后, 如果有订单需要改变出货总量, 即使牵涉到庞大库存数量和种类的核对查询, 回复客户出货情况的时间已大幅缩短至原来导入前的三分之一。

E D W不仅为奇美大幅节省了时间成本, 同时也大幅减少了人力成本。郭国祥说:“在部署EDW前, 由于数据量极为庞大, 我们处理质量异常的过程往往相当耗时。现在通过T e r a d a t a EDW, 在1至2小时内就可以完成对数据的收集, 这样就缩短了工程师查询数据的时间, 大幅缩减工程师人力成本, 非常划算。”在决策支持方面, 由于EDW整合来自不同系统的数据, 掌握采购、生产、运作与订单达成的流程信息, 可快速提供决策者所需信息, 郭国祥补充道。

Teradata大中华区总裁吴辅世表示:“大中华区为全球高科技制造业重镇, 在全球制造业市场中举足轻重。我们很高兴Teradata数据仓库解决方案能获得奇美与台积电等世界级大厂的采用, 未来我们将在大中华区成立制造业专家中心, 积极拓展制造业市场。”

Teradata台湾区总经理胡尊正说:“协助客户从数据仓库的投资中获取最大价值一直是Teradata努力的目标, 我们很高兴看到奇美电子的数据仓库解决方案实现具体可观的成效, 未来也将继续以最佳的软硬件与咨询服务来协助奇美进行第三阶段E D W的实施。”

未来第三阶段将以整合制造厂内 (包括TFT、CF、LCD、LCM) 所有相关分析工程问题的数据, 并提供整合性的分析工具, 以节省工程师分析问题时间及提升分析问题的质量为主要实施项目。

先进的Teradata数据仓库解决方案

2008年5月30日在北京召开的第八届Teradata数据仓库峰会上, 本刊对Teradata总裁兼首席执行官科勒进行了访问, 他指出:“在当今日趋复杂的商业环境中, 能够比对手更快地对发展趋势做出预测并采取行动的企业才能在竞争中胜出。为了赢得竞争优势, 领导企业越来越借助于商业智能及分析法来获得精确信息, 并据此做出日益棘手的决策。”

科勒补充道:“要‘以分析取胜’, 需要具备适当的能力, 即有适当IT基础架构支持的商业智能和决策速度。

通过Teradata的动态企业智能, 使企业能充分利用商业智能制定战略决策, 并将商业智能扩展到整个企业, 以提高运营决策的速度, 从而使企业比竞争者能更迅速地做出决策并采取行动。”

而Teradata首席技术官宝立明在接受访问时表示:“业界显然已经开始在传统的数据仓库的基础上, 进一步部署战术及事件驱动的决策支持。随着运营执行涉及到更多的决策制定, 动态数据仓库 (ADW) 不仅从后台扩展到一线, 更从企业内部用户延伸到了外部用户。领导企业正在部署普及化商业智能 (Pervasive Business Intelligence) , 为包括一线员工、供应商、客户和业务合作伙伴在内的所有用户提供整合的、适时的数据仓库 (D W) 信息。”

“根据Gartner的研究报告, 到2010年, 超过9 0%运行中的数据仓库将实现当日或更快速度的数据更新, 而超过50%将实现数据的连续更新。在实时企业环境中, 所有用户均能以接近实时的速度访问信息, 从而更快地制定出更智能的决策。”此外, 宝立明还阐释了包括实时可视化、业务活动监控和实时数据整合在内的几大A D W功能, 并介绍了基于这些功能成功实施的最佳实践。

Teradata在数据仓库市场继续保持领先地位

上一篇:原则与功能下一篇:还原历史复杂性