阅读 60

海量电力设备监测数据的存储和特征分析

关于海量电力设备监测数据的存储和特征分析的详细教程:

海量电力设备监测数据的存储和特征分析

1 背景知识

电力设备在线监测指在不停电的情况下,对电力设备状况进行连续或周期性地自动监视检测,使用的技术包括:传感器技术、广域通信技术和信息处理技术。电力设备在线监测是实现电力设备状态运行检修管理、提升生产运行管理精益化水平的重要手段,对提升电网智能化水平、实现电力设备状态运行管理具有积极而深远的意义。

随着智能电网建设的推进,电力设备在线监测得到了较大发展并成为趋势,监测数据变得日益庞大,逐渐构成电力设备监测大数据,这给电力设备在线监测系统在数据存储和处理方面带来非常大的技术挑战。

电力设备监测大数据具有体量大、类型多、价值密度低和处理速度快的特点。电网公司监测系统目前过于依赖集中式SAN存储,并基于SOA进行数据集成,主要采用“企业级关系型数据库”,受容量、扩展性以及访问速度的制约,目前只存储二次加工的“熟数据”,而所擅长的关联查询、事务处理在数据分析时又无用武之地,迫切需要新的大数据存储和处理技术来应对。

变压器的局部放电数据是一种典型的电力设备监测数据。局部放电相位分析(phase resolved partial discharge, PRPD)包含了从特征提取到模式识别的过程。本文将全面介绍利用MaxCompute实现局部放电监测数据特征提取的过程。

PD信号分析主要包括三个子过程:(1)基本参数n-q-φ的提取。扫描PD信号,统计信号中的放电峰值和相应的放电相位。(2)谱图构造和统计特征计算。划分相窗,统计平均放电量和放电次数的分布,计算平均放电量相位分布谱图qave-φ和放电次数相位分布谱图n-φ。基于qave-φ和n-φ,以φi为随机变量,计算谱图的偏斜度Sk、陡峭度Ku等统计特征,形成放电特征向量。(3)放电类型识别。本文将介绍,使用MapReduce实现第一个子过程的方法。

MaxCompute(原ODPS) 是阿里云提供的海量数据处理平台。主要服务于批量结构化数据的存储和计算,数据规模达EB级别。MaxCompute目前已在大型互联网企业的数据仓库和BI分析、网站的日志分析、电子商务网站的交易分析等领域得到大规模应用。

另外,本文还将使用odpscmd作为客户端完成对MaxCompute的各种操作。odpscmd是一个Java程序,可以以命令方式访问MaxCompute。应用该客户端,可以完成包括数据查询、数据上传、下载等各种任务。需要JRE环境才能运行,请下载并安装JRE 1.6+版本。

本文将使用MapReduce编程来完成特征分析的计算任务。MapReduce最早是由Google提出的分布式数据处理模型,随后受到了业内的广泛关注,并被大量应用到各种商业场景中。比如搜索、Web访问日志分析、文本统计分析、海量数据挖掘、机器学习、自然语言处理、广告推荐等。

2 分析过程

2.1 创建项目、建表和数据上传

(1)创建MaxCompute项目

打开阿里云官网:https://www.aliyun.com/

使用已有阿里云账号登录。

进入阿里云管理控制台,并从左侧导航栏选择“大数据(数加)à大数据计算服务”,进入MaxCompute管理控制台。

点击下方的“创建项目”,创建一个新的MaxCompute项目。

选择“I/O后付费”,填入项目名称和项目描述,并“确定”。

创建完成后,可以在项目列表中看到刚刚创建的项目。

(2)安装配置odpscmd

在本地准备好JRE环境,请下载并安装JRE 1.6+版本。

从阿里云官网下载odpscmd工具:http://repo.aliyun.com/download/odpscmd/latest/odpscmd_public.zip?spm=5176.doc27804.2.3.o2o8Rw&file=odpscmd_public.zip

解压缩,并配置<ODPS_CLIENT>/conf/odps_config.ini

project_name=[project_name]access_id=******************access_key=*********************end_point=http://service.odps.aliyun.com/apitunnel_endpoint=http://dt.odps.aliyun.comlog_view_host=http://logview.odps.aliyun.comhttps_check=trueaccess_id和access_key请从阿里云管理控制台获取。project_name配置为创建好的MaxCompute项目即可。

配置完成后,运行<ODPS_CLIENT>/bin/odpscmd,进入交互模式。会出现项目名称作为提示符。

(3)建表并添加分区

1)Â Â 创建ODS_PD表,用于存放原始的变压器局部放电监测数据。

在odpscmd中,执行下面的SQL语句,建表。

create table if not exists ODS_PD( Time string, Phase bigint, Value bigint)partitioned by (DeviceID string, Date string);

当出现“ok”,表示建表成功,可以使用“ls tables;”命令查看已经创建的表。

为ODS_PD表添加分区。

alter table ODS_PD add if not exists partition (DeviceID=001, Date=20171116);

可以使用“show partitions ODS_PD;”验证添加的分区是否成功。

2)创建目标特征表DW_NQF

在odpscmd中,执行下面的SQL语句,建表。

createtableifnotexists DW_NQF( Time string, Phase bigint, MaxV bigint)partitioned by(DeviceID string, Date string);

为DW_NQF表添加分区。

altertable DW_NQF addifnotexistspartition(DeviceID=001, Date=20171116);

(4)使用Tunnel进行数据上传

在odpscmd中运行tunnel命令,将本地数据文件monitor_data.csv上传至ODS_PD表。下面的命令中的路径,请在执行时根据实际路径进行修改。monitor_data.csv请从附件中下载。

tunnel upload d:/Clouder/jfdata/monitor_data.csv ODS_PD/deviceid=001,date=20171116;

2.2 MapReduce程序开发、本地调试和运行

(1)本地开发环境准备

本文使用Eclipse作为开发环境,请提前下载并安装。

官网导航中找到并下载 ODPS for eclipse 插件,并将插件解压并复制到Eclipse安装目录下的plugins子目录下。启动Eclipse,检查Wizard选项里面是否有ODPS的目录。

ODPS for eclipse 插件下载地址:

https://docs-aliyun.cn-hangzhou.oss.aliyun-inc.com/cn/odps/0.0.90/assets/download/odps-eclipse-plugin-bundle-0.16.0.zip?spm=5176.doc27981.2.3.cCapmQ&file=odps-eclipse-plugin-bundle-0.16.0.zip

当可以创建ODPS类型的项目时,表示本地开发环境已经准备好了。

(2)MapReduce程序开发

在Eclipse中创建ODPS项目,命名为NQF。为了让Eclipse能正确访问MaxCompute,需要在创建项目的时候正确配置odpscmd的本地路径。

依次添加Mapper类、Reducer类、MapReduce Driver类和R类。

FSMapper.java代码如下:

import java.io.IOException;import com.aliyun.odps.data.Record;import com.aliyun.odps.mapred.MapperBase;publicclassFSMapperextendsMapperBase{private Record word;private Record one;privateint max=8;//阈值 @Override publicvoidsetup(TaskContext context)throws IOException { word=context.createMapOutputKeyRecord(); one=context.createMapOutputValueRecord();} @Override publicvoidmap(long recordNum, Record record, TaskContext context)throws IOException {long phase=record.getBigint("phase");//第1列,相位long val=record.getBigint("value");//第2列,幅值 if(Math.abs(val)>max){ word.set(newObject[]{record.get("time"),record.get("phase")});//record id as key; one.set(newObject[]{phase,val}); context.write(word,one);}} @Override publicvoidcleanup(TaskContext context)throws IOException {}}}

FSReducer.java代码如下:

import java.io.IOException;import java.util.Iterator;import com.aliyun.odps.data.Record;import com.aliyun.odps.mapred.ReducerBase;import com.aliyun.odps.mapred.Reducer.TaskContext;publicclassFSReducerextendsReducerBase{private Record result=null;private R left;private R middle;private R right; @Override publicvoidsetup(TaskContext context)throws IOException { result=context.createOutputRecord();;} @Override publicvoidreduce(Record key, Iterator<Record> values, TaskContext context)throws IOException { left=newR(); middle=newR(); right=newR(); Record temp;if(values.hasNext()){ temp=values.next(); left.phase=temp.getBigint("phase"); left.val=temp.getBigint("value");}else left=null;if(values.hasNext()){ temp=values.next(); middle.phase=temp.getBigint("phase"); middle.val=temp.getBigint("value");}else middle=null;if(values.hasNext()){ temp=values.next(); right.phase=temp.getBigint("phase"); right.val=temp.getBigint("value");}else right=null;if(left!=null&&middle!=null&&right!=null){if(Math.abs(middle.val)>Math.abs(right.val)&&Math.abs(middle.val)>Math.abs(left.val)){ result.set("time",key.get("time").toString()); result.set("phase",middle.phase); result.set("maxv",middle.val); context.write(result);}}while(values.hasNext()){ left.val=middle.val; left.phase=middle.phase; middle.val=right.val; middle.phase=right.phase; temp=values.next(); right.phase=temp.getBigint("phase"); right.val=temp.getBigint("value");if(left!=null&&middle!=null&&right!=null){if(Math.abs(middle.val)>Math.abs(right.val)&&Math.abs(middle.val)>Math.abs(left.val)){ result.set("time",key.get("time").toString()); result.set("phase",middle.phase); result.set("maxv",middle.val); context.write(result);}}}} @Override publicvoidcleanup(TaskContext context)throws IOException {}}

TJDriver.java代码如下:

import com.aliyun.odps.OdpsException;import com.aliyun.odps.data.TableInfo;import com.aliyun.odps.mapred.JobClient;import com.aliyun.odps.mapred.RunningJob;import com.aliyun.odps.mapred.conf.JobConf;import com.aliyun.odps.mapred.utils.InputUtils;import com.aliyun.odps.mapred.utils.OutputUtils;import com.aliyun.odps.mapred.utils.SchemaUtils;import java.util.*;publicclassFSDriver{publicstaticvoidmain(String[] args)throws OdpsException {if(args.length !=2){ System.err.println("Usage: WordCount <in_table> <out_table>"); System.exit(2);} JobConf job =newJobConf(); job.setMapperClass(FSMapper.class); job.setReducerClass(FSReducer.class);//二次排序 job.setMapOutputKeySchema(SchemaUtils.fromString("time:string,phase:bigint")); job.setMapOutputValueSchema(SchemaUtils.fromString("phase:bigint,value:bigint")); job.setPartitionColumns(newString[]{"time"}); job.setOutputGroupingColumns(newString[]{"time"}); job.setOutputKeySortColumns(newString[]{"time","phase"});//分区输入 InputUtils.addTable(TableInfo.builder().tableName(args[0]).partSpec("deviceid=001/date=20171116").build(), job);//分区输出OutputUtils.addTable(TableInfo.builder().tableName(args[1]).partSpec("deviceid=001/date=20171116").build(), job);try{ JobClient.runJob(job);}catch(OdpsException e){// TODO Auto-generated catch block e.printStackTrace();}}}

R.java的代码如下:

publicclassR{publiclong phase;publiclong val;publicR(){ phase=0; val=0;}}

(3)本地测试

打开FSDriver.java,右击“Run as-àRun Configurations”

在ODPS Config选项卡,选择正确的ODPS项目。

在Arguments选项卡中,输入运行参数:ods_pd dw_nqf,并点击“Run”,执行本地测试运行。

在第一次运行时,Eclipse会从MaxCompute中下载少量的测试数据用于测试。运行完成后,可以在Warehouse中看到测试用的输入数据和产生的结果数据。

(4)打包并上传资源

在本地测试结果正确之后,就可以导出jar包了。在Eclipse下执行“FileàExport”,选择导出“JAR File”,导出至本地。

在odpscmd下,执行添加资源的命令,将jar上传至MaxCompute。

add jar d:/jar/NQF.jar;

(5)MaxCompute上执行程序

在odpscmd下,执行jar命令,运行程序。(请自行调整文件路径)

jar -resources NQF.jar -classpath d:\jar\NQF.jar FSDriver ods_pd dw_nqf; 

更多精品课程:

7天玩转云服务器

云数据库Redis版使用教程

玩转云存储对象存储OSS使用入门

阿里云CDN使用教程

负载均衡入门与产品使用指南

阿里云大学官网(阿里云大学 - 官方网站,云生态下的创新人才工场