Informatica
Oct 25

 itlife365.com_begin_数据仓库模型之TeraData金融数据模型学习

Teradata天睿公司(纽交所代码:TDC),是美国前十大上市软件公司之一。经过逾30 年的发展,Teradata天睿公司已经成为全球最大的专注于大数据分析、数据仓库和整合营销管理解决方案的供应商。其提出一种先进的FS-LDM模型(Financial Services Logcial Data Model) --企业级数据模型,包括金融机构业务数据,囊括了银行约80%的业务数据,并把预定义的业务模板连接到核心银行业务数据和数据仓库中。
 Teradata FS-LDM是一个成熟产品,在一个集成的模型内支持保险、银行及证券,包含十大主题:当事人、产品、协议、事件、资产、财务、机构、地域、营销、渠道。
  十大主题划分如下:
BANK-LDM主题域模型设计采用分类设计的策略:
1、重点设计主题(客户、协议、事件、资产、财务)
  特点:是模型中的重点主题,且在源系统中有丰富的数据来源和参照。
  目标:尽量保持完整性、丰富性。
  策略:按照FS-LDM的框架进行设计,同时补充银行的个性数据元素。
2、自主设计主题(申请、营销活动、渠道、机构、产品)
  特点:非核心主题,基本没有或者仅有非常少的数据来源和参照。
  目标:保证模型架构的完整性和扩充性。
  策略:按照FS-LDM进行设计,将来根据实际情况调整。
3、简化设计主题(地域)
  特点:模型的重要参考主题,一般情况下源系统有数据,但定义和使用方法与FS-LDM不匹配。
  目标:暂不进行唯一地址识别,但要完整保留此类信息。
  策略:暂作为客户等的属性信息进行设计。
逻辑数据模型LDM,以协议主题实例:
 
数据仓库模型层次划分:
 
一般层次为:ODS-->FDM-->ADM-->DW-->Application
TeraData数据仓库整体架构:
 itlife365.com
IBM与Teradata仓库模型比较
银行业:
  IBM有BDWM(Banking Data Warehouse Model)
  Teradata有FS-LDM(Financial Services Logical Data Model)
电信业:
  IBM有TDWM(Telecom Data Warehouse Model)
  Teradata有TS-LDM(Telecom Services Logical Data Model)
IBM模型主题划分如下:
itlife365.com
国内厂商提供的解决方案:
itlife365.com 国内提高
 
itlife365.com 国内提高
TeraData实施案例:
(1)农业银行
   
(2)徽商银行
    http://wenku.baidu.com/view/05e78cf17c1cfad6195fa713.html  
 总结:
     结合两大厂商提供的数据仓库解决方案,可以看出,其就数据仓库划分的主题基本类似,内容都差不多,只是叫法不同而已。国内有些厂商提供的解决方案也包括以上9大主题内容。需要注意的是,并不是国外的模型就是最合适的解决方案,并不是最先进的模型就是最佳的,要集合自己银行的特点以及业务发展模式,一味的模仿和追新并不是一件好事。否则,科技运营的成本会大打折扣。投入的成本和回报是成比例的,低投入高产出这种现象太少了。数据仓库是一步一步建设的,先有基础,才有高楼大厦,基础不牢,就成“危房”了。
DW-Model-Teradata-FLDM
itlife365.com_end_数据仓库模型之TeraData金融数据模型学习
Tags:
Oct 24
ITLIFE365.COM_begin FROM 网络
说说ETL的工程-面试前看看
1. 为什么要讲ETL工程

ETL工程是数据分析处理中非常重要的一环,ETL工程的输入是各种数据源,输出是各种用于分析的表和数据文件,因此它直接决定了用来分析的数据是否易用、数据质量的好坏、数据是否完整、数据是否可信等关键性问题。可以说,ETL在数据分析工作中占据着非常重要的地位,所以在本文我们会带领大家了解下ETL的内部构造。
2.本文的目标

因为这是入门系列文章中的一篇,因此我们不会过于沉入技术细节,而是从一个全局的角度,用尽可能简洁的语言,带领大家了解下ETL的概念、作用、组成结构、数据处理方式等,旨在让大家对ETL有一个比较全面的了解,期望可以在面试或者工作中帮助到大家。
3. 本文的讲解思路

第一部分,讲解ETL的概念和作用,让大家对ETL有个初步的了解。
第二部分,讲解ETL针对不同的数据和情况是如何处理的,让大家了解它是如何运作的。
第三部分,讲解ETL的运行过程,以及在编写ETL程序时,应该注意哪些问题,这部分主要是为了让大家对ETL有个稍微深入一点的了解,在面试和工作中都可以自如应对。
。。。
以下为正文
01 ETL简介
ETL ,是三个英文单词Extract-Transform-Load的首字母缩写,用来描述将数据从来源端经过萃取(extract)、转化(transform)、加载(load)至目的端的过程。ETL通常用于数据仓库的构建过程,它的主要作用是将企业中分散、非完全结构化、标准不统一的各种数据,整合到一起,形成企业级统一数据仓库,为企业的分析决策提供有质量保证的数据源。
02 ETL的一般过程
从ETL的字面来看,就知道它主要包含三大阶段,分别是数据抽取、数据转换、数据加载。接下来我们将依次对这三个阶段进行详细的介绍。
1.数据抽取 
这个阶段的主要目标是汇总多种数据源,为下一步的转换做准备。在动手做抽取之前,你需要充分了解你的各种数据源,理解并利用他们的特性,结合实际分析业务需求,选择合适的抽取方式。下面我们针对常见的几种数据源,谈下他们常用的抽取方式。
1.1 关系型数据库 
这种数据源的特性是数据高度结构化、数据量不算特别大、数据更新相对频繁、数据质量较高、数据获取比较方便。根据分析业务需求的不同,一般分为离线抽取和实时抽取。
离线抽取,应用场景是对短时间内的更新不敏感,只关心一段时间后的最终状态,一般是固定周期定时抽取。抽取方法,可以采用快照的方式,对整个表做全表快照;或者是采用基于时间字段的增量抽取,但是需要对这个字段的更新场景非常了解。
实时抽取,通常的应用场景是对数据的最新状态非常敏感,当有新数据插入或者旧数据更新时,需要及时抽取。抽取方法有很多,其中常用的一种是基于消费数据库binlog的方式,如阿里开源的canal。
1.2 服务端程序日志文件
这种数据源的特性是各种日志数据混杂在一起(需要过滤出自己需要的)、数据格式比较多样(格式可能不统一)、数据量相对较大。对于这类数据,通常的方法就是过滤抽取。抽取方法,可以使用flume监控文件目录,或者使用FileBeat实时监控文件内容变化。
1.3 客户端用户行为数据
客户端用户操作日志的数据收集方案,其实也算是一种抽取方式。这种数据源的特点是数据量非常大、数据源非常分散、数据质量参差不齐、数据结构化程度高。针对这种数据,通常的抽取方法,就是专门设计一个数据收集系统来处理收集数据的问题。
1.4 其他
实际工作中,我们可能还会有其他数据源,如NoSQL数据库、人工整理的数据(例如Excel)、消息队列中的数据、系统运行数据、时序数据库等。这些都需要根据具体数据源的特性和具体分析业务的需要,来设计抽取方式,篇幅有限,这里就不一一举例了。

2.数据转换
这个阶段是ETL的核心环节,也是最复杂的环节。它的主要目标是将抽取到的各种数据,进行数据的清洗、格式的转换、缺失值填补、剔除重复等操作,最终得到一份格式统一、高度结构化、数据质量高、兼容性好的数据,为后续的分析决策提供可靠的数据支持。下面对其主要过程做下简单说明。
2.1 数据清洗
这个环节的主要作用是清洗掉脏数据,以免混入正常数据中,造成数据质量下降,引导有偏差的错误决策。通常的做法有,md5校验、关键字段检查、格式类型一致性检查、无效性检查等。
md5校验通常用于通过公网传输的数据,为防止数据被篡改,需要比对md5值来保证数据的安全性,没能通过md5检验比对的数据将被视为脏数据过滤掉。
关键字段检查,是指在一条数据记录中,非常关键的字段,如果其值不合法,或者类型不对,将被视为非法数据。比如,识别用户行为的字段,其值不在规定取值范围内时,将无法识别具体是做了什么操作,将被视为非法数据清洗掉。
格式类型一致性检查,就是检查一条数据记录的整体格式或者重要字段的类型是否符合规范,如果不符合,同样也是没办法处理,只能作为脏数据处理掉。例如,不合法的日期格式。
无效性检查,通常是比较严格的过滤方法,它主要目的是为了保证数据的高可靠性,通常是事先规定好数据的可信范围,不满足的将被视为不可信的无效数据。
2.2 格式转换
这个环节的主要作用是对数据格式做统一化规范化处理,方便后续的分析作业能够更好地使用数据。一般根据源数据格式和目标格式的不同,会有不同的实现。一般包含记录格式转换和字段格式转换。记录格式转换,就是最终将一条记录转换成什么格式,例如转成json格式或csv格式。字段格式转换是对字段值进行格式的统一化处理,如将长整型时间戳全部转化为人类可读的日期格式。
2.3 缺失值填补
这个环节是针对数据中缺失的空位进行填充,以保证数据类型的一致性或完整性。例如,对于一个数量类的整数型字段,当其值缺失时,可以考虑填充0。这里要注意的是缺失值填充要相对谨慎一些才行,因为这个过程相当于是在修改原始数据,一定要确保填充的值对后续的分析不会造成误导性的影响。
2.4 剔除重复数据 
这个环节的主要作用是防止数据重复上传,造成误判。例如,一个用户播放一个视频,产生一条播放数据,如果由于某种原因,数据重复上传了3次。在服务端看来这个用户就看了3次这个视频,可能就会误以为这个用户非常喜欢这个节目。因此,剔除重复数据,是非常有必要的,也是保证数据质量的前提。
2.5 增加必要信息 
这个环节通常的作用是对数据增加一些追踪信息或者是生成一些必要的标识字段。有些字段是和具体的业务强相关的,也有一些通用的字段。比如,源数据里只有长整型时间戳字段,可以增加可读性比较高的日期时间字段,还可以增加数据来源字段便于追踪数据血缘关系。
2.6 其他 
有些公司根据自己公司的具体业务,可能会增加数据抽样、数据聚合、指标合并等环节,这和公司的分析诉求是强相关的,这里就不展开讲了。

3.数据加载 
这部分的主要目标是把数据加载至目的地,比如数据仓库中。通常的做法是,将处理好的数据写成特定格式(如parquet、csv等)的文件,然后再把文件挂载到指定的表分区上。也有些表的数据量很小,不会采用分区表,而是直接生成最终的数据表。
ETL vs. ELT
可能有些同学听说过ELT的概念,这里我们也简单介绍下,并说下它和ETL的区别。
ELT,从字面上看,就是把L(加载)放在了T(转换)前面,也就是说处理过程是萃取(extract)、加载(load)、转化(transform)。实际上,称为ELTL更合适,先把数据抽取出来,之后加载到目的地,然后再进行数据转化,最后再把转化后的结果加载到新的数据表中。
它和ETL的最大区别就是,处理上的顺序略有不同。ELT这样做的好处,是为了将数据先转移到另一个体系中,之后就可以利用新体系下的一些框架完成对数据的高效处理(数据转换)。
笔者公司就是采用的这种方式,我们会把收集到的用户数据,首先以原始文件的形式加载至数据仓库的原始层,之后再调用spark处理框架对数据做各种处理转换,最后再把转换后的结果加载到数据仓库的新的表中。在这个过程中,就是先把数据转移到分布式存储(HDFS)上,然后才能利用分布式的数据处理框架(spark)完成高效的数据转换操作。

03 ETL的运行过程

前面几个部分我们介绍了ETL的概念,以及它的各个环节。本小节我们来说下,ETL的实际运行过程。ETL不是一个一劳永逸的过程,因为数据会源源不断地来,因此ETL需要定时或实时地对新来的数据进行数据。这里我们就简单介绍下用户行为数据的离线ETL的大致运行过程。
第一步,需要客户端SDK和数据收集服务的配合,不断地抽取客户端上发生的用户行为,并以文件的形式写入磁盘。
第二步,会有一个定时调度程序,负责将收集到的大量行为日志文件,切割并上传至HDFS上,并在指定位置写入上传完成的标记文件。
第三步,另一个定时调度程序会启动一个数据处理作业,去读取上传完成标记,待上传完成后,读入原始数据,开始进行数据转换处理,并将处理好的结果写入HDFS特定的位置。
第四步,通过特定脚本或者SDK将第三步产生的文件加载到对应的数据的特定分区上,至此一次完整的过程就完成了。
 
有些同学可能会有疑问,为什么第二步和第三步不放在一个工作流中调度?这是因为第二步是发生在数据收集服务端集群上的,是一个多台并行的调度,而第三步是调度起一个spark处理程序,是提交一个作业到yarn集群上,两个过程是无法组成一个工作流的。
 
开发ETL工程的注意事项
ETL程序的开发是一个非常复杂的过程,笔者公司也是经过了很久的迭代才趋于稳定的。以下罗列其中一些注意事项,希望对相关开发同学有所帮助:
1、数据清洗一定要慎重。因为清洗操作稍有不慎,就可能把正常的数据给过滤掉了。因此,比较好的实践方式是,在处理过程中增加计数机制,即记录整个批次的原始数据量,以及每个特定逻辑清洗掉了多少数据,这样不仅能做到心中有数,同时也可以将这些计数结果监控起来,如果某个数值异常升高,可能是业务数据发生了变化或某个逻辑出了问题。
2、缺失值填充要结合具体业务。前面提到了关于缺失值的填充,这里强调一点是要结合具体业务和分析需求来对缺失值进行填充,如果无法明确该如何填充,其实存Null值比填充更好。因为错误的填充缺失值,可能会破坏原有的数据。
3、设计好数据组织规范。是否有一个比较好的数据组织规范,决定了数据加载环节实现的难易程度。建议大家要从后向前设计,先设计好存储规范,然后再进行前面的数据转换设计。
4、统一实时ETL和离线ETL。有些业务场景会出现一份数据既用于实时业务,也用于离线分析。那么,值得注意的是,最好离线和实时的ETL处理逻辑要能够统一,避免由此导致出现不一致的统计口径。

SUMMIT总结
作为一名入门级选手,只需要了解上文的这些内容就差不多了,剩下的就是在具体工作中,结合公司的具体业务,在实际操练过程中,加深对ETL的理解。希望本文能够对你有所帮助。

ITLIFE365.COM_END FROM 网络
Tags:
Jan 13

Data Integration - Kettle 7.0在win7旗舰版 32bit下Spoon 启动报could not create the java virtual machine的问题分析
1、下载并解压好,安装号JDK并配置环境变量
Java要求安装jdk1.7版本
安装jdk,并配置java环境 
 a).打开我的电脑--属性--高级--环境变量
 b).新建系统变量JAVA_HOME和CLASSPATH
 变量名:JAVA_HOME  变量值:C:\Program Files\Java\jdk1.7.0[具体路径以自己本机安装目录为准]
 变量名:CLASSPATH  变量值:.;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;
 c). 选择“系统变量”中变量名为“Path”的环境变量,双击该变量,把JDK安装路径中bin目录的绝对路径,
 添加到Path变量的值中,并使用半角的分号和已有的路径进行分隔。
 变量名:Path  变量值:%JAVA_HOME%\bin;%JAVA_HOME%\jre\bin;
 3、配置kettle环境
 在系统的环境变量中添加KETTLE_HOME变量,
 目录指向kettle的安装目录:D:\mysoft\kettle\pdi-ce-7.0.0.0-25\data-integration
2、双击Spoon.bat运行的时候报错
DEBUG: Using JAVA_HOME
DEBUG: _PENTAHO_JAVA_HOME=C:\Program Files (x86)\Java\jdk1.7.0_51
DEBUG: _PENTAHO_JAVA=C:\Program Files (x86)\Java\jdk1.7.0_51\bin\javaw.exe

D:\mysoft\kettle\pdi-ce-7.0.0.0-25\data-integration>start "Spoon" "C:\Program Fi
les (x86)\Java\jdk1.7.0_51\bin\javaw.exe"  "-Xms1024m" "-Xmx2048m" "-XX:MaxPermSiz
e=256m" "-Dhttps.protocols=TLSv1,TLSv1.1,TLSv1.2" "-Djava.library.path=libswt\wi
n32" "-DKETTLE_HOME=D:\mysoft\kettle\pdi-ce-7.0.0.0-25\data-integration" "-DKETT
LE_REPOSITORY=" "-DKETTLE_USER=" "-DKETTLE_PASSWORD=" "-DKETTLE_PLUGIN_PACKAGES=
" "-DKETTLE_LOG_SIZE_LIMIT=" "-DKETTLE_JNDI_ROOT=" -jar launcher\pentaho-applica
tion-launcher-7.0.0.0-25.jar -lib ..\libswt\win32

D:\mysoft\kettle\pdi-ce-7.0.0.0-25\data-integration>pause
请按任意键继续. . .

错误原因:
程序启动设置的内存,大于物理机的内存,修改Spoon.bat文件设置就可以正常启动啦!
解决办法:
打开Spoon.bat,找到这下面这一行 内存配置:
if "%PENTAHO_DI_JAVA_OPTIONS%"=="" set PENTAHO_DI_JAVA_OPTIONS="-Xms1024m" "-Xmx2048m" "-XX:MaxPermSize=256m"
改为
if "%PENTAHO_DI_JAVA_OPTIONS%"=="" set PENTAHO_DI_JAVA_OPTIONS="-Xms 512m" "-Xmx1024m" "-XX:MaxPermSize=256m"
rem 而2048是超过32bit的最大值,将PENTAHO_DI_JAVA_OPTIONS="-Xms512m" "-Xmx1024m"。
不行就继续改小
修改"-Xmx1024m" "-XX:MaxPermSize=128m

改好后又出现 A JAVA Exception has occurred ,排查中。。。
---end

Tags:
Sep 23
Information PowerCenter 9.5 Download link
在百度找了半天没有找到,还是google好用 ,提供信息如下:
You can download informatica 9.5 version software from edelivery.oracle.com and you need to login and accept the terms and conditons. select product pack as Oracle business intelligence and 32 or 64 bit platform according to your requirment.
then you need to select Oracle Business Intelligence 11g Media Pack for Microsoft Windows (32-bit) and click on continue if platform is 32 bit. Then you can find four parts of zip files with part number as V41972 and download them to your pc.
If platform is 64 bit you need to select Oracle Business Intelligence 11g Media Pack for Microsoft Windows x64 (64-bit) and click continue and you need to download V41973 01 to 04 partnumbers.
You can find step by step installation of the 9.0 version software in you tube links given below:
http://www.youtube.com/watch?v=0vZU9AJ1hX8 ========> SERVER INSTALLATION
http://www.youtube.com/watch?v=m4U4QbrRHuM ========> CLIENT INSTALLATION
(You will not find any difference in the installation steps for 9.0 or 9.5 you can follow these videos for installation).


You can download informatica 9.5 version software from edelivery.oracle.com and you need to login and accept the terms and conditons. select product pack as Oracle business intelligence and 32 or 64 bit platform according to your requirment.
下载地址https://edelivery.oracle.com
图片介绍
http://www.disoln.org/2012/09/Informatica-PowerCenter-9-Installation-and-Configuration-Complete-Guide.html

但是国内的网络实在是不好下载
Information PowerCenter 9.5 Download link
Mar 20

在NoSQL的文档型分支中,有两个杰出的代表,一个当然是被称为下代mySQL的 MongoDB,而另一个就是CouchDB,同是文档型存储,CouchDB 与MongoDB 在应用层面上走了两条截然不同的路线,下面推荐的一篇文文章,是一篇非常好的CouchDB教程,想了解CouchDB的话,非常值得一看:

  CouchDB 特性介绍:

  •   是一个用Erlang 写的文档型数据库。
  •   支持高并发访问,支持数据同步,高容错性的分布式存储
  •   它是NoSQL 体系中的一员
  •   它是一个Apache 基金下的开源项目
  •   它支持JSON 数据的存储,支持RESTful方式的接口。
  •   他使用map/reduce 来构建索引及进行数据查询操作

  CouchDB的优势:

  •   JSON Documents – 文档在CouchDB中以JSON格式存储.
  •   RESTful Interface – 对CouchDB的所有操作,包括数据CRUD,数据库管理及数据同步,都可能通过HTTP方式进行。
  •   N-Master Replication – 你可以使用无限多个 master 机器,这样可能会让你能够构建很有意思的数据网络拓扑。
  •   Built for Offline – CouchDB 能够运行在移动设备上(Android 系统),他可以让你的移动设备在离线时存储数据,在接入网络时再同步到云端存储。
  •   Replication Filters – 可以在同步复制操作中加上一个过滤器,让你有选择性的同步数据。

  CouchDB为Internet而生:

  使用CouchDB,你不仅可以把它当作一个存储,更推荐的方式是完全使用它来构建应用程序,你可以把工作代码直接写在CouchDB 中,完全不需要另外的WEB Server,可以减少开销。这也是CouchDB将自己称为是为Internet而生的原因。

  CouchDB的数据查询:

  与其他很多存储设备不同的是,CouchDB并不支持动态查询,相反的,它需要事先换需要查询的条件构建view,view通常是一个map函数,在已有数据基础上生成一个数据子集,在查询这个view时,如果数据有变更,会触发map函数增量更新view的内容并返回。这种方式也被称作惰性索引机制。

  使用教程:

  文章接下来的部分还列出了一个详细的CouchDB 使用教程:

  •   安装CouchDB
  •   使用CouchDB 强大的 WEB 管理工具:FUTON
  •   CouchDB 用户管理
  •   创建一个数据文档
  •   更新数据文档
  •   通过CURL创建文档
  •   查询所有文档
  •   创建一个map函数
  •   运行一个reduce函数

  原文链接:http://net.tutsplus.com/tutorials/getting-started-with-couchdb/

原文出处:http://blog.nosqlfan.com/html/1445.html
分页: 1/1 第一页 1 最后页 [ 显示模式: 摘要 | 列表 ]