Greenplum数据库基础培训课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《Greenplum数据库基础培训课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Greenplum 数据库 基础 培训 课件
- 资源描述:
-
1、Wei.LiSenior Data ArchitectureAlpine Solution2010/05l 海量并行处理(Massively Parallel Processing)DBMSl 基于 PostgreSQL 8.2 相同的客户端功能 增加支持并行处理的技术 增加支持数据仓库和BI的特性 外部表(external tables)/并行加载(parallel loading)资源管理 查询优化器增强(query optimizer enhancements)l psqll pgAdmin IIIl ODBC/Datadirectl JDBCl Perl DBIl Pythonl li
2、bpqlOLE DBl 访问系统的入口l 数据库侦听进程(postgres)l 处理所有用户连接l 建立查询计划l 协调工作处理过程l 管理工具l 系统目录表和元数据(数据字典)l 不存放任何用户数据l 每段(Segment)存放一部分用户数据l 一个系统可以有多段l 用户不能直接存取访问l 所有对段的访问都经过Masterl 数据库监听进程(postgres)监听来自Master的连接l Greenplum数据库之间的连接层l 进程间协调和管理l 基于千兆以太网架构l 属于系统内部私网配置l 支持两种协议:TCP or UDPl Standby 节点用于当 Master 节点损坏时提供 Ma
3、ster 服务l Standby 实时与 Master 节点的 Catalog 和事务日志保持同步l 每个Segment的数据冗余存放在另一个Segment上,数据实时同步l 当Primary Segment失败时,Mirror Segment将自动提供服务l Primary Segment恢复正常后,使用gprecoverseg F 同步数据。l Hash分布 CREATE TABLE DISTRIBUTED BY(column,)同样数值的内容被分配到同一个Segment上l 循环分布 CREATE TABLE DISTRIBUTED RANDOMLY 具有同样数值的行内容并不一定在同一个
4、Segment上表分布的策略表分布的策略-并行计算的基础并行计算的基础查询命令的执行查询命令的执行l 举例说明:按卡号、客户号、机构的分布方式优劣点查询命令的执行查询命令的执行SELECT customer,amount FROM sales JOIN customer USING(cust_id)WHERE date=04302008;l 将一张大表逻辑性地分成多个部分,如按照分区条件进行查询,将减少数据的扫描范围,提高系统性能。l 提高对于特定类型数据的查询速度和性能l 也可以更方便数据库的维护和更新l 两种类型:Range分区(日期范围或数字范围)/如日期、价格等List 分区,例如地区
5、、产品等l Greenplum中的表分区在使用中具有总表的继承性,并通过Check参数指定相应的子表l 分区的子表依然根据分布策略分布在各segment上l 分区是一种非常有用的优化措施,例如一年的交易按交易日期分区后,查询一天的交易性能将提高365倍!Segment 1ASegment 1BSegment 1CSegment 1DSegment 2ASegment 2BSegment 2CSegment 2DSegment 3ASegment 3BSegment 3CSegment 3DJan 2005Feb 2005Mar 2005Apr 2005May 2005Jun 2005Jul 2
6、005Aug 2005Sep 2005Oct 2005Nov 2005Dec 2005每个分区表的数据平均分布到各个节点表分区可减少数据的搜索范围,提高查询性能Segment 1ASegment 1BSegment 1CSegment 1DSegment 2ASegment 2BSegment 2CSegment 2DSegment 3ASegment 3BSegment 3CSegment 3DSegment 1ASegment 1BSegment 1CSegment 1DSegment 2ASegment 2BSegment 2CSegment 2DSegment 3ASegment 3B
7、Segment 3CSegment 3DSegment 1ASegment 1BSegment 1CSegment 1DSegment 2ASegment 2BSegment 2CSegment 2DSegment 3ASegment 3BSegment 3CSegment 3DSELECT COUNT(*)FROM orders WHERE order_date=Oct 20 2005 AND order_date Oct 27 2005VSHash DistributionHash Distribution+Table PartitioningSegment 1ASegment 1BSeg
8、ment 1CSegment 1DSegment 2ASegment 2BSegment 2CSegment 2DSegment 3ASegment 3BSegment 3CSegment 3Dl 压缩存储 支持ZLIB和QUICKLZ方式的压缩,压缩比可到10:1 压缩表只能是Append Only方式 压缩数据不一定会带来性能的下降,压缩表将消耗CPU资源,而减少I/O资源占用l 语法CREATE TABLE foo(a int,b text)WITH(appendonly=true,compresstype=zlib,compresslevel=5);l Greenplum支持行或列存储
9、模式 列模式目前只支持Append Only 如果常用的查询只取表中少量字段,则列模式效率更高,如查询需要取表中的大量字段,行模式效率更高 语法:CREATE TABLE sales2(LIKE sales)WITH(appendonly=true,orientation=column);l 效率比较测试:测试1:需要去表中所有字段,此时行存储更快。select*from dw_ods.s1_sema_scmcaccp_row where crdacct_nbr=4033930000166380411;41秒select*from dw_ods.s1_sema_scmcaccp_col whe
10、re crdacct_nbr=4033930000166380411;116秒测试2:只取表中少量字段,列存储更快select crdacct_status from dw_ods.s1_sema_scmcaccp_row where crdacct_nbr=4033930000166380411;35秒select crdacct_status from dw_ods.s1_sema_scmcaccp_col where crdacct_nbr=4033930000166380411;3秒l 外部表的特征Read-only数据存放在数据库外可执行SELECT,JOIN,SORT等命令,类似正
11、规表的操作l 外部表的优点并行方式加载ETL的灵活性格式错误行的容错处理支持多种数据源l 两种方式 External Tables:基于文件 Web Tables:基于URL或指令l 利用并行数据流引擎,Greenplum可以直接用SQL操作外部表l 数据加载完全并行Master主机Segment主机内部互联网千兆以太网交换机gpfdistgpfdistSegment主机Segment主机Segment主机外部表文件外部表文件ETL服务器内部网络l 并行数据加载提供最好的性能l 能够处理远程存储的文件l 采用HTTP协议l 200 MB/s data distribution rate per
12、 gpfdistl gpfdist文件分发守护进程启动:gpfdist-d/var/load_files/expenses-p 8080-l/home/gpadmin/log&l 外部表定义:CREATE EXTERNAL TABLE ext_expenses (name text,date date,amount float4,description text)LOCATION(gpfdist/etlhost:8081/*,gpfdist/etlhost:8082/*)FORMAT TEXT(DELIMITER|)ENCODING UTF-8LOG ERRORS INTO ext_expen
13、ses_loaderrors SEGMENT REJECT LIMIT 10000 ROWS;lLoad good rows and catch poorly formatted rows,such as:rows with missing or extra attributes rows with attributes of the wrong data type rows with invalid client encoding sequenceslDoes not apply to constraint errors:PRIMARY KEY,NOT NULL,CHECK or UNIQU
14、E constraintslOptional error handling clause for external tables:LOG ERRORS INTO error_table SEGMENT REJECT LIMIT count ROWS|PERCENT(PERCENT based on gp_reject_percent_threshold parameter)lExampleCREATE EXTERNAL TABLE ext_customer (id int,name text,sponsor text)LOCATION(gpfdist:/filehost:8081/*.txt)
15、FORMAT TEXT(DELIMITER|NULL )LOG ERRORS INTO err_customer SEGMENT REJECT LIMIT 5 ROWS;l Data resides outside the databasel No database statistics for external table datal Not meant for frequent or ad-hoc accessl Can manually set rough statistics in pg_class:UPDATE pg_class SET reltuples=400000,relpag
16、es=400 WHERE relname=myexttable;l PostgreSQL commandSupport loading and unloadingOptimized for loading a large number of rowsLoads all rows in one command(not parallel)Loads data from a file or from standard inputSupports error handling as does external tablesl EXAMPLECOPY mytable FROM/data/myfile.c
17、sv WITH CSV HEADER;(文件生成在Master)COPY mytable FROM/data/myfile.csv WITH CSV HEADER;(文件生成在本地)COPY country FROM/data/gpdb/country_data WITH DELIMITER|LOG ERRORS INTO err_country SEGMENT REJECT LIMIT 10 ROWS;l Drop indexes and recreate after load Increase maintenance_work_mem parameter to speed up CREAT
18、E INDEX operationsl Run ANALYZE after loadl Run VACUUM after load errors、delete、upate。l Do not use ODBC INSERT to load large volumes of datal 限制查询队列的激活数l 防止系统过载(CPU,disk I/O,memory)l Resource Queue Limits ACTIVE THRESHOLDEXAMPLE:CREATE RESOURCE QUEUE adhoc ACTIVE THRESHOLD 10 IGNORE THRESHOLD 1000.0
19、;COST THRESHOLDEXAMPLES:CREATE RESOURCE QUEUE batch1 COST THRESHOLD 1000000.0 NOOVERCOMMIT;CREATE RESOURCE QUEUE batch1 COST THRESHOLD 1e+6;l Highly interactive web-based performance monitoringl Real-time and historic views of:Resource utilizationQueries and query internalsDashboardSystem MetricsQue
20、ry MonitorBackups and Restoresl Parallel backups(gp_dump)l Parallel restores(gp_restore)l Automating dump/restores(gpcrondump,gpdbrestore)l Non-parallel backups and restores(pg_dump/pg_restore/psql)l 用于在同构环境间迁移数据结构、数据、function备份恢复l 用于在异构环境间迁移数据结构、数据、functionl Each active segment is dumped in paralle
21、ll Dump files created in segment data directory by defaultl Supports compression(gzip)l Ensure sufficient disk space for dump filesl A backup set is identified by a timestamp keylExample:Back up a database:gp_dump gpdbBack up a database,and create dump files in a centralized location on all hosts:gp
22、_dump-gp-d=/home/gpadmin/backups gpdbBack up a particular schema only:gp_dump-n myschema mydatabaseBack up a single segment instance only(by noting the dbid of the segment instance):gp_dump-gp-s=i5 gpdblOn the master host gp_catalog_1_ gp_cdatabase_1_ gp_dump_1_ gp_dump_status_1_ lOn the segment hos
23、ts gp_dump_0_gp_dump_status_0_l Use gp_restore commandl Need timestamp key from gp_dumpl Make sure dump files are placed on correct segment hostsl Make sure database exists before restoringl Database-level server configuration settings are not restoredl Examples Restore an Greenplum database using b
24、ackup files created by gp_dump:gp_restore-gp-k=2005103112453-d gpdb Restore a single segment instance only(by noting the dbid of the segment instance):gp_restore-gp-k=2005103112453-d gpdb-gp-s=i5l gpcrondumpCalls to gp_dumpCan be called directly or can schedule using CRONSend email notificationsFlex
25、ible dump optionsCan copy configuration filesCan dump system catalogsCan dump global objectsCan include a post-dump scriptl gpdbrestoreRestores from gpcrondump filesCan restore from an archive host no need to pre-place dump files on segmentsl Green plum also supports pg_dump and pg_restore l Useful
展开阅读全文