Kettle性能调优汇总

Kettle性能优化是一个系统工程,不仅涉及工具本身的优化,更涉及ETL工具之外的诸多因素,比如,ETL要读取数据库,那么目标DMBS的性能,SQL语句,网络等相关因素都影响到执行效率。根据Kettle对数据ETL的过程性能调优,主要取决于三个因素:上游渠道,工具的大小与数量,下游渠道。

一 Kettle调优

  1. 调整JVM大小进行性能优化,修改Kettle定时任务中的Kitchen或Pan或Spoon脚本。

Kettle是Java做的,尽量用大一点的内存参数启动Kettle;

##修改脚本代码片段
set OPT=-Xmx512m -cp %CLASSPATH%  -Djava.library.path=libswt\win32\ -DKETTLE_HOME="%KETTLE_HOME%"  -DKETTLE_REPOSITORY="%KETTLE_REPOSITORY%"  -DKETTLE_USER="%KETTLE_USER%"  -DKETTLE_PASSWORD="%KETTLE_PASSWORD%"  -DKETTLE_PLUGIN_PACKAGES="%KETTLE_PLUGIN_PACKAGES%"  -DKETTLE_LOG_SIZE_LIMIT="%KETTLE_LOG_SIZE_LIMIT%"

##参数参考:
-Xmx1024m:设置JVM最大可用内存为1024M。
-Xms512m:设置JVM促使内存为512m。此值可以设置与-Xmx相同,以避免每次垃圾回收完成后JVM重新分配内存。
-Xmn2g:设置年轻代大小为2G。整个JVM内存大小=年轻代大小 + 年老代大小 + 持久代大小。持久代一般固定大小为64m,所以增大年轻代后,将会减小年老代大小。此值对系统性能影响较大,Sun官方推荐配置为整个堆的3/8。
-Xss128k:设置每个线程的堆栈大小。JDK5.0以后每个线程堆栈大小为1M,以前每个线程堆栈大小为256K。更具应用的线程所需内存大小进行调整。在相同物理内存下,减小这个值能生成更多的线程。但是操作系统对一个进程内的线程数还是有限制的,不能无限生成,经验值在3000~5000左右。

##样例:
OPT=-Xmx1024m -Xms512m
  1. 调整提交(Commit)记录数大小进行优化(尽量提高批处理的commit size)

如修改“表输出”组件中的“提交记录数量”参数进行优化,Kettle默认Commit数量为:1000,可以根据数据量大小来设置Commitsize:1000~50000。

《Kettle性能调优汇总》 clipboard.png

  1. 调整记录集合里的记录数(RowSet)

RowSet是两个步骤之间的缓存.

性能调优的关键是如何找到性能瓶颈:一个重要的方法就是观察RowSet.如下图所示,当左边的in大于右边的out的位置时,很可能就是性能瓶颈的位置.(也可以通过单个执行最长的步骤来确定性能瓶颈.)

《Kettle性能调优汇总》 clipboard.png

通过点击转换空白处,可以调整rowset的大小.

《Kettle性能调优汇总》 clipboard.png

调整之后,执行效果如下:

《Kettle性能调优汇总》 clipboard.png

  1. 调整转换动作的并发处理数(改变开始复制的数量)

注意:此种方式要用在适合并发操作的场景,比如查询类,要注意死锁问题.

当调整rowset大小之后,性能效果仍不明显的话,可以尝试调整转换动作的并发处理数,比如以下转换操作在”数据库查询”处出现性能瓶颈.

《Kettle性能调优汇总》 clipboard.png

调整并发处理数:(一般设置成2-8个)

《Kettle性能调优汇总》 clipboard.png

执行情况如下图所示,速度明显提高了很多.

《Kettle性能调优汇总》 clipboard.png

5. 使用集群,尤其是对于查询类,运算类,排序等;

6. 更换其他实现方式,如js使用java类或插件;

7. 注意日志级别(Rowlevel日志的性能会严重下降,是Basic的1/10);

8. 注意死锁问题:数据库死锁(读写同一张表)和转换本身死锁;

9. 尽量使用数据库连接池;

使用数据库连接池,可以在一定程度上提高速度.如何查看是否使用了数据库连接池?(这个在详细日志中可以看到,使用了连接池).

10. 尽量使用缓存,缓存尽量大一些(主要是文本文件和数据流),比如排序;

11. 合适的使用数据库索引,尤其对于数据库查询类.具体可以参考[索引的正确使用];

12. 可以使用sql来做的一些操作尽量用sql;

Group , merge , stream lookup,split field这些操作都是比较慢的,想办法避免他们.,能用sql就用sql;

13. 插入大量数据的时候尽量把索引删掉;

14. 尽量避免使用update , delete操作,尤其是update,如果可以把update变成先delete, 后insert;

15. 能使用truncate table的时候,就不要使用deleteall row这种类似sql合理的分区,如果删除操作是基于某一个分区的,就不要使用delete row这种方式(不管是deletesql还是delete步骤),直接把分区drop掉,再重新创建;

16. 尽量缩小输入的数据集的大小(增量更新也是为了这个目的);

17. 尽量使用数据库原生的方式装载文本文件(Oracle的sqlloader, mysql的bulk loader步骤);

18. 尽量不要用kettle的calculate计算步骤,能用数据库本身的sql就用sql ,不能用sql就尽量想办法用procedure,实在不行才是calculate步骤;

19. 远程数据库用文件+FTP的方式来传数据,文件要压缩。(只要不是局域网都可以认为是远程连接)。

20. 在确保结果输出正确的情况下,能使用并行处理的就不要使用串行处理.

二 索引的正确使用

在ETL过程中的索引需要遵循以下使用原则:

1、当插入的数据为数据表中的记录数量10%以上时,首先需要删除该表的索引来提高数据的插入效率,当数据全部插入后再建立索引。

2、避免在索引列上使用函数或计算,在where子句中,如果索引列是函数的一部分,优化器将不使用索引而使用全表扫描。

3、避免在索引列上使用 NOT和 “!=”,索引只能告诉什么存在于表中,而不能告诉什么不存在于表中,当数据库遇到NOT和 “!=”时,就会停止使用索引转而执行全表扫描。

4、索引列上用 >=替代 >

  高效:select * from temp where deptno>=4

  低效:select * from temp where deptno>3

两者的区别在于,前者DBMS将直接跳到第一个DEPT等于4的记录而后者将首先定位到DEPTNO=3的记录并且向前扫描到第一个DEPT大于3的记录。

三 数据抽取的SQL优化

1、Where子句中的连接顺序。

2、删除全表是用TRUNCATE替代DELETE。

3、尽量多使用COMMIT。

4、用EXISTS替代IN。

5、用NOT EXISTS替代NOT IN。

6、优化GROUP BY。

7、有条件的使用UNION-ALL替换UNION。

8、分离表和索引。

    原文作者:夏一
    原文地址: https://www.jianshu.com/p/7bc2261a687c
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞