34课Kettle大数据架构实战 基于kettle构建企业级大数据业务开发环境 附全套课程资料
课程基于kettle8.2打造而来,kettle构建企业级大数据业务开发环境课程,是Kettle在大数据领域的优异实战课程,也是可以快速提高同学们Kettle开发能力的课程。课程内容主要是Kettle环境的配置,服务的设定,Kettle配置及部署Hadoop环境,Hadoopfileoutput组件实战,从kettle配置Hive的环境,Hadoopcopyfiles以及HBaseOutput和HBaseInput等大数据技术。课程对于Kettle的实战使用会有很大的帮助,提升Kettle的使用能力。
教程目录:
├─01.安装环境简介.mp4
├─02.安装node-1虚拟机系统.mp4
├─03.使用SecureCRT连接操作系统.mp4
├─04.安装CDH安装环境所需依赖包.mp4
├─05.卸载Openjdk.mp4
├─06.关闭防火墙和安全防护.mp4
├─07.安装lrzsz.mp4
├─08.安装jdk.mp4
├─09.安装和配置并启动NTP服务.mp4
├─10.修改hosts文件.mp4
├─11.克隆出虚拟机node-2.mp4
├─12.克隆虚拟机node-3.mp4
├─13.修改node-1的内存信息、使用SecureCRT连接node-2和node-3.mp4
├─14.配置免密登录.mp4
├─15.mysql安装.mp4
├─16.mysql允许远程访问.mp4
├─17.创建hive和amon数据库.mp4
├─18.在node-1上安装ClouderaManager01.mp4
├─19.在node-1上安装ClouderaManager02.mp4
├─20.cmserver和agent的启动.mp4
├─21.CDH的安装.vep.mp4
├─22.Hadoop环境准备.mp4
├─23.kettle配置Hadoop的环境.mp4
├─24.Hadoopfileinput组件.mp4
├─25.Hadoopfileoutput.mp4
├─26.Hive数据的初始化.mp4
├─27.kettle配置Hive的环境.mp4
├─28.从hive中读取数据.mp4
├─29.把数据写入到hive.mp4
├─30.通过Hadoopcopyfiles作业组件把数据加载到hive数据库中.mp4
├─31.执行Hive的HiveSQL语句.mp4
├─32.HBase初始化.mp4
├─33.HBaseInput控件.mp4
├─34.HBaseOutput控件.mp4
├─CDH-5.14.0-1.cdh5.14.0.p0.24-el6.parcel
├─CDH-5.14.0-1.cdh5.14.0.p0.24-el6.parcel.sha1
├─cloudera-manager-el6-cm5.14.0_x86_64.tar.gz
├─jdk-8u121-linux-x64.rpm
├─kettle 8.2 大数据整合.doc
├─manifest.json
├─mysql-connector-java-5.1.31.jar
(1)目录中文件数:0个
(2)\课程资料;目录中文件数:12个
├─01 Hadoop file input .xls.xls
├─01 Hadoop file input.ktr
├─02 Hadoop file output.ktr
├─03 hive input.ktr
├─03 hive input.xls.xls
├─04 hive output.ktr
├─05 Hadoop copy file.kjb
├─06 HiveSQL.kjb
├─07 HBase Input.ktr
├─07 HBase Input.xls.xls
├─08 HBase output.ktr
├─weblogs_parse.txt
常见问题FAQ
- 免费下载或者VIP会员专享资源能否直接商用?
- 本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。