一、记一次“不合格”的方法 这种方法也是网上参考博客得来的,一开始就觉得有问题,后来真的发现了问题。 首先停止已经启动的hadoop: [hadoop@localhost ~]$ stop-all.sh 然后查看hado…
标签:hdfs
HDFS基础命令
1、hadoop fs hadoop fs = hdfs dfs 2、ls命令 …
Hive自定义函数以及beeline客户端
hive自定义函数的使用 # 创建自定义函数(注意,此处的hdfs一定要写成别名OpsCluster1) ## create function 函数名 as 'udf类的全路径(包名+类名)' using jar "自己…
Spark操作多HDFS集群
由于特殊需求,需要在一次Spark任务中切换HDFS集群。 本文我将介绍如何在一次的spark任务中操作不同的HDFS集群 我们以wordcount为例,分析如何配置。我们的输入数据源来自cluster1的HDFS,需要…
Hadoop教程:HDFS操作
启动HDFS 首先,您必须格式化配置的HDFS文件系统,打开namenode (HDFS服务器),并执行以下命令。 $ hadoop namenode -format 格式化HDFS之后,启动分布式文件系统。下面的命令将…
hadoop FS Shell
调用文件系统(FS)Shell命令应使用bin/hadoopfs的形式。 所有的的FSshell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是h…
Hive入门
Hive入门 复习Hadoop: 1、Hadoop是什么 存储 HDFS 计算 MapReduce 资源调度 YARN 2、HDFS的访问方式 Shell CLI :Hadoop/hdfs fs …… Java API …
【Hadoop】基于QJM的HDFS高可用系列二 - 部署
官方文档翻译,官方链接。 翻译水平有限,且以学习为主,请谅解和提意见。 转载请注明出处!!! 接着上一篇发布的文章继续翻译。这次从部署章节开始。 部署 配置概述 类似联邦的配置,HA的配置向后兼容,且允许不改变现有的单N…
利用Sqoop实现HDFS的数据与MySQL数据的互导
利用Sqoop实现HDFS的数据与MySQL数据的互导 1. 查看帮助 [root@repo bin]# ./sqoop help Available commands: codegen Generate code to…
Kafka connect HDFS
HDFS connector允许以各种格式将Kafka topic中的数据导出到HDFS文件中,并与Hive集成,使数据可以被HiveQL查询。 &nb…
集群部署HDFS
翻译: https://www.cloudera.com/documentation/enterprise/latest/topics/cdh_ig_hdfs_cluster_deploy.html#topic_11_2…
spark on yarn 搭建
原理 Spark on YARN的原理就是依靠yarn来调度Spark,比默认的Spark运行模式性能要好的多,前提是首先部署好hadoop HDFS并且运行在yarn上,然后就可以开始部署spark on yarn了,…