ICode9

精准搜索请尝试: 精确搜索
  • CDH更改datanode存储目录2022-08-03 09:34:19

    1.问题梳理: CDH集群中,数据文件位置默认在 /dfs/dn 中,这个目录所属的盘符是 /,但是 ‘/’只有50G大小,还有其他各种文件的日志什么的,空间很紧张。今天启动脚本上传文件到hive,因为空间问题一直报错。查阅了资料,需要将CDH集群 HDFS数据存储 更换目录。 通过命令查看各个盘符 占用情况

  • CDH搭建教程2022-08-02 09:04:55

    一、概念介绍 1、CDH 概览 CDH是Apache Hadoop和相关项目的最完整、最受测试和最流行的发行版。CDH提供Hadoop的核心元素-可伸缩存储和分布式计算-以及基于web的用户界面和重要的企业功能。CDH是Apache许可的开放源码,是唯一提供统一批处理、交互式SQL和交互式搜索以及基于角色的

  • docker CDH安装202207302022-07-31 10:31:45

    目录 拉取镜像 启动容器 进入容器 启动Cloudera Manager 访问页面   拉取镜像 docker pull cloudera/quickstart   # docker image ls REPOSITORY TAG IMAGE ID CREATED SIZE docker.io/hello-world

  • 大数据开源平台CDH 集群(CM6.3.1 + CDH 6.3.2)的部署2022-07-22 20:13:42

    一,概述 我依照博文:https://www.cnblogs.com/liugp/p/16286645.htm ,进行了CDH集群的部署。总体来说,基本比较顺利。 在部署过程中,发生了一些小问题。本文以原博主的步骤 进行说明,详细说明我在部署过程中遇到的问题以及解决方法。   二,机器环境配置 以下步骤默认为集群内每个机器进

  • CDH6.3.x集成flink1.132022-06-10 18:02:52

    目前能下载到flink1.13的parcel包的资源确实少,有些也需要收费的,我这里采用自己编译的方法。 1、准备环境 jdk1.8 maven3.8.1 parcel制作工具   2、制作parcel 下载制作工具   git clone https://github.com/pkeropen/flink-parcel.git         修改配置文件   cd ./fli

  • CDH升级到CDP大数据集群碰到的问题解析2022-05-05 20:04:06

    一、背景   2019 年,Cloudera 与 Hortonworks 合并后,彻底完成了转型。Cloudera 果断宣布,对 CDH 和 HDP 两条产品线将仅支持到 2022 年。对于两个产品高度重合的部分会做删减和融合,结果就是推出新的数据平台 CDP (Cloudera Data Platform)。2022 年后,原 CDH 和 HDP 用户会被转移到 C

  • CDH $‘\r‘: 未找到命令2022-03-02 15:59:11

    关注微信公共号:小程在线 关注CSDN博客:程志伟的博客 将windows的内容复制到了shell文件下 在Liunx命令下执行shell文件时出现了:$'\r': 未找到命令 解决方法: 1. yum install dos2unix 2.转换格式 dos2unix add_new_user_as_hue.sh 3. bash 执行文件可以了。 

  • Flink-1.12.0/1.14.3-CDH6.3.2源码编译、CDH-Flink-Parcel制作、CDH6.3.2集成Flink1.12.0/1.14.32022-02-23 14:30:53

    **自己编译的Flink源码,并制作相应的parcel,已完成flink1.12和最新flink版本1.14.3.**如果不想自己编译,可以使用我编译和制作好的parcel文件。亲测可用。可以参考我另一篇文章,下载! flink-parcel制作过程 以CDH6.3.2、FLINK1.9.1为例 (1)下载制作包 git clone https://github.co

  • cdh 6.2.1部署2022-02-21 15:31:59

    环境准备 此次部署为5台服务器,hadoop1有公网,其他均为内网 角色划分方面,由于演示集群的总节点数很少,不可避免有大量角色合设。最终分配方案如下(CM:Cloudera Manager;NN:NameNode;RM:ResourceManager;ZK: ZooKeeper;SNN:SecondaryNameNode;HS2:HiveServer2;DN:DataNode;NM: NodeManager;M:HBase Mas

  • 专属宿主机脏数据问题2022-02-18 03:31:38

    专属宿主机脏数据问题 问题现象:专属宿主机CDH热迁移报错 no common host cpu/mem/disk match resources by specified vm config[cpuQuota:800 mem:32768 diskTotal:0] 排查 首先确定是否内存,cpu不足,确定是否卷虚拟机 如果资源满足,则怀疑主机上存在脏数据,由于CDH主机都是一组两

  • CDP大数据平台hive表格与CDH的不同2022-02-09 20:00:41

    一、概述   CDP大数据平台是CDH和HDP合并之后的新版本,使用的hive是3.0版本。CDP在使用上和CDH有很大的不同。 二、Hive默认创建表格不同   CDP默认创建的表格都是事务表;可以进行增、删、改、查操作,不支持设置事务表的相关参数;应该是默认已经设置好了。而CDH需要指定创建的表格时

  • CDH客户端部署2022-01-26 21:36:16

    目录 1、下载cdh parcels包 2. 配置环境变量 3. 在客户端服务器上配置hosts文件 4.参考资料 1、下载cdh parcels包 下载 CDH-5.9.1-1.cdh5.9.1.p0.4-el7.parcel mkdir -p /opt/cloudera/parcels cd /opt/cloudera/parcels 上传刚才的的parcel包至/opt/cloudera/parcels目录 ta

  • CDH集群impala报错:角色无法启动,Invalid short-circuit reads configuration:2022-01-25 17:02:10

    博主最近在安装CDH的时候,发现每次安装都跟逛海南之家一样,每次都有新问题。 这次的impala又出问题了,重装了agent还是有问题,发现这个办法可以,分析一下。 感谢原文大佬的分享:原文链接:https://cloud.tencent.com/developer/article/1079075?from=15425     1.安装cdh集群时候,有一台

  • cdh集群hive表新增字段测试2022-01-21 09:34:45

    问题:现有分区表添加新字段后,往分区表插入数据,插入的数据有对新字段赋值,hive下查询分区表新添加字段出现新增字段查询结果为null,而impala下查询新增字段有值。 目的:为了验证Hive下的分区表新增字段,然后对新增字段进行赋值,通过hive或者impala连接串的方式查询表中的的新增字段,确认

  • 【离线数仓面试】数仓架构:架构、输入输出、流程、框架选型及版本、项目集群规模、分层架构、分层原因2022-01-20 23:00:32

    1、数仓架构介绍 神策数据: 云上数仓:https://www.aliyun.com/solution/datavexpo/datawarehouse   2、数仓的输入输出 输入系统:用户埋点行为数据、后台产生的业务数据、爬虫数据。 输出系统(BI):报表系统、大屏展示、用户画像系统、推荐系统   3、系统流程   4、框架选型 1)Apache:

  • CDH安装宝典之CMWebInstall2022-01-10 10:30:42

    前提 在CDH安装之前必须保证NODE1主节点中的以下程序均已启动 1.每台机器 :根据aliyun提供的服务进行 时间同步 :ntpdate -u ntp6.aliyun.com 启动服务 systemctl start ntpd systemctl restart ntpd 查看是否启动 ps -ef | grep ntpd 开机启动 system

  • 搭建CDH批量执行的脚本2022-01-01 13:31:23

    0.前言 在搭建cdh的过程中,需要执行大量相同的命令到不同的机器,因此编写批量脚本。 0.1 注意点 node.list内为所有节点IP 需要下载expect 根据实际情况修改脚本中的密码 1.批量执行命令的脚本如下: 1.1 batch_cmd.sh #!/bin/sh list_file=$1 cmd=$2 username=root password=pa

  • CDH-Flume从Kafka同步数据到hive2021-12-16 15:30:01

    启动Flume命令 flume-ng agent -n a -c /opt/cloudera/parcels/CDH-6.3.0-1.cdh6.3.0.p0.1279813/lib/flume-ng/conf/ -f ./kafka2hiveTest.conf -Dflume.root.logger=INFO,console hive建表 语句 #分桶开启事务并分区 create table log_test(ip string,username string,requ

  • CDH6.3.2集成Apache Flink1.12.02021-11-01 20:02:48

    目录 一、编译Flink1 下载flink源码2 增加maven镜像3 执行编译命令 二、编译parcel1 下载flink-parcel2 修改参数3 复制安装包4 编译parcel5 编译csd6 上传文件 三、CDH集成1 登录CDH2 进入Parcel操作界面3 分配Parcel4 激活Parcel5 回主界面6 添加服务报错解决 参考资料

  • HDP、CDH、CDP升级2021-10-30 13:01:33

    前言 Cloudera 在跟HortonWorks 合并后,便推出了新一代大数据平台 CDP,并正在逐步停止原有的大数据平台 CDH 和 HDP。 但具体到何时会彻底停止对 CDH 和 HDP 的维护,CDH/HDP 停止维护后现有用户该如何应对,以及 CDP 跟 CDH/HDP 的异同,或多或少都有些模式。 CDH/HDP 各版本的关键时间点

  • Docker 搭建完全分布式CDH集群2021-10-27 22:02:29

    前言         基于前面的搭建,就会发现三台容器都是发布到一台物理机上,在一台物理机上实现了CDH集群的效果,这拿来测试还行,当时实际环境下,资源是远远不够用的。         接下来,将基于前面的的步骤,使用安装包搭建完全分布式的CDH集群,在多个物理机上时间CDH集群的搭建。  

  • CDH 05.cdh本地源搭建配置2021-10-22 15:01:09

    1、解决安装的时候报一下警告(禁用透明页): echo never > /sys/kernel/mm/transparent_hugepage/defrag; echo never > /sys/kernel/mm/transparent_hugepage/enabled; vi /etc/rc.local # 添加如下两行,并同步该文件到其他服务器 echo never > /sys/kernel/mm/transparent_hugepa

  • CDH kudu Unable to load consensus metadata for tablet2021-10-13 20:32:28

    新增kudu 服务,启动master 节点,报错如下. 晚上8点09:34.716分 ERROR cc:205 Unable to init master catalog manager: Not found: Unable to initialize catalog manager: Failed to initialize sys tables async: Unable to load consensus metadata for tablet 00000000000

  • CDH 5.13.3 内置hive1.1.0-cdh5.13.3 升级 hive 2.3.92021-09-15 09:36:32

    博客园首发,转载请注明地址:https://www.cnblogs.com/tzxxh/p/15247833.html 原因:CDH 5.13.3默认的hive是 1.1.0版本,过于陈旧,不利于其他相关组件的升级,例如spark。CDH内进行hive版本升级,可以利用CDH进行hive日常运维。  关掉 hive impala 等 hive 相关的服务。  任意节点下

  • CDH 提交任务(Flink)2021-09-03 18:33:26

    运行命令 /bin/flink run -t yarn-per-job --detached ./examples/streaming/TopSpeedWindowing.jar 1、错误    解决方案:调节yarn的yarn.scheduler.maximum-allocation-mb和yarn.nodemanager.resource.memory-mb  

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有