ICode9

精准搜索请尝试: 精确搜索
  • Hadoop的JavaAPI2022-04-24 09:32:47

    1.配置winutil的环境变量 然后在Path变量中加入       2.测试 创建一个普通的Java工程测试 FileSystem fs = null; @Before public void init() throws Exception{ fs = FileSystem.get(new URI("hdfs://itcast01:9000"), new Configuration(), "root"

  • Hadoop生态系统2022-04-22 21:02:50

    一、hadoop开源生态介绍 1、云计算与大数据 Iaas:基础设施即服务,通过互联网获得服务,例如亚马逊AWS,openStack Paas:平台即服务,把服务器平台作为一种服务,例如虚拟开发平台,默认安装开发环境,hadoop Saas:软件即服务,例如office365,大量app   2、大数据应用 hadoop提供存储和计算

  • Hadoop安装与常用操作命令2022-04-22 21:01:00

    一、大纲 1、HDFS集群环境搭建 2、常见问题 3、HDFS Shell命令使用     二、集群环境搭建 下载地址: https://hadoop.apache.org/releases.html   1、初始化目录 在/bigdata/hadoop-3.2.2/下创建目录 mkdir logs secret hadoop_data hadoop_data/tmp hadoop_data/namenode had

  • ZooKeeper 组件安装配置2022-04-22 16:02:59

    实验一:ZooKeeper 组件安装配置 实验任务一:下载和安装 ZooKeeper 各节点的防火墙需要关闭 [root@wengfangyang ~]# tar ‐zxvf zookeeper‐3.4.8.tar.gz ‐C /usr/local/src    [root@wengfangyang ~]# mv /usr/local/src/zookeeper‐3.4.8 /usr/local/src/zookeeper 1

  • YARN线上动态资源调优2022-04-21 22:33:22

    背景 线上Hadoop集群资源严重不足,可能存在添加磁盘,添加CPU,添加节点的操作,那么在添加这些硬件资源之后,我们的集群是不能立马就利用上这些资源的,需要修改集群Yarn资源配置,然后使其生效。 现有环境 服务器:12台,内存64Gx12=768G,物理cpu16x12=192,磁盘12Tx12=144T 组件:Hadoop-2.7.7,Hive-2

  • Hadoop_JAVA操作HDFS2022-04-19 21:31:05

    之前已经在虚拟机上安装好了hadoop,下面纪录下用java操作hdfs和中间遇到的一些问题,使用的是伪分布式模式 一 本地配置hadoop环境变量 此处默认已经具备jdk环境.将hadoop的压缩包解压到任意目录 在环境变量中配置HADOOP_HOME变量,值为hadoop所在的目录 二、编写测试类 import org

  • HDFS编程实践2022-04-19 10:32:20

    HDFS编程实践 1、利用Shell命令与HDFS进行交互 Hadoop支持很多Shell命令,其中fs是HDFS最常用的命令,利用fs可以查看HDFS文件系统的目录结构、上传和下载数据、创建文件等。 注意,实际上有三种shell命令方式。 hadoop fs适用于任何不同的文件系统,比如本地文件系统和HDFS文件系统 had

  • Linux__hadoop免密登录&JavaToJDFS2022-04-18 20:36:04

    配置ssh免登陆 生成ssh免登陆密钥 cd ~,进入到我的home目录 cd .ssh/ ssh-keygen -t rsa (四个回车) 执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥) 将公钥拷贝到要免登陆的机器上 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys cat是查看 或 ssh-copy-id -i lo

  • hadoop入门(14):MapReduce2022-04-18 20:02:45

    Map阶段执行过程 第一阶段: 把输入目录下的文件按照一定标准逐个进行逻辑切片,形成切片规划。 默认切片大小和块的大小相同128M,每一个切片由一个MapTask处理。 第二阶段: 对切片数据按照一定规则读取解析返回<key,value>对。 默认按行读取数据。key是每一行起始位置的偏移量,valu

  • Hadoop+HBase+ZooKeeper分布式集群环境搭建2022-04-18 01:31:06

    一、环境说明 集群环境至少需要3个节点(也就是3台服务器设备):1个Master,2个Slave,节点之间局域网连接,可以相互ping通,下面举例说明,配置节点IP分配如下: HostnameIPUserPassword master 192.168.59.133 hadoop 123456 slave1 192.168.59.134 hadoop 123456 slave2 192.168.59.13

  • 2022.4.17学习成果2022-04-17 23:32:21

    spark 1)解压spark安装包到/usr/local/src/目录,并改名为spark master机器: [root@master ~]# tar -zxvf /opt/software/spark-2.0.0-bin-hadoop2.6.tgz -C /usr/local/src [root@master ~]# mv /usr/local/src/spark-2.0.0-bin-hadoop2.6 /usr/local/src/spark   2)将spark目录权限

  • 实验0-Hadoop伪分布式环境搭建2022-04-16 18:04:05

    软件要求 VirtualBox下载 (粘贴到浏览器地址栏直接下载) https://download.virtualbox.org/virtualbox/6.1.4/VirtualBox-6.1.4-136177-Win.exe Ubuntu下载 (粘贴到浏览器地址栏直接下载) https://mirrors.tuna.tsinghua.edu.cn/ubuntu-releases/18.04/ubuntu-18.04.6-live-server-amd

  • 【Hadoop】HBase组件配置2022-04-16 15:31:39

    目录HBase实验步骤:1、配置时间同步(所有节点)2、部署HBase(master节点)3、配置HBase(master节点)4、拷贝文件到slave节点5、修改权限,切换用户(所有节点)6、启动hadoop(master节点)7、启动hbase(master节点)8、查看浏览器页面9、hbase语法应用(master节点)10、关闭hbase(master节点) HBase实验步骤:

  • |NO.Z.00076|——————————|^^ 编程 ^^|——|Hadoop&实时数仓.V02|---------------------------------------|实时数仓.v022022-04-16 14:34:37

    [BigDataHadoop:Hadoop&实时数仓.V02]                                        [BigDataHadoop.电商行业实时数仓项目][|章节四|Hadoop|实时数仓|实时数仓:实时数仓$在Hadoop集群环境运行实时数仓程序.V2|]一、启动集群环境相关服务### --- 启动zooke

  • |NO.Z.00075|——————————|^^ 编程 ^^|——|Hadoop&实时数仓.V01|---------------------------------------|实时数仓.v012022-04-16 14:34:10

    [BigDataHadoop:Hadoop&实时数仓.V01]                                        [BigDataHadoop.电商行业实时数仓项目][|章节五|Hadoop|实时数仓|实时数仓:实时数仓$在Hadoop集群环境运行实时数仓程序.V1|]一、在真实服务器集群环境上运行:在pom.xml下

  • |NO.Z.00077|——————————|^^ 编程 ^^|——|Hadoop&实时数仓.V03|---------------------------------------|实时数仓.v032022-04-16 14:34:01

    [BigDataHadoop:Hadoop&实时数仓.V03]                                        [BigDataHadoop.电商行业实时数仓项目][|章节五|Hadoop|实时数仓|实时数仓:实时数仓$在Hadoop集群环境运行实时数仓程序.V3|]一、运行OrderStatistics### --- 复制类的绝

  • Hadoop伪分布式部署2022-04-16 13:00:23

    1.解压Hadoop安装包 cd ......  进入软件包所在文件夹 ls   查看文件夹下所有文件 tar -zxvf hadoop......  解压Hadoop的jar包 2.配置hadoop文件 cd /......(Hadoop安装所在目录)/etc/hadoop  进入配置文件所在目录下 vim hadoop-env.sh  设置Hadoop的JAVA_HOME expor

  • Hadoop大数据单词统计2022-04-16 00:31:56

    编写WordCount数单词程序 0x00启动hadoop集群 shell脚本编写: vim start #!/bin/bash /opt/hadoop-2.6.0-cdh5.6.0/sbin/start-all.sh 给脚本加权限 chmod 777 start 执行脚本 ./start 0x01新建文件夹并编写程序 创建文件夹 mkdir -p /opt/test2/com/hellohadoop/ 单词计数Map

  • 从零开始学Spark(二)--了解Spark2022-04-14 14:32:16

    点击关注强哥,还有100多G的面试资料等你来拿 哈喽,大家好,我是强哥。 不知道大家Scala学得怎么样了?不过不管你们学得怎么样,反正我是简单的过过一遍了。诶~就是这么牛逼。 今天我们就开始正式学Spark了。 Spark是什么? 既然要学Spark,首先就要弄懂Spark是什么?或者说Spark能为我们做什么?

  • Hadoop集群安装配置教程2022-04-14 12:02:01

    Hadoop集群安装配置教程 链接:https://pan.baidu.com/s/1rDyTLQKA5MvfVWc8CtoL_g 提取码:8v19 --来自百度网盘超级会员V6的分享 1、环境 名称 物理IP 说明 版本 操作系统 hadoop-master 192.168.200.34 名称节点 3.1.3 ubuntu20.04 hadoop-slave 192.168.200.35 数据节点 3

  • hadoop2022-04-11 17:01:40

    hadoop介绍 Hadoop是一个能够对大量数据进行分布式处理的软件框架。以一种可靠、高效、可伸缩的方式进行数据处理。主要包括三部分内容:Hdfs,MapReduce,Yarn hadoop版本 Hadoop2.0即为克服Hadoop1.0中的不足,提出了以下关键特性: Yarn:它是Hadoop2.0引入的一个全新的通用资源管理系统,

  • hadoop安装过程2022-04-10 20:35:41

    开启网络,ifconfig指令查看ip 利用filezilla上传jdk到opt 解压hadoop安装包 #解压 tar -zxvf hadoop-2.2.0.tar.gz 修改配置文件(5个) 路径:/opt/hadoop-2.2.0/etc/hadoop 第一个:hadoop-env.sh #在27行修改 export JAVA_HOME=/opt/jdk1.7.0_76 第二个:core-site.xml <configu

  • Linux_hadoop2.2.0伪分布式搭建安装2022-04-10 20:31:06

    一:准备Linux环境     1.1 开启网络,ifconfig指令查看ip     1.2 修改主机名为自己名字(hadoop)       centos 7 连接:https://zhuanlan.zhihu.com/p/375497418       vim /etc/sysconfig/network       NETWORKING=yes       HOSTNAME=hadoop

  • Hadoop伪分布式搭建_刘益长2022-04-10 19:00:06

    1.准备Linux环境 1.1 开启网络,ifconfig指令查看ip 1.2 修改主机名为自己名字(hadoop) vim /etc/sysconfig/network NETWORKING=yes HOSTNAME=hadoop 1.3修改主机名和IP的映射关系 vim /etc/hosts 192.168.182.128 hadoop 1.4关闭防火墙 #查看防火墙状态 service ipta

  • 大数据Hadoop之——计算引擎Spark2022-04-09 18:00:18

    目录一、概述1)Spark特点2)Spark适用场景二、Spark核心组件三、Spark专业术语详解1)Application:Spark应用程序2)Driver:驱动程序3)Cluster Manager:资源管理器4)Executor:执行器5)Worker:计算节点6)RDD:弹性分布式数据集7)窄依赖8)宽依赖9)DAG:有向无环图10)DAGScheduler:有向无环图调度器11)TaskSched

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有