ICode9

精准搜索请尝试: 精确搜索
  • 大数据之-Hadoop3.x_Yarn_FIFO调度器---大数据之hadoop3.x工作笔记01442022-01-07 12:58:00

    我们说,当有请求来了以后,resourcemanager接收到请求以后,会生成一个task任务 然后把任务放到,任务队列中去,然后那么;任务队列的执行规则是什么呢? 这里有3个规则,一个是FIFO规则,一个是Fair Scheduler公平调度器, 一个是Capacity 调度器,容量调度器,这里 Apache hadoop3.1.3

  • 【hadoop】安装hadoop3.1.3 出现的问题2022-01-04 14:35:12

    1. INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:41576. Already tried 0 time(s);  或者卡在 2022-01-04 01:26:35,209 INFO mapreduce.Job: Running job: job_1641277332916_0002,后面跑不下去了 解决办法:vim /etc/hosts  把127.0.0.1这行注释掉

  • Ubantu安装Hadoop3.1.3单机、伪分布式2021-10-14 23:58:29

    一安装完ubantu后,下载hadoop进行安装 1.默认环境 Ubuntu 18.04 64位 作为系统环境(或者Ubuntu 14.04,Ubuntu16.04 也行,32位、64位均可) hadoop3.1.3.tar.gz文件下载地址传送门 可以采用迅雷下载,速度比较快 2.准备工作 创建一个 名字为“hadoop”的用户,并使用 /bin/bash 作为 she

  • HDFS编程实践(Hadoop3.1.3)2021-10-05 11:35:19

    HDFS编程实践(Hadoop3.1.3) 1,在学习HDFS编程实践前,我们需要启动Hadoop(版本是Hadoop3.1.3)。执行如下命令: cd /usr/local/hadoop    #切换到hadoop的安装目录 ./sbin/start-dfs.sh    #启动hadoop   一、利用Shell命令与HDFS进行交互 Hadoop支持很多Shell命令,其中fs是HDFS

  • centos7搭建hadoop3.1.4环境2021-10-04 10:31:26

    1.准备工作 (准备工作需要三台虚拟机都进行操作) 1.1准备三台centos7的虚拟机 在vm中安装好三台centos7的虚拟机 1.2更改虚拟机的主机名 使用  hostnamectl set-hostname hostname   命令修改主机名 为三台虚拟机分别更改主机名为node1,node2,node3(名字可以自己取,最好有个顺序) [ro

  • hadoop3.1.3单机版安装2021-07-08 12:02:10

    hadoop3.1.3单机安装 安装jdk 进入/usr/local/目录下,创建soft目录,之后作为hadoop的安装目录,在soft中新建Java目录,用于存放jdk(命令:mkdir java) 将jdk进行解压: tar -zxvf ./jdk1.8.0_202.tar.gz 修改文件:vim /etc/profile 添加:export JAVA_HOME=/usr/java/jdk1.8.0_202 用java

  • Hadoop3.1.3:安装zookeeper2021-06-07 12:01:43

    首先进到/opt/software/目录下,使用命令下载zookeeper包 wget https://ftp.jaist.ac.jp/pub/apache/zookeeper/zookeeper-3.6.3/apache-zookeeper-3.6.3-bin.tar.gz 解压:tar -zxvf apache-zookeeper-3.6.3-bin.tar.gz 移动至module文件夹 mv apache-zookeeper-3.6.3-bin/ /op

  • win10下安装Spark3.0和Hadoop3.1.32021-05-24 23:34:08

    1、spark win10安装 (1)解压文件到无空格的安装目录,安装到的目录为D:\Enviroment\Spark\spark-3.0.0-bin-hadoop3.2 (2)添加环境变量 SPARK_HOME :D:\Enviroment\Spark\spark-3.0.0-bin-hadoop3.2%SPARK_HOME%\bin%SPARK_HOME%\sbin (3)测试 cmd下输入spark-shell 2、Hadoop wi

  • Hadoop3.1.3版本安装(CentOs7环境)2021-04-05 09:32:19

    集群Hadoop实验(虚拟机模拟)centOS 选择一台作为Master,其余的作为Slave结点。 三台虚拟机的用户名都是qinphy 官网下载Hadoop3.1.3(https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz ) ssh网络配置 三台虚拟机都需要做的 卸载原有

  • Hadoop3.1.4伪分布配置2021-03-24 11:31:32

    ref: Hadoop3.1.3安装教程_单机/伪分布式配置_Hadoop3.1.3/Ubuntu18.04(16.04) Tips: 在配置伪分布式Hadoop前,需要创建hadoop用户、安装java环境等,详情可以参考上述厦大的教程或者单机Hadoop2.6.5的安装与使用 下载安装Hadoop3.1.4 Hadoop3.1.4伪分布配置 修改配置文件 core-sit

  • hadoop3.1.3记录2021-03-12 12:03:18

    官网文档 https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html 下载hadoop-3.1.3.tar.gz https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz hadoop组成 yarn架构 ResourceManager (由多个no

  • Hadoop3.1.4在Linux平台上编译2021-02-02 12:58:51

    HDFS核心源码分析 目录 Hadoop源码编译HDFS源码结构分析HDFS核心源码解析 学习目标 掌握编译源码的场景掌握Hadoop源码在Linux平台编译了解Hadoop源码在Windows平台编译理解HDFS工程源码结构基于源码理解掌握HDFS读写流程 Hadoop源码编译 为什么要编译源码 —> Native Librar

  • hadoop3.1.3web页面中创建文件夹或者删除文件夹等出现权限拒绝问题2020-10-07 12:02:09

    一、分析   我在浏览器创建目录和删除目录及文件,为什么会是dr.who,dr.who其实是hadoop中http访问的静态用户名,并没有啥特殊含义,可以在core-default.xml中看到其配置 hadoop.http.staticuser.user=dr.who   我们可以通过修改core-site.xml,配置为当前用户, <property> <name>ha

  • 基于Hadoop3.1.2集群的Hive3.1.2安装(有不少坑)2019-12-02 13:02:03

    前置条件: 已经安装好了带有HDFS, MapReduce, Yarn 功能的 Hadoop集群 链接: ubuntu18.04.2 hadoop3.1.2+zookeeper3.5.5高可用完全分布式集群搭建 上传tar包并解压到指定目录: tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/ronnie 修改hive配置文件: 新建文件夹 mkdir /opt

  • Hadoop3.1.2集群搭建及简单的排序,统计实现2019-08-23 11:55:53

      第一部分:Hadoop集群搭建  1. 安装虚拟机Vmware  基础的命令操作不细说,比如什么是根目录。。。。。  1.也可以从官网下载最新的VMware  2. 安装Linux系统  2.1 本教程用的是Linux为CentOS-7-x86,在VMware点击新建,安装CentOS-7-x86。  2.2 安装完成后,  进入root用户

  • hadoop3.1.1:启动hadoop进程提示ssh 22端口不能连接2019-05-08 17:54:22

    分析:由于在生产环境下,ssh的端口被修改成220,不是使用的默认端口,但是hadoop在启动相应进程的时候,使用的ssh默认端口 解决: 1、命令行(临时),这种方式会导致关闭当前终端,该值失效。 export HADOOP_SSH_OPTS="-p 220" 2、永久修改:把上述的命令添加到hadoop的hadoop-env.sh文件,添加以后

  • centos7.5+hadoop3.1.2实战图文攻略--2019持续更新2019-03-02 11:56:35

    一、单机部署HADOOP:(非分布式) 1、环境准备 (1)虚拟内存dd if=/dev/zero of=swap bs=1M count=2048mkswap swapswapon swapchmod 0600 swap (2)本地解析文件 vim /etc/hosts 192.168.100.1 server 2、安装HADOOP,配置JAVA环境 yum install java-1.8.0-openjdk java-1.8.0-openjdk-devel

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有