ICode9

精准搜索请尝试: 精确搜索
  • 你会使用面向切面编程吗(springboot超详细)?2021-04-19 18:54:05

    springboot中如何面向切面编程?一.什么是面向切面编程二.AOP中的几个术语1. 连接点2. 切入点3. 通知(增强)4. 切面5.切入点表达式举例三.如何使用1.首先肯定是要引入相关依赖啦!!2.然后创建一个增强类3.之后就是写扩展的方法了一.什么是面向切面编程面向切面编程(AOP):利用AOP可以

  • 大数据学习总结(2021版)---Yarn(未完)2021-04-15 12:02:10

    Yarn 第 0 章 开发需重点掌握0.1 队列运行原理0.2 Yarn常用命令0.3 核心参数配置0.4 配置容量调度器和公平调度器。0.5 tool接口使用。 第 1 章 Yarn 资源调度器1.1 Yarn 基础架构1.2 Yarn 工作机制1.3 Yarn 调度器和调度算法1.4 Yarn 常用命令 第 2 章 Yarn 案例实操2.1 Y

  • 集群常用脚本2021-04-14 16:32:00

    一、集群时间同步修改脚本 1)在/home/atguigu/bin目录下创建脚本dt.sh [atguigu@hadoop102 bin]$ vim dt.sh 2)在脚本中编写如下内容 #!/bin/bash log_date=$1 for i in hadoop102 hadoop103 hadoop104 do ssh -t $i "sudo date -s $log_date" done 说明(ssh -t):https://www.cnb

  • 20210408学习笔记---定好做事的目标,并提供奖励,让自己能高效完成。2021-04-09 10:03:25

    做事原则: 1.只做今天重要的事,并把他们列出来让自己能看见,不重要的就记都不要记。否则你没法集中精力。 2.设置奖励,激励自己可以超高效率完成,包括自己不喜欢的事情也能快速完成。不喜欢的东西,快速完成总比啥也不做好。 3.只花50%的时间,学习20%重要的事情,其他不重要的80%全部放弃,那

  • JAVA WEB专栏——如何从零开始优雅整合SpringBoot框架与Kafka消息中间件2021-03-26 22:30:09

    由于今年的项目基本都是B/S架构的分布式软件设计,因此被逼无奈只能开始自学JAVA WEB后端进行开发,后续会陆续总结一些技术文档,便于复现与归档。 自学教程参见B站尚硅谷大数据生态圈开发课程,https://www.bilibili.com/video/BV17t411W7wZ 真就B站大学,B站流批! 优雅整合Spring

  • 大数据技术之数据仓库工具Hive安装2021-03-26 20:01:03

    目录 1 Hive 安装地址2Hive 安装部署2.1 安装 Hive2.2 启动并使用 Hive 3MySQL 安装4 Hive 元数据配置到 MySQL4.1 拷贝驱动 5 使用元数据服务的方式访问 Hive6 使用 JDBC 方式访问 Hive7 Hive 常用交互命令8 Hive 其他命令操作9 Hive 常见属性配置9.1 Hive 运行日志信息配

  • 整合谷粒在线教育登录注册前后端2021-02-06 18:58:48

    整合谷粒在线教育登录注册前后端 一、在nuxt环境中安装插件 1、安装element-ui 和 vue-qriously (1)执行命令安装 npm install element-ui npm install vue-qriously     2、修改配置文件 nuxt-swiper-plugin.js,使用插件 nuxt-swiper-plugin.js import Vue from 'vu

  • Superset操作指南2021-01-12 23:29:04

    1 Superset概述 superset是一个开源的、现代的、轻量级BI分析工具,支持多种数据源、拥有丰富的图表展示形式、支持自定义仪表盘。 superset能够对接常用的大数据分析工具,如Hive、Kylin、Durid等,支持自定义仪表盘,可作为数仓的可视化工具。 2 Superset安装部署 superset是

  • Spark介绍与安装2021-01-08 12:57:05

    Spark介绍与安装 Spark概述什么是SparkSpark内置模块Spark特点 Spark运行模式Spark安装地址重要角色Driver(驱动器)Executor(执行器) Local模式Local模式安装使用 Standalone模式概述安装使用JobHistoryServer配置HA配置 Yarn模式(重点)概述安装使用日志查看Mesos模式(了解)几种

  • hadoop集群搭建2020-12-31 19:34:18

    一、集群目录文件分发 1. scp(secure copy)安全拷贝 1)scp定义: scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2) (2)基本语法 scp -r $pdir/$fname $user@hadoop$host:$pdir/$fname 命令 递归 要拷贝的文件路径/名称 目

  • Hadoop学习视频心得(三)2020-12-28 21:59:57

    1、NameNode(NN)和Secondary NameNode(2NN)工作机制 1)、思考:NameNode中的元数据是存储在哪里的? ​ 首先,我们做个假设,如果存储在NameNode节点的磁盘中,因为经常需要进行随机访问,还有响应客户请求,必然是效率过低。因此,元数据需要存放在内存中。但如果只存在内存中,一旦断电,元数据丢失

  • Spring学习笔记之jdbcTemplate操作数据库2020-12-23 16:30:50

    一、介绍JdbcTemplate       Spring框架对JDBC进行封装,使用JdbcTemplate可以方便实现对数据库操作,接下来将会详细介绍如何通过Spring框架中的JdbcTemplate对数据库进行操作。 二、准备工作       1.在IDEA里新建一个Java工程,工程名自取,这里我们取“Spring5_jdbcT

  • SpringCloud Hoxton版 + SpringCloud alibaba学习笔记(4)-- OpenFeign服务接口调用2020-12-21 13:03:15

    一、概述 1、OpenFeign是什么 Feign是一个声明式的web服务客户端,让编写web服务客户端变得非常容易,只需创建一个接口并在接口上添加注解即可 https://github.com/spring-cloud/spring-cloud-openfeign 2、能干嘛 3、Feign和OpenFeign两者区别 二、OpenFeign使用步骤 接口+

  • @ComponentScan2020-12-08 20:32:59

    1. @ComponentScan(basePackages = {“com.atguigu”})报错,提示“delete element" 将扫描包设置成启动类的上上级目录。 @ComponentScan(basePackages = {"com.atguigu"})

  • Spark 12020-12-01 19:58:02

    Spark概述 什么是Spark 回顾:Hadoop主要解决,海量数据的存储和海量数据的分析计算。 Spark是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。 Hadoop与Spark历史 Hadoop的Yarn框架比Spark框架诞生的晚,所以Spark自己也设计了一套资源调度框架。 Hadoop与Spark框架对

  • Hadoop2020-11-09 19:32:47

    [atguigu@hadoop101 hadoop-2.7.2]$ ll 总用量 52 drwxr-xr-x. 2 atguigu atguigu 4096 5月 22 2017 bin drwxr-xr-x. 3 atguigu atguigu 4096 5月 22 2017 etc drwxr-xr-x. 2 atguigu atguigu 4096 5月 22 2017 include drwxr-xr-x. 3 atguigu atguigu 4096 5月 22 2017

  • Azkaban基础(四):Azkaban 实战(二)2020-11-09 11:31:29

    4 Java操作任务 使用Azkaban调度java程序 1)编写java程序   import java.io.IOException; public class AzkabanTest { public void run() throws IOException { // 根据需求编写具体代码 FileOutputStream fos = new FileOutputStream("/opt/module/azkab

  • 尚硅谷大数据技术之Shell(V3.0)2020-11-06 09:35:23

    尚硅谷大数据技术之Shell (作者:尚硅谷大数据研发部)   版本:V3.0   第1章 Shell概述   1)Linux提供的Shell解析器有: [atguigu@hadoop101 ~]$ cat /etc/shells /bin/sh /bin/bash /sbin/nologin /bin/dash /bin/tcsh /bin/csh 2)bash和sh的关系 [atguigu@hadoop101 bin]$ ll | grep

  • Hadoop基础(五十四):基于centos搭建Hadoop3.x完全分布式运行模式2020-10-09 15:00:25

    0 简介 分析: 1)准备3台客户机(关闭防火墙、静态ip、主机名称) 2)安装JDK 3)配置环境变量 4)安装Hadoop 5)配置环境变量 6)配置集群 7)单点启动 8)配置ssh 9)群起并测试集群 1 虚拟机准备   2 编写集群分发脚本xsync   1)scp(secure copy)安全拷贝   (1)scp定义:   scp可以实现服务器与服务器之

  • Flink实例(二): 自定义source2020-09-16 23:02:22

    1 工程目录 SensorReading package com.atguigu.flink.bean case class SensorReading( id: String, timestamp: Long, timepreture: Double ) SensorSource packag

  • 离线电商数仓(六十)之元数据管理(八)Ranger (三)使用Ranger对Hive进行权限管理2020-09-06 12:32:33

    1.1 权限控制初体验 查看默认的访问策略,此时只有admin用户拥有对所有库、表和函数的访问权限     验证:使用atguigu用户尝试进行登录,登录成功后,执行查询语句: 之后使用admin用户进行登录,可以完成Hive的所有操作     1.2 为用户配置权限 例如为atguigu用户配置default库emp和d

  • 大数据实战(十三):电商数仓(六)之用户行为数据采集(六)组件安装(二)Zookeeper安装2020-08-14 20:31:18

    1 安装ZK 集群规划   服务器hadoop102 服务器hadoop103 服务器hadoop104 Zookeeper Zookeeper Zookeeper Zookeeper 2.2 ZK集群启动停止脚本 1)在hadoop102的/home/atguigu/bin目录下创建脚本   [atguigu@hadoop102 bin]$ vim zk.sh   在脚本中编写

  • 2020年8月10日 包2020-08-10 17:01:44

    /* 包: 1、包的作用 (1)避免类的重名问题 有了包后,类的名称就比较长了,类的全名称就变为了:包.类名 回忆: java.util.Scanner :Scanner类的全名称 java.lang.String:String类的全名称 java.lang.System:System类的全名称 java.lang.Math:Math类的全名称 (2)分类组织管理众

  • shell笔记2020-07-27 04:00:56

    linux安装包管理 1.rpm包管理   2.yum包管理   配置yum源:   gpgcheck=1 非必填项,如果是1,就必须要写gpgkey,会拿这个key和远程的对比。   yum源baseurl有2种:一种是用在线http的,一种是用本地的 在线的yum:会从这个http地址上去找要安装的包   本地yum源"     第1章 Shell概述

  • Flume基础(十三):自定义 Sink2020-07-26 23:00:13

    介绍   Sink 不断地轮询 Channel 中的事件且批量地移除它们,并将这些事件批量写入到存储或索引系统、或者被发送到另一个 Flume Agent。   Sink 是完全事务性的。在从 Channel 批量删除数据之前,每个 Sink 用 Channel 启动一个事务。批量事件一旦成功写出到存储系统或下一个 Flu

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有