ICode9

精准搜索请尝试: 精确搜索
  • IDEA配置JAVA及SCALA环境2022-01-23 17:35:45

    阅文时长 | 0.11分钟 字数统计 | 189.6字符 主要内容 | 1、引言&背景 2、解决方案 3、声明与参考资料 『IDEA配置JAVA及SCALA环境』 编写人 | SCscHero 编写时间 | 2022/1/23 AM1:1 文章类型 | 系列 完成度 | 已完成 座右铭 每一个伟大的事业,都有一个微不足道的

  • Scala之集合2022-01-22 20:30:27

    目录 一、集合简介 二、数组 1.不可变数组 2.可变数组 3.不可变数组与可变数组以及Set的转换 4.多维数组 三、Seq集合 1.不可变List 2.可变ListBuffer 四、Set集合 1.不可变Set 2.可变Set 五、Map集合 1.不可变集合 2.可变集合 六、元组 七、队列 八、并行集合 一、集合简介 (1)Sc

  • Flink支持的数据类型2022-01-22 20:00:44

    5.4.1 基础数据类型 Flink支持所有的Java和Scala基础数据类型,Int, Double, Long, String, … DataStream<Integer> numberStream = env.fromElements(1, 2, 3, 4); numberStream.map(data -> data * 2); 5.4.2 Java和Scala元组(Tuples) java不像Scala天生支持元组Tuple类型,java

  • Scala 简单分词求和2022-01-20 20:32:54

    1 package chapter07 2 3 object Test17_CommonWordCount { 4 def main(args: Array[String]): Unit = { 5 val stringList: List[String] = List( 6 "hello", 7 "hello world", 8 "hello scala", 9 &

  • Scala之类与对象(单例、apply方法)2022-01-20 19:57:59

    目录 一、类 二、属性 三、单例对象(伴生对象) 四、apply方法 五、单例模式的实现 一、类 语法: [修饰符] class 类名 { 类体 } (1)Scala语法中默认就是public (2)一个Scala源文件可以包含多个类 class stu { } 二、属性 属性是类的一个组成部分 语法: [修饰符] var|val 属性名称 [:类

  • Scala Reduce操作(简化归约)reduce和fold2022-01-20 17:03:05

    1 package chapter07 2 3 object Test15_HighLevelFunction_Reduce { 4 def main(args: Array[String]): Unit = { 5 val list = List(1,2,3,4) 6 7 // 1. reduce 8 println(list.reduce( _ + _ )) 9 println(list.reduceLeft(_ + _)) 10 pr

  • Scala 元组Tuple2022-01-19 21:33:47

    1 package chapter07 2 3 object Test10_Tuple { 4 def main(args: Array[String]): Unit = { 5 // 1. 创建元组 3元祖就是有3个元素 6 val tuple: (String, Int, Char, Boolean) = ("hello", 100, 'a', true) 7 println(tuple) 8 9 //

  • Scala 可变列表ListBuffer2022-01-19 12:04:10

    1 package chapter07 2 3 import scala.collection.mutable.ListBuffer 4 5 object Test05_ListBuffer { 6 def main(args: Array[String]): Unit = { 7 // 1. 创建可变列表 8 val list1: ListBuffer[Int] = new ListBuffer[Int]() 9 val list2 = ListB

  • Scala 可变数组ArrayBuffer2022-01-18 23:02:54

    1 package chapter07 2 3 import scala.collection.mutable 4 import scala.collection.mutable.ArrayBuffer 5 6 object Test02_ArrayBuffer { 7 def main(args: Array[String]): Unit = { 8 // 1. 创建可变数组 9 val arr1: ArrayBuffer[Int] = new Array

  • Scala之函数2022-01-18 20:33:43

    目录 一、函数 二、函数和方法的区别 三、函数的定义格式 四、函数的参数 五、函数至简原则 六、高阶函数 七、匿名函数 八、函数柯里化&闭包 九、递归 十、控制抽象 十一、惰性函数 一、函数 def hello(x:Int,y:Int): Int ={ x + y } 从左到右一次为定义函数关键字 函数

  • Scala 特质自身类型2022-01-18 19:33:50

    1 package chapter06 2 3 object Test16_TraitSelfType { 4 def main(args: Array[String]): Unit = { 5 val user = new RegisterUser("alice", "123456") 6 user.insert() 7 } 8 } 9 10 // 用户类 11 class User(val name: String,

  • Scala之流程控制语句2022-01-18 18:59:46

    目录 一、分支控制语句——if else 二、For循环控制 三、while与do...while语句 四、循环中断 一、分支控制语句——if else 基本语法 单分支 if (条件表达式) { 执行代码块 } 双分支 if (条件表达式) { 执行代码块1 } else { 执行代码块2 } 多分支 if (条件表达式1) {

  • Scala 惰性加载2022-01-18 13:00:55

    1 package com.atguigu.chapter04 2 3 object Test_Lazy { 4 def main(args: Array[String]): Unit = { 5 lazy val result : Int = sum(13,12) 6 println("1. 函数调用") 7 println("2. result = " + result) 8 } 9 def sum(a:

  • 大三寒假学习 spark学习 Scala面向对编程 模式匹配2022-01-15 20:00:50

    最常见的模式匹配是match语句,match语句用在当需要从多个分支中进行选择的场景。      通配符_相当于Java中的default分支。 match结构中不需要break语句来跳出判断,Scala从前往后匹配到一个分支后,会自动跳出判断。 另外在模式匹配的case语句中可以使用变量 val coloNum=4 val

  • 大三寒假学习 spark学习 Scala面向对编程 对象(apply方法与update方法)2022-01-15 12:31:06

    Apply方法:    Scala自动调用Array类的伴生对象Array中的一个称为apply的方法,来创建一个Array对象myStrArr。 apply方法调用约定:用括号传递给类实例或单例对象名一个或多个参数时,Scala 会在相应的类或对象中查找方法名为apply且参数列表与传入的参数一致的方法,并用传入的参数来

  • Scala之变量与数据类型2022-01-14 20:59:53

    目录 一、变量与常量 二、标识符 注:scala关键字 三、字符串 四、键盘输入 五、数据类型  1.整数类型 2.浮点类型 3.字符类型 4.布尔类型 5.Unit类型、Null类型和Nothing类型 六、类型转换 1.数值类型自动转换 2.强制类型转换  3.数值类型和String类型间转换 一、变量与常量  

  • Centos8下安装Spark2022-01-13 17:00:48

    1、下载压缩包 命令:wget https://downloads.lightbend.com/scala/2.11.8/scala-2.11.8.tgz 2、解压缩包 命令:tar -xzvf scala-2.11.8.tgz 3、环境变量配置 export JAVA_HOME=/opt/java/jdk1.8.0_301 export HADOOP_HOME=/opt/Hadoop/hadoop-2.7.3 export HADOOP_CONF_DIR

  • 在Spark Scala/Java应用中调用Python脚本,会么?2022-01-13 15:03:19

    摘要:本文将介绍如何在 Spark scala 程序中调用 Python 脚本,Spark java程序调用的过程也大体相同。 本文分享自华为云社区《【Spark】如何在Spark Scala/Java应用中调用Python脚本》,作者: 小兔子615 。 1.PythonRunner 对于运行与 JVM 上的程序(即Scala、Java程序),Spark 提供了 Python

  • Scala函数式编程高级2022-01-09 23:33:25

    [toc] ## Scala函数式编程高级 > 先看一个需求:>> 给你一个集合`val list = List(1, 2, 3, 4, "abc")` ,请完成如下要求:>> 1. 将集合list中的所有数字+1,并返回一个新的集合。> 2. 要求忽略掉非数字的元素,即返回的新的集合形式为 `(2, 3, 4, 5)`>> 解决方式:>> 1. filter和map返回新的

  • Scala项目-客户信息管理系统2022-01-09 23:33:00

    [toc] ## Scala项目-客户信息管理系统 ### 1. 项目开发流程 ![项目开发流程](assets/项目开发流程.png) ### 2. 项目需求分析 > 1. 模拟实现基于文本界面的《客户信息管理系统》。> 2. 该系统Scala能够实现对客户对象的插入、修改和删除、显示,查询(用ArrayBuffer或者ListBuffer实现

  • Scala递归编程练习2022-01-09 23:32:29

    [toc] ## Scala递归编程练习 > Scala 是运行在 Java 虚拟机(Java Virtual Machine)之上,因此具有如下特点:>> 1. 轻松实现和丰富的 Java 类库互联互通。> 2. 它既支持面向对象的编程方式,又支持函数式编程。> 3. 它写出的程序像动态语言一样简洁,但事实上它确是严格意义上的静态语言。>

  • Scala并发编程模型Akka2022-01-09 23:31:54

    [toc] ## Scala并发编程模型Akka ### 1. Akka简介 #### Akka是什么? > 1. Akka是JAVA虚拟机JVM平台上构建高并发、分布式和容错应用的工具包和运行时,你可以理解成Akka是编写并发程序的框架。> 2. Akka用Scala语言写成,同时提供了Scala和JAVA的开发接口。> 3. Akka主要解决的问题是:可

  • Scala泛型和上下界2022-01-09 23:31:46

    [toc] ## Scala泛型和上下界 ### 1. Scala泛型 > 1. 如果我们要求函数的参数可以接受任意类型。可以使用`泛型`,这个类型可以代表任意的数据类型。 > 2. 例如 List,在创建 List 时,可以传入整型、字符串、浮点数等等任意类型。那是因为 List 在 类定义时引用了泛型。`比如在Java中:pub

  • Scala模式匹配2022-01-09 20:01:59

    模式匹配 Scala中的模式匹配类似于Java中的switch语法。 但是Scala从语法中补充了更多的功能,所以更加强大 基本语法 模式匹配语法中,采用match关键字声明,每个分支采用case关键字进行声明,当需要匹配时,会从第一个case分支开始,如果匹配成功,那么执行对应的逻辑代码,如果匹配不成功,继续

  • Scala scala函数式编程2022-01-09 18:36:35

    面向对象编程 解决问题,分解对象,行为,属性,然后通过对象的关系以及行为的调用来解决问题。 Scala 语言是一个完全面向对象编程语言。 万物皆对象 对象的本质:对数据和行为的一个封装 函数式编程 解决问题时,将问题分解成一个一个的步骤,将每个步骤进行封装(函数),通过调用 这些封装好的步

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有