![]()
内容推荐 本书是一本为Scala和Spark初学者准备的入门书籍,很适合准备踏入大数据开发领域的新手和其他对此感兴趣的读者阅读。本书在内容上遵循从宏观到微观、由浅入深递进式的讲解方式,涵盖了Spark入门开发所需的Scala基础知识。具体来说,本书按照如下顺序进行介绍。 首先,前三章从宏观上介绍了Scala语言,包括初识Scala、安装Scala及使用Scala Shell工具。 其次,第四章到第十二章是本书的重点,详细介绍了与Spark开发密切相关的Scala语法,包括变量、数据类型、条件语句、代码块、函数、集合、循环、类和包,以及与异常处理相关的内容,每一章都对某个语法点进行深入探索。第十三章介绍了如何把写好的Scala代码进行编译和打包。 最后,第十四章介绍了Spark的入门实践,将前面章节所学到的Scala知识运用到Spark开发中。 此外,本书提供了丰富生动的代码示例和章末练习,如果读者能够加以实践并思考,一定会收获颇丰! 目录 第一章 Scala语言 初识Scala 为什么要学习Scala Scala和Java Scala和Java的关系 与Java库进行交互 Scala和Java的代码量 Scala:一种静态类型语言 Apache Spark与Scala Scala的性能 学习Apache Spark 第二章 安装Scala 在系统中检查Scala安装状态 检查Java Development Kit(JDK) 安装状态 安装Oracle JDK 在Windows上安装Scala 验证Scala安装状态 在Linux中安装Scala 第三章 使用Scala Shell 从Scala Shell中获得帮助 Scala REPL的hello world 一步步理解Scala REPL中的hello world 使用Scala REPL的数据类型的 高级特性 Scala REPL中的粘贴模式 Scala REPL中检索历史记录 Scala REPL的自动补全特性 从Scala REPL退出 第四章 变量 从Scala中的变量开始 Scala变量的不可变性 定义可变和不可变的Scala变量 Scala中强调不可变性的原因 可变性和类型安全的注意事项 为变量指定类型与类型推断 Scala标识符规则和命名规范 第五章 数据类型 Scala的类型层次结构 Boolean类型 String类型 多行字符串 字符串操作 Scala中的特殊类型 Unit类型 Any类型 Scala中的类型转换 第六章 条件语句 布尔表达式 在Scala中使用条件语句 逐步理解条件语句 嵌套的If/Else语句 If/Else作为三元运算符 模式匹配 第七章 代码块 Scala中的代码块 使用代码块的注意事项 代码块和If/Else语句 第八章 函数 为什么要使用函数 理解函数 Scala中的函数 函数调用 有关函数定义的说明 多个参数的函数 位置参数 函数中参数的默认值 无参函数 单行函数 在函数中使用return语句 将函数作为参数传递 匿名函数 第九章 集合 现实中的集合示例 理解列表 索引列表元素 在列表中能存储什么 被广泛使用的列表操作 创建集合 理解Map集合 索引一个Map集合 Map中key的唯一性 创建Map集合的其他方式 操作Map 用函数风格迭代Map 理解元组 索引元组 遍历元组 创建元组的另一种方法 理解可变集合 与可变集合有关的注意事项 可变的Map 使用嵌套的集合 第十章 循环 Scala中循环的类型 for循环 while循环 比较for循环和while循环 中断循环 第十一章 类和包 Scala中的类和对象 创建Scala的类和对象 多属性值和注意事项 对类属性使用val关键字 对类属性使用var关键字 对类属性既不使用val也不使用var 关键字 单例对象 Case类 Case类实践 类中的相等性检查 同时使用Case类和集合 类和包 避免命名空间冲突 引入包 第十二章 异常处理 Scala异常处理的基础 类型推断的含义和异常处理 使用Try、Catch和Finally 第十三章 编译和打包 Scala开发生命周期 Scala开发生命周期实践 Scala编译构建工具(SBT) 在Windows上使用SBT 在SBT上构建.sbt 使用SBT管理依赖 使用SBT创建可执行的Scala 应用程序 对可执行的Scala应用程序使用 Scala应用特性 Scala应用程序的Maven文件夹 结构 在Scala应用程序中创建多个类 并使用它们 编译Scala应用程序 以JARS的形式打包Scala 应用程序 转换到IDE 安装IntelliJ IDEA IntelliJ IDEA插件安装 IntelliJ IDEA导入项目 第十四章 你好,Apache Spark 回顾Spark 分布式计算引擎 Spark与Hadoop Spark与YARN Spark进程 Spark的抽象 Spark的惰操作模式 使用Scala开发Spark 在Databricks中配置Spark环境 用Scala开发Apache Spark 将RDD转换为Dataframe 加载数据到Databricks中 将RDD转换为Dataframe 使用SBT创建Spark应用 在IntelliJ IDEA中创建一个新的 项目 为Uber JARs管理SBT插件 在SBT中管理Apache Spark 依赖 Spark应用程序代码 结论及展望 |