当前位置:高等教育资讯网  >  中国高校课件下载中心  >  大学文库  >  浏览文档

厦门大学:《Spark编程基础》课程教学PPT讲义课件(Python版)第4章 RDD编程

资源类别:文库,文档格式:PPT,文档页数:107,文件大小:4.46MB,团购合买
4.1 RDD编程基础 4.1.1 RDD创建 4.1.2 RDD操作 4.1.3 持久化 4.1.4 分区 4.1.5 一个综合实例 4.2 键值对RDD 4.2.1 键值对RDD的创建 4.2.2 常用的键值对RDD转换操作 4.2.3 一个综合实例 4.3 数据读写 4.3.1 文件数据读写 4.3.2 读写HBase数据 4.4 综合案例 4.4.1 案例1:求TOP值 4.4.2 案例2:文件排序 4.4.3 案例3:二次排序
点击下载完整版文档(PPT)

《 Spark编程基础( Python版)》 教材官网:htt/ dblab xmu. edu.cn/ post/spark- python 湿馨提示:编幻灯片母版,可以修改每页PPT的厦大校傲和底部文字 第4章RDD编程 强度PT版:201) 林子雨 厦门大学计算机科学系 E-mail:ziyulin@xmu.edu.cnA 扫一扫访问教材官网主页:p: dblabxmu. edu. cn/post/linziyu 厦门大学计算机科学系 2020版

《Spark编程基础厦门大学计算机科学系 》 厦门大学计算机科学系 林子雨 2020 ziyulin@xmu.edu.cn 版 林子雨 厦门大学计算机科学系 E-mail: ziyulin@xmu.edu.cn 主页: http://dblab.xmu.edu.cn/post/linziyu 第4章 RDD编程 (PPT版本号: 2020年1月版) 温馨提示:编辑幻灯片母版,可以修改每页PPT的厦大校徽和底部文字 《Spark编程基础(Python版)》 教材官网: http://dblab.xmu.edu.cn/post/spark-python/ 扫一扫访问教材官网

提纲 41RDD编程基础 42键值对RDD 4.3数据读写 44综合案例 G DAS 高校大数据课程 公共服务平台 百度搜索厦门大学数据库实验室网站访问平台 Spark编程基础》 厦门大学计算机科学系 ziyulin@xmu.edu.cn

《Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn 提纲 4.1 RDD编程基础 4.2 键值对RDD 4.3 数据读写 4.4 综合案例 百度搜索厦门大学数据库实验室网站访问平台

4.1RDD编程基础 4.1.1RDD创建 4.1.2RDD操作 4.1.3持久化 4.14分区 4.1.5一个综合实例 Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn

《Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn 4.1 RDD编程基础 4.1.1 RDD创建 4.1.2 RDD操作 4.1.3 持久化 4.1.4 分区 4.1.5 一个综合实例

4.1.1RDD创建 1.从文件系统中加载数据创建RDD 2.通过并行集合(列表)创建RDD Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn

《Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn 4.1.1 RDD创建 1. 从文件系统中加载数据创建RDD 2. 通过并行集合(列表)创建RDD

4.1.1RDD创建 1.从文件系统中加载数据创建RDD spark采用 d textFile()方法来从文件系统中加载数据创建RDD 该方法把文件的UR作为参数,这个URI可以是: 本地文件系统的地址 或者是分布式文件系统HDFS的地址 或者是 Amazon s3的地址等等 Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn

《Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn 4.1.1 RDD创建 •Spark采用textFile()方法来从文件系统中加载数据创建RDD •该方法把文件的URI作为参数,这个URI可以是: •本地文件系统的地址 •或者是分布式文件系统HDFS的地址 •或者是Amazon S3的地址等等 1. 从文件系统中加载数据创建RDD

4.1.1RDD创建 (1)从本地文件系统中加载数据创建RDD >>>lines= Sc textFile ("file: ///usr/local/spark/mycode/rdd/word. txt >>> lines. foreach (print) Hadoop is good Spark is fast Spark is better word. txt REDline Hadoop is good " Hadoop is good Spark is fast sctextFile ("Spark is fast" Spark is better Spark is better" 表示一个RDD元素 图从文件中加载数据生成RDD Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn

《Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn 4.1.1 RDD创建 >>> lines = sc.textFile("file:///usr/local/spark/mycode/rdd/word.txt") >>> lines.foreach(print) Hadoop is good Spark is fast Spark is better word.txt RDD(lines) sc.textFile() Hadoop is good Spark is fast Spark is better "Hadoop is good" "Spark is fast" "Spark is better" 表示一个RDD元素 图 从文件中加载数据生成RDD (1)从本地文件系统中加载数据创建RDD

4.1.1RDD创建 (2)从分布式文件系统HDFS中加载数据 >>>ines= Sc textFile hdfs: //localhost: 9000/user/hadoopword. txt") >> ines= sc textFile (/user/hadoop/word. txt) >> lines= sc textFile word. txt") 三条语句是完全等价的,可以使用其中任意一种方式 Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn

《Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn 4.1.1 RDD创建 >>> lines = sc.textFile("hdfs://localhost:9000/user/hadoop/word.txt") >>> lines = sc.textFile("/user/hadoop/word.txt") >>> lines = sc.textFile("word.txt") (2)从分布式文件系统HDFS中加载数据 三条语句是完全等价的,可以使用其中任意一种方式

4.1.1RDD创建 2.通过并行集合(列表)创建RDD 可以调用 SparkContex的 parallelize方法,在 Driver中一个已经存在的集合 (列表)上创建 RDd(rdd) >>>aray=[1,2,3,4,5] >>>rdd=Sc parallelize(array) 2 >>>rdd foreach(print) [12,3,4,5] scparallelize(array) 3 2345 图从数组创建RDD示意图 Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn

《Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn 4.1.1 RDD创建 可以调用SparkContext的parallelize方法,在Driver中一个已经存在的集合 (列表)上创建。 >>> array = [1,2,3,4,5] >>> rdd = sc.parallelize(array) >>> rdd.foreach(print) 1 2 3 4 5 或者,也可以从列表中创建: 图 从数组创建RDD示意图 2. 通过并行集合(列表)创建RDD array RDD(rdd) [1,2,3,4,5] 1 2 3 sc.parallelize(array) 4 5

412RDD操作 1转换操作 2行动操作 3.惰性机制 Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn

《Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn 4.1.2 RDD操作 1. 转换操作 2. 行动操作 3. 惰性机制

412RDD操作 1.转换操作 °对于RDD而言,每一次转换操作都会产生不同的RDD,供 给下一个“转换”使用 转换得到的RDD是惰性求值的,也就是说,整个转换过程 只是记录了转换的轨迹,并不会发生真正的计算,只有遇到 行动操作时,才会发生真正的计算,开始从血缘关系源头开 始,进行物理的转换操作 转换 创建 A B 转换 转换 动作 Input E Output 转换 创建C 转换 Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn

《Spark编程基础》 厦门大学计算机科学系 林子雨 ziyulin@xmu.edu.cn 4.1.2 RDD操作 •对于RDD而言,每一次转换操作都会产生不同的RDD,供 给下一个“转换”使用 •转换得到的RDD是惰性求值的,也就是说,整个转换过程 只是记录了转换的轨迹,并不会发生真正的计算,只有遇到 行动操作时,才会发生真正的计算,开始从血缘关系源头开 始,进行物理的转换操作 Input A B C D E F Output 动作 转换 转换 转换 转换 转换 创建 创建 1. 转换操作

点击下载完整版文档(PPT)VIP每日下载上限内不扣除下载券和下载次数;
按次数下载不扣除下载券;
24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
共107页,可试读30页,点击继续阅读 ↓↓
相关文档

关于我们|帮助中心|下载说明|相关软件|意见反馈|联系我们

Copyright © 2008-现在 cucdc.com 高等教育资讯网 版权所有