当前位置: 首页 > news >正文

室内设计软件下载seo是什么公司

室内设计软件下载,seo是什么公司,自己有域名怎么做网站,德令哈网站建设公司文章目录 一、RDD#flatMap 方法1、RDD#flatMap 方法引入2、解除嵌套3、RDD#flatMap 语法说明 二、代码示例 - RDD#flatMap 方法 一、RDD#flatMap 方法 1、RDD#flatMap 方法引入 RDD#map 方法 可以 将 RDD 中的数据元素 逐个进行处理 , 处理的逻辑 需要用外部 通过 参数传入 map…

文章目录

  • 一、RDD#flatMap 方法
    • 1、RDD#flatMap 方法引入
    • 2、解除嵌套
    • 3、RDD#flatMap 语法说明
  • 二、代码示例 - RDD#flatMap 方法





一、RDD#flatMap 方法




1、RDD#flatMap 方法引入


RDD#map 方法 可以 将 RDD 中的数据元素 逐个进行处理 , 处理的逻辑 需要用外部 通过 参数传入 map 函数 ;

RDD#flatMap 方法在 RDD#map 方法 的基础上 , 增加了 " 解除嵌套 " 的作用 ;

RDD#flatMap 方法 也是 接收一个 函数 作为参数 , 该函数被应用于 RDD 中的每个元素及元素嵌套的子元素 , 并返回一个 新的 RDD 对象 ;


2、解除嵌套


解除嵌套 含义 : 下面的的 列表 中 , 每个元素 都是一个列表 ;

lst = [[1, 2], [3, 4, 5], [6, 7, 8]]

如果将上述 列表 解除嵌套 , 则新的 列表 如下 :

lst = [1, 2, 3, 4, 5, 6, 7, 8]

RDD#flatMap 方法 先对 RDD 中的 每个元素 进行处理 , 然后再 将 计算结果展平放到一个新的 RDD 对象中 , 也就是 解除嵌套 ;

这样 原始 RDD 对象 中的 每个元素 , 都对应 新 RDD 对象中的若干元素 ;


3、RDD#flatMap 语法说明


RDD#flatMap 语法说明 :

newRDD = oldRDD.flatMap(lambda x: [element1, element2, ...])

旧的 RDD 对象 oldRDD 中 , 每个元素应用一个 lambda 函数 , 该函数返回多个元素 , 返回的多个元素就会被展平放入新的 RDD 对象 newRDD 中 ;


代码示例 :

# 将 字符串列表 转为 RDD 对象
rdd = sparkContext.parallelize(["Tom 18", "Jerry 12", "Jack 21"])# 应用 map 操作,将每个元素 按照空格 拆分
rdd2 = rdd.flatMap(lambda element: element.split(" "))




二、代码示例 - RDD#flatMap 方法



代码示例 :

"""
PySpark 数据处理
"""# 导入 PySpark 相关包
from pyspark import SparkConf, SparkContext
# 为 PySpark 配置 Python 解释器
import os
os.environ['PYSPARK_PYTHON'] = "Y:/002_WorkSpace/PycharmProjects/pythonProject/venv/Scripts/python.exe"# 创建 SparkConf 实例对象 , 该对象用于配置 Spark 任务
# setMaster("local[*]") 表示在单机模式下 本机运行
# setAppName("hello_spark") 是给 Spark 程序起一个名字
sparkConf = SparkConf() \.setMaster("local[*]") \.setAppName("hello_spark")# 创建 PySpark 执行环境 入口对象
sparkContext = SparkContext(conf=sparkConf)# 打印 PySpark 版本号
print("PySpark 版本号 : ", sparkContext.version)# 将 字符串列表 转为 RDD 对象
rdd = sparkContext.parallelize(["Tom 18", "Jerry 12", "Jack 21"])# 应用 map 操作,将每个元素 按照空格 拆分
rdd2 = rdd.flatMap(lambda element: element.split(" "))# 打印新的 RDD 中的内容
print(rdd2.collect())# 停止 PySpark 程序
sparkContext.stop()

执行结果 :

Y:\002_WorkSpace\PycharmProjects\pythonProject\venv\Scripts\python.exe Y:/002_WorkSpace/PycharmProjects/HelloPython/hello.py
23/07/31 23:02:58 WARN Shell: Did not find winutils.exe: java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
23/07/31 23:02:59 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
PySpark 版本号 :  3.4.1
['Tom', '18', 'Jerry', '12', 'Jack', '21']Process finished with exit code 0

在这里插入图片描述

http://www.ds6.com.cn/news/121225.html

相关文章:

  • 没有域名的时候建网站万维网域名注册查询
  • 建一个快讯网站要多少钱关键词快速排名seo怎么优化
  • 怎样做水族馆网站项目优化seo
  • 娄底企业网站建设制作百度搜索关键词排名人工优化
  • 天津网站在哪里建设全网营销一站式推广
  • 网站ui设计方案汕头网站建设推广
  • 计算机专业网站建设实训日志国际形势最新消息
  • 网站开发合同审查个人博客登录入口
  • 东莞搜索排名提升seo优化排名易下拉效率
  • appcan 手机网站开发广东seo外包服务
  • 网站开发兼职平台营销管理系统
  • 外贸网站做多少钱的建站小程序
  • 郑州网站建设招聘广告资源对接平台
  • 河北建设厅网站登录密码错误链接优化方法
  • 网站做qq链接代码2023年7月最新新闻摘抄
  • 天蝎做网站建网站百度下载正版
  • 如何编辑企业网站网站seo设计
  • 客户管理系统入口建站网站关键词优化
  • 如何加入客服外包公司宁波seo在线优化
  • 做程序题的国外网站网盘app下载
  • 如何做网站路径分析重庆seo怎么样
  • 外贸做编织袋常用网站厦门人才网官网招聘信息网
  • 制作营销型网站的公司专业网站推广优化
  • 30天网站建设 视频中央今日头条新闻
  • 婴儿做相册的网站首页关键词优化公司
  • 建筑案例的网站有哪些方面百度后台登录
  • 天津开发区建网站公司郑州聚商网络科技有限公司
  • 响水做网站哪家公司好陕西网页设计
  • 怎样做批发网站病毒营销案例
  • 电商网站用什么框架做友情链接系统