当前位置: 首页 > news >正文

中山市企业网站seo营销工具百度广告推广怎么收费

中山市企业网站seo营销工具,百度广告推广怎么收费,自已的电脑怎么做网站,创一个app需要多少钱目录 Java使用Spark入门 环境准备 安装JDK 安装Spark 编写Spark应用程序 创建SparkContext 读取文本文件 计算单词出现次数 运行Spark应用程序 总结 Java使用Spark入门 本文将介绍如何使用Java编写Spark应用程序。Spark是一个快速的、通用的集群计算系统,它可以处理…

目录
Java使用Spark入门
环境准备
安装JDK
安装Spark
编写Spark应用程序
创建SparkContext
读取文本文件
计算单词出现次数
运行Spark应用程序
总结
Java使用Spark入门
本文将介绍如何使用Java编写Spark应用程序。Spark是一个快速的、通用的集群计算系统,它可以处理大规模数据。Spark提供了一个简单的编程接口,可以使用Java、Scala、Python和R等语言编写应用程序。

环境准备
在开始编写Spark应用程序之前,需要准备以下环境:

Java开发环境(JDK)
Spark安装包
安装JDK
如果您还没有安装Java开发环境,请先下载并安装JDK。您可以从Oracle官网下载JDK安装包:https://www.oracle.com/java/technologies/javase-downloads.html

安装Spark
您可以从Spark官网下载Spark安装包:https://spark.apache.org/downloads.html

下载完成后,解压缩安装包到您的本地文件系统中。

编写Spark应用程序
在本节中,我们将编写一个简单的Spark应用程序,该程序将读取一个文本文件并计算单词出现的次数。

创建SparkContext
首先,我们需要创建一个SparkContext对象。SparkContext是Spark应用程序的入口点,它负责与集群通信并管理应用程序的资源。

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;

public class WordCount {
    public static void main(String[] args) {
        // 创建SparkConf对象
        SparkConf conf = new SparkConf()
                .setAppName("WordCount")
                .setMaster("local");

        // 创建JavaSparkContext对象
        JavaSparkContext sc = new JavaSparkContext(conf);

        // TODO: 编写应用程序代码

        // 关闭JavaSparkContext对象
        sc.close();
    }
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
在上面的代码中,我们创建了一个SparkConf对象,并设置了应用程序的名称和运行模式。然后,我们创建了一个JavaSparkContext对象,并传递SparkConf对象作为参数。

读取文本文件
接下来,我们需要读取一个文本文件。Spark提供了多种方式来读取数据,例如从本地文件系统、HDFS、Amazon S3等。

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;

public class WordCount {
    public static void main(String[] args) {
        // 创建SparkConf对象
        SparkConf conf = new SparkConf()
                .setAppName("WordCount")
                .setMaster("local");

        // 创建JavaSparkContext对象
        JavaSparkContext sc = new JavaSparkContext(conf);

        // 读取文本文件
        JavaRDD<String> lines = sc.textFile("input.txt");

        // TODO: 编写应用程序代码

        // 关闭JavaSparkContext对象
        sc.close();
    }
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
在上面的代码中,我们使用JavaSparkContext对象的textFile方法读取了一个名为input.txt的文本文件,并将其存储在一个JavaRDD对象中。

计算单词出现次数
最后,我们需要编写代码来计算单词出现的次数。我们可以使用flatMap和reduceByKey方法来实现这个功能。

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;

import java.util.Arrays;
import java.util.Map;

public class WordCount {
    public static void main(String[] args) {
        // 创建SparkConf对象
        SparkConf conf = new SparkConf()
                .setAppName("WordCount")
                .setMaster("local");

        // 创建JavaSparkContext对象
        JavaSparkContext sc = new JavaSparkContext(conf);

        // 读取文本文件
        JavaRDD<String> lines = sc.textFile("input.txt");

        // 计算单词出现次数
        JavaRDD<String> words = lines.flatMap(line -> Arrays.asList(line.split(" ")).iterator());
        JavaRDD<String> filteredWords = words.filter(word -> !word.isEmpty());
        JavaPairRDD<String, Integer> wordCounts = filteredWords.mapToPair(word -> new Tuple2<>(word, 1))
                .reduceByKey((x, y) -> x + y);
        Map<String, Integer> wordCountsMap = wordCounts.collectAsMap();

        // 输出结果
        for (Map.Entry<String, Integer> entry : wordCountsMap.entrySet()) {
            System.out.println(entry.getKey() + ": " + entry.getValue());
        }

        // 关闭JavaSparkContext对象
        sc.close();
    }
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
在上面的代码中,我们使用flatMap方法将每行文本拆分成单词,并使用filter方法过滤掉空单词。然后,我们使用mapToPair方法将每个单词映射为一个键值对,其中键为单词,值为1。最后,我们使用reduceByKey方法将具有相同键的键值对合并,并计算每个单词出现的次数。最后,我们使用collectAsMap方法将结果收集到一个Map对象中,并输出结果。

运行Spark应用程序
在完成Spark应用程序的编写后,我们可以使用以下命令来运行它:

$ spark-submit --class WordCount --master local WordCount.jar
1
其中,WordCount是应用程序的类名,WordCount.jar是应用程序的打包文件。

总结
本文介绍了如何使用Java编写Spark应用程序。我们首先创建了一个SparkContext对象,然后使用textFile方法读取了一个文本文件,并使用flatMap和reduceByKey方法计算了单词出现的次数。最后,我们使用spark-submit命令运行了应用程序。
————————————————
版权声明:本文为CSDN博主「AcerMr」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_37480069/article/details/130959383

http://www.ds6.com.cn/news/65924.html

相关文章:

  • 软件开发流程有哪些步骤黄山搜索引擎优化
  • 合肥做微网站郑州网络营销策划
  • 做赛事下注网站违法吗如何发布一个网站
  • 广东省网站设计师营销推广的作用
  • 做直播网站一定要idc吗昆山优化外包
  • 关于平面设计的网站百度标注平台怎么加入
  • 网站建设白沟西地那非能提高硬度吗
  • 深圳 seo 外贸网站建设 多语种有道搜索引擎入口
  • 公司自己做网站流程和备案贵州萝岗seo整站优化
  • jsp网站开发视频教程百度搜索推广官网
  • wap网站开发视频教程公司网站建设需要多少钱
  • 电子政务门户网站建设教训seo需要掌握什么技能
  • 制作网站需要哪些成本信息流优化师面试常见问题
  • 做普通网站价格北京seo运营推广
  • 哪个网站可以做代练360优化大师最新版下载
  • 大专软件技术好就业吗东莞营销网站建设优化
  • 15年做那个网站致富网络营销专业是做什么的
  • 分类信息系统网站模板完整的网页设计代码
  • 旅游网站建设的意义定制网站建设推广服务
  • 北京做网站制作的公司网络营销总监岗位职责
  • 试描述一下网站建设的基本流程郑州关键词排名公司电话
  • 濮阳家电网站建设小网站怎么搜关键词
  • 做常识的网站上海牛巨微网络科技有限公司
  • 做投资要关注哪些网站制作网页的工具软件
  • 贵阳仿站定制模板建站30个免费货源网站
  • 商城网站建设服务有什么推广软件
  • 建网站用营业执照吗石家庄seo网站排名
  • 网站建设与运营在线考试桂林seo
  • 网站建设 淘宝详情唯尚广告联盟
  • 在家做私房菜的网站营销策划36计