spark 小demo

本文是利用scala进行wordcount的demo,环境是scala 2.11.8、 esclipse for scala 、spark 2.1.0 hadoop 2.7.3

1、首先命令行形式运行demo

(1)在你hdfs下的随便一个文件夹新建一个txt文件,做被统计文件夹,这里我是在tmp文件夹下新建的

hdfs dfs -touchz /tmp/input.txt

然后在文件里写进点东西

echo "hello i am a boy and you? haha you is a girl hahaha" | hdfs dfs -appendToFile - /tmp/input.txt

看下是不是真的写成功了,以防没有写成功运行的时候报错

 hdfs dfs -cat /tmp/input.txt

en,真的写成功了哎

spark 小demo

开始运行吧!

打开spark-shell

spark 小demo

依次运行:

var file = sc.textFile("hdfs:/tmp/input.txt")

var rdd = file.flatMap(line => line.split(" ")).map(word => (word,1)).reduceByKey(_+_)

 rdd.collect()

 rdd.foreach(println)

运行完毕就会发现:又成功了哎

spark 小demo

上面是命令行运行,下面介绍一下jar包运行

2、

(1)首先将你集群的spark安装目录下jar文件夹下的所有jar包导出,在eslipse新建scala项目后将你的导出jar包到导入项目中,并且将你的scala Complier 改为2.11以和你的整体环境保持一致,Scala Complier和你的java Complier一样,都在Proprietary下,找一下就可以找到,这些完成后就可以写你的wordcount了

(2)编写wordcount

package edu.test

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._


object wordcount {
  def main(args: Array[String]) {
    if (args.length < 1) {
      System.err.println("Usage: <file>")
      System.exit(1)
    }

    val conf = new SparkConf()
    val sc = new SparkContext(conf)
    val line = sc.textFile(args(0))

    line.flatMap(_.split(" ")).map((_, 1)).reduceByKey(_+_).collect().foreach(println)

    sc.stop()
  }
}

这里是wordcount的代码,和刚才命令行的其实是一致的,然后写完之后,没有错误了就右键export将其导出为jar包

spark 小demo

将jar包上传到你的spark集群,我是上传在了/opt/project目录下,spark 小demo

上传成功就可以运行了,这里运行我只对必要的参数进行了设置,非必要的参数没有进行设置

spark-submit --name wordcount --class edu.test.wordcount /opt/projecount.jar  hdfs:/tmp/input.txt

运行之后发现命令行输出了要统计的那些字符就说明你的运行成功了,就可以继续用这种方法去写更多的小demo了

附:spark-submit的参数说明

spark 小demospark 小demo