วันอังคารที่ 18 ตุลาคม พ.ศ. 2559

Apache Spark : First Application

     สำหรับการเขียน Spark Application นั้นเราจะเริ่ม App แรก ด้วย WordCount เนื่องจากเป็นการแสดงถึงการใช้ กระบวณการ MapReduce แบบง่ายๆ และไม่ยากต่อการเข้าใจ

import org.apache.spark.SparkContext
import org.apache.spark.SparkConf

object WordCount{
  def main(args: Array[String]) {
    val sparkConf = new SparkConf()
      .setAppName("WordCount")
      .setMaster("local")

    val sc = new SparkContext(sparkConf)
    val myRDD = sc.textFile("input.txt")
    val wordcount = myRDD.flatMap { x => x.split(" ") }
      .map { x => (x, 1) }
      .reduceByKey(_ + _)
    wordcount.foreach(println)
  }
}

ผลลัพธ์ :

1 ความคิดเห็น:

  1. ขอบคุณมากเลยนะคะ ทำให้เราเข้าใจ Spark มาขึ้น นี่ก็หาอ่านอยากเข้ราใจมากกว่านี้ ตอนนี้เขียน java อยู่ค่ะ อยากเปลี่ยนงาน

    ตอบลบ