import org.apache.spark.{SparkConf, SparkContext}
object RDDExample {
def main(args: Array[String]): Unit = {
// 创建一个SparkConf对象和SparkContext对象
val conf = new SparkConf().setAppName("RDD操作").setMaster("local")
val sc = new SparkContext(conf)
// 通过textFile()方法读取数据
val rdd_data = sc.textFile("Data01.txt")
// 将每一行数据按空格分隔,并将结果存储到新的rdd中
val rdd_words = rdd_data.flatMap(line => line.split(" "))
// 计算每个单词出现的次数,并将结果存储到新的rdd中
val rdd_word_count = rdd_words.map(word => (word, 1)).reduceByKey(_ + _)
// 输出结果
rdd_word_count.foreach(println)
}
}