摘要:精簡的命令一次性展示出文本內容將文本中空格使用回車鍵替換串聯(lián)排序所有指定文件并將結果寫到標準輸出。
精簡的Shell
cat /home/sev7e0/access.log | tr -s " " " " | sort | uniq -c | sort -r | awk "{print $2, $1}" #cat 命令一次性展示出文本內容 #tr -s " " " " 將文本中空格使用回車鍵替換 #sort 串聯(lián)排序所有指定文件并將結果寫到標準輸出。 #uniq -c 從輸入文件或者標準輸入中篩選相鄰的匹配行并寫入到輸出文件或標準輸出,-c 在每行前加上表示相應行目出現(xiàn)次數(shù)的前綴編號 #sort | uniq -c 同時使用用來統(tǒng)計出現(xiàn)的次數(shù) #sort -r 把結果逆序排列 #awk "{print $2,$1}" 將結果輸出,文本在前,計數(shù)在后Scala
import scala.io.Source._ val file = fromFile("/home/hadoopadmin/test.txt") val map = file.getLines().toList.flatMap(_.split(" ")).map((_,1)).groupBy(_._1) val value = map.mapValues(_.size) value.foreach(println(_))反人類的MapReduce
//mapreduce方式 public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); // conf.set("fs.defaultFS", "hdfs://spark01:9000"); // conf.set("yarn.resourcemanager.hostname", "spark01"); Path out = new Path(args[1]); FileSystem fs = FileSystem.get(conf); //判斷輸出路徑是否存在,當路徑存在時mapreduce會報錯 if (fs.exists(out)) { fs.delete(out, true); System.out.println("ouput is exit will delete"); } // 創(chuàng)建任務 Job job = Job.getInstance(conf, "wordcountDemo"); // 設置job的主類 job.setJarByClass(WordCount.class); // 主類 // 設置作業(yè)的輸入路徑 FileInputFormat.setInputPaths(job, new Path(args[0])); //設置map的相關參數(shù) job.setMapperClass(WordCountMapper.class); job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(LongWritable.class); //設置reduce相關參數(shù) job.setReducerClass(WordCountReduce.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(LongWritable.class); //設置作業(yè)的輸出路徑 FileOutputFormat.setOutputPath(job, out); job.setNumReduceTasks(2); System.exit(job.waitForCompletion(true) ? 0 : 1); }好用的spark
//spark版wordcount sc.textFile("/home/sev7e0/access.log").flatMap(_.split(" ")).map((_, 1)).reduceByKey(_+_).foreach(println(_))
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/71768.html
摘要:要說在中常見的函數(shù)是哪一個,當然是。是一個實現(xiàn)了接口的抽象類,其中是數(shù)據(jù)處理方法,強制子類必須實現(xiàn)。以上為學習一天的總結,有錯誤歡迎指正。相同的是這個方法處理的都是中的一個元素。 在閱讀本文前,可先看一下官方的WordCount代碼, 對Apache Beam有大概的了解。 要說在Apache Beam中常見的函數(shù)是哪一個,當然是apply()。常見的寫法如下: [Final Outp...
摘要:批處理的程序分析博客從到學習介紹從到學習上搭建環(huán)境并構建運行簡單程序入門從到學習配置文件詳解從到學習介紹從到學習如何自定義從到學習介紹從到學習如何自定義從到學習轉換從到學習介紹中的從到學習中的幾種詳解從到學習讀取數(shù)據(jù)寫入到從到學習項 批處理的 WordCount 程序分析: https://t.zsxq.com/YJ2Zrfi 博客 1、Flink 從0到1學習 —— Apache ...
閱讀 2618·2021-09-28 09:36
閱讀 2228·2021-09-07 09:58
閱讀 1494·2019-08-26 13:53
閱讀 1275·2019-08-23 17:53
閱讀 3023·2019-08-23 15:34
閱讀 1850·2019-08-23 15:34
閱讀 2864·2019-08-23 12:04
閱讀 3717·2019-08-23 10:56