<span id="mktg5"></span>

<i id="mktg5"><meter id="mktg5"></meter></i>

        <label id="mktg5"><meter id="mktg5"></meter></label>
        最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
        問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
        當前位置: 首頁 - 科技 - 知識百科 - 正文

        Hadoop之MapReduce單元測試

        來源:懂視網 責編:小采 時間:2020-11-09 13:20:55
        文檔

        Hadoop之MapReduce單元測試

        Hadoop之MapReduce單元測試:通常情況下,我們需要用小數據集來單元測試我們寫好的map函數和reduce函數。而一般我們可以使用Mockito框架來模擬OutputCollector對象(Hadoop版本號小于0.20.0)和Context對象(大于等于0.20.0)。 下面是一個簡單的WordCount例子:(使用的是新AP
        推薦度:
        導讀Hadoop之MapReduce單元測試:通常情況下,我們需要用小數據集來單元測試我們寫好的map函數和reduce函數。而一般我們可以使用Mockito框架來模擬OutputCollector對象(Hadoop版本號小于0.20.0)和Context對象(大于等于0.20.0)。 下面是一個簡單的WordCount例子:(使用的是新AP

        通常情況下,我們需要用小數據集來單元測試我們寫好的map函數和reduce函數。而一般我們可以使用Mockito框架來模擬OutputCollector對象(Hadoop版本號小于0.20.0)和Context對象(大于等于0.20.0)。 下面是一個簡單的WordCount例子:(使用的是新API) 在開始之

        通常情況下,我們需要用小數據集來單元測試我們寫好的map函數和reduce函數。而一般我們可以使用Mockito框架來模擬OutputCollector對象(Hadoop版本號小于0.20.0)和Context對象(大于等于0.20.0)。

        下面是一個簡單的WordCount例子:(使用的是新API)

        在開始之前,需要導入以下包:

        1.Hadoop安裝目錄下和lib目錄下的所有jar包。

        2.JUnit4

        3.Mockito

        ?

        map函數:

        public class WordCountMapper extends Mapper {
        	private static final IntWritable one = new IntWritable(1);
        	private Text word = new Text();
        	@Override
        	protected void map(LongWritable key, Text value,Context context)
        	throws IOException, InterruptedException {
        	String line = value.toString();	// 該行的內容
        	String[] words = line.split(";");	// 解析該行的單詞
        	for(String w : words) {
        	word.set(w);
        	context.write(word,one);
        	}
        	}
        }

        ?reduce函數:

        public class WordCountReducer extends Reducer {
        	@Override
        	protected void reduce(Text key, Iterable values,Context context)
        	throws IOException, InterruptedException {
        	int sum = 0;
        	Iterator iterator = values.iterator();	// key相同的值集合
        	while(iterator.hasNext()) {
        	int one = iterator.next().get();
        	sum += one;
        	}
        	context.write(key, new IntWritable(sum));
        	}
        }

        ?測試代碼類:

        public class WordCountMapperReducerTest {
        	@Test
        	public void processValidRecord() throws IOException, InterruptedException {
        	WordCountMapper mapper = new WordCountMapper();
        	Text value = new Text("hello");
        	org.apache.hadoop.mapreduce.Mapper.Context context = mock(Context.class);
        	mapper.map(null, value, context);
        	verify(context).write(new Text("hello"), new IntWritable(1));
        	}
        	@Test
        	public void processResult() throws IOException, InterruptedException {
        	WordCountReducer reducer = new WordCountReducer();
        	Text key = new Text("hello");
        	// {"hello",[1,1,2]}
        	Iterable values = Arrays.asList(new IntWritable(1),new IntWritable(1),new IntWritable(2));
        	org.apache.hadoop.mapreduce.Reducer.Context context = mock(org.apache.hadoop.mapreduce.Reducer.Context.class);
        	reducer.reduce(key, values, context);
        	verify(context).write(key, new IntWritable(4));	// {"hello",4}
        	}
        }

        ?

        具體就是給map函數傳入一行數據-"hello"

        map函數對數據進行處理,輸出{"hello",0}

        reduce函數接受map函數的輸出數據,對相同key的值求和,并輸出。



        已有 0 人發表留言,猛擊->> 這里<<-參與討論


        ITeye推薦
      1. —軟件人才免語言低擔保 赴美帶薪讀研!—



      2. 聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

        文檔

        Hadoop之MapReduce單元測試

        Hadoop之MapReduce單元測試:通常情況下,我們需要用小數據集來單元測試我們寫好的map函數和reduce函數。而一般我們可以使用Mockito框架來模擬OutputCollector對象(Hadoop版本號小于0.20.0)和Context對象(大于等于0.20.0)。 下面是一個簡單的WordCount例子:(使用的是新AP
        推薦度:
        標簽: 測試 情況下 單元
        • 熱門焦點

        最新推薦

        猜你喜歡

        熱門推薦

        專題
        Top
        主站蜘蛛池模板: XXX2高清在线观看免费视频| 女人裸身j部免费视频无遮挡| 亚洲AV永久无码区成人网站| 亚洲av中文无码乱人伦在线咪咕| 一本岛v免费不卡一二三区| 两个人看的www免费| 美女视频黄a视频全免费| 国产无遮挡裸体免费视频| 精品国产亚洲一区二区在线观看 | 免费播放国产性色生活片| 日韩电影免费在线观看视频| 国产成人综合亚洲AV第一页| 亚洲一卡2卡4卡5卡6卡在线99| 亚洲乱妇熟女爽到高潮的片| 一级做a毛片免费视频| 国产成人亚洲综合无码| 中国china体内裑精亚洲日本| GOGOGO免费观看国语| 亚洲Av熟妇高潮30p| 日韩免费在线中文字幕| 好男人www免费高清视频在线| 自拍偷自拍亚洲精品被多人伦好爽| 三上悠亚在线观看免费| 免费一看一级毛片全播放| 亚洲一区二区三区免费观看| 午夜色a大片在线观看免费| 亚洲国产一区在线| 免费看美女午夜大片| 国产精品亚洲片在线| 免费很黄无遮挡的视频毛片| 黑人大战亚洲人精品一区| 6080午夜一级毛片免费看6080夜福利| 亚洲五月午夜免费在线视频| 可以免费观看的毛片| 久久久精品国产亚洲成人满18免费网站| 日本免费A级毛一片| 亚洲午夜久久久影院伊人| 四虎影视在线看免费观看| 久久青青草原亚洲av无码app| 国内精品99亚洲免费高清| 亚洲国产品综合人成综合网站|