当前位置: 首页 > news >正文

Hadoop中的Yarn的Tool接口案例、Yarn 案例实操(四)

文章目录

  • 17. Yarn 案例实操
    • 17.4 Yarn的Tool接口案例
      • 17.4.1 回顾
      • 17.4.2 需求
      • 17.4.3 具体步骤
        • 17.4.3.1 新建Maven项目YarnDemo,pom如下
        • 17.4.3.2 新建com.summer.yarn包名
        • 17.4.3.3 创建类WordCount并实现Tool接口
        • 17.4.3.4 新建WordCountDriver
        • 17.4.3.5 将包进行打包
        • 17.4.3.6 将jar包上传到Linux里
      • 17.4.4 在HDFS上准备输入文件,假设为/testinput目录,向集群提交该Jar包

17. Yarn 案例实操

17.4 Yarn的Tool接口案例

17.4.1 回顾

[summer@hadoop102 hadoop-3.1.3]$ hadoop jar wc.jar com.summer.mapreduce.wordcount2.WordCountDriver /testinput /testoutput/output1

在这里插入图片描述期望可以动态传参,结果报错,误认为是第一个输入参数。

[summer@hadoop102 hadoop-3.1.3]$ hadoop jar wc.jar com.summer.mapreduce.wordcount1.WordCountDriver -Dmapreduce.job.queuename=root.test /testinput /testoutput/output1

在这里插入图片描述

17.4.2 需求

自己写的程序也可以动态修改参数。编写Yarn的Tool接口。

17.4.3 具体步骤

17.4.3.1 新建Maven项目YarnDemo,pom如下

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.summer</groupId>
    <artifactId>YarnDemo</artifactId>
    <version>1.0-SNAPSHOT</version>

    <properties>
        <maven.compiler.source>8</maven.compiler.source>
        <maven.compiler.target>8</maven.compiler.target>
    </properties>

    <dependencies>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>3.1.3</version>
        </dependency>
    </dependencies>
</project>

在这里插入图片描述
添加依赖后记得刷新一下

17.4.3.2 新建com.summer.yarn包名

在这里插入图片描述

17.4.3.3 创建类WordCount并实现Tool接口

在这里插入图片描述

package com.summer.yarn;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.Writable;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.yarn.webapp.hamlet2.Hamlet;

import java.io.IOException;

/**
 * @author Redamancy
 * @create 2022-10-15 15:00
 */
public class WordCount implements Tool {
    private Configuration conf;

    @Override
    public int run(String[] args) throws Exception {
        Job job = Job.getInstance(conf);

        job.setJarByClass(WordCountDriver.class);

        job.setMapperClass(WordCountMapper.class);
        job.setReducerClass(WordCountReducer.class);

        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(IntWritable.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);

        FileInputFormat.setInputPaths(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job, new Path(args[1]));

        return job.waitForCompletion(true) ? 0 : 1;
    }

    @Override
    public void setConf(Configuration configuration) {
        this.conf = configuration;
    }

    @Override
    public Configuration getConf() {
        return conf;
    }

    // maper
    public static class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{
        private IntWritable outV = new IntWritable(1);
        private Text outK = new Text();

        @Override
        protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, Text, IntWritable>.Context context) throws IOException, InterruptedException {
            String line = value.toString();
            String[] words = line.split(" ");
            for (String word : words) {
                outK.set(word);

                context.write(outK, outV);
            }
        }
    }

    //reducer
    public static class WordCountReducer extends Reducer<Text, IntWritable,Text, IntWritable>{
        private IntWritable outV = new IntWritable();

        @Override
        protected void reduce(Text key, Iterable<IntWritable> values, Reducer<Text, IntWritable, Text, IntWritable>.Context context) throws IOException, InterruptedException {
            int sum = 0;
            for (IntWritable value : values) {
                sum += value.get();
            }
            outV.set(sum);

            context.write(key, outV);
        }
    }
}

17.4.3.4 新建WordCountDriver

在这里插入图片描述

package com.summer.yarn;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;

import java.util.Arrays;

/**
 * @author Redamancy
 * @create 2022-10-15 15:25
 */
public class WordCountDriver {

    private static Tool tool;

    public static void main(String[] args) throws Exception {
        //1 创建配置文件
        Configuration conf = new Configuration();

        //2 判断是否有Tool接口

        switch (args[0]){
            case "wordcount":
                tool = new WordCount();
                break;
            default:
                throw new RuntimeException("no such tool: " + args[0]);
        }
        //3 用Tool执行程序
        //Arrays.copyOfRange将老数组的元素放到新元素数组里面
        int run = ToolRunner.run(conf, tool, Arrays.copyOfRange(args, 1, args.length));

        System.exit(run);
    }
}

17.4.3.5 将包进行打包

在这里插入图片描述点击reload from Disk进行刷新

17.4.3.6 将jar包上传到Linux里

在这里插入图片描述
在这里插入图片描述将这个复制到桌面
在这里插入图片描述
改名为YarnDemo,然后进行上传到Linux上

在这里插入图片描述将jar包拖拽到XShell里面

在这里插入图片描述

17.4.4 在HDFS上准备输入文件,假设为/testinput目录,向集群提交该Jar包

[summer@hadoop102 hadoop-3.1.3]$ yarn jar YarnDemo.jar com.summer.yarn.WordCountDriver wordcount /testinput /testoutputoutput1

在这里插入图片描述在这里插入图片描述

  注意此时提交的3个参数,第一个用于生成特定的Tool,第二个和第三个为输入输出目录。此时如果我们希望加入设置参数,可以在wordcount后面添加参数,例如:

[summer@hadoop102 hadoop-3.1.3]$ yarn jar YarnDemo.jar com.summer.yarn.WordCountDriver wordcount -Dmapreduce.job.queuename=root.test /testinput /testoutput/output1

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

注:以上操作全部做完过后,快照回去或者手动将配置文件修改成之前的状态,因为本身资源就不够,分成了这么多,不方便以后测试。

相关文章:

  • Quarto Dashboards 教程 3:Dashboard Data Display
  • 身份证实名认证接口守护账号安全、实名认证接口Java开发示例
  • UTONMOS:用区块链技术拓展商业边界在哪里?
  • 机器人抓取综述
  • 【后端】python中字典合并的方法
  • Java在物联网和嵌入式系统中的应用
  • 图论|207. 课程表 210. 课程表 II
  • springboot+vue前后端分离适配cas认证的跨域问题
  • 协议-http协议-基础概念01-发展历程-http组成-http是什么-相关的应用-相关的协议
  • resilience4j 2.0.0版本使用要求最低JDK17(使用踩坑记录)
  • 设计模式——策略模式
  • 【ArcGIS】基于DEM/LUCC等数据统计得到各集水区流域特征
  • 【C++】STL——string(两万字详解)
  • 浅谈Linux下的redis攻击
  • 【C++】类和对象(中)(万字详解)
  • CockroachDB架构-存储层
  • 【DDR3 控制器设计】(1)MIG IP 核的详解与配置
  • 牛客网专项练习30天Pytnon篇第26天
  • 【Golang开发面经】得物(两轮技术面)
  • Linux vmalloc原理与实现
  • 李沐论文精读系列二:Vision Transformer、MAE、MoCo、Swin-Transformer(持续更新 )
  • 【我想找一份实习】算法篇
  • uniapp 微信小程序和H5的弹窗滚动穿透解决
  • linux安装tomcat、mysql、redis、宝塔,rpm命令
  • Linux命令老是记不住?一篇文章帮你解决。Linux常用命令汇总
  • 接口测试用例生成工具介绍及应用
  • 【axios】二次封装——避免重复发送请求
  • Maven 高级 5 多环境配置与应用 5.1 多环境开发
  • [ vulhub漏洞复现篇 ] Apache APISIX 默认密钥漏洞 CVE-2020-13945
  • 【图像分割】基于电磁算法优化多级阈值实现图像分割附matlab代码
  • SushiSwap历任“主厨”史
  • 【数据结构与算法】用队列实现栈用栈实现队列设计循环队列