避免每次提交作业时上传外部jar的Flink配置
创始人
2024-12-16 10:31:08
0

在提交作业时,避免每次上传外部JAR的Flink配置,可以使用Flink的集群模式来实现。下面是一个示例代码:

import org.apache.flink.api.java.ExecutionEnvironment;
import org.apache.flink.api.java.utils.ParameterTool;
import org.apache.flink.client.program.ClusterClient;
import org.apache.flink.client.program.PackagedProgram;
import org.apache.flink.client.program.ProgramInvocationException;
import org.apache.flink.client.program.ProgramMissingJobException;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.runtime.client.JobExecutionException;
import org.apache.flink.runtime.jobgraph.JobGraph;
import org.apache.flink.yarn.client.YarnClusterClientFactory;

import java.io.File;
import java.net.URL;
import java.util.Arrays;
import java.util.List;

public class FlinkJobSubmitter {

    public static void main(String[] args) throws Exception {
        // 设置Flink配置
        Configuration flinkConfig = new Configuration();
        flinkConfig.setInteger("parallelism", 4);

        // 创建一个Flink集群客户端
        YarnClusterClientFactory clusterClientFactory = new YarnClusterClientFactory();
        ClusterClient clusterClient = clusterClientFactory.createClusterClient(flinkConfig);

        // 创建Flink执行环境
        ExecutionEnvironment env = ExecutionEnvironment.createRemoteEnvironment(clusterClient);

        // 添加外部JAR依赖
        List jarFiles = Arrays.asList(
                new File("/path/to/external.jar").toURI().toURL()
        );
        env.registerExternalJars(jarFiles.toArray(new URL[0]));

        // 使用ParameterTool解析命令行参数
        ParameterTool params = ParameterTool.fromArgs(args);

        // 设置作业参数
        env.getConfig().setGlobalJobParameters(params);

        // 提交作业
        try {
            PackagedProgram program = new PackagedProgram(new File("/path/to/job.jar"));
            JobGraph jobGraph = program.getJobGraph();
            clusterClient.runDetached(jobGraph);
        } catch (ProgramMissingJobException e) {
            System.err.println("No Flink job found in JAR.");
        } catch (ProgramInvocationException e) {
            System.err.println("Failed to invoke Flink job.");
            e.printStackTrace();
        } catch (JobExecutionException e) {
            System.err.println("Failed to execute Flink job.");
            e.printStackTrace();
        }

        // 关闭集群客户端
        clusterClient.shutdown();
    }
}

上述代码使用了YarnClusterClient来创建一个Flink集群客户端,并通过ExecutionEnvironment创建了一个远程执行环境。在提交作业之前,通过env.registerExternalJars()方法添加了外部JAR依赖。然后,使用ParameterTool解析命令行参数,并使用PackagedProgramJobGraph来构建和提交作业。最后,关闭集群客户端。

在实际使用中,你需要将代码中的/path/to/external.jar/path/to/job.jar替换为你实际的外部JAR文件路径。

相关内容

热门资讯

Android Recycle... 要在Android RecyclerView中实现滑动卡片效果,可以按照以下步骤进行操作:首先,在项...
安装apache-beam==... 出现此错误可能是因为用户的Python版本太低,而apache-beam==2.34.0需要更高的P...
Android - 无法确定任... 这个错误通常发生在Android项目中,表示编译Debug版本的Java代码时出现了依赖关系问题。下...
Android - NDK 预... 在Android NDK的构建过程中,LOCAL_SRC_FILES只能包含一个项目。如果需要在ND...
Akka生成Actor问题 在Akka框架中,可以使用ActorSystem对象生成Actor。但是,当我们在Actor类中尝试...
Agora-RTC-React... 出现这个错误原因是因为在 React 组件中使用,import AgoraRTC from “ago...
Alertmanager在pr... 首先,在Prometheus配置文件中,确保Alertmanager URL已正确配置。例如:ale...
Aksnginxdomainb... 在AKS集群中,可以使用Nginx代理服务器实现根据域名进行路由。以下是具体步骤:部署Nginx i...
AddSingleton在.N... 在C#中创建Singleton对象通常是通过私有构造函数和静态属性来实现,例如:public cla...
Alertmanager中的基... Alertmanager中可以使用repeat_interval选项指定在一个告警重复发送前必须等待...