摘要:基于開發指南如果基于進行應用開發,需要在文件中加入如下配置注解注意修改的值,確保其符合您的應用。應用開發完成后,可以直接直接運行方法,在本地進行基本的測試。
如果基于gradle進行應用開發,需要在build.gradle文件中加入如下配置:
buildscript {
repositories {
jcenter() // this applies only to the Gradle Shadow plugin
}
dependencies {
classpath com.github.jengelman.gradle.plugins:shadow:2.0.4
}
}
plugins {
id java
id application
// shadow plugin to produce fat JARs
id com.github.johnrengelman.shadow version 2.0.4
}
// artifact properties
group = org.myorg.quickstart
version = 0.1-SNAPSHOT
mainClassName = org.myorg.quickstart.StreamingJob
description = """Flink Quickstart Job"""
ext {
javaVersion = 1.8
flinkVersion = 1.6.4
scalaBinaryVersion = 2.11
slf4jVersion = 1.7.7
log4jVersion = 1.2.17
}
sourceCompatibility = javaVersion
targetCompatibility = javaVersion
tasks.withType(JavaCompile) {
options.encoding = UTF-8
}
applicationDefaultJvmArgs = ["-Dlog4j.configuration=log4j.properties"]
task wrapper(type: Wrapper) {
gradleVersion = 3.1
}
// declare where to find the dependencies of your project
repositories {
mavenCentral()
maven { url "https://repository.apache.org/content/repositories/snapshots/" }
}
// NOTE: We cannot use "compileOnly" or "shadow" configurations since then we could not run code
// in the IDE or with "gradle run". We also cannot exclude transitive dependencies from the
// shadowJar yet (see https://github.com/johnrengelman/shadow/issues/159).
// -> Explicitly define the // libraries we want to be included in the "flinkShadowJar" configuration!
configurations {
flinkShadowJar // dependencies which go into the shadowJar
// always exclude these (also from transitive dependencies) since they are provided by Flink
flinkShadowJar.exclude group: org.apache.flink module: force-shading
flinkShadowJar.exclude group: com.google.code.findbugs module: jsr305
flinkShadowJar.exclude group: org.slf4j
flinkShadowJar.exclude group: log4j
}
// declare the dependencies for your production and test code
dependencies {
// --------------------------------------------------------------
// Compile-time dependencies that should NOT be part of the
// shadow jar and are provided in the lib folder of Flink
// --------------------------------------------------------------
compile "org.apache.flink:flink-java:${flinkVersion}"
compile "org.apache.flink:flink-streaming-java_${scalaBinaryVersion}:${flinkVersion}"
// --------------------------------------------------------------
// Dependencies that should be part of the shadow jar e.g.
// connectors. These must be in the flinkShadowJar configuration!
// --------------------------------------------------------------
//flinkShadowJar "org.apache.flink:flink-connector-kafka-0.11_${scalaBinaryVersion}:${flinkVersion}"
compile "log4j:log4j:${log4jVersion}"
compile "org.slf4j:slf4j-log4j12:${slf4jVersion}"
// Add test dependencies here.
// testCompile "junit:junit:4.12"
}
// make compileOnly dependencies available for tests:
sourceSets {
main.compileClasspath += configurations.flinkShadowJar
main.runtimeClasspath += configurations.flinkShadowJar
test.compileClasspath += configurations.flinkShadowJar
test.runtimeClasspath += configurations.flinkShadowJar
javadoc.classpath += configurations.flinkShadowJar
}
run.classpath = sourceSets.main.runtimeClasspath
jar {
manifest {
attributes Built-By: System.getProperty(user.name)
Build-Jdk: System.getProperty(java.version)
}
}
shadowJar {
configurations = [project.configurations.flinkShadowJar]
}
注解:注意修改mainClassName的值,確保其符合您的應用。應用開發完成后,可以直接直接運行main方法,在本地進行基本的測試。如果已經完成開發測試,則直接運行shadowJar即可。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/126203.html
摘要:基于開發指南本節主要介紹如何創建項目,并開發簡單的應用,從而使該應用可以被提交到平臺運行。如果不設置為,可能會導致的類沖突,產生不可預見的問題。在自動生成的文件中,使用了來更方便的控制依賴的可見性。基于Maven開發指南本節主要介紹如何創建項目,并開發簡單的Flink應用,從而使該Flink應用可以被提交到UFlink平臺運行。==== 自動生成代碼框架 ==== 對于Java開發者,可以使...
摘要:開發注意事項基于托管集群的應用開發,和自建集群類似,但是仍然有幾個地方需要注意。和默認配置托管集群默認指定以及的堆大小為,目前不支持進行更改單個中的數量設置為高可用配置應用的高可用由集群以及共同保證。配置集群的運行時狀態保存在的指定目錄中。UFlink開發注意事項基于UFlink托管集群的Flink應用開發,和自建集群類似,但是仍然有幾個地方需要注意。JobManager和TaskManag...
摘要:什么是實時計算實時計算基于構建,為分布式高性能隨時可用以及準確的流處理應用程序提供流處理框架,可用于流式數據處理等應用場景。版本支持當前支持的版本為,,,可以在提交任務時選擇所使用的版本。什么是實時計算實時計算(UFlink)基于ApacheFlink構建,為分布式、高性能、隨時可用以及準確的流處理應用程序提供流處理框架,可用于流式數據處理等應用場景。產品優勢100%開源兼容基于開源社區版本...
摘要:開發指南是為簡化計算模型,降低用戶使用實時計算的門檻而設計的一套符合標準語義的開發套件。隨后,將為該表生成字段,用于記錄并表示事件時間。UFlink SQL 開發指南UFlink SQL 是 UCloud 為簡化計算模型,降低用戶使用實時計算的門檻而設計的一套符合標準 SQL 語義的開發套件。接下來,開發者可以根據如下內容,逐漸熟悉并使用 UFlink SQL 組件所提供的便捷功能。1 ...
摘要:集群管理進入集群管理頁面通過集群列表頁面進入集群管理頁面獲取集群詳情通過集群列表的詳情按鈕進入詳情頁面調整集群大小點擊調整容量調整集群大小查看點擊詳情頁的按鈕查看查看任務歷史點擊詳情頁的按鈕查看歷史任務節點密碼重置點擊集群列表頁的集群管理1. 進入集群管理頁面通過UFlink集群列表頁面進入集群管理頁面:2. 獲取集群詳情通過集群列表的詳情按鈕進入詳情頁面:3. 調整集群大小點擊調整容量調整...
閱讀 3514·2023-04-25 20:09
閱讀 3720·2022-06-28 19:00
閱讀 3035·2022-06-28 19:00
閱讀 3058·2022-06-28 19:00
閱讀 3132·2022-06-28 19:00
閱讀 2859·2022-06-28 19:00
閱讀 3014·2022-06-28 19:00
閱讀 2610·2022-06-28 19:00