国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

【Flink實時計算 UFlink】UFlink SQL 開發指南

Tecode / 2440人閱讀

摘要:開發指南是為簡化計算模型,降低用戶使用實時計算的門檻而設計的一套符合標準語義的開發套件。隨后,將為該表生成字段,用于記錄并表示事件時間。

UFlink SQL 開發指南

UFlink SQL 是 UCloud 為簡化計算模型,降低用戶使用實時計算的門檻而設計的一套符合標準 SQL 語義的開發套件。

接下來,開發者可以根據如下內容,逐漸熟悉并使用 UFlink SQL 組件所提供的便捷功能。

1 表中受支持的數據類型

數據類型說明映射的Java類型
BOOLEAN邏輯值,true 或 falseBoolean.class
INTEGER整形,4 字節整數Integer.class
INT整型,4 字節整數Integer.class
BIGINT長整型,8 字節整數Long.class
TINYINT微整型,1 字節整數Byte.class
SMALLINT短整型,2 字節整數Short.class
VARCHAR變長字符串String.class
FLOAT4 字節浮點數Float.class
DOUBLE8 字節浮點數Double.class
DATE日期類型:Date.class
TIMESTAMP時間戳類型Timestamp.class
DECIMAL小數類型BigDecimal.class
MAP映射類型linkedHashMap.class
ARRAYList 列表類型linkedList.class
LISTList 列表類型linkedList

2 DDL 語句

UFlink 實時計算框架本身不帶有存儲數據的功能,因此,創建的表均為外部表,是對外部數據的映射和引用,在程序執行時,數據會動態加載到 UFlink 中。

2.1 創建源表

在 UFlink SQL 中,創建 數據源表 遵循如下規律:

CREATE TABLE table_name(
    columnName dataType
    [ columnName dataType ]*
) WITH (
    type = xxxx
    xxxx = xxxx
);

1. Kafka 數源表

(1)示例

? 以 Kafka 作為數據源表,建表語句示例如下:

CREATE TABLE ut_kafka_source(
    user_id VARCHAR
    pay_cash FLOAT
    pay_time VARCHAR
 )WITH(
    type = kafka11
    bootstrapServers = linux01:9092linux02:9092linux03:9092
    topic = flink-test01
    groupId = group1
    parallelism = 1
 );

上述代碼用于在 UFlink 中創建一張名為 ut_kafka_source 的表,并聲明表中字段信息(屬性名及屬性類型)。

隨后,必須在 WITH 代碼塊中指定數據來源,以及數據源所使用的框架的必要參數。

(2)相關參數

? 可配置參數如下表所示:

參數名必填默認值含義舉例
type數據源類型type = kafka11
bootstrapServersKafka Broker地址bootstrapServers = linux01:9092linux02:9092
topic將要消費的 Kafka 主題topic = flink-test01flink-test02
groupId消費者組IDgroupId = group01
offsetResetlatest啟動時從何處消費offsetReset = earliest(或:latest、{"0": 12 "1": 32})
parallelism1讀取數據并行度parallelism = 1

2.2 創建結果表

在 UFlink SQL 中,創建 結果表 遵循如下規律:

CREATE TABLE table_name(
    columnName dataType
    [ columnName dataType ]*
) WITH (
    type = xxxx
    xxxx = xxxx
);

1. Kafka 結果表

(1)示例

? 以 Kafka 作為結果表,建表語句示例如下:

CREATE TABLE ut_kafka_result(
    uid VARCHAR
    pay_cash FLOAT
    sex VARCHAR
    age VARCHAR
 )WITH(
    type = kafka11
    bootstrapServers = linux01:9092linux02:9092linux03:9092
    topic = flink-test02
    parallelism = 1
 );

上述代碼用于在 UFlink 中創建一張名為 ut_kafka_result 的表,并聲明表中字段信息(屬性名及屬性類型)。

隨后,必須在 WITH 代碼塊中指定數據輸出時的相關參數,以及數據源所使用的框架的必要參數。

(2)相關參數

? 可配置參數如下表所示:

參數名必填默認值含義舉例
type數據源類型type = kafka11
bootstrapServersKafka Broker地址bootstrapServers = linux01:9092linux02:9092
topic將要消費的 Kafka 主題topic = flink-test01flink-test02
parallelism1讀取數據并行度parallelism = 1

2. MySQL 結果表

(1)示例

? 以 MySQL 作為結果表,建表語句示例如下:

CREATE TABLE ut_mysql_result(
    uid VARCHAR
    pay_cash FLOAT
    sex VARCHAR
    age VARCHAR
)WITH(
    type = mysql
    url = jdbc:mysql://linux01:3306/db_flink_test?useUnicode=true&characterEncoding=utf-8
    userName = root
    password = 123456
    tableName = ut_mysql_result
    parallelism = 1
);

(2)相關參數

? 可配置參數如下表所示:

參數名必填默認值含義舉例
type數據源類型type = mysql
urlMySQL Database 地址url = jdbc:mysql://linux01:3306/db_flink_test?useUnicode=true&characterEncoding=utf-8
username用戶名userName =root
password密碼password =123456
tablenameMySQL 中的表名tableName =ut_mysql_result
parallelism1讀取數據并行度parallelism = 1

3. PostgreSQL 結果表

(1)示例

? 以 PostgreSQL 作為結果表,建表語句示例如下:

CREATE TABLE ut_postgre_result(
    uid VARCHAR
    pay_cash FLOAT
    sex VARCHAR
    age VARCHAR
)WITH(
    type = postgre
    url = jdbc:postgresql://10.9.11.122:5432/db_flink_test?useUnicode=true&characterEncoding=utf-8
    userName = root
    password = 123456
    tableName = ut_postgre_result
    parallelism = 1
);

上述代碼展示了如何使用 UFlink SQL 模塊,并通過 PostgreSQL 與 UDW(UCloud 數據湖) 產品交互,實現數據輸出到 UDW。

(2)相關參數

? 可配置參數如下表所示:

參數名必填默認值含義舉例
type數據源類型type = postgre
urlPostgreSQL Database 地址url = jdbc:postgresql://10.9.11.122:5432/db_flink_test?useUnicode=true&characterEncoding=utf-8
username用戶名userName =root
password密碼password =123456
tablenamePostgreSQL 中的表名tableName =ut_postgre_result
parallelism1讀取數據并行度parallelism = 1

2.3 創建維表

在 UFlink SQL 中,創建 維度表 遵循如下規律:

CREATE TABLE table_name(
    columnName dataType
    [ columnName dataType ]*
) WITH (
    type = xxxx
    xxxx = xxxx
    SIDE DIMENSION SIGN
);

其中,維表中最后一個字段,必須為SIDE DIMENSION SIGN,以此來標識這是一張維度表。

1. MySQL 維表

(1)示例

? 以 MySQL 作為維度表,建表語句示例如下:

CREATE TABLE ut_mysql_side(
    uid VARCHAR
    sex VARCHAR
    age VARCHAR
    PRIMARY KEY(uid)
    SIDE DIMENSION SIGN
 )WITH(
    type =mysql
    url =jdbc:mysql://linux01:3306/db_flink_test?useUnicode=true&characterEncoding=utf-8
    userName =root
    password =123456
    tableName =ut_mysql_side
    cache =LRU
    cacheSize =2
    cacheTTLMs =2001
    parallelism =1
    partitionedJoin=false
 );

上述代碼用于在 UFlink 中創建一張名為 ut_mysql_side 的表,并聲明表中字段信息(屬性名及屬性類型),并可以指定主鍵對應的列,并且,涉及到 JOIN 操作的列,必須通過PRIMARY KEY 關鍵字進行聲明,其中可以指定多個列(逗號分隔)。

隨后,必須在 WITH 代碼塊中指定數據輸出時的相關參數,以及數據源所使用的框架的必要參數。

(2)相關參數

可配置參數如下表所示:

參數名必填默認值含義舉例
type數據源類型type = postgre
urlMySQL Database 地址url = jdbc:mysql://linux01:3306/db_flink_test?useUnicode=true&characterEncoding=utf-8
username用戶名userName =root
password密碼password =123456
tablenameMySQL 中的表名tableName =ut_postgre_result
cacheNONE維表數據緩存方式cache = LRU cache = NONE
cacheSize緩存行數,cache屬性為LRU時生效cacheSize = 100
cacheTTLMs緩存過期時間,cache屬性為LRU時生效,單位:毫秒cacheTTLMs =60000
partitionedJoin是否在 JOIN 數據之前,將維表數據按照 PRIMARY KEY指定的列進行reduceByKey操作,從而減少維表緩存數據量。partitionedJoin = true
parallelism1讀取數據并行度parallelism = 1

2. PostgreSQL 維表

(1)示例

? 以 MySQL 作為維度表,建表語句示例如下:

CREATE TABLE ut_postgre_side(
    uid VARCHAR
    sex VARCHAR
    age VARCHAR
    PRIMARY KEY(uid)
    SIDE DIMENSION SIGN
 )WITH(
    type =postgre
    url = jdbc:postgresql://10.9.116.184:5432/db_flink_test?useUnicode=true&characterEncoding=utf-8
    userName =root
    password =birthDAY+-0230
    tableName =ut_postgre_side
    parallelism =1
    cache =LRU
    cacheSize =2
    cacheTTLMs =2001
    partitionedJoin=false
 );

上述代碼用于在 UFlink 中創建一張名為 ut_mysql_side 的表,并聲明表中字段信息(屬性名及屬性類型),并可以指定主鍵對應的列,并且,涉及到 JOIN 操作的列,必須通過PRIMARY KEY 關鍵字進行聲明,其中可以指定多個列(逗號分隔)。

隨后,必須在 WITH 代碼塊中指定數據輸出時的相關參數,以及數據源所使用的框架的必要參數。

(2)相關參數

可配置參數如下表所示:

參數名必填默認值含義舉例
type數據源類型type = postgre
urlPostgreSQL Database 地址url = jdbc:postgresql://10.9.11.122:5432/db_flink_test?useUnicode=true&characterEncoding=utf-8
username用戶名userName =root
password密碼password =123456
tablenamePostgreSQL 中的表名tableName =ut_postgre_result
cacheNONE維表數據緩存方式cache = LRU cache = NONE
cacheSize緩存行數,cache屬性為LRU時生效cacheSize = 100
cacheTTLMs緩存過期時間,cache屬性為LRU時生效,單位:毫秒cacheTTLMs =60000
partitionedJoin是否在 JOIN 數據之前,將維表數據按照 PRIMARY KEY指定的列進行reduceByKey操作,從而減少維表緩存數據量。partitionedJoin = true
parallelism1讀取數據并行度parallelism = 1

2.4 創建視圖

? 在 UFlink 中創建視圖遵循如下邏輯:

CREATE VIEW view_name AS SELECT columnName [ columnName]* FROM table_name[view_name];

在 Flink 中通過創建臨時視圖,可以降低復雜 SQL 的理解成本,從而更好的管理 SQL 邏輯。

3 DML 語句

3.1 INSERT INTO 語句

在 UFlink 中使用 INSERT INTO 語句遵循如下邏輯:

INSERT INTO 
    table_name
    SELECT 
      [ (columnName[  columnName]*) ]
       queryStatement;

例如如下 SQL 操作:

INSERT INTO
    ut_kafka_result
    SELECT
        t3.uid
        t3.pay_cash
        t3.sex
        t3.age
    FROM
        (SELECT
            t1.*
            t2.uid
            t2.sex
            t2.age
        FROM
            ut_kafka_source t1
        JOIN
            ut_mysql_side t2
        ON
            t1.user_id = t2.uid
        WHERE
            t2.sex = 男
        AND
            t1.pay_cash > 100) AS t3

對于 INSERT INTO 操作,需遵循如下約束:

  • 數據源表:只能 FROM,不能 INSERT
  • 數據維表:只能 JOIN,不能 INSERT
  • 數據結果表:只能 INSERT
  • 視圖:只能 FROM,不能 INSERT

4 QUERY 語句

UFlink 中允許直接對 SELECT 中涉及的字段應用 UDXF函數,從實現更復雜的字段到列的映射關系。

例如下面的數據:

{"grade_data":[{"class1":{"小明":"98""老王":"100"}}{"class2":{"凱特琳":"88""凱南":"99"}}]}

通過如下 SQL 語句進行 行轉列 操作:

CREATE TABLE FUNCTION ParseArrayUDTF WITH cn.ucloud.sql.ParseArrayUDTF;

INSERT INTO
    tb_class_grade_result
    SELECT
        class
        student
        grade
    FROM
        tb_class_grade LATERAL TABLE(ParseArrayUDTF(grade_data)) as T(class student grade)

執行完畢后,輸出效果為:

classstudentgrade
class1小明98
class1老王100
class2凱特琳88
class2凱南99

其中自定義函數的具體實現可參考第 5 小節中的內容。

同時也可以使用 WHERE 和 JOIN 語法,例如如下 SQL 語句:

SELECT
    t3.uid
    t3.pay_cash
    t3.sex
    t3.age
FROM
    (SELECT
        t1.*
        t2.uid
        t2.sex
        t2.age
    FROM
        ut_kafka_source t1
    JOIN
        ut_mysql_side t2
    ON
        t1.user_id = t2.uid
    WHERE
        t2.sex = 男
    AND
        t1.pay_cash > 100) AS t3

另外同時支持 Flink 原生所有的 SQL 語法。

5 UDXF 自定義函數

在 Flink 中對某列數據進行復雜處理時,如果想要實現更有針對性的邏輯操作,可以通過實現 UDXF 函數來實現。

5.1 UDF 自定義標量函數

該類型函數主要特點為“一進一出”,即,依次對某單列數據進行處理,并輸出當前列的處理結果(依然為單列)。

1. 實現函數

(1) 規則

編寫 UFlink 的 UDF 函數代碼遵循如下規范:

public class XXX extends ScalarFunction{
    public OUT eval(IN columnValue){
        ...
    }
}

(2) 示例

以對某列數據進行大寫轉換為例,通過繼承 ScalarFunction 類實現 UDF 函數,代碼如下:

package cn.ucloud.sql;

public class TransCaseUDF extends ScalarFunction {
    private static final Logger LOG = LoggerFactory.getLogger(TransCaseUDF.class);
    public String eval(object data){
        return new String(data.toString().toLowerCase().getBytes() StandardCharsets.UTF_8);
    }
}

其中 eval 為固定方法名。

2. 注冊函數

(1) 規則

在 UFlink SQL 中,注冊標量函數(Scalar)方式如下:

CREATE SCALAR FUNCTION [UDFName] WITH [UDF Class Name];

(2) 示例

注冊示例如下所示:

CREATE SCALAR FUNCTION TransCaseUDF WITH cn.ucloud.sql.TransCaseUDF;

3. 使用函數

結合上述示例,使用該函數方法如下:

INSERT INTO
    tb_name
    SELECT
        TransCaseUDF(name) as upper_name
    FROM
        tb_user_info;

5.2 UDAF 自定義聚合函數

該類型函數主要特點為 “多進一出”,即,對某幾列多行數據進行聚合,并輸出聚合結果。

1. 實現函數

(1) 規則

編寫 UFlink 的 UDAF 函數代碼遵循如下規范:

  • 定義累加器
public static class XXXAccum {...)
  • 定義類繼承自AggregateFunction
public class XXXUDAF extends AggregateFunction {
    public XXXAccum createAccumulator(){...} //創建累加器
    public T getValue(){...} //獲取聚合結果
    public void accumulate(){...} //累加
    public void merge(){...} //合并多個分區的累加器
    public void resetAccumulator(){...} //重置累加器
}

(2) 示例

以求某列的平均數為例,實現方法如下:

package cn.ucloud.sql;
import org.apache.flink.table.functions.AggregateFunction;
import java.util.Iterator;

public class AverageUDAF extends AggregateFunction {
    public static class AverageAccum {
        public float sum count = 0F;
    }

    @Override
    public AverageAccum createAccumulator() {
        return new AverageAccum();
    }

    @Override
    public Float getValue(AverageAccum accumulator) {
        if(accumulator.count == 0F) return null;
        else return accumulator.sum / accumulator.count;
    }

    public void accumulate(AverageAccum accumulator float value) {
        accumulator.sum += value;
        accumulator.count += 1F;
    }

    public void merge(AverageAccum accumulator Iterable it) {
        Iterator iter = it.iterator();

        while(iter.hasNext()) {
            AverageAccum acc = iter.next();
            accumulator.sum += acc.sum;
            accumulator.count += acc.count;
        }
    }

    public void resetAccumulator(AverageAccum accumulator) {
        accumulator.sum = 0F;
        accumulator.count = 0F;
    }
}

2. 注冊函數

(1) 規則

在 UFlink SQL 中,注冊聚合函數(Aggregate)方式如下:

CREATE AGGREGATE FUNCTION [UDAFName] WITH [UDAF Class Name];

(2) 示例

結合上述示例,使用該函數方法如下:

CREATE AGGREGATE FUNCTION AverageUDAF WITH cn.ucloud.sql.AverageUDAF;

3. 使用函數

結合上述示例,使用該函數方法如下:

CREATE AGGREGATE FUNCTION AverageUDAF WITH cn.ucloud.sql.AverageUDAF;

CREATE TABLE ut_kafka_source(
    sex VARCHAR
    age FLOAT
 )WITH(
    type =kafka11
    bootstrapServers =linux01:9092linux02:9092linux03:9092
    topic =flink-test01
    groupId = group1
    parallelism =1
 );

CREATE TABLE ut_mysql_age_result(
    sex VARCHAR
    average_age FLOAT
 )WITH(
    type =mysql
    url = jdbc:mysql://linux01:3306/db_flink_test?useUnicode=true&characterEncoding=utf-8
    userName =root
    password =123456
    tableName =ut_mysql_age_result
    parallelism =1
 );

INSERT INTO
    ut_mysql_age_result
    SELECT
        sex
        AverageUDAF(age) AS average_age
    FROM
        ut_kafka_source
    GROUP BY
        sex;

5.3 UDTF 自定義表值函數

該類型函數主要特點為 “一進多出”,即,對某一行一列數據進行拆分,并輸出結果到某列多行。

1. 實現函數

(1) 規則

編寫 UFlink 的 UDTF 函數代碼遵循如下規范:

public class ParseArrayUDTF extends TableFunction {
    public void eval(T obj) {
       ...
    }

    @Override
    public TypeInformation getResultType() {
        return Types.ROW(A.class B.class C.class);
    }
}

(2) 示例

以拆分如下數據為例:

{"grade_data":[{"class1":{"小明":"98""老王":"100"}}{"class2":{"凱特琳":"88""凱南":"99"}}]}

將其拆分為如下表:

classstudentgrade
class1小明98
class1老王100
class2凱特琳88
class2凱南99

此時,UDTF 函數實現如下:

package cn.ucloud.sql;

import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.table.api.Types;
import org.apache.flink.table.functions.TableFunction;
import org.apache.flink.types.Row;

import java.util.List;
import java.util.Map;

public class ParseArrayUDTF extends TableFunction {
    //list 數據為 [{"class1":{"小明":"98""老王":"100"}}{"class2":{"凱特琳":"88""凱南":"99"}}]
    public void eval(List>> list) {
        for (Map> element : list) {
            for (String className : element.keySet()) {
                Map userMap = element.get(className);
                for(String userName: userMap.keySet()){
                    Row row = new Row(3);
                    row.setField(0 className);
                    row.setField(1 userName);
                    row.setField(2 userMap.get(userName));
                    collect(row);
                }

            }
        }
    }

    @Override
    public TypeInformation getResultType() {
        return Types.ROW(Types.STRING() Types.STRING() Types.STRING());
    }
}

2. 注冊函數

(1) 規則

在 UFlink SQL 中,注冊聚合函數(Aggregate)方式如下:

CREATE TABLE FUNCTION [UDTFName] WITH [UDTF Class Name];

(2) 示例

結合上述示例,使用該函數方法如下:

CREATE TABLE FUNCTION ParseArrayUDTF WITH cn.ucloud.sql.ParseArrayUDTF;

3. 使用函數

結合上述示例,使用該函數方法如下:

CREATE TABLE FUNCTION ParseArrayUDTF WITH cn.ucloud.sql.ParseArrayUDTF;

CREATE TABLE tb_class_grade(
    grade_data ARRAY
 )WITH(
    type =kafka11
    bootstrapServers =linux01:9092linux02:9092linux03:9092
    zookeeperQuorum =linux01:2181/kafka
    offsetReset =latest
    topic =flink-sql-test02
    groupId = group1
    parallelism =1
 );


CREATE TABLE tb_class_grade_result(
    class VARCHAR
    student VARCHAR
    grade VARCHAR
)WITH(
    type =mysql
    url = jdbc:mysql://linux01:3306/db_flink_test?useUnicode=true&characterEncoding=utf-8
    userName =root
    password =123456
    tableName =tb_class_grade_result
    parallelism =1
);

INSERT INTO
    tb_class_grade_result
    SELECT
        class
        student
        grade
    FROM
        tb_class_grade LATERAL TABLE(ParseArrayUDTF(grade_data)) as T(class student grade)

6 Watermark 的使用

6.1 Watermark 的使用規則

在創建表時,在屬性字段的最后一行,為時間列創建Watermark,語法如下:

WATERMARK FOR columnName AS WITHOFFSET(columnName delayTime(ms))    

其中 columnName 必須為 LONG ,或BIGINT,或 TimeStamp類型的事件時間。

隨后,Flink 將為該表生成 ROWTIME 字段,用于記錄并表示事件時間。

6.2 Watermark 的使用示例

舉個例子來說明 Watermark 的相關用法,示例 SQL 內容如下:

CREATE TABLE ut_kafka_source(
    user_id VARCHAR
    pay_cash FLOAT
    pay_time LONG
    WATERMARK FOR pay_time AS WITHOFFSET(pay_time 2000)
 )WITH(
    type =kafka11
    bootstrapServers =linux01:9092linux02:9092linux03:9092
    topic =flink-test01
    groupId = group1
    parallelism =1
 );

CREATE TABLE ut_kafka_result(
    user_id VARCHAR
    pay_cash FLOAT
 )WITH(
    type =kafka11
    bootstrapServers =linux01:9092linux02:9092linux03:9092
    topic =flink-test02
    parallelism =1
 );

INSERT INTO
    ut_kafka_result
    SELECT
        user_id
        SUM(pay_cash) as pay_cash
    FROM
        ut_kafka_source
    GROUP BY
        TUMBLE (
            ROWTIME
            INTERVAL 2 SECOND
        )
        user_id

其中,TUMBLE 為生成 滾動窗口 的函數,ROWTIME 為當前表的事件時間。
提示:上述操作需要在提交 SQL 任務時添加指定參數:time.characteristic: EventTime

實時文檔歡迎https://docs.ucloud.cn/uflink/dev/sql

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/126205.html

相關文章

  • Flink實時計算 UFlink】UFlink開發注意事項

    摘要:開發注意事項基于托管集群的應用開發,和自建集群類似,但是仍然有幾個地方需要注意。和默認配置托管集群默認指定以及的堆大小為,目前不支持進行更改單個中的數量設置為高可用配置應用的高可用由集群以及共同保證。配置集群的運行時狀態保存在的指定目錄中。UFlink開發注意事項基于UFlink托管集群的Flink應用開發,和自建集群類似,但是仍然有幾個地方需要注意。JobManager和TaskManag...

    Tecode 評論0 收藏0
  • Flink實時計算 UFlink】基于Maven開發指南

    摘要:基于開發指南本節主要介紹如何創建項目,并開發簡單的應用,從而使該應用可以被提交到平臺運行。如果不設置為,可能會導致的類沖突,產生不可預見的問題。在自動生成的文件中,使用了來更方便的控制依賴的可見性。基于Maven開發指南本節主要介紹如何創建項目,并開發簡單的Flink應用,從而使該Flink應用可以被提交到UFlink平臺運行。==== 自動生成代碼框架 ==== 對于Java開發者,可以使...

    Tecode 評論0 收藏0
  • Flink實時計算 UFlink】什么是實時計算、產品優勢、版本支持

    摘要:什么是實時計算實時計算基于構建,為分布式高性能隨時可用以及準確的流處理應用程序提供流處理框架,可用于流式數據處理等應用場景。版本支持當前支持的版本為,,,可以在提交任務時選擇所使用的版本。什么是實時計算實時計算(UFlink)基于ApacheFlink構建,為分布式、高性能、隨時可用以及準確的流處理應用程序提供流處理框架,可用于流式數據處理等應用場景。產品優勢100%開源兼容基于開源社區版本...

    Tecode 評論0 收藏0
  • Flink實時計算 UFlink】基于gradle開發指南

    摘要:基于開發指南如果基于進行應用開發,需要在文件中加入如下配置注解注意修改的值,確保其符合您的應用。應用開發完成后,可以直接直接運行方法,在本地進行基本的測試。基于gradle開發指南如果基于gradle進行應用開發,需要在build.gradle文件中加入如下配置:buildscript { repositories { jcenter() // this applie...

    Tecode 評論0 收藏0
  • Flink實時計算 UFlink】集群管理

    摘要:集群管理進入集群管理頁面通過集群列表頁面進入集群管理頁面獲取集群詳情通過集群列表的詳情按鈕進入詳情頁面調整集群大小點擊調整容量調整集群大小查看點擊詳情頁的按鈕查看查看任務歷史點擊詳情頁的按鈕查看歷史任務節點密碼重置點擊集群列表頁的集群管理1. 進入集群管理頁面通過UFlink集群列表頁面進入集群管理頁面:2. 獲取集群詳情通過集群列表的詳情按鈕進入詳情頁面:3. 調整集群大小點擊調整容量調整...

    Tecode 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<