摘要:在這種情況下,清除僅指窗口中的數據元,而不是窗口元數據。紫色圓圈表示流的數據元,這些數據元由某個鍵在這種情況下是用戶,用戶和用戶劃分。
0 相關源碼
掌握Flink中三種常用的Time處理方式,掌握Flink中滾動窗口以及滑動窗口的使用,了解Flink中的watermark。
Flink 在流處理工程中支持不同的時間概念。
1 處理時間(Processing time)執行相應算子操作的機器的系統時間.
當流程序在處理時間運行時,所有基于時間的 算子操作(如時間窗口)將使用運行相應算子的機器的系統時鐘。每小時處理時間窗口將包括在系統時鐘指示整個小時之間到達特定算子的所有記錄。
例如,如果應用程序在上午9:15開始運行,則第一個每小時處理時間窗口將包括在上午9:15到上午10:00之間處理的事件,下一個窗口將包括在上午10:00到11:00之間處理的事件
處理時間是最簡單的時間概念,不需要流和機器之間的協調
它提供最佳性能和最低延遲。但是,在分布式和異步環境中,處理時間不提供確定性,因為它容易受到記錄到達系統的速度(例如從消息隊列)到記錄在系統內的算子之間流動的速度的影響。和停電(調度或其他)。
2 事件時間(Event time)每個多帶帶的事件在其生產設備上發生的時間.
此時間通常在進入Flink之前內置在記錄中,并且可以從每個記錄中提取該事件時間戳。
在事件時間,時間的進展取決于數據,而不是任何掛鐘。
事件時間程序必須指定如何生成事件時間水印,這是表示事件時間進度的機制.
在一個完美的世界中,事件時間處理將產生完全一致和確定的結果,無論事件何時到達,或者順序.
但是,除非事件已知按順序到達(按時間戳),否則事件時間處理會在等待無序事件時產生一些延遲。由于只能等待一段有限的時間,因此限制了確定性事件時間應用程序的可能性。
假設所有數據都已到達,算子操作將按預期運行,即使在處理無序或延遲事件或重新處理歷史數據時也會產生正確且一致的結果。
例如,每小時事件時間窗口將包含帶有落入該小時的事件時間戳的所有記錄,無論它們到達的順序如何,或者何時處理它們。(有關更多信息,請參閱有關遲發事件的部分。)
請注意,有時當事件時間程序實時處理實時數據時,它們將使用一些處理時間 算子操作,以確保它們及時進行。
3 攝取時間(Ingestion time)事件進入Flink的時間.
在源算子處,每個記錄將源的當前時間作為時間戳,并且基于時間的算子操作(如時間窗口)引用該時間戳。
在概念上位于事件時間和處理時間之間。
與處理時間相比 ,它成本稍微高一些,但可以提供更可預測的結果。因為使用穩定的時間戳(在源處分配一次),所以對記錄的不同窗口 算子操作將引用相同的時間戳,而在處理時間中,每個窗口算子可以將記錄分配給不同的窗口(基于本地系統時鐘和任何運輸延誤)
與事件時間相比,無法處理任何無序事件或后期數據,但程序不必指定如何生成水印。
在內部,攝取時間與事件時間非常相似,但具有自動時間戳分配和自動水印生成函數
4 設置時間特性Flink DataStream程序的第一部分通常設置基本時間特性
顯然,在Flink的流式處理環境中,默認使用處理時間
該設置定義了數據流源的行為方式(例如,它們是否將分配時間戳),以及窗口 算子操作應該使用的時間概念,比如
KeyedStream.timeWindow(Time.seconds(30))。
以下示例顯示了一個Flink程序,該程序在每小時時間窗口中聚合事件。窗口的行為適應時間特征。
Java
final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); env.setStreamTimeCharacteristic(TimeCharacteristic.ProcessingTime); // 可選的: // env.setStreamTimeCharacteristic(TimeCharacteristic.IngestionTime); // env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime); DataStreamstream = env.addSource(new FlinkKafkaConsumer09 (topic, schema, props)); stream .keyBy( (event) -> event.getUser() ) .timeWindow(Time.hours(1)) .reduce( (a, b) -> a.add(b) ) .addSink(...);
Scala
val env = StreamExecutionEnvironment.getExecutionEnvironment env.setStreamTimeCharacteristic(TimeCharacteristic.ProcessingTime) // alternatively: // env.setStreamTimeCharacteristic(TimeCharacteristic.IngestionTime) // env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime) val stream: DataStream[MyEvent] = env.addSource(new FlinkKafkaConsumer09[MyEvent](topic, schema, props)) stream .keyBy( _.getUser ) .timeWindow(Time.hours(1)) .reduce( (a, b) => a.add(b) ) .addSink(...)
請注意,為了在事件時間運行此示例,程序需要使用直接為數據定義事件時間的源并自行發出水印,或者程序必須在源之后注入時間戳分配器和水印生成器。這些函數描述了如何訪問事件時間戳,以及事件流表現出的無序程度。
5 Windows 5.1 簡介Windows是處理無限流的核心。Windows將流拆分為有限大小的“桶”,我們可以在其上應用計算。我們重點介紹如何在Flink中執行窗口,以及程序員如何從其提供的函數中獲益最大化。
窗口Flink程序的一般結構如下所示
第一個片段指的是被Keys化流
而第二個片段指的是非被Keys化流
正如所看到的,唯一的區別是keyBy(...)呼吁Keys流和window(...)成為windowAll(...)非被Key化的數據流。這也將作為頁面其余部分的路線圖。
Keyed Windows Non-Keyed Windows在上面,方括號(...)中的命令是可選的。這表明Flink允許您以多種不同方式自定義窗口邏輯,以便最適合您的需求。
5.2 窗口生命周期簡而言之,只要應該屬于此窗口的第一個數據元到達,就會創建一個窗口,當時間(事件或處理時間)超過其結束時間戳加上用戶指定 時,窗口將被完全刪除allowed lateness(請參閱允許的延遲))。Flink保證僅刪除基于時間的窗口而不是其他類型,例如全局窗口(請參閱窗口分配器)。例如,使用基于事件時間的窗口策略,每5分鐘創建一個非重疊(或翻滾)的窗口,并允許延遲1分鐘,Flink將創建一個新窗口,用于間隔12:00和12:05當具有落入此間隔的時間戳的第一個數據元到達時,當水印通過12:06 時間戳時它將刪除它。
此外,每個窗口將具有Trigger和一個函數(ProcessWindowFunction,ReduceFunction, AggregateFunction或FoldFunction)連接到它。該函數將包含要應用于窗口內容的計算,而Trigger指定窗口被認為準備好應用該函數的條件。
觸發策略可能類似于“當窗口中的數據元數量大于4”時,或“當水印通過窗口結束時”。
觸發器還可以決定在創建和刪除之間的任何時間清除窗口的內容。在這種情況下,清除僅指窗口中的數據元,而不是窗口元數據。這意味著仍然可以將新數據添加到該窗口。
除了上述內容之外,您還可以指定一個Evictor,它可以在觸發器觸發后以及應用函數之前和/或之后從窗口中刪除數據元。
5.3 被Keys化與非被Keys化Windows要指定的第一件事是您的流是否應該鍵入。必須在定義窗口之前完成此 算子操作。使用the keyBy(...)將您的無限流分成邏輯被Key化的數據流。如果keyBy(...)未調用,則表示您的流不是被Keys化的。
對于被Key化的數據流,可以將傳入事件的任何屬性用作鍵(此處有更多詳細信息)。擁有被Key化的數據流將允許您的窗口計算由多個任務并行執行,因為每個邏輯被Key化的數據流可以獨立于其余任務進行處理。引用相同Keys的所有數據元將被發送到同一個并行任務。
在非被Key化的數據流的情況下,您的原始流將不會被拆分為多個邏輯流,并且所有窗口邏輯將由單個任務執行,即并行度為1。
6 窗口分配器指定流是否已鍵入后,下一步是定義一個窗口分配器.
窗口分配器定義如何將數據元分配給窗口,這是通過WindowAssigner 在window(...)(對于被Keys化流)或windowAll()(對于非被Keys化流)調用中指定您的選擇來完成的
WindowAssigner負責將每個傳入數據元分配給一個或多個窗口
Flink帶有預定義的窗口分配器,用于最常見的用例,即
滾動窗口
滑動窗口
會話窗口
全局窗口
還可以通過擴展WindowAssigner類來實現自定義窗口分配器。所有內置窗口分配器(全局窗口除外)都根據時間為窗口分配數據元,這可以是處理時間或事件時間。請查看我們關于活動時間的部分,了解處理時間和事件時間之間的差異以及時間戳和水印的生成方式。
基于時間的窗口具有開始時間戳(包括)和結束時間戳(不包括),它們一起描述窗口的大小。
在代碼中,Flink在使用TimeWindow基于時間的窗口時使用,該窗口具有查詢開始和結束時間戳的方法maxTimestamp()返回給定窗口的最大允許時間戳
下圖顯示了每個分配者的工作情況。紫色圓圈表示流的數據元,這些數據元由某個鍵(在這種情況下是用戶1,用戶2和用戶3)劃分。x軸顯示時間的進度。
6.1 滾動窗口一個滾動窗口分配器的每個數據元分配給指定的窗口的窗口大小。滾動窗口具有固定的尺寸,不重疊.
例如,如果指定大小為5分鐘的翻滾窗口,則將評估當前窗口,并且每五分鐘將啟動一個新窗口,如下圖所示
以下代碼段顯示了如何使用滾動窗口。
Java
DataStreaminput = ...; // tumbling event-time windows input .keyBy( ) .window(TumblingEventTimeWindows.of(Time.seconds(5))) . ( ); // tumbling processing-time windows input .keyBy( ) .window(TumblingProcessingTimeWindows.of(Time.seconds(5))) . ( ); // daily tumbling event-time windows offset by -8 hours. input .keyBy( ) .window(TumblingEventTimeWindows.of(Time.days(1), Time.hours(-8))) . ( );
Scala
val input: DataStream[T] = ... // tumbling event-time windows input .keyBy() .window(TumblingEventTimeWindows.of(Time.seconds(5))) . ( ) // tumbling processing-time windows input .keyBy( ) .window(TumblingProcessingTimeWindows.of(Time.seconds(5))) . ( ) // daily tumbling event-time windows offset by -8 hours. input .keyBy( ) .window(TumblingEventTimeWindows.of(Time.days(1), Time.hours(-8))) . ( )
Scala
Java
6.2 滑動窗口該滑動窗口分配器分配元件以固定長度的窗口。與滾動窗口分配器類似,窗口大小由窗口大小參數配置
附加的窗口滑動參數控制滑動窗口的啟動頻率。因此,如果幻燈片小于窗口大小,則滑動窗口可以重疊。在這種情況下,數據元被分配給多個窗口。
例如,您可以將大小為10分鐘的窗口滑動5分鐘。有了這個,你每隔5分鐘就會得到一個窗口,其中包含過去10分鐘內到達的事件,如下圖所示。
以下代碼段顯示了如何使用滑動窗口
Java
DataStreaminput = ...; // 滑動 事件時間 窗口 input .keyBy( ) .window(TumblingEventTimeWindows.of(Time.seconds(5))) . ( ); // 滑動 處理時間 窗口 input .keyBy( ) .window(TumblingProcessingTimeWindows.of(Time.seconds(5))) . ( ); // daily tumbling event-time windows offset by -8 hours. input .keyBy( ) .window(TumblingEventTimeWindows.of(Time.days(1), Time.hours(-8))) . ( );
Scala
val input: DataStream[T] = ... // tumbling event-time windows input .keyBy(7 窗口函數) .window(TumblingEventTimeWindows.of(Time.seconds(5))) . ( ) // tumbling processing-time windows input .keyBy( ) .window(TumblingProcessingTimeWindows.of(Time.seconds(5))) . ( ) // daily tumbling event-time windows offset by -8 hours. input .keyBy( ) .window(TumblingEventTimeWindows.of(Time.days(1), Time.hours(-8))) . ( )
定義窗口分配器后,我們需要指定要在每個窗口上執行的計算。這是窗口函數的職責,窗口函數用于在系統確定窗口準備好進行處理后處理每個(可能是被Keys化的)窗口的數據元
的窗函數可以是一個ReduceFunction,AggregateFunction,FoldFunction或ProcessWindowFunction。前兩個可以更有效地執行,因為Flink可以在每個窗口到達時遞增地聚合它們的數據元.
ProcessWindowFunction獲取Iterable窗口中包含的所有數據元以及有關數據元所屬窗口的其他元信息。
具有ProcessWindowFunction的窗口轉換不能像其他情況一樣有效地執行,因為Flink必須在調用函數之前在內部緩沖窗口的所有數據元。這可以通過組合來減輕ProcessWindowFunction與ReduceFunction,AggregateFunction或FoldFunction以獲得兩個窗口元件的增量聚合并且該附加元數據窗口 ProcessWindowFunction接收。我們將查看每個變體的示例。
7.1 ReduceFunction指定如何組合輸入中的兩個數據元以生成相同類型的輸出數據元.
Flink使用ReduceFunction來遞增地聚合窗口的數據元.
定義和使用Java
DataStream> input = ...; input .keyBy( ) .window( ) .reduce(new ReduceFunction > { public Tuple2 reduce(Tuple2 v1, Tuple2 v2) { return new Tuple2<>(v1.f0, v1.f1 + v2.f1); } });
Scala
val input: DataStream[(String, Long)] = ... input .keyBy() .window( ) .reduce { (v1, v2) => (v1._1, v1._2 + v2._2) }
原來傳遞進來的數據是字符串,此處我們就使用數值類型,通過數值類型來演示增量的效果
這里不是等待窗口所有的數據進行一次性處理,而是數據兩兩處理
輸入
增量輸出
Java
7.2 聚合函數An AggregateFunction是一個通用版本,ReduceFunction它有三種類型:輸入類型(IN),累加器類型(ACC)和輸出類型(OUT)。輸入類型是輸入流中數據元的類型,并且AggregateFunction具有將一個輸入數據元添加到累加器的方法。該接口還具有用于創建初始累加器的方法,用于將兩個累加器合并到一個累加器中以及用于OUT從累加器提取輸出(類型)。我們將在下面的示例中看到它的工作原理。
與之相同ReduceFunction,Flink將在窗口到達時遞增地聚合窗口的輸入數據元。
一個AggregateFunction可以被定義并這樣使用:
/** * The accumulator is used to keep a running sum and a count. The {@code getResult} method * computes the average. */ private static class AverageAggregate implements AggregateFunction, Tuple2 , Double> { @Override public Tuple2 createAccumulator() { return new Tuple2<>(0L, 0L); } @Override public Tuple2 add(Tuple2 value, Tuple2 accumulator) { return new Tuple2<>(accumulator.f0 + value.f1, accumulator.f1 + 1L); } @Override public Double getResult(Tuple2 accumulator) { return ((double) accumulator.f0) / accumulator.f1; } @Override public Tuple2 merge(Tuple2 a, Tuple2 b) { return new Tuple2<>(a.f0 + b.f0, a.f1 + b.f1); } } DataStream > input = ...; input .keyBy( ) .window( ) .aggregate(new AverageAggregate());
Scala
The accumulator is used to keep a running sum and a count. The [getResult] method * computes the average. */ class AverageAggregate extends AggregateFunction[(String, Long), (Long, Long), Double] { override def createAccumulator() = (0L, 0L) override def add(value: (String, Long), accumulator: (Long, Long)) = (accumulator.\_1 + value.\_2, accumulator.\_2 + 1L) override def getResult(accumulator: (Long, Long)) = accumulator.\_1 / accumulator.\_2 override def merge(a: (Long, Long), b: (Long, Long)) = (a.\_1 + b.\_1, a.\_2 + b.\_2) } val input: DataStream[(String, Long)] = ... input .keyBy(7.3 ProcessWindowFunction) .window( ) .aggregate(new AverageAggregate)
ProcessWindowFunction獲取包含窗口的所有數據元的Iterable,以及可訪問時間和狀態信息的Context對象,這使其能夠提供比其他窗口函數更多的靈活性。這是以性能和資源消耗為代價的,因為數據元不能以遞增方式聚合,而是需要在內部進行緩沖,直到窗口被認為已準備好進行處理。
ProcessWindowFunction外觀簽名如下:
public abstract class ProcessWindowFunctionimplements Function { /** * Evaluates the window and outputs none or several elements. * * @param key The key for which this window is evaluated. * @param context The context in which the window is being evaluated. * @param elements The elements in the window being evaluated. * @param out A collector for emitting elements. * * @throws Exception The function may throw exceptions to fail the program and trigger recovery. */ public abstract void process( KEY key, Context context, Iterable elements, Collector out) throws Exception; /** * The context holding window metadata. */ public abstract class Context implements java.io.Serializable { /** * Returns the window that is being evaluated. */ public abstract W window(); /** Returns the current processing time. */ public abstract long currentProcessingTime(); /** Returns the current event-time watermark. */ public abstract long currentWatermark(); /** * State accessor for per-key and per-window state. * * NOTE:If you use per-window state you have to ensure that you clean it up * by implementing {@link ProcessWindowFunction#clear(Context)}. */ public abstract KeyedStateStore windowState(); /** * State accessor for per-key global state. */ public abstract KeyedStateStore globalState(); } }
abstract class ProcessWindowFunction[IN, OUT, KEY, W <: Window] extends Function { /** * Evaluates the window and outputs none or several elements. * * @param key The key for which this window is evaluated. * @param context The context in which the window is being evaluated. * @param elements The elements in the window being evaluated. * @param out A collector for emitting elements. * @throws Exception The function may throw exceptions to fail the program and trigger recovery. */ def process( key: KEY, context: Context, elements: Iterable[IN], out: Collector[OUT]) /** * The context holding window metadata */ abstract class Context { /** * Returns the window that is being evaluated. */ def window: W /** * Returns the current processing time. */ def currentProcessingTime: Long /** * Returns the current event-time watermark. */ def currentWatermark: Long /** * State accessor for per-key and per-window state. */ def windowState: KeyedStateStore /** * State accessor for per-key global state. */ def globalState: KeyedStateStore } }
該key參數是通過KeySelector為keyBy()調用指定的Keys提取的Keys。在元組索引鍵或字符串字段引用的情況下,此鍵類型始終是Tuple,您必須手動將其轉換為正確大小的元組以提取鍵字段。
A ProcessWindowFunction可以像這樣定義和使用:
DataStream> input = ...; input .keyBy(t -> t.f0) .timeWindow(Time.minutes(5)) .process(new MyProcessWindowFunction()); /* ... */ public class MyProcessWindowFunction extends ProcessWindowFunction , String, String, TimeWindow> { @Override public void process(String key, Context context, Iterable > input, Collector out) { long count = 0; for (Tuple2 in: input) { count++; } out.collect("Window: " + context.window() + "count: " + count); } }
val input: DataStream[(String, Long)] = ... input .keyBy(_._1) .timeWindow(Time.minutes(5)) .process(new MyProcessWindowFunction()) /* ... */ class MyProcessWindowFunction extends ProcessWindowFunction[(String, Long), String, String, TimeWindow] { def process(key: String, context: Context, input: Iterable[(String, Long)], out: Collector[String]): () = { var count = 0L for (in <- input) { count = count + 1 } out.collect(s"Window ${context.window} count: $count") } }
該示例顯示了ProcessWindowFunction對窗口中的數據元進行計數的情況。此外,窗口函數將有關窗口的信息添加到輸出。
注意注意,使用ProcessWindowFunction簡單的聚合(例如count)是非常低效的
8 水印推薦閱讀
Flink流計算編程--watermark(水位線)簡介
參考Event Time
Windows
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/75548.html
摘要:每個在簡潔性和表達性之間提供不同的權衡,并針對不同的用例。在這些中處理的數據類型在相應的編程語言中表示為類。該是為中心的聲明性表,其可被動態地改變的表表示流時。這種抽象在語義和表達方面類似于,但是將程序表示為查詢表達式。 1 意義 1.1 分層的 APIs & 抽象層次 Flink提供三層API。 每個API在簡潔性和表達性之間提供不同的權衡,并針對不同的用例。 showImg(ht...
摘要:默認情況下,當數據元到達時,分段接收器將按當前系統時間拆分,并使用日期時間模式命名存儲區。如果需要,可以使用數據元或元組的屬性來確定目錄。這將調用傳入的數據元并將它們寫入部分文件,由換行符分隔。消費者的消費者被稱為或等。 1 概覽 1.1 預定義的源和接收器 Flink內置了一些基本數據源和接收器,并且始終可用。該預定義的數據源包括文件,目錄和插socket,并從集合和迭代器攝取數據...
摘要:在每個事件上,觸發器都可以決定觸發即清除刪除窗口并丟棄其內容,或者啟動并清除窗口。請注意,指定的觸發器不會添加其他觸發條件,但會替換當前觸發器。結論對于現代流處理器來說,支持連續數據流上的各種類型的窗口是必不可少的。 showImg(https://segmentfault.com/img/remote/1460000017892799?w=1280&h=720); 前言 目前有許多數...
showImg(https://segmentfault.com/img/remote/1460000019961426); 今天在 Apache Flink meetup ·北京站進行 Flink 1.9 重大新特性進行了講解,兩位講師分別是 戴資力/楊克特,zhisheng 我也從看完了整個 1.9 特性解讀的直播,預計 Flink 1.9 版本正式發布時間大概是 7 月底 8 月初左右正式發...
閱讀 3070·2023-04-25 16:50
閱讀 904·2021-11-25 09:43
閱讀 3512·2021-09-26 10:11
閱讀 2518·2019-08-26 13:28
閱讀 2531·2019-08-26 13:23
閱讀 2419·2019-08-26 11:53
閱讀 3566·2019-08-23 18:19
閱讀 2987·2019-08-23 16:27