成功案例

成交資訊處理 導入Confluent Kafka

隨著時代的演進,金融科技的數位轉型服務發展,市場上的金融交易日漸熱絡,出現各式各樣的衍生性金融商品,滿足使用者各種不同的避險需求,使用者對服務內容與品質的期待也越來越高。為了適應未來快速變動的市場趨勢,位居台灣衍生性金融商品交易領導地位的T中心規劃對系統架構進行升級,以事件串流(Event Streaming)處理,雲原生等最新科技,打造符合使用者的新世代交易系統,不僅能應對龐大的交易量,並且能夠即時處理交易資訊,進一步拓展金融商品市場交易。

客戶導入背景與需求

T中心於盤中儲存大量的交易資訊,而依賴每日累計交易資訊的成交資訊處理作業現行需在盤後進行,巨量的交易資訊批次處理需要耗費大量的執行時間,受限於傳統軟體設計與硬體架構的限制,即使調整各種軟體設定與不斷提昇硬體效能,也無法應對與日俱增的處理需求。觀察國際間各大交易處理中心,已有導入事件串流平台改善交易資訊處理效率,因此計畫以成交資訊處理為使用情境,驗證事件串流平台處理效率。

解決方案

普鴻資訊與 Confluent 原廠強強聯手,突破傳統系統架構的限制,打造即時事件串流處理平台,達成使用者的需求。

  • 由普鴻取得 CCDAK (Confluent Certified Developer for Apache Kafka) 認證的設計師與架構師,進行資料處理需求分析,精準了解需求意義,設計有效應用事件串流特性的實作方案。
  • 將成交資訊的批次交易處理邏輯 (Batch Processing),轉換為 Confluent Kafka 的即時事件串流模型 (Real Time Event Streaming),原本在盤後需要數小時才能完成的批次作業,在盤中即可即時處理產生成交資訊結果。
  • 基於 Confluent Kafka 的系統架構設計,支援軟硬體的錯誤容忍 (Fault Tolerance) 與高可用性 (High Availability),確保交易系統在任何情況下皆能保持服務持續運行。
  • Confluent 提供企業等級的 Kafka 整合與專業服務,在系統環境建置維運、需求分析與實作方法上,具備豐富的經驗,協助降低導入事件串流平台的技術門檻。

創造價值

未來T中心如要推出新的服務項目,皆可於 Confluent Kafka 平台開發與運行,讓服務項目擁有事件串流的即時特性,透過即時 ETL (Real-Time Extract-Transform-Load) 幫資料加值,發掘更多的可能性,給使用者更優質的服務體驗。

© 2022 Copyright - 普鴻資訊股份有限公司
- made by bouncin