Stream Processing with Kafka Streams Képzés
A Kafka Streams ügyféloldali könyvtár olyan alkalmazások és mikroszolgáltatások építéséhez, amelyek adatait továbbítják a Kafka üzenetküldő rendszerbe és onnan. Hagyományosan, Apache Kafka támaszkodott Apache Spark vagy Apache Storm adatok feldolgozására közötti üzenet a termelők és a fogyasztók számára. A Kafka Streams API alkalmazásból történő meghívásával az adatok közvetlenül a Kafkán belül feldolgozhatók, megkerülve azt, hogy az adatokat külön fürtbe kell továbbítani feldolgozásra.
Ebben az oktató által vezetett, élő képzésen a résztvevők megtanulják, hogyan integrálhatja a Kafka Streams egy olyan Java alkalmazásba, amely adatátvitelt továbbít az Apache Kafka felé és az adatfolyam feldolgozása céljából.
A képzés végére a résztvevők képesek lesznek:
- Kafka Streams funkcióit és előnyöit más adatfolyam-feldolgozó keretrendszerekkel szemben megérteni
- Adatfolyamokat közvetlenül egy Kafka-clusteren belül feldolgozni
- Ossza meg egy Java vagy Scala alkalmazást vagy mikroszolgáltatást, amely integrálódik a Kafka és Kafka Streams rendszerrel
- Írjanak összefoglaló kódot, amely bejövő Kafka témákat átalakítja kimenő Kafka témákká
- Az alkalmazást építsék fel, csomagolják össze és telepítsék
Közönség
- Fejlesztők
A képzés formája
- Részt előadásból, részben vitából, gyakorlatokból és sok gyakorlati gyakorlatból áll
Megjegyzések
- A képzéshez testreszabott képzést igényelni, kérjük, lépjen kapcsolatba velünk a megrendezés érdekében
Kurzusleírás
Bevezetés
- Kafka vs Spark, Flink, és Storm
A Kafka Streams szolgáltatásainak áttekintése
- Állapotos és állapot nélküli feldolgozás, eseményidő- alapú feldolgozás, DSL, eseményidő alapú ablakműveletek, stb.
Esettanulmány: Kafka Streams API prediktív költségvetés-készítéshez
A Fejlesztési Környezet kialakítása
Streams alkalmazás létrehozása
A Kafka-klaszter elindítása
A témák és a bemeneti adatok előkészítése
Az adatfolyam-adatok feldolgozásának beállításai
- Felső szintű Kafka Streams DSL
- Alacsony szintű Processor
A bemeneti adatok átalakítása
A kimeneti adatok vizsgálata
A Kafka-klaszter megállítása
Az alkalmazás üzembe helyezésének lehetőségei
- Hagyományos műveleti eszközök (Puppet, Chef és Salt)
- Docker
- WAR fájl
Hibaelhárítás
Összefoglalás, és következtetés
Követelmények
- Apache Kafka megértése
- Java programozási tapasztalat
A nyílt képzésekhez 5+ résztvevő szükséges.
Stream Processing with Kafka Streams Képzés - Booking
Stream Processing with Kafka Streams Képzés - Enquiry
Stream Processing with Kafka Streams - Érdeklődjön a vezetői tanácsadásról!
Érdeklődjön a vezetői tanácsadásról!
Vélemények (1)
Általános áttekintés a tárgyalt témák kulcspontjainak felidézése és áttekintése.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Kurzus - Building Stream Processing Applications with Kafka Streams
Gépi fordítás
Közelgő kurzusok
Rokon tanfolyam
Administration of Confluent Apache Kafka
21 ÓrákUnified Batch and Stream Processing with Apache Beam
14 ÓrákAz Apache Beam egy nyílt forráskódú, egységes programozási modell párhuzamos adatfeldolgozási folyamatok meghatározására és végrehajtására. Ereje abban rejlik, hogy képes kötegelt és adatfolyam-folyamatokat is futtatni, a végrehajtást pedig a Beam egyik támogatott elosztott feldolgozási háttérrendszere hajtja végre: Apache Apex, Apache Flink, Apache Spark és Google Cloud Dataflow. Az Apache Beam olyan ETL (Extract, Transform, and Load) feladatoknál hasznos, mint például az adatok mozgatása különböző tárolóeszközök és adatforrások között, az adatok kívánatosabb formátumba való átalakítása és az adatok új rendszerbe való betöltése.
Ezen az oktató által vezetett, élő (helyszíni vagy távoli) képzésen a résztvevők megtanulják, hogyan implementálják az Apache Beam SDK-kat egy Java vagy Python alkalmazásban, amely adatfeldolgozási folyamatot határoz meg a nagy adathalmazok kisebb darabokra bontásához. független, párhuzamos feldolgozáshoz.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja Apache Beam.
- Használjon egyetlen programozási modellt a kötegelt és adatfolyam-feldolgozás végrehajtásához a Java vagy Python alkalmazásból.
- Csővezetékek végrehajtása több környezetben.
A tanfolyam formátuma
- Rész előadás, részben beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat
Jegyzet
- Ez a tanfolyam a jövőben elérhető lesz Scala. Kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljük.
Confluent Apache Kafka: Cluster Operations and Configuration
16 ÓrákBuilding Kafka Solutions with Confluent
14 ÓrákEz az oktató által vezetett, élő képzés (helyszíni vagy távoli) célja a mérnökök, akik szeretnék használni Fluent (eloszlása Kafka) építeni és kezelni a valós idejű adatfeldolgozó platform azok alkalmazásait.
végére a képzés, a résztvevők képesek lesznek:
- Confluent Platform telepítése és konfigurálása.
- Confluent kezelőeszközeinek és szolgáltatásainak használata a Kafka könnyebb működtetéséhez.
- Bejövő adatok folyamának tárolása és feldolgozása.
- Kafka csomagok optimalizálása és kezelése.
- Adatfolyamok biztonságosítása.
formátuma tanfolyam
- Interaktív előadás és beszélgetés.
- Számos gyakorlat és gyakorlás.
- Élő-laboratóriumi környezetben történő gyakorlati megvalósítás.
tanfolyam testreszabási beállítások
- Ez a tanfolyam a Confluent nyílt forrású verzióján alapul: Confluent Open Source.
- A tanfolyam testreszabására keressék fel minket, hogy megbeszéljük.
Building Data Pipelines with Apache Kafka
7 ÓrákApache Kafka egy elosztott streaming platform. Ez ténylegesen az adatvezetékek építésének szabványa, és sok különféle felhasználási esetet old meg az adatfeldolgozás körül: felhasználható üzenet-sorként, elosztott naplóként, adatfolyam-feldolgozóként stb.
Először az adatvezetékek mögött álló néhány elmélettel kezdjük, majd a Kafka mögött meghúzódó alapvető koncepciókkal kezdjük. Fontos összetevőket is felfedezünk, például a Kafka Streams és a Kafka Connect.
Apache Flink Fundamentals
28 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) bemutatja az elosztott adatfolyam- és kötegelt adatfeldolgozás mögött meghúzódó elveket és megközelítéseket, és végigvezeti a résztvevőket egy valós idejű adatfolyam-alkalmazás létrehozásán a Apache Flink-ban.
A képzés végére a résztvevők képesek lesznek:
- Környezet létrehozása adatelemző alkalmazások fejlesztéséhez.
- Ismerje meg, hogyan működik Apache Flink gráffeldolgozó könyvtára (Gelly).
- Flink-alapú, hibatűrő, adatfolyam-küldő alkalmazások becsomagolása, végrehajtása és figyelése.
- Változatos munkaterhelések kezelése.
- Végezzen haladó elemzést.
- Hozzon létre egy több csomópontból álló Flink-fürtöt.
- Mérje meg és optimalizálja a teljesítményt.
- Integrálja a Flink-et különböző Big Data rendszerekkel.
- Hasonlítsa össze a Flink képességeit más big data feldolgozó keretrendszerekkel.
A Practical Introduction to Stream Processing
21 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban (helyszíni vagy távoli) a résztvevők megtanulják, hogyan állíthatnak be és integrálhatnak különböző Stream Processing keretrendszereket a meglévő nagy adattároló rendszerekkel, valamint a kapcsolódó szoftveralkalmazásokkal és mikroszolgáltatásokkal.
A képzés végére a résztvevők képesek lesznek:
- Telepítsen és konfiguráljon különböző Stream Processing keretrendszereket, mint például a Spark Streaming és a Kafka Streaming.
- Ismerje meg és válassza ki a legmegfelelőbb keretet a munkához.
- Adatfeldolgozás folyamatosan, párhuzamosan és rekordonként.
- Integrálja Stream Processing megoldásait meglévő adatbázisokkal, adattárházakkal, adattókkal stb.
- Integrálja a legmegfelelőbb adatfolyam-feldolgozási könyvtárat a vállalati alkalmazásokkal és mikroszolgáltatásokkal.
Distributed Messaging with Apache Kafka
14 ÓrákEz a kurzus a vállalati építészeknek, fejlesztőknek, rendszergazdáknak és bárkinek, aki meg akarja érteni és használni egy nagy teljesítményű elosztott üzenetküldő rendszert. Ha konkrétabb követelményei vannak (pl. Csak a rendszer adminisztrációs oldala), ez a kurzus személyre szabható, hogy jobban megfeleljen az Ön igényeinek.
Apache Kafka for Python Programmers
7 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak az adatmérnököknek, adattudósoknak és programozóknak szól, akik szeretnék használni a Apache Kafka funkciókat az Python-es adatfolyamban.
A képzés végére a résztvevők képesek lesznek a Apache Kafka segítségével figyelni és kezelni a feltételeket folyamatos adatfolyamokban az Python programozás segítségével.
Confluent KSQL
7 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak a fejlesztőknek szól, akik a Apache Kafka adatfolyam-feldolgozást kódírás nélkül szeretnék megvalósítani.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja a Confluent KSQL-t.
- Állítson be egy adatfolyam-feldolgozási folyamatot csak SQL parancsok használatával (nincs Java vagy Python kódolás).
- Végezzen adatszűrést, átalakításokat, összesítést, összekapcsolást, ablakozást és szekciózást teljes egészében a SQL-ben.
- Interaktív, folyamatos lekérdezések tervezése és üzembe helyezése az ETL és a valós idejű elemzések streameléséhez.
Apache NiFi for Administrators
21 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban (helyszíni vagy távoli) a résztvevők megtanulják, hogyan telepítsék és kezeljék a Apache NiFi-t élő laborkörnyezetben.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja az Apachi NiFi-t.
- Forrása, átalakítása és kezelése különböző, elosztott adatforrásokból, beleértve az adatbázisokat és a nagy adatforrásokat.
- Automatizálja az adatfolyamokat.
- Engedélyezze a streamelési elemzést.
- Alkalmazzon különféle megközelítéseket az adatfeldolgozáshoz.
- Alakítsa át Big Data üzleti betekintést.
Apache NiFi for Developers
7 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban a résztvevők megtanulják az áramlásalapú programozás alapjait, miközben számos demó-bővítményt, komponenst és processzort fejlesztenek a Apache NiFi segítségével.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a NiFi architektúráját és adatfolyam-koncepcióit.
- Bővítmények fejlesztése NiFi és harmadik féltől származó API-k használatával.
- Egyedi fejlesztésű saját Apache Nifi processzort.
- Valós idejű adatok feldolgozása és feldolgozása eltérő és nem megszokott fájlformátumokból és adatforrásokból.
Spark Streaming with Python and Kafka
7 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak az adatmérnököknek, adattudósoknak és programozóknak szól, akik a Spark Streaming funkciókat szeretnék használni a valós idejű adatok feldolgozásához és elemzéséhez.
A képzés végére a résztvevők képesek lesznek a Spark Streaming segítségével feldolgozni az élő adatfolyamokat adatbázisokban, fájlrendszerekben és élő műszerfalakban.