Talend Big Data Integration Képzés
Talend Open Studio for Big Data egy nyílt forráskódú ETL eszköz a nagy adatok feldolgozására. Ez magában foglalja a fejlesztési környezetet, hogy kölcsönhatásba lépjen Big Data forrásokkal és célokkal, és munkát végezzen anélkül, hogy kódot kell írnia.
Ez az oktató által vezetett, élő képzés (online vagy online) azoknak a technikai személyeknek szól, akik az Open Studio telepítését szeretnék Big Data az olvasás és az olvasás folyamatának egyszerűsítésére Big Data keresztül.
A képzés befejezése után a résztvevők képesek lesznek:
- Telepítse és konfigurálja Talend Open Studio for Big Data.
- Csatlakozzon olyan Big Data rendszerekhez, mint a Cloudera, a HortonWorks, a MapR, az Amazon EMR és az Apache.
- Megértése és telepítése Open Studio's nagy adatkomponensek és csatlakozók.
- Állítsa be a paramétereket, hogy automatikusan generálja a MapReduce kódot.
- Használja az Open Studio's drag-and-drop interfész futtatásához Hadoop munkák.
- Prototípus nagy adatcsövek.
- Nagy adatintegrációs projektek automatizálása.
A kurzus formája
- Interaktív előadás és vita.
- Rengeteg gyakorlat és gyakorlat.
- Hands-on megvalósítás egy élő laboratóriumi környezetben.
Szakképesítési lehetőségek
- Ahhoz, hogy egy személyre szabott képzést kérjen erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot a rendezéshez.
Kurzusleírás
Bevezetés
Az „Open Studio for Big Data” szolgáltatásainak és architektúrájának áttekintése
Az Open Studio beállítása a következőhöz: Big Data
Navigálás a felhasználói felületen
A Big Data komponensek és csatlakozók megértése
Csatlakozás egy Hadoop fürthöz
Adatok olvasása és írása
Adatok feldolgozása a Hive és a MapReduce segítségével
Az eredmények elemzése
A Big Data minőségének javítása
Big Data csővezeték építése
Felhasználók, csoportok, szerepkörök és projektek kezelése
Az Open Studio üzembe helyezése éles környezetben
Monitoring Open Studio
Hibaelhárítás
Összefoglalás, és következtetés
Követelmények
- A relációs adatbázisok megértése
- Az adattárház ismerete
- Az ETL (Extract, Transform, Load) fogalmak megértése
Közönség
- Üzleti intelligencia szakemberek
- Adatbázis szakemberek
- SQL Fejlesztők
- ETL fejlesztők
- Megoldás építészek
- Adatépítészek
- Adattárolási szakemberek
- Rendszergazdák és integrátorok
A nyílt képzésekhez 5+ résztvevő szükséges.
Talend Big Data Integration Képzés - Booking
Talend Big Data Integration Képzés - Enquiry
Talend Big Data Integration - Érdeklődjön a vezetői tanácsadásról!
Érdeklődjön a vezetői tanácsadásról!
Vélemények (5)
Sok gyakorlati példa, különböző módok ugyanannak a problémának a megközelítésére, és néha nem túl nyilvánvaló trükkök a jelenlegi megoldás javítására
Rafal - Nordea
Kurzus - Apache Spark MLlib
Gépi fordítás
A tanár a következő módon mutatja be tudását a tárgyban, amelyet tanít:
john ernesto ii fernandez - Philippine AXA Life Insurance Corporation
Kurzus - Data Vault: Building a Scalable Data Warehouse
Gépi fordítás
A gyakorlatok során James részletesen magamnak is magyarázta, amikor akadtam, hogy mit is csináljunk. Én teljesen újonc voltam a NIFI-ban. James elmagyarázta a NIFI valódi célját, még az alapokat is, mint például, hogy miért nyílt forráskódú. Átnézte minden Nifi fogalmat kezdő szinttől a fejlesztői szintig.
Firdous Hashim Ali - MOD A BLOCK
Kurzus - Apache NiFi for Administrators
Gépi fordítás
A tanárképző anyagok előkészítése és szervezése, valamint a GitHub-on megosztott anyagok minősége.
Mateusz Rek - MicroStrategy Poland Sp. z o.o.
Kurzus - Impala for Business Intelligence
Gépi fordítás
Azt, hogy elejétől is voltam birtokában.
Peter Scales - CACI Ltd
Kurzus - Apache NiFi for Developers
Gépi fordítás
Közelgő kurzusok
Rokon tanfolyam
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 ÓrákEz a kurzus azoknak a fejlesztőknek és adattudósoknak szól, akik szeretnék megérteni és megvalósítani a mesterséges intelligenciát alkalmazásaikban. Különös hangsúlyt kap az adatelemzés, az elosztott mesterséges intelligencia és a természetes nyelvi feldolgozás.
Unified Batch and Stream Processing with Apache Beam
14 ÓrákAz Apache Beam egy nyílt forráskódú, egységes programozási modell párhuzamos adatfeldolgozási folyamatok meghatározására és végrehajtására. Ereje abban rejlik, hogy képes kötegelt és adatfolyam-folyamatokat is futtatni, a végrehajtást pedig a Beam egyik támogatott elosztott feldolgozási háttérrendszere hajtja végre: Apache Apex, Apache Flink, Apache Spark és Google Cloud Dataflow. Az Apache Beam olyan ETL (Extract, Transform, and Load) feladatoknál hasznos, mint például az adatok mozgatása különböző tárolóeszközök és adatforrások között, az adatok kívánatosabb formátumba való átalakítása és az adatok új rendszerbe való betöltése.
Ezen az oktató által vezetett, élő (helyszíni vagy távoli) képzésen a résztvevők megtanulják, hogyan implementálják az Apache Beam SDK-kat egy Java vagy Python alkalmazásban, amely adatfeldolgozási folyamatot határoz meg a nagy adathalmazok kisebb darabokra bontásához. független, párhuzamos feldolgozáshoz.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja Apache Beam.
- Használjon egyetlen programozási modellt a kötegelt és adatfolyam-feldolgozás végrehajtásához a Java vagy Python alkalmazásból.
- Csővezetékek végrehajtása több környezetben.
A tanfolyam formátuma
- Rész előadás, részben beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat
Jegyzet
- Ez a tanfolyam a jövőben elérhető lesz Scala. Kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljük.
Data Vault: Building a Scalable Data Warehouse
28 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban a résztvevők megtanulják, hogyan kell Data Vault-et építeni.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg az Data Vault 2.0 mögött meghúzódó architektúra és tervezési koncepciókat, valamint annak interakcióját a Big Data, NoSQL és AI között.
- Használjon adattároló technikákat, hogy lehetővé tegye az adattárházban lévő előzményadatok auditálását, nyomon követését és ellenőrzését.
- Konzisztens és megismételhető ETL (Extract, Transform, Load) folyamat kialakítása.
- Építsen és telepítsen nagymértékben méretezhető és megismételhető raktárakat.
Apache Flink Fundamentals
28 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) bemutatja az elosztott adatfolyam- és kötegelt adatfeldolgozás mögött meghúzódó elveket és megközelítéseket, és végigvezeti a résztvevőket egy valós idejű adatfolyam-alkalmazás létrehozásán a Apache Flink-ban.
A képzés végére a résztvevők képesek lesznek:
- Környezet létrehozása adatelemző alkalmazások fejlesztéséhez.
- Ismerje meg, hogyan működik Apache Flink gráffeldolgozó könyvtára (Gelly).
- Flink-alapú, hibatűrő, adatfolyam-küldő alkalmazások becsomagolása, végrehajtása és figyelése.
- Változatos munkaterhelések kezelése.
- Végezzen haladó elemzést.
- Hozzon létre egy több csomópontból álló Flink-fürtöt.
- Mérje meg és optimalizálja a teljesítményt.
- Integrálja a Flink-et különböző Big Data rendszerekkel.
- Hasonlítsa össze a Flink képességeit más big data feldolgozó keretrendszerekkel.
Introduction to Graph Computing
28 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban a résztvevők megismerkedhetnek a technológiai kínálatokkal és a grafikonadatok feldolgozásának megvalósítási módszereivel. A cél a valós objektumok, jellemzőik és kapcsolataik azonosítása, majd a kapcsolatok modellezése és adatként való feldolgozása Graph Computing (más néven Graph Analytics) megközelítéssel. Kezdjük egy átfogó áttekintéssel, és leszűkítjük a konkrét eszközöket, miközben esettanulmányok, gyakorlati gyakorlatok és élő telepítések sorozatán lépkedünk végig.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a grafikonadatok megőrzését és bejárását.
- Válassza ki a legjobb keretrendszert egy adott feladathoz (a gráfadatbázisoktól a kötegelt feldolgozási keretrendszerekig).
- A Hadoop, a Spark, GraphX és a Pregel megvalósítása számos gépen párhuzamosan végezhet gráfszámítást.
- Tekintse meg a valós világban felmerülő big data problémákat grafikonok, folyamatok és bejárások formájában.
Hortonworks Data Platform (HDP) for Administrators
21 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) bemutatja Hortonworks Data Platform (HDP)-et, és végigvezeti a résztvevőket a Spark + Hadoop megoldás bevezetésén.
A képzés végére a résztvevők képesek lesznek:
- A Hortonworks segítségével megbízhatóan futtathatja a Hadoop-t nagy léptékben.
- Egyesítse a Hadoop biztonsági, irányítási és működési képességeit a Spark agilis analitikai munkafolyamataival.
- A Hortonworks segítségével vizsgálja meg, érvényesítse, hitelesítse és támogassa a Spark-projekt egyes összetevőit.
- Különböző típusú adatokat dolgozhat fel, beleértve a strukturált, strukturálatlan, mozgásban lévő és nyugalmi adatokat.
Data Analysis with Hive/HiveQL
7 ÓrákEz a tanfolyam ismerteti a Hive SQL nyelv használatát (AKA: Hive HQL, SQL on Hive , Hive QL) azok számára, akik adatokat Hive a Hive
Impala for Business Intelligence
21 ÓrákA Cloudera Impala egy nyílt forráskódú, masszívan párhuzamos feldolgozású (MPP) SQL lekérdezőmotor Apache Hadoop fürtökhöz.
A Impala lehetővé teszi a felhasználók számára, hogy alacsony késleltetésű SQL lekérdezéseket küldjenek a Hadoop Distributed File Systemben és az Apache Hbase-ben tárolt adatokhoz anélkül, hogy adatmozgatást vagy átalakítást kellene végezniük.
Közönség
Ez a kurzus azoknak az elemzőknek és adattudósoknak szól, akik a Hadoop-ban tárolt adatokon elemzik a Business Intelligence vagy SQL eszközöket.
A tanfolyam után a küldöttek képesek lesznek
- A Impala segítségével nyerjen ki értelmes információkat a Hadoop klaszterekből.
- Írjon speciális programokat a Business Intelligencia megkönnyítésére a Impala SQL nyelvjárásban.
- Hibaelhárítás Impala.
Confluent KSQL
7 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak a fejlesztőknek szól, akik a Apache Kafka adatfolyam-feldolgozást kódírás nélkül szeretnék megvalósítani.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja a Confluent KSQL-t.
- Állítson be egy adatfolyam-feldolgozási folyamatot csak SQL parancsok használatával (nincs Java vagy Python kódolás).
- Végezzen adatszűrést, átalakításokat, összesítést, összekapcsolást, ablakozást és szekciózást teljes egészében a SQL-ben.
- Interaktív, folyamatos lekérdezések tervezése és üzembe helyezése az ETL és a valós idejű elemzések streameléséhez.
Apache NiFi for Administrators
21 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban (helyszíni vagy távoli) a résztvevők megtanulják, hogyan telepítsék és kezeljék a Apache NiFi-t élő laborkörnyezetben.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja az Apachi NiFi-t.
- Forrása, átalakítása és kezelése különböző, elosztott adatforrásokból, beleértve az adatbázisokat és a nagy adatforrásokat.
- Automatizálja az adatfolyamokat.
- Engedélyezze a streamelési elemzést.
- Alkalmazzon különféle megközelítéseket az adatfeldolgozáshoz.
- Alakítsa át Big Data üzleti betekintést.
Apache NiFi for Developers
7 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban a résztvevők megtanulják az áramlásalapú programozás alapjait, miközben számos demó-bővítményt, komponenst és processzort fejlesztenek a Apache NiFi segítségével.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a NiFi architektúráját és adatfolyam-koncepcióit.
- Bővítmények fejlesztése NiFi és harmadik féltől származó API-k használatával.
- Egyedi fejlesztésű saját Apache Nifi processzort.
- Valós idejű adatok feldolgozása és feldolgozása eltérő és nem megszokott fájlformátumokból és adatforrásokból.
Python and Spark for Big Data (PySpark)
21 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban a résztvevők megtanulják, hogyan használhatják a Python-t és a Spark-ot a nagy adatok elemzésére, miközben gyakorlati gyakorlatokon dolgoznak.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg, hogyan használja a Sparkot a Python-val a Big Data elemzéséhez.
- Dolgozz olyan gyakorlatokon, amelyek a valós eseteket utánozzák.
- Használjon különféle eszközöket és technikákat a nagy adatelemzéshez az PySpark segítségével.
Spark Streaming with Python and Kafka
7 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak az adatmérnököknek, adattudósoknak és programozóknak szól, akik a Spark Streaming funkciókat szeretnék használni a valós idejű adatok feldolgozásához és elemzéséhez.
A képzés végére a résztvevők képesek lesznek a Spark Streaming segítségével feldolgozni az élő adatfolyamokat adatbázisokban, fájlrendszerekben és élő műszerfalakban.
Apache Spark MLlib
35 ÓrákAz MLlib a Spark gépi tanulási (ML) könyvtára. Célja, hogy a gyakorlati gépi tanulás méretezhető és egyszerű legyen. Közös tanulási algoritmusokból és segédprogramokból áll, beleértve a besorolást, a regressziót, a klaszterezést, az együttműködő szűrést, a dimenziócsökkentést, valamint az alacsonyabb szintű optimalizálási primitíveket és a magasabb szintű csővezeték API-kat.
Ez két csomagra oszlik:
A spark.mllib tartalmazza az RDD-re épített eredeti API-t.
A spark.ml magasabb szintű API-t kínál, amely a DataFrames tetején épült ML-csővezetékek építéséhez.
Közönség
Ez a tanfolyam olyan mérnökökre és fejlesztőkre irányul, akik egy beépített gépkönyvtárat kívánnak használni az Apache Spark
Stratio: Rocket and Intelligence Modules with PySpark
14 ÓrákStratio egy adatokra összpontosító platform, amely nagy adatok, mesterséges intelligencia (AI) és kormányzati funkciókat integrál egy egyetlen megoldásba. Az Rocket és Intelligence modullai lehetővé teszik a gyors adatfelfedezést, átalakítást és előrehaladott analitikai feladatok végrehajtását vállalati környezetekben.
Ez az oktatóvezetett élő tanfolyam (online vagy helyszínen) középszerű szintű adatszakembereknek szól, akik hatékonyan szeretnék használni az Stratio Rocket és Intelligence modullait PySpark-al, a ciklusok, felhasználódefiniált függvények és előrehaladott adatlogika hangsúlyozásával.
E tanfolyam végére a résztvevők képesek lesznek:
- Navigálni és dolgozni az Stratio platformon az Rocket és Intelligence modullal.
- Alkalmazni PySpark-t az adatbefogadás, átalakítás és elemzés kontextusában.
- Ciklusokat és feltételes logikát használni az adatfolyamok és a jellemzők generálásának ellenőrzéséhez.
- Létrehozni és kezelni felhasználódefiniált függvényeket (UDF) ismételten felhasználható adatműveletekhez PySpark-ban.
A tanfolyam formátuma
- Interaktív előadás és beszélgetés.
- Sokat gyakorolunk és gyakorolunk.
- Kézbesített implementáció élő laboratóriumi környezetben.
A tanfolyam testreszabási lehetőségei
- Egy testreszabott tanfolyam kéréséhez kérjük, lépjen kapcsolatba velünk.