Hadoop Kurzusok

Hadoop Kurzusok

A helyi, oktató által vezetett élő Apache Hadoop tanfolyamok interaktív gyakorlati gyakorlattal demonstrálják a Hadoop ökoszisztéma alapvető elemeit, és azt, hogy ezekkel a technológiákkal hogyan lehet nagyszabású problémák megoldására használni. A Hadoop-képzés "on-site élő képzés" vagy "távoli élő képzés" formájában érhető el. A helyszíni élő képzés helyi szinten valósulhat meg az ügyfél telephelyén Magyarország vagy a NobleProg vállalati oktatóközpontjaiban Magyarország . A távoli élőképzés interaktív, távoli asztal segítségével történik. NobleProg - a helyi oktatási szolgáltató

Machine Translated

Vélemények

★★★★★
★★★★★

Hadoop Course Outlines

Kurzusnév
Időtartalma
Összefoglaló
Kurzusnév
Időtartalma
Összefoglaló
21 hours
Python egy méretezhető, rugalmas és széles körben használt programozási nyelv az adattudomány és a gépi tanulás számára. A Spark egy adatfeldolgozó motor, amelyet a nagy adatok lekérdezésében, elemzésében és átalakításában használnak, miközben Hadoop egy szoftverkönyvtár keretrendszer a nagyszabású adatok tárolására és feldolgozására. Ez az oktató által vezetett, élő képzés (online vagy online) olyan fejlesztőknek szól, akik szeretnék használni és integrálni a Spark-t, Hadoop, és Python a nagy és összetett adatkészletek feldolgozására, elemzésére és átalakítására. A képzés befejezése után a résztvevők képesek lesznek:
    Hozzon létre a szükséges környezetet a nagy adatok feldolgozásának megkezdéséhez a Spark, Hadoop, és Python segítségével. Ismerje meg a tulajdonságokat, a központi összetevőket és az építészet a Spark és Hadoop. Ismerje meg, hogyan kell integrálni a Spark, Hadoop, és Python a nagy adatfeldolgozás. Fedezze fel az eszközöket a Spark ökoszisztémában (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka és Flume). Hozzon létre együttműködő szűrő ajánlás rendszerek hasonló Netflix, YouTube, Amazon, Spotify, és Google. Használja az Apache Mahout-ot a gépi tanulási algoritmusok méretezéséhez.
A kurzus formája
    Interaktív előadás és vita. Rengeteg gyakorlat és gyakorlat. Hands-on megvalósítás egy élő laboratóriumi környezetben.
Szakképesítési lehetőségek
    Ahhoz, hogy egy személyre szabott képzést kérjen erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot a rendezéshez.
7 hours
Ez a tanfolyam ismerteti a Hive SQL nyelv használatát (AKA: Hive HQL, SQL on Hive , Hive QL) azok számára, akik adatokat Hive a Hive
14 hours
A Datameer a Hadoopra épülő üzleti intelligencia és elemzési platform Ez lehetővé teszi a végfelhasználók számára, hogy könnyedén hozzáférjenek, feltárhassanak és korrelálhassanak nagy méretű, strukturált, félig strukturált és strukturálatlan adatokat Ebben az oktatott, élő képzésben a résztvevők megtanulják használni a Datameert, hogy leküzdjék a Hadoop meredek tanulási görbéjét, miközben átmegyek egy sor nagy adatforrás létrehozásán és elemzésén A képzés végére a résztvevők képesek lesznek: Hozzon létre, gondoskodjon és interaktíven vizsgálja meg a vállalati adatok tóját Hozzáférés az üzleti intelligencia adattárházakhoz, tranzakciós adatbázisokhoz és más analitikus üzletekhez Használjon táblázatos felhasználói felületet a végfelhasználói adatfeldolgozó csővezetékek tervezéséhez Az előre telepített funkciók elérése komplex adatkapcsolatok feltérképezéséhez Használja a draganddrop varázslókat az adatok megjelenítéséhez és az irányítópultok létrehozásához A lekérdezési eredmények elemzéséhez táblázatokat, diagramokat, grafikonokat és térképeket használjon Közönség Adatelemzők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
21 hours
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration
35 hours
Közönség: A kurzus olyan informatikai szakemberek számára készült, akik megoldást keresnek a nagy adatállományok tárolására és feldolgozására elosztott rendszerkörnyezetben Go : Mély tudás a Hadoop klaszter adminisztrációról.
28 hours
Audience: This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 hours
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.  
21 hours
Az Apache Hadoop az egyik legnépszerűbb keretrendszer a Big Data feldolgozására a kiszolgálók csoportjain. Ez a kurzus a HDFS, az előrehaladott Pig, Hive és a HBase adatkezelésére terjed ki. Ezek a fejlett programozási technikák hasznosak lesznek a tapasztalt Hadoop fejlesztők számára. Közönség : fejlesztők Időtartam: három nap Formátum: előadások (50%) és gyakorlati laborok (50%).
21 hours
This course introduces HBase – a NoSQL store on top of Hadoop.  The course is intended for developers who will be using HBase to develop applications,  and administrators who will manage HBase clusters. We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course  is very  hands-on with lots of lab exercises.
Duration : 3 days Audience : Developers  & Administrators
21 hours
Az Apache Hadoop a legnépszerűbb keretrendszer a Big Data feldolgozásához a kiszolgálók csoportjain. Ebben a három (adott esetben négy) nappal Természetesen a résztvevők megismerkedhetnek az üzleti előnyöket és használati esetek a Hadoop és az ökoszisztéma, hogyan kell tervezni klaszter kiépítése és a növekedés, hogyan kell telepíteni, karbantartani, monitor, hibaelhárítás és optimalizálja Hadoop . A klaszter tömeges Hadoop megismertetik, megismerkedhetnek a Hadoop különböző elosztásaival, és gyakorolják a Hadoop ökoszisztéma eszközök telepítését és kezelését. A kurzus befejeződik, amikor megvitatjuk a fürtöt a Kerberossal. „… Az anyagok nagyon jól felkészültek és alaposan lefedtek. A Lab nagyon hasznos és jól szervezett volt ”
- Andrew Nguyen, a fő integrációs DW mérnök, a Microsoft Online Advertising Közönség Hadoop rendszergazdák Formátum Előadások és gyakorlati laboratóriumok, közelítő egyensúly 60% előadások, 40% laboratóriumok.
21 hours
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics Audience Business Analysts Duration three days Format Lectures and hands on labs.
21 hours
A Hadoop a legnépszerűbb nagy adatfeldolgozási keretrendszer .
14 hours
Audience
  • Developers
Format of the Course
  • Lectures, hands-on practice, small tests along the way to gauge understanding
21 hours

Ez a tanfolyam fejlesztőknek, építészeknek, adattudósoknak vagy bármilyen profilnak szól, amely intenzív vagy rendszeres hozzáférést igényel az adatokhoz. A kurzus fókuszában az adatok kezelése és átalakítása áll. A Hadoop ökoszisztéma eszközei között ez a kurzus magában foglalja a Pig és a Hive is, amelyeket mindkettőt erősen használnak az adatok átalakításához és a manipulációhoz. Ez a képzés a teljesítménymutatókkal és a teljesítmény optimalizálásával is foglalkozik. A kurzus teljes egészében elkészült, és az elméleti szempontok bemutatásával elválasztva van.
14 hours
In this instructor-led training in Magyarország, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will  improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve. Audience
  • Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
  • Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 hours
Az Apache Samza egy nyílt forrású, közel-valós idejű, aszinkron számítási keret az adatfolyam-feldolgozáshoz. Az Apache Kafka t használja az üzenetküldéshez, és az Apache Hadoop YARN-t hibatűréshez, a processzor elkülönítéséhez, a biztonsághoz és az erőforrás-kezeléshez. Ez az oktató által vezetett, élő képzés bemutatja az üzenetküldő rendszerek és az elosztott adatfolyam-feldolgozás mögött meghúzódó alapelveket, miközben a résztvevőket egy minta Samza-alapú projekt létrehozásával és a feladat végrehajtásával járja el. A képzés végére a résztvevők képesek lesznek:
  • A Samza segítségével egyszerűsítheti az üzenetek előállításához és fogyasztásához szükséges kódot.
  • Válasszuk szét az üzenetek kezelését egy alkalmazásról.
  • Használja a Samzát a valósidejű aszinkron számítás megvalósításához.
  • Használjon adatfeldolgozást, hogy magasabb absztrakciót biztosítson az üzenetküldő rendszerek felett.
Közönség
  • Fejlesztők
A tantárgy formátuma
  • Részleges előadás, részleges beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat
7 hours
Alluxio egy nyílt forráskódú virtuális elosztott tárolási rendszer, amely egyesíti a különböző tárolási rendszerek és lehetővé teszi a alkalmazások, hogy kölcsönhatásba az adatok a memória sebességgel. Olyan cégek, mint az Intel, a Baidu és az Alibaba. Ebben az oktató által vezetett, élő képzésben a résztvevők megtanulják, hogyan kell használni Alluxio különböző számítási kereteket tároló rendszerekkel és hatékonyan kezelni a multi-petabyte méretű adatokat, miközben egy alkalmazás létrehozásán keresztül lépnek Alluxio. A képzés befejezése után a résztvevők képesek lesznek:
    Fejleszteni egy alkalmazást Alluxio A nagy adatrendszerek és alkalmazások összekapcsolása egy névtér megőrzésével Hatékonyan kivonja az értékeket a nagy adatokból bármely tárolási formátumban A munkaerő teljesítményének javítása Elhelyezése és kezelése Alluxio önálló vagy csoportosított
közönség
    adat tudós Fejlesztő rendszer adminisztrátor
A kurzus formázása
    Részes előadások, részes viták, gyakorlatok és nehéz gyakorlatok
14 hours
A Tigon egy nyílt forráskódú, valós idejű, lowlatency, highthroughput, natív YARN streamfolyam keretrendszer, amely a HDFS és a HBase tetején ül a kitartásért A Tigon alkalmazások olyan eseteket használnak fel, mint például a hálózati behatolás felderítése és elemzés, a közösségi médiapiaci elemzés, a helyelemzés és a felhasználók számára valós idejű ajánlások Ez az oktatott, élő képzés bemutatja a Tigon megközelítését a valós idejű és a tételes feldolgozáshoz, miközben a résztvevők egy mintaalkalmazáson keresztül járnak A képzés végére a résztvevők képesek lesznek: Készítsen erőteljes adatfeldolgozó alkalmazásokat nagy mennyiségű adat kezelésére Folyamatáramforrások, például a Twitter és a Webszerver naplók Használja a Tigont a folyamok gyors összekapcsolásához, szűréséhez és aggregálásához Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
21 hours
Apache NiFi ( Apache NiFi ) egy valós idejű integrált adat logisztikai és egyszerű eseményfeldolgozó platform, amely lehetővé teszi az adatok mozgatását, követését és automatizálását a rendszerek között. Az áramlás-alapú programozással készült, és web-alapú felhasználói felületet biztosít az adatfolyamok valós időben történő kezeléséhez. Ebben az oktató által vezetett, élő képzésen (helyszíni vagy távoli) a résztvevők megtanulják, hogyan telepíthető és kezelhető az Apache NiFi egy élő laboratóriumi környezetben. A képzés végére a résztvevők képesek lesznek:
  • Telepítse és konfigurálja az Apachi NiFi-t.
  • Adatok forrása, átalakítása és kezelése eltérő, elosztott adatforrásokból, ideértve az adatbázisokat és a nagy adatlakokat is.
  • Automatizálja az adatfolyamokat.
  • Engedélyezze a streaming elemzést.
  • Különböző megközelítéseket alkalmaz az adatok begyűjtésére.
  • A Big Data átvitele az üzleti betekintésbe.
A tantárgy formátuma
  • Interaktív előadás és beszélgetés.
  • Sok gyakorlat és gyakorlat.
  • Gyakorlati megvalósítás élő laboratóriumi környezetben.
Tanfolyam testreszabási lehetőségek
  • Ahhoz, hogy igényeljen személyre szabott képzést erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljünk.
7 hours
Apache NiFi ( Apache NiFi ) egy valós idejű integrált adat logisztikai és egyszerű eseményfeldolgozó platform, amely lehetővé teszi az adatok mozgatását, követését és automatizálását a rendszerek között. Az áramlás-alapú programozással készült, és web-alapú felhasználói felületet biztosít az adatfolyamok valós időben történő kezeléséhez. Ebben az oktató által vezetett, élő képzésen a résztvevők megtanulják az áramlás-alapú programozás alapjait, mivel az Apache NiFi segítségével számos demo kiterjesztést, komponenst és processzort Apache NiFi . A képzés végére a résztvevők képesek lesznek:
  • Ismerje meg a NiFi architektúráját és adatfolyam-koncepcióit.
  • Fejlesztéseket dolgozzon ki NiFi és harmadik fél API-k segítségével.
  • Az egyedi fejlesztheti saját Apache Nifi processzort.
  • Beolvassa és dolgozza fel a valós idejű adatokat eltérő és ritka fájlformátumokból és adatforrásokból.
A tantárgy formátuma
  • Interaktív előadás és beszélgetés.
  • Sok gyakorlat és gyakorlat.
  • Gyakorlati megvalósítás élő laboratóriumi környezetben.
Tanfolyam testreszabási lehetőségek
  • Ahhoz, hogy igényeljen személyre szabott képzést erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljünk.
28 hours
Hadoop egy népszerű Big Data feldolgozási keret. Python egy magas szintű programozási nyelv híres a világos szintax és a kódolhatóság. Ebben az oktató által vezetett, élő képzésben a résztvevők megtanulják, hogyan kell dolgozni Hadoop, MapReduce, Pig, és Spark használatával Python, miközben több példa és használati esetek. A képzés befejezése után a résztvevők képesek lesznek:
    Ismerje meg az alapvető fogalmakat Hadoop, MapReduce, Pig, és Spark Használja Python Hadoop Distributed File System (HDFS), MapReduce, Pig, és Spark Használja a Snakebite-t, hogy programozottan hozzáférjen a HDFS-hez Python Használja a mrjobot a MapReduce munkák írásához Python Írja meg a Spark programokat Python Kiterjeszti a sertés funkcionalitását Python UDF-k használatával Menedzsment MapReduce munkák és Pig scripts használatával Luigi
közönség
    Fejlesztők IT szakemberek
A kurzus formázása
    Részes előadások, részes viták, gyakorlatok és nehéz gyakorlatok
14 hours
A Sqoop egy nyílt forráskódú szoftver, amely adatátvitelre szolgál a Hadoop és a relációs adatbázisok vagy nagygépek között. Használható adatok importálására egy relációs adatbázis-kezelő rendszerből (RDBMS), például a My SQL vagy az Oracle vagy egy nagyszámítógépről a Hadoop elosztott fájlrendszerére (HDFS). Ezt követően az adatok átalakíthatók a Hadoop MapReduce-ban, majd újra exportálhatók egy RDBMS-be. Ebben az oktató által vezetett, élő képzésen a résztvevők megtanulják, hogyan lehet az Sqoop segítségével adatokat importálni a hagyományos relációs adatbázisból a Hadoop tárolójába, például HDFS vagy Hive és fordítva. A képzés végére a résztvevők képesek lesznek:
  • Telepítse és konfigurálja az Sqoop szoftvert
  • Adatok importálása a My SQL a HDFS-hez és a Hive
  • Adatok importálása a HDFS-ből és a Hive a My SQL
Közönség
  • Rendszergazdák
  • Adatmérnökök
A tantárgy formátuma
  • Részleges előadás, részleges beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat
jegyzet
  • Ahhoz, hogy igényeljen személyre szabott képzést erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljünk.
21 hours
A nagy adatelemzés magában foglalja a nagy mennyiségű, változatos adatkészlet vizsgálatát a korrelációk, rejtett minták és egyéb hasznos betekintések feltárása érdekében. Az egészségügyi ágazat hatalmas mennyiségű komplex, heterogén orvosi és klinikai adatot tartalmaz. A nagy adatelemzés alkalmazása az egészségügyi adatokra hatalmas potenciállal jár ahhoz, hogy betekintést szerezzen az egészségügyi ellátás javításában. Ezen adatkészletek hatalmassága azonban nagy kihívást jelent az elemzésekben és a klinikai környezetben történő gyakorlati alkalmazásokban. Ebben az oktató által vezetett, élő (távoli) képzésen a résztvevők megtanulják, hogyan végezzen nagy adatelemzést az egészségben, miközben gyakorlati élő laboratóriumi gyakorlatokat végeznek. A képzés végére a résztvevők képesek lesznek:
  • Telepítse és konfigurálja a nagy adatelemző eszközöket, például a Hadoop MapReduce és a Spark
  • Megérteni az orvosi adatok jellemzőit
  • Nagyméretű technikák alkalmazása az orvosi adatok kezelésére
  • Tanulmányozza a nagy adatrendszereket és algoritmusokat az egészségügyi alkalmazások összefüggésében
Közönség
  • Fejlesztők
  • Adattudósok
A tantárgy formátuma
  • Részleges előadás, részleges beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat.
jegyzet
  • Ahhoz, hogy igényeljen személyre szabott képzést erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljünk.
35 hours
Az Apache Hadoop egy népszerű adatfeldolgozási keret a nagy adatkészletek feldolgozására számos számítógépen. Ez az oktató által vezetett, élő képzés (online vagy online) olyan rendszergazdákra irányul, akik szeretnék megtanulni, hogyan kell létrehozni, telepíteni és kezelni Hadoop csoportokat szervezetükön belül. A képzés befejezése után a résztvevők képesek lesznek:
    Az Apache telepítése és konfigurálása Hadoop. Ismerje meg a Hadoop ökoszisztéma négy fő összetevőjét: HDFS, MapReduce, YARN és Hadoop Common. Használja Hadoop Distributed File System (HDFS), hogy egy oszlopot több száz vagy több ezer csomópontra méretezzen. •   Telepítse a HDFS-t, hogy tárolómotorként működjön az on-premise Spark telepítésekhez. A Spark beállítása az alternatív tárolási megoldásokhoz való hozzáféréshez, mint például az Amazon S3 és NoSQL adatbázis-rendszerekhez, mint például a Redis, Elasticsearch, a Couchbase, Aerospike, stb. Végezzen adminisztratív feladatokat, mint például az Apache Hadoop klaszter biztosítása, kezelése, nyomon követése és biztosítása.
A kurzus formája
    Interaktív előadás és vita. Rengeteg gyakorlat és gyakorlat. Hands-on megvalósítás egy élő laboratóriumi környezetben.
Szakképesítési lehetőségek
    Ahhoz, hogy egy személyre szabott képzést kérjen erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot a rendezéshez.
21 hours
Cloudera Impala egy nyílt forráskódú tömeges párhuzamos feldolgozás (MPP) SQL keresőmotor Apache Hadoop klusterek. Impala lehetővé teszi a felhasználók számára, hogy alacsony frekvenciájú kérelmeket bocsátanak ki az Hadoop Distributed File System és az Apache Hbase-ban tárolt adatokra, anélkül, hogy adatmozgásra vagy átalakításra lenne szükségük. közönség Ez a kurzus arra irányul, hogy az elemzők és az adattudósok elemzést végezzenek az Hadoop eszközökben tárolt adatokról. Ezután a képviselők képesek lesznek
    Jelentős információkat kivonunk az Hadoop csoportokból Impala. Írjon konkrét programokat, hogy megkönnyítse Business Intelligence a Impala SQL Dialect. A probléma megoldása Impala.
21 hours
Apache Ambari egy nyílt forrású felügyeleti platform az Apache Hadoop fürtök biztosításához, kezeléséhez, felügyeletéhez és biztonságához. Ebben az oktató által vezetett élő képzésen a résztvevők megtanulják az Ambari által biztosított menedzsment eszközöket és gyakorlatokat a Hadoop klaszterek sikeres kezeléséhez. A képzés végére a résztvevők képesek lesznek:
  • Állítson be egy élő Big Data fürtöt az Ambari használatával
  • Alkalmazza az Ambari speciális szolgáltatásait és funkcióit különböző felhasználási esetekre
  • Zökkenőmentesen adjon hozzá és távolítson el csomópontokat, ha szükséges
  • Javítsa a Hadoop fürt teljesítményét hangolás és csípés révén
Közönség
  • DevOps
  • Rendszergazdák
  • DBA
  • Hadoop tesztelési szakemberek
A tantárgy formátuma
  • Részleges előadás, részleges beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat
21 hours
Hortonworks Data Platform (HDP) egy nyílt forráskódú Apache Hadoop támogatási platform, amely stabil alapot nyújt nagy adatmegoldások kifejlesztéséhez az Apache Hadoop ökoszisztémán. Ez az oktató által irányított, élő (helyszíni vagy távoli) képzés bemutatja a Hortonworks Data Platform (HDP) és a résztvevőket a Spark + Hadoop megoldás telepítésével járja el. A képzés végére a résztvevők képesek lesznek:
  • Használja a Hortonworks alkalmazást a Hadoop nagyméretű megbízható futtatásához.
  • Egyesítse a Hadoop biztonsági, irányítási és működési képességeit a Spark agilis elemző munkafolyamataival.
  • A Hortonworks segítségével vizsgálhatja meg, érvényesítse, tanúsítsa és támogassa a Spark projekt minden egyes elemét.
  • Különböző típusú adatok feldolgozása, ideértve a strukturált, nem strukturált, mozgásban lévő és nyugalmi állapotban lévő adatokat is.
A tantárgy formátuma
  • Interaktív előadás és beszélgetés.
  • Sok gyakorlat és gyakorlat.
  • Gyakorlati megvalósítás élő laboratóriumi környezetben.
Tanfolyam testreszabási lehetőségek
  • Ahhoz, hogy igényeljen személyre szabott képzést erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljünk.

Last Updated:

Upcoming Apache Hadoop Courses

Online Apache Hadoop courses, Weekend Hadoop courses, Evening Hadoop training, Apache Hadoop boot camp, Apache Hadoop instructor-led, Weekend Apache Hadoop training, Evening Apache Hadoop courses, Hadoop coaching, Apache Hadoop instructor, Hadoop trainer, Apache Hadoop training courses, Hadoop classes, Hadoop on-site, Hadoop private courses, Hadoop one on one training

Kedvezmények tanfolyamokra

Hírlevél kedvezmény

Tiszteletben tartjuk az Ön e-mail címét. Nem fogjuk továbbítani és nem adjuk el a címet más feleknek. Bármikor megváltoztathatja preferenciáit vagy leiratkozhat.

Néhány ügyfelünk

is growing fast!

We are looking for a good mixture of IT and soft skills in Hungary!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions