Corso di formazione A Practical Introduction to Stream Processing
Stream Processing riferisce all'elaborazione in tempo reale di "dati in movimento", ovvero l'esecuzione di calcoli sui dati man mano che vengono ricevuti. Tali dati vengono letti come flussi continui da fonti di dati quali eventi dei sensori, attività dell'utente del sito Web, operazioni finanziarie, passaggi di carte di credito, flussi di clic, ecc. I framework di Stream Processing flussi sono in grado di leggere grandi volumi di dati in entrata e fornire informazioni preziose quasi istantaneamente.
In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come impostare e integrare diversi framework di Stream Processing con i sistemi di archiviazione dei big data esistenti e le relative applicazioni software e microservizi.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installa e configura diversi framework di Stream Processing flussi, come Spark Streaming e Kafka Streaming.
- Comprendere e selezionare il framework più appropriato per il lavoro.
- Elaborazione dei dati in modo continuo, simultaneo e in modo record per record.
- Integrare le soluzioni di Stream Processing con database esistenti, data warehouse, data lake, ecc.
- Integra la libreria di elaborazione del flusso più appropriata con applicazioni e microservizi aziendali.
Pubblico
- Sviluppatori
- Architetti del software
Formato del corso
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
Gli appunti
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
Struttura del corso
Introduzione
- Elaborazione in flusso ed elaborazione batch
- Elaborazione dei flussi incentrata sull'analisi
Panoramica Framework e Programming Linguaggi
- Spark Streaming (Scala)
- Kafka Streaming (Java)
- Lampeggia
- Tempesta
- Confronto delle caratteristiche e dei punti di forza di ciascun framework
Panoramica delle origini dati
- Dati in tempo reale come una serie di eventi nel tempo
- Fonti di dati storici
Opzioni di distribuzione
- Nel cloud (AWS, ecc.)
- On premise (cloud privato, ecc.)
Introduttiva
- Impostazione dell'ambiente di sviluppo
- Installazione e configurazione
- Valutare le tue Data Analysis esigenze
Gestione di un framework di streaming
- Integrazione del framework di streaming con gli strumenti per i Big Data
- Confronto tra evento Stream Processing (ESP) edelaborazione di eventi complessi (CEP)
- Trasformazione dei dati di input
- Ispezione dei dati di output
- Integrazione del framework Stream Processing con le applicazioni e i microservizi esistenti
Risoluzione dei problemi
Riassunto e conclusione
Requisiti
- Programming esperienza in qualsiasi lingua
- Comprensione dei concetti di Big Data (Hadoop, ecc.)
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione A Practical Introduction to Stream Processing - Booking
Corso di formazione A Practical Introduction to Stream Processing - Enquiry
A Practical Introduction to Stream Processing - Richiesta di consulenza
Richiesta di consulenza
Recensioni (1)
Sufficient hands on, trainer is knowledgable
Chris Tan
Corso - A Practical Introduction to Stream Processing
Corsi in Arrivo
Corsi relativi
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 oreQuesto corso è destinato a sviluppatori e data scientist che desiderano comprendere e implementare l'intelligenza artificiale nelle loro applicazioni. Particolare attenzione è rivolta all'analitica dei dati, all'intelligenza artificiale distribuita e all'elaborazione del linguaggio naturale.
Apache Kafka Connect
7 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto agli sviluppatori che desiderano integrarsi Apache Kafka con database e applicazioni esistenti per l'elaborazione, l'analisi, ecc.
Al termine di questa formazione, i partecipanti saranno in grado di:
-
Utilizzare Kafka
- Connect per inserire grandi quantità di dati da un database in argomenti Kafka.
- Inserire i dati di log generati da un server applicazioni negli argomenti Kafka.
- Rendere disponibili tutti i dati raccolti per l'elaborazione del flusso.
- Esporta i dati dagli argomenti di Kafka in sistemi secondari per l'archiviazione e l'analisi.
Unified Batch and Stream Processing with Apache Beam
14 oreApache Beam è un modello di programmazione unificato open source per la definizione e l'esecuzione di pipeline di elaborazione dati parallele. La sua potenza risiede nella sua capacità di eseguire pipeline batch e di streaming, con l'esecuzione eseguita da uno dei back-end di elaborazione distribuita supportati da Beam: Apache Apex, Apache Flink, Apache Spark e Google Cloud Dataflow. Apache Beam è utile per le attività ETL (Extract, Transform, and Load) come lo spostamento di dati tra diversi supporti di archiviazione e origini dati, la trasformazione dei dati in un formato più desiderabile e il caricamento dei dati su un nuovo sistema.
In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come implementare gli SDK Apache Beam in un'applicazione Java o Python che definisce una pipeline di elaborazione dati per la scomposizione di un set di dati di grandi dimensioni in blocchi più piccoli per l'elaborazione parallela indipendente.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Installare e configurare Apache Beam.
- Utilizzare un unico modello di programmazione per eseguire sia l'elaborazione batch che quella in flusso dall'interno dell'applicazione Java o Python.
- Esegui pipeline in più ambienti.
Formato del corso
- In parte lezione, in parte discussione, esercizi e pratica pratica pesante
Nota
- Questo corso sarà disponibile Scala in futuro. Vi preghiamo di contattarci per organizzare.
Building Kafka Solutions with Confluent
14 orequesto istruttore, Live Training (on-site o remote) è rivolto a ingegneri che desiderano utilizzare Confluent (una distribuzione di Kafka) per costruire e gestire una piattaforma di elaborazione dati in tempo reale per le loro applicazioni.
entro la fine di questa formazione, i partecipanti saranno in grado di:
- installare e configurare la piattaforma Confluent.
- utilizzare gli strumenti di gestione confluenti & #39; s e servizi per eseguire Kafka più facilmente.
- Archivia ed elabora i dati del flusso in ingresso.
- ottimizza e Gestisci i cluster Kafka.
- flussi di dati protetti.
formato del corso
- conferenza interattiva e discussione.
- un sacco di esercizi e di pratica. implementazione hands-on
- in un ambiente Live-Lab.
corso opzioni di personalizzazione
- questo corso si basa sulla versione open source di Confluent: Confluent open source.
- per richiedere un addestramento su misura per questo corso, seli metta in contatto con prego per organizzare.
Apache Flink Fundamentals
28 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) introduce i principi e gli approcci alla base dell'elaborazione distribuita di flussi e batch di dati e guida i partecipanti attraverso la creazione di un'applicazione di streaming di dati in tempo reale in Apache Flink.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Configurare un ambiente per lo sviluppo di applicazioni di analisi dei dati.
- Scopri come funziona la libreria di elaborazione grafica (Gelly) di Apache Flink.
- Crea pacchetti, esegui e monitora applicazioni di streaming di dati basate su Flink e tolleranti ai guasti.
- Gestisci carichi di lavoro diversi.
- Esegui analisi avanzate.
- Configura un cluster Flink multi-nodo.
- Misura e ottimizza le prestazioni.
- Integra Flink con diversi sistemi Big Data.
- Confronta le funzionalità di Flink con quelle di altri framework di elaborazione dei big data.
Introduction to Graph Computing
28 oreIn questo corso di formazione dal vivo con istruttore in Italia, i partecipanti impareranno a conoscere le offerte tecnologiche e gli approcci di implementazione per l'elaborazione dei dati grafici. L'obiettivo è identificare gli oggetti del mondo reale, le loro caratteristiche e relazioni, quindi modellare queste relazioni ed elaborarle come dati utilizzando un approccio Graph Computing (noto anche come Graph Analitica). Iniziamo con un'ampia panoramica e ci concentriamo su strumenti specifici mentre esaminiamo una serie di casi di studio, esercizi pratici e implementazioni dal vivo.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Informazioni sul modo in cui i dati del grafo vengono salvati in modo permanente e attraversati.
- Selezionare il framework migliore per una determinata attività (dai database a grafo ai framework di elaborazione batch).
- Implementa Hadoop, Spark, GraphX e Pregel per eseguire il calcolo dei grafi su molte macchine in parallelo.
- Visualizza i problemi reali dei big data in termini di grafici, processi e attraversamenti.
Apache Kafka for Python Programmers
7 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a ingegneri dei dati, data scientist e programmatori che desiderano utilizzare le funzionalità Apache Kafka nello streaming di dati con Python.
Al termine di questa formazione, i partecipanti saranno in grado di utilizzare Apache Kafka per monitorare e gestire le condizioni in flussi di dati continui utilizzando la programmazione Python.
Stream Processing with Kafka Streams
7 oreKafka Streams è una libreria lato client per la creazione di applicazioni e microservizi i cui dati vengono trasmessi da e verso un sistema di messaggistica Kafka. Tradizionalmente, Apache Kafka ha fatto affidamento su Apache Spark o Apache Storm per elaborare i dati tra produttori di messaggi e consumatori. Chiamando l'API Kafka Streams dall'interno di un'applicazione, i dati possono essere elaborati direttamente all'interno di Kafka, evitando la necessità di inviare i dati a un cluster separato per l'elaborazione.
In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come integrare Kafka Streams in una serie di applicazioni Java di esempio che trasmettono dati da e verso Apache Kafka per l'elaborazione in streaming.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Comprendi le funzionalità e i vantaggi di Kafka Streams rispetto ad altri framework di elaborazione dei flussi
- Elaborare i dati del flusso direttamente all'interno di un cluster Kafka
- Scrivi un'applicazione o un microservizio Java o Scala che si integri con Kafka e Kafka Streams
- Scrivi un codice conciso che trasforma gli argomenti di Kafka di input in argomenti di Kafka di output
- Compilare, impacchettare e distribuire l'applicazione
Pubblico
- Sviluppatori
Formato del corso
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
Gli appunti
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare
Confluent KSQL
7 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto agli sviluppatori che desiderano implementare l'elaborazione di flussi Apache Kafka senza scrivere codice.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Installare e configurare Confluent KSQL.
- Impostare una pipeline di elaborazione del flusso utilizzando solo i comandi SQL (nessuna codifica Java o Python).
- Esegui il filtraggio dei dati, le trasformazioni, le aggregazioni, i join, il windowing e la sessionizzazione interamente in SQL.
- Progetta e distribuisci query interattive e continue per lo streaming ETL e l'analisi in tempo reale.
Apache NiFi for Administrators
21 oreIn questo corso di formazione dal vivo con istruttore in Italia (in loco o in remoto), i partecipanti impareranno come implementare e gestire Apache NiFi in un ambiente di laboratorio dal vivo.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Installa e configura Apachi NiFi.
- Acquisisci, trasforma e gestisci i dati da fonti di dati distribuite e disparate, tra cui database e big data lake.
- Automatizza i flussi di dati.
- Abilita l'analisi in streaming.
- Applicare vari approcci per l'inserimento dei dati.
- Trasforma Big Data e trasforma in insight aziendali.
Apache NiFi for Developers
7 oreIn questo corso di formazione dal vivo con istruttore in Italia, i partecipanti impareranno i fondamenti della programmazione basata sul flusso mentre sviluppano una serie di estensioni, componenti e processori demo utilizzando Apache NiFi.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendi l'architettura e i concetti del flusso di dati di NiFi.
- Sviluppa estensioni utilizzando NiFi e API di terze parti.
- Sviluppare su misura il proprio processore Apache Nifi.
- Acquisisci ed elabora dati in tempo reale da formati di file e origini dati diversi e non comuni.
Python and Spark for Big Data (PySpark)
21 oreIn questo corso di formazione dal vivo con istruttore in Italia, i partecipanti impareranno come utilizzare Python e Spark insieme per analizzare i big data mentre lavorano su esercizi pratici.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Scopri come utilizzare Spark con Python per analizzare Big Data.
- Lavora su esercizi che imitano casi del mondo reale.
- Utilizzare diversi strumenti e tecniche per l'analisi dei big data utilizzando PySpark.
Spark Streaming with Python and Kafka
7 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a ingegneri dei dati, data scientist e programmatori che desiderano utilizzare Spark Streaming le funzionalità per l'elaborazione e l'analisi dei dati in tempo reale.
Al termine di questa formazione, i partecipanti saranno in grado di utilizzare Spark Streaming per elaborare flussi di dati in tempo reale da utilizzare in database, filesystem e dashboard in tempo reale.
Apache Spark MLlib
35 oreMLlib è la libreria di machine learning (ML) di Spark. Il suo obiettivo è rendere l'apprendimento automatico pratico scalabile e facile. Comprende algoritmi e utilità di apprendimento comuni, tra cui classificazione, regressione, clustering, filtro collaborativo, riduzione della dimensionalità, nonché primitive di ottimizzazione di livello inferiore e API di pipeline di livello superiore.
Si divide in due pacchetti:
spark.mllib contiene l'API originale basata su RDD.
spark.ml fornisce API di livello superiore basate su DataFrames per la costruzione di pipeline ML.
Pubblico
Questo corso è rivolto a ingegneri e sviluppatori che desiderano utilizzare una libreria di macchine integrata per Apache Spark