Pendant ces trois jours de formation, vous apprendrez comment construire une application qui peut publier et s’abonner à des données provenant d’un cluster Kafka.
Objectifs
- Vous apprendrez le rôle de Kafka dans un pipeline moderne de distribution de la donnée.
- Vous discuterez des concepts fondamentaux de son architecture,de ses composants et examinerez les API de développement Kafka.
- Le cours couvre également d'autres composants de la plate-forme Confluent tels que Kafka Connect et Kafka Streams.
Pédagogie
50% théorie, 50% pratique
Prérequis
Les participants doivent être familiarisés avec le développement en Java ou Python.
Aucune connaissance préalable de Kafka n’est nécessaire.
Public
Ce cours est conçu pour les développeurs d'applications, développeurs ETL (extraction, transformations et chargement), architectes et les Data Scientists qui ont besoin d'interagir avec des clusters Kafka comme source ou destination des données.
Financement en France
- Eligible au financement via OPCA (si la prise en charge couvre la totalité du coût de la formation)
- Non éligible au financement via CPF
Pédagogie
50% théorie, 50% pratique