Nous utilisons des cookies pour vous fournir l'ensemble de nos services, notamment la recherche et les alertes. En acceptant, vous consentez à notre utilisation de ces cookies.
Choisir mes préférences
Maîtriser la librairie PySpark afin d'utiliser Apache Spark avec le langage de programmation Python sur un environnement Databricks.
Présentation de Databricks
✓ Historique
✓ Différence entre l’utilisation Administrateur et Utilisateur
✓ Comment mettre en place un projet sur Databricks/AWS
✓ Comment créer un cluster de calcul avec Databricks/AWS
✓ Gestion des notebooks, des utilisateurs et des ressources
Introduction à Spark
✓ Rappels sur le Big Data
✓ Présentation de Spark: Spark RDD, Spark SQL, Spark MLlib, Spark GraphX
✓ Configurer un Spark Context et une Spark Session
✓ Gestion de la mémoire sous Spark
Présentation de PySpark et l’API Pyspark RDD
✓ Présentation de Pyspark et fonctionnement avec les Java Virtual Machines
✓ Présentation de l’API PysparkRDD et manipulation de données non structurées
✓ Mise en pratique avec des fichiers textes (comptage de mots, nettoyage d’un fichier texte structuré) et avec des opérations d’agrégation sur PairRDDs
Utilisation de l’API Pyspark SQL
✓ Présentation de l’API PysparkSQL
✓ Lecture de fichiers csv, json, parquet et sauvegarde de fichier
✓ Nettoyage et manipulation de données
✓ Groupby et agrégation
✓ Jointure de tables
✓ Lien entre SQL et Python
✓ Manipulation d’objets Row, et Window
Utilisation de l’API Pyspark SQL (suite)
✓ Manipulation de dates
✓ Utilisation de User DefinedFunction et de Pandas User Defined functions
✓ Présentation de Pyspark Pandas
✓ Nombreuses mises en pratique sur des jeux de données
Introduction au Machine Learning
✓ Qu’est-ce que le Machine Learning? Apprentissages supervisé et non supervisé
✓ Compromis Biais Variance
✓ Modèles Linéaires
✓ Modèles Non Linéaires
✓ Modèles ensemblistes
✓ Modèles de clustering
✓ Métriques et évaluation des performances
Machine Learning avec PySpark
✓ Différence entre MLlib SQL et MLlib RDD
✓ Les transformations de processing sur les données et notions de Pipeline
✓ Mise en pratique avec des modèles de Machine Learning sur des problématiques de
clustering, de classification (données numériques et texte)
✓ Evaluation des performances avec Pyspark MLlib
✓ Utilisation de la librairie Xgboost sous un environnement Spark
✓ Utilisation de Pandas UDF pour faire tourner des modèles scikitlearn ou tensorflow en
Développeurs, chefs de projets, data scientists, ...
Pour suivre ce stage dans de bonnes conditions, il est recommandé d'avoir suivi en amont la formation Python – Bases et introduction aux librairies scientifiques ou d'avoir atteint par la pratique un niveau équivalent.
Pédagogie active mêlant exposés, exercices et applications pratiques. La formation s’effectue sur un environnement Databricks.
Formulaire d'autoévaluation en amont et aval de la formation, exercices pratiques de fin de séquences pédagogiques, questionnaires d’évaluation à chaud et à froid.
Choisissez une date pour pouvoir réserver !
Infos
Trouver le bon CACESComprendre l'habilitation éléctriqueMentions légalesConditions d'utilisationNous utilisons des cookies pour vous fournir l'ensemble de nos services, notamment la recherche et les alertes. En acceptant, vous consentez à notre utilisation de ces cookies.
Choisir mes préférences