1
Présentation de la plateforme Fabric
- Explication des usages de Fabric dans un contexte data
- Identification des différents modules de Fabric (lakehouse, warehouse, pipelines, modèles sémantiques)
2
Obtenir des données
- Création d'une connexion
- Découverte des données à l'aide du hub de données OneLake et du hub en temps réel
- Intégration ou accès aux données à la demande
- Lakehouse, warehouse et eventhouse
- Mise en œuvre de l'intégration OneLake pour les eventhouse et les modèles sémantiques
Travaux pratiques
Identifier la meilleure source selon les besoins. Se connecter à OneLake et naviguer dans les hubs de données.
3
Transformer les données
- Création de vues, de fonctions et de procédures stockées
- Enrichissement de données en ajoutant de nouvelles colonnes ou tables
- Mise en œuvre d'un schéma en étoile pour un lakehouse ou un warehouse
- Dénormalisation des données
- Agrégation des données
- Exécution des merge ou des join
- Identification des problèmes de données en double, de données manquantes ou de valeurs Null et les résoudre
- Casting des données
- Filtrage des données
Travaux pratiques
Réaliser des transformations complexes en SQL ou avec des dataflows. Détecter et corriger les anomalies de données. Structurer les données sous forme de schéma en étoile.
4
Interroger et analyser les données
- Sélection, flitrage et agrégation des données à l'aide de Visual Query Editor
- Sélection, flitrage et agrégation des données à l'aide de SQL
- Sélection, flitrage et agrégation des données à l'aide de KQL
Travaux pratiques
Interroger les données avec SQL ou Visual Query Editor. Connaissance des concepts du KQL. Appliquer des filtres, agrégations, jointures selon les cas d'usage.
5
Concevoir et construire des modèles sémantiques
- Choix d'un mode de stockage
- Implémentation d'un schéma en étoile pour un modèle sémantique
- Implémentation de relations, telles que des bridge tables et de relations many-to-many
- Écrire des calculs qui utilisent des variables et des fonctions DAX
- Implémentation des calculation groups, des dynamic format strings et des field parameters
- Identification des cas d'utilisation pour les large semantic model storage format et les configurer
- Conception et construction de modèles composites
Travaux pratiques
Concevoir un modèle en étoile avec relations complexes. Écrire des mesures avancées avec DAX. Utiliser calculation groups, les paramètres dynamiques, et storage format adaptés.
6
Optimiser les modèles sémantiques à l'échelle de l'entreprise
- Optimisation des performances des requêtes et des visuels
- Amélioration des performances des fonctions DAX
- Configuration des réglages du Direct Lake, y compris pour les options de bascule et d'actualisation
- Implémentation de l'actualisation incrémentale des modèles sémantiques
- Power BI dans Fabric : intégration native
Travaux pratiques
Identifier et corriger les goulots de performance. Optimiser les requêtes et fonctions DAX. Configurer un Direct lake performant et mettre en œuvre l'actualisation incrémentale.
7
Mettre en œuvre la gestion du cycle de vie dans Fabric
- Présentation de l'intégration avec Git
- Mise en œuvre des projets de base de données
- Création et configuration des pipelines de déploiement
Travaux pratiques
Créer un pipeline de déploiement opérationnel. Identifier les impacts d'une nouvelle version.
8
Configurer la sécurité et la gouvernance
- Mise en œuvre des contrôles d'accès au niveau du workspace
- Configuration des contrôles d'accès par ressource, ligne, colonne, objet
- Mise en place du masquage dynamique
- Activation et exploitation le logging du workspace
Travaux pratiques
Appliquer des stratégies d'accès fines. Savoir expliquer et démontrer le masquage dynamique. Analyser les logs de manière pertinente.