-
Notifications
You must be signed in to change notification settings - Fork 0
Ingestion & Gouvernance des données #2
Copy link
Copy link
Open
Labels
documentationImprovements or additions to documentationImprovements or additions to documentationenhancementNew feature or requestNew feature or requestgood first issueGood for newcomersGood for newcomersquestionFurther information is requestedFurther information is requested
Metadata
Metadata
Assignees
Labels
documentationImprovements or additions to documentationImprovements or additions to documentationenhancementNew feature or requestNew feature or requestgood first issueGood for newcomersGood for newcomersquestionFurther information is requestedFurther information is requested
Projects
Status
No status
Data Engineer → Connexion des sources : En tant que Data Engineer, je veux connecter les sources (CRM, transactions, API externes) pour centraliser les données
Tâches :
Configurer connecteur Kafka pour CRM
Définir schéma Avro/Parquet pour les données clients
Créer tests d’ingestion (volumétrie, duplication)
Tâches :
Configurer ingestion streaming (Kafka/Flink)
Définir partitionnement par date/compte
Mettre en place mécanisme de retry et DLQ (dead letter queue)
Tâches :
Intégrer API KYC via batch + API REST
Stocker les réponses JSON dans Data Lake
Vérifier cohérence des formats (validation JSON schema)