Parcourir les catégories
Explorer
Fiverr Pro
Français
$
USD
Il semble que ce service ait été suspendu
Je vais créer des pipelines de données modernes avec databricks, AWS et spark
États-Unis
Je parle Anglais
Expert en data engineering, pipelines ETL, Big Data, Cloud et spécialiste des données
Bonjour, je suis Sridhar – votre expert en Data Engineering et Analytics avec plus de 15 ans d'expérience dans la conception de pipelines de données évolutifs, l'automatisation des flux de travail et ...
À propos de ce service
Services d'ingénierie des données :
- Développement de pipelines ETL/ELT de bout en bout (SQL, PySpark, Apache Airflow, dbt, etc.)
- Conception de data lake et d'entrepôts de données (Databricks, Snowflake, Redshift, BigQuery)
- Architecture Delta Lake (couches Bronze, Silver, Gold)
- Pipeline batch et streaming (Kafka, Spark Structured Streaming)
Plateformes et outils cloud :
- AWS | Azure | GCP
- Databricks | Snowflake | S3 | Lambda | Glue | EMR
- Terraform & CI/CD pour DataOps
Qualité et gouvernance des données :
- Unity Catalog, contrôle d'accès basé sur les rôles, sécurité au niveau des lignes et des colonnes
- Journalisation des audits, observabilité des données et traçabilité
Architecture de données multi-locataires :
- Meilleures pratiques pour l'espace de travail et le contrôle d'accès
- Ségrégation de la structure S3 et du catalogue au niveau des locataires
Intégration analytique et BI :
- Modélisation de données propre pour Power BI, Tableau ou Looker
- Construction de couches de métriques et de jeux de données pour le reporting
Pourquoi travailler avec moi ?
- Solutions de données orientées business : je fais le lien entre ingénierie et prise de décision.
- Pipeline performants : évolutifs, faciles à maintenir et rentables.
- Expérience prouvée : projets réussis pour des clients dans le commerce en ligne, la finance, la santé et la technologie.
- Résolveur de problèmes : apportez-moi vos défis les plus difficiles en données, je vous apporterai clarté et résultats.
Besoin d'aide
FAQ
Traduction automatique
De quoi avez-vous besoin pour commencer ?
Il vous suffit de partager une brève description de vos besoins en données, de votre plateforme actuelle (par exemple, AWS, Databricks, Snowflake) et des outils spécifiques que vous utilisez. Je vous guiderai à partir de là.
