Analytics Engineer

Descriptif du poste

Votre mission consistera à concevoir, optimiser et fiabiliser l’infrastructure analytique afin de permettre une exploitation fluide, précise et scalable de la donnée. Vous interviendrez sur l’ensemble du cycle analytique : ingestion, transformation, modélisation, documentation et mise à disposition pour les équipes métiers (produit, marketing, finance, opérations…).

Missions principales :

Concevoir et maintenir des pipelines de données robustes sur GCP (BigQuery, Dataflow, Cloud Storage).

Développer et optimiser des modèles analytiques (data modeling, SQL avancé, dbt si utilisé).

Structurer un environnement data fiable, versionné et automatisé (CI/CD, bonnes pratiques d’ingénierie).

Améliorer la performance, la qualité et la gouvernance de la donnée (tests, monitoring, documentation).

Travailler avec les équipes métiers pour comprendre leurs besoins et fournir des datasets et dashboards pertinents.

Contribuer à la mise en place de bonnes pratiques d’Analytics Engineering et à la montée en maturité data globale.

Missions principales

  • Challenger les besoins fonctionnels et apporter les recommandations techniques.
  • Travailler en collaboration avec l’équipe BI (Business intelligent) data pour la mise en place des flux d’intégration des données vers/depuis le Datalake et le data warehouse
  • Analyser ces données et réaliser des tests unitaires et d’intégration
  • Rédiger des spécifications techniques du projet, planifier et estimer la charge des développements et se charger de la documentation.
  • Effectuer des corrections et maintenance des outils mis en place.
  • Développer et faire évoluer les dashboards PowerBi

Profil recherché

Expérience confirmée en tant qu’Analytic Engineer, Data Engineer ou Data Analyst avancé sous GCP.

Maîtrise approfondie de BigQuery, SQL optimisé, partitioning/clustering, performance tuning.

Compétences en développement de pipelines de transformation (Dataflow/Beam, dbt, Composer/Airflow).

Bonne compréhension des principes de data modeling (modèles en étoile, data vault, etc.).

Maîtrise des workflows CI/CD, Git et bonnes pratiques d’ingénierie logicielle.

Connaissance d’un outil de visualisation (Looker, Data Studio, Tableau…).

Capacité à travailler en mode projet, sens de la communication et orientation résultat.

Autonomie, rigueur, goût pour la qualité et la documentation.

Compétences requises

  • Airflow
  • dbt
  • Cloud GCP, AWS
  • Python