Leader mondial de l’Ingénierie et du Conseil en Technologies, ALTEN réalise des projets de conception et d’études pour les grands comptes industriels, télécoms et tertiaires (les Directions Techniques et les Directions des Systèmes d’Information).
Désormais présent à travers 30 pays, le Groupe ALTEN a réalisé un chiffre d’affaires de 4,07 milliards d’euros en 2023 et compte actuellement 57 000 collaborateurs, dont 90% sont des ingénieurs.
Labélisé "Top employeur" 2023, ALTEN est un acteur majeur du recrutement d’ingénieurs en France et dans le monde.
Description Du Poste
Contexte : Nous recherchons pour l’un de nos clients grands comptes un Data Engineer GCP (H/F) qui travaillera en relation avec une équipe à l’internationale.
Responsabilités :
Conception et développement des pipelines data
Concevoir et développer des pipelines de traitement de données robustes et scalables. Mettre en place des flux d’ingestion, transformation et stockage des données. Développer et optimiser les modèles de transformation avec dbt. Participer à l’industrialisation des processus de traitement des données.
Architecture et plateforme data
Concevoir et maintenir des architectures data modernes sur le Cloud. Mettre en place et optimiser les entrepôts de données Snowflake. Participer à la modélisation des données (data warehouse / data lake / data lakehouse). Garantir la performance, la qualité et la disponibilité des données.
Intégration et orchestration
Développer et maintenir les pipelines d’intégration de données. Mettre en place des outils d’orchestration et de planification des workflows. Participer à l’intégration de différentes sources de données internes et externes.
Qualité, gouvernance et optimisation
Mettre en place des processus de qualité et de validation des données. Optimiser les performances des requêtes et pipelines data. Contribuer à la gouvernance des données et aux bonnes pratiques data engineering.
Collaboration et amélioration continue
Collaborer avec les équipes data science, BI et métiers. Participer aux revues techniques et à la documentation des pipelines. Contribuer à l’amélioration continue de la plateforme data.
Environnement technique associé :
Google Cloud Platform (GCP)SnowflakeDBTSQL / PythonData Warehouse / Data LakeOutils d’orchestration (Airflow, Cloud Composer ou équivalent)CI/CD et bonnes pratiques DevOps appliquées à la data
Profil :
Solides compétences en SQL et modélisation de donnéesExpérience sur des architectures data cloudCapacité à travailler en environnement agile et collaboratif
Qualifications
Qualifications requises :
Contrat : CDI uniquementDiplôme de niveau bac +5 en informatique, réseau ou domaine connexeMaitrise approfondie de l’anglais oral & écrit (professionnel / courant)Expérience professionnelle attendue sur un rôle similaire : 5 ans minimumCertifications appréciées
Informations supplémentaires
Vous vous reconnaissez dans ce descriptif ? Alors n’attendez plus ! Nous serons ravis de vous accueillir dans nos équipes. Postulez dès maintenant en envoyant votre CV.
Responsibilities
Job Requirements
Apply now