Présentation d'Amoddex : Embarquez à la découverte d’Amoddex, un cabinet spécialisé dans le conseil en stratégie, organisation et transformation des SI. Notre mission en quelques mots : accompagner les entreprises et les DSI dans leurs projets de transformation numérique, d'évolution des organisations et de valorisation de leurs données. Notre quotidien est alors rythmé par différents projets liés au sourcing, à la mise en place de nouvelles organisations business & Users Centrics, de méthodologies DevOps et Agile, à la rédaction de cahiers des charges et à la gestion de projets. Le tout agrémenté de collaboratif, convivialité et esprit d’équipe !4 raisons de rejoindre l’aventure Amoddex :Intégrez une structure dynamique vous permettant de bénéficier de méthodes disruptives et innovantes.Evoluez au sein d’un cabinet à taille humaine où la proximité, l’écoute et l’épanouissement sont des facteurs clés.Faites évoluer vos compétences grâce à notre politique de développement des compétences : certifications, plans de carrières et formations.Et pour finir, faites partie d’une équipe de jeunes passionné(e)s par l’IT, détenant une réelle soif de challenge.Descriptif du poste : En tant que Data Engineer, vous contribuez au développement, à l’optimisation et à l’industrialisation de pipelines Data critiques, tout en garantissant leur performance, leur fiabilité et leur scalabilité.Vos principales missions seront les suivantes : Définir les standards d’architecture et contribuer aux choix technologiques structurants ; Mettre en place, industrialiser et optimiser des pipelines de données batch et streaming (ETL/ELT) ; Garantir la performance, la résilience, la disponibilité et la sécurité des plateformes Data ;Mettre en œuvre des stratégies de gestion des environnements (dev, test, prod) et de déploiement automatisé ; Assurer la gouvernance technique des flux de données (traçabilité, lineage, gestion des dépendances) ; Auditer et améliorer les traitements existants afin d’en renforcer la robustesse et la maintenabilité ; Intégrer les bonnes pratiques de qualité logicielle : tests automatisés, CI/CD, monitoring, observabilité ; Anticiper les enjeux de volumétrie, de scalabilité et d’optimisation des coûts cloud ; Collaborer avec les équipes Data Science, ML, Produit et Métiers pour aligner les solutions sur les usages réels ; Participer à la roadmap technique et à la priorisation des chantiers structurants ; Documenter les architectures et assurer le transfert de compétences afin de renforcer l’autonomie des équipes.Description du profil : Compétences techniques : Maîtrise des environnements Cloud : AWS et/ou Azure et/ou Google Cloud Platform ;Bonne connaissance des Data Platforms : Snowflake, Databricks, BigQuery ;Expérience sur les technologies Big Data : Spark, PySpark, Kafka ;Maîtrise des langages : Python, SQL et notions en Java appréciées ;Connaissance des outils d’orchestration comme Airflow ;Pratique des environnements CI/CD, Git et des outils de monitoring ;Expérience en architecture distribuée et gestion de volumes de données importants. Aptitudes professionnelles : Esprit analytique et capacité à résoudre des problématiques complexes ;Rigueur ;Autonomie ;Réactivité ;Esprit critique et de synthèse ; Capacité à travailler en équipe ;Bonne communication avec des interlocuteurs pluridisciplinaires (techniques et métiers) ;Adaptabilité et flexibilité ;Sens des responsabilités ;Curiosité technologique.Vous vous reconnaissez ? Vous avez envie de vous lancer dans des projets challengeant et rejoindre une véritable aventure humaine ? Alors nous attendons que vous !
Responsibilities
Job Requirements
Apply now