Rejoignez-nous

Data Engineer (2 ans d'expérience min) H/F

Mission

Au sein de la Data Factory de Neoxia, tu pourras intégrer une équipe pluridisciplinaire (Data Analysts, Data Scientists, Data Ops, Data Architect, Scrum Master, UX/UI Designers, etc.) et apporter ton expertise tout au long des cycles de conception, développement et de déploiement de projets data.

Tu interviendras ainsi auprès de nos clients sur les missions suivantes :

- Participer à l’élaboration d’architectures cibles pour la collecte, le stockage, le traitement et l’analyse de données
- Concevoir, développer et déployer des flux de données complexes sur des environnements cloud (AWS / GCP / Azure)
- Assurer le suivi de la qualité des données collectées et traitées à travers la mise en place de tests automatisés
- Suivre la bonne application des règles de gouvernance des données à travers la mise en place d’outils dédiés
- Participer à la mise en place de plateformes data sur le cloud et au déploiement des outils nécessaires pour le traitement et l’analyse des données.
- Concevoir et déployer les outils nécessaires pour la mise à disposition des données pour les data scientists et pour les utilisateurs finaux des données
- Encadrer les équipes de consultants grâce à la formation et au coaching, et suivre la mise en place des bonnes pratiques
- Assurer une veille technologique et diffuser les connaissances via l’organisation d’ateliers au sein de neoxia ou de meetup ouverts à la communauté

profil

- Diplômé(e) en ingénierie informatique
- Plusieurs expériences 100% Data à minima pendant 2 ans.
- Dynamique et rigoureux (se), tu as un bon relationnel. Tu es à la fois autonome et à l’écoute des autres.
- Tu es passionné(e) de technologie et curieux(se) au sujet de l'évolution des pratiques d'ingénierie logicielle (Continuous Delivery, DevOps, ...)

compétences

- Expertise sur des technologies Cloud Data : GCP, AWS, Azure
- Expertise sur une solution de Data Warehousing : Teradata, BigQuery, Redshift, Synapse, Snowflake, etc.
- Expertise sur un outil d’orchestration de flux : Airflow, Luigi, etc.
- Expertise de développement sur un framework de traitement de données : Pandas et en bonus sur Spark (Python, Scala, Java) ou Dask
- Connaissances autour de technologies de “event/stream processing” : Kafka, Kinesis, Pub/sub, etc.
- Connaissances liées à l’écosystème Hadoop (bonus)
- Connaissances en machine learning (bonus)

  • Début de la mission

    Dès que possible

  • Type de contrat

    CDI

  • Expérience demandée

    2 ans d'expérience

  • Rémunération

    45 à 55 K€

  • Lieu

    Paris, Grenoble

  • Publiée le

    27/07/2021