A Tenth Revolution Group Company

Your current job search

7 search results

For Permanent and Contract

Data Engineer GCP

France, Île-de-France, Paris

  • Negotiable
  • Associate Role
  • Seniority: Senior

Job description



À propos de l'opportunité :


Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP), passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables.

Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients.

Missions 🏗️ :
  • 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données.
  • 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery.
  • 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables.
  • 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data.
  • 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business.


Environnement Technique 💻 :
  • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc)
  • Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow
  • Langages de Programmation : Python, SQL
  • Outils de DevOps : Terraform, Docker, Kubernetes
  • Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données


Profil Recherché :
  • Expérience : Minimum 4 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform.
  • Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données.
  • Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT.
  • Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business.
  • Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques).


Pourquoi Rejoindre ? 🌐


Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.

Data Engineer GCP & AWS

France, Île-de-France, Paris

  • €65,000 to €66,000 EUR
  • Associate Role
  • Seniority: Senior

Job description



Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance.

Description du Poste :

En tant que Data Engineer Senior spécialisé en GCP & AWS, vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud.

Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact.

Responsabilités :
  • 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données.
  • 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data.
  • ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis.


  • 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage.
  • 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA.
  • 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données.


Environnement Technique :
  • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda)
  • Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker
  • Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis
  • Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données


Profil Recherché :
  • Formation : Diplôme en informatique, ingénierie ou domaine connexe.
  • Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS.
  • Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée.
  • Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément.
  • Langues : Maîtrise du français et de l'anglais (écrit et oral).


Pourquoi Rejoindre ?

Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data.

Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.

Data Engineer GCP

France, Rhône-Alpes, Lyon

  • Negotiable
  • Associate Role
  • Skills: Business Analysis, .NET
  • Seniority: Senior

Job description



À propos de l'opportunité :


Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP), passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables.

Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients.

Missions 🏗️ :
  • 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données.
  • 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery.
  • 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables.
  • 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data.
  • 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business.


Environnement Technique 💻 :
  • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc)
  • Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow
  • Langages de Programmation : Python, SQL
  • Outils de DevOps : Terraform, Docker, Kubernetes
  • Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données


Profil Recherché :
  • Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform.
  • Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données.
  • Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT.
  • Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business.
  • Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques).


Pourquoi Rejoindre ? 🌐


Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.

Data MLOps Senior

France, Rhône-Alpes, Lyon

  • €55,000 to €56,000 EUR
  • Associate Role
  • Seniority: Senior

Job description



Vous êtes passionné par l'industrialisation des modèles de machine learning ? Rejoignez une équipe dynamique où vous jouerez un rôle central dans l'optimisation et l'automatisation des pipelines ML, tout en intégrant les meilleures pratiques MLOps.

Contexte de la mission :
En tant qu'Ingénieur MLOps, vous intégrerez une équipe produit dédiée, avec pour mission de garantir la fluidité des opérations ML. Vous participerez activement à l'industrialisation de modèles de machine learning déjà développés, en optimisant et en automatisant les processus de déploiement et de surveillance pour atteindre une efficacité et une scalabilité maximales.

Objectifs et Livrables :
  • 🔄 Implémenter des Pipelines Automatisés : Mettre en place des pipelines pour le déploiement et la surveillance des modèles ML, avec gestion des alertes pour une proactivité optimale.
  • 🚀 Automatiser et Optimiser les Workflows ML : Améliorer la productivité en automatisant les étapes clés du pipeline ML et en maximisant la scalabilité des workflows.
  • 🛠️ Mettre en Place des Outils et Pratiques MLOps : Standardiser les pratiques d'ingénierie ML pour optimiser la collaboration et la performance, avec intégration d'outils IA.
  • 📈 Optimiser l'Efficacité des Workflows ML : Concevoir des solutions qui favorisent une exécution plus rapide et plus efficace des workflows, en prenant en compte les enjeux de performance et de coût.


Stack Technique :
  • Environnement Cloud : AWS (prioritaire), incluant des outils et services comme SageMaker, Cloudwatch, Terraform.
  • Outils MLOps et Orchestration : Kubernetes, TensorFlow, Jenkins, PyTorch.
  • Surveillance et Observabilité : Cloudwatch, Prometheus, Alertmanager, Grafana.
  • Programmation : Python (indispensable).


Compétences Recherchées :
  • Maîtrise des Technologies AWS et MLOps : Bonne connaissance de l'écosystème AWS et des outils MLOps clés.
  • Excellente Compétence en Python : Maîtrise de la programmation en Python pour l'implémentation de pipelines et workflows ML.
  • Solides Connaissances en Machine Learning : Compréhension des concepts ML pour une intégration optimale des modèles.
  • Force de Proposition et Esprit de Résolution : Capacité à analyser et résoudre rapidement les défis liés aux flux de données ML.
  • Proactivité et Esprit d'Équipe : Goût pour le travail collaboratif, le respect des délais, la qualité et le sens des résultats.


Certification Requise :
  • AWS Machine Learning Specialty (minimum requis).


Pourquoi Rejoindre ?
Ce poste offre l'opportunité de travailler au sein d'une équipe performante sur des projets à forte valeur ajoutée en machine learning et IA. Vous serez au cœur des processus d'industrialisation et pourrez contribuer activement à l'optimisation des pratiques MLOps dans une structure en pleine croissance.