A Tenth Revolution Group Company

Your current job search

25 search results

For Permanent and Contract in France

    new

    Data Engineer GCP & AWS

    France, Île-de-France, Paris

    • €65,000 to €66,000 EUR
    • Associate Role
    • Seniority: Senior

    Job description



    Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance.

    Description du Poste :

    En tant que Data Engineer Senior spécialisé en GCP & AWS, vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud.

    Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact.

    Responsabilités :
    • 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données.
    • 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data.
    • ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis.


    • 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage.
    • 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA.
    • 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données.


    Environnement Technique :
    • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda)
    • Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker
    • Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis
    • Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données


    Profil Recherché :
    • Formation : Diplôme en informatique, ingénierie ou domaine connexe.
    • Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS.
    • Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée.
    • Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément.
    • Langues : Maîtrise du français et de l'anglais (écrit et oral).


    Pourquoi Rejoindre ?

    Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data.

    Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.

    new

    Data Engineer Snowflake / Databricks

    France, Île-de-France, Paris

    • €45,000 to €55,000 EUR
    • Support Engineers Role
    • Skills: Databricks Lakehouse, Snowflake
    • Seniority: Mid-level

    Job description



    Notre société recherche pour son client une personne passionnée par la Data et motivée par des missions stimulantes dans un environnement dynamique et humain.

    Les missions :

    • Acquisition et transformation des données pour des entrepôts de données.
    • Participation au développement avec des responsabilités proches d'un Product Owner (PO).
    • Gestion de projet : structuration, suivi des coûts et des délais.
    • Maintenance des systèmes et gestion des coûts OPEX.
    • Utilisation de technologies modernes : Hana, Snowflake, Databricks, etc.


    Le profil recherché :

    • Bac +5
    • Expérience confirmée (3-5 ans) en modélisation avec des outils comme Snowflake, Databricks, SAP HANA, BW ou Business Object.
    • Connaissance d'outils complémentaires : Power BI, Qliksense, SAP Analytics Cloud (appréciée).
    • Français et anglais courants (pour collaborer avec une équipe offshore).
    • Autonomie chez les clients, avec une aspiration à prendre des responsabilités en gestion de projet.


    Les atouts de ce poste :

    • Rémunération attractive : A partir de 45k€.
    • Avantages inclus : intéressement, PEE, repas, transport, mutuelle, etc.
    • Ambiance et collaboration : missions en équipe, soirées entre collègues, faible turn-over.
    • Évolution et accompagnement : revue de performance biannuelle, formations techniques et certifiantes (SAP).


    📍 Lieu : Paris 12e
    👉 Postulez maintenant pour rejoindre une structure humaine et innovante !

    Tech Lead Data Engineer GCP

    France, Île-de-France, Paris

    • Negotiable
    • Engineer Role
    • Skills: data ingénieur, google cloud plateform, Nifi, Airflow, BigQuery, Python, Panda, SQL, NoSQL
    • Seniority: Senior

    Job description



    Vos responsabilités :

    Leadership et Management :
    • Mentorer et guider une équipe de 4 personnes dans son développement professionnel.
    • Animer et encadrer l'équipe data engineering dans un environnement Agile/DevOps, en alignement avec les priorités établies par le Responsable Data.


    Qualité et Livraison :
    • Assurer la livraison des projets data en respectant les délais et les exigences.
    • Effectuer des revues de code et agir en tant que référent technique pour GCP.
    • Contrôler les réalisations des développeurs et ajuster les travaux si nécessaire.


    Architecture et Stratégie :
    • Collaborer avec les architectes et experts pour définir et documenter l'architecture GCP la plus appropriée.
    • Superviser et appliquer les stratégies d'alerte, de surveillance et de gestion des accès sur la plateforme data.
    • Optimiser l'architecture existante pour garantir une performance maximale.


    Développement et Intégration :
    • Concevoir des pipelines de données en s'appuyant sur les processus d'intégration existants, en respectant les meilleures pratiques (CI/CD, qualité du code, couverture des tests, etc.).
    • Développer des fonctionnalités robustes et évolutives, de l'ingestion des données à la livraison des dashboards.
    • Promouvoir et garantir un code de qualité, robuste, maintenable et évolutif.


    Qualité et Performance des Données :
    • Assurer la qualité des données tout au long du pipeline.
    • Définir et appliquer les meilleures pratiques en data engineering.


    Senior Data Engineer GCP

    France, Île-de-France, Paris

    • €60,000 to €75,000 EUR
    • Support Engineers Role
    • Skills: Data Engineering, Google Cloud
    • Seniority: Senior

    Job description



    Missions :
    En tant que Leader Technique, vous aurez la responsabilité d'encadrer et d'animer une équipe Data Engineering dans un environnement Agile/DevOps, en étroite collaboration avec le responsable de la Data Plateforme. Vos principales missions seront :
    • Encadrer et piloter l'équipe Data Engineering selon les priorités établies.
    • Construire et optimiser les pipelines de données tout en respectant les meilleures pratiques (CI/CD, qualité du code, couverture des tests).
    • Garantir la production d'un code de haute qualité, robuste et maintenable.
    • Anticiper et gérer les risques et blocages durant les phases de développement et de déploiement.
    • Valider et ajuster les réalisations des développeurs.
    • Superviser et appliquer les stratégies d'alerting, monitoring et access management de la plateforme data.
    • Collaborer avec les architectes et experts pour définir et documenter l'architecture GCP la plus adaptée.
    • Contribuer activement à la roadmap d'innovations, maîtriser les coûts et garantir la performance de la plateforme (alerting, monitoring, use cases avancés en analytics).
    • Assurer la liaison entre les Data Engineers et les autres équipes Data (gouvernance, data scientists, data analysts, product owner).


    Profil recherché :
    • Formation : Bac+5/Ingénieur.
    • Expérience : Minimum 4 ans en tant que Senior Data Engineer.
    • Compétences techniques :
      • Maîtrise de l'architecture et des outils GCP (BigQuery, Composer, Cloud Run, Cloud Scheduler, Log Analytics, Vertex AI…).
      • Expérience en conception, développement et mise en œuvre de solutions GCP.
      • Expertise dans les workflows DBT et les pipelines associés.
      • Maîtrise des méthodologies DevOps et des processus CI/CD.
      • Automatisation des ressources via Terraform est un plus.
    • Savoir-être : Capacité à partager les connaissances, encadrer l'équipe et contribuer à son évolution.
    • Langues : Bon niveau d'anglais requis.


    Ce poste est pour vous si : Vous êtes passionné(e) par la Data, avez une forte capacité d'adaptation, et souhaitez évoluer dans un environnement innovant où vous jouerez un rôle clé dans le succès de l'équipe.

    Data Engineer GCP AWS

    France, Île-de-France, Paris

    • €55,000 to €65,000 EUR
    • Support Engineers Role
    • Skills: Data Engineering, Google Cloud Platform, AWS
    • Seniority: Mid-level

    Job description



    Je recrute pour une entreprise en pleine croissance avec une équipe de 45 collaborateurs répartis entre Toulouse (35 personnes) et la nouvelle agence à Paris (10 personnes). Je recherche un Data Engineer Confirmé avec un minimum de 4 ans d'expérience pour rejoindre l'équipe.

    Ce que l'entreprise offre :

    • Choix du matériel : PC ou Mac, tu choisis ta config ! + Prime d'équipement télétravail (450€ HT sur 3 ans).
    • Formation continue : Certifications 100% prises en charge avec du temps dédié à la préparation.
    • Veille technologique : 12 Stack Days par an (1 journée/mois) dédiés à la veille et au partage de connaissances. Participation à des conférences tech.
    • Transport : 50% des frais de transports publics pris en charge + forfait mobilités vertes.
    • Vie d'entreprise : Stack Trip annuel, activités sponsorisées (escape game, kayak, rando, etc.), conférences tech (Devoxx, AWS Summit, Google Summit, etc.), afterworks réguliers.


    Ce que tu feras :

    • Auditer les configurations cloud et proposer des améliorations.
    • Concevoir des architectures data cloud natives (GCP/AWS).
    • Déployer des entrepôts de données massivement scalables (BigQuery, Redshift, MongoDB…).
    • Développer des pipelines de traitement de données (Spark, Dataflow…).
    • Intégrer des processus de Data Science et Machine Learning.
    • Accompagner les clients sur les bonnes pratiques cloud et DevOps (CI/CD, GitOps).
    • Conduire les déploiements et intégrations.


    Tu as un esprit d'initiative, une curiosité pour les nouvelles technologies et une passion pour la data ? Ce poste est fait pour toi !

    Localisation : Paris (avec télétravail possible).

    Postule dès maintenant et rejoins une équipe passionnée par la technologie !

    Consultant Sénior BI

    France, Île-de-France, Chateaufort

    • €55,000 to €70,000 EUR
    • Support Engineers Role
    • Skills: MS BI
    • Seniority: Mid-level

    Job description



    Je recherche pour son client, une société de conseil spécialisée dans la digitalisation des entreprises sur Microsoft 365 et la Power Platform, un(e) Consultant(e) Sénior BI en CDI.

    Le poste :


    • Contrat : CDI


    • Expérience : 3 à 5 ans


    • Compétences requises :


      • Bonne posture métier et conseil


      • Excellent savoir-être et savoir-vivre


      • Maîtrise de l'anglais (écrit et oral)


    À propos de l'entreprise :


    • Spécialisée dans l'accompagnement des entreprises pour le déploiement, l'architecture et la gouvernance autour de Microsoft 365 et la Power Platform, cette société met un point d'honneur à digitaliser les processus métiers de ses clients. Composée d'une trentaine de consultant.


    • Valeurs humaines : L'entreprise valorise avant tout le bien-être et la montée en compétences de ses collaborateurs. Il n'y a ni commerciaux ni course au profit. Les consultants sont autonomes pour choisir leurs projets et peuvent bénéficier de formations internes assurées par les MVP.


    • Projets d'envergure avec des clients grands comptes, souvent en contexte international.


    • Les missions sont longues, permettant une véritable implication sur la durée.


    Profil recherché :

    Cette opportunité s'adresse à un(e) candidat(e) souhaitant évoluer au sein d'une entreprise humaine qui valorise le savoir-être et permet à ses collaborateurs de s'investir pleinement dans des projets de transformation digitale ambitieux.

    Candidature :

    Si vous êtes intéressé(e), envoyez-moi votre CV !

    new

    Data MLOps Senior

    France, Rhône-Alpes, Lyon

    • €55,000 to €56,000 EUR
    • Associate Role
    • Seniority: Senior

    Job description



    Vous êtes passionné par l'industrialisation des modèles de machine learning ? Rejoignez une équipe dynamique où vous jouerez un rôle central dans l'optimisation et l'automatisation des pipelines ML, tout en intégrant les meilleures pratiques MLOps.

    Contexte de la mission :
    En tant qu'Ingénieur MLOps, vous intégrerez une équipe produit dédiée, avec pour mission de garantir la fluidité des opérations ML. Vous participerez activement à l'industrialisation de modèles de machine learning déjà développés, en optimisant et en automatisant les processus de déploiement et de surveillance pour atteindre une efficacité et une scalabilité maximales.

    Objectifs et Livrables :
    • 🔄 Implémenter des Pipelines Automatisés : Mettre en place des pipelines pour le déploiement et la surveillance des modèles ML, avec gestion des alertes pour une proactivité optimale.
    • 🚀 Automatiser et Optimiser les Workflows ML : Améliorer la productivité en automatisant les étapes clés du pipeline ML et en maximisant la scalabilité des workflows.
    • 🛠️ Mettre en Place des Outils et Pratiques MLOps : Standardiser les pratiques d'ingénierie ML pour optimiser la collaboration et la performance, avec intégration d'outils IA.
    • 📈 Optimiser l'Efficacité des Workflows ML : Concevoir des solutions qui favorisent une exécution plus rapide et plus efficace des workflows, en prenant en compte les enjeux de performance et de coût.


    Stack Technique :
    • Environnement Cloud : AWS (prioritaire), incluant des outils et services comme SageMaker, Cloudwatch, Terraform.
    • Outils MLOps et Orchestration : Kubernetes, TensorFlow, Jenkins, PyTorch.
    • Surveillance et Observabilité : Cloudwatch, Prometheus, Alertmanager, Grafana.
    • Programmation : Python (indispensable).


    Compétences Recherchées :
    • Maîtrise des Technologies AWS et MLOps : Bonne connaissance de l'écosystème AWS et des outils MLOps clés.
    • Excellente Compétence en Python : Maîtrise de la programmation en Python pour l'implémentation de pipelines et workflows ML.
    • Solides Connaissances en Machine Learning : Compréhension des concepts ML pour une intégration optimale des modèles.
    • Force de Proposition et Esprit de Résolution : Capacité à analyser et résoudre rapidement les défis liés aux flux de données ML.
    • Proactivité et Esprit d'Équipe : Goût pour le travail collaboratif, le respect des délais, la qualité et le sens des résultats.


    Certification Requise :
    • AWS Machine Learning Specialty (minimum requis).


    Pourquoi Rejoindre ?
    Ce poste offre l'opportunité de travailler au sein d'une équipe performante sur des projets à forte valeur ajoutée en machine learning et IA. Vous serez au cœur des processus d'industrialisation et pourrez contribuer activement à l'optimisation des pratiques MLOps dans une structure en pleine croissance.

    Consultant BI confirmé

    France, Île-de-France, Paris

    • €50,000 to €60,000 EUR
    • Developer Role
    • Skills: MS Power BI, Snowflake, Informatica, Oracle, Talend, SAP BW, Business Object, SSAS, ..
    • Seniority: Mid-level

    Job description



    Notre client, spécialisée dans l'accompagnement et l'intégration de solutions décisionnelles, recrute pour renforcer son équipe en pleine croissance.

    Présentation de l'entreprise :
    • Société à taille humaine (15aine de collaborateurs)
    • Partenaire stratégique pour la valorisation des données, l'entreprise se distingue par son agilité et son innovation.
    • Missions en équipe (3 à 4 consultants) favorisant la collaboration.
    • Tous les collaborateurs participent au développement commercial, technique et au recrutement.
    • Accompagnement : groupes de travail, formations techniques et soft skills, certifications.
    • Ambiance conviviale, équipe jeune et dynamique avec un faible turn-over.
    • Possibilité d'évolution rapide avec des revues semestrielles de performance.
    • Expansion internationale en cours.
    • Aucun consultant en intercontrat, signe d'une gestion efficace.


    Missions :

    Vous interviendrez sur des projets BI chez différents clients :
    • Production et consolidation de tableaux de bord et statistiques.
    • Maintenance évolutive et corrective du SID.
    • Résolution des incidents utilisateurs.
    • Rédaction de spécifications fonctionnelles et techniques.
    • Modélisation de solutions, gestion de roadmap et plans de tests.
    • Animation de sessions avec les clients pour définir les processus cibles.
    • Propositions de recommandations et Best Practices.


    Profil recherché :
    • De formation Ingénieur ou Bac+5 informatique,
    • 3 ans d'expérience en cabinet de conseil minimum
    • Maîtrise d'outils de modélisation de données (Snowflake, Talend, Informatica, SSAS, Oracle, SAP BW, Business Object, etc.).
    • Anglais professionnel


    Qualités requises : Autonome, bonne communication, force de proposition, capacité d'adaptation, esprit d'analyse et de synthèse

    Si ce défi vous intéresse, postulez dès maintenant !

    Candidatures confidentielles