A Tenth Revolution Group Company

Your current job search

22 search results

For Permanent and Contract in France

    Consultant Sénior Power BI

    France, Île-de-France, Paris

    • €55,000 to €60,000 EUR
    • Analyst Role
    • Skills: MS Power BI
    • Seniority: Mid-level

    Job description



    Mon client est une société de conseil spécialisée dans la transformation digitale. Elle propose des missions de longue durée pour des clients prestigieux et valorise l'humain au sein de son équipe.



    Actuellement, mon client est à la recherche d'un(e) consultant(e) BI. Les consultants bénéficient de formations dispensées par des experts, le tout dans un environnement respectueux et collaboratif.



    Missions principales :

    • Analyse des besoins métiers et définition des spécifications techniques.
    • Développement et implémentation de solutions BI (Power BI, Tableau, Qlik).
    • Modélisation des données et gestion de l'intégration (ETL).
    • Création de tableaux de bord et automatisation des rapports.
    • Formation des utilisateurs aux outils BI.
    • Veille technologique pour proposer des solutions innovantes.




    Compétences techniques :

    • SQL, Python, R pour la manipulation de données.
    • Expertise sur Power BI, Tableau ou QlikSense.
    • Connaissance des processus ETL et de bases de données relationnelles (SQL Server) et non relationnelles (MongoDB).
    • Familiarité avec le Cloud (Azure, AWS, GCP).




    Compétences métiers :

    • Capacité à traduire les besoins métiers en solutions BI
    • Gestion de projet BI de bout en bout.
    • Excellente communication avec des interlocuteurs non techniques.




    Pré requis :

    • 3 à 5 ans en BI, avec des projets d'implémentation réussis.
    • Bonne connaissance des outils BI et automatisation de reporting
    • Anglais courant
    • Nationalité française

    Data Engineer GCP

    France, Rhône-Alpes, Lyon

    • Negotiable
    • Associate Role
    • Skills: Business Analysis, .NET
    • Seniority: Senior

    Job description



    À propos de l'opportunité :


    Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP), passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables.

    Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients.

    Missions 🏗️ :
    • 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données.
    • 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery.
    • 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables.
    • 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data.
    • 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business.


    Environnement Technique 💻 :
    • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc)
    • Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow
    • Langages de Programmation : Python, SQL
    • Outils de DevOps : Terraform, Docker, Kubernetes
    • Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données


    Profil Recherché :
    • Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform.
    • Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données.
    • Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT.
    • Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business.
    • Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques).


    Pourquoi Rejoindre ? 🌐


    Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.

    Data Engineer Snowflake

    France, Île-de-France, Paris

    • €60,000 to €70,000 EUR
    • Engineer Role
    • Skills: Data Engineering
    • Seniority: Mid-level

    Job description





    Rejoignez une équipe dédiée à l'intelligence décisionnelle et à la valorisation des données. Votre rôle consistera à développer, optimiser et maintenir un Data Warehouse performant, au service des besoins métiers de l'entreprise. Vous serez également amené(e) à contribuer à des projets stratégiques, allant de l'intégration de nouvelles solutions technologiques à l'amélioration continue des systèmes en place.

    Vos responsabilités :


    • Gestion des flux de données existants :
      Garantir la continuité et la fiabilité des traitements de données actuels, en utilisant des technologies telles que SSIS, SnowSQL et Python.


    • Migration technologique :
      Accompagner et finaliser le passage des chaînes de traitement actuelles sous SQL Server vers une architecture modernisée basée sur Snowflake.


    • Interlocuteur métier :
      Collaborer étroitement avec les équipes pour comprendre leurs besoins, proposer des solutions sur mesure et les accompagner dans leur mise en œuvre.


    • Conception et développement :
      Élaborer et mettre en place de nouveaux processus pour enrichir le Data Lake, en s'appuyant sur des méthodes variées (Batch, API).


    • Modélisation et organisation des données :
      Structurer les données en tables et vues selon les besoins fonctionnels et stratégiques de l'entreprise.


    • Validation des données :
      Participer aux phases de recette en coopération avec les équipes métiers pour garantir la conformité et la qualité des informations.


    • Projets avancés :
      Développer des solutions complexes, comme la création d'un référentiel unique ou l'implémentation d'algorithmes avancés pour des usages spécifiques.


    Compétences requises :
    • Approche autonome et rigoureuse : Vous savez gérer vos projets de manière indépendante et méthodique.
    • Expertise SQL : Maîtrise des requêtes avancées et optimisation des performances.
    • Outils d'intégration : Expérience avec des plateformes ETL comme SSIS, Talend ou autres solutions similaires, durant 5 années minimum
    • Compétences en programmation : Bonne maîtrise de Python ou d'autres langages (Java, C++).
    • Connaissances en architecture data : Compréhension des principes de modélisation et d'entreposage des données.
    • Esprit analytique : Capacité à analyser et garantir la qualité des données.
    • Communication efficace : Savoir partager vos idées et coordonner vos actions avec des équipes variées.


    Environnement technique :
    Vous évoluerez dans un contexte technologique riche, incluant GitLab pour la gestion des versions, Snowflake comme Data Lake, SQL Server et Python pour les développements.

    Candidatures confidentielles

    Data Engineer GCP

    France, Île-de-France, Paris

    • €45,000 to €60,000 EUR
    • Support Engineers Role
    • Skills: Data Engineering
    • Seniority: Mid-level

    Job description



    Nous recrutons pour une entreprise en pleine croissance et à la pointe des technologies cloud. Cette société cherche un Data Engineer confirmé pour renforcer ses équipes et travailler sur des projets stratégiques à forte valeur ajoutée.



    Poste de Data Engineer Confirmé :


    Dans ce rôle, vous serez un acteur clé dans la conception et la mise en œuvre de solutions data robustes et innovantes en utilisant Google Cloud Platform (GCP).

    Vos missions :
    • Concevoir, développer et maintenir des pipelines de données complexes sur GCP.
    • Mettre en œuvre des solutions d'intégration et de transformation des données adaptées aux besoins métiers.
    • Optimiser les flux de données pour garantir leur performance, leur sécurité et leur scalabilité.
    • Collaborer avec des équipes pluridisciplinaires : data scientists, analystes et architectes.
    • Assurer le suivi et le monitoring des environnements cloud.
    • Proposer des améliorations continues en adoptant les meilleures pratiques de gouvernance des données.


    Votre profil :
    • Expérience : 3 à 5 ans en tant que Data Engineer avec une expertise reconnue sur GCP.
    • Compétences techniques :
      • Maîtrise des outils GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage.
      • Solides connaissances en Python et SQL pour le développement de pipelines ETL.
      • Compréhension des bases de données relationnelles et non relationnelles (MySQL, MongoDB, etc.).
    • Une expérience avec Apache Beam, Terraform ou Airflow est un atout.
    • Soft skills : Autonomie, esprit d'analyse, capacité à travailler en équipe et goût pour l'innovation.


    Informations complémentaires :
    • Localisation : Poste basé à Paris, possibilité de télétravail.
    • Contrat : CDI.
    • Rémunération : Attractive, selon profil et expérience.


    Ne manquez pas cette opportunité de rejoindre un environnement stimulant et de travailler sur des projets d'envergure dans la data !

    Data Engineer

    France, Île-de-France, Paris-17e-Arrondissement

    • €40,000 to €55,000 EUR
    • Technical Leads Role
    • Seniority: Mid-level

    Job description



    À propos de notre client : Notre client est un acteur majeur du prêt-à-porter, reconnu pour son innovation et sa présence internationale. Avec plus de 1 500 magasins dans plus de 50 pays, l'entreprise cultive une relation unique avec sa clientèle à travers ses marques phares.

    Poste : Data Engineer Confirmé (H/F) Dans le cadre de sa transformation digitale, notre client recherche un Data Engineer confirmé pour renforcer son équipe Data et participer à des projets stratégiques visant à optimiser l'expérience client et les processus internes.

    Vos missions :
    • Concevoir, développer et maintenir des pipelines de données.
    • Intégrer et transformer des données provenant de diverses sources pour répondre aux besoins métiers.
    • Collaborer avec les équipes marketing, e-commerce et IT pour fournir des solutions data adaptées.
    • Assurer la qualité, la sécurité et la performance des infrastructures de données.
    • Participer à l'implémentation des meilleures pratiques en matière de gouvernance des données.


    Votre profil :
    • Expérience : 3 à 5 ans en tant que Data Engineer
    • Compétences techniques :
      • Maîtrise des services GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage.
      • Solides compétences en Python et SQL pour le développement de pipelines ETL.
      • Connaissance des bases de données relationnelles et non relationnelles.
      • Une expérience avec des outils tels qu'Airflow, Terraform ou Apache Beam est un plus.
    • Qualités personnelles : Esprit analytique, autonomie, capacité à travailler en équipe et sens de l'innovation.


    Ce que nous offrons :
    • Intégrer une entreprise leader dans son secteur, en pleine transformation digitale.
    • Participer à des projets d'envergure avec des défis techniques stimulants.
    • Un environnement de travail collaboratif et bienveillant.
    • Télétravail partiel possible.
    • Rémunération attractive selon profil et expérience.


    Lieu : Poste basé à Paris, avec possibilité de télétravail partiel.

    Rejoignez une entreprise innovante et contribuez à sa transformation digitale en apportant votre expertise en ingénierie des données !

    Data MLOps Senior

    France, Rhône-Alpes, Lyon

    • €55,000 to €56,000 EUR
    • Associate Role
    • Seniority: Senior

    Job description



    Vous êtes passionné par l'industrialisation des modèles de machine learning ? Rejoignez une équipe dynamique où vous jouerez un rôle central dans l'optimisation et l'automatisation des pipelines ML, tout en intégrant les meilleures pratiques MLOps.

    Contexte de la mission :
    En tant qu'Ingénieur MLOps, vous intégrerez une équipe produit dédiée, avec pour mission de garantir la fluidité des opérations ML. Vous participerez activement à l'industrialisation de modèles de machine learning déjà développés, en optimisant et en automatisant les processus de déploiement et de surveillance pour atteindre une efficacité et une scalabilité maximales.

    Objectifs et Livrables :
    • 🔄 Implémenter des Pipelines Automatisés : Mettre en place des pipelines pour le déploiement et la surveillance des modèles ML, avec gestion des alertes pour une proactivité optimale.
    • 🚀 Automatiser et Optimiser les Workflows ML : Améliorer la productivité en automatisant les étapes clés du pipeline ML et en maximisant la scalabilité des workflows.
    • 🛠️ Mettre en Place des Outils et Pratiques MLOps : Standardiser les pratiques d'ingénierie ML pour optimiser la collaboration et la performance, avec intégration d'outils IA.
    • 📈 Optimiser l'Efficacité des Workflows ML : Concevoir des solutions qui favorisent une exécution plus rapide et plus efficace des workflows, en prenant en compte les enjeux de performance et de coût.


    Stack Technique :
    • Environnement Cloud : AWS (prioritaire), incluant des outils et services comme SageMaker, Cloudwatch, Terraform.
    • Outils MLOps et Orchestration : Kubernetes, TensorFlow, Jenkins, PyTorch.
    • Surveillance et Observabilité : Cloudwatch, Prometheus, Alertmanager, Grafana.
    • Programmation : Python (indispensable).


    Compétences Recherchées :
    • Maîtrise des Technologies AWS et MLOps : Bonne connaissance de l'écosystème AWS et des outils MLOps clés.
    • Excellente Compétence en Python : Maîtrise de la programmation en Python pour l'implémentation de pipelines et workflows ML.
    • Solides Connaissances en Machine Learning : Compréhension des concepts ML pour une intégration optimale des modèles.
    • Force de Proposition et Esprit de Résolution : Capacité à analyser et résoudre rapidement les défis liés aux flux de données ML.
    • Proactivité et Esprit d'Équipe : Goût pour le travail collaboratif, le respect des délais, la qualité et le sens des résultats.


    Certification Requise :
    • AWS Machine Learning Specialty (minimum requis).


    Pourquoi Rejoindre ?
    Ce poste offre l'opportunité de travailler au sein d'une équipe performante sur des projets à forte valeur ajoutée en machine learning et IA. Vous serez au cœur des processus d'industrialisation et pourrez contribuer activement à l'optimisation des pratiques MLOps dans une structure en pleine croissance.