En tant qu'expert(e) Data, vous jouerez un rôle clé dans les projets de transformation cloud pour des clients ayant des besoins critiques en scalabilité. Vous interviendrez sur toutes les phases du projet, de la conception à la mise en production, en apportant votre expertise sur les aspects techniques et stratégiques du cloud public, notamment en matière de sécurité, d'observabilité, de réseau, de gestion des coûts et d'automatisation.
Votre polyvalence, à la fois technique et humaine, sera un atout majeur. Vous serez notamment impliqué(e) dans :- L'audit et l'optimisation des environnements cloud existants des clients, avec des recommandations d'amélioration.
- La conception d'architectures cloud natives (AWS) robustes et évolutives pour des solutions data.
- La création et le déploiement d'entrepôts de données hautement scalables utilisant Lambda, Redshift et d'autres technologies.
- Le développement et l'optimisation de pipelines de données avec des outils tels que Spark, Dataflow, SQS, et PubSub.
- L'accompagnement des clients dans l'adoption des meilleures pratiques cloud et DevOps, en les formant à la philosophie du cloud.
- L'implémentation des processus d'automatisation via CI/CD, GitOps et d'autres approches d'intégration continue.
- Le déploiement et l'intégration des solutions en production, tout en assurant un passage fluide vers les opérations.
Notre écosystème technique (variable selon les projets) inclut :
- Architecture Data : ETL, ELT, Dataflow, Spark, Airflow, GCP Workflows.
- Big Data : BigQuery, Firestore, Redshift, Athena, MongoDB.
- Conteneurs & microservices : Docker, Kubernetes, Istio.
- Architecture orientée messages : Kafka, PubSub.
- Automatisation & Infrastructure as Code (IaC) : Terraform, CloudFormation, Ansible, GitLab, GitHub.
- Cloud public : AWS, GCP.
- Langages : Python, Go, Java.