Trimane
Data Engineer Snowflake DBT (H/F/NB)
Fonction
DevOps / Infra
Contrat
CDI
Politique de télétravail
Télétravail partiel possible
Expérience
> 3 ans
Formation
BAC +5 / Master
Temps de travail
Temps plein
Qui sommes-nous ?
En tant que spécialiste Data, nous sommes reconnus pour le très haut niveau d'expertise de nos consultants et de notre retour d'expérience en la matière.
Nous accompagnons nos clients du secteur public ou privé sur des prestations de Conseil, MOA et MOE, autour du traitement et l'analyse des data, quel que soit l'environnement technique (BI, Big Data, Cloud, Machine Learning, Deep Learning, NLP, etc.) ou sur les aspects méthodologiques (Gestion de projet, Agile, DataOps, stratégie Data Gouvernance, organisation Data Driven…).
Société à taille humaine, nous recrutons, avant tout, des personnes passionnées désirant intégrer une vraie communauté et construire ensemble une relation durable et de confiance.
Rejoindre Trimane c'est :
-> Un triple suivi de carrière avec vos référents technique, RH et commercial,
-> Un accès en illimité à nos plateformes de formations, des certifications, des formations en interne autour en BI, Big Data, Machine Learning, Blockchain, développement web et logiciels software,
-> Des ateliers de veilles technologiques sur des sujets innovants,
-> Un CSE avec des afterworks, des escapes games, et autres activités d'équipe,
-> Participer à l'aventure The Blockchain Group, un groupe d'entrepreneurs, composé de différentes entités proposant des offres de services complémentaires (digital, blockchain, Data...) et des projets communs.
Description du poste
En collaboration avec les équipes Data Science, Business Intelligence et IT, vous jouerez un rôle clé dans le traitement, la transformation et la visualisation des données, pour permettre des décisions basées sur des insights fiables.
Vos missions :
- Concevoir et maintenir des pipelines de données :
Développer et optimiser les pipelines ETL/ELT sur Snowflake en utilisant DBT pour les transformations.
Automatiser le flux de données avec des outils de workflow (ex. Airflow).
- Modélisation et transformation des données :
Concevoir des modèles de données robustes, scalables et orientés business.
Assurer la qualité des données et le suivi de leur conformité (Data Quality & Governance).
- Développement de dashboards et visualisations :
Créer des visualisations avancées avec Qliksense en collaboration avec les équipes métier.
- Intégration avec AWS :
Configurer et maintenir des services AWS (S3, Lambda, Glue, Redshift, etc.) pour répondre aux besoins en data engineering.
Gérer les ressources cloud et optimiser les coûts.
- Mise en place de pratiques CI/CD :
Construire et automatiser les déploiements via des outils de CI/CD (ex. Jenkins, GitLab CI/CD, GitHub Actions).
Assurer une livraison continue des modèles DBT et des pipelines Snowflake.
- Support et veille technologique :
Assurer le suivi des incidents, le monitoring et le support des pipelines de production.
Réaliser une veille technologique pour identifier de nouvelles opportunités et améliorer les processus existants.
Profil recherché
Base de données & Transformation des données :
Expertise sur Snowflake (architecture, optimisation, sécurisation).
Expérience avancée avec DBT (modélisation, macros, testing).
Visualisation de données :
Connaissance approfondie de Qlik Sense pour la création de tableaux de bord.
Cloud Computing :
Maîtrise des services AWS liés à la data (S3, Lambda, Glue, Athena, Redshift).
Compréhension des architectures serverless et distribuées.
CI/CD et outils de versionnement :
Familiarité avec les outils CI/CD (Git, Jenkins, GitLab CI, etc.).
Expérience avec les workflows de déploiement dans des environnements data.
Programmation et scripting :
Maîtrise de Python et/ou SQL.
Connaissance des frameworks d'orchestration de données (ex. Apache Airflow).
Compétences soft et organisationnelles :
Capacité à travailler en équipe et à collaborer avec des profils variés (Data Scientists, BI Analysts, DevOps...).
Bonnes capacités d'analyse et de résolution de problèmes complexes.
Autonomie, rigueur et sens de la priorisation dans un contexte agile.
Formation et expérience :
Diplôme Bac+5 en Informatique, Big Data, Statistiques, ou équivalent.
Une expérience significative d'au moins 3 ans dans un rôle similaire.
Une certification Snowflake ou AWS serait un plus.
Avantages
Les dernières offres
Responsable de Projets Automatisme et Informatique Industrielle - H/F
DevOps / Infra
CDI
BAC +5 / Master
> 3 ans
Temps plein
Télétravail occasionnel autorisé
il y a 5 heures
Développeur angular / node.js (H/F)
DevOps / Infra
CDI
BAC +5 / Master
< 1 an
Temps plein
Télétravail partiel possible
il y a 5 heures
Responsable informatique PME - H/F
DevOps / Infra
CDI
BAC +3
> 3 ans
Temps plein
Télétravail occasionnel autorisé
il y a 5 heures
Fonction
DevOps / Infra
Contrat
CDI
Politique de télétravail
Télétravail partiel possible
Expérience
> 3 ans
Formation
BAC +5 / Master
Temps de travail
Temps plein
Les dernières offres
Responsable de Projets Automatisme et Informatique Industrielle - H/F
DevOps / Infra
CDI
BAC +5 / Master
> 3 ans
Temps plein
Télétravail occasionnel autorisé
il y a 5 heures
Développeur angular / node.js (H/F)
DevOps / Infra
CDI
BAC +5 / Master
< 1 an
Temps plein
Télétravail partiel possible
il y a 5 heures
Responsable informatique PME - H/F
DevOps / Infra
CDI
BAC +3
> 3 ans
Temps plein
Télétravail occasionnel autorisé
il y a 5 heures
Les derniers articles

Premier emploi : l'insertion des jeunes diplômés cadres s'est dégradée en 2024, selon l'Apec

"J'ai appris comment fonctionne un monde en train de mourir" : en affaires internationales, étudiants et jeunes diplômés angoissés pour leur avenir

Ce qu'il faut savoir avant de demander une rupture conventionnelle à son employeur

Quels sont mes droits quand je démissionne ?

Staffmatch : trouvez une mission d'intérim près de chez vous
