Data Engineer Java / SparkDGTL Performance
CDI
Département de Paris
BAC +5 / Master
> 3 ans
Temps plein
Télétravail partiel possible
Fonction
DevOps / Infra
Contrat
CDI
Politique de télétravail
Télétravail partiel possible
Expérience
> 3 ans
Formation
BAC +5 / Master
Temps de travail
Temps plein
Salaire
50 - 55 000 euros / an
Qui sommes-nous ?
DGTL / Signe + est le facilitateur pour tous les acteurs qui recherchent des ressources ou des missions DATA.
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
https://www.dgtl-performance.com
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
https://www.dgtl-performance.com
Description du poste
Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Contexte: Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe.
Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle.
Les principaux déclaratifs concernés sont les suivants :
- FICOVIE
- EAI / FATCA
- IER
- ECKERT
-AGIRA / RNIPP
Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data.
La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Contexte: Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe.
Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle.
Les principaux déclaratifs concernés sont les suivants :
- FICOVIE
- EAI / FATCA
- IER
- ECKERT
-AGIRA / RNIPP
Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data.
La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Profil recherché
Profil : Data Engineer
Profil expérimenté avec des connaissances dans les déclaratifs réglementaires de l'Assurance-Vie
Compétences techniques requises :
Maîtrise avancée de Java Spark, y compris Java 11 et SparkSQL.
Connaissance approfondie de l'écosystème Big Data, en particulier Hadoop, Spark et Kafka.
Expérience significative en Build et en Run dans des environnements Big Data.
Utilisation avancée d'outils DevOps tels que GitLab, Jenkins, Nexus, Maven, Docker, Kubernetes, ArgoCD, Sonar, etc.
Solide compréhension des pratiques Agiles/SAFe et compétence dans l'utilisation de JIRA.
Excellente maîtrise de Hive et Shell pour la manipulation et la transformation de données.
Expérience confirmée avec des clusters on-premise MapR, y compris la gestion et l'optimisation.
Compréhension approfondie des domaines de l'assurance, en particulier Assurance vie et Prévoyance.
Connaissance avancée des bases de données relationnelles et non relationnelles.
Excellentes compétences de communication pour collaborer efficacement avec les équipes.
Leadership technique pour encadrer et orienter les membres de l'équipe.
Esprit d'initiative et capacité à résoudre des problèmes techniques complexes.
Capacité à travailler dans un environnement Agile et à gérer les priorités en conséquence.
Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.
Profil expérimenté avec des connaissances dans les déclaratifs réglementaires de l'Assurance-Vie
Compétences techniques requises :
Maîtrise avancée de Java Spark, y compris Java 11 et SparkSQL.
Connaissance approfondie de l'écosystème Big Data, en particulier Hadoop, Spark et Kafka.
Expérience significative en Build et en Run dans des environnements Big Data.
Utilisation avancée d'outils DevOps tels que GitLab, Jenkins, Nexus, Maven, Docker, Kubernetes, ArgoCD, Sonar, etc.
Solide compréhension des pratiques Agiles/SAFe et compétence dans l'utilisation de JIRA.
Excellente maîtrise de Hive et Shell pour la manipulation et la transformation de données.
Expérience confirmée avec des clusters on-premise MapR, y compris la gestion et l'optimisation.
Compréhension approfondie des domaines de l'assurance, en particulier Assurance vie et Prévoyance.
Connaissance avancée des bases de données relationnelles et non relationnelles.
Excellentes compétences de communication pour collaborer efficacement avec les équipes.
Leadership technique pour encadrer et orienter les membres de l'équipe.
Esprit d'initiative et capacité à résoudre des problèmes techniques complexes.
Capacité à travailler dans un environnement Agile et à gérer les priorités en conséquence.
Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.
Avantages
Selon Profil
Localisation
Télétravail partiel possible
Département de Paris, France
Fonction
DevOps / Infra
Contrat
CDI
Politique de télétravail
Télétravail partiel possible
Expérience
> 3 ans
Formation
BAC +5 / Master
Temps de travail
Temps plein
Salaire
50 - 55 000 euros / an
Localisation
Télétravail partiel possible
Département de Paris, France