Data Engineer (H/F)
Full-timeJob Overview
đ Qui sommes-nous ?
Safran.AI (anciennement Preligens), est une filiale de Safran Electronics & Defense qui propose des solutions d’intelligence artificielle pour analyser les images satellite à haute résolution, les flux vidéos FMV (full motion video) et les signaux acoustiques. Nos solutions sont déployées au service de l’aéronautique, la défense et les applications gouvernementales.
Notre société développe depuis 2016 des algorithmes et logiciels complexes permettant d’analyser, de détecter et d’identifier automatiquement des objets présentant un intérêt militaire, à partir de données d’origine commerciale ou gouvernementale.
Depuis son intégration à Safran en septembre 2024, Safran.AI contribue également à la transformation du groupe, en appliquant les solutions d’IA aux domaines de l’industrie 4.0. À titre d’exemple, l’analyse d’images automatisée par l’IA peut assister les contrôleurs en charge de l’inspection de pièces critiques en les aidant à détecter les anomalies éventuelles à partir de clichés numériques.
Chez Safran.AI, l'innovation et la création d'un monde plus sûr sont au cœur de notre ADN. En nous rejoignant, vous travaillerez avec des équipes passionnées et pluridisciplinaires (ingénieurs, chercheurs, développeurs…) parmi les plus talentueux du secteur, tous animés par une passion commune pour l'excellence technologique. Nous offrons un environnement de travail stimulant, où la créativité et la prise d'initiative sont encouragées, et où chaque idée compte.
đ Votre mission, si vous l’acceptez
Vous rejoindrez l’équipe AI Platform, qui développe une plateforme data (datalake, datawarehouse, orchestrateur de transformation de données, BI) et un ensemble d’outils internes de MLOps à destination des data scientists visant à accélérer le développement et la mise en production de modèles de machine/deep learning : l’AI Factory.
Toutes les étapes de développement sont couvertes : captation de la donnée, ingestion, transformation, modélisation et exposition. Nos enjeux sont nombreux pour stocker une grande quantité de données et l’exposer de la manière la plus efficace aux data scientists.
Nous sommes une quinzaine de collaborateurs au sein de l’équipe, avec des profils mixtes AI / Data Engineering / Software.
Toutes les étapes de développement sont couvertes : captation de la donnée, ingestion, transformation, modélisation et exposition. Nos enjeux sont nombreux pour stocker une grande quantité de données et l’exposer de la manière la plus efficace aux data scientists.
Nous sommes une quinzaine de collaborateurs au sein de l’équipe, avec des profils mixtes AI / Data Engineering / Software.
Attention : la capacité à obtenir une habilitation Défense est obligatoire pour ce poste.
En tant que Data Engineer au sein de l’équipe AI Platform, vous travaillerez notamment à :
→ Adapter notre stack technique pour répondre aux différentes verticales de notre entreprise (imagerie satellite électro-optique et SAR, vidéo, industry 4.0 avec le contrôle non destructif ) et anticiper sur les futurs besoins utilisateurs en repoussant les limites des systèmes existants
→ Améliorer notre plateforme de données, son design et architecture pour :
- Se connecter à nos différents fournisseurs de données
- Accueillir, explorer et transformer les différentes données, notamment les faire annoter
- Surveiller et maintenir nos outils en production, avec un haut niveau de disponibilité
- Permettre l’analyse de données en autonomie par les data scientists
- Garantir la maintenabilité et l'évolutivité de nos différentes librairies
- Permettre le processing d’images satellites (par exemple via GDAL/rasterio)
- Construire des datasets
→ Participer activement à la veille technologique et partager vos connaissances avec l’équipe (ex : guildes, ateliers, revues de code).
→ Documenter les processus, les architectures et les bonnes pratiques pour faciliter l’onboarding et la collaboration.
→ Peser sur la méthodologie de travail générale de l’équipe en apportant ses retours d’expériences aux managers de façon à les faire évoluer.
→ Résoudre les incidents liés aux données ou aux pipelines, et proposer des solutions durables.
Notre stack technique :
→ Nous utilisons essentiellement du Python orchestré avec Airflow, des bases de données PostgreSQL (extension PostGIS) ainsi que des services AWS (S3, EC2, RDS..). Nous manipulons des formes hétérogènes de données (rasters, vidéos, fichiers parquet, GeoJSON, …), exploitées à l’aide de notre datalake (utilisation d’Iceberg et de Kafka par exemple).
→ Nos applications data sont déployées sur un cluster Nomad (Hashicorp), avec une intégration et un déploiement continu depuis Github Actions.
→ Nos collègues SRE utilisent quant à eux principalement les technos Ansible, Terraform pour l’automatisation et la suite Prometheus / Grafana pour le monitoring. La plupart de nos applications sont déployées sur le cloud et on-premise.
→ Adapter notre stack technique pour répondre aux différentes verticales de notre entreprise (imagerie satellite électro-optique et SAR, vidéo, industry 4.0 avec le contrôle non destructif ) et anticiper sur les futurs besoins utilisateurs en repoussant les limites des systèmes existants
→ Améliorer notre plateforme de données, son design et architecture pour :
- Se connecter à nos différents fournisseurs de données
- Accueillir, explorer et transformer les différentes données, notamment les faire annoter
- Surveiller et maintenir nos outils en production, avec un haut niveau de disponibilité
- Permettre l’analyse de données en autonomie par les data scientists
- Garantir la maintenabilité et l'évolutivité de nos différentes librairies
- Permettre le processing d’images satellites (par exemple via GDAL/rasterio)
- Construire des datasets
→ Participer activement à la veille technologique et partager vos connaissances avec l’équipe (ex : guildes, ateliers, revues de code).
→ Documenter les processus, les architectures et les bonnes pratiques pour faciliter l’onboarding et la collaboration.
→ Peser sur la méthodologie de travail générale de l’équipe en apportant ses retours d’expériences aux managers de façon à les faire évoluer.
→ Résoudre les incidents liés aux données ou aux pipelines, et proposer des solutions durables.
Notre stack technique :
→ Nous utilisons essentiellement du Python orchestré avec Airflow, des bases de données PostgreSQL (extension PostGIS) ainsi que des services AWS (S3, EC2, RDS..). Nous manipulons des formes hétérogènes de données (rasters, vidéos, fichiers parquet, GeoJSON, …), exploitées à l’aide de notre datalake (utilisation d’Iceberg et de Kafka par exemple).
→ Nos applications data sont déployées sur un cluster Nomad (Hashicorp), avec une intégration et un déploiement continu depuis Github Actions.
→ Nos collègues SRE utilisent quant à eux principalement les technos Ansible, Terraform pour l’automatisation et la suite Prometheus / Grafana pour le monitoring. La plupart de nos applications sont déployées sur le cloud et on-premise.
đŻ Votre profil
Vous avez la volonté de participer à la construction d’une plateforme data axée sur l'apport de valeur à ses utilisateurs, grâce à un code sécurisé, testé et mettant en œuvre des choix pragmatiques et sains.
En termes de compétences, vous disposez :
→ De plus de 3 ans d’expérience en informatique au sens large, dont au moins 2 en data engineering
→ D’une excellente compréhension des bases de données (relationnelles ou non), de système de stockage et de processing (notamment batch processing). La modern data stack ne vous fait pas peur !
→ D’une expérience appliquée avec au moins l'une des principales plateformes de cloud (de préférence AWS)
→ De connaissance sur l’écosystème UNIX, la conteneurisation avec Docker
Une expérience avec des enjeux d’exploitation d’environnements restreints / isolés est un plus appréciable.
En termes de compétences, vous disposez :
→ De plus de 3 ans d’expérience en informatique au sens large, dont au moins 2 en data engineering
→ D’une excellente compréhension des bases de données (relationnelles ou non), de système de stockage et de processing (notamment batch processing). La modern data stack ne vous fait pas peur !
→ D’une expérience appliquée avec au moins l'une des principales plateformes de cloud (de préférence AWS)
→ De connaissance sur l’écosystème UNIX, la conteneurisation avec Docker
Une expérience avec des enjeux d’exploitation d’environnements restreints / isolés est un plus appréciable.
Si vous ne remplissez pas 100% des critères ci-dessus, pas de panique, vous pouvez nous indiquer les raisons pour lesquelles vous pensez tout de même être un bon candidat pour ce rôle !
đPourquoi rejoindre Safran.AI ?
Rejoindre Safran.AI, c’est rejoindre une entreprise de passionnés, pionnière dans son domaine pour travailler sur des technologies innovantes et résoudre des problématiques techniques complexes à l’état de l’art. Notre volonté de placer l’humain au cœur de nos activités se traduit par un fort esprit d’équipe et d’entraide.
Rejoignez-nous et créez aujourd’hui la sécurité de demain !
đ°Ce que nous offrons
→ Environnement remote-friendly avec jusqu’à trois jours de télétravail par semaine.
→ Jeudis après-midi dédiés au développement des compétences avec au moins un intervenant de haut vol tous les deux mois !
→ Un salaire compétitif et équitable dans l’organisation.
→ Un minimum de 33 jours de congés par an.
→ Congé second parent égal au congé post-naissance (10 semaines pour le premier enfant).
→ Programmes de développement professionnels et personnels sur-mesure.
đȘ Notre process de recrutement
→ Un échange de 45 minutes avec un recruteur pour en apprendre plus sur vous, vos attentes et vous donner plus de détails sur la vie chez Safran.AI
→ Un échange de 45 minutes avec votre futur manager ou une personne de son équipe afin de vous permettre dès le début de rencontrer vos futurs collaborateurs et de rentrer dans la technique de votre métier !
→ Réalisation d’un cas pratique que vous serez invité(e) à présenter à un panel composé de votre futur manager ainsi que d’un ou deux pairs
Notre process de recrutement dure généralement entre 20 et 30 jours selon vos disponibilités. En cas de deadlines serrées, nous savons aussi mettre le turbo pour ne pas vous faire attendre ! đ
Toutes nos offres sont ouvertes aux personnes en situation de handicap
Safran.AI s’engage à traiter chaque candidature de manière objective et inclusive
đ Qui sommes-nous ?
Safran.AI (anciennement Preligens), est une filiale de Safran Electronics & Defense qui propose des solutions dâintelligence artificielle pour analyser les images satellite Ă haute rĂ©solution, les flux vidĂ©os FMV (full motion video) et les signaux acoustiques. Nos solutions sont dĂ©ployĂ©es au service de lâaĂ©ronautique, la dĂ©fense et les applications gouvernementales.
Notre sociĂ©tĂ© dĂ©veloppe depuis 2016 des algorithmes et logiciels complexes permettant dâanalyser, de dĂ©tecter et dâidentifier automatiquement des objets prĂ©sentant un intĂ©rĂȘt militaire, Ă partir de donnĂ©es dâorigine commerciale ou gouvernementale.
Depuis son intĂ©gration Ă Safran en septembre 2024, Safran.AI contribue Ă©galement Ă la transformation du groupe, en appliquant les solutions dâIA aux domaines de lâindustrie 4.0. Ă titre dâexemple, lâanalyse dâimages automatisĂ©e par lâIA peut assister les contrĂŽleurs en charge de lâinspection de piĂšces critiques en les aidant Ă dĂ©tecter les anomalies Ă©ventuelles Ă partir de clichĂ©s numĂ©riques.
Chez Safran.AI, l'innovation et la crĂ©ation d'un monde plus sĂ»r sont au cĆur de notre ADN. En nous rejoignant, vous travaillerez avec des Ă©quipes passionnĂ©es et pluridisciplinaires (ingĂ©nieurs, chercheurs, dĂ©veloppeursâŠ) parmi les plus talentueux du secteur, tous animĂ©s par une passion commune pour l'excellence technologique. Nous offrons un environnement de travail stimulant, oĂč la crĂ©ativitĂ© et la prise d'initiative sont encouragĂ©es, et oĂč chaque idĂ©e compte.
đ Votre mission, si vous lâacceptez
Vous rejoindrez lâĂ©quipe AI Platform, qui dĂ©veloppe une plateforme data (datalake, datawarehouse, orchestrateur de transformation de donnĂ©es, BI) et un ensemble dâoutils internes de MLOps Ă destination des data scientists visant Ă accĂ©lĂ©rer le dĂ©veloppement et la mise en production de modĂšles de machine/deep learning : lâAI Factory.
Toutes les Ă©tapes de dĂ©veloppement sont couvertes : captation de la donnĂ©e, ingestion, transformation, modĂ©lisation et exposition. Nos enjeux sont nombreux pour stocker une grande quantitĂ© de donnĂ©es et lâexposer de la maniĂšre la plus efficace aux data scientists.
Nous sommes une quinzaine de collaborateurs au sein de lâĂ©quipe, avec des profils mixtes AI / Data Engineering / Software.
Toutes les Ă©tapes de dĂ©veloppement sont couvertes : captation de la donnĂ©e, ingestion, transformation, modĂ©lisation et exposition. Nos enjeux sont nombreux pour stocker une grande quantitĂ© de donnĂ©es et lâexposer de la maniĂšre la plus efficace aux data scientists.
Nous sommes une quinzaine de collaborateurs au sein de lâĂ©quipe, avec des profils mixtes AI / Data Engineering / Software.
Attention : la capacité à obtenir une habilitation Défense est obligatoire pour ce poste.
En tant que Data Engineer au sein de lâĂ©quipe AI Platform, vous travaillerez notamment Ă :
â Adapter notre stack technique pour rĂ©pondre aux diffĂ©rentes verticales de notre entreprise (imagerie satellite Ă©lectro-optique et SAR, vidĂ©o, industry 4.0 avec le contrĂŽle non destructif ) et anticiper sur les futurs besoins utilisateurs en repoussant les limites des systĂšmes existants
â AmĂ©liorer notre plateforme de donnĂ©es, son design et architecture pour :
- Se connecter à nos différents fournisseurs de données
- Accueillir, explorer et transformer les différentes données, notamment les faire annoter
- Surveiller et maintenir nos outils en production, avec un haut niveau de disponibilité
- Permettre lâanalyse de donnĂ©es en autonomie par les data scientists
- Garantir la maintenabilité et l'évolutivité de nos différentes librairies
- Permettre le processing dâimages satellites (par exemple via GDAL/rasterio)
- Construire des datasets
â Participer activement Ă la veille technologique et partager vos connaissances avec lâĂ©quipe (ex : guildes, ateliers, revues de code).
â Documenter les processus, les architectures et les bonnes pratiques pour faciliter lâonboarding et la collaboration.
â Peser sur la mĂ©thodologie de travail gĂ©nĂ©rale de lâĂ©quipe en apportant ses retours dâexpĂ©riences aux managers de façon Ă les faire Ă©voluer.
â RĂ©soudre les incidents liĂ©s aux donnĂ©es ou aux pipelines, et proposer des solutions durables.
Notre stack technique :
â Nous utilisons essentiellement du Python orchestrĂ© avec Airflow, des bases de donnĂ©es PostgreSQL (extension PostGIS) ainsi que des services AWS (S3, EC2, RDS..). Nous manipulons des formes hĂ©tĂ©rogĂšnes de donnĂ©es (rasters, vidĂ©os, fichiers parquet, GeoJSON, âŠ), exploitĂ©es Ă lâaide de notre datalake (utilisation dâIceberg et de Kafka par exemple).
â Nos applications data sont dĂ©ployĂ©es sur un cluster Nomad (Hashicorp), avec une intĂ©gration et un dĂ©ploiement continu depuis Github Actions.
â Nos collĂšgues SRE utilisent quant Ă eux principalement les technos Ansible, Terraform pour lâautomatisation et la suite Prometheus / Grafana pour le monitoring. La plupart de nos applications sont dĂ©ployĂ©es sur le cloud et on-premise.
â Adapter notre stack technique pour rĂ©pondre aux diffĂ©rentes verticales de notre entreprise (imagerie satellite Ă©lectro-optique et SAR, vidĂ©o, industry 4.0 avec le contrĂŽle non destructif ) et anticiper sur les futurs besoins utilisateurs en repoussant les limites des systĂšmes existants
â AmĂ©liorer notre plateforme de donnĂ©es, son design et architecture pour :
- Se connecter à nos différents fournisseurs de données
- Accueillir, explorer et transformer les différentes données, notamment les faire annoter
- Surveiller et maintenir nos outils en production, avec un haut niveau de disponibilité
- Permettre lâanalyse de donnĂ©es en autonomie par les data scientists
- Garantir la maintenabilité et l'évolutivité de nos différentes librairies
- Permettre le processing dâimages satellites (par exemple via GDAL/rasterio)
- Construire des datasets
â Participer activement Ă la veille technologique et partager vos connaissances avec lâĂ©quipe (ex : guildes, ateliers, revues de code).
â Documenter les processus, les architectures et les bonnes pratiques pour faciliter lâonboarding et la collaboration.
â Peser sur la mĂ©thodologie de travail gĂ©nĂ©rale de lâĂ©quipe en apportant ses retours dâexpĂ©riences aux managers de façon Ă les faire Ă©voluer.
â RĂ©soudre les incidents liĂ©s aux donnĂ©es ou aux pipelines, et proposer des solutions durables.
Notre stack technique :
â Nous utilisons essentiellement du Python orchestrĂ© avec Airflow, des bases de donnĂ©es PostgreSQL (extension PostGIS) ainsi que des services AWS (S3, EC2, RDS..). Nous manipulons des formes hĂ©tĂ©rogĂšnes de donnĂ©es (rasters, vidĂ©os, fichiers parquet, GeoJSON, âŠ), exploitĂ©es Ă lâaide de notre datalake (utilisation dâIceberg et de Kafka par exemple).
â Nos applications data sont dĂ©ployĂ©es sur un cluster Nomad (Hashicorp), avec une intĂ©gration et un dĂ©ploiement continu depuis Github Actions.
â Nos collĂšgues SRE utilisent quant Ă eux principalement les technos Ansible, Terraform pour lâautomatisation et la suite Prometheus / Grafana pour le monitoring. La plupart de nos applications sont dĂ©ployĂ©es sur le cloud et on-premise.
đŻ Votre profil
Vous avez la volontĂ© de participer Ă la construction dâune plateforme data axĂ©e sur l'apport de valeur Ă ses utilisateurs, grĂące Ă un code sĂ©curisĂ©, testĂ© et mettant en Ćuvre des choix pragmatiques et sains.
En termes de compétences, vous disposez :
â De plus de 3 ans dâexpĂ©rience en informatique au sens large, dont au moins 2 en data engineering
â Dâune excellente comprĂ©hension des bases de donnĂ©es (relationnelles ou non), de systĂšme de stockage et de processing (notamment batch processing). La modern data stack ne vous fait pas peur !
â Dâune expĂ©rience appliquĂ©e avec au moins l'une des principales plateformes de cloud (de prĂ©fĂ©rence AWS)
â De connaissance sur lâĂ©cosystĂšme UNIX, la conteneurisation avec Docker
Une expĂ©rience avec des enjeux dâexploitation dâenvironnements restreints / isolĂ©s est un plus apprĂ©ciable.
En termes de compétences, vous disposez :
â De plus de 3 ans dâexpĂ©rience en informatique au sens large, dont au moins 2 en data engineering
â Dâune excellente comprĂ©hension des bases de donnĂ©es (relationnelles ou non), de systĂšme de stockage et de processing (notamment batch processing). La modern data stack ne vous fait pas peur !
â Dâune expĂ©rience appliquĂ©e avec au moins l'une des principales plateformes de cloud (de prĂ©fĂ©rence AWS)
â De connaissance sur lâĂ©cosystĂšme UNIX, la conteneurisation avec Docker
Une expĂ©rience avec des enjeux dâexploitation dâenvironnements restreints / isolĂ©s est un plus apprĂ©ciable.
Si vous ne remplissez pas 100% des critĂšres ci-dessus, pas de panique, vous pouvez nous indiquer les raisons pour lesquelles vous pensez tout de mĂȘme ĂȘtre un bon candidat pour ce rĂŽle !
đPourquoi rejoindre Safran.AI ?
Rejoindre Safran.AI, câest rejoindre une entreprise de passionnĂ©s, pionniĂšre dans son domaine pour travailler sur des technologies innovantes et rĂ©soudre des problĂ©matiques techniques complexes Ă lâĂ©tat de lâart. Notre volontĂ© de placer lâhumain au cĆur de nos activitĂ©s se traduit par un fort esprit dâĂ©quipe et dâentraide.
Rejoignez-nous et crĂ©ez aujourdâhui la sĂ©curitĂ© de demain !
đ°Ce que nous offrons
â Environnement remote-friendly avec jusquâĂ trois jours de tĂ©lĂ©travail par semaine.
â Jeudis aprĂšs-midi dĂ©diĂ©s au dĂ©veloppement des compĂ©tences avec au moins un intervenant de haut vol tous les deux mois !
â Un salaire compĂ©titif et Ă©quitable dans lâorganisation.
â Un minimum de 33 jours de congĂ©s par an.
â CongĂ© second parent Ă©gal au congĂ© post-naissance (10 semaines pour le premier enfant).
â Programmes de dĂ©veloppement professionnels et personnels sur-mesure.
đȘ Notre process de recrutement
â Un Ă©change de 45 minutes avec un recruteur pour en apprendre plus sur vous, vos attentes et vous donner plus de dĂ©tails sur la vie chez Safran.AI
â Un Ă©change de 45 minutes avec votre futur manager ou une personne de son Ă©quipe afin de vous permettre dĂšs le dĂ©but de rencontrer vos futurs collaborateurs et de rentrer dans la technique de votre mĂ©tier !
â RĂ©alisation dâun cas pratique que vous serez invitĂ©(e) Ă prĂ©senter Ă un panel composĂ© de votre futur manager ainsi que dâun ou deux pairs
Notre process de recrutement dure gĂ©nĂ©ralement entre 20 et 30 jours selon vos disponibilitĂ©s. En cas de deadlines serrĂ©es, nous savons aussi mettre le turbo pour ne pas vous faire attendre ! đ
Toutes nos offres sont ouvertes aux personnes en situation de handicap
Safran.AI sâengage Ă traiter chaque candidature de maniĂšre objective et inclusive
Make Your Resume Now