Assistant Data Engineer BigData (H/F)

Publié le 24 mai 2019

Rejoignez une entreprise qui travaille en méthode agile !!

#Data#Engineer#Ouisncf

Postuler
  • Localisation Lille - France
  • Type de contrat Alternance Durée
    12 mois
  • Poste A pourvoir immédiatement
  • Nombre de place 1 poste

Missions principales

Oui.sncf est le premier site e-commerce de France et le leader européen du Voyage avec 8 millions de visiteurs uniques par mois (des pics à presque 2 millions par jour !), 1 billet vendu toutes les 3 secondes et 4,2 milliards d’euros de volume d’affaire en 2016.

 Avec un tel trafic et un tel niveau de transactions, vous imaginez aisément les enjeux techniques et fonctionnels passionnants auxquels nous pouvons faire face quotidiennement…

 

Ayant une spécialisation data-engineer, vous serez intégré dans le domaine IT4DATA et vous prendrez en charge la conception de solutions et services permettant le traitement d’un grand volume de données.

Vous serez en binome avec un alternant data scientist et travaillez de concert pour pouvoir passer les prototypes en production.

Vous avez ces compétences dev et dataops (automisation, déploiement de dev et de technos data, prise en charge du run) :  ‘you built it, you run it’

 Vous utilisez les technos les plus appropriées selon les problématiques (liberté de choix).

Activités détaillées

Les enjeux au niveau analyse data sont divers, voici quelques exemples des missions sur lesquels vous serez amené à travailler :

  • Prédictions des prochains appels d’astreintes à partir de données temporelles (timeseries forecasting)
  • Détection d’anomalies sur des logs (algo de classification, clustering, …, correlation)
  • Détection d’intrusion sur des audits logs d’équipements réseaux
  • Enterprise ressource planning (gestion du capacity planning intelligent)

 

Vous évoluerez dans un environnement de : 

  • Collecte, stockage, mise en qualité des sources de données
  • Création de pipelines data
  • Développement de la CI/CD sur les usecases (avec les tests)
  • Mettre à disposition les outils nécessaires aux datascientists
  • Mise en place du monitoring et suivi de la prod

 

 Vous utiliserez les Technos suivantes :

  • SPARK, Scala, Python, …
  • Notebook jupyter, zeppelin
  • Java, maven, git, airflow
  • grafana

 

 Vous toucherez aux environnements suivants  :

  • Gitlab, ansible, puppet, rundeck
  • Docker, Vagrant, Kubernetes
  • Hadoop hortonworks
  • Cloud AWS, AZURE

Profil recherché

  • Etudiant dans un cursus bac+5, vous recherchez une alternance
  • Les outils Linux/spark/Python/bigdata ne vous sont pas inconnus et vous avez des connaissances dur l'IA ? 

Et bien là vous nous épatez ! 

Postuler

ou partager :