Bonjour, je suis Loic Esparon

Un
Après 8 ans dans l'administration systeme et la gestion de projet, j'explore aujourd'hui les techniques et outils de la data ingénierie, les LLM et les services cloud pour transformer la donnée en valeur.

À propos

En tant que Data Engineer, je conçois et mets en production des pipelines de données fiables et évolutifs. Mon objectif : valoriser les données en automatisant leur traitement, tout en assurant performance, traçabilité et scalabilité grâce à des outils modernes du cloud et du big data.

  • Langages: Python, SQL, Bash
  • Bases de données: MySQL, PostgreSQL, MongoDB
  • Orchestration & Intégration : Apache Airflow, Kestra, Airbyte
  • Cloud & Services : Azure Data Factory, AWS (S3, EC2, RDS), Google Cloud (GCS, BigQuery)
  • Devops CI/CD: Git, Docker, Kubernetes, Terraform
  • Traitement de données : Apache Spark, Pandas, PySpark
  • Monitoring & Tests : Great Expectations, pytest, Prometheus, Grafana

Fort d’une expérience en administration système, je souhaite aujourd’hui évoluer vers un poste de Data Engineer, combinant mon goût pour l’infrastructure, l’automatisation et les pipelines de données dans un environnement stimulant et en constante évolution.

Expériences

IT Manager
  • Administration des outils Saas et MDM Jamf et Intunes.
  • Déploiement, suivi et amélioration des politiques de sécurité sur le parc informatique (authentification, antivirus, chiffrement des disques, pare-feux, mises à jour, etc).
  • Gestion des incidents de sécurité en collaboration avec l'équipe sécurité.
  • Contrôler les accès et les licences pour les outils interne
  • Gestion du budget et de la flotte de pc (windows,mac,linux)
  • Optimisation de process d'onboarding et offboarding
  • Outils: Okta, Google Workspace, Microsoft Endpoint, Jamf, Fortinet, Jira Service Desk
Aout 2021 - Decembre 2023
Administrateur systèmes et réseaux
  • MCO des Infrastructures de Sécurité-Gestion Licences.
  • Supervision Centreon des infrastructures et intervention sur les incidents de production.
  • Gestion des Licences et des Certificats
  • Gestion de comptes (Pydio, LDAP, Centreon ...)
  • Intervention sur matériel physiquement FW, SW, SFP, Gcenter ..)
  • Outils: Windows Server 2016, Windows 10, Ubuntu 18.04, Cent0S7, Ansible, Thegreenbow, Cylance, Nagios, Scripting shell/python, Centreon, Stromshield, Sujet PDIS
Avril 2021 à Juillet 2021
Administrateur systèmes et réseaux
  • Administration et maintenance du parc informatique des clients: 200 postes clients, 10 serveurs applicatifs virtualisés, 5 serveurs physique, 30 switchs, 5 routeurs/firewall
  • Administration serveur Linux: Apache, Wordpress,BD Mysql, Scripting, VPN LantoLan, Serveur de fichiers, Applications métiers,Iptables, Audit
  • Gestion des demandes et incidents: Création de comptes, Modifications d'accès, Gestion de boite mail, Incident matériel et logiciel
  • Développement de processus de preprocessing et de validation des données.
  • Administration serveur Windows: Active DIrectory, DHCP, Applications métiers, Lecteurs partagés
  • Gestion de la supervision des équipements (Nagios): Alerting CPU,RAM,Disque,Etat,Spam..
  • Outil: Windows Server 2016-2018, Active Directory, SCCM; Serveur Exchange Serveur d'impression, Nagios, Scripting shell/python, GLPI, SCCM, OpenVPN, Pfsense-Iptable, Wordpress, Sauvegarde VEEAM
Avril 2018 - Janvier 2021
Technicien supervision et support client
  • Réaliser un premier diagnostic à partir des informations du client
  • Gestion des taches et planning d'un groupe de 5-6 collaborateurs.
  • Outils: Oceane (ticketing), Offre livebox entreprise, Routeur CISCO, PABX
Juin 2016 à septembre 2017

Projets

POC-Avantages-Sportif
POC-Avantages-Sportif

Ce projet implémente une architecture complète de traitement de données pour gérer un programme d'avantages liés aux activités sportives des employés.

Accomplishments
  • Outils: PostgreSQL, Debezium, Redpanda, Spark, Delta Table, Airflow, Prometheus/Grafana
  • Génération d'activités sportives
  • Capture des changements avec Debezium et streaming via Redpanda
  • Traitement avec Spark et stockage au format parquet
  • Orchestration des workflows avec Airflow
  • Monitoring & Observabilité avec Prometheus/Grafana
rag-system
POC-RAG-System

Ce projet implémente un chatbot culturel capable de recommander des événements en Occitanie en se basant sur des données provenant d'Open Agenda, et d'interagir avec l'utilisateur de manière naturelle. Le chatbot utilise FAISS pour l'indexation des événements et MistralAI pour les embeddings et la génération de réponses via un modèle de langage.

Accomplishments
  • Outils: LangChain, Langgraph, Mistral, FAISS, Pandas
  • Recherche vectorielle avec FAISS
  • Embeddings et LLM Mistral AI
  • Intégration OpenDataSoft pour les données d'événements
  • Indexation IVFFlat optimisée
  • Suite de tests unitaires
Screenshot of  web app
Prédiction de la consomation d'énergie

Construction d'API de prédiction en utilisant des données de consommation énergique de ville de Seattle.

Accomplishments
  • Outils: Xgboost, Pandas, BentoML, Google Cloud Run, Docker
  • Ce projet vise à prédire la consommation d'énergie et les émissions de CO2 des bâtiments non résidentiels de Seattle. L'objectif est de soutenir l'ambition de la ville d'atteindre la neutralité carbone d'ici 2050.
quiz app
Pipeline Orchestration Kestra

Ce projet permet d'orchestrer un pipeline de traitement de données pour un cas d'utilisation spécifique autour des données de vins, en utilisant Kestra et des services AWS S3 pour la gestion des fichiers. Il comprend plusieurs étapes allant de l'extraction des données à la génération de rapports et d'analyses avancées.

Accomplishments
  • Tools: Kestra, DuckDB, Pandas
  • Ce projet implémente un pipeline d'orchestration de données utilisant Kestra pour automatiser le traitement et l'analyse de données de ventes. Le pipeline intègre des données depuis différentes sources (ERP, Web), effectue des transformations, et génère des rapports d'analyse.
Screenshot of web app
Redpanda Streaming

Ce projet met en place une pipeline de traitement de tickets clients en temps réel, basée sur un écosystème Kafka (Redpanda), Apache Spark Structured Streaming et AWS S3. L’architecture est conteneurisée via Docker Compose.

Accomplishments
  • Outils: Redpanda, Kafka, Spark Streaming, Pyspark, Docker, AWS S3
  • Ce projet implémente une pipeline de données en temps réel utilisant Redpanda pour le streaming de données et Apache Spark pour le traitement des flux. Les données traitées sont automatiquement stockées dans AWS S3 pour des analyses ultérieures.
Screenshot of  web app
Forecast 2.0

Ce projet consiste à récupérer des fichiers de données météo depuis un bucket S3, à les transformer en fonction des métadonnées de chaque station, et à insérer les données dans une base de données MongoDB. Le script prend en charge différents formats de fichiers (Excel et JSON) et teste l'intégrité des données avant de les importer dans MongoDB.

Accomplishments
  • Outils: MongoDB, Pymongo, Pandas, Polaras, Tableau
  • Ce projet permet de transformer des données brutes de stations météorologiques et intégrer ces données météo dans une architecture semi-professionnelle dans le cloud AWS via Airbyte.
Screenshot of  web app
MongoDB Sharding ReplicatSet

Concevoir une architecture distribué de MongoDB pour NosCités permet ensuite de faire des analyses des locations de courte durée.

Accomplishments
  • Outils: MongoDB, Shell, Pymongo, Polars
  • Application de suivi et d'analyse des locations courte durée pour l'association NosCités, permettant de mesurer l'impact des plateformes de location sur l'offre de logements à Paris et Lyon.

Compétences

Langages et base de données

Python
SQL
MongoDB
MySQL
PostgreSQL
Bash

Libraries

Pandas
NumPy
Pyspark

Frameworks

Airflow
Kestra
Airbyte
LangChain

Clouds

Azure
AWS
GCP

DevOps et autres

Git
Docker
Terraform

Formations

Niveau: RNCP niveau 7 (BAC + 5)

    Contenus:

    • Auditez un environnement de données
    • Concevoir et analysez une base de données NoSQL
    • Maintenir et documenter un système de stockage des données sécurisé et performant
    • Modélisez une infrastructure dans le cloud (Docker, AWS, Airbyte)
    • Mettre en place un pipeline d'orchestration des flux (Kestra)
    • Concevoir et déployer un système RAG (Mistral, FAISS, LangChain)
    • Piloter un projet data
    • etc ...

Septembre 2024 - Juillet 2025

Niveau: RNCP Niveau 6 (Bac + 3 / 4)

    Contenus:

    • Perfectionnez l'infrastructure système et réseau d'une grande entreprise
    • Déploiement de solutions à l'aide de Docker
    • Mise en place d'une infrastructure cloud AWS
    • Audit d'un serveur Linux
    • Gestion de projet en respectant les règles ITIL

Janvier 2019 - Mai 2020

Niveau: Bac + 2

    Contenus:

    • CCNA1
    • Initiation PBX
    • Connaissance LAN et WAN

Septembre 2012 - Juillet 2014

Contact