Bonjour, je suis Loic Esparon
Un
Après 8 ans dans l'administration systeme et la gestion de projet, j'explore aujourd'hui les techniques et outils de la data ingénierie, les LLM et les services cloud pour transformer la donnée en valeur.
À propos
En tant que Data Engineer, je conçois et mets en production des pipelines de données fiables et évolutifs. Mon objectif : valoriser les données en automatisant leur traitement, tout en assurant performance, traçabilité et scalabilité grâce à des outils modernes du cloud et du big data.
- Langages: Python, SQL, Bash
- Bases de données: MySQL, PostgreSQL, MongoDB
- Orchestration & Intégration : Apache Airflow, Kestra, Airbyte
- Cloud & Services : Azure Data Factory, AWS (S3, EC2, RDS), Google Cloud (GCS, BigQuery)
- Devops CI/CD: Git, Docker, Kubernetes, Terraform
- Traitement de données : Apache Spark, Pandas, PySpark
- Monitoring & Tests : Great Expectations, pytest, Prometheus, Grafana
Fort d’une expérience en administration système, je souhaite aujourd’hui évoluer vers un poste de Data Engineer, combinant mon goût pour l’infrastructure, l’automatisation et les pipelines de données dans un environnement stimulant et en constante évolution.
Expériences
- Administration des outils Saas et MDM Jamf et Intunes.
- Déploiement, suivi et amélioration des politiques de sécurité sur le parc informatique (authentification, antivirus, chiffrement des disques, pare-feux, mises à jour, etc).
- Gestion des incidents de sécurité en collaboration avec l'équipe sécurité.
- Contrôler les accès et les licences pour les outils interne
- Gestion du budget et de la flotte de pc (windows,mac,linux)
- Optimisation de process d'onboarding et offboarding
- Outils: Okta, Google Workspace, Microsoft Endpoint, Jamf, Fortinet, Jira Service Desk
- MCO des Infrastructures de Sécurité-Gestion Licences.
- Supervision Centreon des infrastructures et intervention sur les incidents de production.
- Gestion des Licences et des Certificats
- Gestion de comptes (Pydio, LDAP, Centreon ...)
- Intervention sur matériel physiquement FW, SW, SFP, Gcenter ..)
- Outils: Windows Server 2016, Windows 10, Ubuntu 18.04, Cent0S7, Ansible, Thegreenbow, Cylance, Nagios, Scripting shell/python, Centreon, Stromshield, Sujet PDIS
- Administration et maintenance du parc informatique des clients: 200 postes clients, 10 serveurs applicatifs virtualisés, 5 serveurs physique, 30 switchs, 5 routeurs/firewall
- Administration serveur Linux: Apache, Wordpress,BD Mysql, Scripting, VPN LantoLan, Serveur de fichiers, Applications métiers,Iptables, Audit
- Gestion des demandes et incidents: Création de comptes, Modifications d'accès, Gestion de boite mail, Incident matériel et logiciel
- Développement de processus de preprocessing et de validation des données.
- Administration serveur Windows: Active DIrectory, DHCP, Applications métiers, Lecteurs partagés
- Gestion de la supervision des équipements (Nagios): Alerting CPU,RAM,Disque,Etat,Spam..
- Outil: Windows Server 2016-2018, Active Directory, SCCM; Serveur Exchange Serveur d'impression, Nagios, Scripting shell/python, GLPI, SCCM, OpenVPN, Pfsense-Iptable, Wordpress, Sauvegarde VEEAM
- Réaliser un premier diagnostic à partir des informations du client
- Gestion des taches et planning d'un groupe de 5-6 collaborateurs.
- Outils: Oceane (ticketing), Offre livebox entreprise, Routeur CISCO, PABX
Projets

Ce projet implémente une architecture complète de traitement de données pour gérer un programme d'avantages liés aux activités sportives des employés.
- Outils: PostgreSQL, Debezium, Redpanda, Spark, Delta Table, Airflow, Prometheus/Grafana
- Génération d'activités sportives
- Capture des changements avec Debezium et streaming via Redpanda
- Traitement avec Spark et stockage au format parquet
- Orchestration des workflows avec Airflow
- Monitoring & Observabilité avec Prometheus/Grafana

Ce projet implémente un chatbot culturel capable de recommander des événements en Occitanie en se basant sur des données provenant d'Open Agenda, et d'interagir avec l'utilisateur de manière naturelle. Le chatbot utilise FAISS pour l'indexation des événements et MistralAI pour les embeddings et la génération de réponses via un modèle de langage.

Construction d'API de prédiction en utilisant des données de consommation énergique de ville de Seattle.

Ce projet permet d'orchestrer un pipeline de traitement de données pour un cas d'utilisation spécifique autour des données de vins, en utilisant Kestra et des services AWS S3 pour la gestion des fichiers. Il comprend plusieurs étapes allant de l'extraction des données à la génération de rapports et d'analyses avancées.
- Tools: Kestra, DuckDB, Pandas
- Ce projet implémente un pipeline d'orchestration de données utilisant Kestra pour automatiser le traitement et l'analyse de données de ventes. Le pipeline intègre des données depuis différentes sources (ERP, Web), effectue des transformations, et génère des rapports d'analyse.

Ce projet met en place une pipeline de traitement de tickets clients en temps réel, basée sur un écosystème Kafka (Redpanda), Apache Spark Structured Streaming et AWS S3. L’architecture est conteneurisée via Docker Compose.
- Outils: Redpanda, Kafka, Spark Streaming, Pyspark, Docker, AWS S3
- Ce projet implémente une pipeline de données en temps réel utilisant Redpanda pour le streaming de données et Apache Spark pour le traitement des flux. Les données traitées sont automatiquement stockées dans AWS S3 pour des analyses ultérieures.

Ce projet consiste à récupérer des fichiers de données météo depuis un bucket S3, à les transformer en fonction des métadonnées de chaque station, et à insérer les données dans une base de données MongoDB. Le script prend en charge différents formats de fichiers (Excel et JSON) et teste l'intégrité des données avant de les importer dans MongoDB.

Concevoir une architecture distribué de MongoDB pour NosCités permet ensuite de faire des analyses des locations de courte durée.
Compétences
Langages et base de données






Libraries



Frameworks




Clouds



DevOps et autres



Certifications
Formations
Niveau: RNCP niveau 7 (BAC + 5)
- Auditez un environnement de données
- Concevoir et analysez une base de données NoSQL
- Maintenir et documenter un système de stockage des données sécurisé et performant
- Modélisez une infrastructure dans le cloud (Docker, AWS, Airbyte)
- Mettre en place un pipeline d'orchestration des flux (Kestra)
- Concevoir et déployer un système RAG (Mistral, FAISS, LangChain)
- Piloter un projet data
- etc ...
Contenus:

Administrateur Infrastrucutre et Cloud
Montreuil, France
Niveau: RNCP Niveau 6 (Bac + 3 / 4)
- Perfectionnez l'infrastructure système et réseau d'une grande entreprise
- Déploiement de solutions à l'aide de Docker
- Mise en place d'une infrastructure cloud AWS
- Audit d'un serveur Linux
- Gestion de projet en respectant les règles ITIL
Contenus:
Niveau: Bac + 2
- CCNA1
- Initiation PBX
- Connaissance LAN et WAN
Contenus: