Panoramica
Il junior data engineer progetta e mantiene le pipeline di dati che alimentano i sistemi di analytics e machine learning aziendali: processi ETL, data warehouse, data lake e orchestrazione dei flussi di dati. Le grandi aziende tech, le banche e le societa di telecomunicazioni di Milano e Roma cercano profili con laurea in Informatica o Statistica, solida conoscenza di Python e SQL, e familiarita con le piattaforme cloud AWS o Azure Data Stack.
Questo CV appartiene a Lorenzo, laureato magistrale in Informatica all'Universita degli Studi di Bologna. Ha svolto uno stage di 6 mesi nel team Data Platform di Enel Digital dove ha sviluppato 5 pipeline ETL in produzione che processano 2,8 milioni di record al giorno provenienti da contatori smart.
Cosa rende efficace questo curriculum
I 2,8 milioni di record al giorno comunicano scala reale e non di laboratorio. Lavorare su dati di contatori smart di Enel significa pipeline critiche, dati in streaming, gestione delle anomalie e requisiti di latenza stringenti: un'esperienza che prepara a qualsiasi ambiente enterprise di data engineering.
Le 5 pipeline in produzione su Apache Spark dimostrano capacita di delivery. Non esercizi accademici ma workflow Airflow che girano ogni giorno in produzione su un cluster Databricks: un junior che ha gia codice in produzione su sistemi enterprise e un profilo raro e molto ricercato.
Lo stack tecnico copre l'intero ciclo del dato. Python, Spark, Airflow per l'elaborazione; Snowflake come data warehouse; dbt per le trasformazioni; Azure Data Lake per lo storage: un profilo che sa lavorare con l'intero modern data stack senza bisogno di formazione estesa.
La tesi implementa un sistema di data quality automatizzato. Great Expectations per il monitoring della qualita dei dati in pipeline Spark: tema direttamente applicabile al lavoro quotidiano di qualsiasi data engineer, dove la qualita dei dati e una delle principali sfide operative.
Punti chiave
La certificazione Databricks Certified Associate Developer for Apache Spark 3.0 ottenuta nel 2025 e il riconoscimento ufficiale della principale competenza tecnica del data engineer moderno. Il contributo a progetti open source di dbt (3 pull request merged) dimostra comprensione profonda degli strumenti e voglia di partecipare alla comunita tecnica.






































































































































