Lenis Srl
è una società di
Consulenza Informatic
a e
Sviluppo Software
che supporta lo sviluppo dei propri clienti nelle aree dell’innovazione.
Per nostra business di consulenza stiamo cercando un*
Data Engineer
con solida esperienza nella progettazione, sviluppo e ottimizzazione di pipeline dati su larga scala, da inserire in un team multidisciplinare orientato all’innovazione e alla valorizzazione dei dati tramite soluzioni cloud-native, AI Generativa e architetture dati moderne.
Il candidato ideale possiede una forte padronanza di tecnologie di orchestrazione e sistemi distribuiti, capacità di modellazione dati avanzata e una buona conoscenza degli strumenti di ETL e delle piattaforme di cloud computing.
Responsabilità principali
Progettare e implementare pipeline ETL/ELT scalabili per l'integrazione e la trasformazione dei dati.
Lavorare con sistemi distribuiti come
Hadoop, Spark
e
Kafka
per la gestione di grandi volumi di dati.
Modellare e ottimizzare architetture dati (es.
star schema
,
data vault
, ecc.) per abilitare analisi avanzate.
Automatizzare i flussi dati tramite strumenti di orchestrazione come
Airflow
e
dbt
.
Collaborare all’implementazione di progetti su cloud (
AWS, GCP, Azure
) sfruttando servizi gestiti come
BigQuery
,
Redshift
, ecc.
Garantire la qualità, la sicurezza e la governance dei dati secondo le best practice aziendali.
Integrare tecniche e strumenti di
AI Generativa
nelle pipeline e nei processi dati, in collaborazione con i team di Data Science.
Requisiti tecnici
SQL avanzato
e conoscenza approfondita di almeno uno tra:
Python
,
Java
o
Scala
.
Esperienza con
strumenti ETL
come
Informatica
,
Talend
,
Apache NiFi
o equivalenti.
Conoscenza di sistemi distribuiti (
Hadoop
,
Apache Spark
,
Kafka
) e architetture data lake / data warehouse.
Esperienza nell’uso di strumenti di orchestrazione (
Airflow
,
dbt
) per il monitoraggio e l'automazione delle pipeline.
Buona comprensione di almeno un
cloud provider
(AWS, Azure, GCP).
Conoscenze base o avanzate in ambito
AI Generativa
, applicata al contesto dei dati (es. generazione sintetica, data augmentation, document intelligence).
Conoscenze in
sicurezza
e
governance dei dati
(data lineage, access control, mascheramento, ecc.).
-
Nice to have
Certificazioni cloud (es. AWS Certified Data Engineer, GCP Professional Data Engineer, ecc.).
Esperienza con strumenti di CI/CD per il data engineering (es. GitLab CI, Jenkins, Terraform).
Conoscenza di framework MLOps e integrazione con modelli AI/ML.
Soft skills
Capacità analitiche e attenzione al dettaglio.
Attitudine al lavoro in team e alla collaborazione cross-funzionale.
Proattività e orientamento al problem solving.
Buona conoscenza della lingua inglese (scritta e parlata).
Contratto a tempo indeterminato con RAL commisurata all'esperienza
La ricerca è rivolta ad entrambi i sessi ex L. 903/77. Inviare curriculum vitae dettagliato e consenso al trattamento dei dati personali. I candidati sono invitati a leggere l’informativa sulla privacy (art. 13 D.Lgs. 196/2003)