Lenis
Amministratore delegato presso Lenis Srl
Lenis Srl
è una società di
Consulenza Informatic a e
Sviluppo Software
che supporta lo sviluppo dei propri clienti nelle aree dell’innovazione. Per nostra business di consulenza stiamo cercando un*
Data Engineer
con solida esperienza nella progettazione, sviluppo e ottimizzazione di pipeline dati su larga scala, da inserire in un team multidisciplinare orientato all’innovazione e alla valorizzazione dei dati tramite soluzioni cloud-native, AI Generativa e architetture dati moderne. Il candidato ideale possiede una forte padronanza di tecnologie di orchestrazione e sistemi distribuiti, capacità di modellazione dati avanzata e una buona conoscenza degli strumenti di ETL e delle piattaforme di cloud computing. Responsabilità principali Progettare e implementare pipeline ETL/ELT scalabili per l'integrazione e la trasformazione dei dati. Lavorare con sistemi distribuiti come
Hadoop, Spark
e
Kafka
per la gestione di grandi volumi di dati. Modellare e ottimizzare architetture dati (es.
star schema ,
data vault , ecc.) per abilitare analisi avanzate. Automatizzare i flussi dati tramite strumenti di orchestrazione come
Airflow
e
dbt . Collaborare all’implementazione di progetti su cloud ( AWS, GCP, Azure ) sfruttando servizi gestiti come
BigQuery ,
Redshift , ecc. Garantire la qualità, la sicurezza e la governance dei dati secondo le best practice aziendali. Integrare tecniche e strumenti di
AI Generativa
nelle pipeline e nei processi dati, in collaborazione con i team di Data Science. SQL avanzato
e conoscenza approfondita di almeno uno tra:
Python ,
Java
o
Scala . Esperienza con
strumenti ETL
come
Informatica ,
Talend ,
Apache NiFi
o equivalenti. Conoscenza di sistemi distribuiti ( Hadoop ,
Apache Spark ,
Kafka ) e architetture data lake / data warehouse. Esperienza nell’uso di strumenti di orchestrazione ( Airflow ,
dbt ) per il monitoraggio e l'automazione delle pipeline. Buona comprensione di almeno un
cloud provider
(AWS, Azure, GCP). Conoscenze base o avanzate in ambito
AI Generativa , applicata al contesto dei dati (es. generazione sintetica, data augmentation, document intelligence). Conoscenze in
sicurezza
e
governance dei dati
(data lineage, access control, mascheramento, ecc.). Certificazioni cloud (es. AWS Certified Data Engineer, GCP Professional Data Engineer, ecc.). Esperienza con strumenti di CI/CD per il data engineering (es. GitLab CI, Jenkins, Terraform). Conoscenza di framework MLOps e integrazione con modelli AI/ML. Capacità analitiche e attenzione al dettaglio. Attitudine al lavoro in team e alla collaborazione cross-funzionale. Proattività e orientamento al problem solving. Buona conoscenza della lingua inglese (scritta e parlata). Contratto a tempo indeterminato con RAL commisurata all'esperienza La ricerca è rivolta ad entrambi i sessi ex L. 903/77. Inviare curriculum vitae dettagliato e consenso al trattamento dei dati personali. I candidati sono invitati a leggere l’informativa sulla privacy (art. 13 D.Lgs. 196/2003)
#J-18808-Ljbffr
Lenis Srl
è una società di
Consulenza Informatic a e
Sviluppo Software
che supporta lo sviluppo dei propri clienti nelle aree dell’innovazione. Per nostra business di consulenza stiamo cercando un*
Data Engineer
con solida esperienza nella progettazione, sviluppo e ottimizzazione di pipeline dati su larga scala, da inserire in un team multidisciplinare orientato all’innovazione e alla valorizzazione dei dati tramite soluzioni cloud-native, AI Generativa e architetture dati moderne. Il candidato ideale possiede una forte padronanza di tecnologie di orchestrazione e sistemi distribuiti, capacità di modellazione dati avanzata e una buona conoscenza degli strumenti di ETL e delle piattaforme di cloud computing. Responsabilità principali Progettare e implementare pipeline ETL/ELT scalabili per l'integrazione e la trasformazione dei dati. Lavorare con sistemi distribuiti come
Hadoop, Spark
e
Kafka
per la gestione di grandi volumi di dati. Modellare e ottimizzare architetture dati (es.
star schema ,
data vault , ecc.) per abilitare analisi avanzate. Automatizzare i flussi dati tramite strumenti di orchestrazione come
Airflow
e
dbt . Collaborare all’implementazione di progetti su cloud ( AWS, GCP, Azure ) sfruttando servizi gestiti come
BigQuery ,
Redshift , ecc. Garantire la qualità, la sicurezza e la governance dei dati secondo le best practice aziendali. Integrare tecniche e strumenti di
AI Generativa
nelle pipeline e nei processi dati, in collaborazione con i team di Data Science. SQL avanzato
e conoscenza approfondita di almeno uno tra:
Python ,
Java
o
Scala . Esperienza con
strumenti ETL
come
Informatica ,
Talend ,
Apache NiFi
o equivalenti. Conoscenza di sistemi distribuiti ( Hadoop ,
Apache Spark ,
Kafka ) e architetture data lake / data warehouse. Esperienza nell’uso di strumenti di orchestrazione ( Airflow ,
dbt ) per il monitoraggio e l'automazione delle pipeline. Buona comprensione di almeno un
cloud provider
(AWS, Azure, GCP). Conoscenze base o avanzate in ambito
AI Generativa , applicata al contesto dei dati (es. generazione sintetica, data augmentation, document intelligence). Conoscenze in
sicurezza
e
governance dei dati
(data lineage, access control, mascheramento, ecc.). Certificazioni cloud (es. AWS Certified Data Engineer, GCP Professional Data Engineer, ecc.). Esperienza con strumenti di CI/CD per il data engineering (es. GitLab CI, Jenkins, Terraform). Conoscenza di framework MLOps e integrazione con modelli AI/ML. Capacità analitiche e attenzione al dettaglio. Attitudine al lavoro in team e alla collaborazione cross-funzionale. Proattività e orientamento al problem solving. Buona conoscenza della lingua inglese (scritta e parlata). Contratto a tempo indeterminato con RAL commisurata all'esperienza La ricerca è rivolta ad entrambi i sessi ex L. 903/77. Inviare curriculum vitae dettagliato e consenso al trattamento dei dati personali. I candidati sono invitati a leggere l’informativa sulla privacy (art. 13 D.Lgs. 196/2003)
#J-18808-Ljbffr