Esperienza: Alta (3+ Anni)
Competenze: AWS Azure Database relazionali DBMS ETL (Extract Transform Load) Google Cloud Hadoop Java ODI (Oracle Data Integrator) Python Scala Spark SQL Talend
Cosa farai e con chi lavorerai:
- Collaborazione con team multidisciplinari: lavorerai a stretto contatto con sviluppatori, analisti e architetti dati per progettare soluzioni di integrazione e pipeline dati su larga scala.
- Progettazione e implementazione di flussi ETL complessi utilizzando Talend, garantendo la qualità dei dati, l’affidabilità dei processi e l’adozione delle best practice aziendali.
- Gestione e ottimizzazione delle performance delle soluzioni di integrazione: monitoraggio dei flussi di dati, gestione degli errori e ottimizzazione della gestione di grandi volumi di informazioni.
- Analisi e risoluzione di problematiche complesse legate ai flussi dati: troubleshooting di pipeline di dati in produzione, identificazione e correzione di errori e miglioramento continuo dei processi.
- Collaborazione con i team IT e di business per definire le esigenze di integrazione e garantire la corretta sincronizzazione dei dati tra diversi sistemi.
Conoscenze e Competenze Tecniche
- Esperienza consolidata (almeno 3 anni) in mansioni ETL (Extract, Transform, Load) e gestione flussi di dati, con focus sulla progettazione e implementazione di soluzioni scalabili ed efficienti.
- Padronanza del linguaggio SQL: scrittura di query complesse, ottimizzazione delle performance e gestione di operazioni su grandi volumi di dati.
- Forte competenza nello sviluppo e gestione di flussi dati con Talend: progettazione e sviluppo di pipeline ETL, integrazione di dati provenienti da fonti eterogenee, gestione di errori e log.
- Buona conoscenza di ODI (Oracle Data Integrator): capacità di utilizzare e configurare ODI per la gestione dei flussi di dati, implementazione di job ETL e ottimizzazione delle performance.
- Ottima conoscenza dei principali DBMS relazionali (SQL Server e Oracle): gestione di database, ottimizzazione di query, creazione di viste e tabelle, gestione della sicurezza e del backup.
Requisiti Preferenziali:
- Esperienza con Big Data e tecnologie cloud: conoscenza di strumenti come Hadoop, Spark, AWS, Azure o Google Cloud per la gestione e l’elaborazione di grandi volumi di dati.
- Competenze in linguaggi di programmazione: esperienza con linguaggi come Java, Python o Scala per la personalizzazione delle pipeline ETL e l’ottimizzazione dei processi.
- Conoscenza di strumenti di gestione dei flussi di dati oltre Talend (ad esempio Apache Nifi, Informatica) e tecnologie di orchestrazione come Airflow.
- Esperienza con strumenti di monitoraggio e gestione dei dati: competenza in strumenti di data governance, qualità dei dati e gestione di metadati.
- Competenze in progettazione di Data Warehouse e Data Lake: esperienza nella progettazione di architetture dati centralizzate e nella gestione di sistemi di Business Intelligence (BI).
- Capacità di lavorare in un ambiente Agile: esperienza con metodologie Agile (Scrum, Kanban) per la gestione di progetti complessi in team dinamici.
Completano il profilo:
- eccellenti capacità di comunicazione
- propensione al Team Working
- atteggiamento proattivo
- orientamento al raggiungimento dei risultati.
Cosa offriamo:
- Contratto a P IVA;
- Certificazioni tecniche e formazione continua;
- Premialità semestrale e/o annuale;
- Ticket Restaurant: 20 fissi mensili
Iter di Selezione:
- Colloquio motivazionale con HR per condividere insieme alcune prime informazioni importanti che devi sapere sull’azienda e sul ruolo.
- Colloquio di approfondimento tecnico che coinvolgerà il Manager del Team per entrare nel merito delle attività e dei progetti.
I candidati interessati possono inviare il CV aggiornato in formato .doc, rilasciando specifica autorizzazione al trattamento dei dati personali.
Ai sensi della normativa vigente l’offerta di lavoro si intende estesa ad entrambi i sessi ex L 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità ai sensi dei decreti legislativi 215/03 e 216/03