fbpx

Ci apprestiamo ad iniziare la seconda lezione di questo lungo percorso attraverso i (Big) Data, come dichiara il titolo del primo modulo del Master. A guidarci, anche questa settimana, è Giuseppe Messina.

Come prima cosa, percorriamo i processi chiave del Data Integration che si riassumono con l’acronimo inglese: ETL.
Extract, Transform, Load: estrazione, trasformazione e caricamento dei dati.
Cosa manca in questa serie di operazioni sui dati? L’aula si interroga, alcune mani si alzano e viene avanzata qualche ipotesi: la Validazione.
Precisamente: è necessario sottolineare l’importanza della Data Quality.

Le richieste di approfondimento, però, sono il filo conduttore di questa lezione e si concentrano tutte intorno al concetto di valore.
Chi valida i dati? Come? Come è possibile gestire al meglio il gruppo di lavoro che opera sui dati?
La risposta non può che spostare l’accento sulla Human Intelligence.

Il Data Steward, infatti, non è solo una figura tecnica che conosce in maniera approfondita la struttura dei dati. È garante anche del Data Modelling, ricopre un ruolo di primo piano in qualsiasi progetto di Data Governance.

Ogni progetto di Data Governance coinvolge professionalità diverse, competenze che si integrano, saperi che dialogano.
I partecipanti sono molto interessati ai modelli di gestione e valutazione delle persone che compongono un team e le domande sono numerose e approfondite.

Messina non si tira indietro, anzi.
Alla lavagna, infatti, disegna il piano cartesiano che lo supporta nel lavoro periodico di giudizio delle professionalità che compongono il suo team.

Gli assi misurano qualità molto diverse: dal numero di linguaggi di programmazione conosciuti all’attitudine a condividere le proprie competenze.
Unendo i valori indicati sugli assi, prende vita una valutazione grafica delle peculiarità della persona, dei suoi punti di forza e delle caratteristiche da migliorare.

Il poligono che ne deriva è sempre irregolare perché “l’unicorno non esiste” ma un team che funziona è un team che si automigliora e, per crearlo, è necessario saper amalgamare le qualità e le imperfezioni di chi ne fa parte.

Il tema dell’imperfezione ritorna protagonista fin da subito anche sabato mattina, con una finestra sullo stato dell’arte per quanto riguarda lo sviluppo dell’Intelligenza Artificiale:

 

Il primo AI Anchorman ha fatto il suo debutto televisivo in Cina, paese che ha stanziato un budget di circa 80 miliardi di dollari per i prossimi tre anni, al fine di diventare leader mondiale nel campo dell’Intelligenza Artificiale.
Questo giornalista è fatto di materia tecnica, di Big Data, certo, ma anche di un’approfondita ricerca sulla forma del viso e su quelle imperfezioni che ci rendono umani.
Per quanto riguarda l’AI non basta che funzioni, la qualità e la credibilità del funzionamento sono essenziali.

È arrivato però il momento di mettersi davvero al lavoro e cominciare a ‘’battere sulla tastiera” con un’esercitazione su SQL in cui il docente e i partecipanti si supportano a vicenda, si correggono e approfondiscono la grammatica di questo linguaggio.

Il weekend si chiude con l’analisi di un framework complesso che segue il ciclo di vita e la catena di valore dei dati e accompagna i partecipanti verso i protagonisti della prossima lezione: i Modern Big Data, con la loro peculiare architettura.

Richiedi la Ricerca

Indagine sul livello di adozione e utilizzo dell'Intelligenza Artificiale in Italia

Privacy Policy

You have Successfully Subscribed!