fbpx

Questo weekend nell’aula dell’Executive Master in Data Management & Business Analytics è dedicato ad approfondire il Semantic Web, ChatBotNatural Language Processing, i suoi limiti, le sue applicazioni e gli strumenti che si utilizzano per fare Social Media Listening.

Cominciamo con il Dott. Roberto Boselli, la cui formazione umanistica è stata presto messa al servizio della tecnologia e dell’intelligenza artificiale.

Come ormai siamo soliti fare, iniziamo da un problema: nell’era dei Big Data è necessario avere un’infrastruttura adeguata di collegamento tra DB che garantisca di rendere i dati disponibili e di avere dei ‘punti di interrogazione’.

Ovvero, è necessario fare Ontology Engeneering.

Il percorso che ci porterà alle possibili soluzioni della questione parte da lontano: ontologia, infatti, è un termine dalla lunga storia che accompagna la storia del pensiero occidentale fino ad essere utilizzata in informatica, per la prima volta, da Mealy, nel 1967.
La definizione più precisa è, però, quella di Struder che risale al 1998: l’ontologia, in informatica, è la “Formale, esplicita specificazione di una concettualizzazione condivisa”.

L’approfondimento serve per comprendere fino in fondo cosa serve creare per fare Semantic Web:

  • Modelli per la rappresentazione dei metadati
  • Metodologie di rappresentazione della conoscenza
  • Linguaggi
  • Strumenti

Grazie ai linguaggi e agli strumenti che interrogano Dbpedia ci esercitiamo e facciamo Ontology Engeneering dell’aula e poi ampliamo il nostro orizzonte e ci dedichiamo alla geografia… La prima parola che ci viene in mente è ‘pianeta’: “partiamo proprio dall’inizio, insomma…” (cit.) 🙂

Dobbiamo dire che, di certo, i linked open data che abbiamo potuto interrogare sono solo una parte del web e mai tutto il web potrà essere semanticizzato perché i dati crescono di secondo in secondo ma questi strumenti, seppur con limiti strutturali, rispondono al nostro problema di partenza.

Nel pomeriggio incontriamo la Dott.ssa Marzia La Ganga e il Dott. Francesco Cottone di vidiemme, una software house che si occupa proprio di progettazione e realizzazione di ChatBot.

Attraverso una lezione informale, divertente e che parte dalla Pizzaontology (il che, come tutto quello che riguarda il cibo gode di particolare popolarità nell’aula del DMBA) scopriamo quali tecniche di NPL e quali altre tecnologie e figure professionali servono alla creazione di un ChatBot.

Anche in questo caso, la nostra lezione si sviluppa a partire dai limiti di una tecnica e dalle domande che essa suscita.

Oggi pomeriggio una che ci colpisce nel vivo: Perché la statistica è così trendy?
Nonostante mesi passati a prendere confidenza con i Modelli statistici, a volte ce lo chiediamo anche noi 😀

Ma parlando di ChatBot, stiamo considerando le interazioni uomo-macchina e ci accorgiamo immediatamente che esiste un concetto fondamentale in cui tale interazione si muove: il contesto.

Ne comprendiamo meglio l’importanza attraverso esercitazioni pratiche in cui individuiamo termini-chiave, definiamo intenti, scegliamo l’avatar più appropriato.
Il contesto nel quale l’utente si trova a interagire con un’interfaccia determina quanto tempo è disposto a spendere nell’interazione, suggerendone le specifiche, non è certo cosa da poco.

Innanzitutto, affrontiamo le differenze tra interfaccia grafica e conversazionale, dopodiché, attraverso l’approfondimento della classificazione, capiamo come per lavorare alla creazione di un ChatBot affidabile serva una figura specializzata.

Il ChatBot designer progetta un’esperienza conversazionale, il che è un processo a più fasi:

  • Analisi del contesto
  • Studio tecnico
  • Creazione del dialogo
  • Gestione del NLP

Alla fine della giornata sfatiamo un mito:

i ChatBot possono e devono sbagliare. D’altronde è proprio attraverso tentativi ed errori che si impara.

Sabato mattina ci dedichiamo al Social Listening e agli strumenti del web per far crescere le proprie idee, come recita la presentazione della Dott.ssa Elisabetta Risi.

Se vogliamo mettere le mani in pasta all’interno della piattaforma Talkwalker, dobbiamo assolutamente capire qualcosa di più di quel che vuol dire ‘ascoltare’.

Innanzitutto, quali sono le fasi dell’ascolto?
  • Ricerca ed estrazione delle occorrenze
  • Selezione e pulizia dal rumore
  • Analisi e interpretazione
  • Utilizzo strategico

Ma, anche oggi, dobbiamo porci le domande giuste: per chi stiamo ascoltando? Quale obiettivo di business stiamo perseguendo? Quando è necessario ascoltare? Dove è necessario ascoltare?

Diciamolo subito: ascoltare tutto significa non ascoltare niente.

Per un ascolto che possa, attraverso l’analisi, darci dati utili, è necessario avere ben chiari, a seconda dei propri scopi, i criteri con cui selezionare le fonti e i canali:

  • Di Rilevanza: ascoltare le voci più diffuse o autorevoli
  • Tematico: definire il tema centrale della propria ricerca sembra banale ma è fondamentale e da non dare per scontato
  • Territoriale

Attraverso diverse case history vediamo in concreto quali sono le differenze tra un’analisi quantitativa e una qualitativa e poi facciamo una carrellata degli strumenti di settaggio e di allerta, piattaforme di ascolto specifico e così ci avviciniamo al nostro compagno di lavoro delle ultime due ore di lezione: Talkwalker.

È il Dott. Samperi che ci inizia alla piattaforma che utilizzeremo anche nelle lezioni successive al lungo ‘ponte’.

Grazie alla sua guida scopriamo le funzionalità più importanti di Talkwalker e facciamo ‘quasi’ amicizia con la sua terminologia: progetti, gruppi, operatori booleani

Sì, perché la piattaforma ha grandi potenzialità, ma tutte subordinate all’abilità di scrivere delle query davvero precise ad hoc per i nostri obiettivi.

Insomma, per preparaci alle esercitazioni che ci aspettano a maggio tocca studiare, ma prima una pausa: Uov* AND Cioccolat* OR Colomba 😀

Richiedi la Ricerca

Indagine sul livello di adozione e utilizzo dell'Intelligenza Artificiale in Italia

Privacy Policy

You have Successfully Subscribed!