Autore: Alessandro Polli

Un primo banco di prova per MIG, a partire dal 2017, è stato l’indagine sulla qualità della vita nelle province italiane, pubblicata ogni anno dal quotidiano ItaliaOggi. L’architettura dello studio è caratterizzata da nove dimensioni d’analisi articolate in 16 sottodimensioni e da 85 indicatori statistici di base. L’utilizzo dell’algoritmo CIB ha consentito di abbreviare in maniera sostanziale i tempi di realizzazione dell’indagine e le risorse umane coinvolte.

Il dataset che è stato costituito copre un time span che non si limita agli ultimi anni, ma che per molti indicatori statistici risale al 1996. Il criterio guida per l’inserimento di indicatori nel dataset è costituito dalla continuità nella loro produzione da parte dell’ente responsabile. Per tale motivo si è scelto di includere gli indicatori del BES (Benessere Equo e Sostenibile) prodotti con regolarità dal 2017 da parte dell’Istat. Il dataset di base ha consentito di indagare molti altri temi, quali la vulnerabilità territoriale e la sicurezza.

Anche la metodologia che è dietro l’algoritmo CIB si è profondamente rinnovata negli ultimi anni, anche in risposta ai problemi applicati che costituiscono il terreno di sperimentazione. In sintesi, sono state introdotte nuove tecniche di statistica multivariata per il calcolo della struttura di ponderazione adottata per la costruzione dell’indicatore composito finale.

Lo sviluppo di MIG ha comportato anche un profondo impegno per la generalizzazione della procedura. Infatti, come appare evidente dall’acronimo, MIG nasce come piattaforma per l’analisi di dati georeferenziati, ma è stato applicato con successo in altri ambiti in cui le unità statistiche da analizzare non sono più unità geografiche, ma unità statistiche tout court.

Un esempio di applicazione di MIG è stato presentato alla Joint Sunbelt and NetSci Conference 2021, dove l’utilizzo congiunto di social network analysis, text mining e la piattaforma MIG ha consentito di classificare oltre 2000 utenti Twitter in base al potenziale di comunicazione. L’algoritmo proposto ha riscosso profondo interesse nella conferenza, in quanto fornisce una prima risposta a un grande problema attualmento affrontato dalla comunità scientifica, e cioè come analizzare ed interpretare i dati testuali prodotti in un contesto di social network.