Chi è a rischio
Il secondo pilastro è quello relativo alla popolazione, incentrato cioè sulle dinamiche umane e sui dati prodotti dagli esseri umani. Non individuali, ma aggregati da fonti come Google Maps e Google Search: “L’obiettivo – ha detto Barrington – è creare ‘impronte digitali di localizzazione’ che catturano le tendenze dinamiche di un’area”. Anche in questo caso, i dati si stanno rivelando cruciali per la salute pubblica. “Abbiamo lavorato con l’Organizzazione mondiale della sanità per aiutare a migliorare i loro modelli di diffusione del colera nella Repubblica Democratica del Congo, e con i ricercatori dell’Università di Oxford per integrare queste ‘impronte’ nei modelli di previsione della febbre dengue in Brasile, ottenendo un miglioramento del 40% nell’accuratezza della previsione a 12 mesi”.
Cosa succede nell’atmosfera
Il terzo pilastro, infine, è quello che modella i sistemi fluidi del pianeta, atmosfera e idrosfera, e include modelli come MetNet, per le previsioni a breve termine (quello già usato da Google per rispondere alle query tipo “pioverà oggi?”, e WeatherNext, per quelle a lungo raggio. Il vero (e più importante) banco di prova, però, sono gli eventi estremi: per trattarli, Google ha sviluppato Weather Lab, un modello sperimentale addestrato su migliaia di cicloni storici, “attualmente utilizzato dal National Hurricane Center (Nhc) della Florida per prevedere il percorso di un uragano con risultati molto promettenti”.
Il cervello
Su questi tre pilastri poggia la parte più importante e delicata del programma, il suo “cervello”. Si tratta di un agente di ragionamento geospaziale che mette insieme le informazioni di immagine, popolazione e ambiente e funge da sintetizzatore di dati: “Questo strumento – dice Barrington – può prendere query in linguaggio naturale relative a problemi complessi, scomporle in un piano, eseguire i singoli passaggi e poi mettere tutto insieme”. Un esempio concreto: usando questo agente, un operatore di protezione civile che si trova a gestire un’emergenza uragano non deve più necessariamente essere un esperto Gis (il sistema informativo attualmente più utilizzato per associare dei dati alla loro posizione geografica sulla superficie terrestre e per elaborarli per estrarne informazioni), ma può semplicemente chiedere “Quali centrali elettriche (‘pilastro 1’) e quali comunità vulnerabili (‘pilastro 2’) si trovano sul percorso previsto della tempesta (‘pilastro 3’)?”**. A questo punto, l’agente orchestra le richieste sui vari modelli e fornisce una risposta unificata: tutto più naturale, per l’appunto.
Il futuro
Guardando ai prossimi dieci anni, Barrington prevede un’inversione di tendenza nel metodo scientifico, per lo meno rispetto a questo scenario. “Fino a questo momento – ha spiegato – la modalità operativa ‘standard’ era di avere un set di dati, raccolti da un satellite, dalla popolazione o da altre fonti, e poi di ‘adattare’ i modelli ai set; ora stiamo entrando una modalità in cui i modelli possono ‘ingozzarsi’ di tutti i dati, e, di fatto, di scovarne anche le lacune: piuttosto che avere le osservazioni che alimentano la modellazione, andremo al contrario”. L’esempio più concreto di questo futuro “invertito” è già in orbita: “Recentemente abbiamo avuto il lancio di Firesat, il concept di una costellazione di satelliti progettati specificamente per la previsione dei focolai di incendi”, e la differenza chiave è che questo satellite è stato co-progettati dall’Ai “con la giusta risoluzione e le proprietà spettrali ottimizzate per i modelli Ai che useranno i suoi dati”.



