Intervista a Emanuele Mandanici, professore di Geomatica presso il DICAM
Primo classificato al Best Paper Award 2025 nell'ambito di Top Class Research@DICAM
Pubblicato: 08 aprile 2026 | Innovazione e ricerca
È un piacere essere qui con Emanuele Mandanici, professore di Geomatica al DICAM. Emanuele, il vostro studio sull'armonizzazione dei dati satellitari si è classificato primo al Best Paper Award nell'ambito di Top Class Research@DICAM. Leggendo i nomi degli autori si capisce subito che si tratta di un grande lavoro corale. Prima di entrare nel merito tecnico, ci racconteresti come nasce questo gruppo e qual è il tuo ruolo nel coordinare ricerche così ambiziose?
Grazie dell'invito. Questo premio è per noi un riconoscimento importante perché corona un percorso iniziato anni fa. All’interno del DICAM, e in particolare del laboratorio LARIG, sotto la guida del Professor Bitelli, ci occupiamo di geomatica e telerilevamento e i nostri primi studi su queste specifiche tematiche risalgono al 2015. Il mio ruolo è stato quello di co-supervisor per la tesi di dottorato di Francesca Trevisiol, la prima autrice, che ha dedicato parte del suo percorso proprio all'integrazione tra sensori diversi. L’articolo è stato davvero un lavoro di squadra che ha coinvolto anche figure preziose come l’assegnista Arianna Pagliarani per la complessa gestione dei dati.
Parliamo dal paper. Qual è il problema che avete voluto affrontare e l'idea che ha mosso la vostra ricerca?
Certo! Il problema nasce dal fatto che oggi ci sono diverse missioni satellitari operative che forniscono dati gratuiti con una certa frequenza, alcune gestite dalla NASA, altre dall’Agenzia Spaziale Europea. Entrambi questi provider forniscono prodotti dichiarati “pronti all’uso”, quindi senza la necessità delle complesse operazioni di pre-processing e calibrazione normalmente necessarie quando si lavora con immagini satellitari.
Ci siamo chiesti due cose.
- Quanto questi prodotti siano confrontabili fra loro: in teoria le immagini hanno molte bande più o meno coincidenti (cioè fotografano il territorio sulle stesse lunghezze d’onda), ma quel “più o meno” va valutato. Quantitativamente dobbiamo capire se, su una stessa tipologia di superficie, due satelliti ci danno una misura confrontabile oppure no. Questo è importante perché, se possiamo usarli assieme, otteniamo una frequenza temporale molto maggiore.
- Quanto i valori misurati siano accurati rispetto alle specifiche che le agenzie dichiarano nei propri protocolli.
Nell’articolo ci sono quindi entrambi questi aspetti. Sul primo, la confrontabilità dei dati, abbiamo considerato Landsat 9 e Landsat 8 (gli ultimi sensori satellitari multispettrali della NASA) e Sentinel-2 (Sentinel-2A e Sentinel-2B, due satelliti dell’ESA).
Abbiamo individuato varie zone in Europa in cui, in base alle orbite di questi satelliti, fosse possibile avere immagini acquisite quasi contemporaneamente dai diversi sensori. Purtroppo, non è possibile averle nello stesso momento, ma riusciamo ad averle a distanza di un giorno, nella stessa fascia oraria: un intervallo abbastanza piccolo da ritenere che non ci siano state modifiche significative sul territorio, partendo dal presupposto di condizioni meteo simili tra due giornate consecutive.
C’è stato un lavoro di coding per trovare nei database migliaia di coppie di immagini con requisiti come assenza di nubi e acquisizione “quasi contemporanea”. Questo ci ha permesso di avere un set di dati su cui confrontare i valori misurati. Abbiamo visto discrepanze non enormi ma sensibili, che possono essere mitigate (non eliminate del tutto, ma ridotte).
Anche con approcci semplici: abbiamo testato la stima dei coefficienti di una retta di regressione che converte con una relazione lineare i valori misurati da un sensore nei valori equivalenti a quelli che avrebbe misurato l’altro sensore. Così si riduce sensibilmente la differenza, portandola a un livello tollerabile per usare i satelliti insieme nella maggior parte delle applicazioni.
L’altro aspetto, l’accuratezza complessiva, è stato più impegnativo perché ha richiesto del lavoro di campagna con strumentazione ad hoc: uno spettroradiometro da campo. Si tratta di uno strumento che misura l’energia riflessa dalle superfici nelle stesse lunghezze d’onda delle immagini satellitari, permettendo così il confronto.
Abbiamo quindi individuato zone in Emilia-Romagna, abbastanza vicine, dove era possibile avere entro 24 ore misure di almeno due sensori diversi. In contemporanea all’acquisizione, in quelle due giornate, abbiamo fatto rilievi su punti scelti per coperture diverse (campo arato, grande parcheggio con asfalto, ecc.). Servivano zone estese e omogenee: questi satelliti producono immagini in cui un pixel corrisponde a un’area da 10×10 fino a 30×30 metri (dipende dal sensore), quindi avevamo bisogno di coperture omogenee su 3–4 pixel, con sopralluoghi per scegliere i siti.
Queste misurazioni ci hanno permesso di verificare che nella maggior parte dei casi le specifiche di accuratezza (intorno al 5%) vengono rispettate. Nell’articolo discutiamo anche alcuni casi limitati in cui non viene rispettata e cerchiamo di capire la causa contingente.
Tutto molto chiaro. Questa idea di paper nasce da una lacuna nella letteratura scientifica o da esigenze “pratiche” che arrivano dalla società? Da dove è arrivato l’input della ricerca?
Direi che ci sono due input.
Uno è più propriamente di ricerca e letteratura: è un tema dibattuto da qualche anno tra specialisti e si rinnova quando viene lanciato un satellite nuovo, cosa che ultimamente sta succedendo spesso. Ogni volta che c’è una missione nuova, riparte il ragionamento di calibrazione e di accordo con le missioni precedenti, perché nel tempo stiamo accumulando un patrimonio di qualche decennio di dati e ci si chiede quanto il nuovo “vada d’accordo” con lo storico.
L’altra esigenza è più applicativa. Non abbiamo avuto una richiesta specifica, ma molte applicazioni lo richiedono: per esempio, l’agricoltura di precisione (capire dove serve più irrigazione o concimazione), il monitoraggio di eventi come alluvioni o incendi (capire non solo dove avviene l’evento, ma come evolve nel tempo, quanto tempo serve per tornare a uno stato pre-evento). A questo si aggiunge il tema del cambiamento climatico, che rende necessario monitorare anche cambiamenti di piccola entità su lunghi intervalli temporali. Lo studio è quindi motivato anche dall’esigenza di valutare quali cambiamenti e fenomeni, anche molto lenti ma persistenti nel tempo, possano essere identificati in modo affidabile attraverso questi tipi di dati.
Sono applicazioni che richiedono immagini con caratteristiche simili per un periodo esteso e con frequenza alta. L’ideale sarebbe in tempo reale ogni giorno: non ci siamo ancora, ma mettere insieme più missioni consente di aumentare la copertura (una missione magari fornisce un’immagine sullo stesso territorio ogni 15 giorni; con quattro missioni magari ogni 2–3 giorni, al netto delle condizioni meteo).
Avete guardato questi satelliti (due NASA e due ESA) e li avete “armonizzati”. Questo processo serve perché i satelliti sono costruiti in modo diverso o perché i software producono valori diversi?
Entrambe le cose. La sensoristica è soggetta a continuo miglioramento tecnologico: già nel giro di 2–3 anni si ha qualcosa di meglio. Chi progetta una missione cerca un compromesso tra compatibilità con il passato e novità. I primi satelliti NASA avevano 4 bande. Oggi magari una decina: alcune ricalcano le vecchie bande, altre sono nuove. Ma, con l’evoluzione dei sensori, anche le bande corrispondenti non sono esattamente identiche.
Inoltre oggi vengono distribuiti prodotti “pronti all’uso”, cioè già calibrati con processi automatici. Questi processi vengono aggiornati periodicamente (migliorie del codice, dati ancillari migliori sulle condizioni atmosferiche, ecc.), e gli upgrade possono produrre differenze. E i processi NASA ed ESA sono sviluppati indipendentemente: fanno la stessa cosa ma con “ricette” diverse, quindi qualche discrepanza può esserci.
Parlavi di bande: sono tutte uguali? Ce ne sono alcune più affidabili e altre più problematiche da “armonizzazione”?
Per “banda” intendiamo un preciso intervallo di lunghezze d’onda in cui l’immagine viene rilevata. Una fotocamera normale rileva tre bande nel visibile (rosso, verde, blu). Qui parliamo di sensori multispettrali con più bande, anche nell’infrarosso.
Di solito l’infrarosso è un po’ più problematico perché i livelli di energia sono più bassi: la fonte di illuminazione è il sole, e gran parte dell’energia è nel visibile; andando verso l’infrarosso “più lontano” cala l’energia e il rapporto segnale/rumore può essere peggiore. Però i problemi sono simili e a volte le differenze tra i sensori dipendono da come vengono realizzati, ad esempio, i filtri che selezionano l’intervallo di lunghezze d’onda.
La ricerca “sul campo” è stata fatta in Emilia-Romagna. Secondo te, per posizionamento e passaggio dei satelliti, è un buon caso studio per armonizzare? O sarebbe meglio altrove?
La parte di armonizzazione tra satelliti l’abbiamo fatta cercando coppie di immagini su tutto il territorio europeo (eccetto le latitudini più alte: vicino alla zona artica la copertura è più carente). Quella parte è quindi basata su campioni in tutta Europa, anche perché i sensori ESA sono ottimizzati per la copertura in Europa, pur lavorando globalmente.
Quello che abbiamo fatto solo in Emilia-Romagna è il confronto con i dati a terra per l’accuratezza. Avere più dati in diverse regioni del mondo sarebbe interessante perché qui abbiamo potuto misurare un set limitato di tipologie di copertura; altre tipologie qui non ci sono. Sarebbe più ricco e statisticamente più significativo avere più condizioni diverse, ma richiederebbe uno sforzo logistico enorme, perché servono sempre misure contemporanee ai passaggi. Non a caso, il nostro articolo è tra i pochissimi in letteratura con questo tipo di confronto con misure a terra proprio perché è complesso da realizzare. Comunque, dal punto di vista delle orbite, lavorare a media latitudine come qui è abbastanza rappresentativo.
Ci sono preferenze di stagioni dell’anno o pianura vs collina?
Per il nostro lavoro abbiamo preferito fine inverno (inizio marzo). Volevamo che non ci fosse troppa copertura vegetale: in primavera ed estate, alle nostre latitudini, la vegetazione è molto sviluppata e sarebbe stato difficile trovare suolo nudo o campi appena arati, utili per avere superfici omogenee. Metodologicamente si potrebbe fare in qualunque condizione, ma fine inverno ci ha aiutato a trovare certe tipologie di copertura.
Quanto a pianura vs collina: in pianura è più facile trovare superfici estese con la stessa copertura. In collina i campi sono spesso più piccoli e la logistica è più complicata, dovendosi spostare rapidamente perché la finestra temporale per le misure è limitata. La pianura, con una viabilità più agevole, si presta meglio ai trasferimenti rapidi: aspetti più logistici che scientifici.
Prospettive future: state continuando su questo ambito di ricerca?
Sì. In questo articolo non abbiamo considerato le bande del termico: alcuni (non tutti) di questi satelliti acquisiscono anche nell’infrarosso termico, che ha caratteristiche molto diverse. Per esempio può lavorare anche di notte perché non ha bisogno della luce solare.
Stiamo lavorando su questo: i sensori termici sono meno numerosi, quindi a maggior ragione mettere insieme quel poco che c’è sarebbe utile. Però, per le diverse caratteristiche, non si può applicare “così com’è” la metodologia: stiamo cercando come adattarla.
Questo è un lavoro sviluppabile con dati “online” più un lavoro fisico di campo con uno strumento (spettroradiometro). Quindi anche un costo più contenuto rispetto ad ambiti?
Sì: i costi vivi principali sono stati quelli delle misure in campagna. Le immagini erano gratuite. Abbiamo lavorato con piattaforme come Google Earth Engine, gratuitamente utilizzabile per scopi di ricerca non commerciali; per applicazioni commerciali servirebbero abbonamenti. Poi c’è software specialistico per l’analisi dei dati raccolti in campagna: licenze costose, non enormi ma comunque presenti. La parte di misurazioni richiede un po’ di impegno economico.
Vedi un futuro “consumer” per queste tecniche?
L’uso delle immagini satellitari sta diventando sempre meno di nicchia, si sta espandendo “a macchia d’olio”. C’è anche una forte pressione da parte delle istituzioni (ad esempio dalla Commissione Europea che finanzia questi programmi spaziali) affinché ci sia trasferimento tecnologico alle aziende e aumentino i servizi in grado di fornire dati pronti all’uso, così da mettere in condizione anche un non esperto di attingere a dati rilevati da satellite. Al momento non so immaginare un uso nella quotidianità immediata dei singoli cittadini, però qualcosa è già in movimento: in agricoltura di precisione, per esempio, un’azienda agricola non si limita alle previsioni del tempo ma usa servizi satellitari per capire dove irrigare o concimare di più. Queste tecnologie stanno entrando a grandi passi nell’economia reale.
In ottica di utilizzo da parte delle industrie: due o tre applicazioni (oltre all’agricoltura) che potrebbero beneficiare già “domani”?
Sicuramente tutto ciò che riguarda la valutazione del rischio da eventi calamitosi, la gestione delle emergenze e il ripristino del territorio: mappare i fattori di rischio, utilizzare i dati di archivio per studiare le dinamiche degli eventi passati, osservare nel tempo se e come il territorio ritorna allo stato originario dopo un evento. Penso in particolare a incendi o alluvioni. Tutto questo si può fare proprio perché abbiamo immagini dello stesso territorio acquisite con una certa frequenza. Poi applicazioni sulla qualità dell’acqua: non su scale troppo piccole, ma per fenomeni come l’eutrofizzazione in Adriatico (mucillagini) o, in generale, corpi idrici di una certa estensione (non uno stagno, perché è troppo piccolo!). Alcuni indicatori di qualità dell’acqua si possono già monitorare con queste tecnologie.
L'intelligenza artificiale sta rivoluzionando moltissimi settori: nella vostra ricerca vi ha aiutato o no?
In questo articolo, no: non abbiamo lavorato con metodi di intelligenza artificiale. Abbiamo preferito un approccio knowledge-driven rispetto al data-driven. Però nell’automatizzazione dei processi di armonizzazione vediamo ampio spazio per l’intelligenza artificiale, e sicuramente ci lavoreremo.
Grazie mille, Emanuele, per averci aperto una finestra sul futuro del monitoraggio terrestre e complimenti ancora a tutto il team per questo premio.
Grazie a voi per l'interesse. È stato un piacere condividere questo traguardo e... alla prossima!