998 resultados para Tecniche di enhancement, Impronte digitali, Riconoscimento biometrico


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta funzionamento, ottimizzazione e applicazioni delle celle a combustibile PEM (PEM Fuel cells) che sono dispositivi capaci di convertire reversibilmente l’energia chimica contenuta nel combustibile in energia elettrica, energia termica e prodotti di reazione. Vengono analizzati gli effetti di temperatura, pressione e umidità sulla cinetica, sulle prestazioni, sull’OCV, sulla conduttività della membrana e sul trasferimento di massa. In generale, per utilizzare una cella a combustibile PEM, ogni componente, materiale e l'assemblaggio delle celle dovrebbe essere realizzabile e ottimizzato per ottenere alte prestazioni. Vengono, quindi, trattate le tecniche di test e diagnosi che rappresentano il modo più popolare e affidabile per convalidare i progetti di questi componenti e della cella combustibile stessa. Inoltre, si affronta il discorso sull’idrogeno definito come vettore di energia che ha assunto un ruolo di primo piano per un mercato a basse emissioni; infatti ha un grande potenziale come combustibile alternativo e assume un ruolo centrale nello scenario energetico del futuro. Infine, si parla anche di applicazioni pratiche ed esistenti riguardanti le celle a combustibile in veicoli, come le proposte di Nuvera ed EH Group.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Raytracing è una delle tecniche più utilizzate per generare immagini fotorealistiche. Introdotto nel mondo del rendering da più di 40 anni, col tempo si è evoluto, e ad oggi è considerato la tecnica standard in industrie come VFX e film d'animazione. Il problema del Raytracing risiede nel fatto che per essere applicato, bisogna effettuare dei test d'intersezione, raggio-primitiva, con tutti gli oggetti presenti nella scena da renderizzare. Sebbene queste operazioni siano tutto sommato semplici, tipicamente il numero degli oggetti su cui vanno effettuate è talmente elevato che l'applicazione di questa tecnica diventa impraticabile. Per questo si è pensato di raggruppare le primitive in speciali strutture dati chiamate Strutture di accelerazione spaziale. Esse hanno il compito di ridurre il numero di test da effettuare, abbassando il costo asintotico della ricerca da lineare a sub-lineare (o logaritmico) nel numero di primitive. Nel corso degli anni sono state introdotte diverse strutture di accelerazione spaziale per il Raytracing, ognuna con le sue peculiarità, i suoi vantaggi ed i suoi svantaggi. In questa tesi verranno studiate alcune delle principali strutture di accelerazione spaziale (BVH, Uniform Grid ed Octree), concentrandosi in particolare sulle tecniche di costruzione ed attraversamento di ognuna di esse. Per farlo, verrà anche trattato tutto il background necessario sul Raytracing e Le strutture di accelerazione verranno anche implementate e messe a confronto su diverse scene. Il confronto permetterà di evidenziare come ognuna di esse porti dei vantaggi, e che non esiste una struttura di accelerazione assolutamente migliore delle altre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Worldwide LHC Computing Grid (WLCG) è una collaborazione internazionale costituita da decine di centri di calcolo distribuiti globalmente, la cui missione consiste nell'elaborazione delle grandi quantità di dati prodotti dai maggiori esperimenti di Fisica delle Alte Energie, in particolare quelli al CERN di Ginevra. Uno di questi centri di calcolo è ospitato presso il CNAF dell'Istituto Nazionale di Fisica Nucleare a Bologna, che contribuisce anche allo sviluppo di middleware per la gestione dell'infrastruttura. Molti componenti di tale middleware, che hanno funzionalità e scopi diversi, richiedono un servizio di autorizzazione versatile e compatibile con i meccanismi di autenticazione attualmente in uso, basati su token OAuth 2.0 e su certificati VOMS Proxy. In questa tesi si analizzerà l'architettura e l'implementazione di un proof-of-concept di un sistema di autorizzazione che soddisfi queste necessità, enfatizzando l'integrazione delle tecniche di autenticazione citate. Per dimostrare la sua versatilità, verrà illustrato il processo di interfacciamento con un componente middleware attualmente in sviluppo al CNAF. Il risultato finale ottenuto è un sistema che rispetta i vincoli richiesti e si integra facilmente con servizi eterogenei.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene descritto uno studio preliminare su un velivolo ad ala rotante UAV (Unmanned Aerial Veichle) per supportare l'agricoltura di precisione. E' stato implementato in ambiente Matlab un semplice modello matematico per stimare la trazione del rotore principale in un elicottero. Successivamente, è stata presa in considerazone una meccanica commerciale per modellismo che potrebbe essere adottata per sveltire i tempi di sviluppo di questo UAV: la Graupner UNI-Mechanics 2000. E' stato, quindi, modellato al CAD un prototipo di struttura da realizzare tramite tecniche di Additive Manufacturing: questa parte è stata concepita per essere collegata alla meccanica dell'elicottero e può ospitare due taniche contenenti le sostanze da irrorare sulle colture. A livello di sviluppo futuro, si propone di applicare tecniche di ottimizzazione topologica alla struttura di collegamento per ottenere uno sfruttamento ottimale del materiale e ridurre le masse di questo componente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tema approfondito in questo elaborato è relativo a nuove forme di esperienze museali in grado di favorire una maggiore fruizione dei musei da parte dei visitatori portatori di disabilità sensoriali. L’obiettivo dello studio, reso possibile grazie alla collaborazione con il Comune di Riccione, l’Università di Bologna e il Museo del Territorio di Riccione, riguarda la riproduzione tattile 3D di alcuni manufatti di epoca romana rinvenuti nel territorio e l’implementazione di soluzioni di esplorazione dei modelli fisici con tecniche di realtà aumentata e feedback sonori per fornire al visitatore un’esperienza tattile/sensoriale sugli oggetti. La parte di competenza di questo elaborato riguarda principalmente due aspetti: il rilievo 3D effettuato su quattro diversi frammenti di due serie di lastre fittili, mediante l’utilizzo di scanner ad alta risoluzione e fotogrammetria digitale, e la successiva modellazione in ambiente digitale. Quest’ultima fase comporta l’elaborazione delle scansioni tramite software dedicati e la creazione di mesh per generare la stampa di copie fisiche 3D. In una fase successiva alla stampa 3D le copie saranno poi gestite con particolari tecnologie di esplorazione sensoriale che accompagneranno l’utente durante l’esperienza tattile con feedback sonori. La sperimentazione condotta in questa tesi vuole dimostrare come sia possibile portare ad una trasformazione del ruolo dei musei, da quello tradizionale di magazzino statico a quello di ambiente di apprendimento attivo a disposizione di tutti offrendo esperienze immersive ed educative.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato descrive un lavoro il cui fine ultimo è valutare la fattibilità di una applicazione dell’Additive Manufacturing allo sviluppo di prodotti per il settore sportivo. In particolare, sfruttando la tecnica denominata Fused Deposition Modelling (FDM), si vuole riprodurre la forma di una parete d’arrampicata di roccia. Questa applicazione potrebbe trovare impiego nelle palestre indoor da arrampicata per garantire una esperienza simile a quella reale in un ambiente chiuso, senza problematiche dovute all’influenza delle condizioni atmosferiche e con rischi minori. Per l’acquisizione della geometria di una roccia reale ai fini di realizzare una replica in Additive, si è ritenuto di utilizzare tecniche di Reverse Engineering e, in particolare, la tecnica di scansione 3D basata sull’emissione di luce bianca. Questa tecnologia consente di acquisire tutti i dettagli e le proprietà che un oggetto presenta, creando un modello 3D digitale che rispecchia esattamente il componente reale con cui, successivamente, si potrebbe realizzare una replica accurata del soggetto di partenza, una roccia nel caso in esame, tramite il processo di stampa 3D. Pertanto, lo scopo dell’elaborato è presentare la metodologia che potrebbe essere seguita per riprodurre in Additive una roccia reale. La tesi descrive, quindi, come potrebbe essere svolta la scansione. L'attività si è conclusa con la produzione di un prototipo di roccia tramite tecniche di Additive Manufacturing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’anisotropia magnetica di film sottili ferromagnetici è un parametro fondamentale nel campo della spintronica. Recenti lavori hanno dimostrato che la formazione di un’interfaccia tra film sottili ferromagnetici e materiali organici è in grado di modificare, l’anisotropia magnetica del costituente inorganico. Questa specifica interfaccia è stata definita spinterface ed è di grande interesse in un’ottica di ingegnerizzazione delle proprietà magnetiche di dispositivi spintronici. Pertanto, in questo lavoro di tesi ho analizzato l’anisotropia magnetica di un film policristallino di Cobalto ricoperto da una molecola organica largamente utilizzata in dispositivi spintronici e optoelettronici, la Gallio-chinolina (Gaq3), con l’obiettivo di verificare il ruolo della molecola nella definizione delle proprietà magnetiche dello strato di Cobalto. Per valutare l’impatto della formazione di spinterface, ho confrontato i risultati sperimentali con quelli ottenuti per un bistrato di riferimento Cobalto/Alluminio (Co/Al). Per comprendere i risultati sperimentali introdurrò nel primo capitolo i concetti fondamentali del magnetismo di film sottili, in particolare i vari contributi di anisotropia magnetica, il concetto di dominio magnetico e il modello di Stoner Wohlfarth. Il secondo capitolo verrà dedicato alla descrizione del concetto di spinterface e come questa interfaccia possa modificare le proprietà magnetiche dei film sottili. Nel terzo capitolo verranno descritte le tecniche di deposizione in Ultra Alto Vuoto con cui sono stati realizzati i bistrati Co/Gaq3 e Co/Al mentre nel quarto capitolo descriver`o il funzionamento del magnetometro MOKE, lo strumento con cui ho studiato l’anisotropia magnetica dei campioni prodotti. I dati sperimentali e la loro discussione saranno presentati nel quinto capitolo dove ho verificato la presenza di effetti di spinterface attraverso l’osservazione di un aumento della coercitività del campione Co/Gaq3.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le criticità sorte in seguito alla diffusione della Pandemia da Covid-19, a partire dal 2020, sono numerose. In tal senso, all’interno della logistica, rivestono un ruolo molto rilevante i numerosi ritardi nelle consegne, che trovano maggiore evidenza nelle spedizioni via mare. Pertanto, l’adozione di strategie volte ad aumentare la resilienza delle catene di approvvigionamento, rendendole in grado di resistere alle criticità del presente e alle possibili evoluzioni del futuro, diventa sempre più importante. L’obiettivo del presente studio è l’individuazione di una strategia che permetta di rispondere alle criticità legate ai ritardi nelle consegne dei materiali, per ridurre i problemi da essi causati. L’azienda in cui questo studio è stato svolto è la Ducati Motor Holding S.p.A., produttrice di motocicli. Infatti, nelle aziende manifatturiere, il ritardo nell’arrivo dei componenti determina delle conseguenze nella produzione ed eventuali ritardi nella consegna del prodotto finito. Per fronteggiare queste difficoltà, il metodo individuato consiste nell’analisi dei dati storici relativi ai ritardi rilevati e nella previsione dei ritardi futuri, utilizzando le tecniche di previsione basate sulle serie storiche. L’individuazione del numero di giorni di ritardo previsti viene utilizzata per determinare ogni mese il margine di copertura ottimale con cui effettuare gli ordini ai fornitori, in modo da evitare problemi nella produzione. Questo margine di copertura è definito dinamico, poiché non è fissato tutto l’anno per un medesimo materiale, ma varia ogni mese in base alle previsioni effettuate, garantendo così la flessibilità necessaria per rispondere alle contingenze esterne. In questo modo, riducendo i ritardi nelle consegne e, di conseguenza, i ritardi nella produzione, si ottiene un risparmio economico in termini di costi da sostenere, considerando i costi di stoccaggio e i costi di recupero delle moto incomplete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il quark top è una delle particelle fondamentali del Modello Standard, ed è osservato a LHC nelle collisioni a più elevata energia. In particolare, la coppia top-antitop (tt̄) è prodotta tramite interazione forte da eventi gluone-gluone (gg) oppure collisioni di quark e antiquark (qq̄). I diversi meccanismi di produzione portano ad avere coppie con proprietà diverse: un esempio è lo stato di spin di tt̄, che vicino alla soglia di produzione è maggiormente correlato nel caso di un evento gg. Uno studio che voglia misurare l’entità di tali correlazioni risulta quindi essere significativamente facilitato da un metodo di discriminazione delle coppie risultanti sulla base del loro canale di produzione. Il lavoro qui presentato ha quindi lo scopo di ottenere uno strumento per effettuare tale differenziazione, attraverso l’uso di tecniche di analisi multivariata. Tali metodi sono spesso applicati per separare un segnale da un fondo che ostacola l’analisi, in questo caso rispettivamente gli eventi gg e qq̄. Si dice che si ha a che fare con un problema di classificazione. Si è quindi studiata la prestazione di diversi algoritmi di analisi, prendendo in esame le distribuzioni di numerose variabili associate al processo di produzione di coppie tt̄. Si è poi selezionato il migliore in base all’efficienza di riconoscimento degli eventi di segnale e alla reiezione degli eventi di fondo. Per questo elaborato l’algoritmo più performante è il Boosted Decision Trees, che permette di ottenere da un campione con purezza iniziale 0.81 una purezza finale di 0.92, al costo di un’efficienza ridotta a 0.74.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ogni anno le industrie alimentari che processano frutta e verdura generano un’enorme quantità di sottoprodotti, tra cui semi, bucce e sansa, che contengono grandi quantità di composti bioattivi come polisaccaridi, fibre alimentari e polifenoli. Per quanto riguarda il settore delle mele, uno dei frutti più consumati al mondo, solo il 70% di queste vengono consumate come fresche, mentre, il 25-30% viene scartato durante le fasi di produzione del succo, di sidro o di aceto di mele. Il principale sottoprodotto ottenuto da queste lavorazioni prende il nome di sansa di mela, la cui composizione è complessa (fibre alimentari, zuccheri fermentescibili, minerali, vitamine, fenoli, carotenoidi, ecc.) e dipende dalla varietà del frutto e dalla tecnologia di lavorazione. La sansa viene utilizzata in applicazioni alimentari e mangimistiche, ma anche nei sistemi di digestione anaerobica. Nonostante ciò, a causa della mancanza di tecniche di estrazione sostenibili, il valore di questi sottoprodotti è considerato trascurabile paragonato a quello di frutta e verdura processata. I metodi di estrazione convenzionali presentano alcune limitazioni in termini di tempo, energia e quantità di solvente utilizzato. L'estrazione assistita da ultrasuoni (UAE) con sonotrodo, tecnica innovativa non termica, permette di estrarre componenti bioattivi in ​​brevissimo tempo, a bassa temperatura e con poco solvente. Tra i componenti bioattivi presenti nella sansa di mela, i composti fenolici rappresentano una classe varia ed interessante, in particolare per la loro azione positiva sulla salute umana. La messa a punto di un metodo completo e affidabile per l’estrazione e per la caratterizzazione dei composti fenolici bioattivi nella mela, utilizzando HPLC-ESI-TOF-MS come potente tecnica analitica, è stato uno degli obiettivi principali di tutta la sperimentazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background L’utilizzo della tossina botulinica in caso di problematiche legate a distonia muscolare sta assumendo sempre più validità nel processo decisionale della scelta della terapia. Attraverso il continuo miglioramento delle strategie di indagine della muscolatura responsabile del disturbo e delle tecniche di inoculazione, infatti, questa pratica si sta avviando all’essere ritenuta il gold standard in caso di distonia. Obiettivo Valutare il dolore, la mobilità, la soggettiva impressione di cambiamento e la qualità di vita in una donna affetta da distonia cervicale secondaria a malattia di Parkinson trattata attraverso inoculazione di tossina botulinica nella muscolatura del collo Materiali e Metodi È stata selezionato un soggetto di 72 anni con malattia di Parkinson in fase avanzata e distonia cervicale secondaria alla malattia stessa, che ha ricevuto indicazione al trattamento con tossina botulinica di tipo A. La donna è stata valutata tramite la somministrazione di scale di misura validate, da un minimo di 3 settimane ad un massimo di 90 giorni dall’ultima inoculazione di tossina botulinica, in modo tale da indagare il reale vantaggio per la salute della donna in termini di ‘beneficio avvertito’ in periodi diversi. Risultati Al termine della sperimentazione, la donna presenta un globale miglioramento della sua condizione, osservabile tramite l’incremento dei punteggi delle misure di outcome rispetto alla rilevazione pre-inoculazione di tossina botulinica. Conclusioni In questa sperimentazione il trattamento della distonia cervicale secondaria a malattia di Parkinson dimostra un effetto benefico che si evidenzia in particolare nella mobilità cervicale, grazie al rilassamento della muscolatura che prima ne limitava il movimento. Inoltre, si è rivelato molto utile nel miglioramento della qualità della vita. Sono tuttavia necessari ulteriori studi a dimostrazione dei reali effetti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I recenti sviluppi nel campo dell’intelligenza artificiale hanno permesso una più adeguata classificazione del segnale EEG. Negli ultimi anni è stato dimostrato come sia possibile ottenere ottime performance di classificazione impiegando tecniche di Machine Learning (ML) e di Deep Learning (DL), facendo uso, per quest’ultime, di reti neurali convoluzionali (Convolutional Neural Networks, CNN). In particolare, il Deep Learning richiede molti dati di training mentre spesso i dataset per EEG sono limitati ed è difficile quindi raggiungere prestazioni elevate. I metodi di Data Augmentation possono alleviare questo problema. Partendo da dati reali, questa tecnica permette, la creazione di dati artificiali fondamentali per aumentare le dimensioni del dataset di partenza. L’applicazione più comune è quella di utilizzare i Data Augmentation per aumentare le dimensioni del training set, in modo da addestrare il modello/rete neurale su un numero di campioni più esteso, riducendo gli errori di classificazione. Partendo da questa idea, i Data Augmentation sono stati applicati in molteplici campi e in particolare per la classificazione del segnale EEG. In questo elaborato di tesi, inizialmente, vengono descritti metodi di Data Augmentation implementati nel corso degli anni, utilizzabili anche nell’ambito di applicazioni EEG. Successivamente, si presentano alcuni studi specifici che applicano metodi di Data Augmentation per migliorare le presentazioni di classificatori basati su EEG per l’identificazione dello stato sonno/veglia, per il riconoscimento delle emozioni, e per la classificazione di immaginazione motoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La perfusione ex-vivo, ossia dopo il prelievo e prima del trapianto, degli organi si afferma come una delle possibili strategie per superare il divario esistente tra il numero dei pazienti in lista d’attesa e il numero degli organi disponibili e idonei al trapianto. Questo divario ha portato alla necessità di includere tra i donatori anche quelli marginali (anziani, con comorbidità, con cause di morte come l’arresto cardiaco e tempi di ischemia), fino ad oggi considerati non trapiantabili. L’utilizzo di questi organi ha messo in evidenza alcuni limiti di quella che, ad oggi, è stata considerata la tecnica di riferimento per la preservazione ex-vivo degli organi: la conservazione statica ipotermica che risulta, infatti, efficace per gli organi ottimali, mentre per quelli più compromessi, sembra accentuare di più il danno d’organo e incrementare il rischio di fallimento o di complicazioni. Si sono, perciò, affermate tecniche di conservazione dinamica per poter conservare gli organi in un ambiente simil-fisiologico, limitando i tempi di ischemia, valutandone la funzionalità ed eventualmente applicando dei trattamenti terapeutici. I diversi protocolli di perfusione sono stati implementati in numerosi sistemi per l’esecuzione dei trattamenti di perfusione ex-vivo. Essi differiscono principalmentente per la modalità termica eseguita: ipotermia (4-12°C), midtermia (13-24°C), subnormotermia (25-35°C), normotermia (35-37°C) o modalità combinate: tanto più la temperatura si avvicina a quella del corpo, tanto più occorre ricreare un ambiente fisiologico per l’organo. L’analisi delle unità termiche costituenti i sistemi di perfusione dei reni e fegati disponibili ha messo in evidenza i principali limiti e vantaggi di ogni soluzione adottata. Risulta evidente che una gestione ideale della termoregolazione constente di coprire i più vasti intervalli di temperatura, di combinare le diverse modalità, senza complicazioni esecutive e con limitati interventi da parte dell’operatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La città di Bologna è sicuramente famosa per le sue due torri, ma anche per la fitta rete idraulica ormai nascosta sotto le strade e sotto gli edifici. I primi canali di Bologna furono realizzati tra il XII e il XVI secolo a seguito della costruzione delle due opere fondamentali: le chiuse di San Ruffillo e di Casalecchio. Queste due opere di presa servivano e, servono ancora oggi, ad alimentare i canali del Navile, del Reno, del Savena, del Cavaticcio e delle Moline. Oltre a questi canali alimentati dalle acque dei fiumi, sotto la città di Bologna scorrono torrenti che drenano le acque prevalentemente meteoriche della zona pedecollinare della città, come ad esempio il torrente Ravone. Il presente lavoro di tesi ha come caso di studio proprio quest’ultimo. Il Ravone, in origine, scorreva a cielo aperto attraversando la città, ma per permettere l’urbanizzazione fuori dalle mura, è stato tombato in diversi tratti e in diverse epoche. La scarsità di informazioni riguardo la sua esatta posizione e la mancanza di elaborati grafici in grado di descriverne la sua geometria, ha spinto le autorità a richiedere un accurato rilievo al LARIG dell’UniBo. Le operazioni di rilievo si sono svolte con l’uso di tecniche geomatiche per la modellazione tridimensionale come l’aerofotogrammetria e l’acquisizione con laser scanner terrestre. Al fine di georeferenziare il dato acquisito, si è ricorso a tecniche di rilievo topografico come il posizionamento GNSS e la misurazione di angoli e distanze con stazione totale. I primi capitoli di questo elaborato sono dedicati alla descrizione dei fondamenti teorici della geodesia e delle tecniche di rilievo utilizzate per la restituzione del modello tridimensionale. Gli ultimi capitoli, invece, sono dedicati alla descrizione delle fasi di rilievo e all’analisi dei dati, dedicando particolare attenzione alla georeferenziazione delle nuvole di punti acquisite in ambienti confinati, come i tratti tombati del torrente Ravone.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I metodi utilizzati per la stima delle portate fluviali in bacini idrografici non strumentati fanno uso di tecniche di regionalizzazione con l’obiettivo di stimare i parametri, attraverso dei bacini di riferimento, da implementare nei modelli idrologici. Risulta, quindi, di fondamentale importanza la selezione dei bacini idrografici donatori. La scelta dei bacini di riferimento avviene tramite delle misure di somiglianza che tengono conto di caratteristiche del territorio. Il limite principale di tali approcci è la mancata considerazione della struttura della rete idrografica e del loro eventuale annidamento. Si definiscono bacini idrografici annidati due o più bacini i cui le stazioni idrometriche sono posizionate lungo la stessa ascissa fluviale oppure presentano un'area comune drenata da entrambi i bacini. Skøien et al. (2006) afferma che i bacini a valle e a monte del bacino preso in esame dovrebbero essere trattati differentemente. Il presente lavoro intende contribuire a superare detto limite. È stata stabilita, un’equazione empirica a due parametri che attraverso la distanza interbacino d e il grado di annidamento NI, definisce la differenza di portata idrica ∆Q in una coppia di bacini annidati. I valori dei parametri α e λ sono stati definiti mediante calibrazione con set di dati relativi a portate massime annuali di medie giornaliere e massimi annuali istantanei. Sono stati analizzati i corsi d’acqua in Italia, Austria e Polonia mentre a scala di bacino il Fiume Po, il Fiume Danubio, il Fiume Reno e il Fiume Oder. Attraverso la massimizzazione di una funzione obiettivo di tipo quadratico sono state verificate le prestazioni del metodo proposto. La differenza di portate ∆Q ricavata è possibile definirla come una misura di somiglianza la quale potrebbe, attraverso caratteristiche geospaziali facilmente reperibili, definire i bacini di riferimento da utilizzare nei metodi di regionalizzazione dei deflussi fluviali.