995 resultados para SINCRONIZAÇÃO DE CIO
Resumo:
L’idea alla base della tesi è quella di sfruttare l’espressività di rappresentazione grafica della libreria D3 per mettere a punto un’applicazione web che dia la possibilità all’utente di creare dei grafici interattivi in maniera semplice e automatica. A tal proposito, si è subito considerato il dominio dell’applicazione, rappresentato dai dati da visualizzare in forma grafica, in modo da sviluppare un prodotto che, a differenza degli altri generatori di grafici, permetta l’elaborazione dei dataset reali, quelli cioè pubblicati sul web dai vari enti specializzati; un’applicazione che quindi indipendentemente dalla forma in cui i dati si presentano, riesca a rappresentarne il contenuto.
Resumo:
La presente indagine mira ad esaminare, in chiave innovativa, i rapporti tra l’Europa ed un reato prettamente europeo: il negazionismo. Sviluppatosi in maniera assolutamente predominante nel nostro continente, le ragioni della sua diffusione sono molteplici. Al di là della lotta a razzismo ed antisemitismo, il motivo principale va identificato nel ruolo “fondativo” che riveste la memoria dell’Olocausto in Europa, collocata nel cuore dell’universo valoriale su cui si reggono i due principali attori europei, ovverosia l’Unione europea e la Corte europea dei diritti dell’uomo. La ricerca, dunque, ruota attorno a due poli tematici. Da un lato, sono state esaminate le politiche normative dell’Unione europea in materia di razzismo e xenofobia, entro cui spicca la promozione dell’incriminazione del negazionismo “allargato”, cioè esteso alle condotte di negazione non solo dell’Olocausto, ma anche degli altri crimini internazionali. Dall’altro lato, l’analisi della trentennale giurisprudenza della Corte di Strasburgo in materia ha evidenziato come, con riguardo alle manifestazioni negazioniste, sia stato elaborato uno “statuto speciale”, che si risolve nel perentorio diniego di tutela per questa categoria di opinioni, sottratte a monte all’ordinario giudizio di bilanciamento in quanto giudicate incompatibili con i valori sottesi alla CEDU. Lo scopo di questo lavoro riposa nel tentativo di individuare le interazioni tra questi due sistemi istituzionali, per interpretare una tendenza che converge con nettezza verso un incremento della repressione penale della parola. Da questo complesso intreccio di norme e principi, di hard law e soft law, sarà possibile enucleare la natura giuridica ed il contenuto delle richieste di incriminazione rivolte agli Stati membri. Una volta appurato che agli Stati è concesso di restringere il campo di applicazione del reato di negazionismo, adottando degli indici di pericolosità delle condotte, sarà analizzata la tenuta di questi “elementi opzionali del reato” alla luce dei principi penalistici di tassatività, materialità, offensività e laicità.
Resumo:
Il presente lavoro mette in luce i diversi aspetti che ruotano intorno all’istituzione del rogo, cioè la condanna di un eretico alle fiamme e la conseguente morte per vivicombustione, che arrivò a imporsi nella procedura inquisitoriale come punizione ultima e unica nei casi di eresia. La prima parte del lavoro è dedicata ai fondamenti giuridici che caratterizzano questa pena. L’attenzione è rivolta poi alla letteratura controversistica di parte cattolica, usata dalla Chiesa a difesa della legittima occisio degli eretici. La parte centrale dello studio riguarda l’aspetto storico con una recensio dei principali roghi avvenuti prima e dopo la nascita dell’Inquisizione. Infine la riflessione si sposta sulla scelta e il significato di tale pena da un punto di vista antropologico.
Resumo:
Da oltre mezzo secolo i parchi di divertimento sono strutture complesse e altamente organizzate, entro cui si muovono migliaia di persone quotidianamente; in cui l'elettrificazione, la manutenzione, la sicurezza (sia come safety sia come security) non possono essere lasciate all'improvvisazione. Fra i diversi modelli matematici con cui è possibile rappresentare un parco di divertimenti i grafi si adattano bene a rappresentare l'organizzazione "geografica" delle attrazioni e dei sentieri che le collegano. Fortunatamente la teoria dei grafi si presta anche molto bene all'impostazione e risoluzione dei problemi di ottimizzazione, fornendo quindi uno strumento privilegiato per miglioramenti strutturali nella direzione sia del risparmio economico, sia della fruizione ottimale delle strutture. In questa tesi ho analizzato un aspetto particolare dei grafi associati a quattro parchi d'attrazione: le distanze reciproche tra attrazioni e in particolare la collocazione dei "centri", cioè di vertici del grafo per cui la massima distanza da altri vertici sia minima. I calcoli sono stati eseguiti adattando un'implementazione esistente in Matlab dell'algoritmo di Dijkstra, utilizzando in ingresso le matrici di adiacenza dei grafi. Dopo un capitolo dedicato ai richiami essenziali di teoria dei grafi, il capitolo due traccia una breve storia dei parchi d'attrazione concentrandosi sui quattro che sono l'oggetto di questo studio. Il terzo capitolo, fulcro teorico della tesi, descrive la sperimentazione riportata nel capitolo quattro.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
In Sicilia lo strumento principale che ha caratterizzato le modalità d’intervento dei poteri pubblici in economia è stato quello della partecipazione diretta o indiretta, quello cioè della Regione che si propone come ente fautore del sostegno allo sviluppo dell’industria e successivamente come soggetto imprenditore. Le formule organizzative attraverso le quali si è concretizzato l’intervento regionale in economia furono la società per azioni a partecipazione regionale, l’azienda autonoma regionale e l’ente pubblico regionale1. La storia dello sviluppo economico siciliano nel secondo dopoguerra conferma come il ricorso allo strumento dell’ente pubblico economico sia stato molto frequente nella realtà locale come, peraltro, anche in altre Regioni d’Italia. Tracce, queste, di una vicenda storica che intuiamo subito avere complesse implicazioni tali da generare la necessità di interrogarsi sul modo nel quale le istituzioni politiche hanno influito sulle dinamiche economiche siciliane nel secondo dopoguerra; per quanto noti e approfonditi siano stati infatti gli elementi caratterizzanti e i percorsi peculiari dello sviluppo economico siciliano, rimangono scarsamente approfonditi il tenore dei rapporti e i nessi politici, istituzionali ed economici tra centro e periferia, in altre parole rimane ancora parzialmente inesplorata quella parte dell’indagine inerente l’evoluzione dei processi di industrializzazione della Sicilia nel secondo dopoguerra attuata parallelamente dalle autorità regionali e dallo Stato attraverso i loro enti e strumenti. È lecito chiedersi quali siano stati i tempi, le modalità, gli ostacoli e gli eventuali risultati delle azioni di pianificazione intraprese dai poteri pubblici centrali e regionali nella prospettiva dello sviluppo economico del territorio; il coordinamento delle azioni di promozione del progresso industriale si presentava in tal senso, sin dall’inizio, come una delle sfide fondamentali per un adeguato e consistente rilancio economico delle aree più arretrate del Mezzogiorno italiano; ecco che lo studio dei provvedimenti legislativi emanati rappresenta un approfondimento indispensabile e obiettivo primario di questo lavoro.
Resumo:
Ci rendiamo conto del valore dell’acqua solamente quando scarseggia. Fino ad oggi il problema poteva sembrare limitato ai Paesi più poveri di tale risorsa, ma le cose potrebbero cambiare perché l’acqua “di qualità” – ossia dolce e non inquinata – rappresenta solo una minima percentuale delle nostre riserve. E noi ne usiamo sempre di più: sia perché aumenta la popolazione della Terra, sia perché il maggiore benessere raggiunto da molti Paesi spinge la popolazione a consumare (e sprecare) più acqua. Un consumo che va esaminato non solo in termini “reali” (calcolando le quantità che si usano per la cura personale, per la cucina o per la pulizia della casa), ma anche “virtuali” (in termini di impronta idrica), stimando cioè tutta l’acqua che è stata utilizzata lungo l’intero ciclo di vita di un qualunque prodotto o servizio acquistato. Basti pensare che se si modificasse il proprio stile alimentare, passando ad esempio a prediligere una dieta più ricca di frutta, verdura e cereali, limitando la quantità di proteine animali, sarebbe possibile ridurre anche in modo significativo i consumi di acqua “virtuale”. Quindi, se da un lato la domanda cresce e dall’altro le risorse si riducono, anche per colpa dell’inquinamento e del cambiamento climatico, è sicuro che il valore economico dell’acqua aumenterà e le disuguaglianze, già oggi presenti, potranno portare nuovi attriti. Per questi motivi diventa fondamentale il concetto di Water Footprint, ossia l’analisi delle quantità di acqua utilizzata all’interno di tutta la filiera che porta alla produzione di un prodotto finito. Visto il mio corso di studi in ingegneria gestionale, ho deciso di concentrarmi principalmente sul concetto di Water Footprint all’interno dell’ambito industriale, analizzando in particolare il caso di un’azienda dell’Emilia Romagna. Ho scelto questo argomento perché sono sempre stato interessato all’ambiente e alla sua salvaguardia. Trattare nella tesi tale tema mi è sembrato utile per approfondire e diffondere concetti come quelli dell’impronta idrica e dell’acqua virtuale che, pur discussi a livello internazionale ormai da anni, tardano ancora ad essere affrontati in maniera ampia in Italia, che è il terzo Paese importatore netto di acqua virtuale al mondo.
Resumo:
Durante il mio periodo di Tesi ho lavorato nel campo dei cluster eterometallici di Rh stabilizzati da leganti carbonilici. Inizialmente mi sono occupato della reazione di idrogenazione del cluster [Rh12Sn(CO)27]4- e della specie insatura [Rh12Sn(CO)25]4-, che ho sintetizzato per la prima volta con reattore a microonde. Ho poi testato il prodotto [Rh12Sn(CO)27/25-xHy]4- come catalizzatore nella reazione di idrogenazione di stirene ad etilbenzene. Le prove hanno evidenziato la sua scarsa attività catalitica, anzi il catalizzatore si è rivelato instabile sia in atmosfera di H2, dove si trasforma in [Rh14(CO)25]4-, che di CO/H2, dove genera una specie ancora non ben caratterizzata. Nella seconda parte del mio progetto ho cercato di sintetizzare nuovi cluster carbonilici Rh-Bi. Dopo alcune prove sono riuscito ad isolare e caratterizzare il nuovo cluster icosaedrico [Rh12Bi(CO)27]3-. Ne ho poi studiato la reattività trattandolo con BiCl3, HCl e irraggiandolo con le microonde. Dalla prima reazione ho ottenuto due nuove specie molecolari cioè il dimero [(Rh12Bi(CO)26)2Bi]5-, in cui due unità icosaedriche sono legate insieme da uno ione Bi+, e [Rh14Bi3(CO)27]3-, in cui sono presenti legami incipienti intermolecolari Bi-Bi. Nelle altre due prove sono stati identificati nuovi prodotti non ancora identificati ma tuttora in fase di studio.
Resumo:
La Sindrome da Immunodeficienza Acquisita (AIDS o SIDA) causata da HIV-1 (Virus dell'Immunodeficienza umana) è caratterizzata dalla graduale compromissione del sistema immunitario del soggetto colpito. Le attuali terapie farmacologiche, purtroppo, non riescono a eliminare l'infezione a causa della comparsa di continui ceppi resistenti ai farmaci, e inoltre questi trattamenti non sono in grado di eliminare i reservoir virali latenti e permettere l'eradicazione definitiva del virus dall’organismo. E' in questo ambito che si colloca il progetto a cui ho lavorato principalmente in questi anni, cioè la creazione di una strategia per eradicare il provirus di HIV integrato nel genoma della cellula ospite. L'Integrasi di HIV-1 è un enzima che media l'integrazione del cDNA virale nel genoma della cellula ospite. La nostra idea è stata, quindi, quella di associare all'attività di legame dell'IN stessa, un'attività catalitica. A tal fine abbiamo creato una proteina chimerica costituita da un dominio DNA-binding, dato dall'Integrasi, e da un dominio con attività nucleasica fornito dall'enzima FokI. La chimera ottenuta è stata sottoposta a mutagenesi random mediante UV, ed è stata oggetto di selezione in vivo, al fine di ottenere una chimera capace di riconoscere, specificamente le LTR di HIV-1, e idrolizzare i siti di inserzione. Questo lavoro porterà a definire pertanto se l'IN di HIV può essere riprogrammata a catalizzare una nuova funzione mediante la sostituzione dell'attività del proprio dominio catalitico con quello di FokI.
Resumo:
Ad oggi, grazie al progresso tecnologico, sono stati realizzati accuratissimi rivelatori di radiazione infrarossa, rendendo possibili misure altamente precise. L’impiego massiccio dell’indagine termografica infrarossa è basato sull’emissione termica da parte della materia. Tutta la materia a temperatura superiore dello zero assoluto emette radiazione elettromagnetica con una certa distribuzione spettrale, dipendente dalla temperatura e dalle caratteristiche costitutive. Le capacità emissive di un corpo sono quantificate da un parametro, l’emissività, che confronta i corpi reali con il corpo nero, modellizzazione matematica di un perfetto emettitore. I corpi a temperatura ambiente emettono principalmente nell’infrarosso. Poichè la radiazione infrarossa non è percepibile dall’occhio umano, i corpi a temperature ordinarie non appaiono luminosi e sono visti brillare unicamente di luce riflessa. Solo fornendo calore al sistema, aumentandone cioè la temperatura, l’emissione di picco si sposta verso le frequenze del visibile ed i corpi appaiono luminosi; si pensi ad esempio alle braci della legna bruciata. La possibilità di rivelare la radiazione infrarossa con opportuni dispositivi permette quindi di vedere la “luce” emessa da corpi relativamente freddi. Per questo motivo la termografia trova applicazione nella visione o videoregistrazione notturna o in condizioni di scarsa visibilità. Poichè la distribuzione spettrale dipende dalla temperatura, oltre al picco di emissione anche la quantità di radiazione emessa dipende dalla teperatura, in particolare è proporzionale alla quarta potenza della temperatura. Rilevando la quantità di radiazione emessa da un corpo se ne può dunque misurare la temperatura superficiale, o globale se il corpo è in equilibrio termico. La termometria, ovvero la misura della temperatura dei corpi, può dunque sfruttare la termografia per operare misure a distanza o non invasive.
Resumo:
Il lavoro svolto in questa tesi s’inserisce e sviluppa soprattutto nel campo dell’analisi della vulnerabilità relativa agli tsunami ed è centrato sull’analisi della vulnerabilità di strutture ed edifici. Per la precisione si è focalizzata l’attenzione su un’area geografica specifica, cioè si è considerata l’ipotesi che un maremoto colpisca le coste orientali della Sicilia ed in particolare della città di Siracusa. Questo lavoro di tesi prenderà in considerazione due modelli distinti per la stima della vulnerabilità: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) che prende il nome dal progetto europeo in cui è stato sviluppato e il modello PTVA (Papathoma Tsunami Vulnerability Assessment) introdotto da Papathoma et al. (2003) e successivamente modificato da Dominey-Howes et al. (2007) e da Dall’Osso et al. (2009). Tali modelli sono esempi dei due possibili approcci (quantitativo e qualitativo). Nei seguenti capitoli si sono trattate le curve di fragilità e di danno, in particolare seguendo la metodologia di Koshimura et al. (2009) ed il lavoro di Valencia et al. (2011). A seguire sono stati descritti i due metodi utilizzati per lo studio della vulnerabilità (SCHEMA, PTVA) ed il lavoro che è stato condotto nell’area di Siracusa. Il lavoro di tesi si è concluso mostrando i risultati della classificazione di vulnerabilità evidenziando e discutendo differenze e similarità delle mappe risultanti dai due metodi applicati.
Resumo:
Scopo di questo lavoro di tesi è lo studio di alcune proprietà delle teorie generali della gravità in relazione alla meccanica e la termodinamica dei buchi neri. In particolare, la trattazione che seguirà ha lo scopo di fornire un percorso autoconsistente che conduca alla nozione di entropia di un orizzonte descritta in termini delle carica di Noether associata all'invarianza del funzionale d'azione, che descrive la teoria gravitazionale in considerazione, per trasformazioni di coordinate generali. Si presterà particolare attenzione ad alcune proprietà geometriche della Lagrangiana, proprietà che sono indipendenti dalla particolare forma della teoria che si sta prendendo in considerazione; trattasi cioè non di proprietà dinamiche, legate cioè alla forma delle equazioni del moto del campo gravitazionale, ma piuttosto caratteristiche proprie di qualunque varietà rappresentante uno spaziotempo curvo. Queste caratteristiche fanno sì che ogni teoria generale della gravità possieda alcune grandezze definite localmente sullo spaziotempo, in particolare una corrente di Noether e la carica ad essa associata. La forma esplicita della corrente e della carica dipende invece dalla Lagrangiana che si sceglie di adottare per descrivere il campo gravitazionale. Il lavoro di tesi sarà orientato prima a descrivere come questa corrente di Noether emerge in qualunque teoria della gravità invariante per trasformazioni generali e come essa viene esplicitata nel caso di Lagrangiane particolari, per poi identificare la carica ad essa associata come una grandezza connessa all' entropia di un orizzonte in qualunque teoria generale della gravità.
Resumo:
Lo studio si inserisce all’interno del progetto THESEUS, il cui obiettivo primario è quello di fornire una metodologia integrata per la pianificazione di strategie di difesa sostenibile per la gestione dell’erosione costiera e delle inondazioni. Nel presente lavoro di tesi in particolare sono state esaminate le componenti biotiche e abiotiche della zona intertidale di 6 spiagge (Lido di Spina, Bellocchio, Lido di Dante, Cervia, Cesenatico, Cesenatico sud) lungo la costa emiliano-romagnola, diverse tra loro per caratteristiche morfodinamiche, per grado di antropizzazione, modalità di gestione ed interventi effettuati per contrastare i fenomeni di erosione costiera. Sono state quindi considerate porzioni di litorale in cui non sono presenti opere di difesa costiera rigide, quali pennelli e barriere, e dove sono quasi del tutto assenti strutture turistico-balneari, e tre siti più antropizzati per la presenza di strutture di difesa costiera o per attività inerenti il turismo. Lo scopo di questo lavoro consiste nella: 1) analisi delle comunità macrobentoniche della zona intertidale in termini di composizione tassonomica; 2) analisi delle comunità macrobentoniche in termini di gruppi funzionali o gruppi trofici, cioè specie che, all’interno della comunità, svolgono la stessa funzione ecologica; 3) relazione fra la struttura delle comunità e le caratteristiche abiotiche e morfodinamiche delle spiagge indagate. L’analisi dei dati ha mostrato come le comunità rinvenute a Bellocchio e Lido di Dante, sia in termini di struttura trofica che tassonomica, siano le più diverse fra di loro. Con l’eccezione di Bellocchio, tutte le spiagge sono dominate dal gruppo trofico dei “suspension feeders” a causa dell’elevata abbondanza del bivalve Lentidium mediterraneum. Quando dalla matrice multivariata biotica viene elimina questa specie, si evidenziano differenze più marcate fra i siti definiti naturali e quelli definiti più antropizzati. Considerando le matrici morfo-abiotiche, Lido di Spina, Cesenatico e Cesenatico sud presentano un sedimento medio-fine e moderatamente ben classato, tipico delle spiagge del litorale emiliano-romagnolo; viceversa Lido di Dante e Bellocchio presentano un sedimento rispettivamente più grossolano e molto fine e argilloso a Bellocchio.
Resumo:
Il traffico dei veicoli sulla rete stradale è un fenomeno molto vario e complesso ma cresce sempre di più l'esigenza di monitoraggio e controllo. La difficoltà di studio secondo norme codificate porta a risultati diversi e disomogenei, si è quindi resa necessaria l'esigenza di definire una metodologia standardizzata agli analisti e operatori del settore. Lo scopo principale di questo tipo di analisi è quello di innalzare il livello di sicurezza stradale, creando degli archivi sulla base dei dati registrati dal sistema, per fare ciò vi è stata la necessità di: 1. Istallare dispositivi di rilevamento del flusso veicolare per trovare i punti di maggiore congestione del traffico. 2. Istallare dispositivi per misurare la quantità di agenti atmosferici e acustici inquinanti. Lo studio in questione nasce inoltre da ulteriori esigenze, sia da parte degli addetti alla sicurezza stradale, che dagli stessi utenti/automobilisti per rispondere a determinate esigenze quali: • Regolazione del traffico stradale • Conoscenza globale delle strade • Rilevamento di infrazioni • Assistenza agli utenti • Sicurezza delle infrastrutture stradali (gallerie, passaggi a livello, ecc.) • Manutenzione della strada • Studio e ricerca Oltre ai sistemi che hanno come scopo principale la sicurezza, è nata l'esigenza di progettare sistemi utili agli automobilisti per avere informazioni immediate, aggiornate e per conoscere in tempo reale le condizioni di scorrevolezza delle strade e quindi di risparmiare risorse in termini di tempo e carburante ed aumentare la coordinazione tra i veicoli. Il requisito fondamentale dei sistemi basati su questo tipo di funzionalità è quello di registrare in tempo reale le segnalazioni pervenute e di renderle immediatamente disponibili a tutti gli utenti/utilizzatori del sistema allo scopo di avere informazioni rilevanti riguardanti lo stato del traffico che consentano a questi ultimi di effettuare la scelta ottimale e quindi migliorare la mobilità generale in termini di riduzione della congestione, risparmio di consumi energetici e di conseguenza di emissioni di inquinanti ambientali. I sistemi di questo tipo possono essere definiti adattivi, cioè in grado di modificarsi in base a condizioni esterne al fine di coordinare efficacemente il flusso veicolare. Lo scopo di questi software è sopratutto funzionale, stimando infatti i tempi di percorrenza in determinate strade gli utenti avranno piena consapevolezza delle condizioni di quei segmenti quasi istantaneamente e potranno quindi agire di conseguenza in modo da migliorare i tempi di percorrenza.
Resumo:
Il presente lavoro di tesi affronta il problema della calibrazione dei modelli idrologici afflussi-deflussi tramite un nuovo approccio basato sull'utilizzo di funzioni di utilità. L'approccio classico nella calibrazione dei modelli idrologici prevede la definizione di una misura di discrepanza tra dato osservato e simulato (definizione della funzione obiettivo) per poi procedere ad una sua minimizzazione o massimizzazione. Tradizionalmente, questo processo viene eseguito considerando l'idrogramma nella sua globalità, senza concentrarsi su quegli intervalli dell'idrogramma più utili all'utilizzatore del modello idrologico. Ad esempio, se il modello idrologico viene impiegato in un'ottica di gestione delle risorse idriche, l'utilizzatore sarà interessato ad una “migliore” riproduzione dei deflussi medio/bassi piuttosto che una corretta riproduzione dei colmi di piena. D'altra parte, se l'obiettivo è la riproduzione dei colmi di piena, un modello con alte prestazioni nella riproduzione dei deflussi medi risulta essere di scarsa utilità all'utilizzatore. Calibrando il modello tramite la funzione di utilità più adatta al caso pratico in esame, si può pertanto consentire all'utilizzatore del modello di guidare il processo di calibrazione in modo da essere coerente con il proprio schema decisionale e con le proprie esigenze, e di migliorare le performances del modello (cioè la riproduzione delle portate osservate) negli intervalli di portata per lui di maggiore interesse.