446 resultados para polinomi trasposizione didattica definizione schemi di definizione
Resumo:
Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.
Resumo:
La matematica è un’attività umana che sembra non lasciare indifferente quasi nessuno: alcuni rimangono affascinati dalla sua ‘magia’, molti altri provano paura e rifiutano categoricamente persino di sentirla nominare. Spesso, non solo a scuola, si percepisce la matematica come un’attività distaccata, fredda, lontana dalle esigenze del mondo reale. Bisognerebbe, invece, fare in modo che gli studenti la sentano come una risorsa culturale importante, da costruire personalmente con tempo, fatica e soddisfazione. Gli studenti dovrebbero avere l’opportunità di riflettere sul senso di fare matematica e sulle sue potenzialità, attraverso attività che diano spazio alla costruzione autonoma, alle loro ipotesi e alla condivisione delle idee. Nel primo capitolo, a partire dalle difficoltà degli studenti, sono analizzati alcuni studi sulla straordinaria capacità della matematica di organizzare le nostre rappresentazioni del mondo che ci circonda e sull’importanza di costruire percorsi didattici incentrati sulla modellizzazione matematica. Dalla considerazione di questi studi, è stato elaborato un progetto didattico, presentato nel secondo capitolo, che potesse rappresentare un’occasione inconsueta ma significativa per cercare di chiarire l’intreccio profondo tra matematica e fisica. Si tratta di una proposta rivolta a studenti all’inizio del secondo biennio in cui è prevista una revisione dei problemi della cinematica attraverso le parole di Galileo. L’analisi di documenti storici permette di approfondire le relazioni tra grandezze cinematiche e di mettere in evidenza la struttura matematica di tali relazioni. Le scelte che abbiamo fatto nella nostra proposta sono state messe in discussione da alcuni insegnanti all’inizio della formazione per avere un primo riscontro sulla sua validità e sulle sue potenzialità. Le riflessioni raccolte sono state lo spunto per trarre delle considerazioni finali. Nelle appendici, è presente materiale di lavoro utilizzato per la progettazione e discussione del percorso: alcuni testi originali di Aristotele e di Galileo, le diapositive con cui la proposta è stata presentata agli studenti universitari e un esempio di protocollo di costruzione di Geogebra sul moto parabolico.
Resumo:
Obiettivo di questa tesi è quello di illustrare il mondo della realtà aumentata (AR) ed in particolare delle tecnologie software disponibili per lo sviluppo di applicazioni su dispositivi Android. Si partirà dal darne una definizione e riassumerne i principali fatti storici, all'illustrarne i vari hardware disponibili sul mercato e le tecnologie software per sviluppare progetti. Non verranno tralasciati utilizzi e settori di ricerca, e si presenterà poi il sistema operativo Android. Dopo uno sguardo alla sua architettura e alle sue caratteristiche, nonché al linguaggio di programmazione Java, cardine per lo sviluppo in questo sistema, si presenteranno alcune API dell'SDK nativo che si rivelano utili per lo sviluppo di applicazioni per la realtà aumentata. Infine, verrà presentato un approfondimento sull'SDK Metaio.
Resumo:
La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.
Resumo:
L’idea di sviluppare il presente lavoro è scaturita da alcune considerazioni sulla metodologia di preparazione dell’interprete. In particolare è nata dalla consapevolezza che la sfida principale di questa professione risiede nel fatto di dover gestire, durante l’intera carriera, un confronto impari con una quantità potenzialmente infinita di concetti e termini nuovi da assimilare. Ciò è dovuto in primis all’intrinseca vastità della lingua, principale strumento di comunicazione, e implica che ogni volta l’interprete si trovi a operare in uno degli innumerevoli contesti estremamente eterogenei in cui può essere richiesto il suo servizio, caratterizzati ciascuno da una propria cultura e da un suo lessico settoriale sul quale è necessario prepararsi, spesso disponendo solo di pochi giorni per farlo. Una delle strategie possibili per fare fronte in modo efficace al costante flusso di informazioni da assimilare è la specializzazione, ovvero lo studio approfondito e a lungo termine di uno o più settori tematici, con l’acquisizione graduale della relativa terminologia settoriale nelle varie lingue di lavoro. Il presente lavoro propone l’utilizzo di sistemi di rappresentazione grafica della conoscenza come strumenti a supporto di questo processo di specializzazione, con l’aiuto dei quali mettere a fuoco e fissare sia la componente concettuale, sia quella terminologica relativa ad un dominio specifico. A mo’ di esempio è stato scelto il settore moda, poiché ritenuto particolarmente adeguato agli scopi proposti. Il software utilizzato è la versione freeware di MindMaple. L’elaborato è suddiviso in due parti: la prima ne descrive l’impianto teorico e comprende la descrizione dei processi di categorizzazione della realtà da un punto di vista psicologico-cognitivo (cap.1), integrata da una panoramica delle diverse tipologie di sistematizzazione della conoscenza, dei loro ambiti di applicazione (cap.2), e soffermandosi infine sull’approfondimento dei vari tipi di schemi: mentali, concettuali, ecc.(cap.3) Nella seconda parte del lavoro viene dapprima fornita una descrizione generale del dominio al quale appartiene l’argomento dello schema, ossia il settore moda, esponendo le ragioni di tale scelta e soffermandosi su alcune particolarità del lessico settoriale (cap. 4). L’ultimo capitolo è infine dedicato alla presentazione dell’elaborato grafico con un’ introduzione sulle funzionalità principali del software utilizzato, la descrizione dello schema nei vari suoi aspetti, come la struttura e le fasi di sviluppo, nonché alcuni esempi concreti relativi a problematiche terminologiche incontrate sia in fase di sistematizzazione del lessico che durante la ricerca di equivalenti interlinguistici.
Resumo:
Il presente progetto di tesi è stato sviluppato per presentare un esempio concreto di come sia possibile sfruttare le potenzialità ottenibili inserendo, all'interno di un sito web, il markup Open Graph Protocol per la definizione, tramite l’utilizzo di metadati, di concetti semanticamente ricchi e interpretabili dai principali Social Network ed integrando le Graph API Facebook per interrogare questi dati e sfruttarli per il funzionamento stesso del sito.
Resumo:
Il punto di partenza del presente lavoro di ricerca terminologica è stato il soggiorno formativo presso la Direzione generale della Traduzione (DGT) della Commissione Europea di Lussemburgo. Il progetto di tirocinio, ovvero l’aggiornamento e la revisione di schede IATE afferenti al dominio finanziario, e gli aspetti problematici riscontrati durante la compilazione di tali schede hanno portato alla definizione della presente tesi. Lo studio si prefigge di analizzare la ricezione della terminologia precipua della regolamentazione di Basilea 3, esaminando il fenomeno della variazione linguistica in corpora italiani e tedeschi. Nel primo capitolo si descrive brevemente l’esperienza di tirocinio svolto presso la DGT, si presenta la banca dati IATE, l’attività terminologica eseguita e si illustrano le considerazioni che hanno portato allo sviluppo del progetto di tesi. Nel secondo capitolo si approfondisce il dominio investigato, descrivendo a grandi linee la crisi finanziaria che ha portato alla redazione della nuova normativa di Basilea 3, e si presentano i punti fondamentali degli Accordi di Basilea 3. Il terzo capitolo offre una panoramica sulle caratteristiche del linguaggio economico-finanziario e sulle conseguenze della nuova regolamentazione dal punto di vista linguistico, sottolineando le peculiarità della terminologia analizzata. Nel quarto capitolo si descrivono la metodologia seguita e le risorse utilizzate per il progetto di tesi, ovvero corpora ad hoc in lingua italiana e tedesca per l’analisi dei termini e le relative schede terminologiche. Il quinto capitolo si concentra sul fenomeno della variazione linguistica, fornendo un quadro teorico dei diversi approcci alla terminologia, cui segue l’analisi dei corpora e il commento dei risultati ottenuti; si considerano quindi le riflessioni teoriche alla luce di quanto emerso dalla disamina dei corpora. Infine, nell'appendice sono riportate le schede terminologiche IATE compilate durante il periodo di tirocinio e le schede terminologiche redatte a seguito dell’analisi del presente elaborato.
Resumo:
La mole di reperti e manufatti definiti, al momento, dalla legge come “bene culturale” è immensa e in continua espansione. La definizione di bene culturale copre un'infinità di oggetti, di variabili datazioni, materiali e dimensioni ed è ovvio immaginare che la quantità di manufatti da conservare e restaurare andrà, col tempo, ampliandosi essendo logico supporre che, con l'evolversi del genere umano, gli oggetti attualmente di uso e consumo andranno ad aggiungersi a quanto già viene conservato e tutelato diventando anch'essi reperti storici. La necessità di conoscere quanto più possibile del bene e di massimizzarne la durata mantenendo al contempo la sua integrità e una sua accessibilità al pubblico ha portato alla ricerca di soluzioni sempre più efficaci per adempiere allo scopo. Il fortunato evolversi della tecnologia ha ben risposto a questa richiesta permettendo l'utilizzo di una grande quantità di strumenti per far fronte alle più varie necessità del restauratore, dello studioso e del conservatore che cercano risposte sull'oggetto in esame volendo al contempo incidere il meno possibile sul bene stesso. Al momento di questa trattazione ci troviamo di fronte ad un'enorme quantità di dati ottenibili dalle più svariate forme di indagine. Ciò che tuttavia accomuna molti degli strumenti di indagine non distruttiva utilizzati da chi lavora nel campo dello studio, della conservazione e del restauro è il basarsi sull'impiego delle onde elettromagnetiche nelle diverse bande spettrali. Questa trattazione ha quindi lo scopo di fare il punto su quali tipologie, con quali metodi e con quali risultati le onde elettromagnetiche rispondono alle esigenze della conservazione e dello studio dei beni culturali.
Resumo:
Numerosi lavori apparsi sulla letteratura scientifica negli ultimi decenni hanno evidenziato come, dall’inizio del XX secolo, la temperatura media globale sia aumentata. Tale fenomeno si è fatto più evidente dagli anni ’80, infatti ognuno degli ultimi tre decenni risulta più caldo dei precedenti. L’Europa e l’area mediterranea sono fra le regioni in cui il riscaldamento risulta più marcato, soprattutto per le temperature massime (dal 1951 sono cresciute di +0.39 °C per decennio) che hanno mostrato trend maggiori delle minime. Questo comportamento è stato osservato anche a scala nazionale (+0.25°C/dec per le massime e +0.20°C/dec per le minime). Accanto all’aumento dei valori medi è stato osservato un aumento (diminuzione) degli eventi di caldo (freddo) estremo, studiati attraverso la definizione di alcuni indici basati sui percentili delle distribuzioni. Resta aperto il dibattito su quali siano le cause delle variazioni negli eventi estremi: se le variazioni siano da attribuire unicamente ad un cambiamento nei valori medi, quindi ad uno shift rigido della distribuzione, o se parte del segnale sia dovuto ad una variazione nella forma della stessa, con un conseguente cambiamento nella variabilità. In questo contesto si inserisce la presente tesi con l’obiettivo di studiare l’andamento delle temperature giornaliere sul Trentino-Alto-Adige a partire dal 1926, ricercando cambiamenti nella media e negli eventi estremi in due fasce altimetriche. I valori medi delle temperature massime e minime hanno mostrato un evidente riscaldamento sull’intero periodo specialmente per le massime a bassa quota (`0.13 ̆ 0.03 °C/dec), con valori più alti per la primavera (`0.22 ̆ 0.05 °C/dec) e l’estate (`0.17 ̆ 0.05 °C/dec). Questi trends sono maggiori dopo il 1980 e non significativi in precedenza. L’andamento del numero di giorni con temperature al di sopra e al di sotto delle soglie dei percentili più estremi (stimate sull’intero periodo) indica un chiaro aumento degli estremi caldi, con valori più alti per le massime ad alta quota ( fino a +26.8% per il 99-esimo percentile) e una diminuzione degli estremi freddi (fino a -8.5% per il primo percentile delle minime a bassa quota). Inoltre, stimando anno per anno le soglie di un set di percentili e confrontando i loro trend con quelli della mediana, si è osservato, unicamente per le massime, un trend non uniforme verso temperature più alte, con i percentili più bassi (alti) caratterizzati da trend inferiori (superiori) rispetto a quello della mediana, suggerendo un allargamento della PDF.
Resumo:
In questo lavoro viene presentato un recente modello di buco nero che implementa le proprietà quantistiche di quelle regioni dello spaziotempo dove non possono essere ignorate, pena l'implicazione di paradossi concettuali e fenomenologici. In suddetto modello, la regione di spaziotempo dominata da comportamenti quantistici si estende oltre l'orizzonte del buco nero e suscita un'inversione, o più precisamente un effetto tunnel, della traiettoria di collasso della stella in una traiettoria di espansione simmetrica nel tempo. L'inversione impiega un tempo molto lungo per chi assiste al fenomeno a grandi distanze, ma inferiore al tempo di evaporazione del buco nero tramite radiazione di Hawking, trascurata e considerata come un effetto dissipativo da studiarsi in un secondo tempo. Il resto dello spaziotempo, fuori dalla regione quantistica, soddisfa le equazioni di Einstein. Successivamente viene presentata la teoria della Gravità Quantistica a Loop (LQG) che permetterebbe di studiare la dinamica della regione quantistica senza far riferimento a una metrica classica, ma facendo leva sul contenuto relazionale del tessuto spaziotemporale. Il campo gravitazionale viene riformulato in termini di variabili hamiltoniane in uno spazio delle fasi vincolato e con simmetria di gauge, successivamente promosse a operatori su uno spazio di Hilbert legato a una vantaggiosa discretizzazione dello spaziotempo. La teoria permette la definizione di un'ampiezza di transizione fra stati quantistici di geometria spaziotemporale, applicabile allo studio della regione quantistica nel modello di buco nero proposto. Infine vengono poste le basi per un calcolo in LQG dell'ampiezza di transizione del fenomeno di rimbalzo quantistico all'interno del buco nero, e di conseguenza per un calcolo quantistico del tempo di rimbalzo nel riferimento di osservatori statici a grande distanza da esso, utile per trattare a posteriori un modello che tenga conto della radiazione di Hawking e, auspicatamente, fornisca una possibile risoluzione dei problemi legati alla sua esistenza.
Resumo:
L'analisi accurata del processo di combustione è un aspetto sempre più influente nello sviluppo di un motore a combustione interna. In particolare il fenomeno della detonazione pone dei limiti sull'efficienza dei motori ad accensione comandata. Il rapporto di compressione è limitato in fase di progettazione dello sviluppo motore, lasciando al controllo dell'anticipo di accensione il compito di ridurre le problematiche di una combustione anomala. Nella seguente tesi si vuole implementare una metodologia per la valutazione dell'insorgere e dello sviluppo della detonazione in base alle condizioni di funzionamento del motore per differenti miscele di combustibili. Il metodo consiste nell'affiancare la cinetica chimica tabulata al risolutore CFD, \textsc{KIVA-3}. La cinetica chimica permette di determinare la velocità di reazione per differenti specie durante l'ossidazione a partire da precise condizioni ambiente. Il solutore CFD potrebbe risolvere questo tipo di problema ma utilizzare dei modelli con più reazioni chimiche richiede dei tempi di simulazioni troppo elevati. La cinetica chimica tabulata consiste nella determinazione ed estrapolazione dei dati relativi all'evoluzione della detonazione utilizzando schemi cinetici con centinaia o migliaia di reazioni. In seguito alla determinazione della miscela desiderata sono state eseguite delle simulazioni utilizzando il solutore Cantera per la determinazione dell'evoluzione dell'ossigeno. E' stata scelta questa grandezza come indicatore del progresso della detonazione poiché fornisce un'indicazione sullo stato di avanzamento delle reazioni. Successivamente i dati ricavati sono stati forniti al solutore CFD, tramite il quale sono state effettuate delle simulazioni per verificare i risultati ottenuti nella valutazione del comportamento di un motore ad alte prestazioni.
Resumo:
Il presente lavoro di tesi si occupa dell’analisi delle caratteristiche costituenti un sistema informativo destinato alla gestione della logistica e della produzione di piccole realtà imprenditoriali e, successivamente, della definizione di una possibile struttura modulare dello stesso sistema. Il lavoro, frutto di una collaborazione (tirocinio formativo) presso una società di consulenza organizzativa e informatica, prende le mosse dallo studio di una serie di trattazioni riguardanti i seguenti temi: gestione delle scorte e della produzione, lean production, cambiamento organizzativo e reingegnerizzazione dei processi aziendali, sistemi informativi e informatici, rapporto tra piccole-medie imprese e tecnologie dell’informazione. Da un iniziale introduzione sulle tematiche legate alla gestione dell’informazione in ambito aziendale, si procede ad una descrizione dell’utilizzo delle informazioni, in particolare in riferimento alle tecniche di reingegnerizzazione dei processi aziendali. In seguito, viene analizzato il più ampio concetto delle tecnologie a supporto dell’informazione, e della loro relazione con le piccole e medie imprese italiane. Successivamente, si offre una panoramica dei metodi più utilizzati per la pianificazione e programmazione della produzione e per la gestione delle scorte, differenziandoli tra metodi a fabbisogno e metodi a ripristino. Infine, si procede alla presentazione di una configurazione originale di un sistema informativo gestionale, tramite descrizione approfondita dei moduli di base costituenti, anche attraverso l’ausilio di diagrammi esplicativi, ed il confronto tra il proprio metodo di programmazione materiali ed il più famoso metodo MRP (Material Requirements Planning), diffuso nella maggior parte dei software gestionali in commercio; quest’ultimi verranno confrontati con la soluzione presentata tramite mappa di posizionamento. In conclusione, vengono esposte le ragioni di possibile successo del sistema presentato, mettendo in evidenza l’ormai appurata imprescindibilità dei sistemi informativi gestionali, sottolineata dalla crescita costante della loro adozione da parte delle imprese italiane. In particolare, viene posto l’accento sul fatto che il bacino di mercato costituito dalle piccole imprese sia ancora in parte insoddisfatto. Sono proprio le piccole imprese, come verrà spiegato nel dettaglio, le beneficiarie del nuovo sistema progettato, grazie a determinate caratteristiche studiate ad hoc per questa cospicua fascia di mercato.
Resumo:
Le funzioni polinomiali possono essere utilizzate per approssimare le funzioni continue. Il vantaggio è che i polinomi, le loro derivate e primitive, possono essere rappresentati in maniera semplice attraverso i loro coefficienti ed esistono algoritmi stabili e veloci per valutarli. Inoltre gli spazi polinomiali godono di numerose proprietà importanti. In questo lavoro ci occuperemo di altri spazi funzionali, noti in letteratura come spazi di Chebyshev o polinomi generalizzati, per ragioni di riproducibilità. Infatti ciò che si ottiene attraverso i polinomi è soltanto una approssimazione che spesso risulta essere insufficiente. E' importante, quindi, considerare degli spazi in cui sia possibile avere una rappresentazione esatta di curve. Lo studio di questi spazi è possibile grazie alla potenza di elaborazione degli attuali calcolatori e al buon condizionamento di opportune basi di rappresentazione di questi spazi. Negli spazi polinomiali è la base di Bernstein a garantire quanto detto. Negli spazi di Chebyshev si definisce una nuova base equivalente. In questo lavoro andremo oltre gli spazi di Chebyshev ed approfondiremo gli spazi di Chebyshev a tratti, ovvero gli spazi formati dall'unione di più spazi del tipo precedente. Si dimostrerà inoltre l'esistenza di una base a tratti con le stesse proprietà della base di Bernstein per gli spazi polinomiali.
Resumo:
La tesi si propone di individuare per la città di Cavezzo ed il suo centro urbano, colpito dal sisma del 20 maggio 2012, le strategie per la ricostruzione e la definizione delle proprie forme urbane. In particolare, ci si concentrerà sul nuovo luogo dell'identità urbana, ovvero piazza Matteotti, da sempre spazio pubblico riconosciuto, per il quale si propone un intervento di riqualificazione. Questo avverrà tramite il progetto dello spazio teatrale, che, si inserisce nel contesto, come nuovo elemento di lettura e connessione. Il primo capitolo di questo volume raccoglie alcune informazioni relative al territorio della città di Cavezzo, necessarie alla comprensione delle scelte progettuali, descritte per la scala urbana, nel capitolo secondo. Infine, la seconda parte del volume affronta i temi progettuali per piazza Matteotti e gli approfondimenti, ad essa legati, sullo spazio teatrale, sulle sue forme e sulla sua struttura.
Resumo:
Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.