186 resultados para Precedenti


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro si affronta l'argomento dei fermioni di Dirac nel grafene, si procederà compiendo nel primo capitolo un'analisi alla struttura reticolare del materiale per poi ricostruirne, sfruttando l'approssimazione di tigth-binding, le funzioni d'onda delle particelle che vivono negli orbitali del carbonio sistemate nella struttura reticolare e ricavarne grazie al passaggio in seconda quantizzazione l'Hamiltoniana. Nel secondo capitolo si ricavano brevemente le equazioni di Dirac e dopo una piccola nota storica si discutono le equazioni di Weyl arrivando all'Hamiltoniana dei fermioni a massa nulla mostrando la palese uguaglianza alla relazione di dispersione delle particelle del grafene. Nel terzo capitolo si commentano le evidenze sperimentali ottenute dalla ASPEC in cui si manifesta per le basse energie uno spettro lineare, dando così conferma alla teoria esposta nei capitoli precedenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene seguito il lavoro di test delle schede ROD del layer 2 del Pixel Detector dell’ esperimento ATLAS, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Le schede ROD andranno a sostituire le precedenti schede SiROD nella catena di acquisizione dati dell’esperimento, procedendo dal nuovo strato IBL, e proseguendo con i tre layer del Pixel Detector, corroborando l’aggiornamento tecnologico e prestazionale necessario in vista dell’incremento di luminosità dell’esperimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi è dedicata alla storia dell'induzione matematica. Storicamente, il principio di induzione matematica è considerato un traguardo di Blaise Pascal nel XVII secolo, ma alcuni documenti mostrano che l'argomento è molto più articolato e complesso, e come autori precedenti avessero già sviluppato forme simili all'induzione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La lingua inglese ha subito negli ultimi secoli una diffusione senza precedenti e viene oggi utilizzata in tutto il mondo come mezzo di comunicazione. Da questo fenomeno inedito emergono nuove prospettive di ricerca; le lingue sono infatti in continua evoluzione e si modificano attraverso l’uso. La lingua inglese, così largamente utilizzata in tutto il mondo, si sta quindi trasformando, e presenta oggi ai ricercatori aspetti originali ed innovativi. L’utilizzo dell’inglese come mezzo di comunicazione tra parlanti appartenenti a diverse linguaculture viene chiamato “ELF”, English as a Lingua Franca. Lo scopo di questa tesi è di esporre i punti fondamentali delle ricerche degli ultimi anni sull’argomento e di realizzare un piccolo studio di caso su questo tema. Lo studio avrà come oggetto le linee guida per gli autori di articoli scientifici fornite da un campione di 100 riviste specialistiche, che sono state esaminate al fine di individuare riferimenti alla lingua inglese, alle sue varietà e a parlanti nativi e non nativi. L’obbiettivo sarà quindi quello di ottenere un idea generale sulla posizione dei parlanti non nativi all’interno della comunità scientifica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato offre una panoramica generale del Remote Interpreting (RI) con l'obiettivo di strutturare un ipotetico seminario da tenere alla SLLTI (Scuola di Lingue e Letterature, Traduzione e Interpretazione, ex SSLMIT) di Forlì, in collaborazione con l'azienda VEASYT, spin-off dell’università Ca' Foscari di Venezia, per introdurre l'argomento agli studenti del corso di laurea in Interpretazione di Conferenza. A tal scopo la tesi è stata suddivisa in dieci capitoli, ognuno dei quali analizza una sfaccettatura dell'interpretazione da remoto; la prima parte verte sull'evoluzione storica delle nuove tecnologie nel mondo dell'interpretariato, con particolare attenzione all'introduzione degli impianti per l'interpretazione simultanea e delle Tecnologie dell'Informazione e della Comunicazione (TIC); si presentano inoltre i principali tipi di interpretazione a distanza, seguendo la loro comparsa in ordine cronologico, e i dispositivi necessari per effettuare una sessione di video-interpretazione. Nella seconda parte si descrivono alcuni ambiti di applicazione del RI (RI per non udenti, in ambito giuridico, in ambito medico-sanitario) e si illustra la situazione a livello mondiale passando in rassegna, a titolo di esempio, alcune aziende presenti in Australia, Stati Uniti, Germania, Austria e Gran Bretagna. Nella terza parte si presentano alcuni regolamenti e disposizioni raccomandati da associazioni di categoria e dalle istituzioni europee e si analizzano i principali vantaggi e svantaggi del RI. Nella quarta parte si mettono a confronto le caratteristiche e il tipo di formazione di un interprete che lavora in situ con quelle di un interprete che lavora a distanza, illustrando alcune strategie sviluppate dagli interpreti durante le sessioni di RI. L'ultima parte riguarda l'azienda VEASYT, la quale viene presentata come case study italiano, descrivendo la sua piattaforma per il servizio di interpretariato da remoto e la modalità di reclutamento degli interpreti. In conclusione si trova la proposta di seminario da tenere ipoteticamente alla SLLTI di Forlì, che viene articolata seguendo la successione dei capitoli precedenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli ammassi di galassie sono gli oggetti gravitazionalmente legati più grandi dell’Universo. Questi emettono principalmente in banda X tramite bremsstrahlung. Una frazione mostra anche emissione radio diffusa da parte di elettroni relativistici che spiraleggiano nel campo magnetico. Si possono classificare tre tipi di emissione: alon, relitti e mini-aloni radio (MH). I MH sono sorgenti radio su scale di ≥ 200 – 500 kpc, osservate al centro di ammassi caratterizzati dalla presenze di cool-core (CC). L’origine dei MH non è ancora chiara. Gli elettroni relativistici che emettono in banda radio hanno tempi di vita radiativi di molto inferiori a quelli necessari per diffondere sulle scale dell’emissione diffusa. Quindi non sono semplicemente iniettati dalle galassie presenti negli ammassi ed è necessario un meccanismo di accelerazione “in-situ” nell’ICM. I MH testimoniano la presenza di meccanismi che canalizzano parte del budget energetico disponibile nei CC nell’ICM.Quindi lo studio è importante per comprendere la fisica dell’ICM e l’interazione fra le componenti non termiche e termiche. I MH si formano attraverso la riaccelerazione delle particelle relativistiche ad opera della turbolenza del gas. L’origine di questa turbolenza tuttavia non è ancora ben compresa. Gli ammassi CC sono caratterizzati da un picco della brillanza X nelle regioni centrali e da un drop della temperatura verso il centro accompagnata da aumento della densità del gas. Si ritiene che questo sia dovuto al raffreddamento del gas che quindi fluisce nelle zone centrali. Recenti osservazioni in X risultan inconsistenti con il modello classico di CF, suggerendo la presenza di una sorgente di riscaldamento del gas su scale del core degli ammassi. Recentemente Zhuravleva (2014) hanno mostrato che il riscaldamento dovuto alla turbolenza prodotta dall'AGN centrale è in grado di bilanciare il processo di raffreddamento. Abbiamo assunto che la turbolenza responsabile del riscaldamento del gas è anche responsabile dell’accelerazione delle particelle nei MH. Nell’ambito di questo scenario ci si aspetta una correlazione tra la potenza del cooling flow, PCF, che è una misura del tasso di energia emessa dal gas che raffredda nei CC, e la luminosità radio, che è una frazione dell’energia della turbolenza che è canalizzata nell’accelerazione delle particelle. In questo lavoro di tesi abbiamo utilizzato il più grande campione disponibile di MH, allo scopo di studiare la connessione fra le proprietà dei MH e quelle del gas termico nei core degli ammassi che li ospitano. Abbiamo analizzato i dati di 21 ammassi e ricavato i parametri fisici all’interno del raggio di cooling e del MH. Abbiamo ricavato la correlazione fra luminosità radio, e PCF. Abbiamo trovato che le due quantità correlano in modo quasi-lineare confermando i risultati precedenti. Tale correlazione suggerisce uno stretto legame fra le proprietà del gas nei CC e l’origine dei MH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si sviluppa attorno a 6 capitoli che, ripercorrendo le peculiarità storiche, linguistiche ed economiche di Moldova e Transnistria, tenteranno di mettere in luce i contrasti salienti del rapporto tra Chişinău e Tiraspol. Il capitolo 1 si concentra sulla comparazione di alcune fonti (provenienti da est e da ovest) che hanno ricostruito la storia della Moldova della Grande Romania e della Moldavia sovietica. In tal modo sarà possibile dimostrare che la regione di interesse è stata oggetto di una manipolazione intenzionale del proprio passato asservita ai centri di potere che miravano alla supremazia del territorio. Il capitolo 2 ripercorre le fasi dell’epoca di industrializzazione della Transnistria che, a partire dagli anni ’90, si suppone abbia permesso a Tiraspol di sganciarsi de facto dal governo moldavo. Il capitolo 3 si sofferma sui motivi che spinsero la popolazione del Dnestr ad appoggiare la secessione trascinandola nel conflitto del 1992. Una volta tracciata la cornice storica lungo i capitoli 1, 2 e 3, il capitolo 4 presenterà il multiforme panorama linguistico dell’attuale Repubblica Moldova soffermandosi sul ruolo della lingua russa, scintilla della secessione transnistriana. Il capitolo 5 offre uno spunto di riflessione sull’incidenza di Mosca nella separazione moldava per mezzo di uno studio dell’economia della Transnistria. Il capitolo 6, infine, rivela che gli argomenti trattati nel corso dei 5 capitoli precedenti sono tutti tasselli imprescindibili dell’identità nazionale transnistriana e permette di muovere alcune ipotesi sui metodi attuati da Tiraspol per garantire la fedeltà nazionale della propria popolazione facendo perno sul controllo dei mass media.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Digital Marketing si occupa di tutto quello che possiamo fare, grazie ad Internet, per far crescere il business aziendale. Le tecnologie informatiche negli ultimi anni stanno producendo degli effetti pervasivi sulle infrastrutture delle imprese, sui prodotti, sui mercati e sui consumatori, con una rilevanza tale all'interno di un periodo di tempo relativamente limitato che non è possibile riscontrare in nessuna epoca passata. Coinvolgono le relazioni tra imprese, i mercati dei consumatori, le relazioni tra gli stessi consumatori, le singole componenti del marketing mix (prodotto, prezzo, comunicazione, distribuzione) e le loro modalità di interazione e di gestione all'interno della strategia di marketing dell'impresa. L'evoluzione del mondo digitale ha portato imprese e consumatori a dover affrontare un cambiamento radicale del paradigma di marketing e comunicazione che vede la relazione e l'interazione al centro di uno scambio di messaggi bilaterali altamente personalizzati e costanti. Il marketing non è un processo lineare ma circolare, in cui ascolto e comprensione dei bisogni e delle forze che agiscono sui mercati, progettazione dei prodotti o servizi in grado di rispondere alle nuove opportunità individuate, si integrano e cambiano continuamente. Quando si parla di Internet e commercio non si pensa solo all'e-commerce, ovvero all'acquisto e al pagamento del prodotto su Internet. La Rete ha acquisito un'influenza basilare in tutte le fasi precedenti all'acquisto infatti sul Web si attuano attività di ricerca e raccolta di informazioni, selezione, comparazione e perfezionamento che precedono la decisione d'acquisto e che specialmente per i beni durevoli e dall'alto valore monetario rappresentano un momento cruciale del processo d'acquisto. Questo fenomeno ha condizionato uno scenario di mercato in cui si sono abbassate le barriere di accesso all'informazione, si sono ridotti i tempi di relazione tra le persone e tra le persone e l'azienda e in alcuni settori sono crollare le barriere all'ingresso permettendo, attraverso la creazione di attività online di raggiungere e instaurare una relazione diretta. Questo elaborato si propone come un'analisi del digital marketing. Suddiviso in sei capitoli vuole dare una soddisfacente panoramica di questo nuovo marketing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosi lavori apparsi sulla letteratura scientifica negli ultimi decenni hanno evidenziato come, dall’inizio del XX secolo, la temperatura media globale sia aumentata. Tale fenomeno si è fatto più evidente dagli anni ’80, infatti ognuno degli ultimi tre decenni risulta più caldo dei precedenti. L’Europa e l’area mediterranea sono fra le regioni in cui il riscaldamento risulta più marcato, soprattutto per le temperature massime (dal 1951 sono cresciute di +0.39 °C per decennio) che hanno mostrato trend maggiori delle minime. Questo comportamento è stato osservato anche a scala nazionale (+0.25°C/dec per le massime e +0.20°C/dec per le minime). Accanto all’aumento dei valori medi è stato osservato un aumento (diminuzione) degli eventi di caldo (freddo) estremo, studiati attraverso la definizione di alcuni indici basati sui percentili delle distribuzioni. Resta aperto il dibattito su quali siano le cause delle variazioni negli eventi estremi: se le variazioni siano da attribuire unicamente ad un cambiamento nei valori medi, quindi ad uno shift rigido della distribuzione, o se parte del segnale sia dovuto ad una variazione nella forma della stessa, con un conseguente cambiamento nella variabilità. In questo contesto si inserisce la presente tesi con l’obiettivo di studiare l’andamento delle temperature giornaliere sul Trentino-Alto-Adige a partire dal 1926, ricercando cambiamenti nella media e negli eventi estremi in due fasce altimetriche. I valori medi delle temperature massime e minime hanno mostrato un evidente riscaldamento sull’intero periodo specialmente per le massime a bassa quota (`0.13 ̆ 0.03 °C/dec), con valori più alti per la primavera (`0.22 ̆ 0.05 °C/dec) e l’estate (`0.17 ̆ 0.05 °C/dec). Questi trends sono maggiori dopo il 1980 e non significativi in precedenza. L’andamento del numero di giorni con temperature al di sopra e al di sotto delle soglie dei percentili più estremi (stimate sull’intero periodo) indica un chiaro aumento degli estremi caldi, con valori più alti per le massime ad alta quota ( fino a +26.8% per il 99-esimo percentile) e una diminuzione degli estremi freddi (fino a -8.5% per il primo percentile delle minime a bassa quota). Inoltre, stimando anno per anno le soglie di un set di percentili e confrontando i loro trend con quelli della mediana, si è osservato, unicamente per le massime, un trend non uniforme verso temperature più alte, con i percentili più bassi (alti) caratterizzati da trend inferiori (superiori) rispetto a quello della mediana, suggerendo un allargamento della PDF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In virtù della crescente importanza dell’impiego del software nel settore dei dispositivi medici, come software indipendente (stand-alone) oppure come software incorporato in un altro dispositivo medico, un requisito essenziale per il suo utilizzo è la validazione secondo lo stato dell’arte. La certificazione come dispositivo medico diviene in tal modo fonte di garanzia e di sicurezza per il suo impiego. Il Sistema Informativo di Laboratorio (LIS), supportando il processo operativo dei dispositivi medico-diagnostici in vitro, necessita di una regolamentazione in tale direzione. Il workflow del Laboratorio Analisi, suddiviso in fasi preanalitica, analitica e postanalitica, ha beneficiato dell’introduzione di un sistema informatico in grado di gestire le richieste di esami dei pazienti e di processare e memorizzare le informazioni generate dalle apparecchiature presenti nel laboratorio. Più di ogni altro scenario clinico, il Laboratorio Analisi si presta ad essere organizzato sfruttando un modello di gestione fortemente integrato. Le potenzialità ad esso connesse garantiscono un aumento di produttività, una riduzione degli errori di laboratorio e una maggior sicurezza sia per i professionisti sanitari che per l’intero processo analitico. Per l’importanza clinica affidata al dato di laboratorio, la sua diffusione deve avvenire in maniera veloce e sicura; ciò è possibile se il ritorno elettronico dei risultati al medico richiedente si avvale dello standard HL7, il cui utilizzo è promosso dal modello IHE. La presenza di un unico database sanitario contenente anagrafiche univoche, facilmente aggiornabili, riduce il rischio di errata identificazione del paziente e, in particolare, offre la possibilità di disporre dei risultati di esami precedenti, opportunità particolarmente utile nel delineare il quadro clinico di pazienti cronici. Tale vantaggio e molte altre strategie, in grado di migliorare la qualità dell’assistenza e dell’outcome clinico, permettono di definire il laboratorio clinico come “motore di appropriatezza”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Argomento di questa tesi è l’ottimizzazione di un portafoglio, cioè, dato un portafoglio, massimizzarne il guadagno minimizzando il rischio. Nel primo capitolo illustrerò le nozioni matematiche basi della finanza, come i mercati discreti, la definizione di portafoglio, il modello binomiale,l’arbitraggio e la misura martingala. Nel secondo capitolo presenterò i due metodi risolutivi del problema di ottimizzazione:il Metodo Martingala e il Metodo della Programmazione Dinamica. Nell’ultimo capitolo parto dalla funzione d'utilità esponenziale e calcolo il portafoglio ottimizzato utilizzando i due metodi precedenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisi riguardante la tenacizzazione della matrice di laminati compositi. Lo scopo è quello di aumentare la resistenza alla frattura di modo I e, a tal proposito, sono stati modificati gli interstrati di alcuni provini tramite l’introduzione di strati, di diverso spessore, di nanofibre in polivinilidenfluoruro (PVDF). La valutazione di tale metodo di rinforzo è stata eseguita servendosi di dati ottenuti tramite prove sperimentali svolte in laboratorio direttamente dal sottoscritto, che si è occupato dell’elaborazione dei dati servendosi di tecniche e algoritmi di recente ideazione. La necessità primaria per cui si cerca di rinforzare la matrice risiede nel problema più sentito dei laminati compositi in opera da molto tempo: la delaminazione. Oltre a verificare le proprietà meccaniche dei provini modificati sottoponendoli a test DCB, si è utilizzata una tecnica basata sulle emissioni acustiche per comprendere più approfonditamente l’inizio della delaminazione e i meccanismi di rottura che si verificano durante le prove. Quest’ultimi sono illustrati servendosi di un algoritmo di clustering, detto Fuzzy C-means, tramite il quale è stato possibile identificare ogni segnale come appartenente o meno ad un determinato modo di rottura. I risultati mostrano che il PVDF, applicato nelle modalità esposte, è in grado di aumentare la resistenza alla frattura di modo I divenendo contemporaneamente causa di un diverso modo di propagazione della frattura. Infine l’elaborato presenta alcune micrografie delle superfici di rottura, le quali appoggiano i risultati ottenuti nelle precedenti fasi di analisi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attività sperimentale riguardante lo studio dei materiali compositi, nell’ambito della progettazione a crashworthiness, svolto, tramite test dei provini realizzati nell’attività di tirocinio, presso i laboratori didattici della Scuola di ingegneria e architettura, sede di Forlì. Il lavoro di tesi, si è basato sulla valutazione dell’energia assorbita dai provini in materiale composito, tramite prove quasi-statiche; per questo tipo di prove sono stati utilizzati provini autostabilizzanti, rinforzati in fibra di carbonio e matrice in resina epossidica. Prima di procedere alla sperimentazione, sono stati studiati i risultati ottenuti da precedenti sperimentazioni eseguite da colleghi, per valutare quale fosse la configurazione migliore di provino, in termini di geometria, e trigger, che garantisse elevate energie di assorbimento. Dopo una panoramica dei materiali compositi, con riferimento alle caratteristiche e proprietà, alle diverse tipologie che si possono avere in ambito industriale, è spiegato il concetto di crashworthiness, le varie tipologie di test di impatto e le varie tipologie di rottura alla quale può essere soggetto un provino. Si è di seguito descritto come è stata valutata la scelta del tipo di geometria e del trigger, che sarebbero stati utilizzati per la progettazione del provino, e si è accennato al processo di laminazione svolta presso i laboratori della Scuola per la fabbricazione del provino. Al termine della descrizione dei tester usati per la sperimentazione sono, infine, illustrati i risultati delle prove svolte, con successivi commenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente elaborato ha lo scopo di analizzare il comportamento torsionale di diverse tipologie strutturali, valutare la veridicità del metodo “Alpha” per strutture ad un piano e successivamente testare la validità del metodo per strutture multipiano. Nel primo capitolo è stato introdotto inizialmente il problema, poi sono stati definiti per il sistema oggetto di studio l’equazione del moto e i diversi parametri che intervengono. Tra questi parametri di rilevante importanza si hanno l’indice di torsioflessibilità e l’eccentricità. Infine è stato definito il metodo “Alpha” per la determinazione della massima risposta rotazionale. Nel secondo capitolo è stata eseguita una valutazione analitica del parametro di torsioflessibilità per il caso specifico di struttura con due setti disposti ad uguale distanza dal centro di massa sia per il caso di struttura a pianta quadrata che per quella a pianta rettangolare. Nel terzo e nel quarto capitolo è stata effettuata una valutazione dell’indice di torsioflessibilità e dell’eccentricità, sia per strutture a pianta quadrata che per strutture a pianta rettangolare, caratterizzate da diversi elementi resistenti disposti in differenti posizioni. In particolare è stato analizzato come cambia l’indice di torsioflessibilità al variare dell’eccentricità per una stessa struttura. Nel quinto e sesto capitolo sono riportati i risultati delle analisi modali condotte per tutti i casi visti nei capitoli precedenti: nel caso ad un piano e nel caso di strutture multipiano (cinque e dieci piani). Nel settimo e ottavo capitolo sono riportati i risultati delle analisi time-history eseguite per le stesse strutture, dalle quali sono stati determinati gli spostamenti al fine di eseguire una verifica del metodo per strutture ad un piano e studiare i risultati ottenuti per strutture multipiano. Il lavoro svolto si conclude con il nono capitolo in cui sono stati riportati i risultati e le conclusioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.