901 resultados para vento di barriera, numero di Froude, modelli meteorologici, BOLAM, MOLOCH, climatologia
Resumo:
L’interesse della ricerca per le applicazioni dei materiali organici all’elettronica è cresciuto ampiamente negli ultimi anni e alcuni gruppi di ricerca hanno studiato la possibilità di sfruttare materiali organici per costruire rivelatori diretti di raggi X. Nel 2003 si immaginava che l’assenza di elementi con numero atomico alto, propria della maggior parte degli organici, scoraggiasse il loro impiego come rivelatori. Tuttavia, la recente scoperta delle proprietà di fotoassorbimento dei monocristalli di 4-idrossicianobenzene (4HCB) potrebbe smentire questa ipotesi e, anzi, suscitare un certo interesse applicativo. Tra i possibili vantaggi operativi del 4HCB come rivelatore ci potrebbero essere, oltre al basso costo, tensioni di funzionamento sull’ordine dei volt e una certa flessibilità meccanica. L’obiettivo del seguente lavoro di tesi è esplorare la risposta che forniscono i monocristalli di 4HCB ai raggi X quando vengono installati su matrici flessibili con elettrodi di contatto in geometrie particolari, interspaziati di 22 µm. Sono state condotte varie misure di risposta elettrica al buio e sotto un fascio di raggi X e nel seguito saranno presentati i risultati. Il primo capitolo è dedicato ad un’introduzione teorica alla struttura dei materiali organici e ai modelli di trasporto dei semiconduttori organici. È evidenziato il fatto che non esiste ad oggi una teoria comprensiva ed efficace come per gli inorganici e vengono discussi alcuni metodi per determinare sperimentalmente la mobilità. La teoria Space Charge Limited Current (SCLC), che modella le caratteristiche corrente-tensione di un solido di piccolo spessore, quando il materiale ha bassa conducibilità e il suo trasporto di carica è mediato sostanzialmente da portatori dello stesso segno, viene introdotta nel capitolo 2. L’importanza di questo modello sta nel fatto che fornisce un metodo efficace per determinare sperimentalmente la mobilità dei portatori in molti materiali organici. Il campo dei rivelatori organici diretti di raggi X è piuttosto recente, e non esiste ancora un’efficace inquadratura teorica. Per questo motivo il capitolo 3 espone lo stato attuale dei rivelatori di raggi X e presenta i meccanismi alla base dei rivelatori inorganici diretti a stato solido e poi discute dei rivelatori organici indiretti già esistenti, gli scintillatori. La descrizione degli apparati sperimentali utilizzati per le misure viene demandata al capitolo 4, mentre il quinto capitolo espone i risultati ottenuti.
Resumo:
L'obiettivo del seguente lavoro è determinare attraverso l'uso di procedure statistico-econometriche, in particolare del metodo ECM, le previsioni per i tassi di default nel triennio 2013-2015, partendo dalle serie storiche di questi ultimi e da quelle macroeconomiche.
Resumo:
L'elaborato illustra una serie di modelli termici, che si differenziano principalmente per la loro accuratezza e velocità di calcolo, per essere in grado di scegliere il modello più adatto da utilizzare in relazione all'applicazione prevista e alle esigenze richieste. Per una migliore comprensione del problema, vengono introdotti inizialmente alcuni concetti generali legati alle temperature in gioco nei componenti elettronici di potenza e alla trasmissione del calore, poi si passa alla determinazione della sorgente del calore (ovvero le perdite) in un modulo IGBT. Vengono quindi descritti alcuni modelli che siano in grado di rappresentare il sistema in esame dal punto di vista termico. Infine viene implementato in Simulink uno dei modelli proposti, mettendo così in pratica gran parte dei concetti esposti. Per il calcolo delle perdite, per i modelli e per la simulazione ci si è concentrati su un determinato componente elettronico di potenza per entrare nel cuore di un problema termico. È stato scelto l’IGBT perché è un dispositivo relativamente nuovo, in continuo miglioramento ed è sempre più utilizzato.
Modelli di predizione numerica di evoluzione di difetti in materiali metallici sotto carichi ciclici
Resumo:
Implementazione di modelli sul calcolatore per cercare di stimare la vita a fatica dei principali materiali metallici utilizzati in ambito aeronautico.
Resumo:
Superconduttori bulk in MgB2, ottenuti con tecnologia Mg-RLI brevettata da Edison Spa, sono stati oggetto di un'approfondita analisi in termini di forze di levitazione. Questo studio è stato preliminare per la progettazione di un innovativo sistema di levitazione lineare. I risultati ottenuti sperimentalmente sono stati validati attraverso modelli numerici sviluppati ad hoc. I campioni oggetto dello studio sono tre bulk in MgB2 rappresentativi delle tipiche forme usate nelle applicazioni reali: un disco, un cilindro, una piastra. I bulk sono stati misurati con un sistema di misura per le forze di levitazione realizzato a tale scopo. Un protocollo sperimentale è stato seguito per la caratterizzazione di base, sia in condizioni Field Cooling sia Zero Field Cooling, al quale sono state affiancate prove specifiche come la possibilità di mantenere inalterate le proprietà superconduttive attraverso la giunzione di più campioni con la tecnologia Mg-RLI. Un modello numerico è stato sviluppato per convalidare i risultati sperimentali e per studiare l'elettrodinamica della levitazione. Diverse configurazioni di rotori magnetici sono state accoppiate con un cilindro in MgB2 con lo scopo di valutare la soluzione ottimale; questo tema è stato apporofondito attraverso lo sviluppo di un software di simulazione che può tenere conto sia del numero di magneti sia della presenza di anelli in materiale magneti intercalati fra di essi. Studi analoghi sono stati portati avanti su una piastra di MgB2 per simulare il comportamento di una geometria piana. Un sistema di raffreddamento innovativo basato sull'azoto solido è stato studiato per poterlo accoppiare con un sistema di levitazione. Il criostato progettato è costituito da due dewar, uno dentro l'altro; quello interno ha lo scopo di raffreddare l'MgB2 mentre quello esterno di limitare delle perdite verso l'esterno. Il criopattino così ottenuto è accoppiato in condizioni FC ad una rotaia formata da magneti permanenti in NdFeB.
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
In questo studio sarà trattato lo sviluppo degli algoritmi genetici, uno strumento di calcolo nato ispirandosi alle leggi Darwiniane sull’evoluzione naturale. Questi algoritmi, le cui basi furono introdotte a partire dagli anni '40, mirano alla risoluzione di una vasta categoria di problemi computazionali utilizzando un approccio differente, basato sulle regole di mutazione e ricombinazione proprie della genetica. Essi permettono infatti di valutare delle soluzioni di partenza e, grazie alle variazioni introdotte dalla modifica casuale o dalla ricombinazione di queste, crearne di nuove nel tentativo di convergere verso soluzioni ottimali. Questo studio si propone come una descrizione di questo strumento, dei suoi sviluppi e delle sue potenzialità in ambito bioingegneristico, focalizzandosi sul suo utilizzo recente nell’ identificazione parametrica di modelli cardiaci.
Resumo:
La tesi affronta il tema dell'innovazione della scuola, oggetto di costante attenzione da parte delle organizzazioni internazionali e dei sistemi educativi nazionali, per le sue implicazioni economiche, sociali e politiche, e intende portare un contributo allo studio sistematico e analitico dei progetti e delle esperienze di innovazione complessiva dell'ambiente di apprendimento. Il concetto di ambiente di apprendimento viene approfondito nelle diverse prospettive di riferimento, con specifica attenzione al framework del progetto "Innovative Learning Environments" [ILE], dell’Organisation For Economic And Cultural Development [OECD] che, con una prospettiva dichiaratamente olistica, individua nel dispositivo dell’ambiente di apprendimento la chiave per l’innovazione dell’istruzione nella direzione delle competenze per il ventunesimo Secolo. I criteri presenti nel quadro di riferimento del progetto sono stati utilizzati per un’analisi dell’esperienza proposta come caso di studio, Scuola-Città Pestalozzi a Firenze, presa in esame perché nell’anno scolastico 2011/2012 ha messo in pratica appunto un “disegno” di trasformazione dell’ambiente di apprendimento e in particolare dei caratteri del tempo/scuola. La ricerca, condotta con una metodologia qualitativa, è stata orientata a far emergere le interpretazioni dei protagonisti dell’innovazione indagata: dall’analisi del progetto e di tutta la documentazione fornita dalla scuola è scaturita la traccia per un focus-group esplorativo attraverso il quale sono stati selezionati i temi per le interviste semistrutturate rivolte ai docenti (scuola primaria e scuola secondaria di primo grado). Per quanto concerne l’interpretazione dei risultati, le trascrizioni delle interviste sono state analizzate con un approccio fenomenografico, attraverso l’individuazione di unità testuali logicamente connesse a categorie concettuali pertinenti. L’analisi dei materiali empirici ha permesso di enucleare categorie interpretative rispetto alla natura e agli scopi delle esperienze di insegnamento/apprendimento, al processo organizzativo, alla sostenibilità. Tra le implicazioni della ricerca si ritengono particolarmente rilevanti quelle relative alla funzione docente.
Resumo:
Il lavoro di tesi esamina i plausibili sistemi progenitori per le supernovae di tipo di Ia e analizza i principali modelli di esplosione studiati ed implementati dai gruppi di ricerca per le SNe Ia.
Resumo:
Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.
Resumo:
Il lavoro svolto in questa tesi s’inserisce e sviluppa soprattutto nel campo dell’analisi della vulnerabilità relativa agli tsunami ed è centrato sull’analisi della vulnerabilità di strutture ed edifici. Per la precisione si è focalizzata l’attenzione su un’area geografica specifica, cioè si è considerata l’ipotesi che un maremoto colpisca le coste orientali della Sicilia ed in particolare della città di Siracusa. Questo lavoro di tesi prenderà in considerazione due modelli distinti per la stima della vulnerabilità: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) che prende il nome dal progetto europeo in cui è stato sviluppato e il modello PTVA (Papathoma Tsunami Vulnerability Assessment) introdotto da Papathoma et al. (2003) e successivamente modificato da Dominey-Howes et al. (2007) e da Dall’Osso et al. (2009). Tali modelli sono esempi dei due possibili approcci (quantitativo e qualitativo). Nei seguenti capitoli si sono trattate le curve di fragilità e di danno, in particolare seguendo la metodologia di Koshimura et al. (2009) ed il lavoro di Valencia et al. (2011). A seguire sono stati descritti i due metodi utilizzati per lo studio della vulnerabilità (SCHEMA, PTVA) ed il lavoro che è stato condotto nell’area di Siracusa. Il lavoro di tesi si è concluso mostrando i risultati della classificazione di vulnerabilità evidenziando e discutendo differenze e similarità delle mappe risultanti dai due metodi applicati.
Resumo:
Il presente lavoro e’ stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi della competizione fra i diversi processi di emissione di particelle cariche leggere da sistemi composti. Piu’ precisamente in questa tesi si studiano e si confrontano le emissioni da sorgenti equilibrate e di pre-equilibrio di particelle alfa e protoni per due diverse reazioni di fusione, 16O +65Cu a 256 MeV e 19F +62Ni a 304 MeV, che portano entrambe alla formazione del nucleo composto 81Rb. I due sistemi sono stati scelti in modo da avere una reazione indotta da un proiettile costituito da un numero intero di particelle alfa (alfa-cluster) (16O) ed una seconda indotta da un proiettile non alfa cluster (19F), con la medesima energia del fascio (16 MeV/n). Lo scopo e’ di cercare evidenze sulla struttura a cluster di alfa dei nuclei con numero di massa A multiplo di 4 ed N=Z. Allo scopo di evidenziare i contributi delle diverse sorgenti di emissione delle particelle si e’ appli- cata la tecnica del Moving Source Fit agli spettri delle particlelle emesse e rivelate con l'apparato GARFIELD in coincidenza con i residui di evaporazione misurati tramite il rivelatore anulare Ring Counter. I risultati sperimentali ottenuti applicando la tecnica del Moving Source Fit ai nostri dati sperimentali sono interessanti e sembrano contraddire la maggiore emissione di particelle alfa da parte del sistema con proiettile a struttura alfa-cluster 16O. Le possibili ipotesi alla base di questo risultato abbastanza sorprendente sono tuttora in fase di discussione e saranno oggetto di ulteriori verifiche tramite lo studio di correlazioni piu’ esclusive e confronto con modelli di pre-equilibrio complessi.
Resumo:
La tesi descrive i principali indicatori macroeconomici, in particolare gli indici di sentiment.
Resumo:
Descrizione dei vantaggi della tecnologia delle fondazioni da pozzo per le pile da ponte. Analisi dei carichi di un viadotto esistente a struttura mista e studio agli stati limite delle più svantaggiose condizioni di carico. Analisi sismica della pila. Progetto e verifica della pila, del plinto e del pozzo nelle diverse fasi di realizzazione e per le combinazioni di carico considerate. Verifiche del terreno, con riferimento ai criteri di dimensionamento del Prof. Jamiolkowski. Analisi tenso-deformativa del terreno con software Plaxis2D e Midas-GTS (3D). Confronti fra il metodo analitico adottato nelle verifiche ed i risultati numerici. Norme di riferimento: NTC2008, Istruzione N°I/SC/PS-OM/2298, Ordinanza 3274 come modificato dall'OPCM 3431
Resumo:
Il presente lavoro di tesi affronta il problema della calibrazione dei modelli idrologici afflussi-deflussi tramite un nuovo approccio basato sull'utilizzo di funzioni di utilità. L'approccio classico nella calibrazione dei modelli idrologici prevede la definizione di una misura di discrepanza tra dato osservato e simulato (definizione della funzione obiettivo) per poi procedere ad una sua minimizzazione o massimizzazione. Tradizionalmente, questo processo viene eseguito considerando l'idrogramma nella sua globalità, senza concentrarsi su quegli intervalli dell'idrogramma più utili all'utilizzatore del modello idrologico. Ad esempio, se il modello idrologico viene impiegato in un'ottica di gestione delle risorse idriche, l'utilizzatore sarà interessato ad una “migliore” riproduzione dei deflussi medio/bassi piuttosto che una corretta riproduzione dei colmi di piena. D'altra parte, se l'obiettivo è la riproduzione dei colmi di piena, un modello con alte prestazioni nella riproduzione dei deflussi medi risulta essere di scarsa utilità all'utilizzatore. Calibrando il modello tramite la funzione di utilità più adatta al caso pratico in esame, si può pertanto consentire all'utilizzatore del modello di guidare il processo di calibrazione in modo da essere coerente con il proprio schema decisionale e con le proprie esigenze, e di migliorare le performances del modello (cioè la riproduzione delle portate osservate) negli intervalli di portata per lui di maggiore interesse.