419 resultados para Scambiabilità, distribuzione ipergeometrica, distribuzione binomiale
Resumo:
L'elimodellismo è una passione che lega un numero sempre maggiore di persone: nuove manifestazioni vengono organizzate in tutto il mondo e nuove discipline vengono continuamente proposte. Questo è il caso della disciplina speed in cui i piloti si sfidano a far volare i propri elimodelli alle massime velocità. L'azienda SAB Heli Division s.r.l., come produttore di pale per elimodelli e della serie di elicotteri Goblin, ha interesse a sostenere i propri piloti con le proprie macchine, facendo sì che siano veloci e competitive. Per questo ha voluto sviluppare una pala che, montata sul proprio elicottero specifico per questa disciplina, possa vincere la concorrenza con l'ambizione di stabilire un primato di velocità a livello internazionale. Il problema è quindi quello di sviluppare una pala che ottimizzasse al meglio le caratteristiche dell'elimodello Goblin Speed, in modo da sfruttare al meglio la potenza installata a bordo. Per via dei limiti sui mezzi a disposizione l'ottimizzazione è stata portata avanti mediante la teoria dell'elemento di pala. Si è impostato il calcolo determinando la potenza media su una rotazione del rotore in volo avanzato a 270 km/h e quindi attraverso gli algoritmi di ottimizzazione globale presenti nel codice di calcolo MATLAB si è cercato il rotore che permettesse il volo a tale velocità al variare del raggio del disco del rotore, dello svergolamento della pala e della distribuzione di corda lungo la pala. Per far sì che si abbiano risultati più precisi si sono sfruttati alcuni modelli per stimare il campo di velocità indotta o gli effetti dello stallo dinamico. Inoltre sono state stimate altre grandezze di cui non sono noti i dati reali o di cui è troppo complesso, per le conoscenze a disposizione, avere un dato preciso. Si è tuttavia cercato di avere stime verosimili. Alcune di queste grandezze sono le caratteristiche aerodinamiche del profilo NACA 0012 utilizzato, ottenute mediante analisi CFD bidimensionale, i comandi di passo collettivo e ciclico che equilibrano il velivolo e la resistenza aerodinamica dell'intero elimodello. I risultati del calcolo sono stati confrontati innanzitutto con le soluzioni già adottate dall'azienda. Quindi si è proceduto alla realizzazione della pala e mediante test di volo si è cercato di valutare le prestazioni della macchina che monta la pala ottenuta. Nonostante le approssimazioni adottate si è osservato che la pala progettata a partire dai risultati dell'ottimizzazione rispecchia la filosofia adottata: per velocità paragonabili a quelle ottenute con le pale prodotte da SAB Heli Division, le potenze richieste sono effettivamente inferiori. Tuttavia non è stato possibile ottenere un vero e proprio miglioramento della velocità di volo, presumibilmente a causa delle stime delle caratteristiche aerodinamiche delle diverse parti del Goblin Speed.
Resumo:
Obiettivo del lavoro è migliorare la lettura della ruralità europea. A fronte delle profonde trasformazioni avvenute, oggi non è più possibile analizzare i territori rurali adottando un mero approccio dicotomico che semplicemente li distingua dalle città. Al contrario, il lavoro integra l’analisi degli aspetti socio-economici con quella degli elementi territoriali, esaltando le principali dimensioni che caratterizzano le tante tipologie di ruralità oggi presenti in Europa. Muovendo dal dibattito sulla classificazione delle aree rurali, si propone dapprima un indicatore sintetico di ruralità che, adottando la logica fuzzy, considera congiuntamente aspetti demografici (densità), settoriali (rilevanza dell’attività agricola), territoriali e geografici (accessibilità e uso del suolo). Tale tecnica permette di ricostruire un continuum di gradi di ruralità, distinguendo così, all’interno dell’Unione Europea (circa 1.300 osservazioni), le aree più centrali da quelle progressivamente più rurali e periferiche. Successivamente, attraverso un’analisi cluster vengono individuate tipologie di aree omogenee in termini di struttura economica, paesaggio, diversificazione dell’attività agricola. Tali cluster risentono anche della distribuzione geografica delle aree stesse: vengono infatti distinti gruppi di regioni centrali da gruppi di regioni più periferiche. Tale analisi evidenzia soprattutto come il binomio ruralità-arretratezza risulti ormai superato: alcune aree rurali, infatti, hanno tratto vantaggio dalle trasformazioni che hanno interessato l’Unione Europea negli ultimi decenni (diffusione dell’ICT o sviluppo della manifattura). L’ultima parte del lavoro offre strumenti di analisi a supporto dell’azione politica comunitaria, analizzando la diversa capacità delle regioni europee di rispondere alle sfide lanciate dalla Strategia Europa 2020. Un’analisi in componenti principali sintetizza le principali dimensioni di tale performance regionale: i risultati sono poi riletti alla luce delle caratteristiche strutturali dei territori europei. Infine, una più diretta analisi spaziale dei dati permette di evidenziare come la geografia influenzi ancora profondamente la capacità dei territori di rispondere alle nuove sfide del decennio.
Resumo:
Nell'ambito delle teorie dello sviluppo, un filone di studi, originato dai lavori di North (1973) e consolidatosi negli ultimi anni, individua nelle istituzioni, definite come le regole del gioco o i vincoli disegnati dagli uomini per disciplinare i loro rapporti, i fattori fondamentali dello sviluppo economico. Le istituzioni, nel modello elaborato da Acemoglu, Johnson e Robinson (2004), sono il frutto di interazioni dinamiche tra potere politico de jure, determinato dalle istituzioni politiche, e potere politico de facto, determinato dalla distribuzione delle risorse economiche. Sulla base di questa prospettiva teorica, questa tesi propone uno studio di carattere quantitativo sulla qualità istituzionale, la traduzione operativa del concetto di istituzioni, composta dalle tre fondamentali dimensioni di democrazia, efficienza ed efficacia del governo e assenza di corruzione. La prima parte, che analizza sistematicamente pro e contro di ciascuna tipologia di indicatori, è dedicata alla revisione delle misure quantitative di qualità istituzionale, e individua nei Worldwide Governance Indicators la misura più solida e consistente. Questi indici sono quindi utilizzati nella seconda parte, dove si propone un'analisi empirica sulle determinanti della qualità istituzionale. Le stime del modello di regressione cross-country evidenziano che la qualità istituzionale è influenzata da alcuni fattori prevalentemente esogeni come la geografia, la disponibilità di risorse naturali e altre caratteristiche storiche e culturali, insieme ad altri fattori di carattere più endogeno. In quest'ultima categoria, i risultati evidenziano un effetto positivo del livello di sviluppo economico, mentre la disuguaglianza economica mostra un impatto negativo su ciascuna delle tre dimensioni di qualità istituzionale, in particolare sulla corruzione. Questi risultati supportano la prospettiva teorica e suggeriscono che azioni di policy orientate alla riduzione delle disparità sono capaci di generare sviluppo rafforzando la democrazia, migliorando l'efficienza complessiva del sistema economico e riducendo i livelli di corruzione.
Resumo:
La tesi si propone di sviluppare un modello, l'architettura e la tecnologia per il sistema di denominazione del Middleware Coordinato TuCSoN, compresi gli agenti, i nodi e le risorse. Identità universali che rappresentano queste entità, sia per la mobilità fisica sia per quella virtuale, per un Management System (AMS, NMS, RMS) distribuito; tale modulo si occupa anche di ACC e trasduttori, prevedendo questioni come la tolleranza ai guasti, la persistenza, la coerenza, insieme con il coordinamento disincarnata in rete, come accade con le tecnologie Cloud. All’interno dell’elaborato, per prima cosa si è fatta una introduzione andando a descrivere tutto ciò che è contenuto nell’elaborato in modo da dare una visione iniziale globale del lavoro eseguito. Di seguito (1° capitolo) si è descritta tutta la parte relativa alle conoscenze di base che bisogna avere per la comprensione dell’elaborato; tali conoscenze sono relative a TuCSoN (il middleware coordinato con cui il modulo progettato dovrà interfacciarsi) e Cassandra (sistema server distribuito su cui si appoggia la parte di mantenimento e salvataggio dati del modulo). In seguito (2° capitolo) si è descritto JADE, un middleware da cui si è partiti con lo studio per la progettazione del modello e dell’architettura del modulo. Successivamente (3° capitolo) si è andati a spiegare la struttura e il modello del modulo considerato andando ad esaminare tutti i dettagli relativi alle entità interne e di tutti i legami fra esse. In questa parte si è anche dettagliata tutta la parte relativa alla distribuzione sulla rete del modulo e dei suoi componenti. In seguito (4° capitolo) è stata dettagliata e spiegata tutta la parte relativa al sistema di denominazione del modulo, quindi la sintassi e l’insieme di procedure che l’entità consumatrice esterna deve effettuare per ottenere un “nome universale” e quindi anche tutti i passaggi interni del modulo per fornire l’identificatore all’entità consumatrice. Nel capitolo successivo (5° capitolo) si sono descritti tutti i casi di studio relativi alle interazioni con le entità esterne, alle entità interne in caso in cui il modulo sia o meno distribuito sulla rete, e i casi di studio relativi alle politiche, paradigmi e procedure per la tolleranza ai guasti ed agli errori in modo da dettagliare i metodi di riparazione ad essi. Successivamente (6° capitolo) sono stati descritti i possibili sviluppi futuri relativi a nuove forme di interazione fra le entità che utilizzano questo modulo ed alle possibili migliorie e sviluppi tecnologici di questo modulo. Infine sono state descritte le conclusioni relative al modulo progettato con tutti i dettagli in modo da fornire una visione globale di quanto inserito e descritto nell’elaborato.
Resumo:
In numerosi campi scientici l'analisi di network complessi ha portato molte recenti scoperte: in questa tesi abbiamo sperimentato questo approccio sul linguaggio umano, in particolare quello scritto, dove le parole non interagiscono in modo casuale. Abbiamo quindi inizialmente presentato misure capaci di estrapolare importanti strutture topologiche dai newtork linguistici(Degree, Strength, Entropia, . . .) ed esaminato il software usato per rappresentare e visualizzare i grafi (Gephi). In seguito abbiamo analizzato le differenti proprietà statistiche di uno stesso testo in varie sue forme (shuffolato, senza stopwords e senza parole con bassa frequenza): il nostro database contiene cinque libri di cinque autori vissuti nel XIX secolo. Abbiamo infine mostrato come certe misure siano importanti per distinguere un testo reale dalle sue versioni modificate e perché la distribuzione del Degree di un testo normale e di uno shuffolato abbiano lo stesso andamento. Questi risultati potranno essere utili nella sempre più attiva analisi di fenomeni linguistici come l'autorship attribution e il riconoscimento di testi shuffolati.
Resumo:
Le microreti caratterizzate da unità di generazione con Fonti Energetiche Rinnovabili (FER), sono oggetto di crescente interesse in due contesti molto diversi tra loro: l’integrazione della Generazione Diffusa (GD) in reti di distribuzione pubbliche nei paesi sviluppati e l’elettrificazione di zone rurali attualmente non servite dalla rete elettrica. L’introduzione dei sistemi di accumulo nelle microreti rende possibile la compensazione della variabilità delle FER trasformando le microreti in sistemi di produzione che nel complesso risultano completamente regolabili. L’obiettivo del presente lavoro di tesi è dimostrare come le microreti possono svolgere un ruolo fondamentale per lo sviluppo delle infrastrutture elettriche nei paesi in via di sviluppo e nelle economie emergenti ponendo le basi per l’elettrificazione di aree remote e scarsamente popolate ad oggi non connesse alla rete di distribuzione dell’energia.
Resumo:
La radioterapia guidata da immagini (IGRT), grazie alle ripetute verifiche della posizione del paziente e della localizzazione del volume bersaglio, si è recentemente affermata come nuovo paradigma nella radioterapia, avendo migliorato radicalmente l’accuratezza nella somministrazione di dose a scopo terapeutico. Una promettente tecnica nel campo dell’IGRT è rappresentata dalla tomografia computerizzata a fascio conico (CBCT). La CBCT a kilovoltaggio, consente di fornire un’accurata mappatura tridimensionale dell’anatomia del paziente, in fase di pianificazione del trattamento e a ogni frazione del medisimo. Tuttavia, la dose da imaging attribuibile alle ripetute scansioni è diventata, negli ultimi anni, oggetto di una crescente preoccupazione nel contesto clinico. Lo scopo di questo lavoro è di valutare quantitativamente la dose addizionale somministrata da CBCT a kilovoltaggio, con riferimento a tre tipici protocolli di scansione per Varian OnBoard Imaging Systems (OBI, Palo Alto, California). A questo scopo sono state condotte simulazioni con codici Monte Carlo per il calcolo della dose, utilizzando il pacchetto gCTD, sviluppato sull’architettura della scheda grafica. L’utilizzo della GPU per sistemi server di calcolo ha permesso di raggiungere alte efficienze computazionali, accelerando le simulazioni Monte Carlo fino a raggiungere tempi di calcolo di ~1 min per un caso tipico. Inizialmente sono state condotte misure sperimentali di dose su un fantoccio d’acqua. I parametri necessari per la modellazione della sorgente di raggi X nel codice gCTD sono stati ottenuti attraverso un processo di validazione del codice al fine di accordare i valori di dose simulati in acqua con le misure nel fantoccio. Lo studio si concentra su cinquanta pazienti sottoposti a cicli di radioterapia a intensità modulata (IMRT). Venticinque pazienti con tumore al cervello sono utilizzati per studiare la dose nel protocollo standard-dose head e venticinque pazienti con tumore alla prostata sono selezionati per studiare la dose nei protocolli pelvis e pelvis spotlight. La dose media a ogni organo è calcolata. La dose media al 2% dei voxels con i valori più alti di dose è inoltre computata per ogni organo, al fine di caratterizzare l’omogeneità spaziale della distribuzione.
Resumo:
La Correlazione digitale d’immagini (digital image correlation, DIC) è una tecnica di misura delle deformazioni e degli spostamenti, relativamente nuova, che permette di fare misure a tutto campo di tipo non invasivo. In questa tesi di Laurea Magistrale in Ingegneria Meccanica si è proceduto alla sua ottimizzazione e validazione per un’applicazione di tipo biomeccanico (distribuzione di deformazioni in segmenti ossei). Sono stati indagati i parametri di post-processo, di pre-acquisizione e di preparazione del provino. Per la validazione dello strumento sono stati confrontati i risultati ottenuti da provini di forma semplice con quelli teorici, così da avere una stima di quanto il dato misurato si discosti da quello reale. Infine, quanto appreso prima, è stato applicato a una vertebra umana, oltrepassando il limite, finora presente, di misure puntuali con estensimentri.
Resumo:
Il presente lavoro di tesi ha avuto come oggetto l’analisi geochimica dei sedimenti superficiali della Pialassa Piomboni, area umida in comunicazione con il porto-canale Candiano, situata nel comune di Ravenna. Tale analisi si inserisce nell’ambito di un progetto di riqualificazione dell’area che prevede il dragaggio dei sedimenti superficiali. In particolare, è stato determinato il contenuto chimico totale degli elementi maggiori e in traccia tramite spettrometria a fluorescenza a raggi X (XRF). Sono stati individuati i principali fattori che determinano la distribuzione spaziale degli elementi nell’area di studio. Particolare interesse è stato attribuito allo studio dei metalli pesanti (As, Cr, Cu, Ni, Pb, Zn), per i quali si è voluto studiare se le concentrazioni riscontrate all’interno della Pialassa Piomboni sono dovute a variabilità naturale o ad attività antropiche. A tal fine, i valori di concentrazione ottenuti sono stati paragonati con quelli ricavati da studi precedenti condotti in sedimenti provenienti dallo stesso ambiente deposizionale di laguna; sulla base di questi dati è stato calcolato il valore di fondo naturale dei metalli pesanti. Le concentrazioni degli elementi nella Pialassa Piomboni sono state poi confrontate con le soglie di qualità chimica indicate dal manuale ICRAM per la movimentazione dei sedimenti marini (ICRAM-APAT, 2007).
Resumo:
Questo elaborato nasce da uno stage presso lo stabilimento Bonfiglioli Trasmital S.p.A. di Forlì, un’azienda manifatturiera specializzata nella produzione, costruzione e distribuzione di motoriduttori di velocità, sistemi di azionamento e motoriduttori epicicloidali applicati nel campo industriale, dell’automazione, delle macchine movimento terra e nell’ambito delle energie alternative. Il progetto ha lo scopo di aumentare la disponibilità di un impianto di tempra ad induzione. La scelta di tale impianto quale oggetto dell’attività, proviene da un’analisi delle ore di disponibilità perse per inefficienza, nell’anno 2012, in tutto il reparto di lavorazione meccanica dello stabilimento produttivo di Forlì e dall’analisi dell’OEE (Overall equipment effectiveness), indicatore principale per stabilire l’efficienza di un impianto. Analizzando la natura delle perdite del macchinario, tipicamente guasti, micro fermate e setup, si è deciso di applicare le tecniche di TPM e dello SMED: il TPM (Total Productive Maintenance) persegue l’obiettivo di migliorare la produttività degli impianti e la loro efficacia, grazie alla riduzione delle cause di perdita ricercando il miglioramento continuo del processo di produzione e della qualità, mentre lo SMED (Single-Minute Exchange of Die) è una metodologia volta alla riduzione dei tempi di cambio produzione; la grande innovazione di tale teoria risiede nella possibilità di ridurre fortemente i tempi impiegati per effettuare un’operazione di setup con un solo digit ossia in un lasso di tempo inferiore a dieci minuti.
Resumo:
Obiettivi: L’obiettivo dello studio è stato quello di valutare l’utilizzo del cerchiaggio cervicale, in relazione alle diverse indicazioni per cui è stato eseguito, presso la Clinica Ostetrica e Ginecologica del Policlinico Universitario Sant’Orsola-Malpighi di Bologna, tra Gennaio 2001 e Dicembre 2013. Outcome secondario e’ stato quello di paragonare i risultati ottenuti con le più recenti evidenze scientifiche per valutare come esse abbiano influenzato l’utilizzo del cerchiaggio nel nostro centro. Materiali e metodi: valutazione osservazionale di tutte le pazienti sottoposte a cerchiaggio cervicale presso il nostro centro. La popolazione di studio e’ stata suddivisa in 5 gruppi in relazione all’indicazione per cui il cerchiaggio e’ stato eseguito: cerchiaggio elettivo (I), eco indicato (II), d’emergenza (III), in gravidanze gemellari (IV) e in gravidanze trigemine (V). Di tutte le pazienti e’ stato valutato l’outcome della gravidanza (epoca gestazionale al parto, peso neonatale, Apgar score) e l’appropriatezza dell’indicazione al cerchiaggio. Risultati: nel corso dei 13 anni in studio sono stati eseguiti 191 cerchiaggi: 109 nel I gruppo, 24 nel II, 39 nel III, 13 e 6 rispettivamente nel IV e V gruppo. In un caso il cerchiaggio e’ stato eseguito per via laparoscopica prima dell’insorgenza della gravidanza. La distribuzione dei diversi tipi di cerchiaggio e’ cambiata: dal 2007 non vengono seguiti cerchiaggi in gravidanze multiple, sono diminuiti quelli elettivi e sono aumentati i cerchiaggi d’emergenza pur essendo i casi con morbilità materna maggiore: in una paziente si e’ verificato un aborto settico con shock settico materno e si e’ reso necessario un intervento di isterectomia. Conclusioni: l'applicazioni di indicazioni piu' selettive all’esecuzione del cerchiaggio hanno determinato una forte riduzione dell’utilizzo da tale procedura. L'aumento dell'utilizzo del cerchiaggio d’emergenza e' legato al fatto che rappresenta l’ultima chance per convertire un aborto inevitabile in un parto di neonato vivo in casi estremi.
Resumo:
Introduzione: La malattia mani-piedi-bocca è una patologia infettiva tipica della prima infanzia causata dagli enterovirus, in particolare i sierotipi Coxsackievirus A16 ed Enterovirus 71. A partire dal 2008, ne è stata descritta un’epidemia da Coxsackievirus A6, in genere accompagnata da febbre elevata e che si distingue per lo sviluppo di piccole vescicole che progrediscono a lesioni vescicolo-bollose e a bolle vere e proprie. Inoltre, nei pazienti affetti da dermatite atopica, le lesioni tendono a localizzarsi sulle aree eczematose. Abbiamo quindi svolto uno studio osservazionale prospettico per descrivere le caratteristiche cliniche delle forme atipiche di malattia mani-piedi-bocca. Metodi: Sono stati arruolati i pazienti affetti da una forma atipica di malattia mani-piedi-bocca giunti consecutivamente presso l’Ambulatorio di Dermatologia Pediatrica del Policlinico S.Orsola-Malpighi di Bologna tra gennaio 2012 e febbraio 2014. Abbiamo valutato distribuzione, tipologia ed estensione delle lesioni. In un gruppo di pazienti è stata inoltre eseguita l’identificazione virale sul fluido vescicolare. Risultati: Abbiamo arruolato 47 pazienti (68% maschi) con un’età mediana di 22 mesi. Sono stati individuati 3 aspetti clinici principali: 1) forma acrale (distribuzione delle lesioni prevalentemente acrale), nel 62% dei soggetti; 2) eczema coxsackium (lesioni localizzate su aree eczematose), nel 23% dei soggetti; 3) forma diffusa (estensione delle lesioni al tronco), nel 15% dei soggetti. Inoltre, nell’80% circa dei pazienti si riscontravano macule purpuriche acrali, circa la metà dei pazienti aveva lesioni con aspetto purpurico e il 72% un interessamento dei glutei. In 9 su 11 soggetti genotipizzati è stato isolato il Coxsackievirus A6. Conclusioni: Questo studio ha permesso di descrivere tre fenotipi di malattia mani-piedi-bocca atipica, che deve essere correttamente identificata al fine di non porre diagnosi errate quali varicella, eczema herpeticum, vasculiti, impetigine, e di potere così procedere ad una gestione appropriata della patologia.
Resumo:
La sintesi di catalizzatori Rh-Al2O3 e Pt-Al2O3 è stata condotta per via elettrochimica su dei supporti con diverse geometrie (lastrine, schiume) e diversa composizione (Pt e FeCrAlY). Per l’elettrosintesi dei precursori dei catalizzatori sono state utilizzate due diversi tipi di celle elettrochimiche (a singolo comparto, nella quale il moto degli elettroliti segue un regime di tipo diffusivo, e cella in flusso a comparti separati). Per il catalizzatore Rh-Al2O3 sono stati sintetizzati i precursori composti da idrossidi di Al3+ e Rh3+. Per il catalizzatore Pt-Al2O3 sono state condotte sia delle sintesi mono-stadio di nanoparticelle di Pt sul supporto ricoperto di Al2O3 che delle sintesi cercando di inglobare le nanoparticelle di Pt in un film di idrossido di alluminio. La caratterizzazione morfologica e composizionale della superficie del supporto metallico, ha permesso di studiare l’influenza delle varie condizioni di sintesi sulla qualità del ricoprimento ottenuto tramite elettrosintesi. I migliori risultati in termini di ricoprimento del supporto e omogeneità dello strato catalitico depositato, sono stati ottenuti tramite l’utilizzo della cella in flusso e confrontando i campioni ottenuti con delle schiume ricoperte di allumina tramite washcoating, sono state osservate le principali differenze tra i due metodi. L’elettrosintesi dei precursori del catalizzatore Rh-Al2O3 ha portato ad uno scarso ricoprimento ma la fattibilità del processo è stata dimostrata tramite l’utilizzo di un elettrodo di Pt. Per il catalizzatore Pt-Al2O3, lo scarso controllo nella grandezza e distribuzione delle nanoparticelle di Pt elettrosintetizzate sulle schiume ricoperte di Al2O3 ha dimostrato l’esigenza di un metodo alternativo di sintesi. Questo prevede l’incorporazione delle nanoparticelle di Pt durante l’elettrosintesi del film di idrossido di alluminio. Utilizzando un elettrodo di Pt la fattibilità del processo è stata dimostrata, tuttavia il metodo richiede dei miglioramenti, in termini di ricoprimento e distribuzione delle particelle se condotto su schiume.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.
Resumo:
La Tesi presenta uno studio sulla distribuzione dei raggi di Einsten compiuta su campioni di ammassi simulati. Il codice utilizzato, MOKA, consente la costruzione di vasti campioni di ammassi in differenti cosmologie e con differenti parametri strutturali. I risultati ottenuti sono stati confrontati con quelli ottenuti dalla simulazione cosmologica N-body ad alta risoluzione MUSIC. Sono stati quindi prodotti campioni di ammassi per sette valori diversi della normalizzazione dello spettro di potenza e 7 valori diversi del parametro di densità della materia mantenendo la geometria piatta