960 resultados para galassie,formazione,modelli,merging,collasso monolitico
Resumo:
Nello studio dell’universo su larga scala, piu` precisamente osservando come le galassie sono distribuite in esso, gli astronomi hanno potuto riscontrare che queste raramente si trovano isolate nello spazio. Sono infatti piu` frequentemente legate tra loro gravitazionalmente in gruppi o in ammassi di galassie. Il presente elaborato approfondisce le componenti, i criteri di classificazione e nello specifico le proprieta` che caratterizzano tali ammassi. In ultima analisi vengono presi in considerazione i principali processi di radiazione che hanno permesso di conoscere e studiare le strutture che definiscono questi sistemi.
Resumo:
Le galassie sono gli elementi fondamentali dell’Universo: alcune hanno una struttura abbastanza semplice, altre, invece, sono sistemi complessi costituiti prevalentemente da stelle, nubi di gas e polveri. Protagoniste di questo elaborato sono le galassie ellittiche che verranno analizzate dapprima dal punto di vista morfologico, introducendo brevemente la sequenza proposta da Hubble per la classificazione di tutte le galassie, per poi passare ad una analisi di tipo fotometrico attraverso le leggi fondamentali che valgono per le galassie ellittiche. Infine, nell’ultimo capitolo, che rappresenta l’anima di questo testo, si tratteranno i principali meccanismi che partecipano all’ emissione della radiazione elettromagnetica nella banda ottica, X e radio.
Resumo:
La distribuzione del valore del raggio di core rispetto all’età cronologica per gli ammassi globulari della Grande Nube di Magellano (LMC) appare alquanto peculiare, poiché tutti gli ammassi più giovani sono caratterizzati da un raggio di core limitato, mentre quelli più vecchi presentano un ampio intervallo di valori. Questo comportamento, noto come “size-age conundrum”, è stato recentemente attribuito ad un diverso livello di evoluzione dinamica degli ammassi più vecchi, con i sistemi con valori elevati del raggio di core dinamicamente più giovani rispetto a quelli con configurazioni più compatte. È attesa dunque un’anticorrelazione tra il valore del raggio di core e l’età dinamica. Questo lavoro di tesi è stato indirizzato allo studio del sistema NGC1835, un ammasso globulare vecchio e compatto della LMC in grado di fornire un’ulteriore conferma del nuovo scenario. Grazie ad immagini ad alta risoluzione acquisite tramite HST è stato possibile studiarne la popolazione stellare, la struttura, l’età cronologica e il grado di evoluzione dinamica. La stima della sua età cronologica (t=12.5±1 Gyr) ha confermato che si tratta di un sistema stellare molto antico, che si è formato all’epoca di formazione della LMC. Il profilo di densità e di brillanza superficiale sono stati utilizzati per derivare le principali caratteristiche strutturali dell’ammasso, come il raggio di core rc e il raggio a metà massa rh. Infine l’età dinamica è stata calcolata tramite il parametro A+, che misura il grado di segregazione radiale delle Blue Straggler Stars. NGC1835 è risultato l’ammasso più compatto (rc=3.60’’) e dinamicamente evoluto (A+=0.28±0.04) finora studiato nella LMC e, inserendosi con precisione all’interno dell’anticorrelazione aspettata tra il raggio di core e A+, ha ulteriormente supportato lo scenario secondo cui il livello di compattezza di un sistema dipende dal suo stadio di evoluzione dinamica.
Resumo:
Questa tesi tratta di alcuni semplici modelli matematici, formulati in termini di equazioni differenziali ordinarie, riguardanti la crescita dei tumori e possibili trattamenti per contrastarla. Nel primo capitolo viene data un'introduzione sulla stabilità dei punti di equilibrio di sistemi di equazioni differenziali ordinarie, mentre nel secondo capitolo vengono affrontati e confrontati tre modelli ad una equazione: il modello esponenziale, il modello logistico e il modello di Gompertz. Si introducono poi due modelli a due equazioni differenziali: uno riguardante l'angiogenesi a due compartimenti e l'altro riguardante un modello lineare-quadratico applicato alla radiobiologia. Viene fatto poi un accenno ad un modello con equazioni alle derivate parziali. Infine, nell'ultimo capitolo, viene introdotto un modello a tre equazioni differenziali ordinarie a tre compartimenti in cui viene studiata l'interazione tra tre popolazioni di cellule: cellule immunitarie effettrici, cellule ospiti e cellule tumorali.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Le tempistiche e le richieste industriali obbligano sempre di più i progettisti ad uno studio predittivo delle problematiche che si possono incontrare in fare produttiva. In ambito strutturale questo è già da diversi anni la norma per componenti realizzati con tecnologia tradizionale. In ambito termico, invece, si procede ancora troppo spesso per tentativi seguendo l’esperienza del singolo. Per questo motivo, è necessario uno studio approfondito e un metodo per caratterizzare i transitori termici. Per fare ciò è necessario introdurre un modello semplificativo attraverso l’uso su un provino cilindrico. Questa semplice geometria permette di mettere in relazione la soluzione analitica, la soluzione approssimata agli elementi finiti e la soluzione sperimentale. Una volta ottenuti questi risultati sarà poi possibile, mantenendo invariati il ciclo termico e le caratteristiche termo-strutturali del materiale, modificare a piacimento la geometria per analizzare un qualsiasi componente. Questo approccio permette quindi di realizzare delle analisi FEM sui componenti da stampare e di predirne i gradienti termici e le deformazioni a partire dalle caratteristiche del materiale, della geometria e del ciclo termico a cui sono sottoposti. Permettendo così di valutare in modo preventivo e predittivo problematiche di stabilità geometrica e strutturale.
Resumo:
Oggigiorno, il termine Digital Twin è ampiamente diffuso. Questo concetto si riferisce a un paradigma utilizzato per la prima volta nel 1970, in una missione spaziale statunitense. Un Digital Twin è un gemello digitale, un modello che simula e raccoglie i dati di un oggetto o essere vivente del mondo reale. I Digital Twin sono sviluppati in molti settori e aziende. Tra queste troviamo Fameccanica, la quale ha costruito dei modelli digitali dei propri macchinari per migliorare la formazione dei manutentori e la produzione, Chevron che ha ridotto i costi di manutenzione, General Elettric che associa a ogni turbina venduta un Digital Twin per mantenerla controllata grazie a dei sensori posti sulla turbina stessa. Risulta importante utilizzare i Digital Twin in ambito medico per tracciare la salute del paziente, simulare eventuali interventi e gestire gli ospedali. In particolare, le strutture ospedaliere dell’Emilia Romagna non sono ottimizzate dal punto di vista economico. Infatti, la sala operatoria rappresenta la principale spesa che AUSL Romagna deve affrontare ma, attualmente, l’organizzazione degli interventi non è efficiente. Pertanto, in seguito a problemi sollevati dai referenti di AUSL Romagna, è stato deciso di realizzare un progetto per la tesi riguardante questo ambito. Per risolvere i problemi riscontrati si realizzerà un prototipo di un Digital Twin delle sale operatorie per poter minimizzare i costi. Grazie alla raccolta, in real-time, dei dati memorizzati nel gemello digitale, si possono pianificare al meglio gli interventi in base alla disponibilità delle sale operatorie. Il progetto assume dimensioni considerevoli per questo motivo è stato suddiviso in tre moduli: una componente che si occupa di standardizzare i dati, un Digital Twin che mantiene i dati relativi allo stato attuale delle sale operatorie e un’interfaccia utente che si occupa di visualizzare i dati ai medici.
Resumo:
Questo lavoro si propone di implementare tre scenari di compromissione informatica tramite l'ausilio della strumentazione fornita da Ansible e Docker. Dopo una prima parte teorica di presentazione delle più recenti vulnerabilità/compromissioni informatiche, si passa all'illustrazione degli strumenti e dell'architettura degli scenari, anche tramite l'ausilio di codice. Tramite la funzione UNIX time si effettua l'analisi di diverse tecniche di distribuzione, dimostrando come l'automazione abbia effettivi e seri vantaggi rispetto ad una continua implementazione manuale, principalmente da un punto di vista temporale e computazionale.
Resumo:
Descrizione, implementazione in Python e valutazione di modelli di Machine Learning e di tutte le sue fasi di Preprocessing, EDA, Training, Test e Evaluation, per valutare la qualità del vino attraverso le sue caratteristiche fisico-chimiche.
Resumo:
Nel presente lavoro di tesi viene selezionato e analizzato un campione di galassie passive estratte dalla survey VANDELS, con cui condurre uno studio cosmologico basato sul metodo dei cronometri cosmici. Tale metodo rappresenta una sonda cosmologica non standard, che consente di misurare il parametro di Hubble in maniera indipendente dalla cosmologia valutando l’invecchiamento di una popolazione di galassie molto massive e in evoluzione passiva in un dato intervallo di redshift. Per applicare il metodo viene selezionato un campione di cronometri cosmici incrociando diversi criteri complementari, sia fotometrici che spettroscopici, tali da minimizzare la contaminazione da formazione stellare attiva. Il campione ottenuto ha ⟨log(M⋆/M⊙)⟩=10.86±0.03, ⟨log(sSFR/yr−1)⟩=-11.9±0.1 e ⟨EW[OII]⟩=3.3±0.2 Å. Dallo studio delle proprietà spettroscopiche, in particolare degli indici sensibili all’età, esso mostra un progressivo invecchiamento al diminuire del redshift ed evidenza di mass-downsizing. Per la stima delle età si adotta la tecnica del full-spectral fitting, sia sugli spettri che sulla fotometria disponibili, utilizzando il codice Bagpipes. Dai risultati del fit emerge che le galassie individuate hanno, come atteso, metallicità mediamente sotto-solari (⟨Z/Z⊙⟩=0.44±0.01), bassa estinzione da polvere (⟨AV,dust⟩=0.43±0.02 mag) e una fase di formazione stellare breve (⟨τ⟩=0.28±0.02 Gyr). A partire da questi viene costruita la relazione età-redshift mediana per il campione finale di 39 galassie, esplorandone la robustezza con diverse assunzioni di prior e binnaggio. Fittata con un modello fΛCDM, essa permette di ricavare una stima per la costante di Hubble pari a H0 = 67^+14_−15 km/s/Mpc. Infine, con la stessa relazione si applica il metodo dei cronometri cosmici, ottenendo una nuova stima del parametro di Hubble, H(z=1.26) = 135±62 km/s/Mpc. Nell’errore si è tenuto conto anche degli effetti sistematici introdotti dalla scelta del binning e della SFH nel modello di fit.
Resumo:
In questa tesi si affronta analiticamente il problema della stabilità di modelli a più specie interagenti, in campo epidemiologico, per la diffusione ed il controllo di infezioni da virus. Vengono considerati non solo modelli governati da Sistemi Dinamici, ma anche modelli parabolici del tipo Diffusione e Reazione. Partendo dal modello pioneristico SIR di Kermak-McKendrick si affrontano in modo approfondito tutti gli aspetti matematici che permettono di prevenire e controllare la formazione e la gravità di una possibile epidemia. Il modello viene poi articolato con l'aggiunta di considerazioni sulla variazione demografica della popolazione, indicato per questo motivo con il termine endemico. Si generalizza poi questo modello a due possibili applicazioni, includendo nella prima gli effetti della vaccinazione, ottenendo così il nuovo sistema dinamico SIRV. La seconda rappresenta invece uno studio avvenuto agli inizi dell'epidemia da COVID-19, quando i vaccini non erano ancora disponibili. Successivamente viene presentato il recente studio di Bellomo, estensione del modello prototipo per la diffusione di virus, un sistema di tipo Diffusione-Reazione con equazione di tipo diffusione-drift, in cui vengono connessi due aspetti importanti: la propagazione di virus e la chemotassi, in forte analogia con il modello SIR e derivante dalla logica del modello pioneristico di Keller-Segel. Infine, a completamento dello studio analitico, vengono proposti alcuni strumenti dell'analisi numerica, utilizzando l'ambiente MATLAB sul classico modello SIR e su altri due modelli che lo generalizzano per tener conto in un primo tempo della diffusione spaziale della coppia SI e poi solo di S, ma con effetto drift, guidato da I.
Resumo:
In questa tesi viene discusso il ruolo delle equazioni di diffusione e reazione e delle loro soluzioni di tipo traveling waves in alcuni modelli matematici per le scienze biomediche. Prima di tutto, viene analizzata l’equazione di Fisher-Kolmogorov-Petrovskii-Piskunov, che costituisce il prototipo di pdes di diffusione e reazione ad una specie. In seguito, si determinano condizioni per la nascita di instabilità di Turing nei modelli a due specie interagenti. La nostra attenzione si rivolge poi ai sistemi di diffusione e reazione con termini sorgente degeneri e caratterizzati dal possedere una famiglia di stati di equilibrio che dipende in modo continuo da un insieme di parametri. Si studiano gli effetti che una perturbazione ampia e fortemente localizzata di una delle popolazioni ha sulle soluzioni di tali sistemi e si ricavano condizioni affinché si generino traveling waves. Da ultimo, come applicazione degli studi effettuati, si analizza il modello di Tuckwell-Miura per la cortical spreading depression, un fenomeno in cui un’onda di depolarizzazione si propaga nelle cellule nervose della corteccia cerebrale.
Resumo:
L’obiettivo del presente lavoro di tesi è quello di derivare la valutazione di un Total Return Swap (TRS) utilizzando la modellistica stocastica che sta alla base dello studio del pricing di derivati finanziari. I contratti di tipo swap, la cui origine è collocata intorno agli anni ’70, prevedono lo scambio di flussi tra due parti, definiti sulla base del sottostante. In particolare, un Total Return Swap è un derivato finanziario che prevede lo scambio periodico di pagamenti definiti rispetto alla gamba di performance del sottostante e alla gamba di interesse. L’elaborato è composto da un’introduzione alle nozioni matematiche preliminari alla costruzione di un modello di mercato utile a derivare il pricing di un derivato (i.e. Teoria di non arbitraggio, esistenza di una misura martingala e le condizioni sotto le quali questa è unica). Nel secondo capitolo, vengono presentate le definizioni finanziarie necessarie alla descrizione di tali prodotti (e.g. Tassi d’interesse spot e Tassi forward). Nel corso della tesi viene presentata una rassegna della modellistica per l’evoluzione dei tassi descritti da dinamiche di volta in volta più complesse, e.g. Modello di Vasicek, modello di Dothan e approccio di Heath-Jarrow-Morton (HJM). In tale contesto, sono state derivate le formule di valutazione ad Accrual e a Net Present Value (NPV) per il TRS sfruttando la teoria di non arbitraggio, la cui principale differenza diviene dal considerare o meno l’attualizzazione tramite il fattore di sconto stocastico dei flussi di cassa previsti tra le due parti del contratto. Nell’ultimo capitolo, viene presentata un’analisi delle due modalità di pricing effettuata su due TRS rispettivamente su basket di azioni e basket di indici.
Resumo:
Tutte le informazioni riguardanti le proprietà fisiche delle stelle derivano più o meno direttamente dallo studio dei loro spettri. La luce, infatti, contiene informazioni estremamente dettagliate sulla sorgente da cui è stata prodotta. In particolare, lo studio dell’intensità delle righe spettrali di assorbimento permette di ricavare informazioni su composizione, temperatura, abbondanze chimiche, movimenti, pressione e campi ma- gnetici delle stelle. La forma delle righe, inoltre, contiene informazioni sui processi che avvengono nelle atmosfere stellari. L’elaborato è suddiviso in tre sezioni: nel primo capitolo verranno descritti i meccanismi di interazione radiazione-materia alla base della formazione delle righe spettrali. Nel secondo capitolo sarà analizzato il fenomeno dello shift che caratterizza gli spettri stellari. Nel terzo capitolo, infine, si tratterà di tutti quei processi che contribuiscono all’allargamento delle righe spettrali.