875 resultados para galassie ellittiche, gas freddo, polvere, simulazioni numeriche, AGN feedback
Resumo:
I modelli su reticolo con simmetrie SU(n) sono attualmente oggetto di studio sia dal punto di vista sperimentale, sia dal punto di vista teorico; particolare impulso alla ricerca in questo campo è stato dato dai recenti sviluppi in campo sperimentale per quanto riguarda la tecnica dell’intrappolamento di atomi ultrafreddi in un reticolo ottico. In questa tesi viene studiata, sia con tecniche analitiche sia con simulazioni numeriche, la generalizzazione del modello di Heisenberg su reticolo monodimensionale a simmetria SU(3). In particolare, viene proposto un mapping tra il modello di Heisenberg SU(3) e l’Hamiltoniana con simmetria SU(2) bilineare-biquadratica con spin 1. Vengono inoltre presentati nuovi risultati numerici ottenuti con l’algoritmo DMRG che confermano le previsioni teoriche in letteratura sul modello in esame. Infine è proposto un approccio per la formulazione della funzione di partizione dell’Hamiltoniana bilineare-biquadratica a spin-1 servendosi degli stati coerenti per SU(3).
Resumo:
L'energia solare rientra nel gruppo delle energie rinnovabili, ovvero che provengono da una fonte il cui utilizzo attuale non ne pregiudica la disponibilità nel futuro. L'energia solare ha molti vantaggi, poiché è inesauribile ed è una risorsa d'immediata disponibilità perché giunge attraverso i raggi del sole. La conversione fotovoltaica sfrutta il meccanismo di generazione di carica elettrica prodotto dall'interazione della radiazione luminosa su di un materiale semiconduttore. La necessità di creare energia riducendo al minimo l'impatto ambientale ed il contemporaneo aumento del prezzo di fonti fossili come ad esempio il petrolio ed il carbone (senza trascurare il fatto che le riserve di essi sono, di fatto, esauribili) ha portato un aumento considerevole della produzione di energia elettrica tramite conversione fotovoltaica. Allo stato attuale dell'economia e dei mercati, sebbene il settore fotovoltaico sia in forte crescita, non è esente da un parametro che ne descrive le caratteristiche economiche ed energetiche, il cosiddetto rapporto costo/efficienza. Per efficienza, si intende la quantità di energia elettrica prodotta rispetto alla potenza solare incidente per irraggiamento, mentre per costo si intende quello sostenuto per la costruzione della cella. Ridurre il rapporto costo/efficienza equivale a cercare di ottenere un'efficienza maggiore mantenendo inalterati i costi, oppure raggiungere una medio-alta efficienza ma ridurre in maniera significativa la spesa di fabbricazione. Quindi, nasce la necessità di studiare e sviluppare tecnologie di celle solari all'avanguardia, che adottino accorgimenti tecnologici tali per cui, a parità di efficienza di conversione, il costo di produzione della cella sia il più basso possibile. L'efficienza dei dispositivi fotovoltaici è limitata da perdite ottiche, di ricombinazione di carica e da resistenze parassite che dipendono da diversi fattori, tra i quali, le proprietà ottiche e di trasporto di carica dei materiali, l'architettura della cella e la capacità di intrappolare la luce da parte del dispositivo. Per diminuire il costo della cella, la tecnologia fotovoltaica ha cercato di ridurre il volume di materiale utilizzato (in genere semiconduttore), dal momento in cui si ritiene che il 40% del costo di una cella solare sia rappresentato dal materiale. Il trend che questo approccio comporta è quello di spingersi sempre di più verso spessori sottili, come riportato dalla International Technology Roadmap for Photovoltaic, oppure ridurre il costo della materia prima o del processo. Tra le architetture avanzate di fabbricazione si analizzano le Passivated Emitter and Rear Cell-PERC e le Metal Wrap Through-MWT Cell, e si studia, attraverso simulazioni numeriche TCAD, come parametri geometrici e di drogaggio vadano ad influenzare le cosiddette figure di merito di una cella solare.
Resumo:
Uno dei più importanti campi di ricerca che coinvolge gli astrofisici è la comprensione della Struttura a Grande Scala dell'universo. I principi della Formazione delle Strutture sono ormai ben saldi, e costituiscono la base del cosiddetto "Modello Cosmologico Standard". Fino agli inizi degli anni 2000, la teoria che spiegava con successo le proprietà statistiche dell'universo era la cosiddetta "Teoria Perturbativa Standard". Attraverso simulazioni numeriche e osservazioni di qualità migliore, si è evidenziato il limite di quest'ultima teoria nel descrivere il comportamento dello spettro di potenza su scale oltre il regime lineare. Ciò spinse i teorici a trovare un nuovo approccio perturbativo, in grado di estendere la validità dei risultati analitici. In questa Tesi si discutono le teorie "Renormalized Perturbation Theory"e"Multipoint Propagator". Queste nuove teorie perturbative sono la base teorica del codice BisTeCca, un codice numerico originale che permette il calcolo dello spettro di potenza a 2 loop e del bispettro a 1 loop in ordine perturbativo. Come esempio applicativo, abbiamo utilizzato BisTeCca per l'analisi dei bispettri in modelli di universo oltre la cosmologia standard LambdaCDM, introducendo una componente di neutrini massicci. Si mostrano infine gli effetti su spettro di potenza e bispettro, ottenuti col nostro codice BisTeCca, e si confrontano modelli di universo con diverse masse di neutrini.
Resumo:
In questa tesi abbiamo studiato il comportamento delle entropie di Entanglement e dello spettro di Entanglement nel modello XYZ attraverso delle simulazioni numeriche. Le formule per le entropie di Von Neumann e di Renyi nel caso di una catena bipartita infinita esistevano già, ma mancavano ancora dei test numerici dettagliati. Inoltre, rispetto alla formula per l'Entropia di Entanglement di J. Cardy e P. Calabrese per sistemi non critici, tali relazioni presentano delle correzioni che non hanno ancora una spiegazione analitica: i risultati delle simulazioni numeriche ne hanno confermato la presenza. Abbiamo inoltre testato l'ipotesi che lo Schmidt Gap sia proporzionale a uno dei parametri d'ordine della teoria, e infine abbiamo simulato numericamente l'andamento delle Entropie e dello spettro di Entanglement in funzione della lunghezza della catena di spin. Ciò è stato possibile solo introducendo dei campi magnetici ''ad hoc'' nella catena, con la proprietà che l'andamento delle suddette quantità varia a seconda di come vengono disposti tali campi. Abbiamo quindi discusso i vari risultati ottenuti.
Resumo:
Il progetto di tesi riguarda principalmente la progettazione di moderni sistemi wireless, come 5G o WiGig, operanti a onde millimetriche, attraverso lo studio di una tecnica avanzata detta Beamforming, che, grazie all'utilizzo di antenne direttive e compatte, permette di superare limiti di link budget dovuti alle alte frequenze e introdurre inoltre diversità spaziale alla comunicazione. L'obiettivo principale del lavoro è stato quello di valutare, tramite simulazioni numeriche, le prestazioni di alcuni diversi schemi di Beamforming integrando come tool di supporto un programma di Ray Tracing capace di fornire le principali informazioni riguardo al canale radio. Con esso infatti è possibile sia effettuare un assessment generale del Beamforming stesso, ma anche formulare i presupposti per innovative soluzioni, chiamate RayTracing-assisted- Beamforming, decisamente promettenti per futuri sviluppi così come confermato dai risultati.
Resumo:
La materia ordinaria copre soli pochi punti percentuali della massa-energia totale dell'Universo, che è invece largamente dominata da componenti “oscure”. Il modello standard usato per descriverle è il modello LambdaCDM. Nonostante esso sembri consistente con la maggior parte dei dati attualmente disponibili, presenta alcuni problemi fondamentali che ad oggi restano irrisolti, lasciando spazio per lo studio di modelli cosmologici alternativi. Questa Tesi mira a studiare un modello proposto recentemente, chiamato “Multi-coupled Dark Energy” (McDE), che presenta interazioni modificate rispetto al modello LambdaCDM. In particolare, la Materia Oscura è composta da due diversi tipi di particelle con accoppiamento opposto rispetto ad un campo scalare responsabile dell'Energia Oscura. L'evoluzione del background e delle perturbazioni lineari risultano essere indistinguibili da quelle del modello LambdaCDM. In questa Tesi viene presentata per la prima volta una serie di simulazioni numeriche “zoomed”. Esse presentano diverse regioni con risoluzione differente, centrate su un singolo ammasso di interesse, che permettono di studiare in dettaglio una singola struttura senza aumentare eccessivamente il tempo di calcolo necessario. Un codice chiamato ZInCo, da me appositamente sviluppato per questa Tesi, viene anch'esso presentato per la prima volta. Il codice produce condizioni iniziali adatte a simulazioni cosmologiche, con differenti regioni di risoluzione, indipendenti dal modello cosmologico scelto e che preservano tutte le caratteristiche dello spettro di potenza imposto su di esse. Il codice ZInCo è stato usato per produrre condizioni iniziali per una serie di simulazioni numeriche del modello McDE, le quali per la prima volta mostrano, grazie all'alta risoluzione raggiunta, che l'effetto di segregazione degli ammassi avviene significativamente prima di quanto stimato in precedenza. Inoltre, i profili radiale di densità ottenuti mostrano un appiattimento centrale nelle fasi iniziali della segregazione. Quest'ultimo effetto potrebbe aiutare a risolvere il problema “cusp-core” del modello LambdaCDM e porre limiti ai valori dell'accoppiamento possibili.
Resumo:
Argomento di questo lavoro di tesi è l’accelerazione di ioni tramite interazione laser-plasma. Nel particolare, uno studio teorico sui principali meccanismi di accelerazione e una campagna di simulazioni numeriche volte ad analizzare gli effetti sullo spettro energetico dei protoni accelerati dovuti al preplasma sono stati svolti. Quando laser ad impulsi brevi, ad alta intensità e a contrasto finito, interagiscono con un campione solido è presente un preimpulso che causa la formazione di una regione di preplasma antistante il bersaglio che può rendere più efficace l’accelerazione dei protoni. Vengono dunque introdotti nel primo capitolo i concetti e le tecniche base per studiare a livello teorico e numericamente le interazioni laser-plasma. Nel secondo capitolo sono trattati analiticamente alcuni meccanismi di accelerazione di ioni. Nel terzo ed ultimo capitolo vengono descritti gli effetti di preplasma ed esposti risultati di simulazioni PIC volte a trovare i parametri ottimali per ottenere ioni più energetici.
Resumo:
La determinazione del modulo di Young è fondamentale nello studio della propagazione di fratture prima del rilascio di una valanga e per lo sviluppo di affidabili modelli di stabilità della neve. Il confronto tra simulazioni numeriche del modulo di Young e i valori sperimentali mostra che questi ultimi sono tre ordini di grandezza inferiori a quelli simulati (Reuter et al. 2013). Lo scopo di questo lavoro è stimare il modulo di elasticità studiando la dipendenza dalla frequenza della risposta di diversi tipi di neve a bassa densità, 140-280 kg m-3. Ciò è stato fatto applicando una compressione dinamica uniassiale a -15°C nel range 1-250 Hz utilizzando il Young's modulus device (YMD), prototipo di cycling loading device progettato all'Istituto per lo studio della neve e delle valanghe (SLF). Una risposta viscoelastica della neve è stata identificata a tutte le frequenze considerate, la teoria della viscoelasticità è stata applicata assumendo valida l'ipotesi di risposta lineare della neve. Il valore dello storage modulus, E', a 100 Hz è stato identificato come ragionevolmente rappresentativo del modulo di Young di ciascun campione neve. Il comportamento viscoso è stato valutato considerando la loss tangent e la viscosità ricavata dai modelli di Voigt e Maxwell. Il passaggio da un comportamento più viscoso ad uno più elastico è stato trovato a 40 Hz (~1.1•10-2 s-1). Il maggior contributo alla dissipazione è nel range 1-10 Hz. Infine, le simulazioni numeriche del modulo di Young sono state ottenute nello stesso modo di Reuter et al.. La differenza tra le simulazioni ed i valori sperimentali di E' sono, al massimo, di un fattore 5; invece, in Reuter et al., era di 3 ordini di grandezza. Pertanto, i nostri valori sperimentali e numerici corrispondono meglio, indicando che il metodo qui utilizzato ha portato ad un miglioramento significativo.
Resumo:
Il compressed sensing è un’innovativa tecnica per l’acquisizione dei dati, che mira all'estrazione del solo contenuto informativo intrinseco di un segnale. Ciò si traduce nella possibilità di acquisire informazione direttamente in forma compressa, riducendo la quantità di risorse richieste per tale operazione. In questa tesi è sviluppata un'architettura hardware per l'acquisizione di segnali analogici basata sul compressed sensing, specializzata al campionamento con consumo di potenza ridotto di segnali biomedicali a basse frequenze. Lo studio è svolto a livello di sistema mediante l'integrazione della modulazione richiesta dal compressed sensing in un convertitore analogico-digitale ad approssimazioni successive, modificandone la logica di controllo. Le prestazioni risultanti sono misurate tramite simulazioni numeriche e circuitali. Queste confermano la possibilità di ridurre la complessità hardware del sistema di acquisizione rispetto allo stato dell'arte, senza alterarne le prestazioni.
Resumo:
Uno dei maggiori obiettivi della ricerca nel campo degli acceleratori basati su interazione laser-plasma è la realizzazione di una sorgente compatta di raggi x impulsati al femtosecondo. L’interazione tra brevi impulsi laser e un plasma, a energie relativistiche, ha recentemente portato a una nuova generazione di sorgenti di raggi x con le proprietà desiderate. Queste sorgenti, basate sulla radiazione emessa da elettroni accelerati nel plasma, hanno in comune di essere compatte, produrre radiazione collimata, incoerente e impulsata al femtosecondo. In questa tesi vengono presentati alcuni metodi per ottenere raggi x da elettroni accelerati per interazione tra laser e plasma: la radiazione di betatrone da elettroni intrappolati e accelerati nel cosiddetto “bubble regime”, la radiazione di sincrotrone da elettroni posti in un ondulatore convenzionale con lunghezza dell’ordine dei metri e la radiazione ottenuta dal backscattering di Thomson. Vengono presentate: la fisica alla base di tali metodi, simulazioni numeriche e risultati sperimentali per ogni sorgente di raggi x. Infine, viene discussa una delle più promettenti applicazioni fornite dagli acceleratori basati su interazione tra laser e plasma: il Free-electron laser nello spettro dei raggi x, capace di fornire intensità 108-1010 volte più elevate rispetto alle altre sorgenti.
Resumo:
L’installazione di smorzatori viscosi sulle strutture permette di dissipare l’energia che il sisma trasmette, senza provocare danni o rotture degli elementi strutturali principali. Questi dispositivi sono stati l'oggetto di numerosi lavori di ricerca dal 1980 fino ad oggi e l'efficacia nel mitigare gli effetti dell’azione sismica su strutture edilizie è stata ampiamente dimostrata. La maggior parte delle teorie scientifiche per la progettazione e l'ottimizzazione degli smorzatori si basano sofisticati algoritmi, portando talvolta a complessi procedure. L'applicazione di tali algoritmi richiede spesso competenze computazionali e di tempo eccessive. Il fine della tesi è quello di proporre un metodo pratico, cioè diretto e immediato per aiutare gli ingegneri per effettuare analisi sismiche su strutture intelaiate dotate di smorzatori viscosi e di dimensionare tali dispositivi. Tale metodo è stato l’oggetto del lavoro di ricerca scientifica trattato nell’articolo: “Equivalent Static Analyses of framed structures with added viscous dampers” di Palermo et al., 2015. Si riesce così ad estendere così il concetto di analisi statica equivalente anche per strutture dotate di smorzatori viscosi, definendo in maniera intuitiva sia le configurazioni di idealizzazione della strutture durante il sisma sia l’ idealizzazione dell’effetto del sisma sulla struttura. In questi anni di lavoro di ricerca, sono stati proposti vari metodi per il dimensionamento degli smorzatori viscosi. Tra questi, il prof. Ing. Silvestri (Silvestri et al., 2010) ha proposto un approccio progettuale diretto, chiamato "five step procedure” che mira a guidare l'ingegnere professionista, dalla scelta del target di prestazioni alle identificazioni della caratteristiche meccaniche di smorzatori viscosi trovabili in commercio. La procedura originale (Silvestri et al., 2010, Silvestri et al., 2011, Palermo et al., 2013), anche se per lo più basata su espressioni analitiche, richiede ancora lo sviluppo di analisi numeriche Time-History di modelli FEM, al fine di valutare le forze massime negli smorzatori aggiunti. Verrà spiegato e proposto un metodo semplificato (“Direct five step procedure for the dimensioning of added viscous dampers” Palermo et al., 2015) che consente ottenere direttamente, tramite una semplice formula, le forze massime degli smorzatori (spesso un parametro chiave della valutazione del costo degli smorzatori), senza eseguire simulazioni numeriche. Infine, si è applicato il metodo semplificato proposto di analisi statica equivalente per strutture equipaggiate di smorzatori viscosi ad un edificio reale.
Resumo:
In questo lavoro si parla di un particolare comportamento emergente nei sistemi complessi: il flocking. Dopo aver dato una panoramica generale di come sia stato affrontato finora lo studio della formazione degli stormi, vengono portati come esempio un modello matematico e uno studio empirico particolare, il quale fonda le basi del flocking su un’interazione topologica. Il modello matematico, basato su un’interazione metrica, viene dapprima presentato, cercando di darne una parziale spiegazione tramite le proprietà delle matrici laplaciane, per poi essere testato attraverso delle simulazioni numeriche. Lo studio empirico, invece, viene presentato nei dettagli fornendo risultati e ipotesi atte a spiegarli. Infine prendendo spunto da questi due lavori, nell’ultima parte vengono posti a confronto due modelli, uno metrico e uno topologico, tramite simulazioni al calcolatore. L’esito di queste simulazioni conferma le ipotesi avanzate per spiegare i risultati empirici.
Resumo:
La tesi tratta le tecnologie radiomobili di quinta generazione. Analizza i principali problemi, e le più importanti proposte risolutive. Elenca le più importanti idee per ottenere i requisiti richiesti nella quinta generazione di sistemi radiomobili, tra cui il x1000 nella capacità del canale, la latenza < 1ms ecc.. Affronta il dettaglio delle tecnologie proposte da HUAWEI, F-OFDM e SCMA, illustrandone i vantaggi. Si conclude con una parte di simulazioni numeriche Matlab a proposito dell'SCMA.
Resumo:
In questa tesi si studia l'angiogenesi tumorale, dapprima descrivendo i fenomeni biologici alla base della dinamica cellulare, e successivamente, dopo aver introdotto gli strumenti matematici necessari, sviluppandone un modello seguendo la letteratura esistente basato sulle equazioni differenziali stocastiche e su quelle di Fokker-Planck. Ne vengono infine realizzate simulazioni numeriche.
Resumo:
In questa tesi si propone il miglioramento sismico di un capannone in calcestruzzo armato prefabbricato a due piani a pilastri isostatici mediante l'inserimento di controventi dissipativi in acciaio con forma speciale (Crescent-Shaped-Braces). PREMESSA In primo luogo si dimostra come la struttura studiata soddisfi già i requisiti del DM 2008, sia allo SLD (spostamenti d’ interpiano) che allo SLV (elementi strutturali verificati). OBIETTIVO Migliorare le caratteristiche prestazionali di un edificio in calcestruzzo armato prefabbricato a due piani, sottoposto ad azione sismica. STRATEGIA Inserimento di dispositivi dissipativi di tipo Crescent Shaped Brace in alcune specchiature del capannone prefabbricato, in entrambe le direzioni. PROGETTAZIONE DELLA STRUTTURA RINFORZATA 1) Identificazione delle caratteristiche (rigidezza e resistenza) dei dispositivi CSB, sulla base di obiettivi scalati al livello superiore (deformabilità allo SLV e resistenza allo SLC) per il sistema «struttura + dispositivi», attraverso lo sviluppo di una procedura specifica per capannoni prefabbricati a 2 piani. 2) Progettazione dei dispositivi CSB (scelta della geometria e della sezione) 3) Verifica delle effettive prestazioni ottenute mediante simulazioni numeriche time-history