1000 resultados para galassie: evoluzione, fotometria, formazione stellare cosmica, modelli cosmologici non standard
Resumo:
Il lavoro presentato in questa Tesi si basa sul calcolo di modelli dinamici per Galassie Sferoidali Nane studiando il problema mediante l'utilizzo di funzioni di distribuzione. Si è trattato un tipo di funzioni di distribuzione, "Action-Based distribution functions", le quali sono funzioni delle sole variabili azione. Fornax è stata descritta con un'appropriata funzione di distribuzione e il problema della costruzione di modelli dinamici è stato affrontato assumendo sia un alone di materia oscura con distribuzione di densità costante nelle regioni interne sia un alone con cuspide. Per semplicità è stata assunta simmetria sferica e non è stato calcolato esplicitamente il potenziale gravitazionale della componente stellare (le stelle sono traccianti in un potenziale gravitazionale fissato). Tramite un diretto confronto con alcune osservabili, quali il profilo di densità stellare proiettata e il profilo di dispersione di velocità lungo la linea di vista, sono stati trovati alcuni modelli rappresentativi della dinamica di Fornax. Modelli calcolati tramite funzioni di distribuzione basati su azioni permettono di determinare in maniera autoconsistente profili di anisotropia. Tutti i modelli calcolati sono caratterizzati dal possedere un profilo di anisotropia con forte anisotropia tangenziale. Sono state poi comparate le stime di materia oscura di questi modelli con i più comuni e usati stimatori di massa in letteratura. E stato inoltre stimato il rapporto tra la massa totale del sistema (componente stellare e materia oscura) e la componente stellare di Fornax, entro 1600 pc ed entro i 3 kpc. Come esplorazione preliminare, in questo lavoro abbiamo anche presentato anche alcuni esempi di modelli sferici a due componenti in cui il campo gravitazionale è determinato dall'autogravità delle stelle e da un potenziale esterno che rappresenta l'alone di materia oscura.
Resumo:
Ai nostri giorni le aree costiere risultano particolarmente sensibili perché sottoposte ad alcune fonti di stress, quali la salinizzazione degli acquiferi e la naturale ed antropica modificazione del territorio costiero. Questo lavoro indaga gli effetti dell’incendio del 2012 nella Pineta costiera di Lido di Dante (Ravenna) sull’acquifero costiero superficiale. Sono stati effettuati i rilievi in campo della tavola d’acqua, della conduttitivà elettrica e del pH nei mesi di novembre 2014 e luglio 2015. I campioni di acqua sono stati prelevati grazie alla tecnologia dei minifiltri, un sistema di campionamento multilivello molto preciso e rapido. Il campionamento comprende 3 transetti di minifiltri ubicati nella zona bruciata della pineta e un transetto di controllo nella zona verde della pineta, dove la vegetazione è intatta. Dall’elaborazione grafica di questi valori sono state ottenute delle isolinee rappresentative di valori soglia per le acque dolci, salmastre, salate, a pH 7.5 tipico delle acque meteoriche e a pH 8 tipico dell’acqua di mare. I valori di conduttività elettrica rapportati alla topografia e alla tavola d’acqua mostrano la formazione di lenti di acqua dolce nella zona dove la vegetazione è scomparsa a causa dell’incendio. Acque dolci assenti nella zona verde a causa della vegetazione e della sua attività evapotraspirativa. Le isolinee ottenute dal pH spiegano invece l’effetto delle ceneri dell’incendio dilavate dalle acque meteoriche e le differenze con la zona ancora ricoperta da vegetazione. I parametri analizzati risultano determinanti nella valutazione dello stato di salute della risorsa acquifera della costiera romagnola minacciata dalla salinizzazione e dalla modificazione del pH.
Resumo:
L'evoluzione del concetto di infinito nella storia presenta difficoltà che ancora oggi non sono sono state eliminate: la nostra mente è adattata al finito, per questo quando ha a che fare con oggetti troppo grandi o troppo piccoli, essa crea delle immagini che le permettono di vederli e manipolarli. Bisogna tuttavia stare attenti alle insidie che questi modelli nascondono, perché attribuiscono agli enti originali alcune proprietà fuorvianti, che ci portano a conclusioni distorte.
Resumo:
Nel presente lavoro di tesi sono stati studiati diversi aspetti riguardanti micotossine regolate ed emergenti al fine di fornire informazioni circa la loro mitigazione dal campo al prodotto finito, focalizzando l’attenzione sul potenziale impatto del processo tecnologico. Successivamente, il loro ruolo tossicologico, ancora in discussione, è stato indagato attraverso l’applicazione di modelli gastrointestinali. In particolare, lo studio è stato rivolto a DON, micotossina più comune nel grano, DON-3-Glc, che rappresenta la sua principale forma modificata, e alla micotossina ENN B, maggiore rappresentante tra il gruppo delle cosiddette micotossine “emergenti”. Questo studio è stato quindi suddiviso in tre sezioni. La prima è stata rivolta allo sviluppo di esperimenti in serra effettuati su diversi genotipi di grano duro al fine di comprendere meglio il meccanismo di detossificazione dal DON e la resistenza delle diverse varietà ad una delle malattie più gravi che colpiscono questa specie (fusariosi della spiga). La seconda sezione ha riguardato lo studio del reale impatto di alcune filiere di produzione strategiche sul contenuto finale in micotossine. Inoltre, una strategia di mitigazione è stata messa a punto tenendo conto del possibile sviluppo di altri contaminanti legati al processo stesso e ottenendo un prodotto finito adeguato per il consumatore. Nell'ultima sezione di questo lavoro sono invece state effettuate delle indagini circa i possibili risvolti tossicologici di questi composti, valutando il loro destino durante la digestione umana.
Resumo:
Il lavoro di tesi riguarda lo studio dettagliato di un ciclone di tipo tropicale (tropical like cyclone, TLC) verificatosi nel Canale di Sicilia nel novembre 2014, realizzato attraverso un'analisi modellistica effettuata con i modelli BOLAM e MOLOCH (sviluppati presso il CNR-ISAC di Bologna) e il confronto con osservazioni. Nel primo capitolo è fornita una descrizione generale dei cicloni tropicali e dei TLC, indicando come la formazione di questi ultimi sia spesso il risultato dell'evoluzione di cicloni extratropicali baroclini nel Mediterraneo; sono identificate le aree geografiche con i periodi dell'anno maggiormente soggetti all'influenza di questi fenomeni, riportando un elenco dei principali TLC verificatisi nel Mediterraneo negli utlimi tre decenni e lo stato dell'arte sullo studio di questi eventi. Nel secondo capitolo sono descritte le modalità di implementazione delle simulazioni effettuate per il caso di studio e presentati i principali prodotti dell'analisi modellistica e osservazioni da satellite. Il terzo capitolo si apre con la descrizione della situazione sinottica e l'analisi osservativa con immagini Meteosat e rilevazioni radar che hanno permesso di ricostruire la traiettoria osservata del TLC. In seguito, viene dapprima fornito l'elenco completo delle simulazioni numeriche, quindi sono presentati alcuni dei più importanti risultati ottenuti, dai quali emerge che la previsione della traiettoria e intensità del TLC differisce notevolmente dalle osservazioni. Tenendo conto della bassa predicibilità che ha caratterizzato l'evento, nel quarto capitolo è descritto il metodo usato per ricostruire in maniera ottimale la traiettoria, utilizzando spezzoni da varie simulazioni, che ha permesso un confronto più realistico con i dati osservati e un'analisi dei processi fisici. Nel quinto capitolo sono riportati i principali risultati di alcuni test mirati a valutare l'impatto di aspetti legati all'implementazione delle simulazioni e ad altre forzanti fisiche.
Resumo:
Nell’ambito di questa ricerca sono stati sviluppati modelli in grado di prevedere le dimensioni dei grani dopo il processo di estrusione di alcune leghe serie 6XXX, in particolare AA6060, AA6063 e AA6082. Alcuni modelli matematici proposti in letteratura sono stati presi in considerazione e implementati su Qform, codice FEM in grado di simulare processi di deformazione plastica. Sono state condotte diverse campagne sperimentali, tra cui una di visioplasticità necessaria per ottenere dati sperimentali che permettessero la validazione del Codice (modellazione dell’attrito, dello scambio termico, del flow stress del materiale). Altre prove di microestrusione ed estrusione inversa hanno fornito dati sperimentali che sono stati messi in correlazione con i risultati numerici di una serie di simulazioni. Infine è stata effettuata una campagna sperimentale di estrusione industriale a tutti gli effetti, ottenendo un profilo dalla geometria piuttosto complessa in lega AA6063, i dati ricavati hanno permesso : • la validazione di un modello unico di ricristallizzazione dinamica, • la valutazione di modelli per la predizione del comportamento durante recristallizzazione statica
Resumo:
La ricerca si pone l’obiettivo di comprendere in che modo sia strutturato lo stardom italiano della Generazione Z e quale ruolo svolgano i media nei processi di celebrification delle figure attoriali in esame, nonché l'impatto che queste hanno sulla società stessa. Si intende fornire una maggiore comprensione dei meccanismi alla base del funzionamento dello star system in un contesto storico, culturale e generazionale specifico. Inoltre, il confronto tra il panorama italiano e il landscape internazionale contribuisce a una maggiore comprensione dell’evoluzione e della trasformazione del concetto di celebrità nel contesto globale, oltre che delle modalità attraverso le quali la dimensione italiana si inserisce in questa evoluzione.
Resumo:
Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.
Resumo:
Le stelle sono i corpi celesti fondamentali per comprendere l'evoluzione del nostro Universo. Infatti, attraverso processi di fusione nucleare che avvengono al loro interno, nel corso della loro vita le stelle producono la maggior parte dei metalli che popolano la tavola periodica, non presenti all'inizio della vita dell'Universo e la cui presenza è attribuile soltanto alla nucleosintesi stellare. In questa tesi viene trattato questo aspetto, ovvero la produzione di elementi chimici nelle stelle, seguendo in ordine cronologico le principali fasi della vita delle stelle stesse. Nel primo capitolo sono fornite delle informazioni generali sulle reazioni termonucleari, che sono alla base della vita delle stelle e della produzione di molti elementi chimici. Successivamente, vengono approfondite le catene di reazioni termonucleari che consentono la fusione dell'idrogeno in elio all'interno delle stelle, ovvero la catena protone-protone e il ciclo CNO. Nei capitoli seguenti sono state analizzate le reazioni termonucleari di fusione dell'elio in carbonio, note come processo 3-alfa, e di elementi più pesanti, quali carbonio, neon, ossigeno e silicio, che avvengono quando la stella è ormai una gigante o supergigante rossa. Infine, nell'ultimo capitolo viene descritto come, nelle fasi finali della loro vita, le stelle riescano a produrre elementi più pesanti attraverso processi di cattura neutronica, per poi rilasciarli attraverso le esplosioni di supernove, arricchendo significativamente il mezzo interstellare.
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Le tempistiche e le richieste industriali obbligano sempre di più i progettisti ad uno studio predittivo delle problematiche che si possono incontrare in fare produttiva. In ambito strutturale questo è già da diversi anni la norma per componenti realizzati con tecnologia tradizionale. In ambito termico, invece, si procede ancora troppo spesso per tentativi seguendo l’esperienza del singolo. Per questo motivo, è necessario uno studio approfondito e un metodo per caratterizzare i transitori termici. Per fare ciò è necessario introdurre un modello semplificativo attraverso l’uso su un provino cilindrico. Questa semplice geometria permette di mettere in relazione la soluzione analitica, la soluzione approssimata agli elementi finiti e la soluzione sperimentale. Una volta ottenuti questi risultati sarà poi possibile, mantenendo invariati il ciclo termico e le caratteristiche termo-strutturali del materiale, modificare a piacimento la geometria per analizzare un qualsiasi componente. Questo approccio permette quindi di realizzare delle analisi FEM sui componenti da stampare e di predirne i gradienti termici e le deformazioni a partire dalle caratteristiche del materiale, della geometria e del ciclo termico a cui sono sottoposti. Permettendo così di valutare in modo preventivo e predittivo problematiche di stabilità geometrica e strutturale.
Resumo:
La presente tesi, redatta durante un tirocinio presso l’azienda Automobili Lamborghini S.p.a., ha come fine ultimo la descrizione di attività volte all’evoluzione dell’ente Training Center facente parte dell’area industriale. L’ente Training center è responsabile dell'organizzazione, dell'erogazione e del monitoraggio della formazione incentrata sulle cosiddette technical skills utili per il miglioramento o il rafforzamento delle competenze e delle conoscenze tecniche degli operatori. La prima attività descritta ha lo scopo di creare un database contenente tutte le competenze che ogni operatore deve possedere per poter lavorare autonomamente su una determinata stazione di lavoro al fine di individuare il gap di competenze. L’analisi condotta ha come obiettivi: la pianificazione strategica della forza lavoro, la mappatura dell’intera organizzazione, l’implementazione (ove necessario) di nuovi training, l’aumento della produttività, e l’aumento della competitività aziendale. In seguito, è stata svolta un’analisi delle matrici di flessibilità, ovvero delle matrici che forniscono informazioni su quanti blue collars sono in grado di lavorare su determinate stazioni e in quale ruolo (operatore in training, operatore autonomo o operatore specializzato e quindi in grado di assumere il ruolo di trainer). Studiando tali matrici sono state identificate delle regole che rendono il processo di training on the job il più efficace ed efficiente possibile con o scopo, da una parte di evitare eccessive ore di training e quindi eccessivo dispendio economico, dall’altra, quello di riuscire a coprire tutte le stazioni considerando i picchi di assenteismo della forza lavoro. Infine, si è rivelata necessaria l’implementazione di un nuovo training, il “train the tutor”, ovvero un percorso di formazione riservato ai dipendenti potenzialmente in grado di insegnare attività in cui loro sono specializzati ad operatori in training.
Resumo:
In questa tesi mostreremo qual è l'impatto delle sezioni d'urto di cattura neutronica (n, γ) mediate con la distribuzione maxwelliana di energia (MACS), sull'evoluzione delle stelle giganti rosse. Per raggiungere questo obiettivo, è stata sviluppata una procedura automatizzata per calcolare le MACS, partendo da librerie di dati nucleari valutati. Le MACS così ottenute sono state inserite come parametri di input per il codice FUNS, il quale implementa modelli di evoluzione stellare. Vengono mostrati risultati circa le abbondanze isotopiche degli elementi sintetizzati nel processo-s ottenuti usando differenti librerie. Infine viene mostrato un esempio dell'impatto dei dati ottenuti all'esperimento n_TOF.
Resumo:
La misura di abbondanze chimiche degli elementi alfa e di quelli del gruppo del ferro per indagare l'origine delle stelle e degli ammassi globulari di una galassia si è rivelata uno strumento molto versatile e potente. Questo lavoro di tesi intende studiare in particolare le abbondanze di Sc, V e Zn per il sistema stellare Omega Centauri, sistema considerato il residuo di una galassia sferoidale nana distrutta dall'interazione con la Via Lattea. L'analisi chimica di Sc, V e Zn (solitamente sottoabbondanti nelle galassie sferoidale nane) può porre importanti vincoli per capire la natura di questo sistema.
Resumo:
Le stelle nate nelle galassie satelliti accresciute dalla MW durante il suo processo evolutivo, sono oggi mescolate nell'Alone Retrogrado della nostra Galassia, ma mantengono una coerenza chimica e dinamica che ci consente di identificarle e di ricostruirne l'origine. Tuttavia, investigare la chimica o la dinamica in maniera indipendente non è sufficiente per fare ciò. L'associazione di stelle a specifici eventi di merging basata esclusivamente sulla loro posizione nello spazio degli IoM può non essere univoca e portare quindi ad identificazioni errate o ambigue. Allo stesso tempo, la composizione chimica delle stelle riflette la composizone del gas della galassia in cui le stelle si sono formate, ma galassie evolutesi in maniera simile sono difficilmente distinguibili nei soli piani chimici. Combinare l'informazione chimica a quella dinamica è quindi necessario per ricostruire in maniera accurata la storia di formazione ed evoluzione della MW. In questa tesi è stato analizzato un campione di 66 stelle dell'Alone Retrogrado della MW (localizzate nei dintorni solari) combinando i dati fotometrici di Gaia e quelli spettroscopici ottenuti con PEPSI@LBT. L'obiettivo principale di questo lavoro è di associare univocamente le stelle di questo campione alle rispettive galassie progenitrici tramite l'utilizzo coniugato delle informazioni chimiche e cinematiche. Per fare questo, è stata prima di tutto ricostruita l'orbita di ognuna delle stelle. In seguito, l'analisi degli spettri dei targets ha permesso di ottenere le abbondanze chimiche. L'identificazione delle sottostrutture è stata effettuata attraverso un'analisi chemo-dinamica statisticamente robusta, ottenuta tramite l'applicazione di un metodo di Gaussian Mixture Model, e l'associazione finale ai relativi progenitori, nonchè la loro interpretazione in termini di strutture indipendenti, è stata eseguita accoppiando questa informazione con la composizione chimica dettagliata di ogni stella.
Resumo:
A partire dagli anni Novanta del secolo scorso, il nostro rapporto con il videoclip è diventato pressoché quotidiano, oggi possiamo scegliere in ogni momento quali videoclip guardare grazie a siti come Youtube o Vimeo, ai social media, o a piattaforme come Spotify. Il videoclip da semplice sequenza di immagini che accompagnavano le parole e le melodie di una canzone, è diventato un genere dotato di piena dignità creativa e artistica, caratterizzato da fasi preparatorie spesso molto complesse e dall’utilizzo di tecnologie sofisticate e personale altamente qualificato che non lo rendono secondario a nessuno dei prodotti dell’universo cinematografico. Scopo di questa tesi è infatti dimostrare che il mondo del videoclip non è abitato da registi e operatori minori, ma popolato in gran parte da professionisti di grande spessore artistico che ambiscono a realizzare prodotti di importante valore creativo. Infatti, il presente lavoro intende, da un lato, rendere esplicita l’identità del videoclip, della sua morfologia, del suo linguaggio e dei suoi modelli, dall’altro far emergere il tema dell’autorialità del videoclip, nell’ottica, appunto, di nobilitarlo e rendere evidente che si tratti di un prodotto cinematografico non secondario ad altre tipologie di lavoro nel campo della pellicola.