855 resultados para parametri cosmologici
Resumo:
La tesi in oggetto ha lo scopo di determinare l’effetto della sabbiatura sul comportamento a fatica della lega AlSi10Mg prodotta mediante Laser Powder Bed Fusion e trattata termicamente. I parametri di processo e di trattamento termico (T5 e T6) sono stati precedentemente ottimizzati. Al fine di determinare l’effetto della sabbiatura su topografia superficiale e microstruttura dei campioni, si sono condotte molteplici analisi avvalendosi di strumenti quali profilometria, microscopia ottica ed in scansione, analisi di tensioni residue con diffrazione a raggi X e prove di durezza. Attraverso prove di fatica per flessione rotante, eseguite secondo il metodo Stair-Case per la determinazione della resistenza a fatica, e successiva caratterizzazione delle superfici di frattura si vuole correlare il difetto killer, ossia quello responsabile del cedimento per fatica, alle caratteristiche morfologiche e microstrutturali. Il difetto killer viene caratterizzato in termini di dimensione e distanza dalla superficie e per mostrare la relazione fra la dimensione del difetto killer e la resistenza a fatica si adotta il diagramma di Kitagawa-Takahashi con modellazione di Murakami ed EL Haddad. Si è evidenziato che tutti i difetti killer sono riconducibili a lack-of-fusion con dimensione superiore ai 100 μm ad una profondità compresa fra i 150 e i 200 μm, indipendentemente dal trattamento termico o meccanico applicato. In termini di fatica si osserva che il trattamento T6 conferisce al materiale migliori proprietà rispetto a quello T5. Il processo di sabbiatura, confrontato con quello di lucidatura superficiale, ha portato a miglioramenti in termini di durezza e tensioni residue di compressione, ma si è rivelato quasi ininfluente sulla resistenza a fatica. Sulla base di quanto sopra, si conferma la possibilità di applicazione della sabbiatura in ambito industriale a componenti meccanici, anche in sostituzione della lucidatura, ottenendo un beneficio anche economico.
Resumo:
Una delle applicazioni maggiormente richieste in ambito industriale è quella della presa e movimentazioni di oggetti. Questa tipologia di operazione trova diverse soluzioni nel mondo della robotica e automazione. Nella loro forma più comune un dispositivo di presa si presenta come una pinza motorizzata attraverso la quale è possibile eseguire l’afferraggio di oggetti. Tra essi si possono distinguere i Soft Gripper, ovvero quella classe di pinze che ricorrono a componenti flessibili e parti in materiali soffici che nell’azione di presa si conformano all’oggetto per deformazione dei componenti. Un esempio di questa tipologia di strumenti di presa è il Fin Ray. Tuttavia, questa tipologia di soft-gripper possiede delle limitazioni, come il carico massimo movimentabile determinato sostanzialmente dalla rigidezza della struttura. In questo contesto, al fine di superare tale limite, viene proposto di implementare sulla superficie di contatto un dispositivo a film-sottile elettroadesivo, per generare forze di taglio superficiali per principio elettrostatico, che aumentino la capacità di sollevamento del soft-gripper senza intaccare la sua caratteristica principale di conformità. Lo scopo della tesi è proprio un’analisi numerica e sperimentale di un Fin Ray integrato con un dispositivo elettroadesivo, con lo scopo di analizzare la forza scambiata con un oggetto. Il gripper progettato in questo lavoro, è così prima simulato, e poi realizzato in laboratorio per eseguire la caratterizzazione sperimentale. Gli esperimenti sono stati condotti su un banco prova per la misurazione della forza di contatto scambiata durante l’afferraggio. Per ottenere una validazione del modello sviluppato, sono stati realizzati dei gripper con due differenti materiali altamente deformabili, e con una combinazione di parametri fondamentali diversi, come la posizione e la dimensione dell’oggetto in presa, ottenendo infine una caratterizzazione completa del gripper sviluppato.
Resumo:
La messa a punto dei motopropulsori richiede una fase di test utilizzando un dinamometro, cioè una macchina che ne permette la misura di coppia e velocità. Sono diverse le tipologie di dinamometri, tutte sono però caratterizzate dalla necessità di essere gestite attraverso un opportuno controllore. Il presente lavoro di tesi, svolto presso Borghi&Saveri SRL, si pone l’obbiettivo di aggiornare il sistema di controllo di un dinamometro idraulico, lo “SFI”, sviluppando in particolare la parte di potenza, comunicante con la componente di controllo, già realizzata dall’azienda. La soluzione per la parte di potenza è un drive per il controllo di motori elettrici, scelto dopo una valutazione dei requisiti necessari, lo studio del vecchio sistema e un’analisi di mercato. Il motore elettrico posto sul dinamometro ha infatti il compito di muovere una valvola di gestione della portata d’acqua immessa, con conseguente regolazione della coppia. Il drive è stato messo in funzione realizzando un hardware per garantirne il funzionamento, per poi essere configurato e testato: è stata scelto il setup giudicato come ottimale dei parametri di controllo ed è stata impostata un’interfaccia per la comunicazione smart da PC, via CANopen. Si è poi realizzato un modello virtuale rappresentativo del sistema, validato con acquisizioni sperimentali. Infine, si sono confrontati i dati simulativi del modello con quelli sperimentali provenienti dal vecchio controllore, così da ottenere una valutazione delle rispettive performance nell’effettuare il controllo di posizione della valvola. Il sistema così realizzato soddisfa i requisiti posti, tuttavia le sue prestazioni non sono del tutto migliorative rispetto a quelle dello SFI: per questo sono valutati i punti deboli del progetto e proposti dei possibili sviluppi futuri.
Resumo:
La miscelazione di sistemi gas-liquido all’interno di recipienti meccanicamente agitati ritrova molte applicazioni industriali. I recipienti meccanicamente agitati rappresentano la scelta più conveniente poiché consentono una dispersione ottimale della fase dispersa all’interno della fase continua ed uno scambio di materia e di calore efficiente. I parametri chiave sono il consumo di potenza, l’hold-up di gas ed il regime gas-impeller. La fase sperimentale è stata sviluppata mediante l’utilizzo di un reattore pilota operante con tre turbine Rushton. Il consumo di potenza è stato valutato ed i risultati ottenuti dalle analisi di laboratorio sono stati confrontati con la correlazione empirica di Warmoeskerken (1986). Le tecniche impiegate in passato per la caratterizzazione dei sistemi gas-liquido sono caratterizzate da diversi svantaggi quali la possibilità di essere utilizzate solo per lo studio di sistemi trasparenti, l’intrusività ed i costi alti. Attualmente, la tomografia a resistenza elettrica (ERT) è una delle tecniche di ispezione più utilizzate grazie alla sua potenzialità di fornire informazioni qualitative e quantitativi. Uno degli obiettivi di questo lavoro di tesi è quello di validare una metodologia da seguire per la caratterizzazione dei sistemi gas-liquido. L’ERT è stata utilizzata per la valutazione dell’hold-up di gas e per l’identificazione del regime instaurato all’interno dell’apparecchiatura. I risultati sono stati confrontati con le valutazioni visive e le correlazioni proposte dalla letteratura. La strumentazione dell’ERT comprende un sistema di sensori, un sistema di acquisizione dati (DAS) ed un computer sul quale è installato il software per la ricostruzione dell’immagine, il quale, generalmente, è basato sull’algoritmo linear back - projection. Ulteriore obiettivo di questo lavoro di tesi è quello di investigare sulla convenienza di adoperare un software più sofisticato per la ricostruzione dell’immagine.
Resumo:
In questa tesi è stata analizzata attraverso una modellazione numerica tramite Xbeach la batimetria delle coste di Cesenatico Ponente e la sua modifica dopo eventi meteomarini del clima tipico della durata di 12 ore. Verrà analizzata in primis l'area di studio attraverso la descrizione delle caratteristiche e delle opere presenti, si delineeranno quali funzioni vengono adottate nel modello e seguiranno poi le spiegazioni di tutti i passi svolti e quali parametri sono stati utilizzati per lanciare una simulazione. Infine, verranno mostrati e commentati i risultati più significativi.
Resumo:
Il presente case-study ha l’obiettivo di analizzare il progresso dell’expertise degli studenti nella tecnica di interpretazione simultanea dallo spagnolo all’italiano. A tal fine, è stato condotto un esperimento che ha coinvolto due gruppi di studentesse: il primo gruppo è composto da otto studentesse che frequentano il secondo anno del Corso di Laurea magistrale in Interpretazione del Dipartimento di Interpretazione e Traduzione dell’Università di Bologna e il secondo da otto studentesse che hanno concluso il corso di studi. Le partecipanti hanno interpretato in simultanea un discorso dallo spagnolo all’italiano selezionato per la presenza di parametri che possono rappresentare delle difficoltà durante l’esecuzione dell’IS (problem trigger). Le sedici rese delle studentesse sono state registrate, trascritte e analizzate, con l’obiettivo di confrontare il modo in cui i due gruppi hanno gestito le difficoltà, l’accuratezza e la completezza della resa (frequenza di errori e omissioni), la forma (frequenza di interferenze dallo spagnolo) e la fluenza verbale (uso di collocazioni appropriate e formule fisse tipiche delle conferenze). Dall’analisi statistica sui risultati sono emerse delle differenze significative tra i due gruppi relativamente al numero di omissioni di frasi, di controsensi e di interferenze dallo spagnolo, parametri in cui le studentesse alla fine del corso di studi hanno riportato performance marcatamente superiori.
Resumo:
Il litio, secondo il modello di nucleosintesi del Big Bang, viene prodotto a seguito dell’espansione dell’Universo. Negli anni Ottanta, con l'avvento di spettrografi ad alta risoluzione, è stato possibile misurare l'abbondanza di Li in stelle nane di alone (Spite & Spite 1982). L'abbondanza di Li nelle stelle nane di Popolazione II mostra un valore costante in un ampio intervallo di metallicità e di temperatura effettiva. Tale andamento prende il nome di Plateau di Spite, ed è stato interpretato come una misura dell'abbondanza primordiale dell'elemento. Due decenni dopo la scoperta dello Spite Plateau, grazie alle misurazioni WMAP è stato possibile ottenere i valori delle costanti cosmologiche. Le abbondanze degli elementi leggeri previste dalla cosmologia sono in accordo con quelle misurate, tranne che per il litio. Il valore dello Spite Plateau è infatti inferiore di un fattore 3-4. Tale problema del litio rimane ancora oggi una sfida aperta. Un altro problema aperto riguarda la scoperta del Li-meltdown, ovvero una diminuzione di A(Li) nelle stelle nane con [Fe/H]<-2.5 dex. Nel seguente lavoro sono state studiate stelle nane con metallicità basse, prese da lavori passati. Una volta ottenuto il campione si è lavorato sui dati di Gaia. L'uso di Gaia sulle stelle di alone ha permesso di: lavorare su un campione formato da parametri omogenei e precisi, conoscere lo stato evolutivo delle stelle. Tale lavoro permette per la prima volta di discutere la distribuzione dell'abbondanza di Li nelle stelle nane alla luce del loro stato evolutivo. Il campione di Gaia conferma la presenza del Plateau di Spite con un valore di A(Li)= 2.29 dex, e una caduta dell'abbondanza e un aumento dello scatter per sorgenti [Fe/H]<-2.6 dex (Li meltdown). In particolare, viene dimostrato come il Li meltdown non possa essere spiegato semplicemente come dovuto a stelle binarie o post First Dredge Up.
Resumo:
La ricerca di esopianeti è un ambito astrofisico in continua evoluzione. Nuovi metodi vengono proposti con l’obiettivo di individuare pianeti con una varietà di caratteristiche sempre più ampia, per poter definire al meglio la storia di formazione ed evoluzione dei sistemi planetari. Un metodo recente in grado di caratterizzare pianeti di piccola massa è lo studio della variazione del tempo di transito (TTV), basato sulla modulazione del periodo orbitale di un pianeta noto causata dalla perturbazione di un corpo aggiuntivo. In questo lavoro proponiamo l’analisi delle curve di luce del pianeta XO-2Nb al fine di individuare TTV. Questo sistema è di particolare rilevanza poiché ospitato dalla prima stella binaria wide in cui entrambe le componenti presentano un proprio sistema planetario. Tra le due stelle solo XO-2N presenta un pianeta transitante, requisito per l’applicazione del metodo proposto. L’analisi dei dati è stata svolta utilizzando il metodo della fotometria differenziale di apertura, normalizzando la curva di luce del target ad altre due stelle di riferimento presenti nel campo di vista dello strumento. I risultati ottenuti evidenziano l’assenza di variazioni di periodo orbitale per XO-2Nb e sono consistenti con un’effemeride lineare. La nuova effemeride calcolata risulta tre volte più precisa rispetto al più recente studio in letteratura, e permetterà di predire futuri transiti con una precisione migliore di un minuto fino al 2035. Abbiamo stabilito un limite superiore all’ampiezza del TTV permessa dai nostri dati, ricavando il valore massimo della massa di un eventuale pianeta perturbatore, pari a 0.15 masse terrestri. Abbiamo ricavato in maniera indipendente i parametri fisici ed orbitali di XO-2Nb, confermando e raffinando i valori presenti in letteratura. I risultati ottenuti suggeriscono che, in determinati casi, l’analisi fotometrica eseguita utilizzando telescopi medio-piccoli da terra può essere competitiva con i più avanzati telescopi spaziali.
Resumo:
In questa tesi viene discusso il ruolo delle equazioni di diffusione e reazione e delle loro soluzioni di tipo traveling waves in alcuni modelli matematici per le scienze biomediche. Prima di tutto, viene analizzata l’equazione di Fisher-Kolmogorov-Petrovskii-Piskunov, che costituisce il prototipo di pdes di diffusione e reazione ad una specie. In seguito, si determinano condizioni per la nascita di instabilità di Turing nei modelli a due specie interagenti. La nostra attenzione si rivolge poi ai sistemi di diffusione e reazione con termini sorgente degeneri e caratterizzati dal possedere una famiglia di stati di equilibrio che dipende in modo continuo da un insieme di parametri. Si studiano gli effetti che una perturbazione ampia e fortemente localizzata di una delle popolazioni ha sulle soluzioni di tali sistemi e si ricavano condizioni affinché si generino traveling waves. Da ultimo, come applicazione degli studi effettuati, si analizza il modello di Tuckwell-Miura per la cortical spreading depression, un fenomeno in cui un’onda di depolarizzazione si propaga nelle cellule nervose della corteccia cerebrale.
Resumo:
Nella presente tesi si è realizzato uno sviluppo di base per l'implementazione di un motore turboalbero aeronautico all’utilizzo ad idrogeno. La parte iniziale dell'elaborato descrive le caratteristiche e i benefici dell’utilizzo di questo combustibile innovativo e riporta, poi, le principali modifiche hardware, presenti in letteratura, necessarie per l’implementazione voluta su un motore fisico. Vengono, poi, illustrati i modelli di combustori necessari per un corretto funzionamento del sistema propulsivo, oltre all’eventuale necessità di uno scambiatore di calore. Nella parte centrale della tesi, invece, é descritta la conversione di un modello MatLab Simulink del motore Allison 250 c18, esplicando e documentando le principali modifiche apportate riguardo alla creazione delle mappe del modello dinamico utile a ricavare le caratteristiche termodinamiche del flusso in camera di combustione e all'uscita da essa. Viene inoltre mostrato il metodo di utilizzo degli script CEA forniti dalla NASA, valido per desumere le proprietà dei gas post combustione, oltre che per la creazione delle funzioni di interpolazioni. Sono state svolte, infine, diverse simulazioni, con lo scopo di ricavare le portate corrette di combustibile ed osservare gli andamenti dei parametri fondamentali del sistema propulsivo, come: le portate elaborate, le potenze generate, le temperature e le pressioni ottenute.
Resumo:
L'elaborato illustra le basi teoriche di funzionamento di un motore endotermico ad accensione comandata e gli interventi fatti sui suoi parametri caratteristici per aumentarne le prestazioni, con riferimento ai motori impiegati nelle competizioni sportive.
Resumo:
Il progetto di tesi è stato sviluppato durante il periodo di tirocinio svolto all’interno del “Laboratorio di Radio Scienza ed Esplorazione Planetaria” da un'esperienza da cui prende il nome lo stesso elaborato: ”Numerical integration errors in deep space orbit determination”. Lo scopo del sopraccitato laboratorio è stato quello di studiare in modo approfondito il problema kepleriano dei due corpi, per poi passare ad un’analisi del problema dei tre corpi e successivamente a n corpi (con particolare attenzione alle orbite dei satelliti medicei di Giove). Lo studio è stato affiancato ad un costante utilizzo della piattaforma di programmazione Matlab per l’elaborazione e la stesura di codici per il calcolo di traiettorie orbitali ed errori numerici. Infatti, il fulcro del lavoro è stato proprio il confronto di vari integratori e degli errori numerici derivanti dall’integrazione. Nella tesi, dapprima, viene introdotto il sistema Gioviano, vengono presentati i satelliti medicei, delineate le caratteristiche fisiche fondamentali e i principali motivi che portano ad avere particolare interesse nel conoscere lo sviluppo orbitale di tale sistema. In seguito, l'elaborato, dopo una dettagliata descrizione teorica del problema dei due corpi, presenta un codice per la rappresentazione di orbite kepleriane e il calcolo dei relativi errori commessi dal metodo numerico rispetto a quello analitico. Nell'ultimo capitolo, invece, il problema è esteso a più corpi dotati di massa e a tal proposito viene proposto un codice per la rappresentazione delle orbite descritte nel tempo da n corpi, date le condizioni iniziali, e il calcolo dei rispettivi errori nel sistema di riferimento (r,t,n). In merito a ciò, vengono infine testati diversi integratori per cercare quello con le migliori performance e sono poi analizzati alcuni parametri in input al problema per verificare sotto quali condizioni l’integratore lavora meglio.
Resumo:
Il Parmigiano Reggiano è un formaggio a Denominazione d’Origine Protetta (DOP), a pasta dura, cotta, granulosa, a lunga stagionatura, prodotto con latte crudo, parzialmente scremato, proveniente da vacche alimentate prevalentemente con foraggi della zona d’origine. La trasformazione del latte in questo formaggio DOP è ancora basata su una tecnologia artigianale legata all’esperienza empirica dei casari e tutelata dal Consorzio del Parmigiano Reggiano. L’obiettivo della tesi è stato quello di analizzare l’attività dell’acqua e la texture di 14 punte di formaggio “Parmigiano Reggiano”, provenienti da diverse realtà casearie nelle provincie di Parma, Reggio Emilia, Modena, Bologna alla sinistra del fiume Reno e Mantova, alla destra del fiume Po aderenti al consorzio di tutela; al fine di trarre conclusioni sulla struttura di tali campioni. In dettaglio, per valutare in modo sistematico e comprensivo la texture dei campioni è stata valutata mediante i test di Taglio, Texture Profile Analysis (TPA) e Three Point Bending. Al fine di valutare l’effetto della temperatura, le medesime analisi di texture sono state anche effettuate su alcuni campioni di formaggio condizionati alle temperature di 8, 20, 25 e 30°C. I campioni di Parmigiano Reggiano provenienti da diversi caseifici hanno presentato alcune differenze significative in termini di attività dell’acqua, durezza di taglio, elasticità, coesività, gommosità, forza massima, distanza lineare e fratturabilità. Queste variabilità potrebbero essere attribuite a diversità e peculiarità nel processo produttivo e nell’esperienza dei singoli caseari. Inoltre, è stato evidenziato un ruolo significativo delle temperature dei campioni alla quale si effettuano le analisi di texture. In particolare, i campioni condizionati a 8°C rispetto alle altre temperature hanno presentato differenze significative in tutti i parametri di texture analizzati eccetto che per quelli di elasticità e gommosità determinati con il test TPA.
Resumo:
Il mio elaborato di tesi è basato sull'analisi generale dei modelli matematici alla base delle epidemie e lo studio dei punti di equilibrio dei sistemi che descrivono tali modelli. Il primo capitolo fornisce una descrizione degli elementi di base per lo studio che verrà poi affrontato nei capitoli successivi; nel capitolo in questione ci si riduce a introdurre nomenclatura, parametri e assunzioni di base. Nei capitoli secondo e terzo vengono esposti due tipi di modelli SIR diversi (epidemico e endemico), modelli alla base dell'epidemiologia che spiegano, sotto determinate ipotesi, il comportamento degli individui all'esplodere di una epidemia e il loro cambiamento di compartimento (suscettibile, infetto o rimosso) nel tempo. Di essi viene costruito il sistema di equazioni differenziali e analizzato il comportamento asintotico, per poi studiare i punti di equilibrio e la loro stabilità. Nel capitolo quarto viene analizzato allo stesso modo il modello SEIR, interessante perché fornisce una visione leggermente più sofisticata e vicina alla realtà, poiché tra i compartimenti possibili si suppone esistere anche un compartimento degli esposti, cioè di coloro che sono stati infettati ma che ancora non sono in grado di trasmettere la malattia. L'appendice finale illustra l'apparato matematico utile allo studio di questi modelli: le Equazioni Differenziali infatti sono uno strumento necessario per la descrizione dei fenomeni naturali e per lo studio della stabilità dei punti di equilibrio.
Resumo:
La Direttiva 2000/53/CE sui veicoli fuori uso (VFU) stabilisce, entro il 2015, l’obiettivo di reimpiegare e riciclare almeno l’85% in peso del VFU e di reimpiegare e recuperare almeno il 95% in peso del VFU. Sebbene la media europea superi entrambi i target, nel 2019 l’Italia ha raggiunto l’84.2% sia per reimpiego e riciclo che per reimpiego e recupero, non essendo utilizzato il recupero energetico. Obiettivo di questa tesi, realizzata in collaborazione con un impianto di frantumazione, è stato quello di studiare nuove metodologie di gestione dei VFU in modo da diminuire la produzione di car fluff, smaltito in discarica, e incrementare i tassi di riciclo. Nello specifico, è stato chiesto a due autodemolitori di selezionare un campione di 10 VFU da sottoporre a messa in sicurezza e demolizione secondo step precisi di promozione al riciclaggio, compresa la separazione di sedili e cruscotti. Una volta eseguiti i test di frantumazione su pacchi auto, sedili e cruscotti, sono state effettuate analisi merceologiche e chimico-fisiche su alcuni flussi in uscita e sono stati calcolati i tassi di reimpiego, riciclo e smaltimento. Per entrambi i campioni è stato raggiunto l’obiettivo di reimpiego e riciclo, superando di circa un punto percentuale i valori del 2019. Il fluff ottenuto dalla frantumazione dei sedili non rispetta i parametri per poter essere classificato come CSS-combustibile; uno sviluppo futuro potrebbe essere quello di diminuire la concentrazione di cloro, antimonio, nichel e rame, per potere permettere di recuperare tale frazione e aumentare i target di riciclo.