883 resultados para Elastomero, parastrappi, dinamico, simulazione, moto
Resumo:
Analisi termofluidodinamica di un accumulatore di calore che utilizza materiali a cambiamento di fase (PCM). I campi di velocità, di temperatura e di titolo, in regime termico non stazionario, relativi al singolo canale, vengono calcolati con un programma basato sul metodo dei volumi finiti, scritto in ambiente di lavoro Matlab. Vengono proposte diverse ottimizzazioni delle performance di accumulo termico, basate su un algoritmo genetico. Le ottimizzazioni sono fatte sia con differenti tipi di parametri di valutazione, sia con differenti gradi del polinomio che descrive la parete del canale; per ogni ottimizzazione l’algoritmo genetico è stato, quindi, utilizzato per determinare i parametri geometrici del canale ottimali. A partire dai risultati ottenuti dalle ottimizzazioni, vengono poi analizzate le prestazioni di canali della stessa geometria, ai quali viene aggiunta un’intelaiatura metallica. Vengono, infine, mostrati i risultati delle simulazioni numeriche fatte.
Resumo:
Cosmic voids are vast and underdense regions emerging between the elements of the cosmic web and dominating the large-scale structure of the Universe. Void number counts and density profiles have been demonstrated to provide powerful cosmological probes. Indeed, thanks to their low-density nature and they very large sizes, voids represent natural laboratories to test alternative dark energy scenarios, modifications of gravity and the presence of massive neutrinos. Despite the increasing use of cosmic voids in Cosmology, a commonly accepted definition for these objects has not yet been reached. For this reason, different void finding algorithms have been proposed during the years. Voids finder algorithms based on density or geometrical criteria are affected by intrinsic uncertainties. In recent years, new solutions have been explored to face these issues. The most interesting is based on the idea of identify void positions through the dynamics of the mass tracers, without performing any direct reconstruction of the density field. The goal of this Thesis is to provide a performing void finder algorithm based on dynamical criteria. The Back-in-time void finder (BitVF) we present use tracers as test particles and their orbits are reconstructed from their actual clustered configuration to an homogeneous and isotropic distribution, expected for the Universe early epoch. Once the displacement field is reconstructed, the density field is computed as its divergence. Consequently, void centres are identified as local minima of the field. In this Thesis work we applied the developed void finding algorithm to simulations. From the resulting void samples we computed different void statistics, comparing the results to those obtained with VIDE, the most popular void finder. BitVF proved to be able to produce a more reliable void samples than the VIDE ones. The BitVF algorithm will be a fundamental tool for precision cosmology, especially with upcoming galaxy-survey.
Resumo:
Un'anomalia della curva di luce di un evento di microlensing può indicare la presenza di una lente composta da un sistema stella-pianeta. Quindi questo effetto si può utilizzare come tecnica per la ricerca di esopianeti. Partendo dallo studio teorico dei fondamenti del lensing gravitazionale e del microlensing, la tesi di laurea presentata include il lavoro di analisi svolto durante il tirocinio curriculare. Lo scopo di questo lavoro è stato sviluppare un modello per la curva di luce dell'evento OB171226 rilevato nel 2017 dai dati di quattro telescopi terrestri (OGLE e KMTNet) ed uno spaziale (Spitzer), grazie al quale si è visto come questo probabilmente non sia un sistema di tipo planetario ma composto da due stelle compagne di diversa massa. Questa evento era già stato studiato ma lo sviluppo ulteriore fatto è stato modellizzarlo considerando anche il moto orbitale dei due corpi e l'effetto di parallasse da satellite per i dati spaziali.
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.
Resumo:
La presente tesi tratta lo studio di fattibilità di un impianto automatico per l’assemblaggio di stampati in materiale plastico. Lo sviluppo della tesi si è basato sulla riproduzione a computer (utilizzando il software AutoMod) del layout futuro, delle movimentazioni di materiale e dell’analisi dei flussi che servono all’impianto e l’utilizzo del personale a bordo dello stesso. Successivamente, sviluppato il modello, si è andati a calcolare quale potesse essere il lotto ottimale di produzione che fosse in grado di individuare una produzione efficiente. Infine, è stata fatta l’analisi dell’investimento tramite foglio di calcolo Excel riportando i dati uscenti dal modello di simulazione insieme ad altri dati stimati e rilevati sul campo. Il programma ha come obiettivo l’analisi di fattibilità e la successiva decisione estratta dai dati sulla vantaggiosità o meno dell’investimento ed in quanto tempo l’azienda potrà rientrare economicamente.
Resumo:
La seguente tesi studia il processo γγ → WW osservato per la prima volta dall’esperimento ATLAS nel 2017 facendo collidere due fasci di protoni con un’energia totale di 13 GeV. Grazie all’analisi dell’evento (in un dominio da 0 a 500 GeV in momento trasverso) è possibile misurare il valore (o trovare l’intervallo di confidenza) di determinati coefficienti associati alla lagrangiana in EFT. Si pensa infatti che questo evento, reso possibile anche dalla lagrangiana del Modello Standard, possa avvenire sfruttando teorie oltre il Modello Standard sull’accoppiamento quartico tra bosoni vettori, identificati da operatori di dimensione otto. Lo scopo ultimo dell’analisi è quello di trovare l’intervallo di confidenza all’interno del quale ci si aspetta di trovare questi coefficienti (associati agli operatori di dimensione otto), con livello di confidenza del 95%. Tali misurazioni sono estremamente importanti per la fisica teorica in quanto permettono di verificare la veridicità dei modelli teorici e accertarsi che questi ultimi siano compatibili con i dati. Lo scopo di questa tesi é antecedente alla misurazione e consiste, grazie alle simulazioni, nell’applicare dei processi di selezione e restringere il dominio delle distribuzioni dei dati (in momento trasverso), così da ottimizzare le misurazioni. E' stato trovato infatti che se si restringe il dominio del momento trasverso si riesce a misurare un più ampio e accurato range di valori per i coefficienti di EFT. Nello specifico questa tesi si é occupata di studiare alcuni di questi coefficienti (M), trovando la miglior regione per l’analisi ([180,500] GeV) e, per ogni coefficiente, il limite inferiore con un C.L. del 95%.
Resumo:
Lo sviluppo della robotica collaborativa, in particolare nelle applicazioni di processi industriali in cui sono richieste la flessibilità decisionale di un utilizzatore umano e le prestazioni di forza e precisione garantite dal robot, pone continue sfide per il miglioramento della capacità di progettare e controllare al meglio questi apparati, rendendoli sempre più accessibili in termini economici e di fruibilità. Questo cambio di paradigma rispetto ai tradizionali robot industriali, verso la condivisone attiva degli ambienti di lavoro tra uomo e macchina, ha accelerato lo sviluppo di nuove soluzioni per rendere possibile l’impiego di robot che possano interagire con un ambiente in continua mutazione, in piena sicurezza. Una possibile soluzione, ancora non diffusa commercialmente, ma largamente presente in letteratura, è rappresentata dagli attuatori elastici. Tra gli attuatori elastici, l’architettura che ad oggi ha destato maggior interesse è quella seriale, in cui l’elemento cedevole viene posto tra l’uscita del riduttore ed il carico. La bibliografia mostra come alcuni limiti della architettura seriale possano essere superati a parità di proprietà dinamiche. La soluzione più promettente è l’architettura differenziale, che si caratterizza per l’utilizzo di riduttori ad un ingresso e due uscite. I vantaggi mostrati dai primi risultati scientifici evidenziano l’ottenimento di modelli dinamici ideali paragonabili alla più nota architettura seriale, superandola in compattezza ed in particolare semplificando l’installazione dei sensori necessari al controllo. In questa tesi viene effettuata un’analisi dinamica preliminare ed uno studio dell’attitudine del dispositivo ad essere utilizzato in contesto collaborativo. Una volta terminata questa fase, si presenta il design e la progettazione di un prototipo, con particolare enfasi sulla scelta di componenti commerciali ed il loro dimensionamento, oltre alla definizione della architettura costruttiva complessiva.
Resumo:
Il seguente elaborato di tesi prevede la simulazione del comportamento di quattro diversi layout di magazzino contenenti lo stesso numero di vani, ipotizzando uno stoccaggio della merce secondo il criterio delle classi. Inoltre è stata analizzata l’influenza della variabile altezza sul tempo di ciclo dei singoli magazzini. I quattro layout analizzati sono stati: il layout tradizionale, il layout diagonal cross aisle, il layout fishbone e il layout leaf. Il primo è un magazzino “convenzionale”, nel quale l’intersezione dei corridoi genera sempre angoli retti, i restanti tre sono magazzini “non convenzionali”, ovvero l’intersezione dei corridoi genera angoli particolari. Per ciascun magazzino è stato realizzato un modello matematico discreto in grado di determinare la posizione di ogni singolo vano, la sua distanza dal punto I/O e la sua altezza da terra. Il modello matematico e la tipologia di gestione del magazzino sono stati successivamente implementati in un programma scritto su Microsoft Excel, mediante il linguaggio integrato VBA (Visual Basic for Application). Questo ha permesso di determinare i tempi di ciclo medi per ciascun magazzino, facendo il rapporto tra le distanze precedentemente calcolate e le velocità di traslazione e sollevamento del carrello elevatore. Per ottenere dalla simulazioni dei valori il più possibile prossimi alla realtà è stata adottata la metodologia di Simulazione Monte Carlo e un numero di estrazioni pari a 1000. Dai risultati ottenuti è emerso che il magazzino fishbone è in grado di garantire i miglior tempo di ciclo e che i tempi di ciclo più bassi si ottengono, a parità di vani presenti in un magazzino, aumentando le dimensioni in pianta piuttosto che aumentando l’altezza del magazzino.
Resumo:
L’aumento della quantità di inquinanti emessi in atmosfera, legati all’attività antropica che si è osservato negli ultimi anni, ha portato all’emanazione di normative allo scopo di migliorare la qualità dell’aria e mitigare il cambiamento climatico. I settori responsabili di queste emissioni sono molteplici ma quello dei trasporti risulta essere uno dei maggiori indagati, condizione che ha portato ad una maggiore complessità dei motori a combustione interna, cercando così di ridurre l’impatto che hanno sull’ambiente, il clima e la salute umana. Nonostante tutto, l’abbassamento continuo dei limiti massimi, relativi alla quantità di sostanze che possono essere emesse dai veicoli, ha spinto le case automobilistiche a ricercare nuovi sistemi di propulsione. In questo contesto di riduzione degli inquinanti, sta assumendo una posizione di rilievo la scelta di utilizzare l’idrogeno come combustibile alternativo, concetto che verrà approfondito in questa tesi. Tenendo presente che un ciclo motore è suddiviso in 4 fasi: aspirazione, compressione, espansione e scarico, nell’elaborato di questa tesi, verranno analizzate la sola compressione e successiva combustione sfruttando il software di simulazione AVL FIRE. Lo studio prevede la realizzazione di un modello in grado di descrivere e simulare in maniera realistica il fenomeno di combustione dell’idrogeno e la definizione di una procedura per la caratterizzazione dei parametri di iniezione, prestando particolare attenzione all’influenza che questi hanno sul processo di formazione della miscela in modo da giungere ad una configurazione ottimale. Inizialmente sarà utilizzata una geometria con un iniettore a foro singolo posizionato centralmente, la quale progressivamente verrà modificata allo scopo di ottenere una rappresentazione sempre più simile alla condizione reale.
Resumo:
L’attività di tirocinio è iniziata con lo studio dei sottomarini e dei loro apparati. Una volta individuate le criticità del caso di studio è stata avviata una fase di ricerca bibliografica sui materiali e sui relativi processi tribologici coinvolti nello strisciamento tra vite e madrevite. La ricerca si è poi concentrata sui fenomeni di corrosione e sui materiali adatti a contrastarla; in base ai dati raccolti ne è stata selezionata una coppia per vite e madrevite. A questo punto è stata effettuata la modellazione CAD 3D del sistema di sollevamento, modellando i principali elementi del meccanismo, cioè la vite, la madrevite e i componenti che ospitano cuscinetti e guarnizioni. Contemporaneamente alla fase di disegno è stato effettuato il dimensionamento del sistema vite-madrevite e dei dispositivi necessari al suo funzionamento. Durante questa fase è stata progettata una legge di moto della vite tale da consentire prestazioni equivalenti o migliori del sistema idraulico da sostituire. Per la vite, oltre alle verifiche statiche e a fatica, è stato necessario effettuare le verifiche a carico di punta e di velocità critica. Durante i calcoli riguardanti la fatica, sono stati valutati gli effetti dovuti alla presenza della filettatura, calcolando i coefficienti di concentrazione delle tensioni grazie ad apposite simulazioni FEM. Inoltre, è stato dimensionato il collegamento tramite linguetta al motoriduttore. Dopo aver effettuato il dimensionamento statico della madrevite ed eseguito una verifica dei parametri che ne determinano l’usura, sono stati scelti i componenti commerciali come cuscinetti, guarnizioni e tenute. Terminata la fase di dimensionamento dei componenti è stato effettuato un approfondimento relativo al gruppo motoriduttore e al meccanismo frenante. Nei capitoli conclusivi sono stati valutati aspetti come la gestione dei carichi radiali, i test necessari ad ultimare la progettazione e i possibili sviluppi futuri.
Resumo:
Nel seguente elaborato di tesi si è studiata la riqualificazione energetica di un edificio ad uso espositivo, di notevole volumetria, durante una esperienza di tirocinio svolta presso MoRe Energy s.r.l.. Inizialmente il cliente ha commissionto il lavoro limitandosi al voler sostituire l'attuale impianto ad aria a servizio di una parte dell'immobile ma, in fase di lavoro, si è evidenziato che le notevoli dispersioni in inverno e gli apporti in estate erano tali da non garantire le corrette condizioni di comfort secondo le norme di settore. Si è quindi predisposta una dettagliata analisi dei carichi termici invernali ed estivi, predisponendo degli interventi sull'involucro tali da migliorare il benessere da un punto di vista globale. Per fare questo ci si è avvalsi del software commerciale DesignBuilder, che monta al suo interno EnergyPlus come motore di calcolo, un codice di calcolo dinamico molto performante basato sul metodo Ashrae Heat Balance. Valutati gli interventi sull'involucro si è passati a predisporre una soluzione impiantistica: si è valutato che un impianto ad aria misto con UTA e termoventilanti ad integrazione fosse la soluzione migliore per l'edificio. Infine, si è studiata una possibile canalizzazione dell'aria utilizzando il metodo a perdita di carico unitaria costante.
Resumo:
Si studia il comportamento di particelle in un tipo particolare di biliardo dinamico, in cui le riflessioni sul bordo avvengono attraverso l’inversione dell’angolo che la traiettoria compie rispetto a una direzione verticale fissata, invece della solita normale alla curva à la Fresnel. L'interesse in questo argomento deriva dall'evidenza sperimentale di un comportamento simile nella propagazione di onde entro fluidi stratificati: questa tipologia di biliardo è quindi spesso detta biliardo di onde interne. Lo studio di questi oggetti, sebbene puramente matematico, può dare luogo a peculiari considerazioni fisiche ed applicative. Notevolmente, la frequente presenza di attrattori in tali modelli suggerisce che fenomeni di concentrazione delle onde interne dovuti a tale regola di riflessione potrebbero avere un ruolo in alcuni sistemi reali, come la circolazione oceanica. Dopo aver passato in rassegna alcuni elementi della teoria di Poincaré degli omeomorfismi del cerchio, e alcuni risultati specifici sui biliardi di onde interne, si studia il caso particolare di un biliardo di forma parabolica, tagliato da un segmento normale al suo asse di simmetria. In quest'ultimo contesto, si dimostrano alcuni risultati originali sul comportamento delle traiettorie.
Resumo:
L'obiettivo di questo lavoro di tesi consiste nel descrivere sia il processo necessario per la creazione di osservazioni sintetiche di galassie simulate simili alla Via Lattea nella riga di emissione a 21 cm dell'idrogeno neutro (HI), sia il lavoro di analisi fondamentale che serve a confrontare in modo efficace l'output generato con delle osservazioni di galassie reali. Come prima cosa è descritta la teoria quantistica che sta alla base dell'emissione a 21 cm di HI, illustrando l'importanza di tale riga di emissione nell'ambito dell'astronomia e come si possano ottenere informazioni fondamentali sulle sorgenti di questa radiazione a partire dai dati osservativi. Il lavoro poi si focalizza sull'utilizzo del software MARTINI per la creazione di osservazioni sintetiche della linea a 21 cm per una galassia simulata con proprietà simili alla Via Lattea generata utilizzando il modello numerico SMUGGLE. Infine, si passa ad una breve descrizione dell'analisi dei dati sintetici creati, e al loro confronto con dei dati provenienti da osservazioni reali di galassie con proprietà simili, per ottenere una valutazione qualitativa della bontà del modello SMUGGLE impiegato nella simulazione numerica.
Resumo:
La radiazione di sincrotrone è il processo di radiazione più comune nella astrofisica delle alte energie in presenza di elettroni ultrarelativistici in moto in un campo magnetico. Sono attribuibili a questo processo le radio emissioni dei raggi cosmici (elettroni e positroni) della nostra galassia, dei resti di supernovae e delle sorgenti radio extragalattiche. In particolare, questa trattazione si soffermerà sullo studio dell’emissione tramite radiazione di sincrotrone da parte delle pulsar, stelle di neutroni in rapida rotazione e dotate di un campo magnetico, che ad intervalli estremamente regolari (periodo di rotazione) emettono radiazione coerente in regioni coniche allineate con l’asse magnetico, sotto forma di impulsi, secondo un processo che viene denominato ”effetto faro”.
Resumo:
Circa 2500 anni fa, a Magnesia, l’uomo scopriva la magnetite, un minerale del ferro che ha un contenuto di metallo particolarmente alto. Fu così che l’umanità venne a contatto per la prima volta, più o meno consapevolmente, con gli effetti dei campi magnetici. Già il filosofo greco Talete di Mileto nel VI secolo a.C. descrisse gli effetti di tali pietre, ma l’umanità non smise di esserne affascinata. Un esempio astronomicamente noto di campo magnetico su ampia scala è quello terrestre: il nostro pianeta si può pensare come un grosso magnete con un campo di BE ≈ 0.3...0.5G, che tra le altre cose ci protegge dalle particelle ad altissima energia intrappolandole nelle cosiddette fasce di Van Allen. Vi sono poi campi magnetici molto più intensi, a partire da quelli generati in altri pianeti, come Giove, o di stelle e altri corpi celesti particolarmente densi, che possono raggiungere i 10^15G. Ma i campi magnetici sono largamente diffusi anche in tutto lo spazio interstellare e intergalattico, dove hanno valori molto inferiori, che sfiorano i pochi μG. Come si può intuire, un così ampio spettro di valori si traduce in un’altrettanto ricca gamma di metodi di rilevazione. In particolare, in questo elaborato, ci concentreremo soprattutto sui metodi di studio dei campi magnetici meno intensi, la cui conoscenza si basa sulle proprietà osservabili della radiazione di sincrotrone, principalmente indi- viduabili dai dati radio. Dedichiamo quindi un breve capitolo alla derivazione dello spettro della radiazione suddetta (Capitolo 2), preceduto da un accenno alle proprietà energetiche dei plasmi magnetizzati (Capitolo 1). Ci occupiamo infine per l’intero Capitolo 3 di alcuni tra i più diffusi metodi diagnostici, preferendo, come già anticipa- to quelli che analizzano gli spettri prodotti da elettroni relativistici in moto in campi magnetici, ma attraversando comunque gli effetti dei plasmi magnetizzati sulla propagazione della luce e sulla separazione delle righe spettrali.