717 resultados para ellissoide inerzia equazioni Eulero moto Poinsot fenomeni giroscopici
Resumo:
L’oggetto di questo elaborato riguarda lo studio prestazionale di un Solid Rocket Motor mediante l’introduzione del fattore di “Hump”, che va a compensare il discostamento tra il profilo delle pressioni sperimentali e teoriche, cercando di legare tali variazioni a spiegazioni fisiche. In particolare andremo ad investigare, all’interno di due differenti tipologie di colata, quale sia l’effetto predominante all’interno del propellente che genera proprio tali discostamenti della pressione, e quindi della spinta, rispetto alla condizione ideale. Nell’elaborato verranno anzitutto presentate le diverse tipologie di propulsori, i loro singoli componenti, i parametri fondamentali che regolano la meccanica di questa tipologia di motori, le tipologie di grain esistenti e le loro caratteristiche. Successivamente descriveremo le BARIA (Bomb ARIAne), usate per i test del grain nella ditta AVIO s.p.a., e le tipologie di riempimento di questo motore, investigando i fenomeni fisici a cui sarà legato l’effetto di “Hump”. In seguito si descriverà il fattore di “Hump”, evidenziando, per le differenti tipologie di riempimento, i fenomeni fisici a cui sarà legato il discostamento tra le pressioni sperimentali e teoriche. Verranno poi descritti i programmi utilizzati, gli script in Matlab prodotti, al fine di ottenere le mappe relative all’orientazione ed alla concentrazione delle particelle, da introdurre nel simulatore. Infine verranno esposti i risultati ottenuti e confrontati con i dati sperimentali forniti dalla ditta AVIO s.p.a., le conclusioni e gli sviluppi futuri.
Resumo:
Le galassie a spirale, come la Via Lattea, sono caratterizzate dalla presenza di gas freddo e formazione stellare e vengono perciò chiamate star-forming. Per creare nuove stelle è necessaria una sufficiente riserva di gas, la cui disponibilità governa l’evoluzione della galassia stessa. Finora, non è stato individuato con certezza un meccanismo che possa alimentare la formazione di nuove stelle nelle galassie star-forming. Una delle possibili sorgenti di tale gas è l’alone galattico caldo (corona galattica) il cui raffreddamento e successivo accrescimento possono essere stimolati dal processo di fontana galattica. L’esplosione di supernovae porta nubi di gas freddo in orbita al di sopra del disco stellare; queste nubi raggiungono altezze dell’ordine del kiloparsec, interagendo con la corona di gas caldo. Il moto delle nubi all’interno di un mezzo meno denso comporta l’instaurarsi dell’instabilità di Kelvin-Helmholtz, che ’strappa’ gas dalle nubi e causa la condensazione di materia coronale. Quest’ultima viene quindi accresciuta e, ricadendo sul disco, trasferisce nuovo materiale alla galassia e ne alimenta la formazione stellare. Lo scopo di questa tesi è derivare un modello analitico di fontana galattica che consenta di ottenere una formulazione analitica per il tempo orbitale, cioè il tempo richiesto alle nubi per ricadere sul disco galattico. Infatti, più u tempo le nubi impiegano per attraversare il materiale coronale caldo e ricadere sul disco, più materiale viene accresciuto durante l’orbita. Conoscendo i tempi orbitali sarebbe possibile calcolare il tasso di accrescimento legato al fenomeno di fontana e studiarne l’andamento con il raggio del disco. Questo modello potrebbe rivelarsi utile per lo studio dell’impatto della fontana nell’evoluzione globale del disco galattico e della chimica dell’intera galassia.
Resumo:
L'attenzione è stata posta su tre fenomeni fondamentali di scattering: Thomson, Compton e Compton inverso. Sono state sottolineate alcune ed eventuali applicazioni astrofisiche di questi e valutate le implicazioni o generalizzazioni che da tali fenomeni possono derivare: Synchrotron Self-Compton, Comptonizzazione ed effetto Sunyaev-Zeldovich termico. Infine è stato preso un caso astrofisico come applicazione di questi fenomeni: Sagittarius A*, una fonte radio proveniente dal centro della nostra galassia, molto studiata negli anni, citando un articolo pubblicato su una rivista scientifica nel 2012.
Resumo:
In questa tesi descriviamo due teorie, la MOND e la TeVeS, che si pongono come alternativa all’ipotesi dell’esistenza della materia oscura. Seguendo l’ordine storico degli eventi, nel primo capitolo presentiamo i dati sperimentali e le considerazioni teoriche che hanno convinto gli scienziati del ’900 che la massa osservata nell’Universo sia minore della massa dinamica inferita dalla fisica newtoniana e dalla Relatività Generale. Il primo tentativo di risolvere questo problema è consistito nell’ipotizzare l’esistenza di una materia non ancora osservata, divenuta nota come “materia oscura”. Affrontando le questioni sollevate dalle curve di rotazione delle galassie a spirale, dalla relazione di Tully-Fisher, dalla legge di Freeman e dalle fluttuazioni della radiazione cosmica di fondo, vedremo come questa ipotesi si sia evoluta per tenere conto dei risultati sperimentali, a partire dal modello della sfera isoterma fino al modello ΛCDM, e i problemi che essa non risolve. Nel secondo capitolo descriviamo la MOND, una modifica della dinamica newtoniana nata con l’obiettivo di ridurre la quantità di materia oscura necessaria per descrivere l’Universo. Il problema della massa nascosta può, infatti, essere dovuto a un’incompleta comprensione delle leggi della fisica e, confrontando la MOND con i dati sperimentali presentati nel primo capitolo, vedremo come essa riesca a descrivere la dinamica su scale galattiche ed extragalattiche. Concluderemo il capitolo mostrando una densità di lagrangiana capace di riprodurre la formula fenomenologica della MOND. Per affrontare le questioni cosmologiche è necessario disporre di una teoria relativistica che recuperi la MOND nel limite di campo debole. Nel terzo capitolo trattiamo quindi la TeVeS, riportando le azioni che permettono di derivare le equazioni dei campi di tale teoria. Dopo averne studiato i limiti relativistici e non relativistici, accenneremo a come essa permetta di estendere il paradigma MOND in campo cosmologico.
Resumo:
Viaggiare da un punto all'altro dell'universo muovendosi in uno spazio-tempo piatto richiede tempi talmente colossali da risultare impossibile per la nostra razza; pertanto, un viaggio interstellare potrebbe essere realizzato solo per mezzo di topologie relativistiche in grado di accorciare la distanza fra i punti dell'universo. Dopo aver dato una serie di motivazioni per cui i buchi neri ed il ponte di Einstein-Rosen non sono adatti ad essere impiegati viene introdotta una particolare classe di soluzioni, presentata per la prima volta da Michael S. Morris e Kip S. Thorne, delle equazioni di Einstein: essa descrive wormholes i quali, almeno in linea di principio, risultano attraversabili dagli esseri umani in quanto non presentano un orizzonte degli eventi sulla gola. Quest'ultima proprietà, insieme alle equazioni di campo di Einstein, pone dei vincoli piuttosto estremi sul tipo di materiale in grado di dar luogo alla curvatura spazio-temporale del wormhole: nella gola del wormhole la materia deve possedere una tensione radiale di enorme intensità, dell'ordine di quella presente nel centro delle stelle di neutroni più massive per gole con un raggio di appena qualche kilometro. Inoltre, questa tensione dev'essere maggiore della densità di energia del materiale: ad oggi non si conosce alcun materiale con quest'ultima proprietà, la quale viola entrambe le "condizioni sull'energia" alla base di teoremi molto importanti e verificati della relatività generale. L'esistenza di questa materia non può essere esclusa a priori, visto che non esiste prova sperimentale o matematica della sua irrealisticità fisica, ma non essendo mai stata osservata è importante assicurarsi di impiegarne il meno possibile nel wormhole: questo ci porterà a mostrare che i wormholes in cui il materiale esotico presenta una densità di energia negativa per gli osservatori statici sono i più adatti al viaggio interstellare.
Resumo:
Lo scopo di questa tesi triennale è quello di fornire un'introduzione ad alcuni concetti della computazione quantistica e comprenderne i fenomeni fisici che ne stanno alla base, dall'idea astratta di qubit fino ai più recenti studi sui centri NV, passando attraverso appropriati strumenti matematici. Recentemente si è realizzato che l'uso delle proprietà della meccanica quantistica può migliorare drasticamente le velocità di calcolo. È quindi cresciuto l'interesse nel campo dell'informazione quantistica. Tra le principali difficoltà vi è il fenomeno della decoerenza, responsabile della distruzione degli stati di sovrapposizione quanto-meccanici. Studiamo la dinamica dei sistemi quantistici aperti, soffermandoci sugli aspetti della loro evoluzione rilevanti nel passaggio dal mondo quantico al classico. A tal fine, e per una migliore comprensione della decoerenza, ricaviamo l'equazione master cui deve obbedire la matrice di densità nel noto modello di Jaynes-Cummings per l'interazione ambiente-sistema. In particolare, descriviamo come un ristretto set di manipolazioni sul sistema ci permetta di proteggerlo dalla decoerenza e come tale tecnica, detta disaccoppiamento dinamico, si rivela un utile strumento per la realizzazione di gates quantistici nel caso dei qubit implementati sfruttando i cosiddetti centri NV del diamante.
Resumo:
L'energia idroelettrica è una fonte di energia alternativa e rinnovabile che sfrutta il moto dell'acqua, generato grazie all'energia potenziale presente tra due bacini posti a quote diverse per convertire l'energia meccanica in elettrica attraverso un alternatore collegato a turbina. Gli impianti si classificano in: impianti ad acqua fluente, a deflusso regolato, ad accumulo tramite pompaggio. Le turbine idrauliche sono quei dispositivi meccanici in grado di convertire l'energia cinetica in energia meccanica. Fra tutte studieremo la Pelton, la Francis e la Kaplan e i loro criteri di scelta. I grandi impianti hanno un notevole impatto ambientale, ecco perché la nuova tecnologia si basa sul mini idroelettrico; quest'ultimo dal punto di vista economico è competitivo rispetto alle altre fonti rinnovabili ed ai combustibili fossili.
Resumo:
I processi di separazione sono tra quelli che consumano più energia nelle nazioni maggiormente industrializzate, questo rende necessaria la ricerca continua di tecnologie e materiali che siano in grado di aumentarne l’efficienza. Uno dei principali campi di studio di questa ricerca riguarda la separazione di gas, in cui le membrane polimeriche si candidano come principale alternativa innovativa ai metodi classici. Questo lavoro di tesi mira all’analisi delle variabili che governano il trasposto di gas attraverso membrane polimeriche di tipo vetroso, alla comprensione dei fenomeni destabilizzanti quali aging e plasticizzazione in termini di cause ed effetti e alla primaria rielaborazione dei dati di letteratura relativi agli stessi fenomeni per verificare analiticamente quanto studiato nella parte precedente. Per fare ciò, operativamente, ci si è serviti del supporto di articoli scientifici che trattano il tema, andando ad estrapolare dati e informazioni rilevanti e delle indicazioni del professor Minelli che da anni è impegnato nella ricerca su questi materiali. Dopo una prima parte introduttiva riguardante le tecnologie a membrana e le loro applicazioni, si passa allo studio approfondito della teoria e alla discussione dei due fenomeni, ai quali viene dedicato un capitolo ciascuno per capirne nel dettaglio le implicazioni che comportano nell’utilizzo di tecnologie a membrane polimeriche. Nella rielaborazione ci si sofferma poi sui film sottili, nell’ordine del micron, che corrispondo alle dimensioni tipiche delle membrane utilizzate per la separazione di gas. Ci si focalizza su miscele contenenti anidride carbonica, gas di estremo interesse sia perché è uno dei maggiori contributori al fenomeno del surriscaldamento globale, sia perché è uno dei principali responsabili della plasticizzazione di un polimero, per via della sua buona solubilità. Si conclude l’elaborato con una breve analisi sulle possibili contromisure riguardanti aging e plasticizzazione.
Resumo:
La tomografia a coerenza ottica (Optical Coherence Tomography, OCT) rappresenta fondamentalmente una nuova modalità di diagnostica per immagini non invasiva e ad alta risoluzione. L’OCT fornisce immagini, sotto forma di sezioni trasversali o tomografiche, delle microstrutture dei tessuti biologici tramite la misura del ritardo dell’eco e dell’intensità della luce retrodiffusa o riflessa dal campione in analisi. L’OCT è una potente tecnica poiché fornisce in tempo reale immagini in situ delle strutture tissutali normali o patologiche, con una risoluzione da 1 a 15 micron, che è da uno a due ordini di grandezza maggiore rispetto alle tecniche per immagini convenzionali come ultrasuoni, risonanza magnetica o tomografia computerizzata. Tutto questo senza la necessità di ottenere e analizzare un campione tramite biopsia e studio istopatologico. Sin dall’inizio della sua utilizzazione nel 1991, l’OCT è stata impiegata in un vasto spettro di applicazioni cliniche, principalmente l'oftalmologia. In strutture non trasparenti, diverse da quelle oculari, la profondità massima esplorabile è limitata a 2-3 mm a causa dei fenomeni di attenuazione secondari e alla dispersione della luce. Inoltre, i numerosi sviluppi fatti dalla tecnologia OCT hanno portato ad alte velocità di acquisizione e, grazie all’utilizzo di sorgenti laser di ultima generazione, risoluzioni assiali dell’ordine di 1 micrometro. Dunque, la tomografia a coerenza ottica può essere sfruttata: - Quando la biopsia escissionale è pericolosa o impossibile. - Quando si rischiano errori di campionamento, come guida alla biopsia in modo da ridurre errori nel prelievo del campione. - Come guida alla procedura d’intervento, in associazione alle procedure di cateterismo, endoscopia e laparoscopia.
Resumo:
L’idea di questa tesi è nata dalla volontà di verificare il lavoro svolto come oggetto di studio di illustri scienziati che si prefissero come traguardo la risoluzione di questo problema, che aveva come obiettivo la comprensione, la previsione e l’ottimizzazione dei fenomeni legati allo scambio termico convettivo attraverso le svariate geometrie di superficie. Gli steps per il raggiungimento dello scopo oggetto di questa tesi, pertanto, possono essere così riassunti: 1. definizione di una corretta metodologia di calcolo dei campi fluidodinamico e termico, per un condotto piano infinitamente lungo, in condizioni di completo sviluppo; 2. dimostrazione della fattibilità di un’ottimizzazione di tale geometria, tramite l’utilizzo del software Mathematica; 3. trovare l’andamento del numero di Nusselt e verificare se il risultato ottenuto coincide con il risultato che si trova in letteratura relativamente al caso studiato. Da quanto ottenuto mediante i calcoli realizzati con il software Mathematica possiamo concludere che l’andamento del numero di Nusselt, ottenuto tenendo conto delle condizioni al contorno di tipo T in un condotto con pareti piane infinitamente lungo, ci dimostrano che i calcoli precedentemente effettuati sono corretti in quanto corrispondo ai risultati presenti in letteratura.
Resumo:
L’elaborato presenta uno studio di fattibilità sull’adozione di sistemi di trasmissione innovativi per quadricicli tipo “quad”, esplicitando pregi e difetti di ognuno e scegliendo il più idoneo per il mezzo in questione. Segue il progetto vero e proprio; vengono dimensionati gli organi principali di trasmissione del moto, quali alberi e coppie coniche. Il progetto è poi completato con la modellazione al cad della trasmissione, della struttura portante e delle parti commerciali (e non) necessarie al funzionamento e all’affidabilità del sistema.
Resumo:
“La Business Intelligence per il monitoraggio delle vendite: il caso Ducati Motor Holding”. L’obiettivo di questa tesi è quello di illustrare cos’è la Business Intelligence e di mostrare i cambiamenti verificatisi in Ducati Motor Holding, in seguito alla sua adozione, in termini di realizzazione di report e dashboard per il monitoraggio delle vendite. L’elaborato inizia con una panoramica generale sulla storia e gli utilizzi della Business Intelligence nella quale vengono toccati i principali fondamenti teorici: Data Warehouse, data mining, analisi what-if, rappresentazione multidimensionale dei dati, costruzione del team di BI eccetera. Si proseguirà mediante un focus sui Big Data convogliando l’attenzione sul loro utilizzo e utilità nel settore dell’automotive (inteso nella sua accezione più generica e cioè non solo come mercato delle auto, ma anche delle moto), portando in questo modo ad un naturale collegamento con la realtà Ducati. Si apre così una breve overview sull’azienda descrivendone la storia, la struttura commerciale attraverso la quale vengono gestite le vendite e la gamma dei prodotti. Dal quarto capitolo si entra nel vivo dell’argomento: la Business Intelligence in Ducati. Si inizia descrivendo le fasi che hanno fino ad ora caratterizzato il progetto di Business Analytics (il cui obiettivo è per l'appunto introdurre la BI i azienda) per poi concentrarsi, a livello prima teorico e poi pratico, sul reporting sales e cioè sulla reportistica basata sul monitoraggio delle vendite.
Resumo:
Secondo la sismologia storica, Venezia non è mai stata colpita in modo diretto da terremoti nel suo immediato sottosuolo, tuttavia ha riportato diversi danni in occasione di terremoti limitrofi. Nella presente tesi è stato studiato il comportamento sotto sisma di due principali opere veneziane: il ponte degli Scalzi (1934) eretto da E. Miozzi e il ponte della Costituzione (2008), disegnato da S. Calatrava. Accoppiando il modello dinamico dei due ponti con lo spettro di risposta del sito, abbiamo riscontrato che il ponte della Costituzione si colloca nel plateau dello spettro, quindi a periodi per i quali l’accelerazione attesa sulla struttura è massima. Questo non depone a favore della sua sicurezza, considerati anche i problemi statici che la struttura presenta. Il ponte degli Scalzi presenta invece una rigidezza tale da non mostrare amplificazione significativa tra il moto alla fondazione e quello della struttura sovrastante. Le misure di microtremore ambientale effettuate sul sottosuolo in prossimità delle fondazioni dei due ponti hanno mostrato che esso amplifica il moto per risonanza a 0.5 Hz. Questa frequenza è sufficientemente lontana da quelle proprie dei due ponti in esame, per cui si può ritenere che non ne influenzi significativamente la dinamica. Infine, abbiamo osservato che i valori di accelerazione verticale misurati sulla sua sommità del ponte della Costituzione, generati principalmente dal traffico pedonale, superano i limiti di comfort proposti dall’Eurocodice EN UNI 1990.
Resumo:
Il versante sinistro delle Gole di Scascoli (BO) è caratterizzato da una marcata tendenza evolutiva per crollo e ribaltamento. Negli ultimi 25 anni si sono verificati eventi parossistici con volumi di roccia coinvolti rispettivamente di 7000 m3, 20000 m3 e 35000 m3. Il sito è di grande rilevanza a causa del forte fattore di rischio rappresentato per la strada di fondovalle ad esso adiacente. Il lavoro di tesi è stato finalizzato allo studio dei fenomeni di versante di una parete rocciosa inaccessibile nota in letteratura come “ex-Mammellone 1” mediante tecniche di telerilevamento quali TLS (Terrestrial Laser Scanning) e CRP (Close Range Photogrammetry) al fine affiancare il rilievo geomeccanico soggettivo dell’area svolto nel 2003 da ENSER Srl in seguito ai fenomeni di crollo del 2002. Lo sviluppo di tecnologie e metodi innovativi per l’analisi territoriale basata sull’impiego di UAV (Unmanned Aerial Vehicle, meglio noti come Droni), associata alle tecniche di fotogrammetria digitale costituisce un elemento di notevole ausilio nelle pratiche di rilevamento in campo di sicurezza e tempi di esecuzione. Il lavoro ha previsto una prima fase di rilevamento areo-fotogrammetrico mediante strumentazione professionale e amatoriale, a cui è seguita l’elaborazione dei rispettivi modelli. I diversi output sono stati confrontati dal punto di vista geomorfologico, geometrico, geomeccanico e di modellazione numerica di caduta massi. Dal lavoro è stato possibile indagare l’evoluzione morfologica del sito in esame negli ultimi 10 anni, confrontare diversi metodi di rilevamento e analisi dati, sperimentare la robustezza e ripetibilità geometrica del metodo fotogrammetrico per il rilievo di fronti rocciosi e mettere a punto un metodo semiautomatico di individuazione e analisi delle giaciture delle discontinuità.
Resumo:
La tesi ha avuto come obiettivo l’estensione dell’incarnazione biochimica del simulatore Alchemist, cioè di quella parte del simulatore dedicata alla modellazione di ambienti multicellulari. L'estensione si è focalizzata sullo sviluppo delle necessarie astrazioni per modellare il movimento cellulare, un fenomeno che riveste una grande importanza in molti eventi di rilevanza biologica e fisiologica. A tal scopo si è definito, e implementato sulla piattaforma ALCHEMIST, un modello di: 1) giunzione cellulare 2) estensione spaziale della cellula 3) ambiente cellulare 4) interazione meccanica. Sono infatti questi quattro elementi chiave necessari per la riproduzione il più fedele possibile dei fenomeni biologici associati al movimento cellulare. Al fine di validare il modello e l'implementazione si sono infine sviluppati alcuni test, tra cui, nei principali, viene riprodotto il fenomeno della chemiotassi e l'inseguimento neutrofilo-batterio.