1000 resultados para Queste
Resumo:
I mondi di Smart City e Internet-of-Things si stanno ampliando notevolmente grazie all'evoluzione continua delle tecnologie. Tuttavia risultano escluse dall'ambito di interesse le zone rurali e decentralizzate perché spesso prive di un'infrastruttura di rete ben definita. A fronte di questo problema, i dispositivi che si trovano in queste zone potrebbero auto-organizzarsi per comunicare instaurando collegmenti di tipo peer-to-peer e utilizzando protocolli di disseminazione di informazioni basati su gossip. In questa tesi sono trattate le seguenti questioni e mediante alcune simulazioni al calcolatore sono riprodotti alcuni scenari per valutare le prestazioni degli algoritmi di Gossip with Fixed Probability e Conditional Broadcast e la diffusione delle informazioni tra i nodi all'interno di una rete creata in maniera opportunistica.
Resumo:
Questo è uno studio sui processi cognitivi dell'essere umano che rendono più facile la lettura delle interfacce web. Precisamente si focalizza sulle icone, su come e perché il carico cognitivo viene ridotto quando vengono usate correttamente all'interno di una interfaccia web ma anche su come l'impatto di una immagine sia molto più forte di una parola. Arrivati a interiorizzare queste argomentazioni verranno utilizzate per poter scoprire il mondo dell'e-commerce e di come un utente possa essere più o meno portato a comprare grazie alla buona creazione dell'interfaccia grafica.
Resumo:
Il Modello Standard delle particelle elementari prevede l’universalità del sapore leptonico, cioè l’uguaglianza della probabilità di accoppiamento dei bosoni di gauge carichi dell’interazione debole con tutti i leptoni. Recentemente, le Collaborazioni LHCb, BaBar e Belle, misurando il rapporto tra i branching ratio dei decadimenti $B^0\to D^{∗− }\tau^+\nu_{\tau} e $B^0 →D^{∗−}\mu^+\nu_{\mu}, hanno osservato una deviazione dai valori previsti dal Modello Standard di 3.9 deviazioni standard. Questo interessante risultato, se confermato, indicherebbe l’esistenza di nuove particelle, come per esempio il bosone di Higgs carico. Analogamente ai decadimenti del mesone $B^0$ , è possibile cercare effetti analoghi anche nel rapporto di branching ratio dei decadimenti $D^0\to K^ −\mu^+\nu_{\mu}$ e $D^0\to K^−e^+\nu_e$ . In questo lavoro di tesi è stato realizzato uno studio preliminare di questa misura. In particolare, è stato studiata, tramite simulazioni Monte Carlo, la ricostruzione del processo $D^{*\pm}\to D^0 (\to K^− \mu+\nu_{\mu})\pi_s^{\pm}$ nell’esperimento LHCb. Questo canale ha la particolarità di avere una particella invisibile, il neutrino, al rivelatore LHCb. Tuttavia, mediante vincoli cinematici e topologici, è possibile ricavare le componenti dell’impulso del neutrino, con risoluzioni non paragonabili a quelle di una particella visibile, ma comunque accettabili. In questa tesi sono riportati i calcoli che permettono di ottenere queste informazioni ed è stata studiata la risoluzione sulla massa invariante del $D^{∗\pm}$ . La tesi è organizzata nel seguente modo: il primo capitolo riporta le motivazioni della misura dei rapporti dei branching ratio e l’attuale stato sperimentale; il secondo capitolo contiene una breve descrizione del rivelatore LHCb; il terzo capitolo, infine, descrive lo studio di fattibilità della ricostruzione del decadimento $D^0\to K^-\mu^+\nu_{\mu}.
Resumo:
L'obiettivo di questo lavoro è quello di analizzare la potenza emessa da una carica elettrica accelerata. Saranno studiati due casi speciali: accelerazione lineare e accelerazione circolare. Queste sono le configurazioni più frequenti e semplici da realizzare. Il primo passo consiste nel trovare un'espressione per il campo elettrico e il campo magnetico generati dalla carica. Questo sarà reso possibile dallo studio della distribuzione di carica di una sorgente puntiforme e dei potenziali che la descrivono. Nel passo successivo verrà calcolato il vettore di Poynting per una tale carica. Useremo questo risultato per trovare la potenza elettromagnetica irradiata totale integrando su tutte le direzioni di emissione. Nell'ultimo capitolo, infine, faremo uso di tutto ciò che è stato precedentemente trovato per studiare la potenza emessa da cariche negli acceleratori.
Resumo:
In quest'elaborato si risolve il problema di Cauchy-Dirichlet per l'equazione del calore, prendendo come oggetto d'esame una sbarra omogenea. Nel primo capitolo si studiano le serie di Fourier reali a partire dalle serie trigonometriche; vengono dati, poi, i principali risultati di convergenza puntuale, uniforme ed in L^2 e si discute l'integrabilità termine a termine di una serie di Fourier. Il secondo capitolo tratta la convergenza secondo Cesàro, le serie di Fejèr ed i principali risultati di convergenza di queste ultime. Nel terzo, ed ultimo, capitolo si risolve il Problema di Cauchy-Dirichlet, distinguendo i casi in cui il dato iniziale sia di classe C^1 o solo continuo; nel secondo caso si propone una risoluzione basata sulle serie di Fejér e sul concetto di barriera ed una utilizzando il nucleo di Green per l'equazione del calore.
Resumo:
Nella tesi studiamo le densità con la proprietà di media per i sub-Laplaciani. In particolare determiniamo un’espressione generale per una densità positiva con la proprietà di media, su un insieme Ω generico che soddisfi certe prorpietà di regolarità. Troviamo inoltre delle stime della funzione di Green e del nucleo di Poisson per un qualsiasi sub-Laplaciano su un generico gruppo di Carnot e tramite queste stime troviamo delle condizioni sufficienti affinchè, con la densità precedentemente trovata, si possa avere una struttura di Γ-tripla sull’insieme Ω. Studiamo infine un problema inverso per il quale sarà fondamentale avere una struttura di Γ-tripla.
Resumo:
Il tema centrale di questa tesi, suddivisa in tre capitoli, è lo studio della successione dei numeri di Catalan. Vengono mostrate le due formule della successione, quella ricorsiva e quella esplicita. Per arrivare a queste formule vengono utilizzate diverse interpretazioni per questi numeri come per esempio: le parentesi bilanciate, gli alberi, le triangolazioni di un poligono regolare convesso e i cammini di Dyck. Tali interpretazioni risulteranno essere del tutto equivalenti tra loro.
Resumo:
Si espone la teoria quantistica non relativistica dei sistemi di particelle identiche, costruendo un opportuno spazio delle configurazioni la cui struttura è coerente con la loro indistinguibilità. Si impiegano nozioni di topologia algebrica per la formulazione di una meccanica quantistica su tale spazio, mostrando che in due dimensioni spaziali esiste una continuità di statistiche quantistiche. Le particelle con queste statistiche intermedie tra bosoni e fermioni sono chiamate anioni. Si illustra l'importanza che hanno assunto nella spiegazione dell'effetto Hall quantistico e nell'attuale ricerca sulla possibilità di creare un computer quantistico topologico.
Resumo:
La seguente tesi si sviluppa in tre parti: un'introduzione alle simmetrie conformi e di scala, una parte centrale dedicata alle anomalie quantistiche ed una terza parte dedicata all'anomalia di traccia per fermioni. Nella seconda parte in particolare si introduce il metodo di calcolo alla Fujikawa e si discute la scelta di regolatori adeguati ed un metodo per ottenerli, si applicano poi questi metodi ai campi, scalare e vettoriale, per l'anomalia di traccia in spazio curvo. Nell'ultimo capitolo si calcolano le anomalie di traccia per un fermione di Dirac e per uno di Weyl; la motivazione per calcolare queste anomalie nasce dal fatto che recenti articoli hanno suggerito che possa emergere un termine immaginario proporzionale alle densità di Pontryagin nell'anomalia di Weyl. Noi non abbiamo trovato questo termine e il risultato è che l'anomalia di traccia risulta essere metà di quella per il caso di Dirac.
Resumo:
Un problema fondamentale nello studio delle particelle elementari è disporre di misure più accurate possibile delle traiettorie che queste seguono all'interno dei rivelatori. La precisione di misura dei parametri di traccia è importante per poter descrivere accuratamente gli eventi e le interazioni che avvengono all'interno dei rivelatori. LHCb è un esempio di esperimento progettato con lo scopo di ottenere misure di precisione dei parametri della cinematica delle particelle per poter studiare la violazione delle simmetrie. Rivelatori come quello dell'esperimento LHCb utilizzano avanzate tecniche di tracciamento per individuare le traiettorie. Queste sono influenzate da fattori di rumore dovuti all'interazione tra le particelle e il materiale del rivelatore stesso. Nell'analisi delle misure effettuate quindi occorre tenere conto che sia la sensibilità del rivelatore che i fattori di rumore contribuiscono nella determinazione dell'incertezza sulla misura. Uno strumento matematico usato per ottenere precise stime dei parametri di traccia è il filtro di Kalman, che implementato su un campione di misure di una determinata grandezza, consente di minimizzare gli effetti dovuti a rumori statistici. In questo lavoro di tesi sono stati studiati la struttura e il funzionamento del rivelatore dell'esperimento LHCb e dei sistemi di tracciamento che lo caratterizzano e che ne costituiranno il futuro aggiornamento. Inoltre è stata analizzata l'azione del filtro di Kalman, implementandolo in una simulazione di tracciamento al calcolatore.
Resumo:
La gestione del fine vita dei prodotti è un argomento di interesse attuale per le aziende; sempre più spesso l’imprese non possono più esimersi dall’implementare un efficiente sistema di Reverse Logistics. Per rispondere efficacemente a queste nuove esigenze diventa fondamentale ampliare i tradizionali sistemi logistici verso tutte quelle attività svolte all’interno della Reverse Logitics. Una gestione efficace ed efficiente dell’intera supply chain è un aspetto di primaria importanza per un’azienda ed incide notevolmente sulla sua competitività; proprio per perseguire questo obiettivo, sempre più aziende promuovono politiche di gestione delle supply chain sia Lean che Green. L’obiettivo di questo lavoro, nato dalle esigenze descritte sopra, è quello di applicare un modello innovativo che consideri sia politiche di gestione Lean, che dualmente politiche Green, alla gestione di una supply chain del settore automotive, comprendente anche le attività di gestione dei veicoli fuori uso (ELV). Si è analizzato per prima cosa i principi base e gli strumenti utilizzati per l’applicazione della Lean Production e del Green supply chain management e in seguito si è analizzato le caratteristiche distintive della Reverse Logistics e in particolare delle reti che trattano i veicoli a fine vita. L’obiettivo finale dello studio è quello di elaborare e implementare, tramite l’utilizzo del software AMPL, un modello di ottimizzazione multi-obiettivo (MOP- Multi Objective Optimization) Lean e Green a una Reverse Supply Chain dei veicoli a fine vita. I risultati ottenuti evidenziano che è possibile raggiungere un ottimo compromesso tra le due logiche. E' stata effettuata anche una valutazione economica dei risultati ottenuti, che ha evidenziato come il trade-off scelto rappresenti anche uno degli scenari con minor costi.
Resumo:
Le zone costiere appartengono alle aree con alta densità di popolazione, nonostante queste regioni siano le più vulnerabili al rischio di onde violente da tempesta e alla tracimazione di esse. In aggiunta, a causa del cambiamento climatico e all’innalzamento del livello del mare, si prevede un incremento nel numero e nell’intensità di tempeste violente. Come risultato, un grande quantitativo di acqua può tracimare, ciò porta all’instabilità e all’allagamento dell’eventuale opera atta alla protezione della costa, un disastro per la sicurezza della popolazione e per l’economia della zona. Per risolvere queste problematiche si è scelta una geometria tipica di difesa della costa e si è compiuta un’analisi di sensitività del modello, analizzando se al variare dei parametri caratteristici del muro paraonde e del relativo parapetto, il modello avverte una variazione della portata di tracimazione. Attraverso questo studio si vuole scoprire qual è la configurazione di cresta che da un punto di vista progettuale è il compromesso migliore tra efficacia della riduzione della portata e sollecitazioni accettabili.
Resumo:
Engine developers are putting more and more emphasis on the research of maximum thermal and mechanical efficiency in the recent years. Research advances have proven the effectiveness of downsized, turbocharged and direct injection concepts, applied to gasoline combustion systems, to reduce the overall fuel consumption while respecting exhaust emissions limits. These new technologies require more complex engine control units. The sound emitted from a mechanical system encloses many information related to its operating condition and it can be used for control and diagnostic purposes. The thesis shows how the functions carried out from different and specific sensors usually present on-board, can be executed, at the same time, using only one multifunction sensor based on low-cost microphone technology. A theoretical background about sound and signal processing is provided in chapter 1. In modern turbocharged downsized GDI engines, the achievement of maximum thermal efficiency is precluded by the occurrence of knock. Knock emits an unmistakable sound perceived by the human ear like a clink. In chapter 2, the possibility of using this characteristic sound for knock control propose, starting from first experimental assessment tests, to the implementation in a real, production-type engine control unit will be shown. Chapter 3 focus is on misfire detection. Putting emphasis on the low frequency domain of the engine sound spectrum, features related to each combustion cycle of each cylinder can be identified and isolated. An innovative approach to misfire detection, which presents the advantage of not being affected by the road and driveline conditions is introduced. A preliminary study of air path leak detection techniques based on acoustic emissions analysis has been developed, and the first experimental results are shown in chapter 4. Finally, in chapter 5, an innovative detection methodology, based on engine vibration analysis, that can provide useful information about combustion phase is reported.
Resumo:
Negli ultimi anni, i limiti sempre più stringenti sulle emissioni inquinanti dei gas di scarico, hanno portato ad un notevole aumento della complessità dei motori a combustione interna. Questa complicazione determina un aumento esponenziale del numero di test da effettuare nella sala prova. I metodi tipici di gestione dei test non possono più essere utilizzati, ma è essenziale creare un sistema che ottimizzi le prove. Per ridurre drasticamente il tempo di esecuzione, è necessario implementare un'architettura in grado di facilitare lo scambio di dati tra i sistemi presenti nella sala prova, e, in aggiunta, definire le strategie di automazione dei test. L'approccio a taluni metodi si presenta ancora complicato in molti gruppi di sviluppo di strategie di controllo motore, anche se, una volta sviluppati, portano e a grandi benefici durante la fase di test. Il lavoro illustra i metodi implementati per la gestione di queste strategie. Prima si descrive l'approccio utilizzato nella calibrazione di anticipo di accensione per mantenere livelli accettabili di detonazione durante il processo di calibrazione. Successivamente è mostrato il sistema di automazione dei test che consente il pieno controllo del punto di funzionamento del motore, la gestione dell'acquisizione e la verifica della stabilità delle condizioni ottenute. L'ultima parte mostra sistemi di prototipazione rapida per la gestione di componenti innovatici del motore.
Resumo:
Il progetto di dottorato che verrà presentato in questa tesi è focalizzato sullo sviluppo di un metodo sperimentale per la produzione di protesi personalizzate utilizzando il processo di fabbricazione additiva di Selective Laser Melting (SLM). L’obiettivo è quello di definire una condizione di processo ottimizzata per applicazioni in ambito chirurgico che possa essere generalizzabile, ovvero che ne garantisca la riproducibilità al variare dell’anatomia del paziente e che rappresenti la base per estendere il metodo ad altre componenti protesiche. Il lavoro si è sviluppato lungo due linee principali, la cui convergenza ha permesso di realizzare prototipi di protesi complete utilizzando un solo processo: da una parte la produzione di componenti a massima densità per il raggiungimento di elevate resistenze meccaniche, buona resistenza ad usura e corrosione e controllo di tensioni residue e deformazione delle parti stampate. Dall’altra si sono studiate strutture reticolari a geometria e porosità controllata per favorire l’osteointegrazione della componente protesica post impianto. In questo studio sono stati messe a confronto le possibili combinazioni tra parametri di processo e sono state individuate le correlazioni con le proprietà finali dei componenti stampati. Partendo da queste relazioni si sono sviluppate le strategie tecnologiche per la progettazione e la produzione dei componenti. I test sperimentali svolti e i risultati ottenuti hanno dimostrato la fattibilità dell’utilizzo del processo SLM per la produzione di protesi personalizzate e sono stati fabbricati i primi prototipi funzionali. La fabbricazione di protesi personalizzate richiede, però, anche la progettazione e la produzione di strumentario chirurgico ad hoc. Per questo motivo, parallelamente allo studio della lega di Cromo Cobalto, sono stati eseguiti i test anche su campioni in INOX 316L. Anche in questo caso è stato possibile individuare una finestra operativa di processo che garantisse proprietà meccaniche comparabili, e in alcuni casi superiori, a quelle ottenute con processi convenzionali.