995 resultados para SINCRONIZAÇÃO DE CIO
Resumo:
In una formulazione rigorosa della teoria quantistica, la definizione della varietà Riemanniana spaziale su cui il sistema è vincolato gioca un ruolo fondamentale. La presenza di un bordo sottolinea l'aspetto quantistico del sistema: l'imposizione di condizioni al contorno determina la discretizzazione degli autovalori del Laplaciano, come accade con condizioni note quali quelle periodiche, di Neumann o di Dirichlet. Tuttavia, non sono le uniche possibili. Qualsiasi condizione al bordo che garantisca l'autoaggiunzione dell' operatore Hamiltoniano è ammissibile. Tutte le possibili boundary conditions possono essere catalogate a partire dalla richiesta di conservazione del flusso al bordo della varietà. Alcune possibili condizioni al contorno, permettono l'esistenza di stati legati al bordo, cioè autostati dell' Hamiltoniana con autovalori negativi, detti edge states. Lo scopo di questa tesi è quello di investigare gli effetti di bordo in sistemi unidimensionali implementati su un reticolo discreto, nella prospettiva di capire come simulare proprietà di edge in un reticolo ottico. Il primo caso considerato è un sistema di elettroni liberi. La presenza di edge states è completamente determinata dai parametri di bordo del Laplaciano discreto. Al massimo due edge states emergono, e possono essere legati all' estremità destra o sinistra della catena a seconda delle condizioni al contorno. Anche il modo in cui decadono dal bordo al bulk e completamente determinato dalla scelta delle condizioni. Ammettendo un' interazione quadratica tra siti primi vicini, un secondo tipo di stati emerge in relazione sia alle condizioni al contorno che ai parametri del bulk. Questi stati sono chiamati zero modes, in quanto esiste la possibilità che siano degeneri con lo stato fondamentale. Per implementare le più generali condizioni al contorno, specialmente nel caso interagente, è necessario utilizzare un metodo generale per la diagonalizzazione, che estende la tecnica di Lieb-Shultz-Mattis per Hamiltoniane quadratiche a matrici complesse.
Resumo:
L’installazione di smorzatori viscosi sulle strutture permette di dissipare l’energia che il sisma trasmette, senza provocare danni o rotture degli elementi strutturali principali. Questi dispositivi sono stati l'oggetto di numerosi lavori di ricerca dal 1980 fino ad oggi e l'efficacia nel mitigare gli effetti dell’azione sismica su strutture edilizie è stata ampiamente dimostrata. La maggior parte delle teorie scientifiche per la progettazione e l'ottimizzazione degli smorzatori si basano sofisticati algoritmi, portando talvolta a complessi procedure. L'applicazione di tali algoritmi richiede spesso competenze computazionali e di tempo eccessive. Il fine della tesi è quello di proporre un metodo pratico, cioè diretto e immediato per aiutare gli ingegneri per effettuare analisi sismiche su strutture intelaiate dotate di smorzatori viscosi e di dimensionare tali dispositivi. Tale metodo è stato l’oggetto del lavoro di ricerca scientifica trattato nell’articolo: “Equivalent Static Analyses of framed structures with added viscous dampers” di Palermo et al., 2015. Si riesce così ad estendere così il concetto di analisi statica equivalente anche per strutture dotate di smorzatori viscosi, definendo in maniera intuitiva sia le configurazioni di idealizzazione della strutture durante il sisma sia l’ idealizzazione dell’effetto del sisma sulla struttura. In questi anni di lavoro di ricerca, sono stati proposti vari metodi per il dimensionamento degli smorzatori viscosi. Tra questi, il prof. Ing. Silvestri (Silvestri et al., 2010) ha proposto un approccio progettuale diretto, chiamato "five step procedure” che mira a guidare l'ingegnere professionista, dalla scelta del target di prestazioni alle identificazioni della caratteristiche meccaniche di smorzatori viscosi trovabili in commercio. La procedura originale (Silvestri et al., 2010, Silvestri et al., 2011, Palermo et al., 2013), anche se per lo più basata su espressioni analitiche, richiede ancora lo sviluppo di analisi numeriche Time-History di modelli FEM, al fine di valutare le forze massime negli smorzatori aggiunti. Verrà spiegato e proposto un metodo semplificato (“Direct five step procedure for the dimensioning of added viscous dampers” Palermo et al., 2015) che consente ottenere direttamente, tramite una semplice formula, le forze massime degli smorzatori (spesso un parametro chiave della valutazione del costo degli smorzatori), senza eseguire simulazioni numeriche. Infine, si è applicato il metodo semplificato proposto di analisi statica equivalente per strutture equipaggiate di smorzatori viscosi ad un edificio reale.
Resumo:
Negli ultimi quindici anni il traffico aereo passeggeri in Italia è stato interessato da un cospicuo incremento: si è passati dai 91 milioni di passeggeri nel 2000 ai 150 milioni nel 2014. Le previsioni di crescita per il Paese indicano il possibile raddoppio del traffico entro il 2030, quando si dovrebbe raggiungere la soglia dei 300 milioni di passeggeri, con un aumento soprattutto della quota parte internazionale. Non vi può essere sviluppo economico di uno Stato senza crescita del traffico aereo, la quale si può realizzare solo con un adeguamento e un potenziamento delle capacità delle infrastrutture aeroportuali compatibile con le condizioni ambientali e un’efficace interconnessione degli scali con gli altri modi di trasporto. Infatti la pianificazione e la progettazione degli aeroporti non può prescindere da un’analisi approfondita sugli impatti ambientali prodotti dalle attività svolte all’interno degli scali. Inoltre l’incremento del numero medio di passeggeri per movimento (dal 75 pax/mov nel 2000 a 106 pax/mov nel 2011, dato riferito al traffico nazionale) rappresenta un dato positivo dal punto di vista ambientale: nei cieli vola un minor numero di aeromobili, ma in grado di trasportare un maggior numero di passeggeri, con conseguente diminuzione del numero dei movimenti, quindi del rumore, delle emissioni e dell’inquinamento ambientale provocato dalle operazioni necessarie a garantire l’operatività di ciascun volo. La salvaguardia dell’ambiente per un aeroporto è un compito difficile e oneroso, poiché può creare problemi ambientali come inquinamento acustico, dell’aria, delle acque fondiarie e trattamento dei rifiuti. In particolare, scopo di questo elaborato è studiare l’impatto che le operazioni svolte in air-side provocano sulla qualità delle acque di dilavamento, osservando e analizzando le attività che avvengono presso l’Aeroporto G. Marconi di Bologna. Si intende svolgere un censimento delle operazioni che influenzano la qualità delle acque (sia direttamente sia a seguito del dilavamento delle pavimentazioni aeroportuali), indagando quali siano i soggetti coinvolti, le procedure da eseguire, la frequenza e gli eventuali mezzi impiegati. Poi si vogliono eseguire analisi chimiche e granulometriche con un duplice obiettivo: conoscere la qualità delle acque raccolte dalle caditoie presenti nel piazzale e a bordo pista e verificare l’efficacia delle operazioni eseguite anche per ridurre il build up, cioè il tasso di accumulo in tempo secco e, di conseguenza, l’apporto di inquinanti riversato nelle acque di dilavamento. Infine si propongono interventi volti a incrementare la sostenibilità ambientale dell’infrastruttura aeroportuale, con particolare attenzione alla riduzione dell’inquinamento idrico.
Resumo:
Le infrastrutture portuali rappresentano un elemento chiave come motore di crescita per l’economia globale. Il 74% delle merci importate ed esportate dall’UE transitano per porti. Per questo motivo sono necessari investimenti in infrastrutture e attrezzature portuali per far fronte alle previsioni di crescita del trasporto merci nel prossimo decennio. La crescita del transhipment, quindi di grossi scali chiamati hub, ha rivoluzionato la scelta delle tratte principali e la scelta degli scali. Nel corso del seguente elaborato ci si è concentrati sulla situazione dell’Alto Adriatico, analizzando lo stato attuale dei principali porti e i possibili sviluppi futuri. La situazione dell’Alto Adriatico è particolare, questi porti si trovano sulle rotte principali del trasporto globale ma vista la crescita di scambi commerciali con la Cina e l’estremo Oriente, per via dello spostamento verso Est del baricentro dell’economia, si trovano in posizione ottimale per diventare un grosso gateway. Questo è l’obbiettivo che si sono prefissati i porti del Nord Adriatico cioè far capire che risalire l’Adriatico, anche se fuori dalle rotte può risultare conveniente visto il risparmio di cinque giorni di navigazione, rispetto ai porti del Nord Europa, che si traduce in un risparmio di tempo e di costi. Per creare attrattiva sono stati svolti, e continuano, numerosi investimenti per lo sviluppo dei fondali e del retroporto, nel tentativo di potersi affermare all’interno del mercato europeo e globale. Nel corso dell’elaborato saranno analizzati i grossi vantaggi di cui godono i porti del Nord Adriatico grazie alla loro posizione geografica, e alcune delle problematiche che ostacolano la crescita.
Resumo:
In questo lavoro vengono analizzate due sottovarietà notevoli di P^5 legate allo studio delle ipersuperfici quadriche: la quadrica di Klein e la superficie di Veronese. La quadrica di Klein è una ipersuperficie di grado 2 di P^5 in corrispondenza biunivoca con l'insieme delle rette di P^3. Riguardando P^5 come lo spazio delle coniche di P^2, la superficie di Veronese corrisponde alle coniche di rango 1, cioè alle rette doppie.
Resumo:
La tesi affronta la tematica dei problemi cardiaci riscontrati in alcuni pazienti, a seguito del trattamento sanitario con procedure chemioterapiche. In particolar modo si concentra sugli effetti collaterali derivanti dalle cure somministrate ad individui affetti da tumori mammari, che, a causa di questa condizione, subiscono terapie mirate a livello del torace. La cardiotossicità che si presenta nei casi precedentemente indicati è di tipo acuto, o cronico. Il lavoro si prefigge lo scopo di analizzare una metodologia che identifichi e riscontri in tempo il manifestarsi della cardiotossicità, basandosi su alcuni sintomi e segnali, per evitare il manifestarsi del tipo cronico. Per raggiungere questo obiettivo si è studiato l'utilizzo di apparecchiature per l’ecocardiografia, che sono poco invasive e presentano una quantità di effetti collaterali estremamente ridotta. L’elaborato è suddiviso in quattro capitoli: 1. Il primo capitolo è dedicato al "Cuore". Nei diversi sottocapitoli ci si concentra sulla parte anatomica e sulla fisiologia dello stesso. Il sottocapitolo più importante è quello sulla "Cardiotossicità", tema centrale del lavoro, in cui sono spiegati i meccanismi con cui si manifesta, quali farmaci la causano e per quali motivi. 2. Il secondo capitolo si occupa dell’apparecchiatura usata durante lo studio del cuore, cioè l'ecografo. Dopo una breve introduzione sulle proprietà fisiche degli ultrasuoni, ci si concentra sulla struttura dell’apparecchiatura. In particolare ci si focalizza sugli strumenti per ecografie cardiache volumetriche. 3. Il terzo capitolo è dedicato al software TOMTEC. Si descrive in quali modalità si utilizza, in che maniera, e quali parametri identifica per l'eventuale riscontro di episodi di cardiotossicità. In uno dei sottocapitoli è descritto nel dettaglio il database creato dall’autrice per la raccolta dei dati relativi ai pazienti trattati. 4. L'ultimo capitolo è dedicato alla conclusioni, in cui si sottolinea l'importanza della ricerca di meccanismi per prevenire l'insorgere di malattie cardiache in pazienti già sottoposti a pesanti cicli di terapia.
Resumo:
Il lavoro svolto in questa tesi è legato allo studio ed alla formulazione di metodi computazionali volti all’eliminazione del noise (rumore) presente nelle immagini, cioè il processo di “denoising” che è quello di ricostruire un’immagine corrotta da rumore avendo a disposizione una conoscenza a priori del fenomeno di degrado. Il problema del denoising è formulato come un problema di minimo di un funzionale dato dalla somma di una funzione che rappresenta l’adattamento dei dati e la Variazione Totale. I metodi di denoising di immagini saranno affrontati attraverso tecniche basate sullo split Bregman e la Total Variation (TV) pesata che è un problema mal condizionato, cioè un problema sensibile a piccole perturbazioni sui dati. Queste tecniche permettono di ottimizzare dal punto di vista della visualizzazione le immagini in esame.
Resumo:
Nell'era genomica moderna, la mole di dati generata dal sequenziamento genetico è diventata estremamente elevata. L’analisi di dati genomici richiede l’utilizzo di metodi di significatività statistica per quantificare la robustezza delle correlazioni individuate nei dati. La significatività statistica ci permette di capire se le relazioni nei dati che stiamo analizzando abbiano effettivamente un peso statistico, cioè se l’evento che stiamo analizzando è successo “per caso” o è effettivamente corretto pensare che avvenga con una probabilità utile. Indipendentemente dal test statistico utilizzato, in presenza di test multipli di verifica (“Multiple Testing Hypothesis”) è necessario utilizzare metodi per la correzione della significatività statistica (“Multiple Testing Correction”). Lo scopo di questa tesi è quello di rendere disponibili le implementazioni dei più noti metodi di correzione della significatività statistica. È stata creata una raccolta di questi metodi, sottoforma di libreria, proprio perché nel panorama bioinformatico moderno non è stato trovato nulla del genere.
Resumo:
La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.
Resumo:
L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.
Resumo:
L'obiettivo della tesi è progettare un'architettura abilitante per scenari smart health, concentrandosi sulla parte end-user (non sulla parte server-cloud), ossia sperimentando l'ambito dei wearable devices e facendo riferimento al binomio fitness-Apple Watch, comodo perchè presente nell'azienda FitStadium che ci fornisce motivazioni, requisiti e goals. Nel primo capitolo si analizzeranno le soluzioni offerte attualmente dal mercato per la realizzazione di servizi legati al fitness, focalizzandosi in particolare sulle architetture proposte e come quest'ultime possano convivere con l'ecosistema FitStadium. Il secondo capitolo è riservato invece all'approfondimento delle tecnologie Apple, che verranno utilizzate concretamente per la realizzazione del caso di studio. Ancora una volta si farà attenzione alle possibilità architetturali offerte da queste tecnologie. Nel terzo capitolo viene trattato nella sua interezza il caso di studio, analizzandone in particolare lo stato pre e post tesi. Verrà cioè descritta l'applicazione implementata insieme alla presentazione di un'architettura abilitante anche per gli scenari smart health. Infine, all'interno del capito 4 viene descritto più precisamente il concetto di smart health e il percorso che ha condotto alla sua definizione.
Resumo:
Nelle matrici ambientali sono spesso presenti xenoestrogeni, molecole sintetiche o di origine naturale ad attività estrogenica in grado di alterare il normale equilibrio ormonale di organismi esposti, incidendo negativamente su alcune funzioni vitali come la riproduzione ed il metabolismo. Diverse sostanze chimiche presenti in ambiente, tra cui alcune molecole ad attività estrogenica, sono anche potenziali composti genotossici, in grado, cioè, di interagire con il DNA ed esercitare effetti anche a lungo termine come l’insorgenza di tumori nei vertebrati, uomo compreso. L’obiettivo del presente lavoro di tesi è stato quello di mettere a punto ed utilizzare due saggi biologici, il saggio E-screen ed il test dei micronuclei, per valutare la presenza di xenoestrogeni e composti genotossici in campioni di acque prelevate prima e dopo i trattamenti di potabilizzazione, utilizzando cellule MCF-7 di adenocarcinoma mammario come modello sperimentale in vitro. Le indagini biologiche sono state condotte sulla base di una convenzione di ricerca con la Società acquedottistica Romagna Acque- Società delle fonti e hanno previsto tre campagne di monitoraggio. I campioni di acqua sperimentale, raccolti prima e dopo i trattamenti presso diversi impianti di potabilizzazione, sono stati preventivamente filtrati, estratti in fase solida, fatti evaporare sotto leggero flusso di azoto, ed infine, saggiati sulle cellule. Il test E-screen, di cui abbiamo dimostrato un elevato livello di sensibilità, ha permesso di escludere la presenza di composti ad attività estrogenica nei campioni esaminati. Allo stesso modo, i risultati del test dei micronuclei hanno dimostrato l’assenza di effetti genotossici, confermando la buona qualità delle acque analizzate. Nell’ambito delle attività di monitoraggio, le indagini biologiche risultano essenziali per la valutazione di una potenziale contaminazione ambientale, in quanto forniscono informazioni anche quando non sono state condotte analisi chimiche. Inoltre, anche quando le analisi chimiche siano state condotte, i test biologici informano della potenzialità tossica di una matrice causata eventualmente da sostanze non oggetto del saggio chimico. Infine, i test biologici permettono di identificare eventuali sinergie tra più contaminanti presenti nelle acque, affermandosi come test da condurre in maniera complementare ai saggi chimici. I test biologici come quelli impiegati nel lavoro di tesi sono molto sensibili ed informativi, ma necessitano della definizione di protocolli standardizzati per garantirne un’uniforme applicazione alle acque ad uso potabile, almeno a livello nazionale.
Resumo:
La tesi vuole essere una panoramica generale sugli strumenti anti-plagio e sul fenomeno del plagio. Si parte col descrivere le leggi in merito al plagio e come viene sanzionato, successivamente si parla del plagio in ambito universitario cioè come le università si approcciano al problema. Si descrivono i metodi di individuazione del plagio sia nei testi che nei software. Si analizzano diversi programmi: uno di analisi testuale (CitePlag) altri di analisi dei software; questi ultimi vengono confrontati tra di loro attraverso una serie di test infine se ne discutono i risultati.
Resumo:
Questa tesi affronta uno dei principali argomenti trattati dalla finanza matematica: la determinazione del prezzo dei derivati finanziari. Esistono diversi metodi per trattare questo tema, ma in particolare vengono illustrati i metodi che usano la trasformata di Fourier. Questi ultimi infatti ci permettono di sostituire il calcolo dell'attesa condizionata scontata, con il calcolo dell'integrale della trasformata di Fourier, in quanto la funzione caratteristica, cioè la trasformata di Fourier della funzione densità, è più trattabile rispetto alla funzione densità stessa. Vengono in primo luogo analizzate alcune importanti formule di valutazione e successivamente implementate, attraverso il software Mathematica. I modelli di riferimento utilizzati per l'implementazione sono il modello di Black-Scholes e il modello di Merton.
Resumo:
In questa tesi si studiano le geodetiche sulle superfici dello spazio euclideo tridimensionale. Tali curve, che godono di proprietà analoghe a quelle delle rette nel piano, vengono definite come quelle particolari curve sulle superfici il cui campo dei vettori tangenti e' parallelo, cioè ha derivata covariante nulla. Sulle superfici di rotazione le geodetiche sono tutti i meridiani, i paralleli aventi vettori tangenti paralleli all'asse di rotazione e tutte le curve soddisfacenti la condizione di Clairaut. Dopo aver studiato le geodetiche su alcune superfici significative si introduce la nozione di mappa esponenziale che permetterà di dimostrare le proprietà di minimo locale delle geodetiche.