442 resultados para Misura, rumore, Mosfet, amplificatore
Resumo:
Le tradizionali tecniche usate per l’analisi della struttura e della composizione comprendono, tra le altre, microscopia ottica, microscopia elettronica, diffrazione a raggi X e analisi chimica. In generale però, la maggior parte di questi metodi richiede una procedura di preparazione che può modificare la struttura o la composizione del campione. È necessario infatti che il campione non subisca alterazioni particolari durante la fase di preparazioni in modo tale che le condizioni fisiologiche rimangano il più possibile simili a quelle che si hanno in situ. Una tecnica che ultimamente sta diventando sempre più significativa in ambito biomedico è la spettroscopia Raman. Innanzitutto con l’analisi Raman la quantità di materiale da studiare per ottenere buoni risultati è minima, visto che possono essere studiati campioni che vanno dai micro ai nanogrammi; inoltre, possono essere analizzati campioni umidi e a pressione atmosferica, condizioni che rispecchiano verosimilmente quelle fisiologiche. Questo tipo di analisi è inoltre vantaggiosa dato che riesce a identificare diversi composti chimici, ha un’elevata risoluzione spaziale (0.6-1µm), riuscendo quindi ad analizzare campioni molto piccoli, ha tempi di misura brevi e può essere utilizzato più volte sullo stesso campione senza che quest’ultimo venga danneggiato. Nel seguente elaborato si sono riportati i risultati di diversi studi condotti sull’idrossiapatite naturale/biologica e sintetica ottenuti mediante questa tecnica spettroscopica. In particolare, ci si è soffermati sulla diversa concentrazione di OH- presente nell’apatite stechiometrica rispetto a quella biologica e di come tale concentrazione sia influenzata dalla presenza o meno dello ione carbonato. Si riportano inoltre le analisi condotte su campioni sintetici e biologici per comprendere se le molecole di acqua si trovino all’interno della struttura del minerale (acqua di bulk) o se siano solamente assorbite in superficie.
Resumo:
Villa Adriana presenta un ampio spettro di possibili casi studio finalizzati ad approfondire il tema della documentazione e della catalogazione dei Beni Culturali. La diffusione della rete Internet ha oggi determinato la necessità di gestire le informazioni in forma distribuita. Nel settore dei B.C., per anni le informazioni relative agli stessi venivano riassunte in schede, “beni schedati” per l’appunto, in modo da facilitarne la consultabilità e l’organizzazione manuale. Nel primo periodo della informatizzazione il processo è stato perfettamente uguale: schede, unità di misura e campi rimasero gli stessi, ma digitalizzati. È chiaro che oggi un sistema del genere appare poco appropriato rispetto alle proprietà dei sistemi digitali, per consentirne lo studio e/o la fruizione. Quindi è nata l’esigenza di migliorare la gestione dei dati raccolti e aggiornare la scheda tenendo conto dell’esperienza sia di coloro che lavorano nel campo della catalogazione dei beni culturali sia di coloro che operano nelle Soprintendenze e nelle Università. Tutto ciò ha spinto il Ministero per i Beni e le Attività Culturali a pensare una soluzione al fine di creare un processo evolutivo dei cittadini. L’“innovazione tecnologica”, oltre ad essere un’implementazione di una nuova regola organizzativa, miglio9ra il supporto alla salvaguardia dei beni artistici e archeologici, mettendo a disposizione dei tecnici delle soprintendenze e delle forze dell’ordine strumenti che semplificano l’attività nella tutela del patrimonio culturale. È innegabile il fatto che oggi i nuovi “media” siano il fulcro di un “movimento” verso i modelli rinnovati di comunicazione della conoscenza che offrono le forme più rapide e immediate dell’offerta culturale. Il sistema informativo permette di incrociare le informazioni di carattere tecnico con i dati relativi alla conoscenza del bene e alla sua storia, mettendoli in relazione alla specifica area a cui si riferiscono.
Resumo:
Lo scopo di questa tesi è quello di misurare ed analizzare completamente le caratteristiche spaziali della distribuzione del suono nel Teatro all’Antica di Sabbioneta, patrimonio UNESCO. Dopo una breve storia sulla città e sul teatro, sono state svolte misurazioni acustiche in diversi punti di misura. Vengono analizzati e calcolati i principali parametri acustici quali tempo di riverbero, indice di robustezza, early decay time, indici di definizione e chiarezza, indici di intelligibilità, parametri spaziali. Viene poi utilizzato un array microfonico che permette di ottenere una completa informazione sulla distribuzione spaziale del suono in un teatro, mappando varie direzioni di arrivo delle riflessioni.
Resumo:
Questa tesi ha lo scopo di descrivere le proprietà matematiche degli insiemi frattali. Nell'introduzione è spiegato brevemente cosa sono i frattali e vengono fatti alcuni esempi di frattali in natura, per poi passare agli aspetti più matematici nei capitoli. Nel capitolo uno si parla della misura e della dimensione di Hausdorff e viene calcolata, seguendo la definizione, per l'insieme di Cantor. Poi nel secondo capitolo viene descrittà l'autosimilarità e viene enunciato un importante teorema che lega l'autosimilarità e la dimensione di Hausdorff. Nel terzo capitolo vengono descritti degli insiemi frattali molto importanti: quelli di Mandelbrot e di Julia.
Resumo:
Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.
Resumo:
Il Modello Standard delle particelle elementari prevede l’universalità del sapore leptonico, cioè l’uguaglianza della probabilità di accoppiamento dei bosoni di gauge carichi dell’interazione debole con tutti i leptoni. Recentemente, le Collaborazioni LHCb, BaBar e Belle, misurando il rapporto tra i branching ratio dei decadimenti $B^0\to D^{∗− }\tau^+\nu_{\tau} e $B^0 →D^{∗−}\mu^+\nu_{\mu}, hanno osservato una deviazione dai valori previsti dal Modello Standard di 3.9 deviazioni standard. Questo interessante risultato, se confermato, indicherebbe l’esistenza di nuove particelle, come per esempio il bosone di Higgs carico. Analogamente ai decadimenti del mesone $B^0$ , è possibile cercare effetti analoghi anche nel rapporto di branching ratio dei decadimenti $D^0\to K^ −\mu^+\nu_{\mu}$ e $D^0\to K^−e^+\nu_e$ . In questo lavoro di tesi è stato realizzato uno studio preliminare di questa misura. In particolare, è stato studiata, tramite simulazioni Monte Carlo, la ricostruzione del processo $D^{*\pm}\to D^0 (\to K^− \mu+\nu_{\mu})\pi_s^{\pm}$ nell’esperimento LHCb. Questo canale ha la particolarità di avere una particella invisibile, il neutrino, al rivelatore LHCb. Tuttavia, mediante vincoli cinematici e topologici, è possibile ricavare le componenti dell’impulso del neutrino, con risoluzioni non paragonabili a quelle di una particella visibile, ma comunque accettabili. In questa tesi sono riportati i calcoli che permettono di ottenere queste informazioni ed è stata studiata la risoluzione sulla massa invariante del $D^{∗\pm}$ . La tesi è organizzata nel seguente modo: il primo capitolo riporta le motivazioni della misura dei rapporti dei branching ratio e l’attuale stato sperimentale; il secondo capitolo contiene una breve descrizione del rivelatore LHCb; il terzo capitolo, infine, descrive lo studio di fattibilità della ricostruzione del decadimento $D^0\to K^-\mu^+\nu_{\mu}.
Resumo:
Nel sistema nervoso centrale i neuroni comunicano l'uno con l'altro attraverso le connessioni sinaptiche e sono soggetti a centinaia di stimoli, ma hanno la capacità di distinguerli l'uno dall'altro. L'abilità delle sinapsi di interpretare questi cambiamenti morfologici e biochimici è detta \textit{plasticità sinaptica} e l'obiettivo di questa tesi è proprio studiare un modello per le dinamiche di questo affascinante processo, da un punto di vista prima deterministico e poi stocastico. Infatti le reazioni che inducono la plasticità sinaptica sono ben approssimate da equazioni differenziali non lineari, ma nel caso di poche molecole bisogna tener conto delle fluttuazioni e quindi sono necessari dei metodi di analisi stocastici. Nel primo capitolo, dopo aver introdotto gli aspetti fondamentali del sistema biochimico coinvolto e dopo aver accennato ai diversi studi che hanno approcciato l'argomento, viene illustrato il modello basato sull'aggregazione delle proteine (PADP) volto a spiegare la plasticità sinaptica. Con il secondo capitolo si introducono i concetti matematici che stanno alla base dei processi stocastici, strumenti utili per studiare e descrivere la dinamica dei sistemi biochimici. Il terzo capitolo introduce una giustificazione matematica riguardo la modellizzazione in campo medio e vede una prima trattazione del modello, con relativa applicazione, sui moscerini. Successivamente si applica il modello di cui sopra ai mammiferi e se ne studia nel dettaglio la dinamica del sistema e la dipendenza dai parametri di soglia che portano alle varie transizioni di fase che coinvolgono le proteine. Infine si è voluto osservare questo sistema da un punto di vista stocastico inserendo il rumore di Wiener per poi confrontare i risultati con quelli ottenuti dall'approccio deterministico.
Resumo:
Nella tesi viene presentata la definizione assiomatica del moto browniano, che ha le sue basi nella teoria della probabilità, come risulta naturale, essendo il moto browniano l'immagine macroscopica che emerge dallo spostamento casuale di una particella che si muove in uno spazio d-dimensionale senza compiere salti eccessivamente grandi. Perciò preliminarmente si propone la descrizione dello spazio di probabilità in cui si lavora, in particolare si costruisce una misura di probabilità, detta misura di Wiener. Quindi si dà prova dell'effettiva esistenza del moto browniano attraverso due diverse argomentazioni, che fanno riferimento l’una a Paley e Wiener, l'altra a Lévy. Nel primo caso la costruzione del moto browniano è basata sull'utilizzo di variabili aleatorie complesse con distribuzione gaussiana e di serie convergenti in L^2 e adopera risultati della teoria delle serie di Fourier; nel secondo caso il moto browniano è costruito come limite uniforme di funzioni continue. Infine si analizzano le principali caratteristiche matematiche del moto browniano, in particolare le proprietà di continuità Holder, di non monotonia e di non differenziabilità.
Resumo:
La tesi tratta del metodo PEA per la misura della carica di spazio. Viene fatta una valutazione sull'applicazione del metodo e sul significato dei risultati per le prove sui cavi modello. Utilizzando quanto ottenuto dalle prove si fa poi una riflessione su come sia più sensato calcolare il campo elettrico, partendo dalla distribuzione di carica ottenuta. Infine verra mostrata una prova su un cavo full size (progetto IFA2) per avere un riscontro degli studi fatti in laboratorio su un test di fabbrica. Le conclusioni si concentreranno sui problemi attuali relativi al sistema di misura e sulle possibili migliorie future.
Resumo:
I materiali compositi possiedono proprietà funzionali e di resistenza sempre più performanti grazie alla natura dei rinforzanti in fibra di carbonio, i quali però sono caratterizzati da criticità relative al processo di trasformazione altamente energivoro e dispendioso, all’inquinamento collegato alla produzione delle fibre e al trattamento di sizing, nonché alla difficoltà nello stadio di separazione dei costituenti del manufatto composito e del conseguente riciclo. A causa di queste problematiche sono stati introdotti in produzione materiali a matrice epossidica rinforzata con fibre di lino. Lo studio è stato indirizzato verso la caratterizzazione delle materie prime che compongono i manufatti, quindi fibre e semilavorati, mediante analisi termiche dinamiche in DSC e TGA con il fine di determinare la composizione e resistenza dei singoli componenti e la misura della variazione nel comportamento quando sono uniti per comporre i prepreg. Sono state eseguite delle prove di igroscopicità, umidità e densità per ottenere una panoramica precisa sulle differenze nella struttura delle fibre in carbonio e lino che le differenzia in modo apprezzabile. Sono stati laminati compositi reticolati secondo tecnologia in autoclave, le cui proprietà sono state definite mediante prove termiche dinamiche in DSC, TGA, DMA, prove alla fiamma mediante conocalorimetro, prove fisiche di igroscopicità, umidità e densità, prove ottiche al SEM in seguito ad una rottura in trazione. Parte del progetto seguito è stato direzionato all’ottimizzazione del ciclo produttivo in autoclave. La simulazione del nuovo ciclo di cura industriale, RAPID, è stata eseguita per valutare la variazione della Tg finale e il grado di curing, nonché le proprietà termiche e meccaniche già valutate nel ciclo di cura, STANDARD.
Resumo:
Lo scopo della tesi è lo studio di fotoreazioni di cicloaddizione [2 + 2] in stato solido mediante l’utilizzo di tecniche di spettroscopia vibrazionale Raman e IR. La nostra attenzione si è focalizzata su processi di sistemi organici del tipo “crystal to crystal” (CC) o “single crystal to single crystal” (SCSC), che avvengono con la trasformazione del cristallo del reagente in quello del prodotto. Argomento principale del lavoro di tesi sono i cristalli dei sali di bromuro e cloruro dell’acido 4-ammino-trans-cinnamico, che dimerizzano sotto irraggiamento UV. Il lavoro fa parte di un progetto di ampio respiro svolto in collaborazione con ricercatori del Dipartimento di Chimica “G. Ciamician”, che coinvolge anche cristalli misti dei due sali. Lo studio condotto da loro mediante misure di diffrazione ai raggi X ha stabilito che il processo in esame è del tipo SCSC. L’indagine in microscopia Raman su cristallo singolo si è prefissa di analizzare, in funzione del tempo di irraggiamento, l’evoluzione dello spettro delle vibrazioni sia intramolecolari che reticolari, ottenendo in una stessa misura informazioni sulla trasformazione chimica e su quella di reticolo. A differenza di quanto avviene in processi di dimerizzazione CC con ricostruzione di fase, si è constatato che reazione chimica e cambio di reticolo avvengono in modo parallelo e simultaneo. Inoltre si è osservato che lo spettro delle vibrazioni reticolari evolve senza soluzione di continuità da quello della fase reagente a quello della fase prodotto. Questo è un risultato interessante, di un fenomeno mai osservato prima nello studio Raman di reazioni in stato solido. L’analoga indagine IR su polveri, che si limita alla vibrazione intermolecolare, ha permesso di ricavare la legge cinetica della reazione. Lo stesso metodo di indagine spettroscopica è stato applicato anche alla fotodimerizzazone con meccanismo [2 + 2] dell’acido trans-3-(2-furil)acrilico, processo interessante dal punto di vista industriale.
Resumo:
L’obiettivo di questa tesi è lo studio dell’applicazione del filtro di Kalman Duale per la stima dei principali parametri di batteria. Si è realizzato un algoritmo che consente la stima del SoC e dei parametri basandosi su riferimenti di tensione provenienti da modelli matematici e da prove di laboratorio. La scelta del Kalman duale consente uno studio più completo dei parametri di batteria visto che permette di operare su circuiti equivalenti più complessi con maggiori informazioni sull’evoluzione della batteria nel tempo. I risultati dimostrano l’efficacia del DEKF nello stimare la tensione e lo stato di carica con errori minori rispetto a precedenti test effettuati con altri filtri di Kalman. Si ha però una difficoltà alla convergenza su alcuni parametri a causa dell’elevato carico computazionale che porta ad un aumento del rumore. Perciò, per studi futuri si dovrà aumentare la precisione con cui la stima duale opera sulla matrice dei parametri del circuito equivalente. Questo porterà a migliori prestazioni anche su circuiti più complessi.
Resumo:
Il titolo della tesi mette in luce uno dei problemi che Palermo deve affrontare dall'imminente secondo dopoguerra: il rapporto tra il mare e la città. Il mare a Palermo non si vede, non se ne percepisce il rumore e l'odore. Tutto il litorale palermitano si trova costellato di edificazioni abusive e di muri che ne nascondono la vista. Il mare, oggi, viene percepito solo come un limite oltre il quale l'espansione edilizia non è riuscita a spingersi. Tutto l'area tra la città costruita e la battigia diventa così uno spazio residuale; uno spazio di nessuno o di abitanti abusivi stagionali. La Palermo degli anni 50, molto colpita dai bombardamenti, viene ricostruita da zero e le macerie delle case distrutte vengono riversate lungo tutta la costa sud. Questi detriti hanno portato alla trasformazione orografica e sociale del litorale con la formazione di 3 promontori: detti i "mammelloni", che hanno sostituito il precedente lungomare, sabbioso e balneare. Con il passare degli anni questi promontori sono diventati luoghi di terzo paesaggio, in conflitto tra la natura che cerca di riappropriarsene e il singolo che trova legittimo buttare ciò che non gli serve più, come se questo fosse il tappeto sotto cui si accumula tutta la polvere della città. Uno spazio sotto al quale sono presenti ricordi di un periodo difficile: la guerra. Il nostro progetto vede la strada come il filo della collana che terrà insieme tutte le perle: una serie di fatti urbani che si sviluppano fra i "mammelloni" e le aree costiere. La strada in questione è via Messina Marine, l'antico collegamento tra Palermo e Messina. Questo intervento vuole essere un punto di partenza dove poter ricominciare a vivere il mare. Il mare deve tornare ad essere il centro della vita cittadina e turistica essendo, da sempre, il fulcro della realtà economica e sociale di Palermo. Città e il mare devono tornare ad essere una cosa sola.
Resumo:
Nel seguente lavoro di tesi, l’analisi dell’efficienza idraulica è stata condotta sulla base dei tradizionali parametri di simulazione di una rete idrica, come carichi idraulici ai nodi e portate erogate, ma sfruttando l’ausilio di un indice di performance di rete sintetico e globale, ovvero l’Indice di resilienza, introdotto da Todini (2000; 2016). Infatti, tale indice, rientrando tra i parametri con cui valutare lo stato complessivo di “benessere idraulico” di una rete, ha il vantaggio di poter fungere da criterio di selezione di eventuali interventi migliorativi da operare sulla rete stessa. L’analisi si è concentrata sull’utilizzo dell’Indice di resilienza come strumento per la misura delle prestazioni di una rete di distribuzione idrica semplificata, utilizzata come caso studio: per far ciò, si sono messi a confronto i risultati relativi a diversi scenari, ottenuti simulando la rottura in successione delle tubazioni della rete, oppure ipotizzando incrementi di richiesta idrica ai nodi. In generale, i risultati delle simulazioni idrauliche, effettuate con l’ausilio combinato dei software di calcolo EPANET 2.2 e Matlab, hanno mostrato che la resilienza può essere utilizzata per quantificare la robustezza di una rete idrica, presentando forti correlazioni con le pressioni ai nodi. Durante il corso di queste analisi, si è anche voluto mostrare lo sviluppo analitico subito nel tempo dalla formula dell’Indice di resilienza, della quale in principio era stata proposta una formulazione pensata per l’approccio Demand Driven, poi estesa all’approccio di modellazione Pressure Driven. L’intento finale dell’elaborato è stato quello di capire tramite quali mezzi poter migliorare la resilienza del sistema in esame: è emerso che la soluzione ottimale è quella di sfruttare gli effetti benefici derivanti dall’azione combinata della sostituzione dei diametri e del risparmio idrico derivante dalla riduzione delle perdite idriche e degli sprechi nei consumi idropotabili.
Resumo:
Il problema del rumore derivante dai volumi di traffico sempre crescente richiede la ricerca di svariate soluzioni, tra cui l'installazione di barriere di sicurezza e antirumore, definite anche integrate. La tesi, svolta in collaborazione con Piacentini Ingegneri srl, dopo un primo inquadramento del problema dei livelli di rumore eccessivi e dei limiti imposti da normativa, descrive le possibili soluzioni trovate nel tempo e in corso di ricerca. Vengono dunque descritte nel dettaglio le barriere integrate, specialmente quelle trovate nei tratti autostradali di Genova e Milano nel corso del tirocinio svolto presso Piacentini Ingegneri srl. È stata eseguita una modellazione FEM delle barriere Integauto-s e diverse prove sperimentali sui new jersey e sulle opere di supporto alle barriere (pull-out, carotaggi, prove a trazione, ecc). Dai certificati delle prove si ricavano i parametri di resistenza degli elementi (barriera e cordoli di sostegno) grazie ai quali, in aggiunta alla documentazione originale fornita da Autostrade per l'Italia, si raggiunge il Livello di Conoscenza accurato, il massimo possibile: LC3. Ciò è indispensabile per rispettare la procedura per il rialzamento delle barriere integrate concordate tra le 2 società sopracitate. Quindi, si procede con le verifiche delle barriere e delle opere di supporto alle barriere (cordolo su terreno, cordolo con micropali o pali, cordolo su opera d'arte esistente, pile da ponte). L'intera tesi è finalizzata alla definizione delle altezze delle barriere integrate, in quanto per motivi di sicurezza erano state abbassate. I calcoli strutturali, la modellazione FEM e le prove condotte hanno portato alla conoscenza massima possibile delle seguenti barriere: Integauto-s, NJBP C1.2 Martellona, e NJBP Ecotecnica (trovate nei tratti autostradali oggetto di rialzamento).