8 resultados para Time domain
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Magnetic Resonance Spectroscopy (MRS) is an advanced clinical and research application which guarantees a specific biochemical and metabolic characterization of tissues by the detection and quantification of key metabolites for diagnosis and disease staging. The "Associazione Italiana di Fisica Medica (AIFM)" has promoted the activity of the "Interconfronto di spettroscopia in RM" working group. The purpose of the study is to compare and analyze results obtained by perfoming MRS on scanners of different manufacturing in order to compile a robust protocol for spectroscopic examinations in clinical routines. This thesis takes part into this project by using the GE Signa HDxt 1.5 T at the Pavillion no. 11 of the S.Orsola-Malpighi hospital in Bologna. The spectral analyses have been performed with the jMRUI package, which includes a wide range of preprocessing and quantification algorithms for signal analysis in the time domain. After the quality assurance on the scanner with standard and innovative methods, both spectra with and without suppression of the water peak have been acquired on the GE test phantom. The comparison of the ratios of the metabolite amplitudes over Creatine computed by the workstation software, which works on the frequencies, and jMRUI shows good agreement, suggesting that quantifications in both domains may lead to consistent results. The characterization of an in-house phantom provided by the working group has achieved its goal of assessing the solution content and the metabolite concentrations with good accuracy. The goodness of the experimental procedure and data analysis has been demonstrated by the correct estimation of the T2 of water, the observed biexponential relaxation curve of Creatine and the correct TE value at which the modulation by J coupling causes the Lactate doublet to be inverted in the spectrum. The work of this thesis has demonstrated that it is possible to perform measurements and establish protocols for data analysis, based on the physical principles of NMR, which are able to provide robust values for the spectral parameters of clinical use.
Resumo:
Da ormai sette anni la stazione permanente GPS di Baia Terranova acquisisce dati giornalieri che opportunamente elaborati consentono di contribuire alla comprensione della dinamica antartica e a verificare se modelli globali di natura geofisica siano aderenti all’area di interesse della stazione GPS permanente. Da ricerche bibliografiche condotte si è dedotto che una serie GPS presenta molteplici possibili perturbazioni principalmente dovute a errori nella modellizzazione di alcuni dati ancillari necessari al processamento. Non solo, da alcune analisi svolte, è emerso come tali serie temporali ricavate da rilievi geodetici, siano afflitte da differenti tipologie di rumore che possono alterare, se non opportunamente considerate, i parametri di interesse per le interpretazioni geofisiche del dato. Il lavoro di tesi consiste nel comprendere in che misura tali errori, possano incidere sui parametri dinamici che caratterizzano il moto della stazione permanente, facendo particolare riferimento alla velocità del punto sul quale la stazione è installata e sugli eventuali segnali periodici che possono essere individuati.
Resumo:
Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.
Resumo:
Il primo scopo di questo progetto sperimentale è stato quello di valutare la qualità chimica e sensoriale di oli vergini d’oliva ottenuti da olive conservate per tempi diversi prima della loro lavorazione. Spesso, infatti, quando le olive arrivano in frantoio, la loro trasformazione può essere ritardata a causa della ridotta capacità di lavorazione degli impianti rispetto alla quantità di prodotto da lavorare. Il tempo e le modalità di conservazione delle drupe risultano fattori molto importanti ai fini della qualità organolettica dell’olio prodotto. Per questa finalità sono state acquistate olive di due diverse varietà (Correggiolo e Canino) e divise in due aliquote. La prima aliquota di ogni partita di olive è stata franta al momento della consegna (tempo 0), la seconda invece è stata stoccata in condizioni non ideali di conservazione ed umidità per 7 giorni (varietà Correggiolo) e 15 giorni (varietà Canino), quindi franta. Per tutti i campioni sono stati valutati i parametri di qualità stabiliti dal Reg. CEE n. 2568/91 e successive modifiche: acidità libera e numero di perossidi con valutazioni titrimetriche, estinzioni specifiche nell'ultravioletto mediante spettrofotometria, determinazione gascromatografica degli alchil esteri degli acidi grassi ed analisi sensoriale secondo “Panel test”. Sono stati inoltre valutati parametri compositivi che attualmente non sono contemplati nei regolamenti ufficiali: il profilo qualitativo e quantitativo gascromatografico in digliceridi e quello in componenti volatili (SPME). I risultati ottenuti per i campioni ottenuti da olive “fresche” e da olive conservate per tempi diversi sono stati comparati con i limiti di legge che definiscono l'appartenenza alle categorie merceologiche degli oli di oliva vergini (extravergine, vergine o lampante) e, per i parametri non normati, sono state valutate le principali differenze in relazione alla qualità del prodotto. Il secondo scopo del progetto è stato quello di valutare la possibilità di una rapida discriminazione di oli d’oliva caratterizzati da differenti concentrazioni di alchil esteri degli acidi grassi mediante Riflettometria nel Dominio del Tempo (TDR, Time Domain Reflectometry). Il metodo chimico proposto dal Reg. UE n. 61/2011 risulta, infatti, lungo e dispendioso prevedendo una separazione preparativa seguita da analisi gascromatografica. La TDR si presenta, invece, come un metodo alternativo rapido, economico e non distruttivo per la valutazione e discriminazione degli oli d’oliva sulla base di questo parametro qualitativo.
Resumo:
In un sistema radar è fondamentale rilevare, riconoscere e cercare di seguire il percorso di un eventuale intruso presente in un’area di osservazione al fine ultimo della sicurezza, sia che si consideri l’ambito militare, che anche quello civile. A questo proposito sono stati fatti passi avanti notevoli nella creazione e sviluppo di sistemi di localizzazione passiva che possano rilevare un target (il quale ha come unica proprietà quella di riflettere un segnale inviato dal trasmettitore), in modo che esso sia nettamente distinto rispetto al caso di assenza dell’intruso stesso dall’area di sorveglianza. In particolare l’ultilizzo di Radar Multistatico (ossia un trasmettitore e più ricevitori) permette una maggior precisione nel controllo dell’area d’osservazione. Tra le migliori tecnologie a supporto di questa analisi vi è l’UWB (Ultra Wide-Band), che permette di sfruttare una banda molto grande con il riscontro di una precisione che può arrivare anche al centimetro per scenari in-door. L’UWB utilizza segnali ad impulso molto brevi, a banda larga e che quindi permettono una risoluzione elevata, tanto da consentire, in alcune applicazioni, di superare i muri, rimuovendo facilmente gli elementi presenti nell’ambiente, ossia il clutter. Quindi è fondamentale conoscere algoritmi che permettano la detection ed il tracking del percorso compiuto dal target nell’area. In particolare in questa tesi vengono elaborati nuovi algoritmi di Clustering del segnale ricevuto dalla riflessione sull’intruso, utilizzati al fine di migliorare la visualizzazione dello stesso in post-processing. Infine questi algoritmi sono stati anche implementati su misure sperimentali attuate tramite nodi PulsOn 410 Time Domain, al fine ultimo della rilevazione della presenza di un target nell’area di osservazione dei nodi.
Resumo:
The study of dielectric properties concerns storage and dissipation of electric and magnetic energy in materials. Dielectrics are important in order to explain various phenomena in Solid-State Physics and in Physics of Biological Materials. Indeed, during the last two centuries, many scientists have tried to explain and model the dielectric relaxation. Starting from the Kohlrausch model and passing through the ideal Debye one, they arrived at more com- plex models that try to explain the experimentally observed distributions of relaxation times, including the classical (Cole-Cole, Davidson-Cole and Havriliak-Negami) and the more recent ones (Hilfer, Jonscher, Weron, etc.). The purpose of this thesis is to discuss a variety of models carrying out the analysis both in the frequency and in the time domain. Particular attention is devoted to the three classical models, that are studied using a transcendental function known as Mittag-Leffler function. We highlight that one of the most important properties of this function, its complete monotonicity, is an essential property for the physical acceptability and realizability of the models. Lo studio delle proprietà dielettriche riguarda l’immagazzinamento e la dissipazione di energia elettrica e magnetica nei materiali. I dielettrici sono importanti al fine di spiegare vari fenomeni nell’ambito della Fisica dello Stato Solido e della Fisica dei Materiali Biologici. Infatti, durante i due secoli passati, molti scienziati hanno tentato di spiegare e modellizzare il rilassamento dielettrico. A partire dal modello di Kohlrausch e passando attraverso quello ideale di Debye, sono giunti a modelli più complessi che tentano di spiegare la distribuzione osservata sperimentalmente di tempi di rilassamento, tra i quali modelli abbiamo quelli classici (Cole-Cole, Davidson-Cole e Havriliak-Negami) e quelli più recenti (Hilfer, Jonscher, Weron, etc.). L’obiettivo di questa tesi è discutere vari modelli, conducendo l’analisi sia nel dominio delle frequenze sia in quello dei tempi. Particolare attenzione è rivolta ai tre modelli classici, i quali sono studiati utilizzando una funzione trascendente nota come funzione di Mittag-Leffler. Evidenziamo come una delle più importanti proprietà di questa funzione, la sua completa monotonia, è una proprietà essenziale per l’accettabilità fisica e la realizzabilità dei modelli.
Resumo:
In most real-life environments, mechanical or electronic components are subjected to vibrations. Some of these components may have to pass qualification tests to verify that they can withstand the fatigue damage they will encounter during their operational life. In order to conduct a reliable test, the environmental excitations can be taken as a reference to synthesize the test profile: this procedure is referred to as “test tailoring”. Due to cost and feasibility reasons, accelerated qualification tests are usually performed. In this case, the duration of the original excitation which acts on the component for its entire life-cycle, typically hundreds or thousands of hours, is reduced. In particular, the “Mission Synthesis” procedure lets to quantify the induced damage of the environmental vibration through two functions: the Fatigue Damage Spectrum (FDS) quantifies the fatigue damage, while the Maximum Response Spectrum (MRS) quantifies the maximum stress. Then, a new random Power Spectral Density (PSD) can be synthesized, with same amount of induced damage, but a specified duration in order to conduct accelerated tests. In this work, the Mission Synthesis procedure is applied in the case of so-called Sine-on-Random vibrations, i.e. excitations composed of random vibrations superimposed on deterministic contributions, in the form of sine tones typically due to some rotating parts of the system (e.g. helicopters, engine-mounted components, …). In fact, a proper test tailoring should not only preserve the accumulated fatigue damage, but also the “nature” of the excitation (in this case the sinusoidal components superimposed on the random process) in order to obtain reliable results. The classic time-domain approach is taken as a reference for the comparison of different methods for the FDS calculation in presence of Sine-on-Random vibrations. Then, a methodology to compute a Sine-on-Random specification based on a mission FDS is presented.
Resumo:
L'RCMT (Regional Centroid Moment Tensor), realizzato e gestito dai ricercatori dell'INGV (Istituto Nazionale di Geofisica e Vulcanologia), è dal 1997 il catalogo di riferimento per gli eventi sismici avvenuti nell'area Europea-Mediterranea, ossia nella regione avente longitudine compresa tra 10° W e 40° E e latitudine compresa tra 25° N e 60° N. Tale regione è caratterizzata da un'attività tettonica complessa, legata non soltanto alla convergenza delle placche Euroasiatica ed Africana, ma anche al movimento di altre placche minori (ad esempio, la placca Arabica), che tutte insieme danno origine ad una vasta gamma di regimi tettonici. Col termine RCMT si indica un particolare tipo di tensore momento sismico, la cui determinazione avviene su scala regionale, per eventi sismici aventi M_w >= 4.5 (M_w >= 4.0 per gli eventi che avvengono nella penisola italica). Il tensore momento sismico è uno strumento fondamentale per caratterizzare natura ed entità di un terremoto. Da esso, infatti, oltre alla magnitudo momento M_w, si ricava anche il meccanismo focale. Comunemente rappresentato sotto forma di beach ball, consente di individuare il tipo di movimento (distensivo, compressivo o trascorrente, o anche una combinazione del primo o del secondo con il terzo) avvenuto sulla faglia che ha provocato il terremoto. I tensori momento sismico permettono, quindi, di identificare le faglie che si attivano durante una sequenza sismica, di comprendere la loro cinematica e di ipotizzare la successiva evoluzione a breve termine. Scopo di questa relazione di laurea è stato derivare le relazioni che intercorrono fra le M_w dell'RCMT e le M_w del CMT (Centroid Moment Tensor della Columbia University), del GFZ (Deutsches GeoForschungsZentrum di Postdam) e del TDMT (Time Domain Moment Tensor). Le relazioni sono state ottenute applicando il metodo dei minimi quadrati agli eventi comuni, che sono stati selezionati utilizzando alcuni semplici programmi scritti in Fortran.