893 resultados para indirizzo :: 860 :: Curriculum: Costruzioni per il territorio
Implementazione di un modulatore sigma-delta digitale per la sintesi di segnali pwm ad alta fedelta.
Resumo:
La modulazione a durata d'impulso (PWM) è utilizzata soprattutto perchè permette di ottenere alta efficenza energetica. In ambito accademico è stato proposto un modulatore PWM che sfrutta la tecnica di noise shaping, Sigma Delta, per avere elevata fedeltà. Il lavoro di questa tesi è stato l'implementazione su FPGA del modulatore Sigma DeltaDigitale utilizzato: quarto ordine, con quantizzatore a 4 bit e SNR in banda di 60 dB. Il dimensionamento è stato fatto determinando l'effetto che la lunghezza delle parole dei segnali ha sul rumore prodotto dal sistema. Questo studio è stato svolto con analisi euristiche ed algoritmi di ricerca implementati in ambiente MATLAB. Lo studio fatto è di carattere generale ed estendibile a generiche architetture Sigma Delta.
Resumo:
Questo lavoro di tesi tratta l'utilizzo di misure idrometriche satellitari in combinazione con le misure idrometriche tradizionali per la calibrazione dei modelli numerico-idraulici. Il presente elaborato riguarda la calibrazione di un complesso modello idraulico del Fiume Po implementato in HEC-RAS. Il caso di studio è un tratto del Fiume Po lungo circa 131 km, che va dalla sezione relativa alla stazione idrometrica di Borgoforte e termina all'incile del Po di Goro. Le Analisi numeriche svolte si suddividono in tre gruppi, il primo sfrutta l'impiego di soli dati idrometrici tradizionali, il secondo l'impiego di soli dati idrometrici satellitari e il terzo l'impiego di entrambe le tipologie di dati idrometrici.
Resumo:
Viene implementato un algoritmo di ritrasmissione dei pacchetti nel protocollo TCP. Lo studio viene fatt utilizzando il simulatore OMNET++ e il framework INET
Resumo:
Le lesioni cerebrali possono generare danni permanenti e richiedono trattamenti immediati e a lungo termine. L’ipotermia cerebrale di 1 o 2°C inibisce il rilascio di aminoacidi neuro eccitatori e interrompe la risposta infiammatoria. L'effetto è maggiore se il raffreddamento viene eseguito immediatamente dopo il trauma. Oggi il raffreddamento viene effettuato in ospedale, raramente sul luogo dell’incidente (con ghiaccio). Tale soluzione è ostacolata dall’applicazione dei collari cervicali ed è condizionata dagli effetti a breve termine del ghiaccio. In questo studio è stata effettuata un’analisi di fattibilità di un dispositivo che, alle tecnologie per l’immobilizzazione cervicale, associ l'induzione terapeutica controllata e prolungata di una lieve ipotermia cerebrale (2-3°C), tramite raffreddamento transcutaneo del sangue nelle arterie carotidee. Il lavoro è suddiviso in due fasi: 1) modellizzazione teorica del fenomeno in esame; 2) verifica dei modelli teorici mediante test in vitro. Mediante i modelli numerici, sono state calcolate le temperature e i tempi per produrre un raffreddamento di 3°C. Considerando lo scambio di calore attraverso il collo, i vasi sanguigni e i tessuti cerebrali è stato calcolato un tempo minimo di circa 50 minuti per produrre il ΔT richiesto, con l’applicazione all’esterno del collo di un dispositivo che mantenga la temperatura a 5°C. Per la verifica è stata utilizzata una carotide sintetica ed una in tessuto biologico: queste sono state immerse in un contenitore isolato contenente acqua e connesse ad un simulatore dell’apparato circolatorio. Mantenendo costante la temperatura dell’acqua circolante mediante un termostato, sono stati misurati gli abbassamenti di temperatura nel vaso in funzione di quella esterna applicata. Il raffreddamento dei tessuti è stato realizzato con una cella di Peltier. La verifica dei modelli ha evidenziato un ΔT di -2°C. Il valore è inferiore a quello ipotizzato ma può ritenersi già efficace in ambito clinico e può essere migliorato ottimizzando il sistema di raffreddamento.
Resumo:
Studio di fattibilità sull'utilizzo della tecnologia radar Ultra Wideband per il controllo non distruttivo di manufatti in materiale composito in fibra di carbonio. La tecnologia radar UWB permette, a differenza dei radar convenzionali, una maggiore risoluzione e un maggior quantitativo di informazioni estraibili dal segnale ricevuto come eco. Nella prima parte del lavoro ci si è concentrati sulla individuazione dell'eventuale presenza del difetto in lastre di materiale composito di differenti dimensioni. Le lastre vengono "illuminate" da un fascio di onde radar UWB dal cui eco si estraggono le informazioni necessarie per determinare la presenza o meno del difetto. Lo scopo è progettare le basi di un algoritmo che, qualora la lastra in esame presenti una certa difettologia, informi l'utente della presenza dell'anomalia. Nella seconda parte si è passati a scansionare la lastra con un radar UWB in modo tale da costruire un'immagine della stessa grazie alle informazioni ricevute dai segnali eco. Per fare questo è stata necessaria dapprima la costruzione di un movimentatore ad hoc in grado di muovere il radar lungo due dimensioni (per permetterne la scansione del piano della lastra). Il movimentatore, autocostruito, è gestibile da Matlab attraverso cavo USB. L'algoritmo di controllo gestisce sia la movimentazione che l'acquisizione dei segnali ricevuti e quindi la creazione del database, punto di partenza per la creazione dell'immagine della lastra. Rispetto alla prima fase del lavoro dove si cercava di sapere se ci fosse o meno il difetto, ora, si è in grado di determinare dimensione e posizione dello stesso.
Resumo:
Il silicio, materiale di base per la realizzazione di gran parte dei dispositivi microelettronici, non trova largo impiego in fotonica principalmente a causa delle sue proprietà elettromagnetiche: oltre ad un band-gap indiretto, il silicio presenta difatti una elevata simmetria reticolare che non permette la presenza di alcuni effetti, come quello elettro-ottico, che sono invece utilmente sfruttati in altri materiali per la fotonica. E’ stato recentemente dimostrato che la deformazione indotta dalla deposizione di film ad alto stress intrinseco potrebbe indurre alcuni di questi effetti, rompendo le simmetrie della struttura. In questo lavoro di tesi viene studiata, mediante simulazioni, microfabbricazione di dispositivi, e caratterizzazione sperimentale, la deformazione reticolare indotta su strutture di tipo ridge micrometriche in silicio mediante deposizione di un film di Si3N4. La deformazione e’ stata analizzata tramite simulazione, utilizzando il metodo agli elementi finiti ed analisi di strain tramite la tecnica di microscopia ottica a trasmissione Convergent-Beam Electron Diffraction. Questa tecnica permette di ottenere delle mappe 2D di strain con risoluzione spaziale micrometrica e sensibilita’ dell’ordine di 100microstrain. Il confronto fra le simulazioni e le misure ha messo in evidenza un accordo quantitativo fra le due analisi, da una parte confermando la validità del modello numerico utilizzato e dall’altro verificando l’accuratezza della tecnica di misura, impiegata innovativamente su strutture di questo tipo. Si sono inoltre stimate le grandezze ottiche: birifrangenza e variazione dell’indice di rifrazione efficace rispetto al caso deformato.di una guida SOI su cui e’ deposto uno strato di nituro. I valori stimati, per uno spessore di 350 nm sono rispettivamente di 0.014 e -0.00475. Questi valori lasciano credere che la tecnologia sia promettente, e che un’evoluzione nei processi di fabbricazione in grado migliorare il controllo delle deformazione potrebbe aprire la strada ad un utilizzo del silicio deformato nella realizzazione di dispositivi ottici ed elettro-ottici.
Resumo:
La tesi affronta il problema della ricostruzione di immagini di tomosintesi, problema che appartiene alla classe dei problemi inversi mal posti e che necessita di tecniche di regolarizzazione per essere risolto. Nel lavoro svolto sono presenti principalmente due contributi: un'analisi del modello di ricostruzione mediante la regolarizzazione con la norma l1; una valutazione dell'efficienza di alcuni metodi tra quelli che in letteratura costituiscono lo stato dell'arte per quanto riguarda i metodi basati sulla norma l1, ma che sono in genere applicati a problemi di deblurring, dunque non usati per problemi di tomosintesi.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
La seguente tesi affronta la dimostrazione del teorema dei quattro colori. Dopo un introduzione dei concetti cardine utili alla dimostrazione, quali i concetti ed i risultati principali della teoria dei grafi e della loro colorazione, viene affrontata a livello prima storico e poi tecnico l'evoluzione della dimostrazione del teorema, che rimase congettura per 124 anni.
Resumo:
Simulazione di dispersioni di petrolio in mare tramite software specialistico
Resumo:
Comprensione delle formulazioni analitiche e dei metodi tradizionali per il calcolo puntuale dello Sky View Factor (SVF), un parametro adimensionale in grado di esprimere con un singolo valore l’influenza dei fattori morfologici sulla porzione di volta celeste visibile da un punto. Valutazione delle performance dei software di mappatura dello SVF in area urbana al variare di tipologia e qualità del dato di input e dei parametri utilizzati. Al fine di studiare degli aspetti algoritmici dei modelli esistenti, è stato sviluppato uno script in linguaggio MATLAB per apportare miglioramenti alle tecniche esaminate.
Resumo:
Vista la necessità di migliorare le prestazioni sismiche delle costruzioni, in particolare di quelle prefabbricate, in questa tesi è stato studiato il comportamento di un particolare tipo di collegamento fra pilastro prefabbricato e plinto di fondazione, proposto e utilizzato dalla ditta APE di Montecchio Emilia. Come noto, l'assemblaggio degli elementi prefabbricati pone il problema delle modalità di collegamento nei nodi, le quali condizionano il comportamento statico e la risposta al sisma dell'insieme strutturale. Per studiare il comportamento del collegamento in questione, sono state effettuate delle prove di pressoflessione ciclica su due provini. Inoltre, sono stati sviluppati dei modelli numerici con l'obiettivo di simulare il comportamento reale. Si è utilizzato il software Opensees (the Open System for Earthquake Engineering Simulation), creato per la simulazione sismica delle strutture.
Resumo:
Nella tesi viene effettuato un confronto tra diversi strumenti di sviluppo per ontologie, considerando vari criteri e caratteristiche relativi a questi strumenti. Viene inoltre approfondito il contesto in cui operano tali editor, presentando il Web Semantico, e tutte le tecnologie, linguaggi e applicazioni di supporto per lo sviluppo ontologico.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Radioterapia del Policlinico S. Orsola - Malpighi e consiste nella caratterizzazione di un sistema di acquisizione per immagini portali (EPID) come dosimetro relativo bidimensionale da usare nei controlli di qualità sui LINAC. L’oggetto di studio è il sistema di acquisizione di immagini portali OPTIVUE 1000ST (Siemens), dispositivo flat panel di silicio amorfo (a-Si) assemblato all’acceleratore lineare Siemens Oncor. La risposta dell’EPID è stata analizzata variando i parametri di consegna della dose, mantenendo fissa la distanza fuoco-rivelatore. Le condizioni di stabilità, ottimali per lavorare, si hanno intorno alle 50 U.M. Dalle curve dei livelli di grigio ottenute risulta evidente che in diverse condizioni d’irraggiamento il sistema risponde con curve di Dose-Risposta differenti, pur restando nello stesso range di dose. Lo studio include verifiche sperimentali effettuate con l’OPTIVUE e usate per espletare alcuni controlli di qualità di tipo geometrico come la coincidenza campo luminoso – campo radiante e la verifica del corretto posizionamento delle lamelle del collimatore multilamellare. Le immagini portali acquisite verranno poi confrontate con quelle ottenute irraggiando tradizionalmente una CR (computed radiography), per la coincidenza e una pellicola radiocromica EBT 3, per l’MLC. I risultati ottenuti mostrano che, per il primo controllo, in entrambi i modi, si è avuta corrispondenza tra campo radiante e campo luminoso; il confronto fra le due metodiche di misura risulta consistente entro i valori di deviazioni standard calcolati, l’OPTIVUE può essere utilizzato efficacemente in tale controllo di qualità. Nel secondo controllo abbiamo ottenuto differenze negli errori di posizionamento delle lamelle individuati dai due sistemi di verifica dell’ordine di grandezza dei limiti di risoluzione spaziale. L’OPTIVUE è in grado di riconoscere errori di posizionamento preesistenti con un’incertezza che ha come limite la dimensione del pixel. Il sistema EPID, quindi, è efficace, affidabile, economico e rapido.