999 resultados para strutture sotterranee metodo di calcolo azioni sismiche
Resumo:
Questa tesi nasce come risultato di un'esperienza di stage svolta presso l'ufficio Pianificazione e Risk Management in Cassa di Risparmio di Cento; l'obiettivo di questo lavoro è la descrizione dell'analisi da me svolta per la ricostruzione del metodo di determinazione del tasso interno di trasferimento adottato in questa banca. A questo studio è stata aggiunta una sezione legata all'analisi e all'implementazione di due modelli stocastici per l'evoluzione dei tassi di interesse (modello di Vasicek e modello CIR).
Resumo:
Negli ultimi anni la tecnica di misura della correlazione digitale di immagini (“Digital Image Correlation” = DIC) sta trovando numerose applicazioni nell’ambito della meccanica sperimentale come valida alternativa per misure di campi di deformazione su componenti strutturali soggetti a carichi statici e dinamici. Misurare deformazioni in provini troppo piccoli, troppo grandi, teneri o caldi, è un tipico scenario in cui diventano necessarie le tecniche senza contatto in quanto l’applicazione di estensimetri risulta inefficiente. L’obiettivo di questo lavoro consta nel valutare l’applicabilità e l’accuratezza di programmi di elaborazione gratuiti per la correlazione digitale di immagini evidenziandone il metodo di utilizzo e l’autenticità dei risultati verificati attraverso prove in laboratorio. Tali programmi, per praticità e gratuità, nel campo bidimensionale, possono considerarsi una valida alternativa a programmi commerciali di elevato costo. Nonostante ciò, presentano alcune criticità e limitazioni che emergeranno dalle attente sperimentazioni effettuate. Verrà così definita la corretta e necessaria preparazione del set up sperimentale antecedente la prova e il campo di applicabilità a cui si prestano tali programmi per un preciso ed autentico rilevamento delle deformazioni subite da un corpo sottoposto a sollecitazioni, al pari di un comune estensimetro.
Resumo:
L'elaborato illustra una serie di modelli termici, che si differenziano principalmente per la loro accuratezza e velocità di calcolo, per essere in grado di scegliere il modello più adatto da utilizzare in relazione all'applicazione prevista e alle esigenze richieste. Per una migliore comprensione del problema, vengono introdotti inizialmente alcuni concetti generali legati alle temperature in gioco nei componenti elettronici di potenza e alla trasmissione del calore, poi si passa alla determinazione della sorgente del calore (ovvero le perdite) in un modulo IGBT. Vengono quindi descritti alcuni modelli che siano in grado di rappresentare il sistema in esame dal punto di vista termico. Infine viene implementato in Simulink uno dei modelli proposti, mettendo così in pratica gran parte dei concetti esposti. Per il calcolo delle perdite, per i modelli e per la simulazione ci si è concentrati su un determinato componente elettronico di potenza per entrare nel cuore di un problema termico. È stato scelto l’IGBT perché è un dispositivo relativamente nuovo, in continuo miglioramento ed è sempre più utilizzato.
Resumo:
Si studiano le proprietà principali dei gruppi di permutazioni e delle azioni di gruppo, con particolare riguardo a: gruppi intransitivi, gruppi primitivi, gruppi k-transitivi, gruppi imprimitivi. Si definiscono inoltre le nozioni di prodotto diretto e semidiretto interno ed esterno di gruppi, di prodotto subdiretto e di prodotto intrecciato di gruppi di permutazioni. Si presentano alcuni esempi legati alla geometria.
Resumo:
La messa a punto di un sistema di calibrazione per sonde di Pitot a cinque fori è indagata e realizzata per mezzo di un flusso di calibrazione assialsimmetrico, per differenti velocità asintotiche dello stesso. Mappe di calibrazione sono presentate, unitamente a procedure di calcolo specifiche per il vettore velocità di un flusso fluido in regime stazionario. Uno studio dettagliato di precisione di ripetibilità e accuratezza per il sistema, accompagna la trattazione.
Resumo:
Sviluppo di una procedura per la stima delle emissioni di sistemi energetici da integrare nel MiniBREF, programma di calcolo utilizzato da ARPA Emilia-Romagna, basato sulle linee guida definite nel BREF per la valutazione dell'impatto ambientale e confronto tra soluzioni impiantistiche alternative.
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
Resumo:
In questo studio sarà trattato lo sviluppo degli algoritmi genetici, uno strumento di calcolo nato ispirandosi alle leggi Darwiniane sull’evoluzione naturale. Questi algoritmi, le cui basi furono introdotte a partire dagli anni '40, mirano alla risoluzione di una vasta categoria di problemi computazionali utilizzando un approccio differente, basato sulle regole di mutazione e ricombinazione proprie della genetica. Essi permettono infatti di valutare delle soluzioni di partenza e, grazie alle variazioni introdotte dalla modifica casuale o dalla ricombinazione di queste, crearne di nuove nel tentativo di convergere verso soluzioni ottimali. Questo studio si propone come una descrizione di questo strumento, dei suoi sviluppi e delle sue potenzialità in ambito bioingegneristico, focalizzandosi sul suo utilizzo recente nell’ identificazione parametrica di modelli cardiaci.
Resumo:
In questa tesi è stato trattato il problema della ricostruzione di immagini di tomografia computerizzata considerando un modello che utilizza la variazione totale come termine di regolarizzazione e la norma 1 come fidelity term (modello TV/L1). Il problema è stato risolto modificando un metodo di minimo alternato utilizzato per il deblurring e denoising di immagini affette da rumore puntuale. Il metodo è stato testato nel caso di rumore gaussiano e geometria fan beam e parallel beam. Infine vengono riportati i risultati ottenuti dalle sperimentazioni.
Resumo:
L'esigenza di poter usufruire in clinica di uno strumento per l'analisi cinematica dell'arto superiore altamente attendibile che fornisca dati clinicamente validi e facili da interpretare e rapidamente applicabile dal personale medico competente, ha posto le basi per la realizzazione del modello che in questa tesi viene proposto. L'obiettivo è stato definire un metodo di misura per l'analisi delle traiettorie dell'arto superiore basato su un modello di markerizzazione che sia clinicamente attuabile e descriva la catena completa dell'estremità superiore interessata nel gesto di “reaching” indipendentemente dalla patologia.
Resumo:
L'idrogeno è un prodotto di grande importanza per l'industria chimica ed i processi di raffineria. Il 60% dell'intera produzione di idrogeno viene dal reforming del gas naturale. L'oxy-reforming è un processo che unisce la reazione di steam reforming a quella di ossidazione parziale e che ha dimostrato di avere molti vantaggi in termini di temperature molto più basse, minor volume di vapore alimentato con conseguente minori costi energetici e tempi di contatto sul catalizzatore. Per questo processo sono stati preparati, testati e caratterizzati catalizzatori a base di ossidi misti Ce-Zr impregnati con Rh. Particolare attenzione è stata posta all'effetto sulle prestazioni catalitiche del metodo di sintesi e della natura della fase costituente il supporto. Sperimentalmente è stato osservato che il catalizzatore il cui supporto è stato ottenuto via microemulsione ha una migliore attività rispetto al coprecipitato e che la fase ottimale corrisponde ad un rapporto Ce-Zr 0,5-0,5.
Resumo:
La tesi ha visto la creazione di una applicazione in grado di inviare e ricevere messaggi verso un kernel Linux 3.6.8, che e' stato modificato nel modulo net/mac80211. Lo scopo e' stato permettere all'applicazione di attivare/disattivare comportamenti alternativi del metodo di scansione di canali Wi-Fi. Sono rese possibili le seguenti funzionalita': disattivare la scansione, rendere non interrompibile la scansione software, ricevere notifiche a completamento di una scansione software. Per la comunicazione sono stati usati i socket netlink.
Resumo:
The concern of this work is to present the characterization of blue emitting GaN-based LED structures by means of Atomic Force Microscopy. Here we show a comparison among the samples with different dislocation densities, in order to understand how the dislocations can affect the surface morphology. First of all we have described the current state of art of the LEDs in the present market. Thereafterwards we have mentioned in detail about the growth technique of LED structures and the methodology of the characterization employed in our thesis. Finally, we have presented the details of the results obtained on our samples studied, followed by discussions and conclusions. L'obiettivo di questa tesi é quello di presentare la caratterizzazione mediante Microscopia a Forza Atomica di strutture di LED a emissione di luce blu a base di nitruro di gallio (GaN). Viene presentato un confronto tra campioni con differente densità di dislocazioni, allo scopo di comprendere in che modo la presenza di dislocazioni influisce sulla morfologia della superficie. Innanzitutto, viene descritto il presente stato dell'arte dei LED. Successivamente, sono forniti i dettagli riguardanti la tecnica di crescita delle strutture dei LED e il metodo di caratterizzazione adottato. Infine, vengono mostrati e discussi i risultati ottenuti dallo studio dei campioni, seguiti dalle conclusioni.
Resumo:
Lo studio si propone di valutare la capacità dei reticoli di Bragg in fibra ottica, di individuare e monitorare danneggiamenti presenti all'interno di laminati in composito, tramite l'analisi degli spettri riflessi dai reticoli stessi. Sono stati utilizzati due tipi diversi di stratificazione dei laminati, per valutare il diverso comportamento dei reticoli di Bragg inseriti all'interno dei laminati. Le proprietà dei materiali e degli spettri riflessi dai reticoli, sono state messe in relazione qualitativamente e quantitativamente, al fine di sviluppare un valido metodo di Structural Health Monitoring.
Resumo:
I processi microbiologici rivestono una grande importanza nello sviluppo di combustibili e sostanze chimiche da fonti rinnovabili (biomassa), quali: il biometano e le bioplastiche, come i poli(idrossialcanoati), PHA. I PHA sono poliesteri ottenuti per condensazione di 3-idrossiacidi, il più comune dei quali è il poli(3-idrossibutirrato, PHB). Gli alti costi di produzione del PHA da colture microbiche singole ha portato a valutare nuove strategie, tra cui l’utilizzo di colture microbiche miste (MMC) e substrati di scarto. Il bio-olio ottenuto dalla pirolisi di biomassa potrebbe essere un substrato interessante per la produzione di biogas e PHA. Gli acidi a catena corta (acidi grassi volatili, VFA), infatti, sono i prodotti intermedi nella produzione sia di biogas che di PHA. L’analisi di questi ultimi viene normalmente effettuata tramite GC-FID o GC-MS. La degradazione termica (pirolisi, Py) di PHA produce acidi alchenoici caratteristici, come l’acido crotonico. Il metodo tradizionale per la determinazione del PHA è la metanolisi seguita da un’analisi GC-MS, una procedura laboriosa con uso di solventi clorurati e sostanze corrosive. Lo scopo principale di questa tesi è stato quello di sviluppare un nuovo metodo di analisi dei PHA. Il metodo studiato si basa sulla pirolisi diretta della biomassa e determinazione degli acidi alchenoici prodotti dalla degradazione del PHA in GC-FID. La pirolisi analitica è stata studiata tramite analisi di polimeri puri (per la calibrazione) e poi è stata applicata a campioni batterici derivanti da MMC e a ceppi selezionati. Il confronto con il metodo convenzionale ha dimostrato che la Py/GC-FID è un metodo valido per l’identificazione dei PHA e per la loro quantificazione nelle matrici batteriche. Il pre-trattamento del campione è minimo e non richiede l’uso di solventi e reagenti chimici. Inoltre, è stata applicata una tecnica di analisi dei VFA nei test di biometanazione basata sull’estrazione con una microquantità di dimetilcarbonato.