912 resultados para actio libera in causa
Resumo:
Finalità principale della Tesi è stata lo sviluppo di una linea di evidenza chimica che ha previsto la elaborazione di tre distinte procedure analitiche per la determinazione di caffeina con HPLC - MS, una delle quali messa a punto per matrici ambientali inorganiche (acque dolci e salate) e due delle quali specifiche per matrici biologiche (emolinfa e tessuti di Mytilus galloprovincialis). Esse sono state applicate a diversi casi di studio, cominciando dall’analisi di acque di mare prelevate al largo di Cesenatico (FC) e soggette in seguito ad aggiunta di varie concentrazioni di caffeina ai fini di analisi eco-tossicologiche. Le vasche, suddivise in quattro condizioni sperimentali, costituivano l’ambiente di esposizione di esemplari di Mytilus galloprovincialis, sottoposti a test con batterie di biomarker; campionando e analizzando le acque delle diverse vasche in diversi momenti nell’arco di una settimana di durata dell’esperimento, è stato possibile osservare una discrepanza significativa tra le concentrazioni predisposte e quelle effettivamente riscontrate, dovuta alla presenza di valori di fondo elevati (≈ 100 ng/l) nella matrice ambientale. Si è anche notata una cinetica di decadimento della sostanza di tipo esponenziale, più rapida dei casi di letteratura, ipotizzando che ciò avvenisse, oltre che per i normali fenomeni di termodegradazione e fotodegradazione, per l’attività di filtrazione dei molluschi. In seguito sono state raccolte aliquote di acqua presso i punti di immissione e di uscita dall’impianto di depurazione di Cervia (RA), nonchè campioni di acque superficiali, sia dolci che salate, riscontrando un ottimo abbattimento della sostanza da parte dell’impianto (≈ 99 %) e concentrazioni ambientali simili ai valori di fondo dell’esperimento (≈100 ng/l), inferiori rispetto a casi di letteratura per analoga matrice, anche a causa di intense precipitazioni atmosferiche in corrispondenza del prelievo. A suggello delle analisi relative alle acque si è provveduto ad esaminare anche acque di rubinetto, acque di rubinetto soggette a deionizzazione ed un’acqua minerale naturale imbottigliata e commercializzata, rilevando la presenza dello stimolante in ciascuno dei campioni (per ciò che concerne acque della rete idrica a valori simili a quelli ambientali, mentre per acque deionizzate ridotti di circa il 50% e per l’acqua imbottigliata testata abbattuti di oltre l’80%). Le ultime considerazioni sono state relative all’analisi di matrici biologiche mediante le procedure specificamente messe a punto; in questo caso, sia nell’emolinfa che nei tessuti prelevati dai mitili al termine dell’esperimento, si è osservato un bioaccumulo di caffeina che, per ciò che concerne la matrice fluida, è risultato correlato alla concentrazione di esposizione delle vasche, mentre relativamente ai tessuti si è evidenziato del tutto uniforme tra le condizioni sperimentali, facendo ipotizzare un bioaccumulo avvenuto nell’habitat marino, dovuto ai valori ambientali presenti.
Resumo:
Lo scattering è un processo fisico che descrive le interazioni tra particelle e radiazione elettromagnetica. Esistono diversi tipi di scattering, dove la natura di questi processi dipende dall'energia della particella e della radiazione. Quando l'elettrone fermo subisce un urto elastico con un fotone di bassa energia si ha lo \emph{scattering Thomson}. In questo processo l'onda elettromagnetica accelera la particella; successivamente dopo l'urto l'onda viene diffusa con la stessa frequenza iniziale. Questo processo accade a basse energie poichè ad energie più alte prevale l'effetto dovuto allo \emph{scattering Compton}. In questo meccanismo un fotone interagisce con un elettrone cedendogli energia e in particolare si ha una variazione di frequenza per il fotone. Quando è l'elettrone a trasferire al fotone parte della sua energia si ha \emph{Inverse Compton}. Gli ultimi due processi in realtà sono situazioni limite di un caso più generale chiamato \emph{Comptonizzazione}. Considerando un plasma rarefatto di fotoni ed elettroni, la Comptonizzazione stabilisce come l'evoluzione dello spettro viene modificato a causa dell'interazione tra fotoni ed elettroni. Nel secondo capitolo di questo elaborato verrà esaminata l'emissione in banda X della radiazione elettromagnetica in seguito a fenomeni di accrescimento intorno a buchi neri; nello specifico si analizzerà l'emissione soft e hard per buchi neri galattici.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Il progetto delle pavimentazioni stradali in materiale lapideo: il caso del centro storico di Modena
Resumo:
Le vibrazioni indotte dal traffico costituiscono un problema diffuso a causa degli effetti indesiderati che possono generare a lungo termine sulle opere architettoniche e sulle persone. L’intensità di questi fenomeni dipende da numerosi fattori tra cui le caratteristiche dei veicoli (massa, tipo di sospensioni), le relative velocità, la regolarità del piano viabile, le proprietà del terreno di sottofondo, la struttura degli edifici esposti e, soprattutto, le caratteristiche meccaniche dei materiali costituenti la pavimentazione. Il problema è particolarmente sentito nei centri storici delle aree urbane per la presenza di edifici di grande valore artistico e per l’impiego di pavimentazioni di tipo lapideo, caratterizzate da numerose irregolarità di superficie: nasce, quindi, l’esigenza di individuare criteri progettuali e tecnologie costruttive mirati all’attenuazione di questi fenomeni indesiderati e nocivi. A tal fine la presente tesi prevede: • una prima parte, che descrive il centro storico di Modena a partire da un quadro generale storico-morfologico e di pianificazione urbanistica, con particolare attenzione alle tipologie di pavimentazioni stradali ad elementi lapidei e ai materiali tradizionalmente in uso nel territorio modenese; • una seconda parte, che presenta il caso di studio di Piazza Roma e il relativo progetto di recupero per la pedonalizzazione dello spazio pubblico tuttora in corso di realizzazione. Quest'ultimo è stato analizzato da un punto di vista non solo teorico-descrittivo, ma anche pratico-sperimentale, seguendo l’esecuzione dei lavori in cantiere in collaborazione con il Settore Manutenzione e Logistica del Comune di Modena; • una terza parte, relativa al problema delle vibrazioni indotte dal traffico sulle pavimentazioni stradali ad elementi lapidei. Il problema è stato affrontato in termini prima generali, descrivendo i meccanismi di generazione, propagazione e ricezione delle vibrazioni, gli effetti di danneggiamento che possono provocare sulle costruzioni circostanti, le più diffuse tipologie di intervento note in letteratura. Successivamente è stato considerato il caso di Piazza Roma e, partendo dalla rilevazione sperimentale del quadro vibratorio degli edifici adiacenti alla sede stradale, è stata valutata l’efficacia di alcune soluzioni progettuali ai fini della riqualificazione dello stato di fatto.
Resumo:
Il lavoro di tesi ha preso spunto da un fenomeno franoso avvenuto a Porretta Terme (provincia di Bologna), nell’autunno 2008, a causa di abbondanti precipitazioni, in tale occasione si innescò una colata rapida di detriti che invase la strada statale n. 64 e lambì la ferrovia che collega l’Emilia Romagna e la Toscana. I detriti colpirono anche un’abitazione, senza per fortuna causare perdite umane ne danni ingenti, ma l’evento riscosse numerose attenzioni da parte della popolazione locale, preoccupata che fenomeni del genere potessero ripetersi anche in altre zone e senza alcun preavviso. L’evento allertò anche la Protezione Civile regionale che da subito si interessò all’applicazione di metodi in grado di prevedere la suscettività areale da frane di questo tipo. Metodi previsionali per colate rapide sono stati sviluppati negli ultimi anni in diverse università sia in Europa sia negli Stati Uniti d’America. Lo scopo è quello di prevedere le possibili zone di innesco e individuare le soglie di precipitazione critica in modo da realizzare carte di suscettività a scopo di pianificazione territoriale e mitigazione del rischio. Il lavoro, durato diversi mesi, è passato attraverso diverse fasi. In primis si è proceduto a sopralluoghi di campo al fine di inquadrare l’area oggetto di studio dal punto di vista geologico e geomorfologico. Successivamente è stata svolta una fase di campionamento sul terreno; tramite una trivella manuale sono stati effettuati numerosi carotaggi (circa 60) sparsi sull’intero versante oggetto di studio, al fine di ricavare un dato relativo allo spessore del suolo. Inoltre sono stati raccolti dei campioni di terreno, analizzati successivamente in laboratorio al fine di ricavarne le curve granulometriche e alcuni dati caratterizzanti. Terminata la fase sul terreno, si è provveduto ad effettuare le prove di laboratorio (curve granulometriche, limiti di Attemberg, etc). Grazie ai dati raccolti, è stato possibile applicare un modello previsionale di stabilità superficiale, TRIGRS 2.0 basato sull’infiltrazione in un mezzo non saturo di una precipitazione di durata finita. Particolare attenzione è stata rivolta ai metodi per la previsione dello spessore del suolo (Z Model, S Model, Sexp Model) e alla loro influenza nella suscettività da frana superficiale.
Resumo:
Negli ultimi anni si è assistito ad un notevole sviluppo e diffusione dei sistemi di produzione di energia rinnovabile, in particolar modo di sistemi eolici e fotovoltaici. La sempre maggior richiesta di energia e la necessità di far fronte ai problemi di inquinamento sempre più intenso, a causa dei combustibili fossili, ha portato ad una crescita nell’interesse ad adottare queste nuove tecnologie per il sostentamento energetico della popolazione. In seguito all’adozione di tali sistemi si è verificata un’intensificazione della ricerca e dello sviluppo tecnologico in tale ambito al fine di massimizzare la produzione dell’energia. Un ruolo chiave nella gestione dell’energia ed in particolar modo l’interfacciamento del sistema di produzione con il carico è svolto elettronica di potenza. L’obiettivo principale della ricerca in tale ambito consiste nella individuazione di nuove tecnologie che permettano un incremento dell’efficienza di conversione anche di soli pochi punti percentuale. L’attività di tesi, svolta presso il LEMAD (Laboratorio di Macchine e Azionamenti del Dipartimento DEI), è stata quindi focalizzata nella progettazione e in seguito realizzazione di un convertitore per applicazioni fotovoltaiche. L’interesse nei confronti delle nuovetecnologie ha portato ad una scelta innovativa per quanto riguarda la configurazione dell’inverter costituente il convertitore. Tale configurazione, che prende il nome di Full Bridge DC Bypass o più semplicemente ponte H6, ha permesso la realizzazione di un convertitore compatto poiché non necessitante di un trasformatore per garantire l’isolamento tra i moduli PV e la rete. Inoltre l’adozione di due switch aggiuntivi rispetto ad un comune ponte H ha garantito una notevole riduzione delle perdite dovute alla tensione di modo comune(CMV)con conseguente incremento dell’efficienza. La ricerca di nuove tecnologie non è stata concentrata solamente nello studio di nuove configurazioni di inverter ma anche nell’individuazione di innovativi dispositivi di potenza. In particolar modo il silicon carbide o SiC ha dimostrato in diverse occasioni di essere un materiale superiore al silicio nelle applicazioni di potenza. Sono stati quindi realizzati due convertitori utilizzanti due differenti dispositivi di potenza (MOSFET in SiC e IGBT in Si)in modo tale da determinare le diverse prestazioni. Un ulteriore studio è stato svolto sulle tecniche di modulazione al fine di valutarne le differenti caratteristiche ed individuare quella più conveniente nella conversione utilizzante il ponte H6.
Resumo:
Lo scopo di questa tesi è lo studio degli aspetti procedurali e dosimetrici in angiografie periferiche che utilizzano la CO2 come mezzo di contrasto. La tecnica angiografica consiste nell’imaging radiologico di vasi sanguigni tramite l’iniezione di un mezzo di contrasto, e il suo uso è in costante incremento a causa dell’aumento di pazienti con malattie vascolari. I mezzi di contrasto iodati sono i più comunemente utilizzati e permettono di ottenere immagini di ottima qualità, ma presentano il limite di una elevata nefrotossicità. La CO2 è considerata un’interessante alternativa al mezzo iodato, per la sua acclarata biocompatibilità, soprattutto per pazienti con elevati fattori di rischio (diabete e/o insufficienza renale). Il suo utilizzo presenta comunque alcuni aspetti problematici, dovuti allo stato gassoso e al basso contrasto intrinseco rispetto alla soluzione iodata. Per quest’ultimo motivo si ritiene generalmente che l’utilizzo della CO2 comporti un aumento di dose rispetto ai mezzi di contrasto tradizionali. Il nostro studio, effettuato su diversi apparati radiologici, ha dimostrato che i parametri di emissione radiologica sono gli stessi per i protocolli di angiografia tradizionale, con iodio, e quelli che utilizzano CO2. Questa evidenza suggerisce che i protocolli CO2 operino solo sul trattamento delle immagini ottenute e non sulla modalità di acquisizione, e dal punto di vista dosimetrico l’angiografia con CO2 è riconducibile all’angiografia tradizionale. L’unico fattore che potrebbe portare a un effettivo incremento di dose al paziente è un allungamento dei tempi di scopia e di procedura, che andrebbe verificato con una campagna di misure in ambito clinico. Sulla base della stessa evidenza, si ritiene che la visualizzazione della CO2 possa essere ulteriormente migliorata attraverso l’ottimizzazione dei parametri di emissione radiologica (kVp, frame rate e durata degli impulsi) attualmente predisposti per l’uso di mezzi di contrasto iodati.
Resumo:
La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.
Resumo:
La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.
Resumo:
Analisi riguardante la tenacizzazione della matrice di laminati compositi. Lo scopo è quello di aumentare la resistenza alla frattura di modo I e, a tal proposito, sono stati modificati gli interstrati di alcuni provini tramite l’introduzione di strati, di diverso spessore, di nanofibre in polivinilidenfluoruro (PVDF). La valutazione di tale metodo di rinforzo è stata eseguita servendosi di dati ottenuti tramite prove sperimentali svolte in laboratorio direttamente dal sottoscritto, che si è occupato dell’elaborazione dei dati servendosi di tecniche e algoritmi di recente ideazione. La necessità primaria per cui si cerca di rinforzare la matrice risiede nel problema più sentito dei laminati compositi in opera da molto tempo: la delaminazione. Oltre a verificare le proprietà meccaniche dei provini modificati sottoponendoli a test DCB, si è utilizzata una tecnica basata sulle emissioni acustiche per comprendere più approfonditamente l’inizio della delaminazione e i meccanismi di rottura che si verificano durante le prove. Quest’ultimi sono illustrati servendosi di un algoritmo di clustering, detto Fuzzy C-means, tramite il quale è stato possibile identificare ogni segnale come appartenente o meno ad un determinato modo di rottura. I risultati mostrano che il PVDF, applicato nelle modalità esposte, è in grado di aumentare la resistenza alla frattura di modo I divenendo contemporaneamente causa di un diverso modo di propagazione della frattura. Infine l’elaborato presenta alcune micrografie delle superfici di rottura, le quali appoggiano i risultati ottenuti nelle precedenti fasi di analisi.
Resumo:
Lo sviluppo di un incendio all’interno di depositi di liquidi infiammabili costituisce uno scenario particolarmente critico a causa della rilevanza delle conseguenze che ne possono scaturire. L’incendio causato dalla formazione di grandi pozze sviluppatesi a seguito di forature dei contenitori e il rapido coinvolgimento di tutto lo stoccaggio rappresentano uno scenario di incendio tipico di queste realtà. Si ha quindi la necessità di adottare provvedimenti atti a garantire specifici obiettivi di sicurezza tramite l’introduzione di misure antincendio. La prevenzione incendi, sino al 2007, era basata esclusivamente su norme di tipo prescrittivo, in base alle quali si definivano le misure di sicurezza secondo un criterio qualitativo. Successivamente l’ingegneria antincendio si è sempre più caratterizzata da approcci basati su analisi di tipo prestazionale, in grado di dimostrare il raggiungimento dell’obiettivo di sicurezza sulla base del comportamento reale d’incendio ottenuto mediante un’accurata simulazione del fuoco che ragionevolmente può prodursi nell'attività. La modellazione degli incendi è divenuta possibile grazie allo sviluppo di codici di fluidodinamica computazionale (CFD), in grado di descrivere accuratamente l’evoluzione delle fiamme. Il presente studio si inserisce proprio nell’ambito della modellazione CFD degli incendi, eseguita mediante il software Fire Dynamics Simulator (FDS). L’obiettivo dell’elaborato è studiare l’azione dell’impianto di spegnimento a schiuma sullo sviluppo di un incendio di pozza in un deposito di liquidi infiammabili, in termini di riduzione della potenza termica rilasciata dal fuoco, al fine di determinare le temperature massime raggiunte, in corrispondenza delle quali valutare il comportamento di resistenza strutturale degli edifici. Il presente lavoro è articolato in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, vengono richiamati nel Capitolo 2 i principali concetti della chimica e fisica degli incendi. Nel Capitolo 3 vengono esaminate le normative intese ad unificare l’approccio ingegneristico alla sicurezza antincendio. Il Capitolo 4 fornisce una dettagliata descrizione del software di calcolo, FDS - Fire Dynamics Simulator, adoperato per la modellazione dell’incendio. Nel Capitolo 5 si procede alla progettazione prestazionale che conduce alla determinazione della curva naturale d'incendio in presenza degli impianti di spegnimento automatici. Infine nel Capitolo 6 si riportano le considerazioni conclusive.
Resumo:
Il lavoro di tesi si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale “S. Maria delle Croci” di Ravenna, Azienda Unità Sanitaria Locale della Romagna, ed ha come obiettivo lo sviluppo di un metodo per l’individuazione dell’atrio sinistro in sequenze di immagini ecografiche intracardiache acquisite durante procedure di ablazione cardiaca transcatetere per il trattamento della fibrillazione atriale. La localizzazione della parete posteriore dell'atrio sinistro in immagini ecocardiografiche intracardiache risulta fondamentale qualora si voglia monitorare la posizione dell'esofago rispetto alla parete stessa per ridurre il rischio di formazione della fistola atrio esofagea. Le immagini derivanti da ecografia intracardiaca sono state acquisite durante la procedura di ablazione cardiaca ed esportate direttamente dall’ecografo in formato Audio Video Interleave (AVI). L’estrazione dei singoli frames è stata eseguita implementando un apposito programma in Matlab, ottenendo così il set di dati su cui implementare il metodo di individuazione della parete atriale. A causa dell’eccessivo rumore presente in alcuni set di dati all’interno della camera atriale, sono stati sviluppati due differenti metodi per il tracciamento automatico del contorno della parete dell’atrio sinistro. Il primo, utilizzato per le immagini più “pulite”, si basa sull’utilizzo del modello Chan-Vese, un metodo di segmentazione level-set region-based, mentre il secondo, efficace in presenza di rumore, sfrutta il metodo di clustering K-means. Entrambi i metodi prevedono l’individuazione automatica dell’atrio, senza che il clinico fornisca informazioni in merito alla posizione dello stesso, e l’utilizzo di operatori morfologici per l’eliminazione di regioni spurie. I risultati così ottenuti sono stati valutati qualitativamente, sovrapponendo il contorno individuato all'immagine ecografica e valutando la bontà del tracciamento. Inoltre per due set di dati, segmentati con i due diversi metodi, è stata eseguita una valutazione quantitativa confrontatoli con il risultato del tracciamento manuale eseguito dal clinico.
Resumo:
L’analisi del fenomeno di Hump relativo ai motori di piccola scala è l’oggetto di studio di questo elaborato di tesi. Il primo step prevede l’introduzione e la descrizione dei possibili fattori che influenzano l’andamento del profilo di spinta dei motori a razzo, tra cui l’orientazione del particolato immerso nel propellente, il meccanismo di segregazione particellare e la separazione tra la fase liquida e quella solida. Ci si concentra in dettaglio sui primi due termini, dei quali si analizzano le conseguenze in relazione al processo produttivo, cioè sul processo di punzonatura e di colaggio, di un motore BARIA. Attraverso questa analisi, riferendosi ai dati teorici relativi alle variazioni sul rateo di combustione, si imposta l’orientamento dei grani come principale causa dell’effetto Hump per il processo di colaggio, mentre la segregazione particellare in riferimento al processo di punzonatura. Il passo finale consiste nel verificare la coerenza tra i profili di pressione provenienti da dati sperimentali (AVIO S.p.a.) e quelli ottenuti attraverso i codici di calcolo implementati.
Resumo:
La necessità di fronteggiare il problema dell'approvvigionamento energetico è urgente. Circa 1.3 miliardi di persone non usufruisce di servizi energetici basilari. Il problema assume un peso maggiore nelle aree rurali delle regioni in via di sviluppo, come Africa Sub-Sahariana e Cina e India, troppo distanti dalla rete elettrica. L'utilizzo di biomasse inquinanti e non efficienti, che sono causa di deforestazione e emissioni di gas serra, è all'ordine del giorno. Promuovere tecnologie appropriate, cioè adeguate sia per dimensioni che come impatto socio-culturale, può essere una soluzione vincente. Tramite finanziamenti e incentivi, tecnologie a piccola scala come biogas, idroelettrico, fotovoltaico e eolico permettono di sfruttare risorse e materiali locali per la produzione di energia.
Resumo:
Da numerose osservazioni astronomiche e cosmologiche si ipotizza che la Materia Oscura rappresenti gran parte della massa dell’Universo. La Materia Oscura ha la particolarita` di interagire solo gravitazionalmente o debolmente e si presenta come massiva e neutra. Tra i vari candidati al ruolo di particelle di Materia Oscura troviamo le WIMP (Weakly Interacting Massive Particles). Un’esperimento che si propone di rivelare in modo diretto le WIMP, mediante la loro diffusione elastica su nuclei di Xeno, `e il progetto XENON presso i Laboratori Nazionali del Gran Sasso. Le tecniche di rivelazione diretta prevedono l’utilizzo di rivelatori grandi, in questo caso a gas nobile, ultra puri e situati in ambienti a bassa radioattivita` per diminuire il rumore di fondo come ad esempio i neutroni indotti dai muoni provenienti dai raggi cosmici (laboratori sotterranei). A causa della sezione d’urto molto piccola necessario raggiungere basse energie di soglia. A tal proposito sono in fase di ricerca e sviluppo soluzioni che permettano di migliorare le prestazioni del rivelatore; ad esempio sono in fase di studio soluzioni tecnologiche che migliorino la raccolta di luce. Una di queste prevede l’utilizzo di foto rivelatori tipo SiPM da affiancare a normali PMT. Tali rivelatori devono essere in grado di funzionare a basse temperature (circa −100◦ C) e devono poter rivelare fotoni di lunghezza d’onda di 178 nm. Il mio lavoro di tesi si colloca nell’ambito di tale progetto di ricerca e sviluppo. Lo scopo di questo lavoro `e stato infatti la preparazione di un setup sperimentale per caratterizzare in aria fotorivelatori SiPM Hamamatsu (prototipo codice S12574) in grado di lavorare in Xeno liquido. Oltre all’installazione del setup mi sono occupato di scrivere un programma in C++ in grado di analizzare le forme d’onda acquisite in run preliminari e di misurare guadagno e dark count rate del rivelatore.