989 resultados para Tecnica de Fontan
Resumo:
L’Arco d’Augusto di Rimini rappresenta da sempre il monumento simbolo della città; ha visto ogni periodo storico, dei quali riporta tuttora i segni in modo visibile. L’alto valore storico, culturale ed artistico che l’Arco porta con se merita di essere valorizzato, conservato e studiato. E’ stato realizzato un rilievo fotogrammetrico del monumento romano e una successiva analisi strutturale mediante la tecnica F.E.M. Il rilievo è stato eseguito con la moderna tecnica digitale non convenzionale, la quale ha permesso di comprendere quanto essa sia in grado di soddisfare le varie esigenze di rilievo nell’ambito dei Beni Culturali. Nel primo capitolo si affrontano le tematiche relative al rilievo dei Beni Culturali, si concentra poi l’attenzione sul settore della fotogrammetria digitale. Il secondo capitolo è dedicato interamente alla storia dell’Arco d’Augusto, riportando tutti i rilievi dell’Arco realizzati dal Medioevo ad oggi. Il terzo capitolo riporta la serie di restauri che l’Arco riminese ha subito nel corso dei secoli, fra cui i due grandi interventi di restauro: il primo eseguito nel 1947 dall’Ing. Rinaldi G., il secondo nel 1996-98 per opera dell’Arch. Foschi P.L. Nel quarto capitolo si parla di come la tecnica fotogrammetrica si presti molto bene all’analisi e al controllo delle deformazioni strutturali. Il capitolo cinque è dedicato al rilievo topo-fotogrammetrico dell’oggetto, affrontato in tutte le sue fasi: ricognizione preliminare,progettazione ed esecuzione delle prese. Il sesto capitolo affronta l’elaborazione dei dati mediante il software PhotoModeler Pro 5. Nel settimo capitolo si confronta il presente rilievo con l’ortofoto realizzata nel 1982 dall’Arch. Angelini R. Il capitolo otto riporta alcune informazioni al riguardo della geomorfologia della zona limitrofa all’Arco. Nell’ultimo capitolo si descrive l’impiego del software agli elementi finiti Straus7 per creare ed elaborare il modello numerico dell’Arco.
Resumo:
Lo scopo di questa tesi è quello di presentare alcuni degli algoritmi di ricostruzione utilizzati nei sistemi a microonde per l'imaging della mammella. Sebbene, la mammografia a raggi X sia la tecnica che a oggi presenta le migliori caratteristiche per la rilevazione di lesioni tumorali ai tessuti del seno, la compressione necessaria nel processo di imaging e la probabilità non trascurabile di falsi negativi hanno portato alla ricerca e allo sviluppo di metodi alternativi di imaging alla mammella. Tra questi, l'imaging attraverso microonde sfrutta la differenza delle proprietà dielettriche tra tessuto sano e tumorale. Nel seguente elaborato verrà descritto come è ottenuta l'immagine dell'interno della mammella attraverso gli algoritmi di ricostruzione utilizzati da vari prototipi di sistemi di imaging. Successivamente verranno riportati degli esempi che mostrano i risultati ottenuti attraverso simulazioni o, quando possibile, in ambiente clinico.
Resumo:
il profilo verticale del gas dipende sia dal potenziale galattico, e quindi dalla distribuzione di materia, sia dalla dispersione di velocit`a del gas La nostra analisi teorica ha mostrato che l’altezza scala dell’idrogeno gassoso ad un certo raggio `e fortemente legata alla componente di massa dominate: nelle parti centrali, dove domina la materia barionica, il disco gassoso incrementa il suo spessore esponenzialmente con una lunghezza scala pari al doppio di quella del disco stellare; dalle zone intermedie fino alla fine del disco, il profilo verticale del gas `e influenzato dalla distribuzione di DM. In queste zone lo spessore del disco gassoso cresce con il raggio in maniera circa lineare. Tale fenomeno viene definito gas flaring. Lo scopo principale di questa tesi `e la ricerca di una nuova tecnica per poter stimare il profilo vertical del gas in galassie con inclinazione intermedia.
Resumo:
In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.
Resumo:
Lo studio effettuato raccoglie informazioni al fine di svolgere un’analisi globale delle tecniche attualmente in uso, o in fase di studio, nel campo della localizzazione di dispositivi all’interno di un ambiente chiuso, ovvero laddove non è possibile sfruttare la copertura del sistema GPS. La panoramica è frutto dell’analisi e dello studio di paper tecnici pubblicati dai collaboratori dell’IEEE, fruibili all’interno del portale IEEE Xplore. A corredo di questo studio è stata sviluppata una applicazione per dispositivi Android basata sulla tecnica del Wi-Fi fingerprint; l’applicazione, che rappresenta un primo approccio alle tecniche di localizzazione, è a tutti gli effetti un sistema standalone per la localizzazione, consente cioè di costruire sia la mappa per la localizzazione, partendo da un ambiente sconosciuto, sia di ottenere la posizione dell’utente all’interno di una mappa conosciuta. La tesi si conclude con una analisi dei risultati e delle performance ottenute dall’applicazione in un uso comune, al fine di poter valutare l’efficacia della tecnica presa in considerazione. I possibili sviluppi futuri sono analizzati in un capitolo a parte e trovano spazio in ambienti nei quali si vogliono offrire servizi "context-based", ovvero basati sulla posizione esatta dell’utente.
Resumo:
Con l'aumento del numero di sensori e ricevitori presenti sui dispositivi mobili attuali, è possibile lo sviluppo di nuove applicazioni in grado di fornire dati utili sul contesto in cui si trova un utente in un determinato momento. In questa tesi viene descritta la realizzazione di un servizio per dispositivi Android in grado di riconoscere il tipo di mobilità dell'utente. La motivazione principale di questo progetto è stata la scarsità di soluzioni specifiche per questo tipo di riconoscimento contestuale. Sono state quindi realizzate una libreria Java e un'applicazione Android in grado di fornire tale funzionalità. La tecnica impiegata per il riconoscimento è derivata da una ricerca dei dottori Luca Bedogni e Marco Di Felice e del professore Luciano Bononi, dell'Università di Bologna. Tale tecnica sfrutta le misurazioni di accelerometro e giroscopio del dispositivo per rilevare pattern di movimento e associarli ai vari tipi di mobilità dell'utente. Per mostrare un possibile impiego di questo servizio, è stata realizzata un'applicazione che sfrutta i dati forniti dal servizio di riconoscimento per la gestione dello stato di alcune funzionalità del dispositivo. Inoltre, è stata effettuata una analisi statistica della precisione effettiva di questo sistema di riconoscimento, per evidenziarne i punti di forza e i limiti rispetto alle soluzioni già esistenti. E' stato osservato che il consumo energetico di questo sistema è minore rispetto ad applicazioni basate su servizi di geolocalizzazione, e che la sua precisione è accettabile rispetto ad altre soluzioni già esistenti.
Resumo:
La tesi si propone l’obiettivo di indagare le modalità di interazione tra conoscenze tecnico-scientifiche e dato normativo, a partire dallo studio delle c.d. norme tecniche, ossia le norme, dotate di forza giuridica o meno, elaborate sulla base di conoscenze tecnico-scientifiche. La ricerca analizza diversi settori dell’ordinamento, accomunati da un’elevata influenza di saperi tecnici e al tempo stesso da un’indubbia rilevanza dal punto di vista costituzionale (la disciplina delle sperimentazioni cliniche dei farmaci, quella delle emissioni inquinanti di origine industriale e quella relativa agli standard di sicurezza dei prodotti), individuando quelle che al loro interno si possono considerare norme tecniche e mettendone in luce sia i profili formali (in quali atti-fonte sono contenute, quale natura giuridica presentano) che il procedimento di formazione, con particolare attenzione ai soggetti che vi prendono parte. Si propone quindi una sistematizzazione degli elementi emersi dall’indagine a partire da due diverse prospettive: in primo luogo tali dati vengono analizzati dal punto di vista dogmatico, individuando i diversi meccanismi di ingresso del dato tecnico-scientifico nel tessuto normativo (incorporazione nella norma giuridica, impiego di clausole generali, rinvio a norme extra-giuridiche), al fine di mettere in luce eventuali profili problematici per quanto riguarda il sistema delle fonti. La seconda prospettiva prende invece quale punto di riferimento il “centro di elaborazione sostanziale” delle norme considerate, al fine di evidenziarne i diversi fattori di legittimazione: a partire da esigenze di armonizzazione della disciplina e dall’assunto della neutralità delle conoscenze tecnico-scientifiche rispetto agli interessi coinvolti, l’elaborazione delle norme tecniche vede infatti un significativo ripensamento degli equilibri non solo fra attori pubblici e privati, ma anche tra legittimazione politica e legittimazione “tecnica” della scelta normativa. A tali aspetti è dedicata la parte conclusiva del lavoro, in particolare per quanto riguarda la conformità rispetto al disegno costituzionale.
Resumo:
La Valvola Aortica Bicuspide (BAV) rappresenta la più comune anomalia cardiaca congenita, con un’incidenza dello 0,5%-2% nella popolazione generale. Si caratterizza per la presenza di due cuspidi valvolari anziché tre e comprende diverse forme. La BAV è frequentemente associata agli aneurismi dell’aorta toracica (TAA). La dilatazione dell’aorta espone al rischio di sviluppare le complicanze aortiche acute. Materiali e metodi Sono stati reclutati 20 probandi consecutivi sottoposti a chirurgia della valvola aortica e dell'aorta ascendente presso l'Unità di Chirurgia Cardiaca di Policlinico S.Orsola-Malpighi di TAA associata a BAV. Sono stati esclusi individui con una condizione sindromica predisponente l’aneurisma aortico. Ciascun familiare maggiorenne di primo grado è stato arruolato nello studio. L’analisi di mutazioni dell’intero gene ACTA2 è stata eseguita con la tecnica del “bidirectional direct sequencing”. Nelle forme familiari, l’intera porzione codificante del genoma è stata eseguita usando l’exome sequencing. Risultati Dopo il sequenziamento di tutti i 20 esoni e giunzioni di splicing di ACTA2 nei 20 probandi, non è stata individuata alcuna mutazione. Settantasette familiari di primo grado sono stati arruolati. Sono state identificate cinque forme familiari. In una famiglia è stata trovata una mutazione del gene MYH11 non ritenuta patogenetica. Conclusioni La mancanza di mutazioni, sia nelle forme sporadiche sia in quelle familiari, ci suggerisce che questo gene non è coinvolto nello sviluppo della BAV e TAA e, l’associazione che è stata riportata deve essere considerata occasionale. L’architettura genetica della BAV verosimilmente dovrebbe consistere in svariate differenti varianti genetiche che interagiscono in maniera additiva nel determinare un aumento del rischio.
Resumo:
In the past two decades the work of a growing portion of researchers in robotics focused on a particular group of machines, belonging to the family of parallel manipulators: the cable robots. Although these robots share several theoretical elements with the better known parallel robots, they still present completely (or partly) unsolved issues. In particular, the study of their kinematic, already a difficult subject for conventional parallel manipulators, is further complicated by the non-linear nature of cables, which can exert only efforts of pure traction. The work presented in this thesis therefore focuses on the study of the kinematics of these robots and on the development of numerical techniques able to address some of the problems related to it. Most of the work is focused on the development of an interval-analysis based procedure for the solution of the direct geometric problem of a generic cable manipulator. This technique, as well as allowing for a rapid solution of the problem, also guarantees the results obtained against rounding and elimination errors and can take into account any uncertainties in the model of the problem. The developed code has been tested with the help of a small manipulator whose realization is described in this dissertation together with the auxiliary work done during its design and simulation phases.
Resumo:
La ricerca si colloca all’interno di un complesso intervento di cooperazione internazionale realizzato in El Salvador tra il 2009 e il 2014. Il Progetto di cooperazione è stato promosso dal Dipartimento di Scienze dell’Educazione dell’Università di Bologna e finanziato dalla Cooperazione Italiana. L’esperienza studiata rappresenta un esempio di promozione dell’inclusione nei sistemi scolastici di Paesi del Sud del mondo e si propone due obiettivi: 1) analizzare il processo di cambiamento della prospettiva di intervento promossa dalla cooperazione internazionale, evidenziando la dimensione educativa che sostiene processi di empowerment e ownership delle istituzioni locali; 2) contribuire al dibattito sull’ “inclusive education”, sostenendo processi di inclusione scolastica e sociale rivolti a tutti coloro che si trovano in situazione di svantaggio psico-fisico e/o socio-culturale. Le politiche locali del Ministero dell’Educazione dal 2009 hanno promosso un modello educativo con l’obiettivo di garantire il diritto all’educazione per tutti nella scuola pubblica. Lo studio costituisce un'indagine di tipo valutativo sul processo di sviluppo della scuola inclusiva in El Salvador, supportato dall’intervento di cooperazione internazionale. La ricerca utilizza in modo integrato strumenti di natura quantitativa (questionari) e qualitativa (interviste). Dai dati raccolti emerge come il processo di cooperazione sia stato caratterizzato dal principio della pari dignità tra esperti internazionali e autorità politiche e tecniche locali. Inoltre, la ricerca ha consentito di verificare come la cultura dell'inclusione si sia radicata in modo diffuso nella percezione della missione della scuola e il suo ruolo tra i protagonisti del sistema scolastico. Alla luce dei risultati, appare fondamentale continuare a investire sulla formazione tecnica delle figure chiave del sistema educativo; facilitare il processo di inclusione dei disabili nelle scuole regolari con una parallela trasformazione delle scuole speciali in centri di supporto all’integrazione; promuovere una sinergia di azione formativa tra il ministero, mondo accademico e della formazione professionale.
Resumo:
La BCPA e’ ormai utilizzata routinariamente come stadio intermedio della palliazione di Fontan nel trattamento dei cuori funzionalmente univentricolari e si conferma intervento a ridotta mortalità e morbilità. La crescita delle arterie polmonari dopo BCPA è abbastanza variabile ed imprevedibile, le dimensioni indicizzate dei rami principali sembrano tendenzialmente ridotte, tranne quelle dell’arteria lobare inferiore destra, la quale beneficerebbe del flusso preferenziale della BCPA. Proprio i pazienti con arterie polmonari più piccole mostrerebbero un maggior incremento di dimensioni delle stesse dopo BPCA. Il ruolo ed i vantaggi del flusso accessorio nella BCPA sono ancora da definire; tuttavia sembrerebbe offrire vantaggi in termini di crescita delle arterie polmonari, soprattutto il ramo lobare sinistro, e di miglior outcome dopo TCPC.
Resumo:
How to evaluate the cost-effectiveness of repair/retrofit intervention vs. demolition/replacement and what level of shaking intensity can the chosen repairing/retrofit technique sustain are open questions affecting either the pre-earthquake prevention, the post-earthquake emergency and the reconstruction phases. The (mis)conception that the cost of retrofit interventions would increase linearly with the achieved seismic performance (%NBS) often discourages stakeholders to consider repair/retrofit options in a post-earthquake damage situation. Similarly, in a pre-earthquake phase, the minimum (by-law) level of %NBS might be targeted, leading in some cases to no-action. Furthermore, the performance measure enforcing owners to take action, the %NBS, is generally evaluated deterministically. Not directly reflecting epistemic and aleatory uncertainties, the assessment can result in misleading confidence on the expected performance. The present study aims at contributing to the delicate decision-making process of repair/retrofit vs. demolition/replacement, by developing a framework to assist stakeholders with the evaluation of the effects in terms of long-term losses and benefits of an increment in their initial investment (targeted retrofit level) and highlighting the uncertainties hidden behind a deterministic approach. For a pre-1970 case study building, different retrofit solutions are considered, targeting different levels of %NBS, and the actual probability of reaching Collapse when considering a suite of ground-motions is evaluated, providing a correlation between %NBS and Risk. Both a simplified and a probabilistic loss modelling are then undertaken to study the relationship between %NBS and expected direct and indirect losses.
Resumo:
Nell’ambito del tirocinio svolto è stato affrontato lo studio del Progetto di messa in sicurezza e bonifica della Raffineria ISAB IMP. SUD, attiva nel SIN di Priolo Gargallo. In particolare lo studio ha visto il Monitoraggio Annuale delle acquee sotterranee. Il lavoro è stato articolato nelle seguenti fasi: Lo studio del Progetto di messa in sicurezza e bonifica dell’area Il campionamento delle acque attraverso sopralluoghi in campo Le analisi in laboratorio La validazione dei dati ottenuti La stesura della relazione tecnica relativamente ai dati validati, trasmessa all’azienda e agli enti competenti Il campionamento, che avviene attraverso un piezometro, prevede: Inizialmente la misura del livello statico della falda tramite freatimetro Segue la fase di spurgo, fin quando non si ha la stabilizzazione dei parametri quali pE, pH, temperatura, conducibilità elettrica, ecc… misurati in continuo tramite una sonda multiparametrica accoppiata alla cella di flusso Infine si campiona. In laboratorio sono state applicate le seguenti tecniche per l’analisi degli inquinanti definiti dal D.L.152/06: VOC e IPA; Analisi svolte secondo le metodiche ufficiali EPA 8260B e EPA 8272 Metalli; EPA 6020 a Idrocarburi; UNI EN ISO 9377-2/2002 (fraz. C10-C40). La validazione dei dati ha visto in particolare l’elaborazione dei risultati attraverso il confronto, per ogni parametro, tra i dati forniti dall’Azienda e i risultati delle analisi compiute dall’ARPA. Inerentemente al seguente studio è stata condotta, sulla base dei risultati delle diverse fasi di indagine ambientale svolte dall’azienda, l’analisi di rischio sito-specifica utilizzando il software RiskNet.
Resumo:
Questo lavoro riguarda la sintesi e caratterizzazione di nanoparticelle basate sul magnesio per l'immagazzinamento di idrogeno. Le nanoparticelle sono state cresciute mediante Inert Gas Condensation, una tecnica aerosol in cui il materiale viene sublimato e diretto verso i substrati tramite un flusso di gas inerte, e caratterizzate attraverso microscopia elettronica e diffrazione di raggi X. Queste operazioni sono state eseguite presso il Dipartimento di Fisica e Astronomia dell'Università di Bologna. Sono stati sintetizzati due tipi di particelle: nel primo il magnesio viene deposto direttamente sul substrato, nel secondo esso incontra un flusso di ossigeno prima di depositarsi sulla superficie. In questo modo si formano delle particelle con struttura core-shell in cui la parte interna è formata da magnesio e quella esterna dal suo ossido. La presenza di una shell consistente dovrebbe permettere, secondo il modello di deformazioni elastiche, di diminuire il valore assoluto dell'entropia di formazione dell'idruro di magnesio, condizione necessaria affinché il desorbimento di idrogeno possa avvenire in maniera più agevole rispetto a quanto non accada col materiale bulk. Tutti i campioni sono stati ricoperti di palladio, il quale favorisce la dissociazione della molecola di idrogeno. La capacità di assorbimento dell'idrogeno da parte dei campioni è stata studiata mediante idrogenografia, una tecnica ottica recentemente sviluppata in cui la quantità di gas assorbita dal materiale è legata alla variazione di trasmittanza ottica dello stesso. Le misure sono state eseguite presso l'Università Tecnica di Delft. I risultati ottenuti evidenziano che le nanoparticelle di solo magnesio mostrano dei chiari plateau di pressione corrispondenti all'assorbimento di idrogeno, tramite cui sono stati stimati i valori di entalpia di formazione. Al contrario, i campioni con struttura core-shell, la cui crescita rappresenta di per sé un risultato interessante, non presentano tale comportamento.
Resumo:
L'argomento discusso in questa tesi riguarda la tecnica detta "stimolazione magnetica transcranica" (TMS) e le sue applicazioni sia in campo sperimentale sia in ambito medico e terapeutico. A tale scopo la trattazione analizzerà in primo luogo gli aspetti biologici del campo d'applicazione di tale tecnica, per poi focalizzarsi sui principi fisici e strumentali alla base della TMS, per concludere infine con alcuni esempi applicativi.