928 resultados para Tomografia, prove soniche dirette, surfer, geotom, velocità di propagazione
Resumo:
La fissazione esterna ha subito una forte evoluzione nel corso degli anni, passando dall’essere una tecnica utilizzata esclusivamente nella stabilizzazione delle fratture, fino a diventare una risorsa importante in ortopedia ricostruttiva per il trattamento di molte patologie ossee e dei tessuti molli. Il prototipo di fissatore esterno monolaterale articolato Kore (Citieffe S.r.l.), oggetto di questo studio, consente di effettuare correzione di deformità angolari e piccoli allungamenti su ossa lunghe. Il lavoro sperimentale si è concentrato sul testare le prestazioni meccaniche del dispositivo e della sua componentistica, con l'obiettivo di mettere in evidenza eventuali problemi. I risultati sono stati confrontati con quelli ottenuti in prove realizzate precedentemente in azienda, e con quelli ricavati su dispositivi concorrenti da altri autori. Sono state svolte una prova di compressione assiale statica, una prova a fatica di compressione assiale, una prova a flessione a quattro punti ed una prova di regolazione dinamometrica sul meccanismo di attuazione del dispositivo. E’ stata poi progettata una configurazione per studiare le principali caratteristiche dei morsetti. Nel caso del morsetto a compensazione si è verificata l'effettiva capacità di scorrimento del morsetto, mentre nel morsetto a traliccio, dotato di un meccanismo di snodo, ne viene accertata la tenuta. Al termine dei test, in base ai risultati raccolti dalle prove meccaniche e dalle prove svolte su osso artificiale, sono state fatte valutazioni riguardanti alcune modifiche da apportare al prototipo. Per quanto riguarda il dispositivo dovrà essere ridotta la dimensione del corpo centrale, al fine di avere un dispositivo più duttile, leggero e vicino al corpo. Questa modifica inoltre limiterà l'influenza della flessione delle pins sul comportamento meccanico del fissatore, migliorandone le prestazioni. Relativamente al morsetto a traliccio dovrà essere ridotta la lunghezza dello snodo, per limitare lo sforzo sulla vite di serraggio del meccanismo. Nel morsetto a compensazione dovrà essere modificato il profilo, per garantire un migliore scorrimento.
Resumo:
La TC perfusionale (TCp) è un valido strumento per l'imaging funzionale dei tumori. Tale tecnica consente di misurare in modo oggettivo la perfusione tissutale, attraverso l'analisi matematica dei dati ottenuti effettuando scansioni TC ripetute nel tempo, dopo la somministrazione di un mezzo di contrasto iodato. Il principale obiettivo degli studi perfusionali in oncologia è la valutazione precoce dell’efficacia delle terapie anti-angiogenetiche utilizzate per bloccare la vascolarizzazione che alimenta le lesioni tumorali. Infatti, sin dal primo ciclo di terapie, è possibile rilevare se la vascolarizzazione tumorale si riduce, senza dover attendere i cambiamenti dimensionali che, in genere, avvengono tardivamente. Questa Tesi si focalizza sullo studio del carcinoma polmonare e perviene alla costruzione di un catalogo, completo di mappe colorimetriche, che sintetizza i casi analizzati, i dati relativi al paziente e alle lesioni. L'obiettivo è quindi quello di fornire uno strumento di facile consultazione che consenta di valutare vari aspetti relativi alla malattia, tra cui il tasso di accrescimento, il grado di malignità, presenza di invasione vascolare, al fine di andare sempre più verso una cura personalizzata e più efficace per i pazienti che, attualmente, sono sottoposti a soluzione terapeutica standard. Questa è, senza dubbio, la nuova frontiera della ricerca per tutte i tipi di neoplasie negli anni futuri.
Resumo:
Analisi di apparecchiature esistenti su macchina di prova assiale per l'esecuzione di prove differenti e sviluppo di una nuova attrezzatura per l'esecuzione di prove di torsione pura su macchina assiale.
Resumo:
Il presente lavoro di tesi si pone l’obiettivo di studiare come un Cubesat 1U reagisce se sollecitato con vibrazioni di una certa banda di frequenze, corrispondenti a quelle generate durante il lancio del vettore VEGA, e cercare di sviluppare un modello virtuale che in futuro permetta di simulare in maniera più realistica il comportamento delle successive strutture che saranno progettate. Il campo dei nanosatelliti è in rapida espansione negli ultimi anni, bassi costi di produzione e lancio abbinati a tempi rapidi di sviluppo e progettazione li rendono un ottimo strumento per aziende di piccole dimensioni e università per aquisire esperienza nel campo delle tecnologie spaziali e permettere la formazione degli studenti. Grazie a questi fattori il corso di Ingegneria Aerospaziale di Forlì ha intrapreso la progettazione di un Cubesat che una volta ultimato potrà essere lanciato in orbita grazie al contributo dell’ESA, che si presta a fornire lanci gratuiti alle università europee. Questo progetto porta avanti il lavoro compiuto durante la fase di tirocinio in cui abbiamo cercato di progettare una struttura semplice e realizzabile completamente nei laboratori dell’università, che permettesse anche successivamente a studenti e dottorandi di cimentarsi nello studio e nella progettazione di un nanosatellite. Il mio compito in particolare consiste nell’esecuzione di una serie di prove sperimentali con uno shaker presente nei laboratori della Scuola e, raccogliendo, analizzando e interpretando la risposta della struttura, si cercherà di modificare il modello CAD realizzato finora (lavoro compiuto in un'altra tesi di laurea) in modo che rispecchi più fedelmente il comportamento di quello reale e fornire quindi una base ai futuri lavori in questo ambito. La struttura, ispirata a quelle già presenti sul mercato, è stata progettata utilizzando Solidworks un software CAD, successivamente è stata fatta un analisi tramite un altro software FEM, realizzato e poi testato mediante uno shaker presso i laboratori del corso di studi in ingegneria aerospaziale di Forlì. Per poter fare ciò si è anche realizzata quella che è stata usata come interfaccia per connettere il Cubesat allo shaker, infatti data la sua proprietà di esercitare spostamenti solo lungo l’asse verticale si è reso necessario trovare un modo per sollecitare il nanosatellite lungo tutti e tre gli assi per poter evidenziare i modi flessionali della struttura. I dati ottenuti riguardano le accelerazioni rilevate in vari punti del Cubesat e del supporto da parte di accelerometri piezometrici che sono stati analizzati per risalire al tipo di comportamento con cui ha risposto la struttura a vibrazioni di varia frequenza e intensità.
Resumo:
Le condizioni iperacide presenti nelle acque di alcuni laghi craterici, combinate con altre proprietà chimico-fisiche quali densità e temperatura, possono favorire processi di degassamento anche di specie ad elevata solubilità e geochimicamente conservative in acque “normali”. In questa tesi si sono studiati i meccanismi e l’influenza di tali proprietà nel processo di degassamento attraverso la ricostruzione in laboratorio delle condizioni iperacide che caratterizzano i laghi iperacidi in natura. Particolare attenzione è posta al comportamento dello ione Cl-, diffusamente presente nelle acque crateriche e considerato fin ora tipicamente “conservativo”. In condizioni di estrema acidità questo ione modifica la sua tendenza conservativa, attivando le sue caratteristiche di base coniugata. In tali condizioni infatti esso si lega agli ioni H+ presenti formando acido cloridrico molecolare (HCl), parte del quale inevitabilmente degassa. Lo studio di soluzioni preparate in laboratorio e poste a condizioni di temperatura, densità ed acidità iniziale differenti, sono stati raccolti una serie di dati relativi al pH e alle variazioni della concentrazione dello ione Cl- imputabile a fenomeni di degassamento. I dati così ottenuti, sono stati poi confrontati con le caratteristiche chimico-fisiche di una serie di laghi craterici iperacidi esistenti in varie parti del mondo. Questo confronto ha consentito di definire più in dettaglio le cause ed i meccanismi che portano al degassamento di acidi forti (HCl) da acque iperacide e il grado di influenza delle varie proprietà sopra citate in questo fenomeno naturale.
Resumo:
Le colate detritiche sono manifestazioni parossistiche con trasporto impulsivo di sedimenti lungo la rete idrografica minore che presentano un elevato potere distruttivo. In questo lavoro di tesi si è cercato di descrivere inizialmente le caratteristiche tipiche delle colate di detrito, e le condizioni climatiche e geomorfologiche che tendono a favorirne l’innesco. Verranno poi analizzati, i casi relativi all’Appennino bolognese, prendendo come riferimento le colate rapide di detrito avvenute in località Serraglio (Baragazza) nei pressi del comune di Castiglione dei Pepoli. Nello specifico verrà indagato il fenomeno avvenuto il 31/01/2014, per il quale sono stati effettuati numerosi rilievi morfometrici che hanno portato ad individuare una geometria di dettaglio del canale di flusso e della nicchia di frana, per poter ricostruire i volumi di materiale mobilizzato. In contemporanea alle misure morfometriche si sono effettuate delle indagini sismiche volte a stimare lo spessore della coltre di alterazione presente all’interno del canale prima dell’evento, e a monte della nicchia di frana. Successivamente si è cercato di correlare le misure H/V con le prove MASW effettuate ,senza successo, ciò è probabilmente dovuto dalla difficoltà di indagare spessori così sottili con le MASW. Perciò utilizzando le indagini H/V si è tentato di ricostruire il modello geologico – tecnico alla scala del versante. Infine si è cercato di modellizzare il fenomeno utilizzando il software Dan-W con il quale si sono testati vari modelli reologici fra i quali si sono dimostrati più realistici, in riferimento al caso in esame, il modello frizionale ed il modello di Voellmy. Per questi due modelli è stata quindi effettuata la calibrazione dei parametri, in riferimento dei quali si è visto che, con il modello di Voellmy si è ottenuto un buon valore della distanza percorsa dalla colata, ma una stima delle velocità abbastanza elevate. Il modello frizionale invece ha portato ad una buona stima degli spessori dei depositi, ma sottostimando la distanza che avrebbe potuto percorrere la colata se non avesse incontrato ostacoli.
Resumo:
In questa tesi abbiamo provato a definire fino a che punto le misure di sensori siano affidabili, creando un simulatore che sia in grado di analizzare, qualitativamente e quantitativamente, le prestazioni di sensori inerziali facenti parte di sistemi di navigazione inerziale. Non ci siamo soffermati troppo sulle dinamiche dovute agli errori deterministici, che sono eliminabili facilmente mediante prove sperimentali e test, ma abbiamo puntato ad uno studio approfondito riguardante gli errori dovuti a processi stocastici casuali. Il simulatore, programmato sulla piattaforma MATLAB/Simulink, prende i dati grezzi contenuti all’interno dei datasheets dei sensori e li simula, riportando risultati numerici e grafici degli errori risultanti dall’utilizzo di quei specifici sensori; in particolare, esso mette in luce l’andamento degli errori di posizione, velocità ed assetto ad ogni istante di tempo della simulazione. L’analisi effettuata all’interno dell’elaborato ha successivamente condotto all’identificazione dei giroscopi laser come i sensori che soffrono meno di questi disturbi non-sistematici, portandoli ad un livello sopraelevato rispetto ai MEMS ed ai FOG.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Questo lavoro di tesi si inserisce in un progetto di ricerca internazionale denominato “Venice Time Machine” dove collaborano fianco a fianco l’Ecole Polytechnique Fédérale de Lausanne e l’Università Cà Foscari di Venezia. Grazie al coinvolgimento dell’Archivio di Stato di Venezia, decine di chilometri di documenti verranno digitalizzati e indicizzati, al fine di creare un database open access da utilizzare per la ricerca e l’istruzione. Molti di questi documenti tuttavia sono particolarmente fragili oppure, come nel caso di diversi testamenti, non sono mai stati aperti, per cui le tecniche tradizionali di digitalizzazione non sono applicabili. Di qui deriva l’interesse per sperimentare nuove tecniche non invasive al fine di digitalizzare e quindi rendere fruibili al pubblico anche questi documenti altrimenti inaccessibili. Lo scopo dell’analisi tomografica è quello di creare un modello 3D del documento, su cui effettuare successive elaborazioni al fine di ottenere una separazione virtuale delle pagine e quindi permetterne la lettura anche se il manoscritto è chiuso e non può essere aperto. In particolare in questo lavoro di tesi sono stati analizzati due testamenti: un testamento del 1679, usato come campione di prova per verificare la migliore sorgente di raggi X ai fini della ricostruzione tomografica e anche per valutare l’efficacia della tecnica, e il testamento Alchier-Spiera (dai nomi dei testatori), datato 1634, di maggiore interesse poiché ancora chiuso. I risultati ottenuti sono molto soddisfacenti, poiché elaborando le ricostruzioni tomografiche è possibile la lettura virtuale sia di parole che di intere frasi. Questo risultato porta nuova linfa al progetto che, di base, si pone l’obiettivo di convertire in formato digitale decine di km di testi conservati in Archivio, ma che ha trovato, in questo tipo di testamenti chiusi, un ostacolo molto difficile da superare.
Resumo:
Negli ultimi anni, tra le varie tecnologie che hanno acquisito una sempre maggiore popolarità e diffusione, una di particolare rilevanza è quella degli Unmanned Aerial Vehicles. Di questi velivoli, quelli che stanno riscuotendo maggiore successo sono i multirotori, alimentati esclusivamente da azionamenti elettrici disposti in opportune posizioni della struttura. Particolari sforzi sono stati recentemente dedicati al miglioramento di questa tecnologia in termini di efficienza e precisione, tuttavia quasi sempre si trascura la vitale importanza dello sfruttamento efficiente dei motori elettrici. La tecnica di pilotaggio adottata nella quasi totalità dei casi per questi componenti è il BLDC sensorless, anche se la struttura si dimostra spesso essere PMSM, dunque inadatta all’uso di questa strategia. Il controllo ideale per i PMSM risulterebbe essere FOC, tuttavia per l'implementazione sensorless molti aspetti scontati nel BLDC devono essere affrontati, in particolare bisogna risolvere problemi di osservazione e identificazione. Durante la procedura di avviamento, efficienti strategie di self-commissioning vengono adottate per l’identificazione dei parametri elettrici. Per la fase di funzionamento nominale viene proposto un osservatore composto da diversi componenti interfacciati tra loro tramite un filtro complementare, il tutto al fine di ottenere una stima di posizione e velocità depurata dai disturbi. In merito al funzionamento in catena chiusa, vengono esposte valutazioni preliminari sulla stabilità e sulla qualità del controllo. Infine, per provare la validità degli algoritmi proposti, vengono mostrati i risultati delle prove sperimentali condotte su un tipico azionamento per UAV, pilotato da una scheda elettronica progettata appositamente per l’applicazione in questione. Vengono fornite inoltre indicazioni sull’implementazione degli algoritmi studiati, in particolare considerazioni sull’uso delle operazioni a virgola fissa per velocizzare l'esecuzione.
Resumo:
I. The influence of N,N,N’,N’-tetramethylethylenediamine on the Schlenk equilibrium
The equilibrium between ethylmagnesium bromide, diethylmagnesium, and magnesium bromide has been studied by nuclear magnetic resonance spectroscopy. The interconversion of the species is very fast on the nmr time scale, and only an averaged spectrum is observed for the ethyl species. When N,N,N’,N’-tetramethylethylenediamine is added to solutions of these reagents in tetrahydrofuran, the rate of interconversion is reduced. At temperatures near -50°, two ethylmagnesium species have been observed. These are attributed to the different ethyl groups in ethylmagnesium bromide and diethylmagnesium, two of the species involved in the Schlenk equilibrium of Grignard reagents.
II. The nature of di-Grignard reagents
Di-Grignard reagents have been examined by nuclear magnetic resonance spectroscopy in an attempt to prove that dialkylmagnesium reagents are in equilibrium with alkylmagnesium halides. The di-Grignard reagents of compounds such as 1,4-dibromobutane have been investigated. The dialkylmagnesium form of this di-Grignard reagent can exist as an intramolecular cyclic species, tetramethylene-magnesium. This cyclic form would give an nmr spectrum different from that of the classical alkylmagnesium halide di-Grignard reagent. In dimethyl ether-tetrahydrofuran solutions of di-Grignard reagents containing N N,N,N’,N’-Tetramethylethylenediamine, evidence has been found for the existence of an intramolecular dialkylmagnesium species. This species is rapidly equilibrating with other forms, but at low temperatures, the rates of interconversion are reduced. Two species can be seen in the nmr spectrum at -50°. One is the cyclic species; the other is an open form.
Inversion of the carbon at the carbon-magnesium bond in di-Grignard reagents has also been studied. This process is much faster than in corresponding monofunctional Grignard reagents.
Resumo:
Human brain imaging techniques, such as Magnetic Resonance Imaging (MRI) or Diffusion Tensor Imaging (DTI), have been established as scientific and diagnostic tools and their adoption is growing in popularity. Statistical methods, machine learning and data mining algorithms have successfully been adopted to extract predictive and descriptive models from neuroimage data. However, the knowledge discovery process typically requires also the adoption of pre-processing, post-processing and visualisation techniques in complex data workflows. Currently, a main problem for the integrated preprocessing and mining of MRI data is the lack of comprehensive platforms able to avoid the manual invocation of preprocessing and mining tools, that yields to an error-prone and inefficient process. In this work we present K-Surfer, a novel plug-in of the Konstanz Information Miner (KNIME) workbench, that automatizes the preprocessing of brain images and leverages the mining capabilities of KNIME in an integrated way. K-Surfer supports the importing, filtering, merging and pre-processing of neuroimage data from FreeSurfer, a tool for human brain MRI feature extraction and interpretation. K-Surfer automatizes the steps for importing FreeSurfer data, reducing time costs, eliminating human errors and enabling the design of complex analytics workflow for neuroimage data by leveraging the rich functionalities available in the KNIME workbench.
Resumo:
Introduction. Cardiovascular disease (CVD) represents the main cause of morbidity and mortality in kidney recipients. This study was undertaken to assess the impact of functional polymorphisms located in cytokine and apoptosis genes on CVD after kidney transplantation. Cytokine polymorphisms, generally located in gene regulatory regions, are associated with high and low cytokine production and are likely to modulate the magnitude of inflammatory responses following transplantation, depending on the balance between the levels of pro-inflammatory and antiinflammatory cytokines. The role of apoptosis in atherosclerosis has not been completely elucidated, and here we explored the hypothesis that the heterogeneity in cardiovascular risk in kidney recipients may also be linked to functional polymorphisms involved in apoptosis induction. Purpose. In the search for relevant genetic markers of predisposition to CVD after renal transplant, the present investigation was undertaken to identify the clinical impact of polymorphisms of cytokines TNF-α, TGF-β, IL-10, IL-6, IFN-γ and IL-8 and of apoptosis genes Fas and Caspase 9 in a population of kidney transplant recipients. Materials and methods. The study involved 167 patients who received cadaveric kidney transplantation at our centre between 1997 and 2005 (minimum follow-up of 12 months); 35 of them had experienced cardiovascular events (CVD group) and 132 had no cardiovascular complications (non-CVD group). Genotyping was performed using RFLP (Restriction Fragment Length Polymorphism) for RFLP per IL-8/T-251A, Fas/G-670A e Casp9/R221Q polymorphism and SSP (Sequence Specific Primer) for TNF-α/G-308A, TGF-β/L10P, TGF-β/R25P, IL-10/G-1082A, IL- 10/C-819T, IL-10/C-592A, IL-6/G-174C, IFN-γ/T+874A polymorphisms.Results. We found a significant difference in TNF-α and IL-10 genotype frequencies between the patients who had suffered cardiovascular events and those with no CVD history. The high producer genotype for proflogistic cytokine TNF-α appeared to have a significantly superior prevalence in the CVD group compared to the non-CVD group (40.0% vs 21.2%) and it resulted in a 2.4-fold increased cardiovascular risk (OR=2.361; p=0.0289). On the other hand, the high producer genotype for the antiinflammatory cytokine IL-10 was found in 2.8% of the CVD group and in 16.7% of non-CVD group; logistic regression showed a 0.3-fold reduced risk of CVD associated with genetically determined high IL-10 production (OR=0.278; p<0.0001). The other polymorphisms did not prove to have any impact on CVD. Conclusions. TNF-α and IL-10 gene polymorphisms might represent cardiovascular risk markers in renal transplant recipients.