941 resultados para curve di suddivisione, compressione di segnali e di immagini, scaling di immagini.
Resumo:
L’applicazione della citogenetica convenzionale e molecolare può identificare: Ph-negatività, traslocazioni t(9;22) varianti e alterazioni citogenetiche addizionali (ACA) al cromsoma Ph in pazienti con LMC alla diagnosi. Prima dell’introduzione della terapia con Imatinib, esse mostravano un impatto prognostico negativo o non chiaro. Nel nostro studio, 6 casi di LMC Ph- erano trattati con Imatinib. La FISH identificava 4 casi con riarrangiamento BCR/ABL sul der(9q), 1 sul der(22q) e 1 su entrambi i derivativi. Quattro pazienti (66,7%) raggiungevano la RCgC, 2 fallivano il trattamento e 1 sottoposto a TMO. A causa dello scarso numero di casi, non era possibile nessuna correlazione con la prognosi. Nell’ambito di studi prospettici multicentrici del GIMEMA-WP, abbiamo valutato: traslocazioni varianti e ACA. Dei 559 pazienti arruolati, 30(5%) mostravano traslocazioni varianti, 24 valutabili in FISH: 18(75%) mostravano meccanismo 1-step, 4(16,7%) meccanismo 2-step e 2(8,3%) meccanismo complesso. Abbiamo confermato che le varianti non influenzano la risposta e la sopravvivenza dei pazienti trattati con Imatinib. Dei 378 pazienti valutabili alla diagnosi con citogenetica convenzionale, 21(5,6%) mostravano ACA: 9(43%) avevano la perdita del cromosoma Y, 3(14%) trisomia 8, 2(10%) trisomia 19, 6(28%) altre singole anomalie e 1 cariotipo complesso. La presenza di ACA influenzava la risposta: le RCgC e RMolM erano significativamente più basse rispetto al gruppo senza ACA e le curve di sopravvivenza EFS e FFS non erano significativamente diverse. Le curve di PFS e OS erano sovrapponibili nei due gruppi, per il basso numero di eventi avversi oppure perché alcuni raggiungevano la risposta con TKI di seconda generazione. Le anomalie “major route” mostravano decorso clinico peggiore, ma non è stato possibile determinare l’impatto prognostico in relazione al tipo di alterazione. Pertanto, le ACAs alla diagnosi rivestono un ruolo negativo nella prognosi dei pazienti trattati con Imatinib, che quindi rappresentano una categoria più a rischio per la risposta.
Resumo:
La tesi descrive alcune applicazioni in ambito satellitare delle tecniche di radio cognitiva. In particolare si analizza la loro possibile implementazione in uno scenario dual-satellite in banda Ka nel quale l'utente primario si avvale dello standard DVB-S2 per la trasmissione. A seguire la verifica delle performance degli algoritmi di spectum sensing per la detection del segnale primario attraverso simulazioni in ambiente matlab con curve ROC e curve di probabilità di detection in funzione del rapporto segnale rumore.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Radioterapia del Policlinico S. Orsola - Malpighi e consiste nella caratterizzazione di un sistema di acquisizione per immagini portali (EPID) come dosimetro relativo bidimensionale da usare nei controlli di qualità sui LINAC. L’oggetto di studio è il sistema di acquisizione di immagini portali OPTIVUE 1000ST (Siemens), dispositivo flat panel di silicio amorfo (a-Si) assemblato all’acceleratore lineare Siemens Oncor. La risposta dell’EPID è stata analizzata variando i parametri di consegna della dose, mantenendo fissa la distanza fuoco-rivelatore. Le condizioni di stabilità, ottimali per lavorare, si hanno intorno alle 50 U.M. Dalle curve dei livelli di grigio ottenute risulta evidente che in diverse condizioni d’irraggiamento il sistema risponde con curve di Dose-Risposta differenti, pur restando nello stesso range di dose. Lo studio include verifiche sperimentali effettuate con l’OPTIVUE e usate per espletare alcuni controlli di qualità di tipo geometrico come la coincidenza campo luminoso – campo radiante e la verifica del corretto posizionamento delle lamelle del collimatore multilamellare. Le immagini portali acquisite verranno poi confrontate con quelle ottenute irraggiando tradizionalmente una CR (computed radiography), per la coincidenza e una pellicola radiocromica EBT 3, per l’MLC. I risultati ottenuti mostrano che, per il primo controllo, in entrambi i modi, si è avuta corrispondenza tra campo radiante e campo luminoso; il confronto fra le due metodiche di misura risulta consistente entro i valori di deviazioni standard calcolati, l’OPTIVUE può essere utilizzato efficacemente in tale controllo di qualità. Nel secondo controllo abbiamo ottenuto differenze negli errori di posizionamento delle lamelle individuati dai due sistemi di verifica dell’ordine di grandezza dei limiti di risoluzione spaziale. L’OPTIVUE è in grado di riconoscere errori di posizionamento preesistenti con un’incertezza che ha come limite la dimensione del pixel. Il sistema EPID, quindi, è efficace, affidabile, economico e rapido.
Resumo:
Il lavoro svolto in questa tesi s’inserisce e sviluppa soprattutto nel campo dell’analisi della vulnerabilità relativa agli tsunami ed è centrato sull’analisi della vulnerabilità di strutture ed edifici. Per la precisione si è focalizzata l’attenzione su un’area geografica specifica, cioè si è considerata l’ipotesi che un maremoto colpisca le coste orientali della Sicilia ed in particolare della città di Siracusa. Questo lavoro di tesi prenderà in considerazione due modelli distinti per la stima della vulnerabilità: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) che prende il nome dal progetto europeo in cui è stato sviluppato e il modello PTVA (Papathoma Tsunami Vulnerability Assessment) introdotto da Papathoma et al. (2003) e successivamente modificato da Dominey-Howes et al. (2007) e da Dall’Osso et al. (2009). Tali modelli sono esempi dei due possibili approcci (quantitativo e qualitativo). Nei seguenti capitoli si sono trattate le curve di fragilità e di danno, in particolare seguendo la metodologia di Koshimura et al. (2009) ed il lavoro di Valencia et al. (2011). A seguire sono stati descritti i due metodi utilizzati per lo studio della vulnerabilità (SCHEMA, PTVA) ed il lavoro che è stato condotto nell’area di Siracusa. Il lavoro di tesi si è concluso mostrando i risultati della classificazione di vulnerabilità evidenziando e discutendo differenze e similarità delle mappe risultanti dai due metodi applicati.
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.
Resumo:
Compilazione di un foglio di calcolo per lo studio ed il monitoraggio delle sospensioni posteriori progressive. I risultati del foglio di calcolo sono stati le curve di rigidezza progressiva e l'osservazione della loro variazione indotta dalla modifica di alcuni parametri di funzionamento; si comprende come reagisce la sospensione ad un diverso set-up.
Resumo:
In questo lavoro si affronta il tema della rilevazione fotometrica di esopianeti in transito attraverso la tecnica della fotometria differenziale e l'impiego di piccoli telescopi commerciali. Dopo un'introduzione sull'attuale stato della popolazione di esopianeti, verranno analizzati i sistemi extrasolari transitanti, da cui è possibile ricavare grandezze orbitali e fisiche che nessun altro metodo, attualmente, è in grado di garantire. Nella seconda parte verranno affrontate le problematiche relative alla rilevazione fotometrica dei transiti, sviluppando una tecnica di acquisizione e riduzione dei dati semplice, veloce e che possa allo stesso tempo garantire la precisione richiesta, di almeno 0.002 magnitudini. Questa verrà messa alla prova su due esopianeti che soddisfano le richieste di precisione sviluppate nel testo. Verrà dimostrato che con uno strumento da 0.25 m e una camera CCD commerciale, da cieli affetti da moderato inquinamento luminoso, è possibile ottenere curve di luce con una precisione dell'ordine di 0.001 magnitudini per astri con magnitudini comprese tra 8 e 13, comparabili con le accuratezze di strumenti di taglia professionale. Tale precisione è sufficiente per rilevare pianeti gioviani caldi e persino pianeti terrestri in transito attorno a stelle di classe M e dare un aiuto importante alla ricerca di punta. Questo verrà dimostrato presentando la sessione fotometrica con cui è stato scoperto il transito dell'esopianeta HD17156 b, il primo rilevato da strumentazione amatoriale. Con tecniche di ripresa simultanea attraverso setup identici è possibile aumentare la precisione di un fattore √N, dove N è il numero di telescopi impiegati in una sessione fotometrica, supposti raggiungere la stessa precisione. Tre strumenti come quello utilizzato nelle sessioni presentate nel testo sono sufficienti per garantire un campionamento temporale di almeno 0.13 dati/minuto e una precisione di 0.0006 magnitudini, ovvero di 500 ppm, non molto distante dal limite di 200 ppm attualmente raggiunto dai più grandi telescopi terrestri.
Resumo:
L'utilizzo di polimeri organici coniugati in dispositivi elettronici per applicazioni biologiche, grazie alle loro proprietà meccaniche ed elettriche, insieme alla loro biocompatibilità, è un campo di ricerca relativamente nuovo e in rapida espansione. In questo lavoro di tesi si utilizza la tecnica del Voltage Clamp in configurazione whole cell per caratterizzare le proprietà elettrofisiologiche della linea cellulare di glioblastoma multiforme (T98G) e per registrare le correnti ioniche di cellule adese su una matrice polimerica biocompatibile di poli(etilenediossitiofene)-poli(stirenesulfonato) (PEDOT:PSS). La tecnica consiste nel bloccare il potenziale di membrana al valore desiderato, secondo un preciso protocollo di stimolazione, misurando la corrente necessaria per mantenere costante il potenziale presente tra le due superfici della membrana cellulare. Nella prima parte del lavoro le cellule sono state perfuse con farmaci inibitori dei canali potassio, prima con il bloccante non specifico tetraetilammonio (TEA), e poi selettivamente tramite bloccanti specifici come iberiotossina e dendrotossina. Il 44% circa delle cellule ha evidenziato una significativa corrente residua riconducibile all'attività dei canali ionici voltaggio-dipendenti Kv1.2. Al contrario nelle cellule restanti questi canali non sono espressi. Successivamente, sempre utilizzando le T98G, si è analizzato come lo stato di ossido-riduzione del polimero coniugato PEDOT:PSS possa influenzare le correnti dei canali ionici di membrana; è emerso che il substrato di PEDOT:PSS ridotto provoca una diminuzione significativa della corrente registrata rispetto al substrato di controllo (petri in polistirene). Questi risultati sono stati confrontati con le curve di proliferazione delle cellule T98G coltivate per 24h, 48h e 72h sui diversi substrati considerati, evidenziando interessanti correlazioni nel caso del substrato PEDOT:PSS ridotto.
Resumo:
Lo scopo di questa tesi è decretare quale tipo di lavorazione tra elettroerosione e fresatura sia più adatta per la realizzazione di particolari soggetti a carichi affaticanti. Sono stati realizzati provini di due diversi materiali (lega di titanio Ti6Al4V e acciaio X30Cr13 bonificato). I provini presentano un intaglio in corrispondenza del quale avviene l'innesco della cricca. Tale punto rappresenta una zona critica sia per la lavorazione sia per la resistenza a fatica. Le curve di Wöhler ottenute per ogni combinazione di materiale-lavorazione sono state confrontate per trarre le conclusioni.
Resumo:
La ricostruzione dettagliata dell’architettura stratigrafica e delle facies delle successioni tardo-quaternarie sepolte al di sotto delle pianure alluvionali moderne sta assumendo un’importanza crescente come strumento per le ricostruzioni paleoambientali e paleoclimatiche e per la correlazione dei sistemi deposizionali continentali e costieri, finalizzata alla caratterizzazione geometrica di corpi sedimentari che rappresentano potenziali serbatoi. Un impulso significativo verso la caratterizzazione dell’architettura stratigrafica dei depositi tardo-quaternari del Bacino Padano è stato fornito, negli ultimi quindici anni, da un’intensa campagna di perforazioni operata dal Servizio Geologico, Sismico e dei Suoli di Regione Emilia-Romagna, nell’ambito della realizzazione della Carta geologica d’Italia in scala 1:50.000. Tuttavia, per ottenere un numero sufficiente di informazioni stratigrafiche è necessario un dataset molto esteso e le perforazioni (sondaggi a carotaggio continuo) presentano costi estremamente elevati. I limiti operativi delle descrizioni dei sondaggi a carotaggio continuo possono essere superati utilizzando metodi indiretti che si basano sullo sfruttamento delle proprietà geotecniche dei depositi tardo-quaternari. In questo lavoro di tesi l’analisi delle caratteristiche geotecniche delle prove CPTU è stata sfruttata per caratterizzare le associazioni di facies della Pianura Padana centrale. Una dettagliata analisi dei log stratigrafici e, in particolare, delle curve di resistenza delle prove CPTU inserite nelle sezioni, la costruzione di sezioni stratigrafiche e un meticoloso lavoro di correlazione basato su 19 datazioni radiometriche, ha rivelato una serie di paleosuoli (inceptisuoli) impilati nei 50-60 m più superficiali della successione tardo-quaternaria della Pianura Padana centrale; questi paleosuoli rappresentano l’unico marker stratigrafico all’interno di una successione costituita prevalentemente da depositi argillosi uniformi. L’analisi delle caratteristiche geotecniche di alcuni paleosuoli e dei loro rapporti con la channel belt del Fiume Po risulta fondamentale per comprendere l’evoluzione recente del Bacino Padano e le caratteristiche geometriche dei corpi sedimentari finalizzata allo sfruttamento di potenziali risorse fluide sotterranee.
Resumo:
Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.
Resumo:
Il presente lavoro di Tesi si inserisce nell’ambito della previsione e caratterizzazione spaziale di fenomeni convettivi, tipicamente intensi e a carattere locale, come i sistemi temporaleschi organizzati che spesso sono i protagonisti di eventi calamitosi importanti. Lo studio è stato condotto in modo tale da poter apportare un contributo ai sistemi previsionali, i quali attualmente non consentono una valutazione accurata ed una caratterizzazione spaziale attendibile di detti fenomeni temporaleschi (Elisabetta Trovatore, Ecoscienza, numero 4, 2012). Lo scopo è stato quello di verificare l’esistenza caratteristiche spaziali comuni a questa tipologia di eventi di precipitazione mediante un confronto tra la curva di riduzione della precipitazione media all’area, ottenuta dalle mappe di precipitazione cumulata oraria desunte da radar meteorologici e da mappe corrispondenti ricavate a partire dai dati pluviometrici osservati al suolo servendosi di tre modelli di interpolazione spaziale: Kriging ordinario (con variogramma desunto da dati ai pluviometri e da dati al radar), Inverso delle Distanze Pesate (Inverse Distance Weighted, IDW) e Poligoni di Voronoi.Le conclusioni del lavoro di Tesi hanno evidenziato che: - la curva di riduzione della precipitazione valutata da dati radar viene in generale meglio approssimata da due metodi: il Kriging ordinario, che utilizza come modello di variogramma teorico quello dedotto da misure ai pluviometri, e le distanze inverse pesate (IDW, Inverse Distance Weighted); - paragonando le curve di riduzione della precipitazione media all’area dedotte da radar si è potuta notare l’esistenza di quattro curve, di cui tre relative ad eventi che hanno registrato valori elevati di intensità di precipitazione (superiori ai 140 mm/h), che presentano un comportamento analogo, mentre nella porzione superiore del grafico sono presenti due curve che non seguono tale andamento e che sono relative ad eventi convettivi meno intensi; - non esiste una distanza alla quale tutti i variogrammi, desunti da dati radar, raggiungono la stazionarietà ma si è visto come questa, per i sei casi di studio, vari tra 10000 e 25000 metri.
Resumo:
Una curva di Jordan è una curva continua nel piano, semplice e chiusa. Lo scopo della tesi è presentare tre teoremi riguardanti le curve di Jordan. Il teorema dei quattro vertici afferma che ogni curva di Jordan regolare di classe C^2 ha almeno quattro punti in cui la curvatura orientata ha un massimo o un minimo locali. Il teorema della curva di Jordan asserisce che una curva di Jordan divide il piano esattamente in due parti, l'interno e l'esterno della curva. Secondo il teorema di Schönflies, la chiusura dell'interno di una curva di Jordan è omeomorfa a un disco chiuso.
Resumo:
L'elaborato illustra una possibile soluzione al problema della correzione del movimento respiratorio in dati ecografici di perfusione epatica per la valutazione della pressione portale. La tecnica proposta si basa sul segnale monogenico e sull’informazione di fase dell’immagine. Inizialmente sono stati presentati gli strumenti atti alla valutazione della vascolaritá epatica, con una particolare focalizzazione sulle tecniche non invasive per diagnosticare l’ipertensione portale. Tra di esse l’ecografia con mezzo di contrasto si impone come uno dei metodi più efficaci e soprattutto meno invasivi. In seguito è stato presentato un recente studio secondo cui, tramite l’elaborazione delle curve di enhancement ottenute dalla sequenza ecografica, è possibile stimare dei parametri correlati al valore di pressione portale. Tuttavia, durante l’esecuzione dell’esame ecografico, i movimenti respiratori del paziente non sempre consentono una corretta valutazione di tali parametri. In questa tesi è stata indagata la possibilità di compensare questi artefatti mediante l'applicazione di una metodo di tracking basato sul vincolo di conservazione della fase dell'immagine. Il metodo è stato testato qualitativamente su sequenze di immagini ecografiche acquisite all’ospedale di Barcellona e all’ospedale Sant’Orsola di Bologna, con risultati promettenti.
Resumo:
Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.