582 resultados para retorinen metodi
Resumo:
L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.
Resumo:
L'analisi di fase del segnale si presenta appropriata e di notevole efficacia per l'individuazione di attivazioni in fibrillazione atriale, in quanto permette la valutazione di come queste si generano e si propagano. Dopo aver ottenuto i dati relativi alle attivazioni, è possibile ricostruire delle mappe di fase atriale che possono essere utilizzate dal clinico per individuare i punti in cui cauterizzare. In questo lavoro di tesi sono stati utilizzati i segnali endocavitari atriali acquisiti con un catetere a contatto di nuova generazione per ottenere gli istanti di attivazione nelle diverse zone della camera atriale. I risultati dell'algoritmo messo a punto e testato su segnali in ritmo sinusale, sono stati confrontati con le performance di due metodi riportati in letteratura, evidenziando prestazioni migliori che potrebbero portare alla costruzione accurata delle mappe di fase e quindi ad una precisa localizzazione delle aree da cauterizzare durante la procedura di ablazione.
Resumo:
In questa trattazione si introduce il concetto di catena di Markov nascosta: una coppia di processi stocastici (X,O), dove X è una catena di Markov non osservabile direttamente e O è il processo stocastico delle osservazioni, dipendente istante per istante solo dallo stato corrente della catena X. In prima istanza si illustrano i metodi per la soluzione di tre problemi classici, dato un modello di Markov nascosto e una sequenza di segnali osservati: valutare la probabilità della osservazione nel modello, trovare la sequenza nascosta di stati più probabile e aggiornare il modello per rendere più probabile l'osservazione. In secondo luogo si applica il modello ai giochi stocastici, nel caso in cui solo uno dei giocatori non è a conoscenza del gioco in ogni turno, ma può cercare di ottenere informazioni utili osservando le mosse dell'avversario informato. In particolare si cercano strategie basate sul concetto di catena di Markov nascoste e si analizzano i risultati ottenuti per valutare l'efficienza dell'approccio.
Resumo:
Nel corso di questa tesi si svilupperà il metodo del Beam-forming acustico, uno dei più semplici algoritmi di elaborazione segnale che permette di isolare spazialmente un suono proveniente da una precisa direzione decisa da noi, creando quindi un microfono super-direzionale orientabile a partire da un array microfonico di caratteristiche note. Inoltre si implementerà in modo pratico l'algoritmo per descrivere il livello sonoro emesso da ogni punto di una sorgente sonora estesa in modo da mappare l'intensità di quest'ultima in un'immagine 2D da sovrapporre all'immagine stessa dell'oggetto. Volendo schematizzare in breve questa tesi, essa è composta da una prima parte teorica contenente gli argomenti che ci servono per descrivere lo spazio acustico e le onde acustiche, una seconda parte riguardante i microfoni e i suoi vari parametri, una terza parte riguardante la teoria sull'elaborazione segnale nel dominio del tempo e delle frequenze e in particolare cenni sulla trasformata di Fourier. Nella parte successiva verranno descritti i due principali metodi di Beam-forming acustico trattando sia gli apparati di misura sia i due algoritmi, facendo sempre riferimento alle parti di teoria necessarie alla spiegazione del metodo. Infine nell'ultima parte della tesi verrà discusso in primo luogo la creazione del microfono virtuale, in particolare parleremo della sua sensibilità in funzione della direzione avvalendoci di uno schema che in letteratura viene denominato Beam-pattern, in secondo luogo parleremo di come creare la mappa 2D dove effettivamente possiamo vedere l'intensità sonora dell'onda proveniente da ogni punto dell'oggetto preso in considerazione.
Resumo:
Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.
Resumo:
La Congettura di Razumov-Strogranov, dimostrata solo nel 2010 con metodi puramente combinatori da due matematici italiani, Contini e Sportiello, ha affascinato molti studiosi di combinatoria che si sono dedicati allo studio delle configurazioni FPL. In questa tesi viene studiato il ruotamento, una speciale permutazione delle configurazioni FPL con determinate condizioni al bordo che è lo strumento fondamentale per la dimostrazione della sovramenzionata congettura.
Resumo:
Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.
Resumo:
Il lavoro di tesi svolto propone diversi argomenti di geometria la cui costruzione è stata fatta con il software GeoGebra. Propone anche alcuni metodi di integrazione numerica realizzati con esso e anche un modo di approssimare la superficie di rotazione di una funzione sfruttando tali metodi. Gli argomenti trattati spaziano da quelli classici della geometria euclidea a temi affrontati più recentemente esaminando sia oggetti rappresentabili sul piano sia nello spazio tridimensionale.
Resumo:
In questo lavoro di ricerca ho esaminato la Teoria della Transizione e più nello specifico lo sviluppo di un possibile Living Lab della sostenibilità nel contesto universitario. In primo luogo, ho analizzato la situazione attuale per quanto riguarda lo sviluppo sostenibile in un contesto generale. Inoltre ho dovuto analizzare anche quali sono gli indici che usiamo per definire il benessere umano e su cui basiamo la nostra intera economia, come ad esempio il PIL. In secondo luogo, ho definito la Teoria della Transizione in ambito generale elencandone i vari strumenti di applicazione e i metodi. In fine ho cercato di applicare la Teoria della Transizione nel contesto della sostenibilità in ambito universitario, utilizzando i progetti di Transizione attraverso i Living Lab di “Terracini in Transizione” dell’Università di Bologna e “GOU Living Lab” dell’Università di Utrecht. Dai risultati ottenuti ho definito i limiti e le potenzialità che questi progetti di Living Lab avevano attraverso l’utilizzo della SWOT analysis. La quale ha evidenziato la necessità della costituzione di un gruppo all’interno dell’Università di Bologna che si occupi della gestione dei progetti green di Transizione, come nel contesto in cui mi sono venuto a trovare nell’Università di Utrecht con la presenza del Green Office.
Resumo:
In questa tesi viene proposta un'analisi di tipo politolinguistico di una selezione di discorsi pronunciati dal politico inglese Nigel Farage. Alla fine degli anni 90 dello scorso secolo il linguista tedesco Armin Burkhardt ha proposto un nuovo metodo di analisi linguistica andatosi ad integrare agli studi classici relativi al discorso politico, alla retorica e all'analisi del contenuto. Mediante tale approccio transdisciplinare è possibile avvalersi degli strumenti di analisi forniti dalla linguistica e dallo studio del discorso, così come dei metodi di ricerca impiegati nei campi della scienza politica, della sociolinguistica e della retorica politica, fornendo un quadro analitico più complesso ed articolato. Nella presente tesi non solo vengono identificate le peculiarità della retorica del leader euroscettica, bensì viene effettuata un'analisi sia linguistica che contestuale, affrontando le tematiche del pensiero euroscettico e la sua tradizione in Inghilterra, identificando i temi principali trattati da Farage nei suoi discorsi. Individuato l'ambito di studio, viene poi proposta un'analisi di tipo sia quantitativo che qualitativo delle tecniche discorsive di Farage, partendo dalla descrizione del linguaggio e della retorica in generale sino all'identificazione delle strategie più efficaci all'ottenimento del consenso presso l'opinione pubblica in materia economica ed europea.
Resumo:
Al giorno d'oggi è diventato necessario conoscere varie lingue visto che viviamo ormai in un mondo sempre più interconnesso. L'inglese è diventata la lingua dominante, ma quali sono i rischi che ne derivano? E' veramente necessario utilizzare una "lingua terza" anche tra locutori di lingue della stessa famiglia? In Europa soprattutto, sembra che il multilinguismo sia diventato un ostacolo più che una ricchezza e c'è sempre più la tendenza ad accettare l'imposizione dell'inglese.Tuttavia ci sono metodi di didattica linguistica come l'"intercomprensione" che potrebbero permettere di riscoprire l'importanza delle famiglie linguistiche. Ciò permetterebbe di rivalutare e valorizzare le proprie radici culturali (attraverso la lingua) che rischiano di andare perdute per via di una massificazione culturale provocata dall'inglese. Pertanto questa tesi partirà da un'analisi complessiva delle lingue nel mondo (ecolinguistica, teorie di Louis-Jean Calvet), arriverà ad analizzare la situazione nell'Unione Europea e il ruolo dell'inglese giungendo infine a proporre l'intercomprensione (nello specifico il metodo EuRom5) come possibile mezzo di salvaguardia delle lingue nella loro diversità.
Resumo:
Dall'inizio del nuovo millennio lo sviluppo di tecnologie nel campo del mobile computing, della rete internet, lo sviluppo dell'Internet of things e pure il cloud computing hanno reso possibile l'innovazione dei metodi di lavoro e collaborazione. L'evoluzione del mobile computing e della realtà aumentata che sta avvenendo in tempi più recenti apre potenzialmente nuovi orizzonti nello sviluppo di sistemi distribuiti collaborativi. Esistono oggi diversi framework a supporto della realtà aumentata, Wikitude, Metaio, Layar, ma l'interesse primario di queste librerie è quello di fornire una serie di API fondamentali per il rendering di immagini 3D attraverso i dispositivi, per lo studio dello spazio in cui inserire queste immagini e per il riconoscimento di marker. Questo tipo di funzionalità sono state un grande passo per quanto riguarda la Computer Graphics e la realtà aumentata chiaramente, però aprono la strada ad una Augmented Reality(AR) ancora più aumentata. Questa tesi si propone proprio di presentare l'ideazione, l'analisi, la progettazione e la prototipazione di un sistema distribuito situato a supporto della collaborazione basato su realtà aumentata. Lo studio di questa applicazione vuole mettere in luce molti aspetti innovativi e che ancora oggi non sono stati approfonditi né tanto meno sviluppati come API o forniti da librerie riguardo alla realtà aumentata e alle sue possibili applicazioni.
Resumo:
Nella presente tesi, di argomento astrofisico, sono esaminati gli ammassi di galassie (galaxy clusters), ovvero gli oggetti virializzati più grandi dell’Universo. Attraverso una introduttiva analisi morfologica vengono descritte le proprietà di luminosità in banda X e radio dovute alle galassie che li compongono ed al caldo gas intergalattico (ICM IntraCluster Medium) tra queste interposto. In particolare è presa in esame l’emissione radio diffusa di natura non termica di sottostrutture del gas, note con il nome di Aloni, relitti e mini-aloni. Nei capitoli II e III l’attenzione si concentra sul non facile problema della determinazione della massa di un ammasso, proprietà che costituisce il principale oggetto di studio del presente lavoro, passando in rassegna e descrivendo i metodi più utilizzati: analisi dinamica delle galassie (equazione di Jeans ed equazione del viriale), osservazioni in banda X dell’ICM, weak lensing (WL), strong lensing (SL) ed infine WL e SL accoppiati. Una analisi critica ed un confronto tra questi metodi è sviluppata nel capitolo IV, prendendo in considerazione l’ammasso RCS2327. Il conclusivo capitolo V racchiude e collega gli argomenti delle sezioni precedenti cercando una possibile correlazione tra le proprietà emissive non termiche (in banda radio) e le masse di un campione di 28 ammassi, determinate mediante tecnica di weak lensing e strong lensing accoppiate.
Resumo:
La capacità della spettroscopia di assorbimento di riuscire a determinare la struttura locale di campioni di ogni tipo e concentrazione, dagli elementi puri ai più moderni materiali nanostrutturati, rende lo studio dei meccanismi di incorporazione di droganti in matrici di semiconduttori il campo che meglio ne esprime tutto il potenziale. Inoltre la possibilità di ottenere informazioni sulla struttura locale di un particolare elemento in traccia posto in sistemi senza ordine a lungo raggio risulta, ovviamente, nello studio dei semiconduttori di grandissimo interesse. Tuttavia, la complessità di determinate strutture, generate dalla incorporazione di elementi eterovalenti che ne modificano la simmetria, può far si che all’analisi sperimentale si debbano affiancare dei metodi avanzati ab-initio. Questi approcci garantiscono, attraverso la simulazione o di strutture atomiche o dello stesso spettro XAS, di ottenere una più completa e precisa interpretazione dei dati sperimentali. Nella fase preliminare di questo elaborato si illustrerà la fenomenologia della spettroscopia di assorbimento e i fondamenti teorici che stanno alla base dell’analisi della struttura fine di soglia. Si introdurranno contemporaneamente le tecniche sperimentali con cui si realizzano le misure di spettri di assorbimento su una beamline che sfrutta sorgente di radiazione di sincrotrone facendo riferimento agli strumenti montati sulla linea LISA (o BM08) presso l’European Synchrotron Radiation Facility di Grenoble su cui si sono realizzati gli esperimenti di questo lavoro. Successivamente si realizzerà una rassegna di alcuni esperimenti simbolo della analisi della struttura locale di droganti in semiconduttori mediante XAFS, andando ad approfondire i metodi sperimentali associati. Nella parte principale della tesi verranno descritti alcuni tipi di analisi avanzate effettuate su Colloidal Quantum Dots a base di solfuro di piombo drogati con antimonio. Tali sistemi, particolarmente interessanti per potenziali applicazioni in campo optoelettrico, sono stati analizzati mediante misure di fluorescenza ottenute sulla beamline LISA. La fase di analisi ha visto la progettazione di una suite di programmi in C++ per realizzare simulazioni di uno spettro XAS teorico completo basato su strutture ottenute (anche esse) da metodi ab-initio.
Resumo:
Questa tesi si prefigge l’obiettivo di analizzare alcuni aspetti critici della sicurezza in ambito cloud. In particolare, i problemi legati alla privacy, dai termini di utilizzo alla sicurezza dei dati personali più o meno sensibili. L’aumento esponenziale di dati memorizzati nei sistemi di cloud storage (es. Dropbox, Amazon S3) pone il problema della sensibilità dei dati su un piano tutt'altro che banale, dovuto anche a non ben chiare politiche di utilizzo dei dati, sia in termini di cessione degli stessi a società di terze parti, sia per quanto riguarda le responsabilità legali. Questa tesi cerca di approfondire ed esaminare le mancanze più preoccupanti degli stessi. Oltre ad analizzare le principali criticità e i punti deboli dei servizi cloud, l’obiettivo di questo lavoro sarà quello di fare chiarezza sui passi e le infrastrutture che alcune aziende (es. Amazon) hanno implementato per avvicinarsi all’idea di 'safeness' nel cloud. Infine, l’ultimo obiettivo posto sarà l’individuazione di criteri per la valutazione/misura del grado di fiducia che l’utente può porre in questo contesto, distinguendo diversi criteri per classi di utenti. La tesi è strutturata in 4 capitoli: nel primo sarà effettuata una tassonomia dei problemi presenti nei sistemi cloud. Verranno presentati anche alcuni avvenimenti della storia recente, in cui queste problematiche sono affiorate. Nel secondo capitolo saranno trattate le strategie di 'safeness' adottate da alcune aziende, in ambito cloud. Inoltre, saranno presentate alcune possibili soluzioni, dal punto di vista architetturale. Si vedrà come il ruolo dell'utente sarà di estrema importanza. Il terzo capitolo sarà incentrato sulla ricerca di strumenti e metodi di valutazione che un utente, o gruppo di utenti, può utilizzare nei confronti di questi sistemi. Infine, il quarto capitolo conterrà alcune considerazioni conlusive sul lavoro svolto e sui possibili sviluppi di questa tesi.