333 resultados para catene di Markov catene di Markov reversibili simulazione metodo Montecarlo
Resumo:
In questa tesi viene effettuata una panoramica sull'apprendimento di alberi di decisione (un particolare metodo di apprendimento supervisionato) e sulle varie tecniche per poterne migliorare le prestazioni. Vengono poi descritti alcuni algoritmi e ne vengono confrontate le prestazioni.
Resumo:
Questa tesi Magistrale è frutto di un'attività di ricerca, che consiste nella realizzazione di un'indagine geofisica di tipo geoelettrico (ERT Electrical Resistivity Tomography). Lo scopo è quello di caratterizzare l'idrogeologia di una porzione limitata dell'acquifero freatico costiero ravennate, situato nella Pineta Ramazzotti di Lido di Dante, cercando di apportare nuove conoscenze sulle dinamiche che favoriscono l'ingressione marina (problema di forte attualità)che potrebbero contribuire a migliorare la gestione e la tutela delle risorse idriche. In questo contesto la tesi si pone come obiettivo quello di valutare l'applicabilità del metodo geoelettrico verificando se questo è in grado d'individuare efficacemente l'interfaccia acqua dolce-salata e le strutture presenti nel sottosuolo, in due tipologie di ambiente, con e senza un sistema di dune. I risultati dimostrano che dal punto di vista scientifico, il metodo geoelettrico ha verificato il principio di Ghyben-Herzberg, il quale suppone che vi sia una relazione inversa tra quota topografica e limite superiore della zona satura con acqua salata, inoltre si è riscontrata una certa stagionalità tra i profili acquisiti in momenti diversi (influenzati dalla piovosità). Mentre dal punto di vista tecnologico, il metodo, è di difficile utilizzo negli ambienti di transizione tanto ché chi si occupa professionalmente di questi rilievi preferisce non eseguirli. Questo è dovuto alla mancanza di un protocollo per le operazioni di acquisizione e a causa dell'elevato rumore di fondo che si riscontra nelle misurazioni. Con questo studio è stato possibile calibrare e sviluppare un protocollo, utilizzabile con diverse spaziature tra gli elettrodi, che è valido per l'area di studio indagata. Si è riscontrato anche che l'utilizzo congiunto delle informazioni delle prospezioni e quelle dei rilievi classici (monitoraggio della superficie freatica, parametri chimico-fisici delle acque sotterranee, rilievo topografico e sondaggi geognostici), generino un prodotto finale di semplice interpretazione e di facile comprensione per le dinamiche in atto.
Resumo:
Il lavoro di tesi si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale “S. Maria delle Croci” di Ravenna, Azienda Unità Sanitaria Locale della Romagna, ed ha come obiettivo lo sviluppo di un metodo per l’individuazione dell’atrio sinistro in sequenze di immagini ecografiche intracardiache acquisite durante procedure di ablazione cardiaca transcatetere per il trattamento della fibrillazione atriale. La localizzazione della parete posteriore dell'atrio sinistro in immagini ecocardiografiche intracardiache risulta fondamentale qualora si voglia monitorare la posizione dell'esofago rispetto alla parete stessa per ridurre il rischio di formazione della fistola atrio esofagea. Le immagini derivanti da ecografia intracardiaca sono state acquisite durante la procedura di ablazione cardiaca ed esportate direttamente dall’ecografo in formato Audio Video Interleave (AVI). L’estrazione dei singoli frames è stata eseguita implementando un apposito programma in Matlab, ottenendo così il set di dati su cui implementare il metodo di individuazione della parete atriale. A causa dell’eccessivo rumore presente in alcuni set di dati all’interno della camera atriale, sono stati sviluppati due differenti metodi per il tracciamento automatico del contorno della parete dell’atrio sinistro. Il primo, utilizzato per le immagini più “pulite”, si basa sull’utilizzo del modello Chan-Vese, un metodo di segmentazione level-set region-based, mentre il secondo, efficace in presenza di rumore, sfrutta il metodo di clustering K-means. Entrambi i metodi prevedono l’individuazione automatica dell’atrio, senza che il clinico fornisca informazioni in merito alla posizione dello stesso, e l’utilizzo di operatori morfologici per l’eliminazione di regioni spurie. I risultati così ottenuti sono stati valutati qualitativamente, sovrapponendo il contorno individuato all'immagine ecografica e valutando la bontà del tracciamento. Inoltre per due set di dati, segmentati con i due diversi metodi, è stata eseguita una valutazione quantitativa confrontatoli con il risultato del tracciamento manuale eseguito dal clinico.
Resumo:
Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.
Resumo:
In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.
Resumo:
Scopo della tesi è studiare un modello di percezione cromatica, che descrive la propagazione dell'attività mediante un problema di Cauchy in spazi di Banach. Presentiamo dapprima il problema della stabilità delle soluzioni al problema di Cauchy tramite il metodo Lyapunov; prima in dimensione finita, e poi in spazi di Banach. Poi verifichiamo che l'equazione fondamentale di percezione cromatica ricade nel setting considerato e che il funzionale di Lyapunov associato verifica le ipotesi che assicurano la stabilità.
Resumo:
L'elaborato si presenta sotto il profilo si una analisi, principalmente teorica, del servizio di assistenza linguistica fornito agli stranieri non italofoni in seno alla Azienda Sanitaria Locale numero 6 di Livorno. Partendo da una giustificazione di carattere giuridico del diritto all'assistenza da parte dei pazienti stranieri, l'analisi procede a descrivere la mediazione linguistica nell'ambito della ASL6 e dei suoi servizi sociali, lasciando spazio a considerazioni di tipo tecnico sul metodo di interpretazione e mediazione, e sulle scelte dei singoli mediatori. Infine, sono tratte conclusioni di vario carattere sui risultati dello studio. Le informazioni sono state raccolte da sitografia e bibliografia ufficiali, oltre che da interviste svolte sul campo.
Resumo:
Il presente lavoro, svolto presso il servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria di Parma, consiste nello sviluppo di un metodo innovativo di radioterapia adattativa. Il metodo è stato applicato a pazienti affetti da varie patologie, trattati con tecnica VMAT, (Volumetric Modulated Arc Therapy), altamente conformata al target. Il metodo sviluppato si compone di due fasi: nella prima fase vengono effettuate due analisi su immagini portali, di ricostruzione della dose all'isocentro e l'analisi gamma 2D. Se almeno una di queste fallisce, si interviene con la seconda fase, che vede l'acquisizione della CBCT del paziente e la taratura in densità elettronica della stessa. Si calcola dunque il piano su CBCT, previa operazione di contouring da parte del medico e, infine, si esegue l'analisi gamma 3D sulle matrici di dose calcolate sulla CT e sulla CBCT del paziente, quantificando gli indici gamma sulle strutture PTV, CTV e OAR di interesse clinico. In base ai risultati, se necessario, si può intervenire sul piano di trattamento. Le analisi gamma 2D e 3D sono state svolte avvalendosi di un software toolkit chiamato GADD-23 (Gamma Analysis on 2D and 3D Dose Distributions) implementato e sviluppato appositamente in ambiente Matlab per questo lavoro di tesi; in particolare, la realizzazione di GADD-23 è stata resa possibile grazie all'interazione con due software di tipo open-source, Elastix e CERR, specifici per l’elaborazione e la registrazione di immagini mediche. I risultati ottenuti mostrano come il metodo sviluppato sia in grado di mettere in luce cambiamenti anatomici che alcuni pazienti hanno subìto, di tipo sistematico, in cui è possibile prendere in considerazione una ripianificazione del trattamento per correggerli, o di tipo casuale, sui quali può essere utile condurre l'attenzione del medico radioterapista, sebbene non sia necessario un replanning.
Resumo:
L’anemometro a filo caldo (in inglese hot wire) é lo strumento maggiormente usato per studiare sperimentalmente la turbolenza. A seconda di quante componenti della velocitá interessa studiare, esistono anemometri a uno, due o tre fili. Questo elaborato di tesi si concentra su sonde a due fili. Per prima cosa, ogni volta che si utilizza questo strumento bisogna effettuare una calibrazione, fase molto importante perché permette di relazionare le tensioni che ogni filo acquisisce con la velocitá reale del flusso. Sono presentati tre differenti metodi utilizzati per sonde a due fili e, dopo averli analizzati, sono stati applicati a dati acquisiti prima al CAT (Coaxial Aerodinamic Tunnel), struttura presente a Forlí, nell’hangar dell’Universitá di Bologna e poi al CICLoPE (Center for International Cooperation in Long Pipe Experiments), Long-Pipe costruito a Predappio, utilizzato per lo studio della turbolenza. La calibrazione per sonde a due fili si puó dividere in due parti, quella di velocitá e quella per gli angoli. Mentre al CAT é possibile effettuarle entrambi, al CICLoPE non é attualmente possibile eseguire la calibrazione angolare perché non esiste alcuno strumento utilizzabile per regolare la sonda all’angolo desiderato. Lo scopo di questo elaborato di tesi è trovare un metodo di calibrazione per sonde a due fili applicabile al CICLoPE eseguendo sul posto solamente una calibrazione di velocitá e adattando quella angolare effettuata precedentemente al CAT. Questo puó provocare dei problemi perché la calibrazione risulta fortemente dipendente da condizioni interne dei fili, come la resistenza, ma anche da condizioni al contorno, come la temperatura e la pressione dell’ambiente esterno. Dopo aver eseguito due campagne sperimentali di test, una al CAT e una al CICLoPE, i dati acquisiti sono stati elaborati per valutare l’efficacia dei vari metodi.
Resumo:
In questo elaborato si è cercato di comprendere come la cultura italiana, rappresentata nello specifico dal metodo educativo Reggio Emilia, possa incontrare e convivere con quella cinese, nell'esperienza della Scuola Pechino, il progetto innovativo che è stato lanciato nel settembre 2015 dall’ambasciata italiana a Pechino e che offre i suoi servizi ai figli di coppie italiane e di coppie miste (con almeno un genitore italiano) espatriate in Cina. L’analisi prende spunto dalla traduzione dell'articolo Introduzione al metodo educativo italiano Reggio Emilia e confronto con il metodo educativo tradizionale cinese, pubblicato sul “Fujian Tribune”, in cui sono descritti i principi fondamentali del metodo Reggio, nel quale sono stati messi a confronto il modello raggiano con il metodo educativo tradizionale cinese, ponendo in rilievo le differenze che sussistono tra i due. Quello che si è cercato di capire è se il metodo Reggio possa essere integrato con successo nelle scuole dell’infanzia e negli asili nido cinesi, e con quali modalità.
Resumo:
Nella presente tesi viene condotta l'analisi strutturale della testa di un supporto al bagno di saldatura elicoidale per tubi di acciaio. Dopo una breve introduzione sui tubi di acciaio e sul Metodo agli Elementi Finiti, si analizza la testa utilizzando un software open source. I risultati ottenuti consentono di ottimizzare la geometria della testa.
Resumo:
Nell’Ottobre 2015, a seguito di alcuni fenomeni di instabilità avvenuti in corrispondenza delle scarpate lato fiume in sponda sinistra del Po, nel tratto compreso tra Casalmaggiore (CR) e Dosolo (MN), l'Agenzia Interregionale per il fiume Po (AIPO) ha commissionato un' estesa campagna di indagini geognostiche. L'ampio database reso disponibile è stato utilizzato in questa tesi di laurea con l'obiettivo di sviluppare, in collaborazione con i tecnici AIPO, una valida procedura per analizzare i dissesti delle scarpate lato fiume in questo tratto del Po e per identificare gli eventuali interventi di messa in sicurezza più idonei. Lo studio proposto si prefigge i seguenti obiettivi: • La caratterizzazione geotecnica dei terreni costituenti le strutture arginali in esame ed il relativo substrato; • La definizione del modello geotecnico del sistema arginale; • La valutazione della stabilità dell'argine; • La individuazione degli interventi di messa in sicurezza delle scarpate. Attraverso l’elaborazione delle prove CPTU è stato possibile determinare la stratigrafia e i parametri geotecnici delle diverse unità stratigrafiche presenti nelle sezioni considerate significative. Sono state quindi effettuate una serie di analisi con il metodo all'equilibrio limite, verificando la stabilità delle scarpate in condizioni di magra ordinaria e in condizioni di rapido svaso. Tenendo conto che la maggior parte dei tratti analizzati aveva già manifestato segni di instabilità o comunque indicava condizioni prossime al limite dell’equilibrio, si è proceduto in "back analysis" alla individuazione dei parametri di resistenza al taglio operativi, tenendo conto della variabilità degli stessi nell'ambito di una stessa unità stratigrafica. Infine tenendo presente i criteri di progetto degli interventi normalmente adottati sulle sponde, è stato possibile procedere alla modellazione di interventi mirati ad aumentare il fattore di sicurezza, analizzandone i relativi vantaggi e svantaggi.
Resumo:
L’elaborato verte sulla simulazione della gestione dei materiali dell’azienda Robopac. Il modello esposto è stato creato tramite il software Arena, il quale permette la riproduzione di una struttura aziendale reale ed è, per questo, uno strumento validissimo per esaminare situazioni critiche, nonché per confrontare alternative progettuali e validarle. Nello specifico, in tale tesi ci si propone di verificare, attraverso un’attenta analisi, come l’azienda Robopac gestisca i materiali nel suo percorso di elaborazione e trasformazione. Per gestione dei materiali si intende il coordinamento degli arrivi, il controllo sulle materie, il trasporto di tali materiali nei magazzini appositi e il successivo spostamento in linea. Questa indagine permetterà di valutare l’efficienza e l’utilizzo delle risorse, le tempistiche delle movimentazioni e l’eventuale creazione di code, così da cercare soluzioni che potrebbero migliorare e ottimizzare le operazioni. Il modello creato con Arena considera i sei codici-prodotto più rappresentativi e rende possibile una riproduzione conforme a ciò che è stato osservato. Inoltre sono analizzati i report forniti automaticamente da tale software e valutati l’utilizzo delle risorse e le giacenze a magazzino. Sarebbe interessante ampliare la simulazione esposta, prendendo in considerazione l’intero numero di codici prodotti, così da poter analizzare la totale gestione dei materiali e considerare eventuali differenze o scostamenti rispetto a quanto svolto in questa tesi. Un ulteriore ampliamento altrettanto valido potrebbe essere quello di coniugare la simulazione della gestione dei materiali con il modello della linea produttiva principale già realizzato con Arena. Ciò permetterebbe una più completa visione dell’azienda e l’indagine della realtà imprenditoriale diventerebbe più ampia, approfondita e dettagliata.
Resumo:
Lo scopo di questo lavoro è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole veraci. I dati sono relativi a campioni raccolti nel periodo 2007-2015 nella zona Sacca di Goro. Essi sono stati messi in relazione con alcuni parametri quali: salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Po di Volano. Sono stati presi in considerazione più di 523 campioni, in cui i conteggi di E. coli, mediante metodo MPN, sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); intermedie (50-230 MPN/100g); alte, ovvero non conformi al regolamento europeo (>230 MPN/100g). La significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test Χ2 e il test di Kruskal-Wallis. Il test Χ2, è stato attuato ponendo in relazione anno, mese e stagione. In esso non è stato registrato nessun risultato significativo. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che gli unici risultati ottenuti, dando luogo ad una differenza significativa, sono relativi ai valori di salinità, dove in presenza di valori più bassi si osserva un numero maggiore di campioni con carica superiore al limite di legge. I dati ottenuti ponendo in relazione la temperatura delle acque e il livello del fiume Po di Volano non sono risultate significativamente diverse fra loro. Questi risultati sono chiaramente correlati al processo di depurazione delle vongole veraci che abbassano la carica microbica, ma ciò è correlato anche ai miglioramenti dei controlli delle acque reflue della Pianura Padana negli ultimi decenni, inoltre l’assenza di relazioni può essere imputata al fatto che la Sacca di Goro è un tratto di mare relativamente chiuso e quindi in qualche modo protetto dalle fluttuazioni stagionali di questi parametri, in una sorta di omeostasi ambientale.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.