999 resultados para Catene di Markov, MCMC, Algoritmo di Hastings-Metropolis, Campionamento di Gibbs


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il lavoro di questa tesi è focalizzato sulla valutazione della sensibilità delle microonde rispetto a differenti idrometeore per le frequenze a 89 GHz e 150 GHz e nella banda di assorbimento del vapor d'acqua a 183.31 GHz. Il metodo di indagine consiste nell'utilizzo del modello di trasferimento radiativo RTTOV (Eyre, 1991) per simulare radianze dei canali dei sensori satellitari nelle microonde Advanced Microwave Sounding Unit-B (AMSU-B) e Microwave Humidity Sounder (MHS). Le simulazioni basate sul modello RTTOV si sono focalizzate su tre dataset indipendenti, forniti da ECMWF. Il primo passo tiene conto di una selezione di categorie dei profili atmosferici basato su una distinzione della fase delle idrometeore, LWP, IWP e WVP, con sottoclassi terra e oceano. La distinzione in diverse categorie permette di valutare la sensibilità di ciascuna frequenza utilizzata nelle simulazioni al variare del contenuto di acqua e ghiaccio. Un secondo approccio è usato per valutare la risposta di ciascuna frequenza nei casi di nevicate sulla terraferma. Questa indagine ha permesso lo sviluppo di un nuovo algoritmo prototipale per la stima dell'intensità di precipitazione nevosa basato su una serie di test a soglia e una equazione di combinazione lineare multipla che sfrutta una combinazione dei canali più sensibili alla snowfall: 150, 186 e 190 GHz. Una prima verifica su casi di studio pre-selezionati di snowstorm sembra fornire risultati promettenti. Infine è stato realizzato uno studio di sensibilità dell’algoritmo 183-WSL (Laviola and Levizzani, 2011) utilizzando le simulazioni di RTTOV con precipitazione/non precipitazione come predittori discreti e con le intensità di precipitazione come predittori continui. Le simulazioni RTTOV rivelano una sovrastima delle radianze in presenza di profili di pioggia e ciò potrebbe essere dovuto alle approssimazioni e parametrizzazioni adottate nel modello RTTOV-SCATT usato per la risoluzione dello scattering in presenza di precipitazione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nel presente elaborato si è descritto, dal punto di vista delle modalità realizzative e dei materiali costruttivi, la "casa degli inquilini", edificio di Sala Bolognese oggetto di forti danneggiamenti in seguito all'azione sismica del febbraio 2012. Sono state descritte e analizzate le molteplici lesioni riportate dalla struttura cercando di ipotizzane le cause e si sono proposti alcuni interventi di ripristino e consolidamento da attuare per migliorare le prestazioni della costruzione e favorire una rigidezza e stabilità adeguate.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questa tesi si discutono inizialmente i concetti chiave di agente e sistema multi-agente e si descrivono in ogni dettaglio il linguaggio di programmazione AgentSpeak(L) e la piattaforma Jason, fornendo le basi per poter programmare con il paradigma AOP. Lo scopo centrale di questa tesi è quello di estendere il modello di pianificazione dell’interprete di AgentSpeak(L), considerato come caso specifico, con un approccio che può essere integrato in qualsiasi linguaggio di programmazione ad agenti. Si espone un’evoluzione di AgentSpeak(L) in AgentSpeak(PL), ossia la creazione ed esecuzione di piani automatici in caso di fallimento attraverso l'uso di un algoritmo di planning state-space. L'approccio integrativo modifica il Ciclo di Reasoning di Jason proponendo in fase di pianificazione automatica un riuso di piani già esistenti, atto a favorire la riduzione di tempi e costi nel long-term in un sistema multi-agente. Nel primo capitolo si discute della nozione di agente e delle sue caratteristiche principali mentre nel secondo capitolo come avviene la vera e propria programmazione con AgentSpeak(L). Avendo approfondito questi argomenti base, il terzo capitolo è incentrato sull’interprete Jason e il quarto su una migliore estensione dell'interprete, in grado di superare i limiti migliorando le performance nel tempo. Si delineano infine alcune considerazioni e ringraziamenti nel quinto e ultimo capitolo. Viene proposta con scrittura di carattere divulgativo e non ambiguo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Tesi riguardante le metodologie di aggregazione di costi applicate alla visione stereo, incentrata in particolare sull'algoritmo box filtering.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Movimentazione, da parte di un braccio robotico, di un recipiente riempito con un liquido nello spazio tridimensionale. Sistema di trasferimento liquidi basato sul KUKA youBot, piattaforma open source per la ricerca scientifica. Braccio robotico a 5 gradi di libertà con struttura ortho-parallel e cinematica risolvibile in forma chiusa tramite l’applicazione di Pieper. Studio dei modi di vibrare dei liquidi e modellizzazione dei fenomeni ondosi tramite modello equivalente di tipo pendolo. Analisi delle metodologie di controllo di tipo feed-forward volte a sopprimere la risposta oscillatoria di un tipico sistema vibratorio. Filtraggio delle traiettorie di riferimento da imporre allo youBot, in modo tale da sopprimere le vibrazioni in uscita della massa d’acqua movimentata. Analisi e comparazione delle metodologie di input shaping e filtro esponenziale. Validazione sperimentale delle metodologie proposte implementandole sul manipolatore youBot. Misura dell’entità del moto ondoso basata su dati acquisiti tramite camera RGBD ASUS Xtion PRO LIVE. Algoritmo di visione per l’elaborazione offline dei dati acquisiti, con output l’andamento dell’angolo di oscillazione del piano interpolante la superficie del liquido movimentato.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo studio sono stati analizzati ed ottimizzati alcuni algoritmi proposti in letteratura per la detezione dei parametri temporali della corsa, con l'obiettivo di determinare quale, fra quelli proposti, sia il più affidabile per il suo utilizzo nell'analisi dello sprint. Per fare ciò, sono state condotte delle acquisizioni outdoor su cinque atleti differenti, utilizzando tre sensori inerziali IMU EXL-s3 (EXEL S.r.l., Bologna) con frequenza di acquisizione a 200 Hz, posizionati sul dorso dei due piedi e sul tronco (schiena, livello L1). Gli algoritmi confrontati sono stati sviluppati in ambiente MATLAB (MathWorks Inc., USA) e sono stati riferiti al gold standard di telecamera a 250 fps analizzando, per ciascuno, i limits of agreement. L'algoritmo implementato da Bergamini et al. (si veda l'articolo 'Estimation of temporal parameters during sprint running using a trunk-mounted inertial measurement unit') è risultato il migliore, con un bias di circa 0.005 s e limits of agreement entro gli 0.025 s fra i dati da sensore e il riferimento video, dati questi che confermano anche i risultati ottenuti da Bergamini et al.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il contenuto di questo volume non vuole rappresentare un testo didattico per lo studio in generale della vulcanologia in quanto in esso si tratta unicamente quell’a-spetto della disciplina che riguarda il vulcanismo esplosivo. In tal senso l’autore ritiene che questo testo possa essere utile per gli studenti di Scienze Geologiche che, vivendo nelle aree vulcaniche italiane di età quaternaria ed anche attive, possano, da laureati, svolgere attività professionali mirate alla individuazione e definizione di Pericolosità, Vulnerabilità e Rischio Vulcanico. Trattare gli argomenti che seguono non è stato facile e forse si poteva, in alcuni casi, renderli più semplici, ma talvolta la semplicità non sempre è sinonimo di precisione; inoltre, per descrivere certi aspetti non quantitativi si è costretti ad utilizzare un linguaggio quanto più possibile “ad hoc”. L’autore ha svolto la propria attività di ricerca in aree vulcaniche, sia in Italia che all’estero. Le ricerche in Italia sono state da sempre concentrate nelle aree di vulcanismo attivo in cui l’attività del vulcanologo è finalizzata fondamentalmente alla definizione della Pericolosità Vulcanica supporto indispensabile per la definizione dell’aree a Rischio Vulcanico, intendendo per Rischio il prodotto della Pericolosità per il Danno in termini, questo, di numero di vite umane ovvero di valore monetario dei beni a rischio nell’area vulcanica attiva. Le ricerche svolte dall’autore in Africa Orientale (Etiopia e Somalia) e nello Yemen hanno contribuito ad assimilare i concetti di vulcanologia regionale, rappresentata dall’ampia diffusione del vulcanismo di plateau, variabile per spessore dai 1500 ai 3000 metri, fra i quali si inseriscono, nella depressione dell’Afar, catene vulcaniche inquadrabili, dal punto di vista geodinamico, come “oceaniche” alcune delle quali attive e che si sviluppano per decine/centinaia di chilometri. Nelle aree vulcaniche italiane le difficoltà che sorgono durante il rilevamento risiedono nella scarsa continuità di affioramenti, talvolta incompleti per la descrizione delle variazioni di facies piroclastiche, non disgiunta dalla fitta vegetazione ovvero ur banizzazione specialmente nelle aree di vulcanismo attivo. Il rilevamento vulcanologico richiede competenze e l’adozione di scale adatte a poter cartografare le variazioni di facies piroclastiche che, a differenza dalle assise sedimentarie, in un’area vulcanica possono essere diffuse arealmente soltanto per alcune centinaia di metri. I metodi di studio delle rocce piroclastiche sono del tutto simili a quelli che si usano per le rocce clastiche, cioè dall’analisi delle strutture e delle tessiture alla litologica fino a quella meccanica; su questi clasti inoltre le determinazioni della densità, della mineralogia e della geochimica (Elementi in tracce e Terre Rare), ottenute sulla frazione vetrosa, rappresentano parametri talvolta identificativi di un’area vulcanica sorgente. Non esistono testi nei quali venga descritto come si debba operare nelle aree vulcaniche per le quali l’unica certezza unificante è rappresentata dall’evidenza che, nelle sequenze stratigrafiche, il termine al top rappresenta quello più relativamente recente mentre quello alla base indica il termine relativo più vecchio. Quanto viene riportato in questo testo nasce dall’esperienza che è stata acquisita nel tempo attraverso una costante azione di rilevamento che rappresenta l’uni- ca sorgente di informazione che un vulcanologo deve ricavare attraverso un attento esame dei depositi vulcanici (dalla litologia alla mineralogia, alla tessitura, etc.) la cui distribuzione, talvolta, può assumere un carattere interegionale in Italia nell’ambito dell’Olocene. Soltanto l’esperienza acquisita con il rilevamento produce, in un’area di vulcanismo attivo, risultati positivi per la definizione della Pericolosità, sapendo però che le aree vulcaniche italiane presentano caratteristiche ampiamente differenti e di conseguenza il modo di operare non può essere sempre lo stesso. Un esempio? Immaginate di eseguire un rilevamento vulcanico prima al Somma-Vesuvio e poi nei Campi Flegrei: sono mondi completamente differenti. L’autore desidera ribadire che questo testo si basa sulla esperienza acquisita sia come geologo sia come docente di Vulcanologia; pertanto il libro potrà forse risultare più o meno bilanciato, in forza dell’argomento trattato, in quanto durante l’attività di ricerca l’autore, come tutti, ha affrontato alcuni argomenti più di altri. Questo approccio può essere considerato valido per chiunque voglia scrivere un libro in maniera autonoma e originale, non limitandosi, come molte volte avviene, a tradurre in italiano un libro su tematiche analoghe diffuso, ad esempio, nel mondo anglosassone.Diversamente, si sarebbe potuto concepire un libro come un collage di capitoli scritti da vari autori, che magari avevano esperienza più specifica nei singoli argomenti, ma in tal senso si sarebbe snaturato lo spirito con cui si è impostato il progetto. L’autore, infine, ha fatto ricorso al contributo di altri autorevoli colleghi solo per temi importantissimi, ma in qualche modo complementari rispetto al corpus costitutivo del Vulcanismo Esplosivo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il vantaggio di una regolarizzazione multiparametro sta nel fatto che scegliendo un parametro diverso per ogni punto della soluzione si ricostruiscono con più accuratezza i picchi e le regioni piatte. In una prima fase di sperimentazione si è applicato l'algoritmo UPEN ad alcuni problemi test del Regularization Tools e si è osservato che l'algoritmo produce ottimi risultati inquesto ambito. In una seconda fase di sperimentazione si sono confrontati i dati ottenuti da UPEN con quelli derivanti da altri criteri di scelta noti in letteratura. Si è anche condotta un'analisi su dati simulati di risonanza magnetica nucleare e su problemi di deblurring di un'immagine.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo della presente tesi è sviluppare un ambiente per l'ottimizzazione strutturale di componenti per applicazione aerospaziale utilizzando codici open-source. In particolare, il codice Salome viene utilizzato per il disegno automatico delle strutture, il programma Code Aster permette di effettuare l'analisi agli elementi finiti del componente, mentre Octave viene utilizzato per svolgere l'ottimizzazione basata su un algoritmo euristico e per integrare fra di loro i differenti codici. Le tecniche di ottimizzazione dei componenti stanno rivestendo sempre più importanza visto che le moderne tecniche di Additive Manufacturing permettono di realizzare strutture molto complesse che un tempo non era conveniente (o possibile) realizzare con asportazione di materiale. Nella prima parte della tesi si descrivono gli strumenti software utilizzati e la loro integrazione al fine di parametrizzare la generazione di geometrie ed effettuare in modo automatico analisi strutturali. Successivamente si descrivono tre casi di studio in cui la metodologia è stata sperimentata: un primo caso di validazione in cui si è applicato il metodo alla definizione della geometria di minimo peso per una trave a sbalzo con carico concentrato, un secondo test di ottimizzazione di un longherone per aeromobile, un terzo caso applicativo legato alla ottimizzazione di un serbatoio per fluidi in pressione da utilizzare su un satellite.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi tratta lo sviluppo di strumenti web in grado di effettuare stime di sostenibilità aziendale basate su dati secondari. Alcuni studenti di Ingegneria Gestionale hanno svolto un’analisi della sostenibilità aziendale, cercando manualmente nei siti web delle aziende alcuni indicatori chiave da loro definiti, creando un Osservatorio per alcune aziende dell’Emilia-Romagna. L'obiettivo è quello di sviluppare un software capace di eseguire automaticamente questa attività: partendo da un elenco di aziende e dagli indicatori che si vogliono cercare, il software è in grado di scaricare i siti web delle aziende e di leggerli per effettuare la ricerca degli indicatori tramite un algoritmo sviluppato ad hoc.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Data la sempre maggiore richiesta di fabbisogno energetico, si è sviluppata una nuova filosofia nella gestione dei consumi energetici, il DSM (demand side management), che ha lo scopo di incoraggiare il consumatore ad usare energia in modo più intelligente e coscienzioso. Questo obiettivo, unito all’accumulo di energia da fonti rinnovabili, permetterà un abbassamento dell’utilizzo dell’energia elettrica proveniente dal consumo di fonti non rinnovabili e altamente inquinanti come quelle a combustibili fossili ed una diminuzione sia del consumo energetico, sia del costo per produrre energia che dell’energia stessa. L’home automation e la domotica in ambiente domestico rappresentano un esempio di DSM. L’obiettivo di questa tesi è quello di creare un sistema di home automation utilizzando tecnologie opensource. Sono stati utilizzati device come board Arduino UNO, Raspberry Pi ed un PC con sistema operativo GNU/Linux per creare una simulazione di un sistema di home automation abbinato alla gestione di celle fotovoltaiche ed energy storaging. Il sistema permette di poter spegnere un carico energetico in base a delle particolari circostanze come, per esempio, il superamento di una certa soglia di consumo di energia elettrica. Il software utilizzato è opensource e mira a poter ottimizzare il consumo energetico secondo le proprie finalità. Il tutto a dimostrare che si può creare un sistema di home automation da abbinare con il presente e futuro delle fonti rinnovabili utilizzando tecnologie libere in modo tale da preservare privacy e security oltre che customizzazione e possibilità di adattamento a diverse circostanze. Nella progettazione del sistema è stato implementato un algoritmo per gestire varie situazioni all’interno di un ambiente domestico. La realizzazione di tale algoritmo ha prodotto ottimi risultati nella raggiungimento degli obiettivi prefissati. Il progetto di questa tesi può essere ulteriormente ampliato ed il codice è reperibile in un repository pubblico.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Attualmente, la maggior parte dei dati che transitano sulla rete appartiene a contenuti multimediali. Più nello specifico, è lo Streaming Video ad avere la predominanza nella condivisione di Internet; vista la crescita che tale servizio ha subìto negli ultimi anni, si sono susseguiti diversi studi volti allo sviluppo di tecniche e metodologie che potessero migliorarlo. Una di queste è sicuramente l'Adaptive Video Streaming, tecnica utilizzata per garantire all'utente una buona Quality of Experience (QoE) mediante l'utilizzo dei cosiddetti "algoritmi di rate adaptation". Il lavoro svolto in questi studi si è voluto concentrare su due filoni distinti, ma allo stesso tempo confrontabili: la prima parte della tesi riguarda lo sviluppo e l'analisi di alcuni algoritmi di rate adaptation per DASH, mentre la seconda è relativa all'implementazione di un nuovo algoritmo che li possa affiancare, migliorando la QoE nel monitorare lo stato della connessione. Si è quindi dovuta implementare un'applicazione Android per lo streaming video, che fosse conforme allo standard MPEG-DASH e potesse fornire le informazioni di testing da utilizzare per le analisi. La tesi è suddivisa in quattro capitoli: il primo introduce l'argomento e definisce la terminologia necessaria alla comprensione degli studi; il secondo descrive alcuni dei lavori correlati allo streaming adattivo e introduce i due filoni principali della tesi, ovvero gli algoritmi di rate adaptation e la proposta di algoritmo per la selezione dinamica del segmento; il terzo presenta l'app SSDash, utilizzata come mezzo per le analisi sperimentali; infine, il quarto ed ultimo capitolo mostra i risultati delle analisi e le corrispondenti valutazioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Background e scopo: Tradizionalmente la cardiomiopatia amiloidotica (CA) è stata considerata una cardiomiopatia restrittiva, ma studi recenti hanno evidenziato il ruolo anche della disfuzione sistolica nella sua fisiopatologia. In questo contesto recente, raramente è stato indagato il profilo emodinamico invasivo. Lo scopo dello studio è stato quello di caratterizzare il profilo emodinamico, strutturale e funzionale della CA nelle tre principali eziologie (amiloidosi da catene leggere (AL), amiloidosi transtiretino-relata (ATTR) mutata (ATTRm) e ‘wild-type’ (ATTRwt)), valutare le differenze del profilo ecocardiografico ed emodinamico nelle fasi diverse di malattia ed esplorare il ruolo prognostico delle principali variabili cliniche e strumentali nella CA. Metodi e risultati: Abbiamo analizzato retrospettivamente i dati di 224 pazienti con CA (AL, n=93; ATTRm, n=66; ATTRwt, n=65). Rispetto all'ATTRwt, i pazienti con AL presentano un minor interessamento morfologico cardiaco, ma dati emodinamici paragonabili, caratterizzati da elevate pressioni di riempimento biventricolari e riduzione della gittata sistolica. L’ATTRm, nonostante il profilo ecocardiografico analogo all’ATTRwt, mostra un quadro emodinamico migliore. Gli indici di funzione diastolica e sistolica longitudinale del ventricolo sinistro (Vsn) sono alterati fin dagli stadi iniziali della malattia, mentre la frazione di eiezione (FEVsn) rimane preservata nella maggior parte dei pazienti, anche nelle fasi avanzate (FEVsn 50 [37-60]%; FEVsn <40% nel 28% dei pazienti NYHA III / IV). All'analisi multivariata, età, NYHA III/I, eziologia AL, frazione di contrazione miocardica (MCF), indice cardiaco (CI) e pressione atriale destra (RAP) sono indipendentemente associati a eventi clinici avversi. Conclusioni Questo studio conferma la complessa fisiopatologia della CA, in cui la disfunzione diastolica è accompagnata da una funzione sistolica longitudinale anormale sin dalle fasi iniziali della malattia. L'AL e l'ATTRwt, nonostante diversi gradi di alterazioni morfologiche, hanno un profilo emodinamico simile; l'ATTRm, invece, presenta un quadro emodinamico migliore. Tra i parametri strumentali, MCF, CI e RAP emergono come predittori significativi di eventi avversi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il progetto di tesi consiste nella progettazione e nell'implementazione di una applicazione mobile Android nativa per la generazione automatica di itinerari di viaggio in base ad alcuni dati inseriti in input dall'utente. La app è costituita da una serie di activity di raccolta dati in cui viene chiesto all'utente di inserire le sue preferenze in quanto a destinazione, periodo, modalità di viaggio ed altre informazioni. Completata questa fase viene attivato l'algoritmo che genera gli itinerari elaborando i dati raccolti. L'itinerario, che rappresenta il risultato ottenuto dall'algoritmo, è diviso in giorni ed ogni giorno di viaggio contiene i luoghi da visitare in ordine ottimizzato, con la possibilità di usufruire di ulteriori servizi di indicazioni stradali e visualizzazione su mappe. L'intero progetto è stato implementato in Java con l'ambiente di sviluppo Android Studio.