399 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica
Resumo:
A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.
Resumo:
Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare l’accuratezza della modellazione classica di materiali, è un procedimento dispendioso. L’accuratezza dei campi di forza è tuttavia la chiave per la predizione affidabile di proprietà chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante l’inclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello dell’oscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed è implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica è resa dall’introduzione di una particella carica e di massa ridotta, ancorata all’atomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: l’acetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune proprietà molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilità. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilità atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilità molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densità sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacità di riprodurre alcune proprietà di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.
Resumo:
Gli Appennini sono una regione tettonicamente attiva che è stata luogo di forti terremoti storici in passato, tra i quali il recente L’Aquila (2009) e le sequenze di Amatrice-Visso-Norcia (2016-2017). Una densità di stazioni GPS sempre maggiore permette di stimare il tasso di deformazione orizzontale con più risoluzione spaziale che in passato. In questa tesi studio la correlazione tra tassi di deformazione geodetica orizzontale e tassi di sismicità negli Appennini, esaminando possibili implicazioni per valutazioni del potenziale sismogenico. Uso un nuovo dataset di velocità GPS analizzando lo stato di deformazione attraverso il calcolo dello strain rate geodetico. Per questo calcolo utilizzo tre algoritmi, tra quelli presenti in letteratura scientifica, e discuto punti di forza e limitazioni di ciascuno. Seleziono poi una mappa di strain rate tra le altre e sviluppo un’analisi seguendo l’approccio di uno studio recente per investigare la relazione tra tassi di sismicità e tassi di deformazione lungo la catena Appenninica. Per farlo, verifico se le ipotesi che sostengono l’approccio sono verificate. Calcolo la sismicità di background a partire da un nuovo catalogo sismico per l’Italia e testo se gli eventi indipendenti seguono un processo di Poisson nel tempo. Infine, divido la regione di studio in aree a diversa deformazione sulla base dei tassi di deformazionee analizzado la distribuzione della sismicità di background in questi eventi e analizzando la relazione tra tassi di deformazione e tassi sismicità. Mostro che vi è una relazione è approssimativamente lineare ma con una dipendenza importante dalla risoluzione della mappa di strain rate. Descrivo poi alcune implicazioni che questa relazione avrebbe su stime di due quantità che concorrono a definire il potenziale sismogenico analizzando quali sono i parametri all’interno dell’approccio che possono influenzare maggiormente dette stime.
Resumo:
Il quark top è una delle particelle fondamentali del Modello Standard, ed è osservato a LHC nelle collisioni a più elevata energia. In particolare, la coppia top-antitop (tt̄) è prodotta tramite interazione forte da eventi gluone-gluone (gg) oppure collisioni di quark e antiquark (qq̄). I diversi meccanismi di produzione portano ad avere coppie con proprietà diverse: un esempio è lo stato di spin di tt̄, che vicino alla soglia di produzione è maggiormente correlato nel caso di un evento gg. Uno studio che voglia misurare l’entità di tali correlazioni risulta quindi essere significativamente facilitato da un metodo di discriminazione delle coppie risultanti sulla base del loro canale di produzione. Il lavoro qui presentato ha quindi lo scopo di ottenere uno strumento per effettuare tale differenziazione, attraverso l’uso di tecniche di analisi multivariata. Tali metodi sono spesso applicati per separare un segnale da un fondo che ostacola l’analisi, in questo caso rispettivamente gli eventi gg e qq̄. Si dice che si ha a che fare con un problema di classificazione. Si è quindi studiata la prestazione di diversi algoritmi di analisi, prendendo in esame le distribuzioni di numerose variabili associate al processo di produzione di coppie tt̄. Si è poi selezionato il migliore in base all’efficienza di riconoscimento degli eventi di segnale e alla reiezione degli eventi di fondo. Per questo elaborato l’algoritmo più performante è il Boosted Decision Trees, che permette di ottenere da un campione con purezza iniziale 0.81 una purezza finale di 0.92, al costo di un’efficienza ridotta a 0.74.
Resumo:
In questa tesi viene trattata la problematica di determinare le migliori K soluzioni per due problemi di ottimizzazione, il Knapsack Problem 0-1 e lo Shortest Path Problem. Tali soluzioni possono essere impiegate all'interno di metodi di column generation per la risoluzione di problemi reali, ad esempio Bin Packing Problems e problemi di scheduling di veicoli ed equipaggi. Sono stati implementati, per verificarne sperimentalmente le prestazioni, nuovi algoritmi di programmazione dinamica, sviluppati nell’ambito di un programma di ricerca. Inizialmente, per entrambi i problemi, è stato descritto un algoritmo che determinasse le migliori K soluzioni per ogni possibile sottoproblema; partendo da uno zaino con capacità nulla, nel caso del Knapsack Problem 0-1, e dalla determinazione di un cammino dal vertice sorgente in se stesso per lo Shortest Path Problem, l’algoritmo determina le migliori soluzioni di sottoproblemi via via sempre più grandi, utilizzando le soluzioni costruite per gli stati precedenti, fino a ottenere le migliori soluzioni del problema globale. Successivamente, è stato definito un algoritmo basato su un approccio di ricorsione backward; in questo caso si utilizza una funzione ricorsiva che, chiamata a partire dallo stato corrispondente al problema globale, viene richiamata solo sugli stati intermedi strettamente necessari, e per ognuno di essi non vengono determinate soluzioni superflue.
Resumo:
Background L’identificazione degli eventi temporali permette nell’analisi del movimento di valutare la qualità del gesto motorio e si offre in aiuto alla formulazione di diagnosi cliniche, valutazioni di un percorso riabilitativo e in ambito ortopedico per la creazione di protesi. L’uso sempre più diffuso dei sensori inerziali nell’analisi del movimento ha portato alla nascita di numerosi algoritmi per identificare gli eventi temporali; tuttavia, molti di questi sono stati sviluppati per la ricerca dei gate event sull’analisi del cammino, mentre non sono molti quelli dedicati allo studio dell’arto superiore, dove il reaching è il task motorio più studiato. Obiettivo tesi Proporre un metodo per l’identificazione degli eventi temporali su movimento di reaching con l’uso di soli sensori inerziali. Metodo All’interno del progetto Neurograsp, che è uno studio di analisi del movimento di reaching condotto presso il Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione Guglielmo Marconi sono stati considerati i dati relativi alla stereofotogrammetria e ai sensori inerziali. L’analisi ha riguardato tre soggetti sani destrorsi. È stato considerato il sistema di stereofotogrammetria come gold standard con cui si sono rilevati gli eventi temporali ricercati del task motorio e successivamente si è implementato un metodo per identificare gli stessi eventi temporali tramite l’uso dei soli sensori inerziali. L’analisi è terminata con il confronto dei risultati. Risultati Si sono effettuate le analisi dei risultati in termini di classificazione dei times individuati dall’algoritmo come corretti, falsi positivi o falsi negativi e sulla quantificazione dell’errore assoluto sui valori identificati correttamente.
Resumo:
La stenosi spinale lombare (LSS) è un processo degenerativo frequente nell’attuale popolazione anziana e può essere considerata come la causa principale di chirurgia spinale nei pazienti di età superiore ai sessantacinque anni. Comporta un restringimento del forame vertebrale, che, nei casi più gravi, causa una compressione del midollo spinale e degli elementi neurali e vascolari situati nel tratto lombo-sacrale. Uno dei trattamenti chirurgici di decompressione utilizzato è l’emilaminectomia, che, prevedendo la resezione della lamina di un solo lato della vertebra e di parte del legamento giallo, può portare a una riduzione della stabilità spinale. L’obiettivo di questo studio in vitro è quello di analizzare l’impatto dell’emilaminectomia sulla biomeccanica del rachide. Sei provini, estratti da rachide umano e costituiti da quattro vertebre lombari e una sacrale (L2-S1), sono stati testati meccanicamente in flessione, estensione e flessione laterale sinistra e destra in due condizioni di prova: intatti e post emilaminectomia. La stabilità spinale è stata valutata calcolando il Range of Motion tra le vertebre L2 e S1 agli estremi dei provini. Mediante l’algoritmo di Digital Image Correlation (DIC), sono state estratte e valutate le distribuzioni delle deformazioni dell’intero provino, valutando, in particolare, le deformazioni principali massime e minime sulla superficie del disco intervertebrale L4-L5. I risultati hanno mostrato che l’emilaminectomia ha causato una diminuzione significativa della stabilità spinale solo in flessione, con un aumento del Range of Motion del 54%. L’emilaminectomia non ha causato variazioni nelle distribuzioni delle deformazioni in ogni configurazione di carico. Le deformazioni principali minime sul disco intervertebrale L4-L5, tra le due vertebre in cui è stata eseguita l’emilaminectomia, sono aumentate, in modo statisticamente significativo, del 38% nella flessione nel lato in cui è stato svolto l’intervento di emilaminectomia.
Resumo:
L'insufficienza cardiaca è una delle malattie cardiovascolari più comuni, nonché quella con maggiori tassi di riospedalizzazione. Nonostante numerosi pazienti siano sottoposti a impianto di defibrillatori cardiaci, come pacemaker e ICD, questo non è sufficiente a diminuire i casi di ricovero. L'innovazione tecnologica dei dispositivi impiantabili li ha resi compatibili con l'utilizzo del monitoraggio remoto che avviene attraverso la trasmissione di un enorme quantità di dati eterogenei, noti come Big Data. Questi offrono la possibilità di rilevare numerosi parametri da cui è possibile valutare il funzionamento del dispositivo e implementare algoritmi di medicina predittiva. In questo elaborato sono analizzati quattro casi studio (cardioMEMS, TRIAGE-HF, SELENE HF, multiSENSE), con lo scopo di confrontare gli algoritmi predittivi in essi sviluppati. Da questi studi, condotti su un insieme ristretto di campioni, è emerso che lo scompenso è predetto correttamente, ma con una previsione di riospedalizzazione a seguito di intervento che differisce in ogni studio clinico. Nello studio MultiSENSE, l'algoritmo ha previsto il 70% delle ospedalizzazioni, con un tempo medio di rilevamento di 34 giorni e 1,47 allarmi inspiegabili per anno-paziente. Questo rispetto al 65,5% e a un tempo medio di 42 giorni e rispetto a 0,63 allarmi inspiegabili per anno-paziente, nel SELENE HF. Nel caso del Triage-HF il tasso di ospedalizzazione è dello 0,2% per anno-paziente, in quanto lo studio è basato sull'associazione tra l'algoritmo e i sintomi che caratterizzano lo scompenso. Al contrario degli altri studi, lo studio cardioMEMS si è occupato di sviluppare una nuova tecnologia: un dispositivo wireless impiantabile; infatti, risulta l'unico studio con un monitoraggio remoto invasivo. Considerando la presenza di numerosi gradi di peggioramento dello scompenso e di differenti dispositivi impiantabili cardiaci è difficile creare un unico algoritmo che includa tutte le tipologie di pazienti.
Resumo:
Questo elaborato illustra quattro modelli di controlli automatici che vengono impiegati in due applicazioni neuro-ingegneristiche. In particolare, i primi due modelli, H-Infinito e LPV, sono messi a confronto per valutare quale fra questi può essere utilizzato per il controllo del sistema limbico umano, mentre gli altri due metodi, LQR e controllo adattivo, vengono combinati per presentare un nuovo sistema di controllo per una mano robotica.
Resumo:
Il machine learning negli ultimi anni ha acquisito una crescente popolarità nell’ambito della ricerca scientifica e delle sue applicazioni. Lo scopo di questa tesi è stato quello di studiare il machine learning nei suoi aspetti generali e applicarlo a problemi di computer vision. La tesi ha affrontato le difficoltà del dover spiegare dal punto di vista teorico gli algoritmi alla base delle reti neurali convoluzionali e ha successivamente trattato due problemi concreti di riconoscimento immagini: il dataset MNIST (immagini di cifre scritte a mano) e un dataset che sarà chiamato ”MELANOMA dataset” (immagini di melanomi e nevi sani). Utilizzando le tecniche spiegate nella sezione teorica si sono riusciti ad ottenere risultati soddifacenti per entrambi i dataset ottenendo una precisione del 98% per il MNIST e del 76.8% per il MELANOMA dataset
Resumo:
“Viviamo in un periodo storico molto speciale, un periodo raro, un periodo in cui la confluenza di quattro campi sta fornendo ai designer strumenti che mai prima d’ora avevamo a disposizione.” Questo è ciò che Neri Oxman, designer e professoressa al MIT Media Lab, ha detto durante un Ted Talk tenutosi ormai sette anni fa. Il suo messaggio rimane così attuale e interessante, che continua ad ispirare ancora oggi tantissimi designer, scienziati e ingegneri, compreso me e questa tesi. Uno dei campi citati è il design computazionale. A seguito di una prima fase di ricerca è emerso che è già stato fatto molto in questo campo, ma c’è ancora tanto da esplorare. L’obiettivo di questa tesi è indagare l’uso di questa disciplina come booster creativo di cui il designer può avvalersi nelle diverse fasi del percorso progettuale. Per farlo, ho deciso di sperimentare tramite un esempio pratico: la progettazione di un gilet di idratazione per corridori. Inizialmente, sono stati studiati quali sono i requisiti che deve avere un progetto perché il designer possa sfruttare efficacemente il design computazionale durante tutta la progettazione. Nella fase di concept, è stato analizzato come l’approccio di questa disciplina aiuta il progettista nell’identificazione dei problemi e delle priorità progettuali. Sono poi stati usati e testati diversi strumenti del design computazionale, quali algoritmi e design generativo, per determinare alcune caratteristiche del prodotto definitivo. Il risultato di questo percorso di tesi è Aliqua, un gilet di idratazione per corridori più efficace e performante rispetto a quelli ora esistenti, progettato integrando il design intuitivo con quello computazionale. Sicuramente ci sono ancora molte cose che possono essere migliorate per rendere l’uso degli strumenti di questo campo più intuitivi e performanti, ma questa tesi dimostra che il design computazionale è fin da ora un valido alleato del designer durante tutte le fasi di progettazione.
Resumo:
La tesi in oggetto ha lo scopo di determinare l’effetto della sabbiatura sul comportamento a fatica della lega AlSi10Mg prodotta mediante Laser Powder Bed Fusion e trattata termicamente. I parametri di processo e di trattamento termico (T5 e T6) sono stati precedentemente ottimizzati. Al fine di determinare l’effetto della sabbiatura su topografia superficiale e microstruttura dei campioni, si sono condotte molteplici analisi avvalendosi di strumenti quali profilometria, microscopia ottica ed in scansione, analisi di tensioni residue con diffrazione a raggi X e prove di durezza. Attraverso prove di fatica per flessione rotante, eseguite secondo il metodo Stair-Case per la determinazione della resistenza a fatica, e successiva caratterizzazione delle superfici di frattura si vuole correlare il difetto killer, ossia quello responsabile del cedimento per fatica, alle caratteristiche morfologiche e microstrutturali. Il difetto killer viene caratterizzato in termini di dimensione e distanza dalla superficie e per mostrare la relazione fra la dimensione del difetto killer e la resistenza a fatica si adotta il diagramma di Kitagawa-Takahashi con modellazione di Murakami ed EL Haddad. Si è evidenziato che tutti i difetti killer sono riconducibili a lack-of-fusion con dimensione superiore ai 100 μm ad una profondità compresa fra i 150 e i 200 μm, indipendentemente dal trattamento termico o meccanico applicato. In termini di fatica si osserva che il trattamento T6 conferisce al materiale migliori proprietà rispetto a quello T5. Il processo di sabbiatura, confrontato con quello di lucidatura superficiale, ha portato a miglioramenti in termini di durezza e tensioni residue di compressione, ma si è rivelato quasi ininfluente sulla resistenza a fatica. Sulla base di quanto sopra, si conferma la possibilità di applicazione della sabbiatura in ambito industriale a componenti meccanici, anche in sostituzione della lucidatura, ottenendo un beneficio anche economico.
Resumo:
Negli ultimi anni, la rete elettrica ha subito importanti cambiamenti dovuti principalmente al fatto che vi è stato un sensibile sviluppo di impianti di produzione da fonti rinnovabili. Questo aspetto ha però influenzato in modo considerevole il funzionamento della rete ed in particolare la risposta inerziale che essa ha a fronte di uno squilibrio della potenza attiva. In particolare, nella rete si è registrata una importante riduzione dell’inerzia disponibile in quanto molte delle fonti rinnovabili attualmente installate sono connesse tramite inverter, macchine statiche, che non sono in grado di fornire alcuna risposta inerziale in modo intrinseco. Si sta perciò rendendo sempre più necessario possedere degli strumenti volti a fornire una stima dell’inerzia a disposizione della rete, in modo tale da facilitare e migliorare la gestione del Sistema Elettrico. In tale contesto, in questa tesi ci si è concentrati sulla realizzazione di un modello EMTP della rete di distribuzione benchmark europea Cigrè, che permettesse di includere tutte le caratteristiche dinamiche della rete, dei generatori di produzione e in particolare, ci si è soffermati sulla modellizzazione dei carichi, eseguendo un’analisi e un confronto sulle possibili modalità di modellizzazione dei carichi in forma aggregata. Nella seconda parte, sono stati poi sviluppati degli algoritmi che permettessero dai dati raccolti attraverso le simulazioni di ricavare il valore della costante d’inerzia nei differenti scenari.
Resumo:
Il fine di questo elaborato riguarda lo studio di soluzioni per il contrasto di giocatori baranti controllati da algoritmi presenti nel videogioco online Team Fortress 2. Dopo una breve introduzione alla storia degli sparatutto online, si descriverà il funzionamento di tutti i componenti che sviluppano l'ambiente di gioco, oltre a definire termini e sistemi vitali per la comprensione dell'elaborato ed una breve introduzione a Team Fortress 2. Si procederà alla discussione del cheat e dei software e/o environment sfruttati dagli attacanti in partita, andando a cercare di spiegare il meccanismo e l'origine di questi elementi, nonché introdurre il concetto dei bot baranti implementati usando il programma open source cathook. Una volta spiegata la minaccia si andrà a spiegare la difesa da parte del gioco e degli sviluppatori attraverso il software di anticheat Valve Anti-Cheat (VAC) presente sul gioco, definendo le terminologie e alcune caratteristiche comuni rispetto agli altri, per poi introdurre le nuove tecnologie di contrasto sviluppati per Counter Strike: Global Offensive, ovvero Overwatch, Trust Factor e l'anticheat con deep learning VACNET. Infine, dopo aver definito più approfonditamente il funzionamento degli algoritmi baranti, verranno suggerite delle possibili soluzioni implementabili e del motivo per cui non riescono a risolvere completamente il problema. Concluderemo spiegando cosa stanno facendo i sviluppatori, per poi descrivere come effettivamente il problema possiede come l'unica soluzione di evitare di giocare nei server ufficiali di gioco, mantenendo comunque gli algoritmi liberi nei server ufficiali.
Resumo:
In questo lavoro di tesi si analizzerà un metodo per risolvere il problema del PageRank alternativo rispetto al tradizionale metodo delle potenze. Verso la fine degli anni '90, con l’avvento del World Wide Web, fu necessario sviluppare degli algoritmi di classificazione in grado di ordinare i siti web in base alla loro rilevanza. Davanti a questa sfida i due matematici A.N.Langville e C.D.Meyer svilupparono il metodo SIAD, "special iterative aggregation/disaggregation method". Lo scopo di questa tesi è in primo luogo di ricostruire il metodo SIAD e analizzarne le proprietà. Seguendo le analisi in un articolo di I.C.Ipsen e S.Kirkland, si ricostruirà nel dettaglio il metodo SIAD, così da esplicitare la convergenza asintotica del metodo in relazione al complemento stocastico scelto. In secondo luogo si analizzerà il metodo SIAD applicato ad una matrice di Google che rispetta ipotesi determinate, le matrici di Google sono solitamente utilizzate per rappresentare il problema del PageRank. Successivamente, si dimostrerà un importante teorema che prova come per ogni matrice di Google si possa individuare un complemento stocastico per cui il metodo SIAD converge più velocemente del metodo delle potenze. Infine, nell’ultimo capitolo si implementerà con il inguaggio di programmazione Matlab il metodo SIAD per una matrice generica e per una matrice di Google. In particolare, si sfrutterà la struttura della matrice di Google per ridurre sensibilmente il costo computazionale del metodo quando applicato applicato ad una tale matrice.