480 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli sforzi di ricerca relativi all'High Performance Computing, nel corso degli anni, hanno prodotto risultati importanti inerenti all'incremento delle prestazioni sia in termini di numero di operazioni effettuate per periodo temporale, sia introducendo o migliorando algoritmi paralleli presenti in letteratura. Tali traguardi hanno comportato cambiamenti alla struttura interna delle macchine; si è assistito infatti ad un'evoluzione delle architetture dei processori utilizzati e all'impiego di GPU come risorse di calcolo aggiuntive. La conseguenza di un continuo incremento di prestazioni è quella di dover far fronte ad un grosso dispendio energetico, in quanto le macchine impiegate nell'HPC sono ideate per effettuare un'intensa attività di calcolo in un periodo di tempo molto prolungato; l'energia necessaria per alimentare ciascun nodo e dissipare il calore generato comporta costi elevati. Tra le varie soluzioni proposte per limitare il consumo di energia, quella che ha riscosso maggior interesse, sia a livello di studio che di mercato, è stata l'integrazione di CPU di tipologia RISC (Reduced Instruction Set Computer), in quanto capaci di ottenere prestazioni soddisfacenti con un impiego energetico inferiore rispetto alle CPU CISC (Complex Instruction Set Computer). In questa tesi è presentata l'analisi delle prestazioni di Monte Cimone, un cluster composto da 8 nodi di calcolo basati su architettura RISC-V e distribuiti in 4 piattaforme (\emph{blade}) dual-board. Verranno eseguiti dei benchmark che ci permetteranno di valutare: le prestazioni dello scambio di dati a lunga e corta distanza; le prestazioni nella risoluzione di problemi che presentano un principio di località spaziale ridotto; le prestazioni nella risoluzione di problemi su grafi e, nello specifico, ricerca in ampiezza e cammini minimi da sorgente singola.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'efficienza dei computer ha un limite inferiore dettato dal principio di Landauer. La distruzione di una qualsiasi informazione ha un costo energetico per la dissipazione dei bit che la formavano. L'unico modo per aggirare il principio di Landauer è attraverso la reversibilità. Questa tecnica di computazione ci permette di eseguire un programma senza dover distruggere informazioni e quindi, senza dissipare bit. Molti algoritmi ai giorni nostri hanno un grande impatto energetico sul mondo, ed uno di questi è SHA256, l'algoritmo usato nella block-chain di Bitcoin. Questa tesi si pone l'obbiettivo di analizzare il consumo energetico e di memoria di una implementazione di SHA256 reversibile ideale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SmartPantry `e un applicazione per Android che si pone come obiettivo quello di rendere semplice e pratica la gestione virtuale delle dispense degli utenti. Oltre a questo implementa un recommender system dedicato al suggerimento di ricette adatte ai prodotti contenuti nella dispensa, per farlo l’algoritmo si avvale della distanza di Damerau-Levenshtein per eseguire Natural Language Processing in modo tale da interpretare gli ingredienti delle dispense degli utenti e poterli mappare ad una collezione di ingredienti mantenuti in un database remoto. All’interno di questo elaborato andremo ad analizzare i dettagli di progetta�zione ed implementativi di SmartPantry e degli algoritmi che la sostengono ponendo particolare attenzione agli aspetti qualitativi degli algoritmi di NLP e raccomandazione raccogliendo dati sufficienti a trarre conclusioni oggettive sulla precisione ed efficacia dei suddetti. Nell’ultimo capitolo vedremo come nonostante la presenza di margini di miglioramento, come versione 1.0, gli algoritmi abbiano restituito dei risultati pi`u che discreti

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mio progetto di tesi ha come obiettivo quello di creare un modello in grado di predire il rating delle applicazioni presenti all’interno del Play Store, uno dei più grandi servizi di distribuzione digitale Android. A tale scopo ho utilizzato il linguaggio Python, che grazie alle sue librerie, alla sua semplicità e alla sua versatilità è certamen- te uno dei linguaggi più usati nel campo dell’intelligenza artificiale. Il punto di partenza del mio studio è stato il Dataset (Insieme di dati strutturati in forma relazionale) “Google Play Store Apps” reperibile su Kaggle al seguente indirizzo: https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamen- to, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applica- to quattro di↵erenti tecniche di Machine Learning per la stima del rating delle applicazioni. In particolare, sono state utilizzate:https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamento, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applicato quattro differenti tecniche di Machine Learning per la stima del rating delle applicazioni: Ridje, Regressione Lineare, Random Forest e SVR. Tali algoritmi sono stati applicati attuando due tipi diversi di trasformazioni (Label Encoding e One Hot Encoding) sulla variabile ‘Category’, con lo scopo di analizzare come le suddette trasformazioni riescano a influire sulla bontà del modello. Ho confrontato poi l’errore quadratico medio (MSE), l’errore medio as- soluto (MAE) e l’errore mediano assoluto (MdAE) con il fine di capire quale sia l’algoritmo più efficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Descrizione, implementazione in Python e valutazione di modelli di Machine Learning e di tutte le sue fasi di Preprocessing, EDA, Training, Test e Evaluation, per valutare la qualità del vino attraverso le sue caratteristiche fisico-chimiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare l’accuratezza della modellazione classica di materiali, è un procedimento dispendioso. L’accuratezza dei campi di forza è tuttavia la chiave per la predizione affidabile di proprietà chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante l’inclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello dell’oscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed è implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica è resa dall’introduzione di una particella carica e di massa ridotta, ancorata all’atomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: l’acetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune proprietà molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilità. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilità atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilità molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densità sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacità di riprodurre alcune proprietà di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli Appennini sono una regione tettonicamente attiva che è stata luogo di forti terremoti storici in passato, tra i quali il recente L’Aquila (2009) e le sequenze di Amatrice-Visso-Norcia (2016-2017). Una densità di stazioni GPS sempre maggiore permette di stimare il tasso di deformazione orizzontale con più risoluzione spaziale che in passato. In questa tesi studio la correlazione tra tassi di deformazione geodetica orizzontale e tassi di sismicità negli Appennini, esaminando possibili implicazioni per valutazioni del potenziale sismogenico. Uso un nuovo dataset di velocità GPS analizzando lo stato di deformazione attraverso il calcolo dello strain rate geodetico. Per questo calcolo utilizzo tre algoritmi, tra quelli presenti in letteratura scientifica, e discuto punti di forza e limitazioni di ciascuno. Seleziono poi una mappa di strain rate tra le altre e sviluppo un’analisi seguendo l’approccio di uno studio recente per investigare la relazione tra tassi di sismicità e tassi di deformazione lungo la catena Appenninica. Per farlo, verifico se le ipotesi che sostengono l’approccio sono verificate. Calcolo la sismicità di background a partire da un nuovo catalogo sismico per l’Italia e testo se gli eventi indipendenti seguono un processo di Poisson nel tempo. Infine, divido la regione di studio in aree a diversa deformazione sulla base dei tassi di deformazionee analizzado la distribuzione della sismicità di background in questi eventi e analizzando la relazione tra tassi di deformazione e tassi sismicità. Mostro che vi è una relazione è approssimativamente lineare ma con una dipendenza importante dalla risoluzione della mappa di strain rate. Descrivo poi alcune implicazioni che questa relazione avrebbe su stime di due quantità che concorrono a definire il potenziale sismogenico analizzando quali sono i parametri all’interno dell’approccio che possono influenzare maggiormente dette stime.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il quark top è una delle particelle fondamentali del Modello Standard, ed è osservato a LHC nelle collisioni a più elevata energia. In particolare, la coppia top-antitop (tt̄) è prodotta tramite interazione forte da eventi gluone-gluone (gg) oppure collisioni di quark e antiquark (qq̄). I diversi meccanismi di produzione portano ad avere coppie con proprietà diverse: un esempio è lo stato di spin di tt̄, che vicino alla soglia di produzione è maggiormente correlato nel caso di un evento gg. Uno studio che voglia misurare l’entità di tali correlazioni risulta quindi essere significativamente facilitato da un metodo di discriminazione delle coppie risultanti sulla base del loro canale di produzione. Il lavoro qui presentato ha quindi lo scopo di ottenere uno strumento per effettuare tale differenziazione, attraverso l’uso di tecniche di analisi multivariata. Tali metodi sono spesso applicati per separare un segnale da un fondo che ostacola l’analisi, in questo caso rispettivamente gli eventi gg e qq̄. Si dice che si ha a che fare con un problema di classificazione. Si è quindi studiata la prestazione di diversi algoritmi di analisi, prendendo in esame le distribuzioni di numerose variabili associate al processo di produzione di coppie tt̄. Si è poi selezionato il migliore in base all’efficienza di riconoscimento degli eventi di segnale e alla reiezione degli eventi di fondo. Per questo elaborato l’algoritmo più performante è il Boosted Decision Trees, che permette di ottenere da un campione con purezza iniziale 0.81 una purezza finale di 0.92, al costo di un’efficienza ridotta a 0.74.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene trattata la problematica di determinare le migliori K soluzioni per due problemi di ottimizzazione, il Knapsack Problem 0-1 e lo Shortest Path Problem. Tali soluzioni possono essere impiegate all'interno di metodi di column generation per la risoluzione di problemi reali, ad esempio Bin Packing Problems e problemi di scheduling di veicoli ed equipaggi. Sono stati implementati, per verificarne sperimentalmente le prestazioni, nuovi algoritmi di programmazione dinamica, sviluppati nell’ambito di un programma di ricerca. Inizialmente, per entrambi i problemi, è stato descritto un algoritmo che determinasse le migliori K soluzioni per ogni possibile sottoproblema; partendo da uno zaino con capacità nulla, nel caso del Knapsack Problem 0-1, e dalla determinazione di un cammino dal vertice sorgente in se stesso per lo Shortest Path Problem, l’algoritmo determina le migliori soluzioni di sottoproblemi via via sempre più grandi, utilizzando le soluzioni costruite per gli stati precedenti, fino a ottenere le migliori soluzioni del problema globale. Successivamente, è stato definito un algoritmo basato su un approccio di ricorsione backward; in questo caso si utilizza una funzione ricorsiva che, chiamata a partire dallo stato corrispondente al problema globale, viene richiamata solo sugli stati intermedi strettamente necessari, e per ognuno di essi non vengono determinate soluzioni superflue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background L’identificazione degli eventi temporali permette nell’analisi del movimento di valutare la qualità del gesto motorio e si offre in aiuto alla formulazione di diagnosi cliniche, valutazioni di un percorso riabilitativo e in ambito ortopedico per la creazione di protesi. L’uso sempre più diffuso dei sensori inerziali nell’analisi del movimento ha portato alla nascita di numerosi algoritmi per identificare gli eventi temporali; tuttavia, molti di questi sono stati sviluppati per la ricerca dei gate event sull’analisi del cammino, mentre non sono molti quelli dedicati allo studio dell’arto superiore, dove il reaching è il task motorio più studiato. Obiettivo tesi Proporre un metodo per l’identificazione degli eventi temporali su movimento di reaching con l’uso di soli sensori inerziali. Metodo All’interno del progetto Neurograsp, che è uno studio di analisi del movimento di reaching condotto presso il Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione Guglielmo Marconi sono stati considerati i dati relativi alla stereofotogrammetria e ai sensori inerziali. L’analisi ha riguardato tre soggetti sani destrorsi. È stato considerato il sistema di stereofotogrammetria come gold standard con cui si sono rilevati gli eventi temporali ricercati del task motorio e successivamente si è implementato un metodo per identificare gli stessi eventi temporali tramite l’uso dei soli sensori inerziali. L’analisi è terminata con il confronto dei risultati. Risultati Si sono effettuate le analisi dei risultati in termini di classificazione dei times individuati dall’algoritmo come corretti, falsi positivi o falsi negativi e sulla quantificazione dell’errore assoluto sui valori identificati correttamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stenosi spinale lombare (LSS) è un processo degenerativo frequente nell’attuale popolazione anziana e può essere considerata come la causa principale di chirurgia spinale nei pazienti di età superiore ai sessantacinque anni. Comporta un restringimento del forame vertebrale, che, nei casi più gravi, causa una compressione del midollo spinale e degli elementi neurali e vascolari situati nel tratto lombo-sacrale. Uno dei trattamenti chirurgici di decompressione utilizzato è l’emilaminectomia, che, prevedendo la resezione della lamina di un solo lato della vertebra e di parte del legamento giallo, può portare a una riduzione della stabilità spinale. L’obiettivo di questo studio in vitro è quello di analizzare l’impatto dell’emilaminectomia sulla biomeccanica del rachide. Sei provini, estratti da rachide umano e costituiti da quattro vertebre lombari e una sacrale (L2-S1), sono stati testati meccanicamente in flessione, estensione e flessione laterale sinistra e destra in due condizioni di prova: intatti e post emilaminectomia. La stabilità spinale è stata valutata calcolando il Range of Motion tra le vertebre L2 e S1 agli estremi dei provini. Mediante l’algoritmo di Digital Image Correlation (DIC), sono state estratte e valutate le distribuzioni delle deformazioni dell’intero provino, valutando, in particolare, le deformazioni principali massime e minime sulla superficie del disco intervertebrale L4-L5. I risultati hanno mostrato che l’emilaminectomia ha causato una diminuzione significativa della stabilità spinale solo in flessione, con un aumento del Range of Motion del 54%. L’emilaminectomia non ha causato variazioni nelle distribuzioni delle deformazioni in ogni configurazione di carico. Le deformazioni principali minime sul disco intervertebrale L4-L5, tra le due vertebre in cui è stata eseguita l’emilaminectomia, sono aumentate, in modo statisticamente significativo, del 38% nella flessione nel lato in cui è stato svolto l’intervento di emilaminectomia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'insufficienza cardiaca è una delle malattie cardiovascolari più comuni, nonché quella con maggiori tassi di riospedalizzazione. Nonostante numerosi pazienti siano sottoposti a impianto di defibrillatori cardiaci, come pacemaker e ICD, questo non è sufficiente a diminuire i casi di ricovero. L'innovazione tecnologica dei dispositivi impiantabili li ha resi compatibili con l'utilizzo del monitoraggio remoto che avviene attraverso la trasmissione di un enorme quantità di dati eterogenei, noti come Big Data. Questi offrono la possibilità di rilevare numerosi parametri da cui è possibile valutare il funzionamento del dispositivo e implementare algoritmi di medicina predittiva. In questo elaborato sono analizzati quattro casi studio (cardioMEMS, TRIAGE-HF, SELENE HF, multiSENSE), con lo scopo di confrontare gli algoritmi predittivi in essi sviluppati. Da questi studi, condotti su un insieme ristretto di campioni, è emerso che lo scompenso è predetto correttamente, ma con una previsione di riospedalizzazione a seguito di intervento che differisce in ogni studio clinico. Nello studio MultiSENSE, l'algoritmo ha previsto il 70% delle ospedalizzazioni, con un tempo medio di rilevamento di 34 giorni e 1,47 allarmi inspiegabili per anno-paziente. Questo rispetto al 65,5% e a un tempo medio di 42 giorni e rispetto a 0,63 allarmi inspiegabili per anno-paziente, nel SELENE HF. Nel caso del Triage-HF il tasso di ospedalizzazione è dello 0,2% per anno-paziente, in quanto lo studio è basato sull'associazione tra l'algoritmo e i sintomi che caratterizzano lo scompenso. Al contrario degli altri studi, lo studio cardioMEMS si è occupato di sviluppare una nuova tecnologia: un dispositivo wireless impiantabile; infatti, risulta l'unico studio con un monitoraggio remoto invasivo. Considerando la presenza di numerosi gradi di peggioramento dello scompenso e di differenti dispositivi impiantabili cardiaci è difficile creare un unico algoritmo che includa tutte le tipologie di pazienti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato illustra quattro modelli di controlli automatici che vengono impiegati in due applicazioni neuro-ingegneristiche. In particolare, i primi due modelli, H-Infinito e LPV, sono messi a confronto per valutare quale fra questi può essere utilizzato per il controllo del sistema limbico umano, mentre gli altri due metodi, LQR e controllo adattivo, vengono combinati per presentare un nuovo sistema di controllo per una mano robotica.