399 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analisi del cammino è uno strumento in grado di fornire importanti informazioni sul ciclo del passo; in particolare è fondamentale per migliorare le conoscenze biomeccaniche del cammino, sia normale che patologico, e su come questo viene eseguito dai singoli soggetti. I parametri spazio temporali del passo rappresentano alcuni degli indici più interessanti per caratterizzare il cammino ed il passo nelle sue diverse fasi. Essi permettono infatti il confronto e il riconoscimento di patologie e disturbi dell’andatura. Negli ultimi anni è notevolmente aumentato l’impiego di sensori inerziali (Inertial Measurement Unit, IMU), che comprendono accelerometri, giroscopi e magnetometri. Questi dispositivi, utilizzati singolarmente o insieme, possono essere posizionati direttamente sul corpo dei pazienti e sono in grado fornire, rispettivamente, il segnale di accelerazione, di velocità angolare e del campo magnetico terrestre. A partire da questi segnali, ottenuti direttamente dal sensore, si è quindi cercato di ricavare i parametri caratteristici dell’andatura, per valutare il cammino anche al di fuori dell’ambiente di laboratorio. Vista la loro promettente utilità e la potenziale vasta applicabilità nell’analisi del ciclo del cammino; negli ultimi anni un vasto settore della ricerca scientifica si è dedicata allo sviluppo di algoritmi e metodi per l’estrazione dei parametri spazio temporali a partire da dati misurati mediante sensori inerziali. Data la grande quantità di lavori pubblicati e di studi proposti è emersa la necessità di fare chiarezza, riassumendo e confrontando i metodi conosciuti, valutando le prestazioni degli algoritmi, l’accuratezza dei parametri ricavati, anche in base alla tipologia del sensore e al suo collocamento sull’individuo, e gli eventuali limiti. Lo scopo della presente tesi è quindi l’esecuzione di una revisione sistematica della letteratura riguardante la stima dei parametri spazio temporali mediante sensori inerziali. L’intento è di analizzare le varie tecniche di estrazione dei parametri spazio temporali a partire da dati misurati con sensori inerziali, utilizzate fino ad oggi ed indagate nella letteratura più recente; verrà utilizzato un approccio prettamente metodologico, tralasciando l’aspetto clinico dei risultati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tesi sullo studio di algoritmi per il confronto di documenti XML, panoramica sui vari algoritmi. Focalizzazione sull'algoritmo NDiff e in particolare sulla gestione degli attributi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi ha come scopo principale l'analisi delle diverse tecnologie di localizzazione in ambito indoor, analizzando in particolare l'utilizzo del Wifi RSS Fingerprinting. La tecnica del Wifi RSS Fingerprinting è una tecnica per la localizzazione all'interno di ambienti chiusi, che consiste nella definizione di un 'impronta'(fingerprint) in un punto preciso dell'ambiente(definito reference point), andando a inserire in un database i valori di potenza del segnale ricevuto(RSS) da ogni access point rilevato all'interno di quel determinato reference point. Per l'implementazione di questa tecnica è stato sviluppato un applicativo con un architettura client-server. Il client è stato sviluppato in ambiente Android, realizzando una applicazione per la gestione della fase di salvataggio di nuovi fingerprint e per la fase di localizzazione della posizione corrente, tramite l'utilizzo dei vari fingerprint precedentemente inseriti all'interno del DB. Il server, sviluppato in Node.js(framework Javascript), gestirà le diverse richieste ricevute dal client tramite delle chiamate AJAX, prelevando le informazioni richieste direttamente dal database. All'interno delle applicativo sono stati implementati diversi algoritmi per la localizzazione indoor, in modo da poter verificare l'applicabilità di questo sistema in un ambito reale. Questi algoritmi sono stati in seguito testati per valutare l'accuratezza e la precisione di ciascuno, andando ad individuare gli algoritmi migliori da utilizzare in base a scenari diversi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato tratta dell'importanza dell'analisi testuale tramite strumenti informatici. Presenta la tecnica più utilizzata per questo tipo di analisi il: Topic Modeling. Vengono indicati alcuni degli algoritmi più sfruttati e si descrivono gli obiettivi principali. Inoltre introduce il Web Mining per l’estrazione di informazioni presenti nel web, specificando una tecnica particolare chiamata Web Scraping. Nell'ultima sezione dell’elaborato viene descritto un caso di studio. L’argomento dello studio è la Privatizzazione. Viene suddiviso in tre fasi, la primi riguarda la ricerca dei documenti e articoli da analizzare del quotidiano La Repubblica, nella seconda parte la raccolta di documenti viene analizzata attraverso l’uso del software MALLET e come ultimo passo vengono analizzati i topic, prodotti dal programma, a cui vengono assegnate delle etichette per identificare i sotto-argomenti presenti nei documenti della raccolta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene effettuata una panoramica sull'apprendimento di alberi di decisione (un particolare metodo di apprendimento supervisionato) e sulle varie tecniche per poterne migliorare le prestazioni. Vengono poi descritti alcuni algoritmi e ne vengono confrontate le prestazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisi riguardante la tenacizzazione della matrice di laminati compositi. Lo scopo è quello di aumentare la resistenza alla frattura di modo I e, a tal proposito, sono stati modificati gli interstrati di alcuni provini tramite l’introduzione di strati, di diverso spessore, di nanofibre in polivinilidenfluoruro (PVDF). La valutazione di tale metodo di rinforzo è stata eseguita servendosi di dati ottenuti tramite prove sperimentali svolte in laboratorio direttamente dal sottoscritto, che si è occupato dell’elaborazione dei dati servendosi di tecniche e algoritmi di recente ideazione. La necessità primaria per cui si cerca di rinforzare la matrice risiede nel problema più sentito dei laminati compositi in opera da molto tempo: la delaminazione. Oltre a verificare le proprietà meccaniche dei provini modificati sottoponendoli a test DCB, si è utilizzata una tecnica basata sulle emissioni acustiche per comprendere più approfonditamente l’inizio della delaminazione e i meccanismi di rottura che si verificano durante le prove. Quest’ultimi sono illustrati servendosi di un algoritmo di clustering, detto Fuzzy C-means, tramite il quale è stato possibile identificare ogni segnale come appartenente o meno ad un determinato modo di rottura. I risultati mostrano che il PVDF, applicato nelle modalità esposte, è in grado di aumentare la resistenza alla frattura di modo I divenendo contemporaneamente causa di un diverso modo di propagazione della frattura. Infine l’elaborato presenta alcune micrografie delle superfici di rottura, le quali appoggiano i risultati ottenuti nelle precedenti fasi di analisi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cattura di un segnale AM e FM stereofonico (radio commerciale) mediante chiavetta NooElec R820T dotata di tecnologia Software Defined Radio (SDR). Implementazione di un codice di demodulazione AM e di algoritmi di modulazione/demodulazione FM stereo attraverso l’ambiente di lavoro MATLAB e lo strumento Simulink- Interfacciamento dei codici con la piattaforma Raspberry-Pi fungente da server TCP/IP la quale permetterà la comunicazione tra chiavetta e PC. Ricostruzione del segnale modulante trasmesso

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'analisi accurata del processo di combustione è un aspetto sempre più influente nello sviluppo di un motore a combustione interna. In particolare il fenomeno della detonazione pone dei limiti sull'efficienza dei motori ad accensione comandata. Il rapporto di compressione è limitato in fase di progettazione dello sviluppo motore, lasciando al controllo dell'anticipo di accensione il compito di ridurre le problematiche di una combustione anomala. Nella seguente tesi si vuole implementare una metodologia per la valutazione dell'insorgere e dello sviluppo della detonazione in base alle condizioni di funzionamento del motore per differenti miscele di combustibili. Il metodo consiste nell'affiancare la cinetica chimica tabulata al risolutore CFD, \textsc{KIVA-3}. La cinetica chimica permette di determinare la velocità di reazione per differenti specie durante l'ossidazione a partire da precise condizioni ambiente. Il solutore CFD potrebbe risolvere questo tipo di problema ma utilizzare dei modelli con più reazioni chimiche richiede dei tempi di simulazioni troppo elevati. La cinetica chimica tabulata consiste nella determinazione ed estrapolazione dei dati relativi all'evoluzione della detonazione utilizzando schemi cinetici con centinaia o migliaia di reazioni. In seguito alla determinazione della miscela desiderata sono state eseguite delle simulazioni utilizzando il solutore Cantera per la determinazione dell'evoluzione dell'ossigeno. E' stata scelta questa grandezza come indicatore del progresso della detonazione poiché fornisce un'indicazione sullo stato di avanzamento delle reazioni. Successivamente i dati ricavati sono stati forniti al solutore CFD, tramite il quale sono state effettuate delle simulazioni per verificare i risultati ottenuti nella valutazione del comportamento di un motore ad alte prestazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il materiale composito è entrato nell’ambiente industriale rivoluzionando il concetto di progettazione delle strutture e permettendo il raggiungimento di prestazioni molto più elevate, rispetto ai materiali tradizionali. Infatti, i compositi sono in grado di garantire elevata resistenza e leggerezza, proprietà molto richieste in svariati ambiti industriali. Un suo notevole impiego è riscontrabile nell’industria aeronautica, dove le principali case produttrici di aeromobili hanno investito un apprezzabile quantitativo di risorse economiche nella realizzazione di velivoli con una sempre maggiore percentuale di questo materiale. Il composito, nonostante ci siano testimonianze del suo utilizzo già durante la seconda guerra mondiale, viene tutt’ora ritenuto “nuovo”; questo poiché molte delle sue caratteristiche non sono state ancora esaurientemente analizzate. Le conoscenze ad esso relative presentano ancora, infatti delle lacune, come il loro comportamento a seguito di un impatto. L’obiettivo della presente tesi è quello di indagare, attraverso una campagna sperimentale innovativa, il comportamento del CFRP di fronte a tale problematica, prestando particolare attenzione alla casistica dell’impatto sul bordo. Su tale argomento infatti, non si hanno esempi in letteratura né normative a cui fare riferimento. I campioni, impiegati nel presente studio, sono stati realizzati scegliendo una configurazione cross-ply, che ben si adatta alle successive fasi della campagna. Sui provini ottenuti sono stati eseguiti gli impatti, con l’utilizzo di un pendolo di Charpy, alcuni centrali e altri laterali, con due differenti energie. Questa prima parte della campagna sperimentale è stata svolta presso i laboratori hangar di Forlì, della Scuola di Ingegneria e Architettura dell’Università di Bologna. La caratterizzazione del materiale è avvenuta mediante prove a compressione. Il processo è stato eseguito per verificare l’influenza che l’impatto genera sulle proprietà meccaniche a compressione. Per poter eseguire una campagna di test ottimale, si è vista necessaria un’attenta analisi delle varie attrezzature utilizzabili per le prove a compressione. La scelta è ricaduta sull’attrezzatura CLC (Combined Loading Compression), la quale è risultata essere la più affidabile e maneggevole per le prove oggetto di studio. La fase relativa allo svolgimento delle prove a compressione è stata eseguita presso i laboratori ENEA di Faenza –Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il collasso di diverse colonne, caratterizzate da danneggiamenti simili, quali ampie fessure fortemente inclinate ad entrambe le estremità dell’elemento, lo schiacciamento del calcestruzzo e l’instabilità dei ferri longitudinali, ha portato ad interrogarsi riguardo gli effetti dell’interazione tra lo sforzo normale, il taglio ed il momento flettente. Lo studio è iniziato con una ricerca bibliografica che ha evidenziato una sostanziale carenza nella trattazione dell’argomento. Il problema è stato approcciato attraverso una ricerca di formule della scienza delle costruzioni, allo scopo di mettere in relazione lo sforzo assiale, il taglio ed il momento; la ricerca si è principalmente concentrata sulla teoria di Mohr. In un primo momento è stata considerata l’interazione tra solo due componenti di sollecitazione: sforzo assiale e taglio. L’analisi ha condotto alla costruzione di un dominio elastico di taglio e sforzo assiale che, confrontato con il dominio della Modified Compression Field Theory, trovata tramite ricerca bibliografica, ha permesso di concludere che i risultati sono assolutamente paragonabili. L’analisi si è poi orientata verso l’interazione tra sforzo assiale, taglio e momento flettente. Imponendo due criteri di rottura, il raggiungimento della resistenza a trazione ed a compressione del calcestruzzo, inserendo le componenti di sollecitazione tramite le formule di Navier e Jourawsky, sono state definite due formule che mettono in relazione le tre azioni e che, implementate nel software Matlab, hanno permesso la costruzione di un dominio tridimensionale. In questo caso non è stato possibile confrontare i risultati, non avendo la ricerca bibliografica mostrato niente di paragonabile. Lo studio si è poi concentrato sullo sviluppo di una procedura che tenta di analizzare il comportamento di una sezione sottoposta a sforzo normale, taglio e momento: è stato sviluppato un modello a fibre della sezione nel tentativo di condurre un calcolo non lineare, corrispondente ad una sequenza di analisi lineari. La procedura è stata applicata a casi reali di crollo, confermando l’avvenimento dei collassi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fissazione esterna ha subito una forte evoluzione nel corso degli anni, passando dall’essere una tecnica utilizzata esclusivamente nella stabilizzazione delle fratture, fino a diventare una risorsa importante in ortopedia ricostruttiva per il trattamento di molte patologie ossee e dei tessuti molli. Il prototipo di fissatore esterno monolaterale articolato Kore (Citieffe S.r.l.), oggetto di questo studio, consente di effettuare correzione di deformità angolari e piccoli allungamenti su ossa lunghe. Il lavoro sperimentale si è concentrato sul testare le prestazioni meccaniche del dispositivo e della sua componentistica, con l'obiettivo di mettere in evidenza eventuali problemi. I risultati sono stati confrontati con quelli ottenuti in prove realizzate precedentemente in azienda, e con quelli ricavati su dispositivi concorrenti da altri autori. Sono state svolte una prova di compressione assiale statica, una prova a fatica di compressione assiale, una prova a flessione a quattro punti ed una prova di regolazione dinamometrica sul meccanismo di attuazione del dispositivo. E’ stata poi progettata una configurazione per studiare le principali caratteristiche dei morsetti. Nel caso del morsetto a compensazione si è verificata l'effettiva capacità di scorrimento del morsetto, mentre nel morsetto a traliccio, dotato di un meccanismo di snodo, ne viene accertata la tenuta. Al termine dei test, in base ai risultati raccolti dalle prove meccaniche e dalle prove svolte su osso artificiale, sono state fatte valutazioni riguardanti alcune modifiche da apportare al prototipo. Per quanto riguarda il dispositivo dovrà essere ridotta la dimensione del corpo centrale, al fine di avere un dispositivo più duttile, leggero e vicino al corpo. Questa modifica inoltre limiterà l'influenza della flessione delle pins sul comportamento meccanico del fissatore, migliorandone le prestazioni. Relativamente al morsetto a traliccio dovrà essere ridotta la lunghezza dello snodo, per limitare lo sforzo sulla vite di serraggio del meccanismo. Nel morsetto a compensazione dovrà essere modificato il profilo, per garantire un migliore scorrimento.