480 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica
Resumo:
L'obiettivo della tesi è diradare, almeno parzialmente, le incertezze che potrebbero essere presenti nella caratterizzazione a compressione di materiali compositi. Per quanto concerne la compressione, in un primo momento, non essendo ritenuta una caratteristica troppo rilevante, si considerava che il materiale composito avesse proprietà equivalenti a quelle in trazione. Solo successivamente, dai primi anni ’70, si sono iniziate ad indagare in modo approfondito e mirato le proprietà meccaniche a compressione di tali materiali. Si sono sviluppati e normati nel tempo vari metodi che vengono classificati in base al modo di applicazione del carico sul provino. Ci si è quindi proposti, basandosi anche sulle richieste mosse dalla Scuderia Toro Rosso di Faenza, di determinare, dopo aver analizzato tutti i vantaggi e gli svantaggi di ciascuna metodologia, quella migliore a cui attenersi per tutte le prove di compressione che seguiranno. A tale scopo, dopo una attenta e approfondita analisi dei vari metodi di prova, si è scelto di utilizzare il Combined Loading Compression (CLC) Test Fixture: attrezzatura leggera e molto compatta, che dimostra una affidabilità dei risultati superiore alle altre tecnologie. Si è, inoltre, deciso di testare laminati non unidirezionali, evitando così molte problematiche quali, ad esempio, quelle dovute all’utilizzo di tabs o al possibile insorgere di microbuckling delle fibre. Si è risaliti, poi, al valore di resistenza a compressione della lamina unidirezionale attraverso il metodo di calcolo indiretto del Back-Out Factor (BF). Di tale metodo si sono indagate le basi teoriche, a partire dalla teoria classica dei laminati, e si sono ricavate le formule necessarie per l'applicazione pratica sperimentale. Per quanto riguarda la campagna sperimentale, svolta presso i laboratori ENEA di Faenza – Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF), sono stati realizzati 6 laminati di materiale composito, ognuno con differente sequenza di laminazione e percentuale di fibre nelle diverse direzioni. Due laminati sono stati ottenuti impilando lamine unidirezionali preimpregnate, in modo da ottenere una configurazione cross-ply (0°\90°), due in configurazione angle-ply (0°\90°\±45°) e due materiali unidirezionali (0° e 90°). Da questi 6 laminati sono stati ricavati 12/13 provini ciascuno. I provini cross-ply e angle-ply sono stati testati per ricavarne la resistenza a compressione, da cui, poi, risalire a quella della lamina unidirezionale a 0° mediante il BF. Dal confronto dei risultati ottenuti attraverso l'applicazione combinata di CLC e Back-Out Factor, con i dati riportati nel datasheet ufficiale, si è avuta conferma dell'affidabilità della metodologia scelta. Per quanto concerne l'elaborazione dei dati ricavati dalle prove sperimentali, è stato utilizzato un opportuno programma realizzato con il software Matlab. Con l'estensione GUI, poi, è stata creata un'interfaccia grafica per agevolare la comprensione delle fasi di elaborazione anche ad un utente non esperto.
Resumo:
Lo scopo della tesi è quello di studiare una delle applicazioni della teoria dei campi finiti: il segnale GPS. A questo scopo si descrivono i registri a scorrimento a retroazione lineare (linear feedback shift register, LFSR), dispositivi utili in applicazioni che richiedono la generazione molto rapida di numeri pseudo-casuali. I ricevitori GPS sfruttano il determinismo di questi dispositivi per identificare il satellite da cui proviene il segnale e per sincronizzarsi con esso. Si inizia con una breve introduzione al funzionamento del GPS, poi si studiano i campi finiti: sottocampi, estensioni di campo, gruppo moltiplicativo e costruzione attraverso la riduzione modulo un polinomio irriducibile, fattorizzazione di polinomi, formula per il numero e metodi per la determinazione di polinomi irriducibili, radici di polinomi irriducibili, coniugati, teoria di Galois (automorfismo ed orbite di Frobenius, gruppo e corrispondenza di Galois), traccia, polinomio caratteristico, formula per il numero e metodi per la determinazione di polinomi primitivi. Successivamente si introducono e si esaminano sequenze ricorrenti lineari, loro periodicità, la sequenza risposta impulsiva, il polinomio caratteristico associato ad una sequenza e la sequenza di periodo massimo. Infine, si studiano i registri a scorrimento che generano uno dei segnali GPS. In particolare si esamina la correlazione tra due sequenze. Si mostra che ogni polinomio di grado n-1 a coefficienti nel campo di Galois di ordine 2 può essere rappresentato univocamente in n bit; la somma tra polinomi può essere eseguita come XOR bit-a-bit; la moltiplicazione per piccoli coefficienti richiede al massimo uno shift ed uno XOR. Si conclude con la dimostrazione di un importante risultato: è possibile inizializzare un registro in modo tale da fargli generare una sequenza di periodo massimo poco correlata con ogni traslazione di se stessa.
Resumo:
Studio su un compressore assiale pluristadio con elevato rapporto di compressione, circa 46, la cui mandata è collegata ad un motore Diesel aeronautico ad elevate prestazioni. Lo studio è stato svolto, mediante l'utilizzo del software AEDsys, sia dal punto di vista fluidodinamico (calcolo numero di stadi, rapporti di compressione per stadio, triangoli di velocità), sia dal punto di vista dimensionale (dimensionamento di massima, lunghezza, dimensione radiale).
Resumo:
La tesi descrive alcune applicazioni in ambito satellitare delle tecniche di radio cognitiva. In particolare si analizza la loro possibile implementazione in uno scenario dual-satellite in banda Ka nel quale l'utente primario si avvale dello standard DVB-S2 per la trasmissione. A seguire la verifica delle performance degli algoritmi di spectum sensing per la detection del segnale primario attraverso simulazioni in ambiente matlab con curve ROC e curve di probabilità di detection in funzione del rapporto segnale rumore.
Resumo:
La rottura del Legamento Crociato Craniale (LCCr) rappresenta una delle patologie ortopediche di maggiore riscontro clinico nella specie canina. In seguito a rottura del LCCr si presenta un continuo slittamento craniale della tibia il quale esita in un processo osteoartrosico. La risoluzione chirurgica rappresenta la migliore soluzione terapeutica. Le tecniche chirurgiche extra-articolari con sfruttamento dei punti isometrici del ginocchio si presentano come delle procedure molto diffuse e utilizzate. Questa tesi propone di validare l’uso di un nuovo sistema di navigazione computerizzato-assistito per la valutazione cinematica durante la ricostruzione del LCCr nel cane, ma soprattutto di studiare e confrontare il comportamento e l’efficacia dopo ricostruzione TightRope (TR) in due diverse coppie di punti isometrici. Abbiamo effettuato due analisi in parallelo. La prima eseguendo interventi chirurgici con tecnica TR su 18 casi clinici e sfruttando il punto isometrico del femore (F2) e due diversi punti isometrici della tibia (T2 o T3). L’analisi prevedeva dei controlli postoperatori a 1, 3 e 6 mesi. Ad ogni controllo veniva effettuata una visita ortopedica, esami radiografici, un questionario di valutazione clinico e di soddisfazione del proprietario. Mentre nella ricerca Ex-Vivo abbiamo eseguito dei test su 14 preparati anatomici con l’utilizzo di un sistema di navigazione computerizzato per la rilevazione dei dati. L’analisi prevedeva la valutazione dell’articolazione in diversi stadi: LCCr intatto; LCCr rotto; dopo ricostruzione con TR in F2-T2 e tensionato a 22N, 44N e 99N; dopo ricostruzione con TR in F2-T3 e tensionato a 22N, 44N e 99N. Ad ogni stadio si eseguivano cinque test di valutazione, tra cui: Test del Cassetto, Test di compressione tibiale (TCT), Rotazione Interna/Esterna, Flesso/Estensione e Varo/Valgo. Lo scopo di tale studio è quello di confrontare tra loro i punti isometrici del ginocchio e di analizzare l’efficacia della tecnica TR nelle due differenti condizioni di isometria (F2-T2 e F2-T3).
Resumo:
Questa tesi di laurea è stata redatta presso l’azienda Sacmi Imola S.C. ed in particolare all’interno della divisione Closures, che si occupa della progettazione e della realizzazione di linee per la produzione di varie tipologie di capsule. Lo scopo dell’elaborato è descrivere lo sviluppo di un sistema di tracciabilità di prodotto; sistemi di questo tipo, adottati inizialmente nel settore alimentare, stanno acquisendo sempre maggiore importanza anche in altri campi produttivi, poiché rivestono un ruolo strategico al fine della realizzazione di prodotti caratterizzati da livelli elevati di performance e di qualità, capaci di emergere nel mercato moderno caratterizzato da una concorrenza estesa a livello mondiale e molto attento alle esigenze dei clienti. Nel caso specifico di Sacmi il sistema di tracciabilità si rivolge ad una pressa, la CCM (Continuous Compression Moulder), realizzata dall’azienda per la produzione di capsule in materiale termoplastico tramite la tecnologia dello stampaggio a compressione. In particolare il sistema si concentra sugli stampi della macchina CCM, i quali ne rappresentano gli elementi critici dal punto di vista sia tecnico che economico. A livello generale, un sistema di tracciabilità è costituito da due componenti fondamentali: il primo è un sistema di identificazione che permetta di rendere distinguibili ed individuabili le unità da tracciare, mentre il secondo è un sistema di raccolta dati in grado di raccogliere le informazioni desiderate. Queste sono poi archiviate in un apposito database ed attribuite alle entità corrispondenti sfruttando le proprietà del sistema di identificazione. Il primo passo da compiere quando si intende sviluppare un sistema di tracciabilità all’interno di un contesto produttivo già consolidato è la ricostruzione del processo produttivo presente in azienda: si tratta di individuare tutti gli enti aziendali che concorrono al processo e che saranno interessati dall’introduzione del nuovo sistema. Una volta definiti gli attori, è necessario anche capire come questi siano collegati dai flussi di materiale e di informazioni. Il processo produttivo di Sacmi era caratterizzato dalla quasi totale assenza di un flusso strutturato di informazioni a supporto di quello di materiale, ed il sistema di tracciabilità ha provveduto a colmare proprio questa mancanza. Il sistema deve essere in grado di integrarsi perfettamente nel contesto produttivo aziendale: è necessario trovare il giusto compromesso per quanto riguarda la quantità di informazioni da raccogliere, che devono garantire una corretta copertura di tutto il processo senza però appesantirlo eccessivamente. E’ bene che la raccolta dati sia basata su procedure standard che assicurino la ripetibilità delle operazioni di prelievo delle informazioni. Come è logico immaginarsi, l’introduzione di numerose novità nell’ambito di un contesto già strutturato ha fatto emergere un certo numero di problematiche, come ad esempio difficoltà nello stoccaggio e ritardi di produzione; queste devono essere risolte chiedendo uno sforzo aggiuntivo agli enti interessati o, nel medio/lungo periodo, evolvendo ed affinando il sistema con soluzioni più snelle.
Resumo:
L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio
Resumo:
This thesis aimed at addressing some of the issues that, at the state of the art, avoid the P300-based brain computer interface (BCI) systems to move from research laboratories to end users’ home. An innovative asynchronous classifier has been defined and validated. It relies on the introduction of a set of thresholds in the classifier, and such thresholds have been assessed considering the distributions of score values relating to target, non-target stimuli and epochs of voluntary no-control. With the asynchronous classifier, a P300-based BCI system can adapt its speed to the current state of the user and can automatically suspend the control when the user diverts his attention from the stimulation interface. Since EEG signals are non-stationary and show inherent variability, in order to make long-term use of BCI possible, it is important to track changes in ongoing EEG activity and to adapt BCI model parameters accordingly. To this aim, the asynchronous classifier has been subsequently improved by introducing a self-calibration algorithm for the continuous and unsupervised recalibration of the subjective control parameters. Finally an index for the online monitoring of the EEG quality has been defined and validated in order to detect potential problems and system failures. This thesis ends with the description of a translational work involving end users (people with amyotrophic lateral sclerosis-ALS). Focusing on the concepts of the user centered design approach, the phases relating to the design, the development and the validation of an innovative assistive device have been described. The proposed assistive technology (AT) has been specifically designed to meet the needs of people with ALS during the different phases of the disease (i.e. the degree of motor abilities impairment). Indeed, the AT can be accessed with several input devices either conventional (mouse, touchscreen) or alterative (switches, headtracker) up to a P300-based BCI.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.
Resumo:
Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.
Resumo:
La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.
Resumo:
In questa tesi si effettua uno studio sulla capacità degli algoritmi di apprendimento per rinforzo di profilare un utente Web unicamente attraverso l'osservazione del suo comportamento durante la navigazione
Resumo:
La disintegrazione dei nuclei atomici si traduce in una emissione di vari tipi di radiazioni e particelle tra cui neutroni e raggi gamma. La rivelazione dei neutroni comporta l’utilizzo di rivelatori a scintillazione e tecniche di analisi per poter identificare e ottenere informazioni sull’energia dei neutroni. Il processo di scintillazione per la rivelazione dei neutroni consiste nell’interazione con i nuclei del materiale e successiva emissione luminosa dovuta a ionizzazione degli atomi del rivelatore. La luce e in seguito convertita in impulsi elettrici, i quali possono essere analizzati con opportune tecniche. L’emissione di neutroni `e accompagnata da emissione di raggi gamma e quindi `e necessario identificare i neutroni. Rivelatori basati su scintillatori organici vengono spesso impiegati nella spettrometria neutronica ad energie superiori di 0.5 MeV ed in una vasta gamma di applicazioni come la medicina, l’industria e la radioprotezione. La rilevazione dei neutroni `e molto importante nello studio delle reazioni nucleari di bassa energia e nello studio della materia nucleare lontano dalla valle di stabilita. In questo lavoro abbiamo studiato tre algoritmi: Zero Crossing, Charge Comparison e Pulse Gradient Analysis. Questi algoritmi sono stati in seguito applicati all’analisi di un insieme di dati provenienti dalla reazione nucleare 7Li(p,n)7Be. E stato utilizzato uno scintillatore organico liquido BC501. Si `e effettuato un confronto tra le varie tecniche utilizzate per determinare il grado di discriminazione ottenuto con ognuna di esse. I risultati ottenuti permettono di decidere in seguito quale algoritmo si presta ad essere utilizzato anche in altri esperimenti futuri. Il metodo Pulse Gradient Analysis `e risultato il piu` prometente, essendo anche possibile l’utilizzo on-line.
Resumo:
questa tesi propone una prospettiva completa sull'accelerometro, descrivendone le caratteristiche le tipologie, gli utilizzi che se ne possono fare e gli ambiti di applicazione. Sviluppa anche argomenti che riguardano interfacce e piattaforme per l'interazione con il sensore e algoritmi machine learning.
Resumo:
Abbiamo analizzato il comportamento di dispositivi mobili allo scopo di acquisire, ricostruire ed analizzare dati rotazionali da veicoli in movimento. E' possibile ricostruire solo l'urto iniziale di un incidente tra automobili attraverso segnale GPS e accelerometri interni ai veicoli, non è possibile ricostruire l'intera dinamica dell'incidente poiché si perde la rotazione assunta dai mezzi di trasporto dopo l'urto. Per questo scopo abbiamo studiato il comportamento di un dispositivo mobile capace di percepire movimenti rotatori. Abbiamo creato un'architettura software per ricostruire graficamente ed analizzare le rotazioni di una piattaforma Arduino, ovvero un prototipo dotato di accelerometro e giroscopio. Per studiare le rotazioni è stata applicata la matematica dei quaternioni. Abbiamo trovato algoritmi che ricavano le rotazioni attraverso le velocità angolari fornite dalla piattaforma, ed anche attraverso componenti hardware specializzati in rotazioni. Entrambe le soluzioni riescono ad interpretare correttamente la rotazioni del dispositivo nell'intervallo di tempo in cui si può sviluppare un incidente.