358 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica
Resumo:
Al giorno d’oggi quasi tutte le persone possiedono un mezzo motorizzato che utilizzano per spostarsi. Tale operazione, che risulta semplice per una persona, può essere compiuta da un robot o un autoveicolo in modo autonomo? La risposta a questa domanda è si, ma se ad una persona serve solo un po’ di pratica per guidare, questa azione non risulta altrettanto immediata per dei veicoli motorizzati. In soccorso ad essi vi è la Computer Vision, un ramo dell’informatica che, in un certo senso, rende un elaboratore elettronico in grado di percepire l’ambiente circostante, nel modo in cui una persona fa con i propri occhi. Oggi ci concentreremo su due campi della computer vision, lo SLAM o Simultaneous Localization and Mapping, che rende un robot in grado di mappare, attraverso una camera, il mondo in cui si trova ed allo stesso tempo di localizzare, istante per istante, la propria posizione all’interno di esso, e la Plane Detection, che permette di estrapolare i piani presenti all’interno di una data immagine.
Resumo:
Si analizzano diversi algoritmi euristici volti alla soluzione di problemi di scheduling su macchina singola con vincoli sui tempi di completamento, quali earliness, tardiness, manutenzione, ecc. e ne vengono mostrati i risultati.
Resumo:
Come il titolo suggerisce, due sono gli aspetti oggetto di questo elaborato: i modelli e gli algoritmi (con le rispettive criticità), e il linguaggio di modellazione AMPL. Il filo conduttore che integra le due parti, nonché mezzo ultimo per un’applicazione pratica dell’attività di modellazione, è l’ottimizzatore, la ”macchina” che effettua la risoluzione vera e propria dei suddetti modelli.
Resumo:
Nell'ambito dell'elaborazione delle immagini, si definisce segmentazione il processo atto a scomporre un'immagine nelle sue regioni costituenti o negli oggetti che la compongono. Ciò avviene sulla base di determinati criteri di appartenenza dei pixel ad una regione. Si tratta di uno degli obiettivi più difficili da perseguire, anche perché l'accuratezza del risultato dipende dal tipo di informazione che si vuole ricavare dall'immagine. Questa tesi analizza, sperimenta e raffronta alcune tecniche di elaborazione e segmentazione applicate ad immagini digitali di tipo medico. In particolare l'obiettivo di questo studio è stato quello di proporre dei possibili miglioramenti alle tecniche di segmentazione comunemente utilizzate in questo ambito, all'interno di uno specifico set di immagini: tomografie assiali computerizzate (TAC) frontali e laterali aventi per soggetto ginocchia, con ivi impiantate protesi superiore e inferiore. L’analisi sperimentale ha portato allo sviluppo di due algoritmi in grado di estrarre correttamente i contorni delle sole protesi senza rilevare falsi punti di edge, chiudere eventuali gap, il tutto a un basso costo computazionale.
Resumo:
Questo elaborato di tesi ha lo scopo di illustrare un'applicazione realizzata per dispositivi Android in grado di localizzare l'utente all'interno di un ambiente indoor sfruttando l'utilizzo dei Beacon e dare una valutazione dei risultati ottenuti. L'utente potrà registrare i dispositivi Beacon in suo possesso all'interno dell'applicazione, caricare la planimetria di un ambiente e configurarlo indicando esattamente quale Beacon si trova in una determinata posizione. Infine potrà scegliere quale tra i tre algoritmi implementati (Prossimità, Triangolazione e Fingerprinting) utilizzare per visualizzare la propria posizione sulla mappa. I tre algoritmi sono stati sottoposti a vari test che hanno permesso di analizzare le differenze tra di essi in termini di accuratezza e le performance generali dell'applicativo.
Resumo:
In questo lavoro di tesi verrà presentata l’implementazione di due algoritmi di Deployment e gestione di uno sciame di dispositivi UAV (Unmanned Aerial Vehicles). L’interesse scientifico su cui si fonda quest'analisi ha origine nelle enormi potenzialità degli UAV che garantiscono un'esplorazione aerea di aree pericolose in contesti di emergenze quali ad esempio scenari post catastrofe. La problematica principale affrontata sarà quella della gestione continuativa dell'area disastrata fornendo un algoritmo di schedulazione della cooperazione degli UAV alternando periodi attivi con quelli di ricarica dei dispositivi.
Resumo:
Applicazione di algoritmi di stereo visione con differenti configurazioni con lo scopo di confrontare e valutare quale applicare ad una successiva implementazione su FPGA.
Resumo:
L'obiettivo del kinodynamic motion planning è quello di determinare una sequenza di input di controllo per guidare un agente da uno stato iniziale ad uno finale, rispettando la dinamica del corpo e i vincoli fisici. In questa tesi sono presentate diverse versioni di algoritmi basati su Rapidly-exploring Random Tree in grado di risolvere questo tipo di problema. In particolare è preso in considerazione il caso di un sistema non lineare con vincoli non olonomici, rappresentativo del rover in dotazione al progetto europeo SHERPA. La qualità degli approcci proposti è inoltre provata con alcuni test di navigazione, in ambiente simulato, confrontando gli algoritmi proposti con alcuni presi nella letteratura di riferimento.
Resumo:
Nell'elaborato, dopo una breve descrizione di come vengono suddivise le macchine elettriche a seconda che vi siano o meno parti in movimento al loro interno, vengono esaminati inizialmente gli aspetti teorici che riguardano le macchine sincrone a poli lisci ed a poli salienti prendendo in esame anche quelli che sono i provvedimenti necessari a ridurre il contributo dei campi armonici di ordine superiore. Per questo tipo di macchine, spesso utilizzate in centrale per la pruduzione dell'energia elettrica, risultano di fondamentale importanza le curve a "V" e le curve di "Capability". Esse sono strumenti che permettono di valutare le prestazioni di tali macchine una volta che siano noti i dati di targa delle stesse. Lo scopo della tesi è pertanto quello di sviluppare un software in ambiente Matlab che permetta il calcolo automatico e parametrico di tali curve al fine di poter ottimizzare la scelta di una macchina a seconda delle esigenze. Nel corso dell'eleaborato vengono altresì proposti dei confronti su come varino tali curve, e pertanto i limiti di funzionamento ad esse associati, al variare di alcuni parametri fondamentali come il fattore di potenza, la reattanza sincrona o, nel caso di macchine a poli salienti, il rapporto di riluttanza. Le curve di cui sopra sono state costruite a partire da considerazioni fatte sul diagramma di Behn-Eschemburg per le macchine isotrope o sul diagramma di Arnold e Blondel per le macchine anisotrope.
Resumo:
Tesi riguardante le metodologie di aggregazione di costi applicate alla visione stereo, incentrata in particolare sull'algoritmo box filtering.
Resumo:
Ricavare informazioni dalla realtà circostante è un obiettivo molto importante dell'informatica moderna, in modo da poter progettare robot, veicoli a guida autonoma, sistemi di riconoscimento e tanto altro. La computer vision è la parte dell'informatica che se ne occupa e sta sempre più prendendo piede. Per raggiungere tale obiettivo si utilizza una pipeline di visione stereo i cui passi di rettificazione e generazione di mappa di disparità sono oggetto di questa tesi. In particolare visto che questi passi sono spesso affidati a dispositivi hardware dedicati (come le FPGA) allora si ha la necessità di utilizzare algoritmi che siano portabili su questo tipo di tecnologia, dove le risorse sono molto minori. Questa tesi mostra come sia possibile utilizzare tecniche di approssimazione di questi algoritmi in modo da risparmiare risorse ma che che garantiscano comunque ottimi risultati.
Resumo:
Questa tesi riguarda il problema della schedulazione degli interventi nel blocco operatorio di un presidio ospedaliero, noto anche come Operating Theatre Planning & Scheduling. Il blocco operatorio è la struttura che eroga servizi a più alto impatto sui costi di un presidio ospedaliero ed è legato ad attività ad alto rischio. E' quindi fondamentale gestire in modo ottimale questa risorsa. In questa tesi, si considera come caso studio l'applicazione reale di un presidio ospedaliero dell'Emilia Romagna con un orizzonte temporale di una settimana, ovvero la cosiddetta programmazione operativa. L'obiettivo è quello di ottenere un utilizzo efficiente del blocco operatorio, garantendo al contempo la priorità agli interventi più urgenti. Data la complessità del problema, vengono proposti algoritmi euristici che permettano di ottenere buone soluzioni in tempi di calcolo ridotti. Studi precedenti hanno infatti evidenziato la difficoltà di trovare soluzioni ottime al problema, mediante l'utilizzo di solver commerciali per modelli di Programmazione Lineare Intera, senza introdurre ipotesi semplificative. Sono stati elaborati tre algoritmi euristici costruttivi di tipo multi-start che permettono di generare soluzioni ammissibili con diverse caratteristiche. Gli algoritmi si differenziano principalmente per le modalità con cui collocano gli interventi nel tempo disponibile delle risorse (induction room, operating room, recovery room), cercando di migliorarne l’utilizzazione e dando priorità ai pazienti più urgenti. Gli algoritmi sono stati implementati utilizzando il linguaggio JAVA e sono stati testati su istanze realistiche fornite dal presidio ospedaliero. I risultati hanno evidenziato un alto grado di utilizzazione delle sale operatorie, un fattore molto rilevante per una ottimale gestione del blocco operatorio. E' stata, infine, svolta un'analisi di sensitività alla variabilità delle durate.
Resumo:
In questo studio sono stati analizzati ed ottimizzati alcuni algoritmi proposti in letteratura per la detezione dei parametri temporali della corsa, con l'obiettivo di determinare quale, fra quelli proposti, sia il più affidabile per il suo utilizzo nell'analisi dello sprint. Per fare ciò, sono state condotte delle acquisizioni outdoor su cinque atleti differenti, utilizzando tre sensori inerziali IMU EXL-s3 (EXEL S.r.l., Bologna) con frequenza di acquisizione a 200 Hz, posizionati sul dorso dei due piedi e sul tronco (schiena, livello L1). Gli algoritmi confrontati sono stati sviluppati in ambiente MATLAB (MathWorks Inc., USA) e sono stati riferiti al gold standard di telecamera a 250 fps analizzando, per ciascuno, i limits of agreement. L'algoritmo implementato da Bergamini et al. (si veda l'articolo 'Estimation of temporal parameters during sprint running using a trunk-mounted inertial measurement unit') è risultato il migliore, con un bias di circa 0.005 s e limits of agreement entro gli 0.025 s fra i dati da sensore e il riferimento video, dati questi che confermano anche i risultati ottenuti da Bergamini et al.
Resumo:
Attualmente, la maggior parte dei dati che transitano sulla rete appartiene a contenuti multimediali. Più nello specifico, è lo Streaming Video ad avere la predominanza nella condivisione di Internet; vista la crescita che tale servizio ha subìto negli ultimi anni, si sono susseguiti diversi studi volti allo sviluppo di tecniche e metodologie che potessero migliorarlo. Una di queste è sicuramente l'Adaptive Video Streaming, tecnica utilizzata per garantire all'utente una buona Quality of Experience (QoE) mediante l'utilizzo dei cosiddetti "algoritmi di rate adaptation". Il lavoro svolto in questi studi si è voluto concentrare su due filoni distinti, ma allo stesso tempo confrontabili: la prima parte della tesi riguarda lo sviluppo e l'analisi di alcuni algoritmi di rate adaptation per DASH, mentre la seconda è relativa all'implementazione di un nuovo algoritmo che li possa affiancare, migliorando la QoE nel monitorare lo stato della connessione. Si è quindi dovuta implementare un'applicazione Android per lo streaming video, che fosse conforme allo standard MPEG-DASH e potesse fornire le informazioni di testing da utilizzare per le analisi. La tesi è suddivisa in quattro capitoli: il primo introduce l'argomento e definisce la terminologia necessaria alla comprensione degli studi; il secondo descrive alcuni dei lavori correlati allo streaming adattivo e introduce i due filoni principali della tesi, ovvero gli algoritmi di rate adaptation e la proposta di algoritmo per la selezione dinamica del segmento; il terzo presenta l'app SSDash, utilizzata come mezzo per le analisi sperimentali; infine, il quarto ed ultimo capitolo mostra i risultati delle analisi e le corrispondenti valutazioni.
Resumo:
Objective To compare the diagnostic accuracy of the interRAI Acute Care (AC) Cognitive Performance Scale (CPS2) and the Mini-Mental State Examination (MMSE), against independent clinical diagnosis for detecting dementia in older hospitalized patients. Design, Setting, and Participants The study was part of a prospective observational cohort study of patients aged ≥70 years admitted to four acute hospitals in Queensland, Australia, between 2008 and 2010. Recruitment was consecutive and patients expected to remain in hospital for ≥48 hours were eligible to participate. Data for 462 patients were available for this study. Measurements Trained research nurses completed comprehensive geriatric assessments and administered the interRAI AC and MMSE to patients. Two physicians independently reviewed patients’ medical records and assessments to establish the diagnosis of dementia. Indicators of diagnostic accuracy included sensitivity, specificity, predictive values, likelihood ratios and areas under receiver (AUC) operating characteristic curves. Results 85 patients (18.4%) were considered to have dementia according to independent clinical diagnosis. The sensitivity of the CPS2 [0.68 (95%CI: 0.58–0.77)] was not statistically different to the MMSE [0.75 (0.64–0.83)] in predicting physician diagnosed dementia. The AUCs for the 2 instruments were also not statistically different: CPS2 AUC = 0.83 (95%CI: 0.78–0.89) and MMSE AUC = 0.87 (95%CI: 0.83–0.91), while the CPS2 demonstrated higher specificity [0.92 95%CI: 0.89–0.95)] than the MMSE [0.82 (0.77–0.85)]. Agreement between the CPS2 and clinical diagnosis was substantial (87.4%; κ=0.61). Conclusion The CPS2 appears to be a reliable screening tool for assessing cognitive impairment in acutely unwell older hospitalized patients. These findings add to the growing body of evidence supporting the utility of the interRAI AC, within which the CPS2 is embedded. The interRAI AC offers the advantage of being able to accurately screen for both dementia and delirium without the need to use additional assessments, thus increasing assessment efficiency.