480 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dopo aver definito tutte le proprietà, si classificano gli schemi di suddivisione per curve. Si propongono, quindi, degli schemi univariati per la compressione di segnali e degli schemi bivariati per lo scaling e la compressione di immagini digitali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi svolto riguarda la progettazione e lo sviluppo di un algoritmo per la pianificazione ottimizzata della distribuzione con viaggi sincronizzati; il metodo sviluppato è un algoritmo mateuristico. I metodi mateuristici nascono dall’integrazione di algoritmi esatti, utilizzati all’interno di un framework metaeuristico, scelto come paradigma di soluzione del problema. La combinazione di componenti esatte e algoritmi metaeuristici ha lo scopo di sfruttare i vantaggi di entrambi gli approcci: grazie all'uso di componenti esatte, è possibile operare in modo efficace e di concentrarsi su alcuni dei vincoli del problema, mentre, con l'utilizzo di un framework metaeuristico, si può efficacemente esplorare grandi aree dello spazio di ricerca in tempi accettabili. Il problema analizzato nel lavoro di tesi è un problema di trasporto, ovvero il Vehicle Routing Problem con finestre temporali e vincoli di sincronizzazione a coppie (VRPTWPS). Il problema richiede di individuare un piano di organizzazione ottimizzato per i viaggi di consegna merci presso un insieme di clienti; ogni cliente richiede che la consegna avvenga all’interno di orari predefiniti; un sottoinsieme di essi richiede, inoltre, che la consegna venga effettuata con la presenza di esattamente due addetti. La presenza di quest’ultimo vincolo richiede, dunque, che due incaricati, indipendentemente dai viaggi di visita che questi effettuano, si incontrino presso uno stesso cliente nello stesso istante. Il vincolo di sincronizzazione rende il problema difficile da risolvere in maniera ottimizzata con i tradizionali metodi di ricerca locale; da ciò nasce l’uso dei metodi mateuristici per la risoluzione ottimizzata del problema. Grazie all’utilizzo di algoritmi esatti, i metodi mateuristici riescono a trattare in maniera più efficace alcuni vincoli dei problemi da risolvere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi è il frutto di un lavoro di ricerca sugli aspetti che rendono gli algoritmi esatti per CVRP presenti in letteratura poco efficienti su certi tipi di istanze. L'ipotesi iniziale era che gli algoritmi incontrassero difficoltà di risoluzione su istanze di CVRP dotate di un numero limitato di soluzioni di Bin Packing. Allo scopo di verificare la validità di tale supposizione, sono state create istanze di Bin Packing aventi poche soluzioni ottime e sono stati aggiunti tre differenti schemi di routing. Le istanze CVRP sono state risolte con l'algoritmo del dr. Roberti, già presente in letteratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Riconoscere un gesto, tracciarlo ed identificarlo è una operazione complessa ed articolata. Negli ultimi anni, con l’avvento massivo di interfacce interattive sempre più sofisticate, si sono ampliati gli approcci nell’interazione tra uomo e macchina. L’obiettivo comune, è quello di avere una comunicazione “trasparente” tra l’utente e il computer, il quale, deve interpretare gesti umani tramite algoritmi matematici. Il riconoscimento di gesti è un modo per iniziare a comprendere il linguaggio del corpo umano da parte della macchina. Questa disciplina, studia nuovi modi di interazione tra questi due elementi e si compone di due macro obiettivi : (a) tracciare i movimenti di un particolare arto; (b) riconoscere tale tracciato come un gesto identificativo. Ognuno di questi due punti, racchiude in sé moltissimi ambiti di ricerca perché moltissimi sono gli approcci proposti negli anni. Non si tratta di semplice cattura dell’immagine, è necessario creare un supporto, a volte molto articolato, nel quale i dati grezzi provenienti dalla fotocamera, necessitano di filtraggi avanzati e trattamenti algoritmici, in modo tale da trasformare informazioni grezze, in dati utilizzabili ed affidabili. La tecnologia riguardo la gesture recognition è rilevante come l’introduzione delle interfacce tattili sui telefoni intelligenti. L’industria oggi ha iniziato a produrre dispositivi in grado di offrire una nuova esperienza, la più naturale possibile, agli utenti. Dal videogioco, all’esperienza televisiva gestita con dei piccoli gesti, all’ambito biomedicale, si sta introducendo una nuova generazione di dispositivi i cui impieghi sono innumerevoli e, per ogni ambito applicativo, è necessario studiare al meglio le peculiarità, in modo tale da produrre un qualcosa di nuovo ed efficace. Questo lavoro di tesi ha l’obiettivo di apportare un contributo a questa disciplina. Ad oggi, moltissime applicazioni e dispositivi associati, si pongono l’obiettivo di catturare movimenti ampi: il gesto viene eseguito con la maggior parte del corpo e occupa una posizione spaziale rilevante. Questa tesi vuole proporre invece un approccio, nel quale i movimenti da seguire e riconoscere sono fatti “nel piccolo”. Si avrà a che fare con gesti classificati fini, dove i movimenti delle mani sono compiuti davanti al corpo, nella zona del torace, ad esempio. Gli ambiti applicativi sono molti, in questo lavoro si è scelto ed adottato l’ambito artigianale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si presenta IntML, un linguaggio funzionale di recente introduzione che rende possibile la comunicazione bidirezionale; si descrive il funzionamento del suo interprete, a cui abbiamo aggiunto nuove funzionalita' che semplificano le operazioni di debugging e testing degli algoritmi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si inserisce nel filone di ricerca dell'elaborazione di dati 3D, e in particolare nella 3D Object Recognition, e delinea in primo luogo una panoramica sulle principali rappresentazioni strutturate di dati 3D, le quali rappresentano una prerogativa necessaria per implementare in modo efficiente algoritmi di processing di dati 3D, per poi presentare un nuovo algoritmo di 3D Keypoint Detection che è stato sviluppato e proposto dal Computer Vision Laboratory dell'Università di Bologna presso il quale ho effettuato la mia attività di tesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intento di questa tesi è fornire un andamento di alcune proprietà dei materiali compositi in fibra di carbonio, CFRP, utilizzati soprattutto nell’ambito aeronautico e navale, esposti quindi a condizioni ambientali specifiche di variazione ciclica della temperatura. Lo studio è effettuato sulle prove di caratterizzazione statica, di compressione, flessione in tre punti e taglio interlaminare, che generano risultati sulla resistenza delle fibre e della matrice e sul modulo elastico a compressione e trazione del composito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggigiorno  le  richieste  di  rilievi  tridimensionali  e  di  rappresentazioni  3D  ad  alta  qualità  i  sono  sempre  più  frequenti,  e  coinvolgono  un  numero  sempre  maggiore  di  discipline  e  ambiti  applicativi,  quali  quello  industriale,  medico,  archeologico,  forense,  museale, ecc., con ulteriori prospettive di allargamento per quanto riguarda la natura ed  il numero delle realizzazioni.  Il  lavoro  di  ricerca  svolto,  di  natura  prevalentemente  applicata,  vuole  andare  ad  investigare un settore, quello degli oggetti di medie, medio-piccole e soprattutto piccole  dimensioni, che, a parere dell’autore, non è stato ancora investigato a fondo;di questo  d’altra  parte  dà  riscontro  il  numero  relativamente  limitato  di  lavori  presenti  in  letteratura su questo tema.  Sebbene la metodologia di lavoro non sia concettualmente diversa da quella che si  adotta comunemente in ambito close range, le problematiche che sono state incontrate  nel corso dei diversi casi di studio analizzati nel periodo di dottorato hanno evidenziato  la  necessità  di  soluzioni  tecniche  e  metodologiche  specifiche,  anche  in  funzione  dei  requisiti di precisione che competono ad oggetti di piccole dimensioni.  Nel corso degli anni, si è visto  un allargamento della base di utenti che trovano nel  prodotto  3D  un  importante  strumento  di  lavoro;  si  pensi  alla  cinematografia,  alla  computer grafica, alle simulazioni virtuali a partire da modelli 3D realistici, ecc. Questo  trend sembra, al giorno d’oggi, non trovare ancora una battuta d’arresto. Considerando il  settore  dei  Beni  Culturali,  per  esempio,  si  tratta  di  un  campo  di  applicazione  delle  tecniche  geomatiche  abbastanza  ristretto  e  sostanzialmente  nuovo,  in  quanto  le  problematiche di documentazione e visualizzazione di beni mobili ed immobili sono in  genere indirizzate prevalentemente ad oggetti a scala di edificio, porzione di edificio o  elementi  quali  bassorilievi  e  statue,  comunque  con  un  ordine  di  grandezza  che  va  da  qualche  metro  alla  decina  di  metri.  Qualora,  come  detto  in  precedenza,  si  volesse  aumentare  ulteriormente  la  scala  di  indagine  e  di  rappresentazione,  devono  essere  adottate  delle  tecniche  di  rilievo  che  possano  fornire  un'adeguata  precisione,  con  strumenti e tecnologie che possano adattarsi alle diverse configurazioni e caratteristiche  geometriche. Nella  tesi  viene  dunque  affrontata  la  problematica  del  rilievo  e  della  modellazione  tridimensionale,  con  alto  livello  di  dettaglio,  di  oggetti  di  dimensioni  che  variano  da  qualche decina a pochi centimetri; una situazione di questo tipo può aversi in svariati  ambiti,  che  vanno  da  quello  industriale  e  del  design  a  quello  biologico  e  medico,  dall’archeologia ed alla musealizzazione virtuale alle indagini forensi, ecc.  Concentrando  l’analisi  al  campo  dei  Beni  Culturali,  oggi  oggetto  di  importanti  ricerche  applicative  che  trovano  impulso  anche  dallo  sviluppo  delle  nuove  tecnologie,  sono molto numerose e varie le occasioni in cui operare con oggetti di altissimo valore e  dimensioni molto ridotte: un esempio immediato è quello fornito dal rilievo di reperti  archeologici,  ma  nell’ambito  del  restauro,  dell’analisi  dei  materiali,  delle  indagini  non  distruttive, le potenzialità sono di grandissimo interesse..   Comunemente,  fino  a  poco  tempo  fa,  e  soprattutto  in  ambito  museale,  la  documentazione  geometrica  di  un  bene  culturale  mobile  di  piccole  dimensioni  si  è  limitata  ad  una  rappresentazione  fotografica,  riportante  magari  elementi  metrici  minimali,  come  un  righello  posto  di fianco  all’oggetto,  in  grado  di  fornire  una  scala  di  lettura.  Ciò  che  si  è  in  genere  tenuto  in  scarsa  considerazione,  ma  in  grado  invece    di  dare  al  contenuto  informativo  quel  qualcosa  in  più  rispetto  alla  semplice  fotografia,  è  l’adozione  di  metodologie  per  un  rilievo  rigoroso  e  metrico,  metodologie  che  possono  essere di grandissimo interesse non solo a fini di studio e divulgazione dell’oggetto (si  pensi alla problematica della virtualizzazione della fruizione di beni museali) ma anche  per  scopi  diversi  quali  la  duplicazione  e  riproduzione  di  copie  dell’oggetto  (a  scala  identica  al  vero  o  a  scala  diversa).  Di  frequente  infatti  ci  si  trova  di  fronte  a  problematiche  legate  alla  salvaguardia  e  conservazione  dell’oggetto,  in  termini  di  accesso  e  visione  da  parte  del  pubblico,  di  mantenimento  in  particolari  condizioni  microclimatiche, di difficoltà di manipolazione a fini di studio e misura, ecc.   Nella  tesi  sono  state  prese  in  considerazione  le  due  tecniche  geomatiche  che  si  prestano  a  soddisfare  nel  miglior  modo  possibile  i  requisiti  di  correttezza  metrica  e  radiometrica che un rilievo ad elevata precisione richiede. Tali tecniche, rappresentate  dalla fotogrammetria digitale con ottiche Macro e dal laser a scansione, in particolare del  tipo a triangolazione, sono state sperimentate sul campo , in modo da poter valutarne le  potenzialità,  non  solo  alla  luce  dei  risultati  finali  ottenuti,  ma  anche  considerando  i  problemi al contorno che esse comportano.   Nel  corso  di  numerose  sperimentazioni  in  laboratorio  e  sul  campo  sono  stati  analizzati problemi quali la calibrazione di obiettivi macro e la realizzazione di reticoli   speciali atti allo scopo, la qualità dei DSM di origine laser e fotogrammetrica, l’estrazione  di  caratteristiche  morfologiche di  microrilievo,  le  conseguenze  della  compressione  dei  dati  immagine,  la  calibrazione  radiometrica  ed  il  filtraggio  delle  immagini  digitali,  l’allineamento di nuvole di punti con algoritmi ICP. 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio che si ha in informatica ha come obiettivo la scoperta di algoritmi sempre più efficienti per riuscire, con componenti semplici, a svolgere compiti complessi, con il minore carico di lavoro possibile. Le applicazioni di tale studio trovano risultati anche nel campo del controllo adattativo di robot. Si vogliono confrontare tramite questo studio le osservazioni più importanti riguardati queste caratteristiche rese note dalla scienza e applicarle ai campi sopra citati per dimostrare l'effettivo valore e affidabilità che si guadagnano andando a utilizzare degli algoritmi che rispecchiano le stesse caratteristiche che si possono notare nel regno animale. La metodologia di interesse usata come caso di studio è quella del recupero di oggetti. Esistono numerose soluzioni a questo problema che possono trovare uso in molte realtà utili all'uomo. Ne verranno presentate e confrontate due all'interno di questo elaborato, studiando le caratteristiche positive e negative di entrambe. Questi due approcci sono chiamati a soglia fissa e a soglia variabile. Entrambe sono tipologie di adattamento che prendono spunto dal comportamento che hanno le colonie di formiche quando si muovono alla ricerca di cibo. Si è deciso di analizzare queste due metodologie partendo da una panoramica generale di come cooperano gli insetti per arrivare al risultato finale, per poi introdurre nello specifico le caratteristiche di entrambe analizzando per ognuna i risultati ottenuti tramite grafici, e confrontandoli tra di loro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante il lavoro di tesi si è analizzato e sviluppato un convertitore trifase multilivello di nuova generazione per l'allacciamento di un campo fotovoltaico multistringa alla rete elettrica. Si sono quindi studiati gli algoritmi di controllo di questa tipologia di inverter e sono state proposte soluzioni ad alcune delle più importanti problematiche incontrate in fase di sviluppo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il task del data mining si pone come obiettivo l'estrazione automatica di schemi significativi da grandi quantità di dati. Un esempio di schemi che possono essere cercati sono raggruppamenti significativi dei dati, si parla in questo caso di clustering. Gli algoritmi di clustering tradizionali mostrano grossi limiti in caso di dataset ad alta dimensionalità, composti cioè da oggetti descritti da un numero consistente di attributi. Di fronte a queste tipologie di dataset è necessario quindi adottare una diversa metodologia di analisi: il subspace clustering. Il subspace clustering consiste nella visita del reticolo di tutti i possibili sottospazi alla ricerca di gruppi signicativi (cluster). Una ricerca di questo tipo è un'operazione particolarmente costosa dal punto di vista computazionale. Diverse ottimizzazioni sono state proposte al fine di rendere gli algoritmi di subspace clustering più efficienti. In questo lavoro di tesi si è affrontato il problema da un punto di vista diverso: l'utilizzo della parallelizzazione al fine di ridurre il costo computazionale di un algoritmo di subspace clustering.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The PhD activity described in the document is part of the Microsatellite and Microsystem Laboratory of the II Faculty of Engineering, University of Bologna. The main objective is the design and development of a GNSS receiver for the orbit determination of microsatellites in low earth orbit. The development starts from the electronic design and goes up to the implementation of the navigation algorithms, covering all the aspects that are involved in this type of applications. The use of GPS receivers for orbit determination is a consolidated application used in many space missions, but the development of the new GNSS system within few years, such as the European Galileo, the Chinese COMPASS and the Russian modernized GLONASS, proposes new challenges and offers new opportunities to increase the orbit determination performances. The evaluation of improvements coming from the new systems together with the implementation of a receiver that is compatible with at least one of the new systems, are the main activities of the PhD. The activities can be divided in three section: receiver requirements definition and prototype implementation, design and analysis of the GNSS signal tracking algorithms, and design and analysis of the navigation algorithms. The receiver prototype is based on a Virtex FPGA by Xilinx, and includes a PowerPC processor. The architecture follows the software defined radio paradigm, so most of signal processing is performed in software while only what is strictly necessary is done in hardware. The tracking algorithms are implemented as a combination of Phase Locked Loop and Frequency Locked Loop for the carrier, and Delay Locked Loop with variable bandwidth for the code. The navigation algorithm is based on the extended Kalman filter and includes an accurate LEO orbit model.