953 resultados para Elaborazione delle immagini, UAV, traffico aereo, opencv
Resumo:
The wide diffusion of cheap, small, and portable sensors integrated in an unprecedented large variety of devices and the availability of almost ubiquitous Internet connectivity make it possible to collect an unprecedented amount of real time information about the environment we live in. These data streams, if properly and timely analyzed, can be exploited to build new intelligent and pervasive services that have the potential of improving people's quality of life in a variety of cross concerning domains such as entertainment, health-care, or energy management. The large heterogeneity of application domains, however, calls for a middleware-level infrastructure that can effectively support their different quality requirements. In this thesis we study the challenges related to the provisioning of differentiated quality-of-service (QoS) during the processing of data streams produced in pervasive environments. We analyze the trade-offs between guaranteed quality, cost, and scalability in streams distribution and processing by surveying existing state-of-the-art solutions and identifying and exploring their weaknesses. We propose an original model for QoS-centric distributed stream processing in data centers and we present Quasit, its prototype implementation offering a scalable and extensible platform that can be used by researchers to implement and validate novel QoS-enforcement mechanisms. To support our study, we also explore an original class of weaker quality guarantees that can reduce costs when application semantics do not require strict quality enforcement. We validate the effectiveness of this idea in a practical use-case scenario that investigates partial fault-tolerance policies in stream processing by performing a large experimental study on the prototype of our novel LAAR dynamic replication technique. Our modeling, prototyping, and experimental work demonstrates that, by providing data distribution and processing middleware with application-level knowledge of the different quality requirements associated to different pervasive data flows, it is possible to improve system scalability while reducing costs.
Resumo:
La conoscenza del sistema nervoso centrale dei Cetacei si limita alla morfologia esterna, mentre la storia evolutiva, invece, è ben documentata. Il sistema nervoso centrale, che funziona da interfaccia tra il corpo dell’animale e l’ambiente circostante, integra le informazioni afferenti in una reazione adatta alla sopravvivenza dell’individuo. L’aumento o la diminuzione delle aree cerebrali dipende dall’implicazione funzionale che esse hanno per l’organismo e, nel tursiope, quelle particolarmente sviluppate sono connesse alla trasmissione ed elaborazione delle informazioni acustiche comprendendo le cortecce acustiche, il pulvinar, il nucleo genicolato mediale, il collicolo caudale ed alcuni nuclei pontini. Esse sono basilari per la sopravvivenza nell’ ambiente acquatico. Questo studio si è occupato di delineare le caratteristiche citoarchitettoniche (con riferimento alla morfologia ed alle dimensioni dei neuroni) e l'espressione della calbindina-D28k del corpo genicolato mediale, importante centro di integrazione delle informazioni acustiche. Le sue caratteristiche morfofunzionali sono state studiate soprattutto nei Roditori, nei Carnivori e nei Primati, ed è emersa la presenza di tre aree citoarchitettoniche: nucleo dorsale (MGd), nucleo ventrale (MGv) e nucleo mediale (MGm). Nel tursiope, in base alla densità di distribuzione dei neuroni, si possono evidenziare, invece, due nuclei principali: il ventro-laterale ed il dorso-mediale. Nel primo nucleo i neuroni presenti appaiono più densamente stipati che nel secondo. Nel corpo genicolato mediale di tursiope, come nei Chirotteri, le cellule calbindina-D28k-immunoreattive sono distribuite in maniera diffusa ed uniforme. Tali cellule ricevono informazioni modulatorie afferenti soprattutto dalla corteccia cerebrale; di conseguenza è possibile ipotizzare come le infomazioni modulatorie che dalla neocorteccia si portano al corpo genicolato mediale non terminino in aree specifiche, come accade in molti Mammiferi terrestri, ma si distribuiscano in maniera diffusa a tutto il corpo. Tale caratteristica anatomica potrebbe indicare la presenza di un maggior controllo modulatorio, eventualmente correlato al fenomeno dell’ecolocazione, operato dalla corteccia cerebrale sul corpo genicolato mediale.
Resumo:
Traffico aereo negli ultimi anni in Europa, in Italia e a Rimini. Cause della crisi economica e operativa dello scalo di Rimini e sviluppo della gestione dei servizi di assistenza a terra.
Resumo:
This thesis investigates interactive scene reconstruction and understanding using RGB-D data only. Indeed, we believe that depth cameras will still be in the near future a cheap and low-power 3D sensing alternative suitable for mobile devices too. Therefore, our contributions build on top of state-of-the-art approaches to achieve advances in three main challenging scenarios, namely mobile mapping, large scale surface reconstruction and semantic modeling. First, we will describe an effective approach dealing with Simultaneous Localization And Mapping (SLAM) on platforms with limited resources, such as a tablet device. Unlike previous methods, dense reconstruction is achieved by reprojection of RGB-D frames, while local consistency is maintained by deploying relative bundle adjustment principles. We will show quantitative results comparing our technique to the state-of-the-art as well as detailed reconstruction of various environments ranging from rooms to small apartments. Then, we will address large scale surface modeling from depth maps exploiting parallel GPU computing. We will develop a real-time camera tracking method based on the popular KinectFusion system and an online surface alignment technique capable of counteracting drift errors and closing small loops. We will show very high quality meshes outperforming existing methods on publicly available datasets as well as on data recorded with our RGB-D camera even in complete darkness. Finally, we will move to our Semantic Bundle Adjustment framework to effectively combine object detection and SLAM in a unified system. Though the mathematical framework we will describe does not restrict to a particular sensing technology, in the experimental section we will refer, again, only to RGB-D sensing. We will discuss successful implementations of our algorithm showing the benefit of a joint object detection, camera tracking and environment mapping.
Resumo:
B0218+357 è un blazar soggetto al lensing che si trova a z=0.944. Questo sistema consiste in due componenti compatte (A e B) e un anello di Einstein. Recentemente è stato associato ad una sorgente gamma soggetta a burst osservata con il satellite Fermi-LAT. Questo blazar ha mostrato una forte variabilità in banda γ da agosto a settembre del 2012. Gli episodi di variabilità osservati hanno consentito di misurare per la prima volta in banda gamma il ritardo temporale previsto dalla teoria del lensing gravitazionale. Le osservazioni in banda gamma sono state seguite da un programma di monitoring con il Very Long Baseline Array (VLBA) in banda radio con lo scopo di verificare l’esistenza di una correlazione tra l’emissione nelle due bande. In questa Tesi tali osservazioni radio sono state analizzate con lo scopo di studiare la variabilità di B0218+357 e, quindi, attestare la connessione tra l’emissione alle alte energie e quella in banda radio. L’obiettivo principale di questo lavoro di Tesi è quello di studiare l’evoluzione della densità di flusso, dell’indice spettrale e della morfologia delle immagini A e B e delle loro sottocomponenti. I dati analizzati sono stati ottenuti con l’interferometro VLBA a tre frequenze di osser- vazione: 2.3, 8.4 GHz (4 epoche con osservazioni simultanee alle due frequenze) e 22 GHz (16 epoche). Le osservazioni hanno coperto un periodo di circa due mesi, subito successivo al flare in banda gamma. La riduzione dei dati è stata effettuata con il pacchetto AIPS. Dall’analisi delle immagini, nella componente B è possibile riconoscere la tipica struttura nucleo-getto chiaramente a tutte e tre le frequenze, invece nella componente A questa struttura è identificabile solo a 22 GHz. A 2.3 e 8.4 GHz la risoluzione non è sufficiente a risolvere nucleo e getto della componente A e l’emissione diffusa risulta dominante. Utilizzando il metodo dello stacking sulle immagini a 2.3 GHz, è stato possibile rivelare le parti più brillanti dell’Einstein ring associato a questa sorgente. Questo è stato possibile poiché la sorgente non ha mostrato alcun segno di variabilità significativa né di struttura né di flusso nelle componenti. Quindi dall’analisi delle curve di luce delle due componenti A e B non è emersa una variabilità significativa chiaramente associabile al flare osservato in banda gamma. Per verificare questo risultato, le curve di luce ottenute sono state confrontate con le osservazioni del radio telescopio OVRO (15 GHz) nel periodo corrispondente alle nostre osservazioni. La curva di luce OVRO è risultata in pieno accordo con le curve di luce ottenute durante questo lavoro di tesi e ha confermato che B0218+257 non ha mostrato un’importante attività radio nel periodo delle osservazioni VLBA. In definitiva, la mancanza di variabilità radio associata a quella osservata nei raggi gamma può essere dovuta al fatto che la regione in cui si è originato il flare gamma è otticamente spessa alle lunghezze d’onda radio, oppure non esiste una precisa correlazione tra le due emissioni, rimanendo quindi un problema aperto da investigare.
Resumo:
Lo scopo di questo lavoro di tesi è indagare le capacità di ALMA di osservare il continuo e le righe molecolari di emissione di HCN, HCO+ e HNC, in galassie lensate ad alto z, nelle prime fasi della loro formazione. Per farlo vengono utilizzate osservazioni ALMA di righe di emissione molecolare, relative a dati pubblici di Ciclo 0. Queste osservazioni vengono utilizzate per simulare in modo realistico l’emissione da parte di galassie ad alto z e la risposta osservativa del telescopio, assumendo diverse possibili geometrie di lensing. Inoltre le recenti osservazioni ALMA sono state utilizzate per aggiornare le relazioni già esistenti tra la luminosità FIR e la luminosità delle righe molecolari. Queste recenti osservazioni con maggiore sensibilità e risoluzione angolare, sembrano essere in buon accordo con le precedenti osservazioni. Per realizzare questo progetto di tesi, sono stati scaricati dall’archivio ALMA i dati non calibrati relativi a due sorgenti ben studiate: NGC1614, rappresentativa delle galassie di tipo starburst ed IRAS 20551-4250, un AGN oscurato. Il processo di calibrazione è stato ripetuto per esaminare le proprietà dei cubi di dati utilizzando il pacchetto Common Astronomy Software Applications (CASA). Le righe spettrali osservate e l’emissione del continuo sono state successivamente estrapolate ad alto z riscalando adeguatamente le distanze, le dimensioni delle sorgenti e le frequenze di emissione. In seguito è stato applicato un modello di lensing gravitazionale basato su quello di Lapi et al. (2012). Sono state considerate diverse configurazioni tra lente e sorgente per ottenere diverse geometrie delle immagini e diversi fattori di amplificazione. Infine stato utilizzato il software CASA per simulare le osservazioni ALMA in modo da verificare le capacità osservative del telescopio al variare della geometria del sistema. Per ogni riga molecolare e per l’emissione del continuo sono state determinate la sensibilit e la risoluzione che possono essere raggiunte con le osservazioni ALMA e sono state analizzate alcune strategie osservative per effettuare survey di righe spettrali in oggetti lensati. Inoltre stata analizzata la possibilit di caratterizzare oggetti starburst ed AGN dai rapporti tra le righe di emissione delle molecole traccianti di alta densit. Le prestazioni di ALMA consentiranno di distinguere e stimare i contributi relativi di SB ed AGN in galassie lensate a z > 2.5, quindi vicine alla loro presunta epoca di formazione (Lapi et al. 2010), in meno di 5 minuti di osservazione per qualsiasi fattore di magnificazione. Nel presente lavoro sono state inoltre discusse alcune strategie osservative per condurre survey o followup per osservare le righe di HCN(4-3), HCO+(4-3) e HNC(4-3) in galassie lensate a redshift 2.5 < z < 3, dimostrando che sono possibili per campioni statisticamente significativi in tempi relativamente brevi.
Resumo:
Self-organising pervasive ecosystems of devices are set to become a major vehicle for delivering infrastructure and end-user services. The inherent complexity of such systems poses new challenges to those who want to dominate it by applying the principles of engineering. The recent growth in number and distribution of devices with decent computational and communicational abilities, that suddenly accelerated with the massive diffusion of smartphones and tablets, is delivering a world with a much higher density of devices in space. Also, communication technologies seem to be focussing on short-range device-to-device (P2P) interactions, with technologies such as Bluetooth and Near-Field Communication gaining greater adoption. Locality and situatedness become key to providing the best possible experience to users, and the classic model of a centralised, enormously powerful server gathering and processing data becomes less and less efficient with device density. Accomplishing complex global tasks without a centralised controller responsible of aggregating data, however, is a challenging task. In particular, there is a local-to-global issue that makes the application of engineering principles challenging at least: designing device-local programs that, through interaction, guarantee a certain global service level. In this thesis, we first analyse the state of the art in coordination systems, then motivate the work by describing the main issues of pre-existing tools and practices and identifying the improvements that would benefit the design of such complex software ecosystems. The contribution can be divided in three main branches. First, we introduce a novel simulation toolchain for pervasive ecosystems, designed for allowing good expressiveness still retaining high performance. Second, we leverage existing coordination models and patterns in order to create new spatial structures. Third, we introduce a novel language, based on the existing ``Field Calculus'' and integrated with the aforementioned toolchain, designed to be usable for practical aggregate programming.
Resumo:
Information is nowadays a key resource: machine learning and data mining techniques have been developed to extract high-level information from great amounts of data. As most data comes in form of unstructured text in natural languages, research on text mining is currently very active and dealing with practical problems. Among these, text categorization deals with the automatic organization of large quantities of documents in priorly defined taxonomies of topic categories, possibly arranged in large hierarchies. In commonly proposed machine learning approaches, classifiers are automatically trained from pre-labeled documents: they can perform very accurate classification, but often require a consistent training set and notable computational effort. Methods for cross-domain text categorization have been proposed, allowing to leverage a set of labeled documents of one domain to classify those of another one. Most methods use advanced statistical techniques, usually involving tuning of parameters. A first contribution presented here is a method based on nearest centroid classification, where profiles of categories are generated from the known domain and then iteratively adapted to the unknown one. Despite being conceptually simple and having easily tuned parameters, this method achieves state-of-the-art accuracy in most benchmark datasets with fast running times. A second, deeper contribution involves the design of a domain-independent model to distinguish the degree and type of relatedness between arbitrary documents and topics, inferred from the different types of semantic relationships between respective representative words, identified by specific search algorithms. The application of this model is tested on both flat and hierarchical text categorization, where it potentially allows the efficient addition of new categories during classification. Results show that classification accuracy still requires improvements, but models generated from one domain are shown to be effectively able to be reused in a different one.
Resumo:
L’argomento trattato in questo elaborato riguarda una nuova tecnologia che si sta sviluppando nell’ambito dell’ingegneria dei tessuti: il Bioprinting. Tale rivoluzionario approccio completamente automatizzato, grazie all’utilizzo dell’elaborazione automatica delle immagini CAD (Computer Aided Design) e la fabbricazione assistita al calcolatore CAM (Computer Aided Manufacturing), si propone di ricreare tessuti e/o organi. In particolare nel seguito ne verrà data una definizione e ne verranno definiti i campi di applicazione, per poi proseguire con un’analisi del processo dal punto di vista delle fasi che lo compongono e la speciale tecnologia utilizzata. Infine verrà proposto qualche studio fatto in merito ai tessuti vascolari e alla cartilagine per poi concludere con i pionieri che tuttora contribuiscono al suo sviluppo e con Organovo, una delle aziende leader del settore.
Resumo:
L’origine di questo elaborato deriva dalla mia volontà di approcciarmi alla letteratura per l’infanzia e confrontarmi con un genere di traduzione mai affrontato prima d’ora. Ho suddiviso il mio lavoro in quattro capitoli. Nel primo capitolo presenterò brevemente la letteratura per l’infanzia e alcune soluzioni adottate nella traduzione di questo genere di opere. Procederò poi con la presentazione dell’autrice e dei suoi principali lavori, per poi concludere con un’introduzione del libro da me scelto e qualche riferimento a Le Petit Nicolas, il capolavoro al quale l’autrice Desmarteau si è ispirata. Nel secondo capitolo svolgerò un’analisi più approfondita del testo di partenza, soffermandomi in primo luogo sulle scelte lessicali adottate dall’autrice. In questa sezione esporrò le possibili difficoltà che a mio avviso si potrebbero riscontrare nella traduzione dei nomi propri, delle espressioni idiomatiche e dei riferimenti culturali . In seguito prenderò in esame il linguaggio giovanile e il ruolo delle immagini all’interno dell’opera. Nel terzo capitolo ho inserito il testo originale del capitolo che ho deciso di tradurre e la mia proposta di traduzione. Concludo infine con un commento generale della mia versione nel quale espongo alcune problematiche incontrate durante lo svolgimento del mio lavoro e le possibili soluzioni pensate.
Resumo:
L’ottica è rivolta allo studio delle proprietà della luce e della sua propagazione attraverso i mezzi materiali. Le applicazioni tradizionali dell’ottica includono le lenti correttive per la vista e la formazione delle immagini nei telescopi e nei microscopi. Le applicazioni moderne comprendono l’immagazzinamento ed il recupero delle informazioni, come nei riproduttori di compact disc, nei lettori di codici a barre in uso nelle casse dei supermercati, o nella trasmissione di segnali attraverso cavi a fibre ottiche, che possono trasportare una maggior quantità di informazioni dei fili in rame. Nel primo capitolo si considereranno casi nei quali la luce viaggia in linea retta e incontra ostacoli la cui dimensione è molto maggiore della lunghezza d’onda della luce. Questo è il dominio dell’ottica geometrica, che include lo studio delle proprietà degli specchi e delle lenti. Il passaggio della luce attraverso fessure molto sottili o attorno a barriere molto strette, le cui dimensioni siano confrontabili con la lunghezza d’onda della luce (a conferma della natura ondulatoria della luce) fa parte dell’ottica fisica o anche detta ottica ondulatoria, di cui si parlerà nel secondo capitolo. Nel terzo capitolo, infine, verranno trattati due metodi che sono stati adoperati nel passato per misurare la maggior peculiarità che possiede la “particella” principe dell’ottica: la velocità della luce.
Resumo:
Il Projection Mapping è una tecnologia che permette di proiettare delle immagini sulla superficie di uno o più oggetti, anche di forma irregolare, trasformandoli in display interattivi. Il suo utilizzo, abbinato a suoni e musiche, permette di creare una narrazione audio-visuale. La suggestione e l’emozione scaturite dalla visione di una performance di Projection Mapping su di un monumento pubblico, hanno stimolato la mia curiosità e mi hanno spinto a cercare di capire se era possibile realizzare autonomamente qualcosa di analogo. Obiettivo di questa tesi è perciò spiegare cos’è il Projection Mapping e fornire una serie di indicazioni utili per realizzarne un’applicazione interattiva con OpenFrameworks (un framework open-source in C++) e hardware a basso costo (un computer, un videoproiettore e un sensore Kinect).
Resumo:
Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.
Resumo:
Questa tesi è incentrata sulla traduzione del libro portoghese Lisboa Misteriosa di Marina Taveres Dias e su come questo libro possa essere analizzato sotto una prospettiva turistica. Il libro è basato sulla capitale del Portogallo, Lisbona, e il suo scopo principale è narrare fatti storici e culturali riguardo la città, dove la realtà si perde nella leggenda. La tesi vuole mostrare come un simile libro storico-culturale può essere un valido strumento nella prospettiva turistica. Il primo capitolo fornisce una presentazione generale del libro, descrivendo i temi, lo stile, l’uso delle immagini all’interno del testo e una breve biografia dell’autrice. Il secondo capitolo presenta i principali aspetti della sociologia del turismo, che serviranno per meglio inquadrare le considerazioni successive. Segue una breve analisi di tra guide turistiche italiane e una comparazione tra queste e il libro tradotto. L’ultima parte del capitolo è dedicata ad illustrare come questo volume mette in luce questi aspetti sociologici del turismo e di come può creare una nuova prospettiva per il turista. Gli ultimi due capitoli presentano la traduzione del libro e l’analisi e il commento riguardo a quest’ultima.
Resumo:
Il presente lavoro di tesi è stato svolto presso il servizio di Fisica Sanitaria del Policlinico Sant'Orsola-Malpighi di Bologna. Lo studio si è concentrato sul confronto tra le tecniche di ricostruzione standard (Filtered Back Projection, FBP) e quelle iterative in Tomografia Computerizzata. Il lavoro è stato diviso in due parti: nella prima è stata analizzata la qualità delle immagini acquisite con una CT multislice (iCT 128, sistema Philips) utilizzando sia l'algoritmo FBP sia quello iterativo (nel nostro caso iDose4). Per valutare la qualità delle immagini sono stati analizzati i seguenti parametri: il Noise Power Spectrum (NPS), la Modulation Transfer Function (MTF) e il rapporto contrasto-rumore (CNR). Le prime due grandezze sono state studiate effettuando misure su un fantoccio fornito dalla ditta costruttrice, che simulava la parte body e la parte head, con due cilindri di 32 e 20 cm rispettivamente. Le misure confermano la riduzione del rumore ma in maniera differente per i diversi filtri di convoluzione utilizzati. Lo studio dell'MTF invece ha rivelato che l'utilizzo delle tecniche standard e iterative non cambia la risoluzione spaziale; infatti gli andamenti ottenuti sono perfettamente identici (a parte le differenze intrinseche nei filtri di convoluzione), a differenza di quanto dichiarato dalla ditta. Per l'analisi del CNR sono stati utilizzati due fantocci; il primo, chiamato Catphan 600 è il fantoccio utilizzato per caratterizzare i sistemi CT. Il secondo, chiamato Cirs 061 ha al suo interno degli inserti che simulano la presenza di lesioni con densità tipiche del distretto addominale. Lo studio effettuato ha evidenziato che, per entrambi i fantocci, il rapporto contrasto-rumore aumenta se si utilizza la tecnica di ricostruzione iterativa. La seconda parte del lavoro di tesi è stata quella di effettuare una valutazione della riduzione della dose prendendo in considerazione diversi protocolli utilizzati nella pratica clinica, si sono analizzati un alto numero di esami e si sono calcolati i valori medi di CTDI e DLP su un campione di esame con FBP e con iDose4. I risultati mostrano che i valori ricavati con l'utilizzo dell'algoritmo iterativo sono al di sotto dei valori DLR nazionali di riferimento e di quelli che non usano i sistemi iterativi.