16 resultados para Ubiquitous and pervasive computing
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Il progresso scientifico e le innovazioni tecnologiche nei campi dell'elettronica, informatica e telecomunicazioni, stanno aprendo la strada a nuove visioni e concetti. L'obiettivo della tesi è quello d'introdurre il modello del Cloud computing per rendere possibile l'attuale visione di Internet of Thing. Nel primo capitolo si introduce Ubiquitous computing come un nuovo modo di vedere i computer, cercando di fare chiarezza sulla sua definizione, la sua nascita e fornendo un breve quadro storico. Nel secondo capitolo viene presentata la visione di Internet of Thing (Internet delle “cose”) che si avvale di concetti e di problematiche in parte già considerate con Ubiquitous computing. Internet of Thing è una visione in cui la rete Internet viene estesa agli oggetti di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati ambientali sono solo alcuni esempi. Per realizzare questo tipo di applicazioni le tecnologie wireless sono da considerare necessarie, sebbene questa visione non assuma nessuna specifica tecnologia di comunicazione. Inoltre, anche schede di sviluppo possono agevolare la prototipazione di tali applicazioni. Nel terzo capitolo si presenta Cloud computing come modello di business per utilizzare su richiesta risorse computazionali. Nel capitolo, vengono inizialmente descritte le caratteristiche principali e i vari tipi di modelli di servizio, poi viene argomentato il ruolo che i servizi di Cloud hanno per Internet of Thing. Questo modello permette di accelerare lo sviluppo e la distribuzione di applicazioni di Internet of Thing, mettendo a disposizione capacità di storage e di calcolo per l'elaborazione distribuita dell'enorme quantità di dati prodotta da sensori e dispositivi vari. Infine, nell'ultimo capitolo viene considerato, come esempio pratico, l'integrazione di tecnologie di Cloud computing in una applicazione IoT. Il caso di studio riguarda il monitoraggio remoto dei parametri vitali, considerando Raspberry Pi e la piattaforma e-Health sviluppata da Cooking Hacks per lo sviluppo di un sistema embedded, e utilizzando PubNub come servizio di Cloud per distribuire i dati ottenuti dai sensori. Il caso di studio metterà in evidenza sia i vantaggi sia le eventuali problematiche che possono scaturire utilizzando servizi di Cloud in applicazioni IoT.
Resumo:
L’obiettivo della tesi è definire un modello che permetta di realizzare applicazioni che integrino diverse tecnologie come la realtà aumentata, pervasive computing e Internet of Things. In particolare si analizza la nozione di "augmentation" che indica un’estensione e un arricchimento delle funzionalità e delle informazioni che possono essere percepite dai sensi umani e che può essere ritrovata, in modo diverso, nelle tecnologie trattate. A tal proposito, si introduce l’idea di augmented world, il cui scopo è quello di realizzare un livello aumentato collegato ad un livello fisico, attraverso il quale permettere l’interazione tra elementi virtuali ed elementi fisici. In seguito, tramite un'analisi tassonomica si vogliono individuare le caratteristiche ed i requisiti fondanti degli ambiti applicativi trattati per poter definire un modello che possa essere utilizzato come riferimento per le diverse tipologie di applicazioni. Infine il modello proposto è stato applicato a diversi casi di studio che spaziano tra i principali contesti applicativi in cui vengono utilizzate le tecnologie illustrate. La modellazione è fatta prescindendo da alcuni aspetti relativi alla comunicazione o alla sincronizzazione tra livello reale e livello aumentato, in quanto l’obiettivo è esporre una prima validazione del modello che permetta di riscontrarne l’adeguatezza ed eventuali limiti per una futura raffinazione.
Resumo:
Il termine pervasive computing incarna l’idea di andare oltre il paradigma dei personal computers: è l’idea che qualsiasi device possa essere tecnologizzato ed interconnesso con un network distribuito, costituendo un nuovo modello di interazione uomo-macchina. All’interno di questo paradigma gioca un ruolo fondamentale il concetto di context-awareness, che fa riferimento all’idea che i computer possano raccogliere dati dall’ambiente circostante e reagire in maniera intelligente e proattiva basandosi su di essi. Un sistema siffatto necessita da un lato di una infrastruttura per la raccolta dei dati dall’ambiente, dall'altro di un supporto per la componente intelligente e reattiva. In tale scenario, questa tesi ha l'obiettivo di progettare e realizzare una libreria per l'interfacciamento di un sistema distribuito di sensori Java-based con l’interprete tuProlog, un sistema Prolog leggero e configurabile, scritto anch'esso in Java ma disponibile per una pluralità di piattaforme, in modo da porre le basi per la costruzione di sistemi context-aware in questo ambiente.
Resumo:
Starting from pervasive computing paradigm, we want to face the new system's requirements, concerning, mainly, self-organisation, situatedness and adaptivity, through the definition and execution of nature-inspired patterns. They are extracted by the study of dynamics in biological systems and we consider for their implementation the biochemical tuple spaces model. In particular, the aim of the thesis is to design and realize a first biochemical extension of TuCSoN (technology based on tuple spaces model) and, then, to verify its capabilities by means of a proper case study, that deals with local self-organisation and competition of services in an open and highly-dynamic environment.
Resumo:
Multifunctional Structures (MFS) represent one of the most promising disruptive technologies in the space industry. The possibility to merge spacecraft primary and secondary structures as well as attitude control, power management and onboard computing functions is expected to allow for mass, volume and integration effort savings. Additionally, this will bring the modular construction of spacecraft to a whole new level, by making the development and integration of spacecraft modules, or building blocks, leaner, reducing lead times from commissioning to launch from the current 3-6 years down to the order of 10 months, as foreseen by the latest Operationally Responsive Space (ORS) initiatives. Several basic functionalities have been integrated and tested in specimens of various natures over the last two decades. However, a more integrated, system-level approach was yet to be developed. The activity reported in this thesis was focused on the system-level approach to multifunctional structures for spacecraft, namely in the context of nano- and micro-satellites. This thesis documents the work undertaken in the context of the MFS program promoted by the European Space Agency under the Technology Readiness Program (TRP): a feasibility study, including specimens manufacturing and testing. The work sequence covered a state of the art review, with particular attention to traditional modular architectures implemented in ALMASat-1 and ALMASat-EO satellites, and requirements definition, followed by the development of a modular multi-purpose nano-spacecraft concept, and finally by the design, integration and testing of integrated MFS specimens. The approach for the integration of several critical functionalities into nano-spacecraft modules was validated and the overall performance of the system was verified through relevant functional and environmental testing at University of Bologna and University of Southampton laboratories.
Resumo:
Nowadays, data handling and data analysis in High Energy Physics requires a vast amount of computational power and storage. In particular, the world-wide LHC Com- puting Grid (LCG), an infrastructure and pool of services developed and deployed by a ample community of physicists and computer scientists, has demonstrated to be a game changer in the efficiency of data analyses during Run-I at the LHC, playing a crucial role in the Higgs boson discovery. Recently, the Cloud computing paradigm is emerging and reaching a considerable adoption level by many different scientific organizations and not only. Cloud allows to access and utilize not-owned large computing resources shared among many scientific communities. Considering the challenging requirements of LHC physics in Run-II and beyond, the LHC computing community is interested in exploring Clouds and see whether they can provide a complementary approach - or even a valid alternative - to the existing technological solutions based on Grid. In the LHC community, several experiments have been adopting Cloud approaches, and in particular the experience of the CMS experiment is of relevance to this thesis. The LHC Run-II has just started, and Cloud-based solutions are already in production for CMS. However, other approaches of Cloud usage are being thought of and are at the prototype level, as the work done in this thesis. This effort is of paramount importance to be able to equip CMS with the capability to elastically and flexibly access and utilize the computing resources needed to face the challenges of Run-III and Run-IV. The main purpose of this thesis is to present forefront Cloud approaches that allow the CMS experiment to extend to on-demand resources dynamically allocated as needed. Moreover, a direct access to Cloud resources is presented as suitable use case to face up with the CMS experiment needs. Chapter 1 presents an overview of High Energy Physics at the LHC and of the CMS experience in Run-I, as well as preparation for Run-II. Chapter 2 describes the current CMS Computing Model, and Chapter 3 provides Cloud approaches pursued and used within the CMS Collaboration. Chapter 4 and Chapter 5 discuss the original and forefront work done in this thesis to develop and test working prototypes of elastic extensions of CMS computing resources on Clouds, and HEP Computing “as a Service”. The impact of such work on a benchmark CMS physics use-cases is also demonstrated.
Resumo:
The historical iron ore deposits of eastern Elba held great importance for the region and were its primary source of iron. The Torre di Rio skarn, despite its easily accessible outcrop and vicinity to the larger Rio Marina deposit, was never properly characterized. The results of petrographic and microthermometric study presented in this work provide new constraints on the Torre di Rio skarn. Mineral assemblage of ilvaite, calcite, quartz, iron oxides and sulphides combined with textural evidence indicate that Torre di Rio skarn does not fit into classical skarn model. The complex paragenetic sequence and overlapping of skarn and ore mineralogy is result of fast formation at relatively low temperatures evidenced by the silicon enrichment and pervasive nature of limonite alteration. Hematite-magnetite textural relationship points to boundary conditions of the ore fluid in terms of oxygen fugacity. Eutectic temperatures range from -16 to -33 °C indicating complex fluids. Calculated salinities range from 1.4 to 17.4 wt% NaCleq suggesting multiple fluids of different compositions. Total homogenization temperatures vary from 330 °C to 150 °C with both homogeneously and heterogeneously trapped FIAs. Ore deposition is concentrated where skarn formation was controlled primarily by phase separation during boiling. Calculated fluid pressure at boiling suggest shallow formation depth of a few hundred meters and constrains maximum temperature of ore deposition to c. 260 °C. This work suggest that relatively low salinities of fluid inclusions could indicate dominant marine origin of the hydrothermal fluids that were activated by the Porto Azzurro pluton emplacement and that scavenged Fe from sedimentary host rocks. During boiling at shallow depths and decreasing iron solubility, these fluids started precipitating Fe-minerals at Torre di Rio mineralization. Mixing with batches of more saline fluids at around 236 °C increased salinity abruptly and marked the end of ore deposition.
Resumo:
Lo scopo della tesi è esplorare il nuovo dualismo tra calcolo situato e calcolo come mero servizio immateriale che si osserva nel rafforzarsi di due paradigmi apparentemente antitetici come Cloud Computing e Pervasive Computing. Si vuole quindi dimostrare che i due paradigmi sono complementari, e possibilmente sviluppare un modello e un approccio metodologico per sistemi distribuiti che sfrutti opportunamente le caratteristiche dei due paradigmi. A tale scopo si utilizzerà come caso di studio il modello TuCSoN con linguaggio ReSpecT, combinando opportunamente Situated ReSpecT con il modello Coordination as a Service (CaaS) espresso da TuCSoN on Cloud.
Resumo:
Lo scopo della tesi è quello di definire un modello di astrazione di coordinazione space-aware nell'ottica dei dispositivi mobili e del pervasive computing, concentrandosi in particolare sul modello TuCSoN e sui tuple centre ReSpecT.
Resumo:
I sistemi software nati dall'esigenza di supportare agevolmente ed efficacemente il lavoro cooperativo, in particolare quelli orientati al supporto di azioni di soccorso in scenari di emergenza, appaiono tutt'ora fortemente limitati e frammentati. In molti casi vengono affrontate solamente specifiche dimensioni del problema complessivo, anche se il livello al quale è giunto lo sviluppo tecnologico e i risultati osservati in ambito di ricerca permettono di delineare soluzioni complete e significative per l'impiego in ambiti reali. Tale tipologia di sistemi è stata scelta per il grande interesse che desta sia dal punto di vista accademico, essendo costituita da molteplici sotto--sistemi spesso eterogenei che debbono necessariamente interagire e supportare l'azione umana, sia dal punto di vista industriale, interpretando la necessità crescente di iniettare nel maggior numero possibile di livelli sociali la forte dipendenza (il supporto allo stesso tempo) dalle scienze tecnologiche ed informatiche, per rafforzare e talvolta estendere le possibilità dell'essere umano in quanto tale. Dopo una prima fase in cui verrà delineato un quadro concettuale piuttosto dettagliato circa i principali elementi e problematiche che caratterizzano la classe di sistemi considerati, sarà dato spazio alla validazione di tali principi e considerazioni emerse, confrontandosi con la progettazione e sviluppo in forma prototipale di un sotto--sistema relativo ad un caso di studio reale, significativo per l'ambito di applicazione, nato dalla collaborazione con l'Università degli Studi di Bologna di un'azienda della regione Emilia--Romagna. Il sistema software realizzato vuole essere innanzi tutto la risposta alle esigenze emerse nel caso di studio trattato, in modo tale da potersi sostituire agli attuali limitati supporti alla cooperazione, ma anche un esperimento che possa essere considerato un artefatto centrale da utilizzare come base di conoscenza condivisa, in cui vengano fattorizzati i concetti e meccanismi chiave, fondamentali per sviluppi futuri.
Resumo:
La tesi propone una soluzione middleware per scenari in cui i sensori producono un numero elevato di dati che è necessario gestire ed elaborare attraverso operazioni di preprocessing, filtering e buffering al fine di migliorare l'efficienza di comunicazione e del consumo di banda nel rispetto di vincoli energetici e computazionali. E'possibile effettuare l'ottimizzazione di questi componenti attraverso operazioni di tuning remoto.
Resumo:
Il progetto si propone di dotare la realta fisica di un estensione digitale. Sensori, attuatori e tecnologie embedded hanno cambiato il nostro modo di lavorare, allenarci e seguire i nostri interessi. Il mondo del commercio non e rimasto a guardare ed ha dovuto adattarsi alla metamorfosi high-tech del settore dei servizi. Il sistema proposto costituisce un promotore per acquisti ed un raccoglitore intelligente di abitudini sullo shopping e si compone di applicazione mobile, microcontroller e web server. Caratteristica prima e principale del progetto e sicuramente la pervasivita. All'utente ed utilizzatore dell'app dello shopping center deve essere certamente resa nota la collaborazione al fine di raccogliere dati statistici sulle sue abitudini, tuttavia sono le modalita di tale operazione a dover rimanere velate, in modo da non appesantire il cliente con tediose operazioni di invio di feedback e valutazioni ed allo stesso tempo permettere una raccolta capillare delle informazioni. Parallelamente alla raccolta di dati funzionali al producer, sono state implementate features per il consumatore, come notifiche promozionali place-triggered e pubblicita mirata. Tra tutte le tecnologie adibite allo scambio di informazioni, si e scelto l'utilizzo del Bluetooth e del piu recente Bluetooth Low Energy (BLE) per permettere ai dispositivi di comunicare tra loro.
Resumo:
L'obiettivo principale di questa tesi è quello di approfondire il tema della comunicazione e sincronizzazione dati nel contesto di uno specifico caso di studio di sistema informatico a supporto del lavoro cooperativo per il soccorso in emergenza: a partire dai requisiti del caso applicativo, secondo cui agli operatori deve essere possibile utilizzare il sistema anche a fronte di disconnessioni dei propri dispositivi mobili, emerge infatti la necessità di un middleware a cui il livello applicativo demandi le funzionalità di sincronizzare le informazioni prodotte durante le operazioni, in modo da promuovere uno scambio di informazioni che migliori e supporti l'azione del singolo e conseguentemente del team. Quindi, dopo aver introdotto la tematica ed analizzato il caso di studio da affrontare, viene descritta l'esplorazione del panorama tecnologico volta alla ricerca di strumenti o approcci che possano mitigare la complessità nella realizzazione di questa funzionalità. Nel panorama tecnologico considerato, comprendente framework per servizi web, MOM e database, uno strumento di particolare interesse è stato individuato in CouchDB, un database NoSQL, grazie alle sue funzionalità di replica e sincronizzazione e alla presenza di una libreria per lo sviluppo su dispositivi mobili: su di esso è stata effettuata una breve fase di sperimentazione volta a saggiarne in maniera più concreta le potenzialità anche in relazione alla valutazione di fattibilità per il caso applicativo considerato.
Resumo:
Mobile devices are now capable of supporting a wide range of applications, many of which demand an ever increasing computational power. To this end, mobile cloud computing (MCC) has been proposed to address the limited computation power, memory, storage, and energy of such devices. An important challenge in MCC is to guarantee seamless discovery of services. To this end, this thesis proposes an architecture that provides user-transparent and low-latency service discovery, as well as automated service selection. Experimental results on a real cloud computing testbed demonstrated that the proposed work outperforms state of-the-art approaches by achieving extremely low discovery delay.