867 resultados para Telemedicina, Body Area Network, Tecnologie Wireless, Standard di comunicazione, Sensori


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Maintaining a high level of data security with a low impact on system performance is more challenging in wireless multimedia applications. Protocols that are used for wireless local area network (WLAN) security are known to significantly degrade performance. In this paper, we propose an enhanced security system for a WLAN. Our new design aims to decrease the processing delay and increase both the speed and throughput of the system, thereby making it more efficient for multimedia applications. Our design is based on the idea of offloading computationally intensive encryption and authentication services to the end systems’ CPUs. The security operations are performed by the hosts’ central processor (which is usually a powerful processor) before delivering the data to a wireless card (which usually has a low-performance processor). By adopting this design, we show that both the delay and the jitter are significantly reduced. At the access point, we improve the performance of network processing hardware for real-time cryptographic processing by using a specialized processor implemented with field-programmable gate array technology. Furthermore, we use enhanced techniques to implement the Counter (CTR) Mode with Cipher Block Chaining Message Authentication Code Protocol (CCMP) and the CTR protocol. Our experiments show that it requires timing in the range of 20–40 μs to perform data encryption and authentication on different end-host CPUs (e.g., Intel Core i5, i7, and AMD 6-Core) as compared with 10–50 ms when performed using the wireless card. Furthermore, when compared with the standard WiFi protected access II (WPA2), results show that our proposed security system improved the speed to up to 3.7 times.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A compact ultra-wideband (UWB) printed slot antenna is described, suitable for integration with the printed circuit board (PCB) of a wireless, universal, serial-bus dongle. The design comprises of a near-rectangular slot fed by a coplanar waveguide (CPW) printed on a PCB of size 20 × 30 mm2. It has a large bandwidth covering the 3.1–10.6 GHz UWB band, with omnidirectional radiation patterns. Further, a notched band centered at 5.45 GHz wireless local area network bands is obtained within the wide bandwidth by inserting a narrow slot inside the tuning stub. Details of the antenna design are described, and the experimental results of the constructed prototype are presented. The time domain studies on the antenna shows a linear phase response throughout the band except at the notched frequency. The transient analysis of the antenna indicates very little pulse distortion confirming its suitability for high speed wireless connectivity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work presents a wideband low-distortion sigmadelta analog-to-digital converter (ADC) for Wireless Local Area Network (WLAN) standard. The proposed converter makes use of low-distortion swing suppression SDM architecture which is highly suitable for low oversampling ratios to attain high linearity over a wide bandwidth. The modulator employs a 2-2 cascaded sigma-delta modulator with feedforward path with a single-bit quantizer in the first stage and 4-bit in the second stage. The modulator is designed in TSMC 0.18um CMOS technology and operates at 1.8V supply voltage. Simulation results show that, a peak SNDR of 57dB and a spurious free dynamic range (SFDR) of 66dB is obtained for a 10MHz signal bandwidth, and an oversampling ratio of 8.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A method to map all the variants of the IEEE 802.11 MAC frames into the Multiband OFDM based ECMA-368 Physical standard is proposed, without contravening the standard. The transportation of IEEE 802.11 MAC frames over ECMA-368 allows for the migration current of Wireless LAN applications towards a Wireless Personal Area Network (WPAN) solution. This system benefits the Consumer Electronics Market as the high data-rate WPAN is capable of transporting broadcast-quality video while the same system can also transport existing applications available today, maintaining existing effort, products and backward-compatibility(1).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper was proposed the development of an heterogeneous system using the microcontroller (AT90CANI28) where the protocol model CAN and the standard IEEE 802.15.4 are connected. This module is able to manage and monitor sensors and actuators using CAN and, through the wireless standard 802.15.4, communicate with the other network modules. © 2011 IEEE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con questo studio si è volto effettuare un confronto tra la generazione di energia termica a partire da cippato e da pellet, con particolare riferimento agli aspetti di carattere ambientale ed economico conseguenti la produzione delle due differenti tipologie di combustibile. In particolare, si sono ipotizzate due filire, una di produzione del cippato, una del pellet, e per ciascuna di esse si è condotta un'Analisi del Ciclo di Vita, allo scopo di mettere in luce, da un lato le fasi del processo maggiormente critiche, dall'altro gli impatti sulla salute umana, sugli ecosistemi, sul consumo di energia e risorse. Quest'analisi si è tradotta in un confronto degli impatti generati dalle due filiere al fine di valutare a quale delle due corrisponda il minore. E' stato infine effettuato un breve accenno di valutazione economica per stimare quale tipologia di impianto, a cippato o a pellet, a parità di energia prodotta, risulti più conveniente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti di distribuzione idrica conservano un ruolo importante ed irrinunciabile nella sicurezza antincendio, ma diversi fattori sul piano normativo e strutturale limitano la loro potenzialità  nelle fasi di estinzione dell'incendio. Ma in che modo si è evoluta in Italia negli ultimi anni la lotta all'incendio? E' ormai noto che non esistono incendi standard, quelli per i quali è possibile definire procedure d'intervento e modalità  di estinzione; non è quindi banale identificare le portate antincendio necessarie (Needed Fire Flow) e il tempo per il quale esse devono essere garantite. In certi contesti è possibile ipotizzare un certo standard d'incendio ma ciò presuppone che edifici, strutture e tutto ciò che è sottoposto ad incendio, possano essere considerati fabbricati a "regola d'arte", ovvero realizzati attraverso procedure esecutive aventi standard di qualità  certificata. Ciò è stato affrontato nei criteri di realizzazione delle nuove costruzioni, ma le vecchie costruzioni, soprattutto gli edifici presenti nei centri storici, sono evidentemente più vulnerabili e sfuggono alla possibilità  di identificare affidabili valori del NFF. Il quadro che si presenta coinvolge quindi carenze normative, contesti urbani con differente vulnerabilità  e una sostanziale disomogeneità  prestazionale delle reti di distribuzione idrica presenti nel territorio nazionale, legata non solo alla disponibilità  idrica ma, anche e soprattutto, alla conformazione della rete, ai livelli di pressione ed alla specifica capacità della rete nel sostenere incrementi di flusso dovuto al prelievo dagli idranti stradali. La scarsa conoscenza di questi aspetti, piuttosto che tradursi in miglioramenti della rete idrica e della sua efficienza ai fini antincendio, ha portato nel tempo ad adottare soluzioni alternative che agiscono principalmente sulle modalità operative di utilizzo dei mezzi dei VV.F. e sul fronte dei dispositivi antincendio privati, quali una migliore protezione passiva, legata all'uso di materiali la cui risposta all'incendio fosse la minore possibile, e protezioni attive alternative, quali impianti sprinkler, di tipo aerosol o misti. Rimangono tutte le problematiche legate alla caratterizzazione nell'area urbanizzata in termini di risposta al prelievo per incendio dagli idranti pubblici sui quali la normativa vigente non impone regole circa le prestazioni e la loro dislocazione sul territorio. Questa incertezza spesso si traduce in un maggiore dispiego di mezzi rispetto all'entità dell'incendio ed ad una scarsa possibilità  di ottimizzare l'allocazione delle unità  operative dei VV.F., con un evidente incremento del rischio nel caso in cui si verifichino più eventi di incendio contemporaneamente. La simulazione numerica avanzata, su modelli opportunamente calibrati delle reti di distribuzione, può consentire una maggiore comprensione quantitativa del livello di sicurezza antincendio offerto da una rete di distribuzione idrica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di progettare e sviluppare un sistema informatico in grado di verificare la possibilità di bypassare le comuni misure di sicurezza al fine di indicare soluzioni e strategie difensive efficaci. Più in dettaglio ci occuperemo di simulare gli atteggiamenti di un hacker, alta- mente invasivi e pericolosi, atti a compromettere l’intero sistema telematico su scala mondiale. Studiando i social network e le informazioni personali, ci si è resi conto, infatti, di come sia facile ed altamente probabile causare gravi danni sia all’intera popolazione del web che all’integrità delle infrastrutture telematiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca indaga le dinamiche socio - economiche in atto in rapporto con le trasformazioni territoriali e valuta in quale misura la pianificazione territoriale ed urbanistica sia in grado di soddisfare le attuali esigenze nella gestione del territorio, urbanizzato e non. La riflessione parte dalla necessità di capire come un territorio possa conservare vitalità nel momento in cui si ritrova all’interno di un sistema di dinamiche che non si rivolge più ad ambiti di riferimento vicini (fino ad una decina d’anni fa la competitività veniva misurata, generalmente, tra regioni contermini, al massimo con riferimento ai trend nazionali), ma che necessita di confrontarsi per lo meno con le realtà regionali europee, se non, per certi versi, con la scala mondiale, globale appunto. La generalità della tematica ha imposto, di conseguenza, l’individuazione di un case book al quale riferirsi così da approfondirla attraverso una conoscenza diretta di un preciso ambito territoriale. È stato scelto, quale esemplificazione, il territorio della regione Veneto, con particolare riferimento all’area centrale. La ragione di tale scelta è da individuarsi, oltre che in motivi meramente strumentali, nel fatto che il Veneto, tra le regioni italiane, tuttora si configura come un territorio soggetto a forti trasformazioni indotte dalle dinamiche socio - economiche. Infatti da un primo periodo veneto, legato alla costruzione dell’armatura territoriale articolata su una molteplicità di poli diffusi sul territorio, si è passati al Secondo Veneto, quello della diffusione produttiva, dei capannoni, della marmellata urbanistica, del consumo del suolo. L’epoca attuale risponde poi ad un Terzo Veneto, un periodo forse di transizione verso un nuovo assetto. Il punto di partenza è stato dunque quello della delimitazione dell’area di riferimento, attraverso il riconoscimento di quei caratteri territoriali che la contraddistinguono da altre aree all’interno della regione stessa e su scala europea. Dopo una prima descrizione in chiave descrittiva e storico - evolutiva rivolta alla comprensione dei fenomeni in atto (diffuso e frammentazione insediativa tra i principali) si è passati ad una lettura quantitativa che consentisse, da un lato, di comprendere meglio alcuni caratteri della Regione e, dall’altro, di confrontarla con la scala globale, che si è scelto essere per la realtà considerata quella dell’Unione Europea. Le problematiche, i punti di forza e di debolezza emersi hanno consentito di formulare alcune ipotesi volte al miglioramento del territorio dell’area centrale veneta attraverso un processo che individuasse, non solo gli attori interessati alla trasformazione, ma anche gli strumenti maggiormente idonei per la realizzazione degli stessi. Sono emerse così le caratteristiche che potrebbe assumere il Quarto Veneto, il Veneto che verrà. I temi trattati spaziano dall’individuazione dei metodi di governance che, tramite il processo di visioning, siano in grado di individuare le priorità, di definire l’intensità d’uso, la vocazione dei luoghi e chi siano gli operatori interessati, all’integrazione tra i valori della storia e della cultura territoriale con i nuovi modi del fare (nuove tecnologie), fino all’individuazione di strumenti di coesione economica, sociale e territoriale per scongiurare quei rischi di disgregazione insiti nella globalizzazione. La ricerca si è dunque concretizzata attraverso un approccio euristico alla problematica delle trasformazioni territoriali, in cui il tema della scala di riferimento (locale - globale), ha consentito di valutare esperienze, tecniche e progetti volti al raggiungimento di livelli di sviluppo territoriale ed urbano sostenibili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In recent years, due to the rapid convergence of multimedia services, Internet and wireless communications, there has been a growing trend of heterogeneity (in terms of channel bandwidths, mobility levels of terminals, end-user quality-of-service (QoS) requirements) for emerging integrated wired/wireless networks. Moreover, in nowadays systems, a multitude of users coexists within the same network, each of them with his own QoS requirement and bandwidth availability. In this framework, embedded source coding allowing partial decoding at various resolution is an appealing technique for multimedia transmissions. This dissertation includes my PhD research, mainly devoted to the study of embedded multimedia bitstreams in heterogenous networks, developed at the University of Bologna, advised by Prof. O. Andrisano and Prof. A. Conti, and at the University of California, San Diego (UCSD), where I spent eighteen months as a visiting scholar, advised by Prof. L. B. Milstein and Prof. P. C. Cosman. In order to improve the multimedia transmission quality over wireless channels, joint source and channel coding optimization is investigated in a 2D time-frequency resource block for an OFDM system. We show that knowing the order of diversity in time and/or frequency domain can assist image (video) coding in selecting optimal channel code rates (source and channel code rates). Then, adaptive modulation techniques, aimed at maximizing the spectral efficiency, are investigated as another possible solution for improving multimedia transmissions. For both slow and fast adaptive modulations, the effects of imperfect channel estimation errors are evaluated, showing that the fast technique, optimal in ideal systems, might be outperformed by the slow adaptive modulation, when a real test case is considered. Finally, the effects of co-channel interference and approximated bit error probability (BEP) are evaluated in adaptive modulation techniques, providing new decision regions concepts, and showing how the widely used BEP approximations lead to a substantial loss in the overall performance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tecnologie sostenibili per il social housing”: la mia tesi affronta il tema dell’edilizia sociale cercando di capire se può ancora diventare un campo di ricerca e sperimentazione architettonica come lo è stato in più occasioni nell’ultimo secolo. La ricerca si è sviluppata in due fasi: una prima attività di studio della vicenda storica dell’abitazione sociale in Italia, con alcuni confronti europei, fino ad analizzare il nuovo quadro che si è andato delineando dalla fine degli anni ’90 e che caratterizza la situazione attuale. Successivamente, la progettazione di un piccolo intervento di edilizia abitativa che si propone di rispondere agli attuali profili della domanda, puntando a scelte tipologiche e costruttive coerenti. Nel trentennio 1950-’80, nell’Europa uscita dalla Seconda guerra mondiale, e in Italia in particolare, l’edilizia popolare ha vissuto un periodo dinamico, ricco di interventi normativi da parte dello Stato, (su tutte la legge Fanfani, e le norme Gescal) che hanno permesso di realizzare molti degli edifici ancora oggi utilizzati, accelerando la ripresa economica e sociale. Dopo gli anni ’80, le ricerche e le sperimentazioni in campo architettonico si spostano verso altri temi; superata la necessità di fornire una casa a milioni di persone, il tema dell’alloggio sembra perdere il forte rilievo sociale che aveva avuto nei decenni precedenti. Fino a ritenere che il tema dell’alloggio e in particolare dell’alloggio sociale, non avesse più la necessità di essere sperimentato e approfondito. Oggi la situazione riguardante la sperimentazione non è molto diversa: sono ancora molto limitati, infatti, gli studi e le ricerche sul tema dell’alloggio sociale. Ciò che è nuovamente mutata, invece, è l’emergenza di una nuova domanda di casa e la drammatica esigenza sociale di fornire un alloggio a milioni di famiglie che non se lo possono permettere. Le dinamiche che guidano questa nuova ondata di richiesta di alloggi sono molteplici, sia di natura sociale che economica. Sul piano sociale: - l’aumento del numero delle famiglie, passate da 22.226.000 nel 200o a 24.642.000 nel 2010, con un aumento del 9,8% in un solo decennio; - la “nuclearizzazione” delle famiglie e la loro contrazione dimensionale, fino agli attuali 2,4 componenti per nucleo; - l’invecchiamento della popolazione; - l’aumento della popolazione straniera, con oltre 3.900.000 di immigrati regolari. Su quello economico: - l’aumento della povertà assoluta: in Italia 1.162.000 famiglie (4,7%) corrispondenti a 3.074.000 individui vivono sotto la soglia di povertà; - l’aumento della povertà relativa, che investe oggi 2.657.000 famiglie (9,3%) e l’aumento delle famiglie a rischio di povertà (920.000 famiglie, pari al 3,7% dei nuclei). Questi dati evidenziano la dimensione del problema abitativo e smentiscono l’opinione che si tratti di una questione marginale: nel 2010 in Italia almeno 1.162.000 non hanno le risorse per pagare un affitto, nemmeno a canone agevolato, e 4.739.000 famiglie non riescono a pagare un affitto ai prezzi del libero mercato, ma non hanno la possibilità di entrare nelle graduatorie per l’assegnazione di un alloggio sociale. Da questa panoramica sulle dimensioni del disagio abitativo, prende spunto la progettazione del mio sistema costruttivo, che si pone come obiettivo quello di ridurre i costi di costruzione tramite la standardizzazione dei componenti, consentendo di conseguenza, un minor costo di costruzione e quindi la possibilità di canoni di affitto ridotti, mantenendo buoni standard di qualità degli alloggi, sostenibilità ambientale e risparmio energetico. Le linee guida che hanno portato alla progettazione del sistema sono: - modularità degli spazi abitativi - zonizzazione funzionale - razionalizzazione impiantistica - illuminazione naturale - industrializzazione dei sistema costruttivo - standardizzazione dei componenti. Il risultato è un catalogo di alloggi di diverse metrature, aggregabili secondo tre tipologie residenziali. - a ballatoio - in linea - a torre Messo a punto questo sistema costruttivo, è stato progettato un intervento in un contesto specifico, per verificare l’applicabilità delle soluzioni sviluppate ed esplorarne alcune possibilità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’argomento scelto riguarda l’adozione di standard privati da parte di imprese agro-alimentari e le loro conseguenze sulla gestione globale dell’azienda. In particolare, lo scopo di questo lavoro è quello di valutare le implicazioni dovute all’adozione del BRC Global Standard for Food Safety da parte delle imprese agro-alimentari italiane. La valutazione di tale impatto è basata sulle percezioni dei responsabili aziendali in merito ad aspetti economici, gestionali, commerciali, qualitativi, organizzativi. La ricerca ha seguito due passaggi fondamentali: innanzitutto sono state condotte 7 interviste in profondità con i Responsabili Qualità (RQ) di aziende agro-alimentari italiane certificate BRC Food. Le variabili estrapolate dall’analisi qualitativa del contenuto delle interviste sono state inserite, insieme a quelle rilevate in letteratura, nel questionario creato per la successiva survey. Il questionario è stato inviato tramite e-mail e con supporto telefonico ad un campione di aziende selezionato tramite campionamento random. Dopo un periodo di rilevazione prestabilito, sono stati compilati 192 questionari. L’analisi descrittiva dei dati mostra che i RQ sono in buona parte d’accordo con le affermazioni riguardanti gli elementi d’impatto. Le affermazioni maggiormente condivise riguardano: efficienza del sistema HACCP, efficienza del sistema di rintracciabilità, procedure di controllo, formazione del personale, miglior gestione delle urgenze e non conformità, miglior implementazione e comprensione di altri sistemi di gestione certificati. Attraverso l’analisi ANOVA fra variabili qualitative e quantitative e relativo test F emerge che alcune caratteristiche delle aziende, come l’area geografica, la dimensione aziendale, la categoria di appartenenza e il tipo di situazione nei confronti della ISO 9001 possono influenzare differentemente le opinioni degli intervistati. Successivamente attraverso un’analisi fattoriale sono stati estratti 8 fattori partendo da un numero iniziale di 28 variabili. Sulla base dei fattori è stata applicata la cluster analysis di tipo gerarchico che ha portato alla segmentazione del campione in 5 gruppi diversi. Ogni gruppo è stato interpretato sulla base di un profilo determinato dal posizionamento nei confronti dei vari fattori. I risultati oltre ad essere stati validati attraverso focus group effettuati con ricercatori ed operatori del settore, sono stati supportati anche da una successiva indagine qualitativa condotta presso 4 grandi retailer inglesi. Lo scopo di questa successiva indagine è stato quello di valutare l’esistenza di opinioni divergenti nei confronti dei fornitori che andasse quindi a sostenere l’ipotesi di un problema di asimmetria informativa che nonostante la presenza di standard privati ancora sussiste nelle principali relazioni contrattuali. Ulteriori percorsi di ricerca potrebbero stimare se la valutazione dell’impatto del BRC può aiutare le aziende di trasformazione nell’implementazione di altri standard di qualità e valutare quali variabili possono influenzare invece le percezioni in termini di costi dell’adozione dello standard.