473 resultados para cammino, acqua, bande, normalità, accuratezza, sensori, inerziali


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi è stato svolto presso l’azienda Ecosurvey® - 3000 Srl, con sede a Bologna. Ecosurvey® fornisce servizi e consulenze nel campo della geologia e delle scienze ambientali e opera in diversi ambiti, tra cui le bonifiche del suolo, del sottosuolo e delle acque sotterranee. L’inquinamento del suolo e del sottosuolo è, infatti, il contesto dello studio di questa tesi. Tale inquinamento è persistente: con riferimento ai fenomeni di contaminazione, il sottosuolo registra la storia industriale di un sito. L’approccio che tenta di coniugare i bisogni dell’uomo nella società con il rispetto dell’ambiente è lo sviluppo sostenibile, ovvero, secondo la World Commission on Environment and Development, uno sviluppo che soddisfa i bisogni del presente senza compromettere la possibilità delle generazioni future di soddisfare i propri. Tra i molti ambiti in cui si applica il concetto di sostenibilità, è da ricordare quello delle bonifiche dei siti contaminati. A tal proposito, l’United States Environmental Protection Agency nel 2008 ha introdotto il concetto di “green remediation” come la pratica del considerare tutti gli effetti ambientali di un’azione di bonifica, includendo nel processo opzioni in grado di minimizzarne l’impronta ambientale. Nel 2013 la società Battelle, con i servizi tecnici ambientali di U.S. Navy, e U.S. Army Corps of Engineers ha sviluppato un applicativo denominato SiteWiseTM per la valutazione degli impatti ambientali associati alle tecnologie di bonifica delle acque sotterranee. Nell’ambito di questa tesi, in riferimento ad un intervento di bonifica presso un impianto di produzione di bitumi in attività, contaminato da idrocarburi, idrocarburi aromatici e composti organo-clorurati, con l’applicativo sono stati esaminati i principali indicatori dell’impronta ecologica (emissioni di gas serra, di ossidi di azoto, di zolfo e di polveri sottili; consumi di acqua, suolo ed energia) per tre diverse opzioni di bonifica, effettuandone poi il confronto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Lago di Cavazzo (o dei Tre Comuni) è il più esteso lago naturale del Friuli Venezia Giulia. Situato nelle Prealpi Carniche, in provincia di Udine, è ubicato in un’antica valle scavata in epoca pre – glaciale dal fiume Tagliamento, che oggi scorre circa 3 km ad Est. A partire dagli anni ’40, la S.A.D.E. (ora Edipower) ottenne le concessioni per la costruzione di una serie di impianti idroelettrici in tutto il Friuli Venezia Giulia che nel 1954 portò alla realizzazione della Centrale idroelettrica di Somplago, costruita in caverna lungo la sponda Nord – occidentale del lago. La Centrale turbina le acque di scarico provenienti dai bacini di accumulo superiori («Lumiei», «Ambiesta») e da altre prese minori sul Tagliamento, immettendo a sua volta le acque turbinate all’interno del lago di Cavazzo tramite galleria. Dai dati disponibili in letteratura, dalle cronache e dai resoconti riportati dalla popolazione locale, l’attività della Centrale ha notevolmente influenzato l’equilibrio di questo ambiente, in termini geologici, biologici ed idrologici, soprattutto a causa dell’enorme volume di acqua fredda (e relativi sedimenti) scaricata, delle continue variazioni di livello dell’acqua per regolarne il volume di invaso e dello scavo del canale emissario, localizzato nell’estremità meridionale. Nel Maggio 2015 l’ISMAR – CNR di Bologna ha effettuato un rilievo geofisico del lago, tramite tecniche non distruttive di ecografia e sismica a riflessione, in grado di analizzare la stratigrafia superficiale e la distribuzione degli apporti sedimentari, con lo scopo di quantificare da questo punto di vista l’impatto della Centrale sul lago. I dati acquisiti, che comprendono profili sismici ad alta risoluzione, profili batimetrici single/multi – beam ed immagini side – scan sonar, sono stati successivamente elaborati per realizzare varie mappe tematiche (morfobatimetria, riflettività, gradiente topografico e spessore dei sedimenti penetrabili dal segnale sismico) che hanno permesso di descrivere l’attuale assetto deposizionale del lago. Sono stati inoltre effettuati alcuni carotaggi in vari punti della conca lacustre, al fine di quantificare il tasso di sedimentazione e le caratteristiche fisiche dei depositi. Scopo di questo lavoro di Tesi è stato analizzare, interpretare e discutere in una prospettiva di evoluzione ambientale del lago i dati geofisici e geologici raccolti nell’ambito della campagna del Maggio 2015 e reperiti in bibliografia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio dello sviluppo delle attività motorie fondamentali (FMS) nei bambini sta acquisendo in questi anni grande importanza, poiché la padronanza di queste ultime sembra essere correlata positivamente sia con la condizione di benessere fisico, sia con il mantenimento di alti livelli di autostima; si ritiene inoltre che possano contribuire al mantenimento di uno stile di vita sano in età adulta. In questo elaborato di tesi viene preso in considerazione un test di riferimento per la valutazione delle FMS, il TMGD – 2. Lo scopo è quello di fornire una valutazione quantitativa delle performance delle FMS, sulla base degli standard proposti dal protocollo TGMD-2, mediante una versione strumentata del test, utilizzando delle Inertial Measurement Unit (IMU). Questi sensori consentono di superare il limite posto dalla soggettività nella valutazione dell’operatore e permettono di esprimere un giudizio in maniera rapida e automatica. Il TGMD-2 è stato somministrato, in versione strumentata, a 91 soggetti di età compresa tra i 6 e i 10 anni. Sono stati ideati degli algoritmi che, a partire dai segnali di accelerazione e velocità angolare acquisiti mediante le IMU, consentono di conferire una valutazione a ciascuno dei task impartito dal TGMD – 2. Gli algoritmi sono stati validati mediante il confronto fra i risultati ottenuti e i giudizi di un valutatore esperto del TGMD-2, mostrando un alto grado di affinità, in genere tra l’80% e il 90%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto vuole realizzare un sistema ultra low power, in grado di monitorare variabili fisiche quali temperatura e conducibilità dell'acqua nelle profondità marine in autonomia, per una durata complessiva di due anni. Il salvataggio dei dati raccolti nel periodo di utilizzo avrà come fine ultimo lo studio dei cambiamenti climatici relativi all'ambiente marino. Volendo collocare il sistema di monitoraggio sul dorso di pesci o in profondità oceaniche non facilmente accessibili è necessario garantire dimensioni ridotte e un funzionamento autonomo duraturo al termine del quale sarà possibile scaricare i dati raccolti. Nel tentativo di rispettare la specifica relativa al ciclo di lavoro autonomo del sistema è stato importante adottare una politica rigorosa riguardante i consumi estremamente ridotti, senza però venir meno alle ulteriori specifiche di progetto, riportate in dettaglio nei paragrafi successivi. Dalla progettazione circuitale alla realizzazione del firmware, passando per una minuziosa scelta della componentistica a minor consumo, ho avuto la possibilità di dar vita all'intero progetto in autonomia, confrontandomi con tutti gli aspetti e le problematiche che la realizzazione di un simile progetto porta con se.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, la popolazione è stata esposta a vari tipi di campi elettromagnetici generati da strumentazioni elettroniche e dispositivi di telecomunicazione. In questa tesi, si valutano SAR ed effetti termici prodotti da tre antenne patch a radiofrequenza sia su Cheratinociti (cellule dell'epidermide) in vitro che sull'epidermide umana in vivo caratterizzata in un modello multistrato contenente tessuti biologici. Le antenne progettate hanno frequenze di risonanza di 1.8 e 2.4 GHz, tipiche delle bande utilizzate rispettivamente da LTE (Long Term Evolution, la più recente evoluzione degli standard di telefonia mobile cellulare) e dalle moderne tecnologie Wi-Fi, e di 60 GHz, propria delle cosiddette onde millimetriche. Vengono valutati quindi il SAR (Specific Absorption Rate, grandezza che fornisce una misura dell'assorbimento delle onde da parte dei tessuti biologici) e le variazioni di temperatura prodotte dall'applicazione del campo elettromagnetico: ciò viene realizzato attraverso l'equazione del calore stazionaria e, nel caso dell'epidermide in vivo, con la Bioheat Equation, che contempla anche la circolazione sanguigna ed il calore generato nei processi metabolici che avvengono nell'organismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi ci siamo concentrati su ponte pedonale di Vagli, celebre opera dell’ing. Riccardo Morandi progettata nel 1953. Tale opera, che appartiene ora all’archeologia industriale, è molto interessante per le soluzioni costruttive adottate al tempo, per la fama del progettista e per il fatto di essere un raro esempio di ponte con fondazioni sommerse entro un invaso artificiale, e per essere stato costruito in una zona in cui la progettazione antisismica moderna prevedrebbe accortezze molto diverse. È stato pertanto deciso di effettuare una caratterizzazione dinamica completa del suolo di fondazione e della struttura stessa, sia dal punto di vista sperimentale in condizioni passive che dal punto di vista teorico-modellistico in condizioni attive (cioè in presenza di terremoto). La caratterizzazione dinamica sperimentale dell’opera è stata effettuata prima ad invaso completamente svuotato e quindi con i pilastri del ponte a contatto con l’aria.La caratterizzazione è stata poi ripetuta in condizioni di invaso riempito, con circa 15 metri di acqua. Questo caso di studio si rivela particolarmente interessante per comprendere come il livello dell’acqua modifichi o meno il comportamento dinamico del ponte, e le implicazioni che questo avrebbe nella progettazione sismica moderna. I risultati ottenuti sono rilevanti perché forniscono una caratterizzazione completa dell’opera (suolo-struttura) allo stato attuale e possono quindi essere usati, attraverso il confronto con dati futuri, per valutare l’invecchiamento della struttura stessa o per effettuare verifiche strutturali post-sisma. A fronte di danni strutturali anche invisibili all’occhio umano, infatti, la risposta dinamica della struttura cambia e conoscere lo stato pre-sisma permette di valutare dove e quanto tale risposta sia eventualmente cambiata. L’analisi qui effettuata permette infine di rendere conto dei parametri con cui quest’opera sarebbe dovuta essere costruita secondo gli standard normativi attuali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progresso scientifico e le innovazioni tecnologiche nei campi dell'elettronica, informatica e telecomunicazioni, stanno aprendo la strada a nuove visioni e concetti. L'obiettivo della tesi è quello d'introdurre il modello del Cloud computing per rendere possibile l'attuale visione di Internet of Thing. Nel primo capitolo si introduce Ubiquitous computing come un nuovo modo di vedere i computer, cercando di fare chiarezza sulla sua definizione, la sua nascita e fornendo un breve quadro storico. Nel secondo capitolo viene presentata la visione di Internet of Thing (Internet delle “cose”) che si avvale di concetti e di problematiche in parte già considerate con Ubiquitous computing. Internet of Thing è una visione in cui la rete Internet viene estesa agli oggetti di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati ambientali sono solo alcuni esempi. Per realizzare questo tipo di applicazioni le tecnologie wireless sono da considerare necessarie, sebbene questa visione non assuma nessuna specifica tecnologia di comunicazione. Inoltre, anche schede di sviluppo possono agevolare la prototipazione di tali applicazioni. Nel terzo capitolo si presenta Cloud computing come modello di business per utilizzare su richiesta risorse computazionali. Nel capitolo, vengono inizialmente descritte le caratteristiche principali e i vari tipi di modelli di servizio, poi viene argomentato il ruolo che i servizi di Cloud hanno per Internet of Thing. Questo modello permette di accelerare lo sviluppo e la distribuzione di applicazioni di Internet of Thing, mettendo a disposizione capacità di storage e di calcolo per l'elaborazione distribuita dell'enorme quantità di dati prodotta da sensori e dispositivi vari. Infine, nell'ultimo capitolo viene considerato, come esempio pratico, l'integrazione di tecnologie di Cloud computing in una applicazione IoT. Il caso di studio riguarda il monitoraggio remoto dei parametri vitali, considerando Raspberry Pi e la piattaforma e-Health sviluppata da Cooking Hacks per lo sviluppo di un sistema embedded, e utilizzando PubNub come servizio di Cloud per distribuire i dati ottenuti dai sensori. Il caso di studio metterà in evidenza sia i vantaggi sia le eventuali problematiche che possono scaturire utilizzando servizi di Cloud in applicazioni IoT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo elaborato è stato determinare una modalità per ridurre il rischio di Listeria monocytogenes in semi di ravanello utilizzati per produrre germogli ad uso alimentare. Per fare ciò è stato utilizzato il timolo, un composto fenolico la cui attività antimicrobica è nota. In primo luogo sono state eseguite prove preliminari in vitro per verificare gli effetti di diverse concentrazioni di questo terpene su L. monocytogenes mediante l’uso di un citofluorimetro. I risultati hanno mostrato che 30 minuti di esposizione a 500 ppm di timolo in acqua peptonata determinano un danneggiamento della membrana cellulare in metà della popolazione microbica. Quando l’esposizione avviene in tampone fosfato, l’effetto è evidente già a 250 ppm (82% di cellule danneggiate). Successivamente, è stato valutato l’effetto di diverse concentrazioni di timolo su cellule di L. monocytogenes preventivamente inoculate su semi di ravanello. La prova è stata condotta in due modalità: la prima in contenitori sterili, la seconda in germogliatori per riprodurre fedelmente le tecniche utilizzate nel processo industriale o casalingo. Sono stati effettuati sia campionamenti microbiologici (su semi, germogli e acqua degli ammolli) sia prove di germinabilità per individuare un’eventuale riduzione della capacità germinativa dei semi a seguito del contatto con timolo. Dai dati ottenuti è emerso che il timolo riesce a contenere entro certi limiti la crescita di L. monocytogenes nell’acqua usata per l’ammollo, ma non ha un effetto significativo sul suo destino nei semi durante la germinazione. La presenza di timolo non compromette la capacità germinativa ma rallenta il processo di germinazione. In conclusione, il processo produttivo di germogli lascia spazio a molti rischi microbiologici nel caso siano già presenti nella matrice delle specie patogene. Ciò nonostante l’impiego di trattamenti preliminari sui semi prima del germogliamento, può essere una strada importante per ridurne i rischi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito dello sviluppo software, la concorrenza è sempre stata vista come la strada del futuro. Tuttavia, questa è stata spesso ignorata a causa del continuo sviluppo dell'hardware che ha permesso agli sviluppatori di continuare a scrivere software sequenziale senza doversi preoccupare delle performance. In un'era in cui le nuove architetture hardware presentano processori multi-core, tutto questo non è più possibile. L'obiettivo di questa tesi è stato quello di considerare il Modello ad Attori come valida alternativa allo sviluppo di applicazioni in ambito mobile e quindi di progettare, sviluppare e distribuire un nuovo framework sulla base di tale modello. Il lavoro parte quindi da una panoramica di Swift, il nuovo linguaggio di programmazione presentato da Apple al WWDC 2014, in cui vengono analizzati nel dettaglio i meccanismi che abilitano alla concorrenza. Successivamente viene descritto il modello ad attori in termini di: attori, proprietà, comunicazione e sincronizzazione. Segue poi un'analisi delle principali implementazioni di questo modello, tra cui: Scala, Erlang ed Akka; quest'ultimo rappresenta la base su cui è stato ispirato il lavoro di progettazione e sviluppo del framework Actor Kit. Il quarto capitolo descrive tutti i concetti, le idee e i principi su cui il framework Actor Kit è stato progettato e sviluppato. Infine, l'ultimo capitolo presenta l'utilizzo del framework in due casi comuni della programmazione mobile: 1) Acquisizione dati da Web API e visualizzazione sull'interfaccia utente. 2) Acquisizione dati dai sensori del dispositivo. In conclusione Actor Kit abilita la progettazione e lo sviluppo di applicazioni secondo un approccio del tutto nuovo nell'ambito mobile. Un possibile sviluppo futuro potrebbe essere l'estensione del framework con attori che mappino i framework standard di Apple; proprio per questo sarà reso pubblico con la speranza che altri sviluppatori possano evolverlo e renderlo ancora più completo e performante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto si propone di dotare la realta fisica di un estensione digitale. Sensori, attuatori e tecnologie embedded hanno cambiato il nostro modo di lavorare, allenarci e seguire i nostri interessi. Il mondo del commercio non e rimasto a guardare ed ha dovuto adattarsi alla metamorfosi high-tech del settore dei servizi. Il sistema proposto costituisce un promotore per acquisti ed un raccoglitore intelligente di abitudini sullo shopping e si compone di applicazione mobile, microcontroller e web server. Caratteristica prima e principale del progetto e sicuramente la pervasivita. All'utente ed utilizzatore dell'app dello shopping center deve essere certamente resa nota la collaborazione al fine di raccogliere dati statistici sulle sue abitudini, tuttavia sono le modalita di tale operazione a dover rimanere velate, in modo da non appesantire il cliente con tediose operazioni di invio di feedback e valutazioni ed allo stesso tempo permettere una raccolta capillare delle informazioni. Parallelamente alla raccolta di dati funzionali al producer, sono state implementate features per il consumatore, come notifiche promozionali place-triggered e pubblicita mirata. Tra tutte le tecnologie adibite allo scambio di informazioni, si e scelto l'utilizzo del Bluetooth e del piu recente Bluetooth Low Energy (BLE) per permettere ai dispositivi di comunicare tra loro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo principale che questa tesi intende perseguire e la progettazione di un sistema di acquisizione 3D a basso costo basato sul metodo di triangolazione a lama laser. A tale scopo si adotterà una telecamera general-purpose, e si provvederà sia alla realizzazione di un prototipo di sistema di attuazione per automatizzare la scansione dell'oggetto, sia all'implementazione di algoritmi per la calibrazione della geometria laser-telecamera, il rilevamento del profilo laser nell'immagine e la sua successiva ricostruzione 3D, tenendo anche conto delle complicazioni che l'uso di oggetti ad alto potere diffusivo apporta a tale problema, a causa dei marcati effetti di subsurface scattering della luce laser. Il sistema di triangolazione sarà validato caratterizzando, mediante il confronto con pezzi di dimensioni note, la precisione e l'accuratezza delle misurazioni, e valutando i tempi di esecuzione degli algoritmi. Inoltre, le prestazioni ed i risultati delle acquisizioni saranno messi a confronto con quelli ottenuti adottando una telecamera high-end dedicata. Lo studio preliminare svolto in questa sede e propedeutico per la futura realizzazione di un sistema per la ricostruzione in camera bianca di protesi d'osso su misura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro verra presentata la realizzazione e la caratterizzazione di transistor organici basati su un polimero conduttore, il poli(3,4-etilenediossitiofene) polistirene sulfonato, o PEDOT:PSS. Tali transistor rientrano nella categoria degli OECT o transistor elettrochimici organici e hanno la capacita di poter rilevare ed analizzare sostanze chimiche di diverso genere presenti in soluzione. I dispositivi implementati in questa tesi sono stati ottenuti tramite la deposizione del materiale organico conduttivo su substrato tessile al fine di creare un device completamente integrabile in un capo di abbigliamento o in un qualsiasi utilizzo in campo tessile. In particolare questi transistor sono stati studiati per la rilevazione di sostanze quali acido ascorbico, dopamina e adrenalina. Gli ultimi due analiti sono di importanza particolare poiche facenti parte della famiglia dei neurotrasmettitori. Inoltre in questa tesi sono stati creati fili di cotone conduttivi, sempre tramite l'utilizzo di PEDOT:PSS. Tali fili infatti sono risultati ottimi candidati per il trasporto di un segnale elettrico e per questo sono stati implementati nella costruzione di un OECT. La realizzazione dei fili conduttivi potra permettere un ulteriore avanzamento nella completa integrabilita dell'elettronica con il settore tessile. Una peculiarita aggiuntiva di questo lavoro e stata quella di utilizzare il sudore artificiale come elettrolita, oltre al normale PBS che costituisce ormai uno standard in questo tipo di ricerche. L'utilizzo del sudore artificiale rientra nell'ottica futura di un utilizzo di questi sensori come rilevatori di sostanze chimiche emesse dal corpo umano sfruttabili diversi ambiti, ovvero dall'attivita sportiva alla prevenzione, in ambito medico, di diverse malattie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nostra sfida è stata sviluppare un dispositivo che potesse riunire differenti funzionalità, dalla telepresenza alla visione dei dati on demand, e fosse in grado di portare innovazione nel panorama attuale. Abbiamo quindi deciso di creare un device che potesse svolgere attività d’ispezione e monitoraggio, concentrandoci nel corso dell’implementazione su alcuni possibili campi di utilizzo. Il sistema che abbiamo realizzato è open-source, modulare e dinamico, in grado di rispondere a esigenze diverse e facilmente riadattabile. Il prototipo progettato è in grado di comunicare con uno smartphone, grazie al quale viene guidato dall’utente primario, e di trasmettere in rete i dati rilevati dai diversi sensori integrati. Le informazioni generate sono gestibili attraverso una piattaforma online: il device utilizza il Cloud per storicizzare i dati, rendendoli potenzialmente accessibili a chiunque. Per la configurazione hardware abbiamo usato la kit-board Pi2Go e la piattaforma Raspberry Pi, alle quali abbiamo unito una videocamera e alcuni sensori di prossimità, temperatura e umidità e distanza. È nato così il prototipo InspectorPi, un veicolo telecomandato tramite dispositivo mobile in grado di esplorare ambienti ostili in cui vi sono difficoltà fisiche o ambientali alle quali sovvenire.