1000 resultados para Kinnunen, Essi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato, articolato in quattro sezioni principali, propongo la traduzione di poesie per l’infanzia scritte dagli autori brasiliani Sônia Barros, Cecília Meireles, José Paulo Paes e Ruy Proença, con attenzione particolare alla riproduzione delle sonorità originali. Nella prima sezione, presento un excursus riassuntivo della storia della letteratura brasiliana. Al fine di creare dei riferimenti cronologici e culturali per il lettore dell’elaborato, fornisco nozioni sulla nascita e lo sviluppo della letteratura in Brasile dalle origini fino ai giorni nostri, dando informazioni relative ad autori, opere e correnti letterarie e, quando necessario, citando avvenimenti storici particolarmente importanti. Accanto a questa contestualizzazione più generica, i paragrafi presentano approfondimenti sull’evoluzione che la letteratura dedicata all’infanzia ha avuto in Brasile attraverso i secoli. La seconda sezione si concentra sugli autori delle poesie tradotte, ovvero Sônia Barros, Cecília Meireles, José Paulo Paes e Ruy Proença. Per ognuno di essi riporto le notizie biografiche più importanti, le tappe della carriera letteraria, la linea di pensiero e di scrittura che li caratterizza maggiormente e i titoli delle loro opere più famose. Successivamente troviamo la sezione dedicata al lavoro di traduzione. Ognuna delle tredici poesie è presentata a fianco della propria traduzione, così da poter cogliere già a un primo sguardo le peculiarità che caratterizzano l’originale e versione italiana da me proposta. Infine, l’ultima sezione dell’elaborato riguarda il commento della traduzione. In questa parte motivo l’atteggiamento traduttivo tenuto nei confronti dei testi, cosciente delle peculiarità del genere poesia e in particolare di quella rivolta a un pubblico di giovanissimi. In seguito, analizzo dettagliatamente quali sono stati i problemi riscontrati durante il mio lavoro e le strategie che ho adottato per superarli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli aerosol, sospensione colloidale in aria di particelle solide o liquide, sono parte integrante dell’atmosfera. Essi interagiscono con la radiazione solare influenzando il clima (effetto primario e secondario) e la visibilità atmosferica. Gli aerosol hanno effetti sulla salute umana con patologie degli apparati cardiovascolare e circolatorio. La presente tesi affronta alcuni aspetti critici dei contatori ottici di particelle (OPC), utilizzati per caratterizzare l’aerosol ambientale. Gli OPC si basano sullo scattering luminoso per fornire la concentrazione in numero e la distribuzione dimensionale degli aerosol in tempo reale. Gli obiettivi di questa tesi sono: 1)caratterizzare e migliorare le prestazioni di un OPC di nuova concezione (CompactOPC N1, Alphasense; in seguito COPC) rispetto a un OPC standard commerciale (Grimm 1.108; in seguito GRM); 2)realizzare un banco di prova per la calibrazione di un OPC utilizzato in camere bianche e ambienti sanitari (Laser Particle Sensor 3715-00, Kanomax; in seguito LPS). Per questa attività ha mostrato interesse un’azienda locale (Pollution Clean Air Systems S.p.A.; Budrio, BO). Le prove sperimentali sono state effettuate con aerosol indoor e con particelle monodisperse di latex polistirene (PSL) di dimensioni differenti campionando in parallelo con i diversi OPC e su filtro per osservazioni al microscopio elettronico a scansione (SEM). In questo modo si è ottenuto un valore assoluto di riferimento per la concentrazione di aerosol. I risultati ottenuti indicano un buon accordo tra le concentrazioni di particelle fornite dal GRM e quelle ottenute al SEM. Il lavoro ha inoltre permesso di migliorare le prestazioni del COPC modificando la versione di base. Inoltre, è stata effettuata la calibrazione del LPS tramite il banco di prova realizzato nella tesi. Il lavoro sperimentale è stato svolto presso il Laboratorio di Aerosol e Fisica delle Nubi dell’Istituto di Scienze dell’Atmosfera e del Clima (ISAC) del Consiglio Nazionale delle Ricerche (CNR) a Bologna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi si inquadra nel progetto nazionale di ricerca promosso dal Dipartimento della Protezione Civile (DPC) e dall’Istituto di Geofisica e Vulcanologia (INGV), denominato S2-2014/DPC-INGV Constraining observations into seismic hazard. Esso prevede la caratterizzazione geologica e geofisica di 77 stazioni della rete accelerometrica nazionale (RAN) al fine di correggere i dati osservati e le relazioni (leggi di attenuazione dell’accelerazione ecc.) che da essi derivano. Fino ad ora le stazioni sismiche erano state assunte come ubicate su roccia affiorante o su litotipi di altro tipo evinti da carta geologica, senza alcun tipo di verifica diretta. Le 77 stazioni sono state scelte tra quelle che presentavano una storia di operatività di almeno 25 anni. In questo lavoro è stata eseguita la caratterizzazione geologica e geofisica di 5 stazioni, collocate in Emilia-Romagna. Oltre alla caratterizzazione del sottosuolo, abbiamo prestato attenzione alla caratterizzazione dinamica delle strutture che ospitano le stazioni sismiche e alla ricerca di eventuali interazioni tra queste e i sensori accelerometrici, trasmesse attraverso il sottosuolo. Il rilevamento geologico e le prove geofisiche, sismica a stazione singola e array, eseguite nei siti hanno permesso di definire la categoria sismica di sottosuolo secondo l’approccio semplificato proposto dalle NTC (2008). Dallo studio è emerso che il segnale registrato dagli strumenti accelerometrici in quasi tutte le stazioni investigate risente in qualche modo della struttura in cui la stazione sismica è racchiusa (cabina ENEL in muratura, con sviluppo a torre di circa 7-8 m di altezza). Ne segue che i dati registrati da queste stazioni sismiche sopra 3-5 Hz (a seconda della specifica struttura) non sono immediatamente utilizzabili o interpretabili come legati all’effetto del solo sottosuolo o del solo segnale sismico. In essi si accoppia, e spesso come effetto del primo ordine, la vibrazione propria (nei modi fondamentale e superiori, flessionali e torsionali) della struttura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi descrive lo sviluppo di un OECT (Organic Eletrochemical Transistor) basato su un polimero conduttore (PEDOT:PSS) stampato su tessuto che può essere utilizzato come sensore fisico e chimico. Il lavoro di tesi si posiziona all’interno della Wearable Technology ossia il mercato emergente dei dispositivi indossabili. Essi sono caratterizzati da innumerevoli ambiti di applicazione tra i quali troviamo le varie forme di pagamento digitale, la gestione della salute e del fitness, dell'Entertainment e l’utilizzo nel mondo della moda. Questa ricerca nello specifico mostra come tali transistor, quando utilizzati come sensori chimici, possano essere impiegati per rivelare e dosare composti redox attivi quali acido ascorbico, adrenalina e dopamina. Tali sostanze sono state scelte per l’importanza che rivestono nel metabolismo umano e la loro presenza in diversi fluidi biologici, quali sudore o sangue, può essere utile per il monitoraggio, la diagnostica e la prevenzione di diverse malattie. I sensori possono essere fabbricati mediante semplici processi di stampa su un tessuto indossabile permettendo così di monitorare tali fattori in tempo reale e con un ingombro estremamente ridotto. Il tempo di vita del dispositivo tessile è stata valutata sottoponendolo a diversi cicli di lavaggio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si trattano alcune delle proprietà dei coefficienti binomiali, il cui nome deriva dal fatto che uno dei principali utilizzi di tali coefficienti è proprio nel Teorema binomiale di Newton, che permette di calcolare in modo esplicito lo sviluppo di un generico binomio con esponente naturale. I coefficienti binomiali si ricavano anche dal noto Triangolo di Tartaglia, che prende nome dal matematico Niccolò Fontana (1490-1557), il quale lo introdusse in Italia nel 1556 nella sua opera "General trattato di numeri et misure". Tuttavia, esso era già noto agli indiani e ai cinesi nel XIV secolo. Successivamente, in Francia e nel mondo anglosassone, tale triangolo prese anche il nome di Triangolo di Pascal, quando nel 1654 il matematico francese pubblicò il libro "Le triangle Aritmetique", interamente dedicato alle sue proprietà. I coefficienti binomiali, inoltre, trovano largo uso in calcolo combinatorio, ossia in quella branca della matematica che si occupa di contare i modi di raggruppare, secondo determinate regole, gli elementi di un insieme finito di oggetti. Dunque, per quanto la definizione stessa di coefficienti binomiali sia semplice, essendo un rapporto di interi fattoriali, in realtà essi trovano ampio utilizzo in vari ambiti e proprio per questo suscitano un notevole interesse ed hanno svariate applicazioni, giocando un ruolo fondamentale in parti della matematica come la combinatoria. In questa tesi, oltre alle proprietà più note, sono contenuti anche alcuni collegamenti tra i coefficienti binomiali e i polinomi di variabile naturale, nonché, nell'ultima parte, applicazioni alle differenze finite di progressioni geometriche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo principale di questo elaborato è di mostrare in un primo momento i concetti fondamentali che stanno alla base del paradigma ad agenti. Una volta introdotti, essi verranno collocati in un determinato ambiente di programmazione attraverso una piattaforma specifica chiamata Jason. Come sarà facile capire dalla lettura di questa trattazione, un sistema ad agenti è costituito dagli agenti stessi e dall’ambiente in cui sono situati. L’ambiente risulta quindi un altro tassello fondamentale ed è stato introdotto allo scopo un nuovo paradigma per la programmazione di ambienti chiamato Agent & Artifact. Nello specifico, verrà ampiamente descritto il framework di riferimento di tale paradigma: CArtAgO. Dopo aver illustrato i concetti e gli strumenti per poter agilmente programmare e progettare sistemi ad agenti, verrà infine mostrato un esempio di applicazione di tale tecnologia attraverso un case study. Il progetto del sistema in questione riguarda un reale caso aziendale e integra la tecnologia RFID con quella ad agenti per fornire la soluzione ad un problema noto come quello del controllo periodico delle scorte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I materiali a base di carbone vengono utilizzati in catalisi come supporti per fasi attive, ma anche direttamente come catalizzatori essi stessi, grazie soprattutto alla versatilità delle loro proprietà di massa e superficiali. L’attività catalitica dei carboni è influenzata soprattutto dalla natura, dalla concentrazione e dall’accessibilità dei siti attivi tra cui i più comuni sono: gruppi funzionali superficiali, difetti, ed eteroatomi inseriti nella struttura. Per ridurre i problemi diffusionali legati alla microporosità dei carboni attivi sono in corso numerosi studi sulla sintesi di carboni mesoporosi, i quali possono fornire benefici unici come alta area superficiale ed elevato volume dei pori, uniti a buone proprietà chimiche e stabilità meccanica. Nel corso di questa tesi, sono state svolte diverse attività finalizzate principalmente alla preparazione e alla caratterizzazione di carboni mesoporosi da utilizzare in ambito catalitico. La sintesi di carboni porosi è stata eseguita con la metodologia soft-templating, un metodo basato sulla replica di un agente templante polimerico che si organizza in micelle attorno alle quali avviene la reticolazione di un precursore polimerico termoindurente. Precursore e templante vengono pirolizzati ad elevate temperature per rimuovere in un primo momento l’agente templante e successivamente carbonizzare il precursore. Sono state scelte due metodologie di sintesi riportate in letteratura con lo scopo di sintetizzare due tipologie di carboni. La sintesi Mayes è stata utilizzata per sintetizzare carboni mesoporosi classici, mentre la sintesi Hao è stata utilizzata per ottenere carboni porosi contenenti azoto. Le due sintesi sono state ottimizzate variando diversi parametri, tra cui il tempo di reticolazione (curing) e la temperatura di pirolisi. Sui diversi carboni ottenuti sono stati effettuati alcuni trattamenti superficiali di ossidazione al fine di modificarne la funzionalità. In particolare si sono utilizzati agenti ossidanti come HNO3, H2O2 e N2O.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ossido di grafene è caratterizzato da una elevata quantità di gruppi funzionali contenenti ossigeno sia sulla superficie che sui bordi e grazie ad essi è altamente disperdibile in acqua. Questa peculiare caratteristica permette il suo utilizzo come catalizzatore nelle reazioni in fase liquida. I materiali grafenici possono essere impiegati come catalizzatori e come supporti in diversi campi della catalisi, tra cui la bioraffineria. Uno dei principali derivati da biomasse è il 5-idrossimetilfurfurale (HMF). In questa tesi è stata investigata la reazione di riduzione selettiva del gruppo aldeidico di HMF per ottenere 2,5-bisidrossimetilfurano (BHMF), utilizzato per la produzione di polimeri e come intermedio per la produzione di acido adipico ed esametilediammina. In questo lavoro di tesi si è cercato di sviluppare un catalizzatore in grado di operare a bassa temperatura e con basse pressioni di H2, utilizzando acqua come solvente. Lo scopo di questo lavoro è stato quindi lo studio e la caratterizzazione di catalizzatori eterogenei in pellet a base di Pt/ossido di grafene/ossidi ceramici (TiO2, Al2O3) e la loro applicazione nella reazione di riduzione del 5-idrossimetilfurfurale (HMF) a 2,5-bisidrossimetilfurano (BHMF) in fase liquida. Per lo sviluppo del catalizzatore sono state indagate diverse vie di sintesi e diversi precursori di Pt. Per conoscere le condizioni ottimali di reazione, selezionare il supporto ottimale e studiare l’influenza dell’area superficiale sono stati preparati catalizzatori tradizionali di riferimento in polvere. Le prestazioni dei catalizzatori in polvere sono state inoltre confrontate con i catalizzatori analoghi in pellet per verificare l’influenza del trasferimento di materia. Infine, si è studiata l’influenza del GO nell’attività catalitica utilizzando due forme cristalline di titania. I dati catalitici ottenuti sono stati confrontati con dei catalizzatori convenzionali in polvere di Pt supportato su carbone (grafene e carbone attivo). Le proprietà dei catalizzatori preparati sono state messe in relazione con la loro attività catalitica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Federazione è un concetto molto utilizzato ed implementato in vari ambiti dell’informatica. In particolare sta avendo grande interesse nel Semantic Web, e risulta essere significativo e importante il suo utilizzo in una disciplina in grande evoluzione come l’Enterprise Architecture. L’obiettivo di questa tesi è stato implementare il concetto di Federazione di Endpoint SPARQL, dove l’elemento centrale è stata la condivisione del modello dei dati tra i vari membri, il quale rappresenta il patto della federazione. Successivamente sono stati messi in luce i benefici che questo tipo di soluzione apporta alla disciplina dell’Enterprise Architecture, in particolar modo nell’ambito dell’analisi dei dati. In relazione a quest’ultimo aspetto, il Semantic Web offre un linguaggio flessibile e facilmente evolvibile per rappresentare l’azienda e i suoi dati, oltre che ad un protocollo standard per la loro interrogazione, ovvero lo SPARQL. La federazione, invece, apporta dei miglioramenti rendendo le fonti dato omogenee dal punto di vista del modello, utilizza un unico protocollo per l’accesso ad essi (SPARQL), ed elimina le criticità in relazione alla normalizzazione dei dati nei processi di analisi. Questi due aspetti risultano abilitanti proprio per l’Enterprise Architecture. Infine sono state definite due possibili evoluzioni, in particolare un costrutto che permetta l’implementazione e la gestione della federazione a livello di linguaggio SPARQL, ed una ontologia standard e condivisibile tramite la quale gestire la federazione in modo trasparente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

All’interno di questa tesi è stata affrontata la tematica della realizzazione di comuni- cazioni sicure, in modo da ottenere l'indipendenza di queste ultime dal canale utilizzato, con l'ausilio di strumenti in grado di fornire supporto per la creazione di applicativi orientati allo scambio di dati e messaggi, quali i linguaggi di programmazione Java e Jolie, il quale è basato sul precedente. Sono state inizialmente analizzate le principali caratteristiche e le problematiche più importanti che è necessario dover risolvere in modo da poter arrivare al risultato desiderato. Successivamente, è stato dato un ampio sguardo ad una delle scienze più applicate per risolvere i problemi tipici che affliggono questo tipo di comunicazioni, la crittografia. Sono stati elencati gli strumenti messi a disposizione ed il loro funzionamento. La crittografia viene poi applicata al protocollo SSL, il quale rappresenta la soluzione maggiormente diffusa, sia sul Web che in altri ambiti, per proteggere le informazioni personali che transitano tra gli end-point di una comunicazione. Sono state elencate le principali caratteristiche, alcuni cenni riguardanti la nascita e lo sviluppo ed è stato descritto il funzionamento di questo protocollo, soprattutto per quanto riguarda la sua fase preliminare, che è una delle parti che lo caratterizzano maggiormente. In seguito, è stata analizzata la soluzione fornita all’interno delle librerie del linguaggio Java per realizzare comunicazioni indipendenti dal mezzo di comunicazione che soddisfino le politiche dettate dal protocollo SSL. Questa soluzione è rappresentata dalla classe SSLEngine, che è quindi stata esaminata, a partire dal ciclo di vita e dall'inizializzazione, fino ad arrivare all'interazione all'interno di un applicazione. Quanto esplorato in precedenza viene poi applicato a Jolie, un linguaggio di programmazione basato sulle comunicazioni e sviluppato in Java, all'interno dell'Università di Bologna. Dopo uno sguardo generale alle sue caratteristiche è stata approfondita la gestione dei protocolli, e di conseguenza, l'introduzione di SSL all'interno di essi, realizzata tramite la classe SSLProtocol. Questa classe contiene ed implementa i concetti analizzati nel capitolo riguardante Java, adattandoli all'architettura ed alla progettazione pensata appositamente per Jolie; è stata quindi effettuata un'analisi del codice e della gestione della classe SSLEngine per realizzare comunicazioni sicure. Infine, per verificare l’effettivo funzionamento, sono stati creati due semplici casi d’uso per poter sfruttare i vantaggi offerti da Jolie, il quale è particolarmente indicato per la creazione di applicazioni orientate ai servizi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un sistema sottoposto ad una lenta evoluzione ciclica è descritto da un'Hamiltoniana H(X_1(t),...,X_n(t)) dipendente da un insieme di parametri {X_i} che descrivono una curva chiusa nello spazio di appartenenza. Sotto le opportune ipotesi, il teorema adiabatico ci garantisce che il sistema ritornerà nel suo stato di partenza, e l'equazione di Schrödinger prevede che esso acquisirà una fase decomponibile in due termini, dei quali uno è stato trascurato per lungo tempo. Questo lavoro di tesi va ad indagare principalmente questa fase, detta fase di Berry o, più in generale, fase geometrica, che mostra della caratteristiche uniche e ricche di conseguenze da esplorare: essa risulta indipendente dai dettagli della dinamica del sistema, ed è caratterizzata unicamente dal percorso descritto nello spazio dei parametri, da cui l'attributo geometrico. A partire da essa, e dalle sue generalizzazioni, è stata resa possibile l'interpretazione di nuovi e vecchi effetti, come l'effetto Aharonov-Bohm, che pare mettere sotto una nuova luce i potenziali dell'elettromagnetismo, e affidare loro un ruolo più centrale e fisico all'interno della teoria. Il tutto trova una rigorosa formalizzazione all'interno della teoria dei fibrati e delle connessioni su di essi, che verrà esposta, seppur in superficie, nella parte iniziale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato ha come obiettivo l’analisi dei discorsi di ringraziamento pronunciati nelle cerimonie dei premi Oscar dal 1990 al 2015 da attori e attrici, protagonisti e non protagonisti, premiati con la statuetta dorata per le loro performance recitative. L’elaborato si articola in tre capitoli: nel primo, si delinea la storia dei premi Oscar, considerati la cerimonia di premiazione cinematografica per antonomasia, con particolare attenzione ai metodi di selezione di premiati e vincitori da parte dell’Academy of Motion Pictures Arts and Sciences. Ci si concentra anche sul significato, letterale e simbolico, dei discorsi di ringraziamento, e sulla rilevanza che essi hanno all’interno della cerimonia. Nel secondo capitolo, si analizzano i discorsi di ringraziamento dei vincitori da un punto di vista linguistico, con particolare attenzione a prosodia, prossemica, retorica e deissi. Nel terzo e ultimo capitolo, infine, l’analisi assume toni più prettamente culturali, focalizzando l’attenzione sugli aspetti pragmatici e contenutistici dei discorsi, nonché nel tentativo di confrontare gli atteggiamenti delle due categorie nazionali più premiate agli Oscar: gli americani e i britannici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni il mondo ha assistito ad un'espansione esponenziale del mercato mobile, un settore che ha rivoluzionato le nostre vite e le nostre abitudini. Parallelamente, sono entrati in commercio i primi dispositivi commerciali dell'era dell'Internet delle Cose (Internet-of-Things), un paradigma secondo il quale oggetti utilizzati quotidianamente possono dialogare tra loro mediante Internet al fine di migliorare la vita personale e i processi produttivi aziendali. Un'applicazione pratica di Internet-of-Things è costituita dai dispositivi indossabili (wearable) capaci per mezzo di sensori di raccogliere dati sanitari, ambientali e fisici attorno a noi. I dispositivi indossabili attualmente in commercio permettono di collegarsi tramite protocolli e standard come WiFi e Bluetooth ad altri dispositivi, siano essi indossabili, smartphone o computer. Da questo concetto nasce l’idea di far comunicare un indossabile con altri dispositivi utilizzati in un contesto aziendale. In questo documento verrà preso in considerazione un tassello fondamentale nella gestione delle risorse umane e della sicurezza: il controllo degli accessi in un edificio e lo sblocco di un varco, sia esso un tornello, una porta o una serranda. Verrà quindi analizzato e progettato un sistema che possa effettuare le operazioni di timbratura e di apertura di varchi dall'orologio Apple Watch e da iPhone collegandosi ad un terminale dedicato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo che questa tesi ha è di inserirsi nell’ambito della Smart Mobility, in particolare nell'ambito dell’accessibilità urbana. Obiettivo primario è di offrire un software capace di adattarsi alle capacità dell’utente nel muoversi nell’ambiente urbano, in particolare riguardo alle barriere architettoniche che lo ostacolano. Quello che il programma deve fare è offrire percorsi per l’utente, personalizzati rispetto alle sue richieste. Affinché sia possibile tutto ciò, sono necessarie delle fondamenta, nella fattispecie una fonte di dati geografici e uno strumento che permetta di ricercare percorsi da essi e di essere modificato per includere le modifiche volute. La fonte di dati geografici scelta è stata OpenStreetMap, un progetto di crowdsourcing che punta a creare una mappa globale completamente accessibile fino al suo livello più basso e utilizzabile da chiunque, purché sia rispettata la sua licenza. Da questa scelta, derivano i software utilizzabili per calcolare i percorsi: la tesi ne esplorerà in particolare due GraphHopper e OpenTripPlanner, entrambi progetti open source. L’ultimo, ma non meno importante, scopo della tesi è effettivamente implementare un algoritmo di routing capace di considerare le preferenze degli utenti. Queste preferenze, infatti, non devono solo permettere di escludere percorsi con una barriera/architettonica cui l’utente non può accedere, ma anche di favorire percorsi con le facility che l’utente preferisce e di sfavorire quelli con facility che l’utente non preferisce.