1000 resultados para Residenza ecosostenibile casi di studio
Resumo:
In the chemical composition of olive oil (Olea europaea L.) it is emphasized the massive presence of oleic acid (over 70%), monounsaturated fatty acid part of the family of omega 9, a 7-8% linoleic acid (omega 6) and a small presence (0.5-1%) of linolenic acid (omega 3). For its high content of monounsaturated fatty acids, olive oil is the most stable and therefore the most suitable for heating, compared to oils with a dominance of polyunsaturated fatty acids. Interest in vitamin E has increased in recent years, thanks to its high antioxidant power and its role against related diseases with age-related, visual, dermatological, cardiovascular disorders Alzheimer’s disease and more. Vegetable oils are a major source of vitamin E through diet (Sayago et al., 2007), especially with the variety of olives “Hojiblanca”. Thanks to unsaturated fatty acids cell oxidation can be prevented: this helps prevent many illness, and even premature aging. So far, the advantages acknowledged to olive oil are those of lowering cholesterol, preventing cardiovascular disease, diabetes and cancer. Among the most recent researches it is important to distinguish the studies carried out on their contribution to the prevention and treatment of breast cancer and Alzheimer’s disease. Researchers found that in addition to the benefi ts that give monounsaturated fats, in extra virgin olive oil, there is a substance called “oleocanthal”, which helps protect nerve cells damaged in Alzheimer’s disease. The importance of this discovery is enormous when one considers that only Alzheimer’s disease affects 30 million people around the world, with a different distribution depending on the type of oil in the diet (Olguín Cordero, 2012). The latest research endorses that oleocanthal works by destroying cancer cells without affecting the healthy ones, as it is stated in the Molecular and Cellular Oncology Journal. Studies carried out in different Spanish universities have concluded that thanks to the antioxidant power of olive oil, a disease such as Alzheimer can be prevented. In conclusion, we can say that the Mediterranean diet rich in extra virgin olive oil greatly infl uences on human health, reducing, delaying or even eliminating several diseases.
Resumo:
Il presente lavoro di tesi vuole focalizzare l’attenzione sull’impiego del GNL per la propulsione navale, analizzando aspetti legati alla sicurezza delle infrastrutture necessarie a tale scopo. Si sono considerati due diversi casi di studio: il primo riguarda un deposito costiero attrezzato per poter svolgere attività di rifornimento per imbarcazioni, mentre il secondo caso interessa una nave da trasporto passeggeri alimentata a GNL. È stata condotta un’analisi del rischio: l’identificazione dei pericoli ha seguito le linee guida proposte dalla metodologia MIMAH, oltre a sfruttare risultati di analisi HAZOP e HAZID. La stima delle frequenze di rilascio è stata effettuata con la tecnica della parts count, sulla base di valori ottenuti da database affidabilistici. La valutazione delle conseguenze è stata realizzata con il supporto del software DNV PHAST, utilizzando come riferimento i valori soglia proposti dal D.M. 9/5/2001. È stata infine impostata una modellazione fluidodinamica con lo scopo di valutare la possibilità di rottura catastrofica dei serbatoi di stoccaggio dovuta ad un’eccessiva pressurizzazione causata da una situazione di incendio esterno. Le simulazioni sono state condotte con il supporto del software CFD ANSYS® FLUENT® 17.2. Si è modellata una situazione di completo avvolgimento dalle fiamme considerando due geometrie di serbatoio diverse, nel caso di materiale isolante integro o danneggiato. I risultati ottenuti dall’analisi del rischio mostrano come i danni derivanti da un ipotetico scenario incidentale possano avere conseguenze anche significative, ma con valori di frequenze di accadimento tipici di situazioni rare. Lo studio fluidodinamico del comportamento di serbatoi di stoccaggio avvolti dalle fiamme ha evidenziato come questi siano capaci di resistere a condizioni gravose di incendio per tempi prolungati senza che si abbia una pressurizzazione tale da destare preoccupazione per l’integrità strutturale delle apparecchiature.
Resumo:
Le tecniche di Machine Learning sono molto utili in quanto consento di massimizzare l’utilizzo delle informazioni in tempo reale. Il metodo Random Forests può essere annoverato tra le tecniche di Machine Learning più recenti e performanti. Sfruttando le caratteristiche e le potenzialità di questo metodo, la presente tesi di dottorato affronta due casi di studio differenti; grazie ai quali è stato possibile elaborare due differenti modelli previsionali. Il primo caso di studio si è incentrato sui principali fiumi della regione Emilia-Romagna, caratterizzati da tempi di risposta molto brevi. La scelta di questi fiumi non è stata casuale: negli ultimi anni, infatti, in detti bacini si sono verificati diversi eventi di piena, in gran parte di tipo “flash flood”. Il secondo caso di studio riguarda le sezioni principali del fiume Po, dove il tempo di propagazione dell’onda di piena è maggiore rispetto ai corsi d’acqua del primo caso di studio analizzato. Partendo da una grande quantità di dati, il primo passo è stato selezionare e definire i dati in ingresso in funzione degli obiettivi da raggiungere, per entrambi i casi studio. Per l’elaborazione del modello relativo ai fiumi dell’Emilia-Romagna, sono stati presi in considerazione esclusivamente i dati osservati; a differenza del bacino del fiume Po in cui ai dati osservati sono stati affiancati anche i dati di previsione provenienti dalla catena modellistica Mike11 NAM/HD. Sfruttando una delle principali caratteristiche del metodo Random Forests, è stata stimata una probabilità di accadimento: questo aspetto è fondamentale sia nella fase tecnica che in fase decisionale per qualsiasi attività di intervento di protezione civile. L'elaborazione dei dati e i dati sviluppati sono stati effettuati in ambiente R. Al termine della fase di validazione, gli incoraggianti risultati ottenuti hanno permesso di inserire il modello sviluppato nel primo caso studio all’interno dell’architettura operativa di FEWS.
Resumo:
La presente tesi di dottorato ha come oggetto principale la catalogazione dei 120 frammenti latini manoscritti rinvenuti all’interno del fondo Parrocchie Soppresse della Città dell’Archivio Generale Arcivescovile di Bologna. Sono di lacerti di pergamena provenienti da antichi codici e documenti dismessi per varie ragioni, riutilizzati come materiale povero di legatoria per il confezionamento di registri parrocchiali di epoca moderna. I frammenti, che ad oggi si trovano tutti in situ, ossia svolgono ancora la loro funzione di riuso, rappresentano un variegato patrimonio manoscritto mutilo totalmente sconosciuto, reso per la prima volta accessibile proprio dal presente strumento descrittivo. In apertura al catalogo si colloca un’ampia sezione dedicata a delineare lo stato degli studi e degli orientamenti di ricerca intrapresi per proporre delle soluzioni alle criticità peculiari connesse alla catalogazione di manoscritti mutili: un dibattito che però ha preso in considerazione, quasi in maniera esclusiva, i frammenti di natura libraria. Pertanto, si è ritenuto necessario dare rilievo alle questioni poste dalla descrizione dei lacerti di documenti, estremamente frequenti tra le tipologie testuali reimpiegate. Tale considerazione appare necessaria, specialmente in un panorama di ricerca che si propone di guardare a grandi corpora frammentari con un approccio interdisciplinare, che si serve, inoltre, dei nuovi strumenti offerti dalle digital humanities. A dimostrazione dell’eterogeneità delle fonti rinvenute, le quali ricoprono un arco temporale che va dalla fine dell’XI secolo agli inizi del XVIII, si propongono due casi di studio rivolti all’analisi paleografica e testuale di un lacerto del De mulieribus claris di Boccaccio e di un testimone di XII sec. della Passio di S. Giuliana. Infine, la realizzazione del presente progetto è stata accompagnata da un parallelo censimento dei disiecta membra all’interno di altri fondi dell’Archivio Arcivescovile , un’operazione che, nonostante sia ancora in corso, ha già portato alla luce quasi 600 nuove maculature del tutto inedite.
Resumo:
L’implementazione di un sistema di gestione può rappresentare un’opportunità di crescita per quelle organizzazioni che riescono ad integrare efficacemente la gestione degli aspetti di salute e sicurezza con gli altri sistemi presenti, quali il sistema di gestione strategica o il sistema di comunicazione interno. Un sistema di gestione non garantisce, in modo diretto, performance migliori, ma se utilizzato con coerenza rispetto ai valori aziendali, stabiliti nella politica di gruppo, permette di gestire le responsabilità, i processi, le tempistiche di attuazione e le non conformità rilevate in maniera adeguata. Alla luce di quanto esposto, l’obiettivo di questo lavoro è stato quello di: 1. esaminare i requisiti del nuovo Standard ISO 45001:2018 e della OHSAS 18001:2007 in via di sostituzione; 2. effettuare la gap analysis, ovvero un’analisi degli scostamenti relativa ai contenuti della ISO 45001:2018 a partire dal sistema di gestione salute e sicurezza aziendale certificato OHSAS 18001:2007; 3. definire le azioni necessarie ad assicurare la transizione della certificazione dall’attuale Standard OHSAS 18001:2007 al suddetto ISO 45001:2018. Il lavoro è scaturito nel corso dello svolgimento di un tirocinio presso Rosetti Marino S.p.A. all’interno del reparto HSSE-Q che si occupa di salute e sicurezza sul lavoro, protezione dell’ambiente e qualità dei processi produttivi.
Resumo:
Questo volume di tesi, dal titolo “Sviluppo di una piattaforma per fornire contenuti formativi sfruttando la gamification: un caso di studio aziendale”, tratta argomenti quali e-learning e game-based learning e come/quando questi possono essere applicati, presentando inoltre un esempio di prototipo di applicazione web che può fungere a questo scopo. Nello specifico, il primo capitolo si compone di tre sezioni principali: la prima introduce il concetto di e-learning e le molteplici declinazioni ad esso applicabili, oltre a presentare qualche cenno di carattere storico per individuare questo fenomeno nel tempo; la seconda tratta i campi d’applicazione e le tipologie di didattica inscrivibili nel termine “Game-based learning”. Nella terza sezione, “builder per esperienze gamificate”, infine, vengono presentate e analizzate due applicazioni web che possono concorrere alla creazione di un’esperienza di formazione gamificata in ambito scolastico e/o lavorativo. Il secondo e il terzo capitolo, rispettivamente con titoli “Tecnologie” e “Applicazione web: BKM – Learning Game”, sono fortemente correlati: vengono infatti presentate le tecnologie (nello specifico HTML, CSS, Javascript, NodeJs, VueJs e JSON) utilizzate per la creazione del progetto di tesi, poi viene descritto l’applicativo web risultante nel suo complesso. Il progetto è stato implementato durante il tirocinio in preparazione della prova finale, presso l’azienda Bookmark s.r.l.
Resumo:
La ricerca ha ad oggetto lo studio dell’evoluzione del ruolo del Presidente del Consiglio dei ministri all’interno delle dinamiche di funzionamento della forma di governo italiana. Difatti, la ricostruzione sistematica di tale figura sembra essere rimasta sempre in secondo piano rispetto alle complesse analisi riguardanti la forma di governo parlamentare. Dal totale silenzio dello Statuto albertino sul punto, agli svariati tentativi non sempre riusciti nel periodo statutario di disciplinare le competenze presidenziali con atti normativi, alle “fumose” parole dell’articolo 95 della Costituzione, che hanno lasciato coesistere interpretazioni divergenti sulla collocazione del Presidente del Consiglio all’interno della compagine governativa, sino alla tardiva attuazione del disposto costituzionale con la legge n. 400/88, con grande difficoltà tale figura è riuscita ad avere un riconoscimento espresso e stabile delle proprie attribuzioni costituzionali. Il lavoro di ricerca, pertanto, si propone di ricostruire il “ruolo” costituzionale di tale figura soprattutto alla luce delle recenti evoluzioni che hanno caratterizzato la forma di governo nazionale. Ponendo al centro l’analisi di tali fenomeni, il lavoro si sviluppa seguendo tre direttrici evidenziate dalla tre parti in cui esso si divide: un’analisi storico-evolutiva; un’analisi orizzontale e “di sistema” dell’impianto organizzativo dell’esecutivo e del suo vertice e un’analisi concreta di due “casi di studio”. La finalità della ricerca è quella di proporre una lettura del ruolo costituzionale del Presidente del Consiglio in una chiave più estesa: non limitato esclusivamente al coordinamento e alla direzione dell’attività endogovernativa, declinata principalmente nel campo normativo, ma che ricomprende anche il coordinamento delle politiche pubbliche di governo e funzionale allo svolgimento di un coordinamento “inter-istituzionale” e “di sistema”, che coinvolge le diverse strutture governative, il Parlamento e i diversi livelli di governo, anche sovranazionale.
Resumo:
La nascita dell’interpretazione di conferenza è strettamente legata a storici incontri diplomatici e ai congressi di istituzioni internazionali di grande rilievo. Tuttavia, oggi, nell’epoca della globalizzazione, ci si riunisce sempre più per la condivisione di conoscenze e per motivi personali, anche in contesti meno formalizzati. Sebbene, in quanto conferenza, le norme interazionali continuino a vincolare il meccanismo dei turni di parola, in tali circostanze tra l’oratore e chi lo ascolta si instaurano maggiore sintonia e attenzione reciproca attraverso molteplici mezzi comunicativi, verbali e non-verbali. Il presente studio, posizionandosi nella prospettiva dell’analisi discorsiva e della comunicazione multimodale, ha come obiettivo quello di verificare se la presenza dell’interprete modifichi la relazione interpersonale caratterizzata dal senso di reciprocità tra chi enuncia e chi ascolta, e se sì, quali siano le nuove dinamiche comunicative che emergono. A tal fine, sono stati reperiti filmati di nove conferenze con minor grado di formalità dove era previsto lo svolgimento dell’interpretazione consecutiva tra l’italiano e il cinese e, relativamente a questi, sono state eseguite dapprima due fasi di valutazione preliminare: la prima prevedeva la raccolta e l’analisi delle informazioni di base riguardanti lo svolgimento dei nove eventi e i relativi partecipanti; la seconda consisteva nell’esame contrastivo tra i sistemi linguistico-culturali italiano e cinese. In seguito all’acquisizione delle informazioni contestuali e circostanziali, si è proceduto all’analisi qualitativa dei casi di studio di interazione tra l’interprete e gli altri partecipanti. A tal fine, soni stati esaminati non solo gli interventi linguistici, ma anche le attività non-verbali. Nonostante la molteplicità delle dinamiche osservate, è stato possibile riconoscere una tendenza secondo cui l’interprete stabilisce relazioni di carattere dialogico sia con i partecipanti presenti sul palco, ovvero l’oratore e il moderatore, che con il pubblico presente agli eventi analizzati.
Le radici del monoteismo israelitico come riflesso dell'idea di regalita divina in epoca pre-esilica
Resumo:
Questa tesi è un contributo al dibattito meta-terminologico sull'uso scientifico del termine "monoteismo" in relazione alla religione dell'Israele antico. L'attenzione è rivolta principalmente a un tema specifico: l'esplorazione della nozione teistica di "esistenza" divina (implicita nell'uso di "monoteismo" come lente di osservazione) e il problema della sua applicazione alle concettualizzazioni della divinità che emergono nella Bibbia ebraica. In primo luogo, il "monoteismo" come termine e concetto viene ricondotto alle sue origini storiche nell'ambiente intellettuale del platonismo di Cambridge nell'Inghilterra del XVII secolo. Poi, si affronta il dibattito contemporaneo sull'uso del termine "monoteismo" in relazione alla religione dell'Israele antico e si evidenzia il ruolo dell'"esistenza" teistica come lente distorcente nella lettura dei testi biblici. La maggior parte della tesi sostiene questo assunto con una lettura esegetica dettagliata di tre passi biblici scelti come casi di studio: Sal 82; 1Re 18,20-40* e Zc 14,9. Queste analisi mostrano come la nozione teistica di un'esistenza divina astratta non sia in grado di spiegare la rappresentazione del divino che emerge da questi testi. Allo stesso tempo, il potere divino come categoria euristica viene proposto come un'alternativa più adatta a spiegare queste concettualizzazioni della divinità. L'ultima sezione elabora ulteriormente questi risultati. Qui la regalità di YHWH, come immagine metaforica del suo potere, viene utilizzata per descrivere i cambiamenti nella concettualizzazione di questa divinità. L'argomentazione finale è che in nessuna parte del materiale biblico affrontato in questa tesi si trova una nozione simile a quella di esistenza divina astratta. Poiché tale nozione è implicita nell'uso del termine "monoteismo", questi risultati richiedono una considerazione ancora più attenta del suo uso nel dibattito scientifico.
Insegnare l'italiano L2 per fini di studio: una proposta di letture graduate per gli studenti cinesi
Resumo:
Dati i problemi di comprensione linguistica riscontrati dagli studenti cinesi nel contesto accademico e la crescente necessità della didattica dell’italiano L2 per fini di studio, il presente lavoro ha come obiettivo finale la creazione di letture graduate, proposte come materiali didattici comprensibili e mirati agli studenti cinesi di italiano L2, in modo da agevolare il loro approccio ai testi impegnativi richiesti per gli studi artistico-professionali. In particolare, nei primi due capitoli si discute il ruolo significativo della distanza linguistica tra italiano e cinese nell’acquisizione della L2 da parte degli studenti cinesi e nello sviluppo della loro abilità di lettura in L2. In seguito, per capire come debba essere un input ideale per l’acquisizione linguistica a fini di studio, vengono esaminati vari approcci glottodidattici basati sull’input, e si osservano i tratti delle varietà di italiano presenti nel contesto accademico. Il lavoro procede poi con un’analisi delle specifiche caratteristiche linguistiche riscontrate in manuali universitari di storia dell’arte, utilizzando sia un approccio quantitativo che qualitativo, con l’obiettivo di avere un “panorama” delle complessità linguistiche che uno studente L2 deve affrontare nello studio. Successivamente, verrà presentata una sperimentazione di riscrittura con due gruppi, i quali sono stati sottoposti rispettivamente al testo originale e a quello riscritto secondo i criteri formulati dallo studio teorico sul confronto tipologico. I risultati ottenuti confermano sia le interferenze del cinese nella lettura in italiano, sia l’efficacia degli approcci linguistici individuati nel facilitare la comprensibilità del testo per gli studenti cinesi di livello A2-B1. Di conseguenze, viene proposto un percorso di letture graduate per gli studenti cinesi di belle arti; oltre a essere comprensibili, le letture mirano anche all’acquisizione delle varietà di italiano necessarie per lo studio accademico-professionale. L’ultima parte del lavoro è dedicata alle riflessioni teoriche e didattiche sviluppate nel corso della ricerca.
Resumo:
La presente ricerca si focalizza sull’analisi di come l’utilizzo dei servizi ecosistemici vada a riconfigurare e ri-significare le socio-nature urbane, in particolare nel contesto dei due casi di studio presi in analisi: il bosco urbano dei Prati di Caprara e l’area di riequilibrio ecologico Golena San Vitale. Si vedrà come nel caso della Golena San Vitale verrà riprodotta la narrazione dominante sulla sostenibilità ambientale, perfettamente integrata nei meccanismi neoliberali. Nel caso dei Prati di Caprara, invece, verrà sottolineato come i servizi ecosistemici subiranno una riappropriazione dal basso, attraverso delle pratiche collettive che puntano a sovvertire le relazioni di potere insite in questo concetto. Questo contributo si inserisce nel dibattito dell’ecologia politica, ed in particolare dell’ecologia politica urbana, utilizzando tale approccio per decostruire il discorso scientifico, nato attorno ai servizi ecosistemici, e portare alla luce le asimmetrie di potere insite in tale narrazione. Nella raccolta ed elaborazione dei dati, si andrà ad utilizzare una triangolazione di metodi di ricerca. L’analisi testuale e discorsiva utilizzata nella decostruzione del discorso istituzionale sarà quindi completata dalle interviste semi-strutturate ad attori coinvolti nei processi relativi ai due casi di studio e da una ricerca etnografica di osservazione partecipante.
Resumo:
Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.
Resumo:
Sin dal suo ingresso nel mercato della traduzione, la machine translation (MT) è stata impiegata in numerosi settori professionali e ha suscitato l’interesse del grande pubblico. Con l’avvento della traduzione automatica neurale, la MT ha avuto un ulteriore impulso e ci si è iniziati a interrogare sulla possibilità di estenderne il raggio d’azione all’ambito letterario, che sembra tuttora non toccato dagli automatismi delle macchine in virtù della funzione espressiva e del contenuto creativo dei testi. Il presente elaborato nasce quindi con l’obiettivo di valutare l’effettiva applicabilità della traduzione automatica in ambito letterario attraverso un’attenta analisi dell’output prodotto dalla MT supportata da un confronto con la traduzione svolta da un professionista. Questa analisi si baserà sulla traduzione di un estratto del romanzo Hunger Games di Suzanne Collins e le traduzioni verranno effettuate da due dei migliori software di traduzione automatica neurale attualmente sul mercato: ModernMT e DeepL. Una volta terminata la valutazione dei singoli output verranno mostrati i risultati e determinati i limiti e i vantaggi della machine translation.
Resumo:
Negli ultimi anni si è visto un forte segnale di cambiamento culturale indirizzato verso la sostenibilità affermando sempre più efficacemente i concetti di riciclaggio, riduzione e riutilizzo. Finora il design dei prodotti si è concentrato su aspetti che sfavorivano tale approccio e piuttosto si ponevano come specifica quella di definire a priori la vita del prodotto. Infatti, si sono sempre più sviluppate tecniche di accoppiamento delle parti che una volta accoppiate non consentivano più il disassemblaggio di queste. L’obiettivo di tale elaborato è stato quello di definire, nella famiglia di metodologie chiamata Design for X, un criterio che possa valutare e guidare la progettazione in ottica più mirata verso la riparabilità del prodotto “Design for Repair”. Aumentare la riparabilità del prodotto vuol dire poter aumentare la sua longevità, così da non avere la necessità di sostituirlo con un componente nuovo causando un impatto ambientale doppio, ossia la mancata necessità sia di sfruttare risorse per la realizzazione del sostituto sia di non dover occuparsi del processo di smaltimento del prodotto sostituito.
Resumo:
Il progetto è stato sviluppato con l’idea di creare una rete attraverso la quale imbarcazioni da diporto relativamente vicine (10km), si possano scambiare informazioni sullo stato del mare e della navigazione, anche in assenza di una connessione a internet. In tal modo i dati dell’imbarcazione, come temperatura esterna, temperatura dell’acqua, vento, coordinate gps, AIS ecc... verrebbero condivisi attraverso la rete. In questo progetto è stata sviluppata un'infrastruttura in grado di far comunicare imbarcazioni da diporto su bande non licenziate, utilizzando solo materiale OpenSource, in particolare un protocollo chiamato LoRaMesh. Tale infrastruttura, non basandosi su uno standard definito, ha la possibilità di adattarsi a qualsiasi tipo di dato. Tutto il progetto si basa su schede PyCom, ed è stato sviluppato del codice in grado di fornire uno scambio di dati costante e un’interfacci BLE per comunicare con più dispositivi possibili. Per fornire un’esempio di come ci si può connettere con il BLE è stata scritta un’app per IOS che fornisce varie funzionalità, tra cui la possibilità di inviare dati GPS, molto utile per l’esecuzione dei vari test. Sono state svolte varie prove, in diversi luoghi e condizioni, utili a capire la portata massima dei dispositivi, e come la rete mesh si adatta e ripara.