1000 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Guidata dall'interesse per lo studio della fissione nucleare, per molto tempo la ricerca nel campo dei neutroni si è concentrata su energie medio-basse (E<20 MeV) mentre per la regione a più alte energie le informazioni risultavano scarse o mancanti. Recentemente, invece, si è sviluppato un nuovo interesse per i Neutroni di Alta Energia, utilizzabili nelle terapie mediche per la cura di tumori, e di grande importanza per la radioprotezione e la trasmutazione delle scorie radioattive derivanti da produzione di energia nucleare. Queste applicazioni richiedono precisi fasci di neutroni quasi-monoenergetici, con energie dai 20 a qualche centinaia di MeV, servono perciò misurazioni intese a determinare le caratteristiche del fascio e atte a ottenere valori precisi della sezione d'urto relativa ai processi innescati da neutroni veloci. La sezione d'urto di un certo processo nucleare si deduce dalla misura del numero di eventi acquisiti per unità di tempo da un rivelatore, conoscendo l'efficienza di questo, l'intensità del fascio che incide nel bersaglio e le caratteristiche del target. Diventa, quindi, determinante la conoscenza dell'intensità del fascio dei neutroni, anche nel caso di un intervallo energetico ampio, come quello prodotto al CERN dalla facility n_TOF, che possiede energie che vanno dal meV al GeV. Sulla base di queste motivazioni, in questo lavoro di tesi, si vuole proporre un prototipo semplice di rivelatore per Neutroni di Alta Energia e si presenta uno studio preliminare del primo test sotto fascio, focalizzando l'attenzione sulla massima energia misurabile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Siracusa, importante città della Sicilia sud orientale, si affaccia sul Mar Ionio ed è situata in una zona altamente esposta al pericolo di tsunami, di tipo locale e non: fra i numerosi eventi che hanno colpito quest’area si ricordano i maremoti dell’11 gennaio 1693 e del 28 dicembre 1908. L’obiettivo di questa Tesi è studiare la vulnerabilità sociale, esposizione e rischio legati a un’eventuale inondazione di Siracusa dovuta a tsunami. Il presente lavoro è strutturato come segue. Innanzitutto, si fornisce una descrizione della regione interessata illustrandone gli aspetti geografici e geologici e tracciando una breve sintesi della sequenza degli tsunami che l’hanno colpita. Successivamente si prende in esame la vulnerabilità, in particolare la vulnerabilità sociale, facendo un breve excursus dei concetti e delle metodologie di analisi. Nella Tesi lo studio della vulnerabilità sociale sarà diviso in tre fasi che si differenziano sia per l’approccio utilizzato che per le dimensioni dell’area in esame. Nella prima fase viene studiata tutta la costa orientale della Sicilia con l’obiettivo di calcolare la vulnerabilità sociale su base comunale. Per ogni comune della costa verrà calcolato un indice di vulnerabilità noto nella letteratura specialistica come SoVI (Social Vulnerability Index). Nella seconda fase ci si concentra sul comune di Siracusa e si stima il numero di persone potenzialmente colpite da tsunami sulla base di dati statistici disponibili a livello municipale. La terza fase consiste in un’analisi ancora più dettagliata che studia puntualmente le strutture che si trovano nella zona inondata e quantifica il danno sia per le persone che per le costruzioni considerando per queste ultime anche il loro valore economico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Solitamente i dati telemetrici vengono campionati a intervalli regolari. Alcuni parametri, se di maggiore interesse, vengono campionati con maggiore frequenza. Questa operazione non sempre è possibile a causa delle limitazioni di banda tra spazio e terra. Una pratica comune per rispettare tali limitazioni consiste nel ridurre il campionamento di dati di minor interesse in modo da poter analizzare più attentamente i dati interessati. Non si possono analizzare attentamente alcuni dati senza trascurarne degli altri. Per migliorare lo studio di alcuni dati e rispettare le limitazioni di banda è stato studiato e sviluppato presso ESOC (Centro europeo per le operazioni spaziali) la tecnica di ricampionamento frattale. Il ricampionamento frattale prende i campioni di dati di serie temporali originali e produce un insieme di minor numero di campioni, non necessariamente ad intervalli regolari, che ricorda la serie temporale originale, offrendo una garanzia di errore massimo configurabile. Questa tecnica offre la possibilità di campionare i dati con maggiore frequenza e precisione a bordo e di trasmettere poi a terra solo i campioni necessari per ricostruire il segnale originale con il livello desiderato di precisione e con importanti riduzioni di dati. Ciò significa che il ricampionamento frattale non solo permette di migliorare l’osservabilità dei dati ma anche di ridurre i requisiti di larghezza di banda.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La forma spettrale dell’X-ray background richiede l’esistenza di un grande numero di AGN mediamente oscurati, oltre alla presenza di AGN fortemente oscurati, la cui densità di colonna supera il limite Compton (Nh>10^24 cm^(-2)). A causa della loro natura, questi oggetti risultano di difficile osservazione, per cui è necessario adottare un approccio multi-banda per riuscire a rivelarli. In questo lavoro di tesi abbiamo studiato 29 sorgenti osservate nel CDF-S e 10 nel CDF-N a 0.07di cui alcuni possibili Compton Thick) all’interno di un campione più ampio di galassie con formazione stellare osservate con Herschel (lunghezza d’onda 70-500 um) e selezionate per lo studio del rapporto tra il tasso di accrescimento sul buco nero presente al centro degli AGN e il tasso di formazione stellare della galassia ospite al variare del tempo cosmico. Abbiamo analizzato gli spettri X del campione di 29+10 sorgenti utilizzando i dati Chandra relativi a 7 Ms di osservazioni nel CDF-S e a 2 Ms nel CDF-N alla ricerca di indicazioni di oscuramento (Nh>10^23, spettro piatto, riga del ferro): a seguito di questa analisi sono state individuate 9 sorgenti che presentano indicazioni di forte oscuramento. Dallo studio del rapporto tra la luminosità X (2-10 keV) e quella MIR (12.3um) dedotta dal SED-fitting, si è ottenuta una conferma della possibile presenza di forte oscuramento nelle 9 sorgenti selezionate a seguito dell’analisi spettrale. Abbiamo inoltre confrontato il tasso di formazione stellare dedotto dalla banda X (0.5-8 keV) e da quella IR (8-1000um) per identificare le sorgenti nelle quali l’emissione da AGN risulta essere dominante. A seguito di questa analisi abbiamo identificato 9 sorgenti (le stesse di cui sopra) con indicazione di forte oscuramento; di queste, 3 mostrano chiare indicazioni della presenza di un AGN Compton Thick (Nh>10^24 cm^(-2), riga del ferro intensa, basso rapporto LX/MIR).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’aumento della frequenza di accadimento e dell’intensità di eventi di tempesta rappresenta una seria minaccia per gli ambienti costieri, in particolare per quelli dominati da spiagge sabbiose. Nel seguente lavoro di tesi si è voluto approfittare di un evento di flooding che ha interessato la spiaggia di Cesenatico (Febbraio 2015), provocando un lieve arretramento della linea di riva, per valutare la risposta del comparto macrobentonico a uno shift da zona intertidale a quella di primo subtidale. I dati relativi al periodo post-disturbo (after), mostrano variazioni sia dal punto di vista dell’ambiente fisico che delle comunità bentoniche ad esso associate; per quanto riguarda i campioni del 2015, si è osservata una diminuzione della media granulometrica e un aumento della materia organica rispetto al 2011 (before). Si evidenziano differenze anche tra le comunità bentoniche before e after l’evento, con valori di abbondanza, numero di taxa e diversità maggiori in after, nonché dell’intera struttura di comunità in cui si osservano variazioni di dominanza di particolari specie e l’insediamento di specie non presenti prima dell’evento. In before c’è una dominanza di S. squamata, un polichete fossatorio tipico dell’intertidale. In after è risultato che molte più specie concorrono nel determinare i pattern osservati, ed emerge una netta dominanza di L. mediterraneum e dei tanaidacei del genere Apseudes. I valori delle variabili ambientali e biotiche sono stati utilizzati per costruire un modello previsionale FNB (fuzzy naive Bayes) che è stato utilizzato con i dati abiotici relativi all’after per prevedere i pattern di comunità. Dalle simulazioni si osserva che i pattern spaziali del macrobenthos seguono l’evoluzione dell’intero sistema, confermando uno shift da intertidale a primo subtidale e può essere usato come base per comprendere gli effetti di un flooding costiero su sistemi vulnerabili qual è la spiaggia di Cesenatico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro mette in evidenza le principali difficoltà che il traduttore di testi specialistici è chiamato ad affrontare durante la pratica della traduzione. In particolar modo, il nostro studio si concentra sulla figura del traduttore che lavora in ambito artistico : oggigiorno la facilità degli spostamenti e il conseguente aumento del turismo culturale hanno reso la traduzione di dépliant, guide turistiche e cataloghi una pratica necessaria e in continua crescita. L’obiettivo prefissato è quello di verificare l’apporto che le risorse lessicografiche e terminologiche attualmente disponibili danno al traduttore di testi a contenuto artistico. Il nostro lavoro si articola in quattro capitoli. Il primo, di stampo teorico, pone l’accento sulla natura polisemica della parola terminologia (disciplina, metodologia e insieme di termini appartenenti ad un ambito specialistico) e sulla distinzione tra pratica terminologica e traduttiva gettando le basi del secondo capitolo che, partendo dall'esposizione degli ostacoli terminologici incontrati dal traduttore, descrive le lacune dei principali dizionari bilingui italiano-francese e delle basi di dati terminologiche oggi a disposizione. Il terzo capitolo, dedicato alla presentazione del progetto Lessico multilingue dei beni culturali (LBC), ne evidenzia i punti di forza e sottolinea la necessità di creare degli strumenti “ibridi”, concepiti per aiutare il traduttore in ambito artistico. Questa conclusione sarà ulteriormente ribadita nel quarto capitolo, di stampo pratico : l’analisi di una quindicina di termini dell’ambito della scultura (estratti dal corpus de La Vita di Michelangelo, appositamente creato nell'ambito del progetto LBC) mostra l’eccessivo numero di strumenti che il traduttore è costretto a consultare per risolvere adeguatamente le difficoltà incontrate, pratica che non rispecchia più il mestiere della traduzione, all'interno della società dell’informazione, sempre più influenzato dalle scadenze imposte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Provincia di Ferrara ha avuto (ed ha tuttora) sul suo territorio, insediamenti produttivi di varia natura, che nel tempo hanno fatto uso di idrocarburi alifatici clorurati, per scopi diversi: solventi, sgrassanti, refrigeranti, supporti chimici e farmaceutici, ecc. Soprattutto nei decenni passati, a causa di normative poco restringenti sull’uso e sullo smaltimento di questi composti, si sono verificate le condizioni per provocare l’inquinamento delle falde del territorio provinciale. Nel corso degli anni, si sono svolti studi di diverso carattere, finalizzati ad individuare e caratterizzare siti (o raggruppamenti di siti) contaminati da idrocarburi clorurati. In questo lavoro si è allargata l’attenzione a tutti i siti presenti nel territorio definito dai limiti amministrativi della Provincia di Ferrara, che, nell‘arco temporale 2000 – 2015, hanno evidenziato contaminazioni da CAHs nell’acquifero superficiale A0 e/o nell’acquifero confinato A1. Si sono create, quindi, carte di distribuzione dei siti inquinati su scala provinciale, analizzandone principalmente caratteristiche idrogeologiche e variazioni di distribuzione chimica nello spazio e nel tempo, in relazione agli studi di caratterizzazione ed a eventuali messe in sicurezza e/o bonifiche. I dati necessari sono stati reperiti dagli atti amministrativi e dai relativi documenti tecnici, messi a disposizione dalla Provincia di Ferrara. L’attenzione è ricaduta in particolare sul cloruro di vinile (Vinyl Chloride, VC) ritrovato in alte concentrazioni e in un alto numero di siti. Il suo non utilizzo diretto nei processi produttivi in esame, ne esclude la presenza in qualità di contaminante primario, classificandolo come prodotto della degradazione di altri idrocarburi clorurati più complessi, in larga parte etileni clorurati. Si è inoltre appurato, come la presenza di VC non sia solo attribuibile a siti operanti nel settore metallurgico o chimico, ma riguardi in alcuni casi inquinamenti provocati da commercio o stoccaggio di carburanti, a cui, in passato, furono aggiunti solventi clorurati per migliorarne le caratteristiche chimico-fisiche. Si è concluso infine, come nel territorio della Provincia di Ferrara siano frequenti condizioni particolari, che favoriscono la degradazione di composti organo-clorurati complessi, ed agevolano l’accumulo di cloruro di vinile. Tali caratteristiche, sono state principalmente individuate nella diffusa presenza di livelli fini, anche torbosi, e nella altrettanto diffusa presenza di ambienti riducenti, non solo nel caso dell’acquifero confinato A1 ma anche nel caso dell’acquifero superficiale A0.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell'ambito dell'industria di processo, si definisce "effetto domino" la propagazione di un evento incidentale primario dovuta all’accadimento di uno o più incidenti secondari innescati dall’evento primario, con amplificazione dell’area di danno. Un incidente con effetto domino vede infatti la presenza iniziale di uno scenario incidentale primario, solitamente causato dal rilascio di sostanze pericolose e/o dal rilascio di energia tali da determinare effetti dannosi in grado di innescare successivamente degli eventi incidentali secondari, che determinino un'intensificazione delle conseguenze dell'evento iniziale. Gli incidenti con effetto domino possono avere conseguenze all'interno dello stabilimento in cui ha origine lo scenario incidentale primario o all'esterno, eventualmente coinvolgendo, stabilimenti limitrofi: nel primo caso si parla di effetto domino intra-stabilimento, nel secondo di effetto domino inter-stabilimento. Gli ultimi decenni hanno visto un forte aumento della domanda di prodotti dell'industria chimica e dunque del numero di impianti di processo, talvolta raggruppati nei cosiddetti "chemical clusters", ossia aree ad elevata concentrazione di stabilimenti chimici. In queste zone il rischio di effetto domino inter-stabilimento è particolarmente alto, a causa della stretta vicinanza di installazioni che contengono elevati quantitativi di sostanze pericolose in condizioni operative pericolose. È proprio questa consapevolezza, purtroppo confermata dal verificarsi di diversi incidenti con effetto domino, che ha determinato negli ultimi anni un significativo aumento delle ricerche relative all'effetto domino e anche una sua maggiore considerazione nell'ambito della normativa. A riguardo di quest'ultimo aspetto occorre citare la Direttiva Europea 2012/18/UE (comunemente denominata Direttiva Seveso III) e il suo recepimento nella normativa italiana, il Decreto Legislativo del 26 giugno 2015, "Attuazione della direttiva 2012/18/UE relativa al controllo del pericolo di incidenti rilevanti connessi con sostanze pericolose, entrato in vigore il 29 luglio 2015: questo decreto infatti dedica ampio spazio all'effetto domino e introduce nuovi adempimenti per gli stabilimenti a Rischio di Incidente Rilevante presenti sul territorio nazionale. In particolare, l'Allegato E del D. Lgs. 105/2015 propone una metodologia per individuare i Gruppi domino definitivi, ovvero i gruppi di stabilimenti a Rischio di Incidente Rilevante tra i quali è possibile il verificarsi di incidenti con effetto domino inter-stabilimento. Nel presente lavoro di tesi, svolto presso ARPAE (Agenzia Regionale per la Prevenzione, l'Ambiente e l'Energia) dell'Emilia Romagna, è stata effettuata, secondo la metodologia proposta dall'Allegato E del D. Lgs. 105/2015, la valutazione dell'effetto domino inter-stabilimento per gli stabilimenti a Rischio di Incidente Rilevante presenti in Emilia Romagna, al fine di individuare i Gruppi domino definitivi e di valutare l'aggravio delle conseguenze fisiche degli eventi incidentali primari origine di effetto domino.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Elaborato che si propone di evidenziare come i veicoli a benzina e a diesel possano soddisfare la normativa Euro 6. Si analizza il funzionamento dei principali sistemi di after-treatment come: catalizzatore SCR e DeNOx, trappola LNT, filtri FAP e DPF, sistemi EGR, per i motori ad accensione per compressione e catalizzatore TWC per motori ad accensione comandata. Parallelamente, si spiega l'evoluzione della normativa da Euro 6b a Euro 6c in termini di riduzione del numero di particelle di particolato emesse per km e come rispondere a queste più restrittive condizioni; viene introdotto, in via ancora sperimentale, il filtro antiparticolato GPF e un sistema di misurazione di nano particelle di dimensioni inferiori a 23 nm cioè una rivalutazione del metodo PMP. Contestualmente si definisce il progetto CARS 2020, il quale aggiunge una limitazione anche sulla quantità di anidride carbonica emessa a 95 g/km e le eventuali possibili soluzioni per rispettarla: da un maggior uso di combustibili alternativi a miglioramenti tecnologici dei motori stessi. Infine si studiano gli sviluppi dei cicli di omologazione, dal 2017 infatti entreranno in gioco test su strada con dispositivi PEMS on-board e cicli armonizzati WLTC. Le procedure RDE e WLTP permetteranno di testare i vecioli in maniera più reale e globale, rispettivamente, riuscendo a fornire anche valori attendibili dei consumi registrati durante le prove.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi, sono esposti i sistemi di navigazione che si sono evoluti, parimenti con il progresso scientifico e tecnologico, dalle prime misurazioni della Terra, per opera della civiltà ellenica, circa 2.500 anni fa, sino ai moderni sistemi satellitari e ai mai tramontati sistemi di radionavigazione. I sistemi di navigazione devono rispondere alla sempre maggiore richiesta di precisione, affidabilità, continuità e globalità del servizio, della società moderna. È sufficiente pensare che, attualmente, il solo traffico aereo civile fa volare 5 miliardi di passeggeri ogni anno, in oltre 60 milioni di voli e con un trasporto cargo di 85 milioni di tonnellate (ACI - World Airports Council International, 2012). La quota di traffico marittimo mondiale delle merci, è stata pari a circa 650 milioni di TEU (twenty-foot equivalent unit - misura standard di volume nel trasporto dei container ISO, corrisponde a circa 40 metri cubi totali), nel solo anno 2013 (IAPH - International Association of Ports and Harbors, 2013). Questi pochi, quanto significativi numeri, indicano una evidente necessità di “guidare” questo enorme flusso di aerei e navi in giro per il mondo, sempre in crescita, nella maniera più opportuna, tracciando le rotte adeguate e garantendo la sicurezza necessaria anche nelle fasi più delicate (decollo e atterraggio per gli aeroplani e manovre in porto per le grandi navi). Nello sviluppo della tesi si proverà a capire quali e quanto i sistemi di navigazione possono assolvere al ruolo di “guida” del trasporto aereo e marittimo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il crescente bisogno di infrastrutture di trasporto va inevitabilmente a collidere con la penuria di spazi che caratterizzano le città metropolitane. Per questo motivo ci si orienta sempre più spesso verso soluzioni che riescono a minimizzare lo spazio urbano utilizzato per sopperire ai bisogni legati alla mobilità. Il presente lavoro di tesi è incentrato sul tema del comportamento di scavi a cielo aperto in ambiente urbano, con particolare riferimento agli spostamenti delle strutture perimetrali di sostegno e del terreno a monte, nonché alla caratterizzazione geotecnica dei terreni interessati. In contesti edificati infatti, il controllo degli spostamenti è di fondamentale importanza per ridurre il più possibile il rischio di effetti indesiderati sulle strutture preesistenti. Il lavoro è stato strutturato come segue: Il capitolo 2 è dedicato ai risultati di evidenze sperimentali raccolte da diversi ricercatori con riferimento a un gran numero di casi di studio, che hanno portato alla definizione di correlazioni empiriche tra gli spostamenti, le caratteristiche del terreno e dell'opera di sostegno. Queste costituiscono un primo riferimento per una previsione qualitativa degli spostamenti indotti dagli scavi. Nel capitolo 3 si affronta il caso studio della stazione Dateo della metropolitana M4 di Milano, particolare attenzione viene rivolta alla caratterizzazione tecnologica degli elementi fondamentali, strutturali e geotecnici, che qualificano questo tipo di opere. Nel capitolo 4 vengono sintetizzati i risultati delle campagne geognostiche, ed esposta la caratterizzazione geotecnica dei terreni dell'area in esame. Il capitolo 5 è dedicato alla descrizione di semplici metodi empirici per la stima dei massimi spostamenti indotti dalla realizzazione di scavi profondi. Nel capitolo 6 si presentano le conclusioni del lavoro svolto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Grazie alla costante evoluzione tecnologica, negli ultimi anni sempre più oggetti di vita quotidiana stanno accedendo ad Internet. Il proliferare dei dispositivi “smart” ha dato il via ad una nuova rivoluzione tecnologica: quella di Internet of Things (IoT), che sta portando nelle mani degli utenti un elevatissimo numero di informazioni in grado di offrire notevoli benefici alla vita di ogni giorno. Per poter accedere ai dati messi a disposizione risulterà necessario realizzare un servizio in grado di consentire la scoperta, l’accesso e l’interazione con i nodi della rete che si occuperanno della gestione delle informazioni. In letteratura sono già disponibili alcuni di questi meccanismi, ma essi presentano dei difetti che verrebbero ancor più accentuati dalle ridotte capacità computazionali dei terminali IoT. In questo progetto di tesi verrà presentato un servizio di discovery per gateway IoT Kura-based, pensato, grazie all’utilizzo del protocollo di messaggistica MQTT, per operare con terminali dalle performance limitate ed in situazioni di scarsa connettività. Il servizio realizzato prevede che degli smartphone Android richiedano a tutti i gateway in una determinata località i parametri per entrare nel loro network. La richiesta verrà inviata mediante un messaggio MQTT pubblicato in un topic location-specific su un broker remoto. I gateway che riceveranno il messaggio, se interessati alle caratteristiche del client, gli risponderanno comunicando i dati di accesso al network in modo che il dispositivo possa auto-configurarsi per accedervi. Ad accesso avvenuto client e gateway comunicheranno in modo diretto attraverso un broker locale. In fase di testing si valuteranno le performance del servizio analizzando i tempi di risposta e l’utilizzo di risorse lato gateway, e l’assorbimento di potenza lato client.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.