887 resultados para Rete di drenaggio, simulazione numerica, impianti di sollevamento, portate parassite
Resumo:
La presente tesi esamina le caratteristiche geologico-tecniche della frana avvenuta il 3 dicembre 2013 in Montescaglioso (Matera) . Il fenomeno franoso ha determinato l’interruzione della strada a “scorrimento veloce” che collega l’abitato di Montescaglioso con la valle del Fiume Bradano, sede delle principali arterie di comunicazione del Comune. Inoltre sono stati del tutto compromessi i servizi della rete gas, della rete di smaltimento delle acque nere e, limitatamente all’area circoscritta, anche della rete elettrica. Numerosi sono i danni causati alle unità abitative e commerciali, alcune delle quali sono state completamente distrutte. L’eccezionalità dell’evento franoso, determinata sia dalla dimensione della massa coinvolta, che dai danni provocati alle infrastrutture, ha reso da subito indispensabile il coinvolgimento di strutture statali e regionali che insieme al comune di Montescaglioso hanno istituito un tavolo tecnico permanente per far fronte all’emergenza in essere. In particolare la tesi si occupa della ricostruzione geologica, geomorfologica e idrogeologica pre e post frana , utili per comprenderne le dinamiche morfo-evolutive del fenomeno.
Resumo:
La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.
Resumo:
Studio e realizzazione di una rete Wireless Sensor Network per il monitoraggio ambientale di area archeologica. Trasmissione dati raccolti su server tcp. Misure sperimentali su rete di sensori radar UWB per la localizzazione di un target in ambiente indoor
Resumo:
Studio di un nuovo algoritmo di localizzazione per rete di sensori ad ultrasuoni e sviluppo di un simulatore di propagazione di onda sonora.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
Il percorso progettuale intrapreso ci ha permesso di confrontarci con un’analisi del territorio e della storia romana, che ne ha influenzato l’evoluzione. Considerando tutti i frammenti come parte di un sistema più grande dove non è possibile comprenderne uno se non attraverso gli altri, si è deciso di valorizzare con una strategia diversa con criteri ben precisi. Così viene ristabilita la rete di connessioni e relazioni che secondo noi più aiutano nella comprensione del sito e della sua storia, cercando di integrare nel contesto la varietà di sistemi archeologici, storici e culturali che caratterizzano il sito. I resti della città romana vengono trattati con approcci diversi, a seconda del grado di conoscenza e di esperienza che possiamo avere di ogni reperto. Per le tracce meno evidenti sono stati usati interventi più leggeri, reversibili, mentre per le rovine di cui abbiamo maggiori informazioni, sono stati proposti interventi più strutturati, che accompagnino il visitatore nella loro scoperta e comprensione. Le tracce di cui non si hanno molte informazioni, sono state trattate con segni molto più leggeri e reversibili, usando una strategia di lining out che comporti l’impiego di essenze, scelte in base ad associazioni con quello che vanno a simboleggiare. Per le emergenze archeologiche evidenti, è stato pensato un percorso interno che possa renderle fruibili, lasciando le rovine più intatte possibile, mentre l’intervento di musealizzazione più importante è destinato alla domus, che contiene i resti più rilevanti e quelli che necessitano una maggiore protezione.
Resumo:
Il percorso progettuale intrapreso ci ha permesso di confrontarci con un’analisi del territorio e della storia romana, che ne ha influenzato l’evoluzione. Considerando tutti i frammenti come parte di un sistema più grande dove non è possibile comprenderne uno se non attraverso gli altri, si è deciso di valorizzare gli elementi presenti con criteri ben precisi. Così viene ristabilita la rete di connessioni e relazioni che secondo noi più aiutano nella comprensione del sito e della sua storia, cercando di integrare nel contesto la varietà di sistemi archeologici, storici e culturali che caratterizzano il sito. I resti della città romana vengono trattati con approcci diversi, a seconda del grado di conoscenza e di esperienza che possiamo avere di ogni reperto. Per le tracce meno evidenti sono stati usati interventi più leggeri, reversibili, mentre per le rovine di cui abbiamo maggiori informazioni, sono stati proposti interventi più strutturati, che accompagnino il visitatore nella loro scoperta e comprensione. Le tracce di cui non si hanno molte informazioni, sono state trattate con segni molto più leggeri e reversibili, usando una strategia di lining out che comporti l’impiego di essenze, scelte in base ad associazioni con quello che vanno a simboleggiare. Per le emergenze archeologiche evidenti, è stato pensato un percorso interno che possa renderle fruibili, lasciando le rovine più intatte possibile, mentre l’intervento di musealizzazione più importante è destinato alla domus, che contiene i resti più rilevanti e quelli che necessitano una maggiore protezione.
Resumo:
Le lagune costituiscono ecosistemi dinamici ed eterogenei, caratterizzati da comunità biologiche più ristrette rispetto agli ambienti marini confinanti. Si tratta di ambienti delicati e spesso soggetti a disturbo antropico, per cui è importante monitorare lo stato ecologico del loro sistema. Un ottimo strumento per questa valutazione è rappresentato dalle comunità di invertebrati che popolano i sedimenti. Nel presente studio ci si propone di indagare la struttura dei popolamenti macrobentonici nella laguna di Messolonghi (Grecia occidentale), parte di un sistema lagunare di importanza ecologica in tutto il Mediterraneo, come testimoniato dalla designazione di ‘important bird area’ (IPA) nell’ambito del programma sviluppato dall’organizzazione BirdLife International; dalla presenza di siti dichiarati di interesse comunitario (SIC) all’interno della rete di protezione europea “Natura 2000”, nell’ambito della Direttiva Habitat (92/43/CEE). In questo studio viene indagata la struttura della comunità di invertebrati nella laguna e il ruolo della vegetazione e delle condizioni ambientali nel condizionare la disposizione dei popolamenti. A tale scopo vengono applicati indici di diversità che vengono messi in relazione alle specie vegetali presenti e alle caratteristiche del sedimento. I risultati mostrano una comunità diversificata, non regolata da un preciso gradiente ambientale, su cui la principale influenza risulta essere la vegetazione nel suo complesso. Nelle stazioni vegetate si trova un’elevata ricchezza specifica mentre l’equidistribuzione rimane invariata tra habitat vegetato e non. Dalle possibili correlazioni esaminate, risulta che l’abbondanza di alcuni dei taxa più importanti nel differenziamento delle strutture di comunità osservato varia in relazione alla granulometria dei sedimenti e al loro contenuto in azoto e carbonio organico.
Resumo:
In questo elaborato si è focalizzata l’attenzione sulla determinazione del rischio simico e idrogeologico per una rete di distribuzione acqua. Partendo dalle caratteristiche di ogni singolo elemento si sono valutati la vulnerabilità, l’esposizione e la pericolosità per ogni condotta. In conclusione si è analizzato il rischio al fine di individuare quegli elementi maggiormente compromessi su cui concentrare l’attenzione per possibili interventi futuri.
Resumo:
In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.
Resumo:
La ricerca ha scelto di affrontare una serie di problemi connessi alla valorizzazione e alla conservazione del materiale pubblicitario rispetto a un caso studio selezionato, l’archivio dell’Art Directors Club Italiano conservato presso il Centro Studi e Archivio della Comunicazione dell’Università di Parma. Questo archivio è costituito principalmente da materiali della comunicazione pubblicitaria - suddivisi in categorie corrispondenti a media e tecniche - iscritti dal 1998 al 2003 agli ADCI Awards, il premio italiano di riferimento dedicato alla pubblicità e organizzato dall’Art Directors Club Italiano - ADCI a partire dall’anno della sua fondazione, il 1985. La sua storia è quindi connessa strettamente con quella dell’associazione, che rappresenta e riunisce professionisti della pubblicità che condividono obiettivi comuni, e in particolare il riconoscimento e la valorizzazione della creatività come elemento fondante della comunicazione d’impresa e istituzionale. Lo CSAC in parallelo, il contesto archivistico all’interno del quale questi fondi sono venuti a trovarsi in seguito alla donazione da parte dell’ADCI nel 2002-2003, è un centro di ricerca dell’Università di Parma dedicato alla conservazione e allo studio di archivi provenienti da diversi ambiti culturali. A partire da una mappatura dell’archivio e dalla ricostruzione di contesti e dibattiti fondamentali per studiare e organizzare i fondi, questa tesi si propone di individuare, in particolare attraverso gli strumenti digitali, possibili modalità di analisi, esposizione e accesso ai materiali, che possano aprire una rete di connessioni verso altri ambiti di ricerca e nuove prospettive in funzione delle storie della pubblicità.
Resumo:
Internet ha rivoluzionato il modo di comunicare degli individui. Siamo testimoni della nascita e dello sviluppo di un'era caratterizzata dalla disponibilità di informazione libera e accessibile a tutti. Negli ultimi anni grazie alla diffusione di smartphone, tablet e altre tipologie di dispositivi connessi, è cambiato il fulcro dell'innovazione spostandosi dalle persone agli oggetti. E' così che nasce il concetto di Internet of Things, termine usato per descrivere la rete di comunicazione creata tra i diversi dispositivi connessi ad Internet e capaci di interagire in autonomia. Gli ambiti applicativi dell'Internet of Things spaziano dalla domotica alla sanità, dall'environmental monitoring al concetto di smart cities e così via. L'obiettivo principale di tale disciplina è quello di migliorare la vita delle persone grazie a sistemi che siano in grado di interagire senza aver bisogno dell'intervento dell'essere umano. Proprio per la natura eterogenea della disciplina e in relazione ai diversi ambiti applicativi, nell'Internet of Things si può incorrere in problemi derivanti dalla presenza di tecnologie differenti o di modalità eterogenee di memorizzazione dei dati. A questo proposito viene introdotto il concetto di Internet of Things collaborativo, termine che indica l'obiettivo di realizzare applicazioni che possano garantire interoperabilità tra i diversi ecosistemi e tra le diverse fonti da cui l'Internet of Things attinge, sfruttando la presenza di piattaforme di pubblicazione di Open Data. L'obiettivo di questa tesi è stato quello di creare un sistema per l'aggregazione di dati da due piattaforme, ThingSpeak e Sparkfun, con lo scopo di unificarli in un unico database ed estrarre informazioni significative dai dati tramite due tecniche di Data Mining: il Dictionary Learning e l'Affinity Propagation. Vengono illustrate le due metodologie che rientrano rispettivamente tra le tecniche di classificazione e di clustering.
Resumo:
Nella società odierna, le telecomunicazioni costituiscono un’esigenza fondamentale della vita quotidiana. Difatti, il mercato della ICT (Information and Communications Technology) è in costante espansione, e viene accompagnato da un rapido sviluppo di nuove tecnologie. In particolare, si assiste a un sempre più rilevante ruolo svolto dalle comunicazioni ottiche, ovvero sfruttanti la luce: in questo contesto, il quale comprende diversi rami ingegneristici, si stanno progressivamente affermando nuove forme di comunicazione basate sulla luce visibile, la cosiddetta Visible Light Communication (VLC). Con questa Tesi ci si propone di implementare con Simulink e stateflow di Matlab il livello MAC (Medium Access Control), basato sullo standard IEEE 802.15.7 per le VLC e valutarne le prestazioni. Prescinde da questa Tesi la parte di implementazione su scheda stessa che è lasciata per sviluppi futuri. Nel capitolo uno si introducono le VLC e si discutono i principali scenari attuali dove possono diffondersi. Nel capitolo 2, si mostrano le principali linee guida afferenti agli standard che sono risultate necessarie per sviluppare lo strato MAC. Nei capitoli 3 e 4 si mostra come il layer sviluppato possa essere utilizzato in due principali situazioni: nel capitolo 3 è descritta la realizzazione di una comunicazione punto-punto, ovvero con un trasmettitore e un ricevitore; nel capitolo 4 è descritta l’implementazione di una rete di nodi, ambito in cui il livello MAC risulta indispensabile. Per ognuna delle situazioni si illustrano scelte e caratteristiche dei sistemi simulati e i risultati ottenuti, cercando di coprire diverse eventualità che intercorrono, più in generale, nella gestione e implementazione di sistemi di telecomunicazione wireless.
Resumo:
In questa tesi viene elaborata un'applicazione ultra-low power (ULP) basata su microcontrollore, per implementare la procedura di controllo di diversi circuiti di un tag RFID. Il tag preso in considerazione è pensato per lavorare in assenza di batteria, da cui la necessita' di ridurre i consumi di potenza. La sua attivazione deve essere inoltre comandata attraverso un'architettura Wake up Radio (WuR), in cui un segnale di controllo radio indirizza e attiva il circuito. Nello specifico, la rete di decodifica dell'indirizzo è stata realizzata mediante il modulo di comunicazione seriale del microcontrollore. Nel Capitolo 1 verrà introdotto il tema dell'Energy Harvesting. Nel Capitolo 2 verrà illustrata l'architettura del sistema nel suo complesso. Nel Capitolo 3 verrà spiegato dettagliatamente il funzionamento del microcontrollore scelto. Il Capitolo 4 sarà dedicato al firmware implementato per svolgere le operazioni fondamentali imputate al micro per i compiti di controllo. Verrà inoltre introdotto il codice VHDL sviluppato per emulare l'output del modulo WuR mediante un FPGA della famiglia Cyclone II. Nel Capitolo 5 verrà presentata una stima dei consumi del microcontrollore in funzione dei parametri di configurazione del sistema. Verrà inoltre effettuato un confronto con un altro microcontrollore che in alcune condizioni potrebbe rappresentare iun'alternativa valida di progetto. Nei Capitoli 6 e 7 saranno descritti possibili sviluppi futuri e conclusioni del progetto. Le specifiche di progetto rilevanti della tesi sono: 1. minimo consumo energetico possibile del microcontrollore ULP 2. elevata rapidità di risposta per la ricezione dei tag, per garantire la ricezione di un numero maggiore possibile di indirizzi (almeno 20 letture al secondo), in un range di tempo limitato 3. generazione di un segnale PWM a 100KHz di frequenza di commutazione con duty cycle 50% su cui basare una modulazione in back-scattering.
Resumo:
Il presente lavoro di tesi analizza un tratto del fiume Secchia, prossimo alla località di Veggia (Sassuolo), al fine di determinare la variazione del livello idrometrico in funzione di diverse portate associate a tempi di ritorno a breve e lungo termine. Vengono dapprima introdotti il concetto di rischio idraulico ed i relativi riferimenti normativi che lo disciplinano, unitamente ai piani di gestione e ai possibili interventi di protezione fluviale. Si introduce successivamente il codice di calcolo HEC-RAS, che viene impiegato nel presente studio per simulare l’andamento dei profili di moto permanente, nel caso in cui il fiume sia o meno interessato dalla presenza di un ponte. In entrambi i casi vengono poi discusse le variazioni dei livelli idrometrici per portate con tempi di ritorno di 20, 100 e 200 anni: si osserva che l’asta fluviale è a rischio nella zona a valle dello studio, mentre nella zona dove è ubicato il ponte l’aumentare dei livelli idrometrici non mette in crisi la struttura. A seguire vengono presentate le opere di mitigazione, destinate alla protezione dell’alveo e dell’ambiente circostante. Poi, si mostrano le opere di mitigazione, essi funzionano di diminuire i rischi dalla diversa classificazione di opere.