681 resultados para problema di Cauchy teorema di dipendenza continua dai dati iniziali teorema di dipendenza regolare dai dati e dai parametri
Resumo:
I cambiamenti climatici dovuti all’immissione in atmosfera dei gas serra costringono alla ricerca di possibili soluzioni per la loro riduzione. Una risposta potrebbe essere rappresentata dall’impiego di calcestruzzi geopolimerici in quanto riducono notevolmente l’emissione in atmosfera di anidride carbonica rispetto ai calcestruzzi tradizionali. In letteratura sono numerosi gli studi di calcestruzzi geopolimerici realizzati mediante trattamenti termici applicati dopo le operazioni di confezionamento. Pochissime sono invece le ricerche effettuate su calcestruzzi geopolimerici prodotti senza trattamenti termici; in questa tesi sperimentale si è voluto indagare quest’ultimo tipo di conglomerati. In particolare si è studiato il mix design del calcestruzzo geopolimerico partendo dalla formulazione del calcestruzzo tradizionale. Da subito si è posto il problema di quale agente riduttore di acqua utilizzare. Pertanto è stata predisposta una sperimentazione di diversi tipi di fluidificanti e superfluidificanti su campioni di malta geopolimerica. In seguito sono stati testati diversi conglomerati geopolimerici con propri mix design, derivati in parte da esempi in letteratura, al fine di conseguire un accettabile valore di resistenza meccanica a compressione. Nella prospettiva di un possibile utilizzo in cantiere è stata indagata con particolare attenzione, la lavorabilità delle malte e dei calcestruzzi geopolimerici attraverso prove di consistenza, ponendola in relazione alle malte e i calcestruzzi cementizi. Sono state inoltre analizzate le caratteristiche dei materiali prodotti allo stato indurito, quali densità, assorbimento di acqua, modulo elastico e resistenza meccanica. Infine, è stata analizzata la fattibilità di un possibile utilizzo in cantiere.
Resumo:
In una formulazione rigorosa della teoria quantistica, la definizione della varietà Riemanniana spaziale su cui il sistema è vincolato gioca un ruolo fondamentale. La presenza di un bordo sottolinea l'aspetto quantistico del sistema: l'imposizione di condizioni al contorno determina la discretizzazione degli autovalori del Laplaciano, come accade con condizioni note quali quelle periodiche, di Neumann o di Dirichlet. Tuttavia, non sono le uniche possibili. Qualsiasi condizione al bordo che garantisca l'autoaggiunzione dell' operatore Hamiltoniano è ammissibile. Tutte le possibili boundary conditions possono essere catalogate a partire dalla richiesta di conservazione del flusso al bordo della varietà. Alcune possibili condizioni al contorno, permettono l'esistenza di stati legati al bordo, cioè autostati dell' Hamiltoniana con autovalori negativi, detti edge states. Lo scopo di questa tesi è quello di investigare gli effetti di bordo in sistemi unidimensionali implementati su un reticolo discreto, nella prospettiva di capire come simulare proprietà di edge in un reticolo ottico. Il primo caso considerato è un sistema di elettroni liberi. La presenza di edge states è completamente determinata dai parametri di bordo del Laplaciano discreto. Al massimo due edge states emergono, e possono essere legati all' estremità destra o sinistra della catena a seconda delle condizioni al contorno. Anche il modo in cui decadono dal bordo al bulk e completamente determinato dalla scelta delle condizioni. Ammettendo un' interazione quadratica tra siti primi vicini, un secondo tipo di stati emerge in relazione sia alle condizioni al contorno che ai parametri del bulk. Questi stati sono chiamati zero modes, in quanto esiste la possibilità che siano degeneri con lo stato fondamentale. Per implementare le più generali condizioni al contorno, specialmente nel caso interagente, è necessario utilizzare un metodo generale per la diagonalizzazione, che estende la tecnica di Lieb-Shultz-Mattis per Hamiltoniane quadratiche a matrici complesse.
Resumo:
In questa tesi viene trattato il problema dell'equilibrio di un filo flessibile e inestensibile, visto come caso particolare di un problema di statica. Prima si analizza il comportamento di un filo soggetto a forze parallele, poi si studia il caso in cui il filo sia sottoposto alla sola forza peso assumendo, così, la configurazione d'equilibrio nota come catenaria omogenea.
Resumo:
Il progresso scientifico e le innovazioni tecnologiche nei campi dell'elettronica, informatica e telecomunicazioni, stanno aprendo la strada a nuove visioni e concetti. L'obiettivo della tesi è quello d'introdurre il modello del Cloud computing per rendere possibile l'attuale visione di Internet of Thing. Nel primo capitolo si introduce Ubiquitous computing come un nuovo modo di vedere i computer, cercando di fare chiarezza sulla sua definizione, la sua nascita e fornendo un breve quadro storico. Nel secondo capitolo viene presentata la visione di Internet of Thing (Internet delle “cose”) che si avvale di concetti e di problematiche in parte già considerate con Ubiquitous computing. Internet of Thing è una visione in cui la rete Internet viene estesa agli oggetti di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati ambientali sono solo alcuni esempi. Per realizzare questo tipo di applicazioni le tecnologie wireless sono da considerare necessarie, sebbene questa visione non assuma nessuna specifica tecnologia di comunicazione. Inoltre, anche schede di sviluppo possono agevolare la prototipazione di tali applicazioni. Nel terzo capitolo si presenta Cloud computing come modello di business per utilizzare su richiesta risorse computazionali. Nel capitolo, vengono inizialmente descritte le caratteristiche principali e i vari tipi di modelli di servizio, poi viene argomentato il ruolo che i servizi di Cloud hanno per Internet of Thing. Questo modello permette di accelerare lo sviluppo e la distribuzione di applicazioni di Internet of Thing, mettendo a disposizione capacità di storage e di calcolo per l'elaborazione distribuita dell'enorme quantità di dati prodotta da sensori e dispositivi vari. Infine, nell'ultimo capitolo viene considerato, come esempio pratico, l'integrazione di tecnologie di Cloud computing in una applicazione IoT. Il caso di studio riguarda il monitoraggio remoto dei parametri vitali, considerando Raspberry Pi e la piattaforma e-Health sviluppata da Cooking Hacks per lo sviluppo di un sistema embedded, e utilizzando PubNub come servizio di Cloud per distribuire i dati ottenuti dai sensori. Il caso di studio metterà in evidenza sia i vantaggi sia le eventuali problematiche che possono scaturire utilizzando servizi di Cloud in applicazioni IoT.
Resumo:
L'elaborato si impegna ad esporre i risultati derivanti da una revisione estensiva della letteratura riguardante le pratiche di misurazione della sostenibilità in azienda. Si è scelto un approccio al problema di impostazione bibliometrico, consistente in analisi statistiche di dati bibliografici ricavabili osservando le relazioni tra documenti. Si sono utilizzati strumenti di clustering per categorizzare la letteratura ed individuare le aree di maggior interesse potenziali per aziende che desiderino investire con successo nella sostenibilità. Come risultato, si è ottenuta una chiara identificazione delle principali tematiche che devono essere tenute in considerazione nell’affrontare valutazioni relative alla misurazione e valorizzazione dei concetti di sostenibilità e impatto ambientale in ambito aziendale. Il presente lavoro si presenta inoltre come guida metodologica per un approccio quantitativo alla revisione della letteratura, adattabile ed applicabile in maniera iterativa per un continuo monitoraggio del tema o per indagini in altri ambiti. Questa tesi si pone dunque come base per ricerche e analisi successive finalizzate alla comprensione della letteratura.
Resumo:
Il presente lavoro si riferisce alle acque delle fontane a ricircolo. Una fontana a ricircolo è un’opera monumentale le cui acque non sono erogate come potabili; inoltre le persone non vi si immergono ma potendo comunque venirne a contatto tramite schizzi o animali, vanno trattate con una disinfezione mirata ad eliminare gli agenti patogeni pericolosi per l’uomo. Dopo aver inquadrato il problema dal punto di vista normativo, nel primo capitolo, si è passati ad analizzare il problema sanitario, descrivendo microorganismi patogeni e indicatori di rischio. È stato tuttavia necessario tenere conto anche di un altro problema: quello dell’aggressività di certi prodotti disinfettanti sui materiali costituenti la fontana. A tal proposito è stato riportato l’esempio di un caso di studio, il restauro della Fontana delle Tartarughe di Roma. Infine, dopo varie considerazioni volte ad analizzare un adeguato compromesso tra problema sanitario e problema di aggressività/corrosione sui materiali, si è dimostrato come la tecnica di disinfezione a raggi UV sia preferibile per le fontane monumentali a ricircolo.
Resumo:
Nell'ambito della meccanica quantistica è stato sviluppato uno strumento di calcolo al fine di studiare sistemi per i quali è troppo difficile risolvere il problema di Schrödinger. Esso si basa sull'idea di considerare un sistema semplice, totalmente risolvibile, e perturbarlo fino ad ottenere un'Hamiltoniana simile a quella che si vuole studiare. In questo modo le soluzioni del sistema più complicato sono le soluzioni note del problema semplice corrette da sviluppi in serie della perturbazione. Nonostante il grande successo della Teoria perturbativa, essendo una tecnica di approssimazione, presenta delle limitazioni e non può essere usata in ogni circostanza. In questo lavoro di tesi è stata valutata l'efficacia della Teoria perturbativa ricercando la compatibilità tra le soluzioni trovate col metodo analitico e quelle esatte ottenute numericamente. A tale scopo è stato usato il sistema fisico dell'oscillatore anarmonico, ovvero un oscillatore armonico standard sottoposto ad una perturbazione quartica. Per l'analisi numerica invece è stato utilizzato il programma Wolfram Mathematica. La trattazione seguita ha dimostrato che la Teoria perturbativa funziona molto bene in condizioni di bassa energia e di piccole perturbazioni. Nel momento in cui il livello energetico aumenta e l'intensità della perturbazione diventa significativa, i risultati analitici cominciano a divergere da quelli ottenuti numericamente.
Resumo:
Il trasporto marittimo è una delle modalità più utilizzate soprattutto per la movimentazione di grandi volumi di prodotti tra i continenti in quanto è a basso costo, sicuro e meno inquinante rispetto ad altri mezzi di movimentazione. Ai giorni nostri è responsabile di circa l’80% del commercio globale (in volume di carichi trasportati). Il settore del trasporto marittimo ha avuto una lunga tradizione di pianificazione manuale effettuata da progettisti esperti. L’obiettivo principale di questa trattazione è stato quello di implementare un modello matematico lineare (MILP, Mixed-Integer Linear Programming Model) per l’ottimizzazione delle rotte marittime nell’ambito del mercato orto-frutticolo che si sviluppa nel bacino del Mediterraneo (problema di Ship-Scheduling). Il modello fornito in questa trattazione è un valido strumento di supporto alle decisioni che può utilizzare uno spedizioniere nell’ambito della pianificazione delle rotte marittime della flotta di navi in suo possesso. Consente di determinare l’insieme delle rotte ottimali che devono essere svolte da un insieme di vettori al fine di massimizzare il profitto complessivo dello spedizioniere, generato nell’arco di tempo considerato. Inoltre, permette di ottenere, per ogni nave considerata, la ripartizione ottimale della merce (carico ottimale).
Resumo:
Quando si fa una ricerca su Internet con i motori di ricerca, tipo Google, lo scopo è quello di trovare tutte le pagine Web contenenti le parole richieste. Ancor di più, si vorrebbe avere la miglior risposta alla nostra richiesta tra le prime pagine lette, senza dover passare in rassegna tutte le migliaia di pagine che il motore di ricerca propone. Quello che riceviamo come risposta dal motore di ricerca, è infatti una lista lunghissima di pagine Web, contenenti le parole chiave e ordinate in base all’importanza. Nelle prime posizioni della lista troveremo le pagine più significative, mentre in fondo ci saranno quelle di meno rilevanza. In questa tesi affronteremo, appunto, il problema di classificazione, il quale non è basato su un giudizio umano, ma sulla struttura dei link del Web. Studieremo, per l’esattezza, il concetto di pagerank usato da Google e di conseguenza l’algoritmo, chiamato proprio PageRank, per classificare le pagine Web. Vedremo che il tutto si basa su un’equazione matematica, ossia sul calcolo dell’autovettore, relativo all’autovalore uguale a 1, di una certa matrice che rappresenta la rete Internet.
Resumo:
Il presente lavoro prende le mosse da un problema di dinamica dei fasci relativo a un metodo di separazione di un fascio di particelle recentemente messo in funzione nell’sincrotrone PS al CERN. In questo sistema, variando adiabaticamente i parametri di un campo magnetico, nello spazio delle fasi si creano diverse isole di stabilità (risonanze) in cui le particelle vengono catturate. Dopo una parte introduttiva in cui si ricava, a partire dalle equazioni di Maxwell, l’hamiltoniana di una particella sottoposta ai campi magnetici che si usano negli acceleratori, e una presentazione generale della teoria dell’invarianza adiabatica, si procede analizzando la dinamica di tali sistemi. Inizialmente si prende in considerazione l’hamiltoniana mediata sulle variabili veloci, considerando perturbazioni (kick) dei termini dipolare e quadrupolare. In ognuno dei due casi, si arriva a determinare la probabilità che una particella sia catturata nella risonanza. Successivamente, attraverso un approccio perturbativo, utilizzando le variabili di azione ed angolo, si calcola la forza della risonanza 4:1 per un kick quadrupolare.
Resumo:
Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.
Resumo:
I test clinici e i questionari generalmente non sono in grado di fornire una valutazione predittiva e quantitativa della stabilità motoria. Permettono al clinico di esaminare la forza muscolare del paziente, il grado di spasticità, la funzionalità motoria e l'autonomia nello svolgimento delle normali attività, ma non di capire quanto il soggetto sia stabile. Sono stati esaminati diciotto pazienti con esiti di stroke in fase post acuta ed il 38% ha affermato di essere caduto almeno una volta nell'arco degli ultimi dodici mesi. Adottando una politica di prevenzione delle cadute si potrebbero limitare questi eventi che vanno ad aggravare un quadro clinico già compromesso. Per tale motivo sono attualmente oggetto di studio misure biomeccaniche, eseguite in laboratorio, atte a definire metodi con alta sensibilità e specificità per la valutazione della stabilità del cammino. Nel presente lavoro le misure strumentali sono state ottenute partendo dal segnale di accelerazione del centro di massa corporeo. Servendosi di un'unità inerziale munita di accelerometro triassiale è stato possibile, durante il cammino, ricavare l'andamento delle accelerazioni antero-posteriore, medio-laterale e verticale. Grazie ad un algoritmo, messo a punto nel Laboratorio di Bioingegneria della Facoltà di Cesena dall'Ing. Federico Riva, sono stati estrapolati gli indici strumentali. Il corpo centrale di questa tesi consiste nell'analisi statistica condotta tramite modelli di regressione lineare che mettono in correlazione parametri clinici (acquisiti per mezzo di test e questionari) abitualmente usati in ospedale e indici strumentali.
Resumo:
La radioterapia guidata da immagini (IGRT), grazie alle ripetute verifiche della posizione del paziente e della localizzazione del volume bersaglio, si è recentemente affermata come nuovo paradigma nella radioterapia, avendo migliorato radicalmente l’accuratezza nella somministrazione di dose a scopo terapeutico. Una promettente tecnica nel campo dell’IGRT è rappresentata dalla tomografia computerizzata a fascio conico (CBCT). La CBCT a kilovoltaggio, consente di fornire un’accurata mappatura tridimensionale dell’anatomia del paziente, in fase di pianificazione del trattamento e a ogni frazione del medisimo. Tuttavia, la dose da imaging attribuibile alle ripetute scansioni è diventata, negli ultimi anni, oggetto di una crescente preoccupazione nel contesto clinico. Lo scopo di questo lavoro è di valutare quantitativamente la dose addizionale somministrata da CBCT a kilovoltaggio, con riferimento a tre tipici protocolli di scansione per Varian OnBoard Imaging Systems (OBI, Palo Alto, California). A questo scopo sono state condotte simulazioni con codici Monte Carlo per il calcolo della dose, utilizzando il pacchetto gCTD, sviluppato sull’architettura della scheda grafica. L’utilizzo della GPU per sistemi server di calcolo ha permesso di raggiungere alte efficienze computazionali, accelerando le simulazioni Monte Carlo fino a raggiungere tempi di calcolo di ~1 min per un caso tipico. Inizialmente sono state condotte misure sperimentali di dose su un fantoccio d’acqua. I parametri necessari per la modellazione della sorgente di raggi X nel codice gCTD sono stati ottenuti attraverso un processo di validazione del codice al fine di accordare i valori di dose simulati in acqua con le misure nel fantoccio. Lo studio si concentra su cinquanta pazienti sottoposti a cicli di radioterapia a intensità modulata (IMRT). Venticinque pazienti con tumore al cervello sono utilizzati per studiare la dose nel protocollo standard-dose head e venticinque pazienti con tumore alla prostata sono selezionati per studiare la dose nei protocolli pelvis e pelvis spotlight. La dose media a ogni organo è calcolata. La dose media al 2% dei voxels con i valori più alti di dose è inoltre computata per ogni organo, al fine di caratterizzare l’omogeneità spaziale della distribuzione.
Resumo:
Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.
Resumo:
Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.