332 resultados para Università degli Studi di Macerata
Resumo:
Il problema che si vuole affrontare è la progettazione e lo sviluppo di un sistema interattivo volto all’apprendimento e alla visita guidata di città d’arte. Si vuole realizzare un’applicazione per dispositivi mobili che offra sia il servizio di creazione di visite guidate che l’utilizzo delle stesse in assenza di connessione internet. Per rendere l’utilizzo dei servizi offerti più piacevole e divertente si è deciso di realizzare le visite guidate sotto forma di cacce al tesoro fotografiche, le cui tappe consistono in indizi testuali che per essere risolti richiedono risposte di tipo fotografico. Si è inoltre scelto di realizzare una community volta alla condivisione delle cacce al tesoro realizzate e al mantenimento di statistiche di gioco. Il contributo originale di questa tesi consiste nella progettazione e realizzazione di una App Android, denominata GeoPhotoHunt, che sfrutta l’idea della caccia al tesoro fotografica e geo localizzata per facilitare le visite guidate a luoghi di interesse, senza la necessità di una connessione ad internet. Il client viene reso indipendente dal server grazie allo spostamento degli algoritmi di image recognition sul client. Esentare il client dalla necessità di una connessione ad internet permette il suo utilizzo anche in città estere dove solitamente non si ha possibilità di connettersi alla rete.
Resumo:
L'oggetto del presente lavoro è la traduzione dal francese in italiano di “Femmes d'Afrique: bâtisseuses d'avenir”, una raccolta di “racconti di vita” di donne dell'Africa subsahariana. Sono proprio le donne le protagoniste del nostro studio: raccontano i soprusi, le violenze o le ingiustizie che hanno subito. Sono donne di successo che lottano affinché anche altre donne africane possano diventarlo. Prima di arrivare alla traduzione, si è compiuto un percorso riflessivo sul testo di partenza che porterà alla luce le condizioni di vita delle donne africane e permetterà la costruzione del Thesaurus delle donne d'Africa. Nel primo capitolo, verrà approfondito il tema principale del nostro lavoro: la condizione di vita delle donne dell’Africa subsahariana. In primo luogo, delineeremo il quadro generale della situazione attuale; in secondo luogo, ci occuperemo dei diritti fondamentali dell’uomo che vengono negati alle donne tramite la pratica di antiche usanze discriminatorie e lesive, quali le mutilazioni genitali femminili o la concessione in sposa delle bambine a uomini molto più grandi di loro. Nel secondo capitolo vengono presentate la storia e le missioni di alcune delle associazioni che lottano affinché le donne d’Africa vedano riconosciuti i propri diritti. Nel terzo capitolo, ci si focalizzerà sull’analisi dei racconti di vita. Partendo dalla definizione del genere testuale, analizzeremo la sezione “droits des femmes” scelta dal libro in esame e, infine, creeremo il Thesaurus delle donne d'Africa. Nel quarto capitolo, si delineerà un quadro generale della storia della traduzione e introdurremo gli studi di teoria della traduzione spiegando tre tipi di approcci alla materia. Infine, proporremo la traduzione e il commento di due lettere di presentazione e della sezione “droits des femmes”. Nelle conclusioni si ripercorrerà lo studio svolto cercando di metterne in evidenza i punti salienti. Infine, in appendice troveremo il testo di partenza della traduzione.
Resumo:
Grazie al progresso dell'elettronica, ai giorni nostri, è possibile costruire dispositivi elettronici molto piccoli, che col passare del tempo lo sono sempre più. Questo ci permette di poter imboccare nuove strade nel mondo dell'informatica, sfruttando proprio questo fatto. Le dimensioni ridotte dei dispositivi in commercio, come sensori, attuatori, tag e tanto altro, sono particolarmente adatte a nuovi scenari applicativi. Internet of Things è una visione in cui Internet viene esteso alle cose. Facendo largo uso di dispositivi come sensori e tag è possibile realizzare sistemi intelligenti che possono avere riscontri positivi nella vita di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati sull'ambiente per realizzare sistemi automatici (ad esempio regolare automaticamente la luce o la temperatura di una stanza) sono solo alcuni esempi. Internet of Things è la naturale evoluzione di Internet, ed è destinato a cambiare radicalmente la nostra vita futura, poichè la tecnologia sarà sempre più parte integrante della nostra vita, aumentando sempre più il nostro benessere e riducendo sempre più il numero delle azioni quotidiane da compiere. Sempre più sono middleware, le piattaforme e i sistemi operativi che nascono per cercare di eliminare o ridurre le problematiche relative allo sviluppo di sistemi di questo genere, e lo scopo di questa tesi è proprio sottolinearne l'importanza e di analizzare gli aspetti che questi middleware devono affrontare. La tesi è strutturata in questo modo: nel capitolo uno verrà fatta una introduzione a Internet of Things, analizzando alcuni degli innumerevoli scenari applicativi che ne derivano, insieme però alle inevitabili problematiche di tipo tecnologico e sociale. Nel secondo capitolo verranno illustrate le tecnologie abilitanti di Internet of Things, grazie alle quali è possibile realizzare sistemi intelligenti. Nel terzo capitolo verranno analizzati gli aspetti relativi ai middleware, sottolineandone l'importanza e prestando attenzione alle funzioni che devono svolgere, il tutto riportando anche degli esempi di middleware esistenti. Nel quarto capitolo verrà approfondito il middleware Java Embedded di Oracle.
Resumo:
Il lavoro ha riguardato l’elaborazione di segnali EEG registrati durante compiti di apprendimento associativo. In particolare, durante tali compiti, i soggetti imparavano ad associare ad una certa immagine un evento neutro e ad una diversa immagine un evento avverso; la tempistica dell’evento associato a ciascuna immagine era segnalata dalla comparsa di una cornice colorata attorno all’immagine. Mentre l’evento associato a ciascuna immagine era certo, la tempistica dell’evento poteva variare da prova a prova pur verificandosi nella maggior parte dei trial (80%) dopo un tempo T0 dalla comparsa dell’immagine e, nel 20% dei trial, dopo un tempo T1 dalla comparsa dell’immagine, con T1 < T0. Ciò generava nei soggetti le condizioni di EXPECTED TIMING dell’evento (associata alla tempistica più frequente) e la condizione di UNEXPECTED TIMING dell’evento (associata alla tempistica meno frequente). Ciascuna delle due condizioni poteva riguardare l’evento neutro (privo di una particolare valenza per il soggetto) e l’evento avverso (con una valenza negativa per il soggetto). Nel presente lavoro è stata eseguita un’analisi approfondita dei segnali EEG, sia a livello di potenziali evocati sullo scalpo che a livello di segnali ricostruiti sulla corteccia. Lo scopo è quello di chiarire le possibili attivazioni corticali che generano i potenziali osservati sullo scalpo e, quindi, quali aree della corteccia sono maggiormente implicate nella detezione degli errori di predizione. In particolare, si è indagato se tali errori sono influenzati dalla valenza dell’evento inatteso (nel nostro caso avverso rispetto a neutro). La ricostruzione delle sorgenti è stata effettuata utilizzando l’algoritmo sLORETA. In base ai risultati ottenuti, la tempistica di arrivo della cornice ha effetto soltanto quando l’evento ha una valenza (negativa) per il soggetto e le ROI maggiormente coinvolte sono quelle del cingolo e quelle somato-sensoriali.
Resumo:
Il trasporto del petrolio via mare tramite navi petroliere è molto utilizzato per congiungere i paesi produttori con quelli consumatori. Durante il trasporto possono avvenire rilasci accidentali di petrolio in mare, con contaminazione anche estesa dell’ambiente marino. La stima del rischio di contaminazione ambientale imputabile alle attività di trasporto via mare è fondamentale al fine di ridurre il rischio stesso. Per prevedere il destino degli sversamenti di olio in mare, sono stati sviluppati diversi software che simulano lo spostamento della chiazza di olio rilasciato e le trasformazioni chimico-fisiche cui essa è soggetta, dette fenomeni di oil weathering. L’obiettivo del presente lavoro di tesi è stato quello di individuare un software per la simulazione del destino dei rilasci di olio in mare idoneo ad essere utilizzato nell’ambito di una innovativa metodologia di valutazione del rischio per l’ambiente marino. A tal fine sono stati studiati e confrontati, sia da un punto di vista teorico sia tramite l’applicazione a casi di studio, i software GNOME, ADIOS e OSCAR; dal confronto è emerso che GNOME e ADIOS contengono modelli semplificati per simulare i fenomeni di oil weathering subiti da una chiazza di olio formatasi a seguito di un rilascio. Rispetto ai software GNOME e ADIOS, OSCAR è molto più complesso e articolato; richiede numerosi dati in ingresso, ma fornisce in uscita una descrizione dello scenario più aderente alla realtà. Un’importante peculiarità di OSCAR, che lo rende estremamente vantaggioso nell’ambito di una metodologia di valutazione del rischio, consiste nel fatto che esso dispone di una modalità di funzionamento stocastica. Per validare l’utilizzo di OSCAR nell’ambito di una metodologia di valutazione del rischio, se ne è effettuata l’applicazione ad un caso di studio, ovvero alla rotta da Suez a Porto Marghera. Si è pertanto osservato che il rischio derivante da un rilascio di olio in mare è dipendente dal punto in cui questo rilascio avviene. È dunque possibile concludere che il software OSCAR è uno strumento valido nell’analisi del rischio ambientale derivante da sversamenti di olio in mare. Il lavoro di tesi è strutturato come descritto nel seguito. Il Capitolo 1 è introduttivo e, dopo aver descritto la problematica legata agli sversamenti di idrocarburi in mare, elenca e spiega i fenomeni di oil weathering. Il Capitolo 2 è incentrato sulle caratteristiche e sul confronto dei software dell’ente americano NOAA, ossia ADIOS e GNOME. Il Capitolo 3 si occupa della descrizione del software OSCAR dell’ente norvegese SINTEF. Il Capitolo 4 riporta la metodologia seguita per il calcolo del rischio di contaminazione del mare, ripresa da una metodologia per il calcolo del rischio già consolidata nell’industria di processo relativa all’uomo. Il Capitolo 5 introduce il caso di studio, ovvero l’applicazione della metodologia alla rotta da Suez a Marghera. Il Capitolo 6 riporta alcune considerazioni conclusive.
Resumo:
La presenza sempre più massiccia di fornitori di servizi basati su web service ha portato in rilievo uno dei limiti di questo approccio, l’impossibilità di rendere automatizzabili i task di ricerca, invocazione e orchestrazione dei servizi. Il raggiungimento di questo obiettivo risulta impossibile a causa della mancanza di informazioni comprensibili ad una macchina attraverso le quali un agente software può effettuare delle scelte tra vari servizi esposti. Il fallimento della “ricerca intelligente” di un servizio pubblicato sta nella stessa modellazione dei servizi. I linguaggi attualmente disponibili permettono di modellare un servizio solo dal punto di vista sintattico. Definire le operazioni proposte, il tipo di parametri accettati e il tipo di output prodotto non è sufficiente a comprendere cosa il servizio può fare. I web services semantici consentono di superare questo limite fornendo uno stack semantico, il quale ha il compito di racchiudere le informazioni relative ai servizi, il loro funzionamento e gli obiettivi raggiungibili organizzando la conoscenza in ontologie. La formalizzazione dei modelli ontologici e la loro integrazione con i servizi esistenti è uno dei problemi più interessanti che ha catturato l’attenzione di numerosi studi di settore. Negli ultimi anni numerose sono state le soluzioni proposte. Tra queste si possono considerare due principali vie di sviluppo che hanno visto un’intensa attività sperimentale. Il primo scenario è volto a modellare in maniera formale la conoscenza legata ai servizi esposti, il secondo integra i servizi già esistenti con nuove strutture semantiche in modo da conservare le infrastrutture presenti. Entrambi i filoni hanno come scopo quello di fornire la conoscenza adatta a sistemi esperti che consentano di automatizzare la ricerca dei servizi in base ai desideri dei clienti, permettendo la loro composizione dinamica basata su un’interazione utile e indipendente dai protocolli che vincolano il trasporto delle informazioni.
Resumo:
La diga di Ridracoli costituisce la principale riserva di acqua potabile di tutta la Romagna. E’ ubicata nell’alto Appennino romagnolo, nella vallata del fiume Bidente, dal quale riceve le acque sia direttamente sia indirettamente, per mezzo di una galleria di gronda. Lo studio si è concentrato sullo studio dei sedimenti, sia di diga sia dei bacini limitrofi, per effettuare una caratterizzazione geochimica dell’area e un confronto tra i terreni fluviali e di lago. I sedimenti rappresentano un fattore importante perché permettono di determinare le dinamiche che coinvolgono un corso d’acqua, la composizione e i possibili contaminanti presenti. Il lavoro svolto si divide in tre fasi: campionamento, analisi dei campioni e interpretazione dei risultati. Sono stati campionati punti in corrispondenza degli affluenti di diga, punti interni al lago e punti lungo il bacino del Bidente. Le analisi svolte consistono in analisi di spettrometria di fluorescenza a raggi X, analisi all’IPC-MS con pretrattamento in acqua regia, analisi elementari al CHN, analisi granulometriche con sedigrafo e determinazione della LOI. Attraverso analisi statistiche e di correlazione si è osservato il comportamento dei metalli nei confronti dei principali componenti dei sedimenti, della granulometria e del contenuto di materia organica. Sono stati calcolati valori di fondo per i metalli potenzialmente tossici attraverso differenti metodi e confrontati con alcune soglie normative valutando come non vi siano superamenti, a parte per Cr e Ni e Cd, imputabili però semplicemente a caratteristiche geologiche. Si sono costruite infine mappe di concentrazione per evidenziare la distribuzione dei singoli elementi. Si è osservato come i campioni di lago abbiano un andamento corrispondente ai campioni delle zone limitrofe senza presentare alcuna anomalia sia pere con concentrazioni localmente più elevate per la prevalenza di materiale fine. I dati non evidenziano particolari criticità.
Resumo:
Il seguente elaborato analizza l'importanza di un'adeguata rappresentazione di personaggi appartenenti allo spettro LGBT all'interno di programmi televisivi nordamericani, in particolare Orange Is The New Black e Orphan Black. Lo scopo della tesi è quello di provare l'importanza della rappresentazione nella costruzione dell'identità personale di ognuno, e nella lotta contro le discriminazioni di genere e orientamento sessuale. Le tesi si apre con un excursus teorico sul termine e il concetto di rappresentazione, soprattutto relativo all'ambito della televisione. Successivamente, vengono analizzati i vari tipi di rappresentazione all'interno nei due programmi televisivi presi in esame. La ricerca si conclude con una valutazione degli effetti e delle reazioni del pubblico a entrambi i telefilm e, infine, con alcune considerazioni personali.
Resumo:
La tesi fornisce una panoramica delle principali metodologie di analisi dei dati utilizzando il software open source R e l’ambiente di sviluppo integrato (IDE) RStudio. Viene effettuata un’analisi descrittiva e quantitativa dei dati GICS, tassonomia industriale che cataloga le principali aziende per il processo di gestione e ricerca degli asset di investimento. Sono stati studiati i principali settori del mercato USA considerando il fatturato, le spese per il lobbying e tre indici che misurano il grado di collegamento fra industrie. Su questi dati si sono svolte delle analisi quantitative e si sono tentati alcuni modelli nell’ambito della regressione lineare semplice e multipla. Tale studio ha il compito di verificare eventuali interazioni fra le variabili o pattern di comportamento strategico societario durante il periodo 2007 - 2012, anni di rinnovo e miglioramento delle regolamentazioni in materia di lobbying negli Stati Uniti. Più nello specifico vengono presi in esame tre settori: IT, Health Care e Industrial dove viene studiato l’andamento del reddito medio e la spesa media in attività di lobbying dei settori. I risultati ottenuti mostrano l’utilità dei pacchetti di R per l’analisi dei dati: vengono individuati alcuni andamenti che, se confermati da ulteriori e necessarie analisi, potrebbero essere interessanti per capire non solo i meccanismi impliciti nell’attività di lobbying ma anche comportamenti anomali legati a questa attività.
Resumo:
Il presente lavoro si inserisce all’interno del progetto che da più di quindici anni si sta portando avanti presso il Laboratorio di Terminologia e Traduzione Assistita (Dipartimento di Interpretazione e Traduzione dell’Università di Bologna) e che riguarda la creazione di risorse terminologiche specifiche per le esigenze professionali e di formazione degli interpreti di conferenza. La peculiarità del Laboratorio risiede nel fatto che gli strumenti terminologici e terminografici sono usati anche per descrivere elementi del lessico naturale: sia le risorse che servono per strutturare un discorso orale (nessi e segnali discorsivi), sia le espressioni linguistiche che, per il loro stretto legame con una determinata lingua-cultura, possono creare problemi traduttivi a livello semantico e sintattico (espressioni idiomatiche, collocazioni, locuzioni, ecc.). Proprio su queste espressioni è incentrato il lavoro di questa tesi; il nucleo è rappresentato dalla creazione di 40 schede terminografiche dedicate a locuzioni italiane che presentano diversi gradi di “fissità” e di idiomaticità. Il termine ‘locuzione’ è stato usato in senso ampio per includere diverse tipologie di espressioni quali collocazioni, espressioni idiomatiche, costruzioni con verbi supporto e locuzioni propriamente dette. Lo scopo principale, infatti, non era costruire una classificazione teorica, bensì creare una risorsa che potesse servire all’interprete nell’ambito sia professionale sia formativo. Le schede, infatti, sono state costruite in modo che possano servire sia come glossario per identificare equivalenti funzionali nelle altre lingue di lavoro (i primi 5 campi di ogni scheda), sia come strumento per sviluppare una competenza lessicale “alta” legata, appunto, alla conoscenza della struttura e dei modi d’uso di espressioni formulari che possono variare sensibilmente da una lingua-cultura a un’altra (gli ultimi 5 campi). Le schede, costruite basandosi su risorse lessicografiche e terminografiche e su un corpus di resoconti di sedute parlamentari, devono essere considerate come il primo passo nella creazione di un database terminologico multilingue.
Resumo:
Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.
Resumo:
Lo studio effettuato riguarda l’accrescimento giornaliero della Sardina pilchardus, (Walbaum, 1792) tramite la lettura degli anelli di crescita giornaliera negli otoliti. Nel Mediterraneo centrale il lavoro svolto è il primo di questo tipo su S. pilchardus. Il campionamento è avvenuto durante la campagna oceanografica "Anchevatir 2012", 69 otoliti sono stati estratti da esemplari con lunghezza totale compresa tra 7 ed 12.5 cm e successivamente sottoposti ad inclusione, sezionamento e levigatura per la realizzazione di sezioni sottili. Sull’intero campione è stata stimata l’età con due metodi: lettura degli anelli giornalieri sotto microscopio e conteggio dei microincrementi tramite analisi d’immagine. L’età stimata è compresa tra i 90 e 230 giorni, tuttavia la maggior parte degli individui presenta un’età tra i 120 e 150 giorni. Inoltre è stata determinata la data di nascita degli esemplari, avvenuta tra Dicembre 2011 e Febbraio 2012. In seguito è stata condotta un’analisi della media dell’ampiezza degli incrementi per descrivere i pattern di crescita giornaliera: l’andamento risultante è crescente con il procedere dell’età fino a circa il 50° giorno, poi si stabilizza fino al 150°, infine i valori medi decrescono. La backcalculation ha permesso di stimare il tasso di accrescimento giornaliero della lunghezza del corpo. Sono state analizzate tre serie distinte per data di nascita (Dicembre 2011, Gennaio 2012 e Febbraio 2012); queste hanno mostrato pattern di accrescimento analogo. La crescita iniziale stimata è di 0.2 mm/d, raggiunge 0.6 mm/d intorno al 40° giorno, ed oltre il 100° si è osservato un decremento nell’accrescimento giornaliero, soprattutto nella serie di Dicembre. Le differenze più rilevanti nei pattern delle tre serie mensili sono state riscontrate nei valori medi fra Dicembre e Febbraio. L’analisi della temperatura media superficiale ha permesso di ipotizzare che questa crescita maggiore degli individui nati in Febbraio sia collegata all’aumento di temperatura registrato da Marzo in poi. Tale risultato suggerisce che le condizioni ambientali e quindi i ritmi metabolici e d’accrescimento nei mesi successivi a Febbraio sono più favorevoli rispetto ai mesi invernali.
Resumo:
In questo lavoro si analizza un tratto di falesia costiera nei pressi di Torino di Sangro marina, dove nel 1916 si verificò una frana di tipo rotazionale di grandi dimensioni. Non si studia il fenomeno dal punto di vista geotecnico, bensì lo si inquadra in uno studio geomorfologico generale dell’area geografica di occorrenza per comprendere se esso possa aver avuto implicazioni non soltanto geomeccaniche ordinarie, ma anche di tipo morfo-tettonico, ossia geologico-strutturale. Si propone la cartografia geomorfologica originale dell’area compresa tra la costa e l’abitato di Casalbordino, basata sul rilevamento di campagna, nonché l’analisi del profilo longitudinale del torrente Osento. Si comparano i dati così ottenuti con quelli dei più recenti studi morfotettonici eseguiti nell’area abruzzese-molisana da vari istituti di ricerca. Dal presente studio non risulta verificabile un’influenza diretta della tettonica sull’innesco dei fenomeni franosi costieri, se non per quanto relativo al basso tasso di innalzamento, comunque difficilmente quantificabile sulla base dei dati attuali. Pertanto il movimento franoso costiero in oggetto deve essere inquadrato, per ora, come un ordinario caso di scorrimento rotazionale, benchè di notevoli dimensioni, principalmente motivato da implicazioni idrologiche locali e dalla erosione marina costiera di medio termine. Non si esclude comunque che ulteriori futuri studi di dettaglio possano evidenziare implicazioni finora non considerate nello sviluppo di tali fenomeni.
Resumo:
I cambiamenti climatici stanno sempre più influenzando l’assetto territoriale ed ambientale della nostra società. Questo fatto si evince da eventi che riescono a sconvolgere le opere atte alla loro mitigazione; tali sistemi vengono progettati tenendo conto delle competenze acquisite in campo teorico e archivistico, ovvero la serie dei dati storici sui quali costruire dei modelli probabilistici che permettano di determinare il massimo grado di intensità che l'evento di interesse potrà generare. Questi database, però, conseguentemente ai cambiamenti ambientali cui stiamo avendo testimonianza diretta, risultano essere sempre meno affidabili allo scopo di impostare questi studi di tendenza. Esempio di quanto detto sono le alluvioni, generate da eventi meteorologici fuori dall'ordinario: queste situazioni, sempre più frequenti sul nostro territorio, oltre che subire l'influsso dei cambiamenti climatici, trovano un substrato favorevole nel quale attecchire, dovuto dall'alto grado di antropizzazione del territorio. In questo ambito, rientrano quegli eventi che i media chiamano "bombe d'acqua", le quali scaricano su un piccolo territorio una massiccia quantità di acque di precipitazione in un arco di tempo estremamente limitato. L'effetto principale è quello di mettere in crisi la rete idrologica della zona colpita, la quale non è stata progettata per sopportare eventi di tale magnitudo. Gli effetti avversi sul territorio possono essere importanti e vantano una vasta gamma di effetti. Inondazioni ed allagamenti in primis, poi i conseguenti da danni economici, ma anche smottamenti o colate di fango ed il collasso dei sistemi fognari. In questo lavoro di tesi, queste problematiche saranno trattate col fine ultimo di valutare delle soglie di precipitazioni, tali per cui, in caso di eventi meteorologici fuori dall’ordinario, sarà possibile allertare la popolazione localizzata nella zona soggetta a rischio idro-geologico. Questa analisi è stata condotta grazie ai dati reperiti per un piccolo bacino pedecollinare del Comune di Rimini.
Resumo:
Lo sviluppo di un incendio all’interno di depositi di liquidi infiammabili costituisce uno scenario particolarmente critico a causa della rilevanza delle conseguenze che ne possono scaturire. L’incendio causato dalla formazione di grandi pozze sviluppatesi a seguito di forature dei contenitori e il rapido coinvolgimento di tutto lo stoccaggio rappresentano uno scenario di incendio tipico di queste realtà. Si ha quindi la necessità di adottare provvedimenti atti a garantire specifici obiettivi di sicurezza tramite l’introduzione di misure antincendio. La prevenzione incendi, sino al 2007, era basata esclusivamente su norme di tipo prescrittivo, in base alle quali si definivano le misure di sicurezza secondo un criterio qualitativo. Successivamente l’ingegneria antincendio si è sempre più caratterizzata da approcci basati su analisi di tipo prestazionale, in grado di dimostrare il raggiungimento dell’obiettivo di sicurezza sulla base del comportamento reale d’incendio ottenuto mediante un’accurata simulazione del fuoco che ragionevolmente può prodursi nell'attività. La modellazione degli incendi è divenuta possibile grazie allo sviluppo di codici di fluidodinamica computazionale (CFD), in grado di descrivere accuratamente l’evoluzione delle fiamme. Il presente studio si inserisce proprio nell’ambito della modellazione CFD degli incendi, eseguita mediante il software Fire Dynamics Simulator (FDS). L’obiettivo dell’elaborato è studiare l’azione dell’impianto di spegnimento a schiuma sullo sviluppo di un incendio di pozza in un deposito di liquidi infiammabili, in termini di riduzione della potenza termica rilasciata dal fuoco, al fine di determinare le temperature massime raggiunte, in corrispondenza delle quali valutare il comportamento di resistenza strutturale degli edifici. Il presente lavoro è articolato in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, vengono richiamati nel Capitolo 2 i principali concetti della chimica e fisica degli incendi. Nel Capitolo 3 vengono esaminate le normative intese ad unificare l’approccio ingegneristico alla sicurezza antincendio. Il Capitolo 4 fornisce una dettagliata descrizione del software di calcolo, FDS - Fire Dynamics Simulator, adoperato per la modellazione dell’incendio. Nel Capitolo 5 si procede alla progettazione prestazionale che conduce alla determinazione della curva naturale d'incendio in presenza degli impianti di spegnimento automatici. Infine nel Capitolo 6 si riportano le considerazioni conclusive.