687 resultados para acque, Marecchia, tecniche analitiche, nitrati


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduzione massiccia dell’elettronica di potenza nel campo degli azionamenti elettrici negli ultimi decenni ha sostanzialmente rivoluzionato la tipologia di alimentazione dei motori elettrici. Da un lato ciò ha migliorato la qualità del controllo della velocità, ma dall’altro ha aggravato le sollecitazioni che gli isolanti delle macchine devono sopportare. Si è infatti passati da tecniche di controllo tradizionali, che consistevano nell’alimentare i motori in alternata direttamente con la rete sinusoidale a 50 Hz (o a 60 Hz), ad alimentazioni indirette, cioè realizzate interponendo tra la rete e la macchina un convertitore elettronico (inverter). Tali dispositivi operano una conversione di tipo ac/dc e dc/ac che permette, come nella modulazione Pulse Width Modulation (PWM), di poter variare la frequenza di alimentazione della macchina, generando una sequenza di impulsi di larghezza variabile. Si è quindi passati dalle tradizionali alimentazioni con forme d’onda alternate sinusoidali a forme di tensione impulsive e ad elevata frequenza, cioè caratterizzate da rapidi fronti di salita e di discesa (dell’ordine di qualche kV/µs). La natura impulsiva di queste forme d’onda ha aggravato la sollecitazione elettrica a cui sono sottoposti i materiali impiegati per l’isolamento dei conduttori degli avvolgimenti delle macchine. E’ importante notare che l’utilizzo dei dispositivi elettronici, che ormai si trovano sparsi nelle reti di bassa tensione, assorbono correnti ad elevato contenuto armonico sul lato di prelievo, hanno quindi un effetto distorcente che altera l’andamento sinusoidale della rete stessa. Quindi, senza opportuni filtri, anche tutte le altre utenze connesse nelle vicinanze, dimensionate per alimentazioni sinusoidali di tipo tradizionale, possono risentire di queste distorsioni armoniche. Per tutti questi motivi è sorta la necessità di verificare l’adeguatezza dei tradizionali isolamenti ad essere in grado di sopportare le sollecitazioni che derivano dall’utilizzo di convertitori elettronici. In particolare, per i motori elettrici tale interrogativo è stato posto in seguito al verificarsi di un elevato numero di guasti inaspettati (precoci), probabilmente imputabile alla diversa sollecitazione elettrica applicata ai materiali. In questa tesi ci si è occupati della progettazione di un inverter di media tensione, che verrà impiegato per eseguire prove sugli avvolgimenti di statore di motori (formette), al fine di condurre successivamente uno studio sull’invecchiamento dei materiali che compongono gli isolamenti. Tale inverter è in grado di generare sequenze di impulsi con modulazione PWM. I parametri caratteristici delle sequenze possono essere modificati in modo da studiare i meccanismi di degradazione in funzione della tipologia delle sollecitazioni applicate. Avendo a che fare con provini di natura capacitiva, il cui isolamento può cedere durante la prova, il sistema deve essere intrinsecamente protetto nei confronti di tutte le condizioni anomale e di pericolo. In particolare deve essere in grado di offrire rapide ed efficaci protezioni per proteggere l’impianto stesso e per salvaguardare la sicurezza degli operatori, dato l’elevato livello delle tensioni in gioco. Per questo motivo è stata pensata un’architettura di sistema ad hoc, in grado di fronteggiare le situazioni anomale in modo ridondante. E’ infatti stato previsto l’inserimento di un sistema di controllo basato sul CompactRIO, sul quale è stato implementato un software in grado di monitorare le grandezze caratteristiche del sistema e le protezioni che affiancheranno quelle hardware, realizzate con dispositivi elettronici. I dispositivi elettronici di protezione e di interfacciamento sono stati studiati, implementati e simulati con PSpice, per poi essere successivamente dimensionati e realizzati su schede elettroniche, avvalendosi del software OrCAD. La tesi è strutturata come segue: - Il primo capitolo tratta, in maniera generale, i motori asincroni trifase, gli inverter e l’invecchiamento dei sistemi isolanti, con particolare interesse alle sollecitazioni meccaniche, termiche ed elettriche nel caso di sollecitazioni impulsive; - Il secondo capitolo riguarda il sistema realizzato nel suo complesso. Inizialmente verrà descritto lo schema elettrico generale, per poi analizzare più nello specifico le varie parti di cui il sistema è composto, come l’inverter di media tensione, il generatore di media tensione, la scheda di disaccoppiamento ottico, la scheda di controllo del generatore di media tensione, la scheda OCP; - Il terzo capitolo descrive le lavorazioni meccaniche eseguite sulle scatole contenti i rami di inverter, la realizzazione delle fibre ottiche e riporta le fasi di collaudo dell’intero sistema. Infine, verranno tratte le conclusioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la validità di questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con la crescente diffusione del web e dei servizi informatici offerti via internet, è aumentato in questi anni l’utilizzo dei data center e conseguentemente, il consumo di energia elettrica degli stessi. Il problema ambientale che comporta l’alto fabbisogno energetico, porta gli operatori di data center ad utilizzare tecniche a basso consumo e sistemi efficienti. Organizzazioni ambientali hanno rilevato che nel 2011 i consumi derivanti dai data center raggiungeranno i 100 milioni di kWh, con un costo complessivo di 7,4 milioni di dollari nei soli Stati Uniti, con una proiezione simile anche a livello globale. La seguente tesi intende valutare le tecniche in uso per diminuire il consumo energetico nei data center, e quali tecniche vengono maggiormente utilizzate per questo scopo. Innanzitutto si comincerà da una panoramica sui data center, per capire il loro funzionamento e per mostrare quali sono i componenti fondamentali che lo costituiscono; successivamente si mostrerà quali sono le parti che incidono maggiormente nei consumi, e come si devono effettuare le misurazioni per avere dei valori affidabili attraverso la rilevazione del PUE, unità di misura che valuta l’efficienza di un data center. Dal terzo capitolo si elencheranno le varie tecniche esistenti e in uso per risolvere il problema dell’efficienza energetica, mostrando alla fine una breve analisi sui metodi che hanno utilizzato le maggiori imprese del settore per risolvere il problema dei consumi nei loro data center. Lo scopo di questo elaborato è quello di capire quali sono le tecniche e le strategie per poter ridurre i consumi e aumentare l’efficienza energetica dei data center.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro si è posto l’obiettivo di valutare l’effetto dei processi di combustione della biomassa sulla composizione chimica del particolato atmosferico. Sono state analizzate le polveri totali sospese (TSP) e le sotto-frazioni PM10 e PM2.5. Il sito di campionamento è collocato in un’area suburbana costiera nella provincia di Rimini. L’area di studio è soggetta all’apporto di contaminanti derivanti dalle emissioni del traffico autoveicolare (urbano e della vicina autostrada A14) e di piccole attività industriali, tra cui la più importante è l’inceneritore di rifiuti solidi urbani. Il campionamento è stato effettuato nei mesi marzo-aprile 2011. Durante questo periodo ricorre la tradizionale festa popolare delle “Focheracce” dove si bruciano enormi cataste di legna per salutare l’inverno ed accogliere la primavera. In corrispondenza proprio di questa giornata si registra in atmosfera un forte incremento della concentrazione di polveri accompagnato da una variazione nella loro composizione chimica. Il levoglucosano (LG), marker specifico dei processi di combustione della biomassa, mostra concentrazioni di un ordine più elevato rispetto a tutto il periodo di campionamento. Incrementi si registrano, più in generale, per tutti quei composti direttamente imputabili ai processi di combustione incompleta, come CO, CE ed IPA. Il campionamento in occasione dei fuochi ha inoltre evidenziato maggiori concentrazioni in atmosfera di potassio, magnesio, ammonio, nitrati e carbonati nella frazione TSP-PM10. In conclusione, dai risultati della caratterizzazione chimica nelle diverse frazioni granulometriche delle polveri è possibile affermare che i processi di combustione della biomassa, hanno nell’area di studio un ruolo importante nel determinare il carico complessivo delle PM. La correlazione inversa tra temperatura atmosferica e concentrazione di levoglucosano induce a pensare che il contributo dovuto alla combustione di biomassa sulle PM sia imputabile al riscaldamento domestico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi di laurea magistrale si è proposto di sintetizzare composti polimerici basati su un derivato del 3-esiltiofene e sulla porfirina per preparare materiali da utilizzare nelle celle fotovoltaiche. Politiofeni con queste caratteristiche sono stati sintetizzati a partire da un monomero -bromoalchiltiofenico, il 3-(6-bromoesil)tiofene (T6Br), dal quale è stato ottenuto il corrispondente derivato polimerico poli[3-(6-bromoesil)]tiofene (PT6Br). Esso è stato preparato con un metodo non regiospecifico, utilizzando la comune tecnica di polimerizzazione ossidativa in presenza di FeCl3. Il monomero T6Br è stato funzionalizzato con idrossifenil porfirina (TPPOH) per dare il 3-[5-(4-fenossi)-10,15,20-trifenilporfirinil]esiltiofene (T6TPP). Poiché la polimerizzazione diretta di questo monomero non si è mostrata una via percorribile, a causa dell’elevato ingombro del sostituente presente sulla catena macromolecolare, è stata effettuata l’eterificazione sul polimero bromurato PT6Br per ottenere il poli[3-[5-(4-fenossi)-10,15,20-trifenilporfirinil]esiltiofene] (PT6TPP). Contemporaneamente è stato sintetizzato il copolimero poli[(3-(6-bromoesil)]tiofene)-co-(3-[5-(4-fenossi)-10,15,20-trifenilporfirinil]esiltiofene)] (P(T6Br-co-T6TPP)) allo scopo di valutare l’effetto del diverso grado di sostituzione della catena polimerica sulle proprietà del polimero. Anch’esso è stato preparato con un metodo non regiospecifico, utilizzando la tecnica di polimerizzazione ossidativa in presenza di FeCl3. I prodotti sintetizzati sono stati caratterizzati mediante le comuni tecniche spettroscopiche (FTIR, NMR, UV-vis) e ne sono state determinate le proprietà termiche. I pesi molecolari medi e le relative distribuzioni sono stati determinati mediante cromatografia a permeazione su gel (GPC). Infine, con P(T6Br-co-T6TPP) e PT6Br sono state effettuate prove preliminari di preparazione e caratterizzazione di dispositivi per valutare la possibilità di un loro utilizzo come materiali per celle fotovoltaiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggigiorno si osserva a livello mondiale un continuo aumento dei consumi di acqua per uso domestico, agricolo ed industriale che dopo l’impiego viene scaricata nei corpi idrici (laghi, fiumi, torrenti, bacini, ecc) con caratteristiche chimico fisiche ed organolettiche completamente alterate, necessitando così di specifici trattamenti di depurazione. Ricerche relative a metodi di controllo della qualità dell’acqua e, soprattutto, a sistemi di purificazione rappresentano pertanto un problema di enorme importanza. I trattamenti tradizionali si sono dimostrati efficienti, ma sono metodi che operano normalmente trasferendo l’inquinante dalla fase acquosa contaminata ad un’altra fase, richiedendo perciò ulteriori processi di depurazione. Recentemente è stata dimostrata l’efficacia di sistemi nano strutturati come TiO2-Fe3O4 ottenuto via sol-gel, nella foto-catalisi di alcuni sistemi organici. Questo lavoro di tesi è rivolto alla sintesi e caratterizzazione di un catalizzatore nanostrutturato composito costituito da un core di Fe3O4 rivestito da un guscio di TiO2 separate da un interstrato inerte di SiO2, da utilizzare nella foto-catalisi di sistemi organici per la depurazione delle acque utilizzando un metodo di sintesi alternativo che prevede un “approccio” di tipo colloidale. Partendo da sospensioni colloidali dei diversi ossidi, presenti in commercio, si è condotta la fase di deposizione layer by layer via spray drying, sfruttando le diverse cariche superficiali dei reagenti. Questo nuovo procedimento permette di abbattere i costi, diminuire i tempi di lavoro ed evitare possibili alterazioni delle proprietà catalitiche della titania, risultando pertanto adatto ad una possibile applicazione su scala industriale. Tale sistema composito consente di coniugare le proprietà foto-catalitiche dell’ossido di titanio con le proprietà magnetiche degli ossidi di ferro permettendo il recupero del catalizzatore a fine processo. Il foto-catalizzatore è stato caratterizzato durante tutte la fasi di preparazione tramite microscopia SEM e TEM, XRF, Acusizer, spettroscopia Raman e misure magnetiche. L’attività foto-calitica è stata valutata con test preliminari utilizzando una molecola target tipo il rosso di metile in fase acquosa. I risultati ottenuti hanno dimostrato che il sistema core-shell presenta inalterate sia le proprietà magnetiche che quelle foto-catalitiche tipiche dei reagenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato prenderemo in esame la questione della progettazione di un sistema software atto a gestire alcuni dei problemi legati alla raccolta dei dati in ambito medico. Da tempo infatti si è capita l'importanza di una speciale tecnica di raccolta dei dati clinici, nota in letteratura col nome di "patient-reported outcome", che prevede che siano i pazienti stessi a fornire le informazioni circa l'andamento di una cura, di un test clinico o, più semplicemente, informazioni sul loro stato di salute fisica o mentale. Vedremo in questa trattazione come ciò sia possibile e, soprattutto, come le tecniche e le tecnologie informatiche possano dare un grande contributo ai problemi di questo ambito. Mostreremo non solo come sia conveniente l'uso, in campo clinico, di tecniche automatiche di raccolta dei dati, della loro manipolazione, aggregazione e condivisione, ma anche come sia possibile realizzare un sistema moderno che risolva tutti questi problemi attraverso l'utilizzo di tecnologie esistenti, tecniche di modellazione dei dati strutturati e un approccio che, mediante un processo di generalizzazione, aiuti a semplificare lo sviluppo del software stesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La frenetica evoluzione sociale e culturale, data dal crescente e continuo bisogno di conoscenza dell’uomo, ha portato oggi a navigare in un oceano sconfinato di dati e informazioni. Esse assumono una propria peculiare importanza, un valore sia dal punto di vista del singolo individuo, sia all’interno di un contesto sociale e di un settore di riferimento specifico e concreto. La conseguente mutazione dell’interazione e della comunicazione a livello economico della società, ha portato a parlare oggi di economia dell’informazione. In un contesto in cui l’informazione rappresenta la risorsa principale per l’attività di crescita e sviluppo economico, è fondamentale possedere la più adeguata strategia organizzativa per la gestione dei dati grezzi. Questo per permetterne un’efficiente memorizzazione, recupero e manipolazione in grado di aumentare il valore dell’organizzazione che ne fa uso. Un’informazione incompleta o non accurata può portare a valutazioni errate o non ottimali. Ecco quindi la necessità di gestire i dati secondo specifici criteri al fine di creare un proprio vantaggio competitivo. La presente rassegna ha lo scopo di analizzare le tecniche di ottimizzazione di accesso alle basi di dati. La loro efficiente implementazione è di fondamentale importanza per il supporto e il corretto funzionamento delle applicazioni che ne fanno uso: devono garantire un comportamento performante in termini di velocità, precisione e accuratezza delle informazioni elaborate. L’attenzione si focalizzerà sulle strutture d’indicizzazione di tipo gerarchico: gli alberi di ricerca. Verranno descritti sia gli alberi su dati ad una dimensione, sia quelli utilizzati nel contesto di ricerche multi dimensionali (come, ad esempio, punti in uno spazio). L’ingente sforzo per implementare strutture di questo tipo ha portato gli sviluppatori a sfruttare i principi di ereditarietà e astrazione della programmazione ad oggetti al fine di ideare un albero generalizzato che inglobasse in sé tutte le principali caratteristiche e funzioni di una struttura di indicizzazione gerarchica, così da aumentarne la riusabilità per i più particolari utilizzi. Da qui la presentazione della struttura GiST: Generalized Search Tree. Concluderà una valutazione dei metodi d’accesso esposti nella dissertazione con un riepilogo dei principali dati relativi ai costi computazionali, vantaggi e svantaggi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si occupa degli aspetti di usabilità nell'interazione degli utenti con le applicazioni, usando le tecniche di generazione automatica della Model-Driven Architecture. Viene prodotto un generatore di applicazioni model-driven, basato su un modello di progettazione Goal-Oriented, con risultati apprezzabili nel fornire all'utente un'interazione dinamica con l'applicazione prodotta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le pagine che seguono sono il racconto dello studio e della ricerca della soluzione ecommerce ideale per Trading Library, casa editrice rivolta al mondo del Trading. L’elaborato è diviso in tre parti: • INTRODUZIONE:Analisiestudiodelpassato,delpresenteedelfuturo dell’ecommerce e studio del settore editoriale. • LE FASI: Analisi del progetto Trading Library, pianificazione dell’attivi- tà, descrizione delle fasi cognitiva, progettuale e divulgativa. • CONCLUSIONE: Considerazioni,previsioni per il futuro ed autocritica sul lavoro svolto. Nella presentazione di ogni capitolo si sono riassunte le argomentazioni trattate, mano a mano che si scende nelle sottosezioni le informazioni riguardo allo studio svolto diventano più tecniche e dettagliate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Pialassa Baiona è una laguna sottoposta a diversi vincoli normativi, visto il suo inquadramento tra le aree SIC e ZPS, e soggetta a diverse sorgenti di disturbo antropico, più intense negli anni ‘50-‘70. Questa tesi si propone lo scopo di valutare il rischio associato ai metalli bivalenti presenti nei sedimenti della Pialassa Baiona attraverso tre approcci: il primo riguarda la determinazione della frazione biodisponibile dei metalli presenti nei sedimenti attraverso la determinazione dei solfuri acidi volatili (AVS) e dei metalli simultaneamente estraibili (SEM), nonché la valutazione della potenziale tossicità dei sedimenti attraverso la valutazione del rapporto molare SEM/AVS, il secondo approccio considera invece il contenuto pseudo totale dei metalli bivalenti (Cd, Cu, Ni, Pb e Zn) e il loro confronto sia con i valori tipici di fondo naturale del Mar Adriatico che con i valori guida di riferimento internazionale (Threshold Effect Level, TEL e Probable Effect Level, PEL) al fine di valutare lo stato di qualità dei sedimenti della zona d’indagine. Il terzo approccio considera l’influenza del gradiente naturale terra-mare tipico delle zone di transizione e del gradiente antropico legato alla vicinanza dell’area industriale alla Pialassa Baiona, sulla distribuzione spaziale dei metalli oggetto di questo studio. I risultati ottenuti evidenziano che l’area più prossima alla zona industriale e al contempo più lontana dall’effetto del ricambio delle acque e di dilavamento ad opera del mare, è risultata quella con livelli significativamente più elevati per la maggior parte dei metalli analizzati. Questo permette di ipotizzare un’influenza diretta delle sorgenti di inquinanti, ma anche un effetto dispersivo della circolazione. Gli AVS hanno invece evidenziato un gradiente terra-mare; ciò comporta che nelle zone più prossime all’influenza del mare si sono riscontrate concentrazioni minori di AVS. La valutazione della potenziale tossicità dei metalli in termini di rapporto SEM/AVS non ha evidenziato la presenza di siti a rischio per il biota acquatico, se non per un unico sito prossimo all’area industriale.