586 resultados para DSA,problemi matematici,didattica personalizzata e individualizzata,consegne modificate
Resumo:
Il progetto di percorso urbano ‘S’intende per restauro qualsiasi intervento volto a conservare e a trasmettere al futuro, facilitandone la lettura e senza cancellarne le tracce del passaggio nel tempo, le opere d’interesse storico, artistico e ambientale; esso si fonda sul rispetto della sostanza antica e delle documentazioni autentiche costituite da tali opere, proponendosi, inoltre, come atto d’interpretazione critica non verbale ma espressa nel concreto operare’ (G.Carbonara) Celate all’interno di edifici privati, ritrovate quasi sempre fortuitamente, ai più sconosciute, le pitture murali del Trecento riminese necessitano un processo di valorizzazione. Si tratta di portarle alla luce una seconda volta creando un percorso di riscoperta di queste opere nascoste, di cui raramente si è più sentito parlare dopo il clamore sollevato dalla mostra del 1935 organizzata da Brandi. Si parla quindi di un percorso conoscitivo. Un percorso urbano che tocchi i luoghi dove queste sono ancora conservate: l’antica chiesa di San Michelino in foro (oggi divisa tra più proprietari privati), la chiesa di Sant’Agostino, la cappella del campanile della chiesa di Santa Maria in Corte, la cappella del Crocifisso in San Nicolò al porto. Le chiese costituiranno le tappe di un percorso che si articolerà attraverso le strade medievali della città. Si verrà a creare quindi un percorso non solo alla scoperta delle pitture murali del XIII e XIV secolo, ma alla scoperta della Rimini del Trecento, delle sue vie, del suo sviluppo urbano. Si affronterà il problema del restauro delle pitture murali, ma sempre preoccupandosi della buona conservazione e del mantenimento del monumento nel suo insieme. Pittura murale e architettura sono, come sostiene Philippot, inscindibili: trattando una pittura murale, il restauratore tratta sempre e solo una parte di un insieme più vasto, che costituisce il tutto al quale egli si dovrà riferire, tanto dal punto di vista estetico e storico, quanto dal punto di vista tecnico . Per ogni chiesa si prevederà quindi, oltre al progetto di restauro della pittura, anche un progetto di fruizione dello spazio architettonico e di riconfigurazione dello stesso, quando necessario, ragionando caso per caso. Si è deciso di porre come origine del percorso l’antica chiesa di San Michelino. La motivazione di questa scelta risiede nel fatto che in questo edificio si è individuato il luogo adatto ad ospitare uno spazio espositivo dove raccontare la Rimini del Trecento. Uno spazio espositivo al servizio della città, con la progettazione del quale si cercherà di restituire unità agli ambienti dell’antica chiesa, oggi così frazionati tra troppi proprietari. Da San Michelino si continuerà verso la chiesa di Sant’Agostino, dove si trovano affreschi del Trecento riminese già molto noti e studiati. Ciò che si rende necessario in questo caso è la riconfigurazione architettonica e spaziale degli affreschi della parte bassa della cappella del campanile, staccati e trasferiti su pannelli negli anni ’70, oltre alla previsione di un sistema di monitoraggio degli affreschi stessi. La terza tappa del percorso sarà la chiesa di Santa Maria in Corte. Il ciclo di affreschi si trova all’interno della cappella del campanile, oggi chiusa al pubblico ed esclusa dallo spazio della chiesa dopo gli interventi barocchi. Abbiamo quindi pensato di proporre una soluzione che permetta una più agevole fruizione della cappella, progettando un’illuminazione e un percorso d’accesso adeguati. Più complesso è il caso di San Nicolò al porto, individuata come ultima tappa del percorso. Si tratta in questo caso della riconfigurazione di un intero isolato, che nel tempo ha perso totalmente il suo significato urbano riducendosi ad una sorta di spartitraffico. Qui si rendeva necessaria inoltre la progettazione di una nuova chiesa, presentando quella attuale seri problemi statici.
Resumo:
Il progetto di percorso urbano ‘S’intende per restauro qualsiasi intervento volto a conservare e a trasmettere al futuro, facilitandone la lettura e senza cancellarne le tracce del passaggio nel tempo, le opere d’interesse storico, artistico e ambientale; esso si fonda sul rispetto della sostanza antica e delle documentazioni autentiche costituite da tali opere, proponendosi, inoltre, come atto d’interpretazione critica non verbale ma espressa nel concreto operare’ (G.Carbonara) Celate all’interno di edifici privati, ritrovate quasi sempre fortuitamente, ai più sconosciute, le pitture murali del Trecento riminese necessitano un processo di valorizzazione. Si tratta di portarle alla luce una seconda volta creando un percorso di riscoperta di queste opere nascoste, di cui raramente si è più sentito parlare dopo il clamore sollevato dalla mostra del 1935 organizzata da Brandi. Si parla quindi di un percorso conoscitivo. Un percorso urbano che tocchi i luoghi dove queste sono ancora conservate: l’antica chiesa di San Michelino in foro (oggi divisa tra più proprietari privati), la chiesa di Sant’Agostino, la cappella del campanile della chiesa di Santa Maria in Corte, la cappella del Crocifisso in San Nicolò al porto. Le chiese costituiranno le tappe di un percorso che si articolerà attraverso le strade medievali della città. Si verrà a creare quindi un percorso non solo alla scoperta delle pitture murali del XIII e XIV secolo, ma alla scoperta della Rimini del Trecento, delle sue vie, del suo sviluppo urbano. Si affronterà il problema del restauro delle pitture murali, ma sempre preoccupandosi della buona conservazione e del mantenimento del monumento nel suo insieme. Pittura murale e architettura sono, come sostiene Philippot, inscindibili: trattando una pittura murale, il restauratore tratta sempre e solo una parte di un insieme più vasto, che costituisce il tutto al quale egli si dovrà riferire, tanto dal punto di vista estetico e storico, quanto dal punto di vista tecnico . Per ogni chiesa si prevederà quindi, oltre al progetto di restauro della pittura, anche un progetto di fruizione dello spazio architettonico e di riconfigurazione dello stesso, quando necessario, ragionando caso per caso. Si è deciso di porre come origine del percorso l’antica chiesa di San Michelino. La motivazione di questa scelta risiede nel fatto che in questo edificio si è individuato il luogo adatto ad ospitare uno spazio espositivo dove raccontare la Rimini del Trecento. Uno spazio espositivo al servizio della città, con la progettazione del quale si cercherà di restituire unità agli ambienti dell’antica chiesa, oggi così frazionati tra troppi proprietari. Da San Michelino si continuerà verso la chiesa di Sant’Agostino, dove si trovano affreschi del Trecento riminese già molto noti e studiati. Ciò che si rende necessario in questo caso è la riconfigurazione architettonica e spaziale degli affreschi della parte bassa della cappella del campanile, staccati e trasferiti su pannelli negli anni ’70, oltre alla previsione di un sistema di monitoraggio degli affreschi stessi. La terza tappa del percorso sarà la chiesa di Santa Maria in Corte. Il ciclo di affreschi si trova all’interno della cappella del campanile, oggi chiusa al pubblico ed esclusa dallo spazio della chiesa dopo gli interventi barocchi. Abbiamo quindi pensato di proporre una soluzione che permetta una più agevole fruizione della cappella, progettando un’illuminazione e un percorso d’accesso adeguati. Più complesso è il caso di San Nicolò al porto, individuata come ultima tappa del percorso. Si tratta in questo caso della riconfigurazione di un intero isolato, che nel tempo ha perso totalmente il suo significato urbano riducendosi ad una sorta di spartitraffico. Qui si rendeva necessaria inoltre la progettazione di una nuova chiesa, presentando quella attuale seri problemi statici.
Resumo:
Questa si ripropone in prima istanza di analizzare le origini e l’evoluzione del concetto di sostenibilità e successivamente di prendere in considerazione uno dei tanti mezzi che consentono di perseguirla: la gestione della sosta. Per molti anni infatti, a partire dal momento in cui sono iniziate ad emergere le esternalità negative legate al traffico, si è pensato che quello dei parcheggi fosse solo un ulteriore problema. Solo di recente, dalla fine degli anni ’90, fatta eccezione per il caso della Gran Bretagna che ha fatto da capofila già a partire dagli anni ’80, si è iniziato a considerare la sosta come parte della soluzione dei problemi di congestione, inquinamento e di vivibilità delle città. Verrà analizzata perciò nel secondo capitolo l’evoluzione delle politiche della sosta a livello europeo, con particolare attenzione all’operato svolto dall’EPA (European Parking Association) associazione leader nel settore riconosciuta dall’Unione Europea e sostenuta da 18 Paesi membri tra cui anche l’Italia. Il lavoro svolto da quest’associazione, nata nei primi anni ’80, è quello di decidere insieme agli associati delle linee comuni da seguire per migliorare le politiche a livello europeo riguardo la gestione della sosta. Si tratta nella pratica di studi, convegni e analisi degli effetti prodotti da provvedimenti intrapresi nelle varie città che hanno iniziato ad introdurre la regolamentazione della sosta. Sempre nel secondo capitolo saranno quindi presentate le linee guida europee nell’ambito dei parcheggi e si analizzeranno casi di “Best Practices” di alcuni Paesi che hanno introdotto provvedimenti per la gestione della sosta. Nel terzo capitolo invece viene considerata la situazione in Italia parlando in principio di Aipark, l’associazione italiana operatori nel settore dei parcheggi che partecipa alle attività dell’Epa e prendendo in esame in seguito le politiche adottate a livello nazionale e nello specifico in alcune tra le più importanti città italiane. Si vedrà come sia ancora troppo marcata la distanza del nostro Paese dai progressi registrati in altri Paesi dell’UE, con le dovute eccezioni. Per quel che riguarda l’aspetto normativo è significativo il fatto che, nonostante il riconoscimento della forte influenza che le politiche della sosta hanno sulla regolazione del traffico, ci siano ancora molte lacune legislative e che spesso la sosta non compaia tra i soggetti delle leggi in tale settore. La legislazione italiana nell’ambito dei parcheggi verrà analizzata nel quarto capitolo. Successivamente, nei capitoli 5 e 6 si parlerà delle fasi preliminari della redazione del Piano della Sosta di Casalecchio di Reno. Il Piano della Sosta è uno dei Piani Particolareggiati che costituiscono il 2° livello di progettazione del PUT (Piano Urbano del Traffico) e rappresenta uno strumento di pianificazione utile ad analizzare lo stato di fatto del sistema dei parcheggi di una città in modo da coglierne le criticità e fornire eventualmente le soluzioni per ovviare ad esse. Nel quinto capitolo viene effettuato un inquadramento territoriale di Casalecchio e si parlerà delle problematiche della sosta emerse nel PGTU (Piano Generale del Traffico Urbano) che costituisce il progetto preliminare o Piano Quadro del PUT. Le fasi attraverso le quali viene elaborato un Piano della sosta si possono sintetizzare nei seguenti punti: - Studio della normativa nazionale e locale e di esempi significativi di altre realtà nell’ambito della sosta. - Analisi dello stato di fatto in termini di domanda e offerta. - Indagini mediante incontri pubblici, distribuzione di questionari o interviste dirette, per cogliere le esigenze degli utenti che usufruiscono del servizio. - Analisi delle eventuali criticità emerse. - Progettazione del nuovo assetto della sosta. - Campagna di sensibilizzazione per fare “accettare” con più facilità i cambiamenti agli utenti. Nel sesto capitolo di questa tesi, e negli allegati si possono consultare i risultati delle indagini su domanda e offerta condotte da TPS (Transport Planning Service), azienda che svolge attività di pianificazione e progettazione, di fornitura software, oltre che indagini e rilievi nell’ambito dei trasporti. Verranno descritte le modalità di rilievo e verranno presentati i risultati ottenuti dall’elaborazione dei dati raccolti, con qualche accenno alle possibili soluzioni per risolvere le problematiche emerse. La fase di progettazione vera e propria degli interventi non verrà invece trattata in questa sede.
Resumo:
Negli ultimi anni è emerso chiaramente come la logistica rivesta un’importanza fondamentale per le aziende e costituisca un ottimo strumento per assicurarsi e mantenere un solido vantaggio competitivo. Inoltre, osservando l’ambiente attuale si evince come il sistema logistico sia caratterizzato da un progressivo aumento di complessità, sia in seguito alle maggiori esigenze dei mercati e sia come conseguenza della globalizzazione. In questo quadro evolutivo è mutato profondamente il ruolo ricoperto dalla logistica all’interno delle organizzazioni. Rispetto alla concezione tradizionale, che considerava la logistica come una funzione esclusivamente interna all’azienda, si è assistito al progressivo coinvolgimento dei fornitori e dei clienti ed è emersa la necessità di coordinare gli sforzi dell’intera supply chain, con l’obiettivo di migliorare il livello di servizio globalmente offerto e di ridurre i costi logistici totali. Tali considerazioni sono state il filo conduttore dell’analisi presentata di seguito, basata su uno studio svolto presso la DENSO Manufacturing Italia S.p.A., finalizzato all’analisi dei flussi in ingresso ed in particolar modo alla razionalizzazione degli imballi e dei trasporti, in un’ottica di integrazione con i fornitori. In particolare, la prima parte della trattazione introduce gli argomenti dal punto di vista teorico. Infatti, nel primo capitolo verrà illustrato il tema della logistica integrata e della sua evoluzione nel tempo, in relazione all’ambiente competitivo attuale ed alle nuove richieste dei mercati, approfondendo il tema della logistica in ingresso e del trasporto merci. Quindi, nel secondo capitolo verrà trattato il tema degli imballi, analizzandone le ripercussioni sull’intera catena logistica ed offrendo una panoramica dei metodi che permettono l’integrazione tra gli imballaggi ed i sistemi di trasporto, movimentazione e stoccaggio. Invece, la seconda parte dello studio sarà dedicata alla presentazione dell’azienda in cui è stato realizzato il progetto di tesi. Nel terzo capitolo verranno introdotte sia la multinazionale giapponese DENSO Corporation che la sua consociata DENSO Manufacturing Italia S.p.A., specializzata nella produzione di componenti per il mercato automotive, presso cui si è svolto lo studio. Nel quarto capitolo verrà descritto il layout dell’impianto, per poi presentare la logistica in ingresso allo stabilimento, ponendo maggiore attenzione ai flussi provenienti dal nord Italia – ed in particolare dal Piemonte – su cui si incentra il lavoro di tesi. Quindi, nella terza ed ultima parte verrà presentata in dettaglio l’analisi condotta durante lo studio aziendale. In particolare, il quinto capitolo tratta dei flussi di materiale provenienti dall’area piemontese, con l’analisi degli imballi utilizzati dai fornitori, delle consegne e delle modalità di trasporto. Infine, nel sesto capitolo saranno proposte delle soluzioni migliorative relativamente a tutte le criticità emerse in fase di analisi, valutandone gli impatti sia in termini economici che in relazione all’efficienza del flusso logistico.
Resumo:
Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.
Resumo:
Nell'aprile 2009 la città dell'Aquila e le zone limitrofe sono state interessate da uno sciame sismico che ha raggiunto l'apice della sua intensità durante la notte del 6 aprile, facendo registrare ai sismografi il sesto grado della scala Richter. Le conseguenze del sisma sono state devastanti, numerose le vittime e gli sfollati; ingenti i danni alla città. Molti edifici, in particolare nel centro storico, sono stati interessati da numerosi crolli o da danni spesso irreversibili, la situazione post-calamità ha quindi posto il grande problema della ricostruzione di una città consolidata. Partendo da questi presupposti il progetto si pone come obiettivo di fornire una proposta concreta per la ricostruzione dell'area di centro storico compresa fra la zona della ex chiesa di Santa Croce e il viale Duca Degli Abruzzi, tentando di ricostruire e riqualificare il tessuto che si affaccia su via Roma; Decumano della città storica. La necessità di ricostruire una parte così significativa della città ha condotto a delle riflessioni sulla natura stessa del luogo e della sua evoluzione. Si sono così potuti mettere a fuoco un certo numero di problemi urbanistici e architettonici che dal primo dopoguerra ad oggi hanno via via cambiato i caratteri fondamentali dell'area di progetto come dell'intera città; sviluppando quest'ultima in maniera piuttosto inorganica e contaminando la struttura originaria del centro storico. Il progetto vuole quindi cogliere l'occasione per riorganizzare parte del tessuto, rifacendosi ai principi generatori e ai caratteri della forma originaria dell'Aquila. Gli edifici progettati perseguono obiettivi molteplici e a volte discordanti ad esempio l' ottima qualità dell'abitare e l'economicità sono due importanti caratteristiche che si è cercato di unire tramite tecnologie votate all'efficienza energetica, alla semplificazione del cantiere e alla semiprefabbricazione. Tali strumenti tecnologici sono molto utili a razionalizzare e ottimizzare il processo costruttivo, in linea con quelle che sono le esigenze della produzione contemporanea; soprattutto in ambito residenziale.
Resumo:
Le aree costiere hanno un ruolo fondamentale nello sviluppo economico, sociale e politico della maggior parte dei paesi; esse supportano infatti diversi ecosistemi produttivi che rendono disponibili beni e servizi. L'importanza economica delle aree costiere è destinata a una considerevole crescita a causa del costante aumento delle popolazioni, delle industrie e delle attività ricreazionali che si concentrano sempre di più sulle coste e ciò può provocare un'alterazione delle linee di costa, imputabile a più fattori e un deterioramento delle condizioni naturali. E' necessario anche tenere da conto dei processi erosivi, sia imputabili a cause naturali (correnti oceaniche, movimenti di marea; azione del vento) sia a cause antropiche (subsidenza del terreno indotta dall'uomo, dragaggio al largo, riduzione del rifornimento di sedimento dai fiumi, distruzione di letti algali, paludi e dune sabbiose). A questo panorama va poi aggiunto il problema dell'innalzamento del livello del mare e dell'aumento delle frequenze di tempeste, come conseguenza del cambiamento climatico globale. In questo contesto quindi, le strutture rigide di difesa contro l'erosione e le mareggiate sono diventate molto comuni nelle aree costiere, coinvolgendo in alcune regioni più della metà della linea di costa. Il meccanismo di difesa attuato dalle barriere consiste nel provocare una riduzione dell'energia delle onde e conseguentemente in una limitazione della quantità di sedimento che viene da loro rimosso dalla spiaggia. La presenza di strutture rigide di difesa generalmente comporta una perdita di habitat di fondale molle e, a causa delle variazioni idrodinamiche che la loro presenza comporta, anche delle comunità ad esso associate, sia su scala locale, che su scala regionale. Uno dei problemi che tali strutture possono indurre è l'eccessiva deposizione di detrito prodotto dalle specie che si insediano sul substrato duro artificiale, che normalmente non fanno parte delle comunità "naturali" di fondo molle circostanti le strutture. Lo scopo di questo studio è stato quello di cercare di evidenziare gli effetti che la deposizione di tale detrito potesse avere sulle comunita meiobentoniche di fondale molle. A tale fine è stata campionata un'area antistante la località di Lido di Dante (RA), la quale è protetta dal 1996 da una struttura artificiale, per fronteggiare il problema dell'erosione della zona, in aumento negli ultimi decenni. La struttura è costituita da una barriera semisoffolta e tre pennelli, di cui uno completamente collegato alla barriera. A circa 50 m dalla barriera, e alla profondità di 4 m circa, è stato allestito un esperimento manipolativo in cui è stato valutato l'effetto della deposizione delle due specie dominanti colonizzanti la barriera, Ulva sp. e Mitili sp. sull'ambiente bentonico, e in particolare sulla comunità di meiofauna. Ulva e Mitili sono stati posti in sacche di rete che sono state depositate sul fondo al fine di simulare la deposizione naturale di detrito, e tali sacche hanno costituito i trattamenti dell'esperimento, i quali sono stati confrontati con un Controllo, costituito da sedimento non manipolato, e un Controllo Procedurale, costituito da una sacca vuota. Il campionamento è stato fatto in tre occasioni nel giugno 2009 (dopo 2 giorni, dopo 7 giorni e dopo 21 giorni dall'allestimento dell'esperimento) per seguire la dinamica temporale degli effetti del detrito. Per ogni combinazione tempo/trattamento sono state prelevate 4 repliche, per un totale di 48 campioni. Successivamente sono stati prelevati ulteriori campioni di meiofauna in condizioni naturali. In particolare sono stati raccolti in due Posizioni diverse, all'Interno e all'Esterno del pennello posto più a Sud, e su due substrati differenti, rispettivamente Ulva proveniente dalle barriere e sedimento privo di detrito. Per ogni combinazione Posizione/Substrato sono state prelevate 3 repliche, ottenendo un totale di 12 campioni. Tutti i campioni prelevati sono stati poi trattati in laboratorio tramite la procedura di filtratura, pulizia e centrifuga indicata dal protocollo. A questa fase è seguito il sorting al microscopio, durante il quale la meiofauna è stata identificata ed enumerata a livello di taxa maggiori. Per quanto riguarda il taxon più abbondante, quello dei Nematodi, si è proceduto anche all'analisi della distribuzione della biomassa per classi di taglia, in quanto descrittore funzionale delle comunità. Per la costruzione degli spettri di biomassa per classi di taglia sono state misurate la lunghezza e larghezza dei primi 100 Nematodi presenti nei campioni. A partire da tali valori dimensionali è stata calcolata la biomassa di ogni individuo, usata poi per la costruzione dei size spectra, tramite tre metodiche messe a confronto: "Nematode Biomass Spectra" (NBS), "Normalised Nematode Biomass Spectra"(NNBS), "Mean Cumulative Biomass Spectra" (MC-NBS). Successivamente la composizione e la struttura della comunità meiobentonica, in termini di consistenza numerica e di rapporti reciproci di densità degli organismi che la compongono e variabili dimensionali, sono state analizzate mediante tecniche di analisi univariate e multivariate. Ciò che emerge generalmente dai risultati dell'esperimento è la mancanza di interazione significativa tra i due fattori, tempi e trattamenti, mentre sono risultati significativi i due fattori principali, considerati singolarmente. Tali esiti sono probabilmente imputabili all'elevata variabilità fra campioni dei trattamenti e delle patches di controllo. Nonostante ciò l'analisi dei risultati ottenuti permette di effettuare alcune considerazioni interessanti. L'analisi univariata ha mostrato che nel confronto tra trattamenti non ci sono differenze significative nel numero medio di taxa rinvenuti, mentre il livello di diversità e di equidistribuzione degli individui nei taxa differisce in maniera significativa, indicando che la struttura delle comunità varia in funzione dei trattamenti e non in funzione del tempo. Nel trattamento Ulva si osservano le densità più elevate della meiofauna totale imputabile prevalentemente alla densità dei Nematodi. Tuttavia, i valori di diversità e di equiripartizione non sono risultati più elevati nei campioni di Ulva, bensì in quelli di Mitili. Tale differenza potrebbe essere imputabile all'inferiorità numerica dei Nematodi nei campioni di Mitili. Questo andamento è stato giustificato dai differenti tempi di degradazione di Mitili e Ulva posti nelle sacche durante l'esperimento, dai quali emerge una più rapida degradazione di Ulva; inoltre la dimensione ridotta della patch analizzata, i limitati tempi di permanenza fanno sì che l'Ulva non rappresenti un fattore di disturbo per la comunità analizzata. Basandosi su questo concetto risulta dunque difficile spiegare l'inferiorità numerica dei Nematodi nei campioni del trattamento Mitili, in quanto i tempi di degradazione durante l'esperimento sono risultati più lenti, ma è anche vero che è nota l'elevata resistenza dei Nematodi ai fenomeni di ipossia/anossia creata da fenomeni di arricchimento organico. E' possibile però ipotizzare che la presenza delle valve dei Mitili aumenti la complessità dell'habitat e favorisca la colonizzazione da parte di più specie, tra cui specie predatrici. Tale effetto di predazione potrebbe provocare la riduzione dell'abbondanza media dei Nematodi rispetto a Ulva e al Controllo, in quanto i Nematodi costituiscono circa l'85% della meiofauna totale rinvenuta nei campioni. A tale riduzione numerica, però, non corrisponde un decremento dei valori medi di biomassa rilevati, probabilmente a causa del fatto che l'arricchimento organico dovuto ai Mitili stessi favorisca la permanenza degli individui più facilmente adattabili a tali condizioni e di dimensioni maggiori, oppure, la colonizzazione in tempi successivi delle patches a Mitili da parte di individui più grandi. Anche i risultati dell'analisi multivariata sono in accordo con quanto rilevato dall'analisi univariata. Oltre alle differenze tra tempi si evidenzia anche un'evoluzione della comunità nel tempo, in particolar modo dopo 7 giorni dall'allestimento dell'esperimento, quando si registrano il maggior numero di individui meiobentonici e il maggior numero di taxa presenti. Il taxon che ha risentito maggiormente dell'influenza dei tempi è quello degli Anfipodi, con densità maggiori nei campioni prelevati al secondo tempo e sul trattamento Ulva. E'importante considerare questo aspetto in quanto gli Anfipodi sono animali che comprendono alcune specie detritivore e altre carnivore; le loro abitudini detritivore potrebbero quindi aumentare il consumo e la degradazione di Ulva, spiegando anche la loro abbondanza maggiore all'interno di questo trattamento, mentre le specie carnivore potrebbero concorrere al decremento del numero medio di Nematodi nei Mitili. Un risultato inatteso della sperimentazione riguarda l'assenza di differenze significative tra trattamenti e controlli, come invece era lecito aspettarsi. Risultati maggiormente significativi sono emersi dall'analisi del confronto tra sedimento privo di detrito e sedimento contenente Ulva provenienti dal contesto naturale. Relativamente all'area esterna alla barriera, sono stati confrontati sedimento privo di detrito e quello sottostante l'Ulva, nelle condizioni sperimentali e naturali. Globalmente notiamo che all'esterno della barriera gli indici univariati, le densità totali di meiofauna, di Nematodi e il numero di taxa, si comportano in maniera analoga nelle condizioni sperimentali e naturali, riportando valori medi maggiori nei campioni prelevati sotto l'Ulva, rispetto a quelli del sedimento privo di detrito. Differente appare invece l'andamento delle variabili e degli indici suddetti riguardanti i campioni prelevati nell'area racchiusa all'interno della barriera, dove invece i valori medi maggiori si rilevano nei campioni prelevati nel sedimento privo di detrito. Tali risultati possono essere spiegati dall'alterazione dell'idrodinamismo esercitato dalla barriera, il quale provoca maggiori tempi di residenza del detrito con conseguente arricchimento di materia organica nell'area interna alla barriera. Le comunità dei sedimenti di quest'area saranno quindi adattate a tale condizioni, ma la deposizione di Ulva in un contesto simile può aggravare la situazione comportando la riduzione delle abbondanze medie dei Nematodi e degli altri organismi meiobentonici sopracitata. Per quel che riguarda i size spectra la tecnica che illustra i risultati in maniera più evidente è quella dei Nematode Biomass Spectra. I risultati statistici fornitici dai campioni dell'esperimento, non evidenziano effetti significativi dei trattamenti, ma a livello visivo, l'osservazione dei grafici evidenzia valori medi di biomassa maggiori nei Nematodi rilevati sui Mitili rispetto a quelli rilevati su Ulva. Differenze significative si rilevano invece a livello dei tempi: a 21 giorni dall'allestimento dell'esperimento infatti, le biomasse dei Nematodi misurati sono più elevate. Relativamente invece ai size spectra costruiti per l'ambiente naturale, mostrano andamento e forma completamente diversi e con differenze significative tra l'interno e l'esterno della barriera; sembra infatti che la biomassa nella zona interna sia inibita, portando a densità maggiori di Nematodi, ma di dimensioni minori. All'esterno della barriera troviamo invece una situazione differente tra i due substrati. Nel sedimento prelevato sotto l'Ulva sembra infatti che siano prevalenti le classi dimensionali maggiori, probabilmente a causa del fatto che l'Ulva tende a soffocare le specie detritivore, permettendo la sopravvivenza delle specie più grosse, composte da predatori poco specializzati, i quali si cibano degli organismi presenti sull'Ulva stessa. Nel sedimento privo di detrito, invece, la distribuzione all'interno delle classi segue un andamento completamente diverso, mostrando una forma del size spectra più regolare. In base a questo si può ipotizzare che la risposta a questo andamento sia da relazionarsi alla capacità di movimento dei Nematodi: a causa della loro conformazione muscolare i Nematodi interstiziali di dimensioni minori sono facilitati nel movimento in un substrato con spazi interstiziali ridotti, come sono nel sedimento sabbioso, invece Nematodi di dimensioni maggiori sono più facilitati in sedimenti con spazi interstiziali maggiori, come l'Ulva. Globalmente si evidenzia una risposta della comunità bentonica all'incremento di detrito proveniente dalla struttura rigida artificiale, ma la risposta dipende dal tipo di detrito e dai tempi di residenza del detrito stesso, a loro volta influenzati dal livello di alterazione del regime idrodinamico che la struttura comporta. Si evince inoltre come dal punto di vista metodologico, le analisi univariate, multivariate e dei size spectra riescano a porre l'accento su diverse caratteristiche strutturali e funzionali della comunità. Rimane comunque il fatto che nonostante la comunità scientifica stia studiando metodiche "taxonomic free" emerge che, se da un lato queste possono risultare utili, dall'altro, per meglio comprendere l'evoluzione di comunità, è necessaria un'analisi più specifica che punti all'identificazione almeno delle principali famiglie. E'importante infine considerare che l'effetto riscontrato in questo studio potrebbe diventare particolarmente significativo nel momento in cui venisse esteso alle centinaia di km di strutture artificiali che caratterizzano ormai la maggior parte delle coste, la cui gestione dovrebbe tenere conto non soltanto delle esigenze economico-turistiche, e non dovrebbe prescindere dalla conoscenza del contesto ambientale in cui si inseriscono, in quanto, affiancati a conseguenze generali di tali costruzioni, si incontrano molti effetti sitospecifici.
Resumo:
Le wavelet sono una nuova famiglia di funzioni matematiche che permettono di decomporre una data funzione nelle sue diverse componenti in frequenza. Esse combinano le proprietà dell’ortogonalità, il supporto compatto, la localizzazione in tempo e frequenza e algoritmi veloci. Sono considerate, perciò, uno strumento versatile sia per il contenuto matematico, sia per le applicazioni. Nell’ultimo decennio si sono diffuse e imposte come uno degli strumenti migliori nell’analisi dei segnali, a fianco, o addirittura come sostitute, dei metodi di Fourier. Si parte dalla nascita di esse (1807) attribuita a J. Fourier, si considera la wavelet di A. Haar (1909) per poi incentrare l’attenzione sugli anni ’80, in cui J. Morlet e A. Grossmann definiscono compiutamente le wavelet nel campo della fisica quantistica. Altri matematici e scienziati, nel corso del Novecento, danno il loro contributo a questo tipo di funzioni matematiche. Tra tutti emerge il lavoro (1987) della matematica e fisica belga, I. Daubechies, che propone le wavelet a supporto compatto, considerate la pietra miliare delle applicazioni wavelet moderne. Dopo una trattazione matematica delle wavalet, dei relativi algoritmi e del confronto con il metodo di Fourier, si passano in rassegna le principali applicazioni di esse nei vari campi: compressione delle impronte digitali, compressione delle immagini, medicina, finanza, astonomia, ecc. . . . Si riserva maggiore attenzione ed approfondimento alle applicazioni delle wavelet in campo sonoro, relativamente alla compressione audio, alla rimozione del rumore e alle tecniche di rappresentazione del segnale. In conclusione si accenna ai possibili sviluppi e impieghi delle wavelet nel futuro.
Resumo:
Lo scopo di questo testo è quello di fornire una panoramica dei diversi aspetti della tecnologia della replicazione dei dati e dei problemi da affrontare durante la realizzazione, la gestione e la valutazione di una qualsiasi soluzione di replicazione dei dati.
Resumo:
Il mio lavoro di tesi è partito da uno studio approfondito del contesto in cui si trova la Darsena di Ravenna, la mia area di progetto. Tutta la storia dell’evoluzione di Ravenna è legata soprattutto a due fattori principali: la necessità di difendersi dalle incursioni esterne e il continuo adattarsi alle trasformazioni del territorio soprattutto per quanto riguarda la linea di costa e il corso dei due fiumi che la circondano, il Ronco e il Montone. Questi due fattori hanno fatto si che Ravenna sia apparsa, sin dai primi secoli d. C., una città cinta da grandi mura, circondate da fiumi. Il Ronco e il Montone, sono poi diventati, a metà del XVI sec. i protagonisti principali della storia di Ravenna. I diversi progetti che si sono susseguiti nel tempo per cercare di deviarli e allontanarli dalla città, dato che ormai rappresentavano solo un grosso pericolo di alluvione, hanno determinato l’abbandono del primo porto della città, voluto dall’imperatore Augusto e la nascita dell’attuale canale Candiano. Fin dall’inizio il nuovo porto di Ravenna ha presentato una serie di problemi legati alla scarsa profondità del fondale e ai costi di manutenzione, a tal punto che le attività del porto sono sempre state molto limitate. Oggi la Darsena di città è caratterizzata da una moltitudine di edifici di archeologia industriale, risalenti al boom economico degli anni ’50, che risultano per la maggior parte, in uno stato di degrado e abbandono, incominciato con la crisi petrolifera degli anni ’70. A partire dal P.R.G. del 1993, si sono messi in atto una serie di iniziative atte a rivitalizzare e reintegrare quest’area all’interno della città storica, in modo che non sembri più un’entità separata ma che possa diventare un grande potenziale di sviluppo per la città stessa. La politica di riqualificazione del waterfront non riguarda solo Ravenna, ma è una strategia che molte città del modo hanno adottato negli ultimi decenni per ridare lustro alla città stessa e, allo stesso tempo recuperare zone spesso lasciate al loro destino. Fra queste città ho scelto di approfondirne cinque, Baltimora, Barcellona, Genova, Amburgo e Bilbao, evidenziando le diverse situazioni ma soprattutto le diverse motivazioni che le hanno spinte a raggiungere la medesima conclusione, quella che l’area portuale rappresenta un grande fattore di sviluppo. La mia attenzione poi si è spostata su quale attività potesse essere più adatta ad assolvere questo obiettivo. Ho pensato di progettare un museo e una serie di edifici ad esso collegati, come un centro di ricerca con residenze annesse e una torre belvedere, che dessero all’area la possibilità di essere vissuta in tutto l’arco della giornata e per tutto l’anno. Prima di affrontare direttamente la parte progettuale ho cercato di capire quale fosse la tipologia di museo e quali fossero i principali elementi indispensabili che caratterizzano questi edifici. Durante lo studio di questi casi ho classificato i musei secondo 5 categorie diverse, la galleria, la rotonda, la corte, la spirale e la pianta libera, che rispecchiano anche lo sviluppo storico di questa particolare tipologia architettonica. In base a tutte queste considerazioni ho affrontato il mio progetto. L’area presa in esame è caratterizzata da un’ampia superficie su cui insistono tre imponenti edifici di archeologia industriale molto degradati e utilizzati come magazzini dalla società proprietaria dell’area. Due di questi presentano un orientamento parallelo alla tessitura dei campi, il terzo invece segue un orientamento proprio. Oltre a queste due trame nell’area se ne può rilevare una terza legata all’andamento del canale. Queste grandi cattedrali del lavoro mi hanno fatto subito pensare di poterle utilizzare come spazi espositivi per mostre permanenti e temporanee, mantenendo intatta la loro struttura portante. Ho deciso di immergere l’edificio più imponente dei tre, che si trova in asse con la strada veicolare di accesso dalla città, in una grande corte verde delimitata ai lati da due nuovi edifici a L adibiti a veri e propri musei. Se da una parte questi musei costituiscono i limiti della corte, dall’altra rappresentano le quinte sceniche di aree completamenti differenti. Il museo adiacente al canale si affaccia su una grande piazza pavimentata dove troneggia l’edificio di archeologia industriale più simile ad una basilica e che accoglie i visitatori che arrivano tramite la navetta costiera; l’altro invece guarda verso il centro di ricerca e le residenze universitarie legati tra loro da un grande campo lungo completamente verde. A concludere la composizione ho pensato ad una torre belvedere dalla pianta circolare che potesse assorbire tutte le diverse direzioni e che si trova proprio in asse con il terzo edificio di archeologia industriale e a contatto con l’acqua. Per quanto riguarda l’organizzazione interna dei musei ho scelto di proporre due sezioni dello stesso museo con caratteristiche ben distinte. Il primo museo riguarda la storia della civiltà marinara di Ravenna ed è caratterizzato da ambienti conclusi lungo un percorso prestabilito che segue un criterio cronologico, il secondo invece presenta una pianta abbastanza libera dove i visitatori possono scegliere come e su cosa indirizzare la propria visita. Questa decisione è nata dalla volontà di soddisfare le esigenze di tutta l’utenza, pensando soprattutto alla necessità di coinvolgere persone giovani e bambini. Il centro di ricerca è organizzato planimetrica mente come una grande C, dove le due ali più lunghe ospitano i laboratori mentre l’ala più corta rappresenta l’ingresso sottolineato da un portico aggettante sulla corte. Simmetricamente si trovano i sette volumi delle residenze. Ognuno di questi può alloggiare sei studenti in altrettanti monolocali con servizi annessi, e presenta al piano terra aree di relax e sale lettura comuni. La torre belvedere invece riveste un ruolo più commerciale ospitando negozi, uffici per le varie associazioni legate al mare e un ristorante su più livelli, fino ad arrivare alla lanterna, che, come il faro per le navi, diventa un vero segno di riconoscimento e di orientamento dell’area sia dal mare che dalla città.
Resumo:
La tesi affronta il problema della risoluzione numerica di equazioni differenziali ordinarie, in particolare di problemi ai valori iniziali. Illustra i principali metodi numerici e li confronta, implementando il codice su MATLAB. Vengono risolti modelli fisici, biologici e demografici, come l'oscillatore di Lorenz e le equazioni di Lotka-Volterra.
Resumo:
La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.
Resumo:
La maggiore richiesta energetica di questi anni, associata alla diminuzione delle riserve di combustibile fossile e ai problemi di inquinamento ambientale hanno spinto il settore scientifico verso la ricerca di nuovi dispositivi che presentino elevata efficienza e quantità di emissioni ridotta. Tra questi, le celle a combustibile (fuel cells) alimentate con idrogeno o molecole organiche come etanolo, acido formico e metanolo, hanno particolare rilevanza anche se attualmente risultano particolarmente costose. Una delle principali sfide di questi ultimi anni è ridurne i costi e aumentarne l'efficienza di conversione in energia. Per questo scopo molti sforzi vengono condotti verso l'ottimizzazione dei catalizzatori a base di Pt spostando l’attenzione verso sistemi nanostrutturati ad elevata attività catalitica e buona stabilità. Durante questo lavoro di tesi si è affrontato lo studio relativo alla preparazione di elettrodi modificati con PtNPs ottenute per elettrodeposizione, un metodo semplice ed efficace per poterne controllare i parametri di deposizione e crescita e per ottenere direttamente le nanoparticelle sulla superficie dell’elettrodo. Come materiale elettroattivo si è utilizzato un foglio di grafite, denominato (Pure Graphite Sheet = PGS). Tale superficie elettrodica, meno costosa e più conduttiva rispetto all’ITO, si presenta sotto forma di fogli flessibili resistenti ad alte temperature e ad ambienti corrosivi e quindi risulta conveniente qualora si pensi ad un suo utilizzo su scala industriale. In particolare è stato studiato come la variazione di alcuni parametri sperimentali quali: i) il tempo di elettrodeposizione e ii) la presenza di stabilizzanti tipo: KI, acido dodecil benzene sulfonico (DBSA), poli vinil pirrolidone (PVP) o poliossietilene ottilfenil etere (Triton-X100) e iii) la concentrazione degli stessi stabilizzanti, potessero influire sulle dimensioni ed eventualmente sulla morfologia delle PtNPs. in fase di elettrodeposizione. L’elettrosintesi è stata effettuata per via cronoamperometria. I film di PtNPs sono stati caratterizzati utilizzando tecniche di superficie quali microscopia a scansione elettronica (SEM) e Voltammetria Ciclica (CV). Al fine di valutare le capacità elettrocatalitiche delle diverse PtNPs ottenute si è studiata la reazione di ossidazione del metanolo in ambiente acido.
Resumo:
La crittografia ha sempre rivestito un ruolo primario nella storia del genere umano, dagli albori ai giorni nostri, e il periodo in cui viviamo non fa certo eccezione. Al giorno d'oggi, molti dei gesti che vengono compiuti anche solo come abitudine (operazioni bancarie, apertura automatica dell'auto, accedere a Facebook, ecc.), celano al loro interno la costante presenza di sofisticati sistemi crittografici. Proprio a causa di questo fatto, è importante che gli algoritmi utilizzati siano in qualche modo certificati come ragionevolmente sicuri e che la ricerca in questo campo proceda costantemente, sia dal punto di vista dei possibili nuovi exploit per forzare gli algoritmi usati, sia introducendo nuovi e sempre più complessi sistemi di sicurezza. In questa tesi viene proposto una possibile implementazione di un particolare tipo di attacco crittoanalitico, introdotto nel 2000 da due ricercatori dell'Università "La Sapienza" di Roma, e conosciuto come "Crittoanalisi Logica". L'algoritmo su cui è incentrato il lavoro è il Data Encryption Standard (DES), ostico standard crittografico caduto in disuso nel 1999 a causa delle dimensioni ridotte della chiave, seppur tuttora sia algebricamente inviolato. Il testo è strutturato nel seguente modo: il primo capitolo è dedicato ad una breve descrizione di DES e della sua storia, introducendo i concetti fondamentali con cui si avrà a che fare per l'intera dissertazione Nel secondo capitolo viene introdotta la Crittoanalisi Logica e viene fornita una definizione della stessa, accennando ai concetti matematici necessari alla comprensione dei capitoli seguenti. Nel capitolo 3 viene presentato il primo dei due software sviluppati per rendere possibile l'attuazione di questo attacco crittoanalitico, una libreria per la rappresentazione e la manipolazione di formule logiche scritta in Java. Il quarto ed ultimo capitolo descrive il programma che, utilizzando la libreria descritta nel capitolo 3, elabora in maniera automatica un insieme di proposizioni logiche semanticamente equivalenti a DES, la cui verifica di soddisfacibilità, effettuata tramite appositi tools (SAT solvers) equivale ad effettuare un attacco di tipo known-plaintext su tale algoritmo.
Resumo:
Nel lavoro di tesi qui presentato si indaga l'applicazione di tecniche di apprendimento mirate ad una più efficiente esecuzione di un portfolio di risolutore di vincoli (constraint solver). Un constraint solver è un programma che dato in input un problema di vincoli, elabora una soluzione mediante l'utilizzo di svariate tecniche. I problemi di vincoli sono altamente presenti nella vita reale. Esempi come l'organizzazione dei viaggi dei treni oppure la programmazione degli equipaggi di una compagnia aerea, sono tutti problemi di vincoli. Un problema di vincoli è formalizzato da un problema di soddisfacimento di vincoli(CSP). Un CSP è descritto da un insieme di variabili che possono assumere valori appartenenti ad uno specico dominio ed un insieme di vincoli che mettono in relazione variabili e valori assumibili da esse. Una tecnica per ottimizzare la risoluzione di tali problemi è quella suggerita da un approccio a portfolio. Tale tecnica, usata anche in am- biti come quelli economici, prevede la combinazione di più solver i quali assieme possono generare risultati migliori di un approccio a singolo solver. In questo lavoro ci preoccupiamo di creare una nuova tecnica che combina un portfolio di constraint solver con tecniche di machine learning. Il machine learning è un campo di intelligenza articiale che si pone l'obiettivo di immettere nelle macchine una sorta di `intelligenza'. Un esempio applicativo potrebbe essere quello di valutare i casi passati di un problema ed usarli in futuro per fare scelte. Tale processo è riscontrato anche a livello cognitivo umano. Nello specico, vogliamo ragionare in termini di classicazione. Una classicazione corrisponde ad assegnare ad un insieme di caratteristiche in input, un valore discreto in output, come vero o falso se una mail è classicata come spam o meno. La fase di apprendimento sarà svolta utilizzando una parte di CPHydra, un portfolio di constraint solver sviluppato presso la University College of Cork (UCC). Di tale algoritmo a portfolio verranno utilizzate solamente le caratteristiche usate per descrivere determinati aspetti di un CSP rispetto ad un altro; queste caratteristiche vengono altresì dette features. Creeremo quindi una serie di classicatori basati sullo specifico comportamento dei solver. La combinazione di tali classicatori con l'approccio a portfolio sara nalizzata allo scopo di valutare che le feature di CPHydra siano buone e che i classicatori basati su tali feature siano affidabili. Per giusticare il primo risultato, eettueremo un confronto con uno dei migliori portfolio allo stato dell'arte, SATzilla. Una volta stabilita la bontà delle features utilizzate per le classicazioni, andremo a risolvere i problemi simulando uno scheduler. Tali simulazioni testeranno diverse regole costruite con classicatori precedentemente introdotti. Prima agiremo su uno scenario ad un processore e successivamente ci espanderemo ad uno scenario multi processore. In questi esperimenti andremo a vericare che, le prestazioni ottenute tramite l'applicazione delle regole create appositamente sui classicatori, abbiano risultati migliori rispetto ad un'esecuzione limitata all'utilizzo del migliore solver del portfolio. I lavoro di tesi è stato svolto in collaborazione con il centro di ricerca 4C presso University College Cork. Su questo lavoro è stato elaborato e sottomesso un articolo scientico alla International Joint Conference of Articial Intelligence (IJCAI) 2011. Al momento della consegna della tesi non siamo ancora stati informati dell'accettazione di tale articolo. Comunque, le risposte dei revisori hanno indicato che tale metodo presentato risulta interessante.